《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 測試測量 > 設(shè)計(jì)應(yīng)用 > 基于TLD改進(jìn)的自動(dòng)人體檢測與實(shí)時(shí)跟蹤算法
基于TLD改進(jìn)的自動(dòng)人體檢測與實(shí)時(shí)跟蹤算法
2015年微型機(jī)與應(yīng)用第22期
毛家順,張汝波,楊大偉
(大連民族大學(xué) 機(jī)電工程學(xué)院,遼寧 大連 116600)
摘要: 首先提出一種運(yùn)動(dòng)人體檢測算法,通過圖像序列識(shí)別出運(yùn)動(dòng)人體作為跟蹤目標(biāo),然后在TLD算法中引入目標(biāo)軌跡預(yù)測,利用該信息來輔助空間搜索。運(yùn)動(dòng)人體檢測算法首先采用背景減除和邊緣檢測算法獲得完整目標(biāo)輪廓,然后使用HU仿射不變矩檢測出運(yùn)動(dòng)人體,該特征能適應(yīng)目標(biāo)旋轉(zhuǎn)、尺度、仿射等變化場合。為提高跟蹤實(shí)時(shí)性,在TLD框架中引入卡爾曼軌跡預(yù)測,并先在預(yù)測位置鄰域搜索。實(shí)驗(yàn)結(jié)果表明,該運(yùn)動(dòng)人體檢測算法能夠在靜態(tài)和動(dòng)態(tài)背景下準(zhǔn)確地檢測出運(yùn)動(dòng)人體;改進(jìn)后的TLD算法與原始算法相比,在準(zhǔn)確率不降低情況下,降低了計(jì)算復(fù)雜度。
Abstract:
Key words :

  摘  要: 首先提出一種運(yùn)動(dòng)人體檢測算法,通過圖像序列識(shí)別出運(yùn)動(dòng)人體作為跟蹤目標(biāo),然后在TLD算法中引入目標(biāo)軌跡預(yù)測,利用該信息來輔助空間搜索。運(yùn)動(dòng)人體檢測算法首先采用背景減除邊緣檢測算法獲得完整目標(biāo)輪廓,然后使用HU仿射不變矩檢測出運(yùn)動(dòng)人體,該特征能適應(yīng)目標(biāo)旋轉(zhuǎn)、尺度、仿射等變化場合。為提高跟蹤實(shí)時(shí)性,在TLD框架中引入卡爾曼軌跡預(yù)測,并先在預(yù)測位置鄰域搜索。實(shí)驗(yàn)結(jié)果表明,該運(yùn)動(dòng)人體檢測算法能夠在靜態(tài)和動(dòng)態(tài)背景下準(zhǔn)確地檢測出運(yùn)動(dòng)人體;改進(jìn)后的TLD算法與原始算法相比,在準(zhǔn)確率不降低情況下,降低了計(jì)算復(fù)雜度。

  關(guān)鍵詞: 背景減除;人體檢測;邊緣檢測;卡爾曼濾波器;TLD

0 引言

  近幾年,行人目標(biāo)跟蹤成為計(jì)算機(jī)視覺領(lǐng)域的研究熱點(diǎn)之一,在智能監(jiān)控、無人駕駛等領(lǐng)域有著重要應(yīng)用。由于姿態(tài)變化、局部遮擋等問題未被徹底解決,該方向仍然具有很大的挑戰(zhàn)性。

  對(duì)于目標(biāo)檢測,DALAL N和TRIGGS B[1]提出一種HOG特征結(jié)合支持向量機(jī)(SVM)進(jìn)行分類方法,具有較高準(zhǔn)確率,但僅適用于無遮擋且姿態(tài)變化較小的場景。FELZENSZWALB P等人提出Deformable Part Models(DPM)[2-3]算法,用根及部件模型描述目標(biāo),能夠解決姿態(tài)變化和遮擋,但其計(jì)算復(fù)雜度高,實(shí)時(shí)性有待改善。由KALAL Z等人[4]提出的TLD跟蹤算法將跟蹤與檢測分離并融合二者結(jié)果,在線更新模板,解決目標(biāo)重入且魯棒性較好,但漂移和遮擋問題未解決,僅適用于目標(biāo)姿態(tài)漸變較慢的場景。

  本文首先提出一種運(yùn)動(dòng)人體檢測算法初始化跟蹤目標(biāo),然后在TLD框架中引入卡爾曼濾波器[5]進(jìn)行目標(biāo)位置預(yù)測,優(yōu)先在預(yù)測位置鄰域內(nèi)搜索,從而減少搜索空間。

1 運(yùn)動(dòng)人體檢測

  本文首先使用混合高斯模型(GMM)[6]獲得前景運(yùn)動(dòng)目標(biāo),然后提取輪廓區(qū)域特征進(jìn)行目標(biāo)判斷。處理流程如圖1所示。

001.jpg

  按照?qǐng)D1的流程,在使用GMM處理后,僅尋找滿足面積和寬高比(0.4)且符合上下文空間關(guān)系的輪廓,結(jié)果如圖2所示。

002.jpg

002.jpg

  1.1 獲得完整輪廓

  為去掉影子干擾,對(duì)目標(biāo)區(qū)域使用中值濾波、開閉操作、Canny[7]檢測,對(duì)圖2處理后,結(jié)果如圖3所示。

003.jpg

  1.2 計(jì)算目標(biāo)輪廓特征

  為適應(yīng)目標(biāo)輪廓各種變化,選取基于HU不變矩[8]得到F1、F3特征,用于判斷是否為人體。

  N5O2{0AQ)1)2E]F_3MSQE)3.png

  其中,CXHTM4]R1_RI@U9V385D[TR.png

  本文選擇7張人體(包括正面、背面、側(cè)面、不同尺度)與7張非人體圖做輪廓特征對(duì)比,結(jié)果如圖4所示,其中橫坐標(biāo)為樣本編號(hào),縱坐標(biāo)為其特征值。

004.jpg

  圖4中直線代表該特征均值,人體輪廓特征為圖中懸浮最上折線,另一條為非人體特征。從圖4中看到人體輪廓F1、F3特征值集中于某個(gè)區(qū)間,與非人體輪廓特征值有明顯差異,本文選取其均值作為判斷條件。

2 軌跡預(yù)測

  結(jié)合TLD給出的目標(biāo)位置和圖像采樣頻率,卡爾曼濾波器可預(yù)測出目標(biāo)下一個(gè)位置,在下一幀TLD先在預(yù)測位置鄰域進(jìn)行搜索,從而避免無用搜索。具體步驟如下:

  (1)用本文提出的目標(biāo)檢測算法獲得目標(biāo)初始位置,并初始化TLD和卡爾曼模型;

 ?。?)利用卡爾曼預(yù)測法首先在目標(biāo)鄰域內(nèi)搜索,再進(jìn)行其他區(qū)域搜索;

 ?。?)判斷TLD目標(biāo)檢測是否有效,無效進(jìn)入步驟(4),有效進(jìn)入步驟(2)迭代計(jì)算;

  (4)進(jìn)行全局搜索,判斷是否為目標(biāo),如果是進(jìn)入步驟(2)進(jìn)行迭代,否則繼續(xù)本步驟。

  3 實(shí)驗(yàn)結(jié)果與分析

  本文在硬件參數(shù)為4 GB內(nèi)存、CPU 3.2 GHz頻率下進(jìn)行實(shí)驗(yàn)。首先使用運(yùn)動(dòng)人體檢測算法確定跟蹤目標(biāo),如圖5所示。

005.jpg

  從圖5中可以看出,該方法正確檢測出人體目標(biāo),使用矩形框標(biāo)出并作為目標(biāo)。

  初始化目標(biāo)后,使用TLD開始跟蹤。為測試改進(jìn)前后搜索空間減少效果,采集靜態(tài)和動(dòng)態(tài)背景下各三種場景。場景1、2、3、4、5、6分別為200、430、1001、456、495、859幀,且都有640×480和1 280×960兩個(gè)尺寸,如表1和表2所示。

006.jpg

  在靜態(tài)背景下,通過引入非線性卡爾曼濾波器進(jìn)行軌跡預(yù)測,通過表1可以看出,其檢測時(shí)間縮短,原因是引入卡爾曼進(jìn)行位置預(yù)測,而兩幀之間目標(biāo)運(yùn)動(dòng)幅度較小,因此能夠正確預(yù)測,避免了全局空間搜索。在動(dòng)態(tài)背景攝像頭運(yùn)動(dòng)軌跡較為平滑的情況下,仍然能正確預(yù)測目標(biāo)下一刻位置,如場景4、5;但當(dāng)攝像頭運(yùn)動(dòng)較為劇烈時(shí)則失效,如場景6。這是由于非線性卡爾曼無法處理這種高度非線性情況。

4 結(jié)論

  本文提出了一種運(yùn)動(dòng)人體檢測算法用于自動(dòng)獲得跟蹤目標(biāo),然后在TLD中引入目標(biāo)軌跡預(yù)測指導(dǎo)目標(biāo)空間搜索,實(shí)驗(yàn)證明該思想能夠減少搜索空間。運(yùn)動(dòng)人體檢測通過結(jié)合Canny邊緣檢測和混合高斯模型提取較完整的目標(biāo)輪廓,使用HU仿射不變矩檢測出人體目標(biāo),該方法只需幾幀即可自動(dòng)找到人體目標(biāo),適用于靜態(tài)和動(dòng)態(tài)背景下單一運(yùn)動(dòng)目標(biāo)實(shí)時(shí)場景。實(shí)驗(yàn)結(jié)論:在攝像頭靜止和緩慢運(yùn)動(dòng)情況下,該卡爾曼預(yù)測法能夠減少搜索空間;在攝像頭運(yùn)動(dòng)較為劇烈情況下,則需要將攝像頭運(yùn)動(dòng)信息加入卡爾曼模型,以正確預(yù)測目標(biāo)位置。

參考文獻(xiàn)

  [1] DALAL N, TRIGGS B. Histograms of oriented gradients for human detection[J]. Computer Vision and Pattern Recognition (CVPR), 2005(1):886-893.

  [2] FELZENSZWALB P, MCALLESTER D, RAMANAN D.A discriminatively trained, multiscale, deformable part model[C]. Computer Vision and Pattern Recognition(CVPR),2008:1-8.

  [3] FELZENSZWALB P, GIRSHICK R, MCALLESTER D, et al .Object detection with discriminatively trained part-based models[J]. Pattern Analysis and Machine Intelligence, 2010,32(9):1627-1645.

  [4] KALAL Z, MIKOLAJCZYK K, MATAS J, et al. Tracking-Learning-detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011,34(7):1409-1422.

  [5] WENG S,KUO C, TU S.Video object tracking using adaptive Kalman filter[J]. Journal of Visual Communication and Image Representation, 2006(17):1190-1208.

  [6] 岳佳,王士同.雙重高斯混合模型的EM算法的聚類問題研究[J].計(jì)算機(jī)仿真,2007,24(11):110-113.

  [7] CANNY J. A computational approach to edge detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1986,8(6):679-698.

  [8] M. K. H.Visual pattern recognition by moment invariants[J]. IRE Transactions on Information Theory,1962,8(2):179-187.


此內(nèi)容為AET網(wǎng)站原創(chuàng),未經(jīng)授權(quán)禁止轉(zhuǎn)載。
主站蜘蛛池模板: 99视频网址 | 添人人躁日日躁夜夜躁夜夜揉 | 在线精品国产第一页 | 日韩成人免费观看 | 日日操日日操 | 一个人看www在线高清免费看 | 免费观看成年的网站 | 91av欧美| 欧美视频在线不卡 | 99在线热播精品免费 | 久久精品a亚洲国产v高清不卡 | 成人区精品一区二区不卡亚洲 | 精品伊人久久久99热这里只 | 国产三级a三级三级天天 | 欧美国产日韩911在线观看 | 一区二区三区四区欧美 | 一级全免费视频播放 | 亚洲成av人片天堂网 | 久久国产精品成人免费 | 欧美福利小视频 | 又色又爽又黄的网站 | 舔射插啊~在线观看女女 | 黄色视屏在线免费看 | 久久影院秋霞理论 | 亚洲一区精品视频在线 | 免费国产成人高清在线看软件 | 人人干视频在线观看 | 免费涩涩漫画大全 | 一级一级毛片免费播放 | 欧美日韩大尺码免费专区 | 国产精品亚洲专区在线观看 | 色丁香综合| 香蕉综合在线 | 涩涩网页 | 欧美日韩亚洲另类 | 日韩中文字幕网站 | 成年人在线免费观看 | 亚洲欧美视频在线观看 | 日本黄a三级三级三级 | 日韩色在线观看 | 黄在线网站 |