郭俊,王平
(西華大學 電氣與電子信息學院,四川 成都610039)
摘要:提出了一種改進的混合高斯背景模型方法,克服了傳統混合高斯背景建模方法計算時間長的缺點。通過對視頻圖像中運動目標區域進行背景建模,減小了每一幀的背景建模區域,同時在提取運動目標區域前先對初提取的前景目標進行中值濾波,減小運動目標區域的范圍,進一步壓縮了背景建模的時間。最后通過與時間平均背景建模和傳統混合高斯背景建模方法進行比較,驗證了本文算法的高效性。
關鍵詞:運動目標檢測;運動目標區域;背景減除法;混合高斯背景模型
0引言
視頻圖像運動目標檢測就是將運動目標從視頻序列圖像背景中分離出來,是運動目標識別與跟蹤的基礎[12]。其中圖像序列中有運動目標經過的區域稱為前景,其余部分為背景。高效而準確地檢測并提取前景目標是視頻圖像運動目標分析技術的核心部分之一,也是計算機視覺和圖像理解的熱點和難點之一。
目前常用的檢測算法有三種:幀差分法[3]、光流法[4]以及背景減除法[5]。幀差分法比較適用于分析簡單場景,并且提取到的目標不完整,一般用來進行初提取工作;而光流法往往采用迭代法進行計算,且對光照、陰影等比較敏感,使用范圍比較小;而背景減除法操作簡單,建模方式多種多樣,所以使用最為廣泛。背景減除法將新一幀圖像與所建立的背景模型進行比較,若相同位置的像素灰度值的差大于提前設置的閾值,則認為這個像素點來自于前景,否則是背景。而一幅圖片中所有來自前景的坐標就構成了前景區域。背景減除法的核心技術在于背景模型的建立和更新,不同的背景建模方式產生的處理時間和處理效果各不相同。STAUFFER C等人提出的混合高斯背景建模方法[67]是目前較為成功的方法之一。它的理論依據在于不同的圖片中相同坐標處的像素值必然服從于一個或者多個高斯分布,通過對每個坐標處建立幾個高斯函數,能有效地建立一個具有很高魯棒性的背景模型。當然由此也造成了該方法計算的復雜性。
本文通過減小背景建模區域來達到縮短檢測時間的目的,通過幀差分法對運動前景區域進行初提取,通過膨脹和腐蝕等形態學操作[8]使離散的前景像素點合并為一塊或者幾塊區域,然后對這些區域進行混合高斯背景建模,能較好地減小算法的計算量,同時也能達到同樣的檢測效果。
1傳統混合高斯背景建模理論
參考文獻[2]中使用M個高斯函數構成的混合高斯背景模型來表示一個坐標處像素在時間域上的概率分布,記t時刻坐標(x,y)處像素灰度值為ft(x,y),則坐標(x,y)處像素灰度值為ft(x,y)的概率P(ft)用式(1)表示:
式中M是高斯模型的個數,ωl為第l個高斯分布的權重,ηl(ft,μl,t,σl,t)是第l個高斯密度函數,用式(2)表示:
式中μl,t是該高斯分布的均值,σl,t是方差。
判定原則如下:對于待檢測圖片中的ft(x,y),求出能代表其背景分布的M個高斯函數,將這些函數按ω/σ值的大小排序,取比值大的前B個高斯函數組成該點背景的混合高斯模型,如果ft(x,y)與其該背景模型中的第k(k≤B)個高斯分布匹配,則認為該點是背景,否則為前景。匹配準則如下:
式中λ來自于經驗。
背景更新:新一幀圖像檢測完成后,若ft(x,y)被認為來自于前景,也就是說該點對應模型的前B個高斯分布中沒有一個與之匹配,則用一個新的高斯分布來替換ω/σ值最小的那個分布,其均值為ft(x,y),并賦予一個較大的方差和較小的權重。
參數更新:
與ft(x,y)匹配的高斯函數按下式更新:
圖3對視頻ccbr.avi進行的算法仿真結果圖不能與ft(x,y)匹配的高斯函數按下式更新:
ω′l(x,y)=(1-α)ωl(x,y)(7)
然后歸一化權值。式中α、ρ為學習速度,來自于經驗。
2改進的混合高斯背景建模
需要檢測的視頻里面每一幀圖像只有部分區域中存在運動目標,常用的混合高斯背景模型都是對整幅圖像進行背景建模,其中很大一部分是沒有必要的,本文則是提前將視頻圖像中有運動前景的區域提取出來并通過膨脹和腐蝕操作確保提取的前景區域一定包括了運動前景,然后對運動前景區域進行混合高斯背景建模,進而提取出運動前景。
提取運動前景區域采用幀差法,其包括兩幀幀差法和三幀幀差法,其中三幀幀差法提取到的只有運動前景的一部分,比較之下,本文采用兩幀幀差法提取,并通過形態學操作,得到運動前景區域,通過C4模塊進行存儲,然后利用混合高斯背景建模模塊,只對提取出的前景區域進行處理,得到運動前景。改進的基于混合高斯背景建模的運動目標檢測的設計流程圖如圖1所示。
首先記t時刻和t+1時刻輸入的連續兩幀圖像分別為x和y,灰度化處理分別記為m和n,然后將m和n數據類型轉化為雙精度型,并存儲到q和w中,記c(i,j)=|q(i,j)-w(i,j)|,根據c(i,j)與設置的閾值th比較分析,判斷該像素點是前景還是背景。整幅圖片處理完成后即得到初提取的前景二值圖像C,對圖像C采用3×3中值濾波[6]處理,然后進行膨脹和閉運算操作,得到初提取的前景區域C3,并最終將前景區域信息存儲到文件C4中,即完成了對運動目標區域的提取操作。然后混合高斯背景建模模塊對原始視頻的C4前景區域進行背景建模,最終完成對前景圖像的準確提取。
3結果分析
本實驗采用MATLAB 2014a進行編程,并在Inter 3.4 GHz處理器、4 GB內存的PC上進行仿真,使用的視頻速率為20幀/s,原始經典混合高斯背景建模和改進后的混合高斯背景建模所選高斯函數均為4個,初始標準差為6,前景閾值th=λσk,λ=2.5,學習率α=0.01,方差學習率ρ=0.03。視頻首先經過C4區域提取模塊,提取出運動目標區域,然后背景建模模塊通過對C4區域進行前景提取,最后檢測出運動前景二值圖像[9],并將結果由四個輸出視頻(原始視頻、灰度處理視頻、前景區域視頻和前景二值圖像視頻)顯示出來。本文實驗共采用了三種方法進行仿真模擬:時間平均模型法[1]、混合高斯模型法以及本文所介紹方法,對復雜背景視頻Traffic.avi和簡單背景視頻ccbr.avi進行了處理,圖2和圖3分別是選擇Traffic.avi的第175幀圖像和ccbr.avi的第50幀進行算法仿真的結果從圖中可以看出,本實驗完全能達到混合高斯模型的效果,而從表1的分析數據可以看出,本實驗所用時間遠遠小于傳統的混合高斯背景建模法。
從實驗數據可以看出,通過對運動物體運動區域的提取來進行混合高斯背景建模可以有效縮短前景提取時間,而且越是簡單的背景,節約的處理時間越明顯。
4結論
本文為了克服傳統混合高斯模型方法計算量大的缺點,提出了對運動目標所在區域建立背景模型的方法,通過與時間平均模型和混合高斯模型進行實驗仿真對比,結果證明了本文所用方法的有效性。
參考文獻
[1] 趙春暉,潘泉,梁彥,等.視頻圖像運動目標分析[M]. 北京:國防工業出版社, 2011.
[2] 杜文略,劉建梁,沈三民,等.基于FPGA的運動目標檢測系統設計[J].電子技術應用,2014,40(11):3638,42.
[3] LIPON A, FUJIYOSHI H,PATIL R. Moving target classification and tracking from real time video [C].Proceedings of IEEE Workshop Applications of Computer Vision,Los Alamitos,CA,1998:814.
[4] BROX T, BRUHN A, PAPENBERG N, et al. High accuracy optical flow estimation based on a theory for warping[C]. Proceedings of 8th European Conference on Computer Vision, 2004:2536.