文獻標識碼: A
文章編號: 0258-7998(2015)05-0159-04
0 引言
早期交通視頻的分類方法[1]是使用車輛分割或目標跟蹤技術的方法進行判別分類,但是由于這種方法計算量較為復雜且對視頻分辨率有較高的要求,所以不適合多目標情況下的分類應用。Saisan等人提出一種基于動態紋理模型參數間距離的識別方法,這種方法不需要提取局部特征,而是將圖像序列看作是一個二階平穩隨機過程?;诖耍珹ntoni在文獻[2]中提出了基于動態紋理模型的交通視頻分類方法,對已知的交通圖像序列進行模型參數化,根據模型參數計算各模型間Martin距離[3]實現對交通視頻的檢索和分類。然而,由于視頻數據的動態短暫性,使得對傳統采樣方法的采樣率的要求隨之變高,且采樣獲得的視頻數據量大,不便于儲存。近年來,高速發展的壓縮技術很好地解決了這一問題。壓縮感知[4]是美國科研學者Donoho提出的一種新的采樣方法,即當信號為稀疏或可稀疏信號時,能夠通過獲得的隨機采樣少量數據實現對原始信號的精確重構。該文方法在視頻傳統分類方法的基礎上結合了壓縮采樣技術,首先,對每幀圖像用統一壓縮測量矩陣進行觀測,利用得到的測量數據通過奇異值分解的方法估計出模型的動態參數;其次,使用一個時變的測量矩陣對每幀圖像進行測量,由于得到測量數據之間的不相關性質,結合已估計得到的模型動態參數,通過求解一個凸優化問題估計出系統模型的靜態參數;最后,通過壓縮測量數據直接得到的模型參數進行模式判別,從而實現低采樣率下的交通視頻分類。
1 動態紋理模型與距離度量
1.1 線性動態系統
線性動態系統(LDS)模型是Soatto等人[5]提出的用來描述動態紋理變化特征的模型,其主要目的是通過建立一個數學模型來描述一個物理系統的動態特征,圖像序列的動態紋理模型可定義如下:
1.2 Martin距離
將動態紋理的模型參數A、C組成一個新的變量M=(A,C),并生成一個拓展的觀測矩陣,如下所示:
其中θi表示拓展觀測矩陣On(M1)和On(M2)之間的第i個主角。馬氏距離的大小代表了兩個紋理模型之間的相似程度,通過計算馬氏距離能夠對交通視頻進行分類,其分類框架如圖1所示。
2 視頻壓縮感知與模型參數估計
2.1 視頻壓縮感知
其中zt、Φt、yt分別表示t時刻的壓縮測量值、測量矩陣以及原始視頻幀。式(9)是一個凸優化規劃問題,當yt為稀疏信號時,使用L1-Minimization算法求其最優解就能夠精確恢復原始視頻幀,即少量的隨機采樣數據已經包含了原始視頻幀的足夠信息?;诖耍疚慕Y合視頻壓縮感知技術,對交通視頻信號進行壓縮采樣,從少量采樣數據中直接估計模型參數,實現交通視頻的分類(2.2節將作詳細討論),降低了硬件系統編碼端的結構復雜度。其分類框架如圖2所示。
2.2 模型參數估計
2.2.1 狀態轉移矩陣的估計
3 實驗結果與分析
本文從網站[8]下載得到交通視頻樣本數據庫,數據庫是由西雅圖高速公路上固定相機拍攝的254個視頻數據組成,數據庫中考慮了多種天氣條件(下雨、晴天、陰天)下的交通視頻數據,為了更方便有效地進行實驗測試,本文將下載得到視頻數據庫中的視頻數據進行像素修剪,將每個視頻數據體素變為64×64×40的灰度數據。為了證明本文方法能夠有效估計出交通視頻信號的動態紋理模型參數,本文選取編號為“cctv052x2004080516x01638”的交通視頻序列作為實驗樣本,通過本文提出的方法對視頻序列進行參數估計,其中本文方法參數設置如下:d=10,comp=5,稀疏基選擇為小波基,其中comp表示壓縮采樣比,
仿真得到如圖5的實驗結果圖,其中圖(a)為原始交通視頻序列,圖(b)為根據本文方法(CS-DTC)估計得到模型參數恢復的交通視頻序列。
通過上面的實驗結果可知,本方法能有效估計出交通視頻序列的模型參數A、C。為了更為直觀看出本文方法對交通視頻有較好的分類效果,對通過下載得到的254個視頻樣本進行分類測試,視頻庫已經通過人工標記,其中包含44個重度(heavy)交通視頻(車流量較大,車流速度緩慢或停止)、45個中度(medium)交通視頻(車流量一般,車流程減速運動)、165個輕度(light)交通視頻樣本(車輛量較少,車流程勻速運動)。本文將75%的數據作為實驗的訓練樣本,25%的數據作為測試視頻樣本,本文方法設置參數:采樣壓縮比comp分別取2、5、10,繪制多條曲線,并通過本文方法計算得到模型參數,采用馬氏距離為度量對測試樣本進行分類,仿真結果見圖6,其中橫坐標為拓展觀測矩陣On(M)的參數n, 縱坐標表示分類正確率。從圖6中可以看出,當壓縮比comp小于5時,本文方法在降低采樣率的同時不會明顯影響交通視頻的識別率,而隨著壓縮比的繼續增大,由于大幅降低了圖像序列的采樣率數目,本文方法在識別率上整體低于傳統全采樣方法。
本文通過更改狀態向量維數d的大小,比較傳統方法和本文方法對交通視頻數據的識別正確率,其中本文方法的參數設置為:仿真結果比較如表1所示。從表1中可以看出,狀態向量的維數大小也會影響分類的正確性,狀態向量維數過小,其攜帶的信息量也少,會影響分類的正確率;反之狀態向量維數過大,在攜帶不必要信息的同時也會增大計算的復雜度,所以在實際應用過程中應該合適地選擇狀態向量維數d的值,以獲得更好的分類效果。
為了直觀有效地看出本文方法能夠有效降低采樣率,并且不明顯影響分類效果,本文選擇合適的仿真參數:通過調整不同采樣壓縮比comp下估計出模型參數分別進行試驗比較,試驗結果如表2所示。從試驗結果可以看出,本文方法在較低的采樣率下依然能夠有不錯的分類效果。
4 結論
該文根據交通視頻信號的紋理模型特性,在估計模型參數的過程中引入了壓縮感知技術,通過壓縮采樣得到少量的測量值,由少量的測量值直接估計出紋理模型參數,根據模型參數對交通視頻數據進行計算分類。實驗結果表明,相比于傳統方法,本文方法不僅能夠在非常低的采樣率下較為準確地估計出模型參數,且整個識別過程都不需要對視頻信號進行重構,為預報和緩解交通擁堵現象提供了有利的條件,本文方法在視頻紋理識別的其他領域也有著非常廣泛的應用前景。
參考文獻
[1] JUNG Y K,LEE K W,HO Y S.Content-based event retrieval using semantic scene interpretation for automated traffic surveillance[J].IEEE Transactions on Intelligent Transportation Systems,2001,2(3):151-163.
[2] CHAN A B,VASCONCELOS N.Classification and retrieval of traffic video using auto-regressive stochastic processes[C].Intelligent Vehicles Symposium.Proceedings.IEEE,2005:771-776.
[3] MARTIN R J.A metric for ARMA processes[J].IEEE Transactions on Signal Processing,2000,48(4):1164-1170.
[4] QAISAR S,BILAL R M,IQBAL W,et al.Compressive sensing:From theory to applications,a survey[J].Communications and Networks,Journal of,2013,15(5):443-456.
[5] SOATTO S,DORETTO G,WU Y N.Dynamic textures[C].Proceedings of IEEE International Conference on Computer Vision.Vancouver,IEEE Press,British Columbia,Canada:2001,2:439-446.
[6] DE COCK K,DE MOOR B L R.Subspace angles between linear stochastic models[C].IEEE Conference on Decision and Control.Sydney,NSW.2000,2:1561-1566.
[7] STANKOVIC V,STANKOVIC L,CHENG S.(2009) Compressive video sampling[C].Proceedings of the 16th IEEE International Conference on Image Processing.IEEE,2009:3001-3004.
[8] VISAL.Highway traffic dataset[DB/OL].http://visal.cs.cityu.edu.hk/downloads.
[9] SANKARANARAYANAN A C,TURAGA P K,CHELLAPPA R,et al.Compressive acquisition of linear dynamical systems[J].SIAM Journal on Imaging Sciences,2013,6(4):2109-2133.