基于灰度图像处理的方法是依据图像中灰度模式来实现目标提取。假设运动物体为刚性目标,在 t 时刻(x,y)像素处的灰度值为 (f x,y,t),而 t 时刻参考图像(x,y)像素处的灰度值为
-
- 运动目标检测
对图像帧序列 (f x,y,t1),(f x,y,t2),…,(f x,y,tn),若用帧间差分法检测目标,则公式为:
re(f
x,y,t),则 t 时刻(x,y)像素灰度差为 Δf(t
x,y)=(f
x,y,t)-
d(x,y)= 1
(f x,y,t)i -(f x,y,t)j |>T
(1)
re(f x,y,t),则场景中背景中 Δf(x,y)为 0,而运动区域的 Δf(x,y)
ij
0 else
t t
为 1,所以可用 Δf(t x,y)来检测物体运动区域,之后再用运动区域的最小外接矩形( )来标识待确定目标区域,选择合适的
低频图像 差分
MER
MER 面积参数作为其确定目标模板的阀值,从而为选取更新模板序列提供最新运动目标区域。
运动区域与模板
— 图像
阀值 T
-
-
模板序列的选取
-
目标模板关系跟踪全过程,针对复杂背景中存在的变形、 噪声、遮挡等变化,选择模板序列可在一定程度上克服复杂背景对跟踪效果影响。首先,用运动目标提取出的 MER 区域作为新模板,增加到模板序列中。其次,用模板匹配度来决定是否需要更新模板。该方法将模板序列中前 6 个模板匹配度最高的模板按从大到小顺序保存在模板序列中,实现模板选取的自适应更新。最后,若通过迭代模板序列匹配,而匹配度不能达到跟踪精度。为了满足实时性跟踪要求,可认为无目标出现,然后可在下一帧中进行匹配,有效实现实时跟踪。
-
- 模板匹配
模板匹配理论是按照相关策略根据已知模块在搜索图像中寻找逼近模块匹配过程。利用小波变换进行图像分析,利用已确定的模板序列,针对不同分辨率下的分解图像特点,实现快速准确的运动目标跟踪。二维小波变换可将图像信号分解成不同分辨率下的图像信号,提高目标跟踪的处理速度与准确度。 多分辨率下的模板匹配是小波变换的重要应用。对图像的二维离散小波变换可将图像信号一层一层进行分解,一直对信号进
行分解,经过 N 层分解,原始图像 X 分解为:X=D +D +…+D +A 。
图 3 运动目标检测流程图
公式(1)中 T 为分割阀值,传统的阀值以直方图分水岭法来确定,这种固定全局阀值分割法虽实现简单,但在复杂背景 下存在阀值固定,不能对复杂场景中目标实现有效检测,因而 出现实时性差,分割效果不好的问题。本系统目标检测方法采 用滤波器组来实现。
对原始图像平滑作用通过图像低通滤波器来实现,它不但可以忽略图像的边缘细节变化,还可以实现消除噪声的目的,低 通滤波器截止频率 r 越小,通过的能量越少,轮廓部分就模糊, 噪声也得到更好的清除。系统选择 r 值为 0.1,由图 4 知低通滤波效果较好。选择低频图像作为参考图像的原理是把前景运动目标看成噪声,用图像低通平均值消除噪声,从而将低通滤波之后的图像作为参考图像 re(f x,y,t),并对图像与参考图像进行差分,得到差分图像,此时差分图像中既有运动区域,也有不少杂点,差分图像也有目标区域间隔现象出现,可以先进行闭合运算及进行边缘连接,再进行开启形态学计算,取得二值化图像。选择合适的阀值 T,按照高通滤波器进行分割,就可以分割出运动区域,从而根据分割区域的左上角坐标与区域高宽的参数,用最小外接矩形(MER)来加以标识,并将面积最大的
1 2 N N
式中 D +D +…+D 分别为第 1 层,第 2 层到第 N 层分解所得高
MER 区域作为目标跟踪模板。
1 2 N
频子图像(细节信号),AN 为第 N 层分解所得低频子图像(逼近信号)。
判断某位置是否为匹配位置的常用方法是用复杂的相关 计算,估计出是否是可能位置的阀值,并根据目标匹配旋转等 因素更新模板。首先在高频图像中检测出 N 个运动区域,并在低频图像运动区域相同位置进行模板匹配,从而降低运算量,提 高图像匹配速度。
- 运动目标跟踪方法设计
由MATLAB 对跟踪系统进行仿真设计,提供了系统的理论论证[3]。跟踪方法对输入图像序列经滤波器组进行目标检测,分 割出图像内的运动区域,提取出模板,并由小波变换对图像进 行分析,确定出合适的匹配范围,按照模板序列的更新策略,进 行模板最佳位置相关匹配,确定出帧间运动目标位移量,再向伺 服机构发出控制指令实现摄像机随运动目标转动。跟踪方法见 图 2。
图 2 运动目标跟踪方法框图
(a)原始图像 (b)低通滤波图像(r=0.1)
(c)差分图像 (d)更新参考图像的差分图
图 4 coastguard_cif 序列图像检测效果图
简单地使用固定的参考图像对目标运动区域的分割存在更新慢,分割不完全问题,对于参考图像需要进行更新,用re(f x,y,t-1)与前三帧图像 (f x,y,t-1),(f x,y,t-2),(f x,y,t-3)进行均值化作为当前帧参考图像 re(f x,y,t),其具体更新公式为 re(f x,y,t)=(re(f x,y,t-1)+(f x,y,t-1)+(f x,y,t-2)+(f x,y,t-3))/4。对差分图像选择合适的阀值,通过高通滤波器进行二值化
处理,可以实现目标运动区域的分割,并提取运动信息,有效地 抑制孤立点噪声,其具体公式为:
d(x,y)= 1 |(f x,y,t)-re(f x,y,t)|>T
(2)
ij
0 else
阀值分割的图像为二值图,明显可看出存在误检 MER 区域与断裂的目标区域,理论[4]表明模板的选择对匹配算法至关重要,可以对图像中的运动区域进行形态学处理,按照膨胀与 8 连通方法进行图像像素的连接处理,实现区域的融合与内部点填充,求其像素的边界点,再按最小外接矩形(MER)进行标识, 对这些MER 区域进行组合,按照一定的面积阀值进行选择,若面积小于阀值 Ta,将其从 MER 序列中排除,这样就可以对适当检测目标实现分割,并按照面积从大到小排列成 MER 序列, 初始化时将最大的面积作为当前帧匹配的模板,并对修复后的模板图像进行二值化处理,取得二值化模板,而后根据后续帧检测与跟踪情况进行模板更新。图 5 是阀值 Ta 为 100 的运动目标检测结果。
修复后模板图像
二值化模板图像
(a)高通滤波后的 MER 序列 (b)模板图像
图 5 coastguard_cif 序列图像分割模板效果图
(a)一级分解各分量图像 (b)二级分解各分量图像
(c)模板更新策略图 (d)MALLET 分解低频图像图 7 coastguard_cif 序列图像小波分解效果图
差,如果这个绝对差小于某个确定阀值,就认为是邻近点,则在 匹配区域内近邻点数目称为 MCD 距离,它越大说明区域越相似,最后将最相似的区域作为目标跟踪位置。针对复杂背景下 模板背景变化情况,通过引入二值化模板 bw 来改进 MCD 算法,其公式定义为(Ti,j 为目标上的点):
bw(i,j)= 1(Bi,j∈Ti,)j
0(B 埸T )
i,j i,j
-
- 运动目标跟踪
改进后的MCD 公式为:
M N
可靠性与实时性是目标跟踪的两个重要指标。本系统将小 波变换引入目标跟踪领域,其核心是对图像进行二维波变换
(MALLET 算法)分解,而后从高频图像中获得运动目标大致位置,确定其低频图像匹配范围,用模板匹配低频子图像来确定 目标跟踪位置。
分解出的高频子图像
图 6 目标跟踪模块功能框图
小波 MALLET 分解实质是用一组高通与低通滤波器对图像进行分解,高频图像一般都是图像边缘信息、细节或噪声, 而低频图像包含的是图像轮廓或背景,系统通过 Haar 小波的
MALLET 算法分解图像,分解层次可区分成不同分辨率下的图像,可用于由高到低分辨率下的由粗到精的匹配,提高匹配的 准确度。如图 7 所示。
方法中是通过高频图像来检测运动区域,并将检测出的
MER 区域序列(Mk,k=1,2,…,N)与模板在低频子图像相同位置区域进行相似性度量,采用 MCD(Maximum Close Distance) 最多近邻点距离作为模板匹配相关准则。
假设模板图像大小为 M×N,那么模板和任何一个同样大小的待匹配子图像MER 的MCD 距离公式为:
D(A,B)=ΣΣR(Ai,j,Bi,)j ×bw(i,j) (5)
i=1 j=1
传统的方法是以上一帧模板匹配位置图像作为新模板,对于目标的重合、交会与遮挡问题,会对模板的匹配带来难度[5]。 本系统的跟踪方式用滤波器组方法分割运动区域作为模板与
MER 序列,并用小波变换后的高频图像来检测出目标运动区域,再将模板在目标运动区域中匹配,将最佳匹配位置作为跟踪位置。系统用 MER 区域左上角坐标(i,j)来对目标进行标识,并将相邻帧间位移量转化为跟踪量,从而实现目标自动跟踪。 显然由于改进的 MCD 算法将相似度运算完全集中于目标像素,这样在匹配过程中受背景变化的影响很小,且计算量也降低了很多。
其模板更新策略是当模板在当前帧MER 序列中不能找到最佳匹配点时,可以将原来的模板与当前帧进行匹配,选择最 优的匹配点,当然也可以对 MER 区域序列进行更新,之后在全局中进行匹配,如若还不能匹配成功,则从模板序列中选用其 他模板进行匹配,进而实现对目标的跟踪,最后将最佳匹配位 置作为目标跟踪的新模板,增加到模板序列中。
- 实验结果与结论
本系统仿真实验在MATLAB 系统中开发,采用 coastguard_cif 标准测试序列,其实验模板为自适应确定[6]。
图 8(a)~(f)是采用该文提出的目标跟踪方法在实际测试后得到的搜索图,其中黑色矩形框为匹配目标位置,且图 8(a)~
(c)分别是第 8、28、48 帧的跟踪匹配图,而图 8(d)~(f)是在运
M N 动目标进入检测区域并替换模板后的第 68、88、108 帧的匹配
D(A,B)=ΣΣR(Ai,j,Bi,)j
(3)
图。图 8(g)~(i)是采用基于特征匹配的方法,用特征点的跟踪
其中 R(A ,B )= 1 当|Ai,j-Bi,j|>T
(4)
来实现的目标跟踪,用 * 号来表示匹配点,由图 8(g)~(i)知,跟
i,j
i,j
0 else
踪开始匹配较准确,但在有新目标进入检测区域后,出现了跟
该算法首先比较待匹配两幅图像对应像素点的灰度绝对
踪误差,特征点匹配对复杂背景适应性不好。从以上实验结果
表 1 两种跟踪方法对coastguard_cif
序列图像跟踪耗时表 s
(a)第 8 帧跟踪图 (b)第 28 帧跟踪图 (c)第 48 帧跟踪图
跟踪方法
该文改进 MCD 方法基于特征匹配跟踪方法
10 帧
0.928 7
0.766 9
30 帧
2.260 1 2.861 4
120 帧
8.537 8
9.545 0
(d)第 68 帧跟踪图
-
第 88 帧跟踪图
-
第 108 帧跟踪图
提出了基于小波变换与模板匹配的跟踪系统实现方法,采 用滤波器组对图像序列进行分析,能够将运动目标从复杂背景 下进行分割,提供了良好的匹配模板。还结合小波变换技术,按 不同频率图像进行处理,发挥频率域分析的高效处理特点,可 有效实现运动目标的跟踪匹配功能。大量实验结果表明:在复 杂背景图像序列中,能较好地进行实时跟踪。
- 第 8 帧跟踪图 (h)第 58 帧跟踪图 (i)第 108 帧跟踪图图 8 coastguard_cif 序列图像跟踪效果图
不难看出,本方法过程简单、效果明显,运用该方法可完成复杂背景下的运动目标跟踪,一定程度上确保了跟踪系统的稳定性。 同时对该方法与基于特征匹配的跟踪方法在 coastguard_cif 标准测试序列图像中进行了对比,得出本方法处理速度较快的结论。具体对比数据见表 1。
由表 1 数据可知,传统的基于特征匹配方法随图像帧数量的增加而迅速增大,而该文提出的改进 MCD 方法在跟踪前期因模板初始化故相对时间较长,但随帧序列增加时所需时间相 对增加较小。
参考文献:
- Sonka M,Hlavac V,Boyle R.Image processing,analysis,and machine vision[M].2nd ed.[S.l.]:Brooks/Cole,2002.
- 邵文坤,黄爱民,韦庆.动态场景下运动目标跟踪方法研究[J].计算机仿真,2006,23(5):181-184.
- 王爱玲,叶明生,邓秋香.MATLAB R2007 图像处理技术与应用[M]. 北京:电子工业出版社,2008.
- Cheng F H,Chen Y.Real time multiple objects tracking and iden- tification based on discrete wavelet transform[J].Pattern Recogni- tion,2006,39:1126-1139.
- 王宾,潘建寿,王琳,等.基于多特征的均值偏移视频目标跟踪算法[J].小型微型计算机系统,2006,27(9):1746-1749.
- 闫敬文.数字图像处理:MATLAB 版[M].北京:国防工业出版社,
2007.
(上接 144 页)
实验结果见表 1、表 2。
表 1 JAFFE 数据库上各表情识别率 (%)
)
从表 1、表 2 中可以看出,MatPCA 在两个表情数据对 7种基本表情的识别率均高于 PCA、2DPCA,如 CED-WYU(1.0)数据库上的惊讶表情,MatPCA 高出 PCA 6.45%,高出 2DPCA
5.15%;而 MatFLDA 在两个表情数据对 7 种基本表情的识别率高于 FLDA,如 JAFFE 数据库上的高兴表情,MatFLDA 高出 FLDA 5.52%。实验证明基于矩阵模式的MatPCA、MatFLDA 提取的表情特征更优,有助于提高识别率。究其原因就是该算法 既利用图像矩阵中的行向量间的信息,也充分利用列向量间的
信息,尽可能地保留了原始的表情信息。
- 结束语
提出了一种基于矩阵模式的人脸表情识别方法。该算法 直接将人脸表情图像矩阵作为矩阵模式,并结合传统 PCA 和
FLDA 进行表情特征提取。与 2DPCA 等不同,该算法充分利用了图像矩阵中的行、列向量间的信息,尽可能地保留了原始的 表情信息。实验结果表明,基于矩阵模式的特征提取方法能有 效地提高识别率并节省计算时间。
参考文献:
- Yang J,Zhang D.Two-dimensional PCA:A new appearance-based face representation and recognition[J].IEEE Trans Pattern Analysis and Machine Intelligence,2004,26(8):982-994.
- 黄勇.基于多种主元分析与信息融合的人脸表情识别[D].江门:五邑
大学,2007.
- Yang Jian,Frangi A F,Yang Jing -yu,et al.KPCA plus LDA:A complete kernel fisher discriminant framework for feature extrac- tion and recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(2).
- Yang J,Yang J Y,Ye H.Theory of fisher linear discriminant analysis
and its application[J].Acta Automatica Sinica,2003,29(4):481-494.
- 黄勇,应自炉.基于分类器联合的表情识别[J].计算机工程与应用,
2007,43(25):244-245.