您好,欢迎来到意榕旅游网。
搜索
您的当前位置:首页在线模板的人脸特征点对齐

在线模板的人脸特征点对齐

来源:意榕旅游网
2013年11月 计算机工程与设计 COMPUTER ENGINEERING AND DESIGN Nove.2013 Vo1.34 No.11 第34卷第11期 在线模板的人脸特征点对齐 徐国厌 (武汉工程大学计算机科学与工程学院智能机器人湖北省重点实验室,湖北武汉430073) 摘要:为提高实时人脸对齐的精度和效率,在AAM关键点对齐算法基础上,提出融合在线多帧特征信息的特征点更新 实时人脸对齐方法。利用前帧已对齐的特征点信息,快速计算本帧运动矢量,作为本帧对齐初始位置,使本帧对齐迭代的 初始点充分接近最优解,避免大范围搜索容易陷入的局部极小问题;人脸检测的初始化过程仅在完全丢失或第一帧初始化 时进行一次,后续帧在前帧基础上更新位置,提高跟踪速度;针对人脸运动过快出现的块匹配失效问题,使用多分辨率块 搜索算法,在各级图像上进行块对齐,在大范围的快速移动条件下,仍然能够实现特征点匹配。在实时网络摄像头条件下进 行跟踪实验。实验结果表明,提出的特征点更新算法能够实时跟踪快速的人脸移动,并在较少的迭代次数内实现人脸对齐。 关键词:人机交互;人脸对齐;在线特征点更新;主动表观模型;主方向滤波 中图法分类号:TP391.4 文献标识号:A 文章编号:1000—7024(2013)11—4021—06 Real time face alignment using online features model XU GUO—qing (Hubei Provincial Key Laboratory of Intelligent Robot,School of Computer Science and Engineering,Wuhan Institute of Technology,Wuhan 430073,China) Abstract:Aimed at the real time face alignment precision and efficiency,a real time face aligning algorithm using online features updating is presented.Compared to previous work,the following improvements is realized.First,the previous frame features are used tO calculate the motion vector of the current frame,and the original iterate position of current frame is estimated based on the motion vector.Therefore,the solution is close to the optimal and the local minimal is avoided.Second,facial detection is processed only when the face is fully lost or at the first frame,and the following frames directly use the previous results rather than detect frame by frame.Third,pyramid block match is used and the block match is processed in each layer of the pyramid, therefore,the losing frame problem which can be usually found in fast face movement can be overcome.Experiment shows the method can real time track the fast moving face and align the features after fewer number of iteration times. Key words:human computer interactive;face alignment;online features update;active appearance mode;principal direction fil— tering 0 引 言 如何在自然光照条件下实现人脸快速跟踪对齐是模式 识别的研究热点,在人脸识别、表情交互、真实感动画等 诸多领域均有广泛的应用。人脸跟踪的研究难点在于如何 在初始位置基础上,使用反转合成图像对齐(ICIA)迭代 算法,从而避免了在全图像上计算关键点匹配的大计算量。 使用在线特征点的跟踪算法,其特征点在对齐的图像上进 行计算,使所选择的特征点是图像上的真实特征位置,避 免了直接使用AAM对齐时的特征点非局部最优点的问题。 在自然运动的情境下,实现对人脸关键点的鲁棒、快速的 跟踪和对齐,并且能够实现在常规条件下的实时计算。在 主动表观模型(active appearance models,AAM)算法的 使用在线特征点更新算法,能够使每个特征点都是当前帧 中的实际显著特征点,从而使所选择和更新的特征点对当 前帧人脸的运动、位置、光照等变化具有较强的适应性, 从而提高了特征点预估位置对实际位置的鲁棒性和精度, 使后续计算在较小的图像范围内进行搜索,减少了迭代计 基础上,结合当前帧对齐结果,通过使用在线的特征点在 后续帧上的匹配位置,计算出待匹配帧中的形状初始位置, 收稿日期:2013—04—08;修订日期:2013—06—20 基金项目:湖北省高等学校优秀中青年科技创新团队计划基金项目(T201206);武汉工程大学科研基金项目(12126021) 作者简介:徐国庆(1974一),男,江苏徐州人,博士,副教授,研究生导师,研究方向为计算机视觉。Email:xgqtiger@163.com 计算机工程与设计 2013正 算的次数,特别当人脸在视频帧中出现较大范围的快速运 动时,使用在线更新的特征点可以精确定位脸部的整体运 动方向和位置,结合多角度的匹配模型,实现人脸快速跟 踪对齐。 1相关的工作 在人脸对齐和跟踪算法研究中,有很多学者提出了有 效的方法,其中AAM采用形状和纹理融合统计约束,并 通过ICIA算法将Hessian矩阵和最速下降图像的计算转到 离线阶段,从而提高在线对齐的迭代速度,成为目前广泛 应用的人脸对齐算法。为提高在人脸大角度偏转时的对齐 问题,Krishnan Ramnath使用多个角度的AAM模型l1]对 人脸在大角度偏转时进行对齐,解决了脸部运动的鲁棒匹 配对齐。Ramnath提出增加AAM对齐关键点网格模型的 密度l2j,Kanade-Lucas跟踪算法选择一些光照、姿态、表 情鲁棒的图像特征,如灰度、边缘、角点,容易出现抖动, Cristinacce提出了使用局部模型口]来提高AAM对齐精度, 但是局部模型存在局部遮挡和光照等不鲁棒的问题。结合 图像分割实现的局部图像跟踪 能够在可变模板下实现运 动目标的鲁棒跟踪。在对齐过程中,采用分阶段的对齐算 法 ]较好地解决光照问题,同时使跟踪计算量增加。 在AAM模型的求解过程采用最速下降方法,该方法 在迭代过程中容易收敛到局部最优解,并且构造的代价函 数往往不能很好地解决局部极小问题,使用局部极小无关 的AAM模型[6 使代价函数仅在目标点有极小点,使计算 过程快速收敛。使用2D-AAM统计模型和粒子滤波算 法l7 ]进行人脸关键点跟踪,基于外观图像,将整个人脸外 观模型和输入图像匹配,提高了跟踪的精度,但是对初始 位置敏感,容易在跟踪丢失时陷入初始位置的局部极小点。 文献[9]在AAM模型对齐中采用了人脸分割约束,在计 算人脸跟踪位置时引入肤色约束,使迭代过程迅速收敛到 真实人脸的位置,从而提高了对齐的精度。Min Lil1叩使用 自适应粒子滤波实现人脸姿态预估,在大范围的人脸偏转 时,会出现跟踪丢失。 本文结合人脸跟踪对齐和在线特征点更新,通过已对 其的当前位置,预估计算后续帧对齐位置,通过预估位置, 减少迭代计算的图像范围,显著减少迭代次数,并提高每 次对齐匹配的效率,减小误匹配次数。论文首先使用多分 辨率特征点匹配搜索,在减少各级匹配搜索窗口数的同时, 最终的匹配在各级分辨率上均为最优匹配;其次,使用关 键点运动矢量方向直方图求取各特征点的主运动方向,并 依主方向对当前帧匹配的特征点进行更新,使每帧匹配的 特征点均为有效匹配点;最后根据特征点的主运动方向计 算当前帧对齐的初始位置,使对齐迭代的初始位置位于最 优解附近,提高使迭代收敛的效率,并减少迭代次数。在 实验部分,通过对自然条件下的人脸对齐跟踪实验,验证 了提出的算法在人脸快速移动时能够鲁棒地实现跟踪对齐, 并且该算法能够显著减少每次迭代运算的次数。 2算法描述 在线特征点更新对齐算法包括特征点选择、特征点匹 配、特征点更新等步骤,在各步骤计算时,结合已对齐的 图像上的在线特征点进行特征计算和位置匹配,提高了图 像对在线帧中的姿态、位置、光照的鲁棒性。 2.1特征点选择 在AAM模型训练样本中采用的是手工标注关键点的 方法,这种方法在图像的实际特征上,不具有最佳的局部 特征如梯度,为提高对齐跟踪的鲁棒性和精度,本文在手 选特征点的基础上,增加选择了对Harris特征响应最大的 像素点作为附加的跟踪特征点,对应的点在图像上的特征 满足如下的条件 a I a 2 J a a z a v H(声) a 2I a I a v r] a 式中:I——由AAM初选区域的人脸图像灰度值,将满足 上式二阶导数最大的志个特征点作为附加的特征点。这两 类特征点在对齐过程中将分别在计算人脸初始位置和人脸 特征区域时进行计算,因此需要对两者进行区分。对选择 的两类特征点采用权值加以区分 f叫1,i∈@1 U 一Jl  ,i∈@2 式中:叫1> ,@1——语义特征点,@2——附加的Harris 特征点。经过权值加权后,这两类特征点在对齐过程中, 分别在计算初始位置时和计算对齐的位置时进行权值修正, 以加快对齐计算的过程。 2.2在线特征点运动匹配 文献[1]中在计算人脸对齐区域时,通过计算每帧图 像的金字塔,进行AAM特征点的匹配,由于没有考虑相 邻帧在人脸运动时,对应的特征点的运动矢量具有较大的 运动相似性,因此,可以通过计算相邻帧特征点附近的匹 配点,获取两帧中对齐位置的初始运动矢量,并转化为人 脸区域运动的粗略位置,由于使用2.1中附加的特征点, 此类跟踪点具备图像真实局部特征,在计算过程中,能够 显著提高预估点的精度。 通过相邻帧的特征点匹配,人脸在相邻帧的运动位置 估计过程可以转化为计算各特征点的匹配矢量,即求解前 帧特征点与本帧对应搜索区域最小匹配误差问题。为提高 计算效率,可以进一步缩小匹配范围,因此在计算陪陪区 域时,采用多分辨率搜索算法,即将原图像进行多分辨率 分解,从最小分辨率层逐级向上进行特征点匹配搜索,每 层的搜索采用基于特征图像块的光流匹配算法。在计算目 计算机if_程与设计 取为方向直方图最大值对应的运动方向,将方向直方图最大值 及其左右1O度3个方向上的特征点的运动幅值 取平均作为 全局运动幅值,则匹配主方向角度 和幅值 为 0M—arg max(H( )), M一_l 0 , 2013焦 用2.1计算的时候,为提高点的跟踪的鲁棒性,将初选的 特征点数量加大,并使其分布范围包含较多的真实图像的 梯度特征点。采用如下的选择计算方法: (1)需要特征点总数为n,其中2.1节中的公式扩展的 特征点数量为m,其中经过主运动方向匹配后,滤除的特 征点数为k,则还需要在已对齐的当前帧的人脸范围内选 择k个特征点进行补充,如果k一0,则转第(3)步,否则 转第(2)步。 确定全局主方向后,可以将与主方向差别较大的特征 点滤除,在本帧AAM对齐收敛后,在对齐的人脸区域重 新选择,实现在线特征点更新。通过在线更新滤除误匹配 的特征点后,对于正确匹配的特征点,计算其模型主成分 分析(principal component analysis,PCA)分量的增量预 估值,在标准ICIA迭代算法中,采用对形状PCA增量的 迭代求解 /xp一 ∑ A。 )一A0)'p+/xp-..p 因为本帧的部分特征点已经实现了匹配,因此可以在 这些匹配的特征点的基础上,对本帧的形状S进行初始位 置预估。对ICIA的增量迭代过程做以下的调整: (1)计算本帧匹配点处的Jacobi和Hessian矩阵。对 于匹配的特征点X∈ ,其Jacobi矩阵为 0 ll x(- , 相应的计算其Hessian 矩阵为: H 一 [ ] [ ]。 (2)计算本帧匹配点与前帧对齐形状对应点之间的误 差向量 s l—So+2 P i S S 一PreAlignS 分别为前帧收敛时的对齐形状,前 帧对齐形状通过上述匹配算法筛选的特征点,将匹配的特 征点的误差向量表示为:Prerr—S 一St:。 (3)预估的关键点形状参数增量为 = err 其中,P+Ap—P,可以得到本帧的关键点对齐预估形状: S 一S0+ PiSi。 本帧预估位置是基于匹配点的点对点误差最小,匹配 的特征点误差最小使预估的形状约束在最优点附近,在预 估形状的基础上进行对齐迭代,可以加快收敛过程。 2.3特征点更新 完成本帧特征点匹配后,由于在主方向滤除时,一部 分误差较大或错误匹配的点(这部分点的运动方向与主运 动方向偏差大)被滤除,不再适合进行后续的匹配跟踪过 程,因此总的匹配点减少,为使后续帧的特征点的数量保 持稳定,因此需要在对齐帧添加新的特征点。计算的方法 见2.1,在计算过程中,考虑到已经对齐的点因为具有了稳 定的局部特征,可以保留作为后续继续计算的特征点,使 (2)按照2.1中的方法,在人脸内选择k+d个最大特 征值点,并将这些点的坐标位置依次与i中剩余的m—k个 特征点进行比较,若其不在m—k个特征点内,则保留此 特征点;若其已经存在于m—k个特征点内,则排除此点; 循环直至k+d个点全部比较完成,得到P个补充特征点, p≤k+d,如果p>k,则在P个特征点中取前k个最大特征 值点作为补充,使扩展的特征点数量为m;否则将待选特 征点数d扩大1.2倍,再次比较剩余特征点,直到总特征 点数量满足要求。 (3)完成本帧特征点更新,在下一帧中计算各特征点 的运动矢量,进行下一帧运动位置预估计算。 经过特征点滤除及新增后,能够保持每一帧的特征点 都是前一帧上正确跟踪到的或者是新增加的特征点,从而 避免错误匹配的特征点在后续帧继续存在,提高图像运动 方向预估精度。 3实验结果及分析 实验中采用网络摄像头,采集精度为320×240,在自 然光照条件下进行人脸跟踪。为提高图像对齐的精度,采 用3个角度的对齐模型,分别对人脸偏转角度大于3O度、 介于正负3O度之间情况进行对齐。跟踪算法采用在线特征 点更新方法,在脸部选择眼眉、眼角、鼻翼、嘴角等区域 较为明显的特征点进行在线跟踪和更新,并在预估的位置 进行脸部特征点对齐。 在实验中比较了是否使用在线特征点更新算法对跟踪 对齐的精度和迭代计算效率的影响。图3中的第一行和第 二行分别显示了使用在线特征点更新预估初始位置和不使 用在线特征点更新对同一段视频的迭代对齐收敛效率的影 响。每行第一幅图为跟踪视频的第7帧,该帧已经实现了 对齐,后边四幅图像为在后续帧(第8帧)上通过特征点 的运动位置预估出人脸的初始位置,再使用对齐迭代算法 进行特征点对齐。这4幅图分别为:①根据第7帧形状使 用在线特征点更新匹配到的第8帧初始形状;②在预估的 初始形状位置开始迭代的第3次对齐点位置;③在预估的 初始形状位置开始迭代的第15次对齐点位置;④在预估的 初始形状位置开始迭代的第19次对齐点(收敛时)位置 的形状。 从图3可以看出,第7、8这两帧的运动变化剧烈, ・4026・ Computer Vision and Pattern Recognition,2008. 计算机工程与设计 2013在 nee model based particle filter for both robust and precise trac- [3 David Cristinacce,Timothy F Cootes.Feature detection and tracking with constrained local models[c]//British Machine Vision Conference,2006:929—938. king[C]//Canadian Conference on Computer and Robot Vi— sion,2007:636—645. [8]Bagnato L,M Sorci,Antonini G,et a1.Robust infants face tracking using active appearance models:A mixed—state conden— [4]Thomas Schoenemann,Daniel Cremers.A combinatorial solu— tion for model— based image segmentation and real——time tracking sation approach[c]//In ISVC,2007:387 394. Eg]Zhou Mingcai,Liang I in,Sun Jian,et a1.AAM based face tracking with temporal matching and face segmentation[M]. IEEE Conference on Computer Vision and Pattern Recognition,2010. Lj].IEEE TPAMI,2010,32(7):1153—1164 [5]Kahraman F,Gokmen M.Illumination invariant three-stage approach for face alignment[C_//International Conference on Image Processing,2009:637 643. [6]Nguyen M H,De La Torre F Local minima free parameterized appearance models[C]//IEEE Conference on Computer Vi— sion and Pattern Recognition,2008:519—526. [10]Li Min,Chen Wei,Huang Kaiqi,et a1.Visual tracking via incremental sel ̄tuning particle filtering on the affine group [C]//IEEE Conference on Computer Vision and Pattern Recognition,2010. [7]Fleck S,Hoffmann M,Hunter K.PFAAM an active appeara- (上接第4011页) [5]Robu V,Poutre H L.Retrieving the structure of utility graphs used in multi item negotiation through collaborative filtering of equal:A modal logic for ceteris paribus preferences_J].Jour nal of Philosophical Logic,2009,38(1):83—125. aggregate buyer preferences[c]//Proc of The 2nd Interna tional Workshop on Rational,Robust,and Secure Negotiations r9]Boutilier C,Bacchus F,Brafman R I.UCP-Networks:A di— rected graphical representation of conditional utilities[C]// Proc of the Seventeenth Conference on Uncertainty in ArtificiaI Intelligence,2001:56—64. in Multi-Agent Systems,2006. [6]Gonzales C,Perny P,Queiroz S.GAI—networks:Optimiza— tion,ranking and collective choice in combinatorial domains [1O]Li M,Vo Q B,Kowalczyk R.Efficient penalty scoring func— tions for group decision-making with TCP-nets[C]//The 10th International Conference on Autonomous Agents and LJ].Foundations of Computing and Decision Sciences,2008, 33(1):3-24. [7]Boutilier C,Brafman R,Domshlak C,et a1.CP-nets:A tool for representing and reasoning with conditional ceteris paribus Multiagent Systems Volume 3,2011:1073—1074. [11]Goldsmith J,Lang J,Truszczynski M,et a1.The computa tional complexity of dominance and consistency in CP-nets statements[J].Journal of Artificial Intelligence Research, 2004,21(1):135—191. 口].Journal of Artificial Intelligence Research,2008,33 (]).4O3—432. [8]Van Benthem J,Girard P,Roy O.Everything else being 

因篇幅问题不能全部显示,请点此查看更多更全内容

Copyright © 2019- yrrf.cn 版权所有

违法及侵权请联系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com

本站由北京市万商天勤律师事务所王兴未律师提供法律服务