您的当前位置:首页视觉跟踪算法综述

视觉跟踪算法综述

2024-02-08 来源:爱问旅游网
第5卷第2期2010年4月智能系统学报CAAITransactionsonV01.5№.2Apr.2010IntelligentSystemsdoi:10.3969/j.issn.16734785.2010.02.001视觉跟踪算法综述杨能教育部重点实验室,北京100871)摘要:随着信息技术与智能科学的迅速发展,计算机视觉已经成为IT产业和高新技术领域的前沿.视觉跟踪是当前计算机视觉领域的热点问题之一.阐述了视觉跟踪算法的研究现状,包括视觉跟踪算法的种类,常用数学方法,研究了基于区域的跟踪算法、基于模型的跟踪算法、基于特征的跟踪算法、基于主动轮廓的跟踪算法、参数估计方法和无参密度估计方法,并探讨了视觉跟踪算法的未来研究方向.关键词:计算机视觉;视觉跟踪;粒子滤波;均值漂移中图分类号:11P文献标识码:A文章编号:16734785(2010)02-0095.1l戈,刘宏(1.北京大学深圳研究生院集成微系统科学工程与应用重,点实验室,广东深圳518055;2.北京大学机器感知与智SurveyofvisualtrackingalgorithmsYANGGe,LIUHong(I.KeyLaboratoryofIntegratedMicrosystems,ShenzhenGraduateSchoolofPekingUniversity,Shenzhen518055,China;2.KeyLa—boratoryofMachinePerception,PekingUniversity,Beijing100871,China)Abstract:ProgressininformationtechnologyandintelligentsystemshasbroughtcomputervisiontotheforefrontofITresearch.Visualtrackingiscurrentlyoneofthemostactiveresearchtopicsincomputervision.Thestateoflee-searchinvisualtrackingalgorithmswasexaminedforthisalgorithmsandtheirmainmathematicalpaper.Theauthorsreviewedthecommonvisualtrackingmethods.Theexaminationincludedregion—basedtrackingalgorithms.ac—tivecontour—basedtrackingalgorithms,feature—basedtrackingalgorithms,model—basedtrackingalgorithms,param—eterwereestimatealgorithmsandnon—parameterdensityestimatealgorithms.Significantissuesneedingfurtherstudythendiscussed.Keywords:computervision;visualtracking;particlefilter;meanshift随着信息技术与智能科学的迅速发展,计算机视觉已经成为IT产业和高新技术领域的前沿.由于视频包含海量的信息而在多媒体中占有非常重要的地位,但随之而来的问题是如何利用计算机理解大量的视频信息.鉴于视觉分析在人与机器人的交互技术(humanrobot等应用中的重要性,对其进行研究是非常紧迫的,也是非常必要的.视觉分析一般步骤包括视觉检测(visualdetec-t_ion)、视觉跟踪(visualtracking)和视觉理解(visualunderstanding)….视觉检测是检测视频序列中的目标,将它从图像中分割出来,检测目标的效果将直接影响图像后续处理的结果.视觉跟踪是在图像序列的每一帧图像中找到感兴趣的运动目标所处的位interaction,HRI)、智能监控、虚拟现实技术、基于模型的图像编码、流媒体的内容检索收稿日期:2009—11—15.基金项目:国家“863”计划资助项目(2006AA042247);国家自然科学基金资助项目(60675025,60875050);广东省自然科学基金资助项目(9151806001000025);深圳市科技汁划项目及基础研究汁划资助项目(JC200903160369A).通信作者:杨戈.E—mail:yangge@szpku.edu.ca.置,即要在一段视频的不同帧中把被跟踪的物体标记出来.视觉理解包括行为识别和行为描述,它是分析和识别人体运动模型、实现行为的高级别描述.视觉理解的关键问题是:如何从训练样本中学会参考万方数据・96・智能系统学报第5卷行为;如何有效地用自然语言解释行为;如何有效地利用训练和匹配算法来处理在空间和时间域中与其有相似的行为模式的差异.但是,如何让机器自动地跟踪目标是计算机视觉领域的一个难点,也是目前研究的热点之一.1视觉跟踪算法的分类视觉跟踪简单地说就是估计一个对象的运动轨迹.另外,一个跟踪系统还可以获得被跟踪对象的一些信息:对象的运动方向、速度、加速度、位置,从而为进一步处理与分析,实现对运动对象的行为理解,完成更高一级的任务做准备.一个理想的视觉跟踪算法应具有以下特性:1)快捷性:视觉跟踪算法应该能够有效地跟踪运动目标,同时对场景的突然变化做出反应,这是视觉跟踪算法的根本目的;2)鲁棒性:鲁棒性意味着可用性.被跟踪对象从3.D投影到2.D时会造成信息损失、图像中的噪声、物体运动的复杂、物体的非刚性或关节的本质、部分和全部遮挡造成的信息暂时消失、物体姿态的复杂性、场景的光照变化等,客户希望在这些复杂环境和情况下可以随时应用视觉跟踪算法;3)透明性:视觉跟踪算法对客户应是透明的,客户得到的结果仅仅是快速的响应和良好的可用性;4)高效性:视觉跟踪算法带来的运算开销越小越好;5)稳定性:视觉跟踪算法不应给后续的运动识别带来不稳定因素;6)简单性:视觉跟踪算法越容易实现则越容易被普遍接受,一个理想的视觉跟踪配置应简单易行.通常,为了更快地运行视觉跟踪算法,减少对资源的需求,视觉跟踪算法应该设计得更简单;为了实行更准确的跟踪目标,视觉跟踪算法又往往但要设计得很复杂.视觉跟踪的数学解决方法有2类:自底向上和自顶向下.自底向上方法通常是通过分析图像内容来重建目标状态,如重建参数化的形状.这种方法在计算量上是有效的,但它的健壮性很大程度依赖于对图像的分析能力.自顶向下方法产生和估计一系列基于目标模型的状态假设,通过估计和校正这些图像观测的假设来实现跟踪,它通常有4个组成成分:目标表示、观测表示、假设的产生和假设的估计.这种方法的健壮性较少依赖于对图像的分析,这是万方数据因为目标假设作为分析图像的限制条件;但是它的性能很大程度是由产生和校正这些假设的方法来决定的,为了获得健壮的跟踪效果,需要很多目标假设,而对这些假设进行估计又需要大量的计算.其中后者是目前视觉跟踪的主流方法,但将这2种数学方法结合起来有助于提高跟踪算法的健壮性又可以减少计算量.视觉跟踪算法之间的差别一般有以下几方面悼1:1)跟踪对象的表示;2)跟踪对象的外表、运动、形状的表示;3)图像特征的选择.传统的跟踪对象可以表示成点、原始的几何形状(如矩形、椭圆形等)、对象的轮廓和投影、骨架模型、关节状模型等BJ.视觉跟踪算法一般分成基于区域的跟踪算法(region.basedtrackingalgorithm)、基于模型的跟踪算法(model—basedtrackingalgorithm)、基于特征的跟踪算法(feature—basedtrackingalgorithm)、基于主动轮廓的跟踪算法(activecontour-basedtrackingal—gorithm).常用的数学方法有:卡尔曼滤波器(Kal-Blabfilter)、Meanshift、粒子滤波器(particlefilter)、动态贝叶斯网络等旧J.1.1基于区域的跟踪算法基于区域的跟踪首先要分割出视频对象(videoobjects),在连续帧中建立起被分割区域之间的联系,进而对视频对象进行跟踪MJ.它在包含多个对象的场景中能够取得较好的效果,但不能可靠地处理对象之间的遮挡,而且只能获得区域级别的跟踪结果,不能获得对象的3.D姿势(3一D姿势由对象的位置和方向构成)或轮廓口】.文献[5]针对对象和摄像机运动无规则的环境,根据运动显著性检测的机制,提出了新的跟踪方法,结合了目标对象的多个空间特征来实现基于区域的跟踪任务.基于区域的跟踪模型是:每帧都对每个目标对象的特征进行更新,产生自适应的模版,如果匹配错误较少,则运动显著图中的兴趣区域就被标记成目标对象.但是,它没有考虑遮挡问题.文献[6]针对室内环境,利用一些特征来实现单个人体的跟踪.人体被考虑成由代表人体各个部分(如头、四肢等)的块(blobs)的结合.它采用最大后验概率(maximumaposterioriprobability。MAP)方法,结合先验知识来检测和跟踪人体运动,它对每个像素都进行高斯建模处理,然后由分类器决定这个第2期杨戈,等:视觉跟踪算法综述・97・像素是否属于前景,属于人体的像素被指定到相应的人体部分块(blobs)中;但是Pfinder系统只能适应场景较小范围或者逐渐变化的情况,不适合场景较大范围或者剧烈变化的情况.文献[7]将图像序列中的当前帧分割成不重叠的区域:跟踪区域(thetrackingregions)和非跟踪区域(non.trackingregion),这个分割可以看成马尔可夫标记过程.在贝叶斯框架中,它使用区域的空间特征概率表示式作为条件分布,这个跟踪算法能够解决局部变形和部分遮挡问题.它没有要求跟踪区域的形状属于特定形状,也没有要求跟踪区域和背景有较大区别.它使用二重随机模型使得估计最优标记域更加快速和准确.但是,它要求跟踪区域的外形服从确定的概率分布.1.2基于模型的跟踪算法基于模型的跟踪算法首先由先验知识产生对象的模型,然后将图像数据和对象模型进行匹配来实现跟踪对象【3].它能够利用对象表面或轮廓的先验知识,这种跟踪算法具有较强的健壮性,即使对象间互相遮挡或干扰的情况下,也能取得较好的性能.对于人体跟踪,能够综合考虑人体结构、人体运动的限制和其他先验知识;对于3一D模型的跟踪,一旦建立了2.D图像坐标和3.D坐标的几何关联,也就自然获得了对象的3.D姿势、即使对象改变了较大的角度,也可以运用基于3-D模型的跟踪算法.文献[2]将人体模型分成:线图模型、2一D模型、3一D模型、等级模型.线图模型把身体各个部分用线以及关节(关节用线连接起来)相连接的方式再现.2-D模型是把身体直接投影到图像平面上,但它对观测角度进行了限制.3一D模型包括椭圆圆筒状、圆锥体等,它不需要对观测角度进行限制,但它需要更多的参数,更复杂的计算.等级模型将人体分成骨架、代表脂肪的椭圆球、代表皮肤和阴影的多边形表面,这种模型可以获得更加准确的效果,但也更复杂.文献[8]针对复杂的、有关节的对象提出了基于模型的跟踪算法,跟踪算法将观测到的场景灰度图像和以前收集到的被跟踪对象的配置信息结合起来,估计被跟踪对象的配置.它是基于对象上的离散特征之间的联系来跟踪对象的,首先通过模板匹配来搜索特征的位置,然后从特征之间的联系来推断对象的运动.整个跟踪系统建立了5个模型:整体系统模型、对象几何模型、对象外表模型、图像模型、对象动态模型.对象几何模型是描述关节对象各个连万方数据结的形状和大小以及运动;对象外表模型是描述颜色、纹理和用在连结上的材料,对象外表模型和对象几何模型共同决定了对象每点的位置和外表;图像模型是用数学方式描述摄像机;对象动态模型是通过状态空间来描述关于运动的假设.在整体系统模型中,通过初始化函数来实现其他模型.但是,它需要事先给定被跟踪对象的外表模型和结构,造成一定的局限性.文献[9]在3.D时空空间中,提出了基于格子的马尔可夫任意域的模型,它由表现拓扑约束的全局晶格结构和处理局部几何以及外表变化的图像观测模型构成,利用信任传播和粒子滤波器实现了跟踪算法,不需要对运动类型或光照条件做任何假设,有效地解决了动态近似纹理跟踪的困难.这个跟踪算法由纹理检测、空间推理、时间跟踪和模板更新等构成.但是它不允许格子拓扑在跟踪过程中动态变化,失去了自适应性.文献[10]提出了基于模型的跟踪算法,它通过检测和跟踪运动对象提取了目标的轨迹,构造了一个模型,然后用模型和后续的图像进行匹配,实现跟踪对象.这个模型能够表示目标对象的区域和结构特征,如对象的形状、纹理、颜色、边缘等.它包括2个模块:预计模块和更新模块.预计模块用来估计目标对象的运动参数,更新模块是用来表示目标对象的变化.它还设计了能够体现跟踪对象的结构属性和光谱属性的能量函数,运用卡尔曼滤波器预计运动信息,减少了匹配过程的搜索空间.但是,它没有考虑跟踪对象的遮挡.文献[11]针对较低分辨率的脸部图像,提出了基于3.D几何模型的脸部跟踪算法,首先估计3一D脸部模型的运动参数,然后,提取脸部模型的稳定纹理图.脸部纹理图像的表面变化反映了运动估计的准确性或者光线变化的情况,所以脸部纹理图像的表面变化又被用来估计脸部运动.但是,它的计算成本较高.1.3基于特征的跟踪算法基于特征的跟踪算法是通过提取图像中元素,把它们归结为高级别的特征,在图像之间匹配这些特征,从而实现对象的跟踪.这种算法的好处是:即它分成基于全局特征的跟踪算法、基于局部特征的跟踪算法、基于依赖图像的跟踪算法口].为了解决遮挡问题,改善基于特征的跟踪,文献使出现局部遮挡,运动对象的一些子特征仍然可见.・98・智能系统学报第5卷[12]提出了分布实时的计算平台,它使用了智能多视角的空间综合方法,使得在特征点被遮挡时,仍能实现准确的特征跟踪.它对空间数据运用概率权值配置,实现了简单的动态多维拓扑结构的贝叶斯信任网,通过综合考虑时间和空间的信任分布,改善了被遮挡特征的跟踪.但是,它的实现需要多个摄像机从不同视角协同工作,增加了协调的难度.为了从视频中检测出公路标志上的文本,文献[13]设计了一个健壮的框架,它实现了公路标志的定位和标志中文本的检测2个子功能,通过基于特征的跟踪算法把2个子功能自然地合并成一个统一的框架.文献[14]提出了在自然环境中,移动机器人基于视觉的3一D定位系统,通过使用特征跟踪和迭代运动估计,得到准确的运动向量,场景特征和机器人的3.D位置通过卡尔曼滤波器来修正.但是它的计算成本较高,实现较困难.文献[15]提出了基于视觉的移动机器人的双目稀疏特征分段算法,它使用Lueas-Kanade特征检测和匹配来决定图像中人体的位置,并控制机器人.随机抽样舆论策略被用来分隔稀疏不等图,同时估计人体和背景的运动模型.它不要求人体穿戴和周围环境不同颜色的衣服,能够可靠地跟踪室内和室外的人体.但是,仅仅依靠稀疏特征使得系统容易被具有相似运动的其他对象干扰,另外,它不能处理被跟踪的人体离开摄像机视野的情况,也不能处理被跟踪的人体被其他对象完全遮挡的情况.1.4基于主动轮廓的跟踪算法基于主动轮廓的跟踪(基于Snake模型的跟踪、基于可变形模型的跟踪)通常不是利用整体对象的空间和运动信息,仅仅依靠视频对象边界的信息来实现跟踪【4J.它再现对象的轮廓,在后续的视频帧中动态地更新对象的轮廓.它被广泛研究并应用于边缘检测、图像分割、形状建模和物体跟踪等图像处理和计算机视觉领域.Snake是在图像域内定义的可变形曲线,通过对其能量函数的最小化,从而调整Snake的自然形状使与对象轮廓相一致.Snake的形状由曲线本身的内力和图像数据的外力所控制.作用在Snake上的力依据于轮廓所处的位置和其形状局部调整曲线的变化.内力和外力的作用是不同的:内力起到平滑约束的作用,描述弹力的属性和轮廓的刚性,而外力则引导Snake向图像边界移动【l¨71.和基于区域的跟踪算法比,基于主动轮廓的跟踪算万方数据法的描述对象更简单、更有效,减少了计算的复杂性,即使在干扰或被部分遮挡的情况下,仍能连续跟踪对象.但是基于主动轮廓的跟踪算法的准确性被限制在轮廓级别,而且它对跟踪的初始化特别敏感,如果初始轮廓位置设置不当,可使得能量函数只是达到局部极小,这时的分割结果就是错误的,使得这种跟踪算法很难自动地开始运行pJ.Snake模型非常适合可变形目标的跟踪.Snake模型根据运动模型、曲线模型、解决方法、曲线影响条款的类型等来进行分类¨8|,又分成参数模型¨蚶3和非参数模型汹].参数模型引入的能量函数不是固定的,它是通过参数来表示和改变的,通过参数来决定外部力量的形式,在外部力量和内部力量之间调整,取得平衡.因此,寻找适合的参数是实现这种模型的难点.非参数模型是把寻找适合参数的问题转化成寻找适合的密度估计问题ⅢJ.文献[19]第一次提出了主动轮廓模型,设计这样一个能量函数:其局部极值组成了可供高层视觉处理进行选择的方案,从该组方案中选择最优的一种是由能量项的迭加来完成.这样,在寻找显著的图像特征时,高层机制可能通过将图像特征推向一个适当的局部极值点而与模型进行交互.它通过收敛曲线能量函数实现对图像轮廓的精确定位,更好地利用了能量函数,使用尺度空间来扩大兴趣特征周围的抓取区域.它把过去需要不同对待的视觉问题归结成可以统一处理,在同一框架中,边缘、线条、轮廓可以很容易被找到并进行处理.但它更侧重于跟踪时变图像的轮廓,算法的搜索效率也不是很理想.文献E20]提出了能够自动提取用户嘴唇的模型,它使用了高斯混合模型、线形判别模型、贝叶斯模型等.它实现了无需他人监督的分割方法,能够定位用户的脸、嘴唇.随着兴趣区域被自动定位,模型的提取问题转化成传统的模型相称的问题.它把常用形状作为先验知识来提高提取嘴唇模型的准确性.但是它没有给出在分级分割过程中混合器的最佳数目,实现较困难.文献[21]提出了基于Kalman滤波器的KalmanSnake模型,它由2部分组成:基本Snake模型,用于单帧图像的分割;用于设定每帧Snake的初始位置,由前n帧位置的Kalman估计得到.KalmanSnake模型能够检测运动图像中对象的位置和运动速度.它把基于梯度的图像潜力和沿着轮廓的光流作为系统的测量方法,使用基于光流法的检测机制,提高了算第2期杨戈,等:视觉跟踪算法综述・99・法的健壮性,解决了遮挡问题.但这种模型比较复杂,对于剧烈变化的运动(如跳水)效果不太理想.在分析微脉管系统时,通过视频显微镜方法,检测和跟踪血管边界是很困难的,文献[22]提出了新的基于主动轮廓的跟踪算法,它将梯度向量流和B-spline模型相结合,改进了多尺度梯度向量流,减少了噪声的干扰.但是它过于复杂,实现较困难.文献[23]使用一系列的模板(轮廓)变形来模拟和跟踪视频对象,它将变形分成等级:全局仿射变形、局部仿射变形、任意光滑变形(蛇形).这样使得跟踪算法能够及时地适应被跟踪对象姿势和形状的变化.如果被跟踪对象是非刚性的,每个视频帧以后要更新整个模板;如果被跟踪对象是刚性的,只需要更新对象的姿势.但是它不能处理更一般的需求,在跟踪过程中,不能自动调整参数和模板的类型.文献[24]通过使用局部运动和颜色信息,运用分段轮廓预测,实行了视频对象的边界跟踪.分段轮廓预测和对每个轮廓段两侧运动的建模使得跟踪算法能够准确地决定是否以及哪里发生了被跟踪的边界被其他对象遮挡,预测出可视对象的边界.能量函数是和轮廓段相关,而和尺度(分辨率)无关,针对多尺度轮廓跟踪,不需要重新调整能量函数的权重.轮廓的预测可以通过比真实轮廓更低尺度的图像来实现,可以用合理的计算成本跟踪很高分辨率的轮廓.文献[25]针对被跟踪对象的形状已知或最终形状和初始形状相似,提出了基于测地线主动轮廓的非参数拓扑约束的分割模型,整体考虑了拓扑约束,拓扑约束是基于几何观测的,在轮廓更新过程中作为约束条件.文献[26-27]提出了非参数主动轮廓方法,首先不需要考虑轮廓形状就利用边域,由非参数Snake优先定义局部轮廓形状,基于核密度估计的表示方式呈现了一个便利的参数选择框架,而且更具有健壮性.但它不能由一个可调整的粒度水平来控制多个分段.文献[28]提出了基于贝叶斯决策理论的非参数统计压力Snake,非参数方法用来取得统计模型,来驱动曲线,实现了多颜色目标的跟踪.目前解决基于主动轮廓的跟踪算法初始化问题的方法有:基于多分辨率的方法旧J、距离潜能方法m1.但是前者对如何通过不同分辨率决定Snake移动的方式还没有解决.后者引入外部模型来指引轮廓向对象边界移动,这种方法明显增加了查询范万方数据围,克服了初始化困难的情况.另外一个问题是,无法沿着边界进入凹点的情况,解决方法有定向景点‘311、控制点‘321、压力力量‘33驯等,有效地解决了抓取范围的问题,也提供了一个理论和有效地定义外部域的方法,对初始化不敏感,而且能够解决进入边界凹点的问题.但是参数模型,为了找到适合的结果,需要以一系列不同参数值运行算法多次,直到取得满意的性能.2视觉跟踪的常用方法视觉跟踪的常用方法有:参数估计方法和无参密度估计方法.参数估计方法假设特征空间服从已知一个概率密度函数,通过估计目标区域中的数据估计密度函数的参数,得到这个概率密度函数,这个函数一般是典型的函数,大部分是单峰的.但是在实际中,这个概率密度函数很难确定,而且特征空间也不一定服从一个概率密度函数.这时,无参密度估计方法能较好地处理这个问题.设状态空间中的状态序列是{‰}。-o.”.…,动态状态方程是钆=以(钆..,‰),可能的观测值序列是{缸}㈦.2-…,观测方程是缸=hk(菇。,‰),通常以、hI是向量值,也是随着时间变化的函数,{%}㈨.2.…、{n。}㈦.2.…,是噪声序列,假定它们是独立同分布.跟踪的目的就是在给定所有的观测值:m估计状态戈。,或构造概率密度函数p(x。Izm).实现跟踪目标一般分成2步骤:预测和更新.预测是根据动态方程和已经计算出来的时刻t=k一1状态概率密度函数P(省¨Izm一。),得出目前状态的先验状态概率密度函数p(x。I毛如,);更新是使用当前观测的似然函数p(缸I‰),来计算后验状态概率密度函数p(缸IZl:k).如果噪声序列是高斯分布,五和h。是线性函数,可以利用卡尔曼滤波器实现跟踪,它产生的后验概率密度函数也是高斯分布.如果五和h。是非线性函数,通过线性化,可以利用扩展卡尔曼滤波器实现跟踪,它产生的后验概率密度函数也是高斯分布.如果状态空间是由离散的有限的状态构成,可以利用隐马尔可夫滤波器实现跟踪.如果噪声序列是非高斯分布,.疋和h。是非线性函数,可以利用粒子滤波器实现跟踪,它产生的后验概率密度函数也是非高斯分布.2.1参数估计方法参数估计方法必须事先知道概率密度函数的形式,这在计算机视觉中很难实现,数据模型往往是未-100・智能系统学报第5卷知的,如果假设的密度模型不恰当,估计就会有偏差,而且偏差又很难消除,另外参数的估计也不一定是最优的,有时只是收敛于一些局部点.文献[35]提出了线性无偏递推卡尔曼滤波器,将状态变量引入到滤波器理论中,用状态空间模型代替通常用来描述它们的协方差函数.Kalman滤波器是针对线性状态空间模型的最优的最小均方误差估计.传统的卡尔曼滤波器只是适用状态方程和观测方程是线性系统的情况,同时要求后验概率分布密度和系统噪声以及观测噪声都是服从高斯分布.实际状态方程或者观测方程却是非线性系统,为此很多研究学者对传统的卡尔曼滤波器进行了相应的扩展.最直接的扩展是扩展卡尔曼滤波器(extendedKalmanfilter,EKF)p㈣J,它是通过方程的一级泰勒展开式来近似最优解,即先将随机非线性系统模型的非线性向量函数^和h。围绕滤波值线性化,得到系统线性化模型,然后应用卡尔曼基本方程,解决非线性滤波问题.IteratedEKF(IEKF)以迭代的方式使用状态向量的当前估计来线性化观测方程Ⅲ.37J.UnscentedKalmanfilter(UKF)‘姗7’41圳是性能比EKF更高的替代方法,两者的主要不同是高斯随机变量传递的表示法不同.在UKF中,它使用确定性抽样方法,即无味转换(unscentedtransformation,uT).虽然uT需要几个近似值,但它还是比其他用非线性转换传递随机变量的方法准确.UKF的另外一个优点是不需要转换观测方程的解析表达式,使得它能应用到基于仿真的系统中.状态分布由随机变量来近似,这些高斯型随机变量是通过一些抽样点(sigma点)来确定的.这些点完全代表了随机变量的真实均值和协方差,而且不管非线性程度如何,后验均值和协方差都能准确地获取到第2级(泰勒级数展开),因此它比EKF具有更好的滤波性能.当状态维数是/7.,则只需要2凡+1个sigma点.另外,UKF不需要明确衍生的计算,也不需要对非线性系统的表示进行分析.UKF的计算复杂度和EKF的相同级别Ⅲ】.不同的方法在计算成本和结果的准确性方面有不同的性能特点.文献[44]提出了基于窗口匹配的跟踪算法,它使用差平方和作为距离相似的量度,结合了卡尔曼滤波器,增加了跟踪算法的鲁棒性.这个跟踪算法可以应用到市内车辆跟踪,2人会面中的跟踪,乒乓比赛中对球的跟踪.但这个跟踪算法没有解决遮挡问题.万方数据2.2无参密度估计方法2.2.1Meanshift方法Meanshift方法是一种快速的、沿着梯度方向进行迭代的方法,因此能够较陕地找到核密度估计的峰值(模式).它倾向于忽略离感兴趣区域较远的数据.Meanshift的优点:1)Meanshift计算量不大,在目标区域已知的情况下完全可以做到实时跟踪;2)作为一个无参数密度估计算法,很容易作为一个模块和别的算法集成;3)采用核函数直方图建模,对边缘遮挡、目标旋转、变形和背景运动不敏感.Meanshift的缺点:1)缺乏必要的模板更新算法;2)跟踪过程中窗宽的大小如果保存不变,当目标有尺度变化时,可能跟踪失败;3)直方图是一种比较弱的对目标特征的描述,当背景和目标的颜色分布较相似时,算法效果欠佳.当场景中目标的运动速度很快时,目标区域在相邻2帧间会出现没有重叠的区域的情况,目标这时往往收敛于背景中与目标颜色分布比较相似的物体,而不是场景中的目标.文献[45-46]定义了一系列核函数和权重系数,指出meanshift的应用领域.文献[47]把跟踪作为二值化分类问题来处理,通过在线方式训练弱分类器来区别对象特征和背景特征,强分类器用来计算下一帧的信任图,通过meanshift算法找到信任图的峰值(对象的新位置).通过不断地训练弱分类器,更新强分类器,使得跟踪器以较低的计算成本取得较好的健壮性.文献[47]能够跟踪各种场景,包括:摄象机静止或移动、灰度图象或红外图象、不同尺寸的对象.这个跟踪算法还能处理一些遮挡:分类评分被用来检测遮挡;粒子滤波器被用来克服遮挡.但是,这个跟踪算法不能处理长时间、大范围的遮挡,另外目前被选择的特征空间没有考虑空间信息.针对非刚性对象,文献[48]提出了新的对象表示和定位方法,基于直方图的对象表示由各向同性的核来规范化,对象的定位问题转化成寻找局部最大兴趣区的问题.对象模型和对象候选区模型的相似程度由Bhattacharyya系数来表示,使用meanshift来优化.文献[48]能够较好的处理摄像机运动,部分遮挡、混乱、对象尺度变化等问题.但是,它不是针第2期杨戈,等:视觉跟踪算法综述・lOl・对特定任务的跟踪算法,没有和特定任务的先验知识相结合.文献[49]提出了基于视觉特征的非刚性对象的实时跟踪算法,它适合各种颜色/纹理模型的对象,对于部分遮挡,摄像机位置变化等都具有健壮性.Meanshift迭代被用来找到和给定目标模型最相似的目标候选区,其中的相似程度由Bhattacharyya系数来表示.文献[50]提出了一种在meanshift跟踪框架中嵌入自适应特征选择的方法,根据贝叶斯错误率选择最有决定性的特征,然后建立一个权重图像,使用meanshift定位被跟踪的对象.但它假定每个被选择特征的贝叶斯错误率服从高斯分布,应用范围受到一定限制.在基于核的对象跟踪中,模型不变和不佳的尺度自适应性是2个主要的限制因素,文献[51]针对这2个因素,提出了新的基于核的跟踪方法,它把尺度估计和对象模型更新相结合,这种方法不受对象尺度和外表变化的影响.但是,它只是在手型跟踪中验证了这个方法,缺乏一般性.2.2.2粒子滤波为了实行递归的贝叶斯滤波器,文献[52]提出了bootstrap滤波算法,状态向量的密度由一系列随机抽样表示,不需要假设系统是线性的或噪声服从高斯分布.bootstrap滤波算法在重要性取样后复制高权值的粒子,抛弃低权值的粒子,重新分配权值并规范化,它克服了早期算法的退化问题,出现了第一个可操作的蒙特卡洛滤波器,即粒子滤波器.粒子滤波器是一种基于贝叶斯递归推理和蒙特卡洛方法的非线性系统分析工具.粒子滤波器主要包含重要性取样和选择(再取样).它有2个重要的成组成:动态模型和似然模型,动态模型决定粒子如何在状态空间中传播,似然模型赋予粒子权值,随后和噪声测量相关联.序贯列重要性取样其基本思想是使用大量具有权值的粒子(样本)近似(逼近)目标状态的后验概率分布,但权值退化问题一直是序贯重要性取样技术的瓶颈问题.序贯重要性取样方法中存在的权值退化问题,即粒子经过几次迭代之后,会出现其中的一个粒子的规范化权值趋于1,而其他粒子的重要性可忽略不计的现象,导致许多状态更新的轨迹对估计不起任何作用,在浪费大量计算资源的同时降万方数据低了粒子滤波器的性能.权值退化问题主要原因是重要性权值的方差随时间变化不断增加.因此增加粒子数目可以解决退化问题,但是又使计算量上升,影响算法的实时性.一般粒子的数量由状态方程的维数、先验概率密度函数和重要密度函数的相似度以及迭代次数决定.再取样方法主要包括:Muhinomial重取样方法‘53驯、Systematic重取样方法‘53.55】、Residual重取样方法‘53瓢・56.571、采样一重要性重取样‘54’58驯和局部蒙特卡洛重取样降].虽然再取样方法能够减少权值退化问题,但再取样方法是在高权值的粒子区域取样,需不断复制大量相同的粒子.因此随着时间的改变,给粒子滤波器带来许多新的问题:再取样以后,模拟的轨迹不再统计独立,因此收敛结果不再有效;再取样使得有较高权重的粒子在统计上被选择很多次,这样算法会失去多样性Ⅲ1.基于扩展卡尔曼滤波的粒子滤波器算法称为扩展粒子滤波器(extendedparticlefilter,EPF)嘲J,文献[60]用扩展粒子滤波器实现了对每个对象速度和位置概率估计的多模分布.基于unscented卡尔曼滤波的粒子滤波器算法称为unscented粒子滤波器(unscentedparticlefilter,uPs)∞㈨J.文献161]将颜色分布,小波矩(waveletmoment)和UPF算法相结合,增加了跟踪算法的准确性,减少了计算的复杂性,可以处理部分遮挡、尺度变化等.文献[62]利用UPF框架对声音和视觉进行跟踪.文献[63]提出了外表引导的粒子滤波,它结合外表和运动转换信息实现了概率传递模型,通过使用预收集的因子在高维状态空间中引导跟踪,避免了粒子滤波漂移的影响.但是,贝叶斯网络的因子是根据经验或者在状态空间中均匀分布来选择的,不能适应被跟踪的运动序列的变化.文献[64]在粒子滤波器中结合了自适应外表模型,实现了基于自适应外表模型的观测模型和基于自适应噪声变化的速度运动模型,粒子数目也是自适应的.自适应的速度模型来源于一级线性预测,这个预测基于观测和以前粒子配置之间的外表差异.这个方法可以对室内室外的视频序列进行有效地跟踪.文献E65]分析了传统粒子滤波算法计算上的缺点,提出了新的实现方法,它使用独立主要哈希抽样器(independentmetropolisHastingssampler),采用・102・智能系统学报第5卷管道和并行技术,减少了处理时间,通过解决一系列凸规划来实现对相应参数的选择.文献[66]提出了针对多目标跟踪的基于概率密度假说的滤波框架,可以和检测目标对象位置和空间信息的对象检测器结合使用.它提出了新的粒子再抽样策略,可以平滑轨迹,克服短期的遮挡.它能够将由于跟踪对象数目的增加而增加的计算成本从指数级别减少到线性级别.但是它没有和事件检测算法相结合,不能提取出更高级别的信息.文献[67]提出了针对多目标跟踪的配置视频和音频传感器的跟踪系统,它使用了基于状态空间方法的粒子滤波器.首先使用估计声音到达方向的滑动窗口来讨论声音状态空间表达式,然后提出了视频状态空间来跟踪目标对象的位置.它结合了个体特征的状态向量,同时提出了时延变量来处理由音频传播延迟引起的音频和视频数据同步的问题.文献[68]提出了自适应的Rao-Blackwellized粒子滤波器,使用状态变量之间的从属关系改进了常规粒子滤波器的效率和准确性.它把状态变量分成单独的组,线性部分由卡尔曼滤波器来计算,非线性部分由粒子滤波器来计算,使用和粒子滤波框架中的每个粒子相关联的卡尔曼滤波器来更新线性变量的分布.但是,当有大量的状态变量时,它不能找到状态变量之间恰当的从属关系模型.3需要进一步研究的问题尽管视觉跟踪技术在近几年已经取得了很大的研究进展,但是仍然有许多问题和难点需要解决:1)针对人的感知特性,如何建立一个感知特性的数学模型.因为视觉跟踪的过程与人的感知特性紧密联系,它又是很多问题的基础.比如建立适当的视觉注意机制、发现辅助物的数量和可靠性的关系、如何快速发现辅助物、在短时间内发现更多的辅助物、在更长的时间内发现少而更可靠的辅助物等,这就需要以后对这个问题作深入的研究,进行统计建模.2)针对多线索的融合,如何建立一个多线索融合的模型,尤其是多线索之间的同步和每个线索的异步更新.如在视觉跟踪中,通过颜色分布、运动轨迹预测、被跟踪对象轮廓和辅助物等多线索实现跟踪;在多人视觉跟踪中,可以引入音频跟踪技术,提高定位的准确性,解决一定程度的遮挡问题.3)针对视觉跟踪方法的性能,如何建立一个多万方数据种视觉跟踪方法相互配合的跟踪系统,提高整体性能.因为不同的方法在计算成本和结果的准确性方面有不同的性能特点,对计算成本过高的方法对其复杂性进行研究,构造快速算法;另外,鉴于纯数学的算法通常要较长的计算时间,因此应用人工智能技术,采用专家系统,降低对寻优精度的要求,从而提高速度,也是一种现实的途径.4)针对2.D和3一D跟踪算法的融合,如何决定使用2一D跟踪算法和3一D跟踪算法的时间.当跟踪算法从2-D转到3.D时,如何根据2.D跟踪算法的跟踪结果来初始化3-D跟踪算法的姿态参数.因为2-D跟踪算法和3-D跟踪算法各有优缺点.5)全方位视觉.因为能搜集到360。的场景信息,成本也越来越低而逐渐得到人们的重视,但需要解决全方位视觉镜头造成的图像扭曲和图像细节丢失等情况.4结束语总之,向用户提供快捷、稳定、准确、低成本的跟踪结果是视觉跟踪系统追求的目标,也是视觉跟踪取得成功的关键;为此本文介绍了视觉跟踪算法的研究现状,包括视觉跟踪算法的分类、常有数学方法,讨论了遮挡问题和辅助物的利用等.但是因为被跟踪对象周围环境的多样性和复杂性,使得视觉跟踪技术仍然有很多需要解决的问题摆在研究者面前.参考文献:[1]WANGLiang,HUWeiming,TANTieniu.Recentdevelop—memsinhumanmotionanalysis[J].PatternRecognition,2003,36(3):585-601.[2]YILMAZP,JAVEDO,SHAHM.Objecttracking:aSill'-vey[J].ACMComputingSurveys(CSUR),2006,38(4):145.[3]HUWeiming,TANTieniu,WANGLiang,MAYBANKS.Asurveyonvisualsurveillanceofobjectmotionandbehav-iors[J].IEEETransactionsonSystems,Man,andCyber-neties,PartC:ApplicationsandReviews,2004,34(3):334-352.[4]HARIHARAKRISHNANK,SCHONFELDD.Fastobjedtrackingusingadaptiveblockmatching[J].IEEETransae-tionsonMultimedia,2005,7(5):853-859.[5]LISlum,LEEMC.Fastvisualtrackingusingmotionsali—encyinvideo[C]//IEEEInternationalConference0nA-第2期杨戈,等:视觉跟踪算法综述・103・coustics,SpeechandSignalProcessing(ICASSP2007).Honolulu,USA。2007:1073—1076.[6]WRENCR,AZARBAYEJANIA,DARRELL,PENT-LANDAP.PriMer:real-timetrackingofthehumanbody[J].IEEETransactionsOilPatternAnalysisandMachineIntelligence,1997,19(7):780-785.[7]YUANXiaotong,YANGShutang,ZHUHongwen.RegiontrackingviaHMMFinjointfeature—spatialspace[C]//IEEEWorkshoponMotionandVideoComputing.(WACV/MO・TIONS’05).Breckenridge,CO,USA。2005:72.77.[8]NICKELSK,HUTCHINSONS.Model—basedtrackingofcomplexarticulatedobjects[J].IEEETransactionsonRo-boticsandAutomation,2001,17(1):28-36.[9]LINWC,LIUYanxi.Alattice—basedMRFmodelfordy.namicnear-regnlartexturetracking[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2007,29(5):777-792.[10]JANGD,CHOIH.Movingobjeeltrackingusingactivemodels[C]//InternationalConferenceonImageProcessing(ICIP98).Chicago,USA,1998:648-652.[11]WENZhen,HUANGTS.Enhanced3-Dgeometric-mod-el-basedfacetrackinginlowresolutionwithappearancemodel[C]//IEEEInternationalConferenceonImagePro-cessing(ICIP2005).Genoa,Italy,2005:350-353.[12]DOCKSTADERSL,TEKALPAM.Multi—viewspatialin-tegrationandtrackingwithBayesiannetworks[C]//Inter-nationalConferenceonImageProcessing.Thessaloniki,2001:630-633.[13]wuWen,CHENXilin,YANGJie.Detectionoftextonroadsignsfromvideo[J].IEEETransactionsonIntelligentTransportationSystems,2005,6(4):378-390.[14]SAEEDIP,LAWRENCEPD,LOWEDG.Vision.based3-Dtrajectorytrackingforunknownenvironments[J].IEEETransactionsonRobotics,2006,22(1):119—136.Zhichao,BIRCHFIELDST.Personfollowingwithamobilerobotusingbinocularfeature-basedtracking[C]//IEEE/RSJInternationalConferenceonIntelligentRobotsandSystems(IROS2007).SanDiego,2007:815—820.软件学报,2000,11(6):751-757.LIPeihua,ZHANGTianwen.Reviewonactivecontourmodel[J].JournalofSoftware,2000,11(6):751-757.频对象提取[J].通信学报,2001,22(11):77-85.SHILi,ZHANGZhaoyang,MARan.Extractionofvideo万方数据objectbasedonobjecttrackingandmatching[J].JournalofChinaInstituteofCommunications,2001,22(11):77—85.[18]NIETHAMMERM,TANNENBAUMA,ANGENENTS.Dynamicactivecontoursforvisualtracking[J].IEEETransactionsonAutomaticControl,2006,51(4):562—579.[19]KASSM,WITKINA,TERZOPOULUSD.Snakes:activecontourmodels[J].InternationalJournalofComputerVi.sion,1987,1:321-331.[20]CHANMT.Automaticlipmodelextractionforconstrainedcontour-basedtracking[C]//InternationalConferenceonImageProcessing(ICIP99).Kobe.1999:848-851.[21]PETERFREUNDN.Robusttrackingofpositionandveloc-itywithKalmansnakes[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,1999,21(6):564-569.[22]TANGJinshan。ACTONST.Boundarytrackingforintrav-italmicroscopyviamultiscalegradientvectorflowsnakes[J].IEEETransactionsonBiomedicalEngineering,2004,51(2):316-324.[23]SCHOEPFLINT,CHALANAV,HAYNORDR,KIMY.Videoobjecttrackingwithasequentialhierarchyoftern—platedeformations[J].IEEETransactionsonCircuitsandSystemsforVideoTechnology,2001,11(11):1171・1182.[24]FUYue,ERDEMAT。TEKALPAM.Trackingvisibleboundaryofobjectsusingocclusionadaptivemotionsnake[J].IEEETransactionsonImageProcessing,2000,9(12):2051-2060.GUYADERC,VESELA.Self-repellingsnakesforto-pology-preservingsegmentationmodels[J].IEEETransac.tionsonImageProcessing,2008,17(5):767-779.[26]OZERTEMU。ERDOGMUSD.Nonparametricsnakes[J].IEEETransactionsonImageProcessing,2007,16(9):2361-2368.U,ERDOGMUSD.Anonparametrieapproachforactivecontours[C]//IntemationalJointConferenceonNeuralNetworks(IJCNN2007).Orlando,USA,2007:1407.1410.W,SMITHCE,RAMADANS.Ker-nelsnakes:non—parametricactivecontourmodels[C]//IEEEInternationalConferenceonSystems,Man,andCy—bemetics.Washington,USA,2003:240-244.B,HERLINI,COHENLD.Multiresohtiona1.gorithmsforactivecontourmodels[C]//12thInternationalConferenceonAnalysisandOptimizationSystem.Paris,[25]Le[15]CHEN[27]OZERTEM[16]李培华,张田文.主动轮廓线模型(蛇模型)综述[J].[28]ABD.ALMAGEED[17]史立,张兆扬,马然.基于运动跟踪匹配技术的视[29]LEROY-104・智能系统学报第5卷France,1996:58-65.[30]COHENLD,COHENI.Finiteelementmethodsforactivecontourmodelsandbaloonsfor2-Dand3-Dimages[J].IEEETransactionsonPatternAnalysisandMachineIntelli・gence,1993,15(11):1137-1147.[31]ABRANTESAJ,MARQUESJS.Aclassofconstrainedclusteringalgorithmsforobjectboundaryextraction[J].IEEETransactionsonImageProce¥¥,1996,5(11):1507—1521.[32]DAVATZIKOSC,PRINCEJL.Anactivecontourmodelformappingthecortex[J].IEEETransactionsonMedicalImaging,1995,14(1):65-80.[33]COHENLD.Onactivecontourmodelsandballoons[J].CVGIP:ImageUnderstand,1991,53:211-218.[34]XUC,PRINCEPL.Snakes,shapesandgradientvectorflow[J].IEEETransactionsonImageProcess,1998,7(3):359-369.[35]KALMANRE.Anewapproachtolinearfilteringandpre-dictionproblems[J].JoumalofBasicEngineering(ASME),1960,82D:3545.[36]ANTONIOUC,AKIVAMB,KOUTSOPOULOSHN.On.1inecalibrationoftrafficpredictionmodels[C]//IEEEIn-telligentTransportationSystemsConference.Washington,USA,2004:82-87.[37]ANTONIOUC,BEN.AKIVAM,KOUTSOPOULOSHN.NonlinearKalmanfilteringalgorithmsforon・linecalibrationofdynamictrafficassignmentmodels[J].IEEETransac-tionsonIntelligentTransportationSystems,2007,8(4):66l_670.[38]SCHLOSSERMS,KROSCHELK.LimitsintrackingwithextendedKalmanfilters[J].IEEETransactiomonAero-spaceandElectronicSystems,2004,40(4):1351—1359.[39]BITYANTIS,SAVARESISM.OntheparametrizationanddesignofanextendedKalmanfilterfrequencytracker[J].IEEETransactionsonAutomaticControl,2000,45(9):1718.1724.[40]PERALAT,PICHER.RobustextendedKalmanfilteringinhybridpositioningapplications[C]//4thWorkshoponPositioning,NavigationandCommunication(WPNC’07).Hannover,Germany,2007:55-63.[41]WUXuedong,JIANGXinhua,ZHENGRongjin,HUANGJiashan.AnapplicationofunscentedKalmanfilterforposeandmotionestimationbasedonmonocularvision[C]//IEEEInternationalSymposiumonIndustrialElectronics.Montreal,Canada,2006:2614-2619.[42]JIANGZhe,SONGQi,HEYuqing,HANJianda.Anovel万方数据adaptiveunscentedKalmanfilterfornonlinearestimation[C]//IEEEConferenceonDecisionandContr01.NewOr-leans,USA,2007:4293-4298.[43]AKINB,ORGUNERU。ERSAKA.StateestimationofinductionmotorusingunscentedKalmanfilter[C]//IEEEConferenceonControlApplications(CCA2003).Istan-bul,Turkey,2003:915-919.[44]VIDALFB,ALCALDEVHC.Window-matchingteeh—niqueswithKalmanfilteringforanimprovedobjectvisualtracking[C]//IEEEInternationalConferenceonAutoma.tionScienceandEngineering(CASE2007).Scottsdale,USA,2007:829-834.[45]COMANICIUD,MEERP.Meanshiftanalysisandappli—cations[C]//TheProceedingsoftheSeventhIEEEInter-nationalConferenceonComputerVision.Kerkyra,Greeke,1999:1197-1203.[46]CHENGYizong.Meanshift,modeseekiong,andcluste-ring[J].IEEETransitionsonPatternAnalysisandMa-chineIntelligence,1995,17(8):790-799.[47]AVIDANS.Ensembletracking[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2007,29(2):261-271.[48]COMANICIUD,RAMESHV。MEERP.Kernel.basedobjecttracking[J].IEEETransactionsonPatternAnaly-sisandMachineIntelligence,2003,25(5):564-577.[49]COMANICIUD,RAMESHV,MEERP.Real.timetrack.ingofnon-rigidobjectsusingmeanshift[C]//IEEECon-ferenceonComputerVisionandPatternRecognition.Hii—tonHeadIsland,SC,2000:142.149.[50]LIANGDawei,HUANGQingming,JIANGShuqiang,YAOHongxun,GAOWen.Mean・shiftblobtrackingwithadaptivefeatureselectionandscaleadaptation[C]//IEEEInternationalConferenceonImageProcessing.SanAntonio,USA,2007:369-372.[51]YAOAnbang,WANGGuijin,LINXinggang,WANGHao.Kernelbasedarticulatedobjecttrackingwithscaleadaptationandmodelupdate[C]//IEEEInternationalConferenceonAcoustics,SpeechandSigrIalProcessing(ICASSP2008).LasVegas,USA,2008:945-948.[52]GORDONNJ,SALMONDDJ,SMITHAFM.Novelap-proachtononlinear/non—GaussianBayesianstateestimation[J】.IEEEProceedingsRadarandSisrlalProcessing.1993,140(2):107—113.[53]CHENZ.Bayesianfiltering:fromKalmanfilterstopatti.clefilters,andbeyond.Manuscript[EB/OL].[2009-01-03].http://www.math.u-bordeanxl.fr/一delmoral/chen_第2期杨戈,等:视觉跟踪算法综述・105・bayesian.c[54]DOUCR,CAPPEO.Comparisonofresamplingschemesforparticlefiltering[C]//Proceedingsofthe4thInterna-tionalSymposiumonImageandSiglIalProcessingandA-nalysis(ISPA2005).Zagreb,Croatia,2005:64-69.[55]HOLJD,SCHONTB,GUSTAFSSONF.Onresarnplingalgorithmsforparticlefilters[C]//IEEENonlinearStatisti-ealSignalProcessingWorkshop.Cambridge,UK,2006:79.82.[56]HONGSangjin,DJURICPM.HigII—throughputscalableparallelresamplingmechanismforeffectiveredistributionofparticles[J].IEEETransactionsonSis,硅aProcessing,2006,54(3):1144-1155.[57]HONGSangjin,BOLICM,DJURICPM.Anefficientfixed-pointimplementationofresidualresamplingschemeforhigh-speedparticlefilters[J].IEEEsi酬ProcessingLetters,2004,11(5):482-485.[58]HEINEK.Unifiedframeworkforsampling/importance静samplingalgorithms[C]//8thInternationalConferenceonInformationFusion.Philadelphia。USA,2005:1459—1464.[59]BOLICM,DJURICPM,HONGSan6in.Resamplingal・gorithnmandarchitecturesfordistributedparticlefilters[J].IEEETransactionsonSignalProcessing,2005,53(7):2442-2450.’[60]MARRONM,GARCIAJC,SOTELOMA,FERNAN.DEZD。PIZARROD.“XPFCP”:anextendedparticlefilterfortrackingmultipleanddynamicobjeetsincomplexenvironments[C]//IEEE/RSJInternationalConferenceonIntelligentRobotsandSystems(IROS2005).Edmonton,Alberta,Canada,2005:2474-2479.Jin,YUHong,ZHOU叫u,LIANGHong,WANGLei.Anadaptiveunscentedparticlefiltertrackingal驴rithmbasedoncolordistributionandwaveletmoment[C]//Industrial2ndIEEEConferenceonElectronicsandApplications(ICIEA2007).Harbin,China,2007:2218-2223.Yong,CHENYunqiang.Betterproposaldistribu-tions:objecttrackingusingunscentedparticlefilter[c]//IEEEComputerSocietyConferenceonComputerVisionandPatternReeoguition(CVPR2001).Hawaii,USA。万方数据2001:786j793.[63]CHANGWY,CHENCS,JIANYD.Visualtrackinginhi曲・dimensionalstatespacebyappearance-guidedparticlefiltering[J].IEEETransactionsonImageProcessing,2008,17(7):1154—1167.[“]SHAOHUAKz,CHELLAPPAR,MOGHADDAMB.Visualtrackingandrecognitionusingappearance-adaptive-modelsinparticlefilters[J].IEEETransactionsonImageProcessing,2004,13(11):1491-1506.[65]SANKARANARAYANANAC,SPdVASTAVAA,CHEL-LAPPAR.Algorithmicandarchitecturaloptimizationsforeomputationallyefficientparticlefiltering[J].IEEETrans—actionsontillageProcessing,2008,17(5):737-748.[66]MAGGIOEE,TAJMM,CAVALLAROAA.Efficientmulti-targetvisualtrackingusingrandomfinitesets[J].IEEETransactionsonCircuitsandSystemsforVideoTech-nology,2008,18(8):1-11.[67]CEVHERV,SANKARANARAYANANAC,MCCLEL-LANJH,CHELLAPPAR.Targettrackingusingajointaeonsticvideosystem[J].IEEETransactionsonMuhime-dia,2007,9(4):715-727.[68]XUXinyu,LIBaoxin.AdaptiveNao-Blackwellizedparti—elefilteranditsevaluationfortrackinginsurveillance[J].IEEETransactionsonImageProcessing,2007,16(3):838.849.作者简介:杨戈,男,1974年生,博士,中国人工智能学会青年工作委员会会员,主要研究方向为视觉跟踪、视觉注意.发表学术论文20余篇,被SCI、EI检索1l篇.刘宏,男,1967年生,教授,博士生导师,IEEE会员,国际机器人足球联盟(FIRA)竞赛委员会委员,中国人工智能学会常务理事、副秘书长、青年工作委员会主任,中国自动化学会智能自动化专业委员会委员,主要研究方向为[61]u[62]RUI模式识别、智能信息处理与计算机视觉.发表学术论文60余篇,其中30篇论文进入SCI、E1检索.

因篇幅问题不能全部显示,请点此查看更多更全内容