自动化学报ACTAAUTOMATICASINICA
Vol.35,No.5May,2009
基于Adaboost权值更新以及K-L距离的特征选择算法
崔潇潇1
王贵锦1
林行刚1
摘要对于颜色、纹理变化较大的目标,边界片段是一种较为稳定的特征.手工分割样本再提取边界片段的传统做法由于工作量巨大而限制了样本的数目,不能满足统计学习中大样本训练的要求.但是如果对训练样本采用自动分割的方法就不可避免地引入很多背景中的噪声.在这种情况下特征的选择就显得尤为关键.本文提出一种基于Adaboost权值更新以及K-L距离的特征选择算法,在Adaboost的每一轮训练中动态地选择所有备选边界片段的一个子集作为Adaboost训练的特征集.选择算法以边界片段在正面样本与负面样本中分布的鉴别信息为依据,有效地减少了背景中边界片段的干扰.实验证明该算法是有效的.
关键词目标检测,特征选择,边界片段特征,权值更新,K-L距离中图分类号TP391
FeatureSelectionBasedonWeightUpdatingandK-LDistance
CUIXiao-Xiao1
WANGGui-Jin1
LINXing-Gang1
AbstractEdge-fragmentfeatureisverystableindetectingobjectswithlargevariancesincolor,texture,andshape.Traditionalmethodsthatextractedge-fragmentsfromafewmanuallysegmentedsamplescannotmeettherequirementofstatisticallearningincaseoflargenumberoftrainingsamples.However,ifthetrainingsamplesareautomaticallysegmented,itisinevitablethathugeamountofedge-fragmentsfrombackgroundofthetrainingsampleswillappearinthefeatureset.Inthatcase,thefeature-selectionalgorithmisverycriticaltothedetectiontask.Inthispaper,afeature-selectionalgorithmbasedonweightupdatingschemeofAdaboostandK-Ldistanceisproposed.IneachroundofAdaboostlearning,asubsetofalltheedge-fragmentsisselectedasthefeaturesetfortrainingAdaboostweakclassifier.Becausetheproposedfeature-selectionalgorithmtakesintoaccounttheedge-fragmentsdiscriminationinformationbetweenpositivesamplesandnegativesamples,itcaneffectivelyreducethenumberofedge-fragmentsfrombackgroundinthefinalclassifier.Experimentalresultsshowthattheproposedalgorithmiseffective.Keywords
Objectdetection,featureselection,edge-fragmentfeature,weightupdatingscheme,K-Ldistance
边界信息相对于其他类型的特征对目标的颜色、纹理和形状变化较为鲁棒.文献[1]中对多种特征进行的对比实验表明,边界信息对于检测狗、牛等颜色纹理变化大的目标最为有效.文中的边界信息用离散抽取的边界点所在邻域的对数极坐标直方图来描述,这种描述方法对图像边界提取的效果依赖性较强,但是由于文献[1]中的实验将目标置于单一颜色的背景中,所以这个缺陷并不突出.Shotton和Opelt等提出用边界片段代替目标的全局轮廓作为特征[2−3],提高了检测器在边界断裂、缺失情况下的鲁棒性.同时,利用Adaboost算法强大的学习能力,将多个以边界片段的Chamfer匹配值为特征的弱分类器集合成一个强分类器,也在很大程度上降
收稿日期2008-03-10收修改稿日期2008-08-24
ReceivedMarch10,2008;inrevisedformAugust24,2008国家自然科学基金(60472028),教育部博士点基金(20040003015)资助
SupportedbyNationalNaturalScienceFoundationofChina(60472028)andSpecializedResearchFundfortheDoctoralPro-gramofMinistryofEducationofChina(20040003015)1.清华大学电子工程系北京100084
1.DepartmentofElectronicEngineering,TsinghuaUniversity,Beijing100084
DOI:10.3724/SP.J.1004.2009.00462
低了检测器对边界提取效果的依赖.但是该算法为了避免背景中的边界对分类器的影响,需要对模板图像进行手工分割或者通过预处理算法来提取边界片段集,巨大的工作量限制了模板以及备选边界片段的数量,不利于进行统计学习,同时这也使得模板图像的选择成为影响分类器性能的重要因素.一个较为理想的方案是从所有正面训练样本中收集边界片段,以增强边界片段对目标的代表性,但是这种方法会使边界片段的数目急剧增加,使得在Adaboost学习算法中,需要计算和比较更多的边界片段特征,从而使训练过程变得更加冗长.因此,需要一种筛选策略在边界片段数目急剧增加的情况下控制备选边界片段的数目.
Adaboost是一种贪婪算法[4−7],在每一轮弱分类器训练中,从全部特征集中选出一个能使某个准则函数最优的特征,并根据当前分类器的分类结果更新每个样本的权值.因此特征选择是该算法的一个重要功能.但是完全依靠Adaboost算法选择特征存在以下两个问题:1)Adaboost算法的优化对象是某个损失函数,并没有直接关注所选出的边界片段是否描述了目标的边界.在一个混有背景噪声的
5期崔潇潇等:基于Adaboost权值更新以及K-L距离的特征选择算法463
边界片段特征集中仅仅依靠Adaboost算法选择特征,就有可能出现这样一种情况,即所选出的边界片段虽然来自背景,但它有可能与权值很大的正面训练样本在该样本的背景中获得很小的匹配代价,从而在当前权值下使准则函数取到最小值.这种过学习现象在小样本训练的情况下尤为突出.因此在一个混有背景噪声的边界片段特征集中仅仅依靠Adaboost选择特征往往会在最终的分类器中引入较多无关边界片段,影响检测器性能.2)当底层特征数目众多时,需要对样本的每个特征优化准则函数,导致训练工作量巨大,这个问题已经引起了广泛的注意,并且已经提出了一些改进方法,例如“权值修整(Weighttrimming)”策略[4]等.权值修整策略是从减少训练样本的角度出发来减轻训练的工作量,而减轻训练负担的另一个方法是减少每一轮Adaboost弱分类器学习中需要计算和比较的特征数目,也就是本文要研究的问题,即如何在一个数目庞大的特征集中进行特征选择.
K-L距离是信息论中一个重要概念,它度量了两个概率分布之间的差异性.在目标匹配、跟踪问题中,可以通过最小化K-L距离寻找目标的匹配区域[8−9],而在模式分类问题中,则通过最大化K-L距离选择鉴别性最好的特征进行分类.文献[10]中提出一种称为KLboosting的学习算法,将K-L距离作为优化目标嵌入到Adaboost学习算法框架中.每一轮学习都选择一组原始小波特征的最优投影方向,使得在该方向上正负样本的直方图分布具有最大的K-L距离.文献[10]的实验证明,通过K-L距离准则,可以选择鉴别性更好的投影方向,加速分类错误率的下降.KLBoosting算法的目的是选择原始特征的一个最优投影方向,并没有给出对数目庞大的原始小波特征进行筛选的方法.
本文提出一种基于Adaboost权值更新思想以及K-L距离的边界片段特征选择算法.样本在每一轮弱分类器学习后,根据Adaboost算法更新权值,该权值不仅用于计算弱分类器的加权错误率,也用来修正每个样本中边界点的强度.提高错分样本的边界在统计中的重要性,使特征选择算法倾向于选择那些对这些错误样本有较强代表性的边界片段.更新了样本的边界点强度之后,利用正负样本中边界点分布的K-L距离作为度量,选择中心位于正负样本中边界点分布差异较大处的边界片段作为Adaboost弱分类器学习的特征集,该选择算法以边界片段在正负样本中分布的鉴别信息为依据,不仅极大地减少了训练的工作量,而且从边界片段特征分布的统计意义上对Adaboost的特征选择施加了影响.下面首先简要介绍本文所采用的特征提取方法,然后着重介绍本文提出的特征选择算法,最后给
出在数据库上的实验结果.
1算法
1.1边界片段特征的提取
1.1.1边界片段的匹配代价
每个边界片段由起始点坐标和一段链码来描述.它包含了两方面信息,一是边界片段在整个待检测目标中的相对位置信息,二是它的形状信息.边界片段与待匹配边界图像的匹配代价由形状匹配代价和空间位置匹配代价两部分组成:前者描述边界片段与待匹配边界图在形状上的匹配度,后者描述它们在空间位置上的匹配度.
形状匹配代价的定义为:边界片段在待匹配边界图的Chamfer变换图像上进行平移匹配的局部最小值
S1
T(E)=|min
x¯|
长度,E表示待匹配边界图像,ChE表示待匹配边界图像E的Chamfer变换,x¯表示边界片段在距离变换矩阵上移动的位移向量.为了减小边界丰富的区域对搜索最优匹配点的干扰,边界片段的平移匹配被限制在边界片段的原始位置pT附近,R为搜索区域的半径.
空间位置匹配代价定义为待匹配图像上的最优匹配点pE距边界片段原始位置pT的欧氏距离
DT(E)=d(pE,pT)(2)
图1给出了形状匹配代价和距离匹配代价的提取过程.
图1
边界片段特征的提取
Fig.1
Extractionofedgefragmentfeatures
边界片段与待匹配边界图像的代价函数定义为
464自动化学报35卷
CT(E)=S2(E)+λD2
TT(E)
(3)
组合参数λ由训练得到.根据形状匹配代价和空间
位置匹配代价的物理意义,代价函数取值越小,待匹配边界图和正面样本越相似.
1.1.2边界片段的生成
文献[2]从正面训练样本中选取一部分作为模板,对模板进行手工分割后从中提取边界片段.由于需要对模板图像进行手工分割,模板图像的数量受到限制,从而使模板图像的选择成为影响分类器性能的一个因素.为了使边界片段在统计上更具代表性,不受模板选择的影响,一个较好的做法是从所有正面训练样本中生成备选边界片段.为了避免手工分割训练样本的巨大工作量,训练样本的边界由统计区域合并(Statisticalregionmerging,SRM)[11]图像分割算法自动提取.
叠加所有正面样本的二值边界图像,得到边界点分布的叠加直方图(如图2(a)所示)
NEi(x)
p(x)=i=1
N
(4)
Ei(x
˜)˜x
i=1
其中,Ei(x)表示第i个正(负)面样本的二值边界
图像在坐标x处的取值,1表示该点为边界点,0表示为非边界点;N为样本个数.将该叠加直方图分成大小相同的图像块(如图2(b)所示),每个图像块
(a)正面样本边界图像的叠加直方图(a)Additivehistogramofpositivesamples
(b)分块叠加直方图
(b)Blockedadditivehistogram
图2叠加直方图
Fig.2
Additivehistogram
对应于一个边界片段子字典,该子字典中所包含的
边界片段都是由位于该图像块中的边界点生长得到的.具体生成方法是:在每个图像块中取分布概率较大的边界点作为生成边界片段的“种子”.对每个正面训练样本,由这些种子沿着提取的边界向两侧[3]生长出边界片段,在遇到以下三种情况之一时停止生长:1)边界片段已经达到预先规定的最大长度;2)种子已生长到边界的终点;3)种子已回到它的起点位置.然后,从每个边界片段中生成若干不同长度的边界片段以增加字典中边界片段的个数.这些新生成的边界片段和原始的边界片段具有共同的“种子”,但它们的长度按一定步长递减.最后,将新生成的边界片段和字典中已有的边界片段进行比较,如果位置不同的边界点的个数小于某个阈值,则舍弃这个新生成的边界片段;反之,用边界片段的一个起始点坐标以及相应的链码表示该边界片段,并将它加入边界片段子字典.
1.2边界片段特征的选择
对样本图像的自动分割会导致边界片段字典中出现大量背景中的边界片段,它们会对分类造成干扰,这对边界片段的选择算法提出了更高的要求.本文提出的特征选择算法分为两层:边界片段子字典的选择以及通过Adaboost学习算法选择特征.
1.2.1边界片段子字典的选择
从所有训练样本中生成边界片段导致备选片
段的数目急剧增加,如果在Adaboost的每一轮训练中都对所有备选边界片段优化准则函数,那么计算量将十分巨大.本文提出的基于K-L距离以及Adaboost权值更新思想的特征筛选方法,在每一轮Adaboost训练过程中筛选出全部备选边界片段中的一个子集,作为Adaboost训练的备选特征集.
1)叠加直方图的K-L距离
按照式(4)统计正面样本和负面样本的边界点分布叠加直方图和.它们之间的K-L距离定义为
p(x)q(x)=p(x)log
p(x)
(5)x
q(x)K-L距离描述了正负样本的边界点在统计分布上的相似性,它是一种有方向性的度量.由于K-L距离取值越大说明这两类样本中的边界点分布差异越大,所以在式(5)右边的求和项中,取值较大的项对两类样本边界点分布的“差异性”贡献也较大.基于K-L距离的这个性质,对直方图中的各坐标点定义一个差异性度量函数Score(x)
Score(x)=p(x)logp(x)
q(x)
(6)
5期崔潇潇等:基于Adaboost权值更新以及K-L距离的特征选择算法465
其中,p(x)反映了坐标x处的边界点在正面样本中分布的先验概率,而log(p(x)/q(x))反映了坐标x处的边界点在正面样本中的分布相对于在负面样本中的分布“优势”.因此Score(x)取值较大不仅表明在坐标x处的边界点属于待检测目标的轮廓的概率较大,而且它对正负面样本具有更强的鉴别能力.
式(5)和(6)是对边界图像中的每个像素点计算的,在实际中为了减小计算量,是以图像块为单位统计叠加直方图的,并按式(6)计算正负样本中相应图像块的差异性度量,在每一轮弱分类器训练中只选择与差异性度量较大的图像块相关的边界片段子字典作为备选字典.
2)样本的加权叠加直方图
Adaboost学习算法的一个显著特点是在每一轮弱分类器的学习后,根据分类器的分类结果更新每个训练样本的权值.增大错分样本的权值,降低正确分类样本的权值,使得在新的弱分类器学习时更偏重错分样本.在以边界片段作为特征的算法中,可以将Adaboost权值更新的思想推广到边界片段特征的选择的问题中.
如果把样本的权值与样本的二值边界图像相乘,那么就可以利用样本的权值来控制样本中边界点的强度.利用Adaboost权值更新的思想,增加错分样本的边界点在叠加直方图中的强度,使边界片段子字典的选择可以倾向于对错分样本鉴别能力更强的边界片段.
考虑样本的权值,按式(7)计算正面样本边界点分布的加权叠加直方图(负面样本的加权叠加直方图的计算类似)
NwiEi(x)
p(x)=
i=1
N(7)
wiEi(x)
x
i=1
再按照式(6)计算各图像块的差异性度量,选择取值较大的图像块所对应的边界片段子字典作为Adaboost训练弱分类器的备选边界片段.1.2.2Adaboost弱分类器中的特征选择采用GentleBoost算法[4]训练分类器,它是Adaboost算法的一种.每个弱分类器对应于一个边界片段.弱分类器的判别函数定义如下
haT,CT(E)>thT
T(E)=
bT,其他
aT
J(hT)=
(yi−hT(Ei))2
(9)
i
对于字典中的每个边界片段,按照式(1)和(2)的算
法求出每个样本的形状匹配代价和空间位置匹配代价,并将式(3)中的组合参数λ离散化.选择其中使式(9)取最小值的λ以及thT,其中,yi为第i个训练样本的标签,1表示正面样本,−1表示负面样本.将式(9)的右边分别对弱分类器的输出aT以及bT求偏导数,可以求出使准则函数取最小值的弱分类器输出
ωiyi
a=i
Tω,i∈{i|CT(Ei)>thT}(10)
i
i
ωiyibi
T=ω,
i∈{i|CT(Ei)
i
i
由于在边界片段字典中混有许多来自背景中的
边界片段,而上述对准则函数(9)的最优化过程中并不能保证aT
初始化.正负样本的二值边界提取图像:Epi以及Eni,i=1,···,N;样本权重:ωi=1/(2N);边界片段子字典:Dj,j=1,···,M;t=1.
Do
1)按照式(7)计算正负样本的加权叠加直方图:p(x)和q(x);
2)按照式(6)计算各图像块的Score(x);降序排列相
应的边界片段子字典{Dj},取前L个边界片段子字典构成备选特征集{φ}={Lj=1D
j};
3)在备选特征集{φ}中,选择在条件aT
ωi=(1/Zt)ωiexp(−yihφt(Ei))
其中Zt为归一化因子.
Whilet
thφt(E))−T).
466自动化学报35卷
2实验
我们在宠物狗数据库上验证了特征选择算法对背景中边界片段的抗干扰性,并在UIUC汽车侧面图像数据库上证明了含有特征选择环节的目标检测算法在自动提取边界片段的同时能够取得比现有检测算法更好的检测性能.
2.1宠物狗数据库
该数据库共包含200个正面训练样本,分辨率为50×75.负面样本在一个包含3536幅不含有目标的图像库中随机抽取.用完全相同的正面样本训练分类器,边界片段都是由机器自动抽取.不同的是,用含有两层特征选择环节的算法训练分类器时,边界片段从所有训练样本中抽取,共得到71312个边界片段;而用原始Adaboost算法训练分类器时,边界片段从正面样本中的34个模板中抽取,共5542个边界片段.在特征选择环节中,将正负训练样本分为5×5的图像块计算边界点的加权叠加直方图,共生成150个边界片段子字典.在每一轮弱分类学习中,只选择差异性度量最大的5个边界片段子字典构成备选边界片段集.
级联Adaboost分类器每级正样本通过率为100%,负样本通过率为50%,它是通过调整强分类器中的参数T来实现的.与通常的通过率控制方法不同,本实验采用的通过率控制方法为:在每一级强分类器训练中,当正负样本全部正确分类时终止训练,然后再调整强分类器的阈值使负面样本通过率为50%.在错误率很低的情况下,错分样本的权值较大,这时更容易引入背景中的边界片段,因此选择这种通过率控制策略可以在一级强分类器中集成更
多的边界片段来验证特征选择算法在整个错误率下降过程中的有效性和鲁棒性.
图3(a)为仅使用Adaboost进行特征选择得到的10级强分类器.作为对比,图3(b)给出了采用本文提出的两层特征选择方法得到的10级Adaboost强分类器.从图3(a)中可以看出,从第5级起,在由边界片段集成的模型上方出现了许多来自背景中的边界片段,相比之下,在图3(b)中给出的模型里,背景则十分干净.这是因为以正负样本边界点分布之间的鉴别信息为依据的特征选择算法,可以使正负样本之间边界点分布的相似性迅速减小,使负面样本边界点趋于平均分布,使正面样本边界点的先验分布在差异性度量中起决定性作用,从而可以从统计意义出发选择描述正面样本的边界片段,有效地排除来自背景中的边界片段的干扰.
图4(见下页)给出了两种特征选择算法下检测器的检测性能,其中虚警率定义为平均每张图片上出现的虚警个数.对比实验结果表明本文提出的两层特征选择算法能够有效地提高检测器的检测性能.原因有以下两点:1)两层特征选择算法中的备选边界片段来自所有训练样本,对目标的描述能力更强.而利用Adaboost算法选择特征时,边界片段仅从部分训练样本中抽取.因为在Adaboost算法中字典中的所有边界片段都要参与弱分类器的训练,如果也像两层特征选择算法那样从所有训练样本中抽取边界片段,那么运算量会急剧增长而导致实际操作的困难.2)正如图3(b)的分类器训练结果所示,两层特征选择算法能够有效地减少分类器中来自背景的边界片段,提高了分类器的对正、负面样本的分类能力.
(a)Adaboost特征选择结果
(a)FeatureselectionresultsofAdaboost
(b)两层特征选择结果
(b)Two-layerfeatureselectionresults
图3
Fig.3
特征选择算法比较
Comparisonbetweendifferentfeature-selectionalgorithms
5期崔潇潇等:基于Adaboost权值更新以及K-L距离的特征选择算法467
图4不同特征选择算法下的检测性能比较
Fig.4
Comparisonresultbetweendifferentfeature
selectionalgorithms
2.2UIUC汽车侧面数据库
将该数据库提供的训练样本左右翻转后,选取其中376个样本作为正面训练样本.测试集中共有170幅图片,包含200个待检测目标.
在训练阶段,将分辨率为40×100的训练样本分为5×5的图像块,每个图像块对应一个边界片段子字典,共160个边界片段子字典,共包含142736个边界片段,全部由计算机自动抽取.在每一轮弱分类器学习前,筛选其中差异性度量最大的5个边界片段子字典组成Adaboost备选特征集.经过这样的初步筛选,可以有效减少训练时间.以采用未经优化的Matlab程序训练第一级Adaboost强分类器的第一个弱分类器为例,经过边界片段子字典的筛选需要8562秒,而未经子字典筛选时需要204823秒,前者仅为后者的4.18%.
图5(a)、5(b)分别为正、负样本的加权叠加直方图随弱分类器个数的增加而变化的过程,图5(c)给出了根据K-L准则筛选出的特征图像块,图5(d)为由弱分类器构成强分类器的过程.可以看出,绝大多数背景中的边界片段在边界片段子字典的筛选阶段就被排除了.
图6的第一行给出了负面样本的叠加直方图随级数增加而变化的过程,它们与正面样本的叠加直方图之间的K-L距离依次为0.0770,0.0767,0.0205,0.0161.第二行和第三行分别给出了相应的边界片段子字典和最终边界片段的选择结果.从图6可以看出随着级数的增加,负面样本中边界点的分布与正面样本中边界点的分布相似度增高,而基于K-L距离的度量正是由于充分利用了两类样本之间的鉴别信息,因此可以有效地筛选出对分类更为有利的边界片段.
表1比较了本文提出的算法与其他目标检测算法的R-PEER(Recall-precisionequalerrorrate)
性能指标,性能曲线通过调节分类器级数绘制.其中文献[12−14]采用了基于关键点的特征,而文献[2]采用了边界片段特征.实验结果表明,本文提出的算法优于文献[12−14]中的检测算法,并且在不需要手工分割样本的情况下,达到与文献[2]相当的检测性能.这是因为两层边界片段特征选择算法可以使分类器在同样的训练时间中更专注于鉴别性强的边界片段,有助于提高分类器的分类性能.
(a)正面样本的加权叠加直方图
(a)Additivehistogramofpositivesamples
(b)负面样本的加权叠加直方图
(b)Additivehistogramofnegativesamples
(c)边界片段子字典的选择结果
(c)Selectionresultofedgefragmentsub-codebook
(d)边界片段的选择结果
(d)Selectionresultofedgefragments
图5加权叠加直方图的演变
Fig.5
Evolutionoftheweightedaccumulatedhistogramoftrainingsamples
图6各级负面样本的叠加直方图及特征选择结果
Fig.6
AccumulatedhistogramofthenegativesamplesindifferentstagesofcascadedAdaboostand
feature-selectionresults
表1UIUC汽车侧面图像检测结果
Table1ExperimentalresultsonUIUCside-on
cardatabase
算法
R-PEER(%)
Agarwal[12]79.0Fergus[13]88.5Leibe[14]91.0Shotton[2]92.8本文算法
93.0
468自动化学报35卷
3结束语
本文提出了一种基于Adaboost权值更新思想和K-L距离的边界片段特征选择算法.在Ada-boost算法中每一轮弱分类器训练之前,对所有备选边界片段进行一次粗筛选,极大地减小了Ada-boost的训练工作量.该算法有两个特点:1)它利用Adaboost更新后的样本权值控制样本中边界点的强度,从而增加错分样本在加权叠加直方图中的重要性,使算法趋向于选择对这些错分样本有更强代表性的边界片段特征.2)采用基于K-L距离的度量对边界片段子字典进行筛选,可以充分利用正负样本的边界点分布之间的鉴别信息,选择对分类更有利的边界片段.实验结果表明,本文提出的特征选择算法可以在很大程度上减轻背景中的边界片段对特征选择的干扰,有助于提高分类器的分类性能.
References
1LeibeB,SchieleB.Analyzingappearanceandcontourbasedmethodsforobjectcategorization.In:ProceedingsofIEEEComputerSocietyConferenceonComputerVisionandPat-ternRecognition.Madison,USA:IEEE,2003.409−4152ShottonJ,BlakeA,CipollaR.Contour-basedlearningforobjectdetection.In:Proceedingsofthe10thIEEEInter-nationalConferenceonComputerVision.Beijing,China:IEEE,2005.503−5103OpeltA,PinzA,ZissermanA.Aboundary-fragment-modelforobjectdetection.In:Proceedingsofthe9thEuropeanConferenceonComputerVision.Graz,Austria:Springer,2006.575−5884FriedmanJ,HastieT,TibshiraniR.Additivelogisticre-gression:astatisticalviewofboosting.AnnalsofStatistics,2000,28(2):337−4075FreundY,SchapireRE.Experimentswithanewboostingalgorithm.In:Proceedingsofthe13thInternationalCon-ferenceonMachineLearning.SanFrancisco,USA:KFUPMePrints,1996.148−1566BreimanL.Predictiongamesandarcingalgorithms.NeuralComputation,1999,11(7):1493−15177SchapireRE,SingerY.Improvedboostingalgorithmsus-ingconfidence-ratedpredictions.MachineLearning,1999,37(3):297−3368FreedmanD,ZhangT.Activecontoursfortrackingdistribu-tions.IEEETransactionsonImageProcessing,2004,13(4):518−5269AlliliMS,ZiouD.Arobustvideoobjecttrackingbyusingactivecontours.In:ProceedingsofConferenceonComputerVisionandPatternRecognitionWorkshop.NewYork,USA:IEEE,2006.135−141
10LiuC,ShumHY.Kullback-Leiblerboosting.In:Pro-ceedingsofComputerSocietyConferenceonComputerVi-sionandPatternRecognition.Wisconsin,USA:IEEE,2003.587−59411NockR,NielsenF.Statisticalregionmerging.IEEETrans-actionsonPatternAnalysisandMachineIntelligence,2004,26(11):1452−145812AgarwalS,RothD.Learningasparserepresentationforob-jectdetection.In:Proceedingsofthe7thEuropeanConfer-enceonComputerVision.Copenhagen,Denmark:Springer,2002.97−10113FergusR,PeronaP,ZissermanA.Objectclassrecognition
byunsupervisedscale-invariantlearning.In:Proceedingsofthe2001ComputerSocietyConferenceonComputerVi-sionandPatternRecognition.Madison,USA:IEEE,2003.264−27114LeibeB,LeonardisA,SchieleB.Combinedobjectcatego-rizationandsegmentationwithanimplicitshapemodel.ProceedingsofECCV
In:
04WorkshoponStatisticalLearn-inginComputerVision.Prague,CzechRepublic:Springer,2004.17−32
崔潇潇清华大学博士研究生.主要研究方向为计算机视觉和模式识别.本文通信作者.
E-mail:cuixx03@mails.tsinghua.edu.cn(CUIXiao-XiaoPh.D.candidateatTsinghuaUniversity.Herresearchinterestcoverscomputervisionandvideosurveillance.Correspondingau-thorofthispaper.)
王贵锦清华大学电子工程系副教授.主要研究方向为视频处理与通信.E-mail:wangguijin@tsinghua.org.cn(WANGGui-JinAssociateprofes-sorintheDepartmentofElectronicEn-gineering,TsinghuaUniversity.Hisre-searchinterestcoversvideoprocessingandcommunication.)
林行刚清华大学电子工程系教授.主要研究方向为图像/视频处理与分析、视觉信息压缩编码及应用、模式识别.E-mail:xglin@tsinghua.edu.cn(LINXing-GangProfessorintheDepartmentofElectronicEngineering,TsinghuaUniversity.Hisresearchin-terestcoversimage/videoprocessing
andanalysis,videocodingandcommunications,andpat-ternrecognition.)
因篇幅问题不能全部显示,请点此查看更多更全内容
怀疑对方AI换脸可以让对方摁鼻子 真人摁下去鼻子会变形
女子野生动物园下车狼悄悄靠近 后车司机按喇叭提醒
睡前玩8分钟手机身体兴奋1小时 还可能让你“变丑”
惊蛰为啥吃梨?倒春寒来不来就看惊蛰
男子高速犯困开智能驾驶出事故 60万刚买的奔驰严重损毁