CN105184823B - 基于视觉感知的运动目标检测算法性能的评价方法 - Google Patents
基于视觉感知的运动目标检测算法性能的评价方法 Download PDFInfo
- Publication number
- CN105184823B CN105184823B CN201510633496.0A CN201510633496A CN105184823B CN 105184823 B CN105184823 B CN 105184823B CN 201510633496 A CN201510633496 A CN 201510633496A CN 105184823 B CN105184823 B CN 105184823B
- Authority
- CN
- China
- Prior art keywords
- algorithm
- detection
- picture
- detection picture
- standard
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供一种基于视觉感知的运动目标检测算法性能的评价方法,其特征在于,包括:选取标准检测图片,对每一不同运动目标检测算法获得算法检测图片与标准检测图片进行比较获取该运动目标检测算法下的评价指标;对不同运动目标检测算法获得的评价指标按降序排列,最小值对应的运动目标检测算法性能最优。
Description
技术领域
本发明涉及一种图像处理技术,特别是一种基于视觉感知的运动目标检测算法性能的评价方法。
背景技术
运动目标检测作为许多计算机视觉应用中的预处理环节,在诸如视频监控、视频搜索等领域中都有着重要的应用,在受到越来越多人的关注的同时,近年来基于不同理论的运动目标检测算法不断被提出。因此,建立一个统一客观的标准数据集和评价标准对现有的运动目标检测算法性能进行客观公正的评价,对现有运动目标检测算法的认识、改进以及新算法的提出具有重要作用。
目前,运动目标检测算法性能的评价方法主要分为两大类:主观评价法和客观评价法。
(1)主观评价法就是以人作为观察者,对图像的优劣做出主观定性评价。主观评价法又可分为绝对评价和相对评价两种。绝对评价是将图像直接按照视觉感受进行分级评分;相对评价是由观察者将一批图像从好到坏进行分类,将它们相互比较得出好坏,并给出相应的评分。主观评价法对一些明显的图像信息进行评价显得直观、快捷和易于实现,评价结果也比较全面,符合人类视觉系统感知特点,对最终的图像质量评测也是十分有用的。但是这种评价方法受观察者心理因素、观察者数量、图像类型、应用场合和观测环境等因素影响较大,评价过程繁琐,加之人的视觉心理因素很难用物理量度量,致使评价结果不够精确,而且主观评价法难以实现自动化处理,不利于运动目标检测评价系统的自动化设计。
(2)客观评价法是根据人眼的主观视觉系统来建立一定的数学模型来计算运动目标检测算法检测到的运动目标,并通过具体的公式计算,得出量化的数字来比较运动目标检测算法的好坏。常见的运动目标检测算法客观评价方法主要包括前景识别率、背景识别率、假阳率、假阴率、误检率及精度几种指标:
前景识别率(Recall,Re)是反映运动目标检测算法能正确识别运动目标程度的指标;
背景识别率(Specificity,Sp)是反映运动目标检测算法能正确识别背景程度的指标;
假阳率(False Positive Rate,FPR)是反映运动目标检测算法在检测过程中把背景误判为前景程度的指标,主要与背景点误判为前景点(即鬼影)有关;
假阴率(False Negative Rate,FNR)是反映运动目标检测算法在检测过程中把前景目标误判为背景程度的指标,主要用于反应检测目标的空洞程度;
误检率(Percentage ofwrong Classifications,PWC)是反映运动目标检测算法在检测过程中误判程度的指标,包括背景被误判为前景和前景被误判为背景两种情况;
精度(Precision,Pre)是反映运动目标检测算法在检测过程中前景被正确判断程度的指标。它只与正确检测出的前景点及错误检测出的前景点有关。
以上六种统计指标计算方法如下式所示:
Re=TP/(TP+FN)
Sp=TN/(TN+FP)
FPR=FP/(FP+TN)
FNR=FN/(TP+FN)
Pr e=TP/(TP+FP)
TP为前景目标被正确识别的点数;FP为背景被误判为前景的点数;TN为背景目标被正确识别的点数;FN为前景目标被误判为背景的点数。其中,Re,Sp和Pre指标越大,说明运动目标检测算法检测运动目标的性能越好,而FPR、FNR及PWC指标越小,说明运动目标检测算法检测运动目标的性能越好。
针对以上不同的客观评价指标,它们能够克服人的视觉特性、心理状态、知识背景等因素的影响,可以提高判断的准确性和速度,能够实现自动化处理。但是它们反映出的运动目标检测算法检测运动目标的性能侧重点各有差异,我们单独根据某一个指标并不能客观评价运动目标检测算法检测运动目标的性能,而综合六个指标会存在某个检测算法的某个指标最为优异而另一个检测算法的另一个指标最为优异的情况,甚至会出现两个指标得出结论恰好相反的情况,这会使判断者产生困惑,同样不便于运动目标检测算法最终检测性能的客观判定。
发明内容
本发明的目的在于提供一种基于视觉感知的运动目标检测算法性能的评价方法,在本方法中使用了一种新的评价指标,它能够符合人类视觉系统感知特点,有效、客观的对运动目标检测算法性能进行综合评价。
一种基于视觉感知的运动目标检测算法性能的评价方法,包括:
步骤1,选取标准检测图片A,通过一种运动目标检测算法检测到的图片B,对图片A和B进行灰度处理;
步骤2,获取处理后的标准检测图片A目标位置区域中像素点的个数Nu;
步骤3,将处理后的算法检测图片B和处理后的标准检测图片A的像素点一一对应求得运动目标检测算法检测出的正确前景点个数TP和背景点被错误判断为前景点的个数FP;
步骤4,采用图像分块原理分别将处理后的标准检测图片A和算法检测图片B以M*M像素矩阵为单位分解成若干个小矩阵;
步骤5,选择标准检测图片A中某一个小矩阵a及算法检测图片B中相同位置小矩阵b;
步骤6,若该矩阵是零矩阵,返回步骤5,重新选取一新的小矩阵;否则,执行步骤7;
步骤7,获得矩阵a中像素点的灰度均值P;
步骤8,求出a、b两矩阵一一对应像素点中相同位置且像素点灰度值相同点的个数K;
步骤9,若K=0,返回步骤5,重新选取一新的小矩阵;否则,执行步骤10;
步骤10,计算矩阵b的灰度值,存入数组W中,直至图片A中所有小矩阵遍历完全;
步骤11,对数组W求标准差S和求均值E,再根据公式D=S/E计算差异系数D;
步骤12,差异系数D、标准前景点个数Nu、算法检测出的正确前景点个数TP和背景点被错误判断为前景点的个数FP代入到公式VF=D*(Nu+FP)/TP计算出最终的评价指标VF;
步骤13,对不同运动目标检测算法检测到的图片B,重复步骤1至步骤12;
步骤14,对所有评价指标按降序排列,最小值对应的运动目标检测算法性能最优。
本发明与现有技术相比,其显著优点:(1)本发明提出的方法中计算新评价指标时也引入了TP、FP等参数,新评价指标与各项传统指标有了一定关联,新评价指标相对于对传统运动目标检测性能评价的各项指标做了统一,相比于传统的多组评价指标,可以更加方便及客观地反映一个运动目标检测算法检测运动目标的性能;(2)传统的运动目标检测算法性能评价指标以单个像素点为单位进行指标的计算,如果出现不同运动目标检测算法检测出的前景点个数相同的情况,由于前景个数相同,不同运动目标检测算法检测出的效果对应的TP、FP、TN和FN的值都各自相等,因此两种检测算法的各项传统指标均相同,也就无法区分两者检测性能的优劣。这也是传统评价指标以像素点为单位进行指标计算的不足之处。本发明中提出的新指标基于图像分块原理对运动目标检测算法进行评价,我们将图片进行分块细化,以分块矩阵为单位,逐一对比标准检测图片和算法检测图片中相应小矩阵的相似情况,并引入标准差、平均值和差异系数等参数来描述两幅图的相似程度,可以有效地解决当不同算法检测出的前景点个数相同,无法根据该组指标比较运动目标检测算法性能好坏的问题;(3)传统的运动目标检测算法性能评价指标反映的是算法检测运动目标性能的某一个特征,不能很好的与人类主观评价结果保持一致,本发明结合人类视觉系统感知的特点,提出视觉波动性(Visual Fluctuation,VF)概念,人类视觉系统感知的最基础的一个特点就是对目标整体轮廓及目标细节的感知,该指标主要反映算法检测结果的目标完整度和目标整体协调性。实验结果表明,本发明中提出的评价指标可以更好地反映不同算法检测结果存在的巨大差异,其结果与人类对不同算法检测结果存在巨大差异的视觉感知相符合,可以有效、客观地对检测目标的算法进行评价,对运动目标检测技术性能评估具有重要意义。
下面结合附图对本发明作进一步详细描述。
附图说明
图1为本发明基于视觉感知的运动目标检测算法评价指标的计算流程图。
图2(a)为室外行人红外视频2中某一帧图片的标准图片,图2(b)为算法a检测结果,图2(c)为算法b检测结果,其中图2(b)和图2(c)检测出的前景点的个数是相同的。
图3为图2中两种算法检测结果的各项传统指标值示意图,前景识别率(Re)、背景识别率(Sp)、假阳率(FPR)、假阴率(FNR)、误检率(PWC)和精度(Pre)。
图4为图2中两种算法检测结果的各项传统指标值和新指标值示意图,前景识别率(Re)、背景识别率(Sp)、假阳率(FPR)、假阴率(FNR)、误检率(PWC)、精度(Pre)和视觉波动性(VF)。
图5(a)为夜间树下行人红外视频1中的原始图片,图5(b)为图5(a)的标准检测结果示意图,图5(c)为图5(a)的帧差法检测结果示意图,图5(d)为图5(a)的混合高斯模型算法检测结果示意图,图5(e)为图5(a)的多尺度码本模型算法检测结果示意图,图5(f)为图5(a)的VIBE算法检测结果示意图。
图6为图5中四种算法检测结果的各项传统指标值示意图,前景识别率(Re)、背景识别率(Sp)、假阳率(FPR)、假阴率(FNR)、误检率(PWC)和精度(Pre)。
图7为图5中四种算法检测结果的各项传统指标值和新指标值示意图,前景识别率(Re)、背景识别率(Sp)、假阳率(FPR)、假阴率(FNR)、误检率(PWC)、精度(Pre)和视觉波动性(VF)。
图8(a)为室内儿童红外视频3中的原始图片,图8(b)为图8(a)的标准检测结果示意图,图8(c)为图8(a)的帧差法检测结果示意图,图8(d)为图8(a)的混合高斯模型算法检测结果示意图,图8(e)为图8(a)的多尺度码本模型算法检测结果示意图,图8(f)为图8(a)的VIBE算法检测结果示意图。
图9为图8中四种算法检测结果的各项传统指标值和新指标值示意图,前景识别率(Re)、背景识别率(Sp)、假阳率(FPR)、假阴率(FNR)、误检率(PWC)、精度(Pre)和视觉波动性(VF)。
图10(a)为走廊行人红外视频4中的原始图片,图10(b)为图10(a)的标准检测结果示意图,图10(c)为图10(a)的帧差法检测结果示意图,图10(d)为图10(a)的混合高斯模型算法检测结果示意图,图10(e)为图10(a)的多尺度码本模型算法检测结果示意图,图10(f)为图10(a)的VIBE算法检测结果示意图。
图11为图10中四种算法检测结果的各项传统指标值和新指标值示意图,前景识别率(Re)、背景识别率(Sp)、假阳率(FPR)、假阴率(FNR)、误检率(PWC)、精度(Pre)和视觉波动性(VF)。
具体实施方式
步骤1,根据标准检测图片A(由Wallflower数据集提供,作为一个标准参考)求得标准前景点个数Nu,再将算法检测图片B(通过运动目标检测算法检测到的图片)和标准检测图片A的像素点一一对应求得算法检测出的正确前景点个数TP和背景点被错误判断为前景点的个数FP;Nu为标准检测图片A中目标位置区域中像素点的个数;TP为算法检测图片B中对应标准检测图片A中目标位置区域中检测到目标点的个数;FP为算法检测图片B中对应标准检测图片A中背景位置区域中检测到目标点的个数;其中TP的值越接近A的值表示该检测算法性能更优异,检测出的运动目标空洞越小;FP的值越小表示该检测算法性能更优异,检测出的运动目标鬼影越小。此时,会出现两种特殊情况:(a)即算法能正确检测出所有的前景点及背景点(TP=Nu且FP=0),毫无疑问,出现这种检测结果的算法其性能最优。由于含有运动目标边缘的分块矩阵,不同矩阵可能含有不同数量的目标边缘前景点,这种情况下数组W中存在不同值的项,造成最终的标准差不为0。此时我们可以在算法最开始对TP和FP进行判断,若TP=Nu且FP=0时,跳过以后步骤,直接令指标VF为0结束计算。(b)即所有的前景点都没被检测出(TP=0),毫无疑问,出现这种结果的算法检测目标的性能最差,在这种情况下我们强制令VF取很大的值,比如1500。
步骤2,根据图像分块原理,分别将标准检测图片A和算法检测图片B以M*M像素矩阵为单位分解成若干个小矩阵,本文M取2;图像分块原理就是将图像划分为若干个子块,分别在各个子块图像上抽取图像的特征信息,然后将各个子块图像的特征放在一起,与图像不分块,直接在图像上抽取特征相比,前者获得的特征更能描述一幅图像的特征。例如:选取的图像大小为176*144,则根据此方法分块将得到88*72个分块矩阵(M取2),以后的计算都是以分块矩阵为单位进行处理。
步骤3,选择标准检测图片A中某一个小矩阵a(图片A分解后得到的小矩阵中的一个,大小为M*M)及算法检测图片B中相同位置小矩阵b(图片B分解后得到的小矩阵中的一个,大小为M*M);
步骤4,如果矩阵a是零矩阵,表示此处没有运动目标点存在,则忽略这个矩阵回到步骤(3)对下一个小矩阵进行分析;否则:(a)求出矩阵a中像素点的灰度均值P(P=矩阵中像素点灰度值之和/总像素点个数);(b)求出a、b两矩阵一一对应像素点(相同位置像素点灰度值相同)的相同点个数K,例如:矩阵a为矩阵b为通过对比相应像素点的灰度值,可以看出,矩阵a和矩阵b第一行的两个像素点对应位置的灰度值相同,因此,此时K的值为2。(c)如果(b)中K等于0,则说明算法检测图片相应位置被误检(背景点被误检为前景点或前景点被误检为背景点),忽略这个矩阵返回到步骤(3)对下一个小矩阵进行分析;否则以矩阵为单位根据公式G(b)=P*K/(M*M)计算矩阵b的灰度值G(b),并将值放入数组W中,W={G(b1),G(b2),...G(bN)}。
步骤5,遍历完所有的小矩阵后,对数组W依据公式
求标准差S。标准差反映了数组中个体间的离散程度。对于如[0,0,0,255]和[255,255,255,0]这样的两个数组,虽然其标准差都相同,但数组反映出的检测结果不一样。也就是说,算法的检测结果除了与数组W的标准差有关,还受数组中各项值的影响。因此我们对数组W依据公式E=(G(b1)+G(b2)+...+G(bN))/N求均值E,再根据公式D=S/E计算差异系数D,此时求得的差异系数就不仅与数组中个体的离散程度,而且与数组中各项值大小有关,反映出的图像差异特点更加全面,且差异更加明显,避免了上述两个数组的像素值不同而标准差却相同无法区分优劣的问题。
此步骤中,也会出现一种特殊情况:即每个分块后的矩阵内都有相同个数的点(前景点或背景点)被正确检测出来。这种情况下数组W中的每一项值都相等,其标准差为0导致最终的VF为0。但是此时的算法性能并不是最优异的。当分块矩阵不大时,即便每个分块矩阵只能检测出1个前景点,我们从由多个分块矩阵组合成的检测图像中依然可以较清晰地分辨出运动目标。不过矩阵内正确检测出来的前景点和背景点个数存在多种情况,比如每个矩阵内有1个前景点被正确检测出来以及每个矩阵内有2个前景点被正确检测出来等等,虽然在这些不同情况下最终的标准差都为0,但其反映出的目标完整度存在差异。由于K代表a、b两矩阵一一对应像素点(相同位置像素点灰度值相同)的个数,K值越大说明每个矩阵内正确检测出的前景点个数越多,目标完整度越高。而指标VF是越小越好,因此在此步骤中,我们先判断标准差的大小,若为零,则直接按特殊情况处理,采用公式D=0.1*(M*M-K)/(M*M)计算差异系数D。
步骤6,由于步骤5只在矩阵b中至少一个像素点被正确检测出(K>0时)这种情况下才将矩阵b的灰度值G(b)值放入数组W中,因此对于帧差法这种被正确检测出的像素点个数少,目标内部存在较大空洞的情况,其数组W中的项数就会较少。但由于数组的标准差和均值受其项数影响,而数组W的标准差和均值会影响最终的指标,因此在计算最终的指标时我们不能忽略未被检测出的前景点个数。同时某些算法在目标检测过程中会将背景点错误判断为前景点(即鬼影),这同样会对最终的检测结果产生影响,所以在计算最终的指标VF时我们不能忽略错误检测出的前景点个数。综合以上情况,提出一种最终指标的新的计算方式,按照公式VF=D*(Nu+FP)/TP计算最终的评价指标VF,D是差异系数,反映的是算法检测图片被检测出目标与标准图片的差异大小,该值越小,表示算法检测图片和标准图片差异越小,算法性能越好;Nu是标准检测图片A的前景点个数,对于同一幅图片该值为常数;FP为算法检测出的背景点被错误判断为前景点的个数,反映的是算法检测图片中鬼影的大小,该值越小,鬼影越小,算法性能越好;TP为算法检测出的正确前景点个数,反映的是算法检测图片中空洞的大小,该值越大,空洞越小,算法性能越好,参照VF的计算公式,可以知道,最终指标VF值越小,表示算法性能越优异。
下面结合本发明的仿真实例对本发明做进一步的说明。
为了排除实验的偶然性,验证本发明新指标的可靠性,我们采用了四组不同的红外视频进行仿真。现通过MATLAB R2014a构建算法仿真模型将本发明提出的新指标检测算法的结果与传统指标算法的结果进行比较。分别选取大小为176*144,帧速率为25帧/秒的的室外行人红外视频1,大小为176*144,帧速率为25帧/秒的夜间树下行人红外视频2,大小为160*120,帧速率为25帧/秒的的室内儿童红外视频3,大小为176*144,帧速率为25帧/秒的走廊行人红外视频4。
图2(a)为室外行人红外视频1的标准图片,图2(b)和图2(c)分别是利用不同算法得到的检测结果,图2(b)为通过MATLAB在人像内部随机产生16000个灰度值为255的白点;而图2(c)首先对图2(a)进行了人为处理,消除了人像的头部及手部后,通过MATLAB计算人为增加的白点数目为7018个,然后通过MATLAB在人像内部随机产生8912个白点,总共16000个,达到与算法a检测目标前景点个数相同的情况。由图2(c)可以看出,算法b检测到的目标头部和手出现了缺失,对于人类视觉感知而言,算法a检测的运动目标完整度更高,因此算法a的检测性能优于算法b的检测性能。
但是由图3可以发现,图3为图2中两种算法检测结果的各项传统指标值,前景识别率(Re)、背景识别率(Sp)、假阳率(FPR)、假阴率(FNR)、误检率(PWC)和精度(Pre)。由于检测出的前景点个数相同,因此两种算法的各项传统指标均相同,无法区分两种算法目标检测性能的优劣,这也是传统评价指标以像素点为单位进行指标计算的不足之处。
因此,本发明结合人类视觉系统感知的特点,基于图像分块原理提出视觉波动性(Visual Fluctuation,VF)概念,该指标主要反映运动目标检测算法检测结果的目标完整度和目标细节的协调性。
图4为图2中两种运动目标检测算法检测结果的各项传统指标值和新指标值,前景识别率(Re)、背景识别率(Sp)、假阳率(FPR)、假阴率(FNR)、误检率(PWC)、精度(Pre)和视觉波动性(VF)。从图4可知,我们对图2(b)和图2(c)计算本发明方法中提出的指标,两种算法的指标结果存在差异,反映出算法a检测运动目标的性能更为优秀,这与我们对图2两种算法检测结果的视觉感知相符合。这说明本发明提出的指标不仅可以直接反映算法检测运动目标的性能,同时也弥补了当两种不同算法检测出的前景点和背景点个数相同时,我们不能根据传统指标分析算法检测性能的缺陷。
图5(a)为夜间树下行人红外视频2的原始图片,图5(b)为图5(a)的标准检测结果,图5(c)为图5(a)的帧差法检测结果,图5(d)为图5(a)的混合高斯模型算法检测结果,图5(e)为图5(a)的多尺度码本模型算法检测结果,图5(f)为图5(a)的VIBE算法检测结果。
从图5可以看出,帧差法检测出的目标最不完整且内部存在最大的空洞。相比帧差法,混合高斯模型算法在检测的目标完整度及缩小目标内部空洞上有了提高,但其检测结果存在较多噪点。多尺度码本模型算法能很好地消除噪声对检测结果的影响,虽然相比帧差法其检测出的目标在完整度上有了提高,但依然不能较好地显示整个目标轮廓。VIBE算法虽然将运动目标周围的一些背景点误判为了前景点,但从人眼视觉来看可以最为清楚地分辨出目标轮廓,其检测结果与标准检测结果最相符。
我们针对上面的检测结果对传统客观评价指标进行计算,其结果如图6所示。图6为图5中四种算法检测结果的各项传统指标值,前景识别率(Re)、背景识别率(Sp)、假阳率(FPR)、假阴率(FNR)、误检率(PWC)和精度(Pre)。
从图6可以看出,帧差法、混合高斯模型算法及多尺度码本模型算法检测的目标均存在较大的空洞,因此它们的Re指标较低,而VIBE算法检测的目标最为完整,因此其Re指标最高。单独从Re指标来看,VIBE算法检测运动目标的性能最为优异。
背景识别率(Sp)是反映背景被正确判断程度的指标。由于运动目标在整张检测图像中所占的比例不大,因此四种算法的Sp指标均很高,但依然可以从中看出区别:帧差法和混合高斯模型算法的检测结果存在较多噪点,因此它们的Sp指标在四种算法中处于居中位置。而多尺度码本模型算法可以很好地消除噪声对检测结果的影响,其Sp指标最高。VIBE算法虽然检测到最为完整的运动目标,但将目标外的部分背景点误判为前景点,其Sp指标是四种算法中最低的。单独从Sp指标来看,多尺度码本模型算法检测运动目标的性能最为优异,VIBE算法性能最差。
假阳率(FPR)是反映背景被误判为前景程度的参数,主要与背景点误判为前景点(即鬼影)有关。Sp指标与FPR指标是从正反两个方面反映背景被正确判断的程度,因此根据FPR指标得出的结论与根据Sp指标得出的结论相同:多尺度码本模型算法检测运动目标的性能最为优异,而VIBE算法检测运动目标的性能最差。
假阴率(FNR)是反映前景目标被误判为背景程度的指标。Re和FNR是从正反两个方面反映前景被正确判断的程度。因此根据FNR指标得出的结论与根据Sp指标得出的结论相同:VIBE算法检测运动目标的性能最为优异,而帧差法检测运动目标的性能最差。
误检率(PWC)是反映算法在检测过程中误判程度的指标,包括背景被误判为前景和前景被误判为背景两种情况。帧差法、混合高斯模型算法、多尺度码本模型算法虽然在识别背景的能力上较为优异,但三者检测到的运动目标内部均存在较大的空洞。VIBE算法与它们相反:虽然VIBE算法将目标轮廓外的部分背景误判为前景,但其检测到的运动目标完整度很高。综合背景被误判为前景及前景被误判为背景的程度来看,VIBE算法的PWC指标最低,其检测性能最为优异。
精度(Pre)是反映前景被正确判断程度的指标。由于该组指标均以像素点为单位对算法检测运动目标的性能进行评价,对于Pre指标,它只与正确检测出的前景点及错误检测出的前景点有关。这会导致只要算法不将背景点误判为前景点,在这种情况下算法检测到的前景点越少,它的Pre指标就越高。图6可以看出,多尺度码本模型算法的Pre指标最高而帧差法的Pre指标最低,单纯从Pre这个指标得出结论是多尺度码本模型算法检测运动目标的性能最好,而帧差法检测运动目标的性能最差。
从上面对六个指标的分析来看,针对不同的指标,它们反映出的算法检测运动目标的性能有差异。我们单独根据某一个指标并不能客观评价算法检测运动目标的性能,而综合六个指标会存在某个算法的某个指标最为优异而另一个算法的另一个指标最为优异的情况,甚至会出现两个指标得出结论恰好相反的情况,这会使判断者产生困惑,同样不便于算法最终检测性能的客观判定。
我们在相同的实验平台上对图5中红外视频检测结果分别计算了传统评价指标及本发明提出的新指标,计算结果如图7所示。图7为图5中四种算法检测结果的各项传统指标值和新指标值,前景识别率(Re)、背景识别率(Sp)、假阳率(FPR)、假阴率(FNR)、误检率(PWC)、精度(Pre)和视觉波动性(VF)。从图7可以看出,VIBE算法、多尺度码本模型算法、混合高斯模型算法和帧差法的VF指标逐渐增大,说明VIBE算法检测运动目标的性能最好,而帧差法检测运动目标的性能最差,这和我们图5的视觉感知相符合。
为了进一步验证本文提出的检测指标的适用范围,我们又针对两组红外视频进行了MATLAB仿真,仿真结果如图8和图10所示,对应的指标计算结果如图9和图11所示。
图8(a)为室内儿童红外视频3中的原始图片,图8(b)为图8(a)的标准检测结果,图8(c)为图8(a)的帧差法检测结果,图8(d)为图8(a)的混合高斯模型算法检测结果,图8(e)为图8(a)的多尺度码本模型算法检测结果,图8(f)为图8(a)的VIBE算法检测结果。从图8可以看出,帧差法仅能检测出目标的部分轮廓;混合高斯模型算法检测目标的轮廓更加完整,但内部依然存在较大的空洞;多尺度码本模型算法的检测结果相比前面两种算法有了很大提高,但目标依然不完整;VIBE算法虽然把镜子中的运动目标也检测出来,和标准的检测结果相比鬼影较大,但检测目标的完整度很高。整体而言,VIBE算法对该视频的目标检测性能最好。
图9为图8中四种算法检测结果的各项传统指标值和新指标值,前景识别率(Re)、背景识别率(Sp)、假阳率(FPR)、假阴率(FNR)、误检率(PWC)、精度(Pre)和视觉波动性(VF)。而从图9可以看出,Sp、FPR和Pre指标反映出多尺度码本模型算法的检测性能最为优异,而Re、FNR和PWC指标则反映VIBE算法的检测性能最好。VF指标支持“VIBE算法检测性能最好而帧差法检测性能最差”这一结论,并且四种算法的VF指标差异很大,这与图8的检测结果相符合。
图10(a)为走廊行人红外视频4中的原始图片,图10(b)为图10(a)的标准检测结果,图10(c)为图10(a)的帧差法检测结果,图10(d)为图10(a)的混合高斯模型算法检测结果,图10(e)为图10(a)的多尺度码本模型算法检测结果,图10(f)为图10(a)的VIBE算法检测结果。从图10可以看出,帧差法仅能检测出少量前景点,无法分辨目标轮廓;混合高斯模型算法可以出检测目标的轮廓,但目标内部信息缺乏;多尺度码本模型算法的检测结果可以较完整地显示目标,但目标背部区域存在较大空洞;VIBE算法检测目标的完整度最高,同时目标内部区域的空洞最小。因此,VIBE算法对该视频的目标检测性能最好。
图11为图10中四种算法检测结果的各项传统指标值和新指标值,前景识别率(Re)、背景识别率(Sp)、假阳率(FPR)、假阴率(FNR)、误检率(PWC)、精度(Pre)和视觉波动性(VF)。从图11可以看出,帧差法的Sp、Pre指标均为1,但这种情况并不能说明帧差法目标检测性能优秀,体现了该组指标以像素点为单位对算法检测运动目标的性能进行评价的缺陷。对于FPR指标,由于多尺度码本模式算法和VIBE算法的该指标相同,无法根据FPR指标对两种算法的性能进行评价。Re、FNR和PWC指标则反映出VIBE算法检测性能最好,这与图10的检测结果相符合。VF指标支持“VIBE算法检测性能最好”这一结论,并且四种算法的VF指标差异很大,这与图10的检测结果相符合。
Claims (4)
1.一种基于视觉感知的运动目标检测算法性能的评价方法,其特征在于,包括:
选取标准检测图片,对每一不同运动目标检测算法获得的算法检测图片与标准检测图片进行比较,获取该运动目标检测算法下的评价指标;
对不同运动目标检测算法获得的评价指标按降序排列,最小值对应的运动目标检测算法性能最优;
所述的比较方法包括:
步骤1,对标准检测图片和算法检测图片进行灰度处理;
步骤2,获得标准检测图片的目标位置区域中像素点的个数Nu,对算法检测图片和标准检测图片的像素点一一对应求得运动目标检测算法检测出的正确前景点个数TP和背景点被错误判断为前景点的个数FP;
步骤3,以相同大小的像素矩阵为单位将标准检测图片和算法检测图片分解为若干个小矩阵,遍历标准检测图片和算法检测图片的每一小矩阵,若满足以下条件:(1)标准检测图片中小矩阵不为0和(2)标准检测图片和算法检测图片中对应的两个小矩阵中一一对应像素点中相同位置且像素点灰度值相同的点的个数不为0,则获得标准检测图片该小矩阵中像素点的灰度均值和算法检测图片该小矩阵中像素点的灰度值,并将算法检测图片该小矩阵的灰度值存入一数组:
步骤4,对所述数组计算标准差和均值,并求得差异系数D;
步骤5,根据VF=D*(Nu+FP)/TP获得评价指标VF。
2.根据权利要求1所述的基于视觉感知的运动目标检测算法性能的评价方法,其特征在于,采用图像分块原理分别将处理后的标准检测图片和算法检测图片以M*M像素矩阵为单位分解成若干个小矩阵,其中M=2。
3.根据权利要求1所述的基于视觉感知的运动目标检测算法性能的评价方法,其特征在于,所述算法检测图片小矩阵的灰度值G(b)通过下述公式获得
G(b)=P×K/(M×M)
其中,P为对应的标准检测图片中小矩阵中像素点的灰度均值,M为所述像素矩阵的大小,K为标准检测图片和算法检测图片中对应的两个小矩阵中一一对应像素点中相同位置且像素点灰度值相同的点的个数;
所述数组表示为W={G(b1),G(b2),...,G(bN)}。
4.根据权利要求3所述的基于视觉感知的运动目标检测算法性能的评价方法,所述差异系数D通过下述公式获得:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mi>D</mi>
<mo>=</mo>
<mi>S</mi>
<mo>/</mo>
<mi>E</mi>
<mo>,</mo>
<mi>S</mi>
<mo>&NotEqual;</mo>
<mn>0</mn>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>D</mi>
<mo>=</mo>
<mn>0.1</mn>
<mo>&times;</mo>
<mo>(</mo>
<mi>M</mi>
<mo>&times;</mo>
<mi>M</mi>
<mo>-</mo>
<mi>K</mi>
<mo>)</mo>
<mo>/</mo>
<mo>(</mo>
<mi>M</mi>
<mo>&times;</mo>
<mi>M</mi>
<mo>)</mo>
<mo>,</mo>
<mi>S</mi>
<mo>=</mo>
<mn>0</mn>
</mtd>
</mtr>
</mtable>
</mfenced>
其中,S为所述数组W的标准差,E为所述数组W的均值,当S≠0时
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510633496.0A CN105184823B (zh) | 2015-09-29 | 2015-09-29 | 基于视觉感知的运动目标检测算法性能的评价方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510633496.0A CN105184823B (zh) | 2015-09-29 | 2015-09-29 | 基于视觉感知的运动目标检测算法性能的评价方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105184823A CN105184823A (zh) | 2015-12-23 |
CN105184823B true CN105184823B (zh) | 2018-03-09 |
Family
ID=54906875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510633496.0A Expired - Fee Related CN105184823B (zh) | 2015-09-29 | 2015-09-29 | 基于视觉感知的运动目标检测算法性能的评价方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105184823B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106294121B (zh) * | 2016-07-13 | 2019-04-05 | 北京航空航天大学 | 飞机嵌入式实时诊断推理算法试验方法 |
CN108985240B (zh) * | 2018-07-23 | 2020-11-13 | 北京百度网讯科技有限公司 | 评估对象检测算法的方法、装置、电子设备和存储介质 |
CN109145752B (zh) * | 2018-07-23 | 2022-07-01 | 北京百度网讯科技有限公司 | 用于评估对象检测和跟踪算法的方法、装置、设备和介质 |
CN111191666A (zh) * | 2018-11-14 | 2020-05-22 | 网易(杭州)网络有限公司 | 一种图像目标检测算法的测试方法和装置 |
CN110334730B (zh) * | 2019-05-09 | 2022-07-29 | 河南萱闱堂医疗信息科技有限公司 | 比较和归档人工智能训练数据集中高相似图片的方法 |
CN112540352B (zh) * | 2019-09-20 | 2022-09-27 | 魔门塔(苏州)科技有限公司 | 一种基于无人驾驶车辆的评测目标检测算法的方法及装置 |
CN110956613B (zh) * | 2019-11-07 | 2023-04-07 | 成都傅立叶电子科技有限公司 | 基于图像质量的目标检测算法性能归一化评价方法及系统 |
CN111612144B (zh) * | 2020-05-22 | 2021-06-15 | 深圳金三立视频科技股份有限公司 | 一种应用于目标检测的剪枝方法及终端 |
CN113256556A (zh) * | 2021-03-29 | 2021-08-13 | 华为技术有限公司 | 一种图像选择方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103871054A (zh) * | 2014-02-27 | 2014-06-18 | 华中科技大学 | 一种基于组合指标的图像分割结果定量评价方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1211640A3 (en) * | 2000-09-15 | 2003-10-15 | Canon Kabushiki Kaisha | Image processing methods and apparatus for detecting human eyes, human face and other objects in an image |
-
2015
- 2015-09-29 CN CN201510633496.0A patent/CN105184823B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103871054A (zh) * | 2014-02-27 | 2014-06-18 | 华中科技大学 | 一种基于组合指标的图像分割结果定量评价方法 |
Non-Patent Citations (1)
Title |
---|
图像目标识别效果评估;张勇等;《光电技术应用》;20091031;第30卷(第5期);788-792 * |
Also Published As
Publication number | Publication date |
---|---|
CN105184823A (zh) | 2015-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105184823B (zh) | 基于视觉感知的运动目标检测算法性能的评价方法 | |
CN108090902B (zh) | 一种基于多尺度生成对抗网络的无参考图像质量客观评价方法 | |
CN107622229B (zh) | 一种基于融合特征的视频车辆重识别方法与系统 | |
CN107609493B (zh) | 优化人脸图片质量评价模型的方法及装置 | |
CN110837784B (zh) | 一种基于人体头部特征的考场偷窥作弊检测系统 | |
CN111325115B (zh) | 带有三重约束损失的对抗跨模态行人重识别方法和系统 | |
CN111104867B (zh) | 基于部件分割的识别模型训练、车辆重识别方法及装置 | |
CN108846365B (zh) | 视频中打架行为的检测方法、装置、存储介质及处理器 | |
CN112668557B (zh) | 一种行人再识别系统中防御图像噪声攻击的方法 | |
KR101546137B1 (ko) | 인물 인식 장치 및 방법 | |
CN109544592B (zh) | 针对相机移动的运动目标检测算法 | |
CN103747271B (zh) | 一种基于混合感知哈希的视频篡改检测方法和装置 | |
CN102663411B (zh) | 一种目标人体识别方法 | |
CN108470178B (zh) | 一种结合深度可信度评价因子的深度图显著性检测方法 | |
CN113283362A (zh) | 一种跨模态的行人重识别方法 | |
CN108960142B (zh) | 基于全局特征损失函数的行人再识别方法 | |
CN110084258A (zh) | 基于视频人脸识别的人脸优选方法、设备及存储介质 | |
CN114067444A (zh) | 基于元伪标签和光照不变特征的人脸欺骗检测方法和系统 | |
CN103747254A (zh) | 一种基于时域感知哈希的视频篡改检测方法和装置 | |
CN110197185B (zh) | 一种基于尺度不变特征变换算法监测桥下空间的方法和系统 | |
CN104410867A (zh) | 改进的视频镜头检测方法 | |
CN111862511A (zh) | 基于双目立体视觉的目标入侵检测装置及其方法 | |
CN113792686B (zh) | 基于视觉表征跨传感器不变性的车辆重识别方法 | |
CN111259736A (zh) | 一种基于深度学习的复杂环境下行人实时检测方法 | |
CN112801038B (zh) | 一种多视点的人脸活体检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20180309 Termination date: 20190929 |
|
CF01 | Termination of patent right due to non-payment of annual fee |