CN112257587B - 目标对象的检测效果评估方法、装置、存储介质及设备 - Google Patents

目标对象的检测效果评估方法、装置、存储介质及设备 Download PDF

Info

Publication number
CN112257587B
CN112257587B CN202011135866.5A CN202011135866A CN112257587B CN 112257587 B CN112257587 B CN 112257587B CN 202011135866 A CN202011135866 A CN 202011135866A CN 112257587 B CN112257587 B CN 112257587B
Authority
CN
China
Prior art keywords
target object
detection
error
frames
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011135866.5A
Other languages
English (en)
Other versions
CN112257587A (zh
Inventor
王堃
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuxi Yuspace Intelligent Technology Co ltd
Original Assignee
Wuxi Yuspace Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuxi Yuspace Intelligent Technology Co ltd filed Critical Wuxi Yuspace Intelligent Technology Co ltd
Priority to CN202011135866.5A priority Critical patent/CN112257587B/zh
Publication of CN112257587A publication Critical patent/CN112257587A/zh
Application granted granted Critical
Publication of CN112257587B publication Critical patent/CN112257587B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例公开了一种目标对象的检测效果评估方法、装置、存储介质及设备,属于图像处理技术领域。所述方法包括:获取已完成训练的网络模型;获取测试视频和标注信息,标注信息中标注有测试视频中包含的至少一个目标对象和目标对象在每个视频帧中的实际位置;利用网络模型对测试视频进行检测,得到的检测结果中包括至少一个目标对象和目标对象在每个视频帧中的预测位置;根据标注信息和检测结果计算网络模型的检测效果,检测效果中的轨迹稳定误差用于指示目标对象未被检测到的检测误差,位置误差用于指示目标对象的实际位置和预测位置的检测误差。本申请实施例可以根据轨迹稳定误差和位置误差提高网络模型评估的准确性。

Description

目标对象的检测效果评估方法、装置、存储介质及设备
技术领域
本申请实施例涉及图像处理领域,特别涉及一种目标对象的检测效果评估方法、装置、存储介质及设备。
背景技术
随着计算机视觉技术的发展,在对图像进行目标检测时,可以会先训练网络模型,再利用网络模型自动对图像进行目标检测,从而得到包含目标对象的位置和分类的检测结果。为了评估网络模型的好坏,需要对网络模型的检测效果进行评估。
相关技术中采用mAP(mean Average Precision,平均的平均精确度)指标来评估网络模型的检测效果。通常,mAP指标可以用来评估网络模型对静止的目标对象的检测效果。
在现实生活中,目标检测大多应用于自动驾驶领域,而自动驾驶过程中检测到的目标对象通常都是动态的,所以,利用mAP指标无法评估网络模型对动态的目标对象的检测效果。
发明内容
本申请实施例提供了一种目标对象的检测效果评估方法、装置、存储介质及设备,用于解决利用mAP指标无法评估网络模型对动态的目标对象的检测效果的问题。所述技术方案如下:
一方面,提供了一种目标对象的检测效果评估方法,所述方法包括:
获取已完成训练的网络模型,所述网络模型用于检测视频中动态的目标对象;
获取测试视频和标注信息,所述标注信息中标注有所述测试视频中包含的至少一个目标对象和所述目标对象在每个视频帧中的实际位置;
利用所述网络模型对所述测试视频进行检测,得到检测结果,所述检测结果中包括至少一个目标对象和所述目标对象在每个视频帧中的预测位置;
根据所述标注信息和所述检测结果计算所述网络模型的检测效果,所述检测效果包括轨迹稳定误差和位置误差,所述轨迹稳定误差用于指示所述目标对象未被检测到的检测误差,所述位置误差用于指示所述目标对象的实际位置和预测位置的检测误差。
在一种可能的实现方式中,,所述根据所述标注信息和所述检测结果计算所述网络模型的检测效果,包括:
从所述检测结果中的多个被测对象中选择与所述标注信息相匹配的被测对象作为目标对象,统计每个目标对象在所述测试视频中被检测到的出现帧数和状态改变次数,根据所述出现帧数和所述状态改变次数计算所述轨迹稳定误差,所述状态改变次数是指目标对象在相邻两帧中的一个视频帧中被检测到,在另一个视频帧中未被检测到的次数;
从所述标注信息中获取针对每个目标对象标注的实际检测框,从所述检测结果中获取检测到的每个目标对象的预测检测框,根据所有实际检测框和所有预测检测框计算所述位置误差;
将所述轨迹稳定误差和所述位置误差相加,得到所述检测效果。
在一种可能的实现方式中,,所述根据所述出现帧数和所述状态改变次数计算所述轨迹稳定误差,包括:
若所述标注信息中标注有一个目标对象,则将所述出现帧数和所述状态改变次数输入第一公式中,得到所述轨迹稳定误差;
其中,所述M是所述测试视频的总帧数,所述t是所述出现帧数,所述c是所述状态改变次数。
在一种可能的实现方式中,,所述根据所述出现帧数和所述状态改变次数计算所述轨迹稳定误差,包括:
若所述标注信息中标注有至少两个目标对象,则获取所述测试视频中标注的所有目标对象的对象数;
将所述对象数、所述出现帧数和所述状态改变次数输入第二公式中,得到所述轨迹稳定误差;
其中,所述N是所述对象数,所述M是所述测试视频的总帧数,所述tk是第k个目标对象的出现帧数,所述ck是所述第k个目标对象的状态改变次数,k≤N。
在一种可能的实现方式中,,所述根据所有实际检测框和所有预测检测框计算所述位置误差,包括:
对每个实际检测框的中心位置进行标准差运算,得到第一标准差;
对每个预测检测框的中心位置进行标准差运算,得到第二标准差;
对所有第一标准差和所有第二标准差计算平均值,得到所述位置误差。
在一种可能的实现方式中,,所述对所有第一标准差和所有第二标准差计算平均值,得到所述位置误差,包括:
将所有第一标准差和所有第二标准差输入第三公式中,得到所述位置误差;
其中,所述N是所述对象数,所述M是所述测试视频的总帧数,所述是第k个检测框的中心点的x坐标的误差,所述/>是第k个检测框的中心点的y坐标的误差,k≤N。
一方面,提供了一种目标对象的检测效果评估装置,所述装置包括:
第一获取模块,用于获取已完成训练的网络模型,所述网络模型用于检测视频中动态的目标对象;
第二获取模块,用于获取测试视频和标注信息,所述标注信息中标注有所述测试视频中包含的至少一个目标对象和所述目标对象在每个视频帧中的实际位置;
检测模块,用于利用所述网络模型对所述测试视频进行检测,得到检测结果,所述检测结果中包括至少一个目标对象和所述目标对象在每个视频帧中的预测位置;
计算模块,用于根据所述标注信息和所述检测结果计算所述网络模型的检测效果,所述检测效果包括轨迹稳定误差和位置误差,所述轨迹稳定误差用于指示所述目标对象未被检测到的检测误差,所述位置误差用于指示所述目标对象的实际位置和预测位置的检测误差。
在一种可能的实现方式中,所述计算模块,还用于:
从所述检测结果中的多个被测对象中选择与所述标注信息相匹配的被测对象作为目标对象,统计每个目标对象在所述测试视频中被检测到的出现帧数和状态改变次数,根据所述出现帧数和所述状态改变次数计算所述轨迹稳定误差,所述状态改变次数是指目标对象在相邻两帧中的一个视频帧中被检测到,在另一个视频帧中未被检测到的次数;
从所述标注信息中获取针对每个目标对象标注的实际检测框,从所述检测结果中获取检测到的每个目标对象的预测检测框,根据所有实际检测框和所有预测检测框计算所述位置误差;
将所述轨迹稳定误差和所述位置误差相加,得到所述检测效果。
一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上所述的目标对象的检测效果评估方法。
一方面,提供了一种电子设备,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如上所述的目标对象的检测效果评估方法。
本申请实施例提供的技术方案的有益效果至少包括:
由于标注信息中标注有测试视频中包含的至少一个目标对象和目标对象在每个视频帧中的实际位置,且利用网络模型对测试视频进行检测所得到的检测结果中包括至少一个目标对象和目标对象在每个视频帧中的预测位置,所以,可以根据标注信息和检测结果计算网络模型的检测效果,该检测效果中的轨迹稳定误差用于指示目标对象未被检测到的检测误差,位置误差用于指示目标对象的实际位置和预测位置的检测误差,从而可以根据轨迹稳定误差和位置误差来体现测试视频中检测框的抖动情况,提高了网络模型评估的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一个实施例提供的目标对象的检测效果评估方法的方法流程图;
图2是本申请一个实施例提供的实际检测框和预测检测框的坐标示意图;
图3是本申请一个实施例提供的目标对象的检测效果评估装置的结构框图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
请参考图1,其示出了本申请一个实施例提供的目标对象的检测效果评估方法的方法流程图,该目标对象的检测效果评估方法可以应用于电子设备中。该目标对象的检测效果评估方法,可以包括:
步骤101,获取已完成训练的网络模型,该网络模型用于检测视频中动态的目标对象。
本实施例中,电子设备可以对初始的网络模型进行训练,得到训练好的网络模型,或者,电子设备可以从其他设备中获取训练好的网络模型,本实施例不限定网络模型的获取方式。其中,网络模型可以是任意结构的模型。
步骤102,获取测试视频和标注信息,该标注信息中标注有测试视频中包含的至少一个目标对象和该目标对象在每个视频帧中的实际位置。
本实施例中,用户可以预先对测试视频进行标注,得到标注信息。在标注时,用户可以从测试视频中选择一个对象作为目标对象,对该目标对象的分类和实际位置进行标注,或者,用户也可以从测试视频中选择至少两个对象作为目标对象,并对每个目标对象的分类和实际位置进行标注。其中,实际位置可以用包围目标对象的实际检测框的四个角点的坐标来表示。
比如,测试视频中包含一位骑车的行人,且将行人和车都选为目标对象,则可以在测试视频的每个视频帧中标注行人、行人的实际检测框的坐标、车、车的实际检测框的坐标。
步骤103,利用网络模型对测试视频进行检测,得到检测结果,该检测结果中包括至少一个目标对象和该目标对象在每个视频帧中的预测位置。
电子设备可以将测试视频输入网络模型中,由网络模型对该测试视频进行检测,并将检测结果输出给电子设备。
步骤104,根据标注信息和检测结果计算网络模型的检测效果,该检测效果包括轨迹稳定误差和位置误差,该轨迹稳定误差用于指示目标对象未被检测到的检测误差,该位置误差用于指示目标对象的实际位置和预测位置的检测误差。
在根据标注信息和检测结果计算网络模型的检测效果时,由于检测效果包括轨迹稳定误差和位置误差,所以,可以将检测效果的计算过程拆分成两部分,第一部分是根据标注信息和检测结果计算轨迹稳定误差,第二部分是根据标注信息和检测结果计算位置误差。下面分别对这两个部分的计算流程进行说明。
1)在检测动态的目标对象的过程中,较好的检测效果应该是目标对象始终被检测出或始终未被检测出,目标对象的状态不应该频繁改变。这里的状态改变是指在测试视频的相邻两帧中,前一个视频帧中该目标对象被检测到,而后一个视频帧中该目标对象未被检测到;或者,前一个视频帧中该目标对象未被检测到,而后一个视频帧中该目标对象被检测到。
那么,在计算轨迹稳定误差时,可以从检测结果中的多个被测对象中选择与标注信息相匹配的被测对象作为目标对象,统计每个目标对象在测试视频中被检测到的出现帧数和状态改变次数,根据出现帧数和状态改变次数计算轨迹稳定误差,状态改变次数是指目标对象在相邻两帧中的一个视频帧中被检测到,在另一个视频帧中未被检测到的次数。
若标注信息中标注有一个目标对象,则根据出现帧数和状态改变次数计算轨迹稳定误差,可以包括:将出现帧数和状态改变次数输入第一公式中,得到轨迹稳定误差;其中,M是测试视频的总帧数,t是出现帧数,c是状态改变次数。
若标注信息中标注有至少两个目标对象,则根据出现帧数和状态改变次数计算轨迹稳定误差,可以包括:获取测试视频中标注的所有目标对象的对象数;将对象数、出现帧数和状态改变次数输入第二公式中,得到轨迹稳定误差;其中,N是对象数,M是测试视频的总帧数,tk是第k个目标对象的出现帧数,ck是第k个目标对象的状态改变次数,k≤N。
2)在检测动态的目标对象的过程中,较好的检测效果应该是检测框的中心点恰好是目标对象的中心点,则在计算位置误差时,可以从标注信息中获取针对每个目标对象标注的实际检测框,从检测结果中获取检测到的每个目标对象的预测检测框,根据所有实际检测框和所有预测检测框计算位置误差。
其中,根据所有实际检测框和所有预测检测框计算位置误差,可以包括:对每个实际检测框的中心位置进行标准差运算,得到第一标准差;对每个预测检测框的中心位置进行标准差运算,得到第二标准差;对所有第一标准差和所有第二标准差计算平均值,得到位置误差。
请参考图2,预测检测框p的四个角点的坐标分别是((Ax,Ay)p,(Bx,By)p,(Cx,Cy)p,(Dx,Dy)p),实际检测框g的四个角点的坐标分别是((Ax,Ay)g,(Bx,By)g,(Cx,Cy)g,(Dx,Dy)g),则可以取每个检测框的中心位置求解标准差。即,第一标准差Fx=std(((Bx,By)g-(Ax,Ay)g)-((Bx,By)p-(Ax,Ay)p)),第二标准差Fy=std(((Dx,Dy)g-(Cx,Cy)g)-((Dx,Dy)p-(Cx,Cy)p))。在得到第一标准差和第二标准差之后,可以对所有的第一标准差Fx和第二标准差Fy取平均值,即可得到位置误差。
本实施例中,对所有第一标准差和所有第二标准差计算平均值,得到位置误差,可以包括:将所有第一标准差和所有第二标准差输入第三公式中,得到位置误差;其中,N是对象数,M是测试视频的总帧数,/>是第k个检测框的中心点的x坐标的误差,/>是第k个检测框的中心点的y坐标的误差,k≤N。
在得到轨迹稳定误差E1和位置误差E2后,可以将轨迹稳定误差E1和位置误差E2输入第四公式Etotal=E1+E2中,得到检测效果。
综上所述,本申请实施例提供的目标对象的检测效果评估方法,由于标注信息中标注有测试视频中包含的至少一个目标对象和目标对象在每个视频帧中的实际位置,且利用网络模型对测试视频进行检测所得到的检测结果中包括至少一个目标对象和目标对象在每个视频帧中的预测位置,所以,可以根据标注信息和检测结果计算网络模型的检测效果,该检测效果中的轨迹稳定误差用于指示目标对象未被检测到的检测误差,位置误差用于指示目标对象的实际位置和预测位置的检测误差,从而可以根据轨迹稳定误差和位置误差来体现测试视频中检测框的抖动情况,提高了网络模型评估的准确性。
请参考图3,其示出了本申请一个实施例提供的目标对象的检测效果评估装置的结构框图,该目标对象的检测效果评估装置可以应用于电子设备中。该目标对象的检测效果评估装置,可以包括:
第一获取模块310,用于获取已完成训练的网络模型,网络模型用于检测视频中动态的目标对象;
第二获取模块320,用于获取测试视频和标注信息,标注信息中标注有测试视频中包含的至少一个目标对象和目标对象在每个视频帧中的实际位置;
检测模块330,用于利用网络模型对测试视频进行检测,得到检测结果,检测结果中包括至少一个目标对象和目标对象在每个视频帧中的预测位置;
计算模块340,用于根据标注信息和检测结果计算网络模型的检测效果,检测效果包括轨迹稳定误差和位置误差,轨迹稳定误差用于指示目标对象未被检测到的检测误差,位置误差用于指示目标对象的实际位置和预测位置的检测误差。
在一个可选的实施例中,计算模块340,还用于:
从检测结果中的多个被测对象中选择与标注信息相匹配的被测对象作为目标对象,统计每个目标对象在测试视频中被检测到的出现帧数和状态改变次数,根据出现帧数和状态改变次数计算轨迹稳定误差,状态改变次数是指目标对象在相邻两帧中的一个视频帧中被检测到,在另一个视频帧中未被检测到的次数;
从标注信息中获取针对每个目标对象标注的实际检测框,从检测结果中获取检测到的每个目标对象的预测检测框,根据所有实际检测框和所有预测检测框计算位置误差;
将轨迹稳定误差和位置误差相加,得到检测效果。
在一个可选的实施例中,计算模块340,还用于:
若标注信息中标注有一个目标对象,则将出现帧数和状态改变次数输入第一公式中,得到轨迹稳定误差;
其中,M是测试视频的总帧数,t是出现帧数,c是状态改变次数。
在一个可选的实施例中,计算模块340,还用于:
若标注信息中标注有至少两个目标对象,则获取测试视频中标注的所有目标对象的对象数;
将对象数、出现帧数和状态改变次数输入第二公式中,得到轨迹稳定误差;
其中,N是对象数,M是测试视频的总帧数,tk是第k个目标对象的出现帧数,ck是第k个目标对象的状态改变次数,k≤N。
在一个可选的实施例中,计算模块340,还用于:
对每个实际检测框的中心位置进行标准差运算,得到第一标准差;
对每个预测检测框的中心位置进行标准差运算,得到第二标准差;
对所有第一标准差和所有第二标准差计算平均值,得到位置误差。
在一个可选的实施例中,计算模块340,还用于:
将所有第一标准差和所有第二标准差输入第三公式中,得到位置误差;
其中,N是对象数,M是测试视频的总帧数,是第k个检测框的中心点的x坐标的误差,/>是第k个检测框的中心点的y坐标的误差,k≤N。
综上所述,本申请实施例提供的目标对象的检测效果评估装置,由于标注信息中标注有测试视频中包含的至少一个目标对象和目标对象在每个视频帧中的实际位置,且利用网络模型对测试视频进行检测所得到的检测结果中包括至少一个目标对象和目标对象在每个视频帧中的预测位置,所以,可以根据标注信息和检测结果计算网络模型的检测效果,该检测效果中的轨迹稳定误差用于指示目标对象未被检测到的检测误差,位置误差用于指示目标对象的实际位置和预测位置的检测误差,从而可以根据轨迹稳定误差和位置误差来体现测试视频中检测框的抖动情况,提高了网络模型评估的准确性。
本申请一个实施例提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如上所述的目标对象的检测效果评估方法。
本申请一个实施例提供了一种电子设备,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如上所述的目标对象的检测效果评估方法。
需要说明的是:上述实施例提供的目标对象的检测效果评估装置在进行目标对象的检测效果评估时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将目标对象的检测效果评估装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的目标对象的检测效果评估装置与目标对象的检测效果评估方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述并不用以限制本申请实施例,凡在本申请实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请实施例的保护范围之内。

Claims (8)

1.一种目标对象的检测效果评估方法,其特征在于,所述方法包括:
获取已完成训练的网络模型,所述网络模型用于检测视频中动态的目标对象;
获取测试视频和标注信息,所述标注信息中标注有所述测试视频中包含的至少一个目标对象和所述目标对象在每个视频帧中的实际位置;
利用所述网络模型对所述测试视频进行检测,得到检测结果,所述检测结果中包括至少一个目标对象和所述目标对象在每个视频帧中的预测位置;
根据所述标注信息和所述检测结果计算所述网络模型的检测效果,所述检测效果包括轨迹稳定误差和位置误差,所述轨迹稳定误差用于指示所述目标对象未被检测到的检测误差,所述位置误差用于指示所述目标对象的实际位置和预测位置的检测误差;
所述根据所述标注信息和所述检测结果计算所述网络模型的检测效果,包括:从所述检测结果中的多个被测对象中选择与所述标注信息相匹配的被测对象作为目标对象,统计每个目标对象在所述测试视频中被检测到的出现帧数和状态改变次数,根据所述出现帧数和所述状态改变次数计算所述轨迹稳定误差,所述状态改变次数是指目标对象在相邻两帧中的一个视频帧中被检测到,在另一个视频帧中未被检测到的次数;从所述标注信息中获取针对每个目标对象标注的实际检测框,从所述检测结果中获取检测到的每个目标对象的预测检测框,根据所有实际检测框和所有预测检测框计算所述位置误差;将所述轨迹稳定误差和所述位置误差相加,得到所述检测效果。
2.根据权利要求1所述的方法,其特征在于,所述根据所述出现帧数和所述状态改变次数计算所述轨迹稳定误差,包括:
若所述标注信息中标注有一个目标对象,则将所述出现帧数和所述状态改变次数输入第一公式中,得到所述轨迹稳定误差;
其中,所述M是所述测试视频的总帧数,所述t是所述出现帧数,所述c是所述状态改变次数。
3.根据权利要求1所述的方法,其特征在于,所述根据所述出现帧数和所述状态改变次数计算所述轨迹稳定误差,包括:
若所述标注信息中标注有至少两个目标对象,则获取所述测试视频中标注的所有目标对象的对象数;
将所述对象数、所述出现帧数和所述状态改变次数输入第二公式中,得到所述轨迹稳定误差;
其中,所述N是所述对象数,所述M是所述测试视频的总帧数,所述tk是第k个目标对象的出现帧数,所述ck是所述第k个目标对象的状态改变次数,k≤N。
4.根据权利要求1所述的方法,其特征在于,所述根据所有实际检测框和所有预测检测框计算所述位置误差,包括:
对每个实际检测框的中心位置进行标准差运算,得到第一标准差;
对每个预测检测框的中心位置进行标准差运算,得到第二标准差;
对所有第一标准差和所有第二标准差计算平均值,得到所述位置误差。
5.根据权利要求4所述的方法,其特征在于,所述对所有第一标准差和所有第二标准差计算平均值,得到所述位置误差,包括:
将所有第一标准差和所有第二标准差输入第三公式中,得到所述位置误差;
其中,所述N是对象数,所述M是所述测试视频的总帧数,所述是第k个检测框的中心点的x坐标的误差,所述/>是第k个检测框的中心点的y坐标的误差,k≤N。
6.一种目标对象的检测效果评估装置,其特征在于,所述装置包括:
第一获取模块,用于获取已完成训练的网络模型,所述网络模型用于检测视频中动态的目标对象;
第二获取模块,用于获取测试视频和标注信息,所述标注信息中标注有所述测试视频中包含的至少一个目标对象和所述目标对象在每个视频帧中的实际位置;
检测模块,用于利用所述网络模型对所述测试视频进行检测,得到检测结果,所述检测结果中包括至少一个目标对象和所述目标对象在每个视频帧中的预测位置;
计算模块,用于根据所述标注信息和所述检测结果计算所述网络模型的检测效果,所述检测效果包括轨迹稳定误差和位置误差,所述轨迹稳定误差用于指示所述目标对象未被检测到的检测误差,所述位置误差用于指示所述目标对象的实际位置和预测位置的检测误差;
所述计算模块,还用于:从所述检测结果中的多个被测对象中选择与所述标注信息相匹配的被测对象作为目标对象,统计每个目标对象在所述测试视频中被检测到的出现帧数和状态改变次数,根据所述出现帧数和所述状态改变次数计算所述轨迹稳定误差,所述状态改变次数是指目标对象在相邻两帧中的一个视频帧中被检测到,在另一个视频帧中未被检测到的次数;从所述标注信息中获取针对每个目标对象标注的实际检测框,从所述检测结果中获取检测到的每个目标对象的预测检测框,根据所有实际检测框和所有预测检测框计算所述位置误差;将所述轨迹稳定误差和所述位置误差相加,得到所述检测效果。
7.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至5任一所述的目标对象的检测效果评估方法。
8.一种电子设备,其特征在于,所述电子设备包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如权利要求1至5任一所述的目标对象的检测效果评估方法。
CN202011135866.5A 2020-10-22 2020-10-22 目标对象的检测效果评估方法、装置、存储介质及设备 Active CN112257587B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011135866.5A CN112257587B (zh) 2020-10-22 2020-10-22 目标对象的检测效果评估方法、装置、存储介质及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011135866.5A CN112257587B (zh) 2020-10-22 2020-10-22 目标对象的检测效果评估方法、装置、存储介质及设备

Publications (2)

Publication Number Publication Date
CN112257587A CN112257587A (zh) 2021-01-22
CN112257587B true CN112257587B (zh) 2023-12-22

Family

ID=74264738

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011135866.5A Active CN112257587B (zh) 2020-10-22 2020-10-22 目标对象的检测效果评估方法、装置、存储介质及设备

Country Status (1)

Country Link
CN (1) CN112257587B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101203731A (zh) * 2005-06-21 2008-06-18 法国空中巴士公司 用于按照飞行计划飞行的飞行器的显示方法和设备
CN101388145A (zh) * 2008-11-06 2009-03-18 北京汇大通业科技有限公司 道路交通安全自动警示方法及装置
CN103324937A (zh) * 2012-03-21 2013-09-25 日电(中国)有限公司 标注目标的方法和装置
CN103810854A (zh) * 2014-03-03 2014-05-21 北京工业大学 一种基于人工标定的智能交通算法评估方法
CN108230352A (zh) * 2017-01-24 2018-06-29 北京市商汤科技开发有限公司 目标对象的检测方法、装置和电子设备
CN108364301A (zh) * 2018-02-12 2018-08-03 中国科学院自动化研究所 基于跨时重叠率的视觉跟踪算法稳定性评估方法及装置
CN108681243A (zh) * 2018-05-03 2018-10-19 南京理工大学 一种机器人轨迹跟踪方法
CN110110649A (zh) * 2019-05-02 2019-08-09 西安电子科技大学 基于速度方向的可选择性人脸检测方法
CN110290101A (zh) * 2019-04-15 2019-09-27 南京邮电大学 智能电网环境中基于深度信任网络的关联攻击行为识别方法
CN110450150A (zh) * 2018-05-07 2019-11-15 苏州睿牛机器人技术有限公司 轨迹跟踪控制方法及轨迹跟踪系统
CN110490905A (zh) * 2019-08-15 2019-11-22 江西联创精密机电有限公司 一种基于YOLOv3和DSST算法的目标跟踪方法
CN111666871A (zh) * 2020-06-03 2020-09-15 南京航空航天大学 一种面向无人机的改进yolo与sift相结合的多小目标检测跟踪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9684830B2 (en) * 2014-11-14 2017-06-20 Intel Corporation Automatic target selection for multi-target object tracking

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101203731A (zh) * 2005-06-21 2008-06-18 法国空中巴士公司 用于按照飞行计划飞行的飞行器的显示方法和设备
CN101388145A (zh) * 2008-11-06 2009-03-18 北京汇大通业科技有限公司 道路交通安全自动警示方法及装置
CN103324937A (zh) * 2012-03-21 2013-09-25 日电(中国)有限公司 标注目标的方法和装置
CN103810854A (zh) * 2014-03-03 2014-05-21 北京工业大学 一种基于人工标定的智能交通算法评估方法
CN108230352A (zh) * 2017-01-24 2018-06-29 北京市商汤科技开发有限公司 目标对象的检测方法、装置和电子设备
CN108364301A (zh) * 2018-02-12 2018-08-03 中国科学院自动化研究所 基于跨时重叠率的视觉跟踪算法稳定性评估方法及装置
CN108681243A (zh) * 2018-05-03 2018-10-19 南京理工大学 一种机器人轨迹跟踪方法
CN110450150A (zh) * 2018-05-07 2019-11-15 苏州睿牛机器人技术有限公司 轨迹跟踪控制方法及轨迹跟踪系统
CN110290101A (zh) * 2019-04-15 2019-09-27 南京邮电大学 智能电网环境中基于深度信任网络的关联攻击行为识别方法
CN110110649A (zh) * 2019-05-02 2019-08-09 西安电子科技大学 基于速度方向的可选择性人脸检测方法
CN110490905A (zh) * 2019-08-15 2019-11-22 江西联创精密机电有限公司 一种基于YOLOv3和DSST算法的目标跟踪方法
CN111666871A (zh) * 2020-06-03 2020-09-15 南京航空航天大学 一种面向无人机的改进yolo与sift相结合的多小目标检测跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Object Tracking on Satellite Videos: A Correlation Filter-Based Tracking Method With Trajectory Correction by Kalman Filter;Yujia Guo等;IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing;第12卷(第9期);第3538 - 3551页 *
面向公安业务的视频分析软件性能评测关键方法研究;宗权;中国优秀硕士学位论文全文数据库信息科技辑(第4期);第I138-3233页 *

Also Published As

Publication number Publication date
CN112257587A (zh) 2021-01-22

Similar Documents

Publication Publication Date Title
CN110764993A (zh) 自动化测试方法及终端设备
US10359770B2 (en) Estimation of abnormal sensors
CN111429482A (zh) 目标跟踪方法、装置、计算机设备和存储介质
CN109740609B (zh) 一种轨距检测方法及装置
CN106529545A (zh) 一种基于图像特征描述的散斑图像质量识别方法及系统
US20160189359A1 (en) Sampling method and image processing apparatus of cs-ransac for estimating homography
CN111339231B (zh) 众包更新结果的处理方法及装置
CN111310829A (zh) 基于混淆矩阵的分类结果检测方法、装置及存储介质
CN109523557B (zh) 一种图像语义分割标注方法、装置及存储介质
CN111274852A (zh) 目标对象关键点检测方法和装置
CN112257587B (zh) 目标对象的检测效果评估方法、装置、存储介质及设备
CN111950605A (zh) 表计识别模型的学习方法、装置、设备和表计识别方法
CN111950517A (zh) 一种目标检测方法、模型训练方法,电子设备及存储介质
CN116137061A (zh) 数量统计模型的训练方法、装置、电子设备及存储介质
CN115620254A (zh) 车道线检测的评估方法、装置、设备和存储介质
CN110765005A (zh) 软件可靠性评估方法和装置
CN111382052A (zh) 代码质量评价方法、装置及电子设备
CN113537407B (zh) 基于机器学习的图像数据评价处理方法及装置
CN115248993A (zh) 一种仿真场景模型真实性检测方法、装置及存储介质
CN115393619A (zh) 一种自动驾驶中模拟场景的推荐方法、装置及电子设备
CN110647826B (zh) 商品训练图片的获取方法、装置、计算机设备和存储介质
CN114047913A (zh) 一种反例引导的稀疏空间流模型检测方法及系统
CN113435305A (zh) 目标物识别算法的精度检测方法、装置、设备及存储介质
CN112233171A (zh) 目标标注质量检验方法、装置、计算机设备和存储介质
CN117558307B (zh) 存储芯片的门限电压调节方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20220107

Address after: 2209-c1, No. 19, Erquan East Road, Huizhi enterprise center, Xishan District, Wuxi City, Jiangsu Province, 214000

Applicant after: Wuxi yuspace Intelligent Technology Co.,Ltd.

Address before: Room 1101, block C, Kangyuan smart port, No. 50, Jiangdong Street, Jialing, Jianye District, Nanjing City, Jiangsu Province, 210000

Applicant before: Jiangsu Yu Space Technology Co.,Ltd.

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20220916

Address after: Room 1101, block C, Kangyuan smart port, No. 50, Jiangdong Street, Jialing, Jianye District, Nanjing City, Jiangsu Province, 210000

Applicant after: Jiangsu Yu Space Technology Co.,Ltd.

Address before: 2209-c1, No. 19, Erquan East Road, Huizhi enterprise center, Xishan District, Wuxi City, Jiangsu Province, 214000

Applicant before: Wuxi yuspace Intelligent Technology Co.,Ltd.

TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20230828

Address after: 2209-c1, No. 19, Erquan East Road, Huizhi enterprise center, Xishan District, Wuxi City, Jiangsu Province, 214000

Applicant after: Wuxi yuspace Intelligent Technology Co.,Ltd.

Address before: Room 1101, block C, Kangyuan smart port, No. 50, Jiangdong Street, Jialing, Jianye District, Nanjing City, Jiangsu Province, 210000

Applicant before: Jiangsu Yu Space Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant