CN110738132B - 一种具备判别性感知能力的目标检测质量盲评价方法 - Google Patents

一种具备判别性感知能力的目标检测质量盲评价方法 Download PDF

Info

Publication number
CN110738132B
CN110738132B CN201910896907.3A CN201910896907A CN110738132B CN 110738132 B CN110738132 B CN 110738132B CN 201910896907 A CN201910896907 A CN 201910896907A CN 110738132 B CN110738132 B CN 110738132B
Authority
CN
China
Prior art keywords
target
area
discriminant
training
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910896907.3A
Other languages
English (en)
Other versions
CN110738132A (zh
Inventor
李坤乾
亓琦
杨华
宋大雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ocean University of China
Original Assignee
Ocean University of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ocean University of China filed Critical Ocean University of China
Priority to CN201910896907.3A priority Critical patent/CN110738132B/zh
Publication of CN110738132A publication Critical patent/CN110738132A/zh
Application granted granted Critical
Publication of CN110738132B publication Critical patent/CN110738132B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/80Management or planning
    • Y02P90/82Energy audits or management systems therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种具备判别性感知能力的目标检测质量盲评价方法,涉及计算机视觉技术领域,包括深度训练网络模块、目标检测质量评价模块和构建训练样本,构建训练样本是通过收集公开数据集,生成包含目标区域与真值区域的交比并指标和目标区域判别性信息丰富度质量评价指标的样本集合,深度训练网络模块设置卷积神经网络的损失函数,调整输出参数和网络的前向传播函数,加载调优后的深度训练网络模块训练得到判别性感知模型,执行评价目标检测质量的任务,检测给定目标区域与真值区域的交比并指标和目标区域判别性信息的丰富度。该方法能够有效感知检测区域中目标属性的判别信息丰富程度,实现了更为全面的质量评价,并具有较好的泛化能力。

Description

一种具备判别性感知能力的目标检测质量盲评价方法
技术领域
本发明涉及计算机视觉技术领域,尤其是一种具备判别性信息感知能力的目标检测质量盲评价方法。
背景技术
在计算机视觉领域,目标检测技术一直以来都是研究的热点,相关研究成果在工业界也获得了广泛应用。目标检测质量评价是指给目标检测结果的优劣进行量化打分,分值越高,目标检测结果越优。目标检测质量盲评价指在没有人工干预及真值标注的情况下,由计算机自动用于地给出目标检测结果的质量评价。现有方法大多由用户通过观察,人工地设计质量评价指标用于目标检测结果评价。这类方法往往带有较强的主观性,且由于目标模式多样,很难获得具有普适应的评价指标和评价方法。在无真值参考条件下,准确评价目标检测质量优劣具有重要的应用前景,可广泛应用于基于目标检测结果的其他计算机视觉任务中,可优化后续视觉算法的性能,并显著提高后续视觉任务的执行效率。
当前针对目标区域进行质量评价的方法大多基于特定的图像线索设计评分方法。例如:
(1)Bogdan Alexe等人提出了一种用于区分对象窗口和背景窗口的对象性度量方法。采用贝叶斯模型结合多尺度显著性、颜色对比度、边缘密度和超象素四种客观度量来计算目标区域质量,并取得了高于任意单一度量指标检测效果的优秀性能。通过训练得到的模型,可以从没有固定形状的背景(如草和道路)中区分出空间边界清晰的物体(如牛和电话)。该方法不针对某一特定类别的图像目标,而是可以应用于任意物体目标。
(2)Esa Rahtu等人根据三种与目标相关的特征,即超像素边界、边界边缘和窗口对称性,给出了级联排序模型。大多数对象检测方法的核心是区分包含感兴趣对象的窗口和不包含对象的窗口的判别函数。将目标检测系统部署于实际应用场景对大规模数据进行处理时,这一判别函数可能是系统的主要计算瓶颈。本方法采用了前述方法的一般设置,并设计了独立于特定类别的级联层学习目标区域特征。
(3)Ian Endres等人将边界和形状线索结合在一起,生成具有多样性的类别无关的区域建议。提出了一种基于多样性奖励的目标区域评价方法。该方法可以生成小规模的多样性的区域建议集合,使得集合可以覆盖图像中所有的目标对象,并对流程的每个阶段进行了彻底的评估,证明它可以很好地泛化到各种目标类别的数据集。该方法还可以对包含未知类别目标对象的目标区域进行排序。当输入新类别物体的图像时,它可以应用于主动学习框架中来学习未训练的目标类别。
(4)Ren等人在Faster R-CNN中提出了一种区域建议网络(Region ProposalNetwork,RPN),该网络设计了一种端到端的方法,同时对候选框生成器和评估器进行训练。更具体地说,一个输入图像通过多个卷积和池化操作转换为多通道特征映射,其中每个位于特征映射的向量对应于9个不同尺寸的锚窗。然后,通过两个全连接层,将每个特征向量进一步映射到9个二维对象性分数和对象方案的四维坐标,其中对象性分数衡量每个方案是否有对象的可能性。
(5)Wu等人提出了一种使用懒惰学习策略(Lazy learning)训练的通用区域建议评价模型,该模型可以在无人工标注真值区域的情况下,估计每个目标区域的质量。该方法提出了一种均匀采样策略,用于采集覆盖目标的包围框,使其具有均匀的交并比(Intersection over Union,IoU)分布并独立于区域生成过程。
随着机器学习应用的迅速发展,研究者发现预训练模型可提供丰富的可重用信息。不同于一般方法将预处理模型作为特征提取,深度描述转换(Deep DescriptorTransforming,DDT)揭示了在卷积层有丰富的可利用信息,例如卷积激活层可以作为一个检测器在一组图像的共定位问题中检测共同对象,用于评估描述符之间的相关性,进而得到类别一致的区域,从而能够在一组图像中准确地定位相同类别的对象。DDT对于未知类别具有良好的泛化能力,并且对噪声数据有较好的鲁棒性。以深度学习为代表的机器学习方法被用于质量评价问题中,然而该类方法仅采用目标区域与真值区域的交比并指标作为评价准则,评价非常不全面。针对这一问题,本发明的目的在于提供一种具备判别性感知能力的目标检测质量盲评价方法,能够有效感知检测区域目标属性判别信息的丰富程度,实现更为全面的质量评价。
发明内容
为了能够有效感知检测区域目标属性判别信息的丰富度,实现了更为全面的质量评价,并使质量评价具有较好的泛化能力,本发明提供了一种具备判别性感知能力的目标检测质量盲评价方法,具体技术方案如下。
一种具备判别性感知能力的目标检测质量盲评价方法,包括深度训练网络模块、目标检测质量评价模块和构建训练样本,构建训练样本是通过收集公开数据集,生成包含交比并指标和目标区域判别性信息丰富度的质量评价指标的样本集合;深度训练网络模块包括设置深度训练网络的损失函数,调整深度训练网络的输出参数和前向传播函数,得到判别性感知模型;目标检测质量评价模块加载调优后的深度训练网络模块训练得到的判别性感知模型,执行评价目标检测质量的任务,检测给定目标区域与真值区域的交比并指标和目标区域中别性信息的丰富度。
优选的是,构建训练样本的步骤包括:
步骤S101.收集公开数据集,基于图像标记文件得到真值区域,并依据目标真值区域的交比并取值{0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9}为标准,划分图像区域,生成具有相应值的目标区域坐标;
步骤S102.生成所述划分图像区域的判别性信息丰富度质量评价指标;
步骤S103.生成训练样本集、验证样本集和测试样本集,每个样本包括图像区域坐标和图像区域坐标对应的交比并指标和判别性信息丰富度质量评价指标。
还优选的是,深度训练网络模块的步骤包括:
步骤S201.选用用于图像分类的卷积神经网络AlexNet作为基础网络结构;
步骤S202.设置深度训练网络的前向传播函数,将输入样本中图像的坐标映射到基于原图像提取的特征图,对该特征图区域的特征进行学习;
步骤S203.设置均方误差损失函数对输入样本真值和深度训练网络实际输出值进行计算得到损失值,并基于该损失值进行反向传播调整网络参数;
步骤S204.设置修改网络全连接层的输出维度为2,分别表示被检测图像给定目标区域与真值区域的交比并指标和判别性信息丰富度质量评价指标;
步骤S205.训练样本集完成训练后,得到判别性感知模型。
还优选的是,目标检测质量评价模块的步骤包括:
步骤S301.输入验证样本集评估判别性感知模型,根据输出结果进一步调优深度训练网络,生成目标检测质量评价模型;
步骤S302.加载完成训练的目标检测模型;
步骤S303.输入未标记的图像和覆盖未标记图像某一区域的目标区域坐标,将其输入目标检测质量评价模型,然后输出分别表征目标区域包含的判别性信息丰富度以及目标区域和预期的真值区域的交比并这两个值。
进一步优选的是,每个交比并值生成5个目标区域,所述目标区域覆盖原图像真值区域包括左上、右上、左下、右下,以及覆盖完整真值区域的目标区域。
进一步优选的是,判别性信息丰富度质量评价指标的计算具体包括:(a)通过分类预训练模型提取输入图像的深度特征图,通过计算所有位置深度特征的协方差矩阵,并求解其特征值及特征向量;(b)提取特征值最大的前两组特征向量作为投影方向,计算深度特征图任意位置特征与上述特征向量的相关性,并生成能量热度图;(c)将目标区域映射到二维矩阵计算该映射区域的能量密度,用以表征该处区域的判别性信息丰富度,作为其判别性信息丰富度质量评价指标评分。
本发明的有益效果是,利用深度训练网络模块、目标检测质量评价模块和构建训练样本,从而可以有效感知检测区域目标属性判别信息的丰富程度;另外还可以综合目标区域与真值区域的交比并指标,实现了对检测区域更为全面的质量评价,并且该方法还具有较好的泛化能力。
附图说明
为了更清楚的说明本发明实施例或现有技术的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是具备判别性感知能力的目标检测质量盲评价方法流程图;
图2是卷积神经网络结构图。
具体实施方式
结合图1所述,本发明提供的一种具备目标区域判别性感知能力的目标检测质量盲评价方法具体实施方式如下。
现有的针对目标区域进行质量评估的算法,一般是每个质量度量标准都是为它们自己特定的区域建议生成算法设计的。由于使用了不同的客观线索和基准,当将同一质量度量标准应用于不同的建议算法生成的包围框时,它们的评价结果往往是矛盾和不准确的。
无真值参考条件下的目标检测性能自动评价是一种新兴的计算机视觉算法,该算法可广泛应用于基于目标检测结果的其他计算机视觉任务中。该方法可有效筛选并保留质量更优的目标检测结果,优化后续视觉算法的性能,并显著提高后续视觉任务的执行效率。
当目标检测或识别任务中给定的待检测图像集分别属于多种类别时,由于每一种区域生成算法都从不同的角度和线索来描述目标特性,因此在实际应用中,它们的性能往往会随着不同的目标类别而变化。假设对于不同的类别都有唯一的最优目标区域生成算法,我们就需要有一个统一的评价指标来对不同算法产生的目标区域进行评价,从而针对不同目标类别选择出最优的目标区域生成算法。
对目标区域的评价仅依赖交并比IoU指标(Intersection over Union,IoU),不具备对目标区域中包含的判别性信息丰富程度进行感知的能力。例如对于一张包含一个人的图像来说,图像中包含人的全身的包围框是该图像的真值区域,现在我们假设有两个目标区域,分别是覆盖了真值区域(人)的上半身和下半身,它们对面积分别是真值区域的二分之一。当我们使用现有的目标区域评价算法对这两个目标区域进行评价时,我们会发现算法给出了近似的评价值,因为它们的IoU值是相同的。但事实上,上半身区域(尤其人脸区域)相比于下半身区域,可提供更多的判别性信息,因此应对前者给出更优的质量评价预测。
针对上述缺陷,本发明设计的方法能够感知目标区域判别性信息丰富度,在利用IoU作为基本评价指标的基础上,引入了判别性信息丰富程度指标(DiscriminationScore,DS)。通过该指标可以有效的检测目标区域判别性信息,从而筛选包含丰富度判别性信息的目标区域。
一种具备判别性感知能力的目标检测质量盲评价方法,包括深度训练网络模块、目标检测质量评价模块和构建训练样本,构建训练样本是通过收集公开数据集,生成包含交比并指标和目标区域判别性信息丰富度质量评价指标的样本集合;深度训练网络模块包括设置深度训练网络的损失函数,调整深度训练网络的输出参数和前向传播函数,得到判别性感知模型;目标检测质量评价模块加载调优后的深度训练网络模块训练得到的判别性感知模型,执行评价目标检测质量的任务,检测给定目标区域与真值区域的交比并指标和目标区域中判别性信息的丰富度。
进一步的,本方法的整体框架流程如图1所示,整体技术流程包含构建训练样本、深度训练网络模块和目标检测质量评价模块。具体是在构建训练样本模块通过收集公开数据集,并生成包含IoU和DS质量评价值的样本集合;然后在深度训练网络模块中,根据研究任务设计损失函数,调整网络输出参数数量,并修改网络前向传播函数,以适配前期生成的样本数据格式,使用调优后的深度网络训练得到判别性感知模型;在目标检测质量评价模块中,应用该模型执行目标检测质量评价任务,以有效检测给定目标区域与真值区域的交比并指标和目标区域中判别性信息的丰富度。
其中,构建训练样本的步骤包括:
步骤S101.收集公开数据集,基于图像标记文件得到真值区域,并依据目标真值区域的交比并取值{0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9}为标准,划分图像区域,生成具有相应值的目标区域坐标;其中,每个交比并值生成5个目标区域,即每张图生成54个样本,所述目标区域覆盖原图像真值区域包括左上、右上、左下、右下,以及覆盖完整真值区域的目标区域,同时还得到生成目标区域相对于原图像坐标系的坐标。
步骤S102.生成所述划分图像区域的判别性信息丰富度质量评价指标;
步骤S103.生成训练样本集、验证样本集和测试样本集,每个样本包括图像区域坐标和图像区域坐标对应的交比并指标和判别性信息丰富度质量评价指标。
在生成上述划分区域的判别性信息丰富度评价指标DS时,将深度描述转换(DeepDescriptor Transforming,DDT)算法应用于单幅图像时,响应值较高的地方大多对应“高判别性”的目标局部区域,这些区域能够很大程度上反映目标属性。基于此,设计了一种基于DDT算法的目标区域判别性信息丰富度评估方法,判别性信息丰富度质量评价指标的计算具体包括:
(a)通过分类预训练模型提取输入图像的深度特征图,通过计算所有位置深度特征的协方差矩阵,并求解其特征值及特征向量;
(b)提取特征值最大的前两组特征向量作为投影方向,计算深度特征图任意位置特征与上述特征向量的相关性,并生成能量热度图;
(c)将目标区域映射到二维矩阵计算该映射区域的能量密度,用以表征该处区域的判别性信息丰富度,作为其判别性信息丰富程度质量评价指标评分。
其中,深度训练网络模块的步骤包括:
步骤S201.选用用于图像分类的卷积神经网络AlexNet作为基础网络结构;
步骤S202.设置深度训练网络的前向传播函数,将输入样本中图像的坐标映射到基于原图像提取的特征图,对该特征图区域的特征进行学习;
步骤S203.设置均方误差损失函数对输入样本真值和深度训练网络实际输出值进行计算得到损失值,并基于该损失值进行反向传播调整网络参数;其中均方误差损失函数为MSE(Mean Squared Error loss)可以评价数据的变化程度,MSE的值越小,说明预测模型描述实验数据具有更好的精确度。
步骤S204.设置修改网络全连接层的输出维度为2,分别表示被检测图像给定目标区域与真值区域的交比并指标和判别性信息丰富程度质量评价指标;
步骤S205.训练样本集完成训练后,得到判别性感知模型。
其中,目标检测质量评价模块的步骤包括:
步骤S301.输入验证样本集评估判别性感知模型,根据输出结果进一步调优深度训练网络,生成目标检测模型;
步骤S302.加载完成训练的目标检测模型;
步骤S303.输入未标记的图像和覆盖未标记图像某一区域的目标区域坐标,将其输入目标检测质量评价模型,然后输出分别表征目标区域包含的判别性信息丰富程度以及目标区域和预期的真值区域的交比并这两个值。
本发明提供的方法利用深度训练网络模块、目标检测质量评价模块和构建训练样本,从而可以有效感知检测区域目标属性判别信息的丰富程度;另外还可以综合目标区域与真值区域的交比并指标,实现了对检测区域更为全面的质量评价,并且该方法还具有较好的泛化能力。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
当然,上述说明并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的技术人员在本发明的实质范围内所做出的变化、改型、添加或替换,也应属于本发明的保护范围。

Claims (4)

1.一种具备判别性感知能力的目标检测质量盲评价方法,其特征在于,包括深度训练网络模块、目标检测质量评价模块和构建训练样本,
所述构建训练样本是通过收集公开数据集,生成包含交比并指标和目标区域判别性信息丰富度质量评价指标的样本集合;
所述深度训练网络模块包括设置深度训练网络的损失函数,调整深度训练网络的输出参数和前向传播函数,得到判别性感知模型;
所述目标检测质量评价模块加载调优后的深度训练网络模块训练得到的判别性感知模型,执行评价目标检测质量的任务,检测给定目标区域与真值区域的交比并指标和目标区域中判别性信息的丰富度;
所述构建训练样本的步骤包括:
步骤S101.收集公开数据集,基于图像标记文件得到真值区域,并依据目标真值区域的交比并取值{0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9}为标准,划分图像区域,生成具有相应值的目标区域坐标;
步骤S102.生成所述划分图像区域的判别性信息丰富度质量评价指标;
步骤S103.生成训练样本集、验证样本集和测试样本集,每个样本包括图像区域坐标和图像区域坐标对应的交比并指标和判别性信息丰富度质量评价指标;
所述判别性信息丰富度质量评价指标的计算具体包括:(a)通过分类预训练模型提取输入图像的深度特征图,通过计算所有位置深度特征的协方差矩阵,并求解其特征值及特征向量;(b)提取特征值最大的前两组特征向量作为投影方向,计算深度特征图任意位置特征与上述特征向量的相关性,并生成能量热度图;(c)将目标区域映射到二维矩阵计算该映射区域的能量密度,用以表征该处区域的判别性信息丰富度,作为其判别性信息丰富度质量评价指标评分。
2.根据权利要求1所述的一种具备判别性感知能力的目标检测质量盲评价方法,其特征在于,所述深度训练网络模块的步骤包括:
步骤S201.选用用于图像分类的卷积神经网络AlexNet作为基础网络结构;
步骤S202.设置深度训练网络的前向传播函数,将输入样本中图像的坐标映射到基于原图像提取的特征图,对该特征图区域的特征进行学习;
步骤S203.设置均方误差损失函数对输入样本真值和深度训练网络实际输出值进行计算得到损失值,并基于该损失值进行反向传播调整网络参数;
步骤S204.设置修改网络全连接层的输出维度为2,分别表示被检测图像的给定目标区域与真值区域的交比并指标和判别性信息丰富度质量评价指标;
步骤S205.训练样本集完成训练后,得到判别性感知模型。
3.根据权利要求1所述的一种具备判别性感知能力的目标检测质量盲评价方法,其特征在于,所述目标检测质量评价模块的步骤包括:
步骤S301.输入验证样本集评估判别性感知模型,根据输出结果进一步调优深度训练网络,生成目标检测质量评价模型;
步骤S302.加载完成训练的目标检测模型;
步骤S303.输入未标记的图像和覆盖未标记图像某一区域的目标区域坐标,将其输入目标检测质量评价模型,然后输出分别表征目标区域包含的判别性信息丰富度以及目标区域和预期的真值区域的交比并这两个值。
4.根据权利要求1所述的一种具备判别性感知能力的目标检测质量盲评价方法,其特征在于,所述目标真值区域的交比并取值中每个交比并值生成5个目标区域,所述目标区域覆盖原图像真值区域包括左上、右上、左下、右下,以及覆盖完整真值区域的目标区域。
CN201910896907.3A 2019-09-23 2019-09-23 一种具备判别性感知能力的目标检测质量盲评价方法 Active CN110738132B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910896907.3A CN110738132B (zh) 2019-09-23 2019-09-23 一种具备判别性感知能力的目标检测质量盲评价方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910896907.3A CN110738132B (zh) 2019-09-23 2019-09-23 一种具备判别性感知能力的目标检测质量盲评价方法

Publications (2)

Publication Number Publication Date
CN110738132A CN110738132A (zh) 2020-01-31
CN110738132B true CN110738132B (zh) 2022-06-03

Family

ID=69269362

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910896907.3A Active CN110738132B (zh) 2019-09-23 2019-09-23 一种具备判别性感知能力的目标检测质量盲评价方法

Country Status (1)

Country Link
CN (1) CN110738132B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111325338B (zh) * 2020-02-12 2023-05-05 暗物智能科技(广州)有限公司 神经网络结构评价模型构建和神经网络结构搜索方法
CN113642521B (zh) * 2021-09-01 2024-02-09 东软睿驰汽车技术(沈阳)有限公司 红绿灯识别质量的评价方法、装置和电子设备
CN113743332B (zh) * 2021-09-08 2022-03-25 中国科学院自动化研究所 基于通用视觉预训练模型的图像质量评价方法及系统
CN114639029B (zh) * 2022-03-14 2024-09-24 中南民族大学 基于方向性目标检测的机柜装配质量评价系统及其方法
CN116523566B (zh) * 2023-06-30 2024-01-02 和元达信息科技有限公司 一种基于互联网广告投放的伪热度识别方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127250A (zh) * 2016-06-24 2016-11-16 深圳市唯特视科技有限公司 一种基于三维点云数据的人脸质量评估方法
CN106709568A (zh) * 2016-12-16 2017-05-24 北京工业大学 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法
CN108648188A (zh) * 2018-05-15 2018-10-12 南京邮电大学 一种基于生成对抗网络的无参考图像质量评价方法
CN110188833A (zh) * 2019-06-04 2019-08-30 北京字节跳动网络技术有限公司 用于训练模型的方法和装置
CN110189291A (zh) * 2019-04-09 2019-08-30 浙江大学 一种基于多任务卷积神经网络的通用无参考图像质量评价方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106127250A (zh) * 2016-06-24 2016-11-16 深圳市唯特视科技有限公司 一种基于三维点云数据的人脸质量评估方法
CN106709568A (zh) * 2016-12-16 2017-05-24 北京工业大学 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法
CN108648188A (zh) * 2018-05-15 2018-10-12 南京邮电大学 一种基于生成对抗网络的无参考图像质量评价方法
CN110189291A (zh) * 2019-04-09 2019-08-30 浙江大学 一种基于多任务卷积神经网络的通用无参考图像质量评价方法
CN110188833A (zh) * 2019-06-04 2019-08-30 北京字节跳动网络技术有限公司 用于训练模型的方法和装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Blind Image Quality Assessment via Deep Learning;Weilong Hou等;《IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS》;20150630;第1275-1286页 *
Generic Proposal Evaluator: A Lazy Learning Strategy Toward Blind Proposal Quality Assessment;Qingbo Wu等;《IEEE Transactions on Intelligent Transportation Systems》;20180131;第306-319页 *
Measuring Object Detectionmodels - mAP - What is Mean AveragePrecision?;TARANG SHAN;《知乎专栏-https://zhuanlan.zhihu.com/p/37910324》;20180127;第1-12页 *
Unsupervised Object Discovery and Co-Localization by Deep Descriptor Transforming;Xiu-Shen Wei等;《arXiv:1707.06397v1》;20170720;第1-16页 *

Also Published As

Publication number Publication date
CN110738132A (zh) 2020-01-31

Similar Documents

Publication Publication Date Title
CN110738132B (zh) 一种具备判别性感知能力的目标检测质量盲评价方法
CN107808143B (zh) 基于计算机视觉的动态手势识别方法
CN112150821B (zh) 轻量化车辆检测模型构建方法、系统及装置
CN110021425B (zh) 一种比较检测器及其构建方法与宫颈癌细胞检测方法
CN108052966A (zh) 基于卷积神经网络的遥感图像场景自动提取和分类方法
CN109903339B (zh) 一种基于多维融合特征的视频群体人物定位检测方法
CN112085840A (zh) 语义分割方法、装置、设备及计算机可读存储介质
CN113609896A (zh) 基于对偶相关注意力的对象级遥感变化检测方法及系统
CN114092697B (zh) 注意力融合全局和局部深度特征的建筑立面语义分割方法
CN113569724B (zh) 基于注意力机制和扩张卷积的道路提取方法及系统
CN111563408B (zh) 多层次感知特征渐进自学习的高分辨率影像滑坡自动检测方法
CN109948637A (zh) 对象检测装置、对象检测方法及计算机可读介质
CN112949408B (zh) 一种过鱼通道目标鱼类实时识别方法和系统
CN108596102A (zh) 基于rgb-d的室内场景物体分割分类器构造方法
CN111079807B (zh) 一种地物分类方法及装置
CN109284779A (zh) 基于深度全卷积网络的物体检测方法
CN112215217B (zh) 模拟医师阅片的数字图像识别方法及装置
CN113487610B (zh) 疱疹图像识别方法、装置、计算机设备和存储介质
CN113033315A (zh) 一种稀土开采高分影像识别与定位方法
CN113033516A (zh) 对象识别统计方法及装置、电子设备、存储介质
CN114510594A (zh) 一种基于自注意力机制的传统纹样子图检索方法
CN104616005A (zh) 一种领域自适应的人脸表情分析方法
CN102509119B (zh) 一种基于分类器的图像场景分层与对象遮挡处理方法
CN111967399A (zh) 一种基于改进的Faster RCNN行为识别方法
CN110853021B (zh) 一种病理鳞状上皮细胞的检测分类模型的构建

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant