CN106886795A - 基于图像中的显著物体的物体识别方法 - Google Patents
基于图像中的显著物体的物体识别方法 Download PDFInfo
- Publication number
- CN106886795A CN106886795A CN201710086417.8A CN201710086417A CN106886795A CN 106886795 A CN106886795 A CN 106886795A CN 201710086417 A CN201710086417 A CN 201710086417A CN 106886795 A CN106886795 A CN 106886795A
- Authority
- CN
- China
- Prior art keywords
- candidate frame
- picture
- classification
- effective
- probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
一种基于图像中的显著物体的物体识别方法,所述方法包括:训练过程,其用于建立分类数据库,在所述分类数据库中包括用于描述多个物体的第一特征向量;以及识别过程,其包括:将包含物体的图片输入到深度卷积神经网络中,将图片划分成M*M个网格,每个网格预测N个候选框,得出每个候选框内存在物体的概率;当存在物体的概率大于或等于预定阈值时,选取该候选框作为第一有效候选框;将第一有效候选框的图像输入到分类神经网络中以获取第二特征向量;以及基于所述第二特征向量、第一特征向量以及分类数据库,执行k最近邻分类算法(KNN)以识别出物体的类别。
Description
技术领域
本发明涉及一种基于图像中的显著物体的物体识别方法。
背景技术
近些年来,深度卷积神经网络在物体识别,物体定位和图像分割领域已经取得了重大的进展。通过基于深度卷积神经网络的物体识别算法,在个别任务上,机器的识别准确率甚至已经超过了人类。
另外一些算法,在现有技术中公开的R-CNN算法、Faster R-CNN算法、YOLO(youonly look once)算法、SSD算法以及R-FCN算法在物体定位和图像分割领域也取得很大的成功,得到了较高的准确率。
然而这些方法普遍存在识别物体种类较少(20~80类),以及对于新的物体种类,需要大量带标签的训练集,花费大量时间重新训练神经网络,才能达到识别的效果。此外,绝大部分物体定位和识别算法缺乏对同类物品中不同个体的区分能力。
因此存在对如下的物体识别方法的需求,该方法无需重新训练神经网络,只需通过较为简单的步骤,可识别新的物体。此外,该方法需要识别精度高,定位准确,扩展性强,可快速扩展物体种类,区分物体个体差异强的特点。
发明内容
本发明的目的旨在解决现有技术中存在的上述问题和缺陷的至少一个方面。
根据本发明的一个方面,提供一种基于图像中的显著物体的物体识别方法,所述方法包括:
训练过程,所述训练过程用于建立分类数据库,在所述分类数据库中包括用于描述多个物体的第一特征向量,每个物体由至少一个第一特征向量表示;以及
识别过程,所述识别过程包括如下的步骤:
S21:将包含物体的图片输入到深度卷积神经网络中,将图片划分成M*M个网格,每个网格预测N个候选框,并针对整个图片的M*M*N个候选框中的每个候选框,得出每个候选框内存在物体的概率,其中M和N为大于等于1的整数;
S22:当存在物体的概率大于或等于预定阈值时,选取该概率所对应的候选框作为第一有效候选框;
S23:将第一有效候选框的图像输入到分类神经网络中以获取第二特征向量;以及
S24:基于所述第二特征向量、第一特征向量以及分类数据库,执行k最近邻分类算法(KNN)以识别出物体的类别。
在本发明的一个优选实施例中,所述方法还包括如下的步骤:
S20:在将包含物体的图片输入到深度卷积神经网络的之前,将图片分割成彼此之间存在重叠区域的S个面积相同的区域,S为大于等于1的整数。
在根据本发明的一个优选实施例中,所述方法在步骤S20之后还包括如下的步骤:
S21’:将包含S个区域的图片输入到深度卷积神经网络中,将S个区域中的每个区域划分成M*M个网格,每个网格预测N个候选框,在每个网格中标记N个候选框针对于相应网格的归一化坐标,并针对于整个图片的M*M*N*S个候选框中的每个候选框,得出每个候选框内存在物体的概率;
S22’:当存在物体的概率大于或等于预定阈值时,选取该概率所对应的候选框作为第二有效候选框,将所有区域中的第二有效候选框的归一化坐标转换为针对于包含物体的图片的图片坐标,并得到针对于图片坐标的第三有效候选框,
S23’:将第三有效候选框的图像输入到分类神经网络中以获取第二特征向量;以及
S24’:基于所述第二特征向量、第一特征向量以及分类数据库,执行k最近邻分类算法(KNN)以识别出物体的类别。
在根据本发明的一个优选实施例中,所述训练过程包括如下的步骤:
S11:以第一角度、第一距离和第一光照对至少一个物体进行拍摄以获取图片;
S12:将图片输入到深度卷积神经网络中以生成至少一个候选框;
S13:手动地确定该目标候选框在图片中的坐标并选取每个物体的目标候选框,并且存储该目标候选框中的图像;
S14:以不同于第一角度、第一距离和第一光照的多个角度、多个距离和多个光照对至少一个物体进行拍摄以获取多个不同的图片;
S15:对获取的多个不同的图片执行上述的步骤S12和S13;
S16:将存储的所有图像使用分类神经网络进行特征提取以得到第一特征向量;
S17:将提取出的所有第一特征向量存储到分类数据库中,其中在该分类数据库中存储用于描述多个物体的第一特征向量。
在根据本发明的一个优选实施例中,所述深度卷积神经网络是基于显著物体的YOLO神经网络,以及所述分类神经网络是卷积神经网络(CNN)。
在根据本发明的一个优选实施例中,所述特定阈值位于0.1至1的范围内。
在根据本发明的一个优选实施例中,所述方法还包括如下的步骤:在步骤S22之后和步骤S23之前,对第一有效候选框执行非极大值抑制算法以进一步筛选第一有效候选框,以将筛选出的有效候选框用在步骤S23中;其中,非极大值抑制所用的阈值位于0至0.6的范围内。
在根据本发明的一个优选实施例中,所述方法还包括如下的步骤:在步骤S22’中,对第二有效候选框执行非极大值抑制算法以进一步筛选第二有效候选框,以将筛选出的有效候选框进行坐标转换;对坐标转换之后的得到第三有效候选框执行非极大值抑制算法以将筛选出的有效候选框用在步骤S23’中;以及其中,非极大值抑制所用的阈值位于0至0.6的范围内。
在根据本发明的一个优选实施例中,CNN网络基于SqueezeNet模型、VGG模型和ResNet模型中的任一种。
在根据本发明的一个优选实施例中,k最近邻分类算法是基于投票委员会机制的k最近邻分类算法。
通过根据本发明的基于图像中的显著物体的物体识别方法,对整个图片划分出了M*M个网格,并且每个网格中预测出N个候选框,针对整个图片的M*M*N个候选框预测每个候选框中存在物体的概率。在该概率小于一阈值的情况下,过滤掉非有效候选框,例如表示背景图像的候选框。然后利用分类功能和物体特征描述功能更加强大的分类神经网络对有效候选框中的物体特征进行分类。在该识别过程中,通过概率阈值筛选和分类网络的二级分类处理可以进行多级特征分类,从而提高分类和物体识别的精度。
附图说明
图1是根据本发明的示例性实施例的基于图像中的显著物体的物体识别方法的一种识别过程的流程图。
图2是根据本发明的示例性实施例的基于图像中的显著物体的物体识别方法的另一种识别过程的流程图。
图3是根据本发明的示例性实施例的基于图像中的显著物体的物体识别方法的训练过程的流程图。
具体实施方式
下面通过实施例,并结合附图,对本发明的技术方案作进一步具体的说明。下述参照附图对本发明实施方式的说明旨在对本发明的总体发明构思进行解释,而不应当理解为对本发明的一种限制。
另外,在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本披露实施例的全面理解。然而明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。
在对本发明的方法进行说明之前,首先将介绍现有技术中的基于YOLO(you onlylook once)神经网络的物体识别方法。YOLO的设计理念遵循端到端训练和实时检测。YOLO将输入图像划分为S*S个网络,如果一个物体的中心落在某网格(cell)内,则相应网格负责检测该物体。在训练和测试时,每个网络预测B个Bounding Boxes,每个Bounding Box对应5个预测参数,即Bounding Box的中心点坐标(x,y),宽高(w,h),和置信度评分。这里的置信度评分(Pr(Object)*IOU(pred|truth))综合反映基于当前模型Bounding Box内存在目标的可能性Pr(Object)和Bounding Box预测目标位置的准确性IOU(pred|truth)。如果Bounding Box内不存在物体,则Pr(Object)=0。如果存在物体,则根据预测的BoundingBox和真实的Bounding Box计算IOU,同时会预测存在物体的情况下该物体属于某一类的后验概率Pr(Class_i|Object)。假定一共有C类物体,那么每一个网格只预测一次C类物体的条件类概率Pr(Class_i|Object),i=1,2,...,C;每一个网格预测B个Bounding Box的位置。即这B个Bounding Box共享一套条件类概率Pr(Class_i|Object),i=1,2,...,C。基于计算得到的Pr(Class_i|Object),在测试时可以计算某个Bounding Box类相关置信度:Pr(Class_i|Object)*Pr(Object)*IOU(pred|truth)=Pr(Class_i)*IOU(pred|truth)。如果将输入图像划分为7*7网格(S=7),每个网格预测2个Bounding Box(B=2),有20类待检测的目标(C=20),则相当于最终预测一个长度为S*S*(B*5+C)=7*7*30的向量。
在该传统方法中,在预测Bounding Box位置的同时,还预测该位置出的物体类别。但是基于传统YOLO的物体识别方法存在如下的局限:(1)最终有一个全连接层,所以各单元格能够利用全局信息,但是造成初始图片只能缩放成固定大小;(2)初始图片有缩放,则可能对不同缩放比的物体覆盖不全,造成无法识别极端缩放比的物体;(3)每一个单元格只选择一个物体框来用,并只预测一个类别,所以当多个物体中心落入一个单元格时,YOLO无能为力,表现成不能识别到小物体;(4)但是受限于标注图像训练集成本高,其可检测的物体种类比较少,且可拓展性低。
考虑到上述缺点,本发明提出了一种基于图像中的显著物体的识别方法,在该方法中,在确定Bounding Box时,仅预测该Bounding Box中存在物体的概率而不同时告知该物体的类别,物体类别的确认交由分类神经网络来实现,因此本发明的识别方法是基于发现图像中的显著物体而实现的,而不同时给出该物体的类别。
根据本发明的总的发明构思,本发明提供一种基于图像中的显著物体的物体识别方法,所述方法包括训练过程和识别过程。所述训练过程用于建立分类数据库,在所述分类数据库中包括用于描述多个物体的第一特征向量,每个物体由至少一个第一特征向量表示。
如图1所示,在根据本发明的一个实施例中,所述识别过程包括如下的步骤:
S21:将包含物体的图片输入到深度卷积神经网络中,将图片划分成M*M个网格,每个网格预测N个候选框,并针对整个图片的M*M*N个候选框中的每个候选框,得出每个候选框内存在物体的概率,其中M和N为大于等于1的整数;
S22:当存在物体的概率大于或等于预定阈值时,选取该概率所对应的候选框作为第一有效候选框;
S23:将第一有效候选框的图像输入到分类神经网络中以获取第二特征向量;以及
S24:基于所述第二特征向量、第一特征向量以及分类数据库,执行k最近邻分类算法(KNN)以识别出物体的类别。
在根据本发明的物体识别方法中,在步骤S21中,对整个图片划分出了M*M个网格,并且每个网格中预测出N个候选框,在根据本发明的一个优选实施例中,M是7,N是2。此外,针对整个图片的M*M*N个候选框预测每个候选框中存在物体的概率。在该概率小于一阈值的情况下,过滤掉非有效候选框,例如表示背景图像的候选框。然后利用分类功能和物体特征描述功能更加强大的分类神经网络对有效候选框中的物体特征进行分类。在该识别过程中,通过概率阈值筛选和分类网络的二级分类处理可以进行多级特征分类,从而提高分类的精度。
此外,该物体识别方法不需要在给出Bounding Box的同时告知其中包含物体的种类,只需要告知Bounding Box中是否包含图像中较为显著的物体即可。故在图像标注中,对图像中所有显著物体进行标注。所谓显著物体即为图像中较为明显、突出的物体。在完成模型训练后,实测表明,该方法检测物体的能力大大提高且其具备检测生活中绝大部分的物体。以可乐易拉罐为例,检测距离由50cm提高至100cm。
根据本发明的一个示例性实施例,在步骤S22中所使用的特定阈值位于0.1至1的范围内。例如,包含物体的概率小于0.1的Bounding Box都被舍弃。
如上所述,现有技术中的YOLO网络无法识别图像中的小物体。在根据本发明的一个示例性实施例中,提供了一种物体识别方法,该方法可以改进上述的缺点,识别出图像中的小物体,如图2所示,该方法包括如下的步骤:
S20:在将包含物体的图片输入到深度卷积神经网络的之前,将图片分割成彼此之间存在重叠区域的S个面积相同的区域;其中S为大于等于1的整数
S21’:将包含S个区域的图片输入到深度卷积神经网络中,将S个区域中的每个区域划分成M*M个网格,每个网格预测N个候选框,在每个网格中标记N个候选框针对于相应网格的归一化坐标,并针对于整个图片的M*M*N*S个候选框中的每个候选框,得出每个候选框内存在物体的概率;
S22’:当存在物体的概率大于或等于预定阈值时,选取该概率所对应的候选框作为第二有效候选框,将所有区域中的第二有效候选框的归一化坐标转换为针对于包含物体的图片的图片坐标,并得到针对于图片坐标的第三有效候选框,
S23’:将第三有效候选框的图像输入到分类神经网络中以获取第二特征向量;以及
S24’:基于所述第二特征向量、第一特征向量以及分类数据库,执行k最近邻分类算法(KNN)以识别出物体的类别。
在本发明的一个示例中,M是7,N是2,S是9。在实际的操作中,为提高YOLO检测小型物体的距离,对图像进行分块处理操作。在根据本发明的物体识别方法中,摄像头采样数据尺寸为640×480,将其分为有彼此之间存在重叠的9块(或其他数字),每块的大小为250×190。其中x轴分段:0到250,195到445,390到640;y轴分段:0到190,145到335,290到480。将分割后的9块图像分别投入YOLO网络,并对每一幅图像得到的98个(7*7*2)Bounding Box进行过滤,即将得分低于0.1的Bounding Box舍弃后以得到有效物体区域。然后,将9块图像中得到的所有的有效区域的坐标变换至原图像坐标,之后再对原图像坐标下有效区域。在这一系列操作完成之后得到的有效区域即为得到的最终有效特征区域。
通过上述的物体识别方法,使得对小物体的检测效率大大提高,检测可乐罐的有效距离可达3.5米,且其具备检测图像中绝大部分显著物体的能力。另外由于网络结构较为简单,尺寸较小,进行多区域检索并不影响其运行效率。
考虑到当前的基于YOLO的神经网络在训练过程中所耗费的时间之长,根据本发明的物体识别方法提出了如下的训练过程,如图3所示,所述训练过程包括:
S11:以第一角度、第一距离和第一光照对至少一个物体进行拍摄以获取图片;
S12:将图片输入到深度卷积神经网络中以生成至少一个候选框;
S13:手动地确定该目标候选框在图片中的坐标并选取每个物体的目标候选框,并且存储该目标候选框中的图像;
S14:以不同于第一角度、第一距离和第一光照的多个角度、多个距离和多个光照对至少一个物体进行拍摄以获取多个不同的图片;
S15:对获取的多个不同的图片执行上述的步骤S12和S13;
S16:将存储的所有图像使用分类神经网络进行特征提取以得到第一特征向量;
S17:将提取出的所有第一特征向量存储到分类数据库中,其中在该分类数据库中存储用于描述多个物体的第一特征向量。
因此,通过如上所述的根据本发明的物体训练过程,可以通过简单的步骤建立分类数据库,并且在这些数据库中,物体特征的可扩展性很强,可以根据用户的需求灵活地设置,并且省去了重新训练神经网络的过程,节省了时间。
考虑到基于显著物体的YOLO神经网络在预测Bounding Box中包含物体的概率方面具有突出的能力。因此在根据本发明的一个示例性实施例中,在步骤S21、S21’和S12中使用的深度卷积神经网络是基于显著物体的YOLO神经网络,以及在步骤S23、S23’和S15中使用的分类神经网络是卷积神经网络(CNN)。
在步骤S22之后,即使通过候选框中包含物体的概率必须大于或等于某一阈值过滤掉了一部分不匹配的候选框,但是同一个物体还是可能由多个候选框来标注,这些候选框之间存在一定的重叠,且每个候选框具有不同的置信值,因此在根据本发明的一个示例性实施例中,步骤S22之后和步骤S23之前,对第一有效候选框执行非极大值抑制算法以进一步筛选第一有效候选框,以将筛选出的有效候选框用在步骤S23中。在根据本发明的一个示例性实施例中,在步骤S22’中,对第二有效候选框执行非极大值抑制算法以进一步筛选第二有效候选框,以将筛选出的有效候选框进行坐标转换;对坐标转换之后的得到第三有效候选框执行非极大值抑制算法以将筛选出的有效候选框用在步骤S23’中。在根据本发明的一个示例性实施例中,进行非极大值抑制所用的置信值阈值位于0至0.6的范围内。
在根据本发明的一个示例性实施例中,CNN网络基于SqueezeNet模型、VGG模型和ResNet模型中的任一种。如上仅仅列举出了CNN所采用的分类模型的优选实施例,能够进行分类计算的模型均应落在本发明的保护范围之内。上述两种方案具有相同的特点。SqueezeNet模型和VGG模型的区别在于计算量具有一定的差距,故此对物体的描述能力有强弱之分。二者相较,SqueezeNet的计算量级更低,但相比于VGG描述能力相对较弱。在根据本发明的优选实施例中,考虑到计算速度的原因,选取更加经济合算的SqueezeNet模型。
对于k最近邻分类算法的选择可以采用传统的k最近邻分类算法,其中,传统KNN分类方法的做法是,将数据库中不同的类别形成一个特征空间,每个类别的特征向量单独形成一个独立的区域。当希望对表示某种物体的新得到的特征向量进行分类时,需计算新特征向量到每个类别的特征向量组成的区域的距离(设其距离为Dmin),当新特征向量到A类别的特征向量组成的区域的距离最小时,将该新特征向量所表述的物体归属于A类别。需要对Dmin进行衡量,为此需确定一个阈值,当Dmin大于该阈值时,分类结果将被舍弃,即认为新特征向量不属于原数据库中的任何一种类别。
但是,在数据库中类别较多或特征向量的描述性不够强时,利用基于投票委员会的k最近邻分类算法。在基于投票委员会的k最近邻分类算法,使用Pearson相关系数对特征向量与分类数据库中的所有特征向量进行比对,在得到若干组相关系数后,对每组中的相关系数进行排序。通常,在每组相关系数中,选取相关系数最高的T个值组成投票委员会,因此得到若干组投票委员会,并分别对每组中的T个值进行加权。加权方式可采用线性加权、指数加权、Sigmoid型加权等。
然后,对加权后的值进行归类相加,即把委员会中归属于同一类物体的T个相关系数进行求和得到一个加权和值。此外,设置两个阈值,第一个阈值称为差值阈值,即得分最高的类别的加权和值减去得分次高类别的加权和值的差须大于此阈值,将其设在0.3,但不排除其他值也是可行的。第二个阈值为决定阈值,即最高加权和值必须大于此门限,将其设在2,但不排除其他值也是可行的。当最高加权和值满足此上两个条件时,才认为分类结果真实有效。
本领域的技术人员可以理解,上面所描述的实施例都是示例性的,并且本领域的技术人员可以对其进行改进,各种实施例中所描述的结构在不发生结构或者原理方面的冲突的情况下可以进行自由组合。
虽然结合附图对本发明进行了说明,但是附图中公开的实施例旨在对本发明优选实施方式进行示例性说明,而不能理解为对本发明的一种限制。
虽然本总体发明构思的一些实施例已被显示和说明,本领域普通技术人员将理解,在不背离本总体发明构思的原则和精神的情况下,可对这些实施例做出改变,本发明的范围以权利要求和它们的等同物限定。
应注意,措词“包括”不排除其它元件或步骤,措词“一”或“一个”不排除多个。另外,权利要求的任何元件标号不应理解为限制本发明的范围。
Claims (10)
1.一种基于图像中的显著物体的物体识别方法,所述方法包括:
训练过程,所述训练过程用于建立分类数据库,在所述分类数据库中包括用于描述多个物体的第一特征向量,每个物体由至少一个第一特征向量表示;以及
识别过程,所述识别过程包括如下的步骤:
S21:将包含物体的图片输入到深度卷积神经网络中,将图片划分成M*M个网格,每个网格预测N个候选框,并针对整个图片的M*M*N个候选框中的每个候选框,得出每个候选框内存在物体的概率,其中M和N为大于等于1的整数;
S22:当存在物体的概率大于或等于预定阈值时,选取该概率所对应的候选框作为第一有效候选框;
S23:将第一有效候选框的图像输入到分类神经网络中以获取第二特征向量;以及
S24:基于所述第二特征向量、第一特征向量以及分类数据库,执行k最近邻分类算法(KNN)以识别出物体的类别。
2.根据权利要求1所述的方法,还包括如下的步骤:
S20:在将包含物体的图片输入到深度卷积神经网络的之前,将图片分割成彼此之间存在重叠区域的S个面积相同的区域,S为大于等于1的整数。
3.根据权利要求2所述的方法,其中,还包括如下的步骤:
S21’:将包含S个区域的图片输入到深度卷积神经网络中,将S个区域中的每个区域划分成M*M个网格,每个网格预测N个候选框,在每个网格中标记N个候选框针对于相应网格的归一化坐标,并针对于整个图片的M*M*N*S个候选框中的每个候选框,得出每个候选框内存在物体的概率;
S22’:当存在物体的概率大于或等于预定阈值时,选取该概率所对应的候选框作为第二有效候选框,将所有区域中的第二有效候选框的归一化坐标转换为针对于包含物体的图片的图片坐标,并得到针对于图片坐标的第三有效候选框,
S23’:将第三有效候选框的图像输入到分类神经网络中以获取第二特征向量;以及
S24’:基于所述第二特征向量、第一特征向量以及分类数据库,执行k最近邻分类算法(KNN)以识别出物体的类别。
4.根据权利要求1所述的方法,其中,所述训练过程包括如下的步骤:
S11:以第一角度、第一距离和第一光照对至少一个物体进行拍摄以获取图片;
S12:将图片输入到深度卷积神经网络中以生成至少一个候选框;
S13:手动地确定该目标候选框在图片中的坐标并选取每个物体的目标候选框,并且存储该目标候选框中的图像;
S14:以不同于第一角度、第一距离和第一光照的多个角度、多个距离和多个光照对至少一个物体进行拍摄以获取多个不同的图片;
S15:对获取的多个不同的图片执行上述的步骤S12和S13;
S16:将存储的所有图像使用分类神经网络进行特征提取以得到第一特征向量;
S17:将提取出的所有第一特征向量存储到分类数据库中,其中在该分类数据库中存储用于描述多个物体的第一特征向量。
5.根据权利要求1、3、4中的任一项所述的方法,其中,所述深度卷积神经网络是基于显著物体的YOLO神经网络,以及所述分类神经网络是卷积神经网络(CNN)。
6.根据权利要求1或3所述的方法,其中,所述特定阈值位于0.1至1的范围内。
7.根据权利要求1所述的方法,其中,还包括如下的步骤:在步骤S22之后和步骤S23之前,对第一有效候选框执行非极大值抑制算法以进一步筛选第一有效候选框,以将筛选出的有效候选框用在步骤S23中;
其中,非极大值抑制所用的阈值位于0至0.6的范围内。
8.根据权利要求3所述的方法,其中,还包括如下的步骤:在步骤S22’中,对第二有效候选框执行非极大值抑制算法以进一步筛选第二有效候选框,以将筛选出的有效候选框进行坐标转换;
对坐标转换之后的得到第三有效候选框执行非极大值抑制算法以将筛选出的有效候选框用在步骤S23’中;以及
其中,非极大值抑制所用的阈值位于0至0.6的范围内。
9.根据权利要求5所述的方法,其中,CNN网络基于SqueezeNet模型、VGG模型和ResNet模型中的任一种。
10.根据权利要求1所述的方法,其中,k最近邻分类算法是基于投票委员会机制的k最近邻分类算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710086417.8A CN106886795B (zh) | 2017-02-17 | 2017-02-17 | 基于图像中的显著物体的物体识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710086417.8A CN106886795B (zh) | 2017-02-17 | 2017-02-17 | 基于图像中的显著物体的物体识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106886795A true CN106886795A (zh) | 2017-06-23 |
CN106886795B CN106886795B (zh) | 2021-01-15 |
Family
ID=59180401
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710086417.8A Active CN106886795B (zh) | 2017-02-17 | 2017-02-17 | 基于图像中的显著物体的物体识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106886795B (zh) |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107527009A (zh) * | 2017-07-11 | 2017-12-29 | 浙江汉凡软件科技有限公司 | 一种基于yolo目标检测的遗留物检测方法 |
CN107562050A (zh) * | 2017-08-29 | 2018-01-09 | 广东工业大学 | 一种机器人识别环境的方法及系统 |
CN107589758A (zh) * | 2017-08-30 | 2018-01-16 | 武汉大学 | 一种基于双源视频分析的智能化野外无人机搜救方法与系统 |
CN107644224A (zh) * | 2017-09-30 | 2018-01-30 | 旗瀚科技有限公司 | 一种基于darknet框架的物体检测系统 |
CN107967773A (zh) * | 2017-12-01 | 2018-04-27 | 旗瀚科技有限公司 | 一种基于视觉识别的超市自助购物方法 |
CN108269371A (zh) * | 2017-09-27 | 2018-07-10 | 缤果可为(北京)科技有限公司 | 商品自动结算方法、装置、自助收银台 |
CN108268869A (zh) * | 2018-02-13 | 2018-07-10 | 北京旷视科技有限公司 | 目标检测方法、装置及系统 |
CN108280488A (zh) * | 2018-02-09 | 2018-07-13 | 哈尔滨工业大学 | 基于共享神经网络的可抓取物体识别方法 |
CN108320404A (zh) * | 2017-09-27 | 2018-07-24 | 缤果可为(北京)科技有限公司 | 基于神经网络的商品识别方法、装置、自助收银台 |
CN108363998A (zh) * | 2018-03-21 | 2018-08-03 | 北京迈格威科技有限公司 | 一种对象的检测方法、装置、系统和电子设备 |
CN108460761A (zh) * | 2018-03-12 | 2018-08-28 | 北京百度网讯科技有限公司 | 用于生成信息的方法和装置 |
CN108536287A (zh) * | 2018-03-26 | 2018-09-14 | 深圳市深晓科技有限公司 | 一种根据用户指示读书的方法及装置 |
CN108805064A (zh) * | 2018-05-31 | 2018-11-13 | 中国农业大学 | 一种基于深度学习的鱼类定位检测和识别方法及系统 |
CN109165612A (zh) * | 2018-08-31 | 2019-01-08 | 苏州大学 | 基于深度特征和双向knn排序优化的行人再识别方法 |
CN109492686A (zh) * | 2018-11-01 | 2019-03-19 | 郑州云海信息技术有限公司 | 一种图片标注方法与系统 |
CN109493104A (zh) * | 2018-09-12 | 2019-03-19 | 广州市玄武无线科技股份有限公司 | 一种智能拜访的方法及系统 |
CN109583355A (zh) * | 2018-11-23 | 2019-04-05 | 江南大学 | 一种基于边界选择的人流统计的装置和方法 |
CN109711437A (zh) * | 2018-12-06 | 2019-05-03 | 武汉三江中电科技有限责任公司 | 一种基于yolo网络模型的变压器部件识别方法 |
CN109766928A (zh) * | 2018-12-21 | 2019-05-17 | 创新奇智(重庆)科技有限公司 | 一种基于图像的物体分类方法、系统和电子设备 |
CN109781732A (zh) * | 2019-03-08 | 2019-05-21 | 江西憶源多媒体科技有限公司 | 一种微小物检测并分类计数的方法 |
CN109784349A (zh) * | 2018-12-25 | 2019-05-21 | 东软集团股份有限公司 | 图像目标检测模型建立方法、装置、存储介质及程序产品 |
CN109934216A (zh) * | 2017-12-19 | 2019-06-25 | 华为技术有限公司 | 图像处理的方法、装置、计算机可读存储介质 |
CN109949160A (zh) * | 2019-03-27 | 2019-06-28 | 上海优扬新媒信息技术有限公司 | 一种区块链的分片方法及装置 |
CN110032916A (zh) * | 2018-01-12 | 2019-07-19 | 北京京东尚科信息技术有限公司 | 一种检测目标物体的方法和装置 |
CN110070107A (zh) * | 2019-03-26 | 2019-07-30 | 华为技术有限公司 | 物体识别方法及装置 |
CN110209865A (zh) * | 2019-05-24 | 2019-09-06 | 广州市云家居云科技有限公司 | 一种基于深度学习的物体识别及匹配方法 |
CN110309823A (zh) * | 2019-06-26 | 2019-10-08 | 浙江大华技术股份有限公司 | 一种安全检查的方法及装置 |
CN110309856A (zh) * | 2019-05-30 | 2019-10-08 | 华为技术有限公司 | 图像分类方法、神经网络的训练方法及装置 |
CN110321886A (zh) * | 2018-03-30 | 2019-10-11 | 高德软件有限公司 | 一种文字区域识别方法及装置 |
CN110543827A (zh) * | 2019-08-07 | 2019-12-06 | 上海师范大学 | 一种基于高斯混合模型与深度学习的多类别车辆检测方法 |
CN110570389A (zh) * | 2018-09-18 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 车辆损伤识别方法及装置 |
CN110705542A (zh) * | 2019-04-15 | 2020-01-17 | 中国石油大学(华东) | 一种基于HDNet的输电场景下吊车入侵检测机制 |
WO2020134411A1 (zh) * | 2018-12-29 | 2020-07-02 | 杭州海康威视数字技术股份有限公司 | 一种商品类别识别方法、装置及电子设备 |
CN111417960A (zh) * | 2018-10-18 | 2020-07-14 | 松下电器(美国)知识产权公司 | 信息处理装置、信息处理方法及程序 |
US10776941B2 (en) | 2018-07-02 | 2020-09-15 | Chiral Software, Inc. | Optimized neural network structure |
CN115331129A (zh) * | 2022-10-14 | 2022-11-11 | 彼图科技(青岛)有限公司 | 一种基于无人机和人工智能的垃圾数据识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102306303A (zh) * | 2011-09-16 | 2012-01-04 | 北京工业大学 | 一种基于小训练样本的脑电信号特征提取方法 |
US20150117760A1 (en) * | 2013-10-30 | 2015-04-30 | Nec Laboratories America, Inc. | Regionlets with Shift Invariant Neural Patterns for Object Detection |
CN105512685A (zh) * | 2015-12-10 | 2016-04-20 | 小米科技有限责任公司 | 物体识别方法和装置 |
-
2017
- 2017-02-17 CN CN201710086417.8A patent/CN106886795B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102306303A (zh) * | 2011-09-16 | 2012-01-04 | 北京工业大学 | 一种基于小训练样本的脑电信号特征提取方法 |
US20150117760A1 (en) * | 2013-10-30 | 2015-04-30 | Nec Laboratories America, Inc. | Regionlets with Shift Invariant Neural Patterns for Object Detection |
CN105512685A (zh) * | 2015-12-10 | 2016-04-20 | 小米科技有限责任公司 | 物体识别方法和装置 |
Non-Patent Citations (2)
Title |
---|
REDMON 等: ""You Only Look Once: Unified, Real-Time Object Detection"", 《THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RE COGNITION (CVPR)》 * |
杨名: ""甚高速区域卷积神经网络的船舶视频目标识别算法"", 《2016年全国通信软件学术会议程序册与交流文集》 * |
Cited By (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107527009A (zh) * | 2017-07-11 | 2017-12-29 | 浙江汉凡软件科技有限公司 | 一种基于yolo目标检测的遗留物检测方法 |
CN107562050A (zh) * | 2017-08-29 | 2018-01-09 | 广东工业大学 | 一种机器人识别环境的方法及系统 |
CN107562050B (zh) * | 2017-08-29 | 2021-03-16 | 广东工业大学 | 一种机器人识别环境的方法及系统 |
CN107589758A (zh) * | 2017-08-30 | 2018-01-16 | 武汉大学 | 一种基于双源视频分析的智能化野外无人机搜救方法与系统 |
CN108320404A (zh) * | 2017-09-27 | 2018-07-24 | 缤果可为(北京)科技有限公司 | 基于神经网络的商品识别方法、装置、自助收银台 |
CN108269371A (zh) * | 2017-09-27 | 2018-07-10 | 缤果可为(北京)科技有限公司 | 商品自动结算方法、装置、自助收银台 |
CN107644224A (zh) * | 2017-09-30 | 2018-01-30 | 旗瀚科技有限公司 | 一种基于darknet框架的物体检测系统 |
CN107967773A (zh) * | 2017-12-01 | 2018-04-27 | 旗瀚科技有限公司 | 一种基于视觉识别的超市自助购物方法 |
CN109934216A (zh) * | 2017-12-19 | 2019-06-25 | 华为技术有限公司 | 图像处理的方法、装置、计算机可读存储介质 |
CN110032916A (zh) * | 2018-01-12 | 2019-07-19 | 北京京东尚科信息技术有限公司 | 一种检测目标物体的方法和装置 |
CN110032916B (zh) * | 2018-01-12 | 2024-09-24 | 北京京东尚科信息技术有限公司 | 一种检测目标物体的方法和装置 |
CN108280488A (zh) * | 2018-02-09 | 2018-07-13 | 哈尔滨工业大学 | 基于共享神经网络的可抓取物体识别方法 |
CN108280488B (zh) * | 2018-02-09 | 2021-05-07 | 哈尔滨工业大学 | 基于共享神经网络的可抓取物体识别方法 |
CN108268869A (zh) * | 2018-02-13 | 2018-07-10 | 北京旷视科技有限公司 | 目标检测方法、装置及系统 |
CN108268869B (zh) * | 2018-02-13 | 2021-11-16 | 北京旷视科技有限公司 | 目标检测方法、装置及系统 |
CN108460761A (zh) * | 2018-03-12 | 2018-08-28 | 北京百度网讯科技有限公司 | 用于生成信息的方法和装置 |
CN108363998A (zh) * | 2018-03-21 | 2018-08-03 | 北京迈格威科技有限公司 | 一种对象的检测方法、装置、系统和电子设备 |
CN108536287A (zh) * | 2018-03-26 | 2018-09-14 | 深圳市深晓科技有限公司 | 一种根据用户指示读书的方法及装置 |
CN108536287B (zh) * | 2018-03-26 | 2021-03-02 | 深圳市同维通信技术有限公司 | 一种根据用户指示读书的方法及装置 |
CN110321886A (zh) * | 2018-03-30 | 2019-10-11 | 高德软件有限公司 | 一种文字区域识别方法及装置 |
CN108805064A (zh) * | 2018-05-31 | 2018-11-13 | 中国农业大学 | 一种基于深度学习的鱼类定位检测和识别方法及系统 |
US10776941B2 (en) | 2018-07-02 | 2020-09-15 | Chiral Software, Inc. | Optimized neural network structure |
CN109165612A (zh) * | 2018-08-31 | 2019-01-08 | 苏州大学 | 基于深度特征和双向knn排序优化的行人再识别方法 |
CN109165612B (zh) * | 2018-08-31 | 2021-07-09 | 苏州大学 | 基于深度特征和双向knn排序优化的行人再识别方法 |
CN109493104A (zh) * | 2018-09-12 | 2019-03-19 | 广州市玄武无线科技股份有限公司 | 一种智能拜访的方法及系统 |
CN110570389A (zh) * | 2018-09-18 | 2019-12-13 | 阿里巴巴集团控股有限公司 | 车辆损伤识别方法及装置 |
CN111417960A (zh) * | 2018-10-18 | 2020-07-14 | 松下电器(美国)知识产权公司 | 信息处理装置、信息处理方法及程序 |
CN109492686A (zh) * | 2018-11-01 | 2019-03-19 | 郑州云海信息技术有限公司 | 一种图片标注方法与系统 |
CN109583355A (zh) * | 2018-11-23 | 2019-04-05 | 江南大学 | 一种基于边界选择的人流统计的装置和方法 |
CN109711437A (zh) * | 2018-12-06 | 2019-05-03 | 武汉三江中电科技有限责任公司 | 一种基于yolo网络模型的变压器部件识别方法 |
CN109766928B (zh) * | 2018-12-21 | 2020-04-17 | 创新奇智(重庆)科技有限公司 | 一种基于图像的物体分类方法、系统和电子设备 |
CN109766928A (zh) * | 2018-12-21 | 2019-05-17 | 创新奇智(重庆)科技有限公司 | 一种基于图像的物体分类方法、系统和电子设备 |
CN109784349B (zh) * | 2018-12-25 | 2021-02-19 | 东软集团股份有限公司 | 图像目标检测模型建立方法、装置、存储介质及程序产品 |
CN109784349A (zh) * | 2018-12-25 | 2019-05-21 | 东软集团股份有限公司 | 图像目标检测模型建立方法、装置、存储介质及程序产品 |
CN111382635B (zh) * | 2018-12-29 | 2023-10-13 | 杭州海康威视数字技术股份有限公司 | 一种商品类别识别方法、装置及电子设备 |
WO2020134411A1 (zh) * | 2018-12-29 | 2020-07-02 | 杭州海康威视数字技术股份有限公司 | 一种商品类别识别方法、装置及电子设备 |
CN111382635A (zh) * | 2018-12-29 | 2020-07-07 | 杭州海康威视数字技术股份有限公司 | 一种商品类别识别方法、装置及电子设备 |
CN109781732A (zh) * | 2019-03-08 | 2019-05-21 | 江西憶源多媒体科技有限公司 | 一种微小物检测并分类计数的方法 |
CN110070107A (zh) * | 2019-03-26 | 2019-07-30 | 华为技术有限公司 | 物体识别方法及装置 |
WO2020192736A1 (zh) * | 2019-03-26 | 2020-10-01 | 华为技术有限公司 | 物体识别方法及装置 |
CN109949160A (zh) * | 2019-03-27 | 2019-06-28 | 上海优扬新媒信息技术有限公司 | 一种区块链的分片方法及装置 |
CN110705542A (zh) * | 2019-04-15 | 2020-01-17 | 中国石油大学(华东) | 一种基于HDNet的输电场景下吊车入侵检测机制 |
CN110209865A (zh) * | 2019-05-24 | 2019-09-06 | 广州市云家居云科技有限公司 | 一种基于深度学习的物体识别及匹配方法 |
CN110209865B (zh) * | 2019-05-24 | 2023-05-16 | 广州市云家居云科技有限公司 | 一种基于深度学习的物体识别及匹配方法 |
CN110309856A (zh) * | 2019-05-30 | 2019-10-08 | 华为技术有限公司 | 图像分类方法、神经网络的训练方法及装置 |
CN110309823A (zh) * | 2019-06-26 | 2019-10-08 | 浙江大华技术股份有限公司 | 一种安全检查的方法及装置 |
CN110543827A (zh) * | 2019-08-07 | 2019-12-06 | 上海师范大学 | 一种基于高斯混合模型与深度学习的多类别车辆检测方法 |
CN110543827B (zh) * | 2019-08-07 | 2023-06-02 | 上海师范大学 | 一种基于高斯混合模型与深度学习的多类别车辆检测方法 |
CN115331129A (zh) * | 2022-10-14 | 2022-11-11 | 彼图科技(青岛)有限公司 | 一种基于无人机和人工智能的垃圾数据识别方法 |
CN115331129B (zh) * | 2022-10-14 | 2023-03-24 | 彼图科技(青岛)有限公司 | 一种基于无人机和人工智能的垃圾数据识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106886795B (zh) | 2021-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106886795A (zh) | 基于图像中的显著物体的物体识别方法 | |
CN112418117B (zh) | 一种基于无人机图像的小目标检测方法 | |
CN111695482A (zh) | 一种管道缺陷识别方法 | |
CN106960214A (zh) | 基于图像的物体识别方法 | |
CN109523520A (zh) | 一种基于深度学习的染色体自动计数方法 | |
CN110796186A (zh) | 基于改进的YOLOv3网络的干湿垃圾识别分类方法 | |
CN110097568A (zh) | 一种基于时空双分支网络的视频对象检测与分割方法 | |
CN110619369A (zh) | 基于特征金字塔与全局平均池化的细粒度图像分类方法 | |
CN112287899A (zh) | 基于yolo v5的无人机航拍图像河流排污口检测方法及系统 | |
CN108960266A (zh) | 图像目标检测方法及装置 | |
KR20200137219A (ko) | 비지도 학습 기반 웨이퍼 불량 패턴 검출 방법 및 그 장치 | |
JP6897749B2 (ja) | 学習方法、学習システム、および学習プログラム | |
CN111832608A (zh) | 一种基于单阶段检测模型yolov3的铁谱图像多磨粒识别方法 | |
CN111444939A (zh) | 电力领域开放场景下基于弱监督协同学习的小尺度设备部件检测方法 | |
CN112257799A (zh) | 一种生活垃圾目标检测的方法、系统及装置 | |
CN114749342A (zh) | 一种锂电池极片涂布缺陷识别方法、装置及介质 | |
CN110008899A (zh) | 一种可见光遥感图像候选目标提取与分类方法 | |
CN115100652A (zh) | 基于高分遥感图像的电子地图自动化生成方法 | |
CN116912796A (zh) | 一种基于新型动态级联YOLOv8的自动驾驶目标识别方法及装置 | |
Horzyk et al. | YOLOv3 precision improvement by the weighted centers of confidence selection | |
Nguyen et al. | FoodMask: Real-time food instance counting, segmentation and recognition | |
CN112949634A (zh) | 一种铁路接触网鸟窝检测方法 | |
CN112418358A (zh) | 一种强化深度融合网络的车辆多属性分类方法 | |
Liu et al. | Container-code recognition system based on computer vision and deep neural networks | |
CN115546163A (zh) | 宫颈脱落细胞玻片识别方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20210824 Address after: 100016 room 2027, 2 / F, building 5, yard 5, Jiangtai Road, Chaoyang District, Beijing Patentee after: Beijing yiyixian Education Technology Co.,Ltd. Address before: 100086 16L, block B, building 1, Beijing Science and Technology Exhibition Center, No.48, North Third Ring Road West, Haidian District, Beijing Patentee before: BEIJING EWAYBOT TECHNOLOGY LLC |
|
TR01 | Transfer of patent right |