CN113591539B - 一种目标识别方法、装置及可读存储介质 - Google Patents
一种目标识别方法、装置及可读存储介质 Download PDFInfo
- Publication number
- CN113591539B CN113591539B CN202110607735.0A CN202110607735A CN113591539B CN 113591539 B CN113591539 B CN 113591539B CN 202110607735 A CN202110607735 A CN 202110607735A CN 113591539 B CN113591539 B CN 113591539B
- Authority
- CN
- China
- Prior art keywords
- target
- bottleneck
- identification
- network
- image information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000013528 artificial neural network Methods 0.000 claims abstract description 17
- 230000004927 fusion Effects 0.000 claims abstract description 15
- 238000010586 diagram Methods 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 8
- 230000009467 reduction Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 abstract description 7
- 230000008569 process Effects 0.000 description 7
- 230000004913 activation Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 238000012163 sequencing technique Methods 0.000 description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种目标识别方法、装置及可读存储介质,其中方法包括:获取待识别目标的图像信息和伺服信息;通过预设神经网络对所述图像信息进行识别,获得识别结果,以及,根据所述伺服信息确定目标类别;基于所述目标类别和所述识别结果进行融合判定,以完成目标的识别。本发明实施例通过图像信息和伺服信息进行融合判断,由此大大提高了对弱小目标的识别效果。
Description
技术领域
本发明涉及定位技术领域,尤其涉及一种目标识别方法、装置及可读存储介质。
背景技术
随着深度学习图像分类网络模型在图像处理中应用的效果越来越好,神经网络体积越来越大,结构越来越复杂,预测和训练需要的硬件资源也逐步增多。很多图像处理过程往往只能在高算力的服务器中运行,移动设备因硬件资源和算力的限制,很难运行复杂的深度学习网络模型,所以一些型的网络结构不适用于机载图像实时处理。
同时现有的卷积神经网络对弱小目标进行检测时,特征提取困难、目标识别概率低。
发明内容
本发明实施例提供一种目标识别方法、装置及可读存储介质,用以提高对弱小目标的识别效果。
本发明实施例提供一种目标识别方法,包括:
获取待识别目标的图像信息和伺服信息;
通过预设神经网络对所述图像信息进行识别,获得识别结果,以及,根据所述伺服信息确定目标类别;
基于所述目标类别和所述识别结果进行融合判定,以完成目标的识别。
在一示例中,在获得识别结果之后,所述目标识别方法还包括:
根据所述识别结果的置信度的大小对识别结果进行排序,获得排序结果。
在一示例中,所述基于所述目标类别和所述识别结果进行融合判定,以完成目标的识别包括:
基于所述排序结果依次对所述目标类别进行匹配,获得匹配信息;
将所述匹配信息与预设阈值进行比对,获得比对结果;
基于所述比对结果对所述待识别目标进行标记,以完成目标的识别。
在一示例中,所述通过预设神经网络对所述图像信息进行识别,获得识别结果包括:
利用改进的MobileNeV2网络对所述图像信息进行识别,其中所述改进的MobileNeV2网络包含顺次连接的若干个瓶颈结构,并且在输出特征图大小一致的瓶颈结构之间设置密集连接,以进行特征图拼接。
在一示例中,所述利用改进的MobileNeV2网络对所述图像信息进行识别包括:
配置所述改进的MobileNeV2网络中的若干个瓶颈结构的扩张系数在[1,6]范围内,且减小处于若干个瓶颈结构尾部的瓶颈结构的扩张系数。
在一示例中,所述利用改进的MobileNeV2网络对所述图像信息进行识别包括:
在所述若干个顺次连接的瓶颈结构的预设位置,配置一个扩张系数t=1,步长s=1的瓶颈结构和一个t=1,s=2的瓶颈结构的组合结构,以完成输出通道数的局部缩小。
在一示例中,所述利用改进的MobileNeV2网络对所述图像信息进行识别包括:
利用任一所述瓶颈结构的输入特征图与所述瓶颈结构主处理路径的输出特征图进行特征相加,并且在进行特征相加之前,对所述特征图进行单项池化。
在一示例中,通过预设神经网络对所述图像信息进行识别,获得识别结果还包括:
对最后一个瓶颈结构输出的特征图依次利用池化层、全卷积层和Softmax层进行处理,获得识别结果。
本发明实施例还提出一种目标识别装置,包括:
输入单元,用于获取待识别目标的图像信息和伺服信息;
处理单元,用于通过预设神经网络对所述图像信息进行识别,获得识别结果,以及,根据所述伺服信息确定目标类别;
判定单元,用于基于所述目标类别和所述识别结果进行融合判定,以完成目标的识别。
本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如前述的目标识别方法的步骤。
本发明实施例通过图像信息和伺服信息进行融合判断,由此大大提高了对弱小目标的识别效果。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本发明实施例方法基本流程图;
图2为现有的MobileNet网络的瓶颈结构;
图3为本发明实施例改进的MobileNet网络的瓶颈结构;
图4为本发明实施例改进的MobileNet网络结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
本发明实施例提供一种目标识别方法,如图1所示,包括以下具体步骤:
S101、获取待识别目标的图像信息和伺服信息;
S102、通过预设神经网络对所述图像信息进行识别,获得识别结果,以及,根据所述伺服信息确定目标类别;
S103、基于所述目标类别和所述识别结果进行融合判定,以完成目标的识别。
本实施例中待识别目标的图像信息可以是包含待识别目标的图片,待识别目标的伺服信息可以包括目标空地、角速度、方位角、地理位置等信息。例如通过伺服系统的GPS信息可以获得转台的安装位置和高度信息。通过伺服系统的俯仰陀螺信息可以获得跟踪目标(待识别目标)当前的俯仰较角信息。通过伺服系统的方位陀螺信息可以获得跟踪目标的方位角速度信息、通过激光测距系统获得跟踪目标的距离信息。也可以通过雷达系统获得上述伺服信息,具体的伺服信息来源在此不做限定。然后根据所述伺服信息确定目标类别,例如可以根据待识别目标的方位角结合激光测距信息,计算目标的速度信息,根据前述速度信息判断出目标的大致类别,例如如果速度≤50Km/h可以判断跟踪目标位为低速飞行物(鸟类、风筝、无人机等)。
本实施例中通过预设神经网络对图像信息进行识别,获得识别结果,并根据伺服信息确定目标类别,最后基于目标类别和识别结果进行融合判定,从而实现对待测目标的综合判读,提高了目标识别的概率。并且本发明方法不要雷达组件,仅需要借助光电系统自身的伺服系统即可,具有很高的推广应用价值。
在一示例中,在获得识别结果之后,所述目标识别方法还包括:
根据所述识别结果的置信度的大小对识别结果进行排序,获得排序结果。
本示例中,通过预设神经网络对所述图像信息进行识别,并对获得的识别结果进行排序,例如识别结果中有4个分类,然后计算每一个分类的置信度,例如识别结果的4个分类的置信度包括A、B、C、D,根据所述识别结果的置信度的大小对识别结果进行排序,获得排序结果,分类A>分类B>分类C>分类D。
在一示例中,所述基于所述目标类别和所述识别结果进行融合判定,以完成目标的识别包括:
基于所述排序结果依次对所述目标类别进行匹配,获得匹配信息;
将所述匹配信息与预设阈值进行比对,获得比对结果;
基于所述比对结果对所述待识别目标进行标记,以完成目标的识别。
继续以前述排序结果分类A>分类B>分类C>分类D为例,本示例中先标记最大概率物体分类A与根据伺服信息确定出的所述目标类别进行匹配,计算匹配信息,将获得的匹配信息与预设阈值进行比对,例如预设阈值为0.5,则在匹配信息超过0.5的情况下,保留相应的分类并进行标记,若匹配信息低于0.5,则舍弃。例如分类A和分类B的匹配信息均低于0.5,则将分类A和分类B均舍弃,直至完成所有排序结果的判定,记录待识别目标的所有标记,完成对待识别目标的识别。本示例中根据识别结果与伺服信息做融合判决,并过滤得到判别可能性较大(即交集较大)的结果,舍弃交集较小的结果。
随着深度学习图像分类网络模型在图像处理中应用的效果越来越好,神经网络体积越来越大,结构越来越复杂,预测和训练需要的硬件资源也逐步增多。很多图像处理过程往往只能在高算力的服务器中运行,移动设备因硬件资源和算力的限制,很难运行复杂的深度学习网络模型,所以一些型的网络结构不适用于机载图像实时处理。本实施例中在选择准确率较高且可以在移动硬件端部署的轻量级网络——MobileNetV2网络作为基础网络并进行改进。
MobileNetv2相较于MobileNetv1的主要改进来自线性瓶颈(LinearBottlenecks)和Inverted Residual block。Linear Bottlenecks即去除网络中输出维度较小的层后的激活函数ReLu,将其改为线性激活,这种改进降低了使用ReLu函数造成的信息损失。Inverted Residual block的设计采用了先升维、后降维的结构,与传统的Residual block先降维、后升维的结构相反。反向残差(Inverted Residuals)的结构解决训练中随着网络深度增加而出现的梯度消失问题,使反向传播过程中深度网络的浅层网络也能得到梯度,使浅层网络的参数也可训练,从而增加特征表达能力。
在一示例中,所述通过预设神经网络对所述图像信息进行识别,获得识别结果包括:
利用改进的MobileNeV2网络对所述图像信息进行识别,其中所述改进的MobileNeV2网络包含顺次连接的若干个瓶颈结构,并且在输出特征图大小一致的瓶颈结构之间设置密集连接,以进行特征图拼接。
传统的MobileNetv2的瓶颈结构如图2所示,ResNet的残差结构实际是在线性瓶颈结构的基础上增加残差传播。Mobilenet网络设计网络了扩张系数t以控制网络的大小,MobileNeV2中瓶颈设计采用先升维后降维的策略并在降维后使用线性激活来避免激活函数ReLu对信息的损失。本示例中提出一种特征层快速增广的瓶颈结构,如图3所示,与现有原始网络不同的是,本实施中除了残差连接,并在输出特征图大小一致的瓶颈之间使用密集连接代替残差,以进行特征图拼接,借助特征复用来提升信息和梯度在网络中的传输效率。同时本实施例中的密集连接使用的是拼接,使得瓶颈结构的输出通道数的快速增加。如图4所示,改进的MobileNeV2网络包含顺次连接的若干个瓶颈结构。
在一示例中,所述利用改进的MobileNeV2网络对所述图像信息进行识别包括:
利用任一所述瓶颈结构的输入特征图与所述瓶颈结构主处理路径的输出特征图进行特征相加,并且在进行特征相加之前,对所述特征图进行单项池化。
本示例中在在特征图相加前进行了单项的池化,例如可以是在x方向的降采,由此避免了网络参数和计算量的增加多块。
在一示例中,所述利用改进的MobileNeV2网络对所述图像信息进行识别包括:
配置所述改进的MobileNeV2网络中的若干个瓶颈结构的扩张系数在[1,6]范围内,且减小处于若干个瓶颈结构尾部的瓶颈结构的扩张系数。
本示例中,对扩张系数进行了适当的调整,控制网络的规模。扩张系数的调整范围限制在1到6。如图3所示,本实施中的改进的MobileNeV2网络使用了扩张系数为1的瓶颈,并且不删除最初的1×1卷积层,因为1×1卷积不仅可以提高网络的表现能力,更重要的是l×1的卷积层可以将多个特征图线性组合,从而实现了跨通道的信息整合。由于改进的MobileNeV2网络引入了密集连接,因此初始的1×1卷积即使扩张系数为1也同样对网络性能的提高有着积极的作用。
在一示例中,所述利用改进的MobileNeV2网络对所述图像信息进行识别包括:
在所述若干个顺次连接的瓶颈结构的预设位置,配置一个扩张系数t=1,步长s=1的瓶颈结构和一个t=1,s=2的瓶颈结构的组合结构,以完成输出通道数的局部缩小。
如图4所示,改进的MobileNeV2网络包含顺次连接的若干个瓶颈结构。为了保证网络的复杂度与表现力,使用了一个t=1,s=1的瓶颈和一个t=1,s=2瓶颈的组合来完成输出通道数缩小的过程。如图4中的bottleneck8和bottleneck9的使用。同时本实施例中基于网络参数与计算量的考虑,在改进的MobileNeV2在网络较深的位置仅使用一个s=2的瓶颈进行通道数的缩减,如bottleneckl5的使用。同时由于在前瓶颈结构的输入经过数次拼接,通道数已经增加到了一定程度,并且拼接导致的通道数增加在一定程度上可以代替或者部分代替扩张系数对于通道数的扩张作用,因此本示例中,改进的MobileNeV2网络在bottleneck13、bottleneck14、bottleneck17和bottleneck18的位置减小了扩张系数t。
以一张224×224×3(长和宽为224,RGB 3通道)的彩色图片举例。每层深度卷积核的数量与上一层的通道数相同(通道和卷积核一一对应)。设padding=1,stride=1,一个三通道的图像经过运算后生成了3个特征图。在经过第一个改进结构的bottleneck后,特征图的大小为112×112×96,在经过第二个改进结构的bottleneck后,特征图的大小为56×56×192,依次类推,在经过最后一个bottleneck后特征图的大小为7×7×1536。
在一示例中,通过预设神经网络对所述图像信息进行识别,获得识别结果还包括:
对最后一个瓶颈结构输出的特征图依次利用池化层、全卷积层和Softmax层进行处理,获得识别结果。
本示例中对最后一个瓶颈结构的输出经过池化、全卷积和Softmax层后输出识别结果。
综上,本发明实施例在输出特征图大小一致的瓶颈之间使用密集连接的特征图快速增广结构,该结构借助特征复用来提升信息和梯度在网络中的传输效率。
本发明方法针对现有的卷积神经网络对弱小目标进行检测时,特征提取困难,单纯依靠神经网络检测时,目标识别概率低的问题。本发明提出了一种基于多源信息融合的目标识别方法。本发明方法可借助伺服系统提供的目标的方位特征,进行目标空地、角速度、速度等先决信息的判决实现目标类型的初步分类,最后结合卷积神经网络的处理结果,实现对目标类型的综合判别,大大提高了对弱小目标的识别效果。
本发明实施例还提出一种目标识别装置,包括:
输入单元,用于获取待识别目标的图像信息和伺服信息;
处理单元,用于通过预设神经网络对所述图像信息进行识别,获得识别结果,以及,根据所述伺服信息确定目标类别;
判定单元,用于基于所述目标类别和所述识别结果进行融合判定,以完成目标的识别。
本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如前述的目标识别方法的步骤。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (6)
1.一种目标识别方法,其特征在于,包括:
获取待识别目标的图像信息和伺服信息;
通过预设神经网络对所述图像信息进行识别,获得识别结果,以及,根据所述伺服信息确定目标类别;
基于所述目标类别和所述识别结果进行融合判定,以完成目标的识别;
在获得识别结果之后,所述目标识别方法还包括:
根据所述识别结果的置信度的大小对识别结果进行排序,获得排序结果;
所述基于所述目标类别和所述识别结果进行融合判定,以完成目标的识别包括:
基于所述排序结果依次对所述目标类别进行匹配,获得匹配信息;
将所述匹配信息与预设阈值进行比对,获得比对结果;
基于所述比对结果对所述待识别目标进行标记,以完成目标的识别;
所述通过预设神经网络对所述图像信息进行识别,获得识别结果包括:
利用改进的MobileNetV2网络对所述图像信息进行识别,其中所述改进的MobileNetV2网络包含顺次连接的若干个瓶颈结构,并且在输出特征图大小一致的瓶颈结构之间设置密集连接,以进行特征图拼接;
所述利用改进的MobileNetV2网络对所述图像信息进行识别包括:
在所述顺次连接的若干个瓶颈结构的预设位置,配置一个扩张系数t=1,步长s=1的瓶颈结构和一个t=1,s=2的瓶颈结构的组合结构,以完成输出通道数的局部缩小,其中所述改进的MobileNetV2网络所述组合结构之后的指定位置仅使用一个s=2的瓶颈结构进行通道数的缩减,在所述组合结构与仅使用一个s=2的瓶颈结构之间、以及仅使用一个s=2的瓶颈结构之后的位置减小扩张系数t。
2.如权利要求1所述的目标识别方法,其特征在于,所述利用改进的MobileNetV2网络对所述图像信息进行识别包括:
配置所述改进的MobileNetV2网络中的若干个瓶颈结构的扩张系数在[1,6]范围内,且减小处于若干个瓶颈结构尾部的瓶颈结构的扩张系数。
3.如权利要求1所述的目标识别方法,其特征在于,所述利用改进的MobileNetV2网络对所述图像信息进行识别包括:
利用任一所述瓶颈结构的输入特征图与所述瓶颈结构主处理路径的输出特征图进行特征相加,并且在进行特征相加之前,对所述特征图进行单项池化。
4.如权利要求2或3所述的目标识别方法,其特征在于,通过预设神经网络对所述图像信息进行识别,获得识别结果还包括:
对最后一个瓶颈结构输出的特征图依次利用池化层、全卷积层和Softmax层进行处理,获得识别结果。
5.一种目标识别装置,其特征在于,包括:
输入单元,用于获取待识别目标的图像信息和伺服信息;
处理单元,用于通过预设神经网络对所述图像信息进行识别,获得识别结果,以及,根据所述伺服信息确定目标类别;
判定单元,用于基于所述目标类别和所述识别结果进行融合判定,以完成目标的识别;
在获得识别结果之后,还包括:
根据所述识别结果的置信度的大小对识别结果进行排序,获得排序结果;
判定单元具体用于:
基于所述排序结果依次对所述目标类别进行匹配,获得匹配信息;
将所述匹配信息与预设阈值进行比对,获得比对结果;
基于所述比对结果对所述待识别目标进行标记,以完成目标的识别;
所述处理单元具体用于:
利用改进的MobileNetV2网络对所述图像信息进行识别,其中所述改进的MobileNetV2网络包含顺次连接的若干个瓶颈结构,并且在输出特征图大小一致的瓶颈结构之间设置密集连接,以进行特征图拼接;
所述处理单元具体还用于:
在所述顺次连接的若干个瓶颈结构的预设位置,配置一个扩张系数t=1,步长s=1的瓶颈结构和一个t=1,s=2的瓶颈结构的组合结构,以完成输出通道数的局部缩小,其中所述改进的MobileNetV2网络所述组合结构之后的指定位置仅使用一个s=2的瓶颈结构进行通道数的缩减,在所述组合结构与仅使用一个s=2的瓶颈结构之间、以及仅使用一个s=2的瓶颈结构之后的位置减小扩张系数t。
6.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4中任一项所述的目标识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110607735.0A CN113591539B (zh) | 2021-06-01 | 2021-06-01 | 一种目标识别方法、装置及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110607735.0A CN113591539B (zh) | 2021-06-01 | 2021-06-01 | 一种目标识别方法、装置及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113591539A CN113591539A (zh) | 2021-11-02 |
CN113591539B true CN113591539B (zh) | 2024-04-16 |
Family
ID=78243307
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110607735.0A Active CN113591539B (zh) | 2021-06-01 | 2021-06-01 | 一种目标识别方法、装置及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113591539B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109800795A (zh) * | 2018-12-29 | 2019-05-24 | 广州市贺氏办公设备有限公司 | 一种果蔬识别方法及系统 |
CN111340097A (zh) * | 2020-02-24 | 2020-06-26 | Oppo广东移动通信有限公司 | 图像细粒度分类方法、装置、存储介质及设备 |
CN111368893A (zh) * | 2020-02-27 | 2020-07-03 | Oppo广东移动通信有限公司 | 图像识别方法、装置、电子设备及存储介质 |
CN111524112A (zh) * | 2020-04-17 | 2020-08-11 | 中冶赛迪重庆信息技术有限公司 | 追钢识别方法、系统、设备及介质 |
CN112036455A (zh) * | 2020-08-19 | 2020-12-04 | 浙江大华技术股份有限公司 | 一种图像识别方法、智能终端和存储介质 |
WO2021000829A1 (zh) * | 2019-07-03 | 2021-01-07 | 平安科技(深圳)有限公司 | 多维度身份信息识别方法、装置、计算机设备及存储介质 |
CN112633064A (zh) * | 2020-11-19 | 2021-04-09 | 深圳市银星智能科技股份有限公司 | 一种场景识别方法和电子设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102576157B1 (ko) * | 2019-02-22 | 2023-09-07 | 한국전자통신연구원 | 인공 신경망을 이용한 고속 객체 검출 방법 및 장치 |
-
2021
- 2021-06-01 CN CN202110607735.0A patent/CN113591539B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109800795A (zh) * | 2018-12-29 | 2019-05-24 | 广州市贺氏办公设备有限公司 | 一种果蔬识别方法及系统 |
WO2021000829A1 (zh) * | 2019-07-03 | 2021-01-07 | 平安科技(深圳)有限公司 | 多维度身份信息识别方法、装置、计算机设备及存储介质 |
CN111340097A (zh) * | 2020-02-24 | 2020-06-26 | Oppo广东移动通信有限公司 | 图像细粒度分类方法、装置、存储介质及设备 |
CN111368893A (zh) * | 2020-02-27 | 2020-07-03 | Oppo广东移动通信有限公司 | 图像识别方法、装置、电子设备及存储介质 |
CN111524112A (zh) * | 2020-04-17 | 2020-08-11 | 中冶赛迪重庆信息技术有限公司 | 追钢识别方法、系统、设备及介质 |
CN112036455A (zh) * | 2020-08-19 | 2020-12-04 | 浙江大华技术股份有限公司 | 一种图像识别方法、智能终端和存储介质 |
CN112633064A (zh) * | 2020-11-19 | 2021-04-09 | 深圳市银星智能科技股份有限公司 | 一种场景识别方法和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113591539A (zh) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022083784A1 (zh) | 一种基于车联网的道路检测方法 | |
JP6853560B2 (ja) | 高精度イメージを分析するディープラーニングネットワークの学習に利用するためのトレーニングイメージをオートラベリングするための方法、及びこれを利用したオートラベリング装置{method for auto−labeling training images for use in deep learning network to analyze images with high precision, and auto−labeling device using the same} | |
CN108764164B (zh) | 一种基于可变形卷积网络的人脸检测方法及系统 | |
CN110348384B (zh) | 一种基于特征融合的小目标车辆属性识别方法 | |
KR20200047307A (ko) | 유용한 학습 데이터를 취사 선별하기 위한 cnn 기반 학습 방법 및 학습 장치 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
CN111461209B (zh) | 一种模型训练装置和方法 | |
KR20200091319A (ko) | 레인 마스크(Lane Mask)를 사용하여 후처리 없이 입력 이미지에 포함된 하나 이상의 차선을 검출하는 방법 및 장치, 그리고 이를 이용한 테스트 방법 및 테스트 장치 | |
CN110378210B (zh) | 一种基于轻量化YOLOv3的车辆和车牌检测及长短焦融合测距方法 | |
KR102301631B1 (ko) | 협업 주행을 수행하는 자동차들로부터 획득된 주행 이미지들을 통합하는 방법 및 이를 이용한 주행 이미지 통합 장치 | |
JP2020061141A (ja) | R−cnn基盤の物体検出器の学習方法とテスト方法、及びそれを利用した学習装置とテスト装置 | |
CN112464912B (zh) | 基于YOLO-RGGNet的机器人端人脸检测方法 | |
CN111507983B (zh) | 利用周边汽车的图像自动标注基础汽车的图像的方法及装置 | |
CN112417973A (zh) | 一种基于车联网的无人驾驶系统 | |
CN112307978A (zh) | 目标检测方法、装置、电子设备及可读存储介质 | |
CN112926461B (zh) | 神经网络训练、行驶控制方法及装置 | |
CN114842449A (zh) | 目标检测方法、电子设备、介质及车辆 | |
CN115512175A (zh) | 模型训练、点云数据处理方法、装置、设备及存储介质 | |
CN112395953A (zh) | 一种道面异物检测系统 | |
CN117456480B (zh) | 一种基于多源信息融合的轻量化车辆再辨识方法 | |
CN113591539B (zh) | 一种目标识别方法、装置及可读存储介质 | |
CN112529917A (zh) | 一种三维目标分割方法、装置、设备和存储介质 | |
CN112288702A (zh) | 一种基于车联网的道路图像检测方法 | |
CN115861595A (zh) | 一种基于深度学习的多尺度域自适应异源图像匹配方法 | |
CN115937520A (zh) | 基于语义信息引导的点云运动目标分割方法 | |
CN111507154B (zh) | 使用横向滤波器掩膜来检测车道线元素的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |