CN116452667A - 一种基于图像处理的目标识别与定位方法 - Google Patents

一种基于图像处理的目标识别与定位方法 Download PDF

Info

Publication number
CN116452667A
CN116452667A CN202310714118.XA CN202310714118A CN116452667A CN 116452667 A CN116452667 A CN 116452667A CN 202310714118 A CN202310714118 A CN 202310714118A CN 116452667 A CN116452667 A CN 116452667A
Authority
CN
China
Prior art keywords
extraction unit
pixel
input end
target
output end
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310714118.XA
Other languages
English (en)
Other versions
CN116452667B (zh
Inventor
张欣
李虹霖
王强
梁天德
顾良松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Realtime Technology Co ltd
Original Assignee
Chengdu Realtime Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Realtime Technology Co ltd filed Critical Chengdu Realtime Technology Co ltd
Priority to CN202310714118.XA priority Critical patent/CN116452667B/zh
Publication of CN116452667A publication Critical patent/CN116452667A/zh
Application granted granted Critical
Publication of CN116452667B publication Critical patent/CN116452667B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明提供了一种基于图像处理的目标识别与定位方法,属于图像处理技术领域,本发明先对图像提取轮廓,一方面减少图像数据,另一方面凸显图像特征,采用滑动窗口对轮廓图像进行扫描,即每个扫描区域对应一个图像区域,提取每一个图像区域的图像特征值,计算图像特征值与目标特征值的相似度,从而找到疑似目标区域,进一步地降低图像数据量,再通过目标识别定位模型对疑似目标区域对应的图像轮廓进行处理,得到目标定位数据。本发明通过不断降低数据量,且找到疑似目标区域,将疑似目标区域对应的图像数据输入到目标识别定位模型中进行处理,提高目标识别与定位精度。

Description

一种基于图像处理的目标识别与定位方法
技术领域
本发明涉及图像处理技术领域,具体而言,涉及一种基于图像处理的目标识别与定位方法。
背景技术
深度学习广泛应用于图像领域,用于对图像提取特征,以及图像上的目标识别与定位。现有图像上的目标识别与定位方法主要采用YOLO神经网络,YOLO神经网络包括:YOLOv1、YOLOv2、YOLOv3、YOLOv4、YOLOv5、YOLOv6和YOLOv7。YOLO神经网络均是直接对原始图像进行处理,由于图像数据庞大,且大多数图像数据不存在目标,采用YOLO神经网络直接进行图像的目标识别与定位,存在图像数据庞大,目标识别与定位精度不高的问题。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于图像处理的目标识别与定位方法解决了现有目标识别与定位方法存在目标识别与定位精度不高的问题。
为了达到上述发明目的,本发明采用的技术方案为:一种基于图像处理的目标识别与定位方法,包括:
S1、对图像提取轮廓,得到轮廓图像;
S2、采用滑动窗口对轮廓图像进行扫描,并对扫描到的区域计算图像特征;
S3、计算图像特征值与目标特征值的相似度;
S4、在相似度高于阈值时,当前滑动窗口所在图像区域存在疑似目标,将存在疑似目标的区域作为疑似目标区域;
S5、采用训练好的目标识别定位模型,对疑似目标区域对应的图像轮廓进行识别,得到目标定位数据。
进一步地,所述S2中滑动窗口的长为,宽为/>,其中,,/>,/>为目标区域的横向最远左像素点的横坐标,/>为目标区域的横向最远左像素点的纵坐标,/>为目标区域的横向最远右像素点的横坐标,/>为目标区域的横向最远右像素点的纵坐标,/>为目标区域的纵向最远上像素点的横坐标,/>为目标区域的纵向最远上像素点的纵坐标,为目标区域的纵向最远下像素点的横坐标,/>为目标区域的纵向最远下像素点的纵坐标,左像素点和右像素点为横向上距离最远的一对像素点,上像素点和下像素点为纵向上距离最远的一对像素点。
上述进一步地方案的有益效果为:本发明中的目标区域为历史图像中的目标,根据目标区域的大小,设定滑动窗口的大小,使得滑动窗口在不断滑动过程中,能在找到相似度较高区域时,在该区域附近滑动,能框住图像中的目标。相似度越高,表示滑动窗口框住的当前轮廓图像中的目标区域越多,将高于阈值的图像区域筛选出来,找到存在疑似目标的区域,从而达到进一步的精简特征,但却不丢失有效信息的作用。
进一步地,所述S3中图像特征值包括:像素子特征值和位置分布子特征值。
进一步地,所述像素子特征值的计算公式为:
其中,为像素子特征值,/>为扫描区域上的第/>个像素点的像素值,/>为扫描区域中心像素点像素值,/>为扫描区域中心像素点的邻域范围内第/>个像素点像素值,/>为扫描区域中心像素点的邻域范围内像素点的数量,/>为扫描区域中像素点的数量,/>为激活函数。
进一步地,所述位置分布子特征值的计算公式为:
其中,为位置分布子特征值,/>为扫描区域上的第/>个像素点的横坐标,/>为扫描区域上的第/>个像素点的纵坐标,/>为扫描区域中心像素点的横坐标,/>为扫描区域中心像素点的纵坐标,/>为扫描区域中像素点的数量,/>为激活函数。
上述进一步地方案的有益效果为:本发明通过像素值分布和像素点的位置分布情况表征图像特征值,本发明以中心像素值和临近像素值作为中心像素点的像素值,减少中心像素点为噪点,从而影响整体的计算结果,以其他像素点距离中心像素值的距离,表征像素值分布情况;本发明通过各像素点的坐标与中心像素点的坐标的距离,表征像素点位置的分布情况。
进一步地,所述计算图像特征值与目标特征值的相似度的公式为:
其中,为相似度,/>为图像特征值中像素子特征值,/>为图像特征值中位置分布子特征值,/>为目标特征值中像素子特征值,/>为目标特征值中位置分布子特征值。
上述进一步地方案的有益效果为:本发明根据图像特征值中一对量与目标特征值中一对量,从而计算出两个维度的相似度。
进一步地,所述S5中目标识别定位模型包括:第一特征提取单元、第二特征提取单元、第一Concat层、第一平均池化层、第二平均池化层、第三特征提取单元、第四特征提取单元、第二Concat层和YOLO神经网络模型;
所述第一特征提取单元的输入端与第二特征提取单元的输入端连接,并作为目标识别定位模型的输入端;所述第一特征提取单元的输出端分别与第一Concat层的输入端和第一平均池化层的输入端连接;所述第二特征提取单元的输出端分别与第一Concat层的输入端和第二平均池化层的输入端连接;所述第一平均池化层的输出端与第三特征提取单元的输入端连接;所述第二平均池化层的输出端与第四特征提取单元的输入端连接;所述第二Concat层的输入端分别与第一Concat层的输出端、第三特征提取单元的输出端和第四特征提取单元的输出端连接,其输出端与YOLO神经网络模型的输入端连接;所述YOLO神经网络模型的输出端作为目标识别定位模型的输出端。
上述进一步地方案的有益效果为:本发明在第一特征提取单元和第二特征提取单元输出端设置第一Concat层,通过第一Concat层将第一特征提取单元和第二特征提取单元输出的特征进行收集,再在第三特征提取单元和第四特征提取单元的输出端设置第二Concat层,将第一Concat层的特征,第三特征提取单元和第四特征提取单元输出的特征进行收集,一方面通过多个特征提取单元对显著特征进行提取,同时也保留下其他非显著特征,最终将特征汇集后输入YOLO神经网络,提高YOLO神经网络提取目标数据的精度。
进一步地,所述第一特征提取单元和第四特征提取单元结构相同,均包括:第一卷积层、第二卷积层、第三卷积层和加法器;
所述第一卷积层的输入端与第二卷积层的输入端连接,并作为第一特征提取单元或第四特征提取单元的输入端;所述第二卷积层的输出端与第三卷积层的输入端连接;所述加法器的输入端分别与第一卷积层的输出端和第三卷积层的输出端连接,其输出端作为第一特征提取单元或第四特征提取单元的输出端。
进一步地,所述第二特征提取单元和第三特征提取单元结构相同,均包括:第四卷积层、第五卷积层、第六卷积层和乘法器;
所述第四卷积层的输入端与第五卷积层的输入端连接,其作为第二特征提取单元或第三特征提取单元的输入端;所述乘法器的输入端分别与第四卷积层的输出端和第五卷积层的输出端连接,其输出端与第六卷积层的输入端连接;所述第六卷积层的输出端作为第二特征提取单元或第三特征提取单元的输出端。
上述进一步地方案的有益效果为:本发明第二特征提取单元和第三特征提取单元结构相同,第一特征提取单元和第四特征提取单元结构相同,因此,将本发明的目标识别定位模型分成左右两部分来看,本发明中每种特征提取单元交错出现,按不同特征提取方式挖掘特征数据,丰富特征数据。
进一步地,所述目标识别定位模型的损失函数为:
其中,为损失函数,/>为目标定位数据中像素点的数量,/>为标签定位数据中像素点的数量,/>为目标定位数据的像素特征值,/>为标签定位数据的像素特征值,/>为目标定位数据中第/>个像素点的像素值,/>为目标定位数据中像素点的数量。
上述进一步地方案的有益效果为:本发明在采用目标识别定位模型时,重点考虑目标识别定位模型提取到的目标定位数据中像素点是否达到标签设定的像素点的数量,以及提取到的目标定位数据中像素点的像素值的分布是否与标签设定的像素值分布一致,在两者都相差较近时,损失函数计算的损失值较小,模型训练达到较优。
本发明实施例的技术方案至少具有如下优点和有益效果:
本发明先对图像提取轮廓,一方面减少图像数据,另一方面凸显图像特征,采用滑动窗口对轮廓图像进行扫描,即每个扫描区域对应一个图像区域,提取每一个图像区域的图像特征值,计算图像特征值与目标特征值的相似度,从而找到疑似目标区域,进一步地降低图像数据量,再通过目标识别定位模型对疑似目标区域对应的图像轮廓进行处理,得到目标定位数据。本发明通过不断降低数据量,且找到疑似目标区域,将疑似目标区域对应的图像数据输入到目标识别定位模型中进行处理,提高目标识别与定位精度。
附图说明
图1为一种基于图像处理的目标识别与定位方法的流程图;
图2为目标识别定位模型的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
如图1所示,一种基于图像处理的目标识别与定位方法,包括:
S1、对图像提取轮廓,得到轮廓图像;
S2、采用滑动窗口对轮廓图像进行扫描,并对扫描到的区域计算图像特征;
所述S2中滑动窗口的长为,宽为/>,其中,/>,/>为目标区域的横向最远左像素点的横坐标,/>为目标区域的横向最远左像素点的纵坐标,/>为目标区域的横向最远右像素点的横坐标,/>为目标区域的横向最远右像素点的纵坐标,/>为目标区域的纵向最远上像素点的横坐标,/>为目标区域的纵向最远上像素点的纵坐标,/>为目标区域的纵向最远下像素点的横坐标,/>为目标区域的纵向最远下像素点的纵坐标,左像素点和右像素点为横向上距离最远的一对像素点,上像素点和下像素点为纵向上距离最远的一对像素点。
本发明中的目标区域为历史图像中的目标,根据目标区域的大小,设定滑动窗口的大小,使得滑动窗口在不断滑动过程中,能在找到相似度较高区域时,在该区域附近滑动,能框住图像中的目标。相似度越高,表示滑动窗口框住的当前轮廓图像中的目标区域越多,将高于阈值的图像区域筛选出来,找到存在疑似目标的区域,从而达到进一步的精简特征,但却不丢失有效信息的作用。
本发明中,由于本发明滑动窗口与目标区域大小一致,因此,在找到相似度高于阈值的区域时,可在该区域附近多次滑动,找到相似度最大的区域,将相似度最大的区域作为疑似目标区域,能进一步地提高目标提取精度。
S3、计算图像特征值与目标特征值的相似度;
所述S3中图像特征值包括:像素子特征值和位置分布子特征值。
所述像素子特征值的计算公式为:
其中,为像素子特征值,/>为扫描区域上的第/>个像素点的像素值,/>为扫描区域中心像素点像素值,/>为扫描区域中心像素点的邻域范围内第/>个像素点像素值,/>为扫描区域中心像素点的邻域范围内像素点的数量,/>为扫描区域中像素点的数量,/>为激活函数。
所述位置分布子特征值的计算公式为:
其中,为位置分布子特征值,/>为扫描区域上的第/>个像素点的横坐标,/>为扫描区域上的第/>个像素点的纵坐标,/>为扫描区域中心像素点的横坐标,/>为扫描区域中心像素点的纵坐标,/>为扫描区域中像素点的数量,/>为激活函数。
本发明通过像素值分布和像素点的位置分布情况表征图像特征值,本发明以中心像素值和临近像素值作为中心像素点的像素值,减少中心像素点为噪点,从而影响整体的计算结果,以其他像素点距离中心像素值的距离,表征像素值分布情况;本发明通过各像素点的坐标与中心像素点的坐标的距离,表征像素点位置的分布情况。
所述计算图像特征值与目标特征值的相似度的公式为:
其中,为相似度,/>为图像特征值中像素子特征值,/>为图像特征值中位置分布子特征值,/>为目标特征值中像素子特征值,/>为目标特征值中位置分布子特征值。
在本实施例中,为提前根据目标的成像轮廓按本发明所在记载的/>的计算方法计算得到,/>为提前根据目标的成像轮廓按本发明所在记载的/>的计算方法计算得到。
本发明根据图像特征值中一对量与目标特征值中一对量,从而计算出两个维度的相似度。
S4、在相似度高于阈值时,当前滑动窗口所在图像区域存在疑似目标,将存在疑似目标的区域作为疑似目标区域;
S5、采用训练好的目标识别定位模型,对疑似目标区域对应的图像轮廓进行识别,得到目标定位数据。
如图2所示,所述S5中目标识别定位模型包括:第一特征提取单元、第二特征提取单元、第一Concat层、第一平均池化层、第二平均池化层、第三特征提取单元、第四特征提取单元、第二Concat层和YOLO神经网络模型;
所述第一特征提取单元的输入端与第二特征提取单元的输入端连接,并作为目标识别定位模型的输入端;所述第一特征提取单元的输出端分别与第一Concat层的输入端和第一平均池化层的输入端连接;所述第二特征提取单元的输出端分别与第一Concat层的输入端和第二平均池化层的输入端连接;所述第一平均池化层的输出端与第三特征提取单元的输入端连接;所述第二平均池化层的输出端与第四特征提取单元的输入端连接;所述第二Concat层的输入端分别与第一Concat层的输出端、第三特征提取单元的输出端和第四特征提取单元的输出端连接,其输出端与YOLO神经网络模型的输入端连接;所述YOLO神经网络模型的输出端作为目标识别定位模型的输出端。
本发明在第一特征提取单元和第二特征提取单元输出端设置第一Concat层,通过第一Concat层将第一特征提取单元和第二特征提取单元输出的特征进行收集,再在第三特征提取单元和第四特征提取单元的输出端设置第二Concat层,将第一Concat层的特征,第三特征提取单元和第四特征提取单元输出的特征进行收集,一方面通过多个特征提取单元对显著特征进行提取,同时也保留下其他非显著特征,最终将特征汇集后输入YOLO神经网络,提高YOLO神经网络提取目标数据的精度。
所述第一特征提取单元和第四特征提取单元结构相同,均包括:第一卷积层、第二卷积层、第三卷积层和加法器;
所述第一卷积层的输入端与第二卷积层的输入端连接,并作为第一特征提取单元或第四特征提取单元的输入端;所述第二卷积层的输出端与第三卷积层的输入端连接;所述加法器的输入端分别与第一卷积层的输出端和第三卷积层的输出端连接,其输出端作为第一特征提取单元或第四特征提取单元的输出端。
所述第二特征提取单元和第三特征提取单元结构相同,均包括:第四卷积层、第五卷积层、第六卷积层和乘法器;
所述第四卷积层的输入端与第五卷积层的输入端连接,其作为第二特征提取单元或第三特征提取单元的输入端;所述乘法器的输入端分别与第四卷积层的输出端和第五卷积层的输出端连接,其输出端与第六卷积层的输入端连接;所述第六卷积层的输出端作为第二特征提取单元或第三特征提取单元的输出端。
本发明第二特征提取单元和第三特征提取单元结构相同,第一特征提取单元和第四特征提取单元结构相同,因此,将本发明的目标识别定位模型分成左右两部分来看,本发明中每种特征提取单元交错出现,按不同特征提取方式挖掘特征数据,丰富特征数据。
所述目标识别定位模型的损失函数为:
其中,为损失函数,/>为目标定位数据中像素点的数量,/>为标签定位数据中像素点的数量,/>为目标定位数据的像素特征值,/>为标签定位数据的像素特征值,/>为目标定位数据中第/>个像素点的像素值,/>为目标定位数据中像素点的数量。
在本实施例中,标签定位数据的像素特征值为根据标签定位数据按/>的计算方法计算得到。
本发明在采用目标识别定位模型时,重点考虑目标识别定位模型提取到的目标定位数据中像素点是否达到标签设定的像素点的数量,以及提取到的目标定位数据中像素点的像素值的分布是否与标签设定的像素值分布一致,在两者都相差较近时,损失函数计算的损失值较小,模型训练达到较优。
本发明实施例的技术方案至少具有如下优点和有益效果:
本发明先对图像提取轮廓,一方面减少图像数据,另一方面凸显图像特征,采用滑动窗口对轮廓图像进行扫描,即每个扫描区域对应一个图像区域,提取每一个图像区域的图像特征值,计算图像特征值与目标特征值的相似度,从而找到疑似目标区域,进一步地降低图像数据量,再通过目标识别定位模型对疑似目标区域对应的图像轮廓进行处理,得到目标定位数据。本发明通过不断降低数据量,且找到疑似目标区域,将疑似目标区域对应的图像数据输入到目标识别定位模型中进行处理,提高目标识别与定位精度。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于图像处理的目标识别与定位方法,其特征在于,包括:
S1、对图像提取轮廓,得到轮廓图像;
S2、采用滑动窗口对轮廓图像进行扫描,并对扫描到的区域计算图像特征;
S3、计算图像特征值与目标特征值的相似度;
S4、在相似度高于阈值时,当前滑动窗口所在图像区域存在疑似目标,将存在疑似目标的区域作为疑似目标区域;
S5、采用训练好的目标识别定位模型,对疑似目标区域对应的图像轮廓进行识别,得到目标定位数据。
2.根据权利要求1所述的基于图像处理的目标识别与定位方法,其特征在于,所述S2中滑动窗口的长为,宽为/>,其中,/>,/>为目标区域的横向最远左像素点的横坐标,/>为目标区域的横向最远左像素点的纵坐标,/>为目标区域的横向最远右像素点的横坐标,/>为目标区域的横向最远右像素点的纵坐标,/>为目标区域的纵向最远上像素点的横坐标,/>为目标区域的纵向最远上像素点的纵坐标,/>为目标区域的纵向最远下像素点的横坐标,/>为目标区域的纵向最远下像素点的纵坐标,左像素点和右像素点为横向上距离最远的一对像素点,上像素点和下像素点为纵向上距离最远的一对像素点。
3.根据权利要求1所述的基于图像处理的目标识别与定位方法,其特征在于,所述S3中图像特征值包括:像素子特征值和位置分布子特征值。
4.根据权利要求3所述的基于图像处理的目标识别与定位方法,其特征在于,所述像素子特征值的计算公式为:
其中,为像素子特征值,/>为扫描区域上的第/>个像素点的像素值,/>为扫描区域中心像素点像素值,/>为扫描区域中心像素点的邻域范围内第/>个像素点像素值,/>为扫描区域中心像素点的邻域范围内像素点的数量,/>为扫描区域中像素点的数量,/>为激活函数。
5.根据权利要求3所述的基于图像处理的目标识别与定位方法,其特征在于,所述位置分布子特征值的计算公式为:
其中,为位置分布子特征值,/>为扫描区域上的第/>个像素点的横坐标,/>为扫描区域上的第/>个像素点的纵坐标,/>为扫描区域中心像素点的横坐标,/>为扫描区域中心像素点的纵坐标,/>为扫描区域中像素点的数量,/>为激活函数。
6.根据权利要求3所述的基于图像处理的目标识别与定位方法,其特征在于,所述计算图像特征值与目标特征值的相似度的公式为:
其中,为相似度,/>为图像特征值中像素子特征值,/>为图像特征值中位置分布子特征值,/>为目标特征值中像素子特征值,/>为目标特征值中位置分布子特征值。
7.根据权利要求1所述的基于图像处理的目标识别与定位方法,其特征在于,所述S5中目标识别定位模型包括:第一特征提取单元、第二特征提取单元、第一Concat层、第一平均池化层、第二平均池化层、第三特征提取单元、第四特征提取单元、第二Concat层和YOLO神经网络模型;
所述第一特征提取单元的输入端与第二特征提取单元的输入端连接,并作为目标识别定位模型的输入端;所述第一特征提取单元的输出端分别与第一Concat层的输入端和第一平均池化层的输入端连接;所述第二特征提取单元的输出端分别与第一Concat层的输入端和第二平均池化层的输入端连接;所述第一平均池化层的输出端与第三特征提取单元的输入端连接;所述第二平均池化层的输出端与第四特征提取单元的输入端连接;所述第二Concat层的输入端分别与第一Concat层的输出端、第三特征提取单元的输出端和第四特征提取单元的输出端连接,其输出端与YOLO神经网络模型的输入端连接;所述YOLO神经网络模型的输出端作为目标识别定位模型的输出端。
8.根据权利要求7所述的基于图像处理的目标识别与定位方法,其特征在于,所述第一特征提取单元和第四特征提取单元结构相同,均包括:第一卷积层、第二卷积层、第三卷积层和加法器;
所述第一卷积层的输入端与第二卷积层的输入端连接,并作为第一特征提取单元或第四特征提取单元的输入端;所述第二卷积层的输出端与第三卷积层的输入端连接;所述加法器的输入端分别与第一卷积层的输出端和第三卷积层的输出端连接,其输出端作为第一特征提取单元或第四特征提取单元的输出端。
9.根据权利要求7所述的基于图像处理的目标识别与定位方法,其特征在于,所述第二特征提取单元和第三特征提取单元结构相同,均包括:第四卷积层、第五卷积层、第六卷积层和乘法器;
所述第四卷积层的输入端与第五卷积层的输入端连接,其作为第二特征提取单元或第三特征提取单元的输入端;所述乘法器的输入端分别与第四卷积层的输出端和第五卷积层的输出端连接,其输出端与第六卷积层的输入端连接;所述第六卷积层的输出端作为第二特征提取单元或第三特征提取单元的输出端。
10.根据权利要求1所述的基于图像处理的目标识别与定位方法,其特征在于,所述目标识别定位模型的损失函数为:
其中,为损失函数,/>为目标定位数据中像素点的数量,/>为标签定位数据中像素点的数量,/>为目标定位数据的像素特征值,/>为标签定位数据的像素特征值,/>为目标定位数据中第/>个像素点的像素值,/>为目标定位数据中像素点的数量。
CN202310714118.XA 2023-06-16 2023-06-16 一种基于图像处理的目标识别与定位方法 Active CN116452667B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310714118.XA CN116452667B (zh) 2023-06-16 2023-06-16 一种基于图像处理的目标识别与定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310714118.XA CN116452667B (zh) 2023-06-16 2023-06-16 一种基于图像处理的目标识别与定位方法

Publications (2)

Publication Number Publication Date
CN116452667A true CN116452667A (zh) 2023-07-18
CN116452667B CN116452667B (zh) 2023-08-22

Family

ID=87134187

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310714118.XA Active CN116452667B (zh) 2023-06-16 2023-06-16 一种基于图像处理的目标识别与定位方法

Country Status (1)

Country Link
CN (1) CN116452667B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117036923A (zh) * 2023-10-08 2023-11-10 广东海洋大学 一种基于机器视觉的水下机器人目标检测方法
CN117557873A (zh) * 2024-01-12 2024-02-13 四川高速公路建设开发集团有限公司 一种基于图像识别的隧道掌子面裂隙识别方法

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104156729A (zh) * 2014-07-21 2014-11-19 武汉理工大学 一种教室人数统计方法
CN105760842A (zh) * 2016-02-26 2016-07-13 北京大学 一种基于边缘和纹理特征结合的台标识别方法
CN107330435A (zh) * 2017-06-08 2017-11-07 国网青海省电力公司检修公司 一种变电站设备目标实时检测方法
CN107958255A (zh) * 2017-11-21 2018-04-24 中国科学院微电子研究所 一种基于图像的目标检测方法及装置
CN108121991A (zh) * 2018-01-06 2018-06-05 北京航空航天大学 一种基于边缘候选区域提取的深度学习舰船目标检测方法
CN111160335A (zh) * 2020-01-02 2020-05-15 腾讯科技(深圳)有限公司 基于人工智能的图像水印处理方法、装置及电子设备
CN113536963A (zh) * 2021-06-25 2021-10-22 西安电子科技大学 基于轻量化yolo网络的sar图像飞机目标检测方法
CN114359998A (zh) * 2021-12-06 2022-04-15 江苏理工学院 一种人脸口罩佩戴状态下的识别方法
CN114387588A (zh) * 2020-10-16 2022-04-22 北京澎思科技有限公司 一种字符识别方法、装置、电子设备及存储介质
CN114463701A (zh) * 2022-04-14 2022-05-10 华南农业大学 一种基于多源大数据动物养殖数据挖掘的监测预警系统
CN114663714A (zh) * 2022-05-23 2022-06-24 阿里巴巴(中国)有限公司 图像分类、地物分类方法和装置
US20220207868A1 (en) * 2020-12-29 2022-06-30 Tsinghua University All-weather target detection method based on vision and millimeter wave fusion
WO2022148192A1 (zh) * 2021-01-07 2022-07-14 新东方教育科技集团有限公司 图像处理方法、图像处理装置以及非瞬时性存储介质
US20220237901A1 (en) * 2021-01-27 2022-07-28 Boe Technology Group Co., Ltd. Method for generating image label, and device
CN115114466A (zh) * 2022-08-30 2022-09-27 成都实时技术股份有限公司 一种打靶信息图像的查找方法、系统、介质及电子设备
CN115526852A (zh) * 2022-09-21 2022-12-27 中国科学院合肥物质科学研究院 基于目标检测的选区激光熔融过程中熔池与飞溅监测方法及应用
CN115661704A (zh) * 2022-10-18 2023-01-31 吉林大学 一种对于矿山挖掘环境的多目标检测方法
CN116188585A (zh) * 2023-04-24 2023-05-30 成都垣景科技有限公司 一种基于无人机摄影测量的山区光伏目标定位方法

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104156729A (zh) * 2014-07-21 2014-11-19 武汉理工大学 一种教室人数统计方法
CN105760842A (zh) * 2016-02-26 2016-07-13 北京大学 一种基于边缘和纹理特征结合的台标识别方法
CN107330435A (zh) * 2017-06-08 2017-11-07 国网青海省电力公司检修公司 一种变电站设备目标实时检测方法
CN107958255A (zh) * 2017-11-21 2018-04-24 中国科学院微电子研究所 一种基于图像的目标检测方法及装置
CN108121991A (zh) * 2018-01-06 2018-06-05 北京航空航天大学 一种基于边缘候选区域提取的深度学习舰船目标检测方法
CN111160335A (zh) * 2020-01-02 2020-05-15 腾讯科技(深圳)有限公司 基于人工智能的图像水印处理方法、装置及电子设备
CN114387588A (zh) * 2020-10-16 2022-04-22 北京澎思科技有限公司 一种字符识别方法、装置、电子设备及存储介质
US20220207868A1 (en) * 2020-12-29 2022-06-30 Tsinghua University All-weather target detection method based on vision and millimeter wave fusion
WO2022148192A1 (zh) * 2021-01-07 2022-07-14 新东方教育科技集团有限公司 图像处理方法、图像处理装置以及非瞬时性存储介质
US20220237901A1 (en) * 2021-01-27 2022-07-28 Boe Technology Group Co., Ltd. Method for generating image label, and device
CN113536963A (zh) * 2021-06-25 2021-10-22 西安电子科技大学 基于轻量化yolo网络的sar图像飞机目标检测方法
CN114359998A (zh) * 2021-12-06 2022-04-15 江苏理工学院 一种人脸口罩佩戴状态下的识别方法
CN114463701A (zh) * 2022-04-14 2022-05-10 华南农业大学 一种基于多源大数据动物养殖数据挖掘的监测预警系统
CN114663714A (zh) * 2022-05-23 2022-06-24 阿里巴巴(中国)有限公司 图像分类、地物分类方法和装置
CN115114466A (zh) * 2022-08-30 2022-09-27 成都实时技术股份有限公司 一种打靶信息图像的查找方法、系统、介质及电子设备
CN115526852A (zh) * 2022-09-21 2022-12-27 中国科学院合肥物质科学研究院 基于目标检测的选区激光熔融过程中熔池与飞溅监测方法及应用
CN115661704A (zh) * 2022-10-18 2023-01-31 吉林大学 一种对于矿山挖掘环境的多目标检测方法
CN116188585A (zh) * 2023-04-24 2023-05-30 成都垣景科技有限公司 一种基于无人机摄影测量的山区光伏目标定位方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
BAO DENG 等: "Survey of Target Detection Based on Neural Network", 《JOURNAL OF PHYSICS: CONFERENCE SERIES》, pages 1 - 7 *
YUEHUAN WANG 等: "Small target detection using edge-preserving background estimation based on maximum patch similarity", 《INTERNATIONAL JOURNAL OF ADVANCED ROBOTIC SYSTEMS》, pages 1 - 11 *
张瑶: "基于多特征融合的图像显著性检测方法研究及应用", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 09, pages 138 - 594 *
王春哲: "基于候选区域目标检测的关键技术研究", 《中国博士学位论文全文数据库 信息科技辑》, no. 06, pages 138 - 73 *
陈英 等: "医学图像分割算法的损失函数综述", 《生物医学工程学杂志》, vol. 40, no. 2, pages 392 - 400 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117036923A (zh) * 2023-10-08 2023-11-10 广东海洋大学 一种基于机器视觉的水下机器人目标检测方法
CN117036923B (zh) * 2023-10-08 2023-12-08 广东海洋大学 一种基于机器视觉的水下机器人目标检测方法
CN117557873A (zh) * 2024-01-12 2024-02-13 四川高速公路建设开发集团有限公司 一种基于图像识别的隧道掌子面裂隙识别方法
CN117557873B (zh) * 2024-01-12 2024-04-05 四川高速公路建设开发集团有限公司 一种基于图像识别的隧道掌子面裂隙识别方法

Also Published As

Publication number Publication date
CN116452667B (zh) 2023-08-22

Similar Documents

Publication Publication Date Title
CN116452667B (zh) 一种基于图像处理的目标识别与定位方法
CN109800629B (zh) 一种基于卷积神经网络的遥感图像目标检测方法
CN108388896B (zh) 一种基于动态时序卷积神经网络的车牌识别方法
CN113160192B (zh) 复杂背景下基于视觉的压雪车外观缺陷检测方法及装置
CN109657632B (zh) 一种车道线检测识别方法
CN103049763B (zh) 一种基于上下文约束的目标识别方法
CN109145872B (zh) 一种基于CFAR与Fast-RCNN融合的SAR图像舰船目标检测方法
CN107563379B (zh) 用于对自然场景图像中文本的定位方法
CN110070545B (zh) 一种城镇纹理特征密度自动提取城镇建成区的方法
CN107992856B (zh) 城市场景下的高分遥感建筑物阴影检测方法
CN113370977B (zh) 一种基于视觉的智能车辆前向碰撞预警方法及系统
CN110427979B (zh) 基于K-Means聚类算法的道路水坑识别方法
CN110751619A (zh) 一种绝缘子缺陷检测方法
Küçükmanisa et al. Real-time illumination and shadow invariant lane detection on mobile platform
CN110472632B (zh) 基于字符特征的字符分割方法、装置及计算机存储介质
CN115527133A (zh) 一种基于目标密度信息的高分图像背景优化方法
Gu et al. Vision-based multi-scaled vehicle detection and distance relevant mix tracking for driver assistance system
CN109961065B (zh) 一种海面舰船目标检测方法
Han et al. Accurate and robust vanishing point detection method in unstructured road scenes
CN113780421B (zh) 基于人工智能的脑部pet影像识别方法
CN115909401A (zh) 融合深度学习的牛脸识别方法、装置、电子设备和介质
CN113657225B (zh) 一种目标检测方法
CN115760898A (zh) 一种混合高斯域下道路抛洒物的世界坐标定位方法
CN111986233B (zh) 基于特征自学习的大场景极小目标遥感视频跟踪方法
CN110490885B (zh) 改进的自适应阈值二值化方法及vin码字符分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant