CN116740342A - 改进YOLO v8的毫米波图像目标检测与识别方法 - Google Patents

改进YOLO v8的毫米波图像目标检测与识别方法 Download PDF

Info

Publication number
CN116740342A
CN116740342A CN202310704658.XA CN202310704658A CN116740342A CN 116740342 A CN116740342 A CN 116740342A CN 202310704658 A CN202310704658 A CN 202310704658A CN 116740342 A CN116740342 A CN 116740342A
Authority
CN
China
Prior art keywords
target
millimeter wave
image
dimensional
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310704658.XA
Other languages
English (en)
Inventor
宋裕曼
孟杨
华金铭
孙懿
杨帆行
刘笑言
胡佳峻
张玺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202310704658.XA priority Critical patent/CN116740342A/zh
Publication of CN116740342A publication Critical patent/CN116740342A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V3/00Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation
    • G01V3/12Electric or magnetic prospecting or detecting; Measuring magnetic field characteristics of the earth, e.g. declination, deviation operating with electromagnetic waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Electromagnetism (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Environmental & Geological Engineering (AREA)
  • Geology (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种改进YOLOv8的毫米波图像目标检测与识别方法,属于图像处理技术领域。该系统包括以下步骤:通过将获取的毫米波图像输入到预训练过的改进YOLOv8神经网络中;在输出层获得目标位置和类别信息,并进行目标检测与识别;根据目标信息生成相应的检测结果,包括目标类别、坐标、置信度,实现对目标的高效检测和准确识别。该系统具有检测速度快、精度高等优点。

Description

改进YOLO v8的毫米波图像目标检测与识别方法
技术领域
本发明属于图像处理技术领域,涉及改进YOLOv8的毫米波图像目标检测与识别方法。
背景技术
当前常见的毫米波目标检测方法主要是基于传统的特征提取和分类算法,其精度受限且需要大量的计算资源。同时,基于深度学习的目标检测方法在可见光图像领域已经得到广泛应用,但在毫米波图像中存在着较大差异,需要针对性地进行网络结构设计和预训练。
发明内容
有鉴于此,本发明的目的在于提供一种改进YOLOv8的毫米波图像目标检测与识别方法。
为达到上述目的,本发明提供如下技术方案:
一种改进YOLOv8的毫米波图像目标检测与识别方法,包括以下步骤:
S1:获取毫米波图像
S11:使用雷达芯片通过发射和接收低功率的调频连续(FMCW)毫米波,主动获得目标的空间位置、速度、反射强度等信息。
设置相应的毫米波雷达参数,如工作频率f、距离分辨率ΔR和方向角度θ等。根据雷达方程可计算所需的最小可检测功率Pmin
其中,Pt为发射功率;Gt和Gr分别为发射和接收天线增益;λ为波长;σ为目标雷达截面积;R为距离;L为系统损耗。
S12:使用RMA成像算法获得毫米波雷达三维成像流程如下:
S121:获取四维回波数据s(xm,xn,z,k);
S122:对四维回波数据沿扫描方向(xm,xn,k)做三维傅里叶变换,得到四维波数域;
S123:对波数域回波数据进行插值及维度转换,得到三维波数域图像重构数据;
S124:三维波数域回波数据做三维傅里叶逆变换,得到最终三维图像重构数据。
雷达板采集到的原始数据通过以太网获取原生的雷达数据,假设雷达采样位置为(x,y,0),待成像目标空间坐标为(x',y',z0),目标反射率为p(x',y'),则雷达接收到的后向散射数据为:
R表示收发天线的中心位置到目标的距离,目标到雷达的平均距离为z0。上式中R-2可以使用(z0R)-1替代,对于静止目标,z0为常数可以忽略。最终接收到的数据可以近似表示为:
球面波可认为是平面波的叠加,则:
其中:
所以,
改变积分顺序可以发现对应反射率函数的二维傅里叶变换,即FT2D[p(x,y)]=p(kx,ky),而/>又表示二维傅里叶逆变换。所以
则可以重构二维目标反射率:
S13:将预处理后的数据转换为图像格式(如PNG或JPEG),得到毫米波图像。首先对数据进行幅度和相位的计算,然后将幅度数据映射到灰度值范围(0-255),得到最终的毫米波图像。
S2:改进YOLO v8神经网络结构
S21:骨干网络替换:采用轻量级骨干网络ShuffleNet替代Darknet53。ShuffleNet网络引入了Shuffle模块,降低了计算量和参数量,提高模型效率和精度。具体地,Shuffle模块通过分组卷积和通道重排操作来减小计算量并提高特征表达能力。在分组卷积中,输入通道被分为多个组,每个组内进行独立的卷积操作,从而减少计算量。通道重排操作则是在卷积操作之后增加通道混洗,提高模型的特征表达能力。
S22:后处理算法优化:改进YOLOv8的后处理算法采用非极大值抑制(NMS)算法来对重叠的目标进行筛选,同时引入像素点修正方法,可以提高模型的准确率和鲁棒性。具体地,像素点修正方法根据图像局部梯度信息对目标框坐标进行调整,使其更接近理想边界。
S2:图像预处理与特征提取
S21:对获取到的毫米波图像进行预处理,如缩放、裁剪、颜色空间转换等操作,使其符合改进YOLO v8输入要求。例如,将图像缩放至网络所需的固定尺寸(如416×416,640×640)。
S22:将预处理后的图像输入到改进后的YOLO v8神经网络中,利用ShuffleNet骨干网络提取特征信息。基于卷积、激活和池化等操作,逐层计算网络输出。
S23:利用YOLO v8的多尺度特征融合机制,通过上采样和跳级连接等方法,将不同深度的特征图进行融合,从而增强检测性能。具体地,可以采用以下公式:
其中,F(x)为融合后的特征图;U为上采样操作;α为权重参数;Fl(x)和Fs(x)分别表示深层和浅层特征图;表示特征融合操作(如相加或拼接)。
S3:目标检测与识别
S31:将网络输出按照预定义的锚框形状进行解码,得到候选目标框和置信度。这一步通常包括计算预测边界框的中心坐标、宽高以及类别置信度。具体计算公式如下:
bx=σ(tx)+cx
by=σ(ty)+cy
bw=pwexp(tw)
bh=phexp(th)
Pr(Classi|Object)=σ(tci)
其中,bx、by、bw、bh分别为预测边界框的中心坐标和宽高;tx、ty、tw、th为网络输出值;cx、cy为锚框的中心坐标;pw、ph为锚框的宽高;σ为Sigmoid函数;tci表示第i类的类别置信度;Pr(Classi|Object)为目标属于第i类的概率。
S32:对候选目标框进行筛选,剔除置信度低于阈值的目标框。例如,若置信度阈值设为0.5,则只保留置信度大于等于0.5的目标框。
S33:应用非极大值抑制(NMS)算法对筛选后的目标框进行进一步优化。计算目标框之间的IoU(交并比),如果某个目标框与其他高置信度目标框的IoU大于预定阈值(如0.5),则认为该目标框是冗余的,将其移除。
S34:对优化后的目标框应用像素点修正方法,根据图像局部梯度信息对目标框坐标进行调整,使其更接近理想边界。具体地,通过计算邻域内梯度最大值的方向来调整目标框边缘坐标。
S4:输出最终的检测结果,包括目标框位置、大小和类别信息。此时,毫米波图像中的目标已经被成功检测和识别。
本发明通过引入轻量级骨干网络ShuffleNet,并优化YOLO v8神经网络结构,提高了毫米波图像目标检测与识别的精度和效率。同时,采用非极大值抑制(NMS)和像素点修正方法对检测结果进行优化,进一步提高模型的准确性和鲁棒性。本发明适用于无人驾驶、安防监控等领域,具有广泛的应用前景。
本发明的有益效果在于:
1.速度快:相比于其他目标检测算法,YOLO识别速度快,能够在GPU上实时进行目标检测。基于YOLO的实时目标检测准确率高,检测速度可达每秒xx帧。
2.准确率高:采用了全卷积神经网络,通过对整个图像进行一次前向传播可以直接得到目标存在的概率和位置信息,相对于R-CNN系列方法如果将其检测与回归的多个步骤合并,并且与毫米波雷达检测结合利用广泛的电磁波频段,扫描人体或物品外部的电磁波反射信号来检测内部的物质和构造。相比传统的金属检测器,更准确地检测到被隐藏在人体或物品内部的非金属和低密度物质,能够实现相似甚至更好的检测精度。
3.一般化:YOLO能够处理多种尺寸的图像、多种尺寸和比例的目标,并且能够在复杂的环境中检测物体。
4.自适应:YOLO能够通过自我在线学习来增强自己的检测能力,比如在新的场景下和新的物体上进行检测。
5.不依赖传统的图像分割、目标检测等技术:YOLO算法不需要预先将图像中的物体进行分割,它将整幅图像作为输入,直接输出各个物体在图像中的类别和位置信息。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本申请实施例中提供的一种改进YOLO v8的毫米波图像目标检测与识别方法的流程示意图。
图2为本发明基于改进YOLO v8的毫米波图像目标检测与识别方法的训练模型中对输入为菜刀的测试结果图。
图3为本发明基于改进YOLO v8的毫米波图像目标检测与识别方法的训练模型中对输入为锅铲的测试结果图。
图4为本发明基于改进YOLO v8的毫米波图像目标检测与识别方法的训练模型中对输入为剪刀的测试结果图。
图5为本发明基于改进YOLO v8的毫米波图像目标检测与识别方法的训练模型中对输入为长尖刀的测试结果图。
图6为本发明基于改进YOLO v8的毫米波图像目标检测与识别方法的训练模型中对输入为水果刀的测试结果图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本发明的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若有术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本发明的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
请参阅图1该内容为进YOLO v8的毫米波图像目标检测与识别方法的流程示意图,具体方法如下:
a.获取毫米波图像。
1.将毫米波雷达设置为60GHz工作频率,距离分辨率为5cm,方向角度范围为360度。
2.通过毫米波雷达扫描目标区域,获取一组距离和方向上的强度值数据,利用全息重建算法得到目标的距离方向上投影后的毫米波图像。
3.应用高斯滤波器对原始数据进行平滑处理,去除噪声,并使用增强算法增强目标信号。
4.将预处理后的数据进行灰度化处理,并将其转换为PNG格式图像,以便后续分析和展示。
b.将图像输入到经过训练的改进的YOLO v8神经网络中。
1.通过Shuffle ghost网络的卷积和池化层,提取毫米波图像的特征表示。
2.将骨干网络提取的不同尺度的特征图与YOLO v8的特征融合层进行融合,以获取更丰富的特征信息。
3.将融合后的特征图输入YOLO v8的卷积层、激活函数和池化层,逐层计算网络输出。
c.在输出层获得目标位置和类别信息,并进行目标检测与识别。
1.根据网络输出的特征图和预定义的锚框形状,解码得到候选目标框的位置和置信度。
2.设置一个阈值,如0.5,筛选出置信度高于该阈值的候选目标框。
3.应用NMS算法,剔除重叠度较高的候选目标框,只保留最具代表性的目标框。
4.使用像素点修正方法,对目标框的位置进行微调,以提高目标框的准确性和精度。
d.根据目标信息生成相应的检测结果,包括目标类别、坐标、置信度。
1.从经过NMS处理的目标框中提取出每个目标的类别标签和置信度。
2.根据网络输出的特征图和目标框的位置信息,将目标框的坐标转换为原始图像空间的坐标。
3.将目标类别、坐标和置信度以JSON或XML格式的数据结构表示,作为最终的检测结果。
对于本实例对改进YOLO v8的毫米波图像目标检测与识别方法的模型进行训练,输入种类有5种,分别为菜刀、锅铲、剪刀、长尖刀和水果刀。关于不同输入及其对应的输出结果请参阅图2至图6。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (3)

1.改进YOLO v8的毫米波图像目标检测与识别方法,其特征在于:该方法包括以下步骤:
S1:获取毫米波图像;
S11:使用雷达芯片通过发射和接收低功率的调频连续FMCW毫米波,主动获得目标的空间位置、速度和反射强度;
设置相应的毫米波雷达参数,包括工作频率f、距离分辨率ΔR和方向角度θ;根据雷达方程计算所需的最小可检测功率Pmin
其中,Pt为发射功率;Gt和Gr分别为发射和接收天线增益;λ为波长;σ为目标雷达截面积;R为距离;L为系统损耗;
S12:使用RMA成像算法获得毫米波雷达三维成像;
雷达板采集到的原始数据通过以太网获取原生的雷达数据,假设雷达采样位置为(x,y,0),待成像目标空间坐标为(x',y',z0),目标反射率为p(x',y'),则雷达接收到的后向散射数据为:
R表示收发天线的中心位置到目标的距离,目标到雷达的平均距离为z0;上式中R-2使用(z0R)-1替代,对于静止目标,z0为常数忽略不计;最终接收到的数据表示为:
球面波认为是平面波的叠加,则:
其中:
则有:
改变积分顺序发现对应反射率函数的二维傅里叶变换,即FT2D[p(x,y)]=p(kx,ky),而/>表示二维傅里叶逆变换;则
则重构二维目标反射率:
S13:将预处理后的数据转换为图像格式,得到毫米波图像;
S2:将图像输入到经过训练的改进的YOLO v8神经网络中;
使用轻量级网络ShuffleNet替代Darknet53;改进YOLOv8的后处理算法采用非极大值抑制NMS算法来对重叠的目标进行筛选,同时引入像素点修正方法,提高模型的准确率和鲁棒性;
S21:对获取到的毫米波图像进行预处理,包括缩放、裁剪和颜色空间转换,使其符合改进YOLO v8输入要求;
S22:将预处理后的图像输入到ShuffleNet骨干网络中,提取特征信息;基于卷积、激活和池化操作,逐层计算网络输出;
S23:利用YOLO v8的多尺度特征融合机制,通过上采样和跳级连接方法,将不同深度的特征图进行融合,采用以下公式:
F(x)=U(αFl(x))⊕(1-α)Fs(x)
其中,F(x)为融合后的特征图;U为上采样操作;α为权重参数;Fl(x)和Fs(x)分别表示深层和浅层特征图;⊕表示特征融合操作,即相加或拼接;
S3:在输出层获得目标位置和类别信息,并进行目标检测与识别;
S31:将网络输出按照预定义的锚框形状进行解码,得到候选目标框和置信度,包括计算预测边界框的中心坐标、宽高以及类别置信度,具体计算公式如下:
bx=σ(tx)+cx
by=σ(ty)+cy
bw=pwexp(tw)
bh=phexp(th)
Pr(Classi|Object)=σ(tci)
其中,bx、by、bw、bh分别为预测边界框的中心坐标和宽高;tx、ty、tw、th为网络输出值;cx、cy为锚框的中心坐标;pw、ph为锚框的宽高;σ为Sigmoid函数;tci表示第i类的类别置信度;Pr(Classi|Object)为目标属于第i类的概率;
S32:对候选目标框进行筛选,剔除置信度低于阈值的目标框;若置信度阈值设为0.5,则只保留置信度大于等于0.5的目标框;
S33:应用非极大值抑制NMS算法对筛选后的目标框进行优化;计算目标框之间的交并比IoU,如果某个目标框与其他高置信度目标框的IoU大于预定阈值,则认为该目标框是冗余的,将其移除;
S34:对优化后的目标框应用像素点修正方法,根据图像局部梯度信息对目标框坐标进行调整,使其更接近理想边界;具体地,通过计算邻域内梯度最大值的方向来调整目标框边缘坐标;
S4:根据目标信息生成相应的检测结果,包括目标类别、坐标和置信度;
S41:在NMS处理后的目标框中,分别提取目标类别和置信度;
S42:将目标框的坐标从网络输出空间转换回原始图像空间;
S43:根据目标类别、坐标和置信度,生成检测结果。
2.根据权利要求1所述的改进YOLO v8的毫米波图像目标检测与识别方法,其特征在于:所述S12具体包括以下步骤:
S121:获取四维回波数据s(xm,xn,z,l);
S122:对四维回波数据沿扫描方向(xm,xn,k)做三维傅里叶变换,得到四维波数域;
S123:对波数域回波数据进行插值及维度转换,得到三维波数域图像重构数据;
S124:三维波数域回波数据做三维傅里叶逆变换,得到最终三维图像重构数据。
3.根据权利要求2所述的改进YOLO v8的毫米波图像目标检测与识别方法,其特征在于:所述S43中,检测结果以JSON或XML格式表示。
CN202310704658.XA 2023-06-14 2023-06-14 改进YOLO v8的毫米波图像目标检测与识别方法 Pending CN116740342A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310704658.XA CN116740342A (zh) 2023-06-14 2023-06-14 改进YOLO v8的毫米波图像目标检测与识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310704658.XA CN116740342A (zh) 2023-06-14 2023-06-14 改进YOLO v8的毫米波图像目标检测与识别方法

Publications (1)

Publication Number Publication Date
CN116740342A true CN116740342A (zh) 2023-09-12

Family

ID=87902369

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310704658.XA Pending CN116740342A (zh) 2023-06-14 2023-06-14 改进YOLO v8的毫米波图像目标检测与识别方法

Country Status (1)

Country Link
CN (1) CN116740342A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117197728A (zh) * 2023-11-07 2023-12-08 成都千嘉科技股份有限公司 通过可穿戴摄像设备进行实时燃气放散作业识别的方法
CN117688901A (zh) * 2023-12-11 2024-03-12 曲阜师范大学 高频分立滤波器的电路设计方法、系统、设备和存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117197728A (zh) * 2023-11-07 2023-12-08 成都千嘉科技股份有限公司 通过可穿戴摄像设备进行实时燃气放散作业识别的方法
CN117197728B (zh) * 2023-11-07 2024-01-23 成都千嘉科技股份有限公司 通过可穿戴摄像设备进行实时燃气放散作业识别的方法
CN117688901A (zh) * 2023-12-11 2024-03-12 曲阜师范大学 高频分立滤波器的电路设计方法、系统、设备和存储介质
CN117688901B (zh) * 2023-12-11 2024-05-14 曲阜师范大学 高频分立滤波器的电路设计方法、系统、设备和存储介质

Similar Documents

Publication Publication Date Title
CN116740342A (zh) 改进YOLO v8的毫米波图像目标检测与识别方法
US6437728B1 (en) A-scan ISAR target recognition system and method
CN107527023B (zh) 基于超像素和主题模型的极化sar图像分类方法
US10497128B2 (en) Method and system for sea background modeling and suppression on high-resolution remote sensing sea images
Debes et al. Target discrimination and classification in through-the-wall radar imaging
EP2157544A1 (en) System for adaptive removal of speckle noise in digital images and generation of a colour composite product based on automated analysis of speckle characteristics
CN107167810A (zh) 一种侧扫声纳成像的水下目标快速提取方法
CN111027497A (zh) 基于高分辨率光学遥感影像的弱小目标快速检测方法
CN105574529A (zh) 一种侧扫声纳目标检测方法
CN110210422A (zh) 一种基于光学图像辅助的舰船isar像识别方法
CN114764801A (zh) 基于多视觉显著特征的弱小舰船目标融合检测方法及装置
Li et al. Simultaneous screening and detection of RFI from massive SAR images: A case study on European Sentinel-1
Agarwal et al. A novel neural network based image reconstruction model with scale and rotation invariance for target identification and classification for Active millimetre wave imaging
CN111707998A (zh) 一种基于连通区域特征的海面漂浮小目标检测方法
Selvi et al. A novel approach for ship recognition using shape and texture
Yeom et al. Vector clustering of passive millimeter wave images with linear polarization for concealed object detection
Arivazhagan et al. Optimal Gabor sub-band-based spectral kurtosis and Teager Kaiser energy for maritime target detection in SAR images
CN116243289A (zh) 一种基于成像声呐的无人艇水下目标智能识别方法
CN115439497A (zh) 基于改进hou模型的红外图像舰船目标快速识别方法
Meyer et al. Automatic ship detection in space-borne SAR imagery
CN106778870A (zh) 一种基于rpca技术的sar图像舰船目标检测方法
Agarwal et al. Optimal non-invasive fault classification model for packaged ceramic tile quality monitoring using MMW imaging
Tello et al. Use of the multiresolution capability of wavelets for ship detection in SAR imagery
Pavlov et al. Investigation of the Influence of Speckle Noise on the Accuracy of Object Detection by Convolutional Neural Networks
Li et al. A semantic segmentation-based underwater acoustic image transmission framework for cooperative slam

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination