CN112394356B - 一种基于U-Net的小目标无人机检测系统及方法 - Google Patents
一种基于U-Net的小目标无人机检测系统及方法 Download PDFInfo
- Publication number
- CN112394356B CN112394356B CN202011055629.8A CN202011055629A CN112394356B CN 112394356 B CN112394356 B CN 112394356B CN 202011055629 A CN202011055629 A CN 202011055629A CN 112394356 B CN112394356 B CN 112394356B
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- small target
- data
- net
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims abstract description 17
- 238000005070 sampling Methods 0.000 claims description 27
- 238000000605 extraction Methods 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 7
- 238000007477 logistic regression Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000009432 framing Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/933—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of aircraft or spacecraft
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/04—Systems determining presence of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于U‑Net的小目标无人机检测系统,主要由云台控制模块、水平电机驱动单元、垂直电机驱动单元、摄像机固定支架、高清摄像机和计算机设备组成,满足了小目标无人机检测的必要条件。同时,本发明提供了一种基于U‑Net的小目标无人机检测方法,无论是在低分辨率图像还是在高分辨率的图像上,该检测方法都能充分提取目标的特征信息,对于小目标无人机而言,当距离较远时,无人机区域仅有几个像素,极易与鸟类混淆,利用U‑Net网络分割出无人机,再结合Yolov3‑tiny网络进行检测,将大大提高小目标无人机的检测准确率,减小误检、漏检的概率。该方法对于小目标检测具有参考意义。
Description
技术领域
本发明属于目标检测技术领域,尤其涉及一种基于U-Net的小目标无人机检测系统及方法。
背景技术
随着各种商用和民用无人机的大量涌现,给人类带来便捷的同时,也出现了许多安全问题,因此无人机目标检测技术逐渐成为研究的热点。目前,检测无人机的技术主要可以分为三大类:雷达、射频和声光。雷达利用电磁波探测目标,探测距离较远,但是设备复杂,价格昂贵,易受干扰。射频技术是通过侦听无人机与其控制器之间的通信,实现无人机的定位,如果无人机飞行是事先编程的,不需要人工干预,这将会失败。无人机具有特殊的声学特征,但是环境噪声会极大影响准确性。因此,现有的无人机检测方法对小目标无人机不敏感,容易出现误检、漏检的问题,检测精度低。
发明内容
本发明的目的在于提供一种基于U-Net的小目标无人机检测系统及方法,旨在解决针对无人机检测方法对小目标无人机不敏感,容易出现误检、漏检等问题,本发明提供一种基于U-Net的小目标无人机检测系统及方法,可利用广角相机和计算机平台,实现对小目标无人机的分割与检测。
本发明提供了一种基于U-Net的小目标无人机检测方法,包括以下步骤:
S1,云台控制模块与计算机设备相连接;
S2,采用相机获取无人机的实时视频序列数据;
S3,对所述实时视频序列数据进行预处理,获取无人机原始数据;
建立U-Net网络模型;
S4,将所述无人机原始数据输入U-Net网络中进行特征提取,获取分割后的无人机图像数据;
S5,对所述无人机图像数据进行采样,获取无人机采样数据;
建立Yolov3-tiny网络模型;
S6,将所述无人机采样数据输入Yolov3-tiny网络中进行分类训练,获取四个坐标参数;
S7,通过所述坐标参数生成边界框,利用置信度算法判断所述边界框中是否为目标无人机。
其中,在采用相机获取无人机的实时视频序列数据步骤中,分割、训练第一数据用以生成所述无人机原始数据,第二数据用以所述小目标无人机检测的素材输入。
其中,对所述实时视频序列数据进行预处理步骤具体为,将所述实时视频序列数据分帧处理,每间隔25帧保存一次。
其中,在将所述无人机原始数据输入U-Net网络中进行特征提取的步骤中,
将所述无人机原始数据输入到U-Net网络中进行特征提取,多次采样提取到低分辨率信息,解码并回归到跟所述无人机原始数据相同大小的像素点,得到所述无人机图像数据。
其中,对所述无人机图像数据进行采样,获取无人机采样数据,包括;
通过线性插值对二维直角网格进行扩展,在两个方向分别进行一次线性插值;通过双线性插值将分割后的图像放大,匹配后续Yolov3-tiny网络的输入大小要求。
其中,通过所述坐标参数生成边界框,利用置信度算法判断所述边界框中是否为目标无人机,包括;
当置信度大于80%,则会进行标签分类的逻辑回归,从而贴上无人机标签,完成小目标无人机的检测。
一种基于U-Net的小目标无人机检测系统,包括用于执行上述任一项所述的基于U-Net的小目标无人机检测方法的单元。
本发明提供的一种基于U-Net的小目标无人机检测系统及方法,能够通过云台控制模块与计算机设备相连接;采用相机获取无人机的实时视频序列数据;对所述实时视频序列数据进行预处理,获取无人机原始数据;建立U-Net网络模型;将所述无人机原始数据输入U-Net网络中进行特征提取,获取分割后的无人机图像数据;对所述无人机图像数据进行采样,获取无人机采样数据;建立Yolov3-tiny网络模型;将所述无人机采样数据输入Yolov3-tiny网络中进行分类训练,获取四个坐标参数;通过所述坐标参数生成边界框,利用置信度算法判断所述边界框中是否为目标无人机。实现了对小目标无人机的分割与检测。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是基于U-Net的小目标无人机检测方法的流程示意图。
图2是基于U-Net的小目标无人机检测系统的机械结构图。
图3是基于U-Net的小目标无人机检测系统另一方向的机械结构图。
图4是空洞卷积原理。
2-水平电机驱动单元、3-垂直电机驱动单元、4-摄像机固定支架、5-高清摄像机、7-转台、8-底座。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
请参阅图1,是基于U-Net的小目标无人机检测方法的流程示意图,本发明提供一种基于U-Net的小目标无人机检测方法,包括;
S1,云台控制模块与计算机设备相连接;
将云台控制模块与计算机设备相连接,获取指令后驱动相应的电机工作,调整俯仰角度与旋转角度。在电机的驱动下,高清摄像机寻找到无人机目标进行视频的拍摄。由摄像机采集到的无人机视频传送到计算机设备进行下一步处理。
S2,采用相机获取无人机的实时视频序列数据;
在采用相机获取无人机的实时视频序列数据步骤中,分割、训练第一数据用以生成所述无人机原始数据,第二数据用以所述小目标无人机检测的素材输入。
S3,对所述实时视频序列数据进行预处理,获取无人机原始数据;建立U-Net 网络模型;
步骤对所述实时视频序列数据进行预处理步骤具体为,将所述实时视频序列数据分帧处理,每间隔25帧保存一次。
S4,将所述无人机原始数据输入U-Net网络中进行特征提取,获取分割后的无人机图像数据;
将所述无人机原始数据输入U-Net网络中进行特征提取的步骤中,多次采样提取到低分辨率信息,解码并回归到跟所述无人机原始数据相同大小的像素点,得到所述无人机图像数据。
其中,U-Net结构的特征提取部分,具体为在视频分帧后采用U-Net语义分割网络的原因是其为一种轻量级的全卷积神经网络,具有编码器——解码器结构,通过四次下采样和四次上采样,形成的像素级分割U型结构。其中,多次下采样后的低分辨率底层信息。能够提供分割目标在整个图像中上下文语义信息,可理解为反应目标和它的环境之间关系的特征。这个特征有助于物体的类别判断;解码器将上采样后的特征图与来自底层的特征图相结合,能够为分割提供更加精细的特征,如梯度等,在处理边界模糊、梯度复杂的图像时更具优势。
结合改进的U-Net结构分析小目标无人机分割效果,整个网络由收缩路径 (左边)和扩张路径(右边)组成。收缩路径是典型的卷积网络结构,由两个3 ×3的卷积层组成,每一个卷积层后面是一个ReLU单元和2×2的池化层作为下采样,池化层的步长是2。每一次下采样都将特征通道数加倍。
扩张路径利用2×2的卷积核对特征图进行上采样,使特征通道数减半,将上采样后的特征图与来自收缩路径的特征图相结合,然后利用2次3×3的卷积进行卷积运算,并同样使用ReLU作为激活函数,最后利用1×1的卷积核将每一个64维的特征向量映射到网络的输出层,即得到类的数量。
池化层虽然可以保留更多的图像信息,却也造成感受野变小,为了保证小目标的准确分割,在收缩路径结束后利用空洞卷积代替常规卷积操作以扩大卷积感受野,使网络能够更好地学习图像的全局信息。
请参阅图4,是空洞卷积原理,包括;
左边可以看成是系数为1的空洞卷积,起作用就跟普通的卷积一样,当扩张系数为2的时候,空洞卷积就如右边的形式,但是实际计算的时候还是只计算红点所在的位置,这样实际上感受野就扩大了,空洞卷积在卷积的时候,会在卷积核元素之间塞入空格。
空洞卷积在卷积的时候,会在卷积核元素之间塞入空格。这里引入了一个新的超参数d,(d-1)的值则为塞入的空格数,假定原来的卷积核大小为k,那么加入了(d-1)个空格后的卷积核大小k'为:
k'=k+(k-1)(d-1)
进而,假定输入空洞卷积的大小为i,步长为s,卷积核中的空洞数为p,则空洞卷积的输出分辨率O为:
假定RFi-1是上一层的感受野,则当前层感受野RFi为:
RFi=RFi-1+(k-1)×s
由此可见,卷积核尺寸变大了,感受野也就自然变大。
S5,对所述无人机图像数据进行采样,获取无人机采样数据;建立 Yolov3-tiny网络模型;
所述小目标无人机检测流程中采样部分采用双线性插值法,通过线性插值对二维直角网格进行扩展,在两个方向分别进行一次线性插值;通过双线性插值将分割后的图像放大,匹配后续Yolov3-tiny网络的输入大小要求,所述采样使下一层Yolov3-tiny网络的特征更明显,对所述小目标无人机的感知能力更强。
检测流程中上采样部分采用双线性插值法,通过线性插值对二维直角网格进行扩展,其核心思想是在两个方向分别进行一次线性插值。
通过双线性插值将分割后的图像放大,一方面是为了匹配后续网络的输入大小要求,另一方面,上采样也使下一层网络的特征更为明显,对小目标无人机的感知能力更强。
S6,将所述无人机采样数据输入Yolov3-tiny网络中进行分类训练,获取四个坐标参数;
将所述无人机采样后的图片输入到轻量级Yolov3-tiny网络中进行分类训练,所述分类训练数据生成预测模型中的四个坐标参数,选用轻量级的 Yolov3-tiny网络对于资源的消耗较少,且能够满足所述无人机实时检测的要求。
S7,通过所述坐标参数生成边界框,利用置信度算法判断所述边界框中是否为目标无人机。
利用所述分类训练数据生成预测模型中的四个坐标参数生成边界框,利用置信度判断这个边界框中是否是小目标无人机,当置信度大于80%,则会进行标签分类的逻辑回归,从而贴上无人机标签,完成小目标无人机的检测。
请参阅图2、3,是基于U-Net的小目标无人机检测系统的机械结构图,基于U-Net的小目标无人机检测系统包括云台控制模块,水平电机驱动单元2,垂直电机驱动单元3,摄像机固定支架4,高清摄像机5,计算机设备,转台7,底座8:
云台控制模块:按照计算机设备发出的指令控制相应电机驱动单元工作。
水平电机驱动单元2:用于控制摄像机俯仰角度。
垂直电机驱动单元3:用于控制摄像机旋转角度。
摄像机固定支架4:用于支撑相机模组。
高清摄像机5:用于将光信号转变成有序的电信号,采集含有小目标无人机的视频序列。
计算机设备:将采集到的视频数据进行处理,后续通过算法检测小目标无人机的位置。
转台7:用于支撑旋转结构。
底座8:用于移动。
摄像机固定在上端支架上,通过电机驱动水平转轴可以实现270°自由调节,电机与转轴之间通过齿轮结构进行连接,能够自定俯仰角度。通过电机驱动转台可以实现360°自由旋转,使整个系统的检测范围大大增加。
以上所揭露的仅为本发明一种较佳实施例而已,当然不能以此来限定本发明之权利范围,本领域普通技术人员可以理解实现上述实施例的全部或部分流程,并依本发明权利要求所作的等同变化,仍属于发明所涵盖的范围。
Claims (5)
1.一种基于U-Net的小目标无人机检测方法,其特征在于,包括以下步骤:
S1,云台控制模块与计算机设备相连接;
S2,采用相机获取无人机的实时视频序列数据;
S3,对所述实时视频序列数据进行预处理,获取无人机原始数据;
建立U-Net网络模型;
S4,将所述无人机原始数据输入U-Net网络中进行特征提取,获取分割后的无人机图像数据;
S5,对所述无人机图像数据进行采样,获取无人机采样数据;
建立Yolov3-tiny网络模型;
S6,将所述无人机采样数据输入Yolov3-tiny网络中进行分类训练,获取四个坐标参数;
S7,通过所述坐标参数生成边界框,利用置信度算法判断所述边界框中是否为目标无人机;
将所述无人机原始数据输入U-Net网络中进行特征提取的步骤中,将所述无人机原始数据输入到U-Net网络中进行特征提取,多次采样提取到低分辨率信息,解码并回归到跟所述无人机原始数据相同大小的像素点,得到所述无人机图像数据;
对所述无人机图像数据进行采样,获取无人机采样数据,包括;通过线性插值对二维直角网格进行扩展,在两个方向分别进行一次线性插值;通过双线性插值将分割后的图像放大,匹配后续Yolov3-tiny网络的输入大小要求。
2.如权利要求1所述的基于U-Net的小目标无人机检测方法,其特征在于,在采用相机获取无人机的实时视频序列数据步骤中,分割、训练第一数据用以生成所述无人机原始数据,第二数据用以小目标无人机检测的素材输入。
3.如权利要求2所述的基于U-Net的小目标无人机检测方法,其特征在于,对所述实时视频序列数据进行预处理步骤具体为,将所述实时视频序列数据分帧处理,每间隔25帧保存一次。
4.如权利要求1所述的基于U-Net的小目标无人机检测方法,其特征在于,通过所述坐标参数生成边界框,利用置信度算法判断所述边界框中是否为目标无人机,包括;
当置信度大于80%,则会进行标签分类的逻辑回归,从而贴上无人机标签,完成小目标无人机的检测。
5.一种基于U-Net的小目标无人机检测系统,其特征在于,包括用于执行如权利要求1-4任一项所述的基于U-Net的小目标无人机检测方法的单元。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011055629.8A CN112394356B (zh) | 2020-09-30 | 2020-09-30 | 一种基于U-Net的小目标无人机检测系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011055629.8A CN112394356B (zh) | 2020-09-30 | 2020-09-30 | 一种基于U-Net的小目标无人机检测系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112394356A CN112394356A (zh) | 2021-02-23 |
CN112394356B true CN112394356B (zh) | 2024-04-02 |
Family
ID=74596261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011055629.8A Active CN112394356B (zh) | 2020-09-30 | 2020-09-30 | 一种基于U-Net的小目标无人机检测系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112394356B (zh) |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108876792A (zh) * | 2018-04-13 | 2018-11-23 | 北京迈格威科技有限公司 | 语义分割方法、装置和系统及存储介质 |
CN109241871A (zh) * | 2018-08-16 | 2019-01-18 | 北京此时此地信息科技有限公司 | 一种基于视频数据的公共区域人流跟踪方法 |
CN109919058A (zh) * | 2019-02-26 | 2019-06-21 | 武汉大学 | 一种基于Yolo V3的多源视频影像重点目标快速检测方法 |
CN109993096A (zh) * | 2019-03-26 | 2019-07-09 | 东北大学 | 一种面向视频目标检测的光流多层帧特征传播及聚合方法 |
CN110503052A (zh) * | 2019-08-27 | 2019-11-26 | 西南交通大学 | 一种基于改进u-net网络的图像语义分割方法 |
CN110508510A (zh) * | 2019-08-27 | 2019-11-29 | 广东工业大学 | 一种塑料泵缺陷检测方法、装置及系统 |
CN110807429A (zh) * | 2019-10-23 | 2020-02-18 | 西安科技大学 | 基于tiny-YOLOv3的施工安全检测方法及系统 |
CN111291684A (zh) * | 2020-02-10 | 2020-06-16 | 浙江工业大学 | 一种自然场景下的船牌检测方法 |
CN111627047A (zh) * | 2020-05-20 | 2020-09-04 | 上海海洋大学 | 水下鱼类动态视觉序列运动目标检测方法 |
CN111652067A (zh) * | 2020-04-30 | 2020-09-11 | 南京理工大学 | 一种基于图像探测的无人机识别方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10776941B2 (en) * | 2018-07-02 | 2020-09-15 | Chiral Software, Inc. | Optimized neural network structure |
-
2020
- 2020-09-30 CN CN202011055629.8A patent/CN112394356B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108876792A (zh) * | 2018-04-13 | 2018-11-23 | 北京迈格威科技有限公司 | 语义分割方法、装置和系统及存储介质 |
CN109241871A (zh) * | 2018-08-16 | 2019-01-18 | 北京此时此地信息科技有限公司 | 一种基于视频数据的公共区域人流跟踪方法 |
CN109919058A (zh) * | 2019-02-26 | 2019-06-21 | 武汉大学 | 一种基于Yolo V3的多源视频影像重点目标快速检测方法 |
CN109993096A (zh) * | 2019-03-26 | 2019-07-09 | 东北大学 | 一种面向视频目标检测的光流多层帧特征传播及聚合方法 |
CN110503052A (zh) * | 2019-08-27 | 2019-11-26 | 西南交通大学 | 一种基于改进u-net网络的图像语义分割方法 |
CN110508510A (zh) * | 2019-08-27 | 2019-11-29 | 广东工业大学 | 一种塑料泵缺陷检测方法、装置及系统 |
CN110807429A (zh) * | 2019-10-23 | 2020-02-18 | 西安科技大学 | 基于tiny-YOLOv3的施工安全检测方法及系统 |
CN111291684A (zh) * | 2020-02-10 | 2020-06-16 | 浙江工业大学 | 一种自然场景下的船牌检测方法 |
CN111652067A (zh) * | 2020-04-30 | 2020-09-11 | 南京理工大学 | 一种基于图像探测的无人机识别方法 |
CN111627047A (zh) * | 2020-05-20 | 2020-09-04 | 上海海洋大学 | 水下鱼类动态视觉序列运动目标检测方法 |
Non-Patent Citations (3)
Title |
---|
基于YOLOv3的无人机识别与定位追踪;陶磊;洪韬;钞旭;;工程科学学报(04);第463-467页 * |
基于增强型Tiny-YOLOV3模型的野鸡识别方法;易诗;沈练;周思尧;朱竞铭;袁学松;;农业工程学报(13);全文 * |
基于视觉感受野的无人机目标检测;程怀俊;陈鹏;陈杰;刘杰;彭德中;;现代计算机;20200525(15);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112394356A (zh) | 2021-02-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6739517B2 (ja) | 車線認識のモデリング方法、装置、記憶媒体及び機器、並びに車線の認識方法、装置、記憶媒体及び機器 | |
US11734918B2 (en) | Object identification apparatus, moving body system, object identification method, object identification model learning method, and object identification model learning apparatus | |
CN110298884B (zh) | 一种适于动态环境中单目视觉相机的位姿估计方法 | |
US11430199B2 (en) | Feature recognition assisted super-resolution method | |
CN112767391A (zh) | 融合三维点云和二维图像的电网线路部件缺陷定位方法 | |
JP2017516197A (ja) | 交通標識を認識する方法及び装置 | |
CN111968064B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
EP4050305A1 (en) | Visual positioning method and device | |
CN113807361B (zh) | 神经网络、目标检测方法、神经网络训练方法及相关产品 | |
US10755146B2 (en) | Network architecture for generating a labeled overhead image | |
CN111985475A (zh) | 船舶船牌识别方法、计算设备及存储介质 | |
CN108648147A (zh) | 一种人眼视网膜机理的超分辨率图像获取方法及系统 | |
CN112861700A (zh) | 基于DeepLabv3+的车道线网络识别模型建立及车辆速度检测方法 | |
WO2022000469A1 (en) | Method and apparatus for 3d object detection and segmentation based on stereo vision | |
CN112394356B (zh) | 一种基于U-Net的小目标无人机检测系统及方法 | |
CN116105721B (zh) | 地图构建的回环优化方法、装置、设备及存储介质 | |
CN111008634A (zh) | 一种基于实例分割的字符识别方法及字符识别装置 | |
CN115861922A (zh) | 一种稀疏烟火检测方法、装置、计算机设备及存储介质 | |
CN112348823A (zh) | 一种面向对象的高分辨率遥感影像分割算法 | |
CN115588085A (zh) | 轴线重建方法、设备及存储介质 | |
CN116337087B (zh) | 一种基于ais与摄像头的船只定位方法及系统 | |
CN110602479A (zh) | 视频转换方法及系统 | |
Li et al. | Improved YOLOv5s algorithm for small target detection in UAV aerial photography | |
Shimizu et al. | Space-variant color point cloud measurement system-enomous data reduction using saliency map | |
US12008816B2 (en) | Method and system for real time object detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |