CN117409340B - 无人机集群多视角融合航拍港口监控方法、系统、介质 - Google Patents
无人机集群多视角融合航拍港口监控方法、系统、介质 Download PDFInfo
- Publication number
- CN117409340B CN117409340B CN202311714069.6A CN202311714069A CN117409340B CN 117409340 B CN117409340 B CN 117409340B CN 202311714069 A CN202311714069 A CN 202311714069A CN 117409340 B CN117409340 B CN 117409340B
- Authority
- CN
- China
- Prior art keywords
- unmanned aerial
- aerial vehicle
- target
- vehicle cluster
- view
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000004927 fusion Effects 0.000 title claims abstract description 15
- 238000000605 extraction Methods 0.000 claims abstract description 24
- 238000001514 detection method Methods 0.000 claims abstract description 14
- 230000015572 biosynthetic process Effects 0.000 claims description 8
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 4
- 230000009545 invasion Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000005259 measurement Methods 0.000 description 3
- 238000012876 topography Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种无人机集群多视角融合航拍港口监控方法、系统、介质,方法包括如下步骤:通过路径规划将无人机集群部署至港口待巡查区域;采集无人机集群的多视角无死角视频流,通过改进的多视角弱小移动目标识别跟踪算法得到目标识别结果;针对多视角视频流进行多视角特征提取和特征匹配,为每个目标分配唯一的标签;基于无人机的坐标以及所述标签,利用无人机集群多目视觉中的每两个摄像头的目标识别结果计算置信度,对目标进行立体定位。与现有技术相比,本发明提出的无人机集群可以规避单架无人机难以避免的遮挡物导致目标丢失的问题;优化后的多目标特征提取与识别网络对于无人机集群高空俯拍地面弱小目标的识别精度更高、漏检误检率更低。
Description
技术领域
本发明涉及无人机技术领域,尤其是涉及一种无人机集群多视角融合航拍港口监控方法、系统、介质。
背景技术
现有技术中,面对如港口车辆以及人员等入侵的威胁,传统港口监控方法主要依靠单架无人机按照既定路线巡航,传统单架无人机监控方法存在不可避免的受到港口复杂地形因遮挡物而存在监控盲区,进而导致目标物识别丢失、无法跟踪的问题,同时单一视角无法对目标物进行立体位置测量。因此,传统无人机监控方法已经无法满足如今大型无人码头对于车辆等入侵安防需求。
同时,由于在无人机航拍大尺度下的例如车辆等弱小目标信息特征较少,传统的特征提取及目标识别网络如YOLOv5等无法对弱小目标进行特征提取与识别,单台无人机单一视角也会存在因港口地形复杂而遮挡目标进而无法连续提取特征的情况发生。因此,如何有效改进现有神经网络来对弱小目标进行多角度的特征匹配和提取,以解决弱小目标识别精确度低、误报率高等问题,是本领域亟需解决的技术难题。
因此,需要一种无人机集群多视角融合航拍港口安全监控方法,以解决传统单架无人机监控方法中存在的易受遮挡物影响而丢失目标信息,传统特征提取及目标识别网络对于大尺度下弱小目标及目标遮挡导致无法提取目标特征,单一视角无法对目标进行立体位置测量等问题。为港口安全监控提高效率和准确性,减少潜在车辆和人员等入侵威胁发生,在港口安全领域提供更可靠的保障。
发明内容
本发明的目的是使用无人机集群,使用改进优化的特征提取网络,通过多视角融合对弱小目标多视角特征提取并对目标进行多视角立体定位。
本发明的克服上述现有技术存在的缺陷而提供一种无人机集群多视角融合航拍港口监控方法、系统、介质,提高港口监控的及时发现、及时响应能力。
本发明的目的可以通过以下技术方案来实现:
本发明的一个方面,提供了一种无人机集群多视角融合航拍港口监控方法,包括如下步骤:
通过路径规划将无人机集群部署至港口待巡查区域;
采集无人机集群的多视角视频流,通过改进后的弱小移动目标识别跟踪方法得到目标识别结果;
针对所述视频流进行多视角特征提取和多视角特征匹配,为每个目标分配唯一的标签;
基于无人机的坐标以及所述标签,利用无人机集群多视角中的每两个摄像头的目标识别结果计算置信度,对目标进行立体定位。
作为优选的技术方案,通过弱小移动目标识别跟踪得到目标识别结果的过程包括:
利用基于HRNet的两段式检测神经网络计算瓦尔斯坦距离作为弱小目标gt框的重合度,得到弱小目标的目标识别结果。
作为优选的技术方案,所述的多视角目标识别结果包括多视角目标类别信息、多视角目标识别框信息和多视角目标置信度信息。
作为优选的技术方案,基于SIFT算法实现对多视角目标识别结果的特征提取,基于BF算法实现特征匹配。
作为优选的技术方案,多视角下目标的立体定位采用下式计算:
其中,为运动目标的坐标,/>为置信度计算符,/>为由编号为1和n的摄像头经过双目视觉定位得到的坐标。
作为优选的技术方案,所述的多视角特征提取过程中,多视角特征点的梯度方向由下式确定:
其中,为坐标在/>的像素点的灰度值,/>为/>处的梯度方向。
作为优选的技术方案,还包括如下步骤:
基于目标的类型和目标的坐标,生成监控报告。
本发明的另一个方面,提供了一种无人机集群多视角融合航拍港口监控系统,包括:
无人机集群全自动部署模块,用于将无人机集群部署至港口待巡查区域;
无人机集群港口安全无死区监控路径规划模块,用于实现无人机集群编队飞行控制和自适应无人机集群路径规划;
港口弱小移动目标识别及跟踪模块,用于各个无人机的视频流,通过改进优化后弱小移动目标识别跟踪得到目标识别结果;
多视角特征匹配模块,用于针对所述多视角视频流进行多视角特征提取和特征匹配,为每个目标分配唯一的标签;
基于置信度的多目视觉目标定位模块,用于利用无人机集群多目视觉中的每两个摄像头的目标识别结果计算置信度,得到目标的坐标。
作为优选的技术方案,所述的无人机集群自动部署模块包括无人机集群自动起降子模块、无人机集群自主循环充电子模块和无人机集群航拍设定子模块,所述无人机集群港口安全无死区监控路径规划模块包括无人机集群编队飞行控制子模块和可学习自适应无人机集群路径规划子模块。
本发明的另一个方面,提供了一种计算机可读存储介质,包括供电子设备的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行上述无人机集群多视角融合航拍港口监控方法的指令。
与现有技术相比,本发明具有以下有益效果:
提高港口监控的及时发现、及时响应能力:本申请使用无人机集群,使用改进优化的特征提取网络,通过多视角融合对弱小目标多视角特征提取并对目标进行多视角立体定位。本申请具有能够规避遮挡盲区影响、实现多视角无遮挡连续检测的能力;具有获得多角度目标物特征进行识别的能力;具有对弱小目标特征提取能力强、漏检误检率低的能力;具有使用多视角对目标进行精准立体定位的能力。改善了传统单一无人机难以避免的因遮挡物导致目标丢失的问题;改善了传统特征提取与目标识别网络无法对弱小目标提取特征的问题;改善了传统单一视角无法对目标进行立体定位的问题。
附图说明
图1为实施例中无人机集群多视角融合航拍港口监控系统的示意图;
图2为实施例中港口监控场景的示意图,
其中,1、无人机集群全自动部署模块,2、无人机集群港口安全无死区监控路径规划模块,3、港口弱小移动目标识别及跟踪模块,4、多视角特征匹配模块,5、基于置信度的多目视觉目标定位模块,6、无人机集群。
具体实施方式
实施例1
针对前述现有技术存在的问题,参见图1,本实施例提供了一种无人机集群多视角融合航拍港口监控系统,主要包括:
无人机集群部署调度子系统,其包括无人机集群全自动部署模块1和无人机集群港口安全无死区监控路径规划模块2。
多视角特征匹配危险目标识别跟踪子系统,其包括港口弱小移动目标识别及跟踪模块3、多视角特征匹配模块4和基于置信度的多目视觉目标定位模块5。
其中,各模块的详细说明如下。
无人机集群全自动部署模块1,用于完成无人机集群自动起降、循环充电和航拍设定功能。具体的,本模块包括无人机集群自动起降子模块、无人机集群自主循环充电子模块和无人机集群航拍设定子模块。
无人机集群港口安全无死区监控路径规划模块2,用于完成无人机集群编队飞行控制和可学习自适应无人机集群路径规划。本模块包括无人机集群编队飞行控制子模块和可学习自适应无人机集群路径规划子模块。可学习无人机集群路径规划子模块与无人机集群航拍设定子模块共同作用,实时传输多角度视频流至多视角特征匹配危险目标识别跟踪子系统。
港口弱小移动目标识别及跟踪模块3,用于识别无人机集群实时监控视频流中港口安全相关的车辆和人员等入侵。本模块使用两段式检测神经网络FasterRCNN,所述FasterRCNN的骨干网络部分使用高分辨率网络HRNet,该网络的标签分配策略采用针对弱小目标改进的RFLA策略,其使用瓦尔斯坦距离更直观反应弱小目标gt框的重合程度:
其中,为瓦尔斯坦距离,/>为高斯ERF函数,为高斯gt框。随后将输出的港口弱小移动目标识别结果传入多视角特征匹配模块4。/>作为标准2D高斯分布的平均向量,用理论感受野半径的一半来近似有效感受野半径/>,将有效感受野的范围建模为二维高斯分布:
其中,。
将gt框(,/>,/>,/>)建模为标准的2D高斯分布:
公式中,高斯有效感受野:,高斯gt框:/>。
多视角特征匹配模块4,用于将无人机集群实时监控视频流中不同角度的识别目标做特征匹配。本模块对无人机集群多视角港口弱小移动目标识别结果进行SIFT算法特征提取,特征点梯度方向如下:
其中,L(x,y)为每一个像素点,θ(x,y)为该特征点梯度方向。随后使用BF匹配算法对多视角目标进行特征匹配并分配唯一的检测目标标签,传入基于置信度的多目视觉目标定位预警模块5。
基于置信度的多目视觉目标定位预警模块5,用于对已识别目标进行世界坐标系高精度定位,并生成监控报告和预警信息以调动港口地面车辆安保人员可以及时采取相应的安全措施。本模块通过使用无人机集群多目视觉中的每两个摄像头的港口弱小移动目标识别结果和特征匹配分配的目标标签,根据无人机的GPS定位对该目标进行世界坐标系定位,随后根据无人机集群多视角计算置信度确定该目标的精确世界坐标:
其中,为被测目标精确世界坐标,/>为置信度计算符,/>为由编号为1和n无人机双目视觉定位的世界坐标。
双目视觉确定目标坐标的实现原理是利用视差原理通过测量同一物体在两个不同位置的成像之间的差异,计算出物体与相机之间的距离及三维坐标。
双目视觉确定目标坐标的过程如下:
Step1,标定相机:首先需要标定两个相机,以确定它们的位置和方向。这可以通过使用标定板或其它已知特征来实现。标定时需要采集多个不同角度和位置的标定板图像,并计算出每个相机的内参(如焦距、主点位置等)和外参(如旋转矩阵和平移矩阵)。
相机内参标定公式:
K = [f s 0; 0 f 0; 0 0 1]
其中 f 为焦距,s 为相机的偏移量,主点位置为 (0, 0)。
相机外参标定公式:
R = [r1 r2 r3]
T = [t1 t2 t3]
Xc = R Xw + T
其中 R 为旋转矩阵,T 为平移矩阵,r1、r2、r3 和 t1、t2、t3 分别为相应的元素。
Step2,计算三维坐标:根据目标物体在左右相机坐标系下的位置,计算出其三维坐标。根据三角形相似原理:
其中,为左相机成像面目标像素点坐标,/>为相机成像面横轴像素点数量,/>为目标物P在基线投影处H距离左相机OR的距离,f为焦距,z为目标物距离基线的距离,其计算公式如下:
其中,B为两个视觉摄像头的中心距,为右相机成像面目标像素点坐标。
基线在世界坐标系下斜率:
由此计算PH斜率:
计算H点坐标和/>
最终可以获得目标物P点坐标X3,Y3:
本系统通过对小目标特殊改进的目标识别算法加以多角度特征融合后通过无人机集群多目视觉定位基于置信度对目标进行精准定位,有效提高港口全方位监控应对车辆入侵威胁时的及时发现、及时响应能力,提高港口的安全性和应急响应能力。
实施例2
在实施例1的基础上,参见图2,本实施例提供了一种无人机集群多视角融合航拍港口监控方法,包括如下步骤:
S1,无人机集群自动部署及路径规划步骤。将港口重要监控区域划分成多个待巡查区域,针对不同地形复杂度对无人机集群的数量和编队进行规划,同时根据监控历史记录对曾经发生警告的区域自动调整无人机编队和巡逻路径以达到港口无死角监控。
S2,无人机集群多视角自动视频流传输步骤。控制无人机集群按照指定航线、航速及拍摄角度采集实时多视角视频流数据,上传至多视角特征匹配危险目标识别跟踪子系统,同时监测无人机集群的状态和数据。
S3,实时多视角视频流数据处理步骤。接收来自无人机集群6的实时多视角视频流数据,通过港口弱小移动目标识别及跟踪模块3识别港口安全相关弱小目标,随后通过多视角特征匹配模块4对多视角目标进行特征匹配并分配唯一的检测目标标签,最后通过基于置信度的多视角目标定位预警模块5,根据无人机的GPS定位对该目标进行世界坐标系定位,根据无人机集群多视角计算置信度确定该目标的精确世界坐标并生成监控报告。
传统单架无人机监控方法存在不可避免的受到港口复杂地形因遮挡物而存在监控盲区,进而导致目标物识别丢失、无法跟踪的问题,同时单一视角无法对目标物进行立体位置测量。
传统的特征提取及目标识别网络如YOLOv5等无法对弱小目标进行特征提取与识别,单台无人机单一视角也会存在因港口地形复杂而遮挡目标进而无法连续提取特征的情况发生。
针对上述问题,本发明使用无人机集群,使用改进优化的特征提取网络,通过多视角融合对弱小目标多视角特征提取并对目标进行多视角立体定位。本发明具有能够改善遮挡盲区影响、实现多视角无遮挡连续检测的能力;具有获得多角度目标物特征进行识别的能力;具有对弱小目标特征提取能力强、漏检误检率低的能力;具有使用多视角对目标进行精准立体定位的能力。改善了传统单一无人机难以避免的因遮挡物导致目标丢失的问题;改善了传统特征提取与目标识别网络无法对弱小目标提取特征的问题;改善了传统单一视角无法对目标进行立体定位的问题。
实施例3
在实施例1的基础上,本实施例提供了一种计算机可读存储介质,包括供电子设备的一个或多个处理器执行的一个或多个程序,一个或多个程序包括用于执行如实施例2所述无人机集群多视角融合航拍港口监控方法的指令。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (7)
1.一种无人机集群多视角融合航拍港口监控方法,其特征在于,包括如下步骤:
通过路径规划将无人机集群部署至港口待巡查区域;
采集多视角无人机集群的视频流,通过弱小移动目标识别网络得到目标识别结果;
针对所述视频流进行多视角特征提取和特征匹配,为每个目标分配唯一的标签;
基于无人机集群的坐标以及所述标签,利用无人机集群多视角中的每两个摄像头的目标识别结果计算置信度,对目标进行立体定位,
其中,通过针对弱小目标改进后的特征提取与目标识别网络得到目标识别结果的过程包括:
利用基于HRNet的两段式检测神经网络优化计算瓦尔斯坦距离作为弱小目标gt框的重合度,得到弱小目标的目标识别结果,
目标的坐标采用下式计算:
,
其中,为运动目标的坐标,/>为置信度计算符,/>为由编号为1和n的摄像头经过双目视觉定位得到的坐标。
2.根据权利要求1所述的一种无人机集群多视角融合航拍港口监控方法,其特征在于,所述的目标识别结果包括多视角目标类别信息、多视角目标识别框信息和多视角目标置信度信息。
3.根据权利要求1所述的一种无人机集群多视角融合航拍港口监控方法,其特征在于,基于SIFT算法实现对多视角的目标识别结果的特征提取,基于BF算法实现特征匹配。
4.根据权利要求1所述的一种无人机集群多视角融合航拍港口监控方法,其特征在于,所述的特征提取过程中,特征点的梯度方向由下式确定:
,
其中,为坐标在/>的像素点的灰度值,/>为/>处的梯度方向。
5.一种无人机集群多视角融合航拍港口监控系统,其特征在于,包括:
无人机集群全自动部署模块,用于将无人机集群部署至港口待巡查区域;
无人机集群港口安全无死区监控路径规划模块,用于实现无人机集群编队飞行控制和自适应无人机集群路径规划;
港口弱小移动目标识别及跟踪模块,用于从多视角无人机集群的多视角视频流中通过对弱小目标优化后的特征提取和目标识别网络得到目标识别结果;
多视角特征匹配模块,用于针对所述多视角视频流进行多视角特征提取和多视角特征匹配,为每个目标分配唯一的标签;
基于置信度的多目视觉目标定位模块,用于利用无人机集群多视角中的每两个摄像头的目标识别结果计算置信度,对目标立体定位,
其中,通过针对弱小目标改进后的特征提取与目标识别网络得到目标识别结果的过程包括:
利用基于HRNet的两段式检测神经网络优化计算瓦尔斯坦距离作为弱小目标gt框的重合度,得到弱小目标的目标识别结果,
目标的坐标采用下式计算:
,
其中,为运动目标的坐标,/>为置信度计算符,/>为由编号为1和n的摄像头经过双目视觉定位得到的坐标。
6.根据权利要求5所述的一种无人机集群多视角融合航拍港口监控系统,其特征在于,所述的无人机集群自动部署模块包括无人机集群自动起降子模块、无人机集群自主循环充电子模块和无人机集群航拍设定子模块,所述无人机集群港口安全无死区监控路径规划模块包括无人机集群编队飞行控制子模块和可学习自适应无人机集群路径规划子模块。
7.一种计算机可读存储介质,其特征在于,包括供电子设备的一个或多个处理器执行的一个或多个程序,所述一个或多个程序包括用于执行如权利要求1-4任一所述无人机集群多视角融合航拍港口监控方法的指令。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311714069.6A CN117409340B (zh) | 2023-12-14 | 2023-12-14 | 无人机集群多视角融合航拍港口监控方法、系统、介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311714069.6A CN117409340B (zh) | 2023-12-14 | 2023-12-14 | 无人机集群多视角融合航拍港口监控方法、系统、介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117409340A CN117409340A (zh) | 2024-01-16 |
CN117409340B true CN117409340B (zh) | 2024-03-22 |
Family
ID=89489417
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311714069.6A Active CN117409340B (zh) | 2023-12-14 | 2023-12-14 | 无人机集群多视角融合航拍港口监控方法、系统、介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117409340B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103716579A (zh) * | 2012-09-28 | 2014-04-09 | 中国科学院深圳先进技术研究院 | 视频监控方法及系统 |
CN109756837A (zh) * | 2017-11-03 | 2019-05-14 | 北京嘀嘀无限科技发展有限公司 | 定位方法及装置 |
CN109949229A (zh) * | 2019-03-01 | 2019-06-28 | 北京航空航天大学 | 一种多平台多视角下的目标协同检测方法 |
CN111768449A (zh) * | 2019-03-30 | 2020-10-13 | 北京伟景智能科技有限公司 | 一种双目视觉结合深度学习的物体抓取方法 |
CN114693785A (zh) * | 2020-12-31 | 2022-07-01 | 华为技术有限公司 | 一种目标定位的方法、系统及相关设备 |
CN115661204A (zh) * | 2022-11-01 | 2023-01-31 | 中国人民解放军军事科学院国防科技创新研究院 | 一种无人机集群对运动目标的协同搜寻与跟踪定位方法 |
CN116958809A (zh) * | 2023-06-16 | 2023-10-27 | 中国科学院空天信息创新研究院 | 一种特征库迁移的遥感小样本目标检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11710316B2 (en) * | 2020-08-13 | 2023-07-25 | Toca Football, Inc. | System and method for object tracking and metric generation |
-
2023
- 2023-12-14 CN CN202311714069.6A patent/CN117409340B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103716579A (zh) * | 2012-09-28 | 2014-04-09 | 中国科学院深圳先进技术研究院 | 视频监控方法及系统 |
CN109756837A (zh) * | 2017-11-03 | 2019-05-14 | 北京嘀嘀无限科技发展有限公司 | 定位方法及装置 |
CN109949229A (zh) * | 2019-03-01 | 2019-06-28 | 北京航空航天大学 | 一种多平台多视角下的目标协同检测方法 |
CN111768449A (zh) * | 2019-03-30 | 2020-10-13 | 北京伟景智能科技有限公司 | 一种双目视觉结合深度学习的物体抓取方法 |
CN114693785A (zh) * | 2020-12-31 | 2022-07-01 | 华为技术有限公司 | 一种目标定位的方法、系统及相关设备 |
CN115661204A (zh) * | 2022-11-01 | 2023-01-31 | 中国人民解放军军事科学院国防科技创新研究院 | 一种无人机集群对运动目标的协同搜寻与跟踪定位方法 |
CN116958809A (zh) * | 2023-06-16 | 2023-10-27 | 中国科学院空天信息创新研究院 | 一种特征库迁移的遥感小样本目标检测方法 |
Non-Patent Citations (4)
Title |
---|
(美)包米克·维迪雅著;顾海燕译.《基于GPU加速的计算机视觉编程》.北京:机械工业出版社,2020,148-150. * |
RFLA: Gaussian Receptive Field based Label Assignment for Tiny Object Detection;Chang Xu ed.;arXiv:2208.08738v2 [cs.CV];20221017;1-18 * |
基于多核DSP平台的交通视频运动目标检测跟踪实现;王燕;陈婧;章菲菲;张旭;姜嘉浩;;信息通信;20161215(第12期);10-13 * |
房余龙.《无人机技术与应用》.苏州:苏州大学出版社,2021,117-118. * |
Also Published As
Publication number | Publication date |
---|---|
CN117409340A (zh) | 2024-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104197928B (zh) | 多摄像机协同的无人机检测、定位及跟踪方法 | |
EP3792660B1 (en) | Method, apparatus and system for measuring distance | |
CN109472831A (zh) | 面向压路机施工过程的障碍物识别测距系统及方法 | |
CN108731587A (zh) | 一种基于视觉的无人机动态目标跟踪与定位方法 | |
CN106444837A (zh) | 一种无人机避障方法及系统 | |
CN106019264A (zh) | 一种基于双目视觉的无人机危险车距识别系统及方法 | |
CN110873879A (zh) | 一种多源异构传感器特征深度融合的装置及方法 | |
GB2619196A (en) | Multi-target vehicle detection and re-identification method based on radar and video fusion | |
CN109263637B (zh) | 一种碰撞预测的方法及装置 | |
CN113850102B (zh) | 基于毫米波雷达辅助的车载视觉检测方法及系统 | |
CN110889873A (zh) | 一种目标定位方法、装置、电子设备及存储介质 | |
CN109697428B (zh) | 基于rgb_d和深度卷积网络的无人机识别定位系统 | |
CN115273034A (zh) | 一种基于车载多传感器融合的交通目标检测与跟踪方法 | |
CN105810023B (zh) | 机场起落架收放自动监测方法 | |
Altekar et al. | Infrastructure-based sensor data capture systems for measurement of operational safety assessment (osa) metrics | |
CN115291219A (zh) | 利用单目摄像头实现无人机动态避障方法、装置及无人机 | |
CN112488022B (zh) | 一种环视全景监控方法、装置及系统 | |
CN109708659B (zh) | 一种分布式智能光电低空防护系统 | |
CN117409340B (zh) | 无人机集群多视角融合航拍港口监控方法、系统、介质 | |
Kai et al. | Research on augmented reality technology of helicopter aided navigation based on lidar | |
CN116430879A (zh) | 基于合作目标的无人机精准引导降落方法及系统 | |
CN113589848B (zh) | 基于机器视觉的多无人机探测定位跟踪系统及方法 | |
CN116580107A (zh) | 一种跨视角多目标实时轨迹跟踪方法与系统 | |
CN116403186A (zh) | 基于FPN Swin Transformer与Pointnet++ 的自动驾驶三维目标检测方法 | |
Ding et al. | Research on UAV detection technology of Gm-APD Lidar based on YOLO model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20240613 Address after: 201318, 1st Floor, Building 29, No. 5358 Zhoudeng Road, No. 4510 Kangxin Road, and No. 4528 Kangxin Road, Pudong New Area, Shanghai Patentee after: Shanghai Jingmu Technology Co.,Ltd. Country or region after: China Address before: 201306 1550 Harbour Road, Lingang New Town, Pudong New Area, Shanghai Patentee before: Shanghai Maritime University Country or region before: China |