CN114964245B - 一种无人机视觉侦察定位方法 - Google Patents

一种无人机视觉侦察定位方法 Download PDF

Info

Publication number
CN114964245B
CN114964245B CN202210182632.9A CN202210182632A CN114964245B CN 114964245 B CN114964245 B CN 114964245B CN 202210182632 A CN202210182632 A CN 202210182632A CN 114964245 B CN114964245 B CN 114964245B
Authority
CN
China
Prior art keywords
target
unmanned aerial
aerial vehicle
acquiring
calculating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210182632.9A
Other languages
English (en)
Other versions
CN114964245A (zh
Inventor
李伟俊
梅粲文
谭立鹏
钟娅
王江平
刘礼方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Ziyan Unmanned Aerial Vehicle Co ltd
Original Assignee
Zhuhai Ziyan Unmanned Aerial Vehicle Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Ziyan Unmanned Aerial Vehicle Co ltd filed Critical Zhuhai Ziyan Unmanned Aerial Vehicle Co ltd
Priority to CN202210182632.9A priority Critical patent/CN114964245B/zh
Publication of CN114964245A publication Critical patent/CN114964245A/zh
Application granted granted Critical
Publication of CN114964245B publication Critical patent/CN114964245B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Analysis (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Navigation (AREA)

Abstract

本发明提供了一种无人机视觉侦察定位方法,其特征在于,所述方法包括步骤:S1,利用AI选取目标,并进行图像跟踪;S2,获取目标的三维坐标数据,通过目标的三维坐标信息获取目标的相对位置;S3,对相对位置进行滤波;S4,根据无人机的GPS坐标信息及滤波后的相对位置信息,解算获得目标的GPS位置。通过本方法,可以实现对目标的精准定位。

Description

一种无人机视觉侦察定位方法
技术领域
本发明涉及无人机导航技术领域,具体涉及一种无人机视觉侦察定位方法。
背景技术
随着无人系统的快速发展和普及,无人机在众多领域发挥的作用越来越大。众多需求中,如边境巡检,森林防火,搜救,等巡检类应用,以及逃犯抓捕等侦察类应用,不少都需要具备目标定位能力,这类应用对定位的精度没有非常精确的要求,大多为米级可满足功能需求。这样则不需要搭载如三维建模激光雷达,深度相机等昂贵的建模定位设备。且该类应用通常需要在地面灵活的操作视频镜头,使用吊舱最为适合。
目前,无人机在进行侦察任务时,通常是在发现目标后锁定目标并对其进行持续跟踪,由于发现目标及定位目标的过程需要多个机载设备协调完成,需要融合多种数据才能较为准确的计算出目标的位置。另外,由于无人机在锁定目标后,仍处于持续运动状态,目标相对于无人机的位置是持续变化的,所以在采集数据及处理数据的过程中必然存在误差,造成目标定位的不准确
发明内容
基于现有技术存在的问题和不足,本申请提供了一种无人机视觉侦察定位方法,给只挂载吊舱的这一类无人机设备具备视觉侦察和目标定位的能力,同时提高定位精度。
具体技术方案如下:
一种无人机视觉侦察定位方法,其特征在于,所述方法包括步骤:
S1,利用AI选取目标,并进行图像跟踪;
S2,获取目标的三维坐标数据,通过目标的三维坐标信息获取目标的相对位置;
S3,对相对位置进行滤波;
S4,根据无人机的GPS坐标信息及滤波后的相对位置信息,解算获得目标的GPS位置。
进一步地,步骤S2中,获取目标的三维坐标信息的方法包括:
S21,获取无人机姿态、吊舱姿态、激光测距距离,通过吊舱焦距反算出视场角;
S22,通过像素位置、视场角、无人机姿态、吊舱姿态以及测距距离反算出相对位置,反算的方法包括利用三轴旋转矩阵融合无人机姿态及吊舱姿态,获得融合姿态向量,其中,无人机姿态、吊舱姿态都为三轴姿态,
三轴旋转矩阵为:
融合姿态向量为:
Wmix=Wahrs×Rz(yaw)×Ry(pitch)×Rx(roll)
融合视场角数据为:
Wt=Wmix×Rz(yaw)×Ry(pitch)×Rx(roll)
其中,roll表示飞行器横滚角,pitch表示飞行器俯仰角,yaw表示飞行器航向角,Wmix表示飞行器-吊舱姿态融合矩阵,Wahrs表示飞行器姿态矩阵;Wt表示目标相对位置向量矩阵,Rz表示z轴旋转矩阵,Ry表示y轴旋转矩阵,Rx表示x轴旋转矩阵;
然后通过坐标系换算反算出无人机和目标的球坐标系位置。
进一步地,所述的激光测距距离测得的是无人机距离目标的直线距离。
进一步地,S3中对相对位置进行滤波的方法包括采用αβ滤波器进行滤波,具体的滤波方法包括步骤:
S31,根据历史数据的方差确定αβ滤波器的初始参数;
S32,获取第k点的测量值Xk,并计算测量更新方程其中,Xk为第k点的位置测量值,/>为第k点的位置预测值,/>为第k-1 点的位置预测值,ΔT为滤波周期,/>为第k-1点的速度预测值;
S33,计算第k点的αβ滤波器位置预测更新方程和速度估计方程,其中,
预测更新方程为:
其中,为第k点位置预测的误差值;
速度估计方程为:
其中,/>为第k点的速度预测值;
S34,计算第k点的αβ滤波器的误差方程:
S35,获取距离当前一段时间内的数据的方差:
其中,xi表示一段时间内第i个距离数据,表示一段时间内的距离平均值;
获取解算目标准确性的系数:
ΔW表示目标的机动性系数;
根据机动性和方差计算获取αβ两个参数,其中,
S35,若继续跟踪,则判断误差是否在合理范围内,若是,则返回S32,若误差没在合理范围内,则获取αβ滤波器参数,更新滤波器预测值,若不继续跟踪,则结束。
进一步地,步骤S4中,根据无人机的GPS坐标信息及滤波后的相对位置信息,解算获得目标的GPS位置的方法包括:
获取目标的NED坐标:
根据目标的NED坐标,通过公式
获取目标的真实位置坐标信息,其中,PNED表示北东地坐标系下飞行器和目标的相对位置,lng及longitude表示经度,lat及lattitude表示纬度,alt及altitude 表示海拔高度,N表示以北为正方向的南北向相对距离,E表示以东为正方向的东西向相对距离,D表示以地为正方向的地空向相对距离,Ea表示地球极半径,Eb表示地球赤道半径。
进一步地,步骤S1中,对目标进行跟踪时需要获取目标的经纬度信息和像素位置。
有益效果:利用无人机定位数据,结合滤波后的相对位置,进行坐标转换推算出目标的GPS位置,实现了对目标的精准定位。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明的方法流程图;
图2为本发明中对相对位置进行滤波的方法流程图。
具体实施方式
下面结合附图对本发明实施例进行详细描述。
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,一种无人机视觉侦察定位方法,包括步骤:
S1,利用AI选取目标,并进行图像跟踪,获得目标像素位置;
本步骤中,无人机在获取到吊舱图像后,无人机可通过与自身的主控制器外接的处理器对图像进行处理,该处理器通过摄像机采集图像,无人机的主控制器可使用串口通讯协议控制该外接的处理器,摄像机选择能识别特定的物体的摄像机,并实现对侦查目标的图像跟踪,并返回跟踪物体在图像上的像素坐标,作为数据用于后面的位置解算。
S2,获取无人机姿态,吊舱姿态,激光测距距离,通过吊舱焦距反算出视场角;
本步骤中,通过吊舱的相机参数以及反馈的焦距信息,能得出当前焦距下的视场角数据,通过像素位置,视场角,飞行器姿态,吊舱姿态,以及测距距离反算出相对位置,其中,反算的方法包括利用三轴旋转矩阵融合无人机姿态及吊舱姿态,获得融合姿态向量,其中,无人机姿态、吊舱姿态都为三轴姿态,
三轴旋转矩阵为:
其中,roll表示飞行器横滚角,pitch表示飞行器俯仰角,yaw表示飞行器航向角,Rz表示z轴旋转矩阵,Ry表示y轴旋转矩阵,Rx表示x轴旋转矩阵;
融合姿态向量为:
Wmix=Wahrs×Rz(yaw)×Ry(pitch)×Rx(roll)
其中,Wmix表示飞行器-吊舱姿态融合矩阵,Wahrs表示飞行器姿态矩阵;
吊舱的成像过程可以等效为三维世界OcXcYcZc的集合向二维平面Oxy的投影过程。其深度信息在投影过程中丢失,使得从常规手段无法根据吊舱得到的图像像素信息无损的还原出真实三维世界的全部信息,而通过激光测距作为辅助测量手段,利用激光测距作为深度信息的获取手段,近似的还原出目标附近的深度信息。从而能够结合其他已知条件解算出目标的相对位置。
首先,获取融合视场角数据为:
Wt=Wmix×Rz(yaw)×Ry(pitch)×Rx(roll)
其中,Wt表示目标相对位置向量矩阵。
然后通过坐标系换算反算出无人机和目标的球坐标系位置。
基于上述分析,可设吊舱的旋转中心为球坐标系的原点为O,锁定到的目标点为P。方向角φ和仰角θ均可以通过融合矢量Wt进行坐标换算获得,原点O到目标点P的距离r即为激光测距距离。P点的球坐系是标唯一,可以通过坐标换算反算出飞行器和目标P的笛卡尔坐标系下的相对位置P(x,y,z)。
如图2所示,S3,对相对位置进行滤波,滤波的具体方法包括:
S31,根据历史数据的方差确定αβ滤波器的初始参数;
S32,获取第k点的测量值并计算测量方程
S33,计算第k点的αβ滤波器位置预测更新方程和速度估计方程,其中,更新方程为其中,Xk为第k点的位置测量值,/>为第k点的位置预测值,/>为第k-1点的位置预测值,ΔT为滤波周期,/>为第k-1点的速度预测值;
速度估计方程为:
其中,/>为第k点的速度预测值;
由于无人机姿态和吊舱姿态,激光测距存在不同程度的误差,此时通过解算得到的相对位置会收到这些误差的综合影响。结合无人机的运动和目标的运动模型,将目标与飞行器的相对运动近似为一个二阶状态模型,即目标与飞行器的相对速度v以及目标与飞行器的相对位置p。观测量(测量值)为通过前一步骤解算得到的相对位置p,对应模型中的一阶状态。假设滤波周期ΔT足够小,可以近似认为二阶状态(速度v)是保持不变的,结合卡尔曼滤波的思想,可以对下一个周期的模型的状态进行合理预测,在卡尔曼滤波的思想下,存在假设的下个时刻的速度与上一时刻是相同,
S34,计算第k点的αβ滤波器的误差方程:
S35,获取距离当前一段时间内的数据的方差:
其中,xi表示一段时间内第i个距离数据,表示一段时间内的距离平均值;
获取解算目标准确性的系数:
ΔW表示目标的机动性系数,ΔW通过人为判定后手动设定,作为系统的输入参数进行灵活调节。
根据机动性和方差计算获取αβ两个参数,其中,
S35,若继续跟踪,则判断误差是否在合理范围内,若是,则返回S32,若误差没在合理范围内,则获取αβ滤波器参数,更新滤波器预测值,若不继续跟踪,则结束。
S4,根据无人机的GPS坐标信息及滤波后的相对位置信息,解算获得目标的GPS位置。
本步骤中,解算获得目标的GPS位置的方法包括:
获取目标的NED坐标:
根据目标的NED坐标,通过公式
其中,PNED表示北东地坐标系下飞行器和目标的相对位置,lng及longitude表示经度,lat及lattitude表示纬度,alt及altitude表示海拔高度,N表示以北为正方向的南北向相对距离,E表示以东为正方向的东西向相对距离,D表示以地为正方向的地空向相对距离,Ea为地球赤道半径,Eb为地球极半径。
通过上述的公式可获取目标的真实位置坐标信息。
本实施例方法中,利用摄像头获取图像,AI视觉辅助进行目标自动选取,对锁定目标进行稳定视觉跟踪,再改进的αβ滤波器对位置数据进行滤波,得到满足控制条件的位置数据,再利用飞行器定位数据,结合滤波后的相对位置,进行坐标转换推算出目标的GPS坐标,从而实现对侦察目标的定位。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。

Claims (5)

1.一种无人机视觉侦察定位方法,其特征在于,所述方法包括步骤:
S1,利用AI选取目标,并进行图像跟踪;
S2,获取目标的三维坐标数据,通过目标的三维坐标信息获取目标的相对位置;
S3,对相对位置进行滤波;
S4,根据无人机的GPS坐标信息及滤波后的相对位置信息,解算获得目标的GPS位置;
S3中对相对位置进行滤波的方法包括采用αβ滤波器进行滤波,具体的滤波方法包括步骤:
S31,根据历史数据的方差确定αβ滤波器的初始参数;
S32,获取第k点的测量值Xk,并计算测量更新方程其中,Xk为第k点的位置测量值,/>为第k点的位置预测值,/>为第k-1点的位置预测值,ΔT为滤波周期,/>为第k-1点的速度预测值;
S33,计算第k点的αβ滤波器位置预测更新方程和速度估计方程,其中,预测更新方程为:
其中,为第k点位置预测的误差值;
速度估计方程为:
其中,/>为第k点的速度预测值;
S34,计算第k点的αβ滤波器的误差方程:
S35,获取距离当前一段时间内的数据的方差:
其中,xi表示一段时间内第i个距离数据,表示一段时间内的距离平均值;
获取解算目标准确性的系数:
ΔW表示目标的机动性系数;
根据机动性和方差计算获取αβ两个参数,其中,
S35,若继续跟踪,则判断误差是否在合理范围内,若是,则返回S32,若误差没在合理范围内,则获取αβ滤波器参数,更新滤波器预测值,若不继续跟踪,则结束。
2.如权利要求1所述的无人机视觉侦察定位方法,其特征在于,步骤S2中,获取目标的三维坐标信息的方法包括:
S21,获取无人机姿态、吊舱姿态、激光测距距离,通过吊舱焦距反算出视场角;
S22,通过像素位置、视场角、无人机姿态、吊舱姿态以及测距距离反算出相对位置,反算的方法包括利用三轴旋转矩阵融合无人机姿态及吊舱姿态,获得融合姿态向量,其中,无人机姿态、吊舱姿态都为三轴姿态,
三轴旋转矩阵为:
融合姿态向量为:
Wmix=Wahrs×Rz(yaw)×Ry(pitch)×Rx(roll)
融合视场角数据为:
Wt=Wmix×Rz(yaw)×Ry(pitch)×Rx(roll)
其中,roll表示飞行器横滚角,pitch表示飞行器俯仰角,yaw表示飞行器航向角,Wmix表示飞行器-吊舱姿态融合矩阵,Wahrs表示飞行器姿态矩阵;Wt表示目标相对位置向量矩阵,Rz表示z轴旋转矩阵,Ry表示y轴旋转矩阵,Rx表示x轴旋转矩阵;
然后通过坐标系换算反算出无人机和目标的球坐标系位置。
3.如权利要求2所述的无人机视觉侦察定位方法,其特征在于:所述的激光测距距离测得的是无人机距离目标的直线距离。
4.如权利要求1所述的无人机视觉侦察定位方法,其特征在于,步骤S4中,根据无人机的GPS坐标信息及滤波后的相对位置信息,解算获得目标的GPS位置的方法包括:
获取目标的NED坐标:
根据目标的NED坐标,通过公式
获取目标的真实位置坐标信息,其中,PNED表示北东地坐标系下飞行器和目标的相对位置,lng及longitude表示经度,lat及lattitude表示纬度,alt及altitude表示海拔高度,N表示以北为正方向的南北向相对距离,E表示以东为正方向的东西向相对距离,D表示以地为正方向的地空向相对距离,Ea表示地球极半径,Eb表示地球赤道半径。
5.如权利要求1所述的无人机视觉侦察定位方法,其特征在于,步骤S1中,对目标进行跟踪时需要获取目标的经纬度信息和像素位置。
CN202210182632.9A 2022-02-25 2022-02-25 一种无人机视觉侦察定位方法 Active CN114964245B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210182632.9A CN114964245B (zh) 2022-02-25 2022-02-25 一种无人机视觉侦察定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210182632.9A CN114964245B (zh) 2022-02-25 2022-02-25 一种无人机视觉侦察定位方法

Publications (2)

Publication Number Publication Date
CN114964245A CN114964245A (zh) 2022-08-30
CN114964245B true CN114964245B (zh) 2023-08-11

Family

ID=82972216

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210182632.9A Active CN114964245B (zh) 2022-02-25 2022-02-25 一种无人机视觉侦察定位方法

Country Status (1)

Country Link
CN (1) CN114964245B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109099779A (zh) * 2018-08-31 2018-12-28 江苏域盾成鹫科技装备制造有限公司 一种无人机侦测与智能拦截系统
CN110441748A (zh) * 2019-06-24 2019-11-12 西安电子科技大学 一种基于幅度信息的α-β滤波方法
CN111932588A (zh) * 2020-08-07 2020-11-13 浙江大学 一种基于深度学习的机载无人机多目标跟踪系统的跟踪方法
CN112116651A (zh) * 2020-08-12 2020-12-22 天津(滨海)人工智能军民融合创新中心 一种基于无人机单目视觉的地面目标定位方法和系统
CN112698323A (zh) * 2020-12-10 2021-04-23 中国航空工业集团公司沈阳飞机设计研究所 一种基于α-β-γ滤波器的全自动着陆雷达引导噪声抑制方法
CN113269098A (zh) * 2021-05-27 2021-08-17 中国人民解放军军事科学院国防科技创新研究院 一种基于无人机的多目标跟踪定位与运动状态估计方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11192646B2 (en) * 2018-10-03 2021-12-07 Sarcos Corp. Anchored aerial countermeasures for rapid deployment and neutralizing of target aerial vehicles

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109099779A (zh) * 2018-08-31 2018-12-28 江苏域盾成鹫科技装备制造有限公司 一种无人机侦测与智能拦截系统
CN110441748A (zh) * 2019-06-24 2019-11-12 西安电子科技大学 一种基于幅度信息的α-β滤波方法
CN111932588A (zh) * 2020-08-07 2020-11-13 浙江大学 一种基于深度学习的机载无人机多目标跟踪系统的跟踪方法
CN112116651A (zh) * 2020-08-12 2020-12-22 天津(滨海)人工智能军民融合创新中心 一种基于无人机单目视觉的地面目标定位方法和系统
CN112698323A (zh) * 2020-12-10 2021-04-23 中国航空工业集团公司沈阳飞机设计研究所 一种基于α-β-γ滤波器的全自动着陆雷达引导噪声抑制方法
CN113269098A (zh) * 2021-05-27 2021-08-17 中国人民解放军军事科学院国防科技创新研究院 一种基于无人机的多目标跟踪定位与运动状态估计方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王博.基于深度视觉的无人机自主巡检系统研究.中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑.2021,(第02期),第40-46页. *

Also Published As

Publication number Publication date
CN114964245A (zh) 2022-08-30

Similar Documents

Publication Publication Date Title
CN110243358B (zh) 多源融合的无人车室内外定位方法及系统
US8666661B2 (en) Video navigation
CN105184776B (zh) 目标跟踪方法
CN109885080B (zh) 自主控制系统及自主控制方法
CN112505737B (zh) 一种gnss/ins组合导航方法
CN111102981B (zh) 一种基于ukf的高精度卫星相对导航方法
GB2237951A (en) Navigation systems using passive imaging sensors
CN111966133A (zh) 一种云台视觉伺服控制系统
Sohn et al. Vision-based real-time target localization for single-antenna GPS-guided UAV
Mercado et al. Gps/ins/optic flow data fusion for position and velocity estimation
US9875403B2 (en) Method for accurately geolocating an image sensor installed on board an aircraft
Sabatini et al. Low-cost navigation and guidance systems for Unmanned Aerial Vehicles. Part 1: Vision-based and integrated sensors
Rhudy et al. Unmanned aerial vehicle navigation using wide‐field optical flow and inertial sensors
Kanellakis et al. Towards visual inspection of wind turbines: A case of visual data acquisition using autonomous aerial robots
Vezinet et al. State of the art of image-aided navigation techniques for aircraft approach and landing
CN109186614B (zh) 一种航天器间近距离自主相对导航方法
Nygårds et al. Navigation aided image processing in uav surveillance: Preliminary results and design of an airborne experimental system
CN114964245B (zh) 一种无人机视觉侦察定位方法
Zhao et al. Distributed filtering-based autonomous navigation system of UAV
Praschl et al. Enabling outdoor MR capabilities for head mounted displays: a case study
Causa et al. Adaptive Cooperative Navigation Strategies for Complex Environments
KR102392258B1 (ko) 영상 기반 잔불 추적 위치 매핑 장치 및 방법
Madison et al. Target geolocation from a small unmanned aircraft system
Kaiser et al. Position and orientation of an aerial vehicle through chained, vision-based pose reconstruction
CN113721188A (zh) 拒止环境下的多无人机自身定位与目标定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant