CN110570463B - 一种目标状态估计方法、装置和无人机 - Google Patents

一种目标状态估计方法、装置和无人机 Download PDF

Info

Publication number
CN110570463B
CN110570463B CN201910859837.4A CN201910859837A CN110570463B CN 110570463 B CN110570463 B CN 110570463B CN 201910859837 A CN201910859837 A CN 201910859837A CN 110570463 B CN110570463 B CN 110570463B
Authority
CN
China
Prior art keywords
target
image
camera device
obtaining
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910859837.4A
Other languages
English (en)
Other versions
CN110570463A (zh
Inventor
黄金鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Autel Intelligent Aviation Technology Co Ltd
Original Assignee
Shenzhen Autel Intelligent Aviation Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Autel Intelligent Aviation Technology Co Ltd filed Critical Shenzhen Autel Intelligent Aviation Technology Co Ltd
Priority to CN201910859837.4A priority Critical patent/CN110570463B/zh
Publication of CN110570463A publication Critical patent/CN110570463A/zh
Priority to PCT/CN2020/113989 priority patent/WO2021047502A1/zh
Priority to US17/654,514 priority patent/US20220198793A1/en
Application granted granted Critical
Publication of CN110570463B publication Critical patent/CN110570463B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例涉及一种目标状态估计方法、装置和无人机,所述方法包括:获取摄像装置采集的目标图像,并对目标图像进行图像识别,以获取目标在目标图像中的目标图像区域;获取无人机周围环境的原始点云,根据目标图像区域和原始点云获取第一目标位置;获取摄像装置的姿态信息,并基于目标图像区域获得第一图像位置,根据第一图像位置和姿态信息获取第二目标位置;基于所述目标图像区域获取第二图像位置;根据所述第一目标位置或者所述第二目标位置对目标状态进行初始化;将所述第一目标位置和/或所述第二目标位置和/或所述第二图像位置作为扩展卡尔曼滤波器的测量值,获得目标状态。本发明实施例不需强假设条件,状态估计的精度高。

Description

一种目标状态估计方法、装置和无人机
技术领域
本发明实施例涉及无人飞行器技术领域,特别涉及一种目标状态估计方法、装置和无人机。
背景技术
利用无人机对运动目标进行跟踪已得到广泛应用,利用无人机对目标进行跟踪时,需要根据目标的位置,规划合适的路径,在保持跟踪的前提下避开障碍物飞行。因此,在无人机跟踪目标过程中,获取目标的精确状态至关重要。
目前,较多采用的方法是假设地面为平面,并假设无人机对地高度为无人机相对于目标的高度,然后通过飞控或其他模块获得该对地高度、在上述假设条件下利用特定的几何关系估计目标状态。
在实现本发明过程中,发明人发现上述方法至少存在如下问题:在无人机下方非地面(例如山丘、楼梯)的场合,假设条件不成立,无人机获得的对地高度存在误差,从而导致依赖该对地高度进行的目标状态估计精度较差。
发明内容
本发明实施例的目的是提供一种精度高的目标状态估计方法、装置和无人机。
第一方面,本发明实施例提供了一种目标状态估计方法,所述方法用于无人机,所述无人机包括摄像装置,所述方法包括:
获取所述摄像装置采集的目标图像,并对所述目标图像进行图像识别,以获取目标在所述目标图像中的目标图像区域;
获取所述无人机周围环境的原始点云,根据所述目标图像区域和所述原始点云获取第一目标位置;
获取所述摄像装置的姿态信息,并基于所述目标图像区域获得第一图像位置,根据所述第一图像位置和所述姿态信息获取第二目标位置;
基于所述目标图像区域获取第二图像位置;
根据所述第一目标位置或者所述第二目标位置对目标状态进行初始化;
将所述第一目标位置和/或所述第二目标位置和/或所述第二图像位置作为扩展卡尔曼滤波器的测量值,获得目标状态;
其中,所述目标图像为二维图像,所述第一和第二图像位置均为所述目标图像区域在所述目标图像中的位置表示方式。
第二方面,本发明实施例提供了一种目标状态估计方法,所述方法用于无人机,所述无人机包括摄像装置,所述方法包括:
获取所述摄像装置采集的目标图像,并对所述目标图像进行图像识别,以获取目标在所述目标图像中的目标图像区域;
获取所述摄像装置的姿态信息,并基于所述目标图像区域获得第一图像位置,根据所述第一图像位置和所述姿态信息获取第二目标位置;
基于所述目标图像区域获取第二图像位置;
根据所述第二目标位置对目标状态进行初始化;
将所述第二目标位置和/或所述第二图像位置作为扩展卡尔曼滤波器的测量值,获得目标状态,
其中,所述目标图像为二维图像,所述第一和第二图像位置均为所述目标图像区域在所述目标图像中的位置表示方式。
在一些实施例中,所述根据所述目标图像区域和所述原始点云获取第一目标位置,包括:
将所述原始点云变换至所述目标图像所在的图像坐标系下,获得所述原始点云对应的图像点云;
确定是否存在目标对应的图像点云,所述目标对应的图像点云为位于所述目标图像区域的图像点云,如果存在所述目标对应的图像点云,则根据所述目标对应的图像点云获得第一目标位置。
在一些实施例中,所述姿态信息为所述摄像装置的俯仰角;
所述获取所述摄像装置的姿态信息,并基于所述目标图像区域获得第一图像位置,根据所述第一图像位置和所述姿态信息获取第二目标位置,包括:
获取所述摄像装置的俯仰角,如果所述俯仰角小于或者等于预设角度阈值,则基于所述目标图像区域获得第一图像位置,并根据所述第一图像位置、所述俯仰角以及所述目标与所述摄像装置构建的几何关系获得第二目标位置。
在一些实施例中,所述基于所述目标图像区域获取第二图像位置,包括:
如果所述目标图像区域的大小与所述目标图像的区域的大小之比值大于或者等于预设比例阈值,则基于所述目标图像区域获得第二图像位置。
在一些实施例中,所述目标图像区域为所述目标在所述目标图像中的最小外接框;
所述目标对应的图像点云为各图像点云中坐标位于所述最小外接框内的图像点云。
在一些实施例中,所述根据所述目标对应的图像点云获得第一目标位置,包括:
根据所述目标对应的图像点云的世界坐标获得所述目标相对于所述无人机的距离和高度。
在一些实施例中,所述第一图像位置为所述目标在所述目标图像中的最小外接框的最高点和最低点;
所述根据所述第一图像位置、所述俯仰角以及所述目标与所述摄像装置构建的几何关系获得第二目标位置,包括:
基于所述最高点的纵坐标vmin、所述最低点的纵坐标vmax、所述目标的预设高度M和所述俯仰角,根据所述目标与所述摄像装置构建的几何关系获得所述第二目标位置。
在一些实施例中,所述基于所述最高点的纵坐标vmin、所述最低点的纵坐标vmax、所述目标的预设高度M和所述俯仰角,根据所述目标与所述摄像装置构建的几何关系获得所述第二目标位置,包括:
根据所述最低点的纵坐标vmax获得所述最低点与所述摄像装置的光心的连线与所述摄像装置的光轴之间的夹角β;
根据所述最高点的纵坐标vmin获得所述最高点与所述摄像装置的光心的连线与所述摄像装置的光轴之间的夹角α;
根据所述夹角β和所述夹角α获得由所述最高点与所述摄像装置的光心之间的连线、与所述最低点与所述摄像装置的光心之间的连线所构成的夹角
Figure BDA0002199395580000043
其中,
Figure BDA0002199395580000044
根据所述夹角β、所述摄像装置的俯仰角θ,获得所述最低点与所述摄像装置的光心之间的连线与竖直方向构成的夹角δ,其中,
Figure BDA0002199395580000041
根据所述夹角δ、所述夹角
Figure BDA0002199395580000042
所述预设高度M和所述几何关系获得所述目标相对于所述无人机的距离和高度。
在一些实施例中,所述根据所述夹角δ、所述夹角
Figure BDA0002199395580000045
所述预设高度M和所述几何关系获得所述目标相对于所述无人机的距离和高度,包括:
通过以下二元方程获得所述最低点与所述摄像装置的光心的连线长度L2,以及所述最高点与所述摄像装置的光心的连线长度L2
Figure BDA0002199395580000046
Figure BDA0002199395580000047
通过公式d=L2sinδ计算所述目标相对于所述无人机的距离d;
通过公式
Figure BDA0002199395580000048
计算所述目标相对于所述无人机的高度h。
在一些实施例中,所述根据所述最低点的纵坐标vmax获得所述最低点与所述摄像装置的光心的连线与所述摄像装置的光轴之间的夹角β,包括:
利用以下公式计算所述夹角β:
β=tan-1(vmax-cy)/fy
其中,cy为所述摄像装置的主点纵坐标,fy为所述摄像装置在y轴方向上的焦距;
所述根据所述最高点的纵坐标vmin获得所述最高点与所述摄像装置的光心的连线与所述摄像装置的光轴之间的夹角α,包括:
利用以下公式计算所述夹角α:
α=tan-1(vmin-cy)/fy
在一些实施例中,所述目标图像区域为所述目标在所述目标图像中的最小外接框,所述第二图像位置为所述最小外接框的中心坐标。
在一些实施例中,所述根据所述第一目标位置或者所述第二目标位置对目标状态进行初始化,包括:
判断是否获取到所述第一目标位置,
若是,则根据所述第一目标位置对所述目标状态进行初始化,
若否,则根据所述第二目标位置对所述目标状态进行初始化。
在一些实施例中,所述将所述第一目标位置和/或所述第二目标位置和/或所述第二图像位置作为扩展卡尔曼滤波器的测量值,获得目标状态,包括:
当获取到所述第一目标位置、所述第二目标位置和所述第二图像位置时,将三者按任意顺序作为所述扩展卡尔曼滤波器的测量值,对所述扩展卡尔曼滤波器的计算进行更新,最终得到所述目标状态;
当获取到所述第一目标位置、所述第二目标位置和所述第二图像位置中任意两项时,将该任意两项按任意顺序作为所述扩展卡尔曼滤波器的测量值,对所述扩展卡尔曼滤波器的计算进行更新,最终得到所述目标状态;
当仅获取到所述第一目标位置、所述第二目标位置和所述第二图像位置中的一项时,则将该项作为所述扩展卡尔曼滤波器的测量值,获得目标状态。
在一些实施例中,所述扩展卡尔曼滤波器包括预测阶段和更新阶段;
在更新阶段,将所述第一目标位置和/或所述第二目标位置和/或所述第二图像位置作为扩展卡尔曼滤波器的测量值,更新更新方程,获得更新值;
在预测阶段,将所述更新阶段得到的更新值代入所述预测阶段的预测方程,获得所述目标状态。
第三方面,本发明实施例提供了一种目标状态估计装置,所述装置用于无人机,所述无人机包括摄像装置,所述装置包括:
目标图像区域获取模块,用于获取所述摄像装置采集的目标图像,并对所述目标图像进行图像识别,以获取目标在所述目标图像中的目标图像区域;
第一目标位置获取模块,用于获取所述无人机周围环境的原始点云,根据所述目标图像区域和所述原始点云获取第一目标位置;
第二目标位置获取模块,用于获取所述摄像装置的姿态信息,并基于所述目标图像区域获得第一图像位置,根据所述第一图像位置和所述姿态信息获取第二目标位置;
第二图像位置获取模块,用于基于所述目标图像区域获取第二图像位置;
初始化模块,用于根据所述第一目标位置或者所述第二目标位置对目标状态进行初始化;
递推模块,用于将所述第一目标位置和/或所述第二目标位置和/或所述第二图像位置作为扩展卡尔曼滤波器的测量值,获得目标状态;
其中,所述目标图像为二维图像,所述第一和第二图像位置均为所述目标图像区域在所述目标图像中的位置表示方式。
第四方面,本发明实施例提供了一种目标状态估计装置,所述装置用于无人机,所述无人机包括摄像装置,所述装置包括:
目标图像区域获取模块,用于获取所述摄像装置采集的目标图像,并对所述目标图像进行图像识别,以获取目标在所述目标图像中的目标图像区域;
第二目标位置获取模块,用于获取所述摄像装置的姿态信息,并基于所述目标图像区域获得第一图像位置,根据所述第一图像位置和所述姿态信息获取第二目标位置;
第二图像位置获取模块,用于基于所述目标图像区域获取第二图像位置;
初始化模块,用于根据所述第二目标位置对目标状态进行初始化;
递推模块,用于将所述第二目标位置和/或所述第二图像位置作为扩展卡尔曼滤波器的测量值,获得目标状态;
其中,所述目标图像为二维图像,所述第一和第二图像位置均为所述目标图像区域在所述目标图像中的位置表示方式。
在一些实施例中,所述第一目标位置获取模块具体用于:
将所述原始点云变换至所述目标图像所在的图像坐标系下,获得所述原始点云对应的图像点云;
确定是否存在目标对应的图像点云,所述目标对应的图像点云为位于所述目标图像区域的图像点云,如果存在所述目标对应的图像点云,则根据所述目标对应的图像点云获得第一目标位置。
在一些实施例中,所述姿态信息为所述摄像装置的俯仰角;
所述第二目标位置获取模块具体用于:
获取所述摄像装置的俯仰角,如果所述俯仰角小于或者等于预设角度阈值,则基于所述目标图像区域获得第一图像位置,并根据所述第一图像位置、所述俯仰角以及所述目标与所述摄像装置构建的几何关系获得第二目标位置。
在一些实施例中,所述第二图像位置获取模块具体用于:
如果所述目标图像区域的大小与所述目标图像的区域的大小之比值大于或者等于预设比例阈值,则基于所述目标图像区域获得第二图像位置。
在一些实施例中,所述目标图像区域为所述目标在所述目标图像中的最小外接框;
所述目标对应的图像点云为各图像点云中坐标位于所述最小外接框内的图像点云。
在一些实施例中,所述第一目标位置获取模块具体用于:
根据所述目标对应的图像点云的世界坐标获得所述目标相对于所述无人机的距离和高度。
在一些实施例中,所述第一图像位置为所述目标在所述目标图像中的最小外接框的最高点和最低点;
所述第二目标位置获取模块具体用于:
基于所述最高点的纵坐标vmin、所述最低点的纵坐标vmax、所述目标的预设高度M和所述俯仰角,根据所述目标与所述摄像装置构建的几何关系获得所述第二目标位置。
在一些实施例中,所述第二目标位置获取模块具体用于:
根据所述最低点的纵坐标vmax获得所述最低点与所述摄像装置的光心的连线与所述摄像装置的光轴之间的夹角β;
根据所述最高点的纵坐标vmin获得所述最高点与所述摄像装置的光心的连线与所述摄像装置的光轴之间的夹角α;
根据所述夹角β和所述夹角α获得由所述最高点与所述摄像装置的光心之间的连线、与所述最低点与所述摄像装置的光心之间的连线所构成的夹角
Figure BDA0002199395580000085
其中,
Figure BDA0002199395580000086
根据所述夹角β、所述摄像装置的俯仰角θ,获得所述最低点与所述摄像装置的光心之间的连线与竖直方向构成的夹角δ,其中,
Figure BDA0002199395580000081
根据所述夹角δ、所述夹角
Figure BDA0002199395580000082
所述预设高度M和所述几何关系获得所述目标相对于所述无人机的距离和高度。
在一些实施例中,所述第二目标位置获取模块具体用于:
通过以下二元方程获得所述最低点与所述摄像装置的光心的连线长度L2,以及所述最高点与所述摄像装置的光心的连线长度L2
Figure BDA0002199395580000083
Figure BDA0002199395580000087
通过公式d=L2sinδ计算所述目标相对于所述无人机的距离d;
通过公式
Figure BDA0002199395580000084
计算所述目标相对于所述无人机的高度h。
在一些实施例中,所述第二目标位置获取模块具体用于:
利用以下公式计算所述夹角β:
β=tan-1(vmax-cy)/fy
其中,cy为所述摄像装置的主点纵坐标,fy为所述摄像装置在y轴方向上的焦距;
所述根据所述最高点的纵坐标vmin获得所述最高点与所述摄像装置的光心的连线与所述摄像装置的光轴之间的夹角α,包括:
利用以下公式计算所述夹角α:
α=tan-1(vmin-cy)/fy
在一些实施例中,所述目标图像区域为所述目标在所述目标图像中的最小外接框,所述第二图像位置为所述最小外接框的中心坐标。
在一些实施例中,所述初始化模块具体用于:
判断是否获取到所述第一目标位置,
若是,则根据所述第一目标位置对所述目标状态进行初始化,
若否,则根据所述第二目标位置对所述目标状态进行初始化。
在一些实施例中,所述递推模块具体用于:
当获取到所述第一目标位置、所述第二目标位置和所述第二图像位置时,将三者按任意顺序作为所述扩展卡尔曼滤波器的测量值,对所述扩展卡尔曼滤波器的计算进行更新,最终得到所述目标状态;
当获取到所述第一目标位置、所述第二目标位置和所述第二图像位置中任意两项时,将该任意两项按任意顺序作为所述扩展卡尔曼滤波器的测量值,对所述扩展卡尔曼滤波器的计算进行更新,最终得到所述目标状态;
当仅获取到所述第一目标位置、所述第二目标位置和所述第二图像位置中的一项时,则将该项作为所述扩展卡尔曼滤波器的测量值,获得目标状态。
在一些实施例中,所述递推模块具体用于:
所述扩展卡尔曼滤波器包括预测阶段和更新阶段;
在更新阶段,将所述第一目标位置和/或所述第二目标位置和/或所述第二图像位置作为扩展卡尔曼滤波器的测量值,更新更新方程,获得更新值;
在预测阶段,将所述更新阶段得到的更新值代入所述预测阶段的预测方程,获得所述目标状态。
第五方面,本发明实施例提供了一种无人机,所述无人机包括机身、与所述机身相连的机臂、设于所述机臂的动力系统、设置于所述机身的跟踪系统;其中,所述跟踪系统包括控制器,所述控制器包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述的方法。
第六方面,本发明实施例提供了一种非易失性计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,当所述计算机可执行指令被无人机执行时,使所述无人机执行上述的方法。
第七方面,本申请实施例还提供了一种计算机程序产品,所述计算机程序产品包括存储在非易失性计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被无人机执行时,使所述无人机执行上述的方法。
本发明实施例的目标状态估计方法、装置和无人机,先对目标图像进行图像识别获得所述目标在目标图像中的目标图像区域,然后根据无人机周围环境的原始点云和目标图像区域获取第一目标位置、根据所述目标图像区域确定的第一图像位置和摄像装置的姿态信息获取第二目标位置、根据目标图像区域获取第二图像位置,再利用扩展卡尔曼滤波器、用第一目标位置或者第二目标位置对目标状态进行初始化、将第一目标位置和/或第二目标位置和/或第二图像位置作为扩展卡尔曼滤波器的测量值,获得目标状态。本发明实施例不需强假设条件,不依赖地平面和外界的高度信息,可实现对基于目标跟踪的无人机自主避障系统中的目标状态的精确估计。
附图说明
一个或多个实施例通过与之对应的附图中的图片进行示例性说明,这些示例性说明并不构成对实施例的限定,附图中具有相同参考数字标号的元件表示为类似的元件,除非有特别申明,附图中的图不构成比例限制。
图1是本发明实施例目标状态估计方法和装置的应用场景示意图;
图2是本发明无人机的一个实施例的结构示意图;
图3a是本发明目标状态估计方法的一个实施例的流程示意图;
图3b是本发明目标状态估计方法的一个实施例的流程示意图;
图4是本发明目标状态估计方法的一个实施例中获取第一目标位置的流程示意图;
图5是本发明目标状态估计方法的一个实施例中目标和跟踪系统的摄像装置满足的几何关系示意图;
图6是本发明目标状态估计方法的一个实施例中获取第二目标位置的流程示意图;
图7是本发明目标状态估计方法的一个实施例中获取第二图像位置的流程示意图;
图8a是本发明目标状态估计装置的一个实施例的结构示意图;
图8b是本发明目标状态估计装置的一个实施例的结构示意图;
图9是本发明无人机的一个实施例中跟踪系统的控制器的硬件结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供的目标状态估计方法和装置可以应用于如图1所示的应用场景,在图1所示的应用场景中,包括无人机100和目标300。无人机100可以用于跟踪目标300,在无人机100跟踪目标300的过程中,有可能会遇到障碍物400。无人机100需跟踪目标300的同时躲避障碍物400实现正常飞行。
其中,无人机100可以为合适的无人飞行器包括固定翼无人飞行器和旋转翼无人飞行器,例如直升机、四旋翼机和具有其它数量的旋翼和/或旋翼配置的飞行器。无人机100还可以是其他可移动物体,例如载人飞行器、航模、无人飞艇、无人热气球和机器人等。目标300可以为任何合适的可移动或不可移动物体,包括交通工具、人、动物、建筑物、山川河流等。障碍物400例如建筑物、山体、树木、森林、信号塔或其他可移动或不可移动物体(图1中只示出了一个障碍物,实际应用中可能会有更多障碍物或者没有障碍物)。
其中,在一些实施例中,请参照图2,无人机100包括机身10、与所述机身10相连的机臂(图中未示出)、设于机臂的动力系统(图中未示出)和设于机身10的控制系统。动力系统用于提供无人机100飞行的推力、升力等,控制系统是无人机100的中枢神经,可以包括多个功能性单元,例如飞控系统20、跟踪系统30、路径规划系统50、视觉系统40以及其他具有特定功能的系统。跟踪系统30和视觉系统40均包括摄像装置和控制芯片,跟踪系统30用于获得跟踪目标的状态、跟踪距离(即无人机100距目标的距离)等,视觉系统40用于提供环境地图或无人机周围环境的原始点云等。飞控系统20包括各类传感器(例如陀螺仪、加速计等),飞控系统20用于获得实时的无人机位置以及控制无人机飞行姿态等。路径规划系统50用于对路径进行规划,并指示飞控系统20控制无人机100的飞行姿态以使无人机100按指定路径飞行。
实际应用时,飞控系统20、路径规划系统50可以设置于机身10内部,跟踪系统30和视觉系统40可以设置于机身10外部并固定于机身10上。跟踪系统30和视觉系统40的摄像装置可以组成单目或双目视觉系统,其中,摄像装置可以为高清数码相机或其他摄像装置,摄像装置可以设置于任何利于拍摄的合适位置,在一些实施例中,跟踪系统30的摄像装置通过云台安装于机身10的底部,视觉系统40的摄像装置设置于机身10的前部和/或下部。其中,各个系统可以分别设置,在一些实施例中,上述系统中的部分或全部也可以集成在一个或多于一个的装置中。
在一些实施例中,无人机100根据目标特征对目标进行跟踪,其中,在部分实施例中,目标特征事先存储于无人机100中,在部分实施例中,目标特征通过其他途径获得。在无人机100的一些应用场景中还包括电子设备200,目标特征可以通过电子设备200发送给无人机100。具体的,电子设备200可以显示无人机100拍摄的图片,由用户对图片中的目标进行框选,用户框选的目标图片上传无人机100后,无人机100可以根据该框选的目标图片提取目标特征。无人机100和电子设备200之间,可以通过分别设置在各自内部的无线通信模块(例如信号接收器、信号发送器等)建立通信连接,上传或者下发数据/指令。其中,电子设备200例如智能手机、平板电脑、电脑、遥控器等。
无人机100在跟踪目标和躲避障碍物飞行的过程中,需要根据目标状态规划合适的路径,按规划的路径飞行以在保持跟踪的前提下躲避障碍物。因此,目标状态的估计至关重要。本发明实施例利用多种方法获得目标位置的相关值,并将该目标位置的相关值作为扩展卡尔曼滤波器的测量值,利用扩展卡尔曼滤波器进行递推估计获得目标状态的估计值。本发明实施例不需强假设条件,状态估计的精度高。其中,目标状态例如目标的位置、速度等。
图3a为本发明实施例提供的一种目标状态估计方法的流程示意图,所述方法可以由无人机执行(例如图1中的无人机100,具体的,在一些实施例中,所述方法由无人机100中的跟踪系统执行),如图3a所示,所述方法包括:
101:获取所述摄像装置采集的目标图像,并对所述目标图像进行图像识别,以获取目标在所述目标图像中的目标图像区域。
其中,在一些实施例中,可以利用无人机跟踪系统的摄像装置获得目标图像。对目标图像进行图像识别,可以预先基于目标特征训练跟踪器进行识别。其中,跟踪器可以是其他装置通过训练跟踪模型获得之后直接加载在无人机100上的。在另一些实施例中,跟踪器是无人机100自身通过训练跟踪模型获得的。所述跟踪器可以为基于核相关滤波算法(Kernel Correlation Filter,KCF)的跟踪器,也可以采用其他相关滤波跟踪器。
将目标图像输入跟踪器即可获得目标在目标图像中的目标图像区域,其中,在一些实施例中,所述目标图像区域为所述目标在所述目标图像中的最小外接框,所述最小外接框例如在所述目标图像中框住目标的最小外接矩形区域。
102:获取所述无人机周围环境的原始点云,根据所述目标图像区域和所述原始点云获取第一目标位置。
其中,该周围环境的原始点云可以通过视觉系统的摄像装置,例如深度传感器或者双目相机获得。当跟踪系统获取的图像和视觉系统获取的图像的视角存在重叠区域时,如果恰好目标位于该重叠区域,则能确定视觉系统获取的周围环境的原始点云中哪些位置点是目标对应的位置点,通过这些位置点可以确定目标的第一目标位置。其中,所述第一目标位置例如目标相对于无人机的距离和高度。但是当目标不在所述重叠区域或者不存在重叠区域时,通过此种方法将无法获得第一目标位置。
因此,在其中一些实施例中,可以先判断目标是否位于重叠区域,如果目标位于重叠区域,再获取第一目标位置。具体的,如图4所示,步骤102包括:
1021:将所述原始点云变换至所述目标图像所在的图像坐标系下,获得所述原始点云对应的图像点云。
因为原始点云位于视觉系统的摄像装置坐标系下,目标图像位于跟踪系统的摄像装置的图像坐标系下,因此,需将二者先统一到一个相同的坐标系。在本实施例中,将原始点云变换到目标图像所在的图像坐标系。可以先将视觉系统的摄像装置坐标系下的原始点云坐标变换到无人机的机身坐标系下,再从机身坐标系变换到图像坐标系。如果以p表示视觉系统的摄像装置坐标系下某点的三维坐标,p′表示该点投影到图像坐标系下的二维坐标,则有:
Figure BDA0002199395580000151
其中,T1为所述视觉系统的摄像装置坐标系至机身坐标系的转换矩阵,T2为机身坐标系至图像坐标系的转换矩阵,Kintrinsic为跟踪系统的摄像装置的内参矩阵,s表示为使左侧矩阵的第三个坐标为1提取的公因数。由于T1、T2和Kintrinsic可以通过事先标定获得,因此通过上式可以获得原始点云中任一点投影至图像坐标系的二维坐标,即获得原始点云在图像坐标系下对应的图像点云。
1022:确定是否存在目标对应的图像点云,所述目标对应的图像点云为位于所述目标图像区域的图像点云,如果存在所述目标对应的图像点云,则根据所述目标对应的图像点云获得第一目标位置。
如果目标位于双目相机的深度图和云台图像视角的重叠区域,则原始点云投影至图像坐标系获得的图像点云中存在位于目标图像区域内的图像点云,该部分图像点云即是目标对应的图像点云。在目标图像区域为目标在所述目标图像中的最小外接框的场合,确定是否存在目标对应的图像点云,即是确定是否存在坐标位于最小外接框内的图像点云。
根据目标对应的图像点云获得第一目标位置。例如,根据目标对应的图像点云的世界坐标获得目标相对于无人机的距离和高度。首先,建立无人机100周围环境的三维点云地图,具体的,在其中一些实施例中,将视觉系统获取的所述原始点云和与目标对应的图像点云均转换至世界坐标系下,并在世界坐标系下将二者进行点云合并,并采用体素滤波、或者八叉树等方法将所有点云进行后处理,得到无人机100周围环境的三维点云地图。然后,根据处理后的目标对应的图像点云的世界坐标可以获得目标在所述三维点云地图中的位置,该位置可以是目标对应的各个图像点云的世界坐标的平均值。根据目标位置和无人机通过飞控系统获得的无人机位置即可获得目标相对于无人机的距离和高度。
在其中一些实施例中,获得目标对应的图像点云后,还可以对该图像点云进行滤波处理,以去除不属于目标的图像点云。具体的,可以采用高斯滤波法、半径滤波法、聚类法、平滑法、连通域法等滤波算法进行滤波处理。
103:获取所述摄像装置的姿态信息,并基于所述目标图像区域获得第一图像位置,根据所述第一图像位置和所述姿态信息获取第二目标位置。
其中,第一图像位置为目标图像区域相关的位置坐标。
其中,跟踪系统的摄像装置与目标之间满足一定的几何关系,通过该几何关系和其中的一些已知量可以获得第二目标位置。其中,第二目标位置例如目标相对于无人机的距离和高度。所述姿态信息为表示跟踪系统的摄像装置的状态或姿态的信息,包括摄像装置的俯仰角等。
图5为目标和摄像装置满足的其中一种几何关系的示意图,通过这样的几何关系可以求得第二目标位置。在摄像装置的姿态信息为摄像装置的俯仰角的场合(图中θ表示摄像装置的俯仰角),当目标靠近无人机下方时,摄像装置的俯仰角较大,有可能导致目标在跟踪系统获取的图像中的侧面占比较小,此时,利用该方法获得的第二目标位置精确度不高。因此,在其中一些实施例中,为了提高整体计算的精确度,在所述俯仰角较大时,例如大于预设的预设角度阈值时,不利用此方法获得第二目标位置,即不将第二目标位置作为扩展卡尔曼滤波器的测量值。只有当所述俯仰角小于或者等于预设角度阈值时,才利用该方法获得第二目标位置。
即在其中一些实施例中,如图6所示,步骤103包括:
1031:获取所述摄像装置的俯仰角,如果所述俯仰角小于或者等于预设角度阈值,则基于所述目标图像区域获得第一图像位置,并根据所述第一图像位置、所述俯仰角以及所述目标与所述摄像装置构建的几何关系获得第二目标位置。
其中,预设角度阈值可以根据实际应用情况取值,例如可以取60度左右(以水平位置为0度,向下旋转60度)。第一图像位置例如目标图像区域相关的坐标位置,在其中一个实施例中,请参照图5,第一图像位置为目标在目标图像中的最小外接框的最高点和最低点的二维坐标(图5中用vmin表示所述最高点的纵坐标,用vmax表示所述最低点的纵坐标)。由于无人机跟踪的目标的种类通常是事先已知的,因此目标的高度可以事先设定,例如可以通过用户将目标的预设高度输入电子设备中,再通过电子设备发送给无人机。
已知最高点的纵坐标vmin、最低点的纵坐标vmax、目标的预设高度M和俯仰角,根据目标与摄像装置构建的特定几何关系可以获得第二目标位置。以下以图5为例说明计算获得第二目标位置的过程。具体的,在其中一些实施例中,可以通过以下步骤实现:
A:根据最低点的纵坐标vmax获得最低点与摄像装置的光心的连线与所述摄像装置的光轴之间的夹角β。
具体的,在其中一些实施例中,可以利用以下公式计算所述夹角β:
β=tan-1(vmax-cy)/fy
其中,cy为所述摄像装置的主点纵坐标,fy为所述摄像装置在y轴方向上的焦距。
B:根据最高点的纵坐标vmin获得最高点与摄像装置的光心的连线与摄像装置的光轴之间的夹角α。
具体的,在其中一些实施例中,可以利用以下公式计算所述夹角α:
Figure BDA0002199395580000171
C:根据夹角β和夹角α获得由最高点与摄像装置的光心之间的连线、与最低点与摄像装置的光心之间的连线所构成的夹角
Figure BDA0002199395580000172
其中,
Figure BDA0002199395580000173
D:根据夹角β、摄像装置的俯仰角θ,获得最低点与摄像装置的光心之间的连线与竖直方向构成的夹角δ,其中,
Figure BDA0002199395580000174
E:根据夹角δ、夹角
Figure BDA0002199395580000175
预设高度M和所述几何关系获得所述目标相对于所述无人机的距离和高度。
具体的,在其中一个实施例中,目标和摄像装置满足以下关系
Figure BDA0002199395580000176
以及
Figure BDA0002199395580000177
其中,L2为最低点与摄像装置的光心连线长度,L1为最高点与摄像装置的光心连线长度,通过求解上述二元方程可以求解L1和L2
从而通过公式d=L2sinδ可以计算获得目标相对于无人机的距离d,通过公式
Figure BDA0002199395580000181
可以计算获得目标相对于无人机的高度h。
104:基于所述目标图像区域获取第二图像位置。
其中,第二图像位置可以是目标图像区域在目标图像中的相关坐标位置,例如最小外接框的中心的二维坐标。当目标图像区域在目标图像中占比较小时,例如占比小于预设比例阈值,将第二图像位置作为扩展卡尔曼滤波器的测量值将无法提高精度。因此,仅在目标图像区域与所述目标图像的区域之比值大于或者等于预设比例阈值时,才获取该第二图像位置,并将获取的第二图像位置作为扩展卡尔曼滤波器的测量值。其中,预设比例阈值可以根据实际应用情况取值,例如0.1%。
即,在其中一些实施例中,如图7所示,步骤104包括:
1041:如果所述目标图像区域与所述目标图像的区域之比值大于或者等于预设比例阈值,则基于所述目标图像区域获得第二图像位置。
105:根据所述第一目标位置或者所述第二目标位置对目标状态进行初始化。
以下以目标状态为目标的位置和速度为例说明利用扩展卡尔曼滤波器中进行递推估计目标状态的过程,定义目标状态量为X=[px,py,pz,vx,vy,vz]T。其中,(px,py,pz)为世界坐标系下目标的位置,(vx,vy,vz)为世界坐标系下目标的速度。在扩展卡尔曼滤波器中,需先对目标状态进行初始化,具体的,可以利用第一目标位置或者第二目标位置对目标的位置(px,py,pz)进行初始化,速度初始化为(0,0,0),协方差P初始化为:
Figure BDA0002199395580000182
利用第一目标位置或者第二目标位置对目标的位置进行初始化,例如,如果获取到第一目标位置,则利用第一目标位置对目标的位置进行初始化,否则,利用第二目标位置对目标的位置进行初始化。当然,也可以选择第一目标位置和第二目标位置中的任何一个对目标的位置进行初始化。
106:将所述第一目标位置和/或所述第二目标位置和/或所述第二图像位置作为扩展卡尔曼滤波器的测量值,获得目标状态。
其中,可以将第一目标位置、第二目标位置和第二图像位置中的一个或多个作为扩展卡尔曼滤波器的测量值,获得目标状态X。
在其中一个实施例中,在保证精确度的前提下尽量多的将第一目标位置、第二目标位置和第二图像位置中的位置值作为扩展卡尔曼滤波器的测量值,获得目标状态X。即如果获取到第一目标位置和第二目标位置,则将第一目标位置和第二目标位置均作为扩展卡尔曼滤波器的测量值;如果获取到第一目标位置、第二目标位置和第二图像位置,则将第一目标位置、第二目标位置和第二图像位置均作为扩展卡尔曼滤波器的测量值。在本实施例中,步骤106包括:
a:如果目标图像区域存在目标对应的图像点云,则将第一目标位置作为扩展卡尔曼滤波器的测量值更新目标状态和协方差。
b:如果摄像装置的俯仰角小于或者等于预设角度阈值,则将第二目标位置作为扩展卡尔曼滤波器的测量值更新目标状态和协方差;否则,不将第二目标位置作为扩展卡尔曼滤波器的测量值。
c:如果所述目标图像区域与所述目标图像的区域之比值大于或者等于预设比例阈值,则将第二图像位置作为扩展卡尔曼滤波器的测量值更新目标状态和协方差;否则,不将第二图像位置作为扩展卡尔曼滤波器的测量值。
扩展卡尔曼滤波算法的核心思想在于预测+测量反馈,它由两部分组成,第一部分是状态预测方程,第二部分是观测方程。在预测阶段,要通过系统状态方程计算的预测值作为先验信息,之后在观测部分再重新更新这个信息。扩展卡尔曼滤波算法为现有技术,具体相关内容可以参见现有技术,以下以其中一个实施例为例,说明利用扩展卡尔曼滤波器获得目标状态的过程。
在预测阶段,目标状态和协方差方程分别为:
X’(k)=F·X’(k-1)                (1)
P’(k)=F·P’(k-1)FT+Q          (2)
其中X‘(k)为目标状态预测值,P‘(k)为协方差预测值,Q为噪声矩阵;
在预测阶段
Figure BDA0002199395580000201
在预测阶段,通过初始值对式(1)和式(2)进行迭代可以获得预测值X’(k)和P’(k)。
在观测阶段,更新方程为:
X(k)=X’(k)+K·err  (3)
P(k)=(I-K·H)·P’(k)  (4)
其中,K为卡尔曼增益,
K=P’(k)·H·S               (5)
S=M·P’(k)·HT+R          (6)
其中,R为测量噪声方差,H为状态到观测的转换矩阵,err为测量值与估计值之间的误差。由于R和H为已知量,则S可以通过式(6)获得,从而K可以通过式(5)获得。因此,只要求出err即可通过式(3)获得经更新的X(k)。
将更新后的X(k)和P(k)作为预测方程的输入值,即将X(k)作为X’(k-1),P(k)作为P’(k-1),最终得到预测的目标状态X’(k)和P’(k)。
如果第一目标位置、第二目标位置和第二图像位置均作为测量值,则在观测阶段,将三者按任意顺序对更新方程(3)进行迭代更新,获得更新值X(k)。如果将第一目标位置、第二目标位置和第二图像位置中的任意两项作为测量值,则将该任意两项按任意顺序对更新方程(3)进行迭代更新,获得更新值X(k)。如果仅将第一目标位置、第二目标位置和第二图像位置中的一项作为测量值,则利用该项对更新方程(3)进行迭代更新,获得更新值X(k)。
以将第一目标位置、第二目标位置和第二图像位置均作为测量值为例说明,将预测阶段获得的X‘(k)以及利用第一目标位置获得的err代入更新方程(3)获得第一更新值。再将该第一更新值作为下一次更新的输入,即将该第一更新值作为X‘(k)、将该第一更新值和利用第二目标位置获得的err代入更新方程(3)获得第二更新值。然后,继续将该第二更新值作为下一次更新的输入,即将该第二更新值作为X‘(k)、将该第二更新值和利用第二图像位置获得的err代入更新方程(3)获得最终的更新值。
测量值第一目标位置、第二目标位置和第二图像位置,其err求法各不相同,对于第二图像位置而言,以第二图像位置为最小外接框的中心坐标为例说明。测量值为最小外接框中心坐标[bx,by]T,估计值在图像坐标系的投影坐标[x,y]T为:
Figure BDA0002199395580000211
其中,Mmask为位置掩膜,具体表达式为:
Figure BDA0002199395580000212
Tw2g为从世界坐标系到相机坐标系的转换矩阵,该矩阵可从飞控系统获得,Kintrinsic为跟踪系统摄像装置的内参矩阵,可通过相机标定技术获得,s表示为使左侧矩阵的第三个坐标为1提取的公因数。
则,在该实施例中,err为:
Figure BDA0002199395580000213
对于第一目标位置和第二目标位置而言,以第一目标位置和第二目标位置分别为目标相对于无人机的距离和高度为例说明。测量值为获得的距离d和高度h。
距离d的估计值d′的表达式为:
d′=Mdis·Tw2g·Mmask·X
其中,Mdis=[0,0,1],则err=d-d′。
高度h的估计值h′的表达式为:
h′=Maltitude·X
其中,Maltitude=[0,0,1,0,0,0],则err=h-h′。
本发明实施例先对目标图像进行图像识别获得所述目标在目标图像中的目标图像区域,然后根据无人机周围环境的原始点云和目标图像区域获取第一目标位置、根据所述目标图像区域确定的第一图像位置和摄像装置的姿态信息获取第二目标位置、根据目标图像区域获取第二图像位置,再利用扩展卡尔曼滤波器、用第一目标位置或者第二目标位置对目标状态进行初始化、将第一目标位置和/或第二目标位置和/或第二图像位置作为扩展卡尔曼滤波器的测量值,获得目标状态。本发明实施例不依赖地平面假设和无人机对地高度数据,在目标被遮挡情况下亦可对目标运动进行较精确预测,鲁棒性好、精度高。其中,需要说明的是,本发明实施例中的序号仅用于标识各方法步骤,并不用于表示先后顺序。
需要说明的是,上述步骤标号(例如101、102等),仅用于标识各步骤,并不用于限定各步骤的先后顺序。
图3b示出了本发明目标状态估计方法的又一实施例,图3b所示的实施例适用于无人机无法获得周围环境地图的场合。图3b与图3a所示实施例的区别在于,图3b所示的实施例不包括步骤102,即在该实施例中,仅利用第二目标位置和/或第二图像位置对目标状态进行估计。
相应的,如图8a所示,本发明实施例还提供了一种目标状态估计装置,所述装置可以用于无人机(例如图1所示的无人机),目标状态估计装置800包括:
目标图像区域获取模块801,用于获取所述摄像装置采集的目标图像,并对所述目标图像进行图像识别,以获取目标在所述目标图像中的目标图像区域;
第一目标位置获取模块802,用于获取所述无人机周围环境的原始点云,根据所述目标图像区域和所述原始点云获取第一目标位置;
第二目标位置获取模块803,用于获取所述摄像装置的姿态信息,并基于所述目标图像区域获得第一图像位置,根据所述第一图像位置和所述姿态信息获取第二目标位置;
第二图像位置获取模块804,用于基于所述目标图像区域获取第二图像位置;
初始化模块805,用于根据所述第一目标位置或者所述第二目标位置对目标状态进行初始化;
递推模块806,用于将所述第一目标位置和/或所述第二目标位置和/或所述第二图像位置作为扩展卡尔曼滤波器的测量值,获得目标状态。
本发明实施例先对目标图像进行图像识别获得所述目标在目标图像中的目标图像区域,然后根据无人机周围环境的原始点云和目标图像区域获取第一目标位置、根据所述目标图像区域确定的第一图像位置和摄像装置的姿态信息获取第二目标位置、根据目标图像区域获取第二图像位置,再利用扩展卡尔曼滤波器、用第一目标位置或者第二目标位置对目标状态进行初始化、将第一目标位置和/或第二目标位置和/或第二图像位置作为扩展卡尔曼滤波器的测量值,获得目标状态。本发明实施例不依赖地平面假设和无人机对地高度数据,在目标被遮挡情况下亦可对目标运动进行较精确预测,鲁棒性好、精度高。
在其中一些实施例中,第一目标位置获取模块802具体用于:
将所述原始点云变换至所述目标图像所在的图像坐标系下,获得所述原始点云对应的图像点云;
确定是否存在目标对应的图像点云,所述目标对应的图像点云为位于所述目标图像区域的图像点云,如果存在所述目标对应的图像点云,则根据所述目标对应的图像点云获得第一目标位置。
在其中一些实施例中,所述姿态信息为所述摄像装置的俯仰角;
第二目标位置获取模块803具体用于:
获取所述摄像装置的俯仰角,如果所述俯仰角小于或者等于预设角度阈值,则基于所述目标图像区域获得第一图像位置,并根据所述第一图像位置、所述俯仰角以及所述目标与所述摄像装置构建的几何关系获得第二目标位置。
在其中一些实施例中,第二图像位置获取模块804具体用于:
如果所述目标图像区域的大小与所述目标图像的区域的大小之比值大于或者等于预设比例阈值,则基于所述目标图像区域获得第二图像位置。
在其中一些实施例中,所述目标图像区域为所述目标在所述目标图像中的最小外接框;
所述目标对应的图像点云为各图像点云中坐标位于所述最小外接框内的图像点云。
在其中一些实施例中,第一目标位置获取模块802具体用于:
根据所述目标对应的图像点云的世界坐标获得所述目标相对于所述无人机的距离和高度。
在其中一些实施例中,第一图像位置为所述目标在所述目标图像中的最小外接框的最高点和最低点;
第二目标位置获取模块803具体用于:
基于所述最高点的纵坐标vmin、所述最低点的纵坐标vmax、所述目标的预设高度M和所述俯仰角,根据所述目标与所述摄像装置构建的几何关系获得所述第二目标位置。
在其中一些实施例中,第二目标位置获取模块803具体用于:
根据所述最低点的纵坐标vmax获得所述最低点与所述摄像装置光心的连线与所述摄像装置的光轴之间的夹角β;
根据所述最高点的纵坐标vmin获得所述最高点与所述摄像装置光心的连线与所述摄像装置的光轴之间的夹角α;
根据所述夹角β和所述夹角α获得由所述最高点与所述摄像装置光心之间的连线、与所述最低点与所述摄像装置光心之间的连线所构成的夹角
Figure BDA0002199395580000251
其中,
Figure BDA0002199395580000252
根据所述夹角β、所述摄像装置的俯仰角θ,获得所述最低点与所述摄像装置光心之间的连线与竖直方向构成的夹角δ,其中,
Figure BDA0002199395580000253
根据所述夹角δ、所述夹角
Figure BDA0002199395580000254
所述预设高度M和所述几何关系获得所述目标相对于所述无人机的距离和高度。
在其中一些实施例中,第二目标位置获取模块803具体用于:
通过以下二元方程获得所述最低点与所述摄像装置的光心连线长度L2,以及所述最高点与所述摄像装置的光心连线长度L2
Figure BDA0002199395580000255
Figure BDA0002199395580000257
通过公式d=L2sinδ计算所述目标相对于所述无人机的距离d;
通过公式
Figure BDA0002199395580000256
计算所述目标相对于所述无人机的高度h。
在其中一些实施例中,第二目标位置获取模块803具体用于:
利用以下公式计算所述夹角β:
β=tan-1(vmax-cy)/fy
其中,cy为所述摄像装置的主点纵坐标,fy为所述摄像装置在y轴方向上的焦距;
所述根据所述最高点的纵坐标vmin获得所述最高点与所述摄像装置光心的连线与所述摄像装置的光轴之间的夹角α,包括:
利用以下公式计算所述夹角α:
α=tan-1(vmin-cy)/fy
在其中一些实施例中,所述目标图像区域为所述目标在所述目标图像中的最小外接框,所述第二图像位置为所述最小外接框的中心坐标。
在其中一些实施例中,初始化模块805具体用于:
判断是否获取到所述第一目标位置,
若是,则根据所述第一目标位置对所述目标状态进行初始化,
若否,则根据所述第二目标位置对所述目标状态进行初始化。
在其中一些实施例中,递推模块806具体用于:
当获取到所述第一目标位置、所述第二目标位置和所述第二图像位置时,将三者按任意顺序作为所述扩展卡尔曼滤波器的测量值,对所述扩展卡尔曼滤波器的计算进行更新,最终得到所述目标状态;
当获取到所述第一目标位置、所述第二目标位置和所述第二图像位置中任意两项时,将该任意两项按任意顺序作为所述扩展卡尔曼滤波器的测量值,对所述扩展卡尔曼滤波器的计算进行更新,最终得到所述目标状态;
当仅获取到所述第一目标位置、所述第二目标位置和所述第二图像位置中的一项时,则将该项作为所述扩展卡尔曼滤波器的测量值,获得目标状态。
在其中一些实施例中,递推模块806具体用于:
所述扩展卡尔曼滤波器包括预测阶段和更新阶段;
在更新阶段,将所述第一目标位置和/或所述第二目标位置和/或所述第二图像位置作为扩展卡尔曼滤波器的测量值,更新更新方程,获得更新值;
在预测阶段,将所述更新阶段得到的更新值代入所述预测阶段的预测方程,获得所述目标状态。
需要说明的是,上述装置可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在装置实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
图8b示出了本发明目标状态估计装置的又一实施例,图8b所示的实施例适用于无人机无法获得周围环境地图的场合。图8b与图8a所示实施例的区别在于,图8b所示的实施例不包括第一目标位置获取模块802,即在该实施例中,仅利用第二目标位置和/或第二图像位置对目标状态进行估计。
图9是本发明无人机的一个实施例中跟踪系统中控制器31的硬件结构示意图,如图9所示,控制器31包括:
一个或多个处理器31a以及存储器31b,图9中以一个处理器31a为例。
处理器31a和存储器31b可以通过总线或者其他方式连接,图9中以通过总线连接为例。
存储器31b作为一种非易失性计算机可读存储介质,可用于存储非易失性软件程序、非易失性计算机可执行程序以及模块,如本申请实施例中的目标状态估计方法对应的程序指令/模块(例如,附图8a所示的目标图像区域获取模块801、第一目标位置获取模块802、第二目标位置获取模块803、第二图像位置获取模块804、初始化模块805和递推模块806)。处理器31a通过运行存储在存储器31b中的非易失性软件程序、指令以及模块,从而执行控制器的各种功能应用以及数据处理,即实现上述方法实施例的目标状态估计方法。
存储器31b可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据控制器的使用所创建的数据等。此外,存储器31b可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实施例中,存储器31b可选包括相对于处理器31a远程设置的存储器,这些远程存储器可以通过网络连接至控制器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
所述一个或者多个模块存储在所述存储器31b中,当被所述一个或者多个处理器31a执行时,执行上述任意方法实施例中的目标状态估计方法,例如,执行以上描述的图3a中的方法步骤101至步骤106、图4中的方法步骤1021-1022、图6中的方法步骤1031、图7中的方法步骤1041;实现图8a中的模块801-806的功能。
上述产品可执行本申请实施例所提供的方法,具备执行方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本申请实施例所提供的方法。
本申请实施例提供了一种非易失性计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令被一个或多个处理器执行,例如图9中的一个处理器31a,可使得上述一个或多个处理器可执行上述任意方法实施例中的目标状态估计方法,执行以上描述的图3a中的方法步骤101至步骤106、图4中的方法步骤1021-1022、图6中的方法步骤1031、图7中的方法步骤1041;实现图8a中的模块801-806的功能。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
通过以上的实施例的描述,本领域普通技术人员可以清楚地了解到各实施例可借助软件加通用硬件平台的方式来实现,当然也可以通过硬件。本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-OnlyMemory,ROM)或随机存储记忆体(RandomAccessMemory,RAM)等。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明,它们没有在细节中提供;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (22)

1.一种目标状态估计方法,所述方法用于无人机,所述无人机包括摄像装置,其特征在于,所述方法包括:
获取所述摄像装置采集的目标图像,并对所述目标图像进行图像识别,以获取目标在所述目标图像中的目标图像区域;
获取所述无人机周围环境的原始点云,根据所述目标图像区域和所述原始点云获取第一目标位置;
获取所述摄像装置的姿态信息,并基于所述目标图像区域获得第一图像位置,根据所述第一图像位置和所述姿态信息获取第二目标位置;
如果所述目标图像区域的大小与所述目标图像的区域的大小之比值大于或者等于预设比例阈值,则基于所述目标图像区域获得第二图像位置,所述目标图像区域为所述目标在所述目标图像中的最小外接框,所述第二图像位置为所述最小外接框的中心坐标;
判断是否获取到所述第一目标位置,若是,则根据所述第一目标位置对所述目标状态进行初始化,将第一目标位置作为初始值,通过迭代计算,获得预测阶段扩展卡尔曼滤波器的预测值,
若否,则根据所述第二目标位置对所述目标状态进行初始化,将第二目标位置作为初始值,通过迭代计算,获得预测阶段扩展卡尔曼滤波器的预测值;
当获取到所述第一目标位置、所述第二目标位置和所述第二图像位置时,将三者按任意顺序作为所述扩展卡尔曼滤波器的测量值,对所述扩展卡尔曼滤波器的计算进行更新,最终得到所述目标状态;
当获取到所述第一目标位置、所述第二目标位置和所述第二图像位置中任意两项时,将该任意两项按任意顺序作为所述扩展卡尔曼滤波器的测量值,对所述扩展卡尔曼滤波器的计算进行更新,最终得到所述目标状态;
当仅获取到所述第一目标位置、所述第二目标位置和所述第二图像位置中的一项时,则将该项作为所述扩展卡尔曼滤波器的测量值,获得目标状态;
其中,所述目标图像为二维图像,所述第一和第二图像位置均为所述目标图像区域在所述目标图像中的位置表示方式。
2.根据权利要求1所述的方法,其特征在于,所述根据所述目标图像区域和所述原始点云获取第一目标位置,包括:
将所述原始点云变换至所述目标图像所在的图像坐标系下,获得所述原始点云对应的图像点云;
确定是否存在目标对应的图像点云,所述目标对应的图像点云为位于所述目标图像区域的图像点云,如果存在所述目标对应的图像点云,则根据所述目标对应的图像点云获得第一目标位置。
3.根据权利要求1-2任意一项所述的方法,其特征在于,所述姿态信息为所述摄像装置的俯仰角;
所述获取所述摄像装置的姿态信息,并基于所述目标图像区域获得第一图像位置,根据所述第一图像位置和所述姿态信息获取第二目标位置,包括:
获取所述摄像装置的俯仰角,如果所述俯仰角小于或者等于预设角度阈值,则基于所述目标图像区域获得第一图像位置,并根据所述第一图像位置、所述俯仰角以及所述目标与所述摄像装置构建的几何关系获得第二目标位置。
4.根据权利要求2所述的方法,其特征在于,
所述目标对应的图像点云为各图像点云中坐标位于所述最小外接框内的图像点云。
5.根据权利要求2或4所述的方法,其特征在于,所述根据所述目标对应的图像点云获得第一目标位置,包括:
根据所述目标对应的图像点云的世界坐标获得所述目标相对于所述无人机的距离和高度。
6.根据权利要求3所述的方法,其特征在于,所述第一图像位置为所述目标在所述目标图像中的最小外接框的最高点和最低点;
所述根据所述第一图像位置、所述俯仰角以及所述目标与所述摄像装置构建的几何关系获得第二目标位置,包括:
基于所述最高点的纵坐标vmin、所述最低点的纵坐标vmax、所述目标的预设高度M和所述俯仰角,根据所述目标与所述摄像装置构建的几何关系获得所述第二目标位置。
7.根据权利要求6所述的方法,其特征在于,所述基于所述最高点的纵坐标vmin、所述最低点的纵坐标vmax、所述目标的预设高度M和所述俯仰角,根据所述目标与所述摄像装置构建的几何关系获得所述第二目标位置,包括:
根据所述最低点的纵坐标vmax获得所述最低点与所述摄像装置的光心的连线与所述摄像装置的光轴之间的夹角β;
根据所述最高点的纵坐标vmin获得所述最高点与所述摄像装置的光心的连线与所述摄像装置的光轴之间的夹角α;
根据所述夹角β和所述夹角α获得由所述最高点与所述摄像装置的光心之间的连线、与所述最低点与所述摄像装置的光心之间的连线所构成的夹角
Figure FDF0000020797970000031
其中,
Figure FDF0000020797970000032
根据所述夹角β、所述摄像装置的俯仰角θ,获得所述最低点与所述摄像装置的光心之间的连线与竖直方向构成的夹角δ,其中,
Figure FDF0000020797970000033
根据所述夹角δ、所述夹角
Figure FDF0000020797970000034
所述预设高度M和所述几何关系获得所述目标相对于所述无人机的距离和高度。
8.根据权利要求7所述的方法,其特征在于,所述根据所述夹角δ、所述夹角
Figure FDF0000020797970000035
所述预设高度M和所述几何关系获得所述目标相对于所述无人机的距离和高度,包括:
通过以下二元方程获得所述最低点与所述摄像装置的光心的连线长度L2,以及所述最高点与所述摄像装置的光心的连线长度L2
Figure FDF0000020797970000036
Figure FDF0000020797970000037
通过公式d=L2sinδ计算所述目标相对于所述无人机的距离d;
通过公式
Figure FDF0000020797970000038
计算所述目标相对于所述无人机的高度h。
9.根据权利要求7或8所述的方法,其特征在于,所述根据所述最低点的纵坐标vmax获得所述最低点与所述摄像装置的光心的连线与所述摄像装置的光轴之间的夹角β,包括:
利用以下公式计算所述夹角β:
Figure FDF0000020797970000041
其中,cy为所述摄像装置的主点纵坐标,fy为所述摄像装置在y轴方向上的焦距;
所述根据所述最高点的纵坐标vmin获得所述最高点与所述摄像装置的光心的连线与所述摄像装置的光轴之间的夹角α,包括:
利用以下公式计算所述夹角α:
Figure FDF0000020797970000042
10.根据权利要求1所述的方法,其特征在于,所述扩展卡尔曼滤波器包括预测阶段和更新阶段;
在更新阶段,将所述第一目标位置和/或所述第二目标位置和/或所述第二图像位置作为扩展卡尔曼滤波器的测量值,更新更新方程,获得更新值;
在预测阶段,将所述更新阶段得到的更新值代入所述预测阶段的预测方程,获得所述目标状态。
11.一种目标状态估计装置,所述装置用于无人机,所述无人机包括摄像装置,其特征在于,所述装置包括:
目标图像区域获取模块,用于获取所述摄像装置采集的目标图像,并对所述目标图像进行图像识别,以获取目标在所述目标图像中的目标图像区域;
第一目标位置获取模块,用于获取所述无人机周围环境的原始点云,根据所述目标图像区域和所述原始点云获取第一目标位置;
第二目标位置获取模块,用于获取所述摄像装置的姿态信息,并基于所述目标图像区域获得第一图像位置,根据所述第一图像位置和所述姿态信息获取第二目标位置;
第二图像位置获取模块,用于如果所述目标图像区域的大小与所述目标图像的区域的大小之比值大于或者等于预设比例阈值,则基于所述目标图像区域获得第二图像位置,所述目标图像区域为所述目标在所述目标图像中的最小外接框,所述第二图像位置为所述最小外接框的中心坐标;
初始化模块,用于判断是否获取到所述第一目标位置,若是,则根据所述第一目标位置对所述目标状态进行初始化,将第一目标位置作为初始值,通过迭代,获得预测阶段扩展卡尔曼滤波器的预测值,若否,则根据所述第二目标位置对所述目标状态进行初始化,将第二目标位置作为初始值,通过迭代,获得预测阶段扩展卡尔曼滤波器的预测值;
递推模块,用于:
当获取到所述第一目标位置、所述第二目标位置和所述第二图像位置时,将三者按任意顺序作为所述扩展卡尔曼滤波器的测量值,对所述扩展卡尔曼滤波器的计算进行更新,最终得到所述目标状态;
当获取到所述第一目标位置、所述第二目标位置和所述第二图像位置中任意两项时,将该任意两项按任意顺序作为所述扩展卡尔曼滤波器的测量值,对所述扩展卡尔曼滤波器的计算进行更新,最终得到所述目标状态;
当仅获取到所述第一目标位置、所述第二目标位置和所述第二图像位置中的一项时,则将该项作为所述扩展卡尔曼滤波器的测量值,获得目标状态;
其中,所述目标图像为二维图像,所述第一和第二图像位置均为所述目标图像区域在所述目标图像中的位置表示方式。
12.根据权利要求11所述的装置,其特征在于,所述第一目标位置获取模块具体用于:
将所述原始点云变换至所述目标图像所在的图像坐标系下,获得所述原始点云对应的图像点云;
确定是否存在目标对应的图像点云,所述目标对应的图像点云为位于所述目标图像区域的图像点云,如果存在所述目标对应的图像点云,则根据所述目标对应的图像点云获得第一目标位置。
13.根据权利要求11-12任意一项所述的装置,其特征在于,所述姿态信息为所述摄像装置的俯仰角;
所述第二目标位置获取模块具体用于:
获取所述摄像装置的俯仰角,如果所述俯仰角小于或者等于预设角度阈值,则基于所述目标图像区域获得第一图像位置,并根据所述第一图像位置、所述俯仰角以及所述目标与所述摄像装置构建的几何关系获得第二目标位置。
14.根据权利要求12所述的装置,其特征在于,
所述目标对应的图像点云为各图像点云中坐标位于所述最小外接框内的图像点云。
15.根据权利要求12或14所述的装置,其特征在于,所述第一目标位置获取模块具体用于:
根据所述目标对应的图像点云的世界坐标获得所述目标相对于所述无人机的距离和高度。
16.根据权利要求13所述的装置,其特征在于,所述第一图像位置为所述目标在所述目标图像中的最小外接框的最高点和最低点;
所述第二目标位置获取模块具体用于:
基于所述最高点的纵坐标vmin、所述最低点的纵坐标vmax、所述目标的预设高度M和所述俯仰角,根据所述目标与所述摄像装置构建的几何关系获得所述第二目标位置。
17.根据权利要求16所述的装置,其特征在于,所述第二目标位置获取模块具体用于:
根据所述最低点的纵坐标vmax获得所述最低点与所述摄像装置的光心的连线与所述摄像装置的光轴之间的夹角β;
根据所述最高点的纵坐标vmin获得所述最高点与所述摄像装置的光心的连线与所述摄像装置的光轴之间的夹角α;
根据所述夹角β和所述夹角α获得由所述最高点与所述摄像装置的光心之间的连线、与所述最低点与所述摄像装置的光心之间的连线所构成的夹角
Figure FDF0000020797970000071
其中,
Figure FDF0000020797970000072
根据所述夹角β、所述摄像装置的俯仰角θ,获得所述最低点与所述摄像装置的光心之间的连线与竖直方向构成的夹角δ,其中,
Figure FDF0000020797970000073
根据所述夹角δ、所述夹角
Figure FDF0000020797970000074
所述预设高度M和所述几何关系获得所述目标相对于所述无人机的距离和高度。
18.根据权利要求 17所述的装置,其特征在于,所述第二目标位置获取模块具体用于:
通过以下二元方程获得所述最低点与所述摄像装置的光心的连线长度L2,以及所述最高点与所述摄像装置的光心的连线长度L2
Figure FDF0000020797970000075
Figure FDF0000020797970000076
通过公式d=L2sinδ计算所述目标相对于所述无人机的距离d;
通过公式
Figure FDF0000020797970000077
计算所述目标相对于所述无人机的高度h。
19.根据权利要求17或18所述的装置,其特征在于,所述第二目标位置获取模块具体用于:
利用以下公式计算所述夹角β:
Figure FDF0000020797970000078
其中,cy为所述摄像装置的主点纵坐标,fy为所述摄像装置在y轴方向上的焦距;
所述根据所述最高点的纵坐标vmin获得所述最高点与所述摄像装置的光心的连线与所述摄像装置的光轴之间的夹角α,包括:
利用以下公式计算所述夹角α:
Figure FDF0000020797970000079
20.根据权利要求11所述的装置,其特征在于,所述递推模块具体用于:
所述扩展卡尔曼滤波器包括预测阶段和更新阶段;
在更新阶段,将所述第一目标位置和/或所述第二目标位置和/或所述第二图像位置作为扩展卡尔曼滤波器的测量值,更新更新方程,获得更新值;
在预测阶段,将所述更新阶段得到的更新值代入所述预测阶段的预测方程,获得所述目标状态。
21.一种无人机,其特征在于,所述无人机包括机身、与所述机身相连的机臂、设于所述机臂的动力系统、设置于所述机身的跟踪系统;其中,所述跟踪系统包括控制器,所述控制器包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-10任一项所述的方法。
22.一种非易失性计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,当所述计算机可执行指令被无人机执行时,使所述无人机执行如权利要求1-10任一项所述的方法。
CN201910859837.4A 2019-09-11 2019-09-11 一种目标状态估计方法、装置和无人机 Active CN110570463B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201910859837.4A CN110570463B (zh) 2019-09-11 2019-09-11 一种目标状态估计方法、装置和无人机
PCT/CN2020/113989 WO2021047502A1 (zh) 2019-09-11 2020-09-08 一种目标状态估计方法、装置和无人机
US17/654,514 US20220198793A1 (en) 2019-09-11 2022-03-11 Target state estimation method and apparatus, and unmanned aerial vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910859837.4A CN110570463B (zh) 2019-09-11 2019-09-11 一种目标状态估计方法、装置和无人机

Publications (2)

Publication Number Publication Date
CN110570463A CN110570463A (zh) 2019-12-13
CN110570463B true CN110570463B (zh) 2023-04-07

Family

ID=68779305

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910859837.4A Active CN110570463B (zh) 2019-09-11 2019-09-11 一种目标状态估计方法、装置和无人机

Country Status (3)

Country Link
US (1) US20220198793A1 (zh)
CN (1) CN110570463B (zh)
WO (1) WO2021047502A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109767452A (zh) * 2018-12-24 2019-05-17 深圳市道通智能航空技术有限公司 一种目标定位方法和装置、无人机
CN110570463B (zh) * 2019-09-11 2023-04-07 深圳市道通智能航空技术股份有限公司 一种目标状态估计方法、装置和无人机
CN111487993A (zh) * 2020-04-26 2020-08-04 重庆市亿飞智联科技有限公司 信息获取方法、装置、存储介质、自动驾驶仪及无人机
CN113167577A (zh) * 2020-06-22 2021-07-23 深圳市大疆创新科技有限公司 用于可移动平台的测绘方法、可移动平台和存储介质
CN111860215B (zh) * 2020-06-30 2021-11-30 江苏云洲智能科技有限公司 目标对象的位置确定方法、终端设备及航行系统
CN112330794B (zh) * 2020-10-09 2022-06-14 同济大学 基于旋转二分棱镜的单相机图像采集系统和三维重建方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109754420A (zh) * 2018-12-24 2019-05-14 深圳市道通智能航空技术有限公司 一种目标距离估计方法、装置及无人机
CN109767452A (zh) * 2018-12-24 2019-05-17 深圳市道通智能航空技术有限公司 一种目标定位方法和装置、无人机
CN109902543A (zh) * 2017-12-11 2019-06-18 北京京东尚科信息技术有限公司 目标运动轨迹估计方法、装置和目标跟踪系统
CN110222581A (zh) * 2019-05-13 2019-09-10 电子科技大学 一种基于双目相机的四旋翼无人机视觉目标跟踪方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7702460B2 (en) * 2006-06-17 2010-04-20 Northrop Grumman Guidance And Electronics Company, Inc. Estimate of relative position between navigation units
US9025825B2 (en) * 2013-05-10 2015-05-05 Palo Alto Research Center Incorporated System and method for visual motion based object segmentation and tracking
US9483839B1 (en) * 2015-05-06 2016-11-01 The Boeing Company Occlusion-robust visual object fingerprinting using fusion of multiple sub-region signatures
EP3360023A4 (en) * 2015-10-09 2018-10-10 SZ DJI Technology Co., Ltd. Salient feature based vehicle positioning
CN105652891B (zh) * 2016-03-02 2018-06-29 中山大学 一种旋翼无人机移动目标自主跟踪装置及其控制方法
FR3054336A1 (fr) * 2016-07-22 2018-01-26 Parrot Drones Systeme autonome de prise de vues animees par un drone avec poursuite de cible et localisation amelioree de la cible.
US10152059B2 (en) * 2016-10-10 2018-12-11 Qualcomm Incorporated Systems and methods for landing a drone on a moving base
CN107192330A (zh) * 2017-06-16 2017-09-22 深圳市可飞科技有限公司 远程测量物体坐标的方法、装置及飞行器
WO2019051832A1 (zh) * 2017-09-18 2019-03-21 深圳市大疆创新科技有限公司 可移动物体控制方法、设备及系统
CN110570463B (zh) * 2019-09-11 2023-04-07 深圳市道通智能航空技术股份有限公司 一种目标状态估计方法、装置和无人机
US11935288B2 (en) * 2019-12-01 2024-03-19 Pointivo Inc. Systems and methods for generating of 3D information on a user display from processing of sensor data for objects, components or features of interest in a scene and user navigation thereon

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109902543A (zh) * 2017-12-11 2019-06-18 北京京东尚科信息技术有限公司 目标运动轨迹估计方法、装置和目标跟踪系统
CN109754420A (zh) * 2018-12-24 2019-05-14 深圳市道通智能航空技术有限公司 一种目标距离估计方法、装置及无人机
CN109767452A (zh) * 2018-12-24 2019-05-17 深圳市道通智能航空技术有限公司 一种目标定位方法和装置、无人机
CN110222581A (zh) * 2019-05-13 2019-09-10 电子科技大学 一种基于双目相机的四旋翼无人机视觉目标跟踪方法

Also Published As

Publication number Publication date
US20220198793A1 (en) 2022-06-23
CN110570463A (zh) 2019-12-13
WO2021047502A1 (zh) 2021-03-18

Similar Documents

Publication Publication Date Title
CN110570463B (zh) 一种目标状态估计方法、装置和无人机
CN112037260B (zh) 一种跟踪目标的位置估计方法、装置及无人飞行器
Sani et al. Automatic navigation and landing of an indoor AR. drone quadrotor using ArUco marker and inertial sensors
US20190385339A1 (en) Sensor fusion using inertial and image sensors
Eynard et al. UAV altitude estimation by mixed stereoscopic vision
EP3158293B1 (en) Sensor fusion using inertial and image sensors
EP3158417B1 (en) Sensor fusion using inertial and image sensors
CN112567201A (zh) 距离测量方法以及设备
CN111338383B (zh) 基于gaas的自主飞行方法及系统、存储介质
WO2020113423A1 (zh) 目标场景三维重建方法、系统及无人机
WO2016187758A1 (en) Sensor fusion using inertial and image sensors
CN101598556A (zh) 一种未知环境下无人机视觉/惯性组合导航方法
CN109460046B (zh) 一种无人机自然地标识别与自主着陆方法
US20190301871A1 (en) Direct Sparse Visual-Inertial Odometry Using Dynamic Marginalization
Eynard et al. Real time UAV altitude, attitude and motion estimation from hybrid stereovision
WO2021056139A1 (zh) 获取降落位置的方法、设备、无人机、系统及存储介质
Vetrella et al. RGB-D camera-based quadrotor navigation in GPS-denied and low light environments using known 3D markers
CN110989619B (zh) 用于定位对象的方法、装置、设备和存储介质
CN117036989A (zh) 基于计算机视觉的微型无人机目标识别与跟踪控制方法
CN114077249B (zh) 一种作业方法、作业设备、装置、存储介质
CN109764864B (zh) 一种基于颜色识别的室内无人机位姿获取方法及系统
US20240019866A1 (en) Aerial vehicle control method and apparatus, aerial vehicle, and storage medium
Basit et al. Joint localization of pursuit quadcopters and target using monocular cues
US11645762B2 (en) Obstacle detection
Gomez-Balderas et al. Vision-based autonomous hovering for a miniature quad-rotor

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 518055 Guangdong city of Shenzhen province Nanshan District Xili Street Xueyuan Road No. 1001 Chi Yuen Building 9 layer B1

Applicant after: Shenzhen daotong intelligent Aviation Technology Co.,Ltd.

Address before: 518055 Guangdong city of Shenzhen province Nanshan District Xili Street Xueyuan Road No. 1001 Chi Yuen Building 9 layer B1

Applicant before: AUTEL ROBOTICS Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant