CN102779347B - 一种用于飞行器的目标跟踪与定位方法和装置 - Google Patents
一种用于飞行器的目标跟踪与定位方法和装置 Download PDFInfo
- Publication number
- CN102779347B CN102779347B CN201210199434.XA CN201210199434A CN102779347B CN 102779347 B CN102779347 B CN 102779347B CN 201210199434 A CN201210199434 A CN 201210199434A CN 102779347 B CN102779347 B CN 102779347B
- Authority
- CN
- China
- Prior art keywords
- camera
- target
- image
- correcting image
- aircraft
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 239000011159 matrix material Substances 0.000 claims description 26
- 230000004807 localization Effects 0.000 claims description 16
- 239000000203 mixture Substances 0.000 claims description 14
- 239000002245 particle Substances 0.000 claims description 10
- 238000005352 clarification Methods 0.000 claims description 9
- 238000012952 Resampling Methods 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 6
- 238000012546 transfer Methods 0.000 claims description 6
- 238000003702 image correction Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 3
- 230000015572 biosynthetic process Effects 0.000 claims 2
- 239000013598 vector Substances 0.000 description 16
- 230000000694 effects Effects 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- 230000008447 perception Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 239000012141 concentrate Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明提出一种用于飞行器的目标跟踪与定位方法及装置,该方法包括步骤:对机载的第一相机和第二相机进行标定以获得标定参数;指定需要跟踪与定位的目标的特征信息;根据标定参数,对第一相机和第二相机获得的第一相机图像和第二相机图像进行校正;根据第一相机校正图像和第二相机校正图像,并生成以第一相机校正图像为基准的视差图像;参照特征信息,利用第一相机校正图像和视差图像,对目标进行跟踪以获取目标所在的目标区域;以及在第一相机校正图像中提取目标区域的特征点,并与第二相机校正图像进行匹配,根据匹配成功的特征点计算目标的位置信息。根据本发明的方法,可以更好地追踪目标、并可以获得目标的位置信息。
Description
技术领域
本发明涉及计算机视觉和飞行器目标跟踪领域,特别涉及一种基于记载双目视觉的用于飞行器的目标跟踪与定位方法和装置。
背景技术
随着微电子技术和计算机视觉技术的不断发展,使得目标跟踪得以实时实现,尤其是将目标跟踪装置安装到飞行器上,可以实现对目标的灵活动态跟踪,在军事和民用领域具有较高的使用价值。
传统飞行器的目标跟踪技术中,通常使用激光、雷达和超声等主动环境感知方法,其缺点为并不能直接获得目标的未知信息,并且多个飞行器检测时会相互干扰,更为弊端的是在战场环境中隐蔽性差,被敌方发现的概率大的增加。
目前,双目视觉技术在飞行器中的应用主要集中在与惯导数据融合进行导航、自主着陆、目标检测等。其中,双目视觉技术与惯导数据融合进行导航主要应用于飞行器自主控制,并不涉及对环境进行感知;基于双目视觉技术的自主着陆、目标检测虽然涉及环境的感知,但是针对的目标往往是人工、静止的目标,并且其定位方法大多还要依赖其它传感器的数据。
发明内容
本发明旨在至少解决上述技术问题之一。为此,本发明的一个目的在于提出一种追踪效果好、可获得目标位置的用于飞行器的目标跟踪与定位方法。本发明的另一目的在于提出一种追踪效果好、可获得目标位置的用于飞行器的目标跟踪与定位装置。
为了实现上述目的,根据本发明第一方面的用于飞行器的目标跟踪与定位方法包括以下步骤:对所述飞行器机载的第一相机和第二相机进行标定以获得所述第一相机和第二相机的标定参数;指定需要跟踪与定位的目标的特征信息;根据所述标定参数,对所述第一相机和所述第二相机获得的第一相机图像和第二相机图像进行校正,得到第一相机校正图像和第二相机校正图像;根据所述第一相机校正图像和第二相机校正图像,并生成以所述第一相机校正图像为基准的视差图像;参照所述特征信息,利用所述第一相机校正图像和所述视差图像,对所述目标进行跟踪以获取所述目标所在的目标区域;以及在所述第一相机校正图像中提取所述目标区域的特征点,并与所述第二相机校正图像进行匹配,根据匹配成功的所述特征点计算所述目标的位置信息。
在本发明的一个实施例中,所述标定参数包括:所述第一相机的内参矩阵、所述第二相机的内参矩阵、所述第二相机相对所述第一相机的位置关系矩阵。
在本发明的一个实施例中,所述特征信息包括所述目标的颜色、纹理、几何特征信息。
在本发明的一个实施例中,根据OpenCV提供的求取视差图的SGBM方法求取所述视差图像。
在本发明的一个实施例中,根据重要性重采样粒子滤波算法跟踪所述目标。
在本发明的一个实施例中,使用尺度不变特征转换算法提取所述特征点。
根据本发明实施例的方法具有如下优点:
1.跟踪效果好,在传统的目标跟踪算法中利用的目标特征信息仅包含目标点的二维图像信息,而本发明的方法跟踪时利用了视差图的信息,从而在跟踪过程中利用了目标的深度信息,可以达到更好的跟踪效果。
2.可以获取跟踪目标的位置信息,与传统的目标跟踪和识别方法相比,该方法可以获取目标的位置信息,为进一步对目标进行观测提供了信息。
3.隐蔽性好,该方法采用双目视觉的被动检测方法,不需要接收外部信息亦不主动向外界发射信息,在特殊应用场景如战场环境下具有很好的隐蔽性。
为了实现上述目的,根据本发明第二方面的用于飞行器的目标跟踪与定位装置,包括:第一相机和第二相机,分别用于获取第一相机图像和第二相机图像;参数标定模块,用于对所述第一相机和第二相机进行标定,以获得并保存所述第一相机和第二相机的标定参数;目标特征输入模块,用于指定需要追踪与定位的目标的特征信息;图像校正模块,用于根据所述标定参数,对所述第一相机图像和第二相机图像进行校正,获得第一相机校正图像和第二相机校正图像;视差图像生成模块,用于根据所述第一相机校正图像和第二相机校正图像,生成以所述第一相机校正图像为基准的视差图像;目标区域跟踪模块,用于参照所述特征信息,利用所述第一相机校正图像和所述视差图像,对所述目标进行跟踪,获取所述目标所在的目标区域;目标位置计算模块,用于提取所述目标区域的特征点,并对所述第二相机校正图像进行匹配,根据匹配成功的所述特征点计算所述目标的位置信息。
在本发明的一个实施例中,所述标定参数包括:所述第一相机的内参矩阵、所述第二相机的内参矩阵、所述第二相机相对所述第一相机的位置关系矩阵。
在本发明的一个实施例中,所述特征信息包括所述目标的颜色、纹理、几何特征信息。
在本发明的一个实施例中,根据OpenCV提供的求取视差图的SGBM方法求取所述视差图像。
在本发明的一个实施例中,根据重要性重采样粒子滤波算法跟踪所述目标。
在本发明的一个实施例中,使用尺度不变特征转换算法提取所述特征点。
根据本发明实施例的装置,具有如下优点:
1.跟踪效果好,在传统的目标跟踪算法中利用的目标特征信息仅包含目标点的二维图像信息,而本发明的方法跟踪时利用了视差图的信息,从而在跟踪过程中利用了目标的深度信息,可以达到更好的跟踪效果。
2.可以获取跟踪目标的位置信息,与传统的目标跟踪和识别方法相比,该方法可以获取目标的位置信息,为进一步对目标进行观测提供了信息。
3.隐蔽性好,该方法采用双目视觉的被动检测方法,不需要接收外部信息亦不主动向外界发射信息,在特殊应用场景如战场环境下具有很好的隐蔽性。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中,
图1是根据本发明一个实施例的用于飞行器的目标跟踪与定位方法的流程图;
图2是根据本发明一个实施例的机载的第一相机和第二相机的示意图;以及
图3是根据本发明一个实施例的用于飞行器的目标跟踪与定位装置的结构框图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。相反,本发明的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
下面参考附图描述根据本发明实施例的用于飞行器的目标跟踪与定位方法及装置。
图1是根据本发明一个实施例的用于飞行器的目标跟踪与定位方法的流程图。
如图1所示,根据本发明的用于飞行器的目标跟踪与定位方法包括下述步骤:
步骤S101.对飞行器机载的第一相机和第二相机进行标定以获得第一相机和第二相机的标定参数。
在本发明的一个实施例中,如图2所示,飞行器装载了左侧的第一相机与右侧的第二相机。该第一相机与第二相机并列平行放置,且二者的朝向取决于目标出现的方位。需要说明的是,第一相机和第二相机的相对左右位置可以灵活设置,在另一些实施例中也可以将双目视觉系统中的右侧的相机定义为第一相机、左侧的相机定义为第二相机。对该第一相机和第二相机进行标定,获得标定参数。标定的意义主要在于确定第一相机和第二相机之间的位置关系,其数学表述为一个位置变换矩阵,即以第一相机的坐标系和第二相机的坐标系之间的转换关系。具体地,标定参数是指第一相机的内参矩阵、第二相机的内参矩阵,以及第二相机相对第一相机的位置关系矩阵(包括旋转矩阵和平移向量)。
步骤S102.指定需要跟踪与定位的目标的特征信息。
在本发明的一个实施例中,指定目标的方法可为在线或离线人工指定,具体操作为,在显示窗口上用矩形框框住所要跟踪的目标。人工框选完目标后,图像软件会自动分析出该目标的特征信息。特征信息包括需要追踪与定位的目标的颜色、纹理、几何特征信息,需要指出的是,此处的特征信息都属于二维图像特征信息,可为后续例子中的滤波跟踪算法提供一部分特征向量。
步骤S103.根据标定参数,对第一相机和第二相机获得的第一相机图像和第二相机图像进行校正,得到第一相机校正图像和第二相机校正图像。
在本发明的一个实施例中,根据步骤S101中标定后得到的两架相机各自的内参矩阵和两架相机之间的位置关系矩阵,结合相机自身物理参数(包括焦距、成像原点、畸变系数等),分别对第一相机图像和第二相机图像进行消除镜头畸变和行对准,使得原来两幅图像的成像原点坐标一致、光轴平行、两个相机的成像平面共面、以及对极线行对齐,即获得了第一相机校正图像和第二相机校正图像。
步骤S104.根据第一相机校正图像和第二相机校正图像,并生成以第一相机校正图像为基准的视差图像。
在本发明的一个实施例中,可以用OpenCV软件提供的SGBM方法来求取视差图像。SGBM方法能兼顾处理效率和处理效果,是本领域较常用的求取视差图像的方法之一。
步骤S105.参照特征信息,利用第一相机校正图像和视差图像,对目标进行跟踪以获取目标所在的目标区域。具体地:
首先,将第一相机校正图像和视差图像进行融合,形成具有深度值通道的混合图像。例如,当第一相机校正图像为RGB色彩模式时,与包含深度值D的视差图融合,得到四维的RGBD混合图像;同理,当第一相机校正图像为YUV色彩模式时,与包含深度值D的视差图融合,得到四维的YUVD混合图像。
其次,根据步骤S102中指定的目标,找到该目标在混合图像中对应的位置,记录下该目标的二维图像特征信息和深度特征信息,然后进行滤波追踪。在本发明的一个优选实施例中,根据重要性重采样粒子滤波算法跟踪目标。在该滤波算法中,选取该RGB色调空间(或YUV色调空间)的直方图向量fv1以及视差图深度值的直方图向量作为特征向量fv2。按公式fv=(fv1 T,fv2 T)T计算得到综合特征向量fv。第i个粒子所在区域得到的目标特征向量fvi的相似度为两向量的差的l1范数||fvi-fv||1。其它粒子滤波步骤不变。由此可以追踪得到目标区域。
步骤S106.在第一相机校正图像中提取目标区域的特征点,并与第二相机校正图像进行匹配,根据匹配成功的特征点计算目标的位置信息。具体地,提取第一相机校正图像的目标区域中的特征点,并在第二相机校正图像中进行匹配,得到若干个匹配成功的特征点。优选地,采用尺度不变特征转换算法(SIFT)进行特征点匹配。随后计算所有成功匹配的特征点的均值,并将该均值对应作为目标的中心位置。然后利用双目测距原理求取机载坐标系下该中心位置的坐标,并以此作为目标的位置信息。
根据本发明实施例的用于飞行器的目标跟踪与定位方法具有如下优点:
1.跟踪效果好,在传统的目标跟踪算法中利用的目标特征信息仅包含目标点的二维图像信息,而本发明的方法跟踪时利用了视差图的信息,从而在跟踪过程中利用了目标的深度信息,可以达到更好的跟踪效果。
2.可以获取跟踪目标的位置信息,与传统的目标跟踪和识别方法相比,该方法可以获取目标的位置信息,为进一步对目标进行观测提供了信息。
3.隐蔽性好,该方法采用双目视觉的被动检测方法,不需要接收外部信息亦不主动向外界发射信息,在特殊应用场景如战场环境下具有很好的隐蔽性。
图3是根据本发明一个实施例的用于飞行器的目标跟踪与定位装置的结构框图。
如图3所示,用于飞行器的目标跟踪与定位装置包括下述部分:第一相机100A和第二相机100B、参数标定模块200、目标特征输入模块300、图像校正模块400、视差图像生成模块500、目标区域跟踪模块600和目标位置计算模块700。其中:
第一相机100A和第二相机100B分别用于获取第一相机图像和第二相机图像。
具体地,在某个飞行器上装载了左侧的第一相机100A与右侧的第二相机100B。该第一相机100A与第二相机100B并列平行放置,且二者的朝向取决于目标出现的方位。需要说明的是,第一相机和第二相机的相对左右位置可以灵活设置,在另一些实施例中也可以将双目视觉系统中的右侧的相机定义为第一相机、左侧的相机定义为第二相机。
参数标定模块200用于对第一相机100A和第二相机100B进行标定,以获得并保存第一相机100A和第二相机100B的标定参数。
具体地,参数标定模块200对该第一相机100A和第二相机100B进行标定,获得标定参数。标定的意义主要在于确定第一相机和第二相机之间的位置关系,其数学表述为一个位置变换矩阵,即以第一相机的坐标系和第二相机的坐标系之间的转换关系。在本发明的一个实施例中,标定参数是指第一相机100A的内参矩阵、第二相机100B的内参矩阵,以及第二相机相对第一相机的位置关系矩阵(包括旋转矩阵和平移向量)。
目标特征输入模块300用于指定需要追踪与定位的目标的特征信息。
在本发明的一个实施例中,目标特征输入模块300中指定目标的方法可为在线或离线人工指定,具体操作为,在显示窗口上用矩形框框住所要跟踪的目标。人工框选完目标后,图像软件会自动分析出该目标的特征信息。特征信息包括需要追踪与定位的目标的颜色、纹理、几何特征信息,需要指出的是,此处的特征信息都属于二维图像特征信息,可为后续例子中的滤波跟踪算法提供一部分特征向量。
图像校正模块400用于根据标定参数,对第一相机图像和第二相机图像进行校正,获得第一相机校正图像和第二相机校正图像。
在本发明的一个实施例中,图像校正模块400根据参数标定模块200得到的两架相机各自的内参矩阵和两架相机之间的位置关系矩阵,结合相机自身物理参数(包括焦距、成像原点、畸变系数等),分别对第一相机图像和第二相机图像进行消除镜头畸变和行对准,使得原来两幅图像的成像原点坐标一致、光轴平行、两个相机的成像平面共面、以及对极线行对齐,即获得了第一相机校正图像和第二相机校正图像。
视差图像生成模块500用于根据第一相机校正图像和第二相机校正图像,生成以第一相机校正图像为基准的视差图像。
在本发明的一个实施例中,视差图像生成模块500可以用OpenCV软件提供的SGBM方法来求取视差图像。SGBM方法能兼顾处理效率和处理效果,是本领域较常用的求取视差图像的方法之一。
目标区域跟踪模块600用于参照特征信息,利用第一相机校正图像和视差图像,对目标进行跟踪,获取目标所在的目标区域。
具体地,目标区域跟踪模块600中,首先将第一相机校正图像和视差图像进行融合,形成具有深度值通道的混合图像。例如,当第一相机校正图像为RGB色彩模式时,与包含深度值D的视差图融合,得到四维的RGBD混合图像;同理,当第一相机校正图像为YUV色彩模式时,与包含深度值D的视差图融合,得到四维的YUVD混合图像。其次根据指定的目标,找到该目标在混合图像中对应的位置,记录下该目标的二维图像特征信息和深度特征信息,然后进行滤波追踪。在本发明的一个优选实施例中,根据重要性重采样粒子滤波算法跟踪目标。在该滤波算法中,选取该RGB色调空间(或YUV色调空间)的直方图向量fv1以及视差图深度值的直方图向量作为特征向量fv2。按公式fv=(fv1 T,fv2 T)T计算得到综合特征向量fv。第i个粒子所在区域得到的目标特征向量fvi的相似度为两向量的差的l1范数||fvi-fv||1。其它粒子滤波步骤不变。由此可以追踪得到目标区域。
目标位置计算模块700用于提取目标区域的特征点,并对第二相机校正图像进行匹配,根据匹配成功的特征点计算目标的位置信息。
具体地,目标位置计算模块700中,提取第一相机校正图像的目标区域中的特征点,并在第二相机校正图像中进行匹配,得到若干个匹配成功的特征点。优选地,采用尺度不变特征转换算法(SIFT)进行特征点匹配。随后计算所有成功匹配的特征点的均值,并将该均值对应作为目标的中心位置。然后利用双目测距原理求取机载坐标系下该中心位置的坐标,并以此做为目标的位置信息。在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同限定。
Claims (12)
1.一种用于飞行器的目标跟踪与定位方法,其特征在于,包括以下步骤:
A.对所述飞行器机载的第一相机和第二相机进行标定以获得所述第一相机和第二相机的标定参数;
B.指定需要跟踪与定位的目标的特征信息;
C.根据所述标定参数,对所述第一相机和所述第二相机获得的第一相机图像和第二相机图像进行校正,得到第一相机校正图像和第二相机校正图像;
D.根据所述第一相机校正图像和第二相机校正图像,并生成以所述第一相机校正图像为基准的视差图像;
E.参照所述特征信息,利用所述第一相机校正图像和所述视差图像,对所述目标进行跟踪以获取所述目标所在的目标区域,其中:首先将所述第一相机校正图像和所述视差图像进行融合,形成具有深度值通道的混合图像,其次根据所述步骤B中指定的目标,找到所述目标在所述混合图像中的对应的位置,记录下所述目标的二维图像特征信息和深度特征信息,然后进行滤波追踪;以及
F.在所述第一相机校正图像中提取所述目标区域的特征点,并与所述第二相机校正图像进行匹配,根据匹配成功的所述特征点计算所述目标的位置信息。
2.如权利要求1所述的用于飞行器的目标跟踪与定位方法,其特征在于,所述标定参数包括:所述第一相机的内参矩阵、所述第二相机的内参矩阵、所述第二相机相对所述第一相机的位置关系矩阵。
3.如权利要求1所述的用于飞行器的目标跟踪与定位方法,其特征在于,所述特征信息包括所述目标的颜色、纹理、几何特征信息。
4.如权利要求1所述的用于飞行器的目标跟踪与定位方法,其特征在于,根据OpenCV提供的求取视差图的SGBM方法求取所述视差图像。
5.如权利要求1所述的用于飞行器的目标跟踪与定位方法,其特征在于,根据重要性重采样粒子滤波算法跟踪所述目标。
6.如权利要求1所述的用于飞行器的目标跟踪与定位方法,其特征在于,使用尺度不变特征转换算法提取所述特征点。
7.一种用于飞行器的目标跟踪与定位装置,其特征在于,包括以下部分:
第一相机和第二相机,分别用于获取第一相机图像和第二相机图像;
参数标定模块,用于对所述第一相机和第二相机进行标定,以获得并保存所述第一相机和第二相机的标定参数;
目标特征输入模块,用于指定需要追踪与定位的目标的特征信息;
图像校正模块,用于根据所述标定参数,对所述第一相机图像和第二相机图像进行校正,获得第一相机校正图像和第二相机校正图像;
视差图像生成模块,用于根据所述第一相机校正图像和第二相机校正图像,生成以所述第一相机校正图像为基准的视差图像;
目标区域跟踪模块,用于参照所述特征信息,利用所述第一相机校正图像和所述视差图像,对所述目标进行跟踪,获取所述目标所在的目标区域,其中:首先将所述第一相机校正图像和所述视差图像进行融合,形成具有深度值通道的混合图像,其次根据所述目标的特征信息,找到所述目标在所述混合图像中的对应的位置,记录下所述目标的二维图像特征信息和深度特征信息,然后进行滤波追踪;以及
目标位置计算模块,用于提取所述目标区域的特征点,并对所述第二相机校正图像进行匹配,根据匹配成功的所述特征点计算所述目标的位置信息。
8.如权利要求7所述的用于飞行器的目标跟踪与定位装置,其特征在于,所述标定参数包括:所述第一相机的内参矩阵、所述第二相机的内参矩阵、所述第二相机相对所述第一相机的位置关系矩阵。
9.如权利要求7所述的用于飞行器的目标跟踪与定位装置,其特征在于,所述特征信息包括所述目标的颜色、纹理、几何特征信息。
10.如权利要求7所述的用于飞行器的目标跟踪与定位装置,其特征在于,根据OpenCV提供的求取视差图的SGBM方法求取所述视差图像。
11.如权利要求7所述的用于飞行器的目标跟踪与定位装置,其特征在于,根据重要性重采样粒子滤波算法跟踪所述目标。
12.如权利要求7所述的用于飞行器的目标跟踪与定位装置,其特征在于,使用尺度不变特征转换算法提取所述特征点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210199434.XA CN102779347B (zh) | 2012-06-14 | 2012-06-14 | 一种用于飞行器的目标跟踪与定位方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210199434.XA CN102779347B (zh) | 2012-06-14 | 2012-06-14 | 一种用于飞行器的目标跟踪与定位方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102779347A CN102779347A (zh) | 2012-11-14 |
CN102779347B true CN102779347B (zh) | 2014-08-06 |
Family
ID=47124256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210199434.XA Expired - Fee Related CN102779347B (zh) | 2012-06-14 | 2012-06-14 | 一种用于飞行器的目标跟踪与定位方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102779347B (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103260043A (zh) * | 2013-04-28 | 2013-08-21 | 清华大学 | 基于学习的双目立体图像匹配方法及系统 |
EP3060966B1 (en) | 2014-07-30 | 2021-05-05 | SZ DJI Technology Co., Ltd. | Systems and methods for target tracking |
CN104851111B (zh) * | 2015-04-23 | 2017-07-07 | 北京环境特性研究所 | 一种使用连续变焦探测器的目标跟踪方法 |
US10634500B2 (en) | 2015-06-29 | 2020-04-28 | Yuneec Technology Co., Limited | Aircraft and obstacle avoidance method and system thereof |
CN105974940B (zh) * | 2016-04-29 | 2019-03-19 | 优利科技有限公司 | 适用于飞行器的目标跟踪方法 |
CN105892474A (zh) * | 2016-03-31 | 2016-08-24 | 深圳奥比中光科技有限公司 | 无人机以及无人机控制方法 |
CN105847684A (zh) * | 2016-03-31 | 2016-08-10 | 深圳奥比中光科技有限公司 | 无人机 |
CN105912980B (zh) * | 2016-03-31 | 2019-08-30 | 深圳奥比中光科技有限公司 | 无人机以及无人机系统 |
CN106529495B (zh) * | 2016-11-24 | 2020-02-07 | 腾讯科技(深圳)有限公司 | 一种飞行器的障碍物检测方法和装置 |
WO2018095278A1 (zh) | 2016-11-24 | 2018-05-31 | 腾讯科技(深圳)有限公司 | 飞行器的信息获取方法、装置及设备 |
CN106354157B (zh) * | 2016-11-28 | 2019-05-14 | 中山市昌源模型有限公司 | 一种无人机自主飞行系统 |
CN107958461A (zh) * | 2017-11-14 | 2018-04-24 | 中国航空工业集团公司西安飞机设计研究所 | 一种基于双目视觉的载机目标跟踪方法 |
WO2019119328A1 (zh) * | 2017-12-20 | 2019-06-27 | 深圳市大疆创新科技有限公司 | 一种基于视觉的定位方法及飞行器 |
CN108171728B (zh) * | 2017-12-25 | 2020-06-19 | 清华大学 | 基于混合相机系统的无标记运动物体姿态恢复方法及装置 |
JP6652979B2 (ja) | 2018-02-20 | 2020-02-26 | ソフトバンク株式会社 | 画像処理装置、飛行体及びプログラム |
WO2020019111A1 (zh) * | 2018-07-23 | 2020-01-30 | 深圳市大疆创新科技有限公司 | 一种目标对象的深度信息获取方法及可移动平台 |
CN109584312B (zh) * | 2018-11-30 | 2020-09-11 | Oppo广东移动通信有限公司 | 摄像头标定方法、装置、电子设备和计算机可读存储介质 |
CN111602139A (zh) * | 2019-05-31 | 2020-08-28 | 深圳市大疆创新科技有限公司 | 图像处理方法、装置、控制终端及可移动设备 |
CN110393165B (zh) * | 2019-07-11 | 2021-06-25 | 浙江大学宁波理工学院 | 一种基于自动投饵船的远海养殖网箱投饵方法 |
WO2021168809A1 (zh) * | 2020-02-28 | 2021-09-02 | 深圳市大疆创新科技有限公司 | 跟随方法、可移动平台、设备和存储介质 |
CN111361570B (zh) * | 2020-03-09 | 2021-06-18 | 福建汉特云智能科技有限公司 | 一种多目标跟踪反向验证方法及存储介质 |
CN112013821A (zh) * | 2020-08-26 | 2020-12-01 | 广东工业大学 | 一种基于rlt2二次分配算法的在线双目视觉测距方法 |
CN115049980A (zh) * | 2022-06-16 | 2022-09-13 | 威海经济技术开发区天智创新技术研究院 | 基于图像的目标对象确定方法、装置及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101093582A (zh) * | 2006-06-19 | 2007-12-26 | 索尼株式会社 | 动作捕捉装置和动作捕捉方法、以及动作捕捉程序 |
WO2010042068A1 (en) * | 2008-10-06 | 2010-04-15 | Agency For Science, Technology And Research | Method and system for object detection and tracking |
-
2012
- 2012-06-14 CN CN201210199434.XA patent/CN102779347B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101093582A (zh) * | 2006-06-19 | 2007-12-26 | 索尼株式会社 | 动作捕捉装置和动作捕捉方法、以及动作捕捉程序 |
WO2010042068A1 (en) * | 2008-10-06 | 2010-04-15 | Agency For Science, Technology And Research | Method and system for object detection and tracking |
Non-Patent Citations (4)
Title |
---|
Mallet A. et al..Position estimation in outdoor environments using pixel tracking and stereovision.《Robotics and Automation, 2000. Proceedings. ICRA "00. IEEE International Conference on》.2000,第4卷第3519-3524页. |
Position estimation in outdoor environments using pixel tracking and stereovision;Mallet A. et al.;《Robotics and Automation, 2000. Proceedings. ICRA "00. IEEE International Conference on》;20000424;第4卷;第3519-3524页 * |
刘维亭等.基于重要性重采样粒子滤波器的机动目标跟踪方法.《江苏科技大学学报(自然科学版)》.2007,第21卷(第1期),第37-41页. |
基于重要性重采样粒子滤波器的机动目标跟踪方法;刘维亭等;《江苏科技大学学报(自然科学版)》;20070228;第21卷(第1期);第37-41页 * |
Also Published As
Publication number | Publication date |
---|---|
CN102779347A (zh) | 2012-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102779347B (zh) | 一种用于飞行器的目标跟踪与定位方法和装置 | |
CN106529495B (zh) | 一种飞行器的障碍物检测方法和装置 | |
CN102313536B (zh) | 基于机载双目视觉的障碍物感知方法 | |
Peng et al. | Ida-3d: Instance-depth-aware 3d object detection from stereo vision for autonomous driving | |
CN106873619B (zh) | 一种无人机飞行路径的处理方法 | |
CN109035309A (zh) | 基于立体视觉的双目摄像头与激光雷达间的位姿配准方法 | |
CN107122770B (zh) | 多目相机系统、智能驾驶系统、汽车、方法和存储介质 | |
CN109196551B (zh) | 图像处理方法、设备及无人机 | |
KR101510312B1 (ko) | 복수의 카메라들을 이용한 3d 얼굴 모델링 장치, 시스템 및 방법 | |
Muñoz-Bañón et al. | Targetless camera-LiDAR calibration in unstructured environments | |
Eynard et al. | Real time UAV altitude, attitude and motion estimation from hybrid stereovision | |
Chen et al. | Esvio: Event-based stereo visual inertial odometry | |
WO2024131200A1 (zh) | 基于单目视觉的车辆3d定位方法、装置及汽车 | |
WO2018222122A1 (en) | Methods for perspective correction, computer program products and systems | |
CN113111715A (zh) | 一种无人机目标跟踪与信息采集系统及方法 | |
Bazin et al. | UAV attitude estimation by vanishing points in catadioptric images | |
CN112330747B (zh) | 基于无人机平台的多传感器联合探测和显示方法 | |
CN106382918A (zh) | 一种三维视觉传感器 | |
CN117115271A (zh) | 无人机飞行过程中的双目相机外参数自标定方法及系统 | |
CN108917721B (zh) | 一种失稳卫星星箭对接环双目测量方法 | |
Zhang et al. | Building a stereo and wide-view hybrid RGB/FIR imaging system for autonomous vehicle | |
CN114972539A (zh) | 机房相机平面在线标定方法、系统、计算机设备和介质 | |
CN113011212B (zh) | 图像识别方法、装置及车辆 | |
CN113112532A (zh) | 一种多ToF相机系统实时配准方法 | |
Fu et al. | Advancing Accurate Depth Estimation and Perception with Angled Stereo Camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20140806 |