CN103075998B - 一种单目空间目标测距测角方法 - Google Patents
一种单目空间目标测距测角方法 Download PDFInfo
- Publication number
- CN103075998B CN103075998B CN201210594277.2A CN201210594277A CN103075998B CN 103075998 B CN103075998 B CN 103075998B CN 201210594277 A CN201210594277 A CN 201210594277A CN 103075998 B CN103075998 B CN 103075998B
- Authority
- CN
- China
- Prior art keywords
- target
- image
- extraterrestrial
- extraterrestrial target
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明属于航天技术与计算机视觉交叉的领域,为一种单目空间目标测距测角方法。步骤为:①接收单个相机拍摄的空间目标的一帧图像,即实拍图像Q;②实拍图像Q进行预处理,将空间目标从背景中提取出来,得到预处理后的图像S;再根据预处理后的图像S进行目标检测,如果空间目标完全处于相机视场中,则进入③,否则进入⑤;③对空间目标进行特征提取及姿态识别;④计算空间目标的三维形心距离Δp和姿态角;⑤继续处理,直到全部图像处理完成。本发明方法过程简单,本发明方法只需知道目标的三维结构和尺寸信息即可,不需要目标为合作目标,也不需要在目标上设置任何星标,具有测距范围较广,精度较高的特点。
Description
技术领域
本发明属于航天技术与计算机视觉交叉的领域,具体涉及一种空间目标在观测相机坐标系下的二维形心距离和姿态角信息的获取方法。
背景技术
随着国际上航天活动的日益增多,一些由废弃卫星或太空碰撞产生的太空垃圾也随之而生,这为太空中航天器的运行造成了一定的隐患。2010年,一颗美国在轨卫星与一颗俄罗斯卫星在轨道上相撞,不仅损坏了卫星而且产生了大量太空垃圾。为规避太空垃圾,避免因碰撞造成巨大的经济损失,有必要开展空间目标测量技术,获取目标的空间距离及方位信息。
视觉测量技术是建立在计算机视觉研究基础上的一门新兴技术,研究重点是物体的几何尺寸及在空间的位置、姿态等的测量。视觉测量按所用视觉传感器数量可以分为单目视觉测量、双目视觉(立体视觉)测量和三(多)目视觉测量等。其中,双目视觉测量和近景摄影测量的理论基础和主要研究内容是一样的。单目视觉测量是指仅利用一台相机或摄像机拍摄单张像片来进行测量工作。因其仅需一台视觉传感器,所以该方法的优点是结构简单、相机标定也简单,同时还避免了立体视觉中的视场小、立体匹配难的不足,因而近年来这方面的研究比较活跃,主要集中在对运动物体的检测与跟踪、三维重建等方面。
单目测量物体距离及物体几何属性的研究并不少见,但是用几何成像法实现单目测量目标距离和姿态角的研究却少见。单目视觉测距采用对应点标定法来获取图像的深度信息,对应点标定法是指通过不同坐标系中对应点的对应坐标求解坐标系的转换关系。由于对应点标定法对于摄像机的标定是在摄像机的各个角度及高度已经确定的情况下进行的,当摄像机的任何一个参数发生变化时,都要重新进行标定,以得到在该种情况下的转换矩阵,所以该方法仅适用于摄像机位置固定的情况。对于应用在空间飞行器上的摄像机来说,适用性受到了限制。
岳亮,李自田等在“空间目标的单目视觉测量技术研究”(微计算机信息,Vol.23No.200702-3-0273-03)中提出用几何成像法实现单目测量具有特定特征点目标的相对位置和姿态的方法,但该方法仅局限于目标在近距离(0.5m~15m),且目标上有已知标记点的情况,对于较远距离(比如200m~300m)且目标上无标记点的情况不适用。
对于已知目标的几何尺寸,目标的实际距离较远(100m以上),且目标上无任何标记点,目标以一定的姿态角速度摆动和自转的情况,现有的单目测距算法均不能提供有效的目标空间距离、角度信息。
针对上种情况本发明提出了一种利用目标自身的三维结构信息,根据几何成像法原理来测量目标距离及姿态角的方法。
发明内容
本发明提供了一种单目空间目标测距测角方法,目的在于为飞行器在接近、绕飞、跟踪目标等飞行阶段提供信息支持,便于精确控制飞行器的飞行。
本发明提供的一种单目空间目标测距测角方法,具体包括下述步骤:
第A1步接收单个相机拍摄的空间目标的一帧图像,即实拍图像Q;
第A2步对空间目标的实拍图像Q进行预处理,包括Otsu阈值分割,形态学运算和标记处理,将空间目标从背景中提取出来,得到预处理后的图像S;再根据预处理后的图像S进行目标检测,如果空间目标完全处于相机视场中,则进入第A3步,否则进入第A5步;
第A3步对空间目标进行特征提取及姿态识别;
所述特征提取是指对预处理后图像S进行特征提取,得到空间目标的目标特征,采用Mθ表示预处理后图像S中空间目标的第θ维目标特征;θ表示目标特征的维数,其取值范围为1~7;第1维目标特征为空间目标短轴的斜率,第2维目标特征为空间目标的短轴与长轴之比,第3维目标特征为空间目标纵向对称度,第4维目标特征是空间目标周长与面积之比,第5维目标特征,目标面积与目标外接矩形的面积之比,第6维目标特征是空间目标外接矩形水平长度与纵向长度之比,第7维目标特征为空间目标短轴长度;
一对俯仰角R和偏航角H对应一个姿态,所述姿态识别是指根据所提取的空间目标的目标特征从模板目标特征库中找出模板图像中最接近的目标特征,记为dq,k,其中该最接近的目标特征的第7维特征记为dq,k对应的观测相机与空间目标的距离记为Dq;
第A4步计算空间目标的三维形心距离Δp和姿态角并返回结果;
姿态角包括俯仰角偏航角φ,单位为度,计算公式如下:
其中,(centerx',centery')为空间目标在摄像机坐标系下的中心坐标,单位像素;相机焦距focslen,单位:mm;单个像素的尺寸pixlen,单位:um;
第A5步转入第A1步,对下一帧图像进行处理,直到全部图像处理完成。
作为上述技术方案的改进,所述模板目标特征库的建立过程为:
第B1步按观测相机与空间目标的距离由近及远依次将空间目标划分为不同的尺度等级,记尺度等级数量为Φ,各尺度下相机与目标在仿真条件下的距离记为Di,i=1,2,...Φ;
第B2步在同一尺度下,一对俯仰角和偏航角即对应一个目标姿态,将高斯观察球每隔10度划分为684个观察区域,去除冗余,得到614类不同的目标姿态模板图像,构成模板图像库;Rij表示第i尺度等级第j类姿态下的图像,i=1,2,...Φ;j=1,2,...614,;
第B3步对模板图像库中的每一幅图像进行预处理,包括Otsu阈值分割,形态学运算和标记处理;
第B4步对每一幅预处理后的图像进行特征提取,建立空间目标的目标特征库,采用j表示目标特征库中第i尺度下第j类姿态的第θ维特征。
作为上述技术方案的进一步改进,所述预处理具体包括下述步骤:
(C1)利用Otsu阈值分割算法将待预处理的图像A分割为二值化图像B,此时图像B明亮区域主要包含了图像A的目标明亮区域部分;
(C3)将二值化图像B进行数学形态学膨胀处理,得到膨胀后的二值化图像C;
(C4)使用图像C与图像A作形态学非与运算,即标记图像C中像素点灰度值为255的像素点坐标位置,将图像A中相同位置像素灰度值置为背景灰度,得到图像D;
(C5)利用Otsu阈值分割算法将图像D进行分割,得到二值化图像E;图像E的明亮区域主要包含了图像A的目标暗区域;
(C6)将图像B与图像E做形态学或运算,得到图像F,此时图像F包含了目标图像明亮区域和暗区域的全部信息;
(C7)对图像F进行连通区域标记,寻找面积最大的连通区域作为目标输出,得到预处理后的图像G。
作为上述技术方案的更进一步改进,所述目标检测具体为:根据预处理后实拍图像中空间目标的最小外接矩形与图像边界之间的相对位置关系来判断空间目标是否完全处于相机视场中,如果目标外接矩形上下或左右边界都靠近图像边界,或者目标外接矩形上、下、左、右边界仅有一边靠近图像边界,或者图像S中无连通区域,则进入第A5步;否则,空间目标完全处于视场中。
作为上述技术方案的再进一步改进,所述第A3步中的特征提取和姿态识别过程具体为:
(A31)采用与第B1步相同的尺度等级,计算出实拍图像的特征,取实拍图像的特征中的前6维,计算出实拍图像的特征与模板目标特征库行向量之间的欧式距离Di,j={di,1,di,2,...di,j...di,614},di,j,i=1,2,...5;j=1,2,...614表示实拍图像与模板目标特征库的第i尺度与第j类状态特征值的欧式距离;
(A32)找出Di,j中最小的值,设其所在的尺度为q,所在的类为k,记为dq,k,即该实拍图像对应的特征与模板目标特征库中的第q尺度下的第k类特征最接近。
离线准备阶段利用目标的三维模型获取目标的多尺度多姿态模板图像,进而建立目标的特征库并规划目标识别策略;实时处理阶段依据该特征库和目标在观测相机中的成像信息,进行目标姿态识别并由几何成像的测距算法计算目标二维形心到观测相机的距离和姿态角,为飞行器接近、绕飞目标、规避或清理太空垃圾等提供信息支撑。
基于双目相机的测距系统可以获得一副或者一系列图像对,通过计算图像对的视差来估计目标距离。与此不同的是,基于单目相机的测距系统所能获得的是一幅或者一系列单幅图像,无从计算视差,本发明的测距原理是利用目标柱体投影到图像像面上的宽度,加上相机的成像参数以及目标尺寸的先验知识来估计距离。本发明的特点在于:第一,本发明方法兼具检测视场中有无目标、目标在视场边缘及目标充满视场等多种情况的功能;第二,本发明方法是基于单目视觉,相比双目视觉,本发明方法过程简单;第三,本发明方法只需知道目标的三维结构和尺寸信息即可,不需要目标为合作目标,也不需要在目标上设置任何星标;第四,本发明方法的测距范围较广,精度较高。
附图说明
图1是总体流程图;
图2是示例目标结构;
图3是高斯观察球;
图4是目标多尺度多姿态模板图像,其中4a为第一级模板图像(R1j,j=1,2,...10),4b为第二级模板图像(R2j,j=1,2,...10),4c为第三级模板图像(R3j,j=1,2,...10),4d为第四级模板图像(R4j,j=1,2,...10),4e为第五级模板图像(R5j,j=1,2,...10);
图5是图像预处理算法流程;
图6是图像预处理结果,其中,6a为原始图像,6b为预处理后图像;
图7是目标长短轴定义;
图8是目标纵向对称度定义;
图9是目标检测算法流程图;
图10是检测示意图,其中,10a为图像预处理结果,10b为获得目标最小矩形;
图11是本实例采用的多尺度识别姿态的流程示意图;
图12是单目相机测距模型;
图13是坐标系转换示意图,其中,13a为图像坐标系,13b为摄像机坐标系;
表1是空间目标的测角和测距的结果展示。
具体实施方式
下面结合附图对本发明的具体实施方式作进一步说明。在此需要说明的是,对于这些实施方式的说明用于帮助理解本发明,但并不构成对本发明的限定。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
本实例是面向的目标主体结构为长轴对称且长短轴不同,以图2所示目标结构为例对本发明做进一步详细说明。总体流程图如图1所示,具体实施方法包括以下步骤。
第一步:建立空间目标的目标特征库
根据已知的空间目标的三维结构和尺寸信息,利用Open-GL仿真空间目标的三维模型的二维模板图像,再利用二维模板图像按照下述步骤(1)至(3)得到空间目标的目标特征库。
(1)由空间目标的三维模型获取空间目标的多尺度多姿态模板图像库。
(1.1)按观测相机与空间目标的距离由近及远依次将空间目标划分为不同的尺度等级,各尺度下相机与目标在仿真条件下的距离记为Di。
观测相机与空间目标的距离是指两者的相对距离,可以是二者同时运动,或者通过移动观测相机改变其距离,尺度等级可以为一个或多个,相邻两个尺度等级的距离差可以为5至150米之间,具体值可以根据统计实验得到。下面举例说明如下:
三维目标对于观察者距离的变化造成的效果相当于目标尺度或图像模糊度的变化。目标在成像面上投影大小随目标距离变大而变小,我们按距离目标的距离由近及远依次将空间目标划分为多个尺度等级。
(1.2)在同一尺度下,一对俯仰角和偏航角即对应一个目标姿态,将高斯观察球每隔10度划分为684个观察区域,去除冗余,得到614类不同的目标姿态模板图像。每个尺度等级均包含614个目标姿态模板图像。
具体方法如下:按俯仰角(-90—90度)和偏航角(-180—180度)来定义目标的姿态,一对俯仰角和偏航角即对应一个目标姿态。若将三维目标放置在高斯观察球中心(如图3),当三维目标运动时,其姿态的变化造成的效果等价于观察者在高斯观察球面上的移动。可将高斯观察球每隔10度划分为684个观察区域,由于在目标俯仰角90度时,不同偏航角对目标的姿态没有影响,因此将(90,-180)~(90,180)的姿态去冗余为一个姿态(90,0)。在俯仰角为-90的时采取相同的处理方法。由此即可得到空间目标的多姿态模板图像,共得到614类不同的目标姿态模板图像。
如图4所示,划分为5个尺度等级,目标的5个尺度多姿态模板分别为:图4a是距离目标120米的10个姿态的模板图像,图4b是距离目标140米的10个姿态的模板图像,图4c是距离目标160米的10个姿态的模板图像,图4d是距离目标210米的10个姿态的模板图像,图4e是距离目标300米的10个姿态的模板图像则5个尺度不同姿态的目标模板可表示为Rij,i表示尺度等级,j表示姿态类型,i=1,2,...5;j=1,2,...614,第一级尺度R1j,j=1,2,...614对应的相机和目标的距离为120米,第二级尺度R2j,j=1,2,...614对应的相机和目标的距离为140米,第三级尺度R3j,j=1,2,...614对应的相机和目标的距离为160米,第四级尺度R4j,j=1,2,...614对应的相机和目标的距离为210米,第五级尺度R5j,j=1,2,...614对应的相机和目标的距离为300米。由此可获取目标的多尺度多姿态的模板图像库。
(2)对空间目标的多尺度多姿态模板图像库中的每一幅图像进行预处理:
图像预处理主要是对图像进行分割,形态学运算和标记等处理,进而把目标从太空背景中提取出来,为下一步目标特征提取做准备。根据图像成像环境、质量和对处理结果的要求,我们通过二次使用Otsu阈值分割法来分割图像。图像预处理算法流程如图5所示,对每一帧图像按照下述步骤进行预处理:
(2-1)输入空间目标的多尺度多姿态模板图像库中的一幅图像A;
(2-2)利用Otsu阈值分割算法将图像A分割为二值化图像B;此时图像B明亮区域(灰度值为255)主要包含了图像A的目标明亮区域部分;
(2-3)将二值化图像B进行数学形态学膨胀处理,得到膨胀后的二值化图像C;
(2-4)使用图像C与图像A作形态学非与运算,即标记图像C中像素点灰度值为255的像素点坐标位置,将图像A中相同位置像素灰度值置为背景灰度,得到图像D;
(2-5)利用Otsu阈值分割算法将图像D进行分割,得到二值化图像E;此时,图像E的明亮区域(灰度值为255区域)主要包含了图像A的目标暗区域;
(2-6)将图像B与图像E做形态学或运算,得到图像F,此时图像F包含了目标图像明亮区域和暗区域的全部信息。
(2-8)对图像F进行连通区域标记,寻找面积最大的连通区域作为目标输出,得到预处理后的图像G,图像G即包含了完整的空间目标信息,同时剔除掉了其他干扰目标。图像预处理结果如图6所示。
(3)对每一幅预处理后的图像进行特征提取,建立空间目标的目标特征库,采用表示目标特征库中第i尺度下第j类姿态的第θ维特征,θ表示目标特征的维数,其取值范围为1~7;
首先定义本发明所使用的术语的含义如下:
目标外接矩形是指能够将空间目标全部包含的最小外接矩形。
目标长轴是指过空间目标重心且平行目标外接矩形的长边的线段。
目标短轴是指过目标重心且平行目标外接矩形的短边的线段。
目标短轴长度是指目标短轴的像素点的个数。
空间目标短轴ab、长轴cd和目标的最小外接矩形ABCD的定义如图7所示。
目标短轴的斜率是指空间目标外接矩形的短边相对于图像坐标系的X轴的斜率。图像坐标系是指XY轴直角坐标系。
目标周长是指目标外围轮廓上像素点的总个数。
目标面积是指目标所包含的像素点的总个数。
目标外接矩形的面积是指目标外接矩形所包含的像素点的总个数。
目标外接矩形水平长度是指目标外接矩形在X轴方向上的投影线段的长度,即该投影线段所包含的像素点的总个数。如图9中的线段ab和cd的长度即是目标的外接矩形水平的长度。
目标外接矩形纵向长度是指目标外接矩形在Y轴方向上的投影线段的长度,即该投影线段所包含的像素点的总个数。如图9中的线段ad和bc的长度即是目标的外接矩形纵向的长度。
本发明所提取的目标特征包含如下七个,具体为:
第1维目标特征:目标短轴的斜率Ki,i=1,2,...614。
第2维目标特征:短轴与长轴之比LRi,i=1,2,...614。
目标在图像上的长短轴之比能很好地反映物体偏航角,从而反映物体的姿态特征。
第3维目标特征:目标纵向对称度Ci,i=1,2,...614。
为了标记目标的头和尾的方向,引入二维标记特征,即纵向对称度Sx和Sy。目标的头部是圆台状的结构,并且有很长的尾部,因此,为了区别目标的头尾,Sx为在水平方向上目标重心到目标外接矩形左侧的距离与外接矩形水平长度之比;Sy为在竖直方向上目标重心到目标外接矩形上侧的距离与外接矩形竖直长度之比,纵向对称度定义如图9所示,其中Sx=|de|/|dc|,Sy=|bf|/|bc|。
第4维目标特征:目标周长与目标面积之比RSi,i=1,2,...614,
第5维目标特征:目标面积与目标外接矩形的面积之比SSi,i=1,2,...614,
第6维目标特征:目标外接矩形水平长度与纵向长度之比LLi,i=1,2,...614,
第7维目标特征:目标短轴长度Li,i=1,2,...614。
反映目标形状特征的方法有很多,不过大部分方法需要对图像进行复杂的处理和变换。为了提高系统的实时性,我们选择一些简单且有区分度的统计特征和几何特征来描述目标的形状。本发明采用的反映目标形状的特征包括第4维、第5维、第6维和第7维目标特征。
第二步:对空间目标进行测距测角
按照下述步骤(4)至(8)对空间目标的实拍图像进行处理,得到空间目标的二维形心距离和姿态角信息。
(4)接收单个相机实际拍摄的空间目标的一帧图像,即实拍图像Q。
(5)对空间目标的实拍图像进行预处理、目标检测及特征提取。具体包括以下子步骤:
(5-1)对目标实拍图像进行图像预处理,步骤同上述步骤(2),得到图像H;
(5-2)对预处理后图像S进行目标检测。
具体方法如下:根据预处理后实拍图像中空间目标的最小外接矩形与图像边界之间的相对位置关系来判断空间目标是否靠近图像边界。
目标检测判断标准如下:如果目标外接矩形上下或左右边界都靠近图像边界,则目标充满图像,进入步骤(8);如果目标外接矩形上、下、左、右边界仅有一边靠近图像边界,则目标靠近图像边界,进入步骤(8);如果图像S中无连通区域,则视场中无目标,进入步骤(8),其它情况下,则目标完全处于视场中,进入步骤(6)。
检测结果如图10所示。
如果目标完全处于相机视场中,进入步骤(6)。否则返回相应的目标信息,不进行测距测角处理,转入步骤(8)。
(6)对空间目标进行特征提取及姿态识别。
若检测结果目标处于视场中,则对预处理后图像S进行特征提取,得到空间目标的目标特征,采用Mθ表示预处理后图像S中空间目标的第θ维目标特征。
姿态识别即估计实拍图像Q中目标的俯仰角R和偏航角H,一对(R,H)的角度称为一个姿态。目标姿态识别是为了提高系统的测距精度。本发明方法为了提高目标姿态识别的准确率,采用多尺度分类识别方式。具体说明如下:
(61)采用与第一步相同尺度等级,计算出实拍图像的特征,取实拍图像的特征中的前6维,计算出实拍图像的特征与模板目标特征库行向量之间的欧式距离Di,j={di,1,di,2,...di,j...di,614}。di,j,i=1,2,...5;j=1,2,...614作为实拍图像与模板目标特征库的第i尺度与第j类状态特征值的欧式距离。
(62)找出Di,j中最小的值,设其所在的尺度为q,所在的类为k,记为dq,k,即该实拍图像对应的特征与模板目标特征库中的第q尺度下的第k类特征最接近。
(7)计算空间目标的三维形心距离和姿态角并返回结果。
具体包括以下子步骤:
(71)目标空间距离测量。目标的空间距离在经过上述姿态识别后即可计算得出。具体测距原理如下:
如图2所示,设CoOCxCyCz为相机坐标系,且世界坐标系与相机坐标系重合。相机成像平面为GHKL,相机的焦点Co在成像平面GHKL(设成像平面为连续的,且计量单位为米)上的投影为O’,则向量的模长即为相机的焦距F。世界坐标系中目标上两点A,B投影到像面上两点为A’,B’,且设目标的形心O的像面投影即为O’。则形心的距离即为的模长。在上述相机模型下,测量目标形心的距离的原理为:
设形心的距离为D,则存在:
由目标先验知识及提取的目标特征可以得知和的长度,相机焦距F已知,于是目标的空间距离D为:
由目标特征库中第q尺度下的目标信息,根据下式即可得到目标与相机的空间目标的三维形心距离Δp:
其中Dq为第q尺度下相机与目标在仿真条件下的距离,为目标特征库中第q尺度下第k类特征值中的第7维特征,即短轴长度。M7为步骤(5-3)中预处理后图像S中空间目标的第7维特征。
(72)目标姿态角测量。对于预处理后图像S进行如下处理,具体又包括如下子步骤。
(721)计算空间目标的中心的图像坐标系的坐标(centerx,centery), 其中f(j′,i′)表示预处理后图像S中空间目标上的一个像素点,j′为该像素点的行序号,i′为该像素点的列序号。num为空间目标所包含的像素点的总个数。
(722)对该目标的中心坐标进行坐标转换,即由图像坐标系转换到摄像机坐标系下,得到空间目标在摄像机坐标系下的中心坐标(centerx',centery')。如图13所示,转换公式如下。
注:Col、Rol分别为实拍图像的宽和高,即总列数和总行数,本实例中Col、Rol均为512个像素点。
(723)由上步中得出的中心坐标值(centerx',centery')即可计算出目标在摄像机坐标系下的姿态角,包括俯仰角(单位:度);偏航角φ(单位:度),计算公式如下:
注:目标中心坐标(centerx',centery')(单位像素);相机焦距focslen(单位:mm);单个像素的尺寸pixlen(单位:um)。
(8)转入步骤(4),进行下一帧图像的处理,直到全部图像处理完成。
表1所示为利用本发明所提出的测距测角算法的测试结果,采用如图4所示的5个尺度多姿态模板图像,测试图片为目标分别距离观测相机100m,150m,230m的情况,目标姿态角(即俯仰角偏航角)为前5帧(1,1)度,中间5帧(0,0)度,后5帧(-2,-1)度,由测试结果可知本测距测角算法的误差相对较小。
以上所述为本发明的较佳实施例而已,但本发明不应该局限于该实施例和附图所公开的内容。所以凡是不脱离本发明所公开的精神下完成的等效或修改,都落入本发明保护的范围。
表1
识别类型 | 帧号 | 俯仰角(度) | 偏航角(度) | 距离(米) | 检测结果 |
多帧识别 | 1 | 0.945997 | 0.785838 | 99.852745 | 正常 |
多帧识别 | 2 | 0.982897 | 0.777713 | 99.899918 | 正常 |
多帧识别 | 3 | 1.039373 | 0.777794 | 99.859428 | 正常 |
多帧识别 | 4 | 1.072324 | 0.786856 | 99.852745 | 正常 |
多帧识别 | 5 | 1.100272 | 0.798172 | 99.987335 | 正常 |
多帧识别 | 6 | 0.027195 | -0.076035 | 151.118683 | 正常 |
多帧识别 | 7 | 0.027195 | -0.076035 | 151.118683 | 正常 |
多帧识别 | 8 | 0.027195 | -0.076035 | 151.118683 | 正常 |
多帧识别 | 9 | 0.027195 | -0.076035 | 151.118683 | 正常 |
多帧识别 | 10 | 0.027195 | -0.076035 | 151.118683 | 正常 |
多帧识别 | 11 | -1.868953 | -1.050484 | 233.161209 | 正常 |
多帧识别 | 12 | -1.864492 | -1.015706 | 228.982147 | 正常 |
多帧识别 | 13 | -1.923754 | -0.918041 | 232.284805 | 正常 |
多帧识别 | 14 | -1.897925 | -0.943331 | 232.104034 | 正常 |
多帧识别 | 15 | -1.878439 | -0.976062 | 233.917862 | 正常 |
Claims (7)
1.一种单目空间目标测距测角方法,具体包括下述步骤:
第A1步接收单个相机拍摄的空间目标的一帧图像,即实拍图像Q;
第A2步对空间目标的实拍图像Q进行预处理,包括Otsu阈值分割,形态学运算和标记处理,将空间目标从背景中提取出来,得到预处理后的图像S;再根据预处理后的图像S进行目标检测,如果空间目标完全处于相机视场中,则进入第A3步,否则进入第A5步;
第A3步对空间目标进行特征提取及姿态识别;
所述特征提取是指对预处理后图像S进行特征提取,得到空间目标的目标特征,采用Mθ表示预处理后图像S中空间目标的第θ维目标特征;θ表示目标特征的维数,其取值范围为1~7;第1维目标特征为空间目标短轴的斜率,第2维目标特征为空间目标的短轴与长轴之比,第3维目标特征为空间目标纵向对称度,第4维目标特征为空间目标周长与面积之比,第5维目标特征为目标面积与目标外接矩形的面积之比,第6维目标特征为空间目标外接矩形水平长度与纵向长度之比,第7维目标特征为空间目标短轴长度;
一对俯仰角R和偏航角H对应一个姿态,所述姿态识别是指根据所提取的空间目标的目标特征从模板目标特征库中找出模板图像中最接近的目标特征,记为dq,k,其中该最接近的目标特征的第7维特征记为dq,k对应的观测相机与空间目标的距离记为Dq;
第A4步计算空间目标的三维形心距离Δp和姿态角并返回结果;
姿态角包括俯仰角偏航角φ,单位为度,计算公式如下:
其中,(centerx',centery')为空间目标在摄像机坐标系下的中心坐标,单位:像素;相机焦距focslen,单位:mm;单个像素的尺寸pixlen,单位:um;
第A5步转入第A1步,对下一帧图像进行处理,直到全部图像处理完成。
2.根据权利要求1所述的一种单目空间目标测距测角方法,所述模板目标特征库的建立过程为:
第B1步按观测相机与空间目标的距离由近及远依次将空间目标划分为不同的尺度等级,记尺度等级数量为Φ,各尺度下相机与目标在仿真条件下的距离记为Di,i=1,2,...Φ;
第B2步在同一尺度下,一对俯仰角和偏航角即对应一个目标姿态,将高斯观察球每隔10度划分为684个观察区域,去除冗余,得到614类不同的目标姿态模板图像,构成模板图像库;Rij表示第i尺度等级第j类姿态下的图像,i=1,2,...Φ;j=1,2,...614;具体方法如下:
按俯仰角-90—90度和偏航角-180—180度定义目标的姿态,一对俯仰角和偏航角即对应一个目标姿态;若将三维目标放置在高斯观察球中心,当三维目标运动时,其姿态的变化造成的效果等价于观察者在高斯观察球面上的移动,将高斯观察球每隔10度划分为684个观察区域,将(90,-180)~(90,180)的姿态去冗余为一个姿态(90,0),在俯仰角为-90时采取相同的处理方法,由此得到空间目标的多姿态模板图像,共得到614类不同的目标姿态模板图像;
第B3步对模板图像库中的每一幅图像进行预处理,包括Otsu阈值分割,形态学运算和标记处理;
第B4步对每一幅预处理后的图像进行特征提取,建立空间目标的目标特征库,采用表示目标特征库中第i尺度下第j类姿态的第θ维特征。
3.根据权利要求1或2所述的一种单目空间目标测距测角方法,所述预处理具体包括下述步骤:
(C1)利用Otsu阈值分割算法将待预处理的图像A分割为二值化图像B,此时图像B明亮区域主要包含了图像A的目标明亮区域部分;
(C3)将二值化图像B进行数学形态学膨胀处理,得到膨胀后的二值化图像C;
(C4)使用图像C与图像A作形态学非与运算,即标记图像C中像素点灰度值为255的像素点坐标位置,将图像A中相同位置像素灰度值置为背景灰度,得到图像D;
(C5)利用Otsu阈值分割算法将图像D进行分割,得到二值化图像E;图像E的明亮区域主要包含了图像A的目标暗区域;
(C6)将图像B与图像E做形态学或运算,得到图像F,此时图像F包含了目标图像明亮区域和暗区域的全部信息;
(C7)对图像F进行连通区域标记,寻找面积最大的连通区域作为目标输出,得到预处理后的图像G。
4.根据权利要求1或2所述的一种单目空间目标测距测角方法,所述目标检测具体为:
根据预处理后实拍图像中空间目标的最小外接矩形与图像边界之间的相对位置关系来判断空间目标是否完全处于相机视场中,如果目标外接矩形上下或左右边界都靠近图像边界,或者目标外接矩形上、下、左、右边界仅有一边靠近图像边界,或者图像S中无连通区域,则进入第A5步;否则,空间目标完全处于视场中。
5.根据权利要求2所述的一种单目空间目标测距测角方法,所述第A3步中的特征提取和姿态识别过程具体为:
(A31)采用与第B1步相同的尺度等级,计算出实拍图像的特征,取实拍图像的特征中的前6维,计算出实拍图像的特征与模板目标特征库行向量之间的欧式距离Di,j={di,1,di,2,...di,j...di,614},di,j表示实拍图像与模板目标特征库的第i尺度与第j类状态特征值的欧式距离,i=1,2,...5,j=1,2,...614;
(A32)找出Di,j中最小的值,设其所在的尺度为q,所在的类为k,记为dq,k,即该实拍图像对应的特征与模板目标特征库中的第q尺度下的第k类特征最接近。
6.根据权利要求2所述的一种单目空间目标测距测角方法,其特征在于,按照下述过程得到空间目标在摄像机坐标系下的中心坐标(centerx',centery'):
计算空间目标在图像坐标系的中心坐标(centerx,centery), 其中,j′为预处理后图像S中空间目标上的一个像素点的行序号,i′为该像素点的列序号,num为空间目标所包含的像素点的总个数;
对所述中心坐标(centerx,centery)进行坐标转换,得到空间目标在摄像机坐标系下的中心坐标(centerx',centery'):
其中,Col、Rol分别为实拍图像的宽和高。
7.根据权利要求3所述的一种单目空间目标测距测角方法,其特征在于,按照下述过程得到空间目标在摄像机坐标系下的中心坐标(centerx',centery'):
计算空间目标在图像坐标系的中心坐标(centerx,centery), 其中,j′为预处理后图像S中空间目标上的一个像素点的行序号,i′为该像素点的列序号,num为空间目标所包含的像素点的总个数;
对所述中心坐标(centerx,centery)进行坐标转换,得到空间目标在摄像机坐标系下的中心坐标(centerx',centery'):
其中,Col、Rol分别为实拍图像的宽和高。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210594277.2A CN103075998B (zh) | 2012-12-31 | 2012-12-31 | 一种单目空间目标测距测角方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210594277.2A CN103075998B (zh) | 2012-12-31 | 2012-12-31 | 一种单目空间目标测距测角方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103075998A CN103075998A (zh) | 2013-05-01 |
CN103075998B true CN103075998B (zh) | 2015-08-26 |
Family
ID=48152612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210594277.2A Active CN103075998B (zh) | 2012-12-31 | 2012-12-31 | 一种单目空间目标测距测角方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103075998B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310448B (zh) * | 2013-06-13 | 2016-10-12 | 电子科技大学 | 用于das的摄像装置姿态角估计及实时生成合成图的方法 |
CN103632383A (zh) * | 2013-10-07 | 2014-03-12 | 唐春晖 | 一种图像目标外观对称性与形状特征的检测方法 |
CN105091847B (zh) * | 2014-04-16 | 2017-12-29 | 联想(北京)有限公司 | 一种测量距离的方法及电子设备 |
CN104864851B (zh) * | 2015-06-01 | 2017-10-20 | 中国科学院光电技术研究所 | 一种基于矩形周长和面积加权约束的单目视觉位姿测量方法 |
CN105405126B (zh) * | 2015-10-27 | 2017-11-07 | 大连理工大学 | 一种基于单目视觉系统的多尺度空‑地参数自动标定方法 |
CN105573341B (zh) * | 2016-01-22 | 2018-08-10 | 深圳泰山体育科技股份有限公司 | 一种飞行器光学控制方法及系统 |
CN106405531B (zh) * | 2016-09-05 | 2019-05-07 | 南京理工大学 | 基于图像处理技术的被动毫米波辐射成像系统测距方法 |
CN106546233A (zh) * | 2016-10-31 | 2017-03-29 | 西北工业大学 | 一种面向合作目标的单目视觉定位方法 |
CN106780511A (zh) * | 2016-12-01 | 2017-05-31 | 上海航天控制技术研究所 | 基于单目视觉的慢旋非合作目标相对测量系统和方法 |
CN109544633B (zh) * | 2017-09-22 | 2021-08-27 | 华为技术有限公司 | 目标测距方法、装置及设备 |
CN109767454B (zh) * | 2018-12-18 | 2022-05-10 | 西北工业大学 | 基于时-空-频显著性的无人机航拍视频运动目标检测方法 |
CN109754420B (zh) * | 2018-12-24 | 2021-11-12 | 深圳市道通智能航空技术股份有限公司 | 一种目标距离估计方法、装置及无人机 |
CN109631912B (zh) * | 2019-01-10 | 2022-08-23 | 中国科学院光电技术研究所 | 一种深空球形目标被动测距方法 |
CN112802090A (zh) * | 2021-01-23 | 2021-05-14 | 行云智能(深圳)技术有限公司 | 一种单目视觉测距的处理方法 |
CN115248025B (zh) * | 2022-06-10 | 2023-06-02 | 南京工业大学 | 一种基于自适应算法的吊车负载摆角测量方法 |
CN116402871B (zh) * | 2023-03-28 | 2024-05-10 | 苏州大学 | 一种基于场景平行要素的单目测距方法、系统及电子设备 |
CN117576217B (zh) * | 2024-01-12 | 2024-03-26 | 电子科技大学 | 一种基于单实例图像重建的物体位姿估计方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101067557A (zh) * | 2007-07-03 | 2007-11-07 | 北京控制工程研究所 | 适用于自主移动车辆的环境感知的单目视觉导航方法 |
CN101377812A (zh) * | 2008-07-11 | 2009-03-04 | 北京航空航天大学 | 一种空间平面物体位姿识别方法 |
CN101839721A (zh) * | 2010-03-12 | 2010-09-22 | 西安电子科技大学 | 自主交会对接中的视觉导航方法 |
CN102679896A (zh) * | 2011-07-15 | 2012-09-19 | 上海工程技术大学 | 基于机器视觉的轨距测定方法 |
-
2012
- 2012-12-31 CN CN201210594277.2A patent/CN103075998B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101067557A (zh) * | 2007-07-03 | 2007-11-07 | 北京控制工程研究所 | 适用于自主移动车辆的环境感知的单目视觉导航方法 |
CN101377812A (zh) * | 2008-07-11 | 2009-03-04 | 北京航空航天大学 | 一种空间平面物体位姿识别方法 |
CN101839721A (zh) * | 2010-03-12 | 2010-09-22 | 西安电子科技大学 | 自主交会对接中的视觉导航方法 |
CN102679896A (zh) * | 2011-07-15 | 2012-09-19 | 上海工程技术大学 | 基于机器视觉的轨距测定方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103075998A (zh) | 2013-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103075998B (zh) | 一种单目空间目标测距测角方法 | |
CN111983639B (zh) | 一种基于Multi-Camera/Lidar/IMU的多传感器SLAM方法 | |
CN107093205B (zh) | 一种基于无人机图像的三维空间建筑物窗户检测重建方法 | |
CN109993793B (zh) | 视觉定位方法及装置 | |
CN104197928B (zh) | 多摄像机协同的无人机检测、定位及跟踪方法 | |
US20240013505A1 (en) | Method, system, medium, equipment and terminal for inland vessel identification and depth estimation for smart maritime | |
CN109270534A (zh) | 一种智能车激光传感器与相机在线标定方法 | |
CN104536009A (zh) | 一种激光红外复合的地面建筑物识别及导航方法 | |
CN108520554A (zh) | 一种基于orb-slam2的双目三维稠密建图方法 | |
CN113506318B (zh) | 一种车载边缘场景下的三维目标感知方法 | |
CN102607526A (zh) | 双介质下基于双目视觉的目标姿态测量方法 | |
CN105719352B (zh) | 人脸三维点云超分辨率融合方法及应用其的数据处理装置 | |
CN101727654B (zh) | 一种并行流水线实现的点目标连通域实时标记与识别方法 | |
CN110142805A (zh) | 一种基于激光雷达的机器人末端校准方法 | |
CN102697508A (zh) | 采用单目视觉的三维重建来进行步态识别的方法 | |
CN107421473A (zh) | 基于图像处理的两束激光同轴度检测方法 | |
CN103727930A (zh) | 一种基于边缘匹配的激光测距仪与相机相对位姿标定方法 | |
CN110889873A (zh) | 一种目标定位方法、装置、电子设备及存储介质 | |
CN109766758A (zh) | 一种基于orb特征的视觉slam方法 | |
CN104154919A (zh) | 一种非合作航天器上太阳能帆板三角架结构的位姿自主测量方法 | |
CN107886541B (zh) | 基于反向投影法的单目运动目标位姿实时测量方法 | |
CN116449384A (zh) | 基于固态激光雷达的雷达惯性紧耦合定位建图方法 | |
CN111998862A (zh) | 一种基于bnn的稠密双目slam方法 | |
CN113744315A (zh) | 一种基于双目视觉的半直接视觉里程计 | |
CN115984766A (zh) | 一种煤矿井下快速单目视觉三维目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |