CN109631875A - 一种对传感器姿态融合测量方法进行优化的方法和系统 - Google Patents

一种对传感器姿态融合测量方法进行优化的方法和系统 Download PDF

Info

Publication number
CN109631875A
CN109631875A CN201910028116.9A CN201910028116A CN109631875A CN 109631875 A CN109631875 A CN 109631875A CN 201910028116 A CN201910028116 A CN 201910028116A CN 109631875 A CN109631875 A CN 109631875A
Authority
CN
China
Prior art keywords
posture
attitude
measurement method
sensor
extraterrestrial target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910028116.9A
Other languages
English (en)
Inventor
楚明磊
董泽华
张�浩
陈丽莉
王雪丰
孙玉坤
赵斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Beijing BOE Optoelectronics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd, Beijing BOE Optoelectronics Technology Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN201910028116.9A priority Critical patent/CN109631875A/zh
Publication of CN109631875A publication Critical patent/CN109631875A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C1/00Measuring angles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种对传感器姿态融合测量方法进行优化的方法、系统和计算机存储介质,所述方法包括:利用机器视觉姿态测量方法获得空间目标的第一姿态;利用传感器姿态融合测量方法获得所述空间目标的第二姿态;将所述第一姿态与第二姿态在同一坐标系下进行比对并获得姿态误差,若姿态误差不满足预设范围,以所述第一姿态为基准调整所述传感器姿态融合测量方法的测量参数,重新获得所述第一姿态和第二姿态直至所述姿态误差满足所述预设范围。本发明提供的实施例能够解决姿态融合测量方法优化过程中姿态数据没有比对基准的问题,尤其在运动过程中以机器视觉姿态测量方法获得的第一姿态姿为基准确定传感器姿态融合测量方法存在的问题并进行优化。

Description

一种对传感器姿态融合测量方法进行优化的方法和系统
技术领域
本发明涉及姿态融合技术领域,特别是涉及对传感器姿态融合测量方法进行优化的方法、系统和计算机存储介质。
背景技术
在传感器姿态融合测量方法的设计过程中,姿态融合测量方法的结果往往缺少评估的客观标准,尤其是在运动的过程中,目前现有的做法是通过人的主观判断所述融合结果是否正确,如此就会为测量方法的设计以及数据结果的评价造成较大的困难。
发明内容
为了解决上述问题至少之一,本发明第一方面提供一种对传感器姿态融合测量方法进行优化的方法,包括:
利用机器视觉姿态测量方法获得空间目标的第一姿态;
利用传感器姿态融合测量方法获得所述空间目标的第二姿态;
将所述第一姿态与第二姿态在同一坐标系下进行比对并获得姿态误差,若姿态误差不满足预设范围,以所述第一姿态为基准调整所述传感器姿态融合测量方法的测量参数,重新获得所述第一姿态和第二姿态直至所述姿态误差满足所述预设范围。
进一步的,所述利用机器视觉姿态测量方法获得空间目标的第一姿态包括获得多个第一姿态;
所述利用传感器姿态融合测量方法获得所述空间目标的第二姿态包括获得与所述多个第一姿态相对应的多个第二姿态;
若检测到的多个姿态误差随时间逐渐增加,则确定所述姿态融合测量方法存在零点漂移。
进一步的,所述利用机器视觉姿态测量方法获得空间目标的第一姿态包括获得多个第一姿态;
所述利用传感器姿态融合测量方法获得所述空间目标的第二姿态包括获得与所述多个第一姿态相对应的多个第二姿态;
若检测到在所述多个第一姿态的极值和多个第二姿态的极值处存在姿态误差,则确定所述姿态融合测量方法存在极值点误差。
进一步的,所述多个第一姿态和多个第二姿态以曲线形式显示。
进一步的,所述利用机器视觉姿态测量方法获得空间目标的第一姿态包括通过图像采集装置在不同时刻对所述空间目标上的标记进行图像采集从而获得多个第一姿态;
所述利用传感器姿态融合测量方法获得所述空间目标的第二姿态包括通过设置在所述空间目标上的传感器在对应时刻对所述空间目标进行采集从而获得多个第二姿态。
进一步的,所述将所述第一姿态与第二姿态在同一坐标系下进行比对并获得姿态误差进一步包括:
统一所述第一姿态和第二姿态的数据格式;
将所述第一姿态和第二姿态转换到同一坐标系中;
比对所述第一姿态和第二姿态并计算姿态误差。
进一步的,所述通过图像采集装置在不同时刻对所述空间目标上的标记进行图像采集从而获得多个第一姿态进一步包括:
标定所述图像采集装置;
接收所述图像采集装置采集的所述标记的二维图像;
对所述二维图像进行光斑检测以获得所述标记的标记点图像的二维位置;
根据所述标记预存储的各标记点的三维位置和所述标记点图像的二维位置计算出所述第一姿态。
进一步的,所述通过设置在所述空间目标上的传感器在对应时刻对所述空间目标进行采集从而获得多个第二姿态进一步包括:
接收所述传感器采集的初始数据并进行校正;
使用传感器姿态融合测量方法计算出所述第二姿态。
本发明第二方面提供一种对传感器姿态融合测量方法进行优化的系统,包括机器视觉姿态测量装置、传感器姿态融合测量装置和控制装置;其中
所述机器视觉姿态测量装置,获得空间目标的第一姿态;
所述传感器姿态融合测量装置,获得所述空间目标的第二姿态;
所述控制装置,用于将所述第一姿态与第二姿态在同一坐标系下进行比对并获得姿态误差,若姿态误差不满足预设范围,以所述第一姿态为基准调整所述传感器姿态融合测量方法的测量参数,重新获得所述第一姿态和第二姿态直至所述姿态误差满足所述预设范围。
本发明第三方面提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面所述的方法。
本发明的有益效果如下:
本发明针对目前现有的姿态融合测量方法缺少客观评估标准的问题,制定一种对传感器姿态融合测量方法进行优化的方法、系统和计算机存储介质,以机器视觉姿态测量方法得到的第一姿态为基准姿态对传感器姿态融合测量方法获得的第二姿态的准确性进行比对,并根据比对获得的姿态误差确定传感器姿态融合测量方法存在的问题并进行优化,直到传感器姿态融合测量方法获得的第二姿态与第一姿态的姿态误差满足预设范围,从而实现对传感器姿态融合测量方法的优化和客观评估,从而弥补了现有技术中的问题。
附图说明
下面结合附图对本发明的具体实施方式作进一步详细的说明。
图1示出本发明的一个实施例所述传感器姿态融合测量方法的优化方法的流程图;
图2示出本发明的一个实施例所述机器视觉姿态测量方法的流程图;
图3示出本发明的一个实施例所述标记的示意图;
图4示出本发明的一个实施例所述光斑检测的流程图;
图5示出本发明的一个实施例所述光斑检测的示意图;
图6示出本发明的一个实施例所述传感器姿态融合测量方法的流程图;
图7示出本发明的一个实施例所述计算姿态误差的流程图;
图8示出本发明的一个实施例所述零点漂移的示意图;
图9示出本发明的一个实施例所述零点漂移校正后的示意图;
图10示出本发明的一个实施例所述极值点误差的示意图;
图11示出本发明的一个实施例所述系统的结构框图。
具体实施方式
为了更清楚地说明本发明,下面结合优选实施例和附图对本发明做进一步的说明。附图中相似的部件以相同的附图标记进行表示。本领域技术人员应当理解,下面所具体描述的内容是说明性的而非限制性的,不应以此限制本发明的保护范围。
如图1所示,本发明的一个实施例提供了一种对传感器姿态融合测量方法进行优化的方法,包括:利用机器视觉姿态测量方法获得空间目标的第一姿态;利用传感器姿态融合测量方法获得所述空间目标的第二姿态;将所述第一姿态与第二姿态在同一坐标系下进行比对并获得姿态误差,若姿态误差不满足预设范围,以所述第一姿态为基准调整所述传感器姿态融合测量方法的测量参数,重新获得所述第一姿态和第二姿态直至所述姿态误差满足所述预设范围。
在一个具体的示例中,在姿态融合测量方法优化过程中,使用空间目标作为测量载体,所述传感器和机器视觉姿态测量方法使用的标记均固定在所述空间目标上,无论空间目标静止还是运动时,所述传感器和标记相对于所述空间目标的位置固定,控制装置根据所述图像采集装置按照所述标记采集的二维图像通过机器视觉姿态测量方法得到基准姿态(即第一姿态);再通过传感器采集的数据使用传感器姿态融合测量方法进行计算得到融合姿态(即第二姿态),然后统一基准姿态和融合姿态的数据格式和坐标系并进行比对,即以基准姿态评估融合姿态,确定传感器姿态融合测量方法存在的问题并调整测量参数,重新获得基准姿态和融合姿态,直到所述基准姿态和融合姿态的姿态误差满足预设范围,则所述姿态融合测量方法能够单独使用。具体方法步骤如下:
首先,通过图像采集装置在不同时刻对所述空间目标上的标记进行图像采集从而获得多个第一姿态;如图2所示,所述方法进一步包括:
标定所述图像采集装置。在本实施例中,所述图像采集装置为摄像头,对所述摄像头进行初始标定能够有效减小计算误差,在一个优选的实施例中,采用张正友标定法对所述摄像头进行标定。
接收所述图像采集装置采集的所述标记的二维图像。如图3所示,所述标记至少需要4个标记点用于机器视觉姿态测量方法计算。在本实时例中使用5个标记点进行举例说明,分别记录下所述标记的5个标记点的真实位置,所述真实位置为三维数据P_R_i(x,y,z),i=1,2,3,4,5。在本实施例中通过摄像头采集所述标记中5个标记点的二维图像。
对所述二维图像进行光斑检测以获得所述标记的标记点图像的二维位置。在本实施例中所述标记包括5个标记点,所述控制装置检测图像上光斑(即标记点图像)的位置,并确定标记点图像的编号,如图4所示,具体步骤如下:
所述控制装置对所述二维图像进行二值化处理,检测所述每一个标记点对应的标记点图像。即将所述二维图像上的各像素点的灰度值按照一定阈值进行设置,例如将灰度值小于灰度阈值的设置为0、将灰度值大于灰度阈值的设置为255。为便于说明,本实施例将灰度值为0-127的设置为255、将灰度值为128-255的设置为0,也就是将整个二维图像呈现出明显的黑白效果,如图5左侧所示。
所述控制装置确定具有特定标记特征的标记点图像为第一标记点图像并编号,获得所述第一标记点图像的二维位置。所述控制装置检测二值化处理的图像中的白色连通区域,判断连通区域的大小或形状,或判断连通区域的大小和形状,例如将具有最大面积的所述连通区域或椭圆形状的连通区域、或者将具有最大面积的所述连通区域和椭圆形状的连通区域确定为具有特定标记特征的第一标记点图像,并将所述标记点图像的编号设置为0,并记录所述第一标记点图像的二维位置P_I_i(x,y),i=1。
所述控制装置根据所述第一标记点图像确定其他标记点图像并编号,获得所述其他标记点图像的二维位置。以第一标记点图像0为基点,判断其他四个连通区域的位置,左上方的连通区域编号为1,左下为2,右上为3,右下为4,如图5右侧所示,并记录这4个点图像的二维位置P_I_i(x,y),i=2,3,4,5。
根据所述标记预存储的各标记点的三维位置和所述标记点图像的二维位置计算出所述第一姿态。即根据所述姿态测量方法的5个标记点的真实位置的三维数据P_R_i(x,y,z),i=1,2,3,4,5,以及根据二维图像得到的标记点图像的二维位置P_I_i(x,y),i=1,2,3,4,5的数据,通过PNP(Pespective-n-point)算法计算出当前姿态P_V,即根据已知的多个个空间3D标记点与图像2D标记点对应的点对进行计算以获得基准姿态(即第一姿态)。
其次,通过设置在所述空间目标上的传感器在对应时刻对所述空间目标进行采集从而获得多个第二姿态。如图6所示,具体步骤如下:
接收所述传感器采集的初始数据并进行校正。所述传感器采集初始数据,进一步的,所述初始数据为通过传感器测量的陀螺仪数据,进一步的,所述初始数据包括重力加速度、角速度和地磁数据中的一个或多个。值得说明的是,本发明对所述控制装置测量的初始数据的种类和数量不做具体限制,本领域技术人员应当根据实际应用场景、需要的测量精度选择初始数据的种类和数量。然后对所述初始数据进行出厂校正处理,例如对重力加速度进行出厂校正取出所述传感器感测数据的噪声从而提高初始数据的准确度。
使用传感器姿态融合测量方法计算出所述第二姿态。所述控制装置通过传感器姿态融合测量方法对重力加速度或角速度或地磁数据进行姿态融合处理,例如使用基于oculus融合算法的算法对重力加速度进行姿态融合处理,输出融合姿态(即第二姿态)P_S,具体表现为P_S_i。
值得说明的是,由于采用机器视觉姿态测量方法获得的第一姿态的数据帧率较低,一般低于100Hz,而通过传感器姿态融合测量方法获得的第二姿态的数据帧率较高,一般为1000Hz。因此在采集机器视觉姿态测量方法所需的二维图像和传感器姿态融合测量方法所需的初始数据时,按照数据帧率较低的机器视觉姿态测量方法的帧率为基准进行采集。即以机器视觉姿态测量方法的数据帧率为采样基准,每采集一个机器视觉姿态测量方法所需的二维图像,同时采集一个传感器姿态融合测量方法所需的初始数据。例如连续采集100个二维图像并通过机器视觉姿态测量方法获得100个第一姿态,相对应的,传感器采集100个初始数据通过传感器姿态融合测量方法计算获得100个第二姿态,以便于对比处理。
再次,将所述第一姿态与第二姿态在同一坐标系下进行比对并获得姿态误差。由于第一姿态和第二姿态通常使用不同的数据结构,即不同的数据格式和不同的坐标系,因此无法直接进行比较。如图7所示,具体步骤如下:
统一所述第一姿态和第二姿态的数据格式。数据格式一般包括四元数、欧拉角和矩阵,各数据格式可相互转换。通过机器视觉姿态测量方法计算出的第一姿态一般使用欧拉角或矩阵进行表达;通过传感器姿态融合测量方法计算出的第二姿态一般使用姿态四元数或欧拉角进行表达;所述控制装置根据所述第一姿态和第二姿态使用的数据格式进行判断,统一所述第一姿态和第二姿态的数据格式。
所述控制装置根据预设置的转换矩阵统一所述第一姿态和第二姿态的标系。使用机器视觉姿态测量方法获得的第一姿态是以摄像头为视角进行计算,因此所述第一姿态的坐标系使用的是相机坐标系;而使用传感器姿态融合测量方法获得的第二姿态以视觉为视角进行数据采集,因此所述第二姿态的坐标系使用的是视觉坐标系,因此在统一所述第一姿态和第二姿态的数据格式的基础上还需要统一所述第一姿态和第二姿态的坐标系。
在本实施例中,所述控制装置针对所述第一姿态和第二姿态使用的坐标系预设置的转换矩阵M,通过转换矩阵可以统一所述第一姿态和第二姿态的坐标系以便于进行比对。
所述转换矩阵M的获取方法如下:
预先采集四组机器视觉姿态测量方法计算的第一姿态P_V_i和传感器融合测量方法计算的第二姿态P_S_i,i=1,2,3,4,则根据确定的第一姿态P_V_i和第二姿态P_S_i能够计算出由P_S_i转换到P_V_i的转换矩阵M,所述转换矩阵M为4*4的矩阵。
假设:
矩阵MS=[P_S_1.x,P_S_2.x,P_S_3.x,P_S_4.x;P_S_1.y,P_S_2.y,P_S_3.y,P_S_4.y;P_S_1.z,P_S_2.z,P_S_3.z,P_S_4.z;1,1,1,1;];
矩阵MV=[P_V_1.x,P_V_2.x,P_V_3.x,P_V_4.x;P_V_1.y,P_V_2.y,P_V_3.y,P_V_4.y;P_V_1.z,P_V_2.z,P_V_3.z,P_V_4.z;1,1,1,1;];
则MS*M=MV,因此即可得到转换矩阵M=MS^-1*MV。
即在空间目标保持一个姿态不变时,分别采集4组第一姿态P_V_i和第二姿态P_S_i,根据4组数据推导出空间目标静止时所述第一姿态和第二姿态的坐标系转换矩阵M。
值得说明的是,上述数据格式的转换和转换矩阵仅用于统一所述第一姿态和第二姿态的数据格式和坐标系,以便于第一姿态和第二姿态进行比对。本实施例对具体的转换方向不做限制,即既可以将第一姿态的数据格式转换为第二姿态的数据格式,也可以将第二姿态的数据格式转换为第一姿态的数据格式;同理,既可以通过所述转换矩阵将所述第一姿态的坐标系转换为所述第二姿态的坐标系,也可以将所述第二姿态的坐标系转换为所述第一姿态的的坐标系;本领域技术人员应当根据实际应用场景进行设计,以统一所述第一姿态和第二姿态的数据格式和坐标系为设计准则,在此不再赘述。
所述控制装置比对所述第一姿态和第二姿态并计算姿态误差。所述控制装置对统一数据格式和坐标系后的第一姿态和第二姿态进行比对,例如对3000组第一姿态和第二姿态的数据进行处理,计算每一组所述第一姿态和第二姿态的平均值和标准差,然后将获得的3000组数据的平均值和标准差进行统计并计算出姿态误差。值得说明的是,本实施例中采用的评估指标和获取评估指标的数量仅用于说明,本领域技术人员应当根据实际应用场景进行设计,以满足设计需求为准,在此不再赘述。
最后,若所述姿态误差不满足预设范围则根据所述第一姿态为基准确定所述传感器姿态融合测量方法存在的问题并调整,然后重复获取所述第一姿态和第二姿态直至所述姿态误差满足所述预设范围。判断上述3000组数据计算得到姿态误差是否符合预设范围,例如,所述平均值的误差阈值为1,标准差阈值为1,若所述3000组数据的姿态误差的平均值均大于1并且标准差大于1时,则认为所述传感器融合测量方法不符合设计需求,需要对所述传感器姿态融合测量方法进行优化。此时可以对所述3000组第一姿态和第二姿态进行数据分析。
在一个优选的实施例中,所述利用机器视觉姿态测量方法获得空间目标的第一姿态包括获得多个第一姿态;所述利用传感器姿态融合测量方法获得所述空间目标的第二姿态包括获得与所述多个第一姿态相对应的多个第二姿态;若检测到的多个姿态误差随时间逐渐增加,则确定所述姿态融合测量方法存在零点漂移。即利用上述3000组第一姿态和第二姿态进行数据分析,本实施例中采用绘制曲线的形式进行分析,如图8所示,位于下方的曲线为通过机器视觉姿态测量方法获得的第一姿态,位于上方的曲线为通过传感器姿态融合测量方法获得的第二姿态,以第一姿态为基准则所述第二姿态偏离所述基准,并且偏离情况越来越大,即检测到的多个姿态误差随时间逐渐增加,所述误差为所述传感器融合测量方法存在零点漂移,对所述传感器姿态融合测量方法的零点漂移进行校正后。如图9所示,校正后的第二姿态曲线与第一姿态曲线基本重合,所述姿态误差的误差平均值和标准差满足误差阈值,零点漂移问题明显好转。
在另一个优选的实施例中,所述利用机器视觉姿态测量方法获得空间目标的第一姿态包括获得多个第一姿态;所述利用传感器姿态融合测量方法获得所述空间目标的第二姿态包括获得与所述多个第一姿态相对应的多个第二姿态;若检测到在所述多个第一姿态的极值和多个第二姿态的极值处存在姿态误差,则确定所述传感器姿态融合测量方法存在极值点误差。本实施例中采用绘制曲线的形式进行分析,如图10所示,图中第一姿态曲线和第二姿态曲线重合,但在上方和下方的极值点处存在误差,以第一姿态曲线为基准判断所述传感器姿态融合测量方法存在极值点误差,可以通过增加数据预测等方式,进行数据插值以校正所述传感器融合测量方法。
值得说明的是,对所述多个第一姿态和第二姿态进行数据分析可以使用多种方式,在本实施例中采用绘制曲线的形式进行分析以便于人眼识别,本发明包括但不限于此种方式,本领域技术人员应当根据实际应用场景选择数据分析的方式,以满足数据分析为设计准则,在此不再赘述。
与上述实施例提供的优化方法相对应,本申请的一个实施例还提供一种对传感器姿态融合测量方法进行优化的系统,由于本申请实施例提供的系统与上述几种实施例提供的方法相对应,因此在前述实施方式也适用于本实施例提供的系统,在本实施例中不再详细描述。
如图11所示,本发明的一个实施例提供了一种对传感器姿态融合测量方法进行优化的系统,包括机器视觉姿态测量装置、传感器姿态融合测量装置和控制装置;其中所述机器视觉姿态测量装置,获得空间目标的第一姿态;所述传感器姿态融合测量装置,获得所述空间目标的第二姿态;所述控制装置,用于将所述第一姿态与第二姿态在同一坐标系下进行比对并获得姿态误差,若姿态误差不满足预设范围,以所述第一姿态为基准调整所述传感器姿态融合测量方法的测量参数,重新获得所述第一姿态和第二姿态直至所述姿态误差满足所述预设范围。
本发明的另一个实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现:利用机器视觉姿态测量方法获得空间目标的第一姿态;利用传感器姿态融合测量方法获得所述空间目标的第二姿态;将所述第一姿态与第二姿态在同一坐标系下进行比对并获得姿态误差,若姿态误差不满足预设范围,以所述第一姿态为基准调整所述传感器姿态融合测量方法的测量参数,重新获得所述第一姿态和第二姿态直至所述姿态误差满足所述预设范围。
在实际应用中,所述计算机可读存储介质可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本实时例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
本发明针对目前现有的姿态融合测量方法缺少客观评估标准的问题,制定一种基于机器视觉的传感器姿态融合测量方法的优化方法、系统和计算机存储介质,以机器视觉姿态测量方法得到的姿态为基准姿态对传感器融合后姿态的准确性进行评价,并根据数据评价的结果对传感器姿态融合测量方法进行调整,直到传感器姿态融合测量方法的结果与基准姿态的误差满足误差阈值,实现对姿态融合测量方法的优化和客观评估,从而弥补了现有技术中问题。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定,对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动,这里无法对所有的实施方式予以穷举,凡是属于本发明的技术方案所引伸出的显而易见的变化或变动仍处于本发明的保护范围之列。

Claims (10)

1.一种对传感器姿态融合测量方法进行优化的方法,其特征在于,包括:
利用机器视觉姿态测量方法获得空间目标的第一姿态;
利用传感器姿态融合测量方法获得所述空间目标的第二姿态;
将所述第一姿态与第二姿态在同一坐标系下进行比对并获得姿态误差,若姿态误差不满足预设范围,以所述第一姿态为基准调整所述传感器姿态融合测量方法的测量参数,重新获得所述第一姿态和第二姿态直至所述姿态误差满足所述预设范围。
2.根据权利要求1所述的方法,其特征在于,
所述利用机器视觉姿态测量方法获得空间目标的第一姿态包括获得多个第一姿态;
所述利用传感器姿态融合测量方法获得所述空间目标的第二姿态包括获得与所述多个第一姿态相对应的多个第二姿态;
若检测到的多个姿态误差随时间逐渐增加,则确定所述传感器姿态融合测量方法存在零点漂移。
3.根据权利要求1所述的方法,其特征在于,
所述利用机器视觉姿态测量方法获得空间目标的第一姿态包括获得多个第一姿态;
所述利用传感器姿态融合测量方法获得所述空间目标的第二姿态包括获得与所述多个第一姿态相对应的多个第二姿态;
若检测到在所述多个第一姿态的极值和多个第二姿态的极值处存在姿态误差,则确定所述传感器姿态融合测量方法存在极值点误差。
4.根据权利要求2或3所述的方法,其特征在于,
所述多个第一姿态和多个第二姿态以曲线形式显示。
5.根据权利要求1-3中任一项所述的方法,其特征在于,
所述利用机器视觉姿态测量方法获得空间目标的第一姿态包括通过图像采集装置在不同时刻对所述空间目标上的标记进行图像采集从而获得多个第一姿态;
所述利用传感器姿态融合测量方法获得所述空间目标的第二姿态包括通过设置在所述空间目标上的传感器在对应时刻对所述空间目标进行采集从而获得多个第二姿态。
6.根据权利要求1所述的方法,其特征在于,所述将所述第一姿态与第二姿态在同一坐标系下进行比对并获得姿态误差进一步包括:
统一所述第一姿态和第二姿态的数据格式;
将所述第一姿态和第二姿态转换到同一坐标系中;
比对所述第一姿态和第二姿态并计算姿态误差。
7.根据权利要求5所述的方法,其特征在于,所述通过图像采集装置在不同时刻对所述空间目标上的标记进行图像采集从而获得多个第一姿态进一步包括:
标定所述图像采集装置;
接收所述图像采集装置采集的所述标记的二维图像;
对所述二维图像进行光斑检测以获得所述标记的标记点图像的二维位置;
根据所述标记预存储的各标记点的三维位置和所述标记点图像的二维位置计算出所述第一姿态。
8.根据权利要求5所述的优化方法,其特征在于,所述通过设置在所述空间目标上的传感器在对应时刻对所述空间目标进行采集从而获得多个第二姿态进一步包括:
接收所述传感器采集的初始数据并进行校正;
使用传感器姿态融合测量方法计算出所述第二姿态。
9.一种对传感器姿态融合测量方法进行优化的系统,其特征在于,包括机器视觉姿态测量装置、传感器姿态融合测量装置和控制装置;其中
所述机器视觉姿态测量装置,获得空间目标的第一姿态;
所述传感器姿态融合测量装置,获得所述空间目标的第二姿态;
所述控制装置,用于将所述第一姿态与第二姿态在同一坐标系下进行比对并获得姿态误差,若姿态误差不满足预设范围,以所述第一姿态为基准调整所述传感器姿态融合测量方法的测量参数,重新获得所述第一姿态和第二姿态直至所述姿态误差满足所述预设范围。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-8中任一项所述的方法。
CN201910028116.9A 2019-01-11 2019-01-11 一种对传感器姿态融合测量方法进行优化的方法和系统 Pending CN109631875A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910028116.9A CN109631875A (zh) 2019-01-11 2019-01-11 一种对传感器姿态融合测量方法进行优化的方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910028116.9A CN109631875A (zh) 2019-01-11 2019-01-11 一种对传感器姿态融合测量方法进行优化的方法和系统

Publications (1)

Publication Number Publication Date
CN109631875A true CN109631875A (zh) 2019-04-16

Family

ID=66061754

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910028116.9A Pending CN109631875A (zh) 2019-01-11 2019-01-11 一种对传感器姿态融合测量方法进行优化的方法和系统

Country Status (1)

Country Link
CN (1) CN109631875A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110147164A (zh) * 2019-05-22 2019-08-20 京东方科技集团股份有限公司 头部运动跟踪方法、设备、系统及存储介质
CN110231054A (zh) * 2019-06-25 2019-09-13 京东方科技集团股份有限公司 姿态估计算法的评价方法、装置及计算机可读存储介质
CN111488861A (zh) * 2020-05-13 2020-08-04 吉林建筑大学 基于多特征值融合的滑雪运动员姿态识别系统
CN112488071A (zh) * 2020-12-21 2021-03-12 重庆紫光华山智安科技有限公司 提取行人特征的方法、装置、电子设备和存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6445983B1 (en) * 2000-07-07 2002-09-03 Case Corporation Sensor-fusion navigator for automated guidance of off-road vehicles
CN1916567A (zh) * 2006-09-04 2007-02-21 南京航空航天大学 基于自适应闭环h∞滤波器的对北斗双星/捷联惯导组合导航系统进行修正的方法
CN103438904A (zh) * 2013-08-29 2013-12-11 深圳市宇恒互动科技开发有限公司 一种使用视觉辅助校正的惯性定位方法及系统
CN105222772A (zh) * 2015-09-17 2016-01-06 泉州装备制造研究所 一种基于多源信息融合的高精度运动轨迹检测系统
CN106595640A (zh) * 2016-12-27 2017-04-26 天津大学 基于双imu和视觉融合的动基座上物体相对姿态测量方法及系统
CN107976187A (zh) * 2017-11-07 2018-05-01 北京工商大学 一种融合imu和视觉传感器的室内高精度轨迹重建方法及系统
CN108036785A (zh) * 2017-11-24 2018-05-15 浙江大学 一种基于直接法与惯导融合的飞行器位姿估计方法
CN108731670A (zh) * 2018-05-18 2018-11-02 南京航空航天大学 基于量测模型优化的惯性/视觉里程计组合导航定位方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6445983B1 (en) * 2000-07-07 2002-09-03 Case Corporation Sensor-fusion navigator for automated guidance of off-road vehicles
CN1916567A (zh) * 2006-09-04 2007-02-21 南京航空航天大学 基于自适应闭环h∞滤波器的对北斗双星/捷联惯导组合导航系统进行修正的方法
CN103438904A (zh) * 2013-08-29 2013-12-11 深圳市宇恒互动科技开发有限公司 一种使用视觉辅助校正的惯性定位方法及系统
CN105222772A (zh) * 2015-09-17 2016-01-06 泉州装备制造研究所 一种基于多源信息融合的高精度运动轨迹检测系统
CN106595640A (zh) * 2016-12-27 2017-04-26 天津大学 基于双imu和视觉融合的动基座上物体相对姿态测量方法及系统
CN107976187A (zh) * 2017-11-07 2018-05-01 北京工商大学 一种融合imu和视觉传感器的室内高精度轨迹重建方法及系统
CN108036785A (zh) * 2017-11-24 2018-05-15 浙江大学 一种基于直接法与惯导融合的飞行器位姿估计方法
CN108731670A (zh) * 2018-05-18 2018-11-02 南京航空航天大学 基于量测模型优化的惯性/视觉里程计组合导航定位方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110147164A (zh) * 2019-05-22 2019-08-20 京东方科技集团股份有限公司 头部运动跟踪方法、设备、系统及存储介质
CN110231054A (zh) * 2019-06-25 2019-09-13 京东方科技集团股份有限公司 姿态估计算法的评价方法、装置及计算机可读存储介质
CN110231054B (zh) * 2019-06-25 2021-08-13 京东方科技集团股份有限公司 姿态估计算法的评价方法、装置及计算机可读存储介质
CN111488861A (zh) * 2020-05-13 2020-08-04 吉林建筑大学 基于多特征值融合的滑雪运动员姿态识别系统
CN112488071A (zh) * 2020-12-21 2021-03-12 重庆紫光华山智安科技有限公司 提取行人特征的方法、装置、电子设备和存储介质

Similar Documents

Publication Publication Date Title
CN109631875A (zh) 一种对传感器姿态融合测量方法进行优化的方法和系统
CN107179768B (zh) 一种障碍物识别方法及装置
JP4349367B2 (ja) 物体の位置姿勢を推定する推定システム、推定方法および推定プログラム
US9135502B2 (en) Method for the real-time-capable, computer-assisted analysis of an image sequence containing a variable pose
CN108171733A (zh) 扫描仪vis
EP2615580A1 (en) Automatic scene calibration
CN110332887A (zh) 一种基于特征光标点的单目视觉位姿测量系统及方法
CN109059895A (zh) 一种基于手机摄像头和传感器的多模态室内测距及定位方法
US20120120073A1 (en) Method for the Real-Time-Capable, Computer-Assisted Analysis of an Image Sequence Containing a Variable Pose
CN110068836A (zh) 一种智能驾驶电动清扫车的激光雷达路沿感知系统
US11315264B2 (en) Laser sensor-based map generation
CN105760809B (zh) 用于头部姿态估计的方法和设备
JP2012042396A (ja) 位置姿勢計測装置、位置姿勢計測方法、およびプログラム
JP7479324B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN109444916A (zh) 一种无人驾驶可行驶区域确定装置及方法
CN110456904B (zh) 一种无需标定的增强现实眼镜眼动交互方法及系统
CN107941212B (zh) 一种视觉与惯性联合定位方法
CN109448036A (zh) 一种基于双目图像确定视差图的方法及装置
CN107687818A (zh) 三维量测方法及三维量测装置
CN110349249A (zh) 基于rgb-d数据的实时稠密重建方法及系统
Schramm et al. Data fusion for 3D thermal imaging using depth and stereo camera for robust self-localization
CN112802199A (zh) 基于人工智能的高精度测绘点云数据处理方法与系统
CN104471436B (zh) 用于计算对象的成像比例的变化的方法和设备
KR100998709B1 (ko) 물체의 공간적 의미정보를 이용한 로봇의 자기위치 추정 방법
CN116147618B (zh) 一种适用动态环境的实时状态感知方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190416