CN111752279B - 一种机器人多传感器融合自检方法和系统 - Google Patents
一种机器人多传感器融合自检方法和系统 Download PDFInfo
- Publication number
- CN111752279B CN111752279B CN202010656759.0A CN202010656759A CN111752279B CN 111752279 B CN111752279 B CN 111752279B CN 202010656759 A CN202010656759 A CN 202010656759A CN 111752279 B CN111752279 B CN 111752279B
- Authority
- CN
- China
- Prior art keywords
- target
- rotation angle
- robot
- actual rotation
- target robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 230000004927 fusion Effects 0.000 title claims abstract description 23
- 238000001514 detection method Methods 0.000 claims abstract description 39
- 230000002159 abnormal effect Effects 0.000 claims abstract description 21
- 238000004364 calculation method Methods 0.000 claims abstract description 11
- 230000000007 visual effect Effects 0.000 claims abstract description 6
- 238000012360 testing method Methods 0.000 claims description 16
- 238000010276 construction Methods 0.000 claims description 10
- 230000008569 process Effects 0.000 abstract description 13
- 238000005259 measurement Methods 0.000 abstract description 6
- 238000004519 manufacturing process Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000010998 test method Methods 0.000 description 2
- 230000005526 G1 to G0 transition Effects 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 238000011157 data evaluation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000011065 in-situ storage Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012372 quality testing Methods 0.000 description 1
- 238000013215 result calculation Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开一种机器人多传感器融合自检方法和系统,方法包括以下步骤:设定包括目标旋转角度的旋转指令;构建特征场景;调用旋转指令驱动目标机器人在特征场景内自动旋转,采集目标机器人上多个传感器在旋转前后分别对应的传感数据帧;计算目标机器人在不同传感器视角下的实际旋转角度,判断传感器是否异常。本发明依赖轻度定制化特征场景,由机器人自主完成所需运动,并借助自身传感特性完成测量和目标数据采集计算,因此可灵活运行于出厂检测阶段和投产运营阶段。此外,检测过程中机器人对传感器的使用更贴近于实际业务场景下的使用方式,因此可较为充分地暴露传感数据时钟同步等潜在问题,避免将问题遗留至业务场景、造成严重运营后果。
Description
【技术领域】
本发明涉及机器人领域,尤其涉及一种机器人多传感器融合自检方法和系统。
【背景技术】
具备自主移动能力的机器人大都依靠各式传感检测装置来识别周围环境、进行路径规划和移动避障,常用核心传感检测装置包括激光测距仪、轮毂电机编码器、陀螺仪等。各传感检测装置的检测精度和运行状态直接影响到机器人的移动能力和安全性能,因此不管在机器人出厂检验阶段还是投产运营阶段,都需要保证机器人所配备的传感测量装置可正常运行且检测精度满足业务需求。
常见检测方式为出厂时借助与每种传感检测装置适配的质量检验工具,对上述核心传感检测装置进行逐一检验,以确保其满足出厂条件。该检测方式存在如下弊端:第一,因需借助专用工具,因此仅在出厂时具备检测条件,一旦机器人投入运营后很难进行持续检测;第二,各传感检测装置在割裂条件下进行独立检验,忽略了多传感检测装置配合使用时可能出现的数据时钟不同步、数据内容相矛盾等诸多潜在问题。
【发明内容】
本发明提供了一种机器人多传感器融合自检方法和系统,解决了以上所述的技术问题。
本发明解决上述技术问题的技术方案如下:一种机器人多传感器融合自检方法,包括以下步骤:
步骤1,设定包括目标旋转角度的旋转指令;
步骤2,构建特征场景;
步骤3,待目标机器人置于所述特征场景后,调用所述旋转指令以驱动目标机器人在所述特征场景内自动旋转所述目标旋转角度,并采集所述目标机器人上多个传感器在旋转前后分别对应的传感数据帧;
步骤4,根据所述传感数据帧计算所述目标机器人在不同传感器视角下的实际旋转角度,根据所述实际旋转角度和所述目标旋转角度判断每个传感器是否异常,并生成自检报告。
在一个优选实施方式中,还包括以下步骤:设定使能指令,待目标机器人置于所述特征场景后,调用所述使能指令以驱动目标机器人在所述特征场景内自动完成使能测试,然后采集所述目标机器人上多个传感器的传感数据帧作为所述目标机器人旋转前的传感数据帧,并继续执行步骤3。
在一个优选实施方式中,所构建的特征场景同时满足以下条件:
条件1:具有供目标机器人旋转运动的水平地面;
条件2:目标机器人上激光测距仪的检测范围内设有一稳定存在、非反光且正对目标机器人方向的截面小于预设值的目标障碍物;
条件3:以目标机器人中心为圆心、所述目标障碍物正对目标机器人方向的前沿点与所述圆心的距离为半径构建圆域,在目标机器人正向所指的的半圆域范围内无其他障碍物;
条件4:所述目标机器人旋转所述目标旋转角度后,所述特征场景仍满足条件2和条件3。
在一个优选实施方式中,所述目标旋转角度为绕目标机器人中心旋转30度—60度。
在一个优选实施方式中,在目标机器人旋转前后的静止阶段多次采集每个传感器对应的传感数据帧,并对所述多个传感数据帧滤波去除特异值后再取平均值以生成稳定的传感数据帧。
在一个优选实施方式中,所述传感器包括激光测距仪、陀螺仪和轮毂编码器,所述实际旋转角度包括激光测距仪视角下的第一实际旋转角度、陀螺仪视角下的第二实际旋转角度和轮毂编码器视角下的第三实际旋转角度,所述根据实际旋转角度和目标旋转角度判断每个传感器是否异常具体包括以下步骤:
将所述目标旋转角度乘以固定百分比生成目标阈值;
分别计算所述第一实际旋转角度、所述第二实际旋转角度和所述第三实际旋转角度与所述目标旋转角度的差值,若所述差值大于所述目标阈值,则判断对应传感器存在异常;
和/或从所述第一实际旋转角度、所述第二实际旋转角度和所述第三实际旋转角度中选取最接近的两个实际旋转角度并求取均值,判断剩余一个实际旋转角度与所述均值的差值是否大于所述目标阈值,若是,则判断对应传感器存在异常。
本发明实施例的第二方面提供了一种机器人多传感器融合自检系统,包括指令设定模块、场景构建模块、数据采集模块和自检模块,
所述指令设定模块用于设定包括目标旋转角度的旋转指令;
所述场景构建模块用于构建特征场景;
所述数据采集模块用于待目标机器人置于所述特征场景后,调用所述旋转指令以驱动目标机器人在所述特征场景内自动旋转所述目标旋转角度,并采集所述目标机器人上多个传感器在旋转前后分别对应的传感数据帧;
所述自检模块用于根据所述传感数据帧计算所述目标机器人在不同传感器视角下的实际旋转角度,根据所述实际旋转角度和目标旋转角度判断每个传感器是否异常,并生成自检报告。
在一个优选实施方式中,所述指令设定模块还用于设定使能指令,所述数据采集模块还用于待目标机器人置于所述特征场景后,调用所述使能指令以驱动目标机器人在所述特征场景内自动完成使能测试,采集所述目标机器人上多个传感器在使能测试完成后分别对应的传感数据帧,并将其作为所述目标机器人旋转前的传感数据帧。
在一个优选实施方式中,所述场景构建模块构建的特征场景同时满足以下条件:
条件1:具有供目标机器人旋转运动的水平地面;
条件2:目标机器人上激光测距仪的检测范围内设有一稳定存在、非反光且正对目标机器人方向的截面小于预设值的目标障碍物;
条件3:以目标机器人中心为圆心、所述目标障碍物正对目标机器人方向的前沿点与所述圆心的距离为半径构建圆域,在目标机器人正向所指的的半圆域范围内无其他障碍物;
条件4:所述目标机器人旋转所述目标旋转角度后,所述特征场景仍满足条件2和条件3。
在一个优选实施方式中,所述目标旋转角度为绕目标机器人中心旋转30度—60度。
在一个优选实施方式中,所述数据采集模块用于在目标机器人旋转前后的静止阶段多次采集每个传感器对应的传感数据帧,并对所述多个传感数据帧滤波去除特异值后再取平均值以生成稳定的传感数据帧。
在一个优选实施方式中,所述传感器包括激光测距仪、陀螺仪和轮毂编码器,所述自检模块具体包括:
第一计算单元,用于根据所述传感数据帧计算激光测距仪视角下的第一实际旋转角度、陀螺仪视角下的第二实际旋转角度和轮毂编码器视角下的第三实际旋转角度;
第二计算单元,用于将所述目标旋转角度乘以固定百分比生成目标阈值;
判断单元,用于计算所述第一实际旋转角度、所述第二实际旋转角度和所述第三实际旋转角度分别与所述目标旋转角度的差值,若差值大于所述目标阈值,则判定对应传感器存在异常;和/或从所述第一实际旋转角度、所述第二实际旋转角度和所述第三实际旋转角度中选取最接近的两个实际旋转角度并求取均值,判断剩余一个实际旋转角度与所述均值的差值是否大于所述目标阈值,若是,则判定对应传感器存在异常。
本发明提出一种基于机器人自主运动和多传感器融合校验的自检方法和系统,由机器人自主完成所需运动,并借助自身传感特性完成测量和目标数据采集计算,仅依赖较容易满足的轻度定制化特征场景,因此可灵活运行于出厂检测阶段和投产运营阶段。此外,由于采用多传感器融合检测的方式,检测过程中机器人对传感器的使用更贴近于实际业务场景下的使用方式,因此可较为充分地暴露传感数据时钟同步等潜在问题,避免将问题遗留至业务场景、造成严重运营后果。
为使发明的上述目的、特征和优点能更明显易懂,下文特举本发明较佳实施例,并配合所附附图,作详细说明如下。
【附图说明】
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1是实施例1提供的机器人多传感器融合自检方法的流程示意图;
图2是实施例1提供的特征场景设定图;
图3是实施例1提供的激光测距仪安装和检测特性图;
图4是实施例1提供的激光测距仪检测场景图;
图5是实施例1提供的激光测距仪视角下的旋转角度计算模型图;
图6是实施例1提供的陀螺仪检测模型图;
图7是实施例1提供的轮毂编码器运动在二维坐标系下的投影图;
图8是实施例1提供的轮毂编码器视角下的旋转角度计算模型图;
图9是实施例2提供的机器人多传感器融合自检系统的结构示意图。
【具体实施方式】
为了使本发明的目的、技术方案和有益技术效果更加清晰明白,以下结合附图和具体实施方式,对本发明进行进一步详细说明。应当理解的是,本说明书中描述的具体实施方式仅仅是为了解释本发明,并不是为了限定本发明。
图1是实施例1提供的机器人多传感器融合自检方法的流程示意图,如图1所示,包括以下步骤:
步骤1,设定包括目标旋转角度的旋转指令。自检运动动作的设定准则为在能达到检测目的的前提下足够简洁和高效,因此可设定为绕机器人中心旋转目标旋转角度。理论上目标旋转角度的设定只要满足旋转前后目标障碍物仍在激光测距仪检测视野内即可,但考虑到目标旋转角度设定较小容易放大测量误差、设定较大容易令目标障碍物脱离视野,因此优选的设定为30度~60度内。
步骤2,构建特征场景。在设计特征场景时,需要综合考虑场景内检测的准确性和场景搭建的便利性。图2为本实施例所构建的特征场景图,如图2所示,小圆点为目标机器人中心,五角星为目标障碍物,所构建的特征场景同时满足以下条件:
条件1:具有供目标机器人旋转运动的水平地面;
条件2:目标机器人上激光测距仪的检测范围内设有一稳定存在、非反光且正对目标机器人方向的截面小于预设值的目标障碍物;
条件3:以目标机器人中心为圆心、所述目标障碍物正对目标机器人方向的前沿点与所述圆心的距离为半径构建圆域,在目标机器人正向所指的的半圆域范围内无其他障碍物;
条件4:所述目标机器人旋转所述目标旋转角度后,所述特征场景仍满足条件2和条件3。
步骤3,然后人工将目标机器人置于所述特征场景。待目标机器人置于所述特征场景后,调用所述旋转指令以驱动目标机器人在所述特征场景内自动旋转所述目标旋转角度,并采集所述目标机器人上多个传感器在旋转前后分别对应的传感数据帧。上述过程中若目标机器人旋转失败,则自检过程结束,生成自检失败信息,并上报该目标机器人的运动失效错误。
优选实施例中,在进行旋转测试前可以先完成机器人自动使能测试,即使机器人的轮毂电机闭环,以使机器人受程序控制,难以人为推动。具体过程包括:先设定使能指令,待目标机器人置于所述特征场景后,调用所述使能指令以驱动目标机器人在所述特征场景内自动完成使能测试,若使能成功,则采集所述目标机器人上多个传感器的传感数据帧作为所述目标机器人旋转前的传感数据帧,并继续执行步骤3;若使能失败,则自检过程结束,生成自检失败信息,并上报该目标机器人的使能失效错误。
优选实施例中,可以在目标机器人旋转前后的静止阶段多次采集每个传感器对应的传感数据帧,并对所述多个传感数据帧滤波去除特异值后再取平均值以生成稳定的传感数据帧,从而减少数据源带来的检测误差。
然后执行步骤4,根据所述传感数据帧计算所述目标机器人在不同传感器视角下的实际旋转角度,根据所述实际旋转角度和所述目标旋转角度判断每个传感器是否异常,并生成自检报告。
优选实施例中,所述传感器包括激光测距仪、陀螺仪和轮毂编码器,所述实际旋转角度包括激光测距仪视角下的第一实际旋转角度、陀螺仪视角下的第二实际旋转角度和轮毂编码器视角下的第三实际旋转角度。
一般激光测距仪安装于机器人正向轴线上,激光测距仪中心点与机器人中心点在正向轴线上相距固定安装距离,检测范围是以机器人轴线为对称轴的弧形区域,如图3所示。在自检场景下,目标机器人运动前后激光测距仪的检测特征如图4所示,抽象成数学模型后如图5示,其中Δd是目标机器人中心点和激光测距仪中心点的安装距离,d1min和d2min为旋转运动前后的最短激光检测距离(按特征场景设计,该激光束应打在目标障碍物上)。在算得最短激光检测距离的同时可拿到该束激光的序号,结合总激光条数、相邻激光束夹角等激光测距仪的固有参数,可求得最短激光束和激光测距仪正向的夹角θ1和θ2。基于上述已知线段长度和夹角度数,使用基本的三角形正余弦定理即可计算出α1和α2,二者差值即为激光测距仪视角下的第一实际旋转角度αtarget-laser。
而陀螺仪在经过底层封装后可对外输出偏航角(yaw)、翻滚角(roll)和俯仰角(pitch),如图6所示,当目标机器人在水平地面执行旋转自检动作时,偏航角的变化值可直接反应目标机器人的旋转角度,也就是陀螺仪视角下的第二实际旋转角度αtarget-imu。
当计算轮毂编码器视角下的第三实际旋转角度时,以开机点作为坐标系原点、依据插速轮运动学模型,将目标机器人轮毂编码器的运动位移和方向投影至二维坐标系下,如图7所示。基于上述二维坐标系,可将任意两帧轮毂编码值间的相对关系抽象为两直角坐标系间的转换关系,如图8所示,进而借助平面坐标系转换矩阵求得轮毂编码器视角下的第三实际旋转角度αtarget-motor。
然后所述根据实际旋转角度和目标旋转角度判断每个传感器是否异常具体包括以下步骤:
S401,将所述目标旋转角度乘以固定百分比生成目标阈值;
S402,分别计算所述第一实际旋转角度、所述第二实际旋转角度和所述第三实际旋转角度与所述目标旋转角度的差值,若所述差值大于所述目标阈值,则判断对应传感器存在异常;
和/或从所述第一实际旋转角度、所述第二实际旋转角度和所述第三实际旋转角度中选取最接近的两个实际旋转角度并求取均值,判断剩余一个实际旋转角度与所述均值的差值是否大于所述目标阈值,若是,则判断对应传感器存在异常,从而完成自检过程,生成自检报告。优选实施例中,所述自检报告还包括数据时钟是否同步、数据内容是否矛盾等自检数据评估结果。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
本发明的实施例提出一种基于机器人自主运动和多传感器融合校验的自检方法和系统,自检前需人工将机器人按设计朝向放置于轻度定制化的特征场景中,开启自检后,整个检测流程都由机器人自动完成,不再需要人工协助。自检进行过程中,机器人需按指令原地旋转指定角度,并在旋转前后分别截取所有待检测传感器的稳定数据帧,待采集到满足条件的数据后,进入自检结果计算阶段,分别从各待检测传感器视角建立数学模型并计算各自的旋转角度,然后将上述计算结果输入自检评估体系,最终输出多传感器融合自检结果。
本实施例仅依赖较容易满足的轻度定制化特征场景,由机器人自主完成所需运动,并借助自身传感特性完成测量和目标数据采集计算,因此可灵活运行于出厂检测阶段和投产运营阶段。此外,由于采用多传感器融合检测的方式,检测过程中机器人对传感器的使用更贴近于实际业务场景下的使用方式,因此可较为充分地暴露传感数据时钟同步等潜在问题,避免将问题遗留至业务场景、造成严重运营后果。
图9是实施例2提供的机器人多传感器融合自检系统的结构示意图,如图9所示,包括指令设定模块100、场景构建模块200、数据采集模块300和自检模块400,
所述指令设定模块100用于设定包括目标旋转角度的旋转指令;
所述场景构建模块200用于构建特征场景;
所述数据采集模块300用于待目标机器人置于所述特征场景后,调用所述旋转指令以驱动目标机器人在所述特征场景内自动旋转所述目标旋转角度,并采集所述目标机器人上多个传感器在旋转前后分别对应的传感数据帧;
所述自检模块400用于根据所述传感数据帧计算所述目标机器人在不同传感器视角下的实际旋转角度,根据所述实际旋转角度和目标旋转角度判断每个传感器是否异常,并生成自检报告。
在一个优选实施方式中,所述指令设定模块100还用于设定使能指令,所述数据采集模块300还用于待目标机器人置于所述特征场景后,调用所述使能指令以驱动目标机器人在所述特征场景内自动完成使能测试,采集所述目标机器人上多个传感器在使能测试完成后分别对应的传感数据帧,并将其作为所述目标机器人旋转前的传感数据帧。
在一个优选实施方式中,所述场景构建模块200构建的特征场景同时满足以下条件:
条件1:具有供目标机器人旋转运动的水平地面;
条件2:目标机器人上激光测距仪的检测范围内设有一稳定存在、非反光且正对目标机器人方向的截面小于预设值的目标障碍物;
条件3:以目标机器人中心为圆心、所述目标障碍物正对目标机器人方向的前沿点与所述圆心的距离为半径构建圆域,在目标机器人正向所指的的半圆域范围内无其他障碍物;
条件4:所述目标机器人旋转所述目标旋转角度后,所述特征场景仍满足条件2和条件3。
在一个优选实施方式中,所述目标旋转角度为绕目标机器人中心旋转30度—60度。
在一个优选实施方式中,所述数据采集模块300用于在目标机器人旋转前后的静止阶段多次采集每个传感器对应的传感数据帧,并对所述多个传感数据帧滤波去除特异值后再取平均值以生成稳定的传感数据帧。
在一个优选实施方式中,所述传感器包括激光测距仪、陀螺仪和轮毂编码器,所述自检模块400具体包括:
第一计算单元401,用于根据所述传感数据帧计算激光测距仪视角下的第一实际旋转角度、陀螺仪视角下的第二实际旋转角度和轮毂编码器视角下的第三实际旋转角度;
第二计算单元402,用于将所述目标旋转角度乘以固定百分比生成目标阈值;
判断单元403,用于计算所述第一实际旋转角度、所述第二实际旋转角度和所述第三实际旋转角度分别与所述目标旋转角度的差值,若差值大于所述目标阈值,则判定对应传感器存在异常;和/或从所述第一实际旋转角度、所述第二实际旋转角度和所述第三实际旋转角度中选取最接近的两个实际旋转角度并求取均值,判断剩余一个实际旋转角度与所述均值的差值是否大于所述目标阈值,若是,则判定对应传感器存在异常。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
本发明并不仅仅限于说明书和实施方式中所描述,因此对于熟悉领域的人员而言可容易地实现另外的优点和修改,故在不背离权利要求及等同范围所限定的一般概念的精神和范围的情况下,本发明并不限于特定的细节、代表性的设备和这里示出与描述的图示示例。
Claims (8)
1.一种机器人多传感器融合自检方法,其特征在于,包括以下步骤:
步骤1,设定包括目标旋转角度的旋转指令;
步骤2,构建特征场景;
步骤3,待目标机器人置于所述特征场景后,调用所述旋转指令以驱动目标机器人在所述特征场景内自动旋转所述目标旋转角度,并采集所述目标机器人上多个传感器在旋转前后分别对应的传感数据帧;
步骤4,根据所述传感数据帧计算所述目标机器人在不同传感器视角下的实际旋转角度,根据所述实际旋转角度和所述目标旋转角度判断每个传感器是否异常,并生成自检报告;
所述传感器包括激光测距仪、陀螺仪和轮毂编码器,所述实际旋转角度包括激光测距仪视角下的第一实际旋转角度、陀螺仪视角下的第二实际旋转角度和轮毂编码器视角下的第三实际旋转角度;所述根据实际旋转角度和目标旋转角度判断每个传感器是否异常具体包括以下步骤:
将所述目标旋转角度乘以固定百分比生成目标阈值;
分别计算所述第一实际旋转角度、所述第二实际旋转角度和所述第三实际旋转角度与所述目标旋转角度的差值,若所述差值大于所述目标阈值,则判断对应传感器存在异常;
和/或从所述第一实际旋转角度、所述第二实际旋转角度和所述第三实际旋转角度中选取最接近的两个实际旋转角度并求取均值,判断剩余一个实际旋转角度与所述均值的差值是否大于所述目标阈值,若是,则判断对应传感器存在异常。
2.根据权利要求1所述机器人多传感器融合自检方法,其特征在于,还包括以下步骤:设定使能指令,待目标机器人置于所述特征场景后,调用所述使能指令以驱动目标机器人在所述特征场景内自动完成使能测试,然后采集所述目标机器人上多个传感器的传感数据帧作为所述目标机器人旋转前的传感数据帧,并继续执行步骤3。
3.根据权利要求1或2所述机器人多传感器融合自检方法,其特征在于,所构建的特征场景同时满足以下条件:
条件1:具有供目标机器人旋转运动的水平地面;
条件2:目标机器人上激光测距仪的检测范围内设有一稳定存在、非反光且正对目标机器人方向的截面小于预设值的目标障碍物;
条件3:以目标机器人中心为圆心、所述目标障碍物正对目标机器人方向的前沿点与所述圆心的距离为半径构建圆域,在目标机器人正向所指的半圆域范围内无其他障碍物;
条件4:所述目标机器人旋转所述目标旋转角度后,所述特征场景仍满足条件2和条件3。
4.根据权利要求3所述机器人多传感器融合自检方法,其特征在于,所述目标旋转角度为绕目标机器人中心旋转30度—60度。
5.根据权利要求4所述机器人多传感器融合自检方法,其特征在于,在目标机器人旋转前后的静止阶段多次采集每个传感器对应的传感数据帧,并对所述多个传感数据帧滤波去除特异值后再取平均值以生成稳定的传感数据帧。
6.一种机器人多传感器融合自检系统,其特征在于,包括指令设定模块、场景构建模块、数据采集模块和自检模块,
所述指令设定模块用于设定包括目标旋转角度的旋转指令;
所述场景构建模块用于构建特征场景;
所述数据采集模块用于待目标机器人置于所述特征场景后,调用所述旋转指令以驱动目标机器人在所述特征场景内自动旋转所述目标旋转角度,并采集所述目标机器人上多个传感器在旋转前后分别对应的传感数据帧;
所述自检模块用于根据所述传感数据帧计算所述目标机器人在不同传感器视角下的实际旋转角度,根据所述实际旋转角度和目标旋转角度判断每个传感器是否异常,并生成自检报告;
所述传感器包括激光测距仪、陀螺仪和轮毂编码器,所述自检模块具体包括:
第一计算单元,用于根据所述传感数据帧计算激光测距仪视角下的第一实际旋转角度、陀螺仪视角下的第二实际旋转角度和轮毂编码器视角下的第三实际旋转角度;
第二计算单元,用于将所述目标旋转角度乘以固定百分比生成目标阈值;
判断单元,用于计算所述第一实际旋转角度、所述第二实际旋转角度和所述第三实际旋转角度分别与所述目标旋转角度的差值,若差值大于所述目标阈值,则判定对应传感器存在异常;和/或从所述第一实际旋转角度、所述第二实际旋转角度和所述第三实际旋转角度中选取最接近的两个实际旋转角度并求取均值,判断剩余一个实际旋转角度与所述均值的差值是否大于所述目标阈值,若是,则判定对应传感器存在异常。
7.根据权利要求6所述机器人多传感器融合自检系统,其特征在于,所述指令设定模块还用于设定使能指令,所述数据采集模块还用于待目标机器人置于所述特征场景后,调用所述使能指令以驱动目标机器人在所述特征场景内自动完成使能测试,采集所述目标机器人上多个传感器在使能测试完成后分别对应的传感数据帧,并将其作为所述目标机器人旋转前的传感数据帧。
8.根据权利要求6或7所述机器人多传感器融合自检系统,其特征在于,所述场景构建模块构建的特征场景同时满足以下条件:
条件1:具有供目标机器人旋转运动的水平地面;
条件2:目标机器人上激光测距仪的检测范围内设有一稳定存在、非反光且正对目标机器人方向的截面小于预设值的目标障碍物;
条件3:以目标机器人中心为圆心、所述目标障碍物正对目标机器人方向的前沿点与所述圆心的距离为半径构建圆域,在目标机器人正向所指的半圆域范围内无其他障碍物;
条件4:所述目标机器人旋转所述目标旋转角度后,所述特征场景仍满足条件2和条件3。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010656759.0A CN111752279B (zh) | 2020-07-09 | 2020-07-09 | 一种机器人多传感器融合自检方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010656759.0A CN111752279B (zh) | 2020-07-09 | 2020-07-09 | 一种机器人多传感器融合自检方法和系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111752279A CN111752279A (zh) | 2020-10-09 |
CN111752279B true CN111752279B (zh) | 2023-09-08 |
Family
ID=72710936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010656759.0A Active CN111752279B (zh) | 2020-07-09 | 2020-07-09 | 一种机器人多传感器融合自检方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111752279B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113282087B (zh) * | 2021-05-21 | 2023-03-31 | 武汉商学院 | 避障导游机器人及避障方法 |
CN115609635A (zh) * | 2021-07-16 | 2023-01-17 | 达明机器人股份有限公司 | 机器人传感器的检测系统及方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1617170A (zh) * | 2003-09-19 | 2005-05-18 | 索尼株式会社 | 环境识别设备及方法,路径规划设备及方法以及机器人 |
CN102411371A (zh) * | 2011-11-18 | 2012-04-11 | 浙江大学 | 一种基于多传感器服务机器人跟随系统和方法 |
JP2013224915A (ja) * | 2011-08-29 | 2013-10-31 | Denso Wave Inc | レーザレーダ装置 |
CN111002328A (zh) * | 2019-12-05 | 2020-04-14 | 广州赛特智能科技有限公司 | 轮式机器人校验系统及方法 |
CN111002347A (zh) * | 2019-12-20 | 2020-04-14 | 上海有个机器人有限公司 | 一种机器人场景测试方法、介质、终端和装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9928459B2 (en) * | 2011-07-25 | 2018-03-27 | Lg Electronics Inc. | Robotic cleaner and self testing method of the same |
KR102083188B1 (ko) * | 2013-07-29 | 2020-03-02 | 삼성전자주식회사 | 청소 로봇 및 그 제어 방법 |
-
2020
- 2020-07-09 CN CN202010656759.0A patent/CN111752279B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1617170A (zh) * | 2003-09-19 | 2005-05-18 | 索尼株式会社 | 环境识别设备及方法,路径规划设备及方法以及机器人 |
JP2013224915A (ja) * | 2011-08-29 | 2013-10-31 | Denso Wave Inc | レーザレーダ装置 |
CN102411371A (zh) * | 2011-11-18 | 2012-04-11 | 浙江大学 | 一种基于多传感器服务机器人跟随系统和方法 |
CN111002328A (zh) * | 2019-12-05 | 2020-04-14 | 广州赛特智能科技有限公司 | 轮式机器人校验系统及方法 |
CN111002347A (zh) * | 2019-12-20 | 2020-04-14 | 上海有个机器人有限公司 | 一种机器人场景测试方法、介质、终端和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111752279A (zh) | 2020-10-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111752279B (zh) | 一种机器人多传感器融合自检方法和系统 | |
US9911041B2 (en) | Monitoring device, monitoring system and monitoring method | |
JP6545279B2 (ja) | 衝突は発生しないかについて、車両が辿るべき目標軌跡を監視するための方法及び装置 | |
CN107782304B (zh) | 移动机器人的定位方法及装置、移动机器人及存储介质 | |
CN112113582A (zh) | 时间同步处理方法、电子设备及存储介质 | |
CN112116651B (zh) | 一种基于无人机单目视觉的地面目标定位方法和系统 | |
CN108344580B (zh) | 一种自动驾驶汽车的自检方法和装置 | |
Hamadi et al. | Data fusion fault tolerant strategy for a quadrotor UAV under sensors and software faults | |
CN114167470A (zh) | 一种数据处理方法和装置 | |
WO2024125071A1 (zh) | Gnss/ins冗余组合导航方法、模组、系统及介质 | |
CN113703476A (zh) | 一种无人机航线应激避障的控制方法及装置 | |
KR102288609B1 (ko) | 다중 모듈 기반의 그래프 구조를 이용한 무인체 위치 추정 시스템 및 그 방법 | |
CN109677508B (zh) | 一种车辆运动数据获取方法、装置、设备和存储介质 | |
CN115164936A (zh) | 高精地图制作中用于点云拼接的全局位姿修正方法及设备 | |
CN113324541B (zh) | 定位方法及装置、定位系统 | |
Soika | Grid based fault detection and calibration of sensors on mobile robots | |
CN113739819B (zh) | 校验方法、装置、电子设备、存储介质及芯片 | |
EP4064055A1 (en) | Functional safety with root of safety and chain of safety | |
WO2021223122A1 (zh) | 飞行器定位方法、装置、飞行器及存储介质 | |
CN115309630A (zh) | 自动驾驶仿真数据的生成方法、装置、设备及存储介质 | |
CN112344966B (zh) | 一种定位失效检测方法、装置、存储介质及电子设备 | |
CN114536403A (zh) | 关节模组的定位精度测量系统及方法 | |
Monteriu et al. | Experimental validation of a real-time model-based sensor fault detection and isolation system for unmanned ground vehicles | |
CN114325744B (zh) | 一种无人车打滑检测方法、系统、设备及介质 | |
CN113858208B (zh) | 一种机器人检测方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |