CN110488838B - 一种室内自主导航机器人精确重复定位方法 - Google Patents
一种室内自主导航机器人精确重复定位方法 Download PDFInfo
- Publication number
- CN110488838B CN110488838B CN201910805799.4A CN201910805799A CN110488838B CN 110488838 B CN110488838 B CN 110488838B CN 201910805799 A CN201910805799 A CN 201910805799A CN 110488838 B CN110488838 B CN 110488838B
- Authority
- CN
- China
- Prior art keywords
- robot
- current
- target position
- coordinate
- positioning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 230000000007 visual effect Effects 0.000 claims abstract description 21
- 238000011156 evaluation Methods 0.000 claims abstract description 19
- 238000012937 correction Methods 0.000 claims abstract description 9
- 238000004364 calculation method Methods 0.000 claims description 16
- 238000003384 imaging method Methods 0.000 claims description 4
- BTCSSZJGUNDROE-UHFFFAOYSA-N gamma-aminobutyric acid Chemical compound NCCCC(O)=O BTCSSZJGUNDROE-UHFFFAOYSA-N 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 2
- 239000003550 marker Substances 0.000 description 7
- 230000000694 effects Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000005299 abrasion Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
- G05D1/0236—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本发明公开了智能机器人领域的一种室内自主导航机器人精确重复定位方法。该方法的步骤包括:1,机器人依次经过预设的位于直线上的多个目标位置;2,当机器人到达其中一个目标位置时,获取机器人的当前坐标;3,计算当前目标位置的修正坐标;4,机器人到达所述目标位置的修正坐标后,采用视觉补偿定位算法,计算出机器人当前的视觉位置;5,根据所述当前坐标、当前目标位置的修正坐标和机器人当前的视觉位置,计算当前目标位置的评价系数,所述当前目标位置的评价系数用于计算机器人到下一个目标位置的修正坐标。机器人在长直走廊场景下运动,实时矫正定位误差,实现了机器人的精确定位。
Description
技术领域
本发明涉及智能机器人领域,特别涉及一种室内自主导航机器人精确重复定位方法。
背景技术
目前室内自主导航机器人大多采用码盘,陀螺仪,IMU,激光雷达等传感器采集相应信息通过融合算法来估算机器人实时的位置姿态。
码盘类似于汽车的里程计,通过计算轮毂转动的圈数来推算机器人运动的路程,但是机器人在运动过程中难免受到打滑,轮胎磨损等因素的影响导致码盘检测误差,并且会随着机器人运动逐渐累加,无法有效消除误差积累。
陀螺仪和IMU(Inertial measurement unit惯性测量单元)由于电子器件的电气特性会出现零漂(零漂是输入为0的时候的输出)的现象,并且会随着时间误差逐渐累积,同样无法有效消除误差积累。
激光雷达是通过激光扫描周围环境信息,经过处理得到点云信息之后通过粒子滤波算法与先验地图进行匹配最后估计出置信度最高的机器人姿态,雷达有很强的适应性,不受光照的影响,基于激光雷达的定位算法在周围定位特征较为丰富的情况下有较优秀的定位效果,但是在长直走廊周围环境较为相似的场景下会定位算法很容易失效,从而出现较大的定位偏差。
上述的定位方案在长直走廊场景下,如果对机器人有长时间运行并且能精确重复定位需求的情况下,效果非常不理想,无法重复精确定位,相邻的两次定位误差甚至会大于30cm。
发明内容
本发明的目的在于克服现有技术中所存在的上述不足,提供了一种在长直走廊场景下,减少累积误差,明显提高机器人重复精确定位的在线矫正误差的方法。
为了实现上述发明目的,本发明提供了以下技术方案:
一种室内自主导航机器人精确重复定位方法,步骤包括:
S1,在直线上依次预设多个目标位置,机器人依次经过目标位置;
S2,当机器人到达其中一个目标位置时,获取机器人的当前坐标;
S3,计算当前目标位置的修正坐标;
S4,机器人到达目标位置的修正坐标后,采用视觉补偿定位算法,计算出机器人当前的视觉位置;
S5,根据当前坐标、当前目标位置的修正坐标和当前的精确位置,计算当前目标位置的评价系数,当前目标位置的评价系数用于计算机器人下一次经过当前目标位置的修正坐标。
进一步的,步骤S3中当前目标位置的修正坐标,采用迭代的方式计算得到,计算公式为:
position_expi,j
=factori-1,j(position_expi,j-1-position_currenti,j)+position_currenti,j
其中,i表示导航点的编号,j表示机器人的寻址轮数,position_expi,j是机器人在第j轮中第i个导航点的修正坐标,factori-1,j机器人第j轮到达第i-1个导航点计算出的评价系数,position_expi,j-1是第i个导航点在第j-1轮的修正坐标,position_currenti,j是机器人在第j轮到达第i个导航点实测的当前坐标。
进一步的,步骤S4的具体步骤包括:
S41,机器人移动到目标位置的修正坐标;
S42,机器人通过自身搭载的可见光相机对识别标识进行拍照,识别标识位于目标位置附近,根据识别标识的实际尺寸和照片里识别标识的像素尺寸和相机的像素焦距,计算出机器人与识别标识之间的相对姿态关系,从而计算出机器人当前的视觉位置。
作为一种具体的实施例,识别标识为二维码图形。
进一步的,当识别标识为二维码图形时,步骤S42的具体流程为:
S401,相机内部参数的标定;
S402,采用相机对二维码图形进行拍照,在拍摄的图像中识别并定位二维码图形;
S403,通过相机内部参数进行相机坐标系与世界坐标系之间的转换;
S404,根据二维码图形在图像中的位置信息,利用小孔成像原理,计算出机器人与识别标识之间的相对姿态关系。
进一步的,步骤S5中评价系数计算公式为:
其中,factori,j是机器人在第j轮中,第i个目标位置的评价系数,position_expi,j为机器人在第j轮中第i个导航点的修正坐标,position_currenti,j为机器人在第j轮到达第i个导航点实测的当前坐标,position_visioni,j是通过视觉补偿定位算法计算到的机器人当前的视觉位置。
本发明还保护一种室内自主导航机器人精确重复定位的系统,包括至少一个处理器,以及与至少一个处理器通信连接的存储器;存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行上述技术方案中任一项的方法。
与现有技术相比,本发明的有益效果:
在长直走廊场景下,随着机器人的运动,实时矫正定位误差,实现机器人的精确定位,经过测试,机器人在每个点的重复定位精度≤1cm,机器人可以保持该定位精度下稳定运行8小时以上,满足大多数商用机器人使用时长限制。
附图说明
图1为本发明一种室内自主导航机器人精确重复定位方法的流程图;
图2为本发明实施例1中的导航点设置图;
图3为本发明实施例1中的导航点坐标示意图;
图4为本发明实施例1中视觉补偿定位算法使用的标识物;
图5为本发明实施例1中视觉补偿定位算法的视觉辅助对准流程。
具体实施方式
下面结合试验例及具体实施方式对本发明作进一步的详细描述。但不应将此理解为本发明上述主题的范围仅限于以下的实施例,凡基于本发明内容所实现的技术均属于本发明的范围。
实施例1
通过采集大量的机器人运行数据,发现机器人在走廊的较长方向上的定位坐标与理想数值存在较大偏差,与走廊方向相互垂直的方向上的定位坐标与理想坐标较为接近,满足定位要求,所以本方法主要针对机器人在走廊较长方向上的定位坐标误差矫正。
导航点的设置如图2所示,导航点坐标设置示意图如图3所示。各导航点间隔相等,并且位于同一直线上,机器人在走廊较长方向上沿着导航点移动时,通过机器人里程计上传的速度信息,可以看到机器人在地图坐标系的y轴坐标基本都落在一个很小的范围区间,所以机器人的矫正方法主要思路是把机器人到达每个目标点的y方向坐标记录下来,在之后导航过程中机器人到达每个导航点之后与预设的坐标进行比对,进行一系列矫正策略。
在机器人逐个经过导航目标点初期,由于机器人运行时间和历程都较小,所以里程计误差很小,机器人可以顺利到达各导航目标点附近,但是当机器人运行时间较长,并且多次经过各导航目标点之后,由于累积误差,到后来机器人并不能顺利到达各导航目标点附近,无法通过目标点附近预先贴好的识别标识进行精确定位,所以,需要进行误差修正,消除累积误差。本方法采用一种室内自主导航机器人精确重复定位方法消除累积误差。
一种室内自主导航机器人精确重复定位方法,流程图如图1所示,步骤包括:
S1,在直线上依次预设多个目标位置,机器人依次经过所述目标位置;
S2,当机器人到达其中一个目标位置时,获取机器人的当前坐标;
S3,计算当前目标位置的修正坐标;
S4,机器人到达所述目标位置的修正坐标后,采用视觉补偿定位算法,计算出机器人当前的视觉位置;
S5,根据所述当前坐标、当前目标位置的修正坐标和当前的视觉位置,计算当前目标位置的评价系数,所述当前目标位置的评价系数用于计算机器人下一次经过所述当前目标位置的修正坐标。
其中,关于评价系数的定义,具体为:
首先通过机器人上的里程计记录机器人此时的当前坐标(position_currenti,j),通过计算得到目标位置的修正坐标(根据上一轮寻址中导航目标点的坐标对本轮目标位置进行修正计算,得到了目标位置的修正坐标),机器人移动到目标位置的修正坐标,然后通过目标点附近预先贴好的识别标识,采用视觉补偿定位算法,计算出机器人当前的视觉位置(position_visioni,j)。将机器人当前的视觉位置(position_visioni,j)与目标位置的修正坐标(position_expi,j)对比,得出本轮该目标点的定位误差Δi,j,如果单纯将定位误差Δi,j作为实际误差,计算结果常常小于或者大于理想坐标,所以引入一个评价系数factor(初始为1),对机器人每到一个导航目标点的定位效果进行打分,评价系数factor由公式(1)得出:
其中,factori,j是机器人在第j轮中,第i个目标位置的评价系数,position_expi,j为机器人在第j轮中第i个导航点的修正坐标,position_currenti,j为机器人在第j轮到达第i个导航点实测的当前坐标,position_visioni,j是通过视觉补偿定位算法计算到的视觉位置坐标。
关于目标位置的修正坐标的计算,以在长直走廊上预设11个导航目标点为例,进行说明:
在长直走廊上预设11个导航目标点,每个导航点期望位置position_exp的初始值为position_exp0,position_exp0是在获取大量的实验数据后,通过求平均值的方式计算获得。机器人根据预设的目标位置,依次经过11个导航目标点,即表示机器人完成一轮寻址,机器人再依次经过11个导航目标点,即表示机器人完成第二轮寻址,以此类推。每完成一轮寻址,机器人就会对每个导航点的期望位置进行修正,用position_expi,j表示,其中,i表示导航点的编号,j表示机器人的寻址轮数,i=1,2,3…11,j=1,2,3…N。
修正机器人目标位置的坐标的计算公式如公式(2)所示:
position_expi,j=factori-1,j(position_expi,j-1-position_currenti,j)+position_currenti,j
……(2)
其中,i表示导航点的编号,j表示机器人的寻址轮数,position_expi,j是机器人在第j轮中第i个导航点的修正坐标,factori-1,j机器人第j轮到达第i-1个导航点计算出的评价系数,position_expi,j-1是第i个导航点在第j-1轮的修正坐标,position_currenti,j是机器人在第j轮到达第i个导航点实测的当前坐标。
显然上式为迭代式,利用该式可以在机器人每次定位时迭代消除机器人运行时产生的误差,从而实现机器人长时间多次的精确定位。
其中,步骤S4中的视觉补偿定位算法是指:
通过机器人平台搭载的可见光相机以及设置的标识物,可以相对准确的计算标识相对相机的位姿,从而计算出机器人当前的精确姿态(标识物的姿态已知)。
相对距离计算根据相似三角形原理,通过相机CMOS感光元件与物体实际物理坐标系的小孔成像原理推算出相似三角公式,其中前后距离计算中涉及到像素焦距的概念,此为比例系数,各摄像机的参数值有所区别,需要单独测量计算得出,该系数涉及到CMOS尺寸,相机实际焦距,成像原理等众多相机参数的综合使用,需要拟定详细的相机标定计划并将其程序化,以便于使用和计算。计算公式如下:
1)左右距离计算公式如公式(3)所示,
其中,DistancetoCenter_Real是距离中心实际距离,WidthReal是标识物实际宽度,DistancetoCenter-Pixel是距离中心像素距离,WidthPixel是标识物像素宽度。
2)前后距离计算公式如公式(4)所示,
其中,Distance是相机距离标识物距离;FoucsPixel是像素焦距(比例系数),WidthReal是标识物实际宽度,WidthPixel是标识物像素宽度。
标识物的找寻主要基于如图4所示的二维码图形标识物,采取二维码能够有效避免环境中的干扰物的存在,并且二维码的规则形状可以提高计算准确度。其具体实现流程如图5所示,首先需要通过标定板对相机的内参进行标定,获取像素焦距,畸变系数矩阵等重要参数,然后利用Aruco函数库识别获取图像中的二维码的位置信息,通过相机内参进行相机坐标系与世界坐标系之间的转换,并计算可见光相机与标识物间的相对姿态关系,以进行调整操作。
实施例中还包括一种室内自主导航机器人精确重复定位的系统,包括至少一个处理器,以及与至少一个处理器通信连接的存储器;存储器存储有可被至少一个处理器执行的指令,所述指令被至少一个处理器执行,以使至少一个处理器能够执行上述精确定位的方法。
Claims (6)
1.一种室内自主导航机器人精确重复定位方法,其特征在于,步骤包括:
S1,在直线上依次预设多个目标位置,机器人依次经过所述目标位置;
S2,当机器人到达其中一个目标位置时,获取机器人的当前坐标;
S3,计算当前目标位置的修正坐标;
S4,机器人到达所述当前目标位置的修正坐标后,采用视觉补偿定位算法,计算出机器人当前的视觉位置;
S5,根据所述当前坐标、当前目标位置的修正坐标和所述机器人当前的视觉位置,计算当前目标位置的评价系数,所述当前目标位置的评价系数用于计算机器人到下一个目标位置的修正坐标;
步骤S5中,所述评价系数计算公式为:
其中,factori,j是机器人在第j轮中第i个目标位置的评价系数,position_expi,j为机器人在第j轮中第i个目标位置的修正坐标,position_currenti,j为机器人在第j轮到达第i个目标位置实测的当前坐标,position_visioni,j是通过视觉补偿定位算法计算到的机器人当前的视觉位置。
2.如权利要求1所述的一种室内自主导航机器人精确重复定位方法,其特征在于,步骤S3中所述当前目标位置的修正坐标,采用迭代的方式计算得到,计算公式为:
position_expi,j
=factori-1,j(position_expi,j-1-position_currenti,j)+position_currenti,j
其中,i表示目标位置的编号,j表示机器人的寻址轮数,position_expi,j是机器人在第j轮中第i个目标位置的修正坐标,factori-1,j机器人第j轮到达第i-1个目标位置计算出的评价系数,position_expi,j-1是第i个目标位置在第j-1轮的修正坐标,position_currenti,j是机器人在第j轮到达第i个目标位置实测的当前坐标。
3.如权利要求1所述的一种室内自主导航机器人精确重复定位方法,其特征在于,步骤S4的具体步骤包括:
S41,机器人移动到所述当前目标位置的修正坐标;
S42,机器人通过自身搭载的可见光相机对识别标识进行拍照,所述识别标识位于所述目标位置附近,根据识别标识的实际尺寸、照片里所述识别标识的像素尺寸和相机的像素焦距,计算出机器人与所述识别标识之间的相对姿态关系,从而计算出机器人当前的视觉位置。
4.如权利要求3所述的一种室内自主导航机器人精确重复定位方法,其特征在于,所述识别标识为二维码图形。
5.如权利要求4所述的一种室内自主导航机器人精确重复定位方法,其特征在于,步骤S42的具体流程为:
S401,相机内部参数的标定;
S402,采用相机对二维码图形进行拍照,在拍摄的图像中识别并定位二维码图形;
S403,通过相机内部参数进行相机坐标系与世界坐标系之间的转换;
S404,根据所述二维码图形在图像中的位置信息,利用小孔成像原理,计算出机器人与识别标识之间的相对姿态关系。
6.一种室内自主导航机器人精确重复定位的系统,其特征在于,包括至少一个处理器,以及与所述至少一个处理器通信连接的存储器;所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1至5中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910805799.4A CN110488838B (zh) | 2019-08-29 | 2019-08-29 | 一种室内自主导航机器人精确重复定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910805799.4A CN110488838B (zh) | 2019-08-29 | 2019-08-29 | 一种室内自主导航机器人精确重复定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110488838A CN110488838A (zh) | 2019-11-22 |
CN110488838B true CN110488838B (zh) | 2022-08-02 |
Family
ID=68553796
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910805799.4A Active CN110488838B (zh) | 2019-08-29 | 2019-08-29 | 一种室内自主导航机器人精确重复定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110488838B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111912431B (zh) * | 2020-03-19 | 2021-05-11 | 中山大学 | 一种移动机器人导航系统定位精度测试方法 |
CN111766603B (zh) * | 2020-06-27 | 2023-07-21 | 长沙理工大学 | 基于AprilTag码视觉辅助定位的移动机器人激光SLAM方法、系统、介质及设备 |
CN113268063A (zh) * | 2021-06-03 | 2021-08-17 | 北京京东乾石科技有限公司 | 机器人的控制方法、装置和非易失性计算机可读存储介质 |
CN113821047A (zh) * | 2021-08-18 | 2021-12-21 | 杭州电子科技大学 | 一种基于单目视觉的无人机自主降落方法 |
CN114623819A (zh) * | 2022-03-21 | 2022-06-14 | 中国电信股份有限公司 | 机器人定位方法、系统、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110081452A (ko) * | 2010-01-08 | 2011-07-14 | 성균관대학교산학협력단 | 마그네틱 랜드마크를 이용한 모바일 로봇의 전역 위치 추정 및 보정 방법 |
CN103308047A (zh) * | 2013-05-10 | 2013-09-18 | 杭州师范大学 | 一种具有人工在线修正功能的移动机器人定位方法 |
CN106969766A (zh) * | 2017-03-21 | 2017-07-21 | 北京品创智能科技有限公司 | 一种基于单目视觉和二维码路标的室内自主导航方法 |
CN109163724A (zh) * | 2018-09-07 | 2019-01-08 | 五邑大学 | 基于Turtlebot2机器人构建地图的多目标点自主导航方法 |
CN109739226A (zh) * | 2018-12-27 | 2019-05-10 | 国网北京市电力公司 | 目标巡检位置的确定方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10899015B2 (en) * | 2017-09-01 | 2021-01-26 | Siemens Aktiengesellschaft | Method and system for dynamic robot positioning |
-
2019
- 2019-08-29 CN CN201910805799.4A patent/CN110488838B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110081452A (ko) * | 2010-01-08 | 2011-07-14 | 성균관대학교산학협력단 | 마그네틱 랜드마크를 이용한 모바일 로봇의 전역 위치 추정 및 보정 방법 |
CN103308047A (zh) * | 2013-05-10 | 2013-09-18 | 杭州师范大学 | 一种具有人工在线修正功能的移动机器人定位方法 |
CN106969766A (zh) * | 2017-03-21 | 2017-07-21 | 北京品创智能科技有限公司 | 一种基于单目视觉和二维码路标的室内自主导航方法 |
CN109163724A (zh) * | 2018-09-07 | 2019-01-08 | 五邑大学 | 基于Turtlebot2机器人构建地图的多目标点自主导航方法 |
CN109739226A (zh) * | 2018-12-27 | 2019-05-10 | 国网北京市电力公司 | 目标巡检位置的确定方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110488838A (zh) | 2019-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110488838B (zh) | 一种室内自主导航机器人精确重复定位方法 | |
JP6821712B2 (ja) | 自然光景中での統合センサの較正 | |
CN108805934B (zh) | 一种车载摄像机的外部参数标定方法及装置 | |
CN109461190B (zh) | 测量数据处理装置及测量数据处理方法 | |
US8452568B2 (en) | Method for calibrating cameras installed on vehicle | |
CN109782786B (zh) | 一种基于图像处理的定位方法和无人机 | |
CN108151713A (zh) | 一种单目vo快速位姿估计方法 | |
CN109387194B (zh) | 一种移动机器人定位方法和定位系统 | |
KR102490521B1 (ko) | 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법 | |
CN112837383A (zh) | 相机与激光雷达重标定方法、装置及计算机可读存储介质 | |
CN111524194A (zh) | 一种激光雷达和双目视觉相互融合的定位方法及终端 | |
CN113847930A (zh) | 多传感器校准系统 | |
CN113409396A (zh) | 一种adas单目相机的标定方法 | |
Ding et al. | A robust detection method of control points for calibration and measurement with defocused images | |
CN113643380A (zh) | 一种基于单目相机视觉标靶定位的机械臂引导方法 | |
CN113340272B (zh) | 一种基于无人机微群的地面目标实时定位方法 | |
CN114777768A (zh) | 一种卫星拒止环境高精度定位方法、系统及电子设备 | |
CN114820793A (zh) | 基于无人机的目标检测及目标点定位方法及系统 | |
CN111830519B (zh) | 多传感器融合的测距方法 | |
CN111710002B (zh) | 一种基于Optitrack系统的相机外参标定方法 | |
CN112862818A (zh) | 惯性传感器和多鱼眼相机联合的地下停车场车辆定位方法 | |
CN117078769A (zh) | 一种电子后视镜cms摄像头外参数标定方法及系统 | |
CN111738035A (zh) | 车辆偏航角的计算方法、装置和设备 | |
CN115471555A (zh) | 一种基于图像特征点匹配的无人机红外巡检位姿确定方法 | |
CN111649746B (zh) | 一种融合惯导测量和ArUco标记的定位与导航方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |