CN101691037B - 一种基于主动视觉感知和混沌演化的移动机器人定位方法 - Google Patents
一种基于主动视觉感知和混沌演化的移动机器人定位方法 Download PDFInfo
- Publication number
- CN101691037B CN101691037B CN200910035489A CN200910035489A CN101691037B CN 101691037 B CN101691037 B CN 101691037B CN 200910035489 A CN200910035489 A CN 200910035489A CN 200910035489 A CN200910035489 A CN 200910035489A CN 101691037 B CN101691037 B CN 101691037B
- Authority
- CN
- China
- Prior art keywords
- robot
- perception
- road sign
- motion
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 230000000739 chaotic effect Effects 0.000 title abstract description 6
- 230000016776 visual perception Effects 0.000 title abstract 2
- 230000033001 locomotion Effects 0.000 claims abstract description 39
- 230000008447 perception Effects 0.000 claims abstract description 32
- 230000000007 visual effect Effects 0.000 claims abstract description 16
- 238000012937 correction Methods 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 12
- 230000000306 recurrent effect Effects 0.000 claims description 10
- 230000005284 excitation Effects 0.000 claims description 6
- 238000005086 pumping Methods 0.000 claims description 6
- 229920006395 saturated elastomer Polymers 0.000 claims description 5
- 238000001514 detection method Methods 0.000 claims description 3
- 238000009434 installation Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims description 2
- 230000010429 evolutionary process Effects 0.000 claims description 2
- 230000010355 oscillation Effects 0.000 claims description 2
- 238000004091 panning Methods 0.000 claims description 2
- 235000001968 nicotinic acid Nutrition 0.000 abstract 1
- 230000006399 behavior Effects 0.000 description 10
- 238000013461 design Methods 0.000 description 8
- 230000007613 environmental effect Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 230000004807 localization Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 210000004126 nerve fiber Anatomy 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
- Feedback Control In General (AREA)
Abstract
本发明涉及一种基于主动视觉感知和混沌演化的移动机器人定位方法,其特征在于:基于信息论的基本原理,以数字化云台视觉传感系统完成主动感知行为,在可视域范围内确定一组观测熵最大的路标作为观测对象,最大程度获取周边的环境信息,并借助仿生学原理,用混沌演化过程实现感知-行为动力学回路,最终实现移动机器人自主有效定位。具体包括以下步骤:(1)在机器人上安装传感器;(2)在机器人规划行进路径中设置视觉传感系统可识别的路标;(3)建立机器人感知模型,以数字化云台视觉传感系统完成主动感知行为,在视觉传感器可视域范围内确定一组观测熵最大的路标作为观测对象;(4)基于混沌演化机理,建立感知-行为动力学回路;(5)更新机器人运动模型,完成机器人运动坐标和角度的修正,并最终实现移动机器人自主定位。
Description
一、技术领域
本发明属于智能控制以及机器人定位技术领域,涉及一种机器人自主定位方法,更具体涉及一种基于主动视觉感知和混沌演化的移动机器人定位方法,可以用于机器人在复杂环境下的多感知信息融合与高精度智能定位。
二、背景技术
自主定位问题一直都是移动机器人研究中的热点问题。定位精度的提高和系统鲁棒性的增加是目前需要解决的主要问题。近年来,对于移动机器人的定位问题,通常采用卡尔曼滤波或者粒子滤波来解决,这类方法统称贝叶斯(Bayesian)技术。该技术主要包括三个步骤:(1)预测步骤。在该步骤中,机器人依靠当前时刻的位置和自身移动的信息来预测下一时刻的位置;(2)观测步骤。在该步骤中,机器人感知环境信息;(3)位置更新步骤。在该步骤中,机器人利用从环境中感知到的新观测信息,更新对当前位置的估计。在传统的研究中,观测步骤中使用的传感器通常都是固定的(被动式的),不能够对传感器施加主动控制,使得传感器获得周边环境中最有价值的一部分信息。换言之,传感器对环境信息的观测不具有选择性。其结果是很多有价值的信息不能够被机器人传感器所获得,大大影响了机器人定位精度。
另一方面,早期的机器人控制器设计通常采用线形控制方法,系统缺乏足够的鲁棒性。近年来针对仿人机器人的研究,开始有学者关注将人工神经网络方法应用于机器人的控制,并设计了各种人工神经网络模拟机器人的思维活动。但人工神经网络方法并没有考虑到实际生物体神经网络的复杂的思维机制,并且人工神经网络是需要训练和存储记忆的,机器人需要大量的时间学习和训练,不利于实时控制和定位。其它如模糊控制、遗传算法等非线性理论也被引入到机器人行为控制器的设计或行为协调、融合策略的研究,但是在实际应用中存在可靠性差、自适应能力弱等问题。
混沌现象自提出以来,吸引了很多数学领域学者的注意。混沌现象的本质在于对所谓“混沌吸引子”的理解。“混沌吸引子”是一个抽象的数学概念,描述了运动的收敛类型。简而言之,“混沌吸引子”是指这样的一个集合,当时间趋于无穷大时,在任何一个有界集上出发的非定常流的所有轨道都趋于它。目前,已经可以用各种数学手段设计并产生混沌信号,并在模拟或数字电路上设计实现。混沌现象最初的应用为保密通信领域,并逐步推广到控制方面,形成了混沌控制学理论。
近年来,有许多生物领域的学者开始关注混沌现象的生物学机理,他们通过大量的实验,在某些动物神经系统活动过程中发现了存在混沌动力学现象。特别的是,在对某些混沌吸引子的研究中发现,这些高维混沌吸引子存在一些类似“卷”的结构,而这些结构可以认为代表了通过脑的神经组织长时间自主学习形成的记忆轨迹,值得注意的是,这种学习不需要训练而产生,而是生物体神经组织在生命过程中本能产生的。在没有外部刺激的情况下,系统处于高维迭代搜索模式,搜索轨迹为不同的“卷”。但一接收到激励信号后,系统的动力学行为就表现为约束在某一个“卷”作周期性振动,而这个特定的“卷”恰好反映了外部激励信号的特征。如果输入系统的激励信号停止,系统立刻又会切换到高维迭代搜索模式。这种混沌演化机理如果引入到机器人行为控制器的设计,将可以大大提高系统的自适应能力。
三、发明内容
1、技术问题
受信息论基本原理和混沌演化机理的启发,本发明公开了一种基于主动视觉感知和混沌演化的移动机器人定位方法,并应用于实现机器人自主定位。在本发明中,我们根据信息论的基本原理,提出一种在视觉传感器可视域范围内,基于观测熵最大原理的路标主动选择方法;同时,在硬件设计中采用由步进电机控制的可360°旋转的数字化云台视觉传感系统,实现了机器人主动视觉感知,可以在可视域范围内确定一组观测熵最大的路标作为观测对象,最大程度的获取周边的环境信息。此外,基于混沌演化机理,我们设计了一种感知-行为动力学环路结构,并应用于实现机器人行为控制器的设计。这种方法的优点在于机器人自主定位所使用的感知系统不仅具有有效选择环境信息的能力,而且具有更准确的神经反应信号表达能力。本发明要解决的问题是在机器人移动过程中,使得机器人能够主动感知环境信息,并对环境信息进行有效选择,进而借助最有价值的一组环境信息确定自身的位置,实现高精度定位。
2、技术方案
为了达到上述的发明目的,本发明的技术方案为一种基于主动视觉感知和混沌演化的移动机器人定位方法,该方法包括下列步骤:
第一步骤:机器人传感器安装步骤;在机器人上安装1个可进行360°旋转的数字化云台101,并由步进电机102控制云台旋转,在云台101上安装1个视觉传感器103,构成数字化云台视觉传感系统,同时,在机器人上安装1个里程仪104。机器人传感器配置结构图如图1所示;
第二步骤:路标设置步骤;在机器人规划行进路径中,设置多个路标,并且这些路标都可以被以上第一步骤所安装的视觉传感系统所识别;
第三步骤:机器人感知模型建立步骤;用以上第一步骤所安装的数字化云台视觉传感系统完成主动感知行为,在视觉传感器可视域范围内确定一组观测熵最大的路标作为观测对象,并根据机器人的坐标信息和角度信息,以及路标的坐标信息,建立机器人感知模型,获得机器人与路标间的距离,以及机器人运动方向与路标间的角度;
第四步骤:感知-行为动力学回路建立步骤;根据混沌演化机理,建立感知-行为动力学回路,确定机器人转向角,并对机器人执行机构施加反馈控制。这里的“混沌演化”,是指在状态空间中,随着时间的推移,状态变量随时间的运动轨迹;
第五步骤:机器人运动模型更新步骤;利用以上第一步骤所安装的里程仪给出的机器人运动距离,以及以上第四步骤所确定的机器人转向角,完成机器人运动坐标和角度的修正,更新机器人运动模型,实现移动机器人自主定位。
如前所述的基于主动视觉感知和混沌演化的移动机器人定位方法,其特征在于,第三步骤中所述的观测熵为:
其中,ri表示探测到的第i个路标与机器人间的距离,H表示观测熵,PiFOV表示第i个路标路标的可视概率,当路标在视觉传感器可视域范围内时,PiFOV=1,当路标不在视觉传感器可视域范围内时,PiFOV=0。
如前所述的基于主动视觉感知和混沌演化的移动机器人定位方法,其特征在于,第三步骤中所述的主动感知行为具体包括下列步骤:
步骤一:步进电机102控制数字化云台101进行360°旋转,步进角度为常数,在视觉传感器103可视域范围内计算所有路标的观测熵,并依次存储在计算机存储卡105中;
步骤二:数字化云台101在360°旋转后,选择观测熵最大的方向为主动感知方向,并根据该方向上所采集的路标信息建立感知模型。
如前所述的基于主动视觉感知和混沌演化的移动机器人定位方法,其特征在于,第三步骤中所述的机器人感知模型为:
其中,r表示视觉传感器103测得的机器人与路标间的距离,α表示视觉传感器103测得的路标在可视域内的偏转角度,(xt,yt)表示机器人的坐标,(px,py)表示路标的坐标,βt表示视觉传感器镜头的摇头角度,θt表示机器人的运动方向与x轴的夹角,er和eα分别为机器人负载的视觉传感器的距离和角度探测误差。机器人感知模型建立中各物理量的几何含义如图2所示。
如前所述的基于主动视觉感知和混沌演化的移动机器人定位方法,其特征在于,第四步骤中所述的执行机构为机器人轮及其转向轴106。
如前所述的基于主动视觉感知和混沌演化的移动机器人定位方法,其特征在于,第四步骤具体包括:
步骤一:生成一个饱和分段函数:
其中,x表示状态变量,k表示以上f函数的斜率,h表示以上f函数的延迟时间,正整数p和q决定了以上f函数的非线性段的范围。把以上饱和分段函数加到一个线性差分方程组中,构成一个非线性差分方程组,代表机器人行为控制器的混沌状态。该非线性差分方程组表达如下:
其中,(x,y)为状态变量的坐标,a,b,c,λ1,λ2都是以上线性差分方程组中的系数,且均为正常数,系数a,b,c用于控制循环单卷的形状和大小,系数λ1,λ2用于控制演化过程的收敛性;
步骤二:根据第三步骤中机器人得到的机器人与路标间的距离信息,引入干扰项,代表视觉传感器可视域范围内所有路标的激励信息。x和y两个方向上施加的干扰项分别用和表示。由于这里仅考虑机器人的二维运动,所以z方向并没有施加信号。第i个路标信号的状态变量(xsi,ysi)可以用一对周期振荡信号表示:
其中,(xcenter,ycenter)为路标信号激励后形成的状态单元的中心,t表示激励的时间,Axsi、ωxsi和分别表示第i个激励信号x方向上状态变量的幅度、频率和相位,Aysi、ωysi和分别表示第i个激励信号y方向上状态变量的幅度、频率和相位,kxi和kyi分别表示x方向和y方向上的反馈控制增益,路标与机器人之间距离和反馈控制增益成反比例;
步骤三:将以上步骤二中引入的干扰项加到以上步骤一生成的非线性差分方程组中,构成系统控制方程组,方程组的解将收敛于某一单卷循环状态,该单卷循环状态的中心特征代表了视觉传感器可视域范围内所有路标的激励信息对机器人行为控制器的总影响。这里的“单卷循环状态”是指当接收到外部激励信号后,状态变量的运动轨迹迅速收敛到一个循环的轨迹中,该轨迹的形状为一个椭圆;该“单卷循环状态的中心特征”是指这个类似于椭圆的“卷”的中心坐标。相应的系统控制方程组如下:
步骤四:确定机器人所在位置和单卷循环状态中心的连线方向,将与该连线方向成90°角的方向确定为机器人下一时刻的运动方向,并确定机器人转向角。机器人运动方向的确定如图3所示;
步骤五:根据以上步骤四确定的机器人转向角,对机器人执行机构施加反馈控制。
如前所述的基于主动视觉感知和混沌演化的移动机器人定位方法,其特征在于,第五步骤中所述的机器人运动模型为:
其中,(xt,yt)表示机器人当前的坐标,(xt+1,yt+1)表示机器人下一时刻的坐标,θt表示机器人当前的运动方向,θt+1表示机器人下一时刻的运动方向,Δl表示利用里程仪测得的机器人运动距离,Δθ表示第四步骤中所述的机器人转向角。机器人运动模型建立中各物理量的几何含义如图4所示。
3、有益效果
与现有技术相比,本发明的优点在于,这种机器人自主定位方法可以最大程度的利用外部环境中的有效信息,最终可以获得高精度的定位信息;同时借助混沌控制技术,使机器人系统具有更准确的神经反应信号表达能力。
四、附图说明
图1机器人传感器配置结构图;
图2机器人感知模型建立中各物理量的几何含义图;
图3机器人运动方向确定图;
图4机器人运动模型建立中各物理量的几何含义图;
图5为机器人规划的路径以及沿路径设置的路标示意图;
图6不同方法下机器人自主生成的位置估计和路径估计图。
五、具体实施方式
以下结合实施例对本发明的技术方案进行进一步说明:
实施例:本实施例涉及一种基于主动视觉感知和混沌演化的移动机器人定位方法,具体包括如下步骤:
第一步骤:机器人传感器安装步骤;在机器人上安装1个可进行360°旋转的数字化云台101,并由步进电机102控制云台旋转,在云台101上安装1个视觉传感器103,构成数字化云台视觉传感系统,同时,在机器人上安装1个里程仪104;
第二步骤:路标设置步骤;在机器人规划行进路径中,设置多个路标,并且这些路标都可以被以上第一步骤所安装的视觉传感系统所识别。本例中为机器人规划的路径以及沿路径设置的路标如图5所示;
第三步骤:机器人感知模型建立步骤;用以上第一步骤所安装的数字化云台视觉传感系统完成主动感知行为,在视觉传感器可视域范围内确定一组观测熵最大的路标作为观测对象,并根据机器人的坐标信息和角度信息,以及路标的坐标信息,建立机器人感知模型,获得机器人与路标间的距离,以及机器人运动方向与路标间的角度。本例中,步进电机的步进角度为6°,视觉传感器可视域为90°,机器人负载的视觉传感器的距离和角度探测误差分别为0.5m和0.2°;
第四步骤:感知-行为动力学回路建立步骤;根据混沌演化机理,建立感知-行为动力学回路,确定机器人转向角,并对机器人执行机构施加反馈控制。本例中系统控制方程组(6)中参数的选取如下:
第五步骤:机器人运动模型更新步骤;利用以上第一步骤所安装的里程仪给出的机器人运动距离,以及以上第四步骤所确定的机器人转向角,完成机器人运动坐标和角度的修正,更新机器人运动模型,实现移动机器人自主定位。
本例中,机器人在以上第二步骤中设置的路径上自主行进,并根据路标自主定位。机器人传感器各参数设置均相同情况下,采用以下三种方法进行比较:(1)固定视觉传感器镜头的方法,即视觉传感器的观测方向始终为机器人前进方向,在本例中我们设计的固定观测方向为机器人前进方向逆时针转90°的方向;(2)随机选择路标的方法,即视觉传感器任意选择一组路标作为观测对象,不考虑所选路标观测熵的大小;(3)本发明所提出的方法。不同方法下机器人自主生成的位置估计和路径估计如图6所示。结果表明,应用本发明所提出的方法,机器人的行进路径最接近实际规划的路径,因此,本发明所提出的方法与传统的机器人定位方法相比,能够提高机器人的自主定位精度。
Claims (7)
1.一种基于主动视觉感知和混沌演化的移动机器人定位方法,包括:
第一步骤:机器人传感器安装步骤;在机器人上安装1个可进行360°旋转的数字化云台,并由步进电机控制云台旋转,在云台上安装1个视觉传感器,构成数字化云台视觉传感系统,同时,在机器人上安装1个里程仪;
第二步骤:路标设置步骤;在机器人规划行进路径中,设置多个路标,并且这些路标都可以被以上第一步骤所安装的视觉传感系统所识别;
第三步骤:机器人感知模型建立步骤;用以上第一步骤所安装的数字化云台视觉传感系统完成主动感知行为,在视觉传感器可视域范围内确定一组观测熵最大的路标作为观测对象,并根据机器人的坐标信息和角度信息,以及路标的坐标信息,建立机器人感知模型,获得机器人与路标间的距离,以及机器人运动方向与路标间的角度;
第四步骤:感知-行为动力学回路建立步骤;根据混沌演化机理,建立感知-行为动力学回路,确定机器人转向角,并对机器人执行机构施加反馈控制 ,这里的“混沌演化”,是指在状态空间中,随着时间的推移,状态变量随时间的运动轨迹;
第五步骤:机器人运动模型更新步骤;利用以上第一步骤所安装的里程仪给出的机器人运动距离,以及以上第四步骤所确定的机器人转向角,完成机器人运动坐标和角度的修正,更新机器人运动模型,实现移动机器人自主定位。
3.如权利要求1所述的基于主动视觉感知和混沌演化的移动机器人定位方法,其特征在于,第三步骤中所述的主动感知行为具体包括下列步骤:
步骤一:步进电机控制数字化云台进行360°旋转,步进角度为常数,在视觉传 感器可视域范围内计算所有路标的观测熵,并依次存储在计算机存储卡中;
步骤二:数字化云台在360°旋转后,选择观测熵最大的方向为主动感知方向,并根据该方向上所采集的路标信息建立感知模型。
5.如权利要求1所述的基于主动视觉感知和混沌演化的移动机器人定位方法,其特征在于,第四步骤中所述的执行机构为机器人轮及其转向轴。
6.如权利要求1所述的基于主动视觉感知和混沌演化的移动机器人定位方法,其特征在于,第四步骤具体包括:
步骤一:生成一个饱和分段函数:
其中,x表示状态变量,k表示以上f函数的斜率,h表示以上f函数的延迟时间,正整数p和q决定了以上f函数的非线性段的范围 ,把以上饱和分段函数加到一个线性差分方程组中,构成一个非线性差分方程组,代表机器人行为控制器的混沌状态,该非线性差分方程组表达如下:
其中,(x,y)为状态变量的坐标,f函数为以上第一步骤中描述的饱和分段函数,a,b,c,λ1,λ2都是以上线性差分方程组中的系数,且均为正常数 ,其中,系数a,b,c用于控制轨迹的形状,系数λ1,λ2用于控制演化过程的收敛性;
步骤二:根据第三步骤中机器人得到的机器人与路标间的距离信息,引入干扰项,代表视觉传感器可视域范围内所有路标的激励信息 ,x和y两个方向上施加的干扰项分别用 和 表示 ,由于这里仅考虑机器人的二维运动,所以z方向并没有施加信号 ,第i个路标信号的状态变量(xsi,ysi)可以用一对周期振荡信号表示:
其中,(xcenter,ycenter)为路标信号激励后形成的状态单元的中心,t表示激励的时间,Axsi、ωxsi和 分别表示第i个激励信号x方向上状态变量的幅度、频率和相位,Aysi、ωysi和 分别表示第i个激励信号y方向上状态变量的幅度、频率和相位,kxi和kyi分别表示x方向和y方向上的反馈控制增益;
步骤三:将以上步骤二中引入的干扰项加到以上步骤一生成的非线性差分方程组中,构成系统控制方程组,方程组的解将收敛于某一单卷循环状态,该单卷循环状态的中心特征代表了视觉传感器可视域范围内所有路标的激励信息对机器人行为控制器的总影响 ,这里的“单卷循环状态”是指当接收到外部激励信号后,状态变量的运动轨迹迅速收敛到一个循环的轨迹中,该轨迹的形状为一个椭圆;该“单卷循环状态的中心特征”是指这个椭圆轨迹的中心坐标,相应的系统控制方程组如下:
步骤四:确定机器人所在位置和单卷循环状态中心的连线方向,将与该连线方向成90°角的方向确定为机器人下一时刻的运动方向,并确定机器人转向角;
步骤五:根据以上步骤四确定的机器人转向角,对机器人执行机构施加反馈控制。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200910035489A CN101691037B (zh) | 2009-10-09 | 2009-10-09 | 一种基于主动视觉感知和混沌演化的移动机器人定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200910035489A CN101691037B (zh) | 2009-10-09 | 2009-10-09 | 一种基于主动视觉感知和混沌演化的移动机器人定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101691037A CN101691037A (zh) | 2010-04-07 |
CN101691037B true CN101691037B (zh) | 2012-10-03 |
Family
ID=42079781
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200910035489A Expired - Fee Related CN101691037B (zh) | 2009-10-09 | 2009-10-09 | 一种基于主动视觉感知和混沌演化的移动机器人定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101691037B (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101887271A (zh) * | 2010-07-19 | 2010-11-17 | 东莞职业技术学院 | 一种移动机器人的路径规划方法 |
CN102339019B (zh) * | 2011-07-26 | 2013-05-15 | 重庆邮电大学 | 一种基于模糊神经网络的智能轮椅避障方法 |
CN103308047B (zh) * | 2013-05-10 | 2016-04-20 | 杭州师范大学 | 一种具有人工在线修正功能的移动机器人定位方法 |
CN103552070B (zh) * | 2013-11-22 | 2015-07-15 | 常州科学与艺术融合技术研究所 | 一种机器人先顺时针再逆时针运动控制方法 |
CN104268551B (zh) * | 2014-09-29 | 2017-08-08 | 浙江理工大学 | 基于视觉特征点的转向角度控制方法 |
CN105867370A (zh) * | 2016-04-05 | 2016-08-17 | 山东理工大学 | 一种移动机器人全覆盖遍历混沌路径规划方法 |
CN105783915A (zh) * | 2016-04-15 | 2016-07-20 | 深圳马路创新科技有限公司 | 机器人基于图形标识和摄像头的全局空间定位方法 |
CN107065858A (zh) * | 2017-02-13 | 2017-08-18 | 四川超影科技有限公司 | 基于超宽带的巡检机器人导航方法 |
CN108255178A (zh) * | 2018-01-18 | 2018-07-06 | 山东理工大学 | 一种巡逻机器人全覆盖遍历路径规划算法的设计方法 |
CN109000655B (zh) * | 2018-06-11 | 2021-11-26 | 东北师范大学 | 机器人仿生室内定位导航方法 |
CN109350510B (zh) * | 2018-08-27 | 2021-06-22 | 重庆市中医院 | 一种自动火针治疗仪及其操作方法 |
CN110447372A (zh) * | 2019-08-30 | 2019-11-15 | 上海工程技术大学 | 一种基于机器视觉的割草机器人的调度方法 |
CN110747933A (zh) * | 2019-10-25 | 2020-02-04 | 广西柳工机械股份有限公司 | 挖掘机自主移动作业控制方法和系统 |
CN111324116B (zh) * | 2020-02-14 | 2021-09-21 | 南京航空航天大学 | 基于粒子滤波的机器人定位方法 |
CN113721636A (zh) * | 2021-10-11 | 2021-11-30 | 珠海城市职业技术学院 | 一种基于移动机器人平台的ai视频跟踪系统 |
CN114905508B (zh) * | 2022-04-19 | 2023-08-22 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 基于异构特征融合的机器人抓取方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1399734A (zh) * | 1999-11-24 | 2003-02-26 | 个人机器人技术公司 | 自主多平台机器人系统 |
CN1925988A (zh) * | 2004-03-27 | 2007-03-07 | 微型机器人株式会社 | 用于位置自控制机器人的导航系统以及用于提供该导航系统使用的绝对坐标的地板材料 |
CN101122800A (zh) * | 2007-08-24 | 2008-02-13 | 北京航空航天大学 | 一种复合式视觉导航方法与装置 |
-
2009
- 2009-10-09 CN CN200910035489A patent/CN101691037B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1399734A (zh) * | 1999-11-24 | 2003-02-26 | 个人机器人技术公司 | 自主多平台机器人系统 |
CN1925988A (zh) * | 2004-03-27 | 2007-03-07 | 微型机器人株式会社 | 用于位置自控制机器人的导航系统以及用于提供该导航系统使用的绝对坐标的地板材料 |
CN101122800A (zh) * | 2007-08-24 | 2008-02-13 | 北京航空航天大学 | 一种复合式视觉导航方法与装置 |
Non-Patent Citations (1)
Title |
---|
JP特开2004-303137A 2004.10.28 |
Also Published As
Publication number | Publication date |
---|---|
CN101691037A (zh) | 2010-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101691037B (zh) | 一种基于主动视觉感知和混沌演化的移动机器人定位方法 | |
CN103926925B (zh) | 一种基于改进的vfh算法的定位与避障方法及机器人 | |
CN103699125B (zh) | 一种基于鼠脑海马导航的机器人仿真导航方法 | |
Xia et al. | Neural inverse reinforcement learning in autonomous navigation | |
CN109240279B (zh) | 一种基于视觉感知和空间认知神经机制的机器人导航方法 | |
CN110631596B (zh) | 一种基于迁移学习的装备车辆路径规划方法 | |
CN102297687B (zh) | 一种电子罗盘的标定方法 | |
CN110750096A (zh) | 静态环境下基于深度强化学习的移动机器人避碰规划方法 | |
CN107092256B (zh) | 一种无人车转向控制方法 | |
CN108229730B (zh) | 一种基于模糊奖励的无人驾驶车辆轨迹生成方法 | |
CN104964683B (zh) | 一种室内环境地图创建的闭环校正方法 | |
Kozma et al. | Computational aspects of cognition and consciousness in intelligent devices | |
Guo et al. | Shallow-sea application of an intelligent fusion module for low-cost sensors in AUV | |
CN109799829A (zh) | 一种基于自组织映射的机器人群体协同主动感知方法 | |
CN116225055A (zh) | 一种复杂环境下基于状态分解的无人机自主航迹规划算法 | |
Zhou et al. | A new single point preview-based human-like driver model on urban curved roads | |
CN111811502A (zh) | 一种运动载体多源信息融合导航方法及系统 | |
CN109764876A (zh) | 无人平台的多模态融合定位方法 | |
CN101554725A (zh) | 一种基于混沌机理的机器人自主导航方法 | |
Yi et al. | MPPTM: A bio-inspired approach for online path planning and high-accuracy tracking of UAVs | |
Qu et al. | Path tracking of underground mining boom roadheader combining BP neural network and state estimation | |
CN116477505A (zh) | 一种基于深度学习的塔机实时路径规划系统及方法 | |
CN101604167B (zh) | 一种基于几何特征辅助和混沌感知的机器人自主定向方法 | |
Sünderhauf et al. | Learning from nature: biologically inspired robot navigation and SLAM—a review | |
CN107807534A (zh) | 一种多轮式机器人自适应协同控制算法及控制系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20121003 Termination date: 20131009 |