CN110928311B - 一种基于全景相机下直线特征的室内移动机器人导航方法 - Google Patents
一种基于全景相机下直线特征的室内移动机器人导航方法 Download PDFInfo
- Publication number
- CN110928311B CN110928311B CN201911295204.1A CN201911295204A CN110928311B CN 110928311 B CN110928311 B CN 110928311B CN 201911295204 A CN201911295204 A CN 201911295204A CN 110928311 B CN110928311 B CN 110928311B
- Authority
- CN
- China
- Prior art keywords
- mobile robot
- panoramic camera
- robot
- polar
- target image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000003384 imaging method Methods 0.000 claims abstract description 16
- 230000008569 process Effects 0.000 claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000007613 environmental effect Effects 0.000 claims description 12
- 239000000126 substance Substances 0.000 claims description 3
- 239000004576 sand Substances 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims 1
- 230000000007 visual effect Effects 0.000 abstract description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000004088 simulation Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0223—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
一种基于全景相机下直线特征的室内移动机器人导航方法,涉及机器人学、机器视觉与控制技术领域。本发明的目的是为了保证采用基于图像的视觉伺服方法控制移动机器人时,目标图像特征整个过程都在相机视野范围内。本发明采用了全景相机,针对室内的应用环境而言可以获取到更为丰富的外部环境信息,除此之外相较于单点采取了更为稳定的直线特征作为图像特征,图像特征始终出现在视野范围之内。另外针对全景相机非线性成像的特点,实现了机器人空间姿态与图像信息的一一对应关系,从而确保了系统的鲁棒性,使得伺服控制系统对于环境的适应性更强。
Description
技术领域
本发明属于机器人学、机器视觉与控制技术领域,尤其涉及移动机器人视觉伺服控制技术。
背景技术
移动机器人是一个集环境感知、动态决策与规划、行为控制与执行等多功能于一体的综合系统。而配置相应的传感器是移动机器人获取外界信息的必要条件,其中视觉传感器是现今应用最为广泛的传感器类型,它使得机器人能够通过二维三维图像识别环境信息,从而应用于导航、交互、规划等复杂工作环境。
在诸多相机传感器中,全景相机由于其视场大的优势逐渐成为机器视觉领域的研究热点。相比较于传统针孔成像原理的相机,全景相机由于其独特的统一球面投影模型使得其成像呈现非线性的特点。对于室内移动机器人而言,若能解决非线性成像模型的问题,全景相机大视场这一优势将有助于机器人获得更为丰富的外界环境信息。
针对移动机器人的控制,视觉传感器提供了诸多有效的解决方案,其中视觉伺服控制由于直接利用视觉信息建立图像坐标系和空间坐标系之间的映射关系,具有较好的控制鲁棒性。常见的视觉伺服主要有基于位置的视觉伺服方法(PBVS)和基于图像的视觉伺服方法(IBVS),PBVS优势在于直接利用笛卡尔坐标空间位姿偏差作为控制先决条件,但是需要建立在视觉系统高精度的标定基础上;而IBVS是直接计算当前图像特征与期望特征的偏差,再通过雅可比矩阵换算到机器人控制量,并在系统运行过程中进行实时更新,这种策略关键点在于雅可比矩阵的构造,并不要求相关空间位姿信息,但是要求目标图像特征整个过程都在相机视野范围内。
发明内容
本发明的目的是为了保证采用基于图像的视觉伺服方法控制移动机器人时,目标图像特征整个过程都在相机视野范围内,现提供一种基于全景相机下直线特征的室内移动机器人导航方法。
一种基于全景相机下直线特征的室内移动机器人导航方法,所述方法为包括以下步骤:
S1:建立移动机器人活动区域的空间坐标系,所述移动机器人上设有全景相机,
S2:利用全景相机采集t时刻移动机器人活动区域的图像,
S3:识别S2获得图像中的环境图像特征,并获得移动机器人在运动过程中该环境图像特征的实时成像位置,根据实时成像位置获得移动机器人在空间坐标系中任意位姿下的目标图像特征s;
S4:根据机器人期望位姿下的环境信息得到期望的图像特征s*、并计算图像特征的偏差Δs=s-s*,
S5:判断是否满足Δs<δ,其中δ为预设偏差阈值,
是则移动机器人已经达到理想位姿,结束移动机器人的导航,否则执行S6,
S6:利用目标图像特征s构建t时刻的雅可比矩阵;
S7:根据偏差值Δs和t时刻的雅可比矩阵,结合机器人运动参数,获得移动机器人的角速度,利用该角速度控制移动机器人运动,
S8:使t=t+1,返回S2。
本发明的技术效果在于,与现有视觉伺服控制系统多采用单目针孔相机不同,本发明采用了全景相机,其具有大视场的优势,针对室内的应用环境而言可以获取到更为丰富的外部环境信息,除此之外相较于单点采取了更为稳定的直线特征作为图像特征,从而能够保证在IBVS的伺服控制过程中,图像特征始终出现在视野范围之内。另外针对全景相机非线性成像的特点,借鉴了相关多视图几何的知识,借助投影中心计算出曲线的极线,作为新的图像特征,既满足了通用的伺服控制对象选取原则,又与实际环境直线相联系起来,实现了机器人空间姿态与图像信息的一一对应关系,从而确保了系统的鲁棒性,使得伺服控制系统对于环境的适应性更强。
附图说明
图1为本发明所述的一种基于全景相机下直线特征的室内移动机器人导航方法的流程图;
图2为全景相机的统一球面投影模型图;
图3为走廊平行直线下机器人不同位置处的图像示意图;
图4为过门垂直直线下机器人不同位置处的图像示意图;
图5为走廊平行直线下的图像特征选取示意图;
图6为过门垂直直线下的图像特征选取示意图;
图7为移动机器人运动模型示意图;
图8为走廊环境轨迹仿真图,其中,(a)为机器人轨迹,(b)为xf,(c)为θm,(d)为走廊中的相对位置,(e)为方位角,(f)为角速度;
图9为同一位置出发测试不同比例参数的收敛效果差异仿真图;
图10为回环过程的局部以及全局的轨迹仿真图,(a)首个拐角处运行轨迹的俯视视角,(b)首个拐角处运行估计的三维视角,(c)回环运行过程中全局轨迹的俯视视角。
具体实施方式
具体实施方式一:参照图1和图2具体说明本实施方式,本实施方式所述的一种基于全景相机下直线特征的室内移动机器人导航方法,所述方法为包括以下步骤:
S1:建立移动机器人活动区域的空间坐标系,所述移动机器人上设有全景相机。
S2:利用全景相机采集t时刻移动机器人活动区域的图像。
S3:识别S2获得图像中的环境图像特征,并获得移动机器人在运动过程中该环境图像特征的实时成像位置,根据实时成像位置获得移动机器人在空间坐标系中任意位姿下的目标图像特征s;
所述目标图像特征为:全景相机采集图像中的曲线相对于投影中心的极线直线特征,所述曲线为移动机器人实际活动区域中的直线在全景相机成像中所形成的曲线,所述直线为移动机器人实际活动区域中稳定的、能够被相机提取的直线;
所述环境图像特征的表达式为:
投影中心的表达式为:
目标图像特征的直线极坐标形式为:s=(ρm,θm),
上述公式中,γ为全景相机镜头中轴线与水平方向的夹角,nx、ny和nz分别为空间坐标系下方向向量的x轴分量、y轴分量和z轴分量,ξ为相机内参相关量,cx和cy分别为投影中心的纵坐标和纵坐标,ρm和θm分别为极坐标的极径和极角。
在上述S3中,由于全景相机其投影模型有别于常见的针孔成像模型,属于非线性成像。因此在获取全景相机下室内环境特征畸变成像得到的曲线图像特征,可以看到三维世界坐标系下的直线经投影成像为像平面上的曲线。
设世界坐标系下直线的参数方程nxx+nyy+nzz=0,以及标定得到的全景相机内参矩阵Hc:
由于二次曲线理论上具有多达5个自由度,直接作为图像特征太过冗余,并且期望位姿下的图像特征数值也不易于求解,根据多视图几何知识以及标定得到的投影中心参数,采用投影中心关于曲线的极线特征作为控制目标,则有上述目标图像特征的直线表达式该式也可以写成之前的参数方程形式:nxx+nyy+nzz=0。
综上可以看出该直线方程具有两个自由度,因此,以目标图像特征的直线极坐标形式可以表示为s=(ρm,θm),控制目标参数量与运动参数量相一致。于是任务控制目标又转化为了直线图像特征。
上述步骤中,采取求解中线和三角形边的交点坐标(xf,yf)来间接求解出直线极坐标s=(ρm,θm)。
对于水平直线情况,我们首先可以根据中线性质,通过左右两极线的倾斜角直接求得θm,从而避免了计算中线方程,计算式为:接着,由于是与归一化X轴交点,自然有yf=0,并且ρm可以直接利用两条极线与X轴的交点求得,最后ρm可以表示为:ρm=xf cosθm+yf sinθm。
而对于垂直直线情况,若仍利用上述的与X轴的交点会有:xf=D tanθm=tanγtanθm是一个定值,而采用门框极线作为中线所在边后,再求解交点就避免了上述的问题,最后ρm可以表示为:ρm=|xf sinθm+yf cosθm|。
S4:根据机器人期望位姿下的环境信息得到期望的图像特征s*(该期望的图像特征s*为预先设定好的)、并计算图像特征的偏差Δs=s-s*。
S5:判断是否满足Δs<δ,其中δ为预设偏差阈值,
是则移动机器人已经达到理想位姿,结束移动机器人的导航,否则执行S6,
S6:利用目标图像特征s构建t时刻的雅可比矩阵Ls;
所述雅可比矩阵Ls的表达式如下:
S7:根据偏差值Δs和t时刻的雅可比矩阵,结合机器人运动参数,获得移动机器人的角速度,利用该角速度控制移动机器人运动;
具体的,将雅可比矩阵Ls与机器人运动参数结合,获得雅可比矩阵的定义形式:
其中,由于相机放置位置与机器人运动中心存在偏移,因此机器人的运动在相机坐标系下需要通过一个变换矩阵加以处理,τ=[v,ω]T为参数运动参数,为目标图像运动特征、其在机器人低速运动的条件下可以忽略不计;
再考虑设定线速度v为恒定值,即拆分雅可比矩阵为Jv和Jω两部分,于是原雅克比矩阵可以改写为如下形式:
-λe=Jvv+Jωω,
上述公式中,λ为机器人控制器的比例参数,e为目标图像特征量的误差,v为机器人线速度,γ为全景相机镜头中轴线与水平方向的夹角,ρm和θm分别为极坐标的极径和极角,h为全景相机与地面之间的距离,l为相机在机器人坐标系下x轴方向的偏置,w为相机在机器人坐标系下y轴方向的偏置,和分别为雅可比矩阵的极径参量和极角参量,
S8:使t=t+1,返回S2进行下一时刻的导航。
具体实施方式二:本实施方式是对具体实施方式一所述的一种基于全景相机下直线特征的室内移动机器人导航方法的具体说明,本实施方式中,提到了本方法的应用场景。设想场景主要有两个,一个是利用走廊平行直线沿走廊运动的情景,另一个是利用门框垂直线实现过门任务的场景。这两种场景对应的相机获取图像示意图分别见图3和图4。可以看出二者即使在理想位姿情况下,可以利用的也只有两条极线关于归一化y轴对称这么一个条件。具体理想的极线极坐标需要结合内外参数进行求解,这对于标定的精度就提出了很高的要求。
又由于两条极线对应直线世界坐标系下相互平行,因此有nx,1=nx,2,进而可以得到亦即交点D的归一化纵坐标恒定,于是可以利用两条极线加上归一化像平面的X轴构造三角形如图5所示,选取归一化X轴的中线作为控制目标,可以通过理论推导得出其理想位姿下图像位置与归一化Y轴相重合,亦即(ρm,θm)=(0,0)。
类似的对于过门垂直直线情况,极线交点D的性质更为特殊,其纵坐标依旧恒定为并且始终坐落于归一化Y轴上,此时无法像走廊平行情况那样继续以双极线加归一化X轴构造三角形,因为此时中线始终过定点自由度为1。因此对于垂直情况,我们引入一条新的极线,对应门框投影所成曲线,如图6所示。此时以三条极线构造三角形,以门框极线所在边的中线作为控制目标,理想位姿下其图像位置同上,也是与归一化Y轴相重合,同样可以表示为(ρm,θm)=(0,0)。
如图8为走廊环境下的轨迹仿真图以及各参数变量的变化曲线图,从图中可以看出方位角以及偏移距离最终都趋向于理想期望值0,并且整个过程角速度变化平缓,呈逐渐趋近于0的走势。如图9分别是测试不同出发点、图像噪声等级以及比例常数不同对轨迹收敛的影响,可以看出在多次试验中轨迹最终都能实现较好的收敛效果。图10是针对一个走廊回环的仿真,其中综合应用到了走廊平行直线和过门垂直直线的控制律,并在转弯前后的时刻实现控制律的切换,仿真结果表明切换过程可以实现平滑过渡,并且未对轨迹的平滑产生较大的影响,达到了预期的效果。
综合上述理论推导以及仿真实验可以看出,本发明能够很好的实现走廊沿线以及过门这两种室内导航任务,移动轨迹平滑切收敛误差很小,导航精度较高,可以认为本发明通过设计的基于全景相机下直线特征的视觉伺服控制器,达到了理想的任务位姿,实现了预期的目标。
Claims (1)
1.一种基于全景相机下直线特征的室内移动机器人导航方法,其特征在于,所述方法为包括以下步骤:
S1:建立移动机器人活动区域的空间坐标系,所述移动机器人上设有全景相机,
S2:利用全景相机采集t时刻移动机器人活动区域的图像,
S3:识别S2获得图像中的环境图像特征,并获得移动机器人在运动过程中该环境图像特征的实时成像位置,根据实时成像位置获得移动机器人在空间坐标系中任意位姿下的目标图像特征s;
S4:根据机器人期望位姿下的环境信息得到期望的图像特征s*、并计算图像特征的偏差Δs=s-s*,
S5:判断是否满足Δs<δ,其中δ为预设偏差阈值,
是则移动机器人已经达到理想位姿,结束移动机器人的导航,否则执行S6,
S6:利用目标图像特征s构建t时刻的雅可比矩阵;
S7:根据偏差值Δs和t时刻的雅可比矩阵,结合机器人运动参数,获得移动机器人的角速度,利用该角速度控制移动机器人运动,
S8:使t=t+1,返回S2;
S3中所述目标图像特征为:全景相机采集图像中的曲线相对于投影中心的极线直线特征,
所述曲线为移动机器人实际活动区域中的直线在全景相机成像中所形成的曲线,
所述直线为移动机器人实际活动区域中稳定的、能够被相机提取的直线;
环境图像特征的表达式为:
投影中心的表达式为:
目标图像特征的直线极坐标形式为:s=(ρm,θm),
上述公式中,γ为全景相机镜头中轴线与水平方向的夹角,nx、ny和nz分别为空间坐标系下方向向量的x轴分量、y轴分量和z轴分量,ξ为相机内参相关量,cx和cy分别为投影中心的纵坐标和纵坐标,ρm和θm分别为目标图像特征直线极坐标的极径和极角;
S6中所述的雅可比矩阵Ls的表达式如下:
其中,
h为全景相机与地面之间的距离,ρm和θm分别为目标图像特征直线极坐标的极径和极角,γ为全景相机镜头中轴线与水平方向的夹角;
S7具体步骤如下:
将雅可比矩阵Ls与机器人运动参数结合,获得雅可比矩阵的定义形式:
对上式进一步改写:
其中,为变换矩阵,τ=[v,ω]T为运动参数,为目标图像运动特征,v为机器人线速度,λ为机器人控制器的比例参数,e为目标图像特征量的误差,γ为全景相机镜头中轴线与水平方向的夹角,ρm和θm分别为目标图像特征直线极坐标的极径和极角,h为全景相机与地面之间的距离,l为相机在机器人坐标系下x轴方向的偏置,w为相机在机器人坐标系下y轴方向的偏置,和分别为雅可比矩阵的极径参量和极角参量,
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911295204.1A CN110928311B (zh) | 2019-12-16 | 2019-12-16 | 一种基于全景相机下直线特征的室内移动机器人导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911295204.1A CN110928311B (zh) | 2019-12-16 | 2019-12-16 | 一种基于全景相机下直线特征的室内移动机器人导航方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110928311A CN110928311A (zh) | 2020-03-27 |
CN110928311B true CN110928311B (zh) | 2021-11-19 |
Family
ID=69863783
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911295204.1A Active CN110928311B (zh) | 2019-12-16 | 2019-12-16 | 一种基于全景相机下直线特征的室内移动机器人导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110928311B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111650936B (zh) * | 2020-06-03 | 2023-01-17 | 杭州迦智科技有限公司 | 一种伺服控制方法、处理器、存储介质和可移动平台 |
CN112135042B (zh) * | 2020-09-18 | 2023-04-18 | 成都圭目机器人有限公司 | 一种地面移动机器人搭载相机的调整和标定方法 |
CN115578426B (zh) * | 2022-10-25 | 2023-08-18 | 哈尔滨工业大学 | 一种基于稠密特征匹配的室内服务机器人重定位方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5974348A (en) * | 1996-12-13 | 1999-10-26 | Rocks; James K. | System and method for performing mobile robotic work operations |
US8896660B2 (en) * | 2003-05-30 | 2014-11-25 | Alcatel Lucent | Method and apparatus for computing error-bounded position and orientation of panoramic cameras in real-world environments |
CN106092086B (zh) * | 2016-06-12 | 2018-08-31 | 哈尔滨工程大学 | 一种基于全景视觉的快速、高鲁棒性的机器人室内定位方法 |
CN107193279A (zh) * | 2017-05-09 | 2017-09-22 | 复旦大学 | 基于单目视觉和imu信息的机器人定位与地图构建系统 |
CN109029444B (zh) * | 2018-06-12 | 2022-03-08 | 深圳职业技术学院 | 一种基于图像匹配和空间定位的室内导航系统及导航方法 |
CN108981720A (zh) * | 2018-10-25 | 2018-12-11 | 哈尔滨工业大学 | Uwb与惯导融合的室内导航系统 |
-
2019
- 2019-12-16 CN CN201911295204.1A patent/CN110928311B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110928311A (zh) | 2020-03-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110928311B (zh) | 一种基于全景相机下直线特征的室内移动机器人导航方法 | |
CN107907131B (zh) | 定位系统、方法及所适用的机器人 | |
Prusak et al. | Pose estimation and map building with a time-of-flight-camera for robot navigation | |
Li et al. | Visual servoing of wheeled mobile robots without desired images | |
Alizadeh | Object distance measurement using a single camera for robotic applications | |
CN105096341A (zh) | 基于三焦张量和关键帧策略的移动机器人位姿估计方法 | |
Nelson et al. | Robotic visual servoing and robotic assembly tasks | |
WO2022156447A1 (zh) | 定位方法和装置、计算机装置和计算机可读存储介质 | |
Yuwen et al. | Gaze control for active visual SLAM via panoramic cost map | |
US20210156710A1 (en) | Map processing method, device, and computer-readable storage medium | |
CN108927807A (zh) | 一种基于点特征的机器人视觉控制方法 | |
CN113051767A (zh) | 一种基于视觉伺服的agv滑模控制方法 | |
CN112288801A (zh) | 应用于巡检机器人的四位一体自适应跟踪拍摄方法及装置 | |
Wang et al. | Design of multi-robot cooperative transport system | |
López-Nicolás et al. | Vision-based exponential stabilization of mobile robots | |
CN110722547B (zh) | 模型未知动态场景下移动机器人视觉镇定 | |
Gans et al. | Visual servoing to an arbitrary pose with respect to an object given a single known length | |
Cao et al. | Adaptive dynamic surface control for vision-based stabilization of an uncertain electrically driven nonholonomic mobile robot | |
Ma et al. | Moving to OOP: An active observation approach for a novel composite visual servoing configuration | |
Xiong et al. | 3d depth map based optimal motion control for wheeled mobile robot | |
US20200376678A1 (en) | Visual servo system | |
CN109146957B (zh) | 一种基于三角形特征的机器人视觉控制方法 | |
Hwang et al. | Robust 2D map building with motion-free ICP algorithm for mobile robot navigation | |
Cao et al. | Visual Servo Control for wheeled robot platooning based on homography | |
Ma et al. | Selection of observation position and orientation in visual servoing with eye-in-vehicle configuration for manipulator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220519 Address after: 241000 office building of national industrial robot product quality supervision and inspection center, No. 17 Shenzhou Road, Jiujiang Economic and Technological Development Zone, Wuhu City, Anhui Province Patentee after: Wuhu Robot Industry Technology Research Institute of Harbin Institute of Technology Address before: 150001 No. 92 West straight street, Nangang District, Heilongjiang, Harbin Patentee before: HARBIN INSTITUTE OF TECHNOLOGY |