CN105243665A - 一种机器人双足定位方法和装置 - Google Patents
一种机器人双足定位方法和装置 Download PDFInfo
- Publication number
- CN105243665A CN105243665A CN201510652127.6A CN201510652127A CN105243665A CN 105243665 A CN105243665 A CN 105243665A CN 201510652127 A CN201510652127 A CN 201510652127A CN 105243665 A CN105243665 A CN 105243665A
- Authority
- CN
- China
- Prior art keywords
- robot
- camera
- image
- information
- identification
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Abstract
本发明提供了一种机器人双足定位方法,包括:通过设置在所述机器人活动区域上部的摄像头获取包括所述机器人的标识信息的图像;根据预先标定的摄像头位置信息和摄像头获取的包括所述标识信息的图像,计算所述机器人标识信息部的真实位置信息;根据机器人标识信息部与足部的空间位置关系,以及所述机器人标识信息部的真实位置信息,计算所述机器人的足部位置信息。本发明可快速有效的确定机器人双足位置,从而有效的适应环境不断变化的人居环境。
Description
技术领域
本发明属于机器人领域,尤其涉及一种机器人双足定位方法和装置。
背景技术
仿人机器人是具有和人类接近的外形,并且可以接受人类指挥,或者可以运行预先编排的程序行动的智能装置。仿人机器人能够较好的完成人类安排的工作,并且具有与人相近的外形,在使用过程中能够给人们生活带来帮助。
在仿真机器人运行过程中,实现仿人机器人在动态环境中的运动,是实现仿人机器人其它服务功能的基础。目前机器人室内运动规划研究主要集中在轮式机器人上,同时对于环境的感知和机器人的自身定位一般用SLAM(英文全称为:simultaneouslocalizationandmapping,中文全称为:即时定位与地图构建)方法,即通过机载摄像头感知局部环境,利用局部环境的特征与已构建好的环境信息地图中的特征进行匹配,根据匹配结果对机器人进行定位,具有定位速度较快的优点。
然而,由于机载摄像头只能对局部环境进行感知,在获取环境信息上很容易出现视觉死区,同时机载摄像头的定位一般都要首先构建环境信息地图,因而,现有的定位方法不能快速有效的定位机器人的双足位置,不能适应环境不断变化的人居环境。
发明内容
本发明的目的在于提供一种机器人双足定位方法,以解决现有技术的定位方法不能快速有效的定位机器人的双足位置,不能适应环境不断变化的人居环境的问题。
第一方面,本发明实施例提供了一种机器人双足定位方法,所述方法包括:
通过设置在所述机器人活动区域上部的摄像头获取包括所述机器人的标识信息的图像;
根据预先标定的摄像头位置信息和摄像头获取的包括所述标识信息的图像,计算所述机器人标识信息部的真实位置信息;
根据机器人标识信息部与足部的空间位置关系,以及所述机器人标识信息部的真实位置信息,计算所述机器人的足部位置信息。
结合第一方面,在第一方面的第一种可能实现方式中,所述通过设置在所述机器人活动区域上部的摄像头获取包括所述机器人的标识信息的图像步骤包括:
通过摄像头获取包括机器人标识信息部的标识信息的图像,所述标识信息包括至少两个颜色标识区域;
获取所述标识信息中的颜色标识区域在摄像头的成像图像中的位置信息。
结合第一方面的第一种可能实现方式,在第一方面的第二种可能实现方式中,所述获取所述标识信息中的颜色标识区域在摄像头的成像图像中的位置信息步骤包括:
将通过RGB摄像头获取的RGB特征空间的图像转换为HSV特征空间的图像,在所述HSV特征空间的图像获取所述颜色标识区域,获取所述颜色标识区域的中心位置为所述颜色标识区域在摄像头的成像图像中的位置信息。
结合第一方面或者第一方面的第二种可能实现方式,在第一方面的第三种可能实现方式中,所述根据机器人标识信息部与足部的空间位置关系、预先标定的摄像头位置信息,以及所述机器人标识信息部的位置信息,计算所述机器人的足部位置信息步骤包括:
根据公式 计算得到所述机器人标识信息部在摄像头的成像图像中的成像位置,以及机器人的朝向,其中,为机器人的朝向,(xp1,yp1)、(xp2,yp2)分别为机器人标识信息部的标识信息在摄像头的成像图像中的两个坐标点,(x1,y1)为机器人标识信息部在摄像头的成像图像中的成像位置;
根据公式计算机器人标识信息部的真实位置信息,其中,(x2,y2)为机器人标识信息部的真实位置信息,hc为标定的摄像头的高度,h为机器人的高度,(xc,yc)为摄像头对应的位置。
结合第一方面,在第一方面的第四种可能实现方式中,所述根据机器人标识信息部与足部的空间位置关系,以及所述机器人标识信息部的真实位置信息,计算所述机器人的足部位置信息步骤包括:
根据机器人标识信息部的真实位置信息,以及机器人的双足与标识信息部之间的关节的旋转角度确定所述机器人的足部位置信息。
第二方面,本发明实施例提供了一种机器人双足定位装置,所述装置包括:
图像获取单元,用于通过设置在所述机器人活动区域上部的摄像头获取包括所述机器人的标识信息的图像;
标识信息部位置计算单元,用于根据预先标定的摄像头位置信息和摄像头获取的包括所述标识信息的图像,计算所述机器人标识信息部的真实位置信息;
足部位置计算单元,用于根据机器人标识信息部与足部的空间位置关系,以及所述机器人标识信息部的真实位置信息,计算所述机器人的足部位置信息。
结合第二方面,在第二方面的第一种可能实现方式中,所述图像获取单元包括:
颜色标识区域获取子单元,用于通过摄像头获取包括机器人标识信息部的标识信息的图像,所述标识信息包括至少两个颜色标识区域;
颜色标识区域位置确定子单元,用于获取所述标识信息中的颜色标识区域在摄像头的成像图像中的位置信息。
结合第二方面的第一种可能实现方式,在第二方面的第二种可能实现方式中,所述颜色标识区域位置确定子单元具体用于:
将通过RGB摄像头获取的RGB特征空间的图像转换为HSV特征空间的图像,在所述HSV特征空间的图像获取所述颜色标识区域,获取所述颜色标识区域的中心位置为所述颜色标识区域在摄像头的成像图像中的位置信息。
结合第二方面或第二方面的第二种可能实现方式,在第二方面的第三种可能实现方式中,所述标识信息部位置计算单元包括:
成像位置计算子单元,用于根据公式 计算得到所述机器人标识信息部在摄像头的成像图像中的成像位置,以及机器人的朝向,其中,为机器人的朝向,(xp1,yp1)、(xp2,yp2)分别为机器人标识信息部的标识信息在摄像头的成像图像中的两个坐标点,(x1,y1)为机器人标识信息部在摄像头的成像图像中的成像位置;
真实位置计算子单元,用于根据公式计算机器人标识信息部的真实位置信息,其中,(x2,y2)为机器人标识信息部的真实位置信息,hc为标定的摄像头的高度,h为机器人的高度,(xc,yc)为摄像头对应的位置。
结合第二方面,在第二方面的第四种可能实现方式中,所述足部位置计算单元具体用于:
根据机器人标识信息部的真实位置信息,以及机器人的双足与标识信息部之间的关节的旋转角度确定所述机器人的足部位置信息。
在本发明中,通过在机器人活动区间上部设置摄像头,由摄像头拍摄包括机器人标识信息部的标识信息的图像,通过拍摄的图像、预先标定的摄像头的位置信息,确定机器人标识信息部的真实位置,并根据机器人标识信息部的真实位置,结合机器人标识信息部与足部的空间位置关系,确定所述机器人足部的位置信息。由于通过位于运动区域上部的摄像头获取的图像信息能够获取不断变化的人居环境的动态环境信息以及快速有效的确定机器人双足位置,从而有效的适应环境不断变化的人居环境。
附图说明
图1是本发明实施例提供的机器人双足定位方法的实现流程图;
图2是本发明实施例提供的机器人活动场景的示意图;
图3是本发明实施例提供的机器人标识信息部视图;
图4是本发明实施例提供的机器人双足的足迹定义示意图;
图5为本发明实施例提供的机器人双足自由度示意图;
图6为本发明实施例提供的机器人双足定位装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明实施例的目的在于解决现有技术中进行机器人双足定位时,通常采用的SLAM即时定位与地图构建方法,通过机载摄像头感知局部环境,利用局部环境与已构建好的环境信息地图中的特征进行匹配的方式进行定位,由于SLAM方法构建环境地图信息的过程比较复杂,并且由于人居环境中的环境地图信息不断发生变化,因此,不能够适应机器人快速有效的进行双足定位,机器人不能有效的适应动态变化的人居环境。为解决该问题,本发明利用全局视觉信息来捕捉机器人的标识信息部位置,通过空间关系确定机器的双足位置,计算速度快,能够很好的集成到仿人机器人运动控制系统中,完成机器人的准确控制。下面结合附图具体说明。
图1示出了本发明实施例提供的机器人双足定位方法的实现流程,详述如下:
在步骤S101中,通过设置在所述机器人活动区域上部的摄像头获取包括所述机器人的标识信息的图像。
具体的,如图2所示为本发明实施例提供的机器人活动场景的示意图,在图2中,位于机器人的活动区域上部,设置有可用于拍摄机器人所在活动区域的摄像头,所述摄像头可以按照设定的频率拍摄活动区域的图像,并将拍摄的图像发送给需要进行定位控制的机器人。
所述摄像头的位置可设置在机器人活动区域的中心位置处,这样可以使得摄像头可更为可靠的采集到机器人的图像信息,为后续通过拍摄的图像对机器人进行定位提供更为可靠的计算依据,可以理解的是,这只是一种较为优选的设置方式,但并不能作为本发明实施例对于摄像头的设置方式的限制。并且,摄像头的高度需要至少高于机器人的高度,当摄像头垂直向下拍摄图像时,能够拍摄到机器人活动区域的全部图像为宜。
当然,对于活动区域较大时,也可以设置多个摄像头,通过多个摄像头对大的活动区域进行分割,可以实现对采集的机器人图像更为准确的要求。
所述机器人的活动区域,可以为人居环境的房间、广场或者其它位置较为平整的区域。
所述机器人的标识信息部的标识信息,可以为图像、文字等标识信息,也可以为颜色标识信息。所述标识信息优选的设置方式为设置在头顶,这样可以方便位于机器人上部的摄像头对标识信息进行拍摄定位。
作为本发明其中一种优选的实施方式,所述通过设置在所述机器人活动区域上部的摄像头获取包括所述机器人的标识信息的图像步骤包括:
通过摄像头获取包括机器人标识信息部的标识信息的图像,所述标识信息包括至少两个颜色标识区域;
获取所述标识信息中的颜色标识区域在摄像头的成像图像中的位置信息。
具体的,当使用颜色标识区域进行识别时,所述摄像头采用彩色摄像头,比如可以为RGB摄像头,并且摄像头的像素需要大于一定的值,在摄像头像素越大,分辨率越高时,采集的图像中的机器人数据可靠性也越高。
所述机器人标识信息部的颜色标识区域,至少包括两个,并且颜色区域的位置配置方式预先进行设定。比如设定两个颜色标识区域,第一颜色标识区域设置在在机器人标识信息部的前部,第二颜色标识区域设置在机器人标识信息部的后部。同样,当多种颜色时,也可以根据这种方式进行设置。这样,当摄像头获取到颜色信息后,通过颜色的排列方向,可以得到当前机器人的朝向。比如设置两个颜色标识区域,且第一颜色标识区域在前部,第二颜色标识区域在后部时,则根据第一颜色标识区域相对于第二颜色标识区域的方向,即为当前机器人的朝向。
所述颜色标识区域的颜色,不同的颜色标识区域使用的颜色的亮度值,或者色调的差值较大,比如需要保证亮度值的差值大于一定数值,或者色调的差值大于一定数值,从而能够更好的进行识别。
在本发明实施例中,所述获取所述标识信息中的颜色标识区域在摄像头的成像图像中的位置信息步骤包括:
将通过RGB摄像头获取的RGB特征空间的图像转换为HSV特征空间的图像,在所述HSV特征空间的图像获取所述颜色标识区域,获取所述颜色标识区域的中心位置为所述颜色标识区域在摄像头的成像图像中的位置信息。
将RGB特征空间的图像转换为HSV(色调H、饱和度S、亮度V)特征空间的图像,进行颜色标识区域的识别,可以更为准确的识别所述颜色标识区域的位置。可以理解的是,本申请通过将RGB特征空间的图像转换到HSV特征空间进行特征提取,其好处是可以能够更好的适应环境光线影响,但并不局限于一定要在HSV特征空间中进行特征提取,在RGB特征空间、HSL特征空间等基于色彩空间的所有特征都能够适用于本方法。
如图3所示为本发明实施例提供的机器人标识信息部视图,包括两个颜色标识区域19,根据得到的图像中的颜色区域的中心位置20和21作为颜色标识区域的位置信息。
所述标识信息部,可以为所述机器人的头部,也可以为机器人的肩部等位置,所述标识信息部的位置的选择标准以摄像头能够方便的采集标识信息为佳,根据机器人的不同形状,可以灵活进行设定。
在步骤S102中,根据预先标定的摄像头位置信息和摄像头获取的包括所述标识信息的图像,计算所述机器人标识信息部的真实位置信息。
在本发明实施例中,所述摄像头的位置信息,包括摄像头的高度信息,以及摄像头在成像的图像中,摄像头垂直对应的位置。如图2所示,所述摄像头的高度信息表示为hc,所述摄像头对应于成像的图像中的坐标位置为(x1,y1)。
所述摄像头获取的图像,是指摄像头通过指定的拍摄方式,比如按照预定的时间间隔拍摄的图像。所述图像由位于机器人上部的摄像头拍摄,因而可以拍摄到机器人标识信息部的标识信息。
所述根据机器人标识信息部与足部的空间位置关系、预先标定的摄像头位置信息,以及所述机器人标识信息部的位置信息,计算所述机器人的足部位置信息步骤包括:
根据公式 计算得到所述机器人标识信息部在摄像头的成像图像中的成像位置,以及机器人的朝向,其中,为机器人的朝向,(xp1,yp1)、(xp2,yp2)分别为机器人标识信息部的标识信息在摄像头的成像图像中的两个坐标点,(x1,y1)为机器人标识信息部在摄像头的成像图像中的成像位置;
根据公式计算机器人标识信息部的真实位置信息,其中,(x2,y2)为机器人标识信息部的真实位置信息,hc为标定的摄像头的高度,h为机器人的高度,(xc,yc)为摄像头对应的位置。
具体的,如图3所示,在摄像头拍成像图像中,获得两个颜色标识区域的中心点在成像图像中的坐标,根据公式 即可得到机器人标识信息部在成像图像中的坐标。即成像图像中机器人标识信息部的坐标为多个颜色标识区域的中心位置。
其中,(xp2,yp2)对应的颜色标识区域位于机器人标识信息部的前部。
如图2所示,在获取了摄像头在成像图像中的位置信息(xc,yc)、机器人标识信息部在成像图像中的位置信息(x1,y1),以及摄像头的高度hc、机器人的高度h时,根据如图2所示的三角形相似性,可以得到的比例关系。根据该比例关系,可计算得到机器人的标识信息部的真实位置信息。
其中,在本发明中,所述机器的人高度,可以根据机器人的标识信息部与足部之间的关节的倾斜角度,以及各个关节的长度,计算得到机器人的高度。在正常行走中的关键转换姿态时,机器人的高度可默认为固定值。
在步骤S103中,根据机器人标识信息部与足部的空间位置关系,以及所述机器人标识信息部的真实位置信息,计算所述机器人的足部位置信息。
在本发明实施例中,如图4所示为机器人双足的足迹的定义示意图,在图4中的机器人行走过程中,机器人的双足总是相互交替作为支撑足,(1)代表当前机器人的支撑足足迹。足迹中的十字标记(2)是对机器人足迹的位置和方向的定义(也是我们足迹定位最终获取的指标),其中十字标记的交叉中心点为足迹的位置,十字长轴的箭头方向为机器人的朝向。(3)表示当前的摆动足的可行落地足迹,可行落地足迹的多少主要依赖于对机器人运动多样性的定义。
所述机器人标识信息部与足部的空间位置关系,是通过标识信息部与足部之间的关节的转动信息进行计算,如图5所示为机器人双足自由度示意图,在图中,机器人的标识信息部与足部之间有12个自由度可调的关节,其中(5)-(6)和(15)-(16)分别为双足的脚踝关节2个自由度可调的关节;(7)和(14)分别为双膝的自由度可调的关节;(8)-(10)和(11)-(13)分别为连个髋关节的3个自由度可调的关节,(18)表示标识信息部,(4)和(17)表示足部。
在每个自由度可调的关节之间空间关系够用Gn_m(从n到m的旋转矩阵)和Ln_m(从n到m的转移矩阵)来描述,其中θ是旋转角度,x,y和z分别表示在各个坐标平面的平移距离。
本发明通过在机器人活动区间上部设置摄像头,由摄像头拍摄包括机器人标识信息部的标识信息的图像,可以减少摄像头出现视觉死区出现的机率。通过拍摄的图像、预先标定的摄像头的位置信息,确定机器人标识信息部的真实位置,并根据机器人标识信息部的真实位置,结合机器人标识信息部与足部的空间位置关系,确定所述机器人足部的位置信息。由于通过位于运动区域上部的摄像头获取的图像信息能够获取不断变化的人居环境的动态环境信息以及快速有效的确定机器人双足位置,从而有效的适应环境不断变化的人居环境。
如图6所示为本发明实施例提供的机器人双足定位装置的结构示意图,详述如下:
本发明实施例所述机器人双足定位装置,包括:
图像获取单元601,用于通过设置在所述机器人活动区域上部的摄像头获取包括所述机器人的标识信息的图像;
标识信息部位置计算单元602,用于根据预先标定的摄像头位置信息和摄像头获取的包括所述标识信息的图像,计算所述机器人标识信息部的真实位置信息;
足部位置计算单元603,用于根据机器人标识信息部与足部的空间位置关系,以及所述机器人标识信息部的真实位置信息,计算所述机器人的足部位置信息。
优选的,所述图像获取单元包括:
颜色标识区域获取子单元,用于通过摄像头获取包括机器人标识信息部的标识信息的图像,所述标识信息包括至少两个颜色标识区域;
颜色标识区域位置确定子单元,用于获取所述标识信息中的颜色标识区域在摄像头的成像图像中的位置信息。
优选的,所述颜色标识区域位置确定子单元具体用于:
将通过RGB摄像头获取的RGB特征空间的图像转换为HSV特征空间的图像,在所述HSV特征空间的图像获取所述颜色标识区域,获取所述颜色标识区域的中心位置为所述颜色标识区域在摄像头的成像图像中的位置信息。
优选的,所述标识信息部位置计算单元包括:
成像位置计算子单元,用于根据公式 计算得到所述机器人标识信息部在摄像头的成像图像中的成像位置,以及机器人的朝向,其中,为机器人的朝向,(xp1,yp1)、(xp2,yp2)分别为机器人标识信息部的标识信息在摄像头的成像图像中的两个坐标点,(x1,y1)为机器人标识信息部在摄像头的成像图像中的成像位置;
真实位置计算子单元,用于根据公式计算机器人标识信息部的真实位置信息,其中,(x2,y2)为机器人标识信息部的真实位置信息,hc为标定的摄像头的高度,h为机器人的高度,(xc,yc)为摄像头对应的位置。
优选的,所述足部位置计算单元具体用于:
根据机器人标识信息部的真实位置信息,以及机器人的双足与标识信息部之间的关节的旋转角度确定所述机器人的足部位置信息。
在本发明所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种机器人双足定位方法,其特征在于,所述方法包括:
通过设置在所述机器人活动区域上部的摄像头获取包括所述机器人的标识信息的图像;
根据预先标定的摄像头位置信息和摄像头获取的包括所述标识信息的图像,计算所述机器人标识信息部的真实位置信息;
根据机器人标识信息部与足部的空间位置关系,以及所述机器人标识信息部的真实位置信息,计算所述机器人的足部位置信息。
2.根据权利要求1所述方法,其特征在于,所述通过设置在所述机器人活动区域上部的摄像头获取包括所述机器人的标识信息的图像步骤包括:
通过摄像头获取包括机器人标识信息部的标识信息的图像,所述标识信息包括至少两个颜色标识区域;
获取所述标识信息中的颜色标识区域在摄像头的成像图像中的位置信息。
3.根据权利要求2所述方法,其特征在于,所述获取所述标识信息中的颜色标识区域在摄像头的成像图像中的位置信息步骤包括:
将通过RGB摄像头获取的RGB特征空间的图像转换为HSV特征空间的图像,在所述HSV特征空间的图像获取所述颜色标识区域,获取所述颜色标识区域的中心位置为所述颜色标识区域在摄像头的成像图像中的位置信息。
4.根据权利要求1或3所述方法,其特征在于,所述根据机器人标识信息部与足部的空间位置关系、预先标定的摄像头位置信息,以及所述机器人标识信息部的位置信息,计算所述机器人的足部位置信息步骤包括:
根据公式 计算得到所述机器人标识信息部在摄像头的成像图像中的成像位置,以及机器人的朝向,其中,为机器人的朝向,(xp1,yp1)、(xp2,yp2)分别为机器人标识信息部的标识信息在摄像头的成像图像中的两个坐标点,(x1,y1)为机器人标识信息部在摄像头的成像图像中的成像位置;
根据公式计算机器人标识信息部的真实位置信息,其中,(x2,y2)为机器人标识信息部的真实位置信息,hc为标定的摄像头的高度,h为机器人的高度,(xc,yc)为摄像头对应的位置。
5.根据权利要求1所述方法,其特征在于,所述根据机器人标识信息部与足部的空间位置关系,以及所述机器人标识信息部的真实位置信息,计算所述机器人的足部位置信息步骤包括:
根据机器人标识信息部的真实位置信息,以及机器人的双足与标识信息部之间的关节的旋转角度确定所述机器人的足部位置信息。
6.一种机器人双足定位装置,其特征在于,所述装置包括:
图像获取单元,用于通过设置在所述机器人活动区域上部的摄像头获取包括所述机器人的标识信息的图像;
标识信息部位置计算单元,用于根据预先标定的摄像头位置信息和摄像头获取的包括所述标识信息的图像,计算所述机器人标识信息部的真实位置信息;
足部位置计算单元,用于根据机器人标识信息部与足部的空间位置关系,以及所述机器人标识信息部的真实位置信息,计算所述机器人的足部位置信息。
7.根据权利要求6所述装置,其特征在于,所述图像获取单元包括:
颜色标识区域获取子单元,用于通过摄像头获取包括机器人标识信息部的标识信息的图像,所述标识信息包括至少两个颜色标识区域;
颜色标识区域位置确定子单元,用于获取所述标识信息中的颜色标识区域在摄像头的成像图像中的位置信息。
8.根据权利要求7所述装置,其特征在于,所述颜色标识区域位置确定子单元具体用于:
将通过RGB摄像头获取的RGB特征空间的图像转换为HSV特征空间的图像,在所述HSV特征空间的图像获取所述颜色标识区域,获取所述颜色标识区域的中心位置为所述颜色标识区域在摄像头的成像图像中的位置信息。
9.根据权利要求6或8所述装置,其特征在于,所述标识信息部位置计算单元包括:
成像位置计算子单元,用于根据公式 计算得到所述机器人标识信息部在摄像头的成像图像中的成像位置,以及机器人的朝向,其中,为机器人的朝向,(xp1,yp1)、(xp2,yp2)分别为机器人标识信息部的标识信息在摄像头的成像图像中的两个坐标点,(x1,y1)为机器人标识信息部在摄像头的成像图像中的成像位置;
真实位置计算子单元,用于根据公式计算机器人标识信息部的真实位置信息,其中,(x2,y2)为机器人标识信息部的真实位置信息,hc为标定的摄像头的高度,h为机器人的高度,(xc,yc)为摄像头对应的位置。
10.根据权利要求6所述装置,其特征在于,所述足部位置计算单元具体用于:
根据机器人标识信息部的真实位置信息,以及机器人的双足与标识信息部之间的关节的旋转角度确定所述机器人的足部位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510652127.6A CN105243665A (zh) | 2015-10-10 | 2015-10-10 | 一种机器人双足定位方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510652127.6A CN105243665A (zh) | 2015-10-10 | 2015-10-10 | 一种机器人双足定位方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105243665A true CN105243665A (zh) | 2016-01-13 |
Family
ID=55041297
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510652127.6A Pending CN105243665A (zh) | 2015-10-10 | 2015-10-10 | 一种机器人双足定位方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105243665A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107248177A (zh) * | 2017-05-24 | 2017-10-13 | 深圳优地科技有限公司 | 一种轮式机器人的定位方法和装置 |
CN109141451A (zh) * | 2018-07-13 | 2019-01-04 | 京东方科技集团股份有限公司 | 购物定位系统及方法、智能购物车、电子设备 |
CN113589817A (zh) * | 2021-08-06 | 2021-11-02 | 乐聚(深圳)机器人技术有限公司 | 足式机器人落脚控制方法、装置、电子设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101000507A (zh) * | 2006-09-29 | 2007-07-18 | 浙江大学 | 移动机器人在未知环境中同时定位与地图构建的方法 |
CN102789234A (zh) * | 2012-08-14 | 2012-11-21 | 广东科学中心 | 基于颜色编码标识的机器人导航方法及系统 |
CN102890785A (zh) * | 2011-07-19 | 2013-01-23 | 上海上大海润信息系统有限公司 | 一种服务机器人目标识别与定位的方法 |
CN103236054A (zh) * | 2013-04-10 | 2013-08-07 | 博奥生物有限公司 | 一种拍照装置的定位方法及定位系统 |
CN104574386A (zh) * | 2014-12-26 | 2015-04-29 | 速感科技(北京)有限公司 | 一种基于三维环境模型匹配的室内定位方法 |
CN104835173A (zh) * | 2015-05-21 | 2015-08-12 | 东南大学 | 一种基于机器视觉的定位方法 |
-
2015
- 2015-10-10 CN CN201510652127.6A patent/CN105243665A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101000507A (zh) * | 2006-09-29 | 2007-07-18 | 浙江大学 | 移动机器人在未知环境中同时定位与地图构建的方法 |
CN102890785A (zh) * | 2011-07-19 | 2013-01-23 | 上海上大海润信息系统有限公司 | 一种服务机器人目标识别与定位的方法 |
CN102789234A (zh) * | 2012-08-14 | 2012-11-21 | 广东科学中心 | 基于颜色编码标识的机器人导航方法及系统 |
CN103236054A (zh) * | 2013-04-10 | 2013-08-07 | 博奥生物有限公司 | 一种拍照装置的定位方法及定位系统 |
CN104574386A (zh) * | 2014-12-26 | 2015-04-29 | 速感科技(北京)有限公司 | 一种基于三维环境模型匹配的室内定位方法 |
CN104835173A (zh) * | 2015-05-21 | 2015-08-12 | 东南大学 | 一种基于机器视觉的定位方法 |
Non-Patent Citations (1)
Title |
---|
HUANG LI等: "A humanoid robot localization method for biped navigation in human-living environments", 《THE 5TH ANNUAL IEEE INTERNATIONAL CONFERENCE ON CYBER TECHNOLOGY IN AUTOMATION, CONTROL AND INTELLIGENT SYSTEMS》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107248177A (zh) * | 2017-05-24 | 2017-10-13 | 深圳优地科技有限公司 | 一种轮式机器人的定位方法和装置 |
CN107248177B (zh) * | 2017-05-24 | 2020-05-22 | 深圳优地科技有限公司 | 一种轮式机器人的定位方法和装置 |
CN109141451A (zh) * | 2018-07-13 | 2019-01-04 | 京东方科技集团股份有限公司 | 购物定位系统及方法、智能购物车、电子设备 |
CN113589817A (zh) * | 2021-08-06 | 2021-11-02 | 乐聚(深圳)机器人技术有限公司 | 足式机器人落脚控制方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084272B (zh) | 一种聚类地图创建方法及基于聚类地图和位置描述子匹配的重定位方法 | |
CN110706248B (zh) | 一种基于slam的视觉感知建图方法及移动机器人 | |
Krajník et al. | A practical multirobot localization system | |
Wan et al. | Teaching robots to do object assembly using multi-modal 3d vision | |
CN106092104A (zh) | 一种室内机器人的重定位方法及装置 | |
CN107423729B (zh) | 一种面向复杂视觉场景下的远距离类脑三维步态识别系统及实现方法 | |
CN107741234A (zh) | 一种基于视觉的离线地图构建及定位方法 | |
CA2950791C (en) | Binocular visual navigation system and method based on power robot | |
CN104036488B (zh) | 一种基于双目视觉的人体姿态动作研究方法 | |
CN107665506B (zh) | 实现增强现实的方法及系统 | |
CN108917761A (zh) | 一种无人车在地下车库中的精确定位方法 | |
CN107990899A (zh) | 一种基于slam的定位方法和系统 | |
CN105856243A (zh) | 一种移动智能机器人 | |
CN106127180A (zh) | 一种机器人辅助定位方法及装置 | |
CN103994765B (zh) | 一种惯性传感器的定位方法 | |
CN109425348A (zh) | 一种同时定位与建图的方法和装置 | |
CN104931057B (zh) | 一种机器人的任意位置定位方法、装置及系统 | |
Lee et al. | Improving mobility for the visually impaired: A wearable indoor positioning system based on visual markers | |
CN114683290B (zh) | 一种足式机器人位姿优化的方法,装置以及存储介质 | |
Murillo et al. | Wearable omnidirectional vision system for personal localization and guidance | |
CN105243665A (zh) | 一种机器人双足定位方法和装置 | |
CN112833892A (zh) | 一种基于轨迹对齐的语义建图方法 | |
CN106327528A (zh) | 无人机运动目标跟踪方法及无人机的工作方法 | |
Liu et al. | Deep-learning and depth-map based approach for detection and 3-D localization of small traffic signs | |
CN114295139A (zh) | 一种协同感知定位方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160113 |