CN101271333B - 移动机器人的定位方法 - Google Patents
移动机器人的定位方法 Download PDFInfo
- Publication number
- CN101271333B CN101271333B CN2008100020052A CN200810002005A CN101271333B CN 101271333 B CN101271333 B CN 101271333B CN 2008100020052 A CN2008100020052 A CN 2008100020052A CN 200810002005 A CN200810002005 A CN 200810002005A CN 101271333 B CN101271333 B CN 101271333B
- Authority
- CN
- China
- Prior art keywords
- node
- mobile robot
- omni
- related coefficient
- directional image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000004807 localization Effects 0.000 title claims abstract description 18
- 230000005484 gravity Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 238000012360 testing method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Abstract
公开了一种移动机器人的定位方法,该方法包括:通过移动机器人捕获第一全向图像;确认捕获到与第一全向图像具有高相关性的第二全向图像的至少一个节点;当移动机器人到达所述至少一个节点中的捕获到与第一全向图像具有最高相关性的第二全向图像的第一节点时,确定移动机器人位于第一节点处。
Description
技术领域
本发明涉及一种确定机器人的位置的方法(即,机器人的定位方法),更具体地讲,涉及一种使用全向图像准确地识别移动机器人的位置的移动机器人的定位方法。
背景技术
通常,全向相机适于获取全向图像(即,相机附近360°的图像)。近来,移动机器人的定位方法已经引入市场。关于定位方法,全向相机已经被安装到移动机器人,从而使用全向相机捕获的全向图像来执行机器人的定位。
上述安装到全向机器人的用于识别机器人的位置的全向相机的代表性示例在第10-160463号日本专利申请中公开,该申请通过引用包含于此。根据上述第10-160463号日本专利申请,包括移动对象的全向视域(visual view)的全向视觉传感器允许移动对象沿特定路径移动,同时全向视觉传感器使用时间序列标准模式获取移动对象附近的图像。如果移动对象沿着预定路径移动,那么全向视觉传感器获取的图像被与基于标准模式的图像进行比较。如果全向视觉传感器获取的图像与上述标准模式图像相同,那么与标准模式图像有关的位置被识别为检测结果。
然而,上述移动对象的传统定位方法仅估计移动对象的近似位置,而不是移动对象的准确位置,从而其在移动对象的定位方面存在困难。
此外,移动对象的传统定位方法使用动态编程算法作为匹配算法。而动态编程算法对误差非常敏感,从而极大地降低了定位精度。
发明内容
因此,本发明实施例的一方面在于提供一种用于正确地检测移动机器人的位置的移动机器人的定位方法。
另外的方面和/或优点将部分地在下面的描述中被阐述,部分地从该描述变得清楚,或者可通过实施本发明而得知。
根据实施例,可通过提供一种移动机器人的定位方法来实现上述和/或其它方面,所述方法包括:通过移动机器人捕获第一全向图像;确认捕获到与第一全向图像具有高相关性的第二全向图像的至少一个节点;当移动机器人到达所述至少一个节点中的捕获到与第一全向图像具有最高相关性的第二全向图像的第一节点时,确定移动机器人位于第一节点处。
所述方法还包括:当第一节点的第二全向图像与捕获到的第一全向图像之间的相关系数高于参考值时,确定移动机器人到达第一节点。
所述方法还包括:当第一节点与前一第一节点相同而且第一节点的第二全向图像与捕获到的第一全向图像之间的相关系数逐渐增大并随后减小时,确定移动机器人到达第一节点。
所述方法还包括:当第一节点的第二全向图像与捕获到的第一全向图像之间的相关系数逐渐增大并且随后不减小时,使移动机器人连续移动到第一节点。
所述方法还包括:当第一节点与前一第一节点不同时,使移动机器人移动到第一节点。
优选地,所述方法还包括:当移动机器人向第一节点移动时,通过移动机器人确定所述至少一个节点中除了第一节点之外的其余节点是否有效,其中,当有效节点的数量为“0”时,保持移动机器人的移动方向,当有效节点的数量为“1”时,移动机器人从有效节点移动到第一节点,当有效节点的数量为“2”时,移动机器人从由第一节点和两个有效节点构成的三角形的重心移动到第一节点。
所述相关性中的每个指示两个全向图像的当前线之间的相关性。
所述相关性中的每个通过相关系数来表示,可通过下面的等式计算相关系数:
其中,ρ(τ)指示相关系数,τ指示旋转角,Cxy指示互相关值,Cxx和Cyy指示自相关值。
可通过快速傅立叶变换(FFT)来计算互相关值。
通过提供一种移动机器人的定位方法来实现前述和/或其他方面,该方法包括:通过移动机器人捕获第一全向图像;确认捕获到与第一全向图像具有高相关性的第二全向图像的至少一个节点;当移动机器人到达捕获到与捕获到的第一全向图像具有最高相关性的第二全向图像的第一节点时,确定移动机器人位于第一节点,当移动机器人没有到达第一节点时,使移动机器人移动到第一节点。
所述方法还包括:确定所述至少一个节点中除了第一节点之外的其余节点是否有效,并使移动机器人沿着根据有效节点的数量确定的航向角移动,从而移动机器人接近第一节点。
所述至少一个节点的数量可以为“3”,当有效节点的数量为“0”时,移动机器人的移动方向可被设置为航向角,当有效节点的数量为“1”时,从有效节点到第一节点的方向被设置为航向角方向,当有效节点的数量为“2”时,从由第一节点和两个有效节点构成的三角形的重心到第一节点的方向被设置为航向角。
所述相关性中的每个指示两个全向图像的当前线之间的相关性。
所述相关性中的每个通过相关系数来表示,可通过下面的等式计算相关系数:
其中,ρ(τ)指示相关系数,τ指示旋转角,Cxy指示互相关值,Cxx和Cyy指示自相关值。
可通过快速傅立叶变换(FFT)来计算互相关值。
当除了第一节点之外的其余节点在第一节点的有效范围内时,所述节点可被确定为有效。
通过提供一种移动机器人来实现前述和/或其他方面,所述移动机器人包括:全向相机,通过移动机器人捕获全向图像;相关系数计算器,计算所捕获的全向图像与在移动机器人的可移动空间内的至少一个节点位置处捕获的至少一个第二全向图像之间的相关系数,第一节点位置是所述至少一个节点位置中具有最高相关系数的节点位置;控制器,当相关系数计算器计算出相关系数不大于参考值并且第一节点位置不等于前一第一节点位置时,将移动机器人移动到第一节点位置,当相关系数大于参考值时,所述控制器确定移动机器人位于第一节点位置处。
当第一节点位置不等于前一第一节点位置时,控制器将移动机器人移动到第一节点位置。
当相关系数不大于参考值,第一节点位置等于前一第一节点位置,第一节点位置的相关系数小于前一第一节点位置的相关系数,前一第一节点位置的相关系数大于在前一第一节点位置之前的其他第一节点位置的相关系数时,控制器确定移动机器人在第一节点位置处。
当相关系数不大于参考值,第一节点位置等于前一第一节点位置,并且第一节点位置的相关系数不小于前一第一节点位置的相关系数时,控制器将移动机器人移动到第一节点位置。
附图说明
通过下面结合附图对实施例进行的描述,本发明的这些和/或其它方面和优点将会变得清楚和更易于理解,其中:
图1示出根据当前实施例的移动机器人的外观;
图2是示出根据当前实施例的由图1所示的全向相机捕获的剖面的结构图;
图3示例性地示出根据当前实施例的由图1所示的全向相机捕获的全向图像;
图4是示出根据当前实施例的移动机器人的框图;
图5示例性地示出移动机器人的可移动空间的节点;
图6示例性地示出图3的全向图像的当前线;
图7是示出根据当前实施例的机器人定位方法的流程图;
图8是详细示出图7中的操作56的流程图。
具体实施方式
现在将详细描述实施例,其示例在附图中示出,其中,相同的标号始终表示相同的部件。以下参照附图来描述实施例以解释本发明。
参照图1,根据当前实施例的移动机器人10包括机器人主体12和安装到机器人主体12上的全向相机11。如图2所示,全向相机11包括全向镜头11a和CCD元件11b。
参照图2,曲面镜附于全向相机11的前部分,从而获取全向相机附近的360°的图像。更详细地讲,空间点Xmir在位于曲面镜上的特定点xmir处被反射,在CCD元件11b上形成图像,从而在最终图像上出现点ximg。点xmir全向分布,从而全向相机可捕获其附近360°的图像。
参照图4,包括图1或图2所示的组成部件的移动机器人10还包括用于存储节点数据的存储器30和用于控制移动机器人10的控制器20。
如图5所示,节点数据包括指示机器人的可移动空间的各节点位置的节点地图、相应节点的全景图像以及全景图像的当前线(current line)。节点地图的每个节点位置作为坐标值被存储。每个节点的全向图像由能够在各节点处从机器人10捕获图像的全向相机11获取。这样,在每个节点处捕获全向图像的情况下,优选的是,全向相机11可被设置为面对相同的捕获方向。如图6所示,当前线指示平行于全向图像的表面(或底面)的平面。
控制器包括图像处理器22和相关系数计算器21。图像处理器22对全向相机11捕获的全向图像执行预处理。图3的全向图像的无意义部分被切除,对圆环形的圆执行直方图均衡化以执行图像处理。
如果图像处理器22完成了图像处理,那么控制器20提取上述当前线。在这种情况下,在全向图像的原点处设立当前线,并且可考虑快速傅立叶变换(FFT)的特性通过2的平方(即,通过图像处理器22)来计算当前线的分辨率以计算相关系数。
相关系数计算器21计算机器人10所捕获的全向图像的第一当前线与从各节点获取的第二当前线之间的相关系数,该相关系数由下面的等式来表示:
其中,ρ(τ)是相关系数,τ是旋转角,Cxy是互相关值,Cxx和Cyy是自相关值。
在上面的等式中,最高的相关系数被设置为“1”。相关系数的绝对值越接近“1”,相互比较的全向图像的当前线之间的相似程度越高。此外,通过FFT计算Cxy。
傅立叶变换对频域和时域之间包含的数值序列进行变换,基于傅立叶变换方案使用数值计算选择一系列时间采样,测量所选择的时间采样的频率分量,并使用多种频率来计算在时间采样序列中将出现多少能量。假设高速执行上述傅立叶变换方案,那么实现快速傅立叶变换方案。尽管傅立叶变换方案还可计算具有特定长度的分辨率序列,但是为了将FFT的优点最大化,当前线的分辨率必须被设置为2的平方。
以下将参照图7和图8来描述识别移动机器人的位置的方法(即,机器人定位方法)。如果移动机器人10位于预定的空间点处,那么在操作40移动机器人10的全向相机11捕获全向图像。捕获的全向图像经图像处理器22被发送给相关系数计算器21。相关系数计算器21在操作42计算全向图像的当前线与在每个节点处捕获的全向图像的第二当前线之间的相关系数。
如果计算了每个节点的相关系数,那么控制器20在操作44根据捕获的全向图像选择具有高相关性(即,相关系数的绝对值大)的三个节点。接下来,在操作46,控制器20确定所述三个节点中具有最高相关系数的特定节点为第一节点,并确定第一节点的相关系数是否高于参考值。在这种情况下,可以考虑全向相机11的规格来选择所述参考值,而且可将所述参考值设置为接近1的任何值。
如果第一节点的相关系数高于参考值,那么控制器20确定移动机器人10的全向图像和第一节点的第二全向图像之间的当前线存在高相关性,从而控制器20在操作52确定移动机器人10位于第一节点。
如果第一节点的相关系数等于或小于参考值,那么控制器20在操作48确定当前第一节点是否与前一第一节点相同。该操作适于确定移动机器人是否在特定节点附近连续移动,尽管机器人不位于与所述特定节点相同的节点处。
如果在操作48当前第一节点与前一第一节点相同,那么控制器20在操作50确定当前第一节点的相关系数(C[0])是否小于前一第一节点的相关系数(C[1]),前一第一节点的相关系数(C[1])是否高于在该前一第一节点之前的前一第一节点的相关系数(C[2]),该前一第一节点之前的前一第一节点的相关系数(C[2])是否高于C[2]所代表的节点之前的另一前一第一节点的相关系数(C[3])。在这种情况下,C[n-1](其中,n为自然数)是当前被计算的或者已经被计算并被存储在存储器30中直到在操作54被删除的第一节点的相关系数。
如果满足上述条件,那么控制器20确定移动机器人10逐渐接近第一节点而且随后离开第一节点,从而在操作52确定移动机器人10位于第一节点。然而,如果由于存储在存储器30中的C[n-1](其中,n为自然数)的数量小于“4”或者C[n-1]持续增加而导致不满足上述条件,那么控制器20在操作56确定移动机器人10没有到达第一节点,并使移动机器人继续向第一节点移动。
同时,如果在操作48当前第一节点不同于前一第一节点,那么控制器确定移动机器人10向当前第一节点而非前一第一节点移动,并在操作54从存储器30中删除C[n-1](其中,n为自然数)以确定移动机器人10是否接近前一第一节点。移动机器人10在操作56向新的第一节点移动。
如图8所示,为了向第一节点移动,移动机器人10在操作56-1确定从上述三个节点中选择的除了第一节点以外的其余两个节点是否有效。可以通过各种方式设立有效条件。然而,根据当前实施例,如果目标节点是基于第一节点的至少三个节点中的任何一个,那么确定目标节点是有效的。例如,如果图5的节点“33”为第一节点,那么有效范围对应于虚线范围。如果具有高相关系数的其余两个节点为节点“41”和节点“42”,那么由于节点“41”和节点“42”包含在有效范围内,所以上述两个节点被确定为有效节点。
如果节点的有效测试完成,那么在操作56-2检测移动机器人10的旋转角。移动机器人10的旋转角是移动机器人10的捕获方向(例如,从图5的下部到上部的方向)和行进方向之间的角。接下来,在操作56-3确定移动机器人的航向角(heading angle)。移动机器人10的航向角指示移动机器人10的行进方向和捕获方向之间的角,从而移动机器人10可根据航向角接近第一节点。
根据有效节点的数量通过不同的方法来确定移动机器人10的航向角。换句话说,如果在操作44中选择的三个节点中的除了第一节点之外的其余两个节点都不是有效的,那么所设立的移动机器人的行进方向被设置为航向角。如果所述其余两个节点中只有一个节点是有效的,那么确定移动机器人10位于第一节点和有效节点之间,并且在第一节点的方向上而非有效节点的方向上设立移动机器人10的航向角,以便移动机器人10可沿着第一节点的方向移动。
最后,如果所述其余两个节点都是有效的,那么控制器20确定移动机器人10位于由第一节点和所述两个有效节点构成的三角形中。为了允许移动机器人10接近第一节点,从所述三角形的重心到第一节点的特定方向被确定为移动机器人10的航向角。
如果提取了移动机器人10的航向角,那么控制器20使移动机器人10的行进方向从旋转角改变为航向角,从而移动机器人10在操作56-4移动。上述过程返回到操作40,并再次执行图7的循环。
从上述描述清楚的是,如果移动机器人没有到达特定节点,那么根据当前实施例的机器人定位方法将移动机器人继续移动到特定节点。仅当确定移动机器人已经到达特定节点时,所述机器人定位方法才确定移动机器人位于特定节点,从而可正确识别出移动机器人的位置。
当前实施例在移动机器人接近特定节点时确定该特定节点是否有效,并多次修改移动机器人的航向角直到移动机器人到达所述特定节点,以便移动机器人可识别其准确位置。
尽管没有移动机器人的前一位置数据,但是当前实施例可准确地识别出移动机器人的位置,从而其可被有效地用于识别机器人的初始位置,并可解决移动机器人的位置被突然改变的绑架(kidnap)问题。
尽管示出并描述了一个实施例,但是本领域技术人员应该理解,在不脱离本发明的原理和精神的情况下,可以对这些实施例进行改变,本发明的范围由权利要求及其等同物限定。
Claims (18)
1.一种移动机器人的定位方法,该方法包括:
通过移动机器人捕获第一全向图像;
确认捕获到与第一全向图像具有高相关性的第二全向图像的至少一个节点;
当移动机器人到达所述至少一个节点中的捕获到与第一全向图像具有最高相关性的第二全向图像的第一节点时,确定移动机器人位于第一节点处,
其中,所述相关性中的每个指示两个全向图像的当前线之间的相关性。
2.如权利要求1所述的方法,还包括:当第一节点的第二全向图像与捕获到的第一全向图像之间的相关系数高于参考值时,确定移动机器人到达第一节点。
3.如权利要求1所述的方法,还包括:当第一节点与前一第一节点相同而且第一节点的第二全向图像与捕获到的第一全向图像之间的相关系数逐渐增大并随后减小时,确定移动机器人到达第一节点。
4.如权利要求1所述的方法,还包括:当第一节点的第二全向图像与捕获到的第一全向图像之间的相关系数逐渐增大并且随后不减小时,使移动机器人继续移动到第一节点。
5.如权利要求3所述的方法,还包括:当第一节点与前一第一节点不同时,使移动机器人移动到第一节点。
6.如权利要求4所述的方法,还包括:当移动机器人向第一节点移动时,通过移动机器人确定所述至少一个节点中除了第一节点之外的其余节点是否有效,
其中,当有效节点的数量为“0”时,保持移动机器人的移动方向,当有效节点的数量为“1”时,移动机器人从有效节点移动到第一节点,当有效节点的数量为“2”时,移动机器人从由第一节点和两个有效节点构成的三角形的重心移动到第一节点。
7.如权利要求1所述的方法,其中,所述相关性中的每个通过相关系数来表示,通过下面的等式计算相关系数:
其中,ρ(τ)指示相关系数,τ指示旋转角,Cxy指示互相关值,Cxx和Cyy指示自相关值。
8.如权利要求7所述的方法,其中,通过快速傅立叶变换来计算互相关值。
9.一种移动机器人的定位方法,该方法包括:
通过移动机器人捕获第一全向图像;
确认捕获到与第一全向图像具有高相关性的第二全向图像的至少一个节点;
当移动机器人到达捕获到与捕获到的第一全向图像具有最高相关性的第二全向图像的第一节点时,确定移动机器人位于第一节点,当移动机器人没有到达第一节点时,使移动机器人移动到第一节点,
其中,所述相关性中的每个指示两个全向图像的当前线之间的相关性。
10.如权利要求9所述的方法,还包括:确定所述至少一个节点中除了第一节点之外的其余节点是否有效,并使移动机器人沿着根据有效节点的数量确定的航向角移动,从而移动机器人接近第一节点。
11.如权利要求10所述的方法,其中,所述至少一个节点的数量为“3”,并且当有效节点的数量为“0”时,移动机器人的移动方向被设置为航向角,当有效节点的数量为“1”时,从有效节点到第一节点的方向被设置为航向角方向,当有效节点的数量为“2”时,从由第一节点和两个有效节点构成的三角形的重心到第一节点的方向被设置为航向角。
12.如权利要求9所述的方法,其中,所述相关性中的每个通过相关系数来表示,通过下面的等式计算相关系数:
其中,ρ(τ)指示相关系数,τ指示旋转角,Cxy指示互相关值,Cxx和Cyy指示自相关值。
13.如权利要求12所述的方法,其中,通过快速傅立叶变换来计算互相关值。
14.如权利要求10所述的方法,其中,当除了第一节点之外的其余节点在第一节点的有效范围内时,所述节点被确定为有效。
15.一种移动机器人,包括:
全向相机,通过移动机器人捕获全向图像;
相关系数计算器,计算所捕获的全向图像与在移动机器人的可移动空间内的至少一个节点位置处捕获的至少一个第二全向图像之间的相关系数,第一节点位置是所述至少一个节点位置中具有最高相关系数的节点位置;
控制器,当相关系数计算器计算出相关系数不大于参考值并且第一节点位置与前一第一节点位置不同时,将移动机器人移动到第一节点位置,当相关系数大于参考值时,所述控制器确定移动机器人位于第一节点位置处,
其中,所述相关系数中的每个指示两个全向图像的当前线之间的相关系数。
16.如权利要求15所述的移动机器人,其中,当第一节点位置与前一第一节点位置不同时,控制器将移动机器人移动到第一节点位置。
17.如权利要求15所述的移动机器人,其中,当相关系数不大于参考值,第一节点位置与前一第一节点位置相同,第一节点位置的相关系数小于前一第一节点位置的相关系数,前一第一节点位置的相关系数大于在前一第一节点位置之前的其他第一节点位置的相关系数时,控制器确定移动机器人在第一节点位置处。
18.如权利要求15所述的移动机器人,其中,当相关系数不大于参考值,第一节点位置与前一第一节点位置相同,并且第一节点位置的相关系数不小于前一第一节点位置的相关系数时,控制器将移动机器人移动到第一节点位置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2007-0027068 | 2007-03-20 | ||
KR1020070027068A KR100941418B1 (ko) | 2007-03-20 | 2007-03-20 | 이동 로봇의 위치 인식 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101271333A CN101271333A (zh) | 2008-09-24 |
CN101271333B true CN101271333B (zh) | 2010-12-15 |
Family
ID=39774744
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008100020052A Active CN101271333B (zh) | 2007-03-20 | 2008-01-03 | 移动机器人的定位方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8588512B2 (zh) |
JP (1) | JP4572240B2 (zh) |
KR (1) | KR100941418B1 (zh) |
CN (1) | CN101271333B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110297697A (zh) * | 2018-03-21 | 2019-10-01 | 北京猎户星空科技有限公司 | 机器人动作序列生成方法和装置 |
Families Citing this family (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8311285B2 (en) * | 2009-06-30 | 2012-11-13 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for localizing in urban environments from omni-direction skyline images |
US8249302B2 (en) * | 2009-06-30 | 2012-08-21 | Mitsubishi Electric Research Laboratories, Inc. | Method for determining a location from images acquired of an environment with an omni-directional camera |
KR101739996B1 (ko) * | 2010-11-03 | 2017-05-25 | 삼성전자주식회사 | 이동 로봇 및 이동 로봇의 위치 인식 및 지도 작성 방법 |
CA2720886A1 (en) * | 2010-11-12 | 2012-05-12 | Crosswing Inc. | Customizable virtual presence system |
US9930252B2 (en) * | 2012-12-06 | 2018-03-27 | Toyota Motor Engineering & Manufacturing North America, Inc. | Methods, systems and robots for processing omni-directional image data |
KR102087595B1 (ko) * | 2013-02-28 | 2020-03-12 | 삼성전자주식회사 | 내시경 시스템 및 그 제어방법 |
CN103135551B (zh) * | 2013-02-28 | 2015-05-06 | 上海大学 | 一种精确定位火灾搜救机器人 |
DE102014226077A1 (de) * | 2014-12-16 | 2016-06-16 | Robert Bosch Gmbh | Verfahren zum Erkennen eines Arbeitsbereichs eines autonomen Arbeitsgeräts sowie ein Arbeitsgerät |
TWI570423B (zh) | 2015-04-13 | 2017-02-11 | 國立交通大學 | 定位方法 |
WO2018112782A1 (en) * | 2016-12-21 | 2018-06-28 | Intel Corporation | Camera re-localization by enhanced neural regression using middle layer features in autonomous machines |
US11592829B2 (en) * | 2017-12-05 | 2023-02-28 | Sony Corporation | Control device and control method, program, and mobile object |
US11320828B1 (en) | 2018-03-08 | 2022-05-03 | AI Incorporated | Robotic cleaner |
US11254002B1 (en) | 2018-03-19 | 2022-02-22 | AI Incorporated | Autonomous robotic device |
US11454981B1 (en) | 2018-04-20 | 2022-09-27 | AI Incorporated | Versatile mobile robotic device |
US11340079B1 (en) | 2018-05-21 | 2022-05-24 | AI Incorporated | Simultaneous collaboration, localization, and mapping |
US11548159B1 (en) | 2018-05-31 | 2023-01-10 | AI Incorporated | Modular robot |
US11199853B1 (en) | 2018-07-11 | 2021-12-14 | AI Incorporated | Versatile mobile platform |
EP3929613A1 (en) | 2020-06-22 | 2021-12-29 | Carnegie Robotics, LLC | A method for navigating a movable device along an inclined surface |
EP3929690A1 (en) | 2020-06-22 | 2021-12-29 | Carnegie Robotics, LLC | A method and a system for analyzing a scene, room or venueby determining angles from imaging elements to visible navigation elements |
CN111906765B (zh) * | 2020-07-31 | 2022-07-12 | 平安科技(深圳)有限公司 | 应用于路径规划的空间采样方法、装置、设备及介质 |
US11511165B1 (en) * | 2022-05-30 | 2022-11-29 | Tennibot, Inc. | Autonomous tennis assistant systems |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1441386A (zh) * | 2002-01-29 | 2003-09-10 | 夏普公司 | 全向视觉系统、图像处理方法、控制程序和可读记录介质 |
CN1845094A (zh) * | 2006-04-29 | 2006-10-11 | 上海杰图软件技术有限公司 | 构建全景电子地图服务的方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5961571A (en) * | 1994-12-27 | 1999-10-05 | Siemens Corporated Research, Inc | Method and apparatus for automatically tracking the location of vehicles |
JP3641335B2 (ja) | 1996-12-03 | 2005-04-20 | シャープ株式会社 | 全方位視覚センサを用いた位置検出方法 |
KR100632242B1 (ko) * | 2000-11-22 | 2006-10-11 | 삼성광주전자 주식회사 | 모빌로봇의 경로보정방법 |
JP2002296010A (ja) * | 2001-03-29 | 2002-10-09 | Fujitsu Ltd | 画像を用いた自己位置同定方法 |
JP2004042148A (ja) * | 2002-07-09 | 2004-02-12 | Mitsubishi Heavy Ind Ltd | 移動ロボット |
JP4042517B2 (ja) * | 2002-10-09 | 2008-02-06 | 株式会社日立製作所 | 移動体およびその位置検出装置 |
KR100485696B1 (ko) | 2003-02-07 | 2005-04-28 | 삼성광주전자 주식회사 | 로봇청소기의 위치인식표지 검출방법 및 이 검출방법을적용한 로봇청소기 |
KR100569181B1 (ko) * | 2004-01-06 | 2006-04-07 | 김진오 | 실내 항법을 위한 좌표확인 시스템 |
JP4264380B2 (ja) * | 2004-04-28 | 2009-05-13 | 三菱重工業株式会社 | 自己位置同定方法及び該装置 |
JP4216772B2 (ja) * | 2004-06-17 | 2009-01-28 | 株式会社東芝 | 自己位置同定装置および自己位置同定方法 |
KR100754385B1 (ko) * | 2004-09-30 | 2007-08-31 | 삼성전자주식회사 | 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법 |
US7228230B2 (en) * | 2004-11-12 | 2007-06-05 | Mitsubishi Denki Kabushiki Kaisha | System for autonomous vehicle navigation with carrier phase DGPS and laser-scanner augmentation |
US20100222925A1 (en) * | 2004-12-03 | 2010-09-02 | Takashi Anezaki | Robot control apparatus |
JP2006220521A (ja) * | 2005-02-10 | 2006-08-24 | Hitachi Ltd | 自己位置計測装置及び自己位置計測方法を実行するためのプログラム |
-
2007
- 2007-03-20 KR KR1020070027068A patent/KR100941418B1/ko active IP Right Grant
-
2008
- 2008-01-03 CN CN2008100020052A patent/CN101271333B/zh active Active
- 2008-01-11 JP JP2008003868A patent/JP4572240B2/ja active Active
- 2008-01-18 US US12/010,088 patent/US8588512B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1441386A (zh) * | 2002-01-29 | 2003-09-10 | 夏普公司 | 全向视觉系统、图像处理方法、控制程序和可读记录介质 |
CN1845094A (zh) * | 2006-04-29 | 2006-10-11 | 上海杰图软件技术有限公司 | 构建全景电子地图服务的方法 |
Non-Patent Citations (2)
Title |
---|
JP特开平10-160463A 1998.06.19 |
马建光等.基于图像相似性测量的移动机器人定位研究.《探测与控制学报》.2002,第24卷(第4期),51-54. * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110297697A (zh) * | 2018-03-21 | 2019-10-01 | 北京猎户星空科技有限公司 | 机器人动作序列生成方法和装置 |
CN110297697B (zh) * | 2018-03-21 | 2022-02-18 | 北京猎户星空科技有限公司 | 机器人动作序列生成方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN101271333A (zh) | 2008-09-24 |
US20080232678A1 (en) | 2008-09-25 |
KR100941418B1 (ko) | 2010-02-11 |
KR20080085472A (ko) | 2008-09-24 |
US8588512B2 (en) | 2013-11-19 |
JP2008229834A (ja) | 2008-10-02 |
JP4572240B2 (ja) | 2010-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101271333B (zh) | 移动机器人的定位方法 | |
CN110411441B (zh) | 用于多模态映射和定位的系统和方法 | |
CN110852219B (zh) | 一种多行人跨摄像头在线跟踪系统 | |
CN108955718B (zh) | 一种视觉里程计及其定位方法、机器人以及存储介质 | |
CN102313536B (zh) | 基于机载双目视觉的障碍物感知方法 | |
CN106886216B (zh) | 基于rgbd人脸检测的机器人自动跟踪方法和系统 | |
JP2009190164A (ja) | 物体認識及び認識された物体を含む周辺環境情報に基づいたロボットの自己位置推定方法 | |
CN107941212B (zh) | 一种视觉与惯性联合定位方法 | |
EP3373249A1 (en) | Method of detecting moving objects from a temporal sequence of images | |
JP2006090957A (ja) | 移動体の周囲物体検出装置及び移動体の周囲物体検出方法 | |
CN111292376A (zh) | 一种仿生视网膜的视觉目标跟踪方法 | |
JP2881193B1 (ja) | 3次元物体認識装置および方法 | |
JP2018124177A (ja) | 床面判断方法 | |
JP2010145219A (ja) | 運動推定装置及びプログラム | |
US20240085448A1 (en) | Speed measurement method and apparatus based on multiple cameras | |
JP4882575B2 (ja) | 自己位置推定装置 | |
CN115767424A (zh) | 一种基于rss与csi融合的视频定位方法 | |
CN115112123A (zh) | 基于视觉-imu融合的多移动机器人协同定位方法及系统 | |
JP2011174891A (ja) | 位置姿勢計測装置、位置姿勢計測方法、及びプログラム | |
Choi et al. | Autonomous homing based on laser-camera fusion system | |
CN112214629A (zh) | 基于图像识别的回环检测方法及可移动设备 | |
WO2007110731A1 (en) | Image processing unit and image processing method | |
CN109087351A (zh) | 基于深度信息对场景画面进行闭环检测的方法及装置 | |
JP7019113B2 (ja) | 相対位置検出装置、相対位置検出方法、及び相対位置検出プログラム | |
JPH09282460A (ja) | 自動目標認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |