CN101726741A - 提取特征信息的设备和方法及创建特征地图的设备和方法 - Google Patents
提取特征信息的设备和方法及创建特征地图的设备和方法 Download PDFInfo
- Publication number
- CN101726741A CN101726741A CN200910157574A CN200910157574A CN101726741A CN 101726741 A CN101726741 A CN 101726741A CN 200910157574 A CN200910157574 A CN 200910157574A CN 200910157574 A CN200910157574 A CN 200910157574A CN 101726741 A CN101726741 A CN 101726741A
- Authority
- CN
- China
- Prior art keywords
- information
- angle
- surroundings
- reflective function
- planar chip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/514—Depth or shape recovery from specularities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
Abstract
一种提取特征信息的设备和方法及创建特征地图的设备和方法。提供一种创建用于移动机器人的定位的特征地图以及提取周围环境的特征信息的技术。根据一方面,从使用3D距离传感器获得的信息提取包括反射函数的特征信息,并将所述特征信息用作创建特征地图的基础。因此,可创建对周围环境的变化不敏感的特征地图,并可提高特征匹配的成功率。
Description
本申请要求于2008年11月3日提交到韩国知识产权局的第10-2008-0108438号韩国专利申请的优先权,该申请公开于此以资参考。
技术领域
示例性实施例涉及一种从邻近的对象提取特征信息以及使用提取的特征信息创建用于移动机器人的定位的特征地图的技术。
背景技术
取决于使用的目的在移动机器人中使用不同的地图,但是最常使用的是栅格地图和特征地图。
栅格地图是这样一种地图,其中使用固定尺寸的栅格来反映和存储周围环境和障碍物实际上的位置和形状。栅格地图非常直观并且易于工作,但具有的缺点是当机器人的使用空间变大时需要的内存急剧增加。
相反的,特征地图仅检测和存储关于周围环境和障碍物的必需的特征信息(诸如位置和颜色),从而不需要很多内存。然而,它相对地取决于系统的特征检测能力。
为了创建特征地图,经常使用的方法是在机器人中安装相机并使用从相机获得的图像信息来提取周围对象的特征。
然而,为了定位机器人,当前提取的特征必须与已注册的特征匹配,但是来自相机的图像信息具有难以对由于照明和机器人位置的变化而引起的图像缩放、旋转和仿射曲率进行补偿的问题。因此,匹配能力非常有限。
因此,需要一种对周围环境的变化不敏感并能更有效地提取特征信息的创建特征地图的方法。
发明内容
示例性实施例涉及一种使用特征信息(诸如距离信息、平面片(planarpatch)信息、反射函数信息等)来创建特征地图的设备和方法。可使用3D距离传感器来检测特征信息。
根据一个示例性方面,一种特征信息提取设备包括:传感器,检测从周围对象反射的光以获得关于周围对象的距离信息和再发射信息(remissioninformation),其中,所述再发射信息是关于反射光的数量的信息;角检测器,使用再发射信息来检测关于周围对象的角信息;平面检测器,使用角信息和相应的角周围环境的距离信息来检测平面片的信息;以及反射函数检测器,使用取决于在平面片上光的入射角度的再发射信息来检测平面片的反射函数。
根据另一示例性方面,一种特征地图创建设备包括:传感器,安装在机器人上,检测从周围对象反射的光以获得关于周围对象的距离信息和再发射信息;以及数据处理器,从距离信息和再发射信息提取包括关于周围对象的角信息、平面片信息和平面片的反射函数的特征信息,并存储提取的特征信息以创建特征地图。
根据另一示例性方面,一种特征信息提取方法包括:检测从周围对象反射的光以获得关于周围对象的距离信息和再发射信息;基于再发射信息来检测关于周围对象的角位置坐标作为角信息;使用检测到的角位置坐标和相应的角周围环境的距离信息来建立以角位置坐标为中心的立方体,并从包括在该立方体中的距离信息检测平面片信息;使用取决于在平面片上光的入射角度的再发射信息检测平面片的反射函数;提取并存储角信息、平面片信息和反射函数中的至少一个作为特征信息。
根据另一示例性方面,一种特征地图创建方法包括:检测从周围对象反射的光以获得关于周围对象的距离信息和再发射信息;基于再发射信息来检测关于周围对象的角位置坐标作为角信息;使用检测的角位置坐标和相应的角周围环境的距离信息来建立以角位置坐标为中心的立方体,并从包括在该立方体中的距离信息检测平面片信息;使用取决于在平面片上光的入射角度的再发射信息来检测平面片的反射函数;提取并存储角信息、平面片信息和反射函数中的至少一个作为特征信息;以及将当前检测的特征信息与先前存储的特征信息进行匹配,以校正机器人的位置并更新存储的特征信息。
所述再发射信息可以是从周围对象反射的光的量或基于从周围对象反射的光的量创建的平面图像。此外,所述角信息可以是相应的角的位置坐标。所述平面片信息可以是关于相应平面片的平面方程参数,所述反射函数可以是表示取决于光相对于相应平面片的入射角度的再发射信息的函数。
以上,可基于尺度不变特征变换(SIFT)或Harris算法检测角。可通过在立方体被建立时使用最小二乘法(LSM)对以检测的角为中心的立方体之内的距离信息应用平面检测算法并输出平面来获得平面片。可通过对取决于在平面片上光的入射角度的再发射信息使用高斯函数进行曲线拟合来计算反射函数。
根据另一示例性方面,提供至少一种存储用于执行示例性实施例的方法的计算机可读指令的计算机可读介质。
应该理解的是,前述的概括性描述和下面的详细描述都是示例性和解释性的。
附图说明
通过下面结合附图进行对示例性实施例的描述,本发明的这些和/或其他方面将会变得清楚并更加容易理解,其中:
图1示出根据示例性实施例的机器人;
图2示出根据示例性实施例的3D距离传感器;
图3示出根据示例性实施例的特征信息提取设备;
图4示出根据示例性实施例的从再发射信息检测角信息;
图5示出根据示例性实施例的平面片的检测;
图6示出根据示例性实施例的反射函数;
图7示出根据示例性实施例的反射函数的计算;
图8示出根据示例性实施例的特征信息;
图9示出根据示例性实施例的提取特征信息的方法;
图10示出根据示例性实施例的特征地图创建设备;
图11示出根据示例性实施例的数据处理器;以及
图12示出根据示例性实施例的特征地图创建方法。
具体实施方式
现在将详细描述示例性实施例,其示例在附图中示出,其中,相同的标号始终表示相同的部件。下面通过参照附图来描述示例性实施例以解释本公开。
然而,示例性实施例可以以许多不同的形式来实施,而不应该被解释为限于在此提出的示例性实施例。相反,提供这些示例性实施例,使得本公开是彻底的,并且将本公开的范围充分传达给本领域技术人员。在附图中,为了清晰起见,可以夸大层和区域的尺寸和相对尺寸。在附图中,相同的标号表示相同的元件。
下面将参照附图详细描述特征信息提取设备和方法以及使用提取的特征信息的特征地图创建设备和方法。在本说明书中,在此使用的术语仅考虑各种功能来定义,从而可根据用户的意图或习惯而变化。因此,那些定义必须在本发明的整个公开的基础上理解。
通过在此给出的示例性实施例来描述的设备和方法可被应用于在预定范围内移动的同时执行任务的移动机器人,诸如探测指定范围的搜索机器人或用于房间清洁的清洁机器人。为了机器人在预定范围内移动的同时执行任务,机器人识别它自己的位置。为了执行定位,所述机器人具有或获得关于其周围环境的信息。关于机器人的周围环境的信息的代表性示例是特征地图。因此,通过在此给出的示例性实施例来描述的设备和方法可被应用到移动机器人以提取特征信息,或者可用于使用提取的特征信息来创建特征地图。
例如,在特征信息提取设备或特征地图创建设备的情况下,所述设备可包括安置在机器人上的传感器和处理由传感器获得的信息的数据处理器。这里,所述数据处理器可以经由微计算机中的软件或用于执行控制的控制芯片来实现,或者它可以形成为单独的数据处理芯片。
图1示出根据示例性实施例的移动机器人和用于提取特征信息以创建用于这样的移动机器人的定位的特征地图的设备。
参照图1,如上所述,机器人101在预定的范围内移动的同时执行指定的任务。为了移动,机器人101必须识别它自己的位置(定位),可使用存储在特征地图存储器104中的周围环境特征的地图来识别机器人的位置。因此,在机器人101执行其指定任务之前,必须预先构建所述特征地图。可由用户直接输入特征地图,或当机器人101探测周围区域时由机器人101创建所述特征地图。
图1示出在探测周围区域时提取关于对象(诸如障碍物)的特征信息,并使用提取的特征信息来构建特征地图的机器人101。
在图1中,传感器102被安装在机器人101上,并且向周围发射光。此外,传感器102检测从周围对象反射的光以获得关于周围环境的信息。例如,传感器102可以是用激光扫描周围环境并检测反射的激光的3D距离传感器。
由传感器102获得的关于周围环境的信息可以是关于对象的距离信息和再发射信息。使用光被发射的时间以及反射光到达的时间可计算距离信息,通过测量反射光的量可获得再发射信息。
特征信息提取器103使用由传感器102获得的距离信息和再发射信息来提取周围对象的特征信息以创建特征地图。这里,提取的信息可以是对象角(comer)信息(例如,角位置坐标)、平面片信息(例如,关于特定平面的平面方程参数)、反射函数(例如,根据关于特定平面的光入射角度的光反射量)等。
特征地图存储器104存储由特征信息提取器103提取的特征信息。即,由特征信息提取器103提取的特征信息的集合可以被理解为构成特征地图。
图2示出根据示例性实施例的传感器的一个示例。
参照图2,传感器102在上、下、左和右旋转的同时能够发射光并检测反射光。例如,传感器102可包括能够发射光的激光二极管(LD)以及形成在激光二极管(LD)附近的接收反射光的光电二极管(PD)。所述结构可以被安置在旋转轴上。因此,根据旋转轴的旋转从传感器102发出各种角度的光,但是为了方便,可将上/下或垂直角度指定为θ1并可将左/右或水平角度指定为θ2。
图3示出根据示例性实施例的特征信息提取设备的示例。
参照图3,特征信息提取设备300可包括:传感器301、角检测器302、平面检测器303和反射函数检测器304。
传感器301向周围环境发射光,检测从周围对象反射的光并获得关于对象的距离信息和再发射信息。这里,距离信息可以是传感器301与对象上的每点之间的距离,再发射信息可以是从对象反射的光的量或基于从对象反射的光的量创建的平面图像。这里,传感器301的结构的一个示例与图2相同。
角检测器320利用由传感器301获得的再发射信息检测对象的角信息。
例如,由于再发射信息可以是基于反射光的量创建的平面图像,所以可检测平面图像中的对象的每个角(即,对象角或边缘)。尺度不变特征变换(SIFT)或Harris技术等可以被用于角检测算法。
此外,检测的角信息可以是相应角的位置坐标。
图4示出使用角检测算法从再发射信息检测角信息的角检测器302的示例。
图4的左边示出机器人101从位置1移动到位置3,图4的右边示出当机器人101这样移动时由传感器301获得的再发射信息。
参照图4,可以看到由于通过再发射信息(该再发射信息是2D图像)检测特征,所以角被相对一致地检测到,而不管由于机器人101的移动引起的距离和角度的变化。这里,可使用获得的被重复地很好地检测到的特征作为注册特征。
再参照图3,平面检测器303使用在角检测器302中检测的角信息和相应角周围环境的距离信息来检测平面片信息。
图5示出根据示例性实施例的平面片的示例。
在图5中,当以在某一对象501中检测的角的位置坐标502为中心建立立方体时,平面片可以是通过使用最小二乘法(LSM)对包括在该立方体内的距离信息应用平面检测算法检测到的平面(如S1、S2等)。此外,S1和S2均可以通过平面方程来描述,并且平面检测器303可检测每个平面方程的参数作为平面片信息。
再参照图3,反射函数检测器304检测在平面检测器303中检测到的每个平面片的反射函数。
现在将先描述反射函数。
参照意图描述反射函数的图6,由于从传感器301以特定角度发射光,所以在对象上光的入射角度可具有不同的值。例如,当垂直入射角度θ1变化时,根据所述变化获得的光反射量(即,再发射信息)也变化。图6右边的图示出在入射角度变化的同时获得的再发射信息。如图所示,反射函数可通过取决于在平面片上光的入射角度的再发射信息来定义。
接下来,将描述反射函数检测器304检测反射函数的方法。
参照图7,机器人在移动的同时,针对检测的平面片获得关于预先建立的角度范围(如,大约0-30°的θ2)的再发射信息。当对于建立的角度范围获得所有的再发射信息时(例如,获得的信息与在图6的右边示出的相同),对所述信息使用高斯函数进行曲线拟合以计算反射函数R,这将被称作曲线拟合。
图8示出根据示例性实施例的特征信息。所述特征信息可以是通过具有图3中示出的结构的特征信息提取设备300获得的信息的集合。
参照图8,可看到提取的特征信息可以由对应于基于角的位置坐标检测到的至少一个平面片的信息关于各个平面片的反射函数构成。
图9示出根据示例性实施例的特征信息提取方法的示例。所述方法可由具有图3的结构的特征信息提取设备300来执行。
现在将详细描述图9的方法。
首先,在S901中,获得关于周围对象的距离信息和再发射信息。可由上述的传感器301获得所述信息。
接下来,在S902中,检测角信息。例如,角检测器302可对作为再发射信息获得的平面图像执行SIFT算法或Harris算法以检测角的位置坐标。
接下来,在S903中,检测平面片信息。例如,平面检测器303建立以S902中检测的角的位置坐标为中心的立方体并从该立方体内的距离信息来检测平面片。这里,可使用诸如最小二乘法的平面检测算法,并且平面片信息可表示每个平面片的平面方程的参数。
接下来,在S904中,检测平面片的反射函数。例如,反射函数检测器304可收集取决于在平面片上光的入射角度的再发射信息,并且通过使用高斯函数对收集的信息进行如图7的曲线拟合。
接下来,在S905中,将角信息、平面片信息和反射函数中的每一个注册为特征信息。
图10示出根据示例性实施例的特征地图创建设备的示例。
在图10中,根据示例性实施例的特征地图创建设备400被应用于移动机器人并可包括如图所示的传感器401和数据处理器402。
传感器401可以是如图2所示的安装在机器人中并向周围环境发射光的3D距离传感器。此外,传感器401可检测从周围对象反射的光并获得关于对象的距离信息和再发射信息。
数据处理器402可从传感器401所获得的信息提取关于周围对象的特征信息并保存提取的特征信息以创建特征地图。这里,特征信息可以是角位置坐标、角周围的平面片的平面方程的参数、平面片的反射函数等。
图11示出根据示例性实施例的数据处理器402的示例。
角检测器403使用由传感器401获得的再发射信息来检测关于对象的角信息。例如,角检测器403可对基于反射光的量创建的平面图像执行角检测算法,以检测相应角的位置坐标作为角信息(参照图4)。
平面检测器404使用在角检测器403中检测到的角信息和相应角周围环境的距离信息来检测平面片信息。例如,如图5所示,可建立以检测到的角为中心的立方体,可从该立方体内的距离信息检测平面片,并且可由相应的平面等式的参数来构成平面片信息。可以在算法中使用最小二乘法以检测平面。
反射函数检测器405对在平面检测器404中检测到的每个平面片检测反射函数。例如,如参照图6和图7的描述,可收集取决于在平面片上光的入射角度的再发射信息,并假定使用通过对再发射信息进行曲线拟合来计算所述反射函数。
特征地图存储器406存储检测的角信息、平面片信息和反射函数信息作为特征信息。例如,如图8所示,基于角的位置坐标可存储关于相应的平面片的平面片信息和反射函数中的至少一个。
更新单元407执行的功能是:将机器人执行它的任务时感测到的当前特征信息与存储在特征地图存储器406中的特征信息进行匹配以校正机器人的位置,并更新存储的特征信息。
图12示出根据示例性实施例的特征地图创建方法的示例。可由图10或图11的结构来执行所述方法。
现在将详细描述图12的方法。
首先,在S1201中,提取关于周围环境的特征信息。可采用图9中所示的方法作为提取方法,因此将省略所述提取方法的详细描述。
接下来,在S1202中,将提取的信息存储为特征地图信息。例如,角信息、平面片信息和反射函数等可以是特征信息。
接下来,在S1203中,执行当前特征信息和预先存储的特征信息之间的匹配。
接下来,在S1204中,将机器人的位置反映在匹配的特征信息中并校正所述位置。例如,当当前收集的特征信息与预先存储的特征信息中在位置A处检测到的特征信息最相似时,可将机器人移动到位置A。
接下来,在S1205中,根据机器人的位置的移动来更新存储的特征信息。
上述示例性实施例可被记录在计算机可读介质中,所述计算机可读介质包括实现由计算机实施的不同操作的程序指令。所述介质还可包括单独的或与所述程序指令结合的数据文件、数据结构等。计算机可读介质的示例包括磁性介质(诸如,硬盘、软盘和磁带);光学介质(如CD-ROM盘或DVD);磁光介质(诸如光盘);和专门构造以存储和执行程序指令的硬件装置(诸如只读存储器(ROM)、随机存取存储器(RAM)、闪存等)。所述计算机可读介质也可以是分布式网络,从而以分布式方式存储和执行程序指令。程序指令可以由一个或多个处理器来执行。所述计算机可读介质也可以实施于至少一个专用集成电路(ASIC)或现场可编程门阵列(FPGA)中。程序指令的示例包括如由汇编器产生的机器代码和包含可由计算机使用解释器执行的更高级代码的文件。所述硬件装置可以被设置为担当一个或多个软件模块以执行上述实施例的操作,反之亦然。
虽然显示和描述了几个示例性实施例,但是本领域技术人员应该理解,在不脱离范围由权利要求及其等同物限定的本公开的原理和精神的情况下,可对这些示例性实施例进行改变。
Claims (19)
1.一种用于提取周围对象的特征信息的设备,包括:
传感器,检测从周围对象反射的光以获得关于周围对象的距离信息和再发射信息;
角检测器,使用再发射信息来检测关于周围对象的角信息;
平面检测器,使用角信息和与角相应的周围环境的距离信息来检测平面片信息;以及
反射函数检测器,使用取决于在平面片上光的入射角度的再发射信息来检测平面片的反射函数。
2.如权利要求1所述的设备,其中,角信息、平面片信息和反射函数中的至少一个被用作周围对象的特征信息。
3.如权利要求2所述的设备,其中,角信息包括相应的角的位置坐标,平面片信息包括平面片的平面方程参数,并且反射函数包括平面片的反射函数参数。
4.如权利要求1所述的设备,其中,角信息包括周围对象的角的位置坐标,并且平面检测器建立以角位置坐标为中心的立方体并从该立方体的距离信息检测至少一条平面片信息。
5.如权利要求1所述的设备,其中,反射函数检测器通过使用高斯函数对再发射信息进行曲线拟合来计算反射函数。
6.一种用于创建用于移动机器人的定位的特征地图的设备,包括:
传感器,检测从周围对象反射的光以获得关于周围对象的距离信息和再发射信息;以及
数据处理器,使用距离信息和再发射信息来提取包括角信息、平面片信息和平面片的反射函数中的至少一个的特征信息,并存储提取的特征信息以创建特征地图。
7.如权利要求6所述的设备,其中,角信息包括相应的角的位置坐标,平面片信息包括平面片的平面方程参数,并且反射函数包括平面片的反射函数参数。
8.如权利要求6所述的设备,其中,数据处理器包括:
角检测器,使用再发射信息来检测关于周围对象的角信息;
平面检测器,使用角信息和与角相应的周围环境的距离信息来检测平面片信息;
反射函数检测器,使用取决于在平面片上光的入射角度的再发射信息来检测平面片的反射函数;
特征地图存储器,存储角信息、平面片信息或平面片的反射函数中的至少一个。
9.如权利要求8所述的设备,其中,数据处理器还包括:
更新单元,将当前特征信息与存储的特征信息进行匹配,以校正机器人的位置,并更新存储的特征信息。
10.如权利要求8所述的设备,其中,角信息包括周围对象的角的位置坐标,并且平面检测器建立以角位置坐标为中心的立方体并从该立方体的距离信息检测至少一条平面片信息。
11.如权利要求8所述的设备,其中,反射函数检测器通过使用高斯函数对再发射信息进行曲线拟合来计算反射函数。
12.一种用于创建特征地图的特征信息提取方法,包括:
检测从周围对象反射的光以获得关于周围对象的距离信息和再发射信息;
使用再发射信息来检测关于周围对象的角位置坐标作为角信息;
使用检测的角位置坐标和与角相应的周围环境的距离信息来建立以角位置坐标为中心的立方体,并从该立方体的距离信息检测平面片信息;
使用取决于在平面片上光的入射角度的再发射信息检测平面片的反射函数;
提取并存储角信息、平面片信息和反射函数中的至少一个作为特征信息。
13.如权利要求12所述的方法,其中,再发射信息是从周围对象反射的光的量或基于从周围对象反射的光的量创建的平面图像。
14.如权利要求12所述的方法,其中,通过使用高斯函数对再发射信息进行曲线拟合来计算反射函数。
15.一种创建用于移动机器人的定位的特征地图的方法,包括:
检测从周围对象反射的光以获得关于周围对象的距离信息和再发射信息;
基于再发射信息来检测关于周围对象的角位置坐标作为角信息;
使用检测的角位置坐标和与角相应的周围环境的距离信息来建立以角位置坐标为中心的立方体,并且从该立方体的距离信息检测平面片信息;
使用取决于在平面片上光的入射角度的再发射信息来检测平面片的反射函数;
提取并存储角信息、平面片信息和反射函数中的至少一个作为特征信息;以及
将当前的特征信息与存储的特征信息进行匹配,以校正机器人的位置并更新存储的特征信息。
16.如权利要求15所述的方法,其中,再发射信息是从周围对象反射的光的量或基于从周围对象反射的光的量创建的平面图像。
17.如权利要求15所述的方法,其中,通过使用高斯函数对再发射信息进行曲线拟合来计算反射函数。
18.至少一种存储计算机可读指令的计算机可读介质,所述计算机可读指令控制至少一个处理器实现如权利要求12所述的方法。
19.至少一种存储计算机可读指令的计算机可读介质,所述计算机可读指令控制至少一个处理器实现如权利要求15所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2008-0108438 | 2008-11-03 | ||
KR1020080108438A KR101591471B1 (ko) | 2008-11-03 | 2008-11-03 | 물체의 특징 정보를 추출하기 위한 장치와 방법, 및 이를 이용한 특징 지도 생성 장치와 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101726741A true CN101726741A (zh) | 2010-06-09 |
CN101726741B CN101726741B (zh) | 2013-05-22 |
Family
ID=42132435
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009101575749A Active CN101726741B (zh) | 2008-11-03 | 2009-07-14 | 提取特征信息的设备和方法及创建特征地图的设备和方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US8352075B2 (zh) |
JP (1) | JP5595677B2 (zh) |
KR (1) | KR101591471B1 (zh) |
CN (1) | CN101726741B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102908158A (zh) * | 2011-08-02 | 2013-02-06 | 三星电子株式会社 | 处理医学影像的方法和装置、及影像引导机器人手术系统 |
CN106940560A (zh) * | 2010-07-01 | 2017-07-11 | 德国福维克控股公司 | 具有区域划分的测绘制图 |
CN111812992A (zh) * | 2020-06-17 | 2020-10-23 | 三星电子(中国)研发中心 | 用于网关的智能家居控制方法和装置 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101591471B1 (ko) * | 2008-11-03 | 2016-02-04 | 삼성전자주식회사 | 물체의 특징 정보를 추출하기 위한 장치와 방법, 및 이를 이용한 특징 지도 생성 장치와 방법 |
US8532863B2 (en) * | 2009-09-28 | 2013-09-10 | Sri International | Audio based robot control and navigation |
KR101222624B1 (ko) * | 2010-12-17 | 2013-01-16 | 한국생산기술연구원 | 군집 로봇 및 군집 로봇을 이용한 수색 방법 |
CN104321665B (zh) * | 2012-03-26 | 2017-02-22 | 罗伯特·博世有限公司 | 基于多表面模型的跟踪 |
KR101942288B1 (ko) * | 2012-04-23 | 2019-01-25 | 한국전자통신연구원 | 위치 보정 장치 및 방법 |
KR101400400B1 (ko) * | 2012-09-28 | 2014-05-27 | 엘지전자 주식회사 | 로봇 청소기 및 로봇 청소기의 제어방법 |
JP6265499B2 (ja) * | 2012-11-06 | 2018-01-24 | Soinnホールディングス合同会社 | 特徴量抽出装置及び場所推定装置 |
US9371622B2 (en) * | 2013-10-22 | 2016-06-21 | James Connor Buckley | System and method to automatically determine irregular polygon for environmental hazard containment modules |
JP6750921B2 (ja) * | 2013-12-19 | 2020-09-02 | アクチエボラゲット エレクトロルックス | ロボット掃除機 |
CN104848848A (zh) * | 2015-03-30 | 2015-08-19 | 北京云迹科技有限公司 | 基于无线基站和激光传感器的机器人绘制地图和定位的方法及系统 |
KR101775114B1 (ko) * | 2016-01-25 | 2017-09-05 | 충북대학교 산학협력단 | 이동 로봇의 위치 인식 및 지도 작성 시스템 및 방법 |
CN107041718B (zh) * | 2016-02-05 | 2021-06-01 | 北京小米移动软件有限公司 | 清洁机器人及其控制方法 |
US11726490B1 (en) * | 2016-02-19 | 2023-08-15 | AI Incorporated | System and method for guiding heading of a mobile robotic device |
US10901431B1 (en) * | 2017-01-19 | 2021-01-26 | AI Incorporated | System and method for guiding heading of a mobile robotic device |
US10386847B1 (en) * | 2016-02-19 | 2019-08-20 | AI Incorporated | System and method for guiding heading of a mobile robotic device |
CN107782311A (zh) * | 2017-09-08 | 2018-03-09 | 珠海格力电器股份有限公司 | 可移动终端的移动路径规划方法及装置 |
US10293489B1 (en) * | 2017-12-15 | 2019-05-21 | Ankobot (Shanghai) Smart Technologies Co., Ltd. | Control method and system, and cleaning robot using the same |
EP3711699B1 (en) * | 2019-03-21 | 2024-01-03 | Stryker European Operations Limited | Technique for transferring a registration of image data of a surgical object from one surgical navigation system to another surgical navigation system |
JP7235691B2 (ja) * | 2020-03-23 | 2023-03-08 | 株式会社日立製作所 | 自動検査装置 |
Family Cites Families (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3578241D1 (de) * | 1985-06-19 | 1990-07-19 | Ibm | Verfahren zum identifizieren dreidimensionaler objekte mittels zweidimensionaler bilder. |
JPH05297141A (ja) | 1992-04-17 | 1993-11-12 | Canon Inc | 車載型物体検知装置 |
JP3149661B2 (ja) * | 1993-12-24 | 2001-03-26 | 株式会社ダイフク | 無人搬送車の位置同定方法 |
JP3660492B2 (ja) * | 1998-01-27 | 2005-06-15 | 株式会社東芝 | 物体検知装置 |
US6420694B1 (en) * | 1999-09-21 | 2002-07-16 | The Boeing Company | Steerable retroreflective system and method |
JP4141627B2 (ja) | 2000-09-11 | 2008-08-27 | 富士フイルム株式会社 | 情報獲得方法、画像撮像装置及び、画像処理装置 |
JP4150506B2 (ja) * | 2000-02-16 | 2008-09-17 | 富士フイルム株式会社 | 画像撮像装置及び距離測定方法 |
JP4409035B2 (ja) | 2000-03-22 | 2010-02-03 | 本田技研工業株式会社 | 画像処理装置、特異箇所検出方法、及び特異箇所検出プログラムを記録した記録媒体 |
JP4568967B2 (ja) * | 2000-07-13 | 2010-10-27 | ソニー株式会社 | 3次元画像生成システムおよび3次元画像生成方法、並びにプログラム記録媒体 |
US6909801B2 (en) * | 2001-02-05 | 2005-06-21 | National Instruments Corporation | System and method for generating a low discrepancy curve on an abstract surface |
US6959104B2 (en) * | 2001-02-05 | 2005-10-25 | National Instruments Corporation | System and method for scanning a region using a low discrepancy sequence |
JP2003281686A (ja) | 2002-03-20 | 2003-10-03 | Mitsubishi Heavy Ind Ltd | 距離画像センサ及び車種判別装置 |
JP4306183B2 (ja) | 2002-05-27 | 2009-07-29 | ソニー株式会社 | 固体撮像装置及びその駆動方法 |
CA2397389A1 (en) * | 2002-08-09 | 2004-02-09 | Djemel Ziou | Image model based on n-pixels and defined in algebraic topology, and applications thereof |
AU2003300959A1 (en) * | 2002-12-17 | 2004-07-22 | Evolution Robotics, Inc. | Systems and methods for visual simultaneous localization and mapping |
KR100520078B1 (ko) * | 2003-08-04 | 2005-10-12 | 삼성전자주식회사 | 로봇시스템 및 비콘 |
JP3887377B2 (ja) * | 2004-01-19 | 2007-02-28 | 株式会社東芝 | 画像情報取得装置、画像情報取得方法及び画像情報取得プログラム |
WO2005087452A1 (ja) | 2004-03-17 | 2005-09-22 | Sony Corporation | ロボット装置、及びその動作制御方法、並びに移動装置 |
US7720554B2 (en) * | 2004-03-29 | 2010-05-18 | Evolution Robotics, Inc. | Methods and apparatus for position estimation using reflected light sources |
US7831094B2 (en) * | 2004-04-27 | 2010-11-09 | Honda Motor Co., Ltd. | Simultaneous localization and mapping using multiple view feature descriptors |
JP4479372B2 (ja) * | 2004-06-25 | 2010-06-09 | ソニー株式会社 | 環境地図作成方法、環境地図作成装置、及び移動型ロボット装置 |
JP4218963B2 (ja) | 2004-06-28 | 2009-02-04 | 株式会社東芝 | 情報抽出方法、情報抽出装置及び記録媒体 |
JP4433907B2 (ja) * | 2004-07-06 | 2010-03-17 | 富士ゼロックス株式会社 | 3次元形状測定装置および方法 |
US20060017720A1 (en) * | 2004-07-15 | 2006-01-26 | Li You F | System and method for 3D measurement and surface reconstruction |
JP4438557B2 (ja) | 2004-08-10 | 2010-03-24 | ソニー株式会社 | 撮像装置、情報処理装置及び情報処理方法、並びにコンピュータ・プログラム |
JP4501587B2 (ja) * | 2004-08-18 | 2010-07-14 | 富士ゼロックス株式会社 | 3次元画像測定装置および方法 |
KR100754385B1 (ko) * | 2004-09-30 | 2007-08-31 | 삼성전자주식회사 | 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법 |
KR100587572B1 (ko) | 2004-10-15 | 2006-06-08 | 삼성전자주식회사 | 카메라 픽셀 정보를 이용하여 공간상의 코너 포인트를추출하는 시스템 및 방법, 상기 시스템을 포함하는 이동로봇 |
KR100657915B1 (ko) * | 2004-11-26 | 2006-12-14 | 삼성전자주식회사 | 코너 검출 방법 및 코너 검출 장치 |
KR100633160B1 (ko) * | 2004-12-17 | 2006-10-11 | 삼성전자주식회사 | 비콘을 이용하여 위치 및 방향 인식이 가능한 로봇시스템 |
KR100776215B1 (ko) * | 2005-01-25 | 2007-11-16 | 삼성전자주식회사 | 상향 영상을 이용한 이동체의 위치 추정 및 지도 생성장치 및 방법과 그 장치를 제어하는 컴퓨터 프로그램을저장하는 컴퓨터로 읽을 수 있는 기록 매체 |
KR100698828B1 (ko) | 2005-02-28 | 2007-03-23 | 한국과학기술원 | 조명-반사율 모델에 기반한 영상의 왜곡 보정 시스템 및 방법 |
JP2007040762A (ja) * | 2005-08-01 | 2007-02-15 | Toyota Motor Corp | 光ジャイロ較正装置、光ジャイロを搭載するロボット及び光ジャイロ較正プログラム |
KR100813100B1 (ko) * | 2006-06-29 | 2008-03-17 | 성균관대학교산학협력단 | 실시간 확장 가능한 스테레오 매칭 시스템 및 방법 |
KR100863245B1 (ko) * | 2006-07-18 | 2008-10-15 | 삼성전자주식회사 | 거리측정 기능을 갖는 비컨, 이를 이용한 위치인식시스템및 그 위치인식방법 |
CN101008571A (zh) * | 2007-01-29 | 2007-08-01 | 中南大学 | 一种移动机器人三维环境感知方法 |
KR101014572B1 (ko) * | 2007-08-27 | 2011-02-16 | 주식회사 코아로직 | 영상 왜곡 보정 방법 및 그 보정 방법을 채용한 영상처리장치 |
KR101461185B1 (ko) * | 2007-11-09 | 2014-11-14 | 삼성전자 주식회사 | 스트럭쳐드 라이트를 이용한 3차원 맵 생성 장치 및 방법 |
KR101503903B1 (ko) * | 2008-09-16 | 2015-03-19 | 삼성전자 주식회사 | 이동 로봇의 지도 구성 장치 및 방법 |
KR101591471B1 (ko) * | 2008-11-03 | 2016-02-04 | 삼성전자주식회사 | 물체의 특징 정보를 추출하기 위한 장치와 방법, 및 이를 이용한 특징 지도 생성 장치와 방법 |
-
2008
- 2008-11-03 KR KR1020080108438A patent/KR101591471B1/ko active IP Right Grant
-
2009
- 2009-06-02 JP JP2009133125A patent/JP5595677B2/ja active Active
- 2009-06-03 US US12/457,203 patent/US8352075B2/en active Active
- 2009-07-14 CN CN2009101575749A patent/CN101726741B/zh active Active
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106940560A (zh) * | 2010-07-01 | 2017-07-11 | 德国福维克控股公司 | 具有区域划分的测绘制图 |
CN102908158A (zh) * | 2011-08-02 | 2013-02-06 | 三星电子株式会社 | 处理医学影像的方法和装置、及影像引导机器人手术系统 |
CN102908158B (zh) * | 2011-08-02 | 2016-06-01 | 三星电子株式会社 | 处理医学影像的方法和装置、及影像引导机器人手术系统 |
CN111812992A (zh) * | 2020-06-17 | 2020-10-23 | 三星电子(中国)研发中心 | 用于网关的智能家居控制方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
KR101591471B1 (ko) | 2016-02-04 |
JP2010107495A (ja) | 2010-05-13 |
CN101726741B (zh) | 2013-05-22 |
US20100114374A1 (en) | 2010-05-06 |
KR20100049325A (ko) | 2010-05-12 |
US8352075B2 (en) | 2013-01-08 |
JP5595677B2 (ja) | 2014-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101726741B (zh) | 提取特征信息的设备和方法及创建特征地图的设备和方法 | |
US11189044B2 (en) | Method and device for detecting object stacking state and intelligent shelf | |
Gressin et al. | Towards 3D lidar point cloud registration improvement using optimal neighborhood knowledge | |
Xiao et al. | Planar segment based three‐dimensional point cloud registration in outdoor environments | |
US9958269B2 (en) | Positioning method for a surveying instrument and said surveying instrument | |
CN104536445B (zh) | 移动导航方法和系统 | |
US9483703B2 (en) | Online coupled camera pose estimation and dense reconstruction from video | |
US9400941B2 (en) | Method of matching image features with reference features | |
Taylor et al. | Multi‐modal sensor calibration using a gradient orientation measure | |
CN103890606A (zh) | 用于使用雷达-光学成像融合来创建地图的方法和系统 | |
CN104732514A (zh) | 用于处理高度图的设备、系统和方法 | |
CN110428372B (zh) | 深度数据与2d激光数据融合方法及装置、存储介质 | |
CN110766758A (zh) | 标定方法、装置、系统及存储装置 | |
US20210398300A1 (en) | System and Method for Aerial to Ground Registration | |
Krylov et al. | Object geolocation using mrf based multi-sensor fusion | |
Skrzypczyński | Mobile robot localization: Where we are and what are the challenges? | |
Nüchter et al. | Skyline-based registration of 3D laser scans | |
Viejo et al. | A robust and fast method for 6DoF motion estimation from generalized 3D data | |
Morris et al. | Ladar-based mover detection from moving vehicles | |
KR101693811B1 (ko) | 밸브 모델링 방법 및 장치 | |
Jende et al. | Low-level tie feature extraction of mobile mapping data (MLS/images) and aerial imagery | |
GB2607598A (en) | Aligning 3D datasets | |
Altuntas | Pair-wise automatic registration of three-dimensional laser scanning data from historical building by created two-dimensional images | |
Ahuja et al. | Three‐dimensional Scan Registration using Curvelet Features in Planetary Environments | |
Forsman | Three-dimensional localization and mapping of static environments by means of mobile perception |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |