CN112947444A - 使用物理特征定位和制图 - Google Patents
使用物理特征定位和制图 Download PDFInfo
- Publication number
- CN112947444A CN112947444A CN202110170845.5A CN202110170845A CN112947444A CN 112947444 A CN112947444 A CN 112947444A CN 202110170845 A CN202110170845 A CN 202110170845A CN 112947444 A CN112947444 A CN 112947444A
- Authority
- CN
- China
- Prior art keywords
- robot
- data
- autonomous mobile
- mobile robot
- path
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013507 mapping Methods 0.000 title abstract description 30
- 238000000034 method Methods 0.000 claims abstract description 62
- 230000004044 response Effects 0.000 claims abstract description 21
- 238000004140 cleaning Methods 0.000 claims description 18
- 239000000872 buffer Substances 0.000 claims description 13
- 238000013459 approach Methods 0.000 claims description 10
- 230000005855 radiation Effects 0.000 claims description 4
- 230000000977 initiatory effect Effects 0.000 claims description 2
- 210000004027 cell Anatomy 0.000 description 66
- 230000006399 behavior Effects 0.000 description 54
- 230000009471 action Effects 0.000 description 17
- 230000003287 optical effect Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 7
- 230000005055 memory storage Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000004807 localization Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 239000012528 membrane Substances 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000010399 physical interaction Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000003888 boundary cell Anatomy 0.000 description 1
- 235000012186 breakfast bars Nutrition 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/20—Control system inputs
- G05D1/24—Arrangements for determining position or orientation
- G05D1/246—Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM]
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0219—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0227—Control of position or course in two dimensions specially adapted to land vehicles using mechanical sensing means, e.g. for sensing treated area
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0272—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/617—Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards
- G05D1/622—Obstacle avoidance
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/644—Optimisation of travel parameters, e.g. of energy consumption, journey time or distance
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/648—Performing a task within a working area or space, e.g. cleaning
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/617—Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards
- G05D1/622—Obstacle avoidance
- G05D1/628—Obstacle avoidance following the obstacle profile, e.g. a wall or undulated terrain
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明涉及使用物理特征定位和制图。一种方法,包括:(i),在跟随模式操纵机器人,其中,所述机器人被控制为沿着邻近障碍物的路径区段的行进,同时记录指示路径区段的数据,以及(ii),以覆盖模式操纵机器人,其中所述机器人被控制为穿越区域。所述方法包括产生指示所述区域的布局数据,至少基于测距更新指示计算的机器人姿态的数据,以及计算姿态置信水平。所述方法包括,基于计算的机器人姿态和指示布局的数据,响应于所述置信水平低于置信界限,操纵机器人至所述路径区段的可疑地点,以及,响应于从所述可疑地点在距离内探测所述路径区段,更新指示所述计算的姿态和/或所述布局的数据。
Description
本申请是申请日为2015年7月10日、申请号为201510405861.2、发明名称为“使用物理特征定位和制图”的发明专利申请的分案申请。
技术领域
本发明一般涉及移动设备的导航。具体地,本发明涉及可用在例如移动机器人地移动设备中的定位和制图技术。
背景技术
移动机器人的定位技术可以包括允许机器人相对于其周边确定其位置和导向(或“姿态”)的过程。可以构件其周边地图的机器人可以在地图中定位其本身,以展示自主程度。该构件地图的过程和使用所生成的地图被称作同步定位和制图(SLAM)。SLAM涉及地图的构建(制图)以及地图的使用(定位),因此包括与定位相关的过程和与制图相关的过程。机器人可同步地或以多元方式执行这些过程。SLAM技术可包括使用测距,机械接触传感器,或非接触测距传感器例如激光测距仪或基于图像传感器来构建地图。
发明内容
本发明的一方面特征在于机器人配制成在至少部分地由墙壁包围的区域内导航。所述机器人以跟随模式操纵,其中,所述机器人被控制为沿着邻近障碍物的路径区段行进,同时记录指示所述路径区段的数据。所述机器人以覆盖模式中操纵,其中,所述机器人被控制为穿过所述区域同时执行功能。在以覆盖模式操纵机器人的同时,产生指示所述区域的物理布局的数据,至少基于机器人测距数据,更新指示计算的机器人姿态的数据,并且计算机器人姿态置信水平。指示所述区域的物理布局的数据,包括在执行所述功能时探测到的区域边界和障碍物周长。所述计算的机器人姿态包括在所述区域内机器人的计算的地点和导向。所述机器人响应于所述机器人姿态置信水平,其低于预定置信界限,基于所述计算的机器人姿态和指示所述区域的物理布局的数据,操纵所述机器人至所述路径区段的可疑地点,响应于在所述路径区段的可疑地点在预定距离内探测邻近所述障碍物的所述路径区段,更新指示所述计算的机器人姿态的数据和指示所述区域的物理布局的数据中的至少一个,从而更新在区域内所述机器人的相对姿态。
在一些实例中,所述机器人还选择所述路径区段的所述可疑地点,其被操纵以便基于来自所述路径区段的可疑地点的第一穿越的时间差。所述机器人还选择所述路径区段的所述可疑地点,其被操纵以便基于来自所述路径区段的可疑地点的第一穿越的距离差。所述机器人可构建在所述墙壁跟随模式中路径区段的库,并且其中,响应于下降到低于所述预定置信界限的所述机器人姿态置信水平,所述机器人被操纵至路径区段的可疑地点,所述可疑地点根据关于所述机器人的其可疑相对位置来被选定。
在某些情况下,所述机器人基于所述指示所述区域的物理布局的数据,构建路径区段的库,并且其中,响应于下降到低于所述预定置信界限的所述机器人姿态置信水平,所述机器人被操纵至路径区段的可疑地点,所述可疑地点根据关于所述机器人的其可疑相对位置来被选定。所述机器人在更新所述指示计算的机器人的地点的数据和指示所述区域的物理布局的数据的任一个之后,再次以覆盖模式操纵所述机器人。所述机器人响应于探测到的障碍物同时以覆盖模式操纵,启动所述跟随模式。
在一些实例中,相对于指示所述区域的物理布局的数据更新指示所述计算的机器人姿态的数据,使两个或多个区段重新定位至所述指示所述区域的物理布局的数据。相对于指示所述区域的物理布局的数据更新指示所述计算的机器人姿态的数据,使所述指示所述机器人姿态的数据重新定位至所述指示所述区域的物理布局的数据。记录指示所述路径区段的数据包括:从在所述机器人上的传感器收集数据。比较所述数据包括:比较路径长度、所述数据的开始姿态、所述数据的结束姿态、行进的直线路程、以及曲率中的至少一个。探测所述障碍物包括物理地接触所述探测到的障碍物
在某些情况下,所述传感器是里程表、辐射收发器、碰撞传感器、压力传感器、以及接近传感器。
在某些情况下,所述功能包括清扫所述区域内的地板。
在一些实施中,在操纵所述机器人至所述路径区段的可疑地点后,所述机器人以跟随模式操纵所述机器人以跟随所述探测到的障碍物,同时记录机器人姿态数据,从所述记录的机器人姿态数据,产生指示沿所述探测到的障碍物的所述机器人的路径的数据。更新所述指示计算的机器人姿态的数据可包括,将所述指示沿着所述探测到的障碍物的所述机器人的路径的数据与指示在所述跟随模式中记录的所述路径区段的数据相比较,以确定沿着所述探测到的障碍物的所述机器人的路径是否与在所述跟随模式中记录的所述路径区段充分匹配,并且在确定充分匹配时,按照充分匹配的路径区段,更新所述指示计算的机器人地点的数据和所述指示所述区域的物理布局的数据的任一个。
机器人系统的实施例可包括以下一个或多个特征。机器人系统可以通过跟踪测距估算机器人的姿态并且可使用其它机载传感器估算它的在姿态推算的置信。机器人系统然后通过使用姿态推算来产生环境的地图。然后机器人的驱动系统的测距可被用于推算姿态。因为测距数据可能受到偏移和误差,在机器人上的其它传感器可以用来校正偏移和误差或推算偏移和误差。在机器人上的加速度计和陀螺仪可以感应线性和角加速度以在机器人导航时推算误差累积。机器人系统可以为机器人系统推算姿态的每个情况计算置信。因此,随着时间的推移,所述机器人系统可确定适当的时间来通过对环境重新定位恢复置信。
机器人可以使用在导航期间与环境物理相互作用而产生数据,用以对环境对其本身重新定位。例如,当机器人在周围环境中导航并且执行行为以覆盖并清扫环境时,机器人可以碰到障碍物,跟随墙壁,或以其它方式与环境的物理元件进行相互作用。机器人可以记录这些物理相互作用,它们随着机器人导航行为的一部分发生,用来指定存在于环境中的独特的物理地标。然后,当机器人确定其姿态置信已下降到低于预定置信界限时,独特的地标可以被用于重新定位机器人。
以上机器人系统的特征可以包括一个或更多的优点。使用传统地已经存在于移动机器人上的传感器,如编码器,碰撞传感器,陀螺仪,以及加速度计,降低了机器人系统的成本,并增加了整体可制造性。例如,机器人系统使用用于导航的传感器产生SLAM的数据,从而避免对于SLAM特定的额外传感器的需要。由于更少的部件,机电系统保持更加简单。
此外,由传感器收集的数据在计算上是低成本的。例如,相对于使用大的文件大小的VSLAM图像类型,在机器人系统中实施的SLAM系统需要的存储更少。在常规的SLAM机器人系统中,可能有用于制图、定位和导航的单独的传感器。由这些传感器生成和存储的数据量在计算上可能是昂贵的。事实上,这些系统可能只能够存储机器人使用时所收集的数据量的一小部分。在本申请中所描述的SLAM系统可以有利地以更好的效率收集更大量的数据。所述系统还可以通过在重新定位期间比较不太复杂的数据而有效地促进机器人重新定位。
一个或多个实施的细节在附图和书面描述中阐述。从说明书,附图和权利要求书,其它特征,目的和优点将变得显而易见。。
附图说明
图1A示出了自主机器人的透视图。
图1B示出了图1A的自主机器人的仰视图。
图1C示出了在图1A-B所示的自主机器人上执行的控制系统的框图。
图2示出导航自主机器人的流程图。
图3示出具有自主机器人的区域的俯视图。
图4A-C示出了房间和图3的自主机器人,自主机器人跟随的不同的路径,以及对应于房间的虚拟地图。
在各个附图中,相同附图标记表示相同的元件。
具体实施方式
自主机器人使用同步定位与绘图(SLAM)围绕房间智能地导航。机器人可以通过感测房间的自然特征停留在一个地方。机器人可以使用一个或多个视觉传感器以及一个或多个航位推算传感器来处理数据SLAM有关的并且自主地生成和更新地图。机器人的控制器操作传感器系统,以随着机器人来回移动连续地推算房间内的机器人的姿态,并接收关于房间的信息。“姿态”在本文中包括机器人在房间内的位置(例如,x,y坐标地点),以及相对于例如在房间中的墙壁或基本方向的所述机器人的角度导向。感应的“特征”在本文中描述从环境的物理元件收集的信息和数据。例如,一特征可以对应于随着机器人绕环境的物理元件行驶由机器人感应的几何轮廓。
在机器人的智能导航一些实例中,机器人生成模板,或地标,对应于机器人可以探测的环境中的一个或多个特征,使用,例如,在机器人上的传感器。机器人构件环境的物理布局的地图(例如,一个或多个房间或房间内的部分),物理布局包括独特的地标(在本文中也称为“标识”),其包括一个或多个特征。机器人推算其在环境中的姿态,并使用产生的模板减少姿态推算中的误差。随着机器人跟随环境中的障碍物(例如,家具和固定装置)和墙壁,机器人可以生成对应于特征的独特组合的路径区段的模板,其识别障碍和/或墙壁的特定布置和位置。存储在模板中的特征包括来自传感器的传感器数据的汇编,其识别每个独特的路径区段。
例如,传感器数据可以包括几何(由非接触式测距传感器,例如体积点云传感器,IR点和线测距传感器和声纳感应的),碰撞传感器数据,图像数据,和由传感器系统的传感器产生的其它数据。第二,随着机器人绕房间移动,所述机器人生成控制器使用的指示房间的物理布局的数据,以产生存储在存储器存储元件上的虚拟地图或占用网格。随着占用网格生成,控制器追踪不断更新指示占用网格内的机器人的姿态的数据。指示姿态的数据可以是推算值,随着机器人继续绕房间移动该推算值误差增加。在一些实例中,机器人以误差代表与所推算的姿态相关联的置信度量。在其它实例中,机器人以与所推算的姿态相关联的不确定性的量度代表误差。最后,通过移动机器人到上述路径区段中的可疑地点,机器人可以减少不确定性,或增加在其姿态上的置信。在到达路径区段时,机器人的传感器系统可产生对应于它的围绕路径区段的可疑地点的运动的信号。机器人执行模板匹配算法以确定所生成的传感器数据是否与较早产生的相应的路径区段的模板匹配。如果传感器数据与模板匹配,则控制器通过基于房间内模板的位置确认机器人的姿态或重新定位机器人,可以重新定向占用网格,从而恢复在姿态推算上的置信。
机器人概述
参照图1A,机器人100包括主体102,前向部分104和后向部分106。通过相对于由主体102限定的三个互相垂直的轴线的各种运动组合,机器人100可移动穿过物理环境的地板表面:横向轴线X,前后轴线Y,中央垂直轴线Z。沿着前后轴线Y的前向驱动方向被指定F(以下称为“前向”),并且沿着所述前后轴线Y的后驱动方向指定为A(以下称为“后向”)。横向轴线Y在机器人100的右侧R和左侧L之间延伸,其大致上沿着由轮子模块108a、108b的中心点限定的轴线,简要参考图1B。在一些实施中,机器人100具有圆形外周。在其它实施中,前向部分104基本上具有矩形横截面,并且后向部分106基本上是圆形的,具有半圆形横截面。机器人主体102的其它几何形状可以预期,例如勒洛三角形或等宽多边形。
设置在主体102的顶部的用户界面110接收一个或多个用户命令并且/或者显示机器人100的状态。设置在前向部分104上的一个或多个障碍物探测传感器111评估障碍物距离机器人100的距离。在一个实施中,一个或多个传感器是飞行传感器点测距时间,线测距传感器,或体积点云传感器。在另一实施中,一个或多个障碍物探测传感器111是设置在前向部分104上的声纳传感器,用作超声波传感器的换能器,以评估障碍物到机器人100的距离。在机器人100右侧的墙壁跟随传感器113是IR传感器,可以确定机器人100何时跟随墙壁。机器人100的左侧L也可具有墙壁跟随传感器。主体102的前向部分还承载缓冲器115,其探测在机器人100的驱动路径上的障碍物。
参照图1B,机器人100的底表面107包括带有发动机109a-b的轮子模块108a-b,该发动机差动地驱动轮子110a-b中。发动机109a-b联接到旋转编码器112a-b。机器人100的底表面107进一步包括清扫头120,带有前滚轮122a和后滚轮122b,边刷125,脚轮130,间隙调节器132a-b,光学鼠传感器133,惯性测量单元(IMU)134,和悬壁传感器135a-135d沿着横向轴线X的轮子模块108a和108b,在常规清扫程序期间推动机器人100穿过地板表面。发动机109a-b驱动各自的轮子110a-b。随着发动机109a-b驱动轮子110a-b中,旋转编码器112a-b测量发动机109a-b的发动机轴的位置。如将在下面所讨论的,测距系统采用了旋转编码器112a-b,来推算机器人100所行进的距离。
随着机器人在前向方向F上移动,并且接触环境中的障碍物,设置在机器人100的前向部分104上的缓冲器115探测接触并且产生响应于接触障碍物的信号。在一些实施方式中,缓冲器115是固态触觉传感缓冲器,其在接触障碍物时可以探测物理或电学特性。在一些情况下,缓冲器115可以环绕机器人的全部侧面和后向部分。例如,所述缓冲器115可包括接触传感器膜,其感应所施加的力,并且接触传感器膜可以围绕机器人100的周边的一部分或全部施加,使得与环境的物理结构的接触可以在任何运动方向上感应到。在这些实施方式中,机器人100可以利用沿缓冲器115的接触传感器膜的接触的地点,以避开障碍物或执行墙壁跟随行为。在另一个实施中,缓冲器115包括沿缓冲器115的前表面和侧表面设置的电容缓冲器传感器。在一些情况下,电容缓冲器传感器可沿缓冲器115的顶表面向上设置,使得所述电容缓冲器传感器可以从另外的方向(例如,从机器人以上)感应到接触。缓冲器的实例是美国专利申请公开号14/277270,标题为“Compliant Solid-State Bumper forRobot”,其通过引用将其整体并入本文。
在另一个实施中,缓冲器115是可动件,并包括一个或多个机械开关,以使得与环境中的障碍物接触触发缓冲器开关117L和117R。缓冲器开关117R位于机器人100的右侧。缓冲器开关117L位于机器人100的左侧。两个缓冲器开关117L和117R相对于前向驱动方向F位于轮子110a-b的前向中。在某些情况下,当机器人100接触地标时,一个以上的缓冲器的开关117L和117R可以顺序被触发。机器人100可以使用缓冲器开关117R和117L的顺序致动,以避开障碍物,或执行墙壁跟踪行为。
可移动清扫头120被安装在底盘的前向部分上并且包括安装在其中的两个反向旋转滚轮,前滚轮122a和后滚轮122b,用于从清扫表面重新获得碎屑。机器人主体102包括边刷125,或角刷,其设置在机器人主体102的底部后向部分104上。边刷125位于主体102的前向部分104的横向侧。前滚轮122a与后滚轮122b与边刷125合作清扫区域的地板,通过用边刷125(其伸出机器人主体10的周界)吸入被重新引导至前滚轮122a和后滚轮122b的路径中的碎屑,以捕获在裂缝中的以及沿着超出清扫头120所及的边缘的碎屑。
脚轮130支撑机器人主体102的后向部分106,使得悬臂清扫头120向清扫表面偏置。在一些实施中,脚轮130旋转并且被垂直地弹簧加载以使脚轮130偏置,以保持与地板表面接触,并且,在脚轮130中的传感器可以探测机器人100是否不再与地板表面接触(例如,当机器人100后退离开台阶,使得垂直地弹簧加载的旋转家脚轮130可以跌落)。由机器人主体102可旋转地支撑的间隙调节器132a-b,保持主体102的底表面和地板表面之间的最小间隙高度(例如,至少2mm)。
机器人主体102的底部包括光学鼠标传感器133。光学鼠标传感器包括光源和低分辨率相机。在机器人绕环境航行时光源照射所述机器人主体102下方的地板,并且低分辨率相机连续记录和比较地板的顺序的低分辨率图像(例如,约20×20像素)。如后面将要描述的,随着机器人100绕环境航行,机器人100使用光学鼠标传感器133来推算偏移在x和y方向的偏移。
机器人主体102还容纳IMU 134。在实施中,IMU包含3轴加速计和3轴陀螺仪。3轴加速度计测量x,y和z加速度,3轴陀螺仪测量围绕x,y和z轴的旋转(例如,俯仰,偏转和滚动)。如将在下面描述的,IMU 134的加速器可以用于推算在x和y方向上的偏移,IMU 134的陀螺仪可以用来推算在机器人100的导向θ上的偏移。
机器人100包括在驱动轮110a-b后一段距离、靠近机器人主体102的前边缘和后边缘的多个悬壁传感器135a-d,其能够使机器人100接收悬壁传感器信号并且在离开感应到的下降之前停止轮子110a-b。悬壁传感器135b和134c位于邻近所述机器人的前表面的前向部分104,并且悬壁传感器135a和135d的位于后向部分106上。每个悬壁传感器135a-d设置靠近其中一个侧表面,以便使机器人100可以从其主体102的任一侧探测到即将到来的下降或悬壁。每个悬壁传感器135a-d发出辐射,例如红外光,并且两探测所述辐射的反射,来确定在悬壁探测器135a-d之下从悬壁传感器135a-d至表面的距离。比地板和悬壁传感器135a-d之间与其的间隙更大的距离,例如大于2mm,指示出悬壁传感器135a-d已探测到在地板地形上类似悬壁的障碍物或者环境元件。
在本文中机器人的硬件可包括在申请号PCT/US2014/025665,申请日2014年3月13日,题为“Roller brush for surface cleaning robots”,以及美国申请13/460261,提交日2012年4月30日,题为“Robotic Vacuum”的所公开的机器人系统的各方面,这两者都通过引用全部并入本文。
控制系统硬件
现在还参照图1C,机器人102的主体100容纳控制系统149,其包括电源系统150,清扫系统155,驱动系统160,导航系统170,传感器系统180,控制器电路190(在此也称为“控制器190”),以及存储器存储元件195。电力系统150,其包括电源,提供电力至可与机器人100操作的系统。电力系统150可以进一步包括电源系统150内的充电系统,其可连接到外部充电基座,以给电源充电。清扫系统155使用滚轮122a-b,边刷125,以及装在机器人主体102中的碎屑盒风扇123以吸入碎屑。
所述驱动器160可以基于具有x,y和θ分量的驱动命令操纵机器人100穿过地板表面(图1A中示出)。所述驱动器160控制发动机109a、109b来驱动轮子模块108a-b的轮子110a-b,使得轮组件108a-b可以沿地板表面的任何驱动方向机器人100。轮子模块可差动操作,使得机器人可以基于提供给每个驱动轮110a-b的驱动水平转动。轮子模块108a-b的独立发动机109a,109b驱动各轮子110a-b,使得轮子110a-b可以彼此独立地旋转。其结果是,轮子110a-b的独立的旋转可以使机器人100的前向驱动方向F旋转至新的导向。
导航系统170,在控制器190上执行的基于行为的系统,可以发送指令到驱动系统160,使得机器人100可以使用驱动器160来导航环境。导航系统170与传感器系统180进行通信,以发出驱动命令到驱动器160。
在实施例中,传感器系统180包括设置在机器人100上的传感器,例如障碍物探测传感器111,轮子编码器112a-b,缓冲器开关117L和117R,光学鼠标传感器133,IMU 134和悬壁传感器135a-e。传感器系统180的一些或全部传感器产生与在环境中的结构元件的特征有关的数据,从而能够使导航系统170确定使用的模式或行为,以便绕环境导航,用于房间或小屋的完全覆盖或用于避免潜在的危险,例如会呈现楔形状态的低悬或将呈现搁浅状态的灯座。传感器系统180的各种传感器的一个或多个可以被用于产生与一个或多个特征或地标有关的数据。传感器系统180创建机器人的环境的感知,其足以以允许机器人100做出关于在环境中动作(例如,导航动作,驱动器动作)的智能决策。传感器系统180收集数据,以允许机器人100执行SLAM技术,如将在后面描述的。
传感器系统180可包括障碍探测避障(ODOA)传感器,测距声纳传感器,接近传感器,雷达传感器,LIDAR(光探测和测距,其可以带来测量散射光的属性来查找范围和/或遥远目标的其它信息的光学遥感)传感器,可以与所述间隙调节器132a-b操作的间隙传感器,照相机(例如,体积点云成像,三维(3D)成像或深度地图传感器,可见光相机和/或红外线相机),可以与所述脚轮130操作能够探测所述脚轮130的运动的轮子下降传感器。传感器系统还可以包括通信传感器,导航传感器,接触传感器,激光扫描仪和其它传感器,以方便导航、探测障碍物和机器人的其它任务100。接近传感器可以采取接触传感器的形式(例如,探测在带有物理屏障的机器人上的缓冲器的影响的传感器,例如电容传感器或机械开关传感器),和/或LIDAR传感器,其探测机器人何时接近附近的物体。
控制器190通过与每个系统通信,提供和接受输入和输出参数操作机器人100的其它系统。控制器190有利于电力系统150,清扫系统155,驱动系统160,导航系统170,传感器系统180,和存储器存储元件195之间的通信。例如,控制器190可以指示电力系统150提供电力给驱动系统160的发动机来在前向驱动方向F移动机器人100。控制器190还可以指示对电力系统150进入充电模式。控制器190可以指示电力系统150提供特定电力水平(例如,全电力的百分比)到各个系统。
控制器190可以响应于,例如,从导航系统170和传感器系统180接收的信号重定向驱动系统160的模块108a-b。控制器190操作导航系统170来操纵机器人100以路径或路线通过环境。导航系统170可以提供指令给机器人控制器190,通过独立地控制驱动系统160的各轮子模块108a的-b,来操纵机器人100在整个环境中的任何方向穿过环境。例如,机器人控制器190可以操纵机器人100以前向方向F、后向方向A,右方向R,和左方向L。机器人控制装置190可以操纵机器人100基本原地旋转,使得机器人100可以操纵远离或沿着障碍物,墙壁,或环境的其它结构元件。机器人控制器190可以指示机器人100在穿过地板表面时在基本上随机的(例如,伪随机的)路径上,以SLAM或VSLAM启用的机器人,并且以确定的清扫模式。
使用控制器190,机器人100可以响应由缓冲器115探测到的事件,如在区域内接触障碍物和墙壁。响应可以包括使用导航系统170和驱动系统160控制轮子模块108a-b操纵机器人100,以响应所述事件。机器人100可以,例如,离开障碍物或沿着邻近所述障碍物的路径。
在一些实施中,控制器190可以包括障碍物探测,规避方法和行为,其实施以响应于所述缓冲器开关117L和117R的致动。机器人可以使用缓冲器开关117L和117R来探测基本在机器人100附近的障碍物的位置,使得机器人100可确定转动方向以避开障碍物。使用设置在机器人100的前向部分的缓冲器开关117L和117R,所述控制器190可确定机器人合适接触障碍物并传达指令给导航系统170和驱动系统160,以避开障碍物。当机器人100接触使缓冲器开关117L和117R致动的障碍物时,除了确定机器人100何时已接触到障碍物,控制器190可进一步通过计算左右缓冲器117L和117R的致动之间的时间差,推算相对于机器人100和障碍物之间的接触点的角度,如果两者都被致动的话。机器人然后能够推算在形成接触的角度。当缓冲器115被从右侧接触,右缓冲器开关117R首先探测碰撞,其次是左缓冲器开关117L,这时由于缓冲器115的合规性和缓冲器开关117R和117L的位置。这样,碰撞角度可以仅用两个缓冲器开关117R和117L来近似。机器人100还可以使用墙壁跟随传感器113来估算为了平行于障碍物移动机器人100转动的角度。墙壁跟随传感器113是飞行时间传感器,可以从障碍物识别距离。控制器(这将在下面更详细地描述)可以对墙壁跟随传感器的数据作出响应,使得机器人100的横向侧L和R的任一个是随着机器人100在前向正向F上移动的与障碍物的设定距离。
虽然缓冲器115已被示为包括缓冲器开关117R和117L,收集有关与障碍物接触的信息,但在其它实施中,应当理解的是,替代缓冲器可用于接触在环境中的障碍和物理结构。例如,如上面所简要描述的,在缓冲器115接触环境的物理结构时,电容性接触式传感器可用于探测缓冲器115的接触点。基于所述接触,机器人100可以重新定向以执行墙墙壁跟随行为,如将在下面更详细地描述。
控制系统制图和定位计算
为执行SLAM技术,存储器存储元件195可包括获取与SLAM有关的数据的模块。例如,存储器存储元件195包括姿态模块198a,制图模块198b以及标识模块198c。每个模块使用环境内可探测地标和存储有关制图和定位机器人100的数据。如将对各模块进行描述,由模块生成的数据包括指示可识别为地标的(例如,用于重新定位的独特的地标)、在环境内行进的独特路径区段的数据,指示所述环境的物理布局(例如,占用网格)的数据,以及指示计算的机器人姿态(例如,推算的姿态)的数据。所述数据可以包括从例如,编码器112a-b,光学鼠标传感器133和IMU 134的测距数据。模块还可以包括预编程的数据,例如预加载的地图和地标模板。
控制系统149允许机器人100使用姿态模块198a推算其在环境中的姿态。在一个实例中,在姿态模块198a执行过程中,控制系统149的控制器190实现了航位推算过程来推算机器人100的姿态。
简要参考回到图1B,控制器190可以使用编码器112a-b追踪机器人100所行进的距离。通过结合光学鼠标传感器133和/或IMU 134,控制器190可提高与航位推算(deadreckoning)数据相关联的偏移或轮子打滑。光学鼠标传感器133估算在x和y方向上的偏移。控制器190可利用来自IMU 134的3轴加速度计感测的线性加速度来推算在x和y方向上的偏移以及可利用IMU 134的3轴陀螺仪来推算机器人100在导向或取向θ的便宜。控制器190可以因此结合由旋转编码器112a-b,IMU 134,光学鼠标传感器133所收集的数据以在给定时间产生机器人100的姿态的改进推算。
在相对短距离上的精确度,航位推算容易随时间偏移而偏移。偏移误差可以在航位推算测量上积累。累积偏移可以影响距离计算和航向计算。对控制器190使用姿态模块198a推算的每个姿态,控制器190分配不确定的值,置信值(反比于确定性值),或不确定性协方差矩阵,或代表累积误差的一些其它值。例如,当机器人100行进更远的直线距离时,控制器190分配增加的不确定性给机器人100的推算(X,Y)的位置,并且随着机器人100重新定向其本身,控制器190分配增加的不确定性给机器人100的取向θ。对于姿态的每个推算,推算包括机器人100的位置和方向,以及带有推算的不确定性。机器人100通常大约每10毫秒,更新其姿态的推算以及在其推算上的不确定性。
制图模块198B允许控制器190产生2D网格的单元-占用网格-来表示环境的物理布局。产生的占用网格包括指示区域的物理布局和指示开放区域和障碍的数据。指示区域的物理布局的数据可以理解为物理布局的虚拟地图。占用网格包括环境的边界和其中障碍物的边界,以及机器人100穿越的内部地板空间。机器人100使用姿态模块198a推算其姿态,控制器190确定并保存机器人100的其运动过程中网格坐标。所述控制器190还讲不确定性值与每个姿态关联。在占用网格中的每个单元可以被分配一个值,指示所述单元是否被理解为非可穿越地板空间和可穿越地板空间。基于在环境中选择的原点(0,0)单元,网格的每个单元可以被分配(X,Y)坐标。所选择的原点可以是,例如,在机器人100的或充电座或房间中的特定位置。每个单元可以呈现具有四个侧边的方形区域。单元的两侧与其它单元的侧边重合。所述单元可具有1至100厘米之间的侧边长。例如,网格可以是单元的网格,每个10cm×10cm。机器人100存储由机器人100穿过的每个单元的坐标(x,y)。在墙壁跟随行为中,例如,控制器190可以将机器人100的足迹之下的所有单元标记为可穿越单元,并且将对应于被跟随的墙壁的单元标记为非可穿越。如后面将要描述的,控制器190可以识别特定序列,组合,群,等,它们表示在环境中(例如,墙壁,障碍物等)的结构元件的特征和地标。在一个实施中,确定在网格中的单元的值之前,控制器190可以预先设置所有单元格的值为未知。然后,随着机器人100在墙壁跟随行为期间驱动,所有单元沿其路径的值被设置为可穿越,所述单元的地点由到原点的距离来确定。
在一项实施例中,在行走边界之后,作为制图模块198b的一部分,控制器190可以执行大量注入(flood fill),以将由可穿越单元构成的边界内的所有单元的值设置为可被穿越的可穿越单元。制图模块198B可以在周期性基础上更新地图,例如行驶阈值距离(例如,由机器人100行进每米或者半米一次)之后,阈值时间段之后(例如,每1-3秒一次),或收集姿态点的阈值数量(例如,大于20分)之后。姿态的置信度值可以从VSLAM系统或从穿越的距离或机器人地旋转量,或通过测距与其它传感器(例如,光学鼠标,陀螺仪)给出的信息的失配,或这些的任意组合。
在一些实施方式中,制图模块198b基于由传感器系统180积累的传感器数据进一步识别地标和特征。尽管制图模块198b被描述为预先设定在网格中的单元为未知,但在某些情况下,在制图模块198b可预先设定单元为非可穿越或可穿越,并且在机器人100绕环境的物理布局发现另外的制图数据时,更新单元。
标识模块198c存储有关障碍物和墙壁的边缘的地点的数据,并且将环境中穿越的路径区段的模板存储为独特标识或地标。随着机器人100绕环境航行并且使用姿态模块198a存储其姿态,机器人100可以从它的传感器系统180接收数据,其指示构成地标的独特路径区段,这标识模块198c存储以供将来参考。每一个独特的标识可以包括在沿着地标航行开始时的机器人100的姿态。独特的标识还可以包括随着机器人100沿地标形式所收集的姿态数据。如将稍后描述的,相对于重新定位行为,唯一标识是可识别的地标,所述机器人100使用地标在占用网格内重新定位,并降低在推算机器人姿态上的误差。
在实施中,在墙壁跟随行为期间随着机器人100跟随环境中的障碍物和墙壁,机器人100存储标识路径区段,或地标。在实施中,墙壁跟随行为构成结构元件的表面的机器人跟随部分,从而限定占用地图上的在环境中的墙壁,家具或其它障碍物,并且在其它实施中,墙壁跟随行为构成房间的所有周缘,追踪限定空间的墙壁。如后面将要描述的,随着机器人100沿环境内的表面跟随,墙壁跟随行为执行姿态模块198a以存储机器人100的推算姿态。在一个实例中,机器人100可沿南北对齐的墙壁行进,并且控制器190可以执行标识模块198c以分配对应于指示南北墙壁的姿态的地标。在另一示例中,机器人100可以沿外角落行驶并且存储对应于指示外角落姿态的地标。
在实施中,机器人100还可以从检查制图模块198b所产生的占用网格来获得地标。例如,在使用制图模块198b给环境的一部分制图之后,控制器190可以执行占用网格上的模板匹配算法来寻找物理地标并且产生指示那些地标的独特标识。例如,标识模块198c可以将三个或更多个邻近非可穿越单元识别为物理地标,其被作为标识存储在标识模块198c中。如果三个单元形成线,那么标识模块198c可以将单元的线之别为直线墙壁。单元的线的导向可对应于墙壁的导向。标识模块198c可将单元的线标签为对应于墙壁独特标识。在另一个实例中,标识模块198c可将三个非穿越单元识别为角落,在此,一个单元的两个相邻侧边每一个接触其他两个单元的其中一个。如果每个单元还接触可穿越单元,那么标识模块198c将三个单元标签化为对应于外角落的独特标识。如果其中一个单元的侧边不接触可穿越单元,标识模块198c可将三个单元标签化对应于内角落的独特的标识。从制图模块198b的占用网格,控制器190可产生对应于环境内的路径区段的独特标识的列表,这些路径区段代表在在例如墙壁跟随行为或覆盖行为期间机器人100已经遇到的环境中的地标。其他的单元的组合,包括更多或更少单元群,可以指示房间的其它特征,例如弯曲的墙壁或尖锐的角落。
简单地参见图4B,其示出了已被部分填充的实例占用网格400a,白色正方形表示可穿越单元421,阴影方块代表非可穿越单元422。既没有被分类为可穿越或非可穿越的单元表示为空白空间,虽然可以理解的是,空白空间可包括单元以表示未知单元423。如上所述,三个非可穿越单元422可被识别为多个独特标识的其中一个,例如内角落426a,外角落426b,X轴线路径426c,Y轴线路径426d。在某些情况下,三个非可穿越单元422可以在角落426a内。由S1标记的单元对应于邻近房间300内角落的路径的起始。三个非可穿越单元422可以是外角落426b。由S2标记的单元对应于邻近房间300的外角落的路径的起始。由S3标记的单元对应于邻近房间300的地标的路径的起始,这些地标平行于X轴线。三个非可穿越单元422可以是Y轴线路径426d。由S4标记的单元对应于邻近房间300的地标的路径的起始,这些地标平行于Y轴线。虽然已经描述了标识以包括三个非可穿越单元,但是在一些实施中,标识可包括更少或更多的非可穿越单元。在某些情况下,标识可包括可穿越单元。例如,环境中狭窄的路径可以是在可穿越单元的任一侧由非可穿越单元侧接的可穿越单元。
返回参考图1C,在标识模块198c上,控制器190与每个独特标识相关联的传感器数据可包括数据库域,例如标识ID,地标级,和特征列表。标识ID域可以是用于独特地识别存储在标识模块198c中的其它标识的标识。
地标级是将标识所代表的地标分类的分类值。例如,地标级可包括南北墙壁,东西墙壁,斜墙壁,内角落,外角落,圆形墙壁,突出障碍,和可以通过环境中的障碍物结构元件来形成的其它的曲线和几何形状。在实施方案中,这些地标级可以代表在占用网格中限定的的单元的特定构造。在一些实例中,标识模块198c上可以预先加载在环境中被发现的特定模板库。如上所述,特定的模板可以包括表示尖角,内角,X轴路径,以及Y轴路径模板。在其它情况下,模板库可以包括代表弯曲墙壁,狭窄路径,锐角墙壁,钝角墙壁,和在环境中可被发现的其它形状的模板。在某些情况下,预加载的模板可以是用户上载或从先前清扫操作保存的。其结果是,在实施标识模块198c时,控制器190利用,例如,模板匹配算法来搜索占用网格以发现对应于模板库中发现的模板的单元的群。控制器190分配标识码ID给使用模板匹配算法发现的单元的每个群并且基于用于识别标识的模板库中的模板将地标级分配给每个标识ID。
特征列表可包括传感器数据。在实施中,特征可对应于SIFT特征。机器人100使用传感器系统180,并且在特定实施中,缓冲器传感器,用于观察物理地标并且产生对应于与墙壁,角落,障碍物表面轮廓,边缘,曲线以及可在环境中由障碍物和结构元件形成的几何形状相关联的传感器数据。特征列表可包括与来自姿态模块198a的处理数据的关联,来自例如当地标被机器人观察到时可被用于存储标识的计算机操纵系统时间,以及当标识被加到标识模块198c时的时间戳。当控制器190产生地标标识时,随着传感器收集与对应于地标的物理结构元件相关联的数据,控制器190可存储机器人的取向(θ),作为标识的一部分。例如,在全局参考系中被参考的地标的姿态的初始推算可对应于机器人100的姿态,当机器人100开始启动墙壁跟随模式以跟随结构元件(例如,墙壁),障碍物(例如,家具),或结构元件和障碍物的集合的边缘的时候。用于地标的特征列表还可包括长度,距离,单元数量,单元位置,或代表地标的单元的(x,y)坐标的特性的其它值。其结果是,如果控制器190识别具有相同地标级地多个地标,用于特定地标的特征列表可以区分这些地标。如后面将会描述的,对于标识模块198c产生并且存储的每个地标的标识,可以被用来重新定位机器人100以减少在姿态模块198a所推算的姿态上机器人100具有的不确定性。
在本文中公开和示出的机电系统和模块可以包括在以下文献中公开的系统和模块:美国公开号20110167574,申请日2010年11月5日,题为“Methods and systems forcomplete coverage of a surface by an autonomous robot”;美国专利申请No.13/460261,提交日2012年4月30日,题为“Robotic Vacuum”;美国专利申请No.11/688213,提交日2007年3月19日,题为“Robot Confinement”,以及US 14/512098,提交日2014年10月10日,题为“Robotic Lawn Mowing Boundary Determination”,它们的全部公开在此通过引用并入本文。
机器人行为
所述存储器存储单元195还包括机器人100的与模块198a-198c协作来执行SLAM技术的行为。控制器190可以执行实现模块一个或组合的行为,并使用由模块收集的数据来给环境制图并且规律地重新定位机器人100至环境的地图。这些行为包括墙壁跟随行为,覆盖行为,和重新定位行为。
1.墙壁跟随行为
在一般情况下,在墙壁跟随期间,机器人100使用缓冲器115探测环境中的墙壁,障碍物(例如,家具,早餐吧,橱柜踢脚等),或其它结构(例如,壁炉炉膛,楼梯边等),跟随墙壁,障碍物或其它结构的轮廓,然后使用对应于在机器人100跟随结构元件的部分或全部时所收集的数据的标识模块198c产生标识地标。收集的数据可以代表来自姿态模块198a的特征或地标。在一些实例中,机器人100执行墙壁跟随传感器113来执行墙壁跟随行为。在与墙壁,障碍物或其它结构元件初始接触时,机器人100可以转动,直到机器人100被定向成使得机器人100的前向驱动方向F与障碍物的表面平行。在一些情况下,墙壁,障碍物,或结构元件可以是弯曲的,使得机器人100在沿着结构元件的表面移动时跟随弯曲的路径。在这样的实例中,机器人100可被定向成使得它相切于机构元件的表面。随着机器人100跟随结构元件,控制器190与姿态模块198a接合。所记录的传感器数据,其可以包括结构元件的特征(例如,几何特征),被存储为对应于结构元件的几何轮廓的标识的一部分,从而成为在标识模块198c数据库的地标条目。
使用缓冲器传感器,控制器190可以实现墙壁跟随行为,其中所述机器人100可以与环境中的障碍物进行物理接触,并重新定向机器人100,使得机器人100的前向驱动方向F平行或切向于障碍物的表面。墙壁跟随行为允许机器人100跟随对应于障碍物边缘的路径。例如,如前面所描述的,控制器190可以解释左右缓冲器开关117L和117R的致动之间的时间差来确定接触角。接触角提供了机器人100需要转动以对齐其前向驱动方向F与障碍物的量的推算量。控制器190可以指示机器人100转动所需的转动角度的一小部分,然后继续在前进驱动方向F。再次接触障碍物在此触发缓冲器开关117L和117R。然后,控制器190可推算接触角,并继续调节机器人的方向。一旦接触角低于某一量时,控制器190可以指示机器人转动充分的角度,使前进驱动方向F平行于障碍物。所述机器人然后继续以墙壁跟随行为跟随墙壁。在墙壁跟随行为的一些实施中,控制器190使用墙壁跟随传感器,以确定在什么方向使机器人100停止旋转。当墙壁跟随传感器确定机器人100的侧面基本平行于障碍物,所述控制器190停止旋转。在另一实施中,控制器190使用墙壁跟随传感器确定机器人100的导向,这将导致机器人100有大致切向于障碍物的表面的前向驱动方向。在弯曲的表面的情况下,控制器190可以使用切向导向,以允许机器人100沿着曲线表面(例如,圆柱形柱,弯曲形墙壁,落地灯,或其它结构元件)跟随。
在墙壁跟随行为期间,机器人100可以接触第二障碍物,随着机器人跟随一个第一障碍物。例如,当机器人100跟随在前进驱动方向F的第一墙壁,机器人100可以接触第二墙壁,其中第一墙壁在内侧角落遇到第二墙壁。在到达所述角落时,控制器190重新定向的机器人100(例如,后退和转90度),以使机器人100继续沿着第二墙壁在前进驱动方向F移动。
当控制器190实施墙壁跟随时,控制器190可以连续地执行姿态模块198a,制图模块198b,和标识模块198c。随着姿态模块198a推算机器人100的姿态,制图模块198b可以用对应于机器人100之下的穿越区域的可穿越单元和对应于机器人100跟随的障碍物(一个或多个)的非可穿越单元填充占用网格。标识模块198c可以进一步识别机器人100已经跟随的独特的路径区段,在可被识别为地标的墙壁跟随期间。例如,如果机器人100在墙壁跟随期间绕外角落走动,在完成邻近外角落的路径穿越时,控制器190可产生对应于感应轮廓的标识(例如角度的数量和布置,弯曲的数量和布置),以及路径的其它可测量物理参数,(例如,路径长度,路径导向等),该标识时可用于机器人100的重新定位的可识别地标。
2.覆盖行为
通过概述,覆盖行为指示机器人100覆盖并且清扫环境地板。机器人100可使用本领域已知的覆盖路径技术覆盖环境的地板表面,例如,左右交错或排鞭的型式,螺旋型式,或伪随机反弹覆盖。随着机器人100覆盖地板,控制器190可实施姿态模块198a和制图模块198b以推算机器人100的姿态,产生占据网格(例如,图4A-4C的占据网格400a-400c,接下来将会具体描述),并且推算姿态推算的不确定性。覆盖型式可以是一个,其中机器人被导航以顺序的通过覆盖区域,其中每个顺序的通过跟随在前一通过上被清扫的区域的边缘(例如,作为螺旋或排辫型式),而不是伪随机反弹型式。
随着机器人100以覆盖行为导航环境,在机器人100的姿态中控制器190的不确定性(示于图1C),可能会随着时间或行驶距离而增加。如果由控制器190计算的不确定性协方差在x,y,或θ方向整体或单独地增大到高于预先确定的阈值,控制器190可以禁用制图模块198b,其修改并更新占用网格。确定性的预先确定的阈值的可以是,例如,在x-y方向上相对于机器人的直径。预先确定的阈值可基于所述机器人的位置的标准偏差或协方差。例如,由于标准偏差的单位与机器人的位置的单位相同,所述预定阈值可以基于机器人的直径来计算。在一些情况下,不确定性的协方差矩阵的阈值可以相对于机器人地直径和最窄的预期走廊和门口设定一值,以确保机器人可正确地航行至给定地标以重新定位。超过预先确定的阈值可以引起控制器190禁用覆盖行为和制图模块198b。其结果是,制图模块198b的占用栅格以最后已知的状态变得固定并且这种方式直到机器人100能够在其姿态上减少不确定性,在此时控制器190可冲洗开始将占用数据添加到制图模块198b。在一些实施中,机器人100将占用网格或其部分转移以与可靠地再相遇的地标对齐。
3.重新定位行为
当机器人100的姿态不确定性增加到超过预先确定的阈值时,控制器190可以实现重新定位行为来降低姿态估算的不确定性,并通常计算机器人100的姿态校正。重新定位行为可以由SLAM处理使用以校正在航位推算信息中的偏移。
在初始化重新定位行为时,控制器190
(i)选定在标识模块198c中发现的地标以用于重新定位;
(ii)引导机器人100至地标的可疑物理地点;
(iii)在探测到与地标的几何轮廓相一致的缓冲器传感器事件时,调整机器人的姿态以对环境重新定位机器人100。
控制器190可以考虑多个因素以选择地标用于重新定位。例如,控制器190可以计算在机器人100的当前推算地点和最近地标的地点之间的可疑距离,例如,测地距离或导航距离,并且选择在最短距离的地标。控制器190可考虑已经过去的持续时间,因为控制器190已经记录每个地标并且选择最近记录的地标。控制器190还可考虑每个地标对比其他地标地独特性并且选定最独特的地标。独特性可以通过具有相同地标级的其它地标的数量来测定。当控制器190选定地标,控制器190可计算至地标的推算距离以及与地标的几何特征或轮廓的进入推算角度。进入角度可对应于与包括几何特征或地标的障碍物接触的预期角度。取决于在给定方向机器人的相对不确定性,控制器190还可选定地标,例如,如果不确定性高于在x方向的阈值,那么机器人可能选定将减少在该方向上不确定性的地标,例如正交于x方向的墙壁。
机器人控制装置190可以使用本领域公知的路径规划算法,例如A*算法或Dijkstra算法,以将机器人100引导到地标的可疑物理位置。这些算法允许机器人100,避开可能在机器人100的当前位置的地标之间干涉的结构或墙壁。在一个实施中,机器人100具有可移动的缓冲器115,随着机器人100移向可疑物理位置,控制器190可以基于在缓冲器115接触地标所代表的结构时与缓冲器接触的角度计算接触角。使用地标的接触角和已知的轮廓,控制器190然后可以计算机器人100的姿态。控制器190可将该计算的姿态与机器人100的推算姿态相比较。基于推算姿态和计算姿态之间的差别,控制器190调整机器人100的推算姿态以在环境内并且相对于整体占用网格坐标重新定位机器人100。计算姿态和推算姿态之间的差异然后可被用于以该新信息更新地图。这可以设计转换最近部分的占用网格或GraphSLAM地图。更新地图的实例在美国专利申请no.13/632997,申请日2012年10月1日,题为“Adaptive mapping with spatial summaries of sensor data”中描述,其全部内容在此通过引用并入本文。
可替代或另外地,机器人100可以执行墙壁跟随行为跟随在可疑物理位置的几何轮廓和产生对应于这些探测到的轮廓重新定位路径数据。机器人100随后的重新定位路径数据进行比较,以记录的地标和功能列表重新定位机器人100基于所述重新定位路径数据和一个划时代的匹配所确定的几何轮廓之间的差的环境。联系地标式后,控制器190可以继续墙壁跟随行为。当保险开关117L和117R被触发,控制器190可进一步记录的接触角。机器人100进行到追随触发缓冲器开关117L和117R,并产生可用于确定是否障碍物,墙壁或结构对应于一个划时代重新定位路径数据的障碍物,墙壁或结构的表面或边缘。控制器190可以开始触发缓冲器传感器系统135的第一时间之后发生的重新定位路径。作为控制器190前进通过路径相邻的障碍物,触发缓冲器传感器系统135的第二时间可以指示给控制器190以完成生成的重新定位路径。控制器可以记录的接触角为第一和触发缓冲器的第二实例开关117R,117L。
控制器190,生成重新定位路径之后,可以比较响应于地标位置的推算值与控制器190产生的重新定位路径时计算的实际值。所述控制器190可以分析通向对应于地标的结构件的方式和沿着该结构件的导航。在分析方式中,控制器190可以比较使用缓冲器传感器系统(使用,例如,在缓冲器115)计算出的接触角的推算方法的角度。例如,所述控制器190可以基于所述地标的位置和机器人100的推算的当前姿态推算接触角度。当机器人100接触地标时,控制器190可以使用所述缓冲器传感器计算的问题的角度接近角度。控制器190可以比较这两个角度和利用这两个角度在全局坐标系内重新定位所述机器人100的方向θ。在本方法中,控制器190可进一步跟踪测距,并将该测距与通向使用机器人100的推算位置计算的结构单元的推算距离进行比较。机器人100可以碰到由比预期更早的特征所表示的结构单元。控制器190可以使用测距和推算的差之间的差别来重新定位的(X,Y)的机器人100的位置。
在分析导航时,机器人100可将产生重新定位路径时推算的姿态与存储在地标数据库中的姿态相比较。在包括x,y和θ差之间的差,可被用来将每个坐标定位到环境的全局坐标系统。沿着重新定位路径的测距还可以和与地标数据库中的地标相关联的测距数据相比较。如果墙壁,障碍物或结构元件在与另一个墙壁,障碍物或结构元件的交叉点处终止,在与随后障碍物的机器人之间的接触角可以同与代表这两个障碍物的交叉点的地标相关联的角相比较。例如,机器人100可选定代表第一墙壁的地标。在产生沿着第一墙壁的重新定位路径之后,机器人100接触第二墙壁并且使用例如缓冲器115确定接触角。然后机器人确定接触角与第一第二墙壁之间的角之间的差(在墙壁跟随行为期间在控制器190实施标识模块198c时确定)。
在一些重新定位行为的实施中,控制器190可将重新定位路径与地标相比较并且确定重新定位路径和地标之间的百分比匹配低于预先确定的阈值。百分比匹配可考虑对于构成地标的路径区段的接近以及沿着该路径区段的导航。如果百分比匹配低于匹配阈值,控制器190可初始化重新定位行为,用于另一个地标。匹配阈值可基于用于禁用覆盖行为和启用重新定位行为的置信阈值(或,在一些实例中,不确定性阈值)。例如,匹配阈值和置信阈值可直接地成比例,使得低置信阈值导致低匹配阈值,高置信阈值导致高匹配阈值。匹配阈值可以是,例如,在75%和95%之间。当控制器190重新定位机器人100时,机器人100的位置可被修改以匹配重新定位方案。
在成功地重新定位机器人100至第一地标后,机器人100可第二次初始化重新定位行为,用于已知正交于第一地标的第二地标。例如,第一地标可与x或y轴线对齐。这样的对齐可导致对于一个或两个方向的更好的重定位。其结果是,在重新定位至第一地标时,控制器可设置位置的一个条目以匹配重新定位方案。对于正交于第一地标的第二标识重复重新定位方案可以允许控制器190重新定位机器人100,以更好地考虑在其它坐标中的累积误差或偏移,例如x,y和θ坐标。正交的标识给重新定位机器人100的推算取向θ提供了90°参考。每个标识还提供用于重新定向推算位置坐标x,y的每一个的参考。在一些情况下,机器人100可选定代表外角落或内角落的地标。控制器190然后可以选择不重复重新定位,因为在使用两个正交地标时,地标已经可被用于实现相同的姿态置信复原。
本文中公开和示出的机器人行为可包括以下文献中公开的常规程序和行为,美国专利申请序列No.13/790643,提交日2013年3月8日,题为“Simultaneous Localizationand Mapping for a Mobile Robot”,其在此通过引用全部并入本文。例如,该公开的姿态推算,墙壁跟随和姿态置信计算也可以可替代在本申请的机器人系统中实施。
导航流程图
图2的流程图200表示在至少部分地由墙壁包围的区域内导航自主机器人100的方法。该方法可包括上述参考图1A-C的导航,制图,定位,以及其它SLAM有关的软件和硬件。
在步骤S205中,控制器以跟随模式操纵机器人100以控制机器人沿着邻近障碍物的路径区段行进并且记录指示路径区段的数据。为了以跟随模式操纵机器人100,控制器可执行跟随行为,其利用缓冲器传感器系统使机器人绕区域中的障碍物和物理元件航行。跟随行为,可包括执行姿态模块198a,制图模块198b,以及标识模块198c。如前所述,这些模块198a-c可协作以允许机器人100记录指示邻近障碍物的路径区段的轮廓,长度和/或方向性。
在步骤S210中,控制器(例如图1C的控制器190)以覆盖行为操纵机器人以控制机器人100的穿越区域,同时执行机器人的功能。控制器还产生指示区域物理布局的数据,包括在机器人执行功能使探测到的区域边界和障碍物周界。控制器可执行覆盖模式从而以覆盖行为操纵机器人。结果是,机器人可以有关覆盖行为的前述覆盖型式的其中一个穿越区域。机器人所执行的功能可包括清扫功能,其通过例如图1C的清扫系统155来执行。在覆盖行为期间,控制器可命令机器人执行姿态模块198a和制图模块198b。控制器可利用制图模块198b产生指示区域物理布局的数据,其可以响应于存储在机器人地存储器存储元件上的占用网格。占用网格可以使用指示可穿越或非可穿越的记号表示区域边界和障碍物周界,如有关制图模块198b中所示。
在执行步骤S210时,控制器执行步骤S215和S220。在步骤S215中,控制器更新指示区域内当前机器人姿态的数据。当前机器人姿态包括机器人相对于区域全局坐标的当前地点和导向。基于至少机器人测距数据,控制器更新指示当前机器人姿态的数据。姿态模块198a可允许控制器推算区域内机器人地姿态。作为更新指示机器人姿态的数据的一部分,控制器可以通过将指示沿着路径区段的机器人路径的数据与指示记录在跟随模式中的路径区段的数据相比较,更新指示当前机器人地点的数据。该比较可以允许机器人确定,机器人沿着路径区段的路径是否充分匹配步骤S205中执行的在跟随模式中记录的路径区段。控制器,在确定充分匹配时,还可以更新指示计算机器人地点的数据和指示区域物理布局的数据的任一个,根据充分匹配的路径区段。在步骤S220中,控制器计算机器人姿态置信水平。基于在机器人运动期间可能已经累计的推算的偏移和误差,置信水平可被计算出。控制器继续执行步骤S215和S220,直至机器人姿态置信水平降到预定置信界限之下。
在步骤S225中,相应于低于预定置信界限的机器人姿态置信水平,控制器操纵机器人至路径区段的可疑地点,基于当前机器人姿态。随着控制器计算步骤S220中的机器人姿态置信水平,控制器可连续地将机器人姿态置信水平与预定的置信水平相比较。在探测降到预定置信界限之下的机器人姿态置信水平时,控制器可执行重新定位行为以重新定位机器人。重新定位行为可命令机器人选定一标识,其包括控制器可用于操纵机器人至路径区段可疑地点的路径区段的地点和导向。当控制器操纵机器人至路径区段的可疑地点时,控制器可追踪轨道,接近路径,以及,与障碍物的接触(如果机器人接触障碍物)。操纵机器人至路径区段的可疑地点后,控制器进一步以跟随模式操纵机器人,以跟随路径区段,同时控制器记录机器人姿态数据。控制器也可以记录缓冲器传感器数据。从记录的机器人姿态数据,控制器可产生指示沿着路径区段的机器人路径的数据。
在步骤S230中,响应于探测到路径区段的可疑地点,相对于指示区域物理布局的数据,控制器更新指示计算的机器人姿态的数据。重新定位机器人100之后,控制器可指引机器人返回到其推算的姿态置信降至预定置信界限之下的位置,使得覆盖从该点重新开始。
使用方法
上述方法,行为和模块可以执行用于各种情况和环境中的机器人设备。例如,虽然机器人100已经描述为是带有清扫系统的清扫机器人,但是,在其它实施中,机器人可以是推算其自身地点并且产生其航行地区地图的机器人剪草机或其它自主机器人。图3-4所示的实例示出关于图1-2所讨论的机器人和控制系统的实施。
参照图3所示,机器人100导航通过具有墙壁305a-l和书架310的房间300。全局坐标系是由X轴和Y轴限定。墙壁305a,305c,305e,305g,305i,和305k平行于X轴,墙壁305b,305d,305f,305h,305j,和305l平行于Y轴。书架310抵靠墙壁305j。机器人可以利用参考图1C所讨论的姿态模块198a推算其在全局坐标系内的姿态。推算的姿态包括机器人100的位置和导向。机器人100在全局坐标系内的位置由x和y限定。机器人的导向由θ限定,相对于x轴线测得。
图4A表示随着其沿着墙壁305a-l执行墙壁跟随行为图3的房间300中的机器人100,以及在墙壁跟随行为中,机器人100的控制器(例如图1C的控制器190)产生的相应的占用网格400a。虚拟机器人402是在占用网格400a内机器人100的虚拟表示。虚拟机器人402的中心表示机器人100的推算的(x,y)位置,并且从虚拟机器人402的中心到圆周的线表示虚拟机器人402的推算的取向θ。
机器人绕房间300跟随路径410a,以标记房间的非可穿越边界。墙壁305a-l限定这些边界。简要参考回图1C,机器人100的控制器执行制图模块198b,以产生占用网格400a。占用网格400a包括阴影标记的单元,以表示非可穿越单元,以及白色单元,以表示可穿越单元。
随着机器人100执行墙壁跟随行为,控制器在图4A的占用网格400a中产生由符号S1,S2,S3,或S4标记的单元。由S1标记的单元对应于邻近房间300内角落的路径的起始。由S2标记的单元对应于邻近房间300的外角落的路径的起始。由S3标记的单元对应于邻近平行于X轴线的房间300的地标的路径的起始。由S4标记的单元对应于邻近平行于Y轴线的房间300的地标的路径的起始。
在一些实施方式中,通过跟随远离墙壁的障碍物的边缘,机器人标记房间的非可穿越边界。例如,在房间内但离墙壁不远的障碍物或固定对象可被用作地标,用于重新定位。
图4B表示执行覆盖行为的机器人100。机器人100跟随路径410b。简要参考图1C,随着机器人绕房间300航行,机器人100的控制器执行姿态模块198a和制图模块198b以更新占用网格400b。机器人100的控制器还执行姿态模块198a,以计算机器人100沿着路径410b的推算姿态,以及与推算姿态的置信。置信可以被计算为机器人与其姿态的每个元素的置信的平均。
在占用网格400b中的点415a-c表示随着机器人100沿着路径410b航行,机器人100的x,y地点的推算。点415a-c仅表示沿着路径410b所产生的电的子集。在每个点415a-c处,机器人100具有姿态和姿态置信值(x,y,θ,C,t),其中x和y对应于全局坐标系中机器人100的推算位置,θ对应于相对于全局坐标系统的机器人100的导向,C对应于机器人100的平均置信。点415a-c还可以具有可被用来计算测距的相应的时间戳。
点415C对应于路径410b的终点419。在点415c处,机器人100的控制器推算机器人100的姿态,如在占用网格400b中的虚拟机器人402所示出的。机器人100的位置可推算为(2.1m,0.31m)。控制器推算机器人相对于X轴线的导向为0°(零度)。机器人在房间300内的实际位置是(2.6m,0.29m)。机器人100相对于X轴线的实际导向是8°。如图4B所示,在点415c处的置信为89.7%,其低于预定的置信阈值(在本示例中是90%)。因为在路径410b的终点419处,姿态置信水平降到阈值之下,因此机器人100脱离覆盖行为并且进行重新定位行为,将要参考图4C描述。
图4C表示机器人100执行重新定位行为以恢复机器人100在其推算姿态上的置信。简要地参考图1C,随着控制器(例如图1C的控制器190)实施重新定位行为,机器人100使用姿态模块198a来推算机器人100的当前姿态。机器人100的控制器还可以禁用制图模块198b使得在姿态置信低于置信阈值时控制器不再继续更新占用网格。机器人100的控制器访问标识模块198c以发现对应于控制器可导航机器人100的地标的优选地标数据库条目。
在图4C所示的实例中,机器人100物理地位于房间300中所示的地点,并且机器人100的控制器将机器人100的位置推算为虚拟机器人402所在,其在占用网格400c中示出。在图4C中,在开始重新定位行为之前,虚拟机器人402对应于虚拟机器人地初始位置。基于虚拟机器人402的位置,机器人100的控制器推算五个地标420a-e(在图4B中标签化)为最接近虚拟机器人402的位置。基于上述例如可疑距离和独特性的因素,控制器选定地标420c,其物理地显示为房间300中的外角落425。在墙壁跟随期间控制器产生地标420c,当控制器在其姿态上具有高置信的时候。其结果是,地标路径430与邻近外角落425的物理路径良好匹配。沿着外角落425的地标路径430包括开始点430a,转向点430b,和结束点430c。
基于虚拟机器人402的地点和地标路径430,随着机器人100接近墙壁305c,控制器可推算可疑的接近接触角θs。使用先前提到的路径规划算法,控制器选定轨道435以向前移动至地标路径430的开始点430a。基于被推算要成为开始点430a、以及被推算要成为虚拟机器人402,控制器以轨道435为基础。机器人100沿着实际轨道437移动。当机器人100接触墙壁305c时,控制器可使用机器人100的缓冲器传感器系统计算实际的接近接触角θA。
控制器将与墙壁305c的接触点标记为重新定位路径440的开始点440a。机器人100转向沿着墙壁305c朝向外角落425移动。当控制器确定,机器人100已经穿越墙壁305c时,机器人100转向平行于墙壁305d移动。控制器可确定,机器人100通过,例如,使用机器人100的缓冲器作为感应到墙壁305c不再邻近墙壁305c的处决方式,已经穿越了墙壁305c。随着机器人100沿着墙壁305c前进,机器人100可故意地转向墙壁305c以检查墙壁305c是否仍然邻近。
控制器将转向点44b标记为在此机器人100转向沿着墙壁305d移动的点。随着地标的标识路径430已经指示出墙壁304c大致垂直于墙壁305d,控制器命令机器人转动90°。控制器然后命令机器人100沿着墙壁305d前进。很多时间可触发控制器以指引机器人100停止沿墙壁305d前进。例如,如果作为从开始点440a所测量的行进距离已经超出了外角落425的标识中存储的路径长度,那么,控制器可停止前进。控制器用终止重新定位路径440的结束点440c来标记停止地点。
控制器可以将从重新定位路径440计算出得参数与地标路径430的参数相比较。控制器可将假设的接近接触角θs与实际的接近接触角θA比较,并且可使用在假设的接近接触角θs与实际的接近接触角θA中的差别来恢复机器人100的导向推算的置信。控制器可计算(i)在重新定位路径440的开始点440a和转向点440b之间的距离,以及(ii),在标识路径430的开始点430a和转向点430b之间的距离。控制器可比较这两个距离并且使用这两个距离之间的差来恢复在机器人100的x位置的推算中的置信。控制器可计算(i)在重新定位路径440的开始点440a和标识路径430的开始点430a之间的位置差,或(ii)在重新定位路径的转向点440b和标识路径430的转向点430b之间的位置差。控制器可使用两个位置之间的位差来恢复在机器人100的y位置的推算上的置信。
从上面的比较,控制器可以校正虚拟机器人402的姿态(X,Y,θ)和恢复的置信C。图4C中示出的虚拟机器人450a-b对应于虚拟机器人的最终位置。虚拟机器人的预先定位最终位置450a和后定位最终位置450b在占用网格400c中示出。后定位最终位置450b更好地与机器人100的实际最终位置460匹配。控制器然后可更新地图的部分以更好地与新校正的位置匹配。在一个实施中,其中完全占用网格包括很多重叠的子网格,这些子网格的相对位置可被更新。在另一个实施中,控制器可更新在GralphSLAM姿态约束图中机器人地位置。这些技术在美国专利申请no.13/632997,申请日2012年10月1日,题为“Adaptive mapping withspatial summaries of sensor data”中描述。然后,控制器可将机器人100重新定位至禁用覆盖行为的位置,如图4B所示。机器人100可继续覆盖行为和重新定位行为的循环,直至控制器已经确定机器人100已经覆盖了房间300。
可替代的实施
以上描述的方法和系统可以包括赋予了不同特征和优势的若干替代或添加。
机器人还可以包括本领域中已知的,有利于移动机器人的其它传感器。例如,所述缓冲器传感器可以有利地包括基于压力或基于电容的传感器,如公开在美国专利申请PCT/US2013/031264,申请日为2013年3月14日,题为“Compliant Solid-State Bumper forRobot”中的,其全部内容通过引用并入本文。机器人还可以包括相机捕捉环境中的3D特征图像。所述图像可用于VSLAM。
虽然墙壁跟随行为已经描述为通过使用缓冲器开关117L和117R的差动致动而被简便化,但是在其它实施中,机器人可另外地或可替代地使用特定墙壁跟随光学传感器。随着机器人沿墙壁移动,墙壁跟随传感器确定机器人平行于墙壁移动。
虽然覆盖地板区域已经被描述成使用左右交错型式,排辫型式,或伪随机路径实现,但是在其它实施中,机器人可使用螺旋型式。机器人可使用这些型式的组合。在一个实例中,机器人将这些区域分解成多个地区并且在每个地区实施不同的型式。
虽然标识的特征列表已经被描述为包括姿态、时间戳和置信,但特征列表还包括“最后观察时间”,使得机器人可确定合适产生最近标识。标识还可包括存储时间戳的域,时间戳指示了相应的地标信息被更新的最后时间。标识可包括分开的“地标姿态”域,其存储对应于地标被创建或更新至数据库时的全局参考机器人姿态。
特征列表可进一步包括由机器人上的其它传感器所收集的信息。例如,在一些情况下,机器人可重新定位至房间中的悬壁或下降处。其结果是,标识可包括将悬壁或跌落与房间中其它结构区分开的悬壁传感器数据。虽然房间的障碍物已经被描述成墙壁或结构元件,但是应当理解的是,如果悬壁传感器数据被进一步结合到SLAM系统中,那么物理元件可包括在机器人之下的没有地板(例如,悬壁),地板特性改变(例如,从地毯到瓷砖),或是悬壁传感器可探测到的其它特征。
在一个实施中,SLAM系统可停止将新地标加入到数据可中,以响应于条目的预定数目,条目的预定密度,或时间的预定量。例如,至少部分地响应于地标密度已经超过预定阈值,例如每平方米5-10个地标,SLAM系统可停止在环境的一部分中或整个环境中创造地标。例如,当对于环境的数据库在环境的一部分中展示出相对高的地标密度并且在环境的另一部分中展示出相对低的地标密度时,对于对应于数据库中相对高地标密度的那部分环境,向数据库添加新地标可以被禁用,并且低于对应于相对低地标密度的那部分环境,添加新地标可被启用。
当控制器重新定位机器人时,一旦一个或更多个标识匹配发生,重新定位已经被描述为调整姿态(x,y,和θ)。可替代地,占用网格或地图的单元可被调整,使得它们旋转以与新的定位方案对准。例如,在基于GraphSLAM地图中,在单元之间的边缘可基于标识匹配来调整。
占用网格已经描述为包括可穿越和非可穿越单元。在一些实施中,占用网格可以进一步包括代表在可穿越和非可穿越区之间的单元的边界单元。这些单元一般可对应于在墙壁跟随行为期间所覆盖的单元。
虽然已经描述了被覆在三个单元(例如,对于墙壁的三个单元,内角落,或外角落)上的模板,但是在一些实施中,模板可包括四个或更多个单元。模板可包括可穿越,非可穿越,以及,边界单元(假如占用网格使用边界单元的情况下)。
虽然已经描述控制器190在选择机器人100重新定位的地标时的许多参数,但是在一些实施中,控制器任意地从标识模块中选择地标。在其它实施中,控制器可考虑其它因素,例如机器人姿态的置信水平,在控制器产生地标的时候。
如前面提到的,在某些情况下,如果由控制器进行的比较导致低于百分比匹配阈值的大差异,那么控制器指示机器人寻找地标。在这样的实例中,机器人可减少置信水平和匹配阈值以增加控制器发现重新定位路径和定位路径之间合适匹配的可能性。
虽然重新地位行为已经描述以引导机器人至地标路径的开始点,但在一些实施中,重新定位行为可引导机器人至标识的结束点。在这样的实施中,控制器可重新计算沿着对应于地标路径的预期姿态。例如,控制器可能需要修改机器人沿路径的预期导向。
而置信已被描述为机器人的地点和导向坐标(X,Y,θ)的置信的组合推算,在一些实现中,置信可被分配给所推算的机器人姿态的每个元件。例如,如果元件中的一个的置信减小到低于预先确定的置信度阈值,则机器人可以禁用制图模块和覆盖行为并且进行重新定位行为。在其它情况下,置信由两个元件推算。
而姿态已被理解为包括x,y,θ,在一些实施中,机器人可以能够确定海拔z。所述环境可具有高度特征,并且,机器人可以使用这些特征来重新定位机器人。
本文所公开的SLAM系统可包括本领域中已知的其它的SLAM系统的各方面。例如,来自美国申请10/739902,申请日为2003年12月17日,题为“Systems and methods forusing multiple hypotheses in a visual simultaneous localization and mappingsystem”的用在本公开中的VSLAM系统的算法和结构,可以实施到本申请中描述的SLAM系统。本公开通过在本申请中引用作为参考。
尽管许多的实例都被描述用于说明的目的,前面的描述不旨在限制本文所公开的实施方案的范围。有与将在以下权利要求书的范围内的其它实施例和修改。
Claims (39)
1.一种在一区域内导航自主清洁机器人的方法,所述方法包括:
在区域内操纵机器人以清洁该区域,同时产生指示相对于所述区域的物理布局的机器人姿态的数据或者指示所述区域的物理布局的数据,所述区域的物理布局由一个或多个边缘限定;
响应于机器人姿态置信水平低于预定置信界限,从邻近一个或多个边缘的多个路径区段中选择一路径区段,并选择机器人的轨道以接近所述路径区段的可疑地点;
沿所选择的轨道朝向所述路径区段的可疑地点操纵机器人;以及
响应于在所述路径区段的可疑地点的一距离内探测到所述路径区段,更新指示机器人姿态的数据或者指示所述区域的物理布局的数据。
2.根据权利要求1所述的方法,还包括在区域内操纵机器人,同时存储指示多个路径区段的地点的数据。
3.根据权利要求2所述的方法,其中,基于在存储数据和机器人姿态置信水平低于预定置信界限之间经过的时间来选择路径区段。
4.根据权利要求1所述的方法,其中,基于机器人的当前地点与多个路径区段中的每个路径区段之间的最短距离来选择路径区段。
5.根据权利要求1所述的方法,其中,更新指示机器人姿态的数据或者指示所述区域的物理布局的数据包括使指示多个路径区段中的两个或更多个路径区段的地点的数据重新定位至指示所述区域的物理布局的数据。
6.根据权利要求1所述的方法,还包括从机器人上的传感器收集数据的同时,在区域内操纵机器人,并且基于收集的数据更新指示机器人姿态的数据或指示所述区域的物理布局的数据。
7.根据权利要求6所述的方法,其中所述传感器包括里程表、辐射收发器、碰撞传感器、压力传感器和接近传感器。
8.根据权利要求1所述的方法,还包括,在操纵所述机器人至所述路径区段的可疑地点后,以跟随模式操纵机器人,以跟随一个或多个边缘中的边缘,所述边缘靠近所述路径的可疑地点,
其中,更新指示机器人姿态的数据或指示所述区域的物理布局的数据包括:
确定机器人沿所述边缘的路径是否匹配路径区段;以及
在确定匹配时,更新指示机器人姿态的数据或指示所述区域的物理布局的数据。
9.根据权利要求8所述的方法,其中,确定机器人沿所述边缘的路径是否匹配路径区段包括:比较机器人的路径和路径区段的长度、开始姿态、结束姿态、行进的直线路程、或曲率。
10.根据权利要求1所述的方法,其中,在所述路径区段的可疑地点的一距离内探测到所述路径区段包括探测到靠近路径区段的边缘。
11.根据权利要求10所述的方法,其中,探测到边缘包括物理地接触障碍物。
12.根据权利要求1所述的方法,其中,产生指示所述区域的物理布局的数据包括分析来自机器人的相机的图像数据。
13.根据权利要求1所述的方法,其中:
在所述区域内操纵机器人以清洁所述区域包括以覆盖模式在所述区域内操纵机器人,并且
所述方法还包括在更新指示机器人姿态的数据或指示所述区域的物理布局的数据之后,再次以覆盖模式在所述区域内操纵机器人以清洁所述区域。
14.根据权利要求13所述的方法,其中:
沿所选择的轨道从初始地点朝向路径区段的可疑地点操纵机器人,
所述方法还包括在更新指示机器人姿态的数据或指示所述区域的物理布局的数据之后,在再次以覆盖模式在所述区域内操纵机器人以清洁所述区域之前,操纵机器人至机器人的初始地点。
15.根据权利要求1所述的方法,其中:
在所述区域内操纵机器人以清洁所述区域包括以覆盖模式在所述区域内操纵机器人,并且
所述方法还包括响应于以覆盖模式操纵机器人的同时探测到一边缘,启动跟随模式以跟随该边缘。
16.根据权利要求1所述的方法,其中,所述多个路径区段包括沿由壁限定的角部的路径区段。
17.根据权利要求1所述的方法,其中,选择轨道包括选择接近角以操纵至路径区段的可疑地点。
18.根据权利要求1所述的方法,其中,选择轨道包括选择从机器人的初始地点至路径区段的可疑地点的接近路径。
19.一种在一区域内导航自主清洁机器人的方法,所述方法包括:
以跟随模式操纵机器人,在跟随模式中,机器人被控制成沿与限定该区域的一个或多个边缘邻近的多个路径区段行进;
以覆盖模式操纵机器人,在覆盖模式中,机器人被控制成穿过该区域的第一部分,同时执行一功能;
在机器人以覆盖模式穿过该区域的第一部分之后,
从该区域中的一地点朝向多个路径区段中的路径区段的地点操纵机器人;以及
在探测到一个或多个边缘时,以跟随模式操纵机器人,在跟随模式中,机器人被控制成邻近一个或多个边缘行进,使得机器人沿至少该路径区段行进;以及
在机器人沿至少该路径区段行进之后,朝向该区域中的该地点重新引导机器人,然后以覆盖模式操纵机器人以穿过该区域的第二部分,同时执行所述功能。
20.一种自主移动机器人,包括:
驱动系统,可操作成在房间的可穿越地板空间内操纵自主移动机器人;以及
接触传感器,构造成响应于自主移动机器人和限定房间的可穿越地板空间的边缘的表面之间的接触而产生第一数据,第一数据指示该表面的一部分的几何形状;以及
控制器,构造成执行指令以执行操作,所述操作包括:
操作驱动系统以操纵自主移动机器人至该表面,使得接触传感器响应于自主移动机器人和该表面之间的接触而产生第二数据,第二数据包括指示该表面的所述部分的几何形状的至少一部分的数据;以及
基于第一数据和第二数据之间的差异相对于房间局限自主移动机器人。
21.如权利要求20所述的自主移动机器人,其中:
所述操作还包括操作驱动系统以沿该表面操纵自主移动机器人,以生成可穿越地板空间的地图,使得接触传感器响应于自主移动机器人和表面之间的接触而产生第一数据;以及
相对于房间局限自主移动机器人包括基于第一数据和第二数据之间的差异更新该地图。
22.如权利要求20所述的自主移动机器人,还包括缓冲器,其中,产生第一数据的接触传感器的构造包括响应于缓冲器和该表面之间的接触而产生第一数据的构造。
23.如权利要求20所述的自主移动机器人,其中,所述接触传感器构造成在自主移动机器人自动地在房间内移动的第一任务期间产生第一数据,在自主移动机器人自动地在房间内移动的第二任务期间产生第二数据。
24.如权利要求20所述的自主移动机器人,还包括里程表,其构造成当控制器操作驱动系统以在房间内操纵时产生测距数据,其中,相对于房间局限自主移动机器人包括基于第一数据和第二数据之间的差异和测距数据局限自主移动机器人。
25.如权利要求24所述的自主移动机器人,其中:
里程表构造成:
当自主移动机器人接近该表面以接触该表面并使接触传感器产生第一数据时产生测距数据的第一测距数据;
当自主移动机器人接近该表面以接触该表面并使接触传感器产生第二数据时产生测距数据的第二测距数据,
相对于房间局限自主移动机器人包括基于第一测距数据和第二测距数据之间的差异局限自主移动机器人。
26.如权利要求20所述的自主移动机器人,其中:
所述操作包括:
操作驱动系统以当接触传感器产生第一数据时沿第一路径操纵自主移动机器人;
操作驱动系统以当接触传感器产生第二数据时沿第二路径操纵自主移动机器人,
第一数据和第二数据之间的差异表示第一路径和第二路径之间的差异。
27.如权利要求20所述的自主移动机器人,其中,第一数据和第二数据表示自主移动机器人接触该表面的地点。
28.如权利要求20所述的自主移动机器人,其中,相对于房间局限自主移动机器人包括基于当控制器操作驱动系统以操纵自主移动机器人至该表面的一部分时自主移动机器人和该表面之间的接触角来局限自主移动机器人。
29.如权利要求20所述的自主移动机器人,其中,该表面的该部分对应于房间的角落部分。
30.如权利要求20所述的自主移动机器人,其中,所述操作包括操作驱动系统以跟随模式在房间内操纵自主移动机器人,在跟随模式中,自主移动机器人跟随沿该表面的一部分的路径,并产生表示该表面的该部分的几何形状的第一数据。
31.如权利要求20所述的自主移动机器人,还包括清洁系统,其可操作成当自主移动机器人在房间内移动时清洁房间的地板表面。
32.一种方法,包括:
当自主移动机器人的接触传感器产生表示房间的一表面的一部分的几何形状的第一数据时,沿该表面的该部分操纵自主移动机器人;
操纵自主移动机器人至该表面的该部分使得接触传感器产生第二数据,第二数据包括表示该表面的该部分的几何形状的至少一部分的数据;以及
基于第一数据和第二数据之间的差异相对于房间局限自主移动机器人。
33.如权利要求32所述的方法,其中,接触传感器是碰撞传感器,其构造成响应于自主移动机器人的缓冲器和该房间的该表面之间的接触而产生第一数据。
34.如权利要求32所述的方法,其中:
当自主移动机器人的接触传感器产生第一数据时沿该表面的该部分操纵自主移动机器人包括在第一任务期间沿该表面的该部分操纵自主移动机器人;以及
当自主移动机器人的接触传感器产生第二数据时操纵自主移动机器人至该表面的该部分包括在第二任务期间操纵自主移动机器人至该表面的该部分。
35.如权利要求32所述的方法,其中:
当自主移动机器人的接触传感器产生第一数据时沿该表面的该部分操纵自主移动机器人包括当自主移动机器人的里程表产生测距数据时沿该表面的该部分操纵操纵自主移动机器人;以及
相对于房间局限自主移动机器人包括基于测距数据局限自主移动机器人。
36.如权利要求35所述的方法,其中,第一数据和第二数据表示自主移动机器人接触该表面的地点。
37.如权利要求32所述的方法,其中,相对于房间局限自主移动机器人包括基于在操纵自主移动机器人至该表面的一部分时自主移动机器人和该表面之间的接触角来局限自主移动机器人。
38.如权利要求32所述的方法,其中,当接触传感器产生第一数据时沿该表面的该部分操纵自主移动机器人包括以跟随模式在房间内操纵自主移动机器人,在跟随模式中,自主移动机器人跟随沿该表面的该部分的路径,并产生表示该表面的该部分的几何形状的数据。
39.如权利要求32所述的方法,其中,当自主移动机器人的接触传感器产生第一数据时沿该表面的该部分操纵自主移动机器人包括当自主移动机器人清洁房间的地板表面时沿该表面的该部分操纵自主移动机器人。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/661,633 US9630319B2 (en) | 2015-03-18 | 2015-03-18 | Localization and mapping using physical features |
US14/661,633 | 2015-03-18 | ||
CN201510405861.2A CN106200633B (zh) | 2015-03-18 | 2015-07-10 | 使用物理特征定位和制图 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510405861.2A Division CN106200633B (zh) | 2015-03-18 | 2015-07-10 | 使用物理特征定位和制图 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112947444A true CN112947444A (zh) | 2021-06-11 |
Family
ID=55946288
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110170845.5A Pending CN112947444A (zh) | 2015-03-18 | 2015-07-10 | 使用物理特征定位和制图 |
CN201520500449.4U Active CN205247205U (zh) | 2015-03-18 | 2015-07-10 | 自主机器人 |
CN201510405861.2A Active CN106200633B (zh) | 2015-03-18 | 2015-07-10 | 使用物理特征定位和制图 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201520500449.4U Active CN205247205U (zh) | 2015-03-18 | 2015-07-10 | 自主机器人 |
CN201510405861.2A Active CN106200633B (zh) | 2015-03-18 | 2015-07-10 | 使用物理特征定位和制图 |
Country Status (4)
Country | Link |
---|---|
US (3) | US9630319B2 (zh) |
EP (2) | EP3859477A1 (zh) |
CN (3) | CN112947444A (zh) |
WO (1) | WO2016148743A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI753510B (zh) * | 2019-07-31 | 2022-01-21 | 南韓商Lg電子股份有限公司 | 移動式機器人及其控制方法 |
US11499832B1 (en) * | 2017-10-17 | 2022-11-15 | AI Incorporated | Method for constructing a map while performing work |
Families Citing this family (189)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11835343B1 (en) * | 2004-08-06 | 2023-12-05 | AI Incorporated | Method for constructing a map while performing work |
US9157757B1 (en) * | 2014-09-03 | 2015-10-13 | Sharp Laboratories Of America, Inc. | Methods and systems for mobile-agent navigation |
US9969337B2 (en) * | 2014-09-03 | 2018-05-15 | Sharp Laboratories Of America, Inc. | Methods and systems for mobile-agent navigation |
US9804594B2 (en) * | 2014-11-07 | 2017-10-31 | Clearpath Robotics, Inc. | Self-calibrating sensors and actuators for unmanned vehicles |
GB201419883D0 (en) * | 2014-11-07 | 2014-12-24 | F Robotics Acquisitions Ltd | Domestic robotic system and method |
US11685053B1 (en) * | 2014-11-24 | 2023-06-27 | AI Incorporated | Edge detection system |
US10488865B2 (en) * | 2014-12-16 | 2019-11-26 | Al Incorporated | Methods and systems for robotic surface coverage |
US20180361584A1 (en) * | 2015-01-06 | 2018-12-20 | Discovery Robotics | Robotic platform with long-term learning |
US9630319B2 (en) | 2015-03-18 | 2017-04-25 | Irobot Corporation | Localization and mapping using physical features |
KR101697857B1 (ko) * | 2015-04-08 | 2017-01-18 | 엘지전자 주식회사 | 이동 로봇 및 그의 위치인식방법 |
US9918605B2 (en) * | 2015-04-09 | 2018-03-20 | Irobot Corporation | Wall following robot |
US20170038772A1 (en) * | 2015-08-04 | 2017-02-09 | Gnetic Inc. | Modular Robot |
US10180685B2 (en) | 2015-05-12 | 2019-01-15 | Viabot Inc. | Autonomous modular robot |
GB2538779B (en) * | 2015-05-28 | 2017-08-30 | Dyson Technology Ltd | A method of controlling a mobile robot |
DE102015109775B3 (de) | 2015-06-18 | 2016-09-22 | RobArt GmbH | Optischer Triangulationssensor zur Entfernungsmessung |
DE102015114883A1 (de) * | 2015-09-04 | 2017-03-09 | RobArt GmbH | Identifizierung und Lokalisierung einer Basisstation eines autonomen mobilen Roboters |
WO2017041045A1 (en) * | 2015-09-04 | 2017-03-09 | Gatekeeper Systems, Inc. | Estimating motion of wheeled carts |
US10209063B2 (en) * | 2015-10-03 | 2019-02-19 | X Development Llc | Using sensor-based observations of agents in an environment to estimate the pose of an object in the environment and to estimate an uncertainty measure for the pose |
DE102015119501A1 (de) | 2015-11-11 | 2017-05-11 | RobArt GmbH | Unterteilung von Karten für die Roboternavigation |
DE102015119865B4 (de) | 2015-11-17 | 2023-12-21 | RobArt GmbH | Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters |
US10093021B2 (en) * | 2015-12-02 | 2018-10-09 | Qualcomm Incorporated | Simultaneous mapping and planning by a robot |
DE102015121666B3 (de) | 2015-12-11 | 2017-05-24 | RobArt GmbH | Fernsteuerung eines mobilen, autonomen Roboters |
TW201727417A (zh) * | 2016-01-26 | 2017-08-01 | 鴻海精密工業股份有限公司 | 分析路面曲度並結合資料記錄的自動行走建議系統及方法 |
WO2017133638A1 (zh) | 2016-02-03 | 2017-08-10 | 苏州宝时得电动工具有限公司 | 自移动设备及自移动设备的控制方法 |
DE102016102644A1 (de) | 2016-02-15 | 2017-08-17 | RobArt GmbH | Verfahren zur Steuerung eines autonomen mobilen Roboters |
CN107305255A (zh) * | 2016-04-25 | 2017-10-31 | 富士通株式会社 | 定位方法、定位装置和电子设备 |
DE102016212694A1 (de) * | 2016-05-31 | 2017-11-30 | Siemens Aktiengesellschaft | Verfahren zur Orientierung eines Industrieroboters und Industrieroboter |
TWI614388B (zh) * | 2016-06-02 | 2018-02-11 | 張韻詩 | 位置標示器 |
CN107456173B (zh) * | 2016-06-06 | 2020-12-04 | 北京小米移动软件有限公司 | 障碍物跨越方法及装置 |
DE102016215501B4 (de) * | 2016-08-18 | 2019-03-07 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Hinderniserkennung durch Landmarken |
US9829333B1 (en) * | 2016-09-13 | 2017-11-28 | Amazon Technologies, Inc. | Robotic traffic density based guidance |
CN106383517B (zh) * | 2016-09-30 | 2019-06-07 | 汕头大学 | 一种自主移动机器人平台用控制系统、方法及装置 |
US10732127B2 (en) * | 2016-10-26 | 2020-08-04 | Pixart Imaging Inc. | Dirtiness level determining system and surface cleaning machine |
US10274325B2 (en) * | 2016-11-01 | 2019-04-30 | Brain Corporation | Systems and methods for robotic mapping |
US11042161B2 (en) | 2016-11-16 | 2021-06-22 | Symbol Technologies, Llc | Navigation control method and apparatus in a mobile automation system |
DE102016125408A1 (de) * | 2016-12-22 | 2018-06-28 | RobArt GmbH | Autonomer mobiler roboter und verfahren zum steuern eines autonomen mobilen roboters |
CN107340768B (zh) * | 2016-12-29 | 2020-08-28 | 珠海市一微半导体有限公司 | 一种智能机器人的路径规划方法 |
CN108481321B (zh) * | 2017-01-09 | 2020-07-28 | 广东宝乐机器人股份有限公司 | 一种机器人的移动控制方法及机器人 |
US10768682B2 (en) * | 2017-01-20 | 2020-09-08 | Flir Systems, Inc. | Detection-based wakeup of detection devices |
TWI634403B (zh) * | 2017-01-26 | 2018-09-01 | 好樣科技有限公司 | 自動清潔機及其控制方法 |
CN106647774A (zh) * | 2017-02-14 | 2017-05-10 | 南京罗普森智能科技有限公司 | 实现室内扫地机器人自主探索建图及自主路径覆盖的方法 |
WO2018158248A2 (de) | 2017-03-02 | 2018-09-07 | RobArt GmbH | Verfahren zur steuerung eines autonomen,mobilen roboters |
KR101984101B1 (ko) * | 2017-03-06 | 2019-05-30 | 엘지전자 주식회사 | 청소기 및 그 제어방법 |
EP3593333A4 (en) | 2017-03-08 | 2021-01-20 | Gatekeeper Systems, Inc. | NAVIGATION SYSTEMS FOR WHEEL CARTS |
WO2018176358A1 (en) * | 2017-03-31 | 2018-10-04 | Intel Corporation | Autonomous tunnel navigation with a robotic system |
US10963493B1 (en) * | 2017-04-06 | 2021-03-30 | AIBrain Corporation | Interactive game with robot system |
US11151992B2 (en) | 2017-04-06 | 2021-10-19 | AIBrain Corporation | Context aware interactive robot |
US10810371B2 (en) | 2017-04-06 | 2020-10-20 | AIBrain Corporation | Adaptive, interactive, and cognitive reasoner of an autonomous robotic system |
US10929759B2 (en) | 2017-04-06 | 2021-02-23 | AIBrain Corporation | Intelligent robot software platform |
US10839017B2 (en) | 2017-04-06 | 2020-11-17 | AIBrain Corporation | Adaptive, interactive, and cognitive reasoner of an autonomous robotic system utilizing an advanced memory graph structure |
WO2018187943A1 (zh) * | 2017-04-11 | 2018-10-18 | 珠海市一微半导体有限公司 | 智能机器人的栅格地图创建方法 |
US10222215B2 (en) * | 2017-04-21 | 2019-03-05 | X Development Llc | Methods and systems for map generation and alignment |
US10949798B2 (en) | 2017-05-01 | 2021-03-16 | Symbol Technologies, Llc | Multimodal localization and mapping for a mobile automation apparatus |
US11449059B2 (en) | 2017-05-01 | 2022-09-20 | Symbol Technologies, Llc | Obstacle detection for a mobile automation apparatus |
US9939814B1 (en) * | 2017-05-01 | 2018-04-10 | Savioke, Inc. | Computer system and method for automated mapping by robots |
US11367092B2 (en) | 2017-05-01 | 2022-06-21 | Symbol Technologies, Llc | Method and apparatus for extracting and processing price text from an image set |
DE112018002314T5 (de) | 2017-05-01 | 2020-01-23 | Symbol Technologies, Llc | Verfahren und vorrichtung zur erkennung eines objektstatus |
WO2018204342A1 (en) | 2017-05-01 | 2018-11-08 | Symbol Technologies, Llc | Product status detection system |
US11600084B2 (en) | 2017-05-05 | 2023-03-07 | Symbol Technologies, Llc | Method and apparatus for detecting and interpreting price label text |
US10882186B1 (en) * | 2017-05-11 | 2021-01-05 | AI Incorporated | Method for efficient operation of mobile robotic devices |
DE102017111886B3 (de) * | 2017-05-31 | 2018-05-03 | Sick Ag | Bestimmen der Bewegung einer abzusichernden Maschine |
US11009354B2 (en) * | 2017-07-06 | 2021-05-18 | Nuro Technologies, Inc. | Determining a layout in a living space |
US10551843B2 (en) * | 2017-07-11 | 2020-02-04 | Neato Robotics, Inc. | Surface type detection for robotic cleaning device |
US10353399B2 (en) * | 2017-07-21 | 2019-07-16 | AI Incorporated | Polymorphic path planning for robotic devices |
CN111094893A (zh) * | 2017-07-28 | 2020-05-01 | 高通股份有限公司 | 机器人式运载工具的图像传感器初始化 |
JP7103585B2 (ja) * | 2017-08-21 | 2022-07-20 | 日本電産シンポ株式会社 | 移動体、移動体管理システムおよびコンピュータプログラム |
DE102017120218A1 (de) * | 2017-09-01 | 2019-03-07 | RobArt GmbH | Bewegungsplanung für autonome mobile roboter |
US10012996B1 (en) | 2017-09-15 | 2018-07-03 | Savioke, Inc. | Route planning for a mobile robot using configuration-based preferences |
DE102017008917A1 (de) * | 2017-09-22 | 2019-03-28 | Kuka Deutschland Gmbh | Verfahren zum Lokalisieren eines mobilen Roboters |
CN108852174B (zh) * | 2017-09-25 | 2022-02-25 | 北京石头创新科技有限公司 | 自主移动机器人及其寻桩方法、控制装置和智能清洁系统 |
US11274929B1 (en) * | 2017-10-17 | 2022-03-15 | AI Incorporated | Method for constructing a map while performing work |
CN107678440A (zh) * | 2017-11-16 | 2018-02-09 | 苏州艾吉威机器人有限公司 | 一种辅助定位构件,包含其的自律移动装置及定位方法 |
CN107680135B (zh) * | 2017-11-16 | 2019-07-23 | 珊口(上海)智能科技有限公司 | 定位方法、系统及所适用的机器人 |
USD907084S1 (en) * | 2017-12-14 | 2021-01-05 | The Hi-Tech Robotic Systemz Ltd | Mobile robot |
USD896858S1 (en) * | 2017-12-14 | 2020-09-22 | The Hi-Tech Robotic Systemz Ltd | Mobile robot |
USD906390S1 (en) * | 2017-12-14 | 2020-12-29 | The Hi-Tech Robotic Systemz Ltd | Mobile robot |
CN109960254B (zh) * | 2017-12-25 | 2022-09-23 | 深圳市优必选科技有限公司 | 机器人及其路径规划方法 |
USD879851S1 (en) * | 2017-12-29 | 2020-03-31 | Beijing Geekplus Technology Co., Ltd. | Robot |
US10795377B2 (en) * | 2018-01-03 | 2020-10-06 | AI Incorporated | Method for autonomously controlling speed of components and functions of a robot |
CN111565897A (zh) * | 2018-01-10 | 2020-08-21 | 索尼公司 | 动物形状的自主移动对象、使动物形状的自主移动对象执行动作的方法以及程序 |
WO2019139243A1 (ko) * | 2018-01-15 | 2019-07-18 | 에스케이텔레콤 주식회사 | 자율주행을 위한 고정밀 지도의 업데이트 장치 및 방법 |
CN108334080B (zh) * | 2018-01-18 | 2021-01-05 | 大连理工大学 | 一种针对机器人导航的虚拟墙自动生成方法 |
EP3534235B1 (en) * | 2018-02-28 | 2021-04-14 | Honda Research Institute Europe GmbH | Unsupervised learning of metric representations from slow features |
USD879852S1 (en) * | 2018-03-15 | 2020-03-31 | Beijing Geekplus Technology Co., Ltd. | Mobile robot |
EP3779630A4 (en) * | 2018-03-27 | 2021-08-11 | Zhongqian You | ROBOT AVOIDATION CONTROL PROCEDURES AND RELATED DEVICE |
US10503760B2 (en) | 2018-03-29 | 2019-12-10 | Aurora Innovation, Inc. | Use of relative atlas in an autonomous vehicle |
US10521913B2 (en) | 2018-03-29 | 2019-12-31 | Aurora Innovation, Inc. | Relative atlas for autonomous vehicle and generation thereof |
US11256729B2 (en) | 2018-03-29 | 2022-02-22 | Aurora Operations, Inc. | Autonomous vehicle relative atlas incorporating hypergraph data structure |
US11327504B2 (en) | 2018-04-05 | 2022-05-10 | Symbol Technologies, Llc | Method, system and apparatus for mobile automation apparatus localization |
US10823572B2 (en) | 2018-04-05 | 2020-11-03 | Symbol Technologies, Llc | Method, system and apparatus for generating navigational data |
US11427404B2 (en) | 2018-04-10 | 2022-08-30 | Fetch Robotics, Inc. | System and method for robot-assisted, cart-based workflows |
US10853561B2 (en) * | 2019-04-10 | 2020-12-01 | Fetch Robotics, Inc. | System and method for automatically annotating a map |
US11454981B1 (en) * | 2018-04-20 | 2022-09-27 | AI Incorporated | Versatile mobile robotic device |
KR102122237B1 (ko) * | 2018-04-30 | 2020-06-15 | 엘지전자 주식회사 | 청소기 및 그 제어방법 |
CN110442123B (zh) * | 2018-05-03 | 2022-08-05 | 南宁富联富桂精密工业有限公司 | 清扫机器人、清扫方法、环境监控方法和计算机存储介质 |
KR102047303B1 (ko) * | 2018-06-01 | 2019-11-21 | 엘지전자 주식회사 | 저조도 영상 내 소실점에 기반하여 방향을 추정하는 로봇 및 방법 |
CN108748148B (zh) * | 2018-06-04 | 2021-03-16 | 常州信息职业技术学院 | 一种智能攀爬机器人用智能电气控制系统及其控制方法 |
US10831211B1 (en) * | 2018-06-11 | 2020-11-10 | United Services Automobile Association (Usaa) | Marker based navigation system for robotic vehicle |
CN116578068A (zh) * | 2018-06-15 | 2023-08-11 | 科沃斯机器人股份有限公司 | 机器人定位方法、机器人及存储介质 |
US11334082B2 (en) * | 2018-08-08 | 2022-05-17 | The Toro Company | Autonomous machine navigation and training using vision system |
USD911406S1 (en) * | 2018-08-17 | 2021-02-23 | Grey Orange Pte. Ltd | Robot for moving articles within a facility |
DE102018121365A1 (de) * | 2018-08-31 | 2020-04-23 | RobArt GmbH | Exploration eines robotereinsatzgebietes durch einen autonomen mobilen roboter |
US11977378B2 (en) * | 2018-09-17 | 2024-05-07 | The Charles Machine Works, Inc. | Virtual path guidance system |
CN110941258A (zh) * | 2018-09-21 | 2020-03-31 | 日本电产株式会社 | 移动体的控制方法及移动体的控制系统 |
CN110940994B (zh) * | 2018-09-25 | 2024-06-18 | 北京京东乾石科技有限公司 | 定位初始化方法及其系统 |
US11506483B2 (en) | 2018-10-05 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for support structure depth determination |
US11010920B2 (en) | 2018-10-05 | 2021-05-18 | Zebra Technologies Corporation | Method, system and apparatus for object detection in point clouds |
US20200122711A1 (en) | 2018-10-19 | 2020-04-23 | GEOSAT Aerospace & Technology | Unmanned ground vehicle and method for operating unmanned ground vehicle |
CN113961005A (zh) * | 2018-10-22 | 2022-01-21 | 科沃斯机器人股份有限公司 | 行进控制的方法、表面清洁机器人及存储介质 |
US11080495B2 (en) * | 2018-10-25 | 2021-08-03 | Unified Information Devices, LLC | Animal motion and temperature monitoring |
US11644843B2 (en) * | 2018-11-12 | 2023-05-09 | Robotic Research Opco, Llc | Learning mechanism for autonomous trucks for mining and construction applications |
US11656626B2 (en) | 2018-11-12 | 2023-05-23 | Robotic Research Opco, Llc | Autonomous truck loading for mining and construction applications |
US11090811B2 (en) | 2018-11-13 | 2021-08-17 | Zebra Technologies Corporation | Method and apparatus for labeling of support structures |
US11353865B2 (en) | 2018-11-13 | 2022-06-07 | Robotic Research Opco, Llc | Coordination of mining and construction vehicles via scripting control |
US11003188B2 (en) | 2018-11-13 | 2021-05-11 | Zebra Technologies Corporation | Method, system and apparatus for obstacle handling in navigational path generation |
CA3120728A1 (en) * | 2018-11-21 | 2020-05-28 | Ali Ebrahimi Afrouzi | Methods and systems for robotic surface coverage |
CN109240312B (zh) * | 2018-11-23 | 2020-09-15 | 珠海市一微半导体有限公司 | 一种机器人的清扫控制方法和芯片以及清洁机器人 |
US10611028B1 (en) * | 2018-11-30 | 2020-04-07 | NextVPU (Shanghai) Co., Ltd. | Map building and positioning of robot |
US11079240B2 (en) * | 2018-12-07 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for adaptive particle filter localization |
US11416000B2 (en) | 2018-12-07 | 2022-08-16 | Zebra Technologies Corporation | Method and apparatus for navigational ray tracing |
US11100303B2 (en) | 2018-12-10 | 2021-08-24 | Zebra Technologies Corporation | Method, system and apparatus for auxiliary label detection and association |
US11015938B2 (en) | 2018-12-12 | 2021-05-25 | Zebra Technologies Corporation | Method, system and apparatus for navigational assistance |
CA3028708A1 (en) | 2018-12-28 | 2020-06-28 | Zih Corp. | Method, system and apparatus for dynamic loop closure in mapping trajectories |
CN109512344A (zh) * | 2019-01-04 | 2019-03-26 | 云鲸智能科技(东莞)有限公司 | 一种移动机器人 |
GB201900859D0 (en) * | 2019-01-22 | 2019-03-13 | Gama Healthcare Ltd | Robotic, mobile apparatus for treating a room, for example by disinfection |
FR3092166B1 (fr) * | 2019-01-28 | 2021-02-12 | Hardis Groupe | Procede de localisation |
CN111493743B (zh) | 2019-01-31 | 2022-03-08 | 好样科技有限公司 | 清洁机及清洁机的路径规划方法 |
US11620478B2 (en) * | 2019-02-06 | 2023-04-04 | Texas Instruments Incorporated | Semantic occupancy grid management in ADAS/autonomous driving |
JP7280719B2 (ja) * | 2019-03-05 | 2023-05-24 | 東芝ライフスタイル株式会社 | 自律型掃除機 |
KR102243179B1 (ko) * | 2019-03-27 | 2021-04-21 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
US11548151B2 (en) | 2019-04-12 | 2023-01-10 | Boston Dynamics, Inc. | Robotically negotiating stairs |
US11599128B2 (en) * | 2020-04-22 | 2023-03-07 | Boston Dynamics, Inc. | Perception and fitting for a stair tracker |
JP7231469B2 (ja) * | 2019-04-19 | 2023-03-01 | 東芝ライフスタイル株式会社 | 自律型掃除機 |
JP2022529367A (ja) | 2019-04-24 | 2022-06-21 | マジック リープ, インコーポレイテッド | 姿勢付き単眼ビデオからの周囲推定 |
EP3734391A1 (en) * | 2019-05-03 | 2020-11-04 | Terabee S.A.S. | Simultaneous localization and mapping |
US11373318B1 (en) | 2019-05-14 | 2022-06-28 | Vulcan Inc. | Impact detection |
CN110225100B (zh) * | 2019-05-22 | 2021-01-05 | 清华大学 | 一种面向智能装配生产线的虚实映射系统 |
US11402846B2 (en) | 2019-06-03 | 2022-08-02 | Zebra Technologies Corporation | Method, system and apparatus for mitigating data capture light leakage |
US11960286B2 (en) | 2019-06-03 | 2024-04-16 | Zebra Technologies Corporation | Method, system and apparatus for dynamic task sequencing |
US11662739B2 (en) | 2019-06-03 | 2023-05-30 | Zebra Technologies Corporation | Method, system and apparatus for adaptive ceiling-based localization |
US11080566B2 (en) | 2019-06-03 | 2021-08-03 | Zebra Technologies Corporation | Method, system and apparatus for gap detection in support structures with peg regions |
US11341663B2 (en) | 2019-06-03 | 2022-05-24 | Zebra Technologies Corporation | Method, system and apparatus for detecting support structure obstructions |
US11200677B2 (en) | 2019-06-03 | 2021-12-14 | Zebra Technologies Corporation | Method, system and apparatus for shelf edge detection |
US11151743B2 (en) | 2019-06-03 | 2021-10-19 | Zebra Technologies Corporation | Method, system and apparatus for end of aisle detection |
CN110347152B (zh) * | 2019-06-11 | 2022-08-16 | 深圳拓邦股份有限公司 | 虚拟墙设置方法、系统及装置 |
KR102314537B1 (ko) * | 2019-06-18 | 2021-10-18 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR102275300B1 (ko) * | 2019-07-05 | 2021-07-08 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR102224637B1 (ko) * | 2019-07-05 | 2021-03-08 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR102361130B1 (ko) * | 2019-07-11 | 2022-02-09 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR102297496B1 (ko) | 2019-07-11 | 2021-09-02 | 엘지전자 주식회사 | 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법 |
WO2021028672A1 (en) * | 2019-08-09 | 2021-02-18 | Quantum Leap Technologies Limited | Fabric maintenance system and method of use |
CN110597249B (zh) * | 2019-08-23 | 2022-08-05 | 深圳市优必选科技股份有限公司 | 一种机器人及其回充定位方法和装置 |
KR20210028426A (ko) * | 2019-09-04 | 2021-03-12 | 엘지전자 주식회사 | 로봇 청소기 및 그 제어방법 |
CN110874101B (zh) * | 2019-11-29 | 2023-04-18 | 合肥哈工澳汀智能科技有限公司 | 一种机器人清扫路径的生成方法及装置 |
US11507103B2 (en) | 2019-12-04 | 2022-11-22 | Zebra Technologies Corporation | Method, system and apparatus for localization-based historical obstacle handling |
US11107238B2 (en) | 2019-12-13 | 2021-08-31 | Zebra Technologies Corporation | Method, system and apparatus for detecting item facings |
US11713977B2 (en) * | 2019-12-19 | 2023-08-01 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and medium |
CN110850885A (zh) * | 2019-12-20 | 2020-02-28 | 深圳市杉川机器人有限公司 | 自主机器人 |
CN113031509B (zh) * | 2019-12-24 | 2022-07-29 | 苏州科瓴精密机械科技有限公司 | 遍历方法、系统,机器人及可读存储介质 |
CN110989635A (zh) * | 2019-12-31 | 2020-04-10 | 浙江欣奕华智能科技有限公司 | 扫地机器人的清扫方法及扫地机器人 |
JP7441047B2 (ja) * | 2020-01-10 | 2024-02-29 | 三菱重工業株式会社 | 経路生成装置、制御装置、検査システム、経路生成方法およびプログラム |
CN111311775A (zh) * | 2020-01-20 | 2020-06-19 | 深圳供电局有限公司 | 电力机器人巡检系统和方法 |
US11822333B2 (en) | 2020-03-30 | 2023-11-21 | Zebra Technologies Corporation | Method, system and apparatus for data capture illumination control |
US11685049B2 (en) | 2020-04-22 | 2023-06-27 | Boston Dynamics, Inc. | Robot localization using variance sampling |
CN111618856B (zh) * | 2020-05-27 | 2021-11-05 | 山东交通学院 | 基于视觉兴奋点的机器人控制方法、系统及机器人 |
US11450024B2 (en) | 2020-07-17 | 2022-09-20 | Zebra Technologies Corporation | Mixed depth object detection |
CN112045655B (zh) * | 2020-08-14 | 2021-12-31 | 华中科技大学 | 用于大尺度多站点场景的移动机器人位姿测量方法及系统 |
CN111941428B (zh) * | 2020-08-17 | 2022-01-18 | 上海快仓智能科技有限公司 | 避障控制方法和装置 |
US11592573B2 (en) * | 2020-09-15 | 2023-02-28 | Irobot Corporation | Particle filters and WiFi robot localization and mapping |
US11662743B2 (en) * | 2020-09-15 | 2023-05-30 | Irobot Corporation | Robot localization and mapping accommodating non-unique landmarks |
CN112155476B (zh) * | 2020-09-16 | 2021-07-20 | 珠海格力电器股份有限公司 | 一种机器人的控制方法、装置、电子设备及存储介质 |
US11593915B2 (en) | 2020-10-21 | 2023-02-28 | Zebra Technologies Corporation | Parallax-tolerant panoramic image generation |
US11392891B2 (en) | 2020-11-03 | 2022-07-19 | Zebra Technologies Corporation | Item placement detection and optimization in material handling systems |
US11847832B2 (en) | 2020-11-11 | 2023-12-19 | Zebra Technologies Corporation | Object classification for autonomous navigation systems |
CN114610006A (zh) * | 2020-11-24 | 2022-06-10 | 广东博智林机器人有限公司 | 一种地坪设备的工作方法、装置、地坪设备及存储介质 |
CN112486172A (zh) * | 2020-11-30 | 2021-03-12 | 深圳市普渡科技有限公司 | 道路边缘检测方法及机器人 |
KR20220078278A (ko) * | 2020-12-03 | 2022-06-10 | 삼성전자주식회사 | 로봇 및 그의 맵 생성 방법 |
US11356801B1 (en) * | 2020-12-25 | 2022-06-07 | Mapsted Corp. | Method and system for targeted calibration |
USD967883S1 (en) * | 2021-01-06 | 2022-10-25 | Grey Orange International Inc. | Robot for handling goods in a facility |
JP2022121049A (ja) * | 2021-02-08 | 2022-08-19 | トヨタ自動車株式会社 | 自己位置推定装置 |
CN113345018B (zh) * | 2021-05-31 | 2022-06-14 | 湖南大学 | 一种动态场景下的激光单目视觉融合定位建图方法 |
US11954882B2 (en) | 2021-06-17 | 2024-04-09 | Zebra Technologies Corporation | Feature-based georegistration for mobile computing devices |
CN113854892B (zh) * | 2021-10-21 | 2022-08-02 | 唐山学院 | 一种自动规划路径的清洁装置 |
US20230157506A1 (en) | 2021-11-22 | 2023-05-25 | Irobot Corporation | Trajectory-based localization and mapping |
GB2613620A (en) * | 2021-12-10 | 2023-06-14 | Dyson Technology Ltd | Method for edge cleaning |
WO2023168707A1 (en) | 2022-03-11 | 2023-09-14 | Intelligent Cleaning Equipment Holdings Co. Ltd. | Systems and methods for tracking and scoring cleaning |
SE2250834A1 (en) * | 2022-07-04 | 2024-01-05 | Husqvarna Ab | Improved determination of pose for a robotic work tool |
US20240036578A1 (en) * | 2022-07-26 | 2024-02-01 | Zebra Technologies Corporation | Generation of Navigational Paths Using Recursive Partitioning of Unoccupied Space |
CN115016511A (zh) * | 2022-08-08 | 2022-09-06 | 北京安录国际技术有限公司 | 一种基于人工智能的机器人控制方法及系统 |
Family Cites Families (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5793934A (en) * | 1994-06-22 | 1998-08-11 | Siemens Aktiengesellschaft | Method for the orientation, route planning and control of an autonomous mobile unit |
IL113913A (en) * | 1995-05-30 | 2000-02-29 | Friendly Machines Ltd | Navigation method and system |
US5995884A (en) * | 1997-03-07 | 1999-11-30 | Allen; Timothy P. | Computer peripheral floor cleaning system and navigation method |
US6532404B2 (en) | 1997-11-27 | 2003-03-11 | Colens Andre | Mobile robots and their control system |
JP4458664B2 (ja) | 1997-11-27 | 2010-04-28 | ソーラー・アンド・ロボティクス | 移動性ロボット及びその制御システムの改良 |
US6046565A (en) * | 1998-06-19 | 2000-04-04 | Thorne; Henry F. | Robotic vehicle with deduced reckoning positioning system |
EP1191982B1 (fr) | 1999-06-17 | 2004-06-02 | Solar & Robotics S.A. | Dispositif automatique de ramassage d'objets |
US6594844B2 (en) | 2000-01-24 | 2003-07-22 | Irobot Corporation | Robot obstacle detection system |
US7155308B2 (en) | 2000-01-24 | 2006-12-26 | Irobot Corporation | Robot obstacle detection system |
US7571511B2 (en) | 2002-01-03 | 2009-08-11 | Irobot Corporation | Autonomous floor-cleaning robot |
US6883201B2 (en) | 2002-01-03 | 2005-04-26 | Irobot Corporation | Autonomous floor-cleaning robot |
US6690134B1 (en) | 2001-01-24 | 2004-02-10 | Irobot Corporation | Method and system for robot localization and confinement |
WO2002096184A1 (fr) | 2001-05-28 | 2002-12-05 | Solar & Robotics Sa | Amelioration a une tondeuse robotique |
US8396592B2 (en) * | 2001-06-12 | 2013-03-12 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
EP2998816B1 (en) | 2001-06-12 | 2018-12-05 | iRobot Corporation | Multi-code coverage for an autonomous robot |
US7429843B2 (en) | 2001-06-12 | 2008-09-30 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
GB0126499D0 (en) * | 2001-11-03 | 2002-01-02 | Dyson Ltd | An autonomous machine |
GB0126497D0 (en) * | 2001-11-03 | 2002-01-02 | Dyson Ltd | An autonomous machine |
AU2003270343A1 (en) * | 2002-08-30 | 2004-03-19 | Aethon, Inc. | Robotic cart pulling vehicle |
US7015831B2 (en) | 2002-12-17 | 2006-03-21 | Evolution Robotics, Inc. | Systems and methods for incrementally updating a pose of a mobile device calculated by visual simultaneous localization and mapping techniques |
JP2004275468A (ja) * | 2003-03-17 | 2004-10-07 | Hitachi Home & Life Solutions Inc | 自走式掃除機およびその運転方法 |
US20040220707A1 (en) | 2003-05-02 | 2004-11-04 | Kim Pallister | Method, apparatus and system for remote navigation of robotic devices |
US7689321B2 (en) * | 2004-02-13 | 2010-03-30 | Evolution Robotics, Inc. | Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system |
US20050234679A1 (en) | 2004-02-13 | 2005-10-20 | Evolution Robotics, Inc. | Sequential selective integration of sensor data |
US7389156B2 (en) | 2005-02-18 | 2008-06-17 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
EP2145573B1 (en) | 2005-02-18 | 2011-09-07 | iRobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
US9534899B2 (en) | 2005-03-25 | 2017-01-03 | Irobot Corporation | Re-localization of a robot for slam |
US20140012787A1 (en) * | 2009-12-18 | 2014-01-09 | Qin Zhang | System and method for information processing and motor control |
ES2707155T3 (es) | 2006-03-17 | 2019-04-02 | Irobot Corp | Confinamiento de robot |
US8108092B2 (en) | 2006-07-14 | 2012-01-31 | Irobot Corporation | Autonomous behaviors for a remote vehicle |
KR100843085B1 (ko) * | 2006-06-20 | 2008-07-02 | 삼성전자주식회사 | 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치 |
US7211980B1 (en) * | 2006-07-05 | 2007-05-01 | Battelle Energy Alliance, Llc | Robotic follow system and method |
US8798792B2 (en) * | 2007-10-30 | 2014-08-05 | Lg Electronics Inc. | Detecting apparatus of robot cleaner and controlling method of robot cleaner |
US8961695B2 (en) * | 2008-04-24 | 2015-02-24 | Irobot Corporation | Mobile robot for cleaning |
KR101503903B1 (ko) * | 2008-09-16 | 2015-03-19 | 삼성전자 주식회사 | 이동 로봇의 지도 구성 장치 및 방법 |
US8781630B2 (en) | 2008-10-14 | 2014-07-15 | University Of Florida Research Foundation, Inc. | Imaging platform to provide integrated navigation capabilities for surgical guidance |
US8301374B2 (en) | 2009-08-25 | 2012-10-30 | Southwest Research Institute | Position estimation for ground vehicle navigation based on landmark identification/yaw rate and perception of landmarks |
RU2012122469A (ru) | 2009-11-06 | 2013-12-20 | Эволюшн Роботикс, Инк. | Способы и системы для полного охвата поверхности автономным роботом |
KR101641237B1 (ko) * | 2009-11-20 | 2016-07-21 | 엘지전자 주식회사 | 로봇 청소기 및 이의 제어 방법 |
CN102138769B (zh) * | 2010-01-28 | 2014-12-24 | 深圳先进技术研究院 | 清洁机器人及其清扫方法 |
EP2386998B1 (en) | 2010-05-14 | 2018-07-11 | Honda Research Institute Europe GmbH | A Two-Stage Correlation Method for Correspondence Search |
US9286810B2 (en) | 2010-09-24 | 2016-03-15 | Irobot Corporation | Systems and methods for VSLAM optimization |
DE112011104645T5 (de) * | 2010-12-30 | 2013-10-10 | Irobot Corp. | Mobiler Mensch-Schnittstellen-Roboter |
CN103534659B (zh) * | 2010-12-30 | 2017-04-05 | 美国iRobot公司 | 覆盖机器人导航 |
EP3878333B1 (en) | 2011-04-29 | 2023-12-13 | iRobot Corporation | An autonomous mobile robot for cleaning with a front roller in a first horizontal plane positioned above a second horizontal plane of a rear roller |
KR101566207B1 (ko) * | 2011-06-28 | 2015-11-13 | 삼성전자 주식회사 | 로봇 청소기 및 그 제어방법 |
US8798840B2 (en) | 2011-09-30 | 2014-08-05 | Irobot Corporation | Adaptive mapping with spatial summaries of sensor data |
US9201133B2 (en) | 2011-11-11 | 2015-12-01 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for signal-based localization |
WO2013108075A1 (en) | 2012-01-17 | 2013-07-25 | Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi | System and method for measuring tracker system accuracy |
CN104350441B (zh) | 2012-03-15 | 2017-04-05 | 艾罗伯特公司 | 包括传感器阵列的用于机器人的缓冲器 |
EP2689650B1 (en) | 2012-07-27 | 2014-09-10 | Honda Research Institute Europe GmbH | Trainable autonomous lawn mower |
US9734586B2 (en) | 2012-09-21 | 2017-08-15 | The Schepens Eye Research Institute, Inc. | Collision prediction |
US9020637B2 (en) | 2012-11-02 | 2015-04-28 | Irobot Corporation | Simultaneous localization and mapping for a mobile robot |
US8788205B2 (en) | 2012-12-17 | 2014-07-22 | Microsoft Corporation | Sensor data collection |
CN103914068A (zh) * | 2013-01-07 | 2014-07-09 | 中国人民解放军第二炮兵工程大学 | 一种基于栅格地图的服务机器人自主导航方法 |
US8965561B2 (en) | 2013-03-15 | 2015-02-24 | Cybernet Systems Corporation | Automated warehousing using robotic forklifts |
US9326654B2 (en) | 2013-03-15 | 2016-05-03 | Irobot Corporation | Roller brush for surface cleaning robots |
JP6136543B2 (ja) * | 2013-05-01 | 2017-05-31 | 村田機械株式会社 | 自律移動体 |
CN103271699B (zh) * | 2013-05-29 | 2016-05-18 | 东北师范大学 | 一种智能家居清洁机器人 |
WO2014205425A1 (en) | 2013-06-22 | 2014-12-24 | Intellivision Technologies Corp. | Method of tracking moveable objects by combining data obtained from multiple sensor types |
JP5880498B2 (ja) | 2013-08-09 | 2016-03-09 | トヨタ自動車株式会社 | 自律移動体、障害物判別方法及び障害物回避方法 |
CN103472823B (zh) * | 2013-08-20 | 2015-11-18 | 苏州两江科技有限公司 | 一种智能机器人用的栅格地图创建方法 |
CN104035444B (zh) * | 2014-06-27 | 2016-08-24 | 东南大学 | 机器人地图构建存储方法 |
US9630319B2 (en) | 2015-03-18 | 2017-04-25 | Irobot Corporation | Localization and mapping using physical features |
-
2015
- 2015-03-18 US US14/661,633 patent/US9630319B2/en active Active
- 2015-07-10 CN CN202110170845.5A patent/CN112947444A/zh active Pending
- 2015-07-10 CN CN201520500449.4U patent/CN205247205U/zh active Active
- 2015-07-10 CN CN201510405861.2A patent/CN106200633B/zh active Active
- 2015-11-17 WO PCT/US2015/061079 patent/WO2016148743A1/en active Application Filing
- 2015-11-17 EP EP20214136.2A patent/EP3859477A1/en active Pending
- 2015-11-17 EP EP15885756.5A patent/EP3271784B1/en active Active
-
2017
- 2017-03-07 US US15/451,756 patent/US10500722B2/en active Active
-
2019
- 2019-12-09 US US16/707,383 patent/US11960304B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11499832B1 (en) * | 2017-10-17 | 2022-11-15 | AI Incorporated | Method for constructing a map while performing work |
TWI753510B (zh) * | 2019-07-31 | 2022-01-21 | 南韓商Lg電子股份有限公司 | 移動式機器人及其控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN106200633A (zh) | 2016-12-07 |
US20170239813A1 (en) | 2017-08-24 |
US20200108499A1 (en) | 2020-04-09 |
US11960304B2 (en) | 2024-04-16 |
US10500722B2 (en) | 2019-12-10 |
WO2016148743A1 (en) | 2016-09-22 |
EP3271784A1 (en) | 2018-01-24 |
EP3271784B1 (en) | 2020-12-16 |
CN205247205U (zh) | 2016-05-18 |
US20160271795A1 (en) | 2016-09-22 |
CN106200633B (zh) | 2021-03-09 |
EP3859477A1 (en) | 2021-08-04 |
US9630319B2 (en) | 2017-04-25 |
EP3271784A4 (en) | 2018-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106200633B (zh) | 使用物理特征定位和制图 | |
US11465284B2 (en) | Restricting movement of a mobile robot | |
CN110522359B (zh) | 清洁机器人以及清洁机器人的控制方法 | |
EP3686706B1 (en) | Switching between positioning modes for a domestic robot | |
JP6772129B2 (ja) | 移動ロボットにおける光学式走行距離センサの使用のためのシステム及び方法 | |
EP3104194B1 (en) | Robot positioning system | |
EP2343615B1 (en) | Autonomous movement device | |
CN112004645A (zh) | 智能清洁机器人 | |
US20230157506A1 (en) | Trajectory-based localization and mapping | |
CN112840285A (zh) | 具有路径点匹配的自主地图遍历 | |
EP4310623A1 (en) | Systems and methods for robotic navigation, teaching and mapping | |
CN117685946A (zh) | 机器人部署的方法、存储介质、机器人及机器人部署系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |