CN106037591A - 限制移动机器人的运动 - Google Patents
限制移动机器人的运动 Download PDFInfo
- Publication number
- CN106037591A CN106037591A CN201510581990.7A CN201510581990A CN106037591A CN 106037591 A CN106037591 A CN 106037591A CN 201510581990 A CN201510581990 A CN 201510581990A CN 106037591 A CN106037591 A CN 106037591A
- Authority
- CN
- China
- Prior art keywords
- robot
- controller
- barrier
- main body
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 30
- 230000004888 barrier function Effects 0.000 claims abstract description 223
- 238000005259 measurement Methods 0.000 claims abstract description 7
- 238000000034 method Methods 0.000 claims description 38
- 238000002372 labelling Methods 0.000 claims description 21
- 238000004891 communication Methods 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 9
- 239000003550 marker Substances 0.000 claims description 7
- 230000009471 action Effects 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000004140 cleaning Methods 0.000 description 33
- 230000006399 behavior Effects 0.000 description 28
- 230000000875 corresponding effect Effects 0.000 description 24
- 238000001514 detection method Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 11
- 210000000582 semen Anatomy 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 8
- 230000005055 memory storage Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 5
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 235000004443 Ricinus communis Nutrition 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000005183 dynamical system Methods 0.000 description 3
- 230000005611 electricity Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 239000000523 sample Substances 0.000 description 3
- GOLXNESZZPUPJE-UHFFFAOYSA-N spiromesifen Chemical compound CC1=CC(C)=CC(C)=C1C(C(O1)=O)=C(OC(=O)CC(C)(C)C)C11CCCC1 GOLXNESZZPUPJE-UHFFFAOYSA-N 0.000 description 3
- 240000007594 Oryza sativa Species 0.000 description 2
- 235000007164 Oryza sativa Nutrition 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 2
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000005108 dry cleaning Methods 0.000 description 2
- 239000010977 jade Substances 0.000 description 2
- 230000002045 lasting effect Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 235000009566 rice Nutrition 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- NBIIXXVUZAFLBC-UHFFFAOYSA-N Phosphoric acid Chemical compound OP(O)(O)=O NBIIXXVUZAFLBC-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 235000021152 breakfast Nutrition 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000009408 flooring Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 239000011121 hardwood Substances 0.000 description 1
- 238000004020 luminiscence type Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 238000005498 polishing Methods 0.000 description 1
- 150000003071 polychlorinated biphenyls Chemical class 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000010407 vacuum cleaning Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J5/00—Manipulators mounted on wheels or on carriages
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/01—Mobile robot
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Electric Vacuum Cleaner (AREA)
- Manipulator (AREA)
Abstract
一种机器人,其包括可相对于表面移动的主体;在所述主体内的一个或多个测量设备,其基于所述主体在所述表面上的初始位置处的取向输出信息;以及在所述主体内的控制器,其基于所述信息确定所述主体的取向,并且通过防止所述主体的运动超出基于所述主体取向和初始位置的屏障之外而将所述主体的运动限制到一个区域。
Description
技术领域
本说明书总体地涉及限制移动机器人的运动。
背景技术
一种移动机器人可以在由物体、障碍物、墙壁和在其环境中的其它结构限定的表面周围机动。在某些情况下,可能需要将机器人的运动限制到其环境的特定区域。要做到这一点,可以竖起屏障以防止机器人突入受限区域。例如,可由机器人探测的信标可以被放置在环境中以限制机器人进入受限区域。
发明内容
一种示例机器人可以识别环境中不可穿越的区域,即使不存在防止进入这些区域的结构边界,诸如墙壁、障碍物或其它表面。机器人可以生成虚拟屏障以防止移动进入这些区域。本文描述了用于产生这样的虚拟屏障的各种技术。
一种示例机器人包括可相对于表面移动的主体,在所述主体内的一个或多个测量设备,其基于主体在表面上的初始位置处的取向输出信息,以及在所述主体内的控制器,其基于该信息确定主体的取向,并且通过防止主体的运动超出基于主体取向和初始位置的屏障之外而将主体的运动限制到一个区域。所述示例机器人可包括一个或多个以下特征,其或者是单独的或或者是组合的。
屏障可以延伸穿过门口,并且所述机器人的初始位置可以在门口内。主体可包括正部和背部。屏障可以沿着平行于机器人背部的线延伸。该线可以正切于机器人背部。线可以在由机器人上的视觉指示器指示的位置处与机器人主体相交。屏障可以包括平行于机器人背部延伸的第一线和垂直于机器人背部延伸的第二线。机器人的初始位置可以将主体背部邻近第一线放置,并且将主体侧部邻近第二线放置。所述控制器可被编程为通过控制主体执行操作而限制主体的运动,所述操作包括相对于初始取向旋转一定角度,以及沿大致平行于屏障的路径穿越表面区域。
控制器可以被编程为通过执行操作而限制主体的运动,所述操作包括产生表现待清洁区域的地图,以及在地图上指定虚拟屏障,其可以指示机器人被禁止越过的位置。屏障可以通过将对应于屏障的坐标指定为不可穿越的而指定。
确定取向和限制运动的操作可以在进入握手模式时执行。控制器可以被编程为响应于在机器人上的一个或多个用户启动操作而识别握手模式。
另一示例机器人包括一个主体,其沿着在主体下方的表面是可移动的,相对表面朝上的相机,其中该相机被构造为拍摄固定到结构的标记物的一个或多个图像,以及在主体内的控制器,以基于所述一个或多个图像而识别标记物的位置,并且,至少在一个或多个条件得到满足前,防止主体运动到超出由标记物位置限定的屏障之外的表面区域。示例机器人可以包括以下一个或多个特征,无论是单独的或组合的。
所述标记物可以包括红外图像标记物,并且相机可以是红外相机。这些标记物可以包括可机读信息,其表示对应于结构的位置名称、结构名称、或对应于结构的位置名称和结构名称两者。位置名称和结构名称中的至少一个可被发送到并显示在移动设备上。
该控制器可以被编程以执行操作,所述操作包括产生表现表面的至少一部分的地图,基于标记物的位置在地图上识别标记,将地图存储在计算机存储器中,并在计算机存储器中存储数据,所述数据指示禁止主体运动到在超出地图上的标记位置之外的表面区域。控制器可被编程为基于标记物的一个以上的图像识别标记物的位置,并防止主体运动到超出基于一个以上的图像识别的标记物位置之外的表面区域。控制器可以被编程为,在满足一个或多个条件时,允许主体运动到超出由图像标记物的位置限定的屏障之外的表面区域,并且,至少在一个或多个的条件得到满足前,防止主体跨过屏障回来的运动。
机器人可以包括与计算机网络无线通信的发射器,以将地图通过计算机网络发送到一个或多个远程计算设备。所述一个或多个条件可以包括机器人穿越在屏障内至少一定百分比的表面区域。所述一个或多个条件可以包括机器人两次或多次穿越在屏障内至少一定百分比的表面区域。
一种产生可由机器人穿越的至少一部分环境的占用网格的示例方法包括通过在机器人内的控制器确定机器人在环境中的位置和取向,并通过控制器用不可穿越单元的屏障填充占用网格。不可穿越单元的屏障至少基于所述机器人的位置和取向。
一种为环境中的机器人产生占用网格的方法包括通过所述机器人的相机探测在环境中的一个或多个结构上的一个或多个可移动标记物的一个或多个特征,和通过在该机器人上的控制器在占用网格上基于所述一个或多个特征指示不可穿越的单元线。该示例方法可以包括一个或多个以下特征,无论是单独的或组合的。
所述方法可包括产生所述一个或多个特征的一个或多个图像,对所述一个或多个图像施加仿射变换以产生一个或多个变换的图像,和确认所述一个或多个变换图像充分匹配一个或多个存储的图像。在占用网格上的指示响应于确认所述一个或多个变换的图像充分匹配一个或多个存储的图像而被执行。
前述优点可以包括但不限于以下内容。用户可以控制机器人以及该机器人导航通过的区域。机器人可以被限制到该机器人可以自由移动的区域,同时减少对该区域中的物体产生损害的风险。在一些实施方式中,机器人自主地运行,而用户不需要在机器人覆盖一个房间时监控该机器人以将该机器人保持在房间的特定区域之外。
在本说明书中描述的任何两种或更多的特征,包括在本发明内容部分,可以被组合以形成本文未具体描述的实施方式。
本文所描述的机器人和技术或其一部分可以通过计算机程序产品进行控制,其包括存储在一个或多个非临时性可机读存储介质中的指令,并且可在一个或多个处理设备上执行以控制(例如,协调)本文所描述的操作。本文所描述的机器人或其一部分可以被实现为装置或电子系统的全部或一部分,所述装置或电子系统可以包括一个或多个处理设备和用于存储可执行指令以实现各种操作的存储器。
一个或多个实施方式的细节在本文的附图和描述中阐述。其它的特征和优点从说明书和附图中以及从权利要求书中将是显而易见的。
附图说明
图1示出了在一个房间中的机器人的视图。
图2A示出了机器人的透视图。
图2B示出了图2A中的机器人的剖切侧视图。
图3A示出了另一机器人的透视图。
图3B示出了图3A中的机器人的侧视图。
图4是用于与移动机器人一起使用的示例控制系统。
图5A至图5C包括示图和流程图,其示出了移动机器人为机器人创建不可见或虚拟屏障的过程。
图6A至图6C包括示图和流程图,其示出了移动机器人为机器人创建不可见或虚拟屏障的另一过程。
图7A至图7C包括示图和流程图,其示出了移动机器人为机器人创建不可见或虚拟屏障的另一过程。
图8A至图8C包括示图和流程图,其示出了移动机器人为机器人创建不可见或虚拟屏障的又一过程。
在不同附图中的相同参考标号表示相同的元件。
具体实施方式
本文所描述的是构造为穿越(或行驶)表面并执行各种操作的示例机器人,所述表面例如地板、地毯、草皮或其它材料,所述操作包括但不限于真空吸尘、湿式或干式清洁、抛光和类似操作。本文所描述的示例机器人的运动可能受到限制。例如,机器人可以竖立虚拟屏障,其限定该机器人不能越过的边界。例如,用户能够为虚拟屏障选择位置以防止机器人进入特定空间。如图1所示,机器人被定位在卫生间中,并且虚拟屏障(以散列方块示出)被产生以防止机器人进入卧室。如本文所述,虚拟屏障可以由机器人自身创建(例如,基于机器人的取向和位置),或由机器人与一种或多种元件组合创建,所述元件诸如可被机器人识别为限定机器人不能越过的虚拟屏障的标记物。在机器人于初始使用期间首次检测到标记物之后,该标记物可以被除去。因此,对于机器人的后续使用,标记物不必保留在环境中。
机器人可以执行用于创建虚拟屏障的其它过程。在一些实施方式中,机器人可以在占用网格上记录虚拟屏障的位置,所述占用网格用作机器人的环境的地图,并因此在其行驶期间和/或在任务之间将虚拟屏障的位置保留在存储器中。占用网格可以是作为尺寸从5cm至50cm的单元阵列的环境地图,各单元拥有一个概率值(例如,该单元被占用的概率)或指示该单元状态的其它信息。占用网格能够将环境地图表示为二元随机变量的均匀间隔场,所述变量各自表示障碍物在环境中的该位置处的存在率。虽然本文描述的一些示例使用占用网格以将环境地图提供给机器人,其它的制图技术也可以使用。例如,诸如曲线图的不同地图表示能够用于本文描述的方法和系统,其中虚拟屏障被表示为由两个或更多坐标组成的线段,或者由三个或更多坐标组成的虚拟多边形或任何其它几何形状或“套索”形状。
虚拟屏障可以阻止机器人退出或进入特定区域,例如,防止清洁机器人从浴室区域移动到客厅区域。虚拟屏障可以是暂时的,这在于当一个或多个条件成立时,机器人可以被允许越过虚拟屏障。例如,如果机器人确定其已经清洁了整个房间,该机器人然后可被允许越过跨越该房间出口定位的虚拟屏障。在这个示例中,由于虚拟屏障,机器人可以被禁止穿越回到先前已清洁的房间(除非,例如机器人的充电基座位于该房间中)。
本文中所描述的技术可以被用来限制任何适当类型的机器人或其它装置的运动,其包括能够通过在房间里行驶而清洁房间的地板表面的自主移动机器人。这样的机器人的一个示例是在图2A中示出的地板清洁机器人100。机器人100包括主体102、前部104和后部106。机器人100可以通过相对于由主体102限定的三个相互垂直轴线的运动的各种组合而横跨底板表面的物理环境运动,所述三个轴线是:横向轴线X、前后轴线Y和中央垂直轴线Z。沿着前后轴线Y的正向驱动方向被指定为F(下文中称之为向前),而沿着前后轴线Y的后向驱动方向被指定为A(下文中称之为向后)。横向轴线X在机器人100的右侧R与左侧L之间延伸。
用户界面110位于主体102的顶部,并且被构造为接受一个或多个用户的命令和/或显示机器人的状态。主体102的顶部还可以包括机器人100可用于拍摄环境图像的相机109。机器人能够基于由相机109所拍摄的图像而探测在环境中的特征。相机109能够相对于支撑所述机器人的表面(例如,地板)向上成角度,使得相机109能够拍摄环境墙壁表面的图像。如本文所述,在一些实施方式中,相机109能够检测用户可定位并且可移除的屏障识别标记物,诸如在环境墙壁(或其它的)表面上的贴纸或其它视觉识别设备,并根据这些屏障识别标记物产生该机器人100被指示不要越过的虚拟边界。
在机器人100右侧上的墙壁跟随传感器113可包括红外传感器,其能够输出用于确定机器人100何时跟随墙壁的信号。机器人100的左侧L也能够具有这种类型的墙壁跟随传感器。主体102的前部104包括缓冲器115,它被用来在检测在机器人100的驱动路径中的障碍物。缓冲器115和/或机器人主体102可包括探测该缓冲器115相对机器人主体102的压缩的传感器,所述压缩诸如基于与障碍物接触的压缩。在一些实施方式中,机器人100的顶部包括全向红外(IR)收发器118,其可以检测环境中的对象发射的红外辐射。这些传感器可以与其它用户输入协作以对机器人100提供关于在环境中的边界或障碍物的指令。
参照图2B,前辊122a和后辊122b协作以从清洁表面检取碎屑。更具体地,后辊122b以逆时针方向CC转动,而前辊122a以顺时针方向C转动。机器人100还包括布置为支撑所述机器人主体102的后部106的脚轮130。机器人主体102的底部包括轮子124,其当机器人100在地板表面10周围行驶时支撑机器人主体102。在轮子124被驱动时,旋转编码器112测量驱动轮子的电机轴的位置,这可以用来估计机器人100行进的距离。
机器人主体102的底部包括光学鼠标传感器133,其包括光源和低分辨率相机。当机器人100在环境中行驶时,机器人100可以使用光学鼠标传感器133估计在x和y方向上的漂移。
机器人主体102还容纳惯性测量单元(IMU)134,例如三轴加速度计和三轴陀螺仪,其分别用来测量(i)x加速度、y加速度和z加速度,以及(ii)绕x轴、y轴和z轴(例如,俯仰、偏转和滚动)的旋转。所述IMU134的加速度计可以用来估计在x方向和y方向上的漂移,而IMU 134的陀螺仪可以用来估计在机器人100的取向θ中的漂移。这些测量设备(例如IMU 134、光学鼠标传感器133和旋转编码器112)协作以对控制器提供关于机器人的位置和取向的信息(例如,表示为信号的测量),控制器使用所述信息确定机器人100在其环境中的大致位置和取向。在一些实施方式中,这些测量设备可以被组合为单个设备或两个设备。
图3A和图3B示出了可以根据本文描述的示例技术创建虚拟屏障的移动机器人的另一示例。参照图3A,在一些实施方式中,移动机器人200的重量小于5磅(例如,小于2.26千克)。机器人200被构造为在地板表面上行驶并清洁地板表面。机器人200包括由驱动器(未示出)支撑的主体202,所述驱动器可以基于例如具有x、y和θ分量的驱动命令在地板表面上机动机器人200。如图所示,机器人主体202具有正方形的形状,并限定了X轴和Y轴。X轴限定了向右方向R和向左方向L。Y轴限定了机器人200的向后方向A和向前方向F。此外参照图3B,机器人主体202的底部207保持附接的清洁垫220,其支撑机器人200的前部204。底部207包括车轮221,当机器人200在地板表面上行驶时,其可旋转地支撑所述机器人主体202的后部206。如本文所述,移动机器人200还可以包括IMU、光学鼠标传感器和旋转编码器,以输出表示机器人的当前方向和位置的信息到控制器。
主体202包括用于探测在纵向(A、F)或横向(L、R)方向上的碰撞的可动缓冲器210。也就是说,缓冲器210相对于机器人的主体202是可动的,并且此运动可以通过探测缓冲器210何时被压缩而被用来探测碰撞。
机器人200的顶部208包括用户用来携带机器人200的手柄235。用户可以按下清洁按钮240来开启和关闭机器人200,并例如指示机器人200开始清洁操作或在其占用网格中标记虚拟屏障。在一些实施方式中,顶部208还包括灯242a和242b或其它可视指示器,其沿着平行于机器人主体202的背侧202A的线对齐。灯242a和242b可以是发光二极管(LED)。如本文所述,灯242a和242b可以充当用户用来确定虚拟屏障在机器人200的占用网格中的方位的基准线。
参照图4,机器人(例如,机器人100、机器人200以及其它适当的移动机器人,包括本文所述的那些)包括示例控制系统300,其包括动力系统350、驱动器360、导航系统370、传感器系统380、通信系统385、控制电路390(在此也被称为控制器),以及存储器存储元件395。包括电源的动力系统350提供电力到可用机器人操作的系统。
驱动器360可以在地板表面上机动机器人。驱动器360可以控制电机以驱动轮子(例如,轮子124、221),使得轮子可以在沿地板表面的任何驱动方向上推动机器人。轮子可以差动操作,使得机器人可以基于提供到各驱动轮的驱动水平转动。
导航系统370,其可以是在控制器390上执行的基于行为的系统,可以发送指令到驱动系统360,以使机器人可以使用驱动器360在环境中行驶。导航系统370与传感器系统380通信以发出驱动指令到驱动器360。
在一些实施方式中,传感器系统380包括设置在机器人上的传感器(例如,障碍物探测传感器、轮子编码器112、光学鼠标传感器133、IMU134),其生成指示与环境中结构元件的特征相关的数据的信号,从而使得导航系统370能够确定用于在环境中行驶的模式或行为,以使得能够完全覆盖房间或单元。所述模式或行为可以用来避免在环境中的可能障碍物,包括墙壁表面、障碍物表面、低悬物、壁架以及不平坦的地板表面。传感器系统380产生对机器人环境的感知,其足以允许机器人做出关于在环境中采取的动作(例如,导航动作、驱动动作)的智能决策。传感器系统380收集数据以允许机器人生成环境的占用网格。
在一些实施方式中,传感器系统380可包括屏障探测避障(ODOA)传感器、测距声纳传感器、接近传感器、雷达传感器、LIDAR(光探测和测距,这可需要测量散射光属性以发现遥远目标的距离和/或其它信息的光学遥感)传感器、相机(例如,相机109、容积点云成像、三维(3D)成像或深度图传感器、可见光相机和/或红外相机),以及可与脚轮(如脚轮130)一起操作的车轮下降传感器。传感器系统380还可以包括通信传感器、导航传感器、接触传感器、激光扫描仪和/或其它传感器,以便利于导航、障碍物检测和机器人的其它任务。接近传感器可以采取接触传感器的形式(例如,探测机器人上的缓冲器与物理屏障的撞击的传感器,诸如电容传感器或者机械开关传感器)和/或探测机器人何时紧密接近附近物体的接近传感器。
通过与每个系统进行通信以提供和接收输入和输出参数,控制器390与机器人的其它系统一起操作。控制器390可便利于动力系统350、驱动系统360、导航系统370、传感器系统380、通信系统385,以及存储器存储元件395之间的通信。例如,控制器390可以指示动力系统350提供电能到驱动系统360的电机,以在向前驱动方向F上移动机器人,从而进入电源充电模式,和/或提供特定水平的功率(例如,全功率的一定百分比)到单个系统。控制器390还可以操作能够包括无线收发器的通信系统385,所述无线收发器包括发射器,其可以与移动设备或中央计算机网络进行通信。如本文中所描述的,控制器390可以上传在机器人的清洁操作期间产生的占用网格到中央计算机网络或单个移动设备。通信系统385还可以从用户接收指令。
控制器390可以执行指令以对环境制图,并定期将所述机器人重新定位到环境的地图中。这些行为包括墙壁跟随行为和覆盖行为。
一般地,在墙壁跟随行为期间,机器人探测环境(例如,使用缓冲器115)中的墙壁、障碍物(例如,家具、早餐吧台、橱柜踢脚等),或其它结构(例如,壁炉炉膛、楼梯边等),并跟随墙壁、障碍物或其它结构的轮廓。
在覆盖行为期间,控制器指示机器人覆盖(例如,穿越或行驶的程度),并清洁环境的地板表面。机器人可以使用覆盖路径技术覆盖环境的地板表面,所述覆盖路径技术诸如左行右行交互或玉米行图案(aboustrophedon or cornrow pattern)、螺旋图案、或伪随机弹跳覆盖。随着机器人覆盖地板,控制器390可以产生占用网格。
在一些实施方式中,控制器390可以例如使用来自编码器112、光学鼠标传感器133和IMU 134的信息(例如,信号),以产生可用于确定(例如,估计)机器人的位置和取向(姿态)的测距数据。例如,控制器可以接收来自IMU 134的3轴陀螺仪的陀螺仪信号。当机器人在地板表面上行驶时,陀螺仪信号可以基于机器人主体的取向和位置。控制器还可以使用来自编码器112的信号改进所述供给,其输送基于所述机器人的移动距离的编码器信号。类似地,当机器人在地板表面上行驶时,光学鼠标传感器133生成可被用来确定机器人的漂移量的信号。
所述存储器存储元件395可包括制图模块397,其存储机器人行驶的房间或多个房间的占用网格。在清洁操作之后,占用网格可以使用通信系统385上传到远程计算设备。在一些实施方式中,占用网格包括由控制器390产生的虚拟地图,其被控制器390用来指示机器人100在预先确定的边界、物理边界和其它边界(例如,虚拟的或使用建立的屏障或边界)内行驶。占用网格可以包括环境的物理布局。例如,占用网格可以包括区域物理布局的数据指示,并且表现开放区域和障碍物两者。占用网格可以包括环境的边界、其中的障碍物的边界、在开始环境清洁操作之前产生的可以对应或不对应物理障碍物的边界,和/或被机器人穿越的内部地板空间。
占用网格可以以任何适当的方式实现为属性的位置地图,包括但不限于,使用数据库技术、使用各种关联数据结构,或组织数据的任何其它方法。由此,所得到的地图不必是可见的地图,而是也可由存储在非临时性计算机可读存储器中的数据限定。地图可以以不同程度的精度和/或精确度对应于实际表面。例如,精度可能会受到所使用的对应于表面一部分的离散地图单元的影响。那些单元的尺寸,其可各自对应于10cm×10cm的表面部分,或5cm×5cm的表面部分(例如,它们不需要是正方形的或者甚至不需要全部是相同尺寸的),可能通过对观察属性的粒度施加限制而影响精度。精确度可能会受到传感器质量和类似因素(包括本文中提到的各种其它因素)的影响。
在一些实施方式中,占用网格是包括2D单元网格的占用网格,各单元具有指示区域状态用于穿越或清洁的相关变量。在占用网格中的每个单元可被分配一个值,其指示该单元是可穿越的或是不可穿越的。网格的每个单元可以被分配基于环境中的选定原点(0,0)的(x,y)坐标。例如,选定原点可以是机器人的充电座或房间中的特定位置。每个单元可以代表有四个边的正方形区域,所述边与其它单元的边重合。在一些实施方式中,单元可以具有1至100cm的边长。例如,网格可以是各自10cm×10cm的单元的网格。占用网格的单元可以在清洁操作之前和清洁操作期间被填充。在一些情况下,来自一次清洁操作的填充单元可以被存储并用于随后的清洁操作。在一次清洁操作前,占用网格的单元的一个子集可以被标记为不可穿越的。在一些情况下,单元形成用户建立的虚拟屏障,它表示机器人不可穿越的边界(例如,虚拟屏障可通过在占用网格中的不可穿越单元的线来限定)。如本文所述,该单元可以被标记为先前的清洁操作的一部分,或者机器人可以接收指令以将占用网格中的一些预填充为不可穿越的。在另一实施方式中,占用网格可以是占用曲线图,其中虚拟屏障被表示为通过两个或更多的坐标限定的线段、由三个或更多的坐标限定的虚拟多边形,或由多个坐标限定的任何其它几何形状或“套索”形状。
在清洁操作中,控制器390存储被机器人穿越的每个单元的(x、y)坐标。例如,在墙壁跟随行为中,控制器390可以将在机器人足迹下的所有单元标记为可穿越单元,并将对应于被跟随墙壁的所有单元标记为不可穿越的,以指示机器人100不能通过墙壁。如本文所述,控制器390可构造为识别代表环境中结构元件(例如,墙壁、障碍物等)的特征的特定序列、组合、组等的单元。在一些实施方式中,在确定所述地图中单元的值之前,控制器390可以将所有单元的值预先设置为未知的。然后,随着机器人在墙壁跟随行为期间或覆盖行为期间被驱动,沿其路径的所有单元的值被设置为可穿越的,该单元的位置由到原点的距离确定。在某些情况下,在清洁操作过程中,传感器系统380可附加地或可选地响应于位于房间中的特征(例如,标记物),并且控制器390可以基于感测所述特征而指示占用网格中的虚拟屏障。
除了本文所描述的将单元标记为不可穿越的之外,本文还描述了几种生成虚拟屏障和不可穿越单元的方法。在清洁操作中,控制器可以指示机器人避开在占用网格中指定为不可穿越的区域。虽然占用网格通常存储在机器人上(例如,在存储器存储元件395上),但占用网格也可以通过通信系统385传输并存储在网络服务器、移动设备,或其它远程计算设备上。
本文的示例描述了一种环境和用于该环境的对应占用网格。图5A、图5B、图6A、图6B、图7A、图8A和图8B中的占用网格使用散列单元识别不可穿越区域,使用空白单元识别可穿越区域,并且使用未用单元标记的区域识别未知区域。在相应的占用网格中示出的机器人标识控制器对机器人在环境中的当前位置的估计。
虽然在图5A、图5B、图6A、图6B、图7A、图8A和图8B中描述的占用网格示出了包括指示所述环境中的可穿越和不可穿越区域的单元的占用网格示例,但在其它实施方式中,控制器可以产生依赖于对应于环境内的位置坐标值的占用网格。例如,虚拟屏障可以是一组两个或更多的二维坐标,其指示机器人不能跨越的线或区域的顶点。
在一些实施方式中,机器人可以执行多个清洁操作以清洁环境中的多个房间。参照图5A,随着机器人400在包括第一房间412和第二房间414的环境410(例如,在图5A的部分421中示出的)的地板表面10上行驶,机器人400的控制器390产生对应的占用网格420(例如,存储在存储器存储元件395中的占用网格,如在图5A的部分423中示出的)。门口415分离第一房间412与第二房间414。如在本文中更详细地描述的,机器人400可首先清洁第一房间412,然后清洁第二房间414,而无需返回第一房间412。
机器人400沿路径425执行玉米行图案。路径425可以大致限制于第一区域430a。区域430a和430b可以是机器人400设置以分割环境的相等宽度的区域。该区域可以任意选择,并因此可以或可以不对应于环境内的物理边界、障碍物、或结构。
随着机器人400通过沿着路径425执行玉米行图案而遵循覆盖行为,为了将其自身限制在区域430a中,机器人400可阻止其自身进入环境的区域430b。控制器390可以指示机器人400避免进入区域430b,并且在执行玉米行图案的行列期间回转。在占用网格420中,控制器390指示对应于环境的墙壁的不可穿越单元,并将可穿越单元指示为机器人400能够在覆盖行为期间覆盖的区域。
当控制器390已经确定机器人400已经能够覆盖区域430a的可穿越区域时,机器人400可以执行墙壁跟随行为,从而前进到环境410的另一区域,例如区域430b。通过确定机器人400已满足一个或多个条件,控制器390能够确定机器人400已经完成覆盖第一区域430a。参照图5B,如在部分421中所示,机器人400能够遵循路径440以执行墙壁跟随。机器人400在初始位置440a处开始,其对应于机器人400在它完成覆盖行为时的位置。在沿路径440的位置440b处,机器人400从第一区域430a跨越到第二区域430b中。在这一点上,控制器390确定机器人400已经进入新的区域。通过例如确定所述机器人400已经从可穿越单元移动到未知单元,控制器390可以作出此判断。控制器390也可确定机器人400已退出第一区域430a并进入第二区域430b。
为了防止机器人400返回到它已经执行了清洁操作的区域430a,控制器390可以建立用于标记该机器人400已清洁区域的虚拟屏障450,如在部分423中所示。例如,控制器390可以更新占用网格420以识别先前已清洁区域的位置或边界,从而禁止机器人400返回该区域。在清洁(例如,非对接的)操作期间,和/或能够在占用网格420中标记所有已清洁的单元以在清洁操作过程中禁止机器人400重新清洁那些单元。在一些示例中,控制器390可以将形成房间412周界的周界单元标记为占用网格420中的不可穿越单元。在一些情况下,控制器390将环绕可穿越单元区域430a的单元标记为不可穿越单元,以阻止机器人400返回该机器人400已经清洁的区域。在其它情况下,控制器390可以将在区域430a中的所有单元指示为不可穿越的。
参照图5C,流程图460示出了机器人用于清洁第一区域和第二区域的方法。在操作462中,机器人在第一区域中执行第一清洁操作。机器人可以响应于由机器人控制器发出的指令而执行第一清洁操作。机器人可以执行本文所描述的覆盖行为,这可以包括遵循玉米行图案或其它图案以覆盖第一区域。随着机器人执行覆盖行为,控制器可以将存储在机器人上(例如,可用控制器操作的存储器存储元件)的占用网格中的对应于被机器人穿越的第一区域部分的单元标记为可穿越单元。清洁操作可以通过诸如机器人100的干式清洁机器人、诸如机器人200的湿式清洁机器人、构造为在环境中行驶的另一种移动机器人执行。
在操作464中,机器人通过控制器确定第一清洁操作已完成。控制器可以基于本文描述的一个或多个条件确定完成。
在操作466中,机器人行驶到第二区域。在一些示例中,机器人可以穿越第一区域的周界以识别第二区域。在其它示例中,第一区域可以被人为地界定(例如,是最大宽度的),并且第二区域可以是邻近第一区域的区域。控制器可以指示机器人以执行行驶。通常,控制器可以寻求确定机器人已退出它已经清洁的区域,并且已进入它没有清洁的区域。在机器人已经完成了第一区域的清洁操作后,控制器可以指示机器人穿越周界。基于检测该机器人已实现一个或多个条件,控制器可以确定机器人已经完成了清洁操作。在一些情况下,机器人可以继续进行清洁操作,直至机器人已覆盖一定百分比的第一房间区域,例如,50%至75%、75%至100%、100%至150%、150%至200%、250%至300%。在一些情况下,机器人可以继续进行清洁操作,直至其已经多次清洁所述区域,例如一次、两次、三次或四次。一旦完成所需覆盖,则控制器可以指示机器人跨越虚拟屏障,并开始在第二房间中的第二清洁操作。
在一些实施方式中,机器人可以继续进行清洁操作,直至机器人已经达到充电百分比的特定下限,例如,10%、5%或更小。一旦达到充电百分比的下限,控制器可以指示机器人返回到充电座或充电站,以对机器人的电池重新充电。在这样的实施方式中,机器人可以能够穿越存储在占用网格中的虚拟屏障,以便返回到充电座。
在一些情况下,第一区域是一个房间,并且第一区域的周界由此可以对应于房间的墙壁。在其它实施方式中,第一区域是一个区域(如本文所述),并且第一区域的周界可以对应于第一区域延伸的边缘。如关于图5A至图5B所描述的,当机器人400执行墙壁跟随行为时,控制器390可确定它已穿越第一房间412或第一区域430a的周界,这例如通过(i)检测到机器人400已经退出第一区域430a,或(ii)检测到机器人400已经从可穿越单元移动到未知单元而确定。响应于来自控制器的指令,机器人可以穿过第一区域的周界。
在操作468中,控制器建立例如分离第一区域与第二区域的虚拟屏障。控制器可以在存储于可用所述控制器操作的存储器存储元件上的占用网格上指示虚拟屏障。例如,在一些实施方式中,控制器可以在占用网格上指示邻近第一区域中可穿越单元(例如,一排或一列可穿越单元,形成一排或一列可穿越单元的两个或更多可穿越单元)的未知单元是不可穿越的(例如,不可穿越单元限定虚拟屏障)。其结果是,不可穿越单元可以形成一排或一列不可穿越单元。也可以使用不依赖于占用网格的限定边界的其它方法。在一些情况下,控制器可以指示在第一区域中的邻近未知单元的可穿越单元现在是不可穿越的。
在操作470中,机器人执行第二清洁操作以清洁第二区域,而无需穿越虚拟屏障。例如,机器人可以清洁第二区域,而不必穿越标记第一区域周界的虚拟屏障。控制器可以发出指令到机器人,以执行所述第二清洁操作。第二清洁操作可以是覆盖行为的一次执行。为了防止其自身进入第一区域,控制器可以防止机器人穿越在操作468中建立的虚拟屏障。
在一些示例中,用户可能希望为机器人设置虚拟边界。例如,用户可能希望将机器人保持在特定的房间或区域之外。允许用户建立虚拟边界的位置能够为用户提供对机器人清洁的额外控制的优点。在一些实施方式中,控制器可以接收来自用户的指令,以限制机器人在环境的一个区域内的行驶。用户可以通过触发在机器人上的传感器(例如,推动一个或多个按钮)以传递指令。在某些情况下,用户可使用移动设备(诸如智能电话、平板电脑或其它计算设备)以使用无线连接传递指令到控制器,从而建立虚拟屏障的位置。用户可以寻求防止机器人通过门口离开房间,并由此可以指示控制器生成位于门口的虚拟屏障,其防止机器人通过门口离开。在一些实施方式中,用户通过机器人的用户界面输入信息以限制机器人的运动。
在示出于图6A至图6C的示例中,在机器人200执行清洁操作以清洁环境502的地板表面10之前,用户将机器人(例如,关于图3A至图3B描述的机器人200)放置在环境502中。机器人200的控制器(例如,控制器390)生成对应于环境502的占用网格518。在这个示例中,用户可能希望顺序地在第一清洁操作期间清洁第一房间504,并且在第二清洁操作期间清洁第二房间506。在一次清洁操作中,用户可能寻求机器人200清洁第一房间504,而不清洁环境502中的第二房间506。
参照图6A,用户将机器人200放置在环境502中,使得机器人200的主体202的背侧202A与环境502中的墙壁512和门口517平行放置,如在部分521中示出的。用户然后发出指令到控制器390,以在占用网格518中产生虚拟屏障516,如在部分523中示出的。在一些示例中,基于机器人200在环境502中的初始位置和取向,虚拟屏障516可以在占用网格518中表现为不可穿越单元的一条线(例如,一排或一列)。虚拟屏障516可以平行于机器人200的背侧202A。
在一些情况下,虚拟屏障516穿过机器人200的背侧202A。在其它情况下,虚拟屏障516与机器人主体交叉,例如虚拟屏障穿过灯242a和242b,使得用户能够对准灯与虚拟屏障的位置。灯242a和242b因此可以作为虚拟屏障516的位置的视觉指示。虚拟屏障516可以防止机器人200从第一房间504穿过门口517进入环境502的房间506内。在一些实施方式中,机器人可以被放置在门口517中,使得控制器产生虚拟屏障516,以防止机器人200穿过门口517。
在用户已经完成了他到控制器的产生虚拟屏障516的指令后,无需重新定位机器人,用户可以启动在房间504中的清洁操作,当机器人200开始清洁操作时,现在参照图6B,机器人200可以转动90度,使得机器人200的向前驱动方向F平行于虚拟屏障516(例如,如在图6B部分523中示出的)。在该覆盖行为中,90度转动确保机器人200执行邻近虚拟屏障516的玉米行图案的第一行。在某些情况下,漂移对玉米行图案第一行的影响最小,所以使得机器人200执行平行于虚拟屏障516的第一行是有利的,因为机器人200不太可能越过虚拟屏障。另外,90度转动可防止在玉米行图案中的180度转动在虚拟屏障516处的发生。在机器人200的转动后,机器人200然后可以前进以执行覆盖行为(例如,执行玉米行图案)。在一些情况下,机器人200可在向前驱动方向上移动短的距离(例如,2至5cm、5至10cm、10至15cm),然后转动90度以将机器人200的一个横向侧调整为与虚拟屏障516平行。例如,机器人可以向前移动视觉指示器(例如,灯242a、242b)与机器人200的背侧之间的距离。
用户可以通过多种方法和机制提供指令到机器人200。控制器可以响应于将机器人200置于握手或虚拟屏障模式中的触发,在所述模式中,控制器准备好用虚拟屏障填充占用网格。当机器人200处于握手模式时,控制器放置虚拟屏障516。例如,触发可以是用户同时地压缩机器人200的缓冲器210并且按压机器人200的清洁按钮240,而机器人或者在地面上或者离开地面(例如,如本文所述,通过使用适当传感器观测地面而确定)。用户也可以以其它方式操纵机器人200,以触动触发并启动握手模式。例如,用户可以通过摇动机器人200触发机器人200的加速度计或陀螺仪,并且在检测到震动时,机器人200进入握手模式以放置虚拟屏障中的一个或两个。在某些情况下,用户可使用移动设备指示所述机器人200。用户可将机器人200放置在环境中,然后通过例如使用加载在移动设备上的应用程序指示机器人200。在一些实施方式中,一旦将所述机器人置于握手模式中,控制器等待来自用户的进一步指令以产生虚拟屏障。在指示机器人进入握手模式后,用户可以发出另一指令,以将虚拟屏障516放置在占用网格中。
在一些实施方式中,控制器可产生第二虚拟屏障,其可以相对于第一虚拟屏障516垂直或以其它方式成角度。第二虚拟屏障可以限制机器人进入可能是难以清洁的区域,或有易碎家具或家居用品的区域。第二虚拟屏障可以是占用网格518中的不可穿越单元的虚拟屏障。虚拟屏障可以基于机器人200的初始位置和/或取向而产生。在一些示例中,第一和第二虚拟屏障可形成L形的不可穿越单元。在一些情况下,第二虚拟屏障可与机器人主体202的右侧202R或左侧202L重合。在其它示例中,控制器可产生第二虚拟屏障,使得所述第二虚拟屏障穿过灯242a或灯242b。控制器可响应于产生第一虚拟屏障的指令而产生第二虚拟屏障。在其它实施方式中,控制器响应于来自用户的产生虚拟屏障的第二指令产生第二虚拟屏障。在一些情况下,当用户第一次或第二次将机器人置于握手模式时,控制器会放置第二虚拟屏障。在控制器产生两个虚拟屏障的情况下,机器人200可以启动清洁操作,而无需转动以变得与虚拟屏障516平行。在某些情况下,机器人200可以通过转动而启动清洁操作,使得机器人200平行于所产生的虚拟屏障。
参照图6C,流程图560示出了机器人基于来自用户的指令产生虚拟屏障的方法。该流程图包括对应于由用户执行的操作的用户操作565,和对应于由机器人执行的操作的机器人操作570。
在操作572中,用户将机器人放置在环境中。机器人的位置将既用作机器人的起始位置又用作所述虚拟屏障的位置。这样,用户可以放置机器人使得机器人上的特征与环境中用户不希望机器人跨越(例如,虚拟屏障跨越其竖立)的边缘对齐(例如,平行于)。例如,如本文所描述的,该特征可以是在机器人上的灯或机器人主体的表面。在一些情况下,用户可能希望创建两个(例如,垂直的)虚拟屏障,使得机器人不跨越环境中的两个边缘,并且在这样的情况下,机器人可以具有两个特征,各自指示一个虚拟屏障的位置和取向。
在操作574中,用户指示机器人进入虚拟屏障模式。用户可以使用本文所述的任何方法或任何其它适当方法发出这一指令,其触发机器人进入握手模式。在操作576中,机器人控制器接收指令,并将机器人置于虚拟屏障模式。
在操作578中,用户指示机器人产生虚拟屏障。产生虚拟屏障的指令可以是将机器人置于虚拟屏障模式(例如,将机器人置于握手模式)中的指令。在一些情况下,除了将机器人置于虚拟屏障模式的指令之外,用户可发出后续指令以产生虚拟屏障。例如,用户可以触发额外的传感器以发送创建虚拟屏障的指令。
在操作580中,控制器接收指令以创建虚拟屏障。控制器可以通过感测传感器已经被以本文所描述的方式触发而接收指令。在一些情况下,机器人可以包括无线收发器,其允许控制器与移动设备通信以接收来自用户的指令。
在操作582中,控制器产生虚拟屏障。例如,控制器可将占用网格中的单元限定为虚拟屏障的一部分。例如,虚拟屏障可以对应于被指定为不可穿越的一个或多个单元。在一些实施方式中,虚拟屏障可不根据占用网格中的单元限定。相反,虚拟屏障可以基于占用网格上的坐标限定,或基于在占用网格背景内或在其外的某些其它特征限定。例如,虚拟屏障基于机器人的初始取向和位置限定。这些取向的测量可以基于例如容纳在机器人主体内的陀螺仪的输出信得到。控制器可以知道机器人或其一部分在占用网格中紧随着握手的初始位置。使用此信息,即取向与初始位置,控制器可以通过在占用网格(或其它地方)上限定边界(例如,一条直线)而创建机器人不能跨越的虚拟屏障。在某些情况下,控制器可以如本文所述地产生一个以上的虚拟屏障。在一些示例中,用户可以通过直接在机器人上或通过远程接口对控制器提供适当的参数而选择虚拟屏障的长度。例如,用户可以选择3至5英尺(0.9至1.6米)的屏障长度,以禁止机器人穿过门。在一些示例中,用户可以指示机器人将全长度的屏障单元放置在一行/列中,以细分开放空间。在另一种情况下,用户可以选择围绕所述机器人的矩形区域,其形成机器人不应跨越的四个虚拟屏障。
在操作584中,控制器可以提供产生虚拟屏障的视觉指示。例如,控制器可以指示机器人上的灯发光或可以发出声音警报。
在操作586中,用户指示机器人清洁环境。用户可以通过按压在机器人上的清洁按钮而指示机器人清洁,或通过使用移动设备来远程控制机器人。虚拟屏障可以显示于在用户的移动设备上显示的地图上。
在操作588中,控制器接收指令以无需穿过虚拟屏障而清洁环境。机器人可以通过执行玉米行行为或覆盖环境地板表面的其它运动模式而执行清洁环境的指令。控制器可以指示机器人转动,使得机器人的前进驱动方向平行于虚拟屏障。在一些实施方式中,控制器指示机器人大致转动90度,以平行于虚拟屏障定向机器人。
虽然示于图6A至图6C的上述实例已经被描述为使用图3A至图3B中所述的机器人200,机器人100和具有其它构造的其它移动机器人可容易地实现本文描述的方法。用于实现图6A至图6C的方法的机器人可以具有用户可以用作放置虚拟屏障的参考的其它区别表面或特征。虽然机器人200已被描述为正方形机器人,在一些情况下,执行本文描述方法的机器人可以是圆形或三角形机器人。其结果是,所产生的虚拟屏障可以正切于机器人的背表面。机器人还可以具有用户可以触发的额外或可选传感器,以便指示控制器生成虚拟屏障。
本文所描述的生成虚拟屏障的方法可在机器人启动清洁操作之前发生。在一些实施方式中,在机器人产生虚拟屏障之前,机器人开始清洁操作和在环境中行驶,或者另外的虚拟屏障(多个虚拟屏障)可在清洁过程中产生。例如,机器人可以检测特征、标记物或位于环境中的其它视觉标记,并且通过用虚拟屏障填充占用网格或以其它方式限定机器人不能越过的一个或多个虚拟屏障而响应所述特征。这样的指示器的示例可以是机器可识别的贴纸或标签,并且可以定位在环境中。
如前面所述的机器人100包括相机109以对环境的墙壁表面成像。参照图7A,在一个示例中,作为清洁操作的一部分,机器人100正在执行沿环境602(例如,在部分621中示出的)的地板表面10的覆盖行为。执行玉米行图案,机器人100遵循路径604,并将在占用网格606中的单元指定为可穿越的或不可穿越的(例如,在部分623中示出的)。环境602包括第一房间607和第二房间608。机器人100正在执行清洁操作以清洁第一房间607。沿路径604,机器人100可以使用相机109感测(例如,拍摄其图像)环境602的墙壁表面609。
在沿路径604的点604a处,机器人100探测到位于墙壁表面609上的标记物610a、610b。用户可以将标记物610a、610b放置在墙壁表面609上,以限制机器人10进入环境的一个区域。例如,标记物610a、610b可以指示可被机器人100穿越的区域应该在机器人100的占用网格606中被标记为不可穿越的,标记物610a、610b可以通过例如粘性或静态背衬(static backing)固定到墙壁表面609。标记物610a、610b可包括吸盘,其可以产生吸力以将所述盘固定到环境602的表面。在一些实施方式中,标记物610a、610b包括红外点或墨水,其可被机器人100的红外收发器探测,而在正常条件下不能被人类感知。
在图7A至图7B所示的例子中,所述特征是将第一房间607连接到第二房间608的门口611。用户将标记物610a、610b在地板表面上方大约1m至2m处放置在墙壁表面609上,使得机器人100可以使用相机109检测到标记物610a、610b,其朝向墙壁表面609向上成角度。在一些示例中,标记物610a、610b可以在门口上方或放置在门口的内侧。例如,用户可将标记物610a、610b沿水平面放置在门口上方,并向下朝向地板表面,使得向上成角度的相机109可检测标记物610a、610b。标记物610a、610b靠近门口611的放置可以建立虚拟屏障的位置,并确保机器人100只清洁所述第一房间607,而不会进入第二房间608。
沿路径604在点604a处,现在还参考图7B,机器人100使用相机109探测在墙壁表面609上的标记物610a、610b。标记物610a、610b包括可以由相机109感测的独特特征或机器可读信息。由此,一些标记物610a、610b可以指示虚拟屏障的位置,而其它标记物可被用来将其它类型的信息传递到机器人100。可机读信息或特征可以表示对应于环境中的结构或障碍物的位置的名称。在一些情况下,可机读信息可以表示对应于环境中的结构或障碍物的位置的名称。特征或可机读信息可以是色彩、图像或者是能够由相机109探测到的其它特性。并且,在一些实施方式中,相机109可响应于在可见光范围之外的辐射,因此也可以能够探测到例如标记物610a、610b的红外特性。虽然相机109已经被描述为探测标记物610a、610b的传感器,在一些实施方式中,机器人100可以使用其它传感器来检测所述标记物610a、610b,诸如超声传感器、红外传感器和其它定向波束传感器。
区别特征可以指示环境602和/或墙壁表面609的属性。除了建立虚拟屏障之外,或者代替建立虚拟屏障,这些特征可以用于识别目的。所述存储器存储元件395能够包括参考特征的库,控制器390能够将被成像标记物610a、610b与其进行比较。然后,控制器390能够确定标记物610a、610b是否包括在参考特征库中的特征。
在一些示例中,标记物610a、610b的特征可以表明机器人100穿过其行驶的环境602是特定的房间,诸如厨房、浴室、卧室、客厅等等。例如,标记物610a、610b可包括表明第一房间607是厨房的冰箱图标,和表明第二房间是客厅的电视图标。在一些情况下,标记物610a、610b可以表明标记物610a、610b之间存在一种类型的结构。例如,在一些情况下,标记610a、610b可以表明门口611位于标记610a、610b之间。在其它情况下,标记610a、610b可以被放置在环境602中,使得机器人不会进入难清洁的区域,或有易碎家具或家居用品的区域。标记物610a、610b可被放置在能够由相机109成像的灯具、家具或其它家居用品上。例如,一种类型的标记物可以建立距标记物预定距离(如0.25m至0.5m、0.5m至1m、1m至1.5m)的避开区域(keep-out zone)。标记物610a、610b能够对特定属性具有特定色彩,或对特定房间具有特定图像。在一些实施方式中,标记物610a、610b可以包括用作标记物610a、610b的区别特征的区别图像。
区别特征也可以是标记物610a、610b标记的房间名称、标记物610a、610b标记的障碍物名称,或标记物610a、610b标记的位置名称。例如,在机器人100具有从先前清洁操作中产生的地图的实施方式中,标记物610a、610b可以表明机器人100是在厨房中,然后机器人100可以使用先前产生的对应于厨房的地图。在一些情况下,机器人100可以不开始清洁操作,直到它检测到标记物610a、610b。当机器人100检测标记物610a、610b时,机器人100能够基于来自标记物610a、610b的信息开始清洁操作。通过区别特征提供的信息可以被发送到移动设备,使得用户可以看到该信息,并基于该信息选择机器人100的操作。
在识别标记物610a、610b之前,控制器能够对所产生的标记物610a、610b的图像进行后期处理。例如,控制器可以使用仿射变换或用于图像矫正的一些其它计算机视觉过程矫正图像。在标记物610a、610b的图像转换之后,控制器可将图像与例如参考特征库中的存储参考图像进行比较,的,以便确认机器人100已经检测到标记物610a、610b,所述参考特征库在机器人100的存储器存储元件395上。所述比较也能够允许控制器390确定由标记物610a、610b提供的信息的类型(例如,环境602和墙壁表面609的属性)。在一些实施方式中,标记物610a、610b各自能够具有传达不同类型信息的多个部分。各标记物610a、610b的一部分能够表明机器人100目前在其中的第一房间607的类型,并且标记物610a、610b的另一部分能够表明连接到门口611的第二房间608的类型。
在标记物610a、610b用于建立虚拟屏障的示例中,一旦检测到标记610a、610b并且确认机器人已检测到标记610a、610b,则机器人100可以基于所述标记610a、610b的位置在占用网格606中指定虚拟屏障612(例如,一组不可穿越单元)。例如,控制器可以计算穿过标记物610a、610b两者的线614。线614平行于该控制器在占用网格606中指定的虚拟屏障612。虽然虚拟屏障612在占用网格606中被示出为在标记物610a、610b之间,在一些实施方式中,通过感测所述标记物610a、610b产生的虚拟屏障612可跨越比连接标记物610a、610b的线614更长的长度。
标记物610a、610b能够对机器人100表明在标记物610a、610b之间存在门口611。在这样的情况下,一旦完成第一房间607的清洁操作,机器人100能够在后续的清洁操作中移动到虚拟屏障612,并开始后续清洁操作以清洁第二房间608。虚拟屏障612可以持续,但是代替在虚拟屏障612的右侧清洁第一房间607,机器人100清洁第二房间608。
机器人100可以继续在虚拟屏障612和物理墙壁表面609的范围内清洁第一房间607,直到一个或多个条件得到满足。例如,所述一个或多个条件可以包括覆盖一定百分比的限定区域和/或本文所描述的其它条件。
在一些实施方式中,机器人100可在后续清洁操作中(例如,在持续性的占用网格中)记住虚拟屏障612。在第一清洁操作之后,用户可以在机器人100检测到标记物610a、610b时移除标记物610a、610b,而虚拟屏障612作为第一清洁操作的一部分仍然存在。例如,机器人100存储虚拟屏障612,并将它用于后续清洁操作。当开始在第一房间607中的后续清洁操作时,机器人100保持在第一房间607中,并且不穿过门口611进入第二房间608。
参照图7C,流程图660示出了在环境中使用标记物指示机器人在存储于机器人上的占用网格中产生虚拟屏障的方法。流程图660包括对应于由用户执行的操作的用户操作665,和对应于由机器人执行的操作的机器人操作670。
在操作672中,用户将标记物放置在环境中。用户可以放置标记物,使得它们在环境中用户不希望用户穿越的特定特征的两侧,诸如门口、门槛或其它开口。标记物可以被放置在环境中的表面上,以识别房间物品。该表面可以是墙壁表面、障碍物表面、或环境中其它物体的表面。
在操作674中,用户指示机器人开始第一清洁操作。用户可以使用移动设备或可以按压机器人上的按钮来指示机器人开始所述第一清洁操作。
在操作676中,机器人的控制器接收到开始第一清洁操作的指令。在操作678中,机器人执行第一清洁操作。在一些情况下,所述控制器通过例如指示机器人开始清洁操作而开始所述第一清洁操作。在清洁操作过程中,如本文所述,机器人可以执行玉米行图案,或者覆盖环境地板表面的一些其它运动模式。
在操作680中,机器人探测环境中的标记物。控制器可以使用在机器人上的相机、超声波传感器或一些其它传感器探测所述标记。在某些情况下,如本文所述,相机可检测标记物的颜色、图像或其它区别特征。该控制器可从相机接收对应于标记物探测的图像数据。
在操作682中,控制器确定探测到的标记物是否是虚拟屏障标记物。所述控制器还可以对所探测标记物的图像数据做后期处理,并做出图像数据是否对应于控制器可通过检测标记物所预期的参考图像的判断。控制器可将图像数据与库中的参考图像进行比较,所述库存储在控制器可操作的存储器存储元件上。控制器能够确定所探测的标记物是否指示虚拟屏障、位置或有关环境的其它信息。
如果控制器确定所检测的标记物是虚拟屏障标记物,在操作684中,控制器在例如对应于所检测标记物的位置的占用网格中产生虚拟屏障。如本文所述,所述虚拟屏障可对应于要标记在占用网格上的一组不可穿越单元。在一些情况下,不可穿越屏障的长度或宽度可以取决于在标记物上检测到的区别特征。如果控制器确定所检测到的标记物不是虚拟屏障标记物,在操作686中,控制器将与所检测标记物有关的数据存储在占用网格中。该数据可以例如是房间名称、所检测标记物的位置名称。在一些实施方式中,控制器可确定控制器已经误认了检测到的标记物,并且所检测到的标记没有指示有关环境的信息。在一些示例中,控制器可确定检测到的标记物既指示虚拟屏障,又指示与房间名称或所检测到的标记物位置有关的数据。
在操作688中,控制器确定第一清洁操作是否完成。控制器可以评估机器人是否已满足本文所述的一个或多个条件。如果控制器确定第一清洁操作已完成,在操作690中,机器人完成第一清洁操作。如果控制器确定第一清洁操作未完成,在操作692中,机器人继续第一清洁操作。控制器可以指示机器人继续第一清洁操作。然后机器人可以继续检测环境中的标记物,或在某些情况下,机器人继续第一清洁操作,然后完成第一清洁操作而无需检测额外的标记物,并前进到操作690。
在一些实施方式中,控制器可以存储将在后续清洁操作中使用的虚拟屏障。其结果是,在操作694中,用户可以从环境中移除标记物。在一些实施方式中,用户可以将标记物保留在环境中,并且通过机器人相机的后续标记物检测可以增加相机已经检测到标记物的信心。
然后,在操作696中,用户可以指示机器人开始第二清洁操作。在某些情况下,用户指示机器人开始在机器人于第一清洁操作期间已清洁的环境中的第二清洁操作。在其它情况下,用户指示机器人开始在另一环境中的清洁操作。在操作698中,控制器接收指令以使用第一清洁操作过程中产生的占用网格开始第二清洁操作。控制器然后指示机器人开始第二清洁操作。如果机器人在操作678和692期间已清洁的环境中开始第二清洁操作,机器人清洁同一区域并且不跨越虚拟屏障。如果机器人开始在另一环境中的第二清洁操作,机器人可以清洁于第一清洁操作期间的已清洁区域不同的区域,并且虚拟屏障有效地防止了机器人返回到在操作678和692期间已清洁的区域。
虽然在图7A至图7C中示出的示例已经关于图2A至图2B描述的机器人100进行了描述,具有其它适当构造的其它移动机器人能够执行本文描述的方法。例如,机器人200可以包括摄像头,其可以执行本文描述的功能。在一些实施方式中,相机109可以拍摄控制器能够用于识别门口几何特征的特性的图像(例如,从地板延伸穿过墙壁的一部分的矩形开口)。然后,控制器可以对应于相机109检测的门口几何形状的位置放置虚拟屏障。
如本文所述,机器人100包括红外收发器118以检测发射到环境中的红外辐射。参照图8A,门口信标701位于包括第一房间704和第二房间706的环境702(例如,在图8A的部分721中示出)的地板表面10上。门口707分隔第一房间704与第二房间706。门口信标701发射由红外收发器118探测的红外门口束(gateway beam)708,用户可以将门口信标701放置在环境702中,并且可以定向门口信标701使得门口束708指向特定方向。例如,门口束708能够横跨门口707的长度定向。
在清洁所述第一房间704时,机器人100可以执行路径709形式的玉米行图案。随着机器人100沿路径709围绕第一房间704行驶,机器人100可以在机器人100经过时使用例如红外收发器118检测门口束708。机器人100可以检测门口束708,并将机器人100检测到门口束708的位置解释为机器人100的占用网格712(例如,在图8A的部分723中示出)中的虚拟屏障710(例如,一组不可穿越单元)。尽管图8A示出了路径709在门口束708附近经过,在其它实施方式中,路径709可穿过门口束708。门口信标701和它的门口束708由此防止机器人100穿过门口707。
参照图8B,在后续的清洁操作中,机器人100可以将虚拟屏障710的位置存储在例如存储器或远程计算设备上作为持续地图的一部分(例如,在图8B的部分723中示出)。其结果是,当在图8A中放置于环境702中的门口信标701被从环境中移除用于后续清洁操作时,机器人100仍然可以防止其自身越过虚拟屏障710。在一些情况下,机器人100可以被放置在第一房间704中并再次清洁所述第一房间704,而不会越过虚拟屏障710到第二房间706内。在其它情况下,机器人100可以被放置在第二房间706中,并且可以清洁所述第二房间706,而无需再次清洁第一房间704。
参照图8C,流程图760示出了在环境中使用门口信标以指示机器人在机器人的占用网格中产生存储虚拟屏障的方法。流程图760包括对应于由用户执行的操作的用户操作765,和对应于由机器人执行的操作的机器人操作770。
在操作772中,用户将门口信标放置在环境中。用户可以将门口信标放置在环境的地板表面上,使得门口束标记用户不希望机器人穿越的环境中的特定特征或位置,诸如门口、门槛、或其它开口。
在操作774中,用户指示机器人开始第一清洁操作。用户可以使用移动设备或按下在机器人上的按钮而指示所述机器人开始第一清洁操作。
在操作776中,机器人的控制器接收到开始第一清洁操作的指令。在操作778中,控制器开始第一清洁操作。
在操作780中,机器人的收发器检测在环境中的门口束。所述收发器可以是红外收发器。
在操作782,控制器在占用网格或其它持续地图中产生虚拟屏障。如本文所述,虚拟屏障可对应于要被标记在占用网格上的一条不可穿越单元的线。在一些实施方式中,虚拟屏障可以是一组坐标,其在占用网格中限定一条线或曲线。在一些情况下,不可穿越屏障的长度或宽度可取决于该机器人在其于操作780中检测门口束时感测到的信号强度。
在操作784中,控制器完成第一清洁操作。控制器可以通过例如确定机器人已满足一个或多个条件而完成第一清洁操作,所述条件诸如覆盖限定区域的一定百分比,和/或满足本文所描述的其它条件。
在一些实施方式中,机器人可以将虚拟屏障存储在持续地图中以在后续清洁操作中使用。其结果是,在操作786中,用户可以从环境中移除门口信标。然后,在操作788中,用户可以指示机器人开始第二清洁操作。在某些情况下,用户指示机器人开始该机器人于第一清洁操作期间已清洁的环境中的第二清洁操作。在其它情况下,用户指示机器人开始在另一环境中的清洁操作。在操作790中,机器人开始使用第一清洁操作过程中所产生的占用网格第二清洁操作。如果机器人在操作778期间已清洁的环境中开始第二清洁操作,机器人清洁同一区域并且不跨越虚拟屏障。如果机器人开始在另一环境中的第二清洁操作,机器人可以清洁与第一清洁操作期间的已清洁区域不同的区域,并且虚拟屏障有效地防止了机器人返回到在操作778期间已清洁的区域。
虽然示于图8A至图8C中的上述示例已经被描述为使用图2A至图2B中描述的机器人100,具有其它适当构造的其它移动机器人能够执行本文描述的方法。例如,机器人200可以包括红外收发器,其能够执行本文描述的功能。
虽然在这里产生的虚拟屏障已被描述为直壁,在一些实施方式中,虚拟屏障可以是圆形的。例如,将所述机器人置于关于图6A至图6C所描述的握手模式中可以使控制器产生基本上为圆形的虚拟屏障,其可以例如将机器人限制到圆形区域地毯。在某些情况下,用户可使用能够与机器人的通信系统进行通信的移动计算设备指示控制器产生圆形虚拟屏障。在一些情况下,机器人可以继续在圆形区域中的清洁操作,直到控制器已确定机器人已实现一个或多个条件,诸如,覆盖一定百分比的限定区域和/或实现本文所述的其它条件。在其它示例中,虚拟屏障可以建立圆形避开区域。
控制器可以使用虚拟屏障将环境分成要分别覆盖的两个或更多的区域。例如,虚拟屏障可将环境分成两个区域,其中一个区域对应于例如厨房、浴室、地毯等,而第二区域对应于卧室、客厅、硬木地板等。控制器可以指示机器人在一个清洗操作中清洁第一区域,然后在后续清洁操作中清洁第二区域。在一些情况下,控制器可以指示机器人以更深的清洁模式清洁一个区域,在所述更深的清洁模式中,机器人将在该区域中多次重复清洁操作。在一些实施方式中,用户可以将环境中的单个区域标记为房子中的特别房间,诸如厨房、卧室或浴室。如本文所述,控制器也能够检测标记物610a、610b中的特征,其可以允许控制器将标签与环境的区域相关联。然后,用户可以使用移动计算设备指示所述机器人清洁被标记的区域。在机器人清洁另一标记区域时,用户还可以指示机器人保持在标记区域之外。
虽然在本文所述的至少一些示例中,虚拟屏障存储在被机器人用于定位的占用网格中,所述虚拟屏障可以存储在被机器人用于定位和导航的其它类型的地图中。
该系统可以至少部分地使用一个或多个计算机程序产品控制或实现,例如,有形地体现在一个或多个信息载体中的一个或多个计算机程序,其用于通过一个或多个数据处理设备执行或控制所述设备的操作,所述信息载体诸如一个或多个非临时性可机读介质,所述数据处理设备例如可编程处理器、计算机、多个计算机和/或可编程逻辑元件。
计算机程序可以用任何形式的编程语言编写,包括编译或解释语言,并且其能够以任何形式部署,包括作为独立的程序或者作为模块、组件、子程序,或适合于在计算环境中使用的其它单元。
与执行本文所述的全部或一部分控制机制相关联的动作可以通过一个或多个可编程处理器执行,其执行一个或多个计算机程序以执行本文所述的功能。本文所述的全部或一部分控制机制可使用专用逻辑电路执行,例如,FPGA(现场可编程门阵列)和/或ASIC(专用集成电路)。
通过举例的方式,适合于执行计算机程序的处理器包括通用和专用微处理器两者,以及任何类型的数字计算机的任何一个或多个处理器。通常,处理器将接收来自只读存储区或随机存取存储区或两者的指令和数据。计算机元件包括一个或多个用于执行指令的处理器,以及一个或多个用于存储指令和数据的存储区设备。通常,计算机还将包括一个或多个可机读存储介质,或者与其可操作地耦合以接收来自所述存储介质的数据,或将数据传送到所述存储介质,或两者皆可,所述可机读存储介质诸如用于存储数据的大规模PCBs,例如,磁盘、磁光盘或光盘。适合于包含计算机程序指令和数据的可机读存储介质包括所有形式的非易失性存储区,以举例的方式包括,半导体存储区设备,例如,EPROM、EEPROM和闪存存储区设备;磁盘,例如,内部硬盘或可移动盘;磁光盘;以及,CD-ROM和DVD-ROM盘。
本文描述的不同实施方式的元件可被组合以形成上面未具体阐述的其它实施例。元件可被排除出本文描述的结构,而不会对其操作产生不利影响。此外,各种独立的元件可以被组合为一个或多个单独元件以执行本文描述的功能。
Claims (24)
1.一种机器人,包括:
可相对于表面移动的主体;
在所述主体内的一个或多个测量设备,其基于所述主体在所述表面上的初始位置处的取向输出信息;以及
在所述主体内的控制器,其基于所述信息确定所述主体的取向,并且通过防止所述主体的运动超出基于所述主体取向和初始位置的屏障之外而将所述主体的运动限制到一区域。
2.根据权利要求1所述的机器人,其中,所述屏障延伸穿过门口,并且所述机器人的初始位置在所述门口内。
3.根据权利要求1所述的机器人,其中,所述主体包括正部和背部;并且
其中,所述屏障沿着平行于所述机器人背部的线延伸。
4.根据权利要求3所述的机器人,其中,所述线正切于所述机器人的背部。
5.根据权利要求3所述的机器人,其中,所述线在由所述机器人上的视觉指示器指示的位置处与所述机器人的主体相交。
6.根据权利要求1所述的机器人,其中,所述主体包括正部和背部;并且
其中,所述屏障包括平行于所述机器人背部延伸的第一线和垂直于所述机器人背部延伸的第二线。
7.根据权利要求6所述的机器人,其中,所述机器人的初始位置将所述主体的背部邻近所述第一线放置,并且将所述主体的侧部邻近所述第二线放置。
8.根据权利要求6所述的机器人,其中,所述控制器被编程为通过控制所述主体执行操作而限制所述主体的运动,所述操作包括:
相对于所述初始取向旋转一角度;以及
沿大致平行于所述屏障的路径穿越所述表面的区域。
9.根据权利要求1所述的机器人,其中,所述控制器被编程为通过执行操作而限制所述主体的运动,所述操作包括:
产生表现待清洁区域的地图;以及
在所述地图上指定虚拟屏障,其指示禁止所述机器人越过的位置。
10.根据权利要求8所述的机器人,其中,所述屏障通过将对应于所述屏障的坐标指定为不可穿越的而被指定。
11.根据权利要求1所述的机器人,其中,确定所述取向和限制所述运动的操作在进入握手模式时执行,所述控制器被编程为响应于所述机器人上的一个或多个用户启动操作而识别所述握手模式。
12.一种机器人,包括:
沿着在所述主体下方的表面可移动的主体;
相对于所述表面朝上的相机,所述相机被构造为拍摄固定到一结构的标记物的一个或多个图像;以及
在所述主体内的控制器,其基于所述一个或多个图像而识别所述标记物的位置,并至少在一个或多个条件得到满足前,防止所述主体运动到超出由所述标记物位置限定的屏障之外的表面的一区域。
13.根据权利要求12所述的机器人,其中,所述标记物包括红外图像标记物,并且所述相机是红外相机。
14.根据权利要求12所述的机器人,其中,所述标记物包括可机读信息,其表示对应于所述结构的位置名称、所述结构名称、或对应于所述结构的位置名称和所述结构名称两者。
15.根据权利要求14所述的机器人,其中,所述位置名称和所述结构名称中的至少一个被发送到并显示在移动设备上。
16.根据权利要求12所述的机器人,其中,所述控制器被编程为执行以下操作,其包括:
产生表现所述表面的至少一部分的地图;
基于所述标记物的位置在所述地图上识别所述标记物;
将所述地图存储在计算机存储器中;以及
在计算机存储器中存储数据,所述数据指示禁止所述主体运动到超出所述标记物在所述地图上的位置之外的表面的区域。
17.根据权利要求12所述的机器人,还包括:
发射器,其与计算机网络无线通信以将所述地图通过所述计算机网络发送到一个或多个远程计算设备。
18.根据权利要求12所述的机器人,其中,所述控制器被编程为基于所述标记物的一个以上的图像识别所述标记物的位置,并防止所述主体运动到超出基于所述一个以上的图像识别的所述标记物位置之外的表面的区域。
19.根据权利要求12所述的机器人,其中,所述控制器被编程为,在满足一个或一个以上的条件时,允许所述主体运动到超出由所述图像标记物的位置限定的屏障之外的表面的区域,并至少在一个或多个条件得到满足前,防止所述主体跨过所述屏障回来的运动。
20.根据权利要求12所述的机器人,其中,所述一个或多个条件包括所述机器人穿越在所述屏障内表面区域的至少一个百分比。
21.根据权利要求12所述的机器人,其中,所述一个或多个条件包括所述机器人两次或多次穿越在所述屏障内表面区域的至少一个百分比。
22.一种产生至少一部分可被机器人穿越的环境的占用网格的方法,所述方法包括:
通过在所述机器人内的控制器确定所述机器人在所述环境中的位置和取向;和
通过控制器用不可穿越单元的屏障填充所述占用网格,其中,所述不可穿越单元的屏障至少基于所述机器人的位置和取向。
23.一种为环境中的机器人产生占用网格的方法,所述方法包括:
通过所述机器人的相机探测在所述环境中的一个或多个结构上的一个或多个可移动标记物的一个或多个特征;和
通过在所述机器人上的控制器在所述占用网格上基于所述一个或多个特征指示不可穿越的单元线。
24.根据权利要求23所述的方法,还包括:
产生所述一个或多个特征的一个或多个图像;
对所述一个或多个图像施加仿射变换,以产生一个或多个变换的图像;和
确认所述一个或多个变换图像充分匹配一个或多个存储的图像;
其中,响应于确认所述一个或多个变换图像充分匹配一个或多个存储的图像,指示被执行。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911354932.5A CN110888448A (zh) | 2015-04-09 | 2015-09-14 | 限制移动机器人的运动 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/682,658 | 2015-04-09 | ||
US14/682,658 US9868211B2 (en) | 2015-04-09 | 2015-04-09 | Restricting movement of a mobile robot |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911354932.5A Division CN110888448A (zh) | 2015-04-09 | 2015-09-14 | 限制移动机器人的运动 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106037591A true CN106037591A (zh) | 2016-10-26 |
CN106037591B CN106037591B (zh) | 2020-01-17 |
Family
ID=54695558
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510581990.7A Active CN106037591B (zh) | 2015-04-09 | 2015-09-14 | 限制移动机器人的运动 |
CN201520709677.2U Active CN205458451U (zh) | 2015-04-09 | 2015-09-14 | 机器人 |
CN201911354932.5A Pending CN110888448A (zh) | 2015-04-09 | 2015-09-14 | 限制移动机器人的运动 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201520709677.2U Active CN205458451U (zh) | 2015-04-09 | 2015-09-14 | 机器人 |
CN201911354932.5A Pending CN110888448A (zh) | 2015-04-09 | 2015-09-14 | 限制移动机器人的运动 |
Country Status (9)
Country | Link |
---|---|
US (4) | US9868211B2 (zh) |
EP (2) | EP3617830B1 (zh) |
JP (2) | JP6746309B2 (zh) |
KR (1) | KR102401899B1 (zh) |
CN (3) | CN106037591B (zh) |
AU (1) | AU2015390843B2 (zh) |
CA (1) | CA2981943C (zh) |
ES (1) | ES2746498T3 (zh) |
WO (1) | WO2016164071A1 (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107997690A (zh) * | 2017-12-04 | 2018-05-08 | 深圳市沃特沃德股份有限公司 | 室内区域划分方法及扫地机器人 |
CN108481321A (zh) * | 2017-01-09 | 2018-09-04 | 广东宝乐机器人股份有限公司 | 一种机器人的移动控制方法及机器人 |
CN108968825A (zh) * | 2018-08-17 | 2018-12-11 | 苏州领贝智能科技有限公司 | 一种扫地机器人和机器人扫地方法 |
CN109388134A (zh) * | 2017-08-09 | 2019-02-26 | 维布络有限公司 | 用于识别车辆导航路径边界的方法和装置 |
WO2019109225A1 (zh) * | 2017-12-04 | 2019-06-13 | 深圳市沃特沃德股份有限公司 | 室内区域划分方法及扫地机器人 |
CN109953695A (zh) * | 2017-12-13 | 2019-07-02 | 东芝生活电器株式会社 | 自主行驶体 |
CN110025260A (zh) * | 2017-12-20 | 2019-07-19 | 东芝生活电器株式会社 | 自主行驶体以及自主行驶体系统 |
CN110450152A (zh) * | 2019-06-24 | 2019-11-15 | 广东宝乐机器人股份有限公司 | 区域识别方法、机器人和存储介质 |
CN111093447A (zh) * | 2017-09-26 | 2020-05-01 | 伊莱克斯公司 | 机器人清洁设备的移动控制 |
CN111166246A (zh) * | 2018-11-09 | 2020-05-19 | 东芝生活电器株式会社 | 自主型电动吸尘器 |
CN111328386A (zh) * | 2017-09-12 | 2020-06-23 | 罗博艾特有限责任公司 | 通过自主移动机器人对未知环境的探察 |
CN111459153A (zh) * | 2019-01-03 | 2020-07-28 | 科沃斯机器人股份有限公司 | 动态区域划分与区域通道识别方法及清洁机器人 |
CN111523334A (zh) * | 2020-04-09 | 2020-08-11 | 江苏美的清洁电器股份有限公司 | 虚拟禁区的设置方法、装置、终端设备、标签和存储介质 |
CN107479551B (zh) * | 2017-08-22 | 2020-11-10 | 北京小米移动软件有限公司 | 控制移动的方法和装置 |
US20210076892A1 (en) * | 2017-06-02 | 2021-03-18 | Irobot Corporation | Scheduling and control system for autonomous robots |
Families Citing this family (78)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11835343B1 (en) * | 2004-08-06 | 2023-12-05 | AI Incorporated | Method for constructing a map while performing work |
US10809071B2 (en) | 2017-10-17 | 2020-10-20 | AI Incorporated | Method for constructing a map while performing work |
US10579066B1 (en) * | 2015-03-30 | 2020-03-03 | AI Incorporated | System and method for establishing virtual boundaries for robotic devices |
US11347239B1 (en) | 2014-10-01 | 2022-05-31 | AI Incorporated | System and method for establishing virtual boundaries for robotic devices |
US10328573B2 (en) | 2015-01-06 | 2019-06-25 | Discovery Robotics | Robotic platform with teach-repeat mode |
US11400595B2 (en) | 2015-01-06 | 2022-08-02 | Nexus Robotics Llc | Robotic platform with area cleaning mode |
US9722640B2 (en) | 2015-01-06 | 2017-08-01 | Discovery Robotics | Method and system for determining precise robotic position and orientation using near-simultaneous radio frequency measurements |
US10518407B2 (en) | 2015-01-06 | 2019-12-31 | Discovery Robotics | Apparatus and methods for providing a reconfigurable robotic platform |
US9868211B2 (en) | 2015-04-09 | 2018-01-16 | Irobot Corporation | Restricting movement of a mobile robot |
US9594377B1 (en) * | 2015-05-12 | 2017-03-14 | Google Inc. | Auto-height swing adjustment |
KR102398330B1 (ko) * | 2015-06-12 | 2022-05-16 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
DE102015109775B3 (de) | 2015-06-18 | 2016-09-22 | RobArt GmbH | Optischer Triangulationssensor zur Entfernungsmessung |
DE102015114883A1 (de) | 2015-09-04 | 2017-03-09 | RobArt GmbH | Identifizierung und Lokalisierung einer Basisstation eines autonomen mobilen Roboters |
US10496262B1 (en) | 2015-09-30 | 2019-12-03 | AI Incorporated | Robotic floor-cleaning system manager |
DE102015119501A1 (de) | 2015-11-11 | 2017-05-11 | RobArt GmbH | Unterteilung von Karten für die Roboternavigation |
DE102015119865B4 (de) | 2015-11-17 | 2023-12-21 | RobArt GmbH | Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters |
US10093021B2 (en) * | 2015-12-02 | 2018-10-09 | Qualcomm Incorporated | Simultaneous mapping and planning by a robot |
DE102015121666B3 (de) | 2015-12-11 | 2017-05-24 | RobArt GmbH | Fernsteuerung eines mobilen, autonomen Roboters |
DE102016102644A1 (de) | 2016-02-15 | 2017-08-17 | RobArt GmbH | Verfahren zur Steuerung eines autonomen mobilen Roboters |
US11353326B2 (en) * | 2016-03-06 | 2022-06-07 | Arizona Board Of Regents On Behalf Of The University Of Arizona | Traverse and trajectory optimization and multi-purpose tracking |
US10011016B1 (en) * | 2016-05-11 | 2018-07-03 | X Development Llc | Surface markers and methods for use |
US11726487B1 (en) * | 2016-06-06 | 2023-08-15 | AI Incorporated | Method for robotic devices to identify doorways using machine learning |
USD869108S1 (en) | 2016-07-14 | 2019-12-03 | Discovery Robotics | Robot comprising a service module |
CN106142090B (zh) * | 2016-09-21 | 2018-11-20 | 苏州瑞得恩光能科技有限公司 | 机器人在矩形斜坡上行驶的路径导航控制方法 |
CN108226386B (zh) * | 2016-12-14 | 2020-11-10 | 盟立自动化股份有限公司 | 环境侦测系统 |
DE102017100366A1 (de) * | 2017-01-10 | 2018-07-12 | Vorwerk & Co. Interholding Gmbh | Verfahren zum Betrieb eines Bodenbearbeitungsgerätes |
KR20180082264A (ko) * | 2017-01-10 | 2018-07-18 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
KR20180096059A (ko) | 2017-02-20 | 2018-08-29 | 엘지전자 주식회사 | 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇 |
EP3974934A1 (de) * | 2017-03-02 | 2022-03-30 | Robart GmbH | Verfahren zur steuerung eines autonomen, mobilen roboters |
USD846536S1 (en) * | 2017-03-15 | 2019-04-23 | Al Incorporated | Robot confinement transceiver |
CN106840168B (zh) * | 2017-03-16 | 2019-10-01 | 苏州大学 | 清洁机器人及其动态环境下全覆盖路径规划方法 |
CN108803589A (zh) * | 2017-04-28 | 2018-11-13 | 深圳乐动机器人有限公司 | 机器人虚拟墙系统 |
KR102024092B1 (ko) * | 2017-07-12 | 2019-09-23 | 엘지전자 주식회사 | 이동 로봇 시스템 및 그 제어방법 |
JP6475788B2 (ja) * | 2017-07-20 | 2019-02-27 | マツダエース株式会社 | 自動搬送装置 |
CN107329476A (zh) * | 2017-08-02 | 2017-11-07 | 珊口(上海)智能科技有限公司 | 一种房间拓扑地图构建方法、系统、装置及扫地机器人 |
US10583561B2 (en) * | 2017-08-31 | 2020-03-10 | Neato Robotics, Inc. | Robotic virtual boundaries |
DE102017120218A1 (de) * | 2017-09-01 | 2019-03-07 | RobArt GmbH | Bewegungsplanung für autonome mobile roboter |
JP7013212B2 (ja) * | 2017-11-14 | 2022-01-31 | Tvs Regza株式会社 | 電子装置、マーカ、電子装置の制御方法及びプログラム |
US11014238B2 (en) * | 2017-11-27 | 2021-05-25 | Amazon Technologies, Inc. | Dynamic navigation of autonomous vehicle with safety infrastructure |
US11413755B2 (en) | 2017-12-31 | 2022-08-16 | Sarcos Corp. | Covert identification tags viewable by robots and robotic devices |
US11614746B2 (en) * | 2018-01-05 | 2023-03-28 | Irobot Corporation | Mobile cleaning robot teaming and persistent mapping |
US10878294B2 (en) * | 2018-01-05 | 2020-12-29 | Irobot Corporation | Mobile cleaning robot artificial intelligence for situational awareness |
CN108247647B (zh) | 2018-01-24 | 2021-06-22 | 速感科技(北京)有限公司 | 一种清洁机器人 |
USD879775S1 (en) * | 2018-02-08 | 2020-03-31 | AI Incorporated | Virtual barrier device |
US11126199B2 (en) * | 2018-04-16 | 2021-09-21 | Baidu Usa Llc | Learning based speed planner for autonomous driving vehicles |
EP3782001A4 (en) * | 2018-04-16 | 2021-06-02 | Growponics Greenhouse Technology Ltd. | GREENHOUSE CONTROL SYSTEM |
WO2019203878A1 (en) * | 2018-04-20 | 2019-10-24 | Discovery Robotics | Apparatus and methods of a service robotic platform |
US11687092B2 (en) | 2018-04-23 | 2023-06-27 | Sharkninja Operating Llc | Techniques for bounding cleaning operations of a robotic surface cleaning device within a region of interest |
JP2020042726A (ja) * | 2018-09-13 | 2020-03-19 | 株式会社東芝 | Ogm圧縮回路、ogm圧縮伸長システム、および移動体システム |
US11256261B1 (en) * | 2018-10-16 | 2022-02-22 | Amazon Technologies, Inc. | System for movement of autonomous mobile device |
EP3876806B1 (en) * | 2018-12-03 | 2023-03-08 | SharkNinja Operating LLC | Optical indicium for communicating information to autonomous devices |
KR102115194B1 (ko) * | 2018-12-12 | 2020-05-27 | 엘지전자 주식회사 | 로봇 청소기 및 그 제어방법 |
EP3671261A1 (en) * | 2018-12-21 | 2020-06-24 | Leica Geosystems AG | 3d surveillance system comprising lidar and multispectral imaging for object classification |
JP7012040B2 (ja) * | 2019-03-28 | 2022-01-27 | 本田技研工業株式会社 | 動作領域制限方法、及びロボット制御装置 |
CN109991980B (zh) * | 2019-04-01 | 2022-07-08 | 珠海一微半导体股份有限公司 | 充电座的信号量化分布图的形成方法 |
JP7351638B2 (ja) * | 2019-04-23 | 2023-09-27 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、画像表示システム、および情報提示方法 |
CN110202570B (zh) * | 2019-05-13 | 2022-07-05 | 深圳创动科技有限公司 | 机器人及其运动控制方法以及存储介质 |
US11266287B2 (en) * | 2019-05-29 | 2022-03-08 | Irobot Corporation | Control of autonomous mobile robots |
JP7260402B2 (ja) * | 2019-05-31 | 2023-04-18 | ファナック株式会社 | ケーブルの状態を学習する機械学習装置、ロボットシステム、及び機械学習方法 |
KR102305206B1 (ko) * | 2019-07-11 | 2021-09-28 | 엘지전자 주식회사 | 인공 지능을 통해 바닥 상황을 고려하여 청소하는 로봇 청소기 및 그 방법 |
KR102298582B1 (ko) * | 2019-07-12 | 2021-09-08 | 엘지전자 주식회사 | 센서 데이터를 이용하여 청소 동선을 결정하는 인공 지능 로봇 및 그 방법 |
WO2021014586A1 (ja) * | 2019-07-23 | 2021-01-28 | 本田技研工業株式会社 | 自律作業機、自律作業機の制御方法及びプログラム |
US11288883B2 (en) * | 2019-07-23 | 2022-03-29 | Toyota Research Institute, Inc. | Autonomous task performance based on visual embeddings |
KR102054301B1 (ko) * | 2019-08-09 | 2020-01-22 | 엘지전자 주식회사 | 객체의 특성이 적용된 맵을 작성하는 방법 및 이를 구현하는 로봇 |
US11327483B2 (en) | 2019-09-30 | 2022-05-10 | Irobot Corporation | Image capture devices for autonomous mobile robots and related systems and methods |
US11467585B2 (en) | 2019-11-08 | 2022-10-11 | Irobot Corporation | Control of autonomous mobile robots |
US11436940B2 (en) | 2020-02-28 | 2022-09-06 | Irobot Corporation | Mobile cleaning robot hardware recommendations |
US20210282613A1 (en) * | 2020-03-12 | 2021-09-16 | Irobot Corporation | Control of autonomous mobile robots |
JP7411897B2 (ja) * | 2020-04-10 | 2024-01-12 | パナソニックIpマネジメント株式会社 | 掃除機システム、および掃除機 |
US12094195B2 (en) | 2020-04-20 | 2024-09-17 | Boston Dynamics, Inc. | Identifying stairs from footfalls |
US12077229B2 (en) | 2020-04-22 | 2024-09-03 | Boston Dynamics, Inc. | Stair tracking for modeled and perceived terrain |
US11730328B2 (en) * | 2020-08-14 | 2023-08-22 | Irobot Corporation | Visual fiducial for behavior control zone |
WO2022034686A1 (ja) * | 2020-08-14 | 2022-02-17 | 日本電気株式会社 | 動作範囲設定装置、動作範囲設定方法及び記録媒体 |
CN112438661A (zh) * | 2020-11-25 | 2021-03-05 | 浙江欣奕华智能科技有限公司 | 智能设备运动控制方法、装置、设备及计算机存储介质 |
JPWO2023053602A1 (zh) * | 2021-09-29 | 2023-04-06 | ||
US11720122B1 (en) * | 2022-10-27 | 2023-08-08 | Tompkins Robotics, Inc. | Robotic vehicle navigaton system and method |
US20240302839A1 (en) * | 2023-03-08 | 2024-09-12 | Irobot Corporation | Mapping negative space for autonomous mobile robot |
CN116202512B (zh) * | 2023-05-06 | 2023-07-21 | 湖北工业大学 | 一种基于计算机视觉的ar导航装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6690134B1 (en) * | 2001-01-24 | 2004-02-10 | Irobot Corporation | Method and system for robot localization and confinement |
CN1748958A (zh) * | 2004-09-14 | 2006-03-22 | 索尼株式会社 | 机器人设备和控制其行为的方法 |
CN102727143A (zh) * | 2011-04-11 | 2012-10-17 | 恩斯迈电子(深圳)有限公司 | 清扫系统 |
CN103082934A (zh) * | 2012-12-28 | 2013-05-08 | 暨南大学 | 基于足式爬壁的智能玻璃清洁机器人 |
CN104027040A (zh) * | 2013-03-05 | 2014-09-10 | Lg电子株式会社 | 机器人清洁器 |
EP2781180A2 (en) * | 2013-03-23 | 2014-09-24 | Samsung Electronics Co., Ltd. | Robot cleaner and control method thereof |
CN102083352B (zh) * | 2008-04-24 | 2014-10-15 | 艾罗伯特公司 | 用于机器人使能的移动产品的定位、位置控制和导航系统的应用 |
CN205458451U (zh) * | 2015-04-09 | 2016-08-17 | 美国iRobot公司 | 机器人 |
Family Cites Families (84)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4196727A (en) | 1978-05-19 | 1980-04-08 | Becton, Dickinson And Company | See-through anesthesia mask |
EP0007790A1 (en) | 1978-08-01 | 1980-02-06 | Imperial Chemical Industries Plc | Driverless vehicle carrying non-directional detectors auto-guided by light signals |
US4482960A (en) | 1981-11-20 | 1984-11-13 | Diffracto Ltd. | Robot tractors |
US4700301A (en) | 1983-11-02 | 1987-10-13 | Dyke Howard L | Method of automatically steering agricultural type vehicles |
US4679152A (en) | 1985-02-20 | 1987-07-07 | Heath Company | Navigation system and method for a mobile robot |
US4662854A (en) | 1985-07-12 | 1987-05-05 | Union Electric Corp. | Self-propellable toy and arrangement for and method of controlling the movement thereof |
SE451770B (sv) | 1985-09-17 | 1987-10-26 | Hyypae Ilkka Kalevi | Sett for navigering av en i ett plan rorlig farkost, t ex en truck, samt truck for utovning av settet |
US4700427A (en) | 1985-10-17 | 1987-10-20 | Knepper Hans Reinhard | Method of automatically steering self-propelled floor-cleaning machines and floor-cleaning machine for practicing the method |
KR900003080B1 (ko) | 1987-03-30 | 1990-05-07 | 마쓰시다덴기산교 가부시기가이샤 | 전기소제기의 바닥노즐 |
US4933864A (en) | 1988-10-04 | 1990-06-12 | Transitions Research Corporation | Mobile robot navigation employing ceiling light fixtures |
JPH0313611A (ja) | 1989-06-07 | 1991-01-22 | Toshiba Corp | 自動清掃装置 |
US5109566A (en) | 1990-06-28 | 1992-05-05 | Matsushita Electric Industrial Co., Ltd. | Self-running cleaning apparatus |
US5307273A (en) | 1990-08-29 | 1994-04-26 | Goldstar Co., Ltd. | Apparatus and method for recognizing carpets and stairs by cleaning robot |
IL123225A (en) | 1992-01-12 | 1999-07-14 | Israel State | Large area movement robot |
US5440216A (en) | 1993-06-08 | 1995-08-08 | Samsung Electronics Co., Ltd. | Robot cleaner |
KR100197676B1 (ko) | 1993-09-27 | 1999-06-15 | 윤종용 | 로보트 청소기 |
US5471391A (en) | 1993-12-08 | 1995-11-28 | Caterpillar Inc. | Method and apparatus for operating compacting machinery relative to a work site |
JPH08326025A (ja) | 1995-05-31 | 1996-12-10 | Tokico Ltd | 清掃ロボット |
US5819008A (en) | 1995-10-18 | 1998-10-06 | Rikagaku Kenkyusho | Mobile robot sensor system |
JPH10105236A (ja) | 1996-09-30 | 1998-04-24 | Minolta Co Ltd | 移動体の位置決め装置および移動体の位置決め方法 |
US5974348A (en) | 1996-12-13 | 1999-10-26 | Rocks; James K. | System and method for performing mobile robotic work operations |
US5995884A (en) | 1997-03-07 | 1999-11-30 | Allen; Timothy P. | Computer peripheral floor cleaning system and navigation method |
SE510524C2 (sv) | 1997-09-19 | 1999-05-31 | Electrolux Ab | Elektroniskt avgränsningssystem |
SE511504C2 (sv) | 1997-10-17 | 1999-10-11 | Apogeum Ab | Sätt och anordning för associering av anonyma reflektorer till detekterade vinkellägen |
US6532404B2 (en) | 1997-11-27 | 2003-03-11 | Colens Andre | Mobile robots and their control system |
JP4458664B2 (ja) | 1997-11-27 | 2010-04-28 | ソーラー・アンド・ロボティクス | 移動性ロボット及びその制御システムの改良 |
AUPP299498A0 (en) | 1998-04-15 | 1998-05-07 | Commonwealth Scientific And Industrial Research Organisation | Method of tracking and sensing position of objects |
IL124413A (en) | 1998-05-11 | 2001-05-20 | Friendly Robotics Ltd | System and method for area coverage with an autonomous robot |
US6112143A (en) | 1998-08-06 | 2000-08-29 | Caterpillar Inc. | Method and apparatus for establishing a perimeter defining an area to be traversed by a mobile machine |
US6108076A (en) | 1998-12-21 | 2000-08-22 | Trimble Navigation Limited | Method and apparatus for accurately positioning a tool on a mobile machine using on-board laser and positioning system |
GB2350696A (en) | 1999-05-28 | 2000-12-06 | Notetry Ltd | Visual status indicator for a robotic machine, eg a vacuum cleaner |
AU5376400A (en) | 1999-06-17 | 2001-01-09 | Solar And Robotics S.A. | Device for automatically picking up objects |
DE19938639B4 (de) * | 1999-08-14 | 2006-08-24 | Pilz Gmbh & Co. Kg | Vorrichtung zur Absicherung eines Gefahrenbereichs, insbesondere des Gefahrenbereichs einer automatisiert arbeitenden Maschine |
IL149558A0 (en) | 1999-11-18 | 2002-11-10 | Procter & Gamble | Home cleaning robot |
JP2001191283A (ja) | 1999-12-31 | 2001-07-17 | Sony Corp | ロボット装置及びその制御方法 |
US8412377B2 (en) | 2000-01-24 | 2013-04-02 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US7155308B2 (en) | 2000-01-24 | 2006-12-26 | Irobot Corporation | Robot obstacle detection system |
US6594844B2 (en) | 2000-01-24 | 2003-07-22 | Irobot Corporation | Robot obstacle detection system |
US6481515B1 (en) | 2000-05-30 | 2002-11-19 | The Procter & Gamble Company | Autonomous mobile surface treating apparatus |
US6539284B2 (en) | 2000-07-25 | 2003-03-25 | Axonn Robotics, Llc | Socially interactive autonomous robot |
US6883201B2 (en) | 2002-01-03 | 2005-04-26 | Irobot Corporation | Autonomous floor-cleaning robot |
US7571511B2 (en) | 2002-01-03 | 2009-08-11 | Irobot Corporation | Autonomous floor-cleaning robot |
EP1408729B1 (fr) | 2001-05-28 | 2016-10-26 | Husqvarna AB | Amelioration d'une tondeuse robotique |
EP2287696B1 (en) | 2001-06-12 | 2018-01-10 | iRobot Corporation | Method and system for multi-code coverage for an autonomous robot |
US7663333B2 (en) | 2001-06-12 | 2010-02-16 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US6604021B2 (en) | 2001-06-21 | 2003-08-05 | Advanced Telecommunications Research Institute International | Communication robot |
DE60301148T2 (de) * | 2002-01-24 | 2006-06-01 | Irobot Corp., Burlington | Verfahren und System zur Roboterlokalisierung und Beschränkung des Arbeitsbereichs |
US9128486B2 (en) | 2002-01-24 | 2015-09-08 | Irobot Corporation | Navigational control system for a robotic device |
US6658354B2 (en) | 2002-03-15 | 2003-12-02 | American Gnc Corporation | Interruption free navigator |
WO2004025947A2 (en) | 2002-09-13 | 2004-03-25 | Irobot Corporation | A navigational control system for a robotic device |
KR100468107B1 (ko) | 2002-10-31 | 2005-01-26 | 삼성광주전자 주식회사 | 외부충전장치를 갖는 로봇청소기 시스템 및 로봇청소기의외부충전장치 접속방법 |
KR100485696B1 (ko) | 2003-02-07 | 2005-04-28 | 삼성광주전자 주식회사 | 로봇청소기의 위치인식표지 검출방법 및 이 검출방법을적용한 로봇청소기 |
US20040236468A1 (en) | 2003-03-14 | 2004-11-25 | Taylor Charles E. | Robot vacuum with remote control mode |
JP2005211359A (ja) * | 2004-01-30 | 2005-08-11 | Funai Electric Co Ltd | 自律走行ロボットクリーナーシステム |
US20060020369A1 (en) | 2004-03-11 | 2006-01-26 | Taylor Charles E | Robot vacuum cleaner |
KR101142564B1 (ko) * | 2004-06-24 | 2012-05-24 | 아이로보트 코퍼레이션 | 자동 로봇 장치용의 원격 제어 스케줄러 및 방법 |
KR20060023068A (ko) | 2004-09-08 | 2006-03-13 | 삼성전자주식회사 | 청소기 및 이를 이용한 청소방법 |
KR101240732B1 (ko) | 2005-02-18 | 2013-03-07 | 아이로보트 코퍼레이션 | 습식 및 건식 청소를 위한 자동 표면 청소 로봇 |
US7389156B2 (en) | 2005-02-18 | 2008-06-17 | Irobot Corporation | Autonomous surface cleaning robot for wet and dry cleaning |
TWI278731B (en) | 2005-05-09 | 2007-04-11 | Infinite Electronics Inc | Self-propelled apparatus for virtual wall system |
JP4300199B2 (ja) | 2005-06-13 | 2009-07-22 | 株式会社東芝 | 移動ロボット、移動ロボットの位置姿勢算出方法、移動ロボットの自律走行システム |
EP2544065B1 (en) | 2005-12-02 | 2017-02-08 | iRobot Corporation | Robot system |
ES2681523T3 (es) | 2006-03-17 | 2018-09-13 | Irobot Corporation | Robot para el cuidado del césped |
KR101301834B1 (ko) * | 2007-05-09 | 2013-08-29 | 아이로보트 코퍼레이션 | 소형 자율 커버리지 로봇 |
KR20090077547A (ko) * | 2008-01-11 | 2009-07-15 | 삼성전자주식회사 | 이동 로봇의 경로 계획 방법 및 장치 |
JP5241306B2 (ja) | 2008-04-24 | 2013-07-17 | パナソニック株式会社 | 自律移動装置 |
US8961695B2 (en) * | 2008-04-24 | 2015-02-24 | Irobot Corporation | Mobile robot for cleaning |
JP2009301247A (ja) | 2008-06-12 | 2009-12-24 | Hitachi Appliances Inc | 自律移動ロボットの仮想壁システム |
KR100997656B1 (ko) | 2008-06-18 | 2010-12-01 | 한양대학교 산학협력단 | 로봇의 장애물 검출방법 및 그 장치 |
US8706297B2 (en) * | 2009-06-18 | 2014-04-22 | Michael Todd Letsky | Method for establishing a desired area of confinement for an autonomous robot and autonomous robot implementing a control system for executing the same |
US8364309B1 (en) | 2009-07-14 | 2013-01-29 | Bailey Bendrix L | User-assisted robot navigation system |
JP6162955B2 (ja) * | 2009-11-06 | 2017-07-12 | アイロボット コーポレイション | 自律ロボットにより表面を完全にカバーする方法およびシステム |
MX370962B (es) | 2009-12-23 | 2020-01-10 | Colgate Palmolive Co | Dispositivo para la identificacion de afecciones orales. |
KR20110119118A (ko) | 2010-04-26 | 2011-11-02 | 엘지전자 주식회사 | 로봇 청소기, 및 이를 이용한 원격 감시 시스템 |
KR101021267B1 (ko) | 2010-09-20 | 2011-03-11 | 주식회사 모뉴엘 | 청소로봇 시스템 및 그 제어 방법 |
CN201840423U (zh) | 2010-10-11 | 2011-05-25 | 洋通工业股份有限公司 | 自走吸尘器的充电座 |
TW201305761A (zh) * | 2011-07-21 | 2013-02-01 | Ememe Robot Co Ltd | 自走機器人及其定位方法 |
JP5457485B2 (ja) * | 2012-03-02 | 2014-04-02 | アイロボット コーポレイション | デブリセンサを備えた清浄装置 |
US9146560B2 (en) | 2012-03-30 | 2015-09-29 | Irobot Corporation | System and method for implementing force field deterrent for robot |
CN103076802B (zh) * | 2012-10-09 | 2016-01-20 | 江苏大学 | 机器人虚拟边界建立与识别方法及系统 |
US9235780B2 (en) | 2013-01-02 | 2016-01-12 | Samsung Electronics Co., Ltd. | Robust keypoint feature selection for visual search with self matching score |
US9375847B2 (en) * | 2013-01-18 | 2016-06-28 | Irobot Corporation | Environmental management systems including mobile robots and methods using same |
CN104460663A (zh) * | 2013-09-23 | 2015-03-25 | 科沃斯机器人科技(苏州)有限公司 | 智能手机控制清扫机器人的方法 |
JP6378962B2 (ja) | 2014-07-31 | 2018-08-22 | シャープ株式会社 | 自走式電子機器 |
-
2015
- 2015-04-09 US US14/682,658 patent/US9868211B2/en active Active
- 2015-09-14 CN CN201510581990.7A patent/CN106037591B/zh active Active
- 2015-09-14 CN CN201520709677.2U patent/CN205458451U/zh active Active
- 2015-09-14 CN CN201911354932.5A patent/CN110888448A/zh active Pending
- 2015-11-18 CA CA2981943A patent/CA2981943C/en active Active
- 2015-11-18 WO PCT/US2015/061283 patent/WO2016164071A1/en active Application Filing
- 2015-11-18 AU AU2015390843A patent/AU2015390843B2/en active Active
- 2015-11-20 ES ES15195596T patent/ES2746498T3/es active Active
- 2015-11-20 EP EP19187907.1A patent/EP3617830B1/en active Active
- 2015-11-20 EP EP15195596.0A patent/EP3079030B1/en active Active
- 2015-12-10 JP JP2015240814A patent/JP6746309B2/ja active Active
- 2015-12-11 KR KR1020150176754A patent/KR102401899B1/ko active IP Right Grant
-
2017
- 2017-10-30 US US15/796,905 patent/US10639793B2/en active Active
-
2020
- 2020-04-15 US US16/849,241 patent/US11465284B2/en active Active
- 2020-05-14 JP JP2020085284A patent/JP7184435B2/ja active Active
-
2022
- 2022-10-03 US US17/937,598 patent/US20230064687A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6690134B1 (en) * | 2001-01-24 | 2004-02-10 | Irobot Corporation | Method and system for robot localization and confinement |
CN1748958A (zh) * | 2004-09-14 | 2006-03-22 | 索尼株式会社 | 机器人设备和控制其行为的方法 |
CN102083352B (zh) * | 2008-04-24 | 2014-10-15 | 艾罗伯特公司 | 用于机器人使能的移动产品的定位、位置控制和导航系统的应用 |
CN102727143A (zh) * | 2011-04-11 | 2012-10-17 | 恩斯迈电子(深圳)有限公司 | 清扫系统 |
CN103082934A (zh) * | 2012-12-28 | 2013-05-08 | 暨南大学 | 基于足式爬壁的智能玻璃清洁机器人 |
CN104027040A (zh) * | 2013-03-05 | 2014-09-10 | Lg电子株式会社 | 机器人清洁器 |
EP2781180A2 (en) * | 2013-03-23 | 2014-09-24 | Samsung Electronics Co., Ltd. | Robot cleaner and control method thereof |
CN205458451U (zh) * | 2015-04-09 | 2016-08-17 | 美国iRobot公司 | 机器人 |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108481321A (zh) * | 2017-01-09 | 2018-09-04 | 广东宝乐机器人股份有限公司 | 一种机器人的移动控制方法及机器人 |
US11638510B2 (en) * | 2017-06-02 | 2023-05-02 | Irobot Corporation | Scheduling and control system for autonomous robots |
US12089801B2 (en) | 2017-06-02 | 2024-09-17 | Irobot Corporation | Scheduling and control system for autonomous robots |
US20210076892A1 (en) * | 2017-06-02 | 2021-03-18 | Irobot Corporation | Scheduling and control system for autonomous robots |
CN109388134A (zh) * | 2017-08-09 | 2019-02-26 | 维布络有限公司 | 用于识别车辆导航路径边界的方法和装置 |
CN109388134B (zh) * | 2017-08-09 | 2021-10-08 | 维布络有限公司 | 用于识别车辆导航路径边界的方法和装置 |
CN107479551B (zh) * | 2017-08-22 | 2020-11-10 | 北京小米移动软件有限公司 | 控制移动的方法和装置 |
CN111328386A (zh) * | 2017-09-12 | 2020-06-23 | 罗博艾特有限责任公司 | 通过自主移动机器人对未知环境的探察 |
CN111093447A (zh) * | 2017-09-26 | 2020-05-01 | 伊莱克斯公司 | 机器人清洁设备的移动控制 |
US11921517B2 (en) | 2017-09-26 | 2024-03-05 | Aktiebolaget Electrolux | Controlling movement of a robotic cleaning device |
CN107997690A (zh) * | 2017-12-04 | 2018-05-08 | 深圳市沃特沃德股份有限公司 | 室内区域划分方法及扫地机器人 |
CN107997690B (zh) * | 2017-12-04 | 2020-02-07 | 深圳市无限动力发展有限公司 | 室内区域划分方法及扫地机器人 |
WO2019109225A1 (zh) * | 2017-12-04 | 2019-06-13 | 深圳市沃特沃德股份有限公司 | 室内区域划分方法及扫地机器人 |
CN109953695A (zh) * | 2017-12-13 | 2019-07-02 | 东芝生活电器株式会社 | 自主行驶体 |
CN110025260A (zh) * | 2017-12-20 | 2019-07-19 | 东芝生活电器株式会社 | 自主行驶体以及自主行驶体系统 |
CN108968825B (zh) * | 2018-08-17 | 2020-12-11 | 深圳领贝智能科技有限公司 | 一种扫地机器人和机器人扫地方法 |
CN108968825A (zh) * | 2018-08-17 | 2018-12-11 | 苏州领贝智能科技有限公司 | 一种扫地机器人和机器人扫地方法 |
CN111166246A (zh) * | 2018-11-09 | 2020-05-19 | 东芝生活电器株式会社 | 自主型电动吸尘器 |
CN111459153A (zh) * | 2019-01-03 | 2020-07-28 | 科沃斯机器人股份有限公司 | 动态区域划分与区域通道识别方法及清洁机器人 |
CN110450152A (zh) * | 2019-06-24 | 2019-11-15 | 广东宝乐机器人股份有限公司 | 区域识别方法、机器人和存储介质 |
CN111523334A (zh) * | 2020-04-09 | 2020-08-11 | 江苏美的清洁电器股份有限公司 | 虚拟禁区的设置方法、装置、终端设备、标签和存储介质 |
CN111523334B (zh) * | 2020-04-09 | 2023-09-19 | 美智纵横科技有限责任公司 | 虚拟禁区的设置方法、装置、终端设备、标签和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP3617830A1 (en) | 2020-03-04 |
JP6746309B2 (ja) | 2020-08-26 |
US20200238520A1 (en) | 2020-07-30 |
KR20160121373A (ko) | 2016-10-19 |
CN205458451U (zh) | 2016-08-17 |
CN110888448A (zh) | 2020-03-17 |
JP7184435B2 (ja) | 2022-12-06 |
US10639793B2 (en) | 2020-05-05 |
CA2981943C (en) | 2021-05-25 |
CA2981943A1 (en) | 2016-10-13 |
US20230064687A1 (en) | 2023-03-02 |
AU2015390843A1 (en) | 2017-08-24 |
EP3079030A1 (en) | 2016-10-12 |
CN106037591B (zh) | 2020-01-17 |
US20180065253A1 (en) | 2018-03-08 |
WO2016164071A1 (en) | 2016-10-13 |
EP3079030B1 (en) | 2019-07-24 |
AU2015390843B2 (en) | 2020-08-20 |
KR102401899B1 (ko) | 2022-05-24 |
EP3617830B1 (en) | 2024-07-31 |
ES2746498T3 (es) | 2020-03-06 |
US20160297072A1 (en) | 2016-10-13 |
US9868211B2 (en) | 2018-01-16 |
JP2020126691A (ja) | 2020-08-20 |
US11465284B2 (en) | 2022-10-11 |
JP2016201095A (ja) | 2016-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN205458451U (zh) | 机器人 | |
US12038756B2 (en) | Intelligent cleaning robot | |
CN205247205U (zh) | 自主机器人 | |
US20180114064A1 (en) | Systems and Methods for Capturing Images and Annotating the Captured Images with Information | |
JP7025532B2 (ja) | 衝突の検出、推定、および回避 | |
CN110393482A (zh) | 地图处理方法以及清洁机器人 | |
JP2022504039A (ja) | 地形を意識したステッププランニングシステム | |
JP2018513566A (ja) | 少なくとも1つの対象物の光学的検出のための検出器 | |
CN107945233A (zh) | 视觉扫地机器人及其回充方法 | |
CN107427177A (zh) | 清洁机器人及其控制方法 | |
Zhang et al. | An indoor navigation aid for the visually impaired | |
KR102190743B1 (ko) | 로봇과 인터랙션하는 증강현실 서비스 제공 장치 및 방법 | |
CN110412993A (zh) | 自主充电的方法以及移动机器人 | |
WO2019202878A1 (en) | Recording medium, information processing apparatus, and information processing method | |
CN116423475A (zh) | 用于机器人导航、示教和建图的系统和方法 | |
da Silva | Perception and software architecture for mobile robotics | |
Muñoz Salinas | Soft-computing and computer vision techniques applied to autonomous robot navigation and human-robot interaction | |
Hoffmann | Reactive probabilistic belief modeling for mobile robots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |