CN110023866B - 用于自主导航中的动态路线规划的系统和方法 - Google Patents
用于自主导航中的动态路线规划的系统和方法 Download PDFInfo
- Publication number
- CN110023866B CN110023866B CN201780074759.6A CN201780074759A CN110023866B CN 110023866 B CN110023866 B CN 110023866B CN 201780074759 A CN201780074759 A CN 201780074759A CN 110023866 B CN110023866 B CN 110023866B
- Authority
- CN
- China
- Prior art keywords
- route
- robot
- pose
- points
- poses
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 238000003860 storage Methods 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 description 42
- 238000004891 communication Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 238000004140 cleaning Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 11
- 239000000463 material Substances 0.000 description 10
- 238000013519 translation Methods 0.000 description 10
- 230000014616 translation Effects 0.000 description 10
- 230000000272 proprioceptive effect Effects 0.000 description 9
- 230000009471 action Effects 0.000 description 8
- 238000005259 measurement Methods 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 5
- 230000001413 cellular effect Effects 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000013478 data encryption standard Methods 0.000 description 3
- 238000006073 displacement reaction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 241001417527 Pempheridae Species 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 235000006719 Cassia obtusifolia Nutrition 0.000 description 1
- 235000014552 Cassia tora Nutrition 0.000 description 1
- 244000201986 Cassia tora Species 0.000 description 1
- 208000015976 Corneal dystrophy-perceptive deafness syndrome Diseases 0.000 description 1
- 241001061257 Emmelichthyidae Species 0.000 description 1
- 241001061260 Emmelichthys struhsakeri Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241001112258 Moca Species 0.000 description 1
- 230000001364 causal effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- GVVPGTZRZFNKDS-JXMROGBWSA-N geranyl diphosphate Chemical compound CC(C)=CCC\C(C)=C\CO[P@](O)(=O)OP(O)(O)=O GVVPGTZRZFNKDS-JXMROGBWSA-N 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229910052573 porcelain Inorganic materials 0.000 description 1
- 230000001846 repelling effect Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4011—Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L11/00—Machines for cleaning floors, carpets, furniture, walls, or wall coverings
- A47L11/40—Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
- A47L11/4061—Steering means; Means for avoiding obstacles; Details related to the place where the driver is accommodated
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
- G01C21/3415—Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/3407—Route searching; Route guidance specially adapted for specific applications
- G01C21/343—Calculating itineraries, i.e. routes leading from a starting point to a series of categorical destinations using a global route restraint, round trips, touristic trips
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0217—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with energy consumption, time reduction or distance reduction criteria
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L2201/00—Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
- A47L2201/04—Automatic control of the travelling movement; Automatic obstacle detection
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Game Theory and Decision Science (AREA)
- Medical Informatics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
公开用于自主导航中的动态路线规划的系统和方法。在一些示例性实施方案中,机器人可以具有一个或多个传感器,所述传感器配置成收集关于环境的数据,包含关于所述环境中的一个或多个物体上的检测点的数据。接着,所述机器人能够规划所述环境中的路线,其中所述路线可以包括一个或多个路线位姿。所述路线位姿可以包含至少部分地指示所述机器人沿着所述路线的位姿、大小和形状的印迹。每个路线位姿中可以具有多个点。基于由其它路线位姿、所述环境中的物体等等施加在每个路线位姿的所述点上的力,每个路线位姿能够重新定位。至少部分地基于对所述路线位姿(其中的一些可能已经重新定位)执行的内插,所述机器人能够动态选路。
Description
优先权
本申请要求2016年11月2日提交的具有相同标题的共同拥有且共同未决的美国专利申请第15/341,612号的优先权,所述申请的内容以全文引用的方式并入本文中。
版权
此专利文献的一部分公开内容包含受版权保护的材料。此专利文献的一部分公开内容包含受版权保护的材料。版权所有者不反对任何人对此专利文献或专利公开内容进行传真复制,因为它出现在专利和商标局的专利文件或记录中,但是在其它方面保留所有版权。
技术领域
本申请大体上涉及机器人技术,且更具体来说,涉及用于自主导航中的动态路线规划的系统和方法。
背景技术
机器人导航可能是一个复杂的问题。在一些情况下,机器人可以确定行进路线。举例来说,机器人可以学习用户演示的路线(例如,用户可以沿着路线控制机器人和/或可以上载含有路线的地图)。作为另一个例子,机器人可以基于它对环境的了解(例如,地图)规划它自己在环境中的路线。然而,可能出现的挑战是机器人确定路线之后,环境的特征可能会改变。例如,物品可能会掉落到路线的路径中,和/或环境的一些部分可能会改变。当前机器人可能无法响应于这些改变(例如,堵塞)而对它的规划路径进行实时调整。在此类情形中,当前机器人可能会停止、碰撞到物体,和/或对其路线进行次优调整。因此,需要改进用于自主导航的系统和方法,包含用于动态路线规划的系统和方法。
发明内容
本公开满足上述需要,它特别提供了用于自主导航中的动态路线规划的设备和方法。本文中所描述的实例实施方案具有创新特征,其中每一个创新特征都不是必不可少的或仅负责其期望属性。在不限制权利要求的范围的情况下,现在将概述一些有利特征。
在第一方面,公开一种机器人。在一个示例性实施方案中,机器人包含:一个或多个传感器,其配置成收集关于环境的数据,包含关于环境中的一个或多个物体上的检测点的数据;以及控制器,其配置成:至少部分地基于收集到的数据形成环境的地图;在地图中确定机器人将行进的路线;生成路线上的一个或多个路线位姿,其中每个路线位姿包括指示机器人沿着路线的位姿的印迹,且每个路线位姿中安置有多个点;确定每个路线位姿的多个点中的每一个上的力,所述力包括来自一个或多个物体上的一个或多个检测点的排斥力和来自一个或多个路线位姿中的其它路线位姿上的多个点中的一个或多个的吸引力;响应于一个或多个路线位姿的每个点上的力而重新定位一个或多个路线位姿;以及在一个或多个路线位姿之间执行内插以在一个或多个路线位姿之间生成供机器人行进的无碰撞路径。
在一个变化形式中,一个或多个路线位姿形成机器人沿着路线行进的序列;且内插包括在一个或多个路线位姿中的连续路线位姿之间的线性内插。
在另一变化形式中,内插生成具有大体上类似于每个路线位姿的印迹的印迹的一个或多个内插路线位姿。在另一变化形式中,确定一个或多个路线位姿的每个点上的力另外包括计算至少部分地使每个路线位姿的每个点上的力与环境中的物体的一个或多个特性相关联的力函数。
在另一变化形式中,一个或多个特性包含距离、形状、材料和颜色中的一个或多个。在另一变化形式中,力函数关联第一物体上的第一检测点所施加的零排斥力,其中第一点和第一路线位姿的第二点之间的距离高于预定距离阈值。
在另一变化形式中,每个路线位姿的印迹具有与机器人的印迹大体上类似的大小和形状。
在另一变化形式中,机器人包括地板清洁器。
在第二方面中,公开一种用于机器人的动态导航的方法。在一个示例性实施方案中,方法包含:使用来自一个或多个传感器的数据生成环境的地图;在地图上确定路线,所述路线包含一个或多个路线位姿,每个路线位姿包括至少部分地指示机器人沿着路线的位姿和形状的印迹,且每个路线位姿中安置有多个点;计算环境中的物体上的点对一个或多个路线位姿中的第一路线位姿的多个点的排斥力;至少响应于排斥力而重新定位第一路线位姿;以及在重新定位的第一路线位姿和一个或多个路线位姿中的另一个路线位姿之间执行内插。
在一个变化形式中,确定从一个或多个路线位姿中的另一个路线位姿上的点施加在第一路线位姿的多个点上的吸引力。在另一变化形式中,利用一个或多个传感器检测环境中的多个物体,所述多个物体中的每一个具有检测点;以及定义力函数,所述力函数计算多个物体的每一个检测点施加在第一路线位姿的多个点上的排斥力,其中每个排斥力是向量。
在另一变化形式中,重新定位第一路线位姿包含计算力函数的最小值。
在另一变化形式中,重新定位第一路线位姿包含平移和旋转第一路线位姿。
在另一变化形式中,内插包含:生成具有大体上类似于机器人的形状的印迹的内插路线位姿;以及至少基于经过平移和旋转的第一路线位姿和一个或多个路线位姿中的另一个路线位姿之间的无碰撞路径,确定内插路线位姿的平移和旋转。
在另一变化形式中,方法另外包括在物体上的点在第一路线位姿的印迹外部的情况下,将排斥力的量值计算为与物体上的点和第一路线位姿的多个点中的每一个之间的距离成正比。
在另一变化形式中,在物体上的点在第一路线位姿的印迹内部的情况下,将排斥力的量值计算为与物体上的点和第一路线位姿的多个点中的每一个之间的距离成反比。
在另一变化形式中,方法另外包含计算由于排斥力而施加到第一路线位姿的多个点上的扭力。
在第三方面中,公开一种非暂时性计算机可读存储设备。在一个实施例中,非暂时性计算机可读存储设备上存储有多个指令,所述指令可由处理设备执行以操作机器人。所述指令配置成在由处理设备执行时使处理设备进行以下操作:使用来自一个或多个传感器的数据生成环境的地图;在地图上确定路线,所述路线包含一个或多个路线位姿,每个路线位姿包括至少部分地指示机器人沿着路线的位姿和形状的印迹,且每个路线位姿中安置有多个点;以及计算环境中的物体上的点对一个或多个路线位姿中的第一路线位姿的多个点的排斥力。
在一个变化形式中,所述指令在由处理设备执行时另外使处理设备确定从一个或多个路线位姿中的另一个路线位姿上的点施加在第一路线位姿的多个点上的吸引力。
在另一变化形式中,所述指令在由处理设备执行时另外使处理设备确定从一个或多个路线位姿中的另一个路线位姿上的点施加在第一路线位姿的多个点上的扭力。
本公开的这些和其它目的、特征和特性,以及结构的相关元件的操作方法和功能以及部件的组合和制造经济性将在参考附图考虑以下描述和所附权利要求时变得显而易见,所有这些均形成本说明书的一部分,其中相同的附图标记表示各附图中的对应部分。然而,应该清楚地理解,附图仅用于说明和描述的目的,并不旨在作为本公开的限制的定义。如说明书和权利要求书中所使用的那样,除非上下文另有明确规定,否则单数形式的“一个/一种”、“所述”包含复数指示物。
附图说明
将在下文中结合附图来描述所公开的方面,提供附图是为了说明而不是限制所公开的方面,其中相同符号表示相同元件。
图1说明根据本公开的原理的机器人的示例性主体形式的各个侧面视图。
图2A是根据本公开的一些实施方案的机器人沿着路径行走的俯视图的图。
图2B说明用户在机器人在环境中沿着路线自主行进之前向机器人演示路线的俯视图。
图3是根据本公开的一些原理的机器人的功能框图。
图4A是根据本公开的一些实施方案的说明机器人和障碍物之间的交互的俯视图。
图4B是根据本公开的实施方案的全局层、中间层和局部层的图。
图4C是根据本公开的一些实施方案的用于动态路线规划的示例性方法的过程流程图。
图4D说明根据本公开的一些实施方案的路线位姿以及物体所施加的排斥力的俯视图。
图4E说明根据本公开的一些实施方案的示出路线位姿之间的吸引力的俯视图。
图4F说明根据本公开的一些实施方案的路线位姿上的实例点。
图5是根据本公开的一些实施方案的示出路线位姿之间的内插的图的俯视图。
图6是根据本公开的一些实施方案的用于操作机器人的示例性方法的过程流程图。
图7是根据本公开的一些实施方案的用于操作机器人的示例性方法的过程流程图。
具体实施方式
在下文中参考附图更全面地描述了本文公开的新颖系统、设备和方法的各个方面。然而,本公开可以以许多不同的形式表现,并且不应该被解释为限于贯穿本公开内容给出的任何特定结构或功能。相反,提供这些方面是为了使本公开彻底和完整,并且将本公开的范围完全传达给本领域技术人员。基于本文的教导,本领域技术人员应当理解,本公开的范围旨在涵盖本文公开的新颖系统、设备和方法的任何方面,无论是独立于本公开的任何其它方面实施还是与其组合实施。例如,可以使用本文阐述的任何数量的方面来实现设备或者实践方法。另外,本公开的范围旨在涵盖使用其它结构、功能性或补充或不同于本文所阐述的本公开的各个方面的结构和功能性来实践的这种设备或方法。应该理解的是,本文公开的任何方面均可以通过权利要求的一个或多个要素来实现。
尽管本文描述了特定方面,但是这些方面的许多变化和置换在本公开的范围内。尽管提到了优选方面的一些益处和优点,但是本公开的范围并不旨在限于特定的益处、用途和/或目标。详细描述和附图仅是对本公开的说明而不是限制,本公开的范围由所附权利要求及其等同物限定。
本公开提供改进的用于自主导航中的动态路线规划的系统和方法。如本文所使用的,机器人可包含机械实体或虚拟实体,所述机械实体或虚拟实体配置成自动执行一系列复杂的动作。在一些情况下,机器人可以是由计算机程序或电子电路系统引导的机器。在一些情况下,机器人可包含配置用于导航的机电组件,其中机器人可以从一个位置移动到另一个位置。此类导航机器人可包含自动驾驶汽车、地板清洁器、漫游车、无人机、推车等等。
如本文中所提到的,地板清洁器可包含手动控制(例如,驱动或远程控制)和/或自主(例如,几乎不用用户控制)的地板清洁器。例如,地板清洁器可包含清洁工、保管人或其他人操作的地板擦洗器和/或在环境中自主导航和/或清洁的机器人地板擦洗器。类似地,地板清洁器还可包含真空吸尘器、蒸汽机、缓冲器、拖把、抛光机、扫地机、磨光器等。
现在提供对本公开的系统和方法的各种实现方案和变化形式的详细描述。尽管本文所论述的许多实例是在机器人地板清洁器的上下文中,但是应了解,本文所含的所述系统和方法可用于其它机器人。鉴于本公开的内容,本领域普通技术人员将容易地设想本文所述技术的无数其它示例性实施方案或用途。
有利的是,本公开的系统和方法至少:(i)实现自主导航机器人的动态路线规划;(ii)提高在环境中导航的效率,从而可以实现对所用资源(例如,能量、燃料、清洁液等)的改进和/或高效利用;以及(iii)提供可以减少在机器人导航时对处理能力、能量、时间和/或其它资源的消耗的计算效率。鉴于本公开的内容,本领域普通技术人员可以容易地辨别出其它优点。
例如,当前许多可以自主导航的机器人编程成沿着路线和/或路径行走到目标。为了沿着这些路线行走,这些机器人可形成路径规划(例如,全局解决方案)。并且,这些机器人可在它周围的小区域(例如,大约几米)中具有局部计划,其中机器人可以确定它将如何绕过其传感器检测到的障碍物行走(通常是在检测到物体时通过基本命令进行转弯)。接着,机器人可以穿越图案中的空间,并通过例如停止、减速、向左或向右偏转等来避开其传感器检测到的障碍物。然而,在许多当前应用中,此类穿越和避开可能比较复杂,且机器人可能会出现非所要结果(例如,中断或碰撞),和/或无法在更复杂的情形中导航。在一些情况下,此类当前应用还可为计算昂贵的和/或运行缓慢的,使得机器人不能自然运作。
有利的是,使用本文公开的系统和方法,机器人可以偏离它的编程,遵循更高效的路径和/或进行更复杂的调整以避开障碍物。在本文描述的一些实施方案中,此类移动可通过一种更高效、更快速的方式确定,当机器人规划更复杂的路径时,这看起来也更自然。
本领域普通技术人员将理解,如本文中所提到的,机器人可具有数种不同的外观/形式。图1说明根据本公开的原理的机器人的示例性主体形式的各个侧面视图。这些是非限制性实例,意在进一步说明多种主体形式,但并不意在将本文中所描述的机器人限制为任何特定主体形式。例如,主体形式100说明其中机器人是站立式车间真空吸尘器的实例。主体形式102说明其中机器人是具有大体上类似于人体的外观的人形机器人的实例。主体形式104说明其中机器人是具有螺旋桨的无人机的实例。主体形式106说明其中机器人具有带车轮和乘客舱的车辆形状的实例。主体形式108说明其中机器人是漫游机的实例。
主体形式110可以是其中机器人是机动地板擦洗器的实例。主体形式112可以是具有座椅、踏板和方向盘的机动地板擦洗器,其中在主体形式112清洁时,用户可以像车辆那样驾驶主体形式112,但是主体形式112也可以自主操作。另外设想了其它主体形式,包含可以自动化的工业机器,例如叉车、拖船、船、飞机等。
图2A是根据本公开的一些实施方案的机器人202沿着路径206行走的俯视图的图。机器人202可在环境200中自主导航,环境200可包括各种物体208、210、212、218。机器人202可开始于初始位置并结束于结束位置。如所说明,初始位置和结束位置大体上相同,从而示出一个大体上闭合的环路。然而,在其它情况下,初始位置和结束位置可能并不是大体上相同的,从而形成开环。
举例来说,在一些实施方案中,机器人202可以是机器人地板清洁器,例如机器人地板擦洗器、真空吸尘器、蒸汽机、拖把、磨光器、扫地机等等。环境200可以是具有想要清洁的地板的空间。例如,环境200可以是商店、仓库、办公楼、住宅、储存设施等。物体208、210、212、218中的一个或多个可以是货架、显示器、物体、物品、人、动物或可位于地板上或以其它方式阻碍机器人在环境200中导航的能力的任何其它实体或事物。路线206可以是机器人202自主行进的清洁路径。路线206可沿循在物体208、210、212和218之间穿行的路径,如实例路线206所说明。例如,如果物体208、210、212、218是商店里的货架,那么机器人202可以沿着商店的过道前进并清洁过道的地板。然而,还设想了其它路线,例如但不限于沿着开放的地板区域来回穿行的路线和/或用户可以用来清洁地板(例如,在用户手动操作地板清洁器的情况下)的任何清洁路径。在一些情况下,机器人202可多次经过一个部分。因此,路线可自身重叠。因此,路线206仅意图作为说明性实例,且可以与所说明的方式不同的方式呈现。并且,如所说明,示出了环境200的一个实例,但是应了解,环境200可采用任何数目个形式和布置(例如,任何大小、配置和布局的房间或建筑物),且不受本公开的实例图示限制。
在路线206中,机器人202可开始于初始位置,初始位置可以是机器人202的起点。接着,机器人202可以自主沿着路线206进行清洁(例如,几乎不用用户控制),直到它到达结束位置,在那里它可以停止清洁。结束位置可由用户指定和/或由机器人202确定。在一些情况下,结束位置可以是路线206中的某一位置,在这一位置之后,机器人202已经清洁完所需地板区域。如先前描述,路线206可以是闭环或开环。作为说明性实例,结束位置可以是机器人202的存储位置,例如临时停放点、储藏室/壁橱等等。在一些情况下,结束位置可以是训练和/或编程机器人202的任务的用户停止训练和/或编程的点。
在地板清洁器(例如,地板擦洗器、真空清洁器等)的上下文中,机器人202可以在沿着路线206的每个点处进行清洁,也可以不在沿着路线206的每个点处进行清洁。举例来说,如果机器人202是机器人地板擦洗器,那么机器人202的清洁系统(例如,水流、清洁刷等)可以仅在路线206的一些部分中操作,而在路线206的其它部分中不操作。例如,机器人202可使一些动作(例如,转弯、打开/关闭水、喷水、打开/关闭真空吸尘器、移动真空软管方位、挥动臂、抬起/降低升降器、移动传感器、打开/关闭传感器等)与沿着演示路线的特定方位和/或轨迹(例如,当沿着特定方向移动或沿着路线206以特定顺序移动时)相关联。在地板清洁器的上下文中,当地板中仅一些区域要清洁而其它区域不用清洁时和/或在一些轨迹中,此类关联可以是合乎需要的。在这些情况下,机器人202可在用户为机器人202演示要清洁的区域中打开清洁系统,在不用清洁的区域中关闭清洁系统。
图2B说明用户在机器人202在环境200中沿着路线206自主行进之前向机器人202演示路线216的俯视图。在演示路线216时,用户可以在初始位置处启动机器人202。接着,机器人202可以在物体208、210、212、218周围穿行。机器人202可以在结束位置处停止,如先前描述。在一些情况下(且如所说明),自主导航路线206可与演示路线216完全相同。在一些情况下,路线206可能不与路线216完全相同,但是可以大体上类似。例如,当机器人202沿着路线206行走时,机器人202使用它的传感器感测它与它的周围环境的关系。在一些情况下,此类感测可为不精确的,从而可能使得机器人202无法沿着所演示的且机器人202被训练沿循的精确路线行走。在一些情况下,当机器人202沿着路线206自主行走时,环境200的较小改变可能会使机器人202偏离路线216,所述改变例如货架的移动和/或货架上的物品的改变。作为另一实例,如先前描述,机器人202在沿着路线206自主行走时可通过在物体周围转弯、减速等来避开物体。当用户演示路线216时,这些物体可能不存在(且未被避开)。例如,这些物体可能是临时放置和/或暂时性物品,和/或可以是对环境200的暂时性和/或动态改变。作为另一实例,用户可能已经糟糕地演示了路线216。例如,用户可能已经撞到和/或碰到墙壁、货架、物体、障碍物等。作为另一实例,障碍物可能在用户演示路线216时存在,但是当机器人202沿着路线206自主行走时并不存在。在这些情况下,机器人202可在存储器(例如,存储器302)中存储它可以校正的一个或多个动作,例如撞到和/或碰到墙壁、货架、物体、障碍物等。当机器人202之后沿着演示路线216(例如,如路线206)自主行走时,机器人202可以校正此类动作,并且在它自主导航时不执行它们(例如,不撞到和/或碰到墙壁、货架、物体、障碍物等)。通过这种方式,机器人202可以确定沿着例如演示路线的导航路线的至少一部分不进行自主导航。在一些实施方案中,确定沿着导航路线的至少一部分不进行自主导航包含确定何时避开障碍物和/或物体。
如先前所提及,当用户演示路线216时,用户可以打开和关闭机器人202的清洁系统或执行其它动作,以便训练机器人202沿着路线216在何处(例如,在什么方位)和/或沿着什么轨迹进行清洁(随后训练机器人202何时沿着路线206进行自主清洁)。机器人可以在存储器302中记录这些动作,并且之后在自主导航时执行它们。这些动作可包含机器人202可以执行的任何动作,例如转弯、打开/关闭水、喷水、打开/关闭真空吸尘器、移动真空软管位置、挥动手臂、抬起/降低升降机、移动传感器、打开/关闭传感器等。
图3是根据本公开的一些原理的机器人202的功能框图。如图3中所说明,机器人202可包含控制器304、存储器302、用户界面单元308、外感受传感器单元306、本体感受传感器单元310和通信单元312,以及其它组件和子组件(例如,其中的一些可能并未说明)。鉴于本公开的内容,本领域的普通技术人员将容易清楚,尽管在图3中说明了特定实施方案,但是应了解,架构在某些实施方案中可以变化。
控制器304可控制由机器人202执行的各种操作。控制器304可包含一个或多个处理器(例如,微处理器)和其它外围设备。如本文中所使用,处理器、微处理器和/或数字处理器可包含任何类型的数字处理装置,例如但不限于数字信号处理器(“DSP”)、精简指令集计算机(“RISC”)、通用(“CISC”)处理器、微处理器、门阵列(例如,现场可编程门阵列(“FPGA”))、可编程逻辑装置(“PLD”)、可重新配置计算机结构(“RCF”)、阵列处理器、安全微处理器、专用处理器(例如,神经处理器)和专用集成电路(“ASIC”)。此类数字处理器可容纳在单个一体式集成电路裸片上或横跨多个组件分布。
控制器304可以操作方式和/或以通信方式耦合到存储器302。存储器302可包含任何类型的集成电路或配置成存储数字数据的其它存储装置,包含但不限于只读存储器(“ROM”)、随机存取存储器(“RAM”)、非易失性随机存取存储器(“NVRAM”)、可编程只读存储器(“PROM”)、电可擦除可编程只读存储器(“EEPROM”)、动态随机存取存储器(“DRAM”)、移动DRAM、同步DRAM(“SDRAM”)、双倍数据速率SDRAM(“DDR/2SDRAM”)、经扩展数据输出(“EDO”)RAM、快页模式RAM(“FPM”)、减小时延DRAM(“RLDRAM”)、静态RAM(“SRAM”)、快闪存储器(例如,NAND/NOR)、忆阻器存储器、伪静态RAM(“PSRAM”)等。存储器302可向控制器304提供指令和数据。例如,存储器302可以是其上存储有多个指令的非暂时性计算机可读存储介质,所述指令可由处理设备(例如,控制器304)执行以操作机器人202。在一些情况下,指令可配置成在由处理设备执行时使处理设备执行本公开中描述的各种方法、特征和/或功能性。因此,控制器304可基于存储在存储器302内的程序指令来执行逻辑和算术运算。
在一些实施方案中,外感受传感器单元306可包括可以检测机器人202内和/或机器人202周围的特性的系统和/或方法。外感受传感器单元306可包括多个传感器和/或传感器的组合。外感受传感器单元306可包含在机器人202内部或外部的传感器,和/或具有部分在内部和/或部分在外部的组件。在一些情况下,外感受传感器单元306可包含外感受传感器,例如声纳、LIDAR、雷达、激光器、相机(包含摄像机、红外相机、3D相机等)、飞行时间(“TOF”)相机、天线、麦克风和/或本领域中已知的任何其它传感器。在一些实施方案中,外感受传感器单元306可收集原始测量结果(例如,电流、电压、电阻、门逻辑等)和/或变换后的测量结果(例如,距离、角度、障碍物中的检测点等)。外感受传感器单元306可至少部分地基于测量结果而生成数据。此类数据可以数据结构形式存储,例如矩阵、阵列等。在一些实施方案中,传感器数据的数据结构可以被称作图像。
在一些实施方案中,本体感受传感器单元310可包含可测量机器人202的内部特性的传感器。例如,本体感受传感器单元310可测量机器人202的温度、功率电平、状态和/或任何其它特性。在一些情况下,本体感受传感器单元310可配置成确定机器人202的里程。例如,本体感受传感器单元310可包含本体感受传感器单元310,其可包括传感器,例如加速度计、惯性测量单元(“IMU”)、里程计、陀螺仪、速度计、相机(例如,使用视觉里程计)、时钟/定时器等等。里程计有助于机器人202的自主导航。此里程计可包含机器人202相对于初始位置的方位(例如,其中方位包含机器人的位置、移位和/或定向,并且有时可与如本文所使用的术语位姿互换)。在一些实施方案中,本体感受传感器单元310可收集原始测量结果(例如,电流、电压、电阻、门逻辑等)和/或变换后的测量结果(例如,距离、角度、障碍物中的检测点等)。此类数据可以数据结构形式存储,例如矩阵、阵列等。在一些实施方案中,传感器数据的数据结构可以被称作图像。
在一些实施方案中,用户界面单元308可配置成使得用户能够与机器人202交互。例如,用户界面308可包含触控面板、按钮、小键盘/键盘、端口(例如,通用串行总线(“USB”)、数字视频接口(“DVI”)、显示器端口、E-Sata、Firewire、PS/2、串行、VGA、SCSI、音频端口、高清多媒体接口(“HDMI”)、个人计算机内存卡国际协会(“PCMCIA”)端口、存储卡端口(例如,安全数字(“SD”)和miniSD)和/或计算机可读媒体的端口)、鼠标、滚球、控制台、振动器、音频转换器和/或供用户输入和/或接收数据和/或命令的任何界面,不管是以无线方式耦合还是通过电线耦合。用户界面单元308可包含显示器,例如但不限于液晶显示器(“LCD”)、发光二极管(“LED”)显示器、LED LCD显示器、平面内切换(“IPS”)显示器、阴极射线管、等离子显示器、高清(“HD”)面板、4K显示器、视网膜显示器、有机LED显示器、触摸屏、表面、画布和/或任何显示器、电视、监视器、面板和/或本领域中已知的用于视觉呈现的装置。在一些实施方案中,用户界面单元308可定位在机器人202的主体上。在一些实施方案中,用户界面单元308可定位成远离机器人202的主体,但是可以通信方式(例如,通过通信单元,包含传输器、接收器和/或收发器)直接或间接(例如,通过网络、服务器和/或云)耦合到机器人202。
在一些实施方案中,通信单元312可包含一个或多个接收器、传输器和/或收发器。通信单元312可配置成发送/接收传输协议,例如Wi-Fi、感应无线数据传输、射频、无线电传输、射频标识(“RFID”)、近场通信(“NFC”)、红外、网络接口、例如3G(3GPP/3GPP2)的蜂窝技术、高速下行链路包接入(“HSDPA”)、高速上行链路包接入(“HSUPA”)、时分多址(“TDMA”)、码分多址(“CDMA”)(例如,IS-95A、宽带码分多址(“WCDMA”)等)、跳频扩频(“FHSS”)、直接序列扩频(“DSSS”)、全球移动通信系统(“GSM”)、个人局域网(“PAN”)(例如,PAN/802.15)、全球微波接入互操作性(“WiMAX”)、802.20、长期演进(“LTE”)(例如,LTE/LTE-A)、时分LTE(“TD-LTE”)、全球移动通信系统(“GSM”)、窄带/频分多址(“FDMA”)、正交频分复用(“OFDM”)、模拟蜂窝、蜂窝数字包数据(“CDPD”)、卫星系统、毫米波或微波系统、声学、红外(例如,红外数据协会(“IrDA”)),和/或任何其它形式的无线数据传输。
如本文中所使用,网络接口可包含具有组件、网络或过程的任何信号、数据或软件接口,包含但不限于那些火线(例如,FW400、FW800、FWS800T、FWS1600、FWS3200等)、通用串行总线(“USB”)(例如,USB 1.X、USB 2.0、USB 3.0、USB C型等)、以太网(例如,10/100、10/100/1000(千兆以太网)、10-Gig-E等)、同轴电缆多媒体联盟技术(“MoCA”)、Coaxsys(例如,TVNETTM)、射频调谐器(例如,带内或OOB、电缆调制解调器等)、Wi-Fi(802.11)、WiMAX(例如,WiMAX(802.16))、PAN(例如,PAN/802.15)、蜂窝(例如,3G、LTE/LTE-A/TD-LTE/TD-LTE、GSM等)、IrDA系列等。如本文中所使用,Wi-Fi可包含以下中的一个或多个:IEEE-Std.802.11、IEEE-Std.802.11的变化形式、与IEEE-Std.802.11相关的标准(例如,802.11a/b/g/n/ac/ad/af/ah/ai/aj/aq/ax/ay),和/或其它无线标准。
通信单元312还可配置成通过有线连接发送/接收传输协议,所述有线连接例如具有信号线路和接地的任何电缆。例如,此类电缆可包含以太网电缆、同轴电缆、通用串行总线(“USB”)、火线和/或本领域中已知的任何连接。此类协议可供通信单元312使用以与外部系统通信,例如计算机、智能电话、平板电脑、数据捕获系统、移动电信网络、云、服务器等等。通信单元312可配置成发送和接收信号,所述信号包括数字、字母、字母数字字符和/或符号。在一些情况下,信号可以使用例如128位或256位密钥的算法和/或遵守各标准的其它加密算法进行加密,所述标准例如高级加密标准(“AES”)、RSA、数据加密标准(“DES”)、三重DES等等。通信单元312可配置成发送和接收状态、命令和其它数据/信息。例如,通信单元312可与用户操作者通信以允许用户控制机器人202。通信单元312可与服务器/网络通信,以便允许机器人202向服务器发送数据、状态、命令和其它通信。服务器还可以通信方式耦合到可用于远程监测和/或控制机器人202的计算机和/或装置。通信单元312还可从机器人202的服务器接收更新(例如,固件或数据更新)、数据、状态、命令和其它通信。
在一些实施方案中,组件和/或子组件中的一个可从机器人202远程实例化。例如,绘图和定位单元262可通过通信单元312定位在云中和/或连接到机器人202。连接可以是直接的和/或通过服务器和/或网络。因此,本公开的功能性的实施方案还应该被理解为包含远程交互,其中数据可以使用通信单元312传送,且过程的一个或多个部分可以远程完成。
图4A是根据本公开的一些实施方案的说明机器人202和障碍物402之间的交互的俯视图。在沿着路线216行走时,机器人202可能会遇到障碍物402。障碍物402可阻碍机器人202的路径,所述路径被说明为路线部分404。如果机器人要继续沿循路线部分404,那么它可能会碰撞到障碍物402。然而,在一些情况下,使用外感受传感器单元306和/或本体感受传感器单元310,机器人202可以在碰撞到障碍物402之前停止。
与障碍物402的这一交互说明了根据本公开的实施方案的优点。图4B是根据本公开的实施方案的全局层406、中间层408和局部层410的图。全局层406、中间层408和局部层410可以是在存储器302和/或控制器304中的一个或多个中实例化的硬件和/或软件层。全局层406可包含实施全局绘图和选路的软件和/或硬件。例如,高级绘图可包含环境200的地图。地图还可包含路线216的表示,其允许机器人202在环境200中的空间中导航。
在一些实施方案中,全局层406可包含全局规划器。通过这种方式,全局层406可确定以下中的一个或多个:机器人202的位置(例如,呈例如二维坐标、三维坐标、四维坐标等全局坐标形式);机器人202应该采用以到达它的目标的路径;和/或较高级(例如,远程)规划。通过这种方式,机器人202可确定它从一个位置行进到另一位置的一般路径和/或方向。
局部层410包含实施局部规划的软件和/或硬件。例如,局部层410可包含配置成操纵局部运动约束的短程规划。局部层410可处理从外感受传感器单元306接收的数据,并确定靠近机器人202的障碍物和/或物体的存在和/或定位。例如,如果物体在外感受传感器单元306的传感器(例如,LIDAR、声纳、相机等)的范围内,那么机器人202可检测到物体。局部层410可计算和/或控制在物体周围行走的运动功能,例如通过控制致动器转弯、向前移动、反向移动等。在一些情况下,局部层410中的处理可以是计算密集的。例如,局部层410可从外感受传感器单元306和/或本体感受传感器单元310的传感器接收数据。接着,局部层410可确定运动功能,以避开外感受传感器单元306检测到的物体(例如,使用电机向左和向右转动驾驶杆,和/或使用电机向前推动机器人)。局部层410和全局层406的相互作用可允许机器人202进行局部调整,同时仍然大体上沿着路线移动到它的目标。
然而,在一些情况下,可能需要以比通过全局层406计算的水平更高的水平进行调整,但不是以局部层410的精确运动功能的计算密集水平进行调整。因此,中间层408可包含在机器人202绕过物体行走时可确定机器人202的中间调整的硬件和/或软件。
在中间层408中,机器人202可规划如何在其环境中避开物体和/或障碍物。在一些情况下,中间层408可以利用全局层406的全局路径规划器初始化为至少具有局部路径和/或路线。
因为物体(例如,障碍物、墙壁等)具有机器人202可能会碰撞到的事物,所以物体和/或障碍物可能会对机器人202产生排斥力。在一些情况下,通过物体排斥机器人202,机器人202可以沿着无碰撞路径绕过那些物体和/或障碍物行走。
图4C是根据本公开的一些实施方案的用于动态路线规划的示例性方法450的过程流程图。在一些实施方案中,方法450可由中间层408和/或由控制器304执行。框452可包含获得含有一个或多个路线位姿的路线。在一些情况下,此路线可由机器人202形成和/或上载到机器人202上。在一些情况下,路线可从全局层406传递到中间层408。框454可包含选择第一路线位姿。框456可包含针对第一路线位姿,确定来自环境中的物体的排斥力。框458可包含针对第一路线位姿,确定来自其它路线位姿的吸引力。框460可包含确定由排斥力和吸引力所致的第一路线位姿的平移和/或旋转。框462可包含考虑到经过平移和/或旋转的路线位姿而执行内插。将贯穿本公开说明这个过程和其它过程。
举例来说,图4D说明根据本公开的一些实施方案的路线位姿414和416。以及物体所施加的排斥力。例如,路线上的点可以是沿着路径的分散位置,例如路线位姿,它说明机器人202在其整个路线中的位姿。在一些情况下,此类分散位置还可具有相关联的概率,例如粒子或气泡。路线位姿可识别机器人202将沿着路线行进的方位和/或定向。在平面应用中,路线位姿可包含(x,y,θ)坐标。在一些情况下,θ可以是平面中机器人的前进方向。路线位姿可以沿着机器人202的路线规则地或不规则地间隔开。在一些情况下,中间层可从全局层406获得含有一个或多个路线位姿的路线,如方法450的框452中所描述。在一些实施方案中,路线位姿可形成序列,其中机器人202沿着路线在连续路线位姿之间行进。例如,路线位姿414和416可为机器人202行进到路线位姿414然后行进到路线位姿416的路线位姿序列。
举例来说,路线位姿414和416说明沿着路线部分404的分散位置。此说明性实例示出形状像机器人202一样的具有大体上类似的印迹的路线位姿414和416。路线位姿414和416的印迹的大小可依据人们预期机器人碰撞的保守程度进行调整。碰撞的可能性越高,可存在越小的印迹,但是此类更小的印迹可允许机器人202远离比它在自主导航时应该能够远离的区域更多的区域。较大的印迹可降低碰撞的可能性,但是机器人202将无法自主通过它原本能够通过的一些地方。印迹可以通过设置机器人202的印迹大小(例如,尺寸)的印迹参数预定,如路线位姿(例如,路线位姿414和416)中所说明。在一些情况下,可存在多个不对称地控制机器人202的路线位姿的大小的印迹参数。
在图4D中,尽管说明和描述了路线位姿414和416,但是本领的普通技术人员应了解,在整个路线中可存在任何数目个路线位姿,且本公开的实施方案的描述可适用于那些路线位姿。有利的是,使路线位姿414和416的形状类似于机器人202(例如,机器人202的印迹)可使得机器人202能够确定它在行进时能够适合的地方。印迹参数可用于调整机器人202如何投射自身。例如,用于路线位姿414和/或416的较大印迹可为更加保守的,因为它可至少部分地致使机器人202行进得更加远离物体。相比之下,更小的印迹可至少部分地致使机器人202行进得更接近物体。路线位姿(例如,路线位姿414和416)可具有彼此不同的大小。举例来说,可能需要机器人202在某些情形中更加保守,例如在转弯处。因此,在此图示中,路线位姿在转弯处的印迹可以大于路线位姿在直路上的印迹。路线位姿的这种动态重整形可通过使路线位姿的大小取决于路线位姿相对于其它路线位姿的旋转或路线位姿的平移和/或旋转的改变来执行。路线上的路线位姿中的一个或多个(例如,路线位姿414和/或416)还可以是除机器人202的形状以外的不同形状。例如,路线位姿可以是圆形的、方形的、三角形的和/或任何其它形状。
如方法450的框454中所描述,可将路线位姿414或416视为第一路线位姿。然而,出于说明的目的,且为了说明本公开的所述实施方案的广度,路线位姿414和416将一起描述。
沿着物体的点(例如,通过绘图、通过由外感受传感器单元306的传感器检测等确定的点)可向机器人202的路线位姿(例如,路线位姿414和416)施加排斥力。通过这种方式,物体可在概念上防止机器人202碰撞到它们。在一些情况下,这些点可至少部分地表示位姿和/或多组位姿。例如,箭头412说明来自沿着物体210的点的排斥力。
在一些实施方案中,通过物体的点施加的力可以是均匀的,因为路线位姿414和416上的每个点上可具有大体上类似的力施加。然而,在其它实施方案中,物体的点施加在路线位姿414和416上的力可能并不是均匀的,并且可基于力函数而变化。
举例来说,在一些情况下,力函数(例如,排斥力函数)可至少部分地确定物体施加在路线位姿414或416上的点上的排斥力。例如,在方法450的框456中,可使用力函数确定来自环境中的物体针对第一路线位姿(例如,路线位姿414和416的第一路线位姿)的排斥力。在一些实施方案中,力函数可取决于物体相对于路线位姿414和416呈现的特性。接着,力函数可表示路线位姿414和416上的点(例如,在路线位姿414和416的表面上的一个或多个点、路线位姿414和416的中心、路线位姿414和416的质量中心,和/或路线位姿414和416的任一点和/或其周围的任一点)所经受的力。因为力可取决于它们的方向和量值,所以排斥力(和/或吸引力)可以是向量。在一些情况下,排斥力可向路线位姿施加旋转力,这可显示为扭力。
例如,排斥力和扭力可在沿着路径的n个不同位姿处计算。在一些情况下,这n个不同位姿可与路线位姿相关联。每个位姿可由印迹中的m个点组成。在一些情况下,这m个点可以是路线位姿上的点。
在一些情况下,多个点可限定机器人202的主体,如路线位姿414和416中所反映,从而提供对机器人202的一部分主体和/或机器人202的大体上整个主体的代表性覆盖。例如,15到20个点可以分布在机器人202的整个表面和/或内部中,并在路线位姿414和416中反映。然而,在一些情况下,可存在更少的点。图4F说明路线位姿414上的实例点,例如点418。每个点可至少部分地经受由路线位姿414的周围环境中的物体施加在它上面的力(例如,排斥力)。
有利的是,通过在路线位姿414和416的主体上具有可经受力的多个点,路线位姿414和416的点可相对于彼此平移和/或旋转,从而至少部分地使得路线位姿414和416重新定位(例如,平移和/或旋转)。路线位姿414和416的这些平移和/或旋转可导致机器人202的导航路线变形。
当路线位姿上的不同点经受不同量值和方向的力时,可出现扭力。因此,扭力可致使路线位姿旋转。在一些情况下,预定参数可至少部分地限定路线位姿414和416所经受的扭力。例如,预定扭力参数可包含针对路线位姿414或416上的点所经受的旋转力的乘数。此预定扭力参数可指示由路线位姿414或416和路径的未对准所致的力。在一些情况下,预定扭力参数可基于力是排斥性的还是内聚性的而变化。
返回到图4D,力函数所部分依据的特性可以是物体上的点相对于路线位姿414和416的方位。距离可至少部分地基于外感受传感器单元306的传感器而确定。作为第一实例,从在机器人202外部(例如,不在路线位姿414和416的印迹内,例如障碍物210和212上的点,如所说明)的物体上的点施加到路线位姿414和416上的排斥力可至少部分地由函数r(d)∝1/d表征,其中r是物体上的点的排斥力,d是物体上的点和路线位姿414或路线位姿416上的点之间的距离。通过这种方式,物体上的点的排斥力与物体上的点和路线位姿414或路线位姿416上的点之间的距离成反比。有利的是,相比于更远的物体,此函数允许接近路线位姿414和416的物体施加更大的排斥力,从而可能更强烈地影响机器人202的路线以免碰撞。
在一些情况下,预定排斥距离阈值可为路线位姿414和路线位姿416上的点和物体上的点之间的距离。此预定排斥性距离阈值可至少部分地指示路线位姿414或路线位姿416上的点和物体上的点之间的最大距离,其中物体上的点可对路线位姿414或416上的点施加排斥力(和/或扭力)。因此,当物体上的点例如与路线位姿414或路线位姿416上的点相隔的距离高于(或等于和/或高于,这取决于阈值的定义)阈值时,排斥力和/或扭力可为零或大体上为零。有利的是,在一些情况下,具有预定排斥性距离阈值可防止物体上的一些点对路线位姿414和416上的点施加力。通过这种方式,当存在预定排斥距离时,机器人202可以更接近某些物体和/或不受更远物体的影响。
作为第二实例,从在路线位姿414和416的内部(例如,在路线位姿414和416的印迹内))的点向路线位姿414和416施加排斥力。例如,物体402具有在路线位姿416内部出现的部分420。在这些情况下,可通过部分420中的物体402的点将不同力函数施加到部分420中的路线位姿416的点上。在一些实施方案中,这个力可至少部分地由函数r(d)∝d表征,其中变量如上文所描述。有利的是,通过针对内部物体限定不同的力函数,路线位姿416可不对称地移动,从而产生旋转。
在一些实施方案中,力函数还可取决于物体的其它特性,例如物体的形状、材料、颜色和/或任何其它特性。这些特性可根据本领域中已知的方法通过外感受传感器306中的一个或多个传感器确定。有利的是,考虑到特性可另外表明机器人202应该如何绕过物体行走。在一些情况下,基于这些特性,可使用成本地图来计算额外排斥力值。
例如,物体的形状可至少部分地指示相关联的碰撞影响。举例来说,人形形状可以指示人。因而,检测到具有此形状的物体可对路线位姿414和416产生更大的排斥力,以便将路径推动得更远离人形形状。作为另一实例,如果出现碰撞,那么物体的形状可部分地指示增加的损坏(例如,针对物体或机器人202)。举例来说,尖头物体、瘦削物体、不规则物体、预定形状(例如,花瓶、灯、显示器等)和/或任何其它形状可至少部分地指示产生了增加的损坏。大小可为可以考虑的另一形状特性。例如,较小的物体在碰撞的情况下可能更易碎,而较大的物体可对机器人202造成更大损坏。在大小的情况下,力函数可考虑物体的大小,使得那些物体上的点视需要成比例地排斥路线位姿414和416上的点。举例来说,如果路线位姿414在较大物体和较小物体之间,如果较大物体的点具有如至少部分地基于力函数所限定的相对较大排斥力,那么路线位姿414将被推动得相对更接近较小物体。如果较小物体的点具有如至少部分地基于力函数所限定的相对较大排斥力,那么路线位姿414将被推动得相对更接近较大物体。因此,对路线位姿414和416的排斥力可至少部分地基于形状进行调整。形状可至少部分地通过外感受传感器单元306的传感器检测。作为另一说明性实例,可以在成本地图中识别墙壁,并且排斥力可因为墙壁的大小和形状而与墙壁相关联。
在一些实施方案中,力函数还可取决于物体的材料。例如,如果出现碰撞,那么某些材料可至少部分地指示更多损坏。举例来说,玻璃、瓷、镜子和/或其它易碎材料可证明在发生碰撞的情况下更易损坏。在一些情况下,例如在镜子的情况下,材料有时会引起外感受传感器单元306的传感器出现误差。因此,在一些情况下,可能需要将机器人202导航成离这些物体更远,这可在力函数中反映(例如,相较于其它材料,增大由一些材料制成的物体上的点施加的排斥力力)。
在一些实施方案中,可通过外感受传感器单元306的传感器检测颜色。力函数可至少部分地取决于物体和/或物体上的点的颜色。例如,环境中的特定物体可能具有特定颜色(例如,红色、黄色等),以至少部分地指示机器人202(或在一些情况下,人们)应该小心对待那些物体。因此,在一些情况下,可能需要将机器人202导航成离这些物体更远,这可在力函数中反映。
在一些实施方案中,力函数可取决于其它因素,例如物体的位置。例如,(例如,如从全局层406传递的)地图的某些区域可具有特性。举例来说,地图(例如,成本地图)的一些区域可以是机器人202不应通过的区域。还可能存在机器人202无法进入的地方,因为这些地方无法进入(例如进入物体中)。因此,在一些情况下,力函数可在考虑到这些地方的情况下调整。在一些实施方案中,力函数可使那些地方中的点不向路线位姿414和416上的点施加力(或大体上不施加力)。有利的是,没有力可反映机器人202无法前往的区域(例如,物体内部等等)。相比之下,在一些实施方案中,这些地方可被视为障碍物,从而向路线位姿414和416施加排斥力。有利的是,具有此类排斥力可阻止机器人202试图进入此类区域。
在一些实施方案中,并非路线位姿414和416上的所有力都是排斥性的。例如,路线位姿(例如,路线位姿414和416)上的点可施加吸引(例如,内聚)力,这可至少部分地将路线位姿拉向彼此。图4E说明根据本公开的一些实施方案的路线位姿414和416之间的吸引力。箭头至少部分地指示路线位姿沿着路线部分404被拉向彼此。有利的是,路线位姿之间的内聚力可至少部分地使机器人202沿循大体上类似于全局层406所规划的路径的路径(例如,大体上类似于原始路线的路线,例如在不存在要绕开行走的物体的情况下机器人202应该沿循的最初演示路线)。
内聚力可通过力函数(例如,内聚力函数)设置,所述力函数可取决于路径的特性,例如路线位姿/粒子之间的间隔距离、路径的平滑度、对机器人202沿循路径的希望程度等。在一些情况下,内聚力函数可至少部分地基于预定内聚力乘数,其可至少部分地确定将路线位姿拉到一起的力。较低的预定内聚力乘数可减小路线部分404的内聚强度(例如,将路线位姿吸向它的吸力),并且在一些情况下,可能会导致机器人202的行进路径丧失平滑度。在一些情况下,仅连续路线位姿向彼此的点施加内聚力。在其它情况下,所有路线位姿都向彼此施加内聚力。在又其它情况中,一些路线位姿向其它路线位姿施加内聚力。确定哪些路线位姿配置成向彼此施加内聚力可取决于数个因素,这些因素可根据具体情况而变化。例如,如果路线是圆形的,那么可能需要所有路线位姿向彼此施加内聚力以便紧固圆圈。作为另一实例,如果路线是复杂的,那么某些复杂路径可能只需要使连续路线位姿向彼此施加内聚力。此限制可允许机器人202进行更多转弯和/或具有更多可预测结果,因为其它定位路线位姿不会过度地影响它。关于复杂性的前述实例之间的实例可使路线位姿中的一些施加内聚力。作为另一实例,路线位姿的数目也可能是一个因素。如果路线上的大量路线位姿全都对彼此施加内聚力,那么它们可能会产生非预期结果。如果存在更少的路线位姿,那么这可能不是问题,且路线位姿中的所有或一些可以施加力。在一些情况下,可存在预定内聚力距离阈值,其中如果第一路线位姿上的点与第二路线位姿上的点相隔的距离大于预定内聚力距离阈值(或大于等于,这取决于阈值是如何定义的),那么内聚力可为零或大体上为零。
在一些实施方案中,内聚力函数和排斥力函数可以是相同的力函数。在其它实施方案中,内聚力函数和排斥力函数是不同的。根据方法450的框458,内聚力函数可用于确定来自其它路线位姿的吸引力。在一些实施方案中,内聚力和排斥力均可产生路线位姿的扭力(例如,使路线位姿旋转)。
如参考中间层408所描述,路线位姿414和416可经受不同的吸引力和排斥力。在一些实施方案中,力可以阵列形式存储。例如,可存在指示排斥力、扭力、内聚力等的力阵列。
在一些情况下,力可以例如通过使用开/关参数切换,所述开/关参数可打开或关闭来自某个点的任一个力和/或任一组力。例如,开/关参数可以是二进制的,其中一个值打开力,且另一个值关闭力。通过这种方式,一些力可以关闭,例如基于物体与路线位姿相隔的距离,点是否在物体或禁行区域内部,路线位姿之间的距离等等。
为了平衡,路线位姿414和416上的净力可重新定位路线位姿414和416中的一个或多个。例如,路线位姿414和416可进行移位。路线位姿414和416可进行移位(例如,平移和/或旋转),直到它们在任何方向上的净力大体上为零和/或最小化为止。通过这种方式,路线位姿414和416可以移位到至少部分地指示供机器人202行进以避开物体(例如,障碍物402)的调整路线的位置。由排斥力和吸引力所致的路线位姿的平移和/或旋转可根据方法450的框460确定。
可进行不同调整以确定路线位姿414和416的移位。例如,在一些情况下,可以只考虑吸引力,而不是考虑路线位姿414和416上的所有力。有利的是,这种系统可允许机器人202一直沿着固定的路径。至少部分地基于路线位姿414和416的移位,机器人202可为路线规划器设置新路径。在新路径中,当机器人202沿着路径行进时,轨迹可表示机器人202上的点,例如机器人202的中心。
在机器人202确定路线位姿414和416的移位之后,机器人202可确定行进路径。例如,基于路线位姿414和416的方位(例如,位置和/或定向),机器人202可确定从它现在位置行走到路线位姿414和416和/或任何其它路线位姿和/或它们之间的路径。在一些情况下,机器人202将依序在相连(例如,连续)路线位姿之间行进,从而至少部分地限定路径。例如,考虑到机器人202可在那些点之间行进的路径,此确定可至少部分地基于路线位姿之间的内插。在许多情况下,可使用线性内插。根据方法450中的框462,通过使用执行内插,机器人202可以考虑到经过平移和/或旋转的路线位姿。
图5是根据本公开的一些实施方案的示出路线位姿414和416之间的内插的图的俯视图。如本文所描述,基于施加在路线位姿414和416上的力,路线位姿414和416出现移位。如所说明,路线位姿414同时出现平移和旋转。平移可以标准单位和/或相对/非绝对单位来测量,所述标准单位例如英寸、英尺、米或任何其它测量单位(例如,公制、美制或其它测量系统),所述相对/非绝对单位例如滴答计数、像素、传感器的范围的百分比等等。旋转可以度、弧度等为单位来测量。类似地,路线位姿416同样已经平移和/或旋转。值得注意的是,路线位姿414和416均远离障碍物402。因为路线位姿414和416表示沿着机器人202行进的路径的分散位置,所以机器人202可在它们之间内插以确定它应该采取的路径。内插的位姿502A-502D说明在路线位姿414和416之间行进的路径。值得注意的是,机器人202还可内插其它路径(未说明),以移动到路线位姿和/或路线位姿之间。
内插的位姿502A-502D可具有相关联的大体上类似于路线位姿414和416中的一个或多个的印迹的印迹。在一些情况下,如图5中所说明,内插的位姿502A-502D可以是内插的路线位姿。因此,内插的位姿502A-502D可表示机器人202将沿着路线的方位和/或定向。有利的是,这可允许内插的路径将机器人202引导到机器人202适合的地方。此外,可确定内插的位姿502A-502D,使得内插位姿502-502D中的任一个的印迹和物体(例如,障碍物402、物体210或物体212)之间不存在重叠,从而避开碰撞。
还可考虑到从路线位姿414变成路线位姿416的旋转和/或平移而确定内插的位姿502A-502D。例如,机器人202可确定路线位姿414的位姿和路线位姿416的位姿。接着,机器人202可查找路线位姿414和路线位姿416的位姿之间的差异,然后确定如何从路线位姿414的位姿变成路线位姿416的位姿。例如,机器人202可在内插的位姿502A-502D之间分配旋转和平移,使得机器人202将从路线位姿414旋转和平移到路线位姿416。在一些情况下,机器人202可在内插的位姿502A-502D之间大体上相等地分配旋转和平移。例如,如果存在N个内插方位,那么机器人202可在那些N个内插方位中大体上均匀地划分路线位姿414和416的位姿的位置和旋转的差异。可替换地,机器人202可在那些N个内插方位中不均匀地划分路线位姿414和416的位姿的位置和/或旋转的差异。有利的是,均匀划分可允许机器人202从路线位姿414平滑地行进到路线位姿416。然而,不均匀划分可使得机器人202能够通过在一些区域中移动得比其它区域中更加细微而更轻易地顾及到并避开物体。例如,为了避开内插的位姿502A-502D靠近的物体,机器人202将不得不进行急转弯。因此,考虑到所述转弯,可能需要更多围绕所述转弯的内插位姿。在一些情况下,内插方位的数目可以是动态的,且可按需要使用比N个更多或更少的数目个内插方位。
图6是根据本公开的一些实施方案的用于操作机器人的示例性方法600的过程流程图。框602包含至少部分地基于收集到的数据形成环境的地图。框604包含在地图中确定机器人将行进的路线。框606包含生成路线上的一个或多个路线位姿,其中每个路线位姿包括指示机器人沿着路线的位姿的印迹,且每个路线位姿中具有多个点。框608包含确定每个路线位姿的多个点中的每一个上的力,所述力包括来自一个或多个物体上的一个或多个检测点的排斥力和来自一个或多个路线位姿中的其它路线位姿上的多个点中的一个或多个的吸引力。框610包含响应于每个路线位姿的每个点上的力而重新定位每个路线位姿。框612包含在一个或多个重新定位的路线位姿之间执行内插以在一个或多个路线位姿之间生成供机器人行进的无碰撞路径。
图7是根据本公开的一些实施方案的用于操作机器人的示例性方法700的过程流程图。框702包含使用来自一个或多个传感器的数据生成环境的地图。框704包含在地图上确定路线,所述路线包含一个或多个路线位姿,每个路线位姿包括至少部分地指示机器人沿着路线的位姿、大小和形状的印迹,且每个路线位姿中具有多个点。框706包含计算环境中的物体上的点对一个或多个路线位姿中的第一路线位姿的多个点的排斥力。框708包含至少响应于排斥力而重新定位第一路线位姿。框710包含在重新定位的第一路线位姿和一个或多个路线位姿中的另一个路线位姿之间执行内插。
如本文所使用,计算机和/或计算装置可包含但不限于个人计算机(“PC”)和小型计算机,无论是台式计算机、膝上型计算机还是其它,大型计算机、工作站、服务器、个人数字助理(“PDA”)、手持式计算机、嵌入式计算机、可编程逻辑装置、个人通信器、平板计算机、移动装置、便携式导航装置、配备J2ME的装置、蜂窝电话、智能电话、个人集成通信或娱乐装置,和/或任何其它能够执行一组指令并处理输入数据信号的装置。
如本文所使用,计算机程序和/或软件可包含执行功能的任何序列或人或机器可识别的步骤。这样的计算机程序和/或软件可以用任何编程语言或环境来呈现,所述编程语言包含例如C/C++、C#、Fortran、COBOL、MATLABTM、PASCAL、Python、汇编语言、标记语言(例如,HTML、SGML、XML和VoXML)等,以及面向对象的环境,例如公共对象请求代理体系结构(“CORBA”)、JAVATM(包含J2ME、Java Bean等)、二进制运行时环境(例如,BREW)等。
如本文所使用,连接、链路、传输信道、延迟线和/或无线可包含任何两个或更多个实体(无论是物理的还是逻辑的/虚拟的)之间的因果链接,所述链接实现实体之间的信息交换。
将认识到,虽然根据方法的特定步骤顺序描述了本公开的某些方面,但是这些描述仅是本公开的更广泛方法的说明,并且可以根据特定应用的需要进行修改。在某些情况下,某些步骤可能变得不必要或可选。另外,可以将某些步骤或功能性添加到所公开的实施方案,或者改变两个或更多个步骤的执行次序。所有这些变化都被认为涵盖在本文公开和要求保护的公开内容内。
虽然以上详细描述已经示出、描述并指出了应用于各种实施方案的本公开的新颖特征,但是应当理解,在不脱离本公开的情况下,本领域技术人员可以对所示装置或过程的形式和细节进行各种省略、替换和改变。前面的描述是目前设想的实现本公开的最佳模式。该描述绝不意味着限制,而是应当视为对本公开的一般原理的说明。应该参考权利要求确定本公开的范围。
虽然已经在图式和上述描述中详细说明并描述了公开内容,但是此类说明和描述应该视为说明性或示例性的而不是限制性的。本公开不限于所公开的实施例。通过研究附图、公开内容和所附权利要求,本领域技术人员在实践要求保护的公开内容时可以理解和实现所公开实施例的变型。
应当注意,在描述本公开的某些特征或方面时使用特定术语不应被视为暗示本文中重新定义术语以将其限制为包含与该术语相关联的本公开的特征或方面的任何特定特征。除非另有明确说明,否则本申请中使用的术语和短语及其变型,尤其是所附权利要求中的术语和短语及其变型,应被解释为开放式的而非限制性的。作为上述内容的实例,术语“包含”应理解为“包含且不限于”、“包含但不限于”等等;如本文所使用的术语“包括”与“包含”、“含有”或“特征在于”同义,且是包含性或开放式的,并不排除额外的、未列出的元件或方法步骤;术语“具有”应理解为“至少具有”;术语“例如”应理解为“例如且不限于”;术语“包含”应理解为“包含但不限于”;术语“实例”用于在论述时提供物品的示例性实例,而不是物品的穷举性或限制性列表,并且应理解为“例如但不限于”;例如“熟知的”、“通常的”、“标准的”的形容词和具有类似含义的术语不应被理解为将所描述的物品限于给定时间段或限于截至给定时间可用的物品,而是应理解为涵盖现在或在将来的任何时间可为可用的或熟知的、通常的或标准的技术;以及如“优选地”、“优选的”、“期望”或“合乎需要的”的术语及具有类似含义的词语的使用不应理解为暗示某些特征对于本公开的结构或功能来说是关键的、必不可少的或甚至是至关重要的,而是仅仅旨在突显可以用于也可以不用于特定实施例的替代方案或额外特征。同样地,除非另外明确陈述,否则用连接词“和”连在一起的一组物品不应被理解为要求那些物品中的每个物品都存在于所述分组中,而是应被理解为“和/或”。类似地,除非另外明确陈述,否则用连接词“或”连在一起的一组物品不应被理解为在那一群组中需要相互排斥,而是应被理解为“和/或”。术语“约”或“大致”等等是同义的,且用于指示由所述术语修饰的值具有与其相关联的理解范围,其中所述范围可以是±20%、±15%、±10%、±5%或±1%。术语“大体上”用于指示结果(例如,测量值)接近目标值,其中接近可意味着例如结果在值的80%内、值的90%内、值的95%内或值的99%内。并且,如本文所使用,“定义”或“确定”可包含“预定义”或“预定”和/或以其它方式确定的值、条件、阈值、测量结果等等。
Claims (17)
1.一种用于沿路线操纵的机器人,包括:耦合到所述机器人的一个或多个传感器,所述一个或多个传感器被配置成收集关于所述机器人附近的环境的数据,包含关于所述环境中的一个或多个物体上的检测点的数据;以及控制器,所述控制器被配置成执行计算机可读指令以,在地图上确定供所述机器人行进的路线,所述地图对应于所述环境并且由耦合到所述机器人的至少一个或多个传感器生成,所述路线包含各自与离散位置相对应的多个离散点,所述多个离散点中的每一个对应于所述机器人的相应位姿,所述机器人的所述相应位姿包含安置在其中的多个点,所述相应位姿对应于所述机器人的方位和定向中的至少一个;以及计算物体上的点对所述相应位姿的所述多个点的排斥力,所述物体在所述地图上,其中所述相应位姿对应于所述机器人的印迹,所述印迹被配置为在小的印迹和大的印迹之间可调整,所述小的印迹具有与所述物体的高的碰撞可能性,且所述大的印迹具有与所述物体的低的碰撞可能性,所述机器人的所述印迹被配置为动态重整形的。
2.根据权利要求1所述的机器人,其中所述机器人的所述相应位姿和所述机器人的随后的相应位姿在所述路线上彼此规则或不规则地间隔开,使得所述相应位姿和所述随后的相应位姿沿所述路线形成序列。
3.根据权利要求1所述的机器人,其中来自所述物体上的点的排斥力防止所述机器人与物体碰撞,来自所述物体的排斥力在所述相应位姿上是均匀的,且所述排斥力取决于所述物体相对于所述相应位姿所处位置的特性。
4.根据权利要求1所述的机器人,其中所述相应位姿的所述多个点配置成经受所述排斥力,所述多个点能够响应于所述相应位姿的重新定位而平移和旋转。
5.根据权利要求1所述的机器人,其中所述控制器进一步被配置成执行所述计算机可读指令以在所述相应位姿和随后的相应路线位姿之间执行内插,以在所述相应位姿和所述随后的相应路线位姿之间生成供所述机器人行进的无碰撞路线。
6.根据权利要求1所述的机器人,其中所述控制器进一步被配置成执行所述计算机可读指令以响应于在所述多个点中的每个点上的排斥力而重新定位所述相应位姿和随后的相应位姿。
7.一种用于机器人在环境中的动态导航和路线规划的方法,包括:在地图上确定所述机器人的路线,所述路线包含一个或多个路线位姿,每个路线位姿包括至少部分地指示所述机器人沿着所述路线的位姿和形状的印迹,且每个路线位姿具有安置在其中的多个点,所述地图对应于环境并且由所述机器人上的至少一个传感器生成,所述路线包含各自与离散位置相对应的多个离散点,所述多个离散点中的每一个对应于所述机器人的相应位姿,所述机器人的所述相应位姿包含安置在其中的多个点,所述相应位姿对应于所述机器人的方位和定向中的至少一个;以及计算所述环境中的物体上的点对所述一个或多个路线位姿中的第一路线位姿的所述多个点的排斥力,其中所述相应位姿对应于所述机器人的印迹,所述印迹被配置为在小的印迹和大的印迹之间可调整,所述小的印迹具有与所述物体的高的碰撞可能性,且所述大的印迹具有与所述物体的低的碰撞可能性,所述机器人的所述印迹被配置为动态重整形的。
8.根据权利要求7所述的方法,其中所述机器人的所述相应位姿和所述机器人的随后的相应位姿在所述路线上彼此规则或不规则地间隔开,使得所述相应位姿和所述随后的相应位姿沿所述路线形成序列。
9.根据权利要求7所述的方法,其中来自所述物体上的点的排斥力防止所述机器人与物体碰撞,来自所述物体的排斥力在所述相应位姿上是均匀的,且所述排斥力取决于所述物体相对于所述相应位姿所处位置的特性。
10.根据权利要求7所述的方法,其中所述相应位姿的所述多个点配置成经受所述排斥力,所述多个点能够响应于所述相应位姿的重新定位而平移和旋转。
11.根据权利要求7所述的方法,进一步包括:在所述相应位姿和随后的相应路线位姿之间执行内插以在所述相应位姿和所述随后的相应路线位姿之间生成供所述机器人行进的无碰撞路线。
12.一种其上存储有多个指令的非暂时性计算机可读存储设备,所述多个指令在由至少一个处理器执行时,将所述至少一个处理器配置成:在地图上确定机器人的路线,所述路线包括一个或多个路线位姿,每个路线位姿包括至少部分地指示所述机器人沿着所述路线的位姿和形状的印迹,且每个路线位姿具有安置在其中的多个点,所述地图对应于环境并且由所述机器人上的至少一个传感器生成,所述路线包含各自与离散位置相对应的多个离散点,所述多个离散点中的每一个对应于所述机器人的相应位姿,所述机器人的所述相应位姿包含安置在其中的多个点,所述相应位姿对应于所述机器人的方位和定向中的至少一个;以及计算所述环境中的物体上的点对所述一个或多个路线位姿中的第一路线位姿的所述多个点的排斥力,其中所述相应位姿对应于所述机器人的印迹,所述印迹被配置为在小的印迹和大的印迹之间可调整,所述小的印迹具有与所述物体的高的碰撞可能性,且所述大的印迹具有与所述物体的低的碰撞可能性,所述机器人的所述印迹被配置为动态重整形的。
13.根据权利要求12所述的非暂时性计算机可读存储设备,其中所述机器人的所述相应位姿和所述机器人的随后的相应位姿在所述路线上彼此规则或不规则地间隔开,使得所述相应位姿和所述随后的相应位姿沿所述路线形成序列。
14.根据权利要求12所述的非暂时性计算机可读存储设备,其中来自所述物体上的点的排斥力防止所述机器人与物体碰撞,来自所述物体的排斥力在所述相应位姿上是均匀的,且所述排斥力取决于所述物体相对于所述相应位姿所处位置的特性。
15.根据权利要求12所述的非暂时性计算机可读存储设备,其中所述相应位姿的所述多个点配置成经受所述排斥力,所述多个点能够响应于所述相应位姿的重新定位而平移和旋转。
16.根据权利要求12所述的非暂时性计算机可读存储设备,其中所述至少一个处理器进一步被配置成执行所述计算机可读指令以在所述相应位姿和随后的相应路线位姿之间执行内插,以在所述相应位姿和所述随后的相应路线位姿之间生成供所述机器人行进的无碰撞路线。
17.根据权利要求12所述的非暂时性计算机可读存储设备,其中所述至少一个处理器进一步被配置成执行所述计算机可读指令以响应于在所述多个点中的每个点上的排斥力而重新定位所述相应位姿和随后的相应位姿。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/341,612 | 2016-11-02 | ||
US15/341,612 US10001780B2 (en) | 2016-11-02 | 2016-11-02 | Systems and methods for dynamic route planning in autonomous navigation |
PCT/US2017/059379 WO2018085294A1 (en) | 2016-11-02 | 2017-10-31 | Systems and methods for dynamic route planning in autonomous navigation |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110023866A CN110023866A (zh) | 2019-07-16 |
CN110023866B true CN110023866B (zh) | 2022-12-06 |
Family
ID=62021299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780074759.6A Active CN110023866B (zh) | 2016-11-02 | 2017-10-31 | 用于自主导航中的动态路线规划的系统和方法 |
Country Status (7)
Country | Link |
---|---|
US (3) | US10001780B2 (zh) |
EP (1) | EP3535630A4 (zh) |
JP (1) | JP7061337B2 (zh) |
KR (1) | KR102528869B1 (zh) |
CN (1) | CN110023866B (zh) |
CA (1) | CA3042532A1 (zh) |
WO (1) | WO2018085294A1 (zh) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105760576A (zh) * | 2016-01-27 | 2016-07-13 | 首都师范大学 | 一种基于共形几何代数的机械臂运动规划的形式化分析方法及系统 |
KR102526083B1 (ko) * | 2016-08-30 | 2023-04-27 | 엘지전자 주식회사 | 이동 단말기 및 그의 동작 방법 |
US10429196B2 (en) * | 2017-03-08 | 2019-10-01 | Invensense, Inc. | Method and apparatus for cart navigation |
US10293485B2 (en) * | 2017-03-30 | 2019-05-21 | Brain Corporation | Systems and methods for robotic path planning |
FR3065853B1 (fr) * | 2017-04-27 | 2019-06-07 | Peugeot Citroen Automobiles Sa | Procede et dispositif de controle de la transmission de donnees d’un vehicule a un equipement de communication |
US10422648B2 (en) * | 2017-10-17 | 2019-09-24 | AI Incorporated | Methods for finding the perimeter of a place using observed coordinates |
KR102500634B1 (ko) * | 2018-01-05 | 2023-02-16 | 엘지전자 주식회사 | 안내 로봇 및 그의 동작 방법 |
CN108742346A (zh) * | 2018-06-27 | 2018-11-06 | 杨扬 | 遍历工作环境的方法及建立栅格地图的方法 |
WO2020018527A1 (en) | 2018-07-16 | 2020-01-23 | Brain Corporation | Systems and methods for optimizing route planning for tight turns for robotic apparatuses |
US11092458B2 (en) * | 2018-10-30 | 2021-08-17 | Telenav, Inc. | Navigation system with operation obstacle alert mechanism and method of operation thereof |
US10809734B2 (en) | 2019-03-13 | 2020-10-20 | Mobile Industrial Robots A/S | Route planning in an autonomous device |
CN110101340A (zh) * | 2019-05-24 | 2019-08-09 | 北京小米移动软件有限公司 | 清洁设备、清洁操作执行方法、装置和存储介质 |
WO2020241924A1 (ko) * | 2019-05-29 | 2020-12-03 | 엘지전자 주식회사 | 영상 학습을 바탕으로 주행경로를 설정하는 지능형 로봇 청소기 및 이의 운용방법 |
US11958183B2 (en) | 2019-09-19 | 2024-04-16 | The Research Foundation For The State University Of New York | Negotiation-based human-robot collaboration via augmented reality |
EP4118632A4 (en) * | 2020-03-13 | 2024-02-21 | Brain Corp | SYSTEMS AND METHODS FOR ROUTE SYNCHRONIZATION FOR ROBOTIC DEVICES |
US11592299B2 (en) | 2020-03-19 | 2023-02-28 | Mobile Industrial Robots A/S | Using static scores to control vehicle operations |
CN113741550B (zh) * | 2020-05-15 | 2024-02-02 | 北京机械设备研究所 | 移动机器人跟随方法和系统 |
CN112015183B (zh) * | 2020-09-08 | 2022-02-08 | 安徽工程大学 | 一种能耗约束下在具有凹凸地形中移动机器人避障方法 |
US11927972B2 (en) * | 2020-11-24 | 2024-03-12 | Lawrence Livermore National Security, Llc | Collision avoidance based on traffic management data |
CN112595324B (zh) * | 2020-12-10 | 2022-03-29 | 安徽工程大学 | 一种能耗最优下最优节点轮式移动机器人路径规划方法 |
WO2022140969A1 (zh) * | 2020-12-28 | 2022-07-07 | 深圳市优必选科技股份有限公司 | 动态生成脚印集方法、存储介质及双足机器人 |
CN112833899B (zh) * | 2020-12-31 | 2022-02-15 | 吉林大学 | 一种用于无人环卫车的全覆盖路径规划方法 |
CN112971621A (zh) * | 2021-03-11 | 2021-06-18 | 河北工业大学 | 室内智能清洁系统及控制方法 |
US11940800B2 (en) * | 2021-04-23 | 2024-03-26 | Irobot Corporation | Navigational control of autonomous cleaning robots |
US20230071338A1 (en) * | 2021-09-08 | 2023-03-09 | Sea Machines Robotics, Inc. | Navigation by mimic autonomy |
CN114355925B (zh) * | 2021-12-29 | 2024-03-19 | 杭州海康机器人股份有限公司 | 路径规划方法、装置、设备及计算机可读存储介质 |
CN114431122B (zh) * | 2022-01-27 | 2023-03-24 | 山东交通学院 | 一种道路绿化洒水智能控制系统及方法 |
CN114947655A (zh) * | 2022-05-17 | 2022-08-30 | 安克创新科技股份有限公司 | 机器人控制方法、装置、机器人和计算机可读存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19745656A1 (de) * | 1997-10-16 | 1999-04-22 | Daimler Chrysler Ag | Pralldämpfer für ein Kraftfahrzeug |
EP1540564A1 (en) * | 2002-03-22 | 2005-06-15 | Ibrahim Nahla | Vehicle navigation, collision avoidance and control system |
CN104029203A (zh) * | 2014-06-18 | 2014-09-10 | 大连大学 | 实现空间机械臂避障的路径规划方法 |
CN104875882A (zh) * | 2015-05-21 | 2015-09-02 | 合肥学院 | 四轴飞行器 |
CN105739507A (zh) * | 2016-04-29 | 2016-07-06 | 昆山工研院工业机器人研究所有限公司 | 一种机器人防碰撞的最优路径规划方法 |
CN105955273A (zh) * | 2016-05-25 | 2016-09-21 | 速感科技(北京)有限公司 | 室内机器人导航系统及方法 |
Family Cites Families (187)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5280179A (en) | 1979-04-30 | 1994-01-18 | Sensor Adaptive Machines Incorporated | Method and apparatus utilizing an orientation code for automatically guiding a robot |
US4638445A (en) | 1984-06-08 | 1987-01-20 | Mattaboni Paul J | Autonomous mobile robot |
US5121497A (en) | 1986-03-10 | 1992-06-09 | International Business Machines Corporation | Automatic generation of executable computer code which commands another program to perform a task and operator modification of the generated executable computer code |
US4763276A (en) | 1986-03-21 | 1988-08-09 | Actel Partnership | Methods for refining original robot command signals |
US4852018A (en) | 1987-01-07 | 1989-07-25 | Trustees Of Boston University | Massively parellel real-time network architectures for robots capable of self-calibrating their operating parameters through associative learning |
JPS63229503A (ja) * | 1987-03-19 | 1988-09-26 | Fujitsu Ltd | ロボツトの姿勢制御方法 |
WO1991006050A1 (en) | 1989-10-17 | 1991-05-02 | Applied Biosystems, Inc. | Robotic interface |
US5612883A (en) | 1990-02-05 | 1997-03-18 | Caterpillar Inc. | System and method for detecting obstacles in the path of a vehicle |
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US5673367A (en) | 1992-10-01 | 1997-09-30 | Buckley; Theresa M. | Method for neural network control of motion using real-time environmental feedback |
CA2081519C (en) | 1992-10-27 | 2000-09-05 | The University Of Toronto | Parametric control device |
KR0161031B1 (ko) | 1993-09-09 | 1998-12-15 | 김광호 | 로보트의 위치오차보정장치 |
US5602761A (en) | 1993-12-30 | 1997-02-11 | Caterpillar Inc. | Machine performance monitoring and fault classification using an exponentially weighted moving average scheme |
US7418346B2 (en) * | 1997-10-22 | 2008-08-26 | Intelligent Technologies International, Inc. | Collision avoidance methods and systems |
KR100439466B1 (ko) | 1995-09-11 | 2004-09-18 | 가부시키가이샤 야스가와덴끼 | 로봇제어장치 |
US6169981B1 (en) | 1996-06-04 | 2001-01-02 | Paul J. Werbos | 3-brain architecture for an intelligent decision and control system |
US6366293B1 (en) | 1998-09-29 | 2002-04-02 | Rockwell Software Inc. | Method and apparatus for manipulating and displaying graphical objects in a computer display device |
US6243622B1 (en) | 1998-10-16 | 2001-06-05 | Xerox Corporation | Touchable user interface using self movable robotic modules |
EP1037134A2 (en) | 1999-03-16 | 2000-09-20 | Matsushita Electric Industrial Co., Ltd. | Virtual space control data receiving apparatus and method |
US6124694A (en) | 1999-03-18 | 2000-09-26 | Bancroft; Allen J. | Wide area navigation for a robot scrubber |
WO2000066239A1 (fr) | 1999-04-30 | 2000-11-09 | Sony Corporation | Systeme d'animal de compagnie electronique, systeme de reseau, robot et support de donnees |
JP3537362B2 (ja) | 1999-10-12 | 2004-06-14 | ファナック株式会社 | ロボットシステム用グラフィック表示装置 |
AU2001250802A1 (en) | 2000-03-07 | 2001-09-17 | Sarnoff Corporation | Camera pose estimation |
US6754560B2 (en) | 2000-03-31 | 2004-06-22 | Sony Corporation | Robot device, robot device action control method, external force detecting device and external force detecting method |
US8543519B2 (en) | 2000-08-07 | 2013-09-24 | Health Discovery Corporation | System and method for remote melanoma screening |
JP4765155B2 (ja) | 2000-09-28 | 2011-09-07 | ソニー株式会社 | オーサリング・システム及びオーサリング方法、並びに記憶媒体 |
US6678413B1 (en) | 2000-11-24 | 2004-01-13 | Yiqing Liang | System and method for object identification and behavior characterization using video analysis |
JP2002197437A (ja) | 2000-12-27 | 2002-07-12 | Sony Corp | 歩行検出システム、歩行検出装置、デバイス、歩行検出方法 |
US6442451B1 (en) | 2000-12-28 | 2002-08-27 | Robotic Workspace Technologies, Inc. | Versatile robot control system |
JP2002239960A (ja) | 2001-02-21 | 2002-08-28 | Sony Corp | ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置 |
US20020175894A1 (en) | 2001-03-06 | 2002-11-28 | Vince Grillo | Hand-supported mouse for computer input |
US6917925B2 (en) | 2001-03-30 | 2005-07-12 | Intelligent Inference Systems Corporation | Convergent actor critic-based fuzzy reinforcement learning apparatus and method |
JP2002301674A (ja) | 2001-04-03 | 2002-10-15 | Sony Corp | 脚式移動ロボット及びその運動教示方法、並びに記憶媒体 |
EP1254688B1 (en) | 2001-04-30 | 2006-03-29 | Sony France S.A. | autonomous robot |
US6584375B2 (en) | 2001-05-04 | 2003-06-24 | Intellibot, Llc | System for a retail environment |
US6636781B1 (en) | 2001-05-22 | 2003-10-21 | University Of Southern California | Distributed control and coordination of autonomous agents in a dynamic, reconfigurable system |
JP3760186B2 (ja) | 2001-06-07 | 2006-03-29 | 独立行政法人科学技術振興機構 | 二脚歩行式移動装置及びその歩行制御装置並びに歩行制御方法 |
JP4188607B2 (ja) | 2001-06-27 | 2008-11-26 | 本田技研工業株式会社 | 二足歩行移動体の床反力推定方法及び二足歩行移動体の関節モーメント推定方法 |
WO2003007129A2 (en) | 2001-07-13 | 2003-01-23 | Broks Automation, Inc. | Trajectory planning and motion control strategies for a planar three-degree-of-freedom robotic arm |
US6710346B2 (en) | 2001-08-02 | 2004-03-23 | International Business Machines Corporation | Active infrared presence sensor |
AU2002331786A1 (en) | 2001-08-31 | 2003-03-18 | The Board Of Regents Of The University And Community College System, On Behalf Of The University Of | Coordinated joint motion control system |
US6812846B2 (en) | 2001-09-28 | 2004-11-02 | Koninklijke Philips Electronics N.V. | Spill detector based on machine-imaging |
US7243334B1 (en) | 2002-01-16 | 2007-07-10 | Prelude Systems, Inc. | System and method for generating user interface code |
JP3790816B2 (ja) | 2002-02-12 | 2006-06-28 | 国立大学法人 東京大学 | 人型リンク系の運動生成方法 |
US8010180B2 (en) | 2002-03-06 | 2011-08-30 | Mako Surgical Corp. | Haptic guidance system and method |
WO2004003680A2 (en) | 2002-04-22 | 2004-01-08 | Neal Solomon | System, method and apparatus for automated collective mobile robotic vehicles used in remote sensing surveillance |
US7505604B2 (en) | 2002-05-20 | 2009-03-17 | Simmonds Precision Prodcuts, Inc. | Method for detection and recognition of fog presence within an aircraft compartment using video images |
EP1563348A2 (en) | 2002-08-21 | 2005-08-17 | Neal E. Solomon | Systems, methods and apparatus for organizing groups of self-configurable mobile robotic agents in a multi-robotic system |
AU2003900861A0 (en) | 2003-02-26 | 2003-03-13 | Silverbrook Research Pty Ltd | Methods,systems and apparatus (NPS042) |
JP3950805B2 (ja) | 2003-02-27 | 2007-08-01 | ファナック株式会社 | 教示位置修正装置 |
US7313279B2 (en) | 2003-07-08 | 2007-12-25 | Computer Associates Think, Inc. | Hierarchical determination of feature relevancy |
SE0301531L (sv) | 2003-05-22 | 2004-11-23 | Abb Ab | A Control method for a robot |
US7212651B2 (en) | 2003-06-17 | 2007-05-01 | Mitsubishi Electric Research Laboratories, Inc. | Detecting pedestrians using patterns of motion and appearance in videos |
US7769487B2 (en) | 2003-07-24 | 2010-08-03 | Northeastern University | Process and architecture of robotic system to mimic animal behavior in the natural environment |
KR100520049B1 (ko) * | 2003-09-05 | 2005-10-10 | 학교법인 인하학원 | 자율이동로봇을 위한 경로계획방법 |
WO2005028166A1 (ja) | 2003-09-22 | 2005-03-31 | Matsushita Electric Industrial Co., Ltd. | 弾性体アクチュエータの制御装置及び制御方法 |
US7342589B2 (en) | 2003-09-25 | 2008-03-11 | Rockwell Automation Technologies, Inc. | System and method for managing graphical data |
JP4592276B2 (ja) | 2003-10-24 | 2010-12-01 | ソニー株式会社 | ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム |
JP4742329B2 (ja) | 2004-02-25 | 2011-08-10 | 学校法人立命館 | 浮遊移動体の制御システム |
JP4661074B2 (ja) | 2004-04-07 | 2011-03-30 | ソニー株式会社 | 情報処理システム、情報処理方法、並びにロボット装置 |
DE602004028005D1 (de) | 2004-07-27 | 2010-08-19 | Sony France Sa | Ein automatisiertes System zur Aktionsanwahl, sowie das Verfahren und dessen Anwendung, um Prognosemaschinen auszubilden und die Entwicklung sich selbst entwickelnder Geräte zu unterstützen |
SE0402672D0 (sv) | 2004-11-02 | 2004-11-02 | Viktor Kaznov | Ball robot |
US9534899B2 (en) * | 2005-03-25 | 2017-01-03 | Irobot Corporation | Re-localization of a robot for slam |
US7211979B2 (en) | 2005-04-13 | 2007-05-01 | The Broad Of Trustees Of The Leland Stanford Junior University | Torque-position transformer for task control of position controlled robots |
US7765029B2 (en) | 2005-09-13 | 2010-07-27 | Neurosciences Research Foundation, Inc. | Hybrid control device |
JP4876511B2 (ja) | 2005-09-29 | 2012-02-15 | 株式会社日立製作所 | ロジック抽出支援装置 |
ATE522330T1 (de) | 2005-09-30 | 2011-09-15 | Irobot Corp | Robotersystem mit kabelloser kommunikation mittels tcp/ip übertragung |
US7668605B2 (en) | 2005-10-26 | 2010-02-23 | Rockwell Automation Technologies, Inc. | Wireless industrial control user interface |
KR101300493B1 (ko) | 2005-12-02 | 2013-09-02 | 아이로보트 코퍼레이션 | 커버리지 로봇 이동성 |
US7741802B2 (en) | 2005-12-20 | 2010-06-22 | Intuitive Surgical Operations, Inc. | Medical robotic system with programmably controlled constraints on error dynamics |
US8224018B2 (en) | 2006-01-23 | 2012-07-17 | Digimarc Corporation | Sensing data from physical objects |
US7576639B2 (en) | 2006-03-14 | 2009-08-18 | Mobileye Technologies, Ltd. | Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle |
US8924021B2 (en) | 2006-04-27 | 2014-12-30 | Honda Motor Co., Ltd. | Control of robots from human motion descriptors |
JP4320363B2 (ja) | 2006-05-25 | 2009-08-26 | 豪洋 石崎 | 作業ロボット |
KR100791382B1 (ko) | 2006-06-01 | 2008-01-07 | 삼성전자주식회사 | 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치 |
WO2007143756A2 (en) * | 2006-06-09 | 2007-12-13 | Carnegie Mellon University | System and method for autonomously convoying vehicles |
US8843244B2 (en) * | 2006-10-06 | 2014-09-23 | Irobot Corporation | Autonomous behaviors for a remove vehicle |
JP4699426B2 (ja) | 2006-08-08 | 2011-06-08 | パナソニック株式会社 | 障害物回避方法と障害物回避移動装置 |
US8174568B2 (en) * | 2006-12-01 | 2012-05-08 | Sri International | Unified framework for precise vision-aided navigation |
JP4267027B2 (ja) | 2006-12-07 | 2009-05-27 | ファナック株式会社 | ロボット制御装置 |
ATE539391T1 (de) | 2007-03-29 | 2012-01-15 | Irobot Corp | Konfigurationssystem und -verfahren für eine roboteroperator-steuereinheit |
US8255092B2 (en) | 2007-05-14 | 2012-08-28 | Irobot Corporation | Autonomous behaviors for a remote vehicle |
JP5213023B2 (ja) | 2008-01-15 | 2013-06-19 | 本田技研工業株式会社 | ロボット |
WO2009098855A1 (ja) | 2008-02-06 | 2009-08-13 | Panasonic Corporation | ロボット、ロボットの制御装置及び制御方法、並びに、ロボットの制御装置の制御プログラム |
JP5181704B2 (ja) | 2008-02-07 | 2013-04-10 | 日本電気株式会社 | データ処理装置、姿勢推定システム、姿勢推定方法およびプログラム |
US8175992B2 (en) | 2008-03-17 | 2012-05-08 | Intelliscience Corporation | Methods and systems for compound feature creation, processing, and identification in conjunction with a data analysis and feature recognition system wherein hit weights are summed |
EP2266077A1 (en) | 2008-04-02 | 2010-12-29 | iRobot Corporation | Robotics systems |
JP4715863B2 (ja) | 2008-05-01 | 2011-07-06 | ソニー株式会社 | アクチュエータ制御装置及びアクチュエータ制御方法、アクチュエータ、ロボット装置、並びにコンピュータ・プログラム |
JP5287051B2 (ja) * | 2008-09-04 | 2013-09-11 | 村田機械株式会社 | 自律移動装置 |
WO2010027968A2 (en) | 2008-09-04 | 2010-03-11 | Iwalk, Inc. | Hybrid terrain-adaptive lower-extremity systems |
US20110282169A1 (en) | 2008-10-29 | 2011-11-17 | The Regents Of The University Of Colorado, A Body Corporate | Long Term Active Learning from Large Continually Changing Data Sets |
US20100114372A1 (en) | 2008-10-30 | 2010-05-06 | Intellibot Robotics Llc | Method of cleaning a surface using an automatic cleaning device |
JP5242342B2 (ja) | 2008-10-31 | 2013-07-24 | 株式会社東芝 | ロボット制御装置 |
US8428781B2 (en) | 2008-11-17 | 2013-04-23 | Energid Technologies, Inc. | Systems and methods of coordination control for robot manipulation |
US8423182B2 (en) | 2009-03-09 | 2013-04-16 | Intuitive Surgical Operations, Inc. | Adaptable integrated energy control system for electrosurgical tools in robotic surgical systems |
US8120301B2 (en) | 2009-03-09 | 2012-02-21 | Intuitive Surgical Operations, Inc. | Ergonomic surgeon control console in robotic surgical systems |
US8364314B2 (en) | 2009-04-30 | 2013-01-29 | GM Global Technology Operations LLC | Method and apparatus for automatic control of a humanoid robot |
JP4676544B2 (ja) | 2009-05-29 | 2011-04-27 | ファナック株式会社 | 工作機械に対してワークの供給及び取り出しを行うロボットを制御するロボット制御装置 |
US8694449B2 (en) | 2009-05-29 | 2014-04-08 | Board Of Trustees Of Michigan State University | Neuromorphic spatiotemporal where-what machines |
US8706297B2 (en) | 2009-06-18 | 2014-04-22 | Michael Todd Letsky | Method for establishing a desired area of confinement for an autonomous robot and autonomous robot implementing a control system for executing the same |
WO2011001569A1 (ja) | 2009-07-02 | 2011-01-06 | パナソニック株式会社 | ロボット、ロボットアームの制御装置、及びロボットアームの制御プログラム |
EP2284769B1 (en) | 2009-07-16 | 2013-01-02 | European Space Agency | Method and apparatus for analyzing time series data |
US20110026770A1 (en) | 2009-07-31 | 2011-02-03 | Jonathan David Brookshire | Person Following Using Histograms of Oriented Gradients |
US8250901B2 (en) | 2009-09-22 | 2012-08-28 | GM Global Technology Operations LLC | System and method for calibrating a rotary absolute position sensor |
TW201113815A (en) | 2009-10-09 | 2011-04-16 | Primax Electronics Ltd | QR code processing method and apparatus thereof |
DE102009052629A1 (de) * | 2009-11-10 | 2011-05-12 | Vorwerk & Co. Interholding Gmbh | Verfahren zur Steuerung eines Roboters |
US8423225B2 (en) | 2009-11-11 | 2013-04-16 | Intellibot Robotics Llc | Methods and systems for movement of robotic device using video signal |
US8679260B2 (en) | 2009-11-11 | 2014-03-25 | Intellibot Robotics Llc | Methods and systems for movement of an automatic cleaning device using video signal |
JP5446765B2 (ja) * | 2009-11-17 | 2014-03-19 | トヨタ自動車株式会社 | 経路探索システム、経路探索方法、経路探索プログラム、及び移動体 |
US8521328B2 (en) | 2009-12-10 | 2013-08-27 | The Boeing Company | Control system for robotic vehicles |
TW201123031A (en) | 2009-12-24 | 2011-07-01 | Univ Nat Taiwan Science Tech | Robot and method for recognizing human faces and gestures thereof |
JP5506618B2 (ja) | 2009-12-28 | 2014-05-28 | 本田技研工業株式会社 | ロボットの制御装置 |
JP5506617B2 (ja) | 2009-12-28 | 2014-05-28 | 本田技研工業株式会社 | ロボットの制御装置 |
JP5750122B2 (ja) | 2010-02-11 | 2015-07-15 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | ロボット内視鏡の作動制御方法およびシステム |
KR101169674B1 (ko) | 2010-03-11 | 2012-08-06 | 한국과학기술연구원 | 원격현전 로봇, 이를 포함하는 원격현전 시스템 및 이의 제어 방법 |
US8660355B2 (en) | 2010-03-19 | 2014-02-25 | Digimarc Corporation | Methods and systems for determining image processing operations relevant to particular imagery |
US9405975B2 (en) | 2010-03-26 | 2016-08-02 | Brain Corporation | Apparatus and methods for pulse-code invariant object recognition |
US9311593B2 (en) | 2010-03-26 | 2016-04-12 | Brain Corporation | Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices |
US9122994B2 (en) | 2010-03-26 | 2015-09-01 | Brain Corporation | Apparatus and methods for temporally proximate object recognition |
US8336420B2 (en) | 2010-06-02 | 2012-12-25 | Disney Enterprises, Inc. | Three-axis robotic joint using four-bar linkages to drive differential side gears |
FR2963132A1 (fr) | 2010-07-23 | 2012-01-27 | Aldebaran Robotics | Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface |
EP2600328B1 (en) * | 2010-07-27 | 2017-09-06 | Toyota Jidosha Kabushiki Kaisha | Driving assistance device |
US20120045068A1 (en) | 2010-08-20 | 2012-02-23 | Korea Institute Of Science And Technology | Self-fault detection system and method for microphone array and audio-based device |
KR101743926B1 (ko) * | 2010-09-20 | 2017-06-08 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
US8594971B2 (en) | 2010-09-22 | 2013-11-26 | Invensense, Inc. | Deduced reckoning navigation without a constraint relationship between orientation of a sensor platform and a direction of travel of an object |
KR101233714B1 (ko) * | 2010-09-30 | 2013-02-18 | 아주대학교산학협력단 | 장애물 트랩을 회피하는 자율 이동 로봇 및 그 제어 방법 |
KR20120035519A (ko) | 2010-10-05 | 2012-04-16 | 삼성전자주식회사 | 먼지 유입 감지 유닛 및 이를 구비하는 로봇 청소기 |
US20120143495A1 (en) | 2010-10-14 | 2012-06-07 | The University Of North Texas | Methods and systems for indoor navigation |
US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US8726095B2 (en) | 2010-12-02 | 2014-05-13 | Dell Products L.P. | System and method for proactive management of an information handling system with in-situ measurement of end user actions |
JP5185358B2 (ja) | 2010-12-13 | 2013-04-17 | 株式会社東芝 | 行動履歴検索装置 |
CN103038030B (zh) | 2010-12-17 | 2015-06-03 | 松下电器产业株式会社 | 弹性体致动器驱动机构的控制装置及控制方法 |
US8380652B1 (en) | 2011-05-06 | 2013-02-19 | Google Inc. | Methods and systems for autonomous robotic decision making |
US8639644B1 (en) | 2011-05-06 | 2014-01-28 | Google Inc. | Shared robot knowledge base for use with cloud computing system |
US9566710B2 (en) | 2011-06-02 | 2017-02-14 | Brain Corporation | Apparatus and methods for operating robotic devices using selective state space training |
US9189891B2 (en) | 2011-08-16 | 2015-11-17 | Google Inc. | Systems and methods for navigating a camera |
US9015092B2 (en) | 2012-06-04 | 2015-04-21 | Brain Corporation | Dynamically reconfigurable stochastic learning apparatus and methods |
US20130096719A1 (en) | 2011-10-13 | 2013-04-18 | The U.S.A. As Represented By The Administrator Of The National Aeronautics And Space Administration | Method for dynamic optimization of a robot control interface |
JP6305673B2 (ja) | 2011-11-07 | 2018-04-04 | セイコーエプソン株式会社 | ロボット制御システム、ロボットシステム及びロボット |
JP5399593B2 (ja) | 2011-11-10 | 2014-01-29 | パナソニック株式会社 | ロボット、ロボットの制御装置、制御方法、及び制御プログラム |
KR101133037B1 (ko) * | 2011-12-01 | 2012-04-04 | 국방과학연구소 | 자율이동차량용 충돌회피를 위한 경로갱신방법 및 그 장치 |
KR101305819B1 (ko) | 2012-01-04 | 2013-09-06 | 현대자동차주식회사 | 착용식 로봇의 사용자 조작 의도 토크 추출방법 |
US8958911B2 (en) | 2012-02-29 | 2015-02-17 | Irobot Corporation | Mobile robot |
JP5895628B2 (ja) | 2012-03-15 | 2016-03-30 | 株式会社ジェイテクト | ロボットの制御方法及びロボット制御装置、並びにロボット制御システム |
US9221177B2 (en) | 2012-04-18 | 2015-12-29 | Massachusetts Institute Of Technology | Neuromuscular model-based sensing and control paradigm for a robotic leg |
US9208432B2 (en) | 2012-06-01 | 2015-12-08 | Brain Corporation | Neural network learning and collaboration apparatus and methods |
US8996174B2 (en) | 2012-06-21 | 2015-03-31 | Rethink Robotics, Inc. | User interfaces for robot training |
US20130346347A1 (en) | 2012-06-22 | 2013-12-26 | Google Inc. | Method to Predict a Communicative Action that is Most Likely to be Executed Given a Context |
JP5645885B2 (ja) | 2012-06-29 | 2014-12-24 | 京セラドキュメントソリューションズ株式会社 | 画像形成装置 |
US9881212B2 (en) | 2012-07-04 | 2018-01-30 | Repsol, S.A. | Infrared image based early detection of oil spills in water |
US8977582B2 (en) | 2012-07-12 | 2015-03-10 | Brain Corporation | Spiking neuron network sensory processing apparatus and methods |
US9367798B2 (en) | 2012-09-20 | 2016-06-14 | Brain Corporation | Spiking neuron network adaptive control apparatus and methods |
US8793205B1 (en) | 2012-09-20 | 2014-07-29 | Brain Corporation | Robotic learning and evolution apparatus |
US8972061B2 (en) | 2012-11-02 | 2015-03-03 | Irobot Corporation | Autonomous coverage robot |
US20140187519A1 (en) | 2012-12-27 | 2014-07-03 | The Board Of Trustees Of The Leland Stanford Junior University | Biomarkers for predicting major adverse events |
EP2752726B1 (de) | 2013-01-08 | 2015-05-27 | Cleanfix Reinigungssysteme AG | Bodenbehandlungsmaschine und Verfahren zum Behandeln von Bodenflächen |
AU2013374347B2 (en) | 2013-01-18 | 2016-05-19 | Irobot Corporation | Environmental management systems including mobile robots and methods using same |
US8958937B2 (en) | 2013-03-12 | 2015-02-17 | Intellibot Robotics Llc | Cleaning machine with collision prevention |
US9764468B2 (en) | 2013-03-15 | 2017-09-19 | Brain Corporation | Adaptive predictor apparatus and methods |
KR102218243B1 (ko) | 2013-03-15 | 2021-02-22 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 소프트웨어 구성가능한 매니퓰레이터 자유도 |
US9008840B1 (en) | 2013-04-19 | 2015-04-14 | Brain Corporation | Apparatus and methods for reinforcement-guided supervised learning |
US9292015B2 (en) | 2013-05-23 | 2016-03-22 | Fluor Technologies Corporation | Universal construction robotics interface |
US20140358828A1 (en) | 2013-05-29 | 2014-12-04 | Purepredictive, Inc. | Machine learning generated action plan |
US9242372B2 (en) | 2013-05-31 | 2016-01-26 | Brain Corporation | Adaptive robotic interface apparatus and methods |
WO2014196925A1 (en) | 2013-06-03 | 2014-12-11 | Ctrlworks Pte. Ltd. | Method and apparatus for offboard navigation of a robotic device |
US9384443B2 (en) | 2013-06-14 | 2016-07-05 | Brain Corporation | Robotic training apparatus and methods |
US9792546B2 (en) | 2013-06-14 | 2017-10-17 | Brain Corporation | Hierarchical robotic controller apparatus and methods |
US20150032258A1 (en) | 2013-07-29 | 2015-01-29 | Brain Corporation | Apparatus and methods for controlling of robotic devices |
SG2013071808A (en) | 2013-09-24 | 2015-04-29 | Ctrlworks Pte Ltd | Offboard navigation apparatus capable of being coupled to a movable platform |
US9296101B2 (en) | 2013-09-27 | 2016-03-29 | Brain Corporation | Robotic control arbitration apparatus and methods |
US9579789B2 (en) | 2013-09-27 | 2017-02-28 | Brain Corporation | Apparatus and methods for training of robotic control arbitration |
US9144907B2 (en) | 2013-10-24 | 2015-09-29 | Harris Corporation | Control synchronization for high-latency teleoperation |
US10612939B2 (en) | 2014-01-02 | 2020-04-07 | Microsoft Technology Licensing, Llc | Ground truth estimation for autonomous navigation |
US10078712B2 (en) | 2014-01-14 | 2018-09-18 | Energid Technologies Corporation | Digital proxy simulation of robotic hardware |
US20150283703A1 (en) | 2014-04-03 | 2015-10-08 | Brain Corporation | Apparatus and methods for remotely controlling robotic devices |
US9346167B2 (en) | 2014-04-29 | 2016-05-24 | Brain Corporation | Trainable convolutional network apparatus and methods for operating a robotic vehicle |
US10255319B2 (en) | 2014-05-02 | 2019-04-09 | Google Llc | Searchable index |
US20150339589A1 (en) | 2014-05-21 | 2015-11-26 | Brain Corporation | Apparatus and methods for training robots utilizing gaze-based saliency maps |
GB2528953A (en) | 2014-08-07 | 2016-02-10 | Nokia Technologies Oy | An apparatus, method, computer program and user device for enabling control of a vehicle |
US9475195B2 (en) | 2014-09-12 | 2016-10-25 | Toyota Jidosha Kabushiki Kaisha | Anticipatory robot navigation |
CN104317291A (zh) * | 2014-09-16 | 2015-01-28 | 哈尔滨恒誉名翔科技有限公司 | 一种基于人工势场法的机器人避碰路径规划方法 |
US9403275B2 (en) * | 2014-10-17 | 2016-08-02 | GM Global Technology Operations LLC | Dynamic obstacle avoidance in a robotic system |
US9628477B2 (en) | 2014-12-23 | 2017-04-18 | Intel Corporation | User profile selection using contextual authentication |
JP6800952B2 (ja) | 2015-04-24 | 2020-12-16 | アビドボッツ コーポレイション | 表面の半自動清掃のための装置および方法 |
CN105549597B (zh) * | 2016-02-04 | 2018-06-26 | 同济大学 | 一种基于环境不确定性的无人车动态路径规划方法 |
US10241514B2 (en) * | 2016-05-11 | 2019-03-26 | Brain Corporation | Systems and methods for initializing a robot to autonomously travel a trained route |
US20170329347A1 (en) * | 2016-05-11 | 2017-11-16 | Brain Corporation | Systems and methods for training a robot to autonomously travel a route |
-
2016
- 2016-11-02 US US15/341,612 patent/US10001780B2/en active Active
-
2017
- 2017-10-31 CN CN201780074759.6A patent/CN110023866B/zh active Active
- 2017-10-31 JP JP2019523827A patent/JP7061337B2/ja active Active
- 2017-10-31 CA CA3042532A patent/CA3042532A1/en not_active Abandoned
- 2017-10-31 EP EP17867114.5A patent/EP3535630A4/en not_active Withdrawn
- 2017-10-31 WO PCT/US2017/059379 patent/WO2018085294A1/en unknown
- 2017-10-31 KR KR1020197015595A patent/KR102528869B1/ko active IP Right Grant
-
2018
- 2018-06-18 US US16/011,499 patent/US10379539B2/en active Active
-
2019
- 2019-06-27 US US16/454,217 patent/US20200004253A1/en not_active Abandoned
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19745656A1 (de) * | 1997-10-16 | 1999-04-22 | Daimler Chrysler Ag | Pralldämpfer für ein Kraftfahrzeug |
EP1540564A1 (en) * | 2002-03-22 | 2005-06-15 | Ibrahim Nahla | Vehicle navigation, collision avoidance and control system |
CN104029203A (zh) * | 2014-06-18 | 2014-09-10 | 大连大学 | 实现空间机械臂避障的路径规划方法 |
CN104875882A (zh) * | 2015-05-21 | 2015-09-02 | 合肥学院 | 四轴飞行器 |
CN105739507A (zh) * | 2016-04-29 | 2016-07-06 | 昆山工研院工业机器人研究所有限公司 | 一种机器人防碰撞的最优路径规划方法 |
CN105955273A (zh) * | 2016-05-25 | 2016-09-21 | 速感科技(北京)有限公司 | 室内机器人导航系统及方法 |
Non-Patent Citations (2)
Title |
---|
A new method for robot path planning based artificial potential field;Xing Yang 等;《ResearchGate》;20160630;1294-1299 * |
朱知环境下自主移动机器人避障研究;胡远航;《中国优秀硕士学位论文全文数据库信息科技辑》;20140515(第5期);I140-273 * |
Also Published As
Publication number | Publication date |
---|---|
WO2018085294A1 (en) | 2018-05-11 |
US10001780B2 (en) | 2018-06-19 |
JP2020502630A (ja) | 2020-01-23 |
CA3042532A1 (en) | 2018-05-11 |
KR102528869B1 (ko) | 2023-05-04 |
JP7061337B2 (ja) | 2022-04-28 |
CN110023866A (zh) | 2019-07-16 |
US20180364724A1 (en) | 2018-12-20 |
EP3535630A4 (en) | 2020-07-29 |
EP3535630A1 (en) | 2019-09-11 |
KR20190077050A (ko) | 2019-07-02 |
US20180120856A1 (en) | 2018-05-03 |
US10379539B2 (en) | 2019-08-13 |
US20200004253A1 (en) | 2020-01-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110023866B (zh) | 用于自主导航中的动态路线规划的系统和方法 | |
US11701778B2 (en) | Systems and methods for robotic path planning | |
US20230021778A1 (en) | Systems and methods for training a robot to autonomously travel a route | |
CN110023867B (zh) | 用于机器人绘图的系统和方法 | |
US9481087B2 (en) | Robot and control method thereof | |
US20210132615A1 (en) | Systems and methods for optimizing route planning for tight turns for robotic apparatuses | |
US20210223779A1 (en) | Systems and methods for rerouting robots to avoid no-go zones | |
US20170329333A1 (en) | Systems and methods for initializing a robot to autonomously travel a trained route | |
US11951629B2 (en) | Systems, apparatuses, and methods for cost evaluation and motion planning for robotic devices | |
WO2020056108A9 (en) | Systems and methods for detecting blind spots for robots | |
US20210220996A1 (en) | Systems, apparatuses and methods for removing false positives from sensor detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40012306 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |