CN113263505B - 使用具有可变形传感器的机器人来确定位置的系统 - Google Patents
使用具有可变形传感器的机器人来确定位置的系统 Download PDFInfo
- Publication number
- CN113263505B CN113263505B CN202110184237.XA CN202110184237A CN113263505B CN 113263505 B CN113263505 B CN 113263505B CN 202110184237 A CN202110184237 A CN 202110184237A CN 113263505 B CN113263505 B CN 113263505B
- Authority
- CN
- China
- Prior art keywords
- robot
- deformable
- sensor
- database
- deformable membrane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000012528 membrane Substances 0.000 claims abstract description 117
- 238000000034 method Methods 0.000 claims abstract description 23
- 230000015654 memory Effects 0.000 claims description 31
- 230000003287 optical effect Effects 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 3
- 239000011248 coating agent Substances 0.000 claims description 2
- 238000000576 coating method Methods 0.000 claims description 2
- 238000004891 communication Methods 0.000 description 32
- 238000005259 measurement Methods 0.000 description 12
- 239000000463 material Substances 0.000 description 10
- 238000006073 displacement reaction Methods 0.000 description 9
- 239000012636 effector Substances 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 239000012530 fluid Substances 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 229920001296 polysiloxane Polymers 0.000 description 6
- 238000004140 cleaning Methods 0.000 description 5
- 239000002023 wood Substances 0.000 description 5
- 230000001413 cellular effect Effects 0.000 description 3
- 239000004744 fabric Substances 0.000 description 3
- 239000010985 leather Substances 0.000 description 3
- 239000007788 liquid Substances 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 230000004313 glare Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004816 latex Substances 0.000 description 2
- 229920000126 latex Polymers 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008439 repair process Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- NIXOWILDQLNWCW-UHFFFAOYSA-N acrylic acid group Chemical group C(C=C)(=O)O NIXOWILDQLNWCW-UHFFFAOYSA-N 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- OJIJEKBXJYRIBZ-UHFFFAOYSA-N cadmium nickel Chemical compound [Ni].[Cd] OJIJEKBXJYRIBZ-UHFFFAOYSA-N 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 239000012780 transparent material Substances 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0227—Control of position or course in two dimensions specially adapted to land vehicles using mechanical sensing means, e.g. for sensing treated area
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/087—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/088—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
- B25J13/089—Determining the position of the robot with reference to its environment
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/0058—Means for cleaning manipulators, e.g. dust removing means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0009—Constructional details, e.g. manipulator supports, bases
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B21/00—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
- G01B21/32—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring the deformation in a solid
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
- B25J11/0085—Cleaning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Fuzzy Systems (AREA)
- Evolutionary Computation (AREA)
- Aviation & Aerospace Engineering (AREA)
- Manipulator (AREA)
Abstract
公开了使用具有可变形传感器的机器人来确定位置的系统。提供了用于确定机器人的位置的系统和方法。一种方法包括由处理器从可变形传感器接收信号,所述信号包括关于由与第一物体的接触引起的可变形传感器的可变形膜中的变形区域的数据。由处理器将与和第一物体的接触相关联的数据、与和第一物体的接触相关联的细节、和与存储在数据库中的多个物体相关联的信息进行比较。由处理器将第一物体识别为存储在数据库中的多个物体中的第一识别出的物体。第一识别出的物体是存储在数据库中的多个物体中与第一物体最相似的物体。机器人的位置由处理器基于第一识别出的物体的位置来确定。
Description
相关申请的交叉引用
本申请要求2020年2月17日申请的关于“Systems For Determining LocationUsing Robots With Bubble Sensors”的共同未决的美国临时专利申请62/977,466和2020年3月2日申请的关于“Bubble Sensor Grippers For Robust Manipulation AndManipuland State Estimation”的共同未决的美国临时专利申请62/984,083的优先权,其全部内容包括附图通过引用结合于此。
技术领域
本文描述的实施例总体上涉及用于确定空间内的机器人的位置的系统和方法,并且更具体地涉及具有能够检测物体的接触和几何形状以确定机器人的位置的可变形接触和几何形状/姿态传感器的机器人。
背景技术
作为人类,我们的触觉允许我们确定物体的形状而不用看物体。这有助于我们识别物体,并且在不使用我们的视觉的情况下,我们能够基于我们对被触摸的物体的位置的了解来确定我们位于空间内的什么位置。
机器人通常配备有被配置为执行某些任务的末端执行器。然而,机器人不像人类那样具有不同水平的触摸灵敏度。末端执行器可以包括诸如压力传感器的传感器,但是这种传感器提供关于与末端执行器接触的物体的有限信息。因此,机器人可能由于使用过大的力而损坏目标物体,或者由于其没有恰当地抓住物体而使物体掉落。因此,在一些应用中,可变形/顺应性端部执行器可能是期望的。
然而,机器人当前不能以这种方式接触物体,并且因此,机器人不能识别物体。因此,为了确定机器人的位置或地点,机器人依赖于诸如GPS传感器或视觉传感器之类的其他技术来识别机器人的位置。然而,这些在小规模环境中可能变得不准确。
发明内容
在一个实施例中,一种用于确定包括可变形传感器的机器人的位置的方法包括通过处理器从可变形传感器接收信号,所述信号包括关于由与第一物体的接触引起的可变形传感器的可变形膜(deformable membrane)中的变形区域的数据。由处理器将与和第一物体的接触相关联的数据、与和第一物体的接触相关联的细节、以及与存储在数据库中的多个物体相关联的信息进行比较。由处理器将第一物体识别为存储在数据库中的多个物体中的第一识别出的物体。第一识别出的物体是存储在数据库中的多个物体中与第一物体最相似的物体。机器人的位置由处理器基于第一识别出的物体的位置来确定。
在另一实施例中,一种用于确定空间内的位置的机器人包括壳体,该壳体包括上表面、相对的下表面以及在上表面和下表面之间延伸的边缘表面。在壳体上设置至少一个可变形传感器。所述至少一个可变形传感器包括内部传感器和可变形膜。内部传感器被配置为输出由于与第一物体接触而引起的可变形膜内的变形区域。机器人包括一个或多个处理器和一个或多个存储器模块,存储器模块包括存储计算机可读指令的计算机可读介质,当由一个或多个处理器执行时,计算机可读指令使一个或多个处理器从内部传感器接收表示当第一物体被接触时的变形区域的数据。与第一物体的接触相关联的数据由处理器与存储在数据库中的与多个物体相关联的细节进行比较。第一识别出的物体是存储在数据库中的多个物体中与第一物体最相似的物体。处理器将第一物体识别为存储在数据库中的多个物体中的第一识别出的物体。机器人的位置由处理器基于第一识别出的物体的位置来确定。
在又一实施例中,一种用于确定包括可变形传感器的机器人的位置的系统包括机器人,该机器人包括上表面、相对的下表面以及在上表面和下表面之间延伸的边缘表面。至少一个可变形传感器设置在机器人上。所述至少一个可变形传感器包括外壳、耦合到所述外壳的上部的可变形膜、经配置以填充有介质的罩体(enclosure),及安置在所述罩体内的内部传感器,所述内部传感器具有经配置以被引导穿过所述介质且朝向所述可变形膜的底部表面的视场。内部传感器被配置为输出由于与第一物体接触而引起的可变形膜内的变形区域。该系统包括一个或多个处理器和一个或多个存储器模块,存储器模块包括存储计算机可读指令的计算机可读介质,当由一个或多个处理器执行时,计算机可读指令使一个或多个处理器从内部传感器接收表示当第一物体被接触时的变形区域的数据。与第一物体的接触相关联的数据由处理器与存储在数据库中的与多个物体相关联的细节进行比较。第一识别出的物体是存储在数据库中的多个物体中与第一物体最相似的物体。处理器将第一物体识别为存储在数据库中的多个物体中的第一识别出的物体。机器人的位置由处理器基于第一识别出的物体的位置来确定。
结合附图,根据以下详细描述,将更全面地理解由本文所述的实施例提供的这些特征和附加特征。
附图说明
附图中阐述的实施例本质上是说明性和示例性的,而不是要限制由权利要求书定义的主题。当结合附图阅读时,可以理解以下对说明性实施例的详细描述,其中,相同的结构用相同的附图标记表示,并且其中:
图1示意性地描绘了根据本文描述和图示的一个或多个实施例的包括多个可变形传感器的示例机器人的透视图;
图2是示出了由图1的机器人用于实现根据本文描述和示出的一个或多个实施例的各种过程和系统的硬件的框图;
图3示意性地描绘了根据本文描述和图示的一个或多个实施例的示例可变形传感器的截面图;
图4示意性地描绘了根据本文描述和图示的一个或多个实施例的图3的示例可变形传感器的顶部透视图;
图5示意性地描绘了根据本文描述和图示的一个或多个实施例的示例可变形传感器的截面图;
图6示意性地描绘了根据本文描述和图示的一个或多个实施例的图5的示例可变形传感器的泡状(bubble)模块的后透视图;
图7示意性地描绘了根据本文描述和示出的一个或多个实施例的图6的泡状传感器的分解图;
图8示意性地描绘了根据本文描述和示出的一个或多个实施例的耦合到可变形传感器的可变形膜的过滤层;
图9示意性地描绘了根据本文描述和图示的一个或多个实施例的可变形传感器的内部传感器的视场内的过滤器;
图10示意性地描绘了根据本文描述和示出的一个或多个实施例的可变形传感器的可变形膜的底表面上的点图案;
图11示意性地描绘了根据本文描述和示出的一个或多个实施例的可变形传感器的可变形膜的底表面上的网格图案;
图12示意性地描绘了根据本文描述和示出的一个或多个实施例的具有多个内部传感器的复合内部传感器;
图13是描绘根据本文描述和示出的一个或多个实施例的电子显示器上的可变形传感器的输出的图像;
图14是描绘根据本文描述和图示的一个或多个实施例的确定与可变形传感器接触的物体相关联的姿态和力的示例性过程的流程图;
图15示意性地描绘了根据本文描述和图示的一个或多个实施例的在其中机器人被利用并且执行操作的空间的俯视图;以及
图16是描绘根据本文描述和图示的一个或多个实施例的确定机器人在空间内的位置的示例性过程的流程图。
具体实施方式
本公开的实施例涉及包括可变形传感器的机器人,并且更具体地,涉及不仅检测与目标物体的接触而且检测目标物体的几何形状、姿态和接触力的可变形/顺应接触和/或几何形状传感器(在下文中称为“可变形传感器”),以识别机器人的位置。具体地,本文描述的可变形传感器包括耦合到外壳的可变形膜,该外壳保持能够检测可变形膜由于与物体接触而产生的位移的传感器。因此,本文描述的可变形传感器提供了在操纵或接触物体时具有触摸感觉的机器人(或其它装置)。
自主机器人用于完成各种任务,并且可以有效地导航空间,诸如建筑物或单独房间。这样的任务可以包括取回物品、递送物品、或者(在自主真空吸尘器的例子下)清洁房间。已知的自主真空吸尘器通过在直线方向上驾驶直到接触到诸如墙壁、台阶或其它障碍物的物体来绘制诸如房屋的房间的空间,并且机器人将所接触的物体的位置信息存储在其存储器中作为在未来清洁操作期间要避开的物体。当接触到附加的物体时,机器人不断地将这些物体的位置信息添加到其存储器以更准确地绘制房间并在将来避开这些物体。
如图1中所示,示例机器人100被示出为自主真空吸尘器,且本文中所指的机器人操作为清洁操作。然而,应了解,机器人100可以是除自主真空吸尘器以外的用于执行其它任务的任何其它合适机器人,而并不背离本发明的范围。例如,机器人100可以是被指示为导航起始点和目的地点之间的空间的物体取回或递送机器人。
机器人100通常包括由上表面104、相对的下表面106和在上表面104与下表面106之间延伸的边缘表面108界定的壳体102。壳体102容纳机器人100的内部部件,如本文所述。壳体102的下表面106面向朝向地板表面F的向下方向,并且上表面104面向相反的向上方向。应当理解,实施例不限于图1的壳体102构造,并且各种表面可采用其它形状。至少一个轮110设置于壳体102的下表面106上以准许机器人100横越地板表面F。在一些实施例中,机器人100包括一对轮110。在其它实施例中,机器人100可以包含用于移动或运输机器人100的包含关节、滑板、轨道或飞行部件的腿。
此外,机器人100包括设置在壳体102的边缘表面108上的至少一个可变形传感器112。在一些实施例中,机器人100包含沿着壳体102的边缘表面108彼此间隔开的多个可变形传感器112。在设置多个可变形传感器112的实施例中,多个可变形传感器112可以以任何适当的方式沿着壳体102的边缘表面108间隔开和布置。然而,在一些实施例中,可变形传感器112可以位于壳体102的上表面104和/或下表面106上。当可变形传感器112位于壳体102的下表面106上时,可变形传感器112可以适合于感测机器人100正在其上滚动的地板的类型、高度阈值等。在其它实施例中,机器人100可以包含任何数目的包括接头的(joint)臂,末端执行器附接到臂的末端。在该实施例中,可变形传感器112可以设置在末端执行器上并且相对于机器人100独立地可移动。
机器人100上设置的可变形传感器112可以是能够识别所接触的物体的特性(例如几何形状、姿态、硬度、柔性等)的任何合适的可变形传感器,例如本文所讨论的那些实施例。机器人100的随后描述将参考可变形传感器112,一般关于其在识别物体和辅助机器人100确定其位置中的使用。
现在参考图2,示意性地描绘机器人100的一个非限制性实施例的示例部件。在一些实施例中,机器人100包括通信路径228、处理器230、存储器模块232、惯性测量单元236、输入设备238、相机244、网络接口硬件246、位置传感器250、灯252、接近传感器254、机动化轮组件258、电池260和充电端口262。机器人100的部件可以包含于壳体102内或安装到壳体102。以下将详细描述机器人100的各种部件及其交互。
仍然参考图2,通信路径228可以由能够传输信号的任何介质形成,例如导线、导电迹线、光波导等。此外,通信路径228可以由能够传输信号的介质的组合形成。在一个实施例中,通信路径228包括导电迹线、导电线、连接器和总线的组合,它们协作以允许将电数据信号传输到诸如处理器、存储器、传感器、输入设备、输出设备和通信设备等部件。因此,通信路径228可以包括总线。另外,注意,术语“信号”表示能够行进穿过介质的波形(例如,电、光、磁、机械或电磁),诸如DC、AC、正弦波、三角波、方波、振动等。通信路径228通信地耦合机器人100的各种部件。如本文所使用的,术语“通信地耦合”意味着耦合的部件能够彼此交换数据信号,诸如例如经由导电介质的电信号、经由空气的电磁信号、经由光波导的光信号等。
机器人100的处理器230可以是能够执行计算机可读指令的任何设备。因此,处理器230可以是控制器、集成电路、微芯片、计算机或任何其它计算装置。处理器230可以通过通信路径228通信地耦合到机器人100的其它部件。在各种实施例中,这可以允许处理器230从一个或多个可变形传感器112接收数据。在其他实施例中,处理器230可以直接从一个或多个内部传感器接收数据,这些内部传感器是机器人100上的一个或多个可变形传感器112的一部分。因此,通信路径228可以将任意数量的处理器彼此通信地耦合,并且允许耦合到通信路径228的部件在分布式计算环境中操作。具体地,每个部件可以作为可以发送和/或接收数据的节点来操作。虽然图2中所描绘的实施例包括单个处理器230,但其它实施例可包括一个以上处理器。
仍参考图2,机器人100的存储器模块232耦合到通信路径228且通信地耦合到处理器230。存储器模块232可以例如包含计算机可读指令以检测已经使可变形传感器112变形的物体的形状。在该示例中,存储在存储器模块232中的这些指令在由处理器230执行时可以允许基于可变形传感器112的观察到的变形来确定物体的形状。存储器模块232可以包括RAM、ROM、闪存、硬盘驱动器或能够存储计算机可读指令的任何非暂时性存储器设备,使得计算机可读指令可以由处理器230访问和执行。计算机可读指令可以包括以任何代的任何编程语言(例如,1GL、2GL、3GL、4GL或5GL)编写的(一个后多个)逻辑或算法,所述编程语言诸如是可以由处理器直接执行的机器语言,或者汇编语言、面向物体的编程(OOP)、脚本语言、微代码等,其可以被编译或汇编成计算机可读指令并且存储在存储器模块232中。替代地,计算机可读指令可以用硬件描述语言(HDL)编写,诸如经由现场可编程门阵列(FPGA)配置或专用集成电路(ASIC)或其等效物实现的逻辑。因此,本文所述的功能可以任何常规计算机编程语言、作为预编程硬件元件或作为硬件和软件部件的组合来实施。虽然图2中所描绘的实施例包含单个存储器模块232,但其它实施例可以包含一个以上存储器模块。
如果设置了惯性测量单元236,则惯性测量单元236耦合到通信路径228并通信地耦合到处理器230。惯性测量单元236可以包括一个或多个加速度计和一个或多个陀螺仪。惯性测量单元236将感测到的机器人100的物理移动转换为指示机器人100的朝向、旋转、速度或加速度的信号。机器人100的操作可取决于机器人100的朝向(例如,机器人100是水平的还是倾斜的,等等)。机器人100的一些实施例可不包含惯性测量单元236,例如包含加速度计但不包含陀螺仪的实施例、包含陀螺仪但不包含加速度计的实施例,或既不包含加速度计也不包含陀螺仪的实施例。
一个或多个输入设备238耦合到通信路径228,并且通信地耦合到处理器230。输入设备238可以是能够将用户接触转换成可以通过通信路径228传输的数据信号的任何设备,例如按钮、开关、旋钮、麦克风等。在各种实施例中,输入设备238可以是如本文所述的可变形传感器112。在一些实施例中,输入设备238包括电源按钮、音量按钮、激活按钮、滚动按钮等。可以设置一个或多个输入设备238,使得用户可以与机器人100交互,诸如导航菜单、进行选择、设置偏好和本文描述的其他功能。在一些实施例中,输入设备238包括压力传感器、触敏区域、压力条等。应当理解,一些实施例可以不包括输入设备238。如下文更详细地描述,机器人100的实施例可以包含安置于壳体102的任何表面上的多个输入装置。在一些实施例中,输入设备238中的一个或多个被配置为用于解锁机器人100的指纹传感器。例如,仅具有注册指纹的用户可以解锁并使用机器人100。
相机244耦合到通信路径228并且通信地耦合到处理器230。相机244可以是具有能够检测紫外波长带、可见光波长带或红外波长带中的辐射的感测装置(例如,像素)阵列的任何装置。相机244可以具有任何分辨率。相机244可以是全向相机或全景相机。在一些实施例中,一个或多个光学部件,诸如镜子、鱼眼镜头或任何其他类型的镜头,可以光学地耦合到相机244。如下面更详细地描述的,相机244是成像组件222的部件,其可操作以被升高到壳体102之上以捕获图像数据。
网络接口硬件246耦合到通信路径228,并且通信地耦合到处理器230。网络接口硬件246可以是能够经由网络270发送和/或接收数据的任何设备。因此,网络接口硬件246可以包括无线通信模块,其被配置为用于发送和/或接收任何有线或无线通信的通信收发器。例如,网络接口硬件246可以包括天线、调制解调器、LAN端口、Wi-Fi卡、WiMax卡、移动通信硬件、近场通信硬件、卫星通信硬件和/或用于与其它网络和/或设备通信的任何有线或无线硬件。在一个实施例中,网络接口硬件246包括被配置为根据蓝牙无线通信协议进行操作的硬件。在另一实施例中,网络接口硬件246可以包括用于向/从便携式电子设备280发送和接收蓝牙通信的蓝牙发送/接收模块。网络接口硬件246还可以包括被配置为询问和读取RFID标签的射频识别(“RFID”)读取器。
在一些实施例中,机器人100可以经由网络270通信地耦合到便携式电子设备280。在一些实施例中,网络270是利用蓝牙技术来通信地耦合机器人100和便携式电子设备280的个人区域网。在其它实施例中,网络270可以包括一个或多个计算机网络(例如,个人区域网、局域网或广域网)、蜂窝网络、卫星网络和/或全球定位系统及其组合。因此,机器人100可以经由电线、经由广域网、经由局域网、经由个人区域网、经由蜂窝网络、经由卫星网络等通信地耦合到网络270。合适的局域网可包括有线以太网和/或无线技术,例如无线保真(Wi-Fi)。合适的个人区域网可以包括无线技术,例如IrDA、蓝牙、无线USB、Z-Wave、ZigBee和/或其它近场通信协议。合适的个人区域网可类似地包括有线计算机总线,诸如USB和FireWire。合适的蜂窝网络包括但不限于诸如LTE、WiMAX、UMTS、CDMA和GSM的技术。
如上所述,网络270可以被用于将机器人100与便携式电子设备280通信地耦合。便携式电子设备280可以包括移动电话、智能电话、个人数字助理、相机、专用移动媒体播放器、移动个人计算机、膝上型计算机和/或能够与机器人100通信地耦合的任何其他便携式电子设备。便携式电子设备280可以包括一个或多个处理器和一个或多个存储器。一个或多个处理器可以执行逻辑以与机器人100通信。便携式电子设备280可以被配置有用于与机器人100通信的有线和/或无线通信功能。在一些实施例中,便携式电子设备280可以执行本文描述的功能的一个或多个元件,诸如在本文描述的功能分布在机器人100和便携式电子设备280之间的实施例中。
位置传感器250耦合到通信路径228并且通信地耦合到处理器230。位置传感器250可以是能够生成指示位置的输出的任何设备。在一些实施例中,位置传感器250包括全球定位系统(GPS)传感器,但是实施例不限于此。一些实施例可不包含位置传感器250,例如机器人100不确定机器人100的位置的实施例或以其它方式(例如,基于从相机244、网络接口硬件246、接近度传感器254、惯性测量单元236等接收的信息)确定位置的实施例。位置传感器250还可以被配置为无线信号传感器,其能够通过从一个或多个无线信号天线接收的无线信号对机器人100和用户的位置进行三角测量。
机动化轮组件258被耦合到通信路径228并且被通信地耦合到处理器230。如下面更详细地描述的,机动轮组件258包括由一个或多个电动机(未示出)驱动的至少一个轮110。处理器230可以向机动化轮组件258提供一个或多个驱动信号以致动轮110,使得机器人100行进到期望位置,诸如用户希望获取环境信息的位置(例如,在期望位置处或附近的特定物体的位置)。
如果设置了灯252,则灯252耦合到通信路径228并且通信地耦合到处理器230。灯252可以是能够输出光的任何装置,例如但不限于发光二极管、白炽灯、荧光灯等。一些实施例包括当机器人100通电时点亮的电源指示灯。一些实施例包括当机器人100活动或正在处理数据时点亮的活动指示灯。一些实施例包括用于照亮机器人100所位于的环境的照明灯。一些实施例可以不包括灯252。
如果设置了接近传感器254,则接近传感器254耦合到通信路径228并且通信地耦合到处理器230。接近传感器254可以是能够输出指示机器人100接近另一物体的接近信号的任何装置。在一些实施例中,接近传感器254可以包括激光扫描器、电容位移传感器、多普勒效应传感器、涡流传感器、超声传感器、磁传感器、内部传感器、雷达传感器、LiDAR传感器、声纳传感器等。一些实施例可以不包括接近传感器254,诸如其中机器人100到物体的接近是根据由其它传感器(例如,相机244等)提供的输入来确定的实施例,或者不确定机器人100到物体的接近的实施例。
机器人100可由电耦合到机器人100的各种电部件的电池260供电。电池260可以是能够存储电能以供机器人100稍后使用的任何装置。在一些实施例中,电池260是可再充电电池,例如锂离子电池或镍镉电池。在电池260是可再充电电池的实施例中,机器人100可以包括充电端口262,其可以被用于对电池260充电。一些实施例可以不包括电池260,诸如其中机器人100由电网、由太阳能或由从环境收集的能量供电的实施例。一些实施例可以不包括充电端口262,诸如机器人100利用一次性电池供电的实施例。
现在参考图3和4,示意性地示出了机器人100的可变形传感器112的实施例。图3是示例可变形传感器112的截面视图,并且图4是示例可变形传感器112的顶部透视图。示例可变形传感器112通常包括外壳310和例如通过外壳310的上部311耦合到外壳310的可变形膜320。在一些实施例中,外壳310是3D打印的。外壳310和可变形膜320限定了罩体313,罩体313通过一个或多个流体导管312而填充有介质,这些流体导管可以是阀或任何其它合适的机构。流体导管312可以被用于填充或排空罩体313。在一个示例中,介质是气体,例如空气。因此,空气可以被泵入到罩体313中达到期望的压力,使得可变形膜320形成如图3和4所示的圆顶形状,但是在其他实施例中可以使用任何合适的形状。在另一个示例中,介质是胶体,例如硅树脂或其它橡胶状物质。在一些实施例中,诸如固态硅树脂的物质可以在可变形传感器112的组装之前被铸造成给定形状。在各种实施例中,介质可以是对于内部传感器330(如对于飞行时间传感器的波长)透明的任何东西,在本文中更详细地讨论的。在一些实施例中,介质可以包括清澈/透明的橡胶。在其它实施例中,介质可以是液体。在一些示例中,可变形膜320和罩体313内的介质可以由相同的材料制成,例如但不限于硅树脂。在一些实施例中,可变形传感器112可以是可安装的。举例来说,罩体313可以包含待安装任何合适物体(例如机器人100或材料)的托架。可变形膜320可以是乳胶或任何其它合适的材料,例如合适的薄的、无孔的、橡胶状的材料。在一些实施例中,可变形膜320是从0.04mm厚的乳胶片材激光切割的。
如本文所用,术语“可变形”可指例如可变形传感器的变形容易。可变形性可以指可变形膜在接触目标物体时有多容易变形。可变形传感器112的可变形性可以通过改变可变形膜320的材料和/或罩体313内的压力来调整/修改。通过使用较软的材料(例如,软的硅树脂),可变形传感器112可以更容易地变形。类似地,降低罩体313内的压力也可以使可变形膜320更容易变形,这又可以提供更可变形的传感器112。在一些实施例中,可变形膜320被充气至20mm至75mm的高度以及0.20psi至0.30psi的压力。
如本文所使用的,术语“空间分辨率”可以指例如可变形传感器具有多少像素。像素的数量可以从1(例如,简单地检测与目标物体的接触的传感器)到数千或数百万(例如,由具有数千像素的飞行时间传感器提供的密集传感器)或任何合适的数量。可变形传感器112可以具有高空间分辨率,其中密集触觉感测传感器被设置作为机器人100的末端执行器,从而给予机器人100类似于人手指的良好触觉。可变形传感器112还可以具有深度分辨率以测量朝向和远离传感器的移动。在一些实施例中,可变形传感器112的特征在于由于变化的空间分辨率和/或深度分辨率而变化的触摸灵敏度。
能够感测深度的内部传感器330可以被布置在罩体313内,深度可以通过内部传感器330的深度分辨率来测量。内部传感器330可以具有穿过介质并朝向可变形膜320的底表面的视场332。在一些实施例中,内部传感器330的视场332是62°×45°+/-10%。在一些实施例中,内部传感器330可以是光学传感器。如下面更详细描述的,当可变形膜320与物体接触时,内部传感器330能够检测可变形膜320的形变。在一个示例中,内部传感器330是能够测量深度的飞行时间传感器。飞行时间传感器发射光信号(例如,红外信号)并且具有单独的检测器(即,“像素”),所述检测器检测反射信号返回到传感器所花费的时间。飞行时间传感器可以具有任何期望的空间分辨率。像素的数目越大,空间分辨率就越大。可以改变布置在内部传感器330内的传感器的空间分辨率。在一些情况下,可能期望低空间分辨率(例如,检测单个点的位移的一个“像素”)。在其他实施例中,灵敏的飞行时间传感器可以用作提供密集触觉感测的高空间分辨率内部传感器330。因此,内部传感器330可以是模块化的,因为传感器可以根据应用而改变。飞行时间传感器的非限制性示例是德国Siegen的PMDTechnologies AG出售的Pico Flexx。作为非限制性示例,其它类型的视觉内部传感器包括立体相机、激光测距传感器、结构光传感器/3D扫描仪、单个相机(诸如内部具有点图案或其它图案)、或任何其它合适类型的视觉检测器。例如,内部传感器330可以被配置为能够检测由物体引起的可变形膜320的形变的立体相机。
在一些实施例中,可以在单个可变形传感器112内利用任何适当数量和/或类型的内部传感器330。在一些示例中,并非可变形传感器112内的所有内部传感器330都需要是相同类型的。在各种实施例中,一个可变形传感器112可以利用具有高空间分辨率的单个内部传感器330,而另一可变形传感器112可以使用各自具有低空间分辨率的多个内部传感器330。在一些实施例中,可变形传感器112的空间分辨率可以由于内部传感器330的数量的增加而增加。在一些示例中,可变形传感器112内的内部传感器330的数量的减少可以通过剩余内部传感器330中的至少一些的空间分辨率的对应增加来补偿。如下面更详细地讨论的,可以根据机器人100的一部分中的可变形传感器112之中的变形分辨率或深度分辨率来测量聚合变形分辨率。在一些实施例中,聚合变形分辨率可以基于机器人100的一部分中的可变形传感器112的数量以及从该部分中的每个可变形传感器112获得的变形分辨率。
再次参考图3,可以在罩体313中使用电力导管314以例如通过电缆(例如用于USB(通用串行总线))或任何其它合适类型的电力和/或信号/数据连接将电力和/或数据/信号提供到例如内部传感器330。如在此所使用的,气密导管可以包括空气或任何其它流体(例如液体)不能通过的任何类型的通道。在该示例中,电力导管314是气密的,并且可以提供通道,固体物(诸如电线/电缆)可以穿过该通道,其中气密密封(诸如O形环)在电力导管314的每个端部处围绕这样的电线/电缆形成。其它实施例利用无线内部传感器330来发送和/或接收数据和/或功率。在介质不是气体(诸如是硅树脂)的各种实施例中,罩体313和/或电力导管314可以不必是气密的。
在一些实施例中,内部传感器330可以包括一个或多个内部压力传感器(气压计、压力传感器等或其任何组合),其用于通过介质检测可变形膜320的一般变形。在一些实施例中,可变形传感器112和/或内部传感器330可以接收/发送各种数据,诸如通过上述电力导管314、无线数据传输(Wi-Fi、蓝牙等)或任何其他合适的数据通信协议。例如,可变形传感器112内的压力可以由加压参数指定,并且可以与可变形传感器112的可变形性成反比。在一些实施例中,可变形传感器112的可变形性可以通过改变罩体313内的压力或可变形膜320的材料来修改。在一些实施例中,更新后的参数值的接收可以导致实时或延迟的更新(增压等)。
现在参考图5-7,示意性地示出了另一个示例可变形传感器112’。图5描绘了可变形传感器112’的截面图。可变形传感器112’类似于图3和4中所示的可变形传感器112,并且通常包括外壳410和耦合到外壳410的泡状模块411。泡状模块411包括可变形膜420,类似于图3和4所示的可变形膜320。这样,可变形膜420可以包括本文关于可变形膜320公开的任何特征。可变形传感器112’的泡状模块411类似于图3和4所示的可变形传感器112的上部311。然而,泡状模块411是从外壳410可移除的,并且因此在必要时是可替换的。泡状模块411限定了罩体413,其通过一个或多个流体导管412填充有介质,该流体导管可以是阀或任何其它合适的机构,其延伸穿过外壳410并终止于泡状模块411。如图所示,流体导管412包括管412A和管接头412B。流体导管412可以被用于填充或排空罩体413。当罩体413填充有介质时,可变形膜420形成圆顶形状,如图5和6所示。
类似于内部传感器330,能够感测深度的内部传感器430可设置在外壳410内,该深度可通过内部传感器430的深度分辨率来测量。内部传感器430可以具有视场432,其具有角度A1,被引导通过介质并且朝向可变形膜420的底表面。作为非限制性示例,内部传感器430的视场432的角度A1为62°×45°+/-10%。在一些实施例中,内部传感器430可以是光学传感器。如下面更详细地描述的,当可变形膜420与物体接触时,内部传感器430能够检测可变形膜420的形变。在一个示例中,内部传感器430是能够测量深度的飞行时间传感器。飞行时间传感器发射光信号(例如,红外信号)并且具有单独的检测器(即,“像素”),所述检测器检测反射信号返回到传感器所花费的时间。
如图5所示,内部传感器430设置在外壳410内,并且相对于泡状模块411和可变形膜420以角度A2定向。具体地,内部传感器430沿轴线延伸,角度A2在内部传感器430的轴线和泡状模块411的背板422之间延伸,如本文更详细地讨论的。作为非限制性示例,内部传感器430和泡状模块411之间的角度A2可以是35°+/-10%。成角度的内部传感器430使视场432以及与内部传感器430相对的可变形膜420的中心和远侧边缘处的深度测量精度最大化,同时使可变形传感器112’的总宽度尺寸最小化。
现在参考图6和7,可变形传感器112’的泡状模块411被示出与外壳410分离。如图6所示,泡状模块411以其组装形式示出,而图7示出了泡状模块411的分解图。泡状模块411包括可变形膜420、背板422和用于将可变形膜420固定到背板422上的环424。泡状模块411可以使用任何合适的装置可拆卸地耦合到外壳410,例如使用延伸穿过背板422中的孔427的螺纹插入件425,以将背板422固定到外壳410。替代地或附加地,螺纹插入件425可以被用于进一步将可变形膜420的外边缘421固定到背板422。
更具体地,背板422包括外壳表面422A、膜表面422B、以及在外壳表面422A和膜表面422B之间延伸的边缘表面422C。背板422由透明材料例如丙烯酸形成,使得内部传感器430的视场432不被泡状模块411阻挡。在组装泡状模块411时,粘合剂可以施加到背板422的边缘表面422C上。此后,可变形膜420的外边缘421可以围绕背板422定位以接触其边缘表面422C并粘附到其上。此外,环424可以围绕背板422的边缘表面422C定位,以便将可变形膜420夹在背板422和环424之间。如上所述,通过沿着背板422的外壳表面422A定位可变形膜420的外边缘421,并将螺纹插入件425穿过可变形膜420的外边缘421和背板422而插入,螺纹插入件425可以被用于进一步将可变形膜420固定到背板422。如图所示,管接头412B被示出在孔口423处附接到背板422,并且管412A从管接头412B延伸以将介质输送到泡状模块411中。
因此,如果可变形传感器112’被损坏,例如如果可变形膜420被刺穿,使得介质从泡状模块411中泄漏,则可变形传感器112’可以被修复而不干扰外壳410和设置在其中的电气部件,例如内部传感器430。在这样做时,泡状部件411通过螺纹插入件425或所设置的任何其它合适的装置从外壳410上移除,并且替换的泡状部件411可以与外壳410耦合。替代地,可能希望通过仅更换可变形膜420来修复现有泡状模块411,或者通过提供补丁(patch)来密封穿孔或其它受损区域来修复可变形膜420本身。应了解,设置具有可容易替换的泡状模块411的可变形传感器112’允许可变形传感器112’的较大部分容纳于机器人100内,而仅泡状模块411暴露且可从机器人100的外部访问。这减小了这种机器人100的尺寸,并且减小了在操作期间损坏可变形传感器112’的可能性。
现在参考图8,在一些实施例中,可变形传感器112、112’可以包括可选的过滤层323。在非限制性示例中,过滤层323被图示为设置在可变形传感器112上。过滤层323可以设置在可变形膜320的底表面321上。如本文更详细地描述的,可变形膜320的底表面321可以被图案化(例如,点图案、网格图案或任何其他合适类型的图案)。作为非限制性示例,可以利用立体相机来基于图案化的底表面321的识别出的变形来检测可变形膜320的位移。过滤层323可以被配置为辅助内部传感器330检测可变形膜320的变形。在一些实施例中,过滤层323减少由内部传感器330发射的一个或多个光学信号的眩光或不适当反射。在一些实施例中,过滤层323可散射由内部传感器330发射的一个或多个光学信号。过滤层323可以是固定到可变形膜320的底表面321的附加层,或者其可以是施加到可变形膜320的底表面321的涂层和/或图案。
参考图9,在一些实施例中,可变形传感器112、112’可以包括内部传感器过滤器335。在非限制性示例中,内部传感器过滤器335被图示为设置在可变形传感器112的内部传感器330上。内部传感器过滤器335可安置在内部传感器330的视场332内。内部传感器过滤器335可以针对可变形膜320的底表面321上的反射来优化由内部传感器330发射的光学信号。与过滤层323一样,内部传感器过滤器335可设置在内部传感器330的视场332内,并且可减少由内部传感器330发射的任何光学信号的眩光或不适当反射。在一些实施例中,内部传感器过滤器335可以散射由内部传感器330发射的一个或多个光学信号。在一些实施例中,过滤层323和内部传感器过滤器335两者都可以被利用。
可以在可变形传感器112的可变形膜320的底表面上或者在可变形传感器112’的可变形膜420的底表面上设置图案。再次参考图10,在非限制性示例中,包括多个排列的点的点图案325可以被施加到可选的过滤层323上的可变形膜320的底表面321或者可变形膜320自身,以辅助检测可变形膜320的变形。例如,当内部传感器330是立体相机时,点图案325可以辅助检测该变形。替代地,除了内部传感器330之外,可以设置立体相机以补充内部传感器330的变形检测。点图案325的不同程度的扭曲可以被用于辨别可变形膜320已经发生了多少变形。底表面321上的图案可以是随机的,并且不必以图10所示的点图案325或阵列布置。
在设置点图案325的一些实施例中,可变形膜320的底表面321上的点图案325的初始或变形前图像可以在可变形膜320的任何变形之前被捕获。此后,内部传感器330或单独的立体相机(如果设置的话)在可变形膜320的变形期间或之后捕获点图案325的至少一个变形后图像。可以将变形前图像与变形后图像进行比较,并且将变形前图像中的每个点的位置与变形后图像中的对应点进行比较,以确定点的位移量,并且因此确定变形膜320的位移量。每个点的位移可以被用于确定在点图案325的各个象限或部分处的变形量。然后,将每个点的位移量转换为距离测量值,以确定可变形膜320或其部分的具体变形,从而辨别使可变形膜320变形的物体的几何形状和/或姿态。
在一些实施例中,点图案325的每个点或至少一些点之间的测量结果可以存储在存储器模块(例如可变形传感器112的存储器模块232(图2))或相关处理器(例如处理器230(图2))中。因此,代替仅仅确定目标物体的几何形状和/或姿态,可以通过计算点图案325的相邻点之间的具体变形来确定目标物体的各个部分的尺寸。当点图案325包括更大量的点时,与当点图案325包括更少数量的点时相比,点图案325可以允许检测可变形膜320的更小区域内的变形。在点图案325的点被布置成阵列的实施例中,点可以彼此等距地间隔开或者以任何其他合适的方式布置。然而,在一些实施例中,当点之间的距离不是彼此等距地间隔开时,将点之间的距离存储在存储器模块内以识别点的布置。另外,应了解,可针对在可变形膜320的变形期间取得的多个变形后图像重复上文所论述的将变形前图像与变形后图像进行比较的相同技术,以提供关于目标物体的几何形状、测量值及/或姿态的实时数据。通过将变形后图像彼此比较,可以确定在较小的时间增量内发生的可变形膜320的位移,而不同于可变形膜320相对于初始的变形前的状态的总变形。
参照图11,在一些实施例中,图案可以是施加到可变形膜320的底表面321的网格图案322,以辅助检测可变形膜320的变形。例如,当内部传感器330是立体相机时,网格图案322可以辅助检测变形。例如,可以利用网格图案322的不同程度的变形来辨别已经发生了多少变形。在该示例中,网格图案322中的平行线之间的距离和/或线的测量曲率可以被用于确定网格图案322中的每个点处的变形量。底表面321上的图案可以是随机的,并且不必以图11所示的网格图案322或阵列排列。应当理解,实施例不限于这里所讨论的网格图案和点图案,因为其它类型的图案也是可能的,例如形状等。
现在参考图12,实施例描绘了复合内部传感器330’,其可以被利用以代替可变形传感器112的内部传感器330或可变形传感器112’的内部传感器430。描绘了多个内部传感器502,在该实施例中,其是飞行时间相机。其它实施例可以利用各种类型的内部传感器的任何组合。在该实施例中,电缆504用于向内部传感器提供数据通信和/或电力,但是其它实施例可以使用不同数量的电缆和/或无线连接用于数据和/或电力。在该实施例中描述了支撑结构506,但是其它实施例可以利用多个支撑结构506或者没有支撑结构。在该实施例中,支撑结构506是刚性的,尽管在一些实施例中一个或多个支撑结构506可以是柔性的以改变内部传感器502的朝向。在该实施例中,电缆504可连接到基部508以用于数据通信和/或电力。
图13描绘了使可变形传感器112的可变形膜320移位的示例物体615的图像。应当理解,可变形传感器112’还可以以与本文所讨论的相同的方式使用。在所示实施例中,当物体615接触可变形膜320和/或使可变形膜320变形时,显示设备640实时输出可变形传感器112的输出以在设备上显示。应理解,设置显示设备640仅用于说明性目的,且可在没有显示设备的情况下利用所述实施例。当物体615被压入可变形膜320时,物体615将其形状传递给可变形膜320,使得可变形膜320与物体615的形状一致。内部传感器330的空间分辨率可以使得内部传感器330检测移位的可变形膜320的几何形状和/或姿态。例如,当内部传感器330是飞行时间传感器时,从可变形膜320的被物体形变的底表面321反射的光信号具有比在形变区域之外的区域处被可变形膜320反射的光信号更短的飞行时间。因此,具有与物体615的形状匹配的几何形状和/或姿态的接触区域642(或移位区域,在本文中可互换地使用)可以被输出并显示在显示设备640上。
因此,可变形传感器112不仅可以检测与物体615的接触的存在,而且可以检测物体615的几何形状。以这种方式,配备有可变形传感器112或可变形传感器112’的机器人可以基于与物体的接触来确定物体的几何形状。另外,也可以基于由可变形传感器112、112’感测的几何信息来确定物体615的几何形状和/或姿态。例如,诸如当确定物体615的姿态时,可以显示垂直于接触区域642中的表面的向量644。向量644可以由机器人或其它设备使用以确定(例如)特定物体615可能朝向哪一方向。
现在转向图14,流程图图示了用于确定与可变形传感器112、112’接触的物体相关联的姿态和力的示例性方法700。然而,如本文所讨论的,参考图3和4,其示出了可变形传感器112,而不限制本公开的范围。在框702处,介质(气体、液体、硅树脂等)可以被接纳在罩体313内,其中可变形膜320被耦合到外壳310的上部311。在框704处,可以基于与物体615的接触、经由罩体313中具有穿过介质并朝向可变形膜320的底表面321的视场332的内部传感器330来测量可变形膜320的变形。在框706处,可以基于可变形膜320的测量出的变形(诸如接触区域642)来确定物体615的姿态。如上参考图13所述,可以通过将物体615按压到可变形膜320中来确定物体615的姿态,并且可变形膜320与物体615的形状一致。此后,内部传感器330检测移位的可变形膜320的几何形状和/或姿态。在框708处,基于可变形膜320的所测量出的变形来确定可变形膜320与物体615之间的力的量。框706和708可以同时执行,但不一定需要这样。在框710处,确定是否检测到进一步的变形和/或接触。如果是,则流程图可以返回到块704。如果不是,则流程图可以结束。
现在参考图16,参考图1和2中所示的机器人100以及图15中所示的机器人100执行操作的示例空间800来描绘流程图,该流程图图示了确定空间内的机器人100的位置的示例方法900。如本文所论述,将参考利用可变形传感器112的机器人100。然而,方法900同样适用于包括可变形传感器112’的机器人100。最初,在框902处,创建数据库。该数据库包括至少一个空间的信息和位于该空间内的物体的信息,使得机器人100可以确定其在该空间内的位置。数据库可以包括多个不同空间的信息,例如家庭或设施中的不同房间。因此,存储在数据库中的空间可以包括特定的标识符以区分多个空间,例如“卧室”、“厨房”、“起居室”等。对于每个空间,可以在机器人100的操作之前初始地提供布局,或者可以由机器人100实时地绘制布局,使得机器人100可以确定其在空间内的位置。在一些实施例中,存储在数据库中的布局包括空间的尺寸、机器人100在其操作期间可能接触的空间的地板表面上的物体的位置、物体的尺寸和/或空间中的物体之间的间距距离。此外,数据库可以包括诸如物体的构造材料的特定信息,以将诸如纹理、硬度、柔性等的某些特性与物体相关联。例如,如果诸如厨房桌子的物体被识别为由木材制成,则数据库将向该物体分配该物体具有与木材或该物体由其形成的任何材料相关联的特定硬度的特性。替代地,如果诸如沙发的物体被识别为由织物或皮革制成,则数据库将向该物体分配该物体具有与织物或皮革相关联的硬度的特性,该硬度可以小于由木材形成的物体的硬度。分配给物体的其它特性可以包括物体具有圆形边缘、拐角、突起、表面特征等。数据库不需要包括这里讨论的每个信息和/或特征。然而,应当理解,在数据库中提供的关于空间和其中提供的物体的信息和特性越多,机器人100将能够越快且越高效地确定其在空间内的位置。
本文所讨论的空间和/或物体的信息可以诸如通过操作输入设备238或便携式电子设备280来手动地输入到数据库中。这样,当空间和/或物体改变时,例如当家具被移动或更换时,空间和/或物体的信息可以根据需要被修改和/或删除。数据库可以存储在网络270中,或者可以存储在机器人100自身的存储器模块232内。然而,如果数据库存储在网络270中,则机器人100在操作期间使用到网络270的连接来检索和利用存储在数据库中的信息。替代地,可指示机器人100在执行操作之前将数据库或数据库的一或多个部分从网络270下载到机器人100的存储器模块232上。在机器人100完成操作之后,可以删除数据库以使得附加存储空间可以被用于数据库或其部分的后续下载。
可变形传感器112还可以被用于在探索操作期间接触物体或空间的壁时绘制空间。这允许机器人100在机器人100的探索操作期间自动地绘制空间,并且减少(或在一些情况下,消除)对用户手动输入空间和其中提供的物体的信息的需要。然而,当在操作期间实时绘制空间时,机器人100可能不能够确定其位置,直到已经绘制了足够量的空间。在一些实施例中,除了可变形传感器112之外,机器人100还可以包括补充感测设备,诸如光学传感器、声学传感器、飞行时间相机、激光扫描仪、超声传感器等,用于自动地绘制空间并且确定其中提供的物体的信息。
仍然参考图16中所示的方法900,参考图1和2中所示的定位在图15中所示的示例空间800(诸如家庭房间或家中的起居室)内的机器人100,并且,在框904处激活机器人100以执行操作。在机器人100是自主真空吸尘器的情况下,该操作可以是清洁操作。在机器人100是物体取回机器人或物体递送机器人的情况下,该操作可以是导航到目的地以取回或递送物体。示例空间800包括多个物体,诸如例如娱乐系统802、沙发804、桌子806、围绕桌子806布置的多个椅子808、以及橱柜810。如上所述,在一些实施例中,空间800和空间800中提供的物体的信息在机器人100开始其操作之前被手动输入到数据库中。这样,数据库可以包括诸如空间800、娱乐系统802、沙发804、桌子806、多个椅子808和橱柜810的位置和/或尺寸的信息。同样如上所述,数据库还可以包括每个物体的构造材料和/或每个物体之间的距离。
在如图15中所示的实例操作中,机器人100在整个空间800中移动,且在框906处,从机器人100延伸的多个可变形传感器112中的一者接触到第一物体,例如,可由木材形成的橱柜810。在接触橱柜810时,可变形传感器112的接触橱柜810的部分变形。为了本示例操作的目的,第一物体被称为橱柜810。然而,基于机器人100的初始起始点和行进方向,第一物体可以是空间800内的任何其他物体。如下面关于可变形传感器112更详细地讨论的,可变形传感器112在框908处提供至少包括橱柜810的几何形状、姿态、硬度和/或柔性的数据。因此,基于图15中所示的所示出的示例中的可变形传感器112的具体变形,机器人100识别橱柜810具有具体硬度。另外,机器人100还可以基于可变形传感器112的具体变形来识别可变形传感器112正在接触橱柜810的边缘或拐角。
在一些实施例中,机器人100(例如机器人100的边缘表面108)可能在相邻可变形传感器112之间的点处接触物体,使得这些可变形传感器112中没有一个抵靠物体而变形。在这种情况下,机器人100可以转动或旋转以重新定位其自身,使得可变形传感器112中的一个接触物体并且变形。在一些实施例中,机器人100包括沿着机器人100的边缘表面108在相邻可变形传感器112之间设置的附加的较小可变形传感器,以确定机器人100在哪里接触到了物体以及如何重新定位机器人100使得可变形传感器112中的一个接触物体。
在在操作之前数据库已经填充有空间800和其中提供的物体的信息的实施例中,机器人100在框910处将由可变形传感器112确定的第一物体(例如,橱柜810)的所获取的信息或数据与存储在数据库中的与空间800中的物体中的每一个相关联的信息进行比较。在这样做时,机器人100能够在框912处识别机器人100接触的空间800中的第一物体,或至少缩小可能的选项。例如,机器人100可以排除所接触的物体为由织物或皮革制成的沙发804,因为在数据库中识别的沙发804的相关联硬度小于由木材形成的橱柜810的相关联的硬度。这允许机器人100在框914处基于机器人100可能已经接触空间800中的哪些可能物体来确定或至少缩窄机器人100在空间800内的位置。
当数据库包括多个空间时,机器人100可以将接触到的第一物体与数据库中的空间中的每一个空间内的每个物体进行比较。然而,在一些实施例中,机器人100可基于来自用户的指示机器人100在哪一个空间开始其操作的指令而将第一物体仅与特定空间或空间的子集中的那些物体进行比较。替代地,机器人100的位置传感器250可以被用于确定机器人100的大致位置。这可以辅助缩小机器人100在其中操作的可能空间的数量。
为了将第一物体识别为数据库中的多个物体中的一个物体的第一识别出的物体,并因此识别机器人100的位置,机器人100还可以考虑物体周围的间距距离以及机器人100在接触第一物体之前行进的方向。如图15中所示,机器人100在接触橱柜810之前从起点803沿距离801以直线移动。基于该信息和与数据库中提供的空间800相关联的信息,机器人100可以能够排除诸如桌子806和椅子808的可能物体,这些物体不提供足够的间距来行进距离801。
一旦机器人100识别出所接触的第一物体是橱柜810,机器人100就可以在框914处基于存储在数据库中的橱柜810在空间800中的已知位置来确定其在空间800内的位置。然而,如果机器人100不能够基于由可变形传感器112获取的有限量的信息正确地识别第一物体,那么机器人100继续其操作直到接触后续物体,以从空间800内的多个可能位置确认第一物体的身份和机器人100的位置。例如,在接触第一物体(例如,橱柜810)之后,机器人100将转动离开第一物体且在不同方向上行进以继续操作。在框916处,机器人100然后将最终接触后续物体(诸如沙发804),并且基于与该后续物体的接触而接收后续信号。在框918处,当接触后续物体(例如沙发804)时,可变形传感器112以类似于在框908-912关于第一物体描述的方式识别第二物体的形状和硬度。在框920处,将该信息与数据库中提供的信息进行比较,并且在框922处,将该后续物体识别为数据库中的多个物体之一的后续识别出的物体,或者至少缩小第一物体和后续物体的身份的可能性。如本文所述,机器人100还可考虑从机器人100接触第一物体的点到机器人100接触后续物体的点所行进的距离,以辅助正确地识别第一物体和后续物体。
在框924处,一旦确认了第一物体的标识,并且在一些实例中确认了后续物体(如果必要的话),机器人100就能够确定其在空间800内的位置。这样,机器人100可以继续其操作并且基于数据库中提供的空间800中的任何其他物体的位置信息来避免与空间800内的任何其他物体的进一步接触。这在机器人100需要行进到空间800中的特定位置的情况下是有用的,例如以便执行清洁操作或物体取回/递送操作。机器人100的位置也可存储在存储器模块232内,使得机器人100可在未来操作期间继续跟踪其在空间800内的位置。因此,与附加或后续物体的接触可能不是必需的。替代地,如果机器人100的位置未准确确定,那么机器人100可以关于另一后续物体重复框916-924。
现在应当理解,本公开的实施例涉及能够检测与物体的接触以及物体的几何形状和姿态的可变形传感器。例如,一个或多个可变形传感器可以被设置在机器人上。由可变形传感器提供的信息然后可以被用于控制机器人与目标物体的交互。变形传感器的深度分辨率和空间分辨率可以根据机器人上的可变形传感器的位置而变化。
注意,本公开的部件以特定方式“配置”或“编程”以体现特定性质或以特定方式起作用的本文叙述是结构性叙述,而不是预期用途的叙述。更具体地,本文对部件“构造”或“编程”的方式的引用表示部件的现有物理状况,并且因此,将被视为部件的结构特性的明确叙述。
除非另外指明,否则本文所示出和描述的本公开的示例中的操作的执行或进行的顺序不是必需的。也就是说,除非另外指明,否则操作可以以任何顺序执行,并且本公开的示例可以包括比本文所公开的操作更多或更少的操作。例如,可以设想,在另一操作之前、同时或之后执行或进行特定操作在本公开的方面的范围内。
注意,术语“基本上”和“大约”和“近似”在这里可以被用于表示可以归因于任何定量比较、值、测量或其它表示的固有的不确定程度。这些术语在本文中还用于表示定量表示可从规定的参考值变化而不导致所讨论的主题的基本功能改变的程度。
尽管本文已经说明和描述了特定实施例,但是应当理解,在不脱离所要求保护的主题的精神和范围的情况下,可以进行各种其它改变和修改。此外,尽管本文已经描述了所要求保护的主题的各个方面,但是这些方面不需要组合使用。因此,所附权利要求书旨在覆盖在所要求保护的主题的范围内的所有这样的改变和修改。
Claims (20)
1.一种用于确定包括可变形传感器的机器人的位置的方法,所述方法包括:
由处理器从所述可变形传感器接收信号,所述信号包括关于由于与第一物体接触而引起的所述可变形传感器的可变形膜中的变形区域的数据;
由所述处理器将与所述第一物体的接触相关联的所述数据和与存储在数据库中的多个物体相关联的信息进行比较;
由所述处理器将所述第一物体识别为存储在所述数据库中的所述多个物体中的第一识别出的物体,所述第一识别出的物体是存储在所述数据库中的所述多个物体中与所述第一物体最相似的物体;以及
由所述处理器基于所述第一识别出的物体的位置来确定所述机器人的位置;
其中,所述可变形传感器包括:
壳体;
泡状模块,所述泡状模块耦合到所述壳体并且包括所述可变形膜;
内部传感器,所述内部传感器能够感测深度并且具有被引导穿过存储在所述可变形传感器的罩体内的的介质且朝向所述可变形膜的底部表面的视场,其中所述内部传感器被设置在所述壳体内并且被定向为相对于所述泡状模块和所述可变形膜成一特定角度,所述内部传感器沿一轴线延伸,所指定的所述角度在所述内部传感器的所述轴线与跨跨所述可变形膜的外边缘延伸的平面之间延伸,所述内部传感器被配置为输出所述可变形膜内由于与所述第一物体接触而引起的所述变形区域。
2.根据权利要求1所述的方法,还包括:
由所述处理器确定行进到所述第一物体的距离;
识别存储在所述数据库中的所述多个物体的所述信息内的间距距离;以及
将所述机器人行进到所述第一物体的所述距离与所述多个物体的所述间距距离进行比较。
3.根据权利要求1所述的方法,还包括:由所述处理器从所述可变形传感器接收后续信号,所述后续信号包括关于由与后续物体的接触而引起的所述可变形膜中的变形区域的数据。
4.根据权利要求3所述的方法,还包括:由所述处理器将与所述后续物体的接触相关联的所述数据和与存储在所述数据库中的所述多个物体相关联的信息进行比较,所述信息包括所述多个物体的几何形状、姿态、硬度、柔性和位置中的至少一个。
5.根据权利要求4所述的方法,还包括:
由所述处理器将所述后续物体识别为存储在所述数据库中的所述多个物体中的后续识别出的物体,
其中,所述机器人的位置基于所述第一识别出的物体的位置和所述后续识别出的物体的位置。
6.根据权利要求1所述的方法,还包括:当所述机器人接触所述第一物体并且所述可变形传感器不接触所述第一物体时,由所述处理器重新定位所述机器人,使得所述可变形传感器接触所述第一物体。
7.根据权利要求1所述的方法,还包括:通过改变由所述可变形膜部分限定的罩体内的压力来修改所述可变形传感器的可变形性。
8.根据权利要求1所述的方法,还包括:
通过设置在所述可变形膜的所述底部表面上的过滤层而散射由所述内部传感器发射的光信号。
9.根据权利要求8所述的方法,还包括:由所述处理器通过测量所述可变形膜的所述底部表面上的涂层或图案的变化来分析所述变形区域。
10.根据权利要求8所述的方法,其中,所述内部传感器包括飞行时间传感器。
11.一种用于确定空间内的位置的机器人,所述机器人包括:
外壳,所述外壳包括上表面、相对的下表面以及在所述上表面和所述下表面之间延伸的边缘表面;
设置在所述外壳上的至少一个可变形传感器,所述可变形传感器包括:
壳体;
泡状模块,所述泡状模块耦合到所述壳体并且包括可变形膜;
内部传感器,所述内部传感器能够感测深度并且具有被引导穿过存储在所述可变形传感器的罩体内的介质并且朝向所述可变形膜的底部表面的视场,其中所述内部传感器被设置在所述壳体内并且被定向为相对于所述泡状模块和所述可变形膜成一特定角度,所述内部传感器沿一轴线延伸,所指定的所述角度在所述内部传感器的所述轴线与跨所述可变形膜的外边缘延伸的平面之间延伸,所述内部传感器被配置为输出由与第一物体接触而引起的所述可变形膜内的变形区域;
一个或多个处理器;以及
一个或多个存储器模块,包括存储计算机可读指令的非暂时性计算机可读介质,所述计算机可读指令在由所述一个或多个处理器执行时使所述一个或多个处理器:
从所述内部传感器接收表示当所述第一物体被接触时所述可变形膜的所述变形区域的数据;
将与所述第一物体的接触相关联的所述数据和与存储在数据库中的多个物体相关联的信息进行比较;
将所述第一物体识别为存储在所述数据库中的所述多个物体中的第一识别出的物体,所述第一识别出的物体是存储在所述数据库中的所述多个物体中与所述第一物体最相似的物体;以及
基于所述第一识别出的物体的位置来确定所述机器人的位置。
12.根据权利要求11所述的机器人,其中,所述一个或多个存储器模块包括存储计算机可读指令的非暂时性计算机可读介质,所述计算机可读指令在由所述一个或多个处理器执行时使得所述一个或多个处理器:
由所述处理器确定行进到所述第一物体的距离;
识别存储在所述数据库中的所述多个物体的所述信息内的间距距离;以及
将所述机器人行进到所述第一物体的所述距离与所述多个物体的所述间距距离进行比较。
13.根据权利要求11所述的机器人,其中,所述一个或多个存储器模块包括存储计算机可读指令的非暂时性计算机可读介质,所述计算机可读指令在由所述一个或多个处理器执行时使所述一个或多个处理器:
由所述处理器从所述可变形传感器接收后续信号,所述后续信号包括关于由与后续物体的接触而引起的所述可变形膜中的变形区域的数据。
14.根据权利要求13所述的机器人,其中,所述一个或多个存储器模块包括存储计算机可读指令的非暂时性计算机可读介质,所述计算机可读指令在由所述一个或多个处理器执行时使得所述一个或多个处理器:
由所述处理器将与所述后续物体的接触相关联的所述数据和与存储在所述数据库中的所述多个物体相关联的信息进行比较,所述信息包括所述多个物体的几何形状、姿态、硬度、柔性和位置中的至少一个。
15.根据权利要求14所述的机器人,其中,所述一个或多个存储器模块包括存储计算机可读指令的非暂时性计算机可读介质,所述计算机可读指令在由所述一个或多个处理器执行时使得所述一个或多个处理器:
由所述处理器将所述后续物体识别为存储在所述数据库中的所述多个物体中的后续识别出的物体,
其中,所述机器人的位置基于所述第一识别出的物体的位置和所述后续识别出的物体的位置。
16.一种用于确定包括可变形传感器的机器人的位置的系统,所述系统包括:
机器人,所述机器人包括上表面、相对的下表面以及在所述上表面和所述下表面之间延伸的边缘表面;
设置在所述机器人上的至少一个可变形传感器,所述至少一个可变形传感器包括壳体、泡状模块、被配置为填充有介质的罩体、以及内部传感器,所述泡状模块包括耦合到所述壳体的上部的可变形膜,所述内部传感器被设置在所述壳体内、能够感测深度并且具有被配置为穿过所述介质并且朝向所述可变形膜的底表面的视场,其中所述内部传感器被定向为相对于所述泡状模块和所述可变形膜成一特定角度,所述内部传感器沿一轴线延伸,所指定的所述角度在所述内部传感器的所述轴线与跨所述可变形膜的外边缘延伸的平面之间延伸,其中所述内部传感器被配置为输出由于与第一物体的接触而引起的所述可变形膜内的变形区域;
一个或多个处理器;以及
一个或多个存储器模块,包括存储计算机可读指令的非暂时性计算机可读介质,所述计算机可读指令在由所述一个或多个处理器执行时使所述一个或多个处理器:
从所述内部传感器接收表示当所述第一物体被接触时的所述变形区域的数据;
将与所述第一物体的接触相关联的所述数据和与存储在数据库中的多个物体相关联的信息进行比较;
将所述第一物体识别为存储在所述数据库中的所述多个物体中的第一识别出的物体,所述第一识别出的物体是存储在所述数据库中的所述多个物体中的与所述第一物体最相似的物体;以及
基于所述第一识别出的物体的位置来确定所述机器人的位置。
17.根据权利要求16所述的系统,其中,所述一个或多个存储器模块包括存储计算机可读指令的非暂时性计算机可读介质,所述计算机可读指令在由所述一个或多个处理器执行时使得所述一个或多个处理器:
确定行进到第一物体的距离、包括间距距离的存储在数据库中的多个物体的信息;以及
将所述机器人行进到所述第一物体的所述距离与所述多个物体的所述间距距离进行比较。
18.根据权利要求16所述的系统,其中,所述一个或多个存储器模块包括存储计算机可读指令的非暂时性计算机可读介质,所述计算机可读指令在由所述一个或多个处理器执行时使得所述一个或多个处理器:
从所述可变形传感器接收信号,所述信号包括关于由与后续物体的接触而引起的所述可变形膜中的变形区域的数据。
19.根据权利要求18所述的系统,其中,所述一个或多个存储器模块包括存储计算机可读指令的非暂时性计算机可读介质,所述计算机可读指令在由所述一个或多个处理器执行时使得所述一个或多个处理器:
将与所述后续物体的接触相关联的所述数据和与存储在所述数据库中的所述多个物体相关联的信息进行比较,所述信息包括所述多个物体的几何形状、姿态、硬度、柔性和位置中的至少一个。
20.根据权利要求19所述的系统,其中,所述一个或多个存储器模块包括存储计算机可读指令的非暂时性计算机可读介质,所述计算机可读指令在由所述一个或多个处理器执行时使得所述一个或多个处理器:
将所述后续物体识别为存储在所述数据库中的所述多个物体中的后续识别出的物体,并且其中,所述机器人的位置基于所述第一识别出的物体的位置和所述后续识别出的物体的位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410124149.4A CN117718982A (zh) | 2020-02-17 | 2021-02-10 | 使用具有可变形传感器的机器人来确定位置的系统 |
Applications Claiming Priority (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202062977466P | 2020-02-17 | 2020-02-17 | |
US62/977,466 | 2020-02-17 | ||
US202062984083P | 2020-03-02 | 2020-03-02 | |
US62/984,083 | 2020-03-02 | ||
US16/931,626 US11577395B2 (en) | 2020-02-17 | 2020-07-17 | Systems for determining location using robots with deformable sensors |
US16/931,626 | 2020-07-17 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410124149.4A Division CN117718982A (zh) | 2020-02-17 | 2021-02-10 | 使用具有可变形传感器的机器人来确定位置的系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113263505A CN113263505A (zh) | 2021-08-17 |
CN113263505B true CN113263505B (zh) | 2024-02-13 |
Family
ID=74666587
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410124149.4A Pending CN117718982A (zh) | 2020-02-17 | 2021-02-10 | 使用具有可变形传感器的机器人来确定位置的系统 |
CN202110184237.XA Active CN113263505B (zh) | 2020-02-17 | 2021-02-10 | 使用具有可变形传感器的机器人来确定位置的系统 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410124149.4A Pending CN117718982A (zh) | 2020-02-17 | 2021-02-10 | 使用具有可变形传感器的机器人来确定位置的系统 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11577395B2 (zh) |
EP (1) | EP3865968B1 (zh) |
JP (1) | JP2021151694A (zh) |
CN (2) | CN117718982A (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11192253B2 (en) * | 2018-10-12 | 2021-12-07 | Toyota Research Institute, Inc. | Systems and methods for conditional robotic teleoperation |
CN114043473B (zh) * | 2021-09-24 | 2023-05-02 | 香港中文大学(深圳) | 一种触觉传感器控制方法、装置及计算机可读存储介质 |
CN117213971B (zh) * | 2023-09-04 | 2024-05-10 | 南通景康橡塑有限公司 | 一种橡塑制品用测量系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6529806B1 (en) * | 1998-05-13 | 2003-03-04 | Gmd Forschungszentrum Informationstechnik Gmbh | Autonomous navigating system having obstacle recognition |
CN107263549A (zh) * | 2016-03-25 | 2017-10-20 | 精工爱普生株式会社 | 机器人以及外力探测装置 |
CN107428008A (zh) * | 2014-12-09 | 2017-12-01 | 睿智通机器人有限公司 | 机器人的触摸感知 |
CN109551502A (zh) * | 2017-09-26 | 2019-04-02 | 丰田研究所股份有限公司 | 具有触摸灵敏度的机器人 |
CN110370279A (zh) * | 2019-04-03 | 2019-10-25 | 牧今科技 | 具有物体识别和处理机制的机器人系统及其操作方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3968501B2 (ja) | 2001-11-30 | 2007-08-29 | ソニー株式会社 | ロボットの自己位置同定システム及び自己位置同定方法 |
US7620477B2 (en) | 2006-07-05 | 2009-11-17 | Battelle Energy Alliance, Llc | Robotic intelligence kernel |
JP5078064B2 (ja) | 2007-01-29 | 2012-11-21 | 学校法人東京電機大学 | 触覚センサ、劣化検出方法、および表面再生方法 |
EP2933604B1 (en) | 2014-04-14 | 2016-11-30 | Softbank Robotics Europe | A method for localizing a robot in a localization plane |
US10810715B2 (en) * | 2014-10-10 | 2020-10-20 | Hand Held Products, Inc | System and method for picking validation |
US9811752B2 (en) * | 2015-03-10 | 2017-11-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | Wearable smart device and method for redundant object identification |
DE102016102644A1 (de) | 2016-02-15 | 2017-08-17 | RobArt GmbH | Verfahren zur Steuerung eines autonomen mobilen Roboters |
DE102016108460A1 (de) | 2016-05-08 | 2017-11-09 | ADLATUS Robotics GmbH | Reinigungsroboter und Verfahren zur Steuerung |
US9981382B1 (en) | 2016-06-03 | 2018-05-29 | X Development Llc | Support stand to reorient the grasp of an object by a robot |
US10977481B2 (en) * | 2016-06-24 | 2021-04-13 | Skusub LLC | System and method for object matching using 3D imaging |
EP3544911B1 (en) * | 2016-11-28 | 2023-10-18 | Berkshire Grey Operating Company, Inc. | System for providing singulation of objects for processing |
KR102646644B1 (ko) * | 2017-03-01 | 2024-03-13 | 모빌아이 비젼 테크놀로지스 엘티디. | 감지 불확실성이 있는 항법을 위한 시스템 및 방법 |
US10915114B2 (en) * | 2017-07-27 | 2021-02-09 | AI Incorporated | Method and apparatus for combining data to construct a floor plan |
US10577180B1 (en) * | 2018-02-26 | 2020-03-03 | Amazon Technologies, Inc. | Mobile modules for delivering items |
WO2019217720A1 (en) | 2018-05-09 | 2019-11-14 | Massachusetts Institute Of Technology | Systems and methods of in-pipe robot localization |
WO2020086748A1 (en) * | 2018-10-23 | 2020-04-30 | Berkshire Grey, Inc. | Systems and methods for dynamic processing of objects with data verification |
-
2020
- 2020-07-17 US US16/931,626 patent/US11577395B2/en active Active
-
2021
- 2021-02-10 CN CN202410124149.4A patent/CN117718982A/zh active Pending
- 2021-02-10 CN CN202110184237.XA patent/CN113263505B/zh active Active
- 2021-02-17 JP JP2021023275A patent/JP2021151694A/ja active Pending
- 2021-02-17 EP EP21157621.0A patent/EP3865968B1/en active Active
-
2023
- 2023-01-10 US US18/152,277 patent/US11951633B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6529806B1 (en) * | 1998-05-13 | 2003-03-04 | Gmd Forschungszentrum Informationstechnik Gmbh | Autonomous navigating system having obstacle recognition |
CN107428008A (zh) * | 2014-12-09 | 2017-12-01 | 睿智通机器人有限公司 | 机器人的触摸感知 |
CN107263549A (zh) * | 2016-03-25 | 2017-10-20 | 精工爱普生株式会社 | 机器人以及外力探测装置 |
CN109551502A (zh) * | 2017-09-26 | 2019-04-02 | 丰田研究所股份有限公司 | 具有触摸灵敏度的机器人 |
CN110370279A (zh) * | 2019-04-03 | 2019-10-25 | 牧今科技 | 具有物体识别和处理机制的机器人系统及其操作方法 |
Non-Patent Citations (1)
Title |
---|
Tactile-Based Mobile Robot Navigation;LongXianchao;WORCESTER POLYTECHNIC INSTITUTE;第2-5章 * |
Also Published As
Publication number | Publication date |
---|---|
US20210252709A1 (en) | 2021-08-19 |
CN113263505A (zh) | 2021-08-17 |
EP3865968B1 (en) | 2023-03-29 |
JP2021151694A (ja) | 2021-09-30 |
US11951633B2 (en) | 2024-04-09 |
US11577395B2 (en) | 2023-02-14 |
EP3865968A1 (en) | 2021-08-18 |
CN117718982A (zh) | 2024-03-19 |
US20230158674A1 (en) | 2023-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11465296B2 (en) | Deformable sensors and methods for detecting pose and force against an object | |
CN113263505B (zh) | 使用具有可变形传感器的机器人来确定位置的系统 | |
JP6949107B2 (ja) | 経路を自律走行するようにロボットを訓練するためのシステムおよび方法 | |
CN110091326B (zh) | 移动机器人以及移动机器人的控制方法 | |
US11806864B2 (en) | Robot arm assemblies including fingers having deformable sensors | |
US20230294299A1 (en) | Systems and methods for estimating shape, contact forces, and pose of objects manipulated by robots having compliant contact and geometry sensors | |
US10983528B2 (en) | Systems and methods for orienting a robot in a space | |
US11145116B2 (en) | System and method of scanning an environment and generating two dimensional images of the environment | |
US11628576B2 (en) | Deformable sensors and methods for detecting pose and force against an object | |
US11536621B2 (en) | Methods and systems for calibrating deformable sensors using camera | |
US11009887B2 (en) | Systems and methods for remote visual inspection of a closed space | |
US20220355488A1 (en) | Systems and methods for calibrating deformable sensors | |
CN115355857A (zh) | 物体轮廓检测方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |