CN110462540A - 用于辅助机器人设备的系统和方法 - Google Patents

用于辅助机器人设备的系统和方法 Download PDF

Info

Publication number
CN110462540A
CN110462540A CN201880019765.6A CN201880019765A CN110462540A CN 110462540 A CN110462540 A CN 110462540A CN 201880019765 A CN201880019765 A CN 201880019765A CN 110462540 A CN110462540 A CN 110462540A
Authority
CN
China
Prior art keywords
robot
task
mistake
auxiliary
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201880019765.6A
Other languages
English (en)
Inventor
O·辛亚夫斯基
J-B·帕索
B·I·加巴尔多斯
D·V·勒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yunhai Zhihang Co Ltd
Brain Corp
Original Assignee
Yunhai Zhihang Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yunhai Zhihang Co Ltd filed Critical Yunhai Zhihang Co Ltd
Publication of CN110462540A publication Critical patent/CN110462540A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39082Collision, real time collision avoidance

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

公开用于辅助机器人设备的系统和方法。在一些示例性实施方案中,机器人可能会遇到所述机器人不能够前进和/或不高度确定地知道所述机器人能够前进的情况。因此,所述机器人可以确定其已经遇到错误和/或辅助事件。在一些示例性实施方案中,所述机器人可以从操作员接收辅助和/或尝试自己解决问题。在一些情况下,所述机器人可以被配置成延迟动作,以便允许解决所述错误和/或辅助事件。

Description

用于辅助机器人设备的系统和方法
优先权
本申请要求2017年2月2日提交的相同标题的美国专利申请序列号15/423,442的优先权益,其以全文引用的方式并入本文中。
版权
此专利文献的公开内容的一部分含有受版权保护的材料。版权所有者不反对任何人对专利文献或专利公开内容进行传真复制,因为它出现在专利和商标局(Patent andTrademark Office)专利文件或记录中,但无论如何在其它方面保留所有版权。
背景技术
技术领域
本申请大体上涉及机器人技术,并且更具体来说,涉及用于辅助机器人设备的系统和方法。
背景技术
在一些情况下,机器人可在几乎没有直接操作员控制的情况下自动操作。然而,当这些机器人自动操作时,这些机器人可遇到由于外部原因(例如,阻塞的路径)而可卡住和/或具有错误和/或不可前进的情境。
许多现代机器人在受控环境中工作,几乎没有连接和监视。因此,操作员通常不知道机器人的需要,并且机器人没有稳固的程序来寻求帮助。在一些情况下,这可导致机器人造成机器人的损坏和/或其它次优行为。此外,在一些情况下,机器人遵循恢复程序,这甚至可妨碍操作员辅助它们的能力。因此,需要用于辅助机器人的改进的系统和方法。
发明内容
本公开满足上述需要,本公开特别提供用于自动导航中的动态路线规划的设备和方法。本文中所描述的实例实施方案具有创新特征,其中每一个创新特征都不是必不可少的或仅负责其期望属性。在不限制权利要求的范围的情况下,现在将概述一些有利特征。
在一个方面,公开用于操作机器人的方法。在一个示例性实施方案中,方法包括:致使机器人在环境中执行任务;当机器人执行任务时,利用机器人的一个或多个传感器生成关于环境的数据;从数据确定机器人至少部分地被阻碍执行任务;在确定机器人至少部分地被阻碍之后,在预定第一延迟之后,显示至少部分地指示机器人不可继续任务的第一警报;在显示警报之后,在预定第二延迟之后,尝试致使机器人执行任务;和在尝试致使机器人执行任务之后,在预定第三延迟之后,显示至少部分地指示机器人至少部分地被阻碍的第二警报。
在一个变型中,任务包含清洁地板。在另一变型中,方法包含从操作员接收操作指令并且至少部分地基于操作指令继续任务的执行。在另一变型中,从操作员接收操作指令包含接收机器人的按钮已被按下的确定,其中按钮的按下为继续执行任务而不管障碍物的指令。在另一变型中,从操作员接收操作指令包含显示行进路径,以及接收显示的路径的选择。
在另一变型中,方法另外包含从外部传感器接收数据,并且至少部分地基于来自外部传感器的数据,确定机器人是否仍然至少部分地被阻碍执行任务。在另一变型中,方法另外包含通过物体辨识来识别机器人至少部分地被阻碍。
在另一方面,公开机器人。在一个示例性实施方案中,机器人包括:一个或多个传感器,其被配置成生成关于环境的传感器数据;一个或多个致动器,其被配置成执行第一机器人任务;用户界面,其被配置成显示和接收信息;和处理器,其被配置成:致使一个或多个致动器执行第一机器人任务;在执行第一机器人任务时至少部分地基于传感器数据检测障碍物;致动一个或多个致动器,使得机器人至少部分地响应于检测的障碍物而不执行第一机器人任务;在用户界面上显示辅助视图,所述辅助视图包含至少部分地指示检测的障碍物和机器人的一个或多个可选择方位的警报;通过用户界面来接收机器人的一个或多个可选择方位中的选定一者;和至少部分地基于机器人的一个或多个可选择方位中的选定一者来致动致动器,并且继续执行与第一机器人任务基本上类似的任务。
在一个变型中,机器人另外包含通信单元,所述通信单元通信地耦合到被配置成监视机器人的远程网络。在另一变型中,处理器另外被配置成识别障碍物。在另一变型中,处理器另外被配置成通过机器学习过程来学习识别障碍物。在另一变型中,机器人包含地板清洁器。在另一变型中,机器人任务为导航。在另一变型中,机器人的可选择方位包含机器人的轨迹。
在又一方面,公开用于辅助地板清洁机器人的方法。在一个示例性实施方案中,方法包含:显示以图形方式表示地板清洁机器人被阻碍进行清洁的辅助视图;通过辅助视图来接收操作指令,操作指令包含在用户界面上显示机器人的多条行进路径,以及接收显示的路径的选择;和根据操作指令致使地板清洁机器人进行清洁。
在一个变型中,显示辅助视图另外包含:从机器人的传感器接收数据;至少部分地基于接收的数据来识别辅助事件;和生成指示识别的辅助事件的图形。
在另一变型中,方法另外包含将辅助视图传输到远程网络。在另一变型中,致使地板清洁机器人进行清洁包含:致使地板清洁机器人沿预定路径导航;和致使地板清洁机器人沿预定路径擦洗地板。
在另一变型中,方法另外包含从显示辅助视图起,根据操作指令将致使地板清洁机器人进行清洁至少延迟预定时间。
在另一变型中,在接收指示机器人上的辅助按钮已被按下的信号之后,根据操作指令发生致使地板清洁机器人进行清洁。
在又一方面,公开非暂时性计算机可读存储设备。在一个示例性实施方案中,非暂时性计算机可读存储设备上储存有多个指令,所述指令可由处理设备执行以操作机器人。指令被配置成当由处理设备执行时致使处理设备:致使一个或多个致动器执行机器人任务;至少部分地基于传感器数据,在执行机器人任务时检测障碍物;致动一个或多个致动器,使得机器人至少部分地响应于检测的障碍物而不执行机器人任务;在用户界面上显示辅助视图,所述辅助视图包含至少部分地指示检测的障碍物和机器人的一个或多个可选择方位的警报;通过用户界面来接收机器人的一个或多个可选择方位中的选定一者;和至少部分地基于机器人的一个或多个可选择方位中的选定一者来致动致动器,并且继续执行任务。
在又一方面,公开用于辅助机器人的系统。在一个示例性实施方案中,系统包括:机器人,其被配置成执行任务,机器人具有一个或多个传感器以收集关于机器人的环境的数据,其中当机器人在一个或多个传感器的数据中检测到的环境中遇到障碍物时,机器人传输辅助请求;外部传感器,其被配置成收集关于机器人的环境的至少一部分的数据;和远程网络,其通信地耦合到机器人和外部传感器,远程网络被配置成:从机器人接收辅助请求,响应于辅助请求从外部传感器获得数据;和确定如何辅助机器人。
在一个变型中,确定如何辅助机器人另外包含确定机器人是否可前进。
在又一方面,公开远程网络。在一个示例性实施方案中,远程网络包括:通信单元,其被配置成从机器人接收传感器数据和辅助请求;和处理器,其被配置成:识别接收的传感器数据中感兴趣的事件;确定是否获取关于事件的更多信息;至少部分地基于是否获取更多信息的确定,从外部传感器请求关于事件的数据;和至少部分地基于来自外部传感器的数据,向接入点发送辅助请求以辅助机器人。
在又一方面,公开机器人外部的传感器。在一个示例性实施方案中,传感器被配置成被配置成收集关于机器人的环境的至少一部分的数据;检测数据中的辅助事件;和与机器人通信以解决辅助事件。
在一个变型中,传感器另外被配置成与远程网络通信以解决辅助事件。
本公开的这些和其它目的、特征和特性,以及结构的相关元件的操作方法和功能以及各部分的组合和制造经济性将在参考附图考虑以下描述和所附权利要求时变得显而易见,所有这些均形成本说明书的一部分,其中相同附图标记表示各附图中的对应部分。然而,应该清楚地理解,附图仅用于说明和描述的目的,并且不旨在作为本公开的限制的定义。除非上下文另外明确规定,否则在本说明书和权利要求书中所用时,单数形式“一(a/an)”和“所述”包括多个指示物。
附图说明
将在下文中结合附图来描述所公开的方面,提供附图是为了说明但不限制所公开的方面,其中相同符号表示相同元件。
图1为根据本公开的一些实施方案的用于操作机器人的示例性方法的过程流程图。
图2A为说明根据本公开的一些实施方案的机器人的机器人足迹的俯视图。
图2B为根据本公开的一些实施方案的在物体周围导航但无效的机器人的俯视图。
图3为根据本公开的一些原理的机器人的功能框图。
图4为根据本公开的一些实施方案的系统的功能框图,所述系统包括通信地和/或操作性地耦合到远程网络的机器人。
图5为根据本公开的一些实施方案的用于发出辅助请求的示例性方法的过程流程图。
图6A-6C为示出根据本公开的一些实施方案的辅助视图的显示器。
图7为根据本公开的一些实施方案的用于提供关于机器人的信息的外部传感器的侧视图。
图8为说明根据本公开的一些实施方案的辅助过程的功能框图。
图9为根据本公开的一些实施方案的用于操作机器人的示例性方法的过程流程图。
图10为根据本公开的一些实施方案的用于操作机器人的示例性方法的过程流程图。
图11为根据本公开的一些实施方案的用于辅助机器人的示例性方法的过程流程图。
本文中所公开的所有图均为2017Brain Corporation。保留所有权利。
具体实施方式
下文参考附图更充分地描述本文中所公开的新颖系统、设备和方法的各个方面。然而,本公开可以许多不同形式来体现,并且不应被解释为限于贯穿本公开所呈现的任何特定结构或功能。相反,提供这些方面以使得本公开将透彻和完整,并且将向本领域的技术人员充分传达本公开的范围。基于本文中的教示,本领域技术人员应当理解,本公开的范围旨在覆盖无论是独立于本公开的任何其它方面而实施还是与其组合而实施的本文中所公开的新颖系统、设备和方法的任何方面。举例来说,可使用本文中所阐述的任何数目个方面来实施设备或实践方法。另外,本公开的范围旨在涵盖使用除本文中所阐述的本公开的各种方面之外的或不同于本文中所阐述的本公开的各种方面的其它结构、功能性或结构与功能性来实践的这类设备或方法。应理解,本文中所公开的任何方面可通过权利要求的一个或多个要素来实施。
尽管本文中描述特定方面,但这些方面的许多变化和排列落在本公开的范围内。尽管提及优选方面的一些益处和优点,但本公开的范围不旨在限于特定益处、用途和/或目标。详细描述和附图仅是对本公开的说明而不是限制,本公开的范围由所附权利要求和其等同物限定。
本公开提供对机器人的改进的远程操作和/或监视。如本文中所使用的,机器人可包括被配置成自动进行一系列复杂动作的机械和/或虚拟实体。在一些情况下,机器人可为由计算机程序和/或电子电路系统引导和/或指示的机器。在一些情况下,机器人可包括被配置成用于导航的机电部件,其中机器人可从一个位置移动到另一个位置。这类导航机器人可包括自动和/或自驾驶汽车、地板清洁器、漫游车、无人机、飞机、船、手推车等。
在一些情况下,机器人可包括自动执行一个或多个任务的器具、机器和/或装备。举例来说,模块可附接到器具、机器和/或装备以允许它们自动操作。在一些实施方案中,模块可包括驱动器具、机器和/或装备的自动运动的马达。在一些情况下,模块致使器具、机器和/或装备至少部分地基于欺骗,如通过将控制信号发送到器具、机器和/或装备的预先存在的控制器、致动器、单元和/或部件来操作。模块可包括传感器和/或处理器以接收和生成数据。模块还可包括处理器、致动器和/或本文所述的任何部件,以处理传感器数据,发送控制信号,和/或以其他方式控制器具、机器和/或装备的预先存在的控制器、单元和/或部件。这类器具、机器和/或装备可包括叉车、拖船、船、飞机、工业装备、地板清洁器、装料机、家用器具等。
如本文中所提到的,地板清洁器可包括手动控制(例如,驱动或远程控制)和/或自动(例如,几乎不使用直接用户控制)的地板清洁器。举例来说,地板清洁器可包括清洁工、保管人和/或其他人操作的地板擦洗器和/或对环境进行自动导航和/或清洁的机器人地板擦洗器。类似地,地板清洁器还可包括真空吸尘器、蒸汽机、缓冲器、拖把、抛光机、扫地机、磨光器和/或旨在清洁地板的装置。
现在提供对本公开的系统和方法的各种实施方案和变型的详细描述。虽然本文讨论的许多实例可涉及机器人地板清洁器,但是应当理解,本文含有的所描述的系统和方法适用于任何类型的机器人。鉴于本公开的内容,本领域普通技术人员将容易地设想本文所述技术的多种其它实例实施方案或用途。
有利地,本公开的系统和方法至少:(i)允许机器人在环境中安全地操作,即使在不可预见的情况下;(ii)通过允许机器人表现出预期的行为来为机器人提供舒适性(例如,通过人类和/或动物);(iii)允许机器人平稳操作,而没有不期望的中断;和(iv)提供机器人的有效操纵。鉴于本公开的内容,本领域普通技术人员可容易地辨别出其它优点。
举例来说,机器人可对环境进行导航、收集数据和/或执行动作。作为说明,机器人可为地板清洁器,其在对环境进行导航时清洁地板。机器人可收集和/或生成数据。举例来说,机器人可具有感测机器人的环境的传感器,如稍后将参考图3在本公开中描述的。这些传感器可产生关于环境的数据。机器人还可具有传感器,其监视机器人的性能,如开/关时间、速度、状态、软件版本、操作(例如,执行动作/操作,如清洁)、维护等。这些传感器可产生关于机器人的数据。机器人还可生成地图相关数据(例如,与绘图和/或定位相关和/或可用于绘图和/或定位的数据),其含有关于机器人的环境和/或允许机器人对环境进行自动导航的路线的信息。
机器人可遇到触发机器人问题的事件。在一些情况下,问题可为其中机器人在软件和/或硬件中具有与性能相关的问题的错误。在一些情况下,问题可为其中机器人被配置成从操作员寻求额外输入以能够确定机器人应该如何执行的情景。在一些情况下,这些问题可由机器人的一个或多个传感器检测。有利地,确定事件已经发生并且适当地请求辅助可改进操作员体验和/或增加对机器人操作的信心。此外,用于辅助的适当系统和方法可允许指定给机器人的任务的有效操作。
图1为根据本公开的一些实施方案的用于操作机器人的示例性方法100的过程流程图。框102包括执行任务。举例来说,这类任务可为与机器人相关联的功能,如导航、清洁、移动物体、运输物体、探索、绘图、构建、成像、诊断和/或机器人所期望的任何活动。在一些情况下,可由操作员使用机器人来执行这类任务。
框104包括在任务的执行期间检测错误和/或辅助事件。如本文中所使用的,辅助可涉及其中期望操作员辅助机器人的情境。举例来说,操作员辅助可涉及操作员方向、命令、状态等。在一些情况下,辅助可涉及由错误导致的情景。举例来说,错误可包括导致机器人的一个或多个特征受损的机器人的多次事件。
作为说明,致命错误可包括灾难性故障、连接丢失、紧急停机、破坏和致使机器人几乎没有功能性的其它事件。在一些情况下,一旦发生灾难性故障,机器人可以做的事情相对较少。在一些情况下,操作员可需要在机器人可再次起作用之前修复和/或更换机器人的一些部分。
作为另一个例子,错误可包括内部错误,其可为与机器人的软件或硬件的内部工作相关的错误。举例来说,这些内部错误可包括软件部件崩溃、堆栈错误和/或溢出、内存间隙和/或内存错误、软件部件挂起和/或冻结等。作为另一实例,内部错误可包括机械-电气错误和/或故障,如与机器人的机械和/或电气系统(如致动器、电源系统、控制器/计算机、继电器、连接器、电缆等)相关的错误和/或故障。内部错误还可包括碰撞和/或错误识别的碰撞(例如,在通过软件和/或硬件中的差错确定机器人已经碰撞到某物而机器人尚未碰撞到某物时的情况下)。
作为另一个例子,辅助可涉及机器人无法继续进行任务,如移动、操作和/或其它期望的活动。举例来说,可禁止机器人继续进行特定活动。在一些实施方案中,机器人可被配置成执行任务,如导航、清洁、移动物体、运输物体、探索、绘图、构建、成像、诊断和/或机器人所期望的任何活动。在一些实施方案中,可通过外部事件来禁止机器人完成任务,如通过阻塞(例如,障碍物的存在)、任务相关物体(例如,机器人应该运输的物体)的丢失/损坏/破坏、机器人的环境危险/危害、溢出(例如,由机器人或环境导致)、对环境和/或环境中的物体/人的危险,和/或可防止机器人执行任务的外部事件。在一些实施方案中,可通过内部事件来禁止机器人完成任务,如感知(例如,至少部分地基于来自机器人的传感器的数据)其不可继续进行任务(例如,至少部分地基于机器人的预定极限,如机器人自身的预定义足迹参数中的间隙量,如参考图2A所描述)、重影障碍物的检测(例如,机器人看到不存在的障碍物)、噪声(例如,传感器噪声、反射和/或对信号的其它不希望的添加/修改)、离域、打滑(例如,量距中的错误,其中机器人可错误地确定它在其他地方,包括其中它可撞击和/或接近物体的地方)、在机器人自身的预定义足迹参数内检测的障碍物等。
为了说明机器人自身的预定义足迹,图2A为说明根据本公开的一些实施方案的机器人200的机器人足迹202的俯视图。机器人200可具有预定义的主体形状和尺寸。机器人200可包括主体,其具有多个侧面,如前侧204A、右侧204C、左侧204D和后侧204B。机器人200还可具有顶侧和底侧。鉴于本公开的内容,本领域普通技术人员将理解,机器人200也可具有对应于机器人200的表面的其它侧面,其可根据形状(例如,矩形、方锥形、人形或任何其它设计的形状)而变化。作为说明,前侧204A可定位在机器人200的前向侧上,其中前向侧在机器人200的向前移动方向上向前。后侧204B可定位在机器人200的后向侧上,其中后向侧为面向前向侧的基本相反方向的侧面。右侧204C可为相对于前侧204A的右侧,并且左侧204D可为相对于前侧204A的左侧。
说明机器人200的实际主体。然而,足迹202可为在机器人200的软件和/或硬件中配置的机器人200的大小,用于确定其如何可导航和/或执行任务。作为说明,足迹202可延伸(如图所说明)超出前侧204A、右侧204C、左侧204D和/或后侧204B,从而在机器人200感知的为机器人200在软件和/或硬件中的大小(例如,足迹202)和实际上机器人200的实际大小之间产生差异。这可允许机器人200和/或环境中的物体之间的间隙。有利地,足迹202可允许用于导航的安全缓冲器。足迹202的大小和/或形状可至少部分地基于多个因素,包括期望的间隙、环境的复杂性、对辅助的容忍度、碰撞的风险(例如,碰撞的发生率、碰撞损坏的量等)和/或其它因素。如图所说明,足迹202为矩形的;然而,足迹202可采取任何期望的形状,如正方形、三角形、矩形、平行四边形不对称形状、曲线等。此外,足迹202从被视为二维的俯视图中说明。然而,在一些情况下,足迹202可为三维的,从机器人200的多个表面反映机器人200对机器人200的感知。
如图所说明,在一些实施方案中,足迹202可大于机器人200的实际大小。鉴于本公开的内容,本领域普通技术人员可理解,足迹202相对于机器人200的每一侧的间隙量可在不同点处独立地变化,其中足迹202可为与机器人200形状不同的形状,具有不对称的间隙和/或贯穿始终的变化。在一些实施方案中,足迹202可在大小和/或形状上与机器人200基本上类似,从而不产生间隙。有利地,具有此实质相似性可允许机器人200在物体周围紧密导航和/或使辅助降到最低。然而,具有此实质相似性可由于机器人200的绘图和/或导航中的噪声和/或像差而提供增加的碰撞风险。
在一些情况下,机器人200可适于通过空间,但足迹202可致使机器人200感知到它不可适合。在这种情况下,由于足迹202不可横过空间而停止的机器人200可导致辅助情景。然后,操作员可确定机器人200是否可实际穿越空间并且相应地指示机器人200。
作为另一个例子,辅助可涉及机器人卡住。举例来说,如果机器人在执行任务时有限制,那么机器人可卡住。作为说明,机器人可进入不可自动导航出去的区域。这可为机器人具有导航限制的情况,包括不能反向移动和/或在某些方向(例如,左、右、前、后等)上操作。在这种情况下,操作员可期望给出机器人指令,以在其限制内组合动作以离开和/或物理地转动机器人。作为另一实例,机器人可尝试多次前进越过物体但无效。机器人还可由于内部错误和/或其它原因而卡住。
在本公开的一些实施方案中,辅助可包括指令和/或与机器人的交互。举例来说,操作员可通过移动机器人(例如,控制机器人、触摸机器人、拾取机器人、旋转机器人等)来响应错误和/或辅助事件、告诉机器人前进、重置机器人和/或其它辅助。
鉴于本公开的内容,本领域普通技术人员将理解,存在其中可期望辅助机器人的任何数目的情况,并且本公开的系统和方法容易适应于这些情境中的任一种。
图2B为根据本公开的一些实施方案的在物体250周围导航但无效的机器人200的俯视图。机器人200最初可沿路线252A行进。物体250可沿路线252A位于方位254A中。机器人可使用一个或多个传感器(例如,如参考图3描述的传感器单元312的传感器)来检测物体。结果,机器人200可通过沿路线252B行进而尝试在方位254A周围导航,这在机器人200规划时可看起来为清晰的。然而,当机器人200尝试沿路线252B行进时,物体250可移动到方位254B。因此,机器人200可被阻止前进。在一些情况下,机器人200可再次重新路由到路线252A。然而,物体250然后可在机器人200可重新路由之前返回到方位254A。此重新路由可多次发生但无效。因此,机器人200可在预定次数的重新路由尝试之后请求辅助。可至少部分地基于以下来确定预定次数的重新路由尝试:在机器人200呼叫辅助之前所期望的时间量、机器人200在研讨时的外观(例如,可不期望机器人200在公众面前看起来混淆,因此在呼叫辅助之前可期望更少的重新路由)、所期望的辅助次数(例如,可期望具有出于安全和/或其它原因的更多的辅助,或者用于减少机器人对操作员的依赖性的更少的辅助)、重新路由的频率、用于解决问题的重新路由的经验性次数和/或其它考虑因素。
返回到图1,框106可包括呼叫辅助。呼叫辅助可包括显示指示机器人上的辅助、向操作员发送消息(例如,经由无线或有线信号)、与远程操作中心通信,和/或发送至少部分地指示辅助的任何通信。可通过以下发生辅助:操作员物理地辅助机器人(例如,移动机器人、移动障碍物、移动与机器人的任务相关的物体等)和/或向机器人发出指导(例如,通过用户界面、无线信号、有线信号等)。
图3为根据本公开的一些原理的机器人200的功能框图。如图3中所说明,机器人200可包括控制器304、存储器302、用户界面单元318、绘图和定位单元324、传感器单元312、致动器单元320和通信单元322,以及其它部件和子部件(例如,其中的一些可能并未说明)。鉴于本公开的内容,本领域普通技术人员将容易显而易见,尽管在图3中说明特定实施方案,但是应了解,架构在某些实施方案中可变化。如本文中所使用的,机器人200可至少部分地代表本公开中描述的任何机器人。
控制器304可控制由机器人200执行的各种操作。控制器304可包括一个或多个处理器(例如,微处理器)和其它外围设备。如本文中所使用的,处理器、微处理器和/或数字处理器可包括任何类型的数字处理装置,如(但不限于)数字信号处理器(“DSP”)、精简指令集计算机(“RISC”)、通用(“CISC”)处理器、微处理器、门阵列(例如,现场可编程门阵列(“FPGA”))、可编程逻辑装置(“PLD”)、可重新配置计算机结构(“RCF”)、阵列处理器、安全微处理器、专用处理器(例如,神经处理器)和专用集成电路(“ASIC”)。这类数字处理器可含在单个整体集成电路管芯上或分布在多个部件上。
控制器304可操作性地和/或通信地耦合到存储器302。存储器302可包括任何类型的集成电路或被配置成储存数字数据的其它储存装置,包括(但不限于)只读存储器(“ROM”)、随机存取存储器(“RAM”)、非易失性随机存取存储器(“NVRAM”)、可编程只读存储器(“PROM”)、电可擦除可编程只读存储器(“EEPROM”)、动态随机存取存储器(“DRAM”)、移动DRAM、同步DRAM(“SDRAM”)、双倍数据速率SDRAM(“DDR/2 SDRAM”)、经扩展数据输出(“EDO”)RAM、快页模式RAM(“FPM”)、减小时延DRAM(“RLDRAM”)、静态RAM(“SRAM”)、快闪存储器(例如,NAND/NOR)、忆阻器存储器、伪静态RAM(“PSRAM”)等。存储器302可向控制器304提供指令和数据。举例来说,存储器302可为其上储存有多个指令的非暂时性计算机可读存储设备和/或媒体,指令可由处理设备(例如,控制器304)执行以操作机器人200。在一些情况下,指令可被配置成在由处理设备执行时致使处理设备执行本公开中描述的各种方法、特征和/或功能性。因此,控制器304可基于储存于存储器302内的程序指令来执行逻辑和算术运算。在一些情况下,存储器302的指令和/或数据可储存在硬件的组合中,一些位于机器人200内本地,并且一些位于远离机器人200处(例如,在云、服务器、网络等中)。
在一些实施方案中,传感器单元312可包含可检测机器人200内和/或周围的特性的系统和/或方法。传感器单元312可包含多个传感器和/或传感器的组合。传感器单元312可包括在机器人200内部或外部的传感器,和/或具有部分在内部和/或部分在外部的部件。在一些情况下,传感器单元312可包括一个或多个外部感受传感器,如声纳、光检测与测距(“LIDAR”)传感器、雷达、激光器、相机(包括摄像机(例如,红-蓝-绿(“RBG”)相机、红外相机、3D相机、热传感相机等)、飞行时间(“TOF”)相机、天线、运动检测器、麦克风和/或本领域中已知的任何其它传感器。在一些实施方案中,传感器单元312可收集原始测量结果(例如,电流、电压、电阻、门逻辑等)和/或变换后的测量结果(例如,距离、角度、障碍物中的检测点等)。在一些情况下,可合计和/或汇总测量结果。传感器单元312可至少部分地基于测量结果而生成数据。这类数据可以数据结构形式储存,如矩阵、阵列、队列、列表、阵列、堆栈、包等。在一些实施方案中,传感器数据的数据结构可被称作图像。
在一些实施方案中,传感器单元312可包括可测量机器人200的内部特性的传感器。举例来说,传感器单元312可测量机器人200的温度、功率电平、状态和/或任何其它特性。在一些情况下,传感器单元312可被配置成使用机器人200的量距来确定位置。举例来说,传感器单元312可包括本体感受传感器,其可包含传感器,如加速度计、惯性测量单元(“IMU”)、里程计、陀螺仪、速度计、相机(例如,使用视觉里程计)、时钟/定时器等。量距可促进机器人200的自动导航和/或其它自动动作。此量距可包括机器人200相对于初始位置的方位(例如,其中方位可包括机器人的位置、移位和/或取向,并且有时可与如本文中所使用的术语姿势互换)的测量结果。这类数据可以数据结构形式储存,如矩阵、阵列、队列、列表、阵列、堆栈、包等。在一些实施方案中,传感器数据的数据结构可被称作图像。
绘图和定位单元324可从传感器单元312接收传感器数据以在地图中定位机器人200。在一些实施方案中,绘图和定位单元324可包括定位系统和方法,其允许机器人200在地图的坐标中和/或相对于位置(例如,初始位置、结束位置、信标、参考点等)定位自身。绘图和定位单元324还可如通过生成图形(例如,方位图形)和/或地图来处理由机器人200获取的测量结果。在一些实施方案中,绘图和定位单元324可为控制器304的至少一部分。
在一些实施方案中,用户界面单元318可被配置成使得用户能够与机器人200交互。举例来说,用户界面单元318可包括触控面板、按钮、小键盘/键盘、端口(例如,通用串行总线(“USB”)、数字视频接口(“DVI”)、显示器端口、E-Sata、Firewire、PS/2、串行、VGA、SCSI、音频端口、高清多媒体接口(“HDMI”)、个人计算机内存卡国际协会(“PCMCIA”)端口、存储卡端口(例如,安全数字(“SD”)和miniSD)和/或计算机可读媒体的端口)、鼠标、滚球、控制台、振动器、音频转换器和/或供用户输入和/或接收数据和/或命令的任何界面,不管是以无线方式耦合还是通过电线耦合。用户界面单元318可包括显示器,如(但不限于)液晶显示器(“LCD”)、发光二极管(“LED”)显示器、LED LCD显示器、平面内切换(“IPS”)显示器、阴极射线管、等离子显示器、高清(“HD”)面板、4K显示器、视网膜显示器、有机LED显示器、触摸屏、表面、画布和/或任何显示器、电视、监视器、面板和/或本领域中已知的用于视觉呈现的装置。在一些实施方案中,用户界面单元318可定位在机器人200的主体上。在一些实施方案中,用户界面单元318可远离机器人200的主体定位,但是可直接或间接(例如,通过网络、服务器和/或云)通信地耦合到机器人200(例如,经由通信单元,包括传输器、接收器和/或收发器)。
在一些实施方案中,通信单元322可包括一个或多个接收器、传输器和/或收发器。通信单元322可被配置成发送/接收传输协议,如(但不限于)以下中的一种或多种:Wi-Fi、感应无线数据传输、射频、无线电传输、射频识别(“RFID”)、近场通信(“NFC”)、红外、网络接口、如3G(3GPP/3GPP2)的蜂窝技术、高速下行链路包接入(“HSDPA”)、高速上行链路包接入(“HSUPA”)、时分多址(“TDMA”)、码分多址(“CDMA”)(例如,IS-95A、宽带码分多址(“WCDMA”)等)、跳频扩频(“FHSS”)、直接序列扩频(“DSSS”)、全球移动通信系统(“GSM”)、个人局域网(“PAN”)(例如,PAN/802.15)、全球微波接入互操作性(“WiMAX”)、802.20、长期演进(“LTE”)(例如,LTE/LTE-A)、时分LTE(“TD-LTE”)、全球移动通信系统(“GSM”)、窄带/频分多址(“FDMA”)、正交频分复用(“OFDM”)、模拟蜂窝、蜂窝数字包数据(“CDPD”)、卫星系统、毫米波或微波系统、声学、红外(例如,红外数据协会(“IrDA”)),和/或任何其它形式的无线数据传输。
如本文中所使用的,网络接口可包括具有部件、网络或过程的任何信号、数据或软件接口,包括(但不限于)那些FireWire(例如,FW400、FW800、FWS800T、FWS1600、FWS3200等)、通用串行总线(“USB”)(例如,USB 1.X、USB 2.0、USB 3.0、USB C型等)、以太网(例如,10/100、10/100/1000(千兆以太网)、10-Gig-E等)、同轴电缆多媒体联盟技术(“MoCA”)、Coaxsys(例如,TVNETTM)、射频调谐器(例如,带内或OOB、电缆调制解调器等)、Wi-Fi(802.11)、WiMAX(例如,WiMAX(802.16))、PAN(例如,PAN/802.15)、蜂窝(例如,3G、LTE/LTE-A/TD-LTE/TD-LTE、GSM等)、IrDA系列等。如本文中所使用的,Wi-Fi可包括以下中的一种或多种:IEEE-Std.802.11、IEEE-Std.802.11的变型、与IEEE-Std.802.11相关的标准(例如,802.11a/b/g/n/ac/ad/af/ah/ai/aj/aq/ax/ay),和/或其它无线标准。
通信单元322还可被配置成利用有线连接上的传输协议来发送/接收,所述有线连接如具有信号线路和接地的任何电缆。举例来说,这类电缆可包括以太网电缆、同轴电缆、通用串行总线(“USB”)、FireWire和/或本领域中已知的任何连接。这类协议可供通信单元322使用以与外部系统通信,如计算机、智能电话、平板电脑、数据捕获系统、移动电信网络、云、服务器等。通信单元322可被配置成发送和接收信号,所述信号包含数字、字母、字母数字字符和/或符号。在一些情况下,信号可使用如128位或256位密钥的算法和/或遵守各标准的其它加密算法进行加密,所述标准如高级加密标准(“AES”)、RSA、数据加密标准(“DES”)、三重DES等。通信单元322可被配置成发送和接收状态、命令和其它数据/信息。举例来说,通信单元322可与用户操作员通信以允许用户控制机器人200。通信单元322可与服务器/网络(例如,远程网络)通信,以便允许机器人200向服务器发送数据、状态、命令和其它通信。服务器还可通信地耦合到可用于远程监视和/或控制机器人200的一个或多个计算机和/或一个或多个装置。通信单元322还可从机器人200的服务器接收更新(例如,固件或数据更新)、数据、状态、命令和其它通信。
致动器单元320可包括用于致动,在一些情况下用于执行任务的任何系统。举例来说,致动器单元320可包括驱动磁体系统、马达/发动机(例如,电动机、内燃机、蒸汽发动机和/或本领域中已知的任何类型的马达/发动机)、螺线管/棘轮系统、压电系统(例如,尺蠖马达)、磁致伸缩元件、手势和/或本领域中已知的任何致动器。在一些实施方案中,致动器单元320可包括允许机器人200移动(如机动推进)的系统。举例来说,机动推进可向前或向后移动机器人200,和/或至少部分地用于转动机器人200(例如,向左、向右和/或任何其它方向)。作为说明,致动器单元320可控制机器人200是否正在移动或停止和/或允许机器人200从一个位置导航到另一个位置。致动器单元320还可被配置成致动机器人200的其它器械,如打开/关闭水、打开/关闭刷子、喷水、打开/关闭真空吸尘器、移动真空软管方位、移动附件(例如,机器人臂、腿、手、脚等)和/或任何其它动作。
参照图3描述的单元中的一个或多个(包括存储器302、控制器304、传感器单元312、用户界面单元318、致动器单元320、通信单元322、绘图和定位单元324和/或其它单元)可集成到机器人200上,如集成在集成系统中。然而,在一些实施方案中,这些单元中的一个或多个可为可附接模块的一部分。此模块可附接到现有设备以自动化,使得其表现为机器人。因此,参考机器人200在本公开中描述的特征可在模块中实例化,所述模块可附接到现有设备和/或集成到集成系统中的机器人200上。此外,在一些情况下,鉴于本公开的内容,本领域普通技术人员将理解,本公开中描述的特征的至少一部分也可远程运行,如在云、网络和/或服务器中。在一些情况下,控制器304可执行包括图3中所说明的单元中的一个或多个和/或由机器人200执行的其它动作可由控制器304处理。
在一些实施方案中,机器人200可通信地耦合到远程网络。图4为根据本公开的一些实施方案的系统400的功能框图,所述系统400包括通信地和/或操作性地耦合到远程网络402的机器人200。远程网络402可包含硬件、软件、服务和/或资源的集合,其可被调用以在有限或定义的持续时间或无限或未定义的持续时间内实例化虚拟机、过程或其它资源。远程网络402可通信地和/或操作性地耦合到多个装置、系统和/或服务器,包括接入因特网的装置和/或服务器。接入点中的一个或多个,如接入点404A和404B,可为装置、系统和/或服务器,包括但不限于计算机、移动装置、平板电脑、智能电话、蜂窝电话、个人数字助理、平板手机、电子阅读器、智能手表、机顶盒、因特网流式传输装置、游戏控制台、智能电器和/或可接入互联网和/或任何网络协议的任何装置。尽管说明两个接入点,但是可根据需要存在更多或更少的接入点。
如本文中所使用的,可操作远程网络402:远程网络402可具有可接收、处理和/或发送信息的机载计算机。这些计算机可自动地操作和/或由一个或多个人类操作员在控制下操作。类似地,远程网络402可具有接入点(例如,接入点404A和404B),其可类似地用于操作远程网络402。接入点可具有可接收、处理和/或发送信息的计算机和/或人类操作员。因此,本文中对远程网络402的操作的提及可应用于人类操作员和/或计算机操作员。
在一些实施方案中,与机器人200基本上类似的一个或多个机器人可通信地和/或操作性地耦合到远程网络402。这些机器人中的每一个可将状态、命令和/或操作数据通信到远程网络402。远程网络402还可将状态、命令和/或操作数据储存和/或通信到这些一个或多个机器人。
鉴于本公开的内容,本领域普通技术人员将理解,本公开的一些部分可由机器人200、网络402和/或接入点404A和/或404B执行。尽管可参考机器人200、网络402和/或接入点404A和/或404B中的一个或多个来描述某些实例,但是应理解,实例的特征可分布在机器人200、网络402和/或接入点404A和/或404B之间,以实现基本上类似的结果。
图5为根据本公开的一些实施方案的用于发出辅助请求的示例性方法500的过程流程图。框502包括检测错误和/或辅助事件。可使用传感器单元312的一个或多个传感器来检测错误和/或辅助事件。举例来说,传感器单元312的外部感受传感器可检测与机器人200的环境相关的错误和/或辅助事件。作为说明,错误和/或辅助事件可涉及机器人200无法继续进行任务。在一些情况下,机器人200可使用传感器单元312的传感器(例如,LIDAR、声纳、相机等)来检测物体(例如,物品、障碍物、人、平坦物体、大物体、玻璃等)。
举例来说,传感器单元312的一些传感器发射和接收能量以便检测机器人200的环境的特性。这类能量可包括声音、光、电磁波等中的一种或多种。作为说明,传感器可为LIDAR,其可通过发射光并且在接收器处测量光(例如,包括反射的光)来检测环境的特性。可通过使用LIDAR来检测障碍物的存在。在一些实施方案中,绘图和定位单元324可确定障碍物沿机器人200的全局或局部路径落下。因此,机器人200可确定路径被阻挡。其它实例包括由声纳使用的声波。各种相机还可发射和接收光,和/或使用滤光器来检查某些频率的光。
在一些情况下,可由机器人200识别物体和/或障碍物,如通过检测物体的特性和/或将来自传感器单元312的传感器的数据与传感器数据库中的识别的物体相匹配。在一些情况下,机器人200可不具体地识别物体,而是仅检测物体的存在。作为另一实例,传感器单元312的本体感受传感器可检测与机器人200相关的错误和/或辅助事件。本体感受传感器可检测机器人200的特性,其中机器人200可期望辅助。在一些实施方案中,一旦机器人200已检测到错误和/或辅助事件,机器人200就可识别错误和/或辅助事件。其它错误和辅助事件可基本上类似于参考图1的方法100中的框104描述的那些错误和辅助事件。
在一些情况下,存储器302可储存传感器数据库。在一些情况下,传感器数据可至少部分地与辅助事件和/或错误相关联。在一些实施方案中,此库可包括与不同条件下的辅助事件和/或错误相关的传感器数据,如与具有不同成分(例如,材料、反射特性、分子组成等)的物体、不同光照条件、角度、大小、距离、清晰度(例如,模糊、阻碍/遮挡、部分偏离框架等)、颜色、周围环境和/或其它条件相关的传感器数据。库中的传感器数据可由传感器(例如,传感器单元312的传感器或任何其它传感器)获取和/或自动生成,如利用计算机程序,其被配置成从不同光照条件、角度、大小、距离、清晰度(例如,模糊、阻碍/遮挡、部分偏离框架等)、颜色、周围环境和/或其它条件生成/模拟(例如,在虚拟世界中)库传感器数据(例如,其可完全数字地和/或从实际传感器数据开始生成/模拟这些库数据)。库中图像的数目可至少部分地取决于可用数据量、其中机器人200操作的周围环境的可变性、物体的复杂性、物体外观的可变性、机器人的物理特性、传感器的特性和/或可用储存空间量(例如,在库、存储器302和/或本地或远程储存装置中)中的一个或多个。在一些实施方案中,库的至少一部分可储存在网络(例如,云、服务器、分布式网络等)上和/或可不完全储存在存储器302中。作为又一实例,各种机器人(例如,通常相关联的机器人,如由共同制造商、用户、网络等创建的机器人)可联网,使得由单个机器人捕获的数据与其它机器人共同共享。以这种方式,这些机器人可被配置成学习和/或共享传感器数据,以便促进容易地检测和/或识别错误和/或辅助事件的能力。
在一些实施方案中,由于传感器数据中的预定模式和/或机器人200学习的模式,机器人200可识别已发生的错误和/或辅助事件。举例来说,错误和/或辅助事件可包括错误类别,如致命错误、内部错误、机器人无法继续进行任务、机器人卡住等。还可预定错误类别的其它识别,包括特定的错误类别,如电池用完、途中障碍物、清洁液用完、堆栈错误、过热、检测到的人和/或错误的任何预定的识别。在一些情况下,机器人200可被配置成识别和/或辨识在其传感器中检测到的人、动物、物体和/或其它主体。鉴于本公开的内容,本领域普通技术人员将理解,可根据需要给出错误和/或辅助事件的预定识别。举例来说,基于机器人200是否检测到人、动物、物体和/或其它主体,所期望的辅助类型可为不同的。机器人200可基于机器人200检测/识别的内容来遵循逻辑操作。在执行任务时,人和/或动物可从机器人200的轨迹移开。因此,在其中机器人200检测到人和/或动物的一些情况下,机器人200可等待人和/或动物移开。在一些情况下,机器人200可完全不发出辅助事件和/或错误和/或在更长的等待(例如,预定时间)之后发出辅助事件和/或错误,以便给出人和/或动物移开的时间。作为另一实例,如果机器人200在其路径中识别盒子和/或静态物体,那么机器人200可更早地(例如,预定时间)发出辅助事件和/或错误,因为盒子和/或静态物体可能将不移开。
作为说明,机器人200可使用传感器单元312的某些传感器来检测致命错误和/或内部错误。举例来说,电气开关、光传感器和/或本领域中已知的其它传感器可用于测量何时流体在机器人200中降至低于期望水平。机器人200可监视机器人200的各种部件,包括实施测试程序。因此,机器人200可检测何时发生错误。
作为另一个例子,机器人200可检测其它错误,如机器人200无法继续进行任务。在一些情况下,机器人200可利用外部感受传感器检测障碍物,如LIDAR、声纳、相机(例如,TOF相机、RBG相机等),和/或被配置成检测物体的任何其它传感器。在一些情况下,可通过局部规划来检测物体,如在机器人200可通过在外部感受传感器的数据中本地出现的一个或多个点来检测物体的情况下。可由机器人使用此局部规划来对外部感受传感器范围内的空间进行导航,如通过检测机器人200的轨迹内的物体的存在。以这种方式,机器人200可避免撞到物体中。在一些情况下,机器人200可通过其全局规划来检测物体,其中机器人200可从全局地图中检测物体。作为另一个例子,机器人200可从机器人200的状态(例如,至少部分地基于来自本体感受传感器的数据生成的状态)检测到被卡住。
在一些实施方案中,错误和/或辅助事件的检测可至少部分地基于时间窗口。作为说明,物体可在机器人200的前面移动并且稍后移开。在一些情况下,如果错误和/或辅助事件基于单次测量,那么当传感器数据中的像素指示物体的存在时,机器人200可检测物体。然而,这可能不为期望的。可期望机器人200具有一定的鲁棒性,以便每当其遇到物体时不停止并且生成关于错误和/或辅助事件的警报。此外,依赖于传感器的单次测量来检测错误和/或辅助事件可受到噪声的过度影响。举例来说,由于测量中的短暂和/或瞬时变化,可发生误报(例如,检测到的物体、感知为低的流体等)。因此,在一些情况下,错误和/或辅助事件的检测可至少部分地依赖于来自时间窗口中的传感器的持续和/或模式的测量结果。
可根据需要预定时间窗口的长度。在一些情况下,长度可至少部分地基于对误报的容忍度、无法检测的危险、经验数据、环境特征和/或其它考虑因素。在一些情况下,时间长度可大约为15秒,以便在没有操作员辅助的情况下给出足够的时间用于解决错误和/或辅助事件。
在一些实施方案中,可在机器人200检测到错误和/或辅助事件之前停止机器人200。作为说明,在一些情况下,如果机器人200检测到障碍物(例如,当其致动时,如通过移动臂或导航),机器人200就可停止。然后,机器人200可实施其它动作过程,以查看是否已发生错误和/或辅助事件。举例来说,机器人200可确定在障碍物周围是否存在路线。如果机器人200没有确定机器人200可采取的另一行动过程,那么机器人200可停留在停止方位。在一些情况下,障碍物可移开,并且机器人可前进。在其它情况下,障碍物可存留,并且机器人200可检测错误和/或辅助事件。
在一些情况下,停止的机器人200包括停止任务的执行。举例来说,机器人200可具有执行任务的致动器,如被配置成移动刷子、真空吸尘器、肢体、流体输出、轮子等的致动器。在某些情景中,这些致动可对机器人200的环境有害和/或磨损机器人200。作为说明,在机器人200为地板清洁器的情况下,机器人200可具有刷地板的刷子。如果机器人200不移动,那么刷子可在基本上相同的地点上运行一段时间;此运行可导致刷子对地板造成损坏。因此,停止可包括启动致动器以提升刷台和/或使刷子停止回转。作为此同一实例中的另外说明,地板清洁器还可将水放在地板上以便能够清洁。如果机器人200不移动,那么后面的真空吸尘器可不吸收所有水,从而导致溢出。在本公开的一些实施方案中,机器人200可关闭阀门和/或以其他方式防止机器人200将水放在地板上。作为此同一实例中的另外说明,如果地板清洁器长时间留在同一地点,那么其真空吸尘器可磨损。在本公开的一些实施方案中,机器人200可关闭真空吸尘器。作为另一实例,机器人200可具有运行以运动的马达。在机器人200不执行任务时保持马达开启可导致马达磨损、污染和/或其它危害。
在一些实施方案中,在一种情况下检测的错误和/或辅助事件可不为在其它情况下检测的错误和/或辅助事件。举例来说,机器人200可学习和/或观察操作员如何在一次迭代中处理错误和/或辅助事件,并且如果稍后发生相同的错误和/或辅助事件,那么执行基本上类似的动作。作为说明,在(例如,多次迭代的)第一次迭代中,机器人200可执行方法500。在框502中,机器人200可将由操作员采取的动作与导致检测的错误和/或辅助事件的情况相关联。在随后的迭代中,当机器人200检测到基本上类似的情况时,机器人200可确定它应该采取与这类情况相关联的动作,从而避免执行方法500的框中的至少一部分。在一些情况下,机器人200可学习将由操作员在多次迭代中采取的动作相关联,如通过迭代机器学习过程。
框504包括生成关于错误和/或辅助事件的警报。警报可出现在用户界面单元318、远程网络402和/或接入点404A和/或404B上。警报可包括存在错误和/或辅助事件的一般表述,和/或警报可包括错误和/或辅助事件的识别。
在一些实施方案中,可执行逻辑操作以确定辅助在哪里出现。在一些实施方案中,这类逻辑操作可由机器人200执行,如通过使用控制器304。逻辑操作可至少部分地基于以下情况来确定辅助在哪里出现:如机器人200的传感器数据、环境条件、环境中识别的物体、识别的错误和/或辅助事件,和/或错误和/或辅助事件的环境的任何其它指示符。作为说明,在辅助事件为路径太窄(并且不清楚机器人200是否可通过)的情况下,机器人200可向远程网络402发出辅助。然后,远程网络402(和/或远程网络402的操作员)可确定机器人200是否可穿过和/或告诉机器人200前进。如果机器人200不可穿过,那么至少部分地基于远程网络402的确定,远程网络402可向操作员(例如,可在用户界面单元318和/或接入点404A和/或404B上看到辅助请求的操作员)发出辅助请求。以这种方式,操作员可以去辅助机器人200(例如,通过移动物体和/或机器人200)。作为另一实例,阻塞的路径可不需要远程网络402(和/或远程网络402的操作员)的确定,并且通过更快速地到达可移动机器人200和/或物体的物理操作员,可发生更快的辅助。因此,机器人200可将辅助传递到用户界面318和/或接入点404A和/或404B(例如,直接在机器人200和/或接入点404A和/或404B之间,和/或通过网络402)而不是等待远程网络402来辅助。
在一些实施方案中,逻辑操作可确定同时向哪里发送辅助。举例来说,机器人200可向多个远程网络402、用户界面单元318、接入点404A和/或404B,和/或其它装置发出辅助,其中辅助基本上同时发出。类似地,在这种情况下,辅助可不具有层级,其中来自任何装置的辅助被类似地处理。
在一些实施方案中,对远程网络402、用户界面单元318、接入点404A和/或404B,和/或其它装置的辅助可具有层级,如至少部分地基于响应的权限和/或其中请求辅助的顺序来表征的层级。
举例来说,可实施基于权限的层级。在这种情况下,机器人200可放置较重的重物以通过一个装置在其它装置上方来输入。举例来说,用户界面单元318位于机器人200上。因此,通过用户界面单元318输入的辅助可被认为更适合于当前的情况。因此,在一些实施方案中,来自用户界面单元318的指令可重写从其它地方接收的指令。
作为另一实例,在一些情况下,远程网络402可至少部分地表征为集中控制中心。因此,远程网络402(和/或远程网络402的操作员)的指令可至少部分地反映在多个机器人上的体验。在一些情况下,这类指令可重写从其它地方接收的指令。在一些情况下,接入点404A和/或404B,和/或其它装置中的一个或多个可被指定为层级中最高的(例如,最具权威性的)。举例来说,接入点404A可由可具有机器人200的专业知识的开发者、制造商等操作。有利地,具有基于权限的层级可允许机器人200将不同指令分类和/或执行更优化的动作。
作为另一实例,在一些实施方案中,层级的特征可在于其中请求辅助的顺序。举例来说,在一些情况下,可首先相对于其它装置向远程网络402发出辅助。有利地,这可通过在不干扰操作员的情况下解决至少一些问题来允许增强的用户体验。如果远程网络402不响应,和/或不能够给出适当的指令和/或辅助(例如,期望物理交互),那么辅助可到达用户界面单元318、接入点404A和/或404B,和/或其它装置。作为另一实例,可首先向用户界面单元318发出辅助,以便允许具有更多间接知识的人(例如,现场的人)首先处理问题。在一些情况下,安全和/或其它考虑因素可使现场即时辅助为期望的。有利地,具有特征在于其中请求辅助的顺序的层级可允许有效地解决辅助而不使资源负担过重。在一些情况下,在每次发出辅助之间可存在预定延迟。这类预定延迟可至少部分地基于处理辅助的时间量、装置(例如,操作用户界面单元318、远程网络402、接入点404A和/或404B,和/或其它装置的人和/或计算机)的响应时间、响应时间的经验证据、工作流优化和/或其它考虑因素来确定。
在一些实施方案中,关于错误和/或辅助事件的警报可呈文本形式。作为说明,警报可为发送给机器人200的操作员的文本消息,以通知操作员错误和/或辅助事件。警报可经由SMS、因特网、无线电、光、电场和/或任何其它形式的通信(例如,使用通信单元322)发送。有利地,因为机器人200的一些操作员可执行其它任务和/或管理其它机器人,所以向操作员发送警报可允许操作员远离机器人200和/或执行其它任务。
作为说明,图6A为示出根据本公开的一些实施方案需要辅助的显示器600。显示器600可显示在用户界面单元318、远程网络402和/或接入点404A和/或404B上。在一些实施方案中,显示器600可在通信地耦合到机器人200的(例如,接入点404A和/或404B的)独立装置上。在一些情况下,独立装置可被称为辅助装置,因为其用于辅助机器人200。
显示器600可具有显示需要辅助的面板602。面板602还可用于显示其它文本,如“检测到错误”、“请求辅助”和/或至少部分地指示错误和/或辅助事件的其它文本。
面板614可显示为什么存在错误和/或辅助事件的另外的澄清。举例来说,如图6A中所说明,面板614指示机器人200偏离路径并且路径具有障碍物。鉴于本公开的内容,本领域普通技术人员将理解,面板614可显示至少部分地指示已发生的错误和/或辅助事件的任何文本。举例来说,面板614可显示至少部分地指示致命错误、内部错误、机器人无法继续进行任务、机器人卡住,和/或可导致错误和/或辅助事件的任何其它事件的信息。
面板612可为操作员和/或任何其它用户显示方向。在一些情况下,方向可至少部分地基于错误和/或辅助事件而为上下文相关的。举例来说,在机器人200(例如,其可在显示器600中显示为机器人图标608)需要辅助来驱动越过障碍物的情况下,面板612可为操作员和/或其它用户显示处理障碍物的指令。举例来说,如图6A中所说明,面板612可表明“移除或驱动我越过障碍物,然后按下后面的蓝色按钮”。在此实例中,机器人200后面的蓝色按钮可为用户按下以给予机器人200反馈的外部按钮,以便向机器人200指示操作员和/或其它用户已注意错误和/或辅助事件。在一些情况下,按钮可为用户按压的物理按钮。按钮根据需要可为任何颜色。按钮可为数字按钮和/或机器人200的其它输入机构,如通过用户界面单元318的输入。在一些实施方案中,按钮可被称为辅助按钮,因为其为辅助机器人200的至少一部分。在一些实施方案中,即使机器人200通过其它途径(例如,显示器600)接收指令,机器人200也将不前进,直到按钮已被按下(和/或机器人200、远程网络402、接入点404A和/或404B接收至少部分地指示按钮已被按下的信号)。在一些实施方案中,按钮可致使机器人200重新定位并且检测其将在哪里继续操作。举例来说,如果机器人200已被移动,那么机器人200可使用绘图和定位单元324确定其在哪里以及其应该采取什么路径。在一些实施方案中,可不存在按钮,并且机器人200可根据来自传感器单元312的数据确定操作员和/或其它用户已注意错误和/或辅助事件。类似地,一旦机器人200确定已经解决错误和/或辅助事件,机器人200就可使用绘图和定位单元324确定其在哪里以及其应该采取什么路径。鉴于本公开的内容,本领域普通技术人员将理解,面板612中的指令可包括为了解决错误和/或辅助事件而给出的任何指令。作为额外实例,面板612可指示操作员和/或用户填充流体、调整机器人200的部分(例如,螺旋桨、刷子、轮子等)、移动机器人200、移动机器人200的环境的各个方面、转动/机器人200的转动,和/或任何其它指令。
面板604可包括关于错误和/或辅助事件的操作员和/或其它用户的另外的信息。举例来说,面板604可包括错误和/或辅助事件的视觉描绘。如图6A中所说明,机器人200偏离路径和/或受到障碍物的阻挡。因此,机器人图标608显示偏离路径610。在一些实施方案中,机器人图标608可相对于面板604中的其它图形而定位,以至少部分地指示机器人200的方位和/或姿势。在一些情况下,机器人图标608可偏离路径610以反映机器人200偏离由路径610说明的路径。在一些情况下,机器人图标608可在路径610上以反映机器人200在由路径610说明的路径上。
在一些实施方案中,面板604可包括传感器数据,如来自传感器单元312的一个或多个传感器和/或外部传感器的数据。有利地,传感器数据可给出操作员背景。在一些实施方案中,传感器数据包括图像和/或视频,其示出机器人200在检测错误和/或辅助事件时所看到的内容的至少一部分。
图标616可显示障碍物的位置。举例来说,图标616可相对于机器人图标608而定位在面板604中,以至少部分地指示障碍物相对于机器人200的相对位置、取向、方位和/或姿势。在一些实施方案中,可存在描绘机器人200在哪里检测到障碍物的指示器。举例来说,指示器606相对于图标616而定位,以至少部分地指示机器人200在哪里检测到障碍物。在一些情况下,指示器606可包括示出机器人200在检测到障碍物(如由图标608指示的障碍物)时的视野的视野。
在一些实施方案中,显示器600还可说明用于辅助的过程。作为说明,图6B为根据本公开的一些实施方案的指示机器人200偏离路径并且在机器人200的路径中存在障碍物的显示视图。在显示器600中,路径630指示机器人200(示出为机器人图标608)被配置成行进的路径。图标626说明在机器人200的路径上的相对位置。图标628说明机器人200为了清除障碍物应该前进到的位置。在一些情况下,操作员可将机器人200移动到由指示器626指示的位置,如通过驱动、携带、操控和/或以其他方式致使其平移。图标622为缩放图标,其可允许显示器600的观看者在显示器600中放大和/或缩小,使得观看者能够更好地评估情况。
图6C为示出根据本公开的一些实施方案的机器人200在辅助之后的继续的显示视图。在图6C中,机器人200已前进到图6B中所说明的图标628的位置。因此,机器人200可沿由路径630所说明的路径前进。
返回到图5,框506包括确定是否已经解决错误和/或辅助事件。机器人200可确定是否已经以一种或多种方式接收辅助。在一些实施方案中,机器人200可使用传感器单元312的一个或多个传感器来确定是否已经解决错误和/或辅助事件。举例来说,机器人200可使用传感器单元312中的一个或多个以确定障碍物是否已不再挡道、流体是否被填充、硬件和/或软件是否已被修复,和/或任何致命错误、内部错误、机器人无法继续执行任务、机器人卡住,和/或可导致错误和/或辅助事件的任何其它事件是否已被解决。
在一些情况下,机器人200可具有按钮,如参考图6A所讨论的按钮。如果给予辅助,那么操作员和/或其它用户可按下按钮。
在一些情况下,外部源可用于确定是否已经解决错误和/或辅助事件。举例来说,远程网络402可查看机器人200的传感器数据和/或其它数据以确定是否已经解决错误和/或辅助事件。作为另一实例,外部源可包括其它传感器。作为说明,机器人200可鉴于其它传感器,如相机(例如,安全相机、热传感相机、闭路电视相机和/或其它相机)、运动检测器、麦克风、物联网装置和/或其它传感器来操作。这些传感器可提供机器人200的传感器可不拾取的额外信息。有利地,这类外部源可存在于机器人200无论如何都在其中操作的环境中。因此,外部源可不需要额外的安装、成本、资源等。
图7为根据本公开的一些实施方案的提供关于机器人200的信息的外部传感器700的侧视图。如图中所说明,示出一个外部传感器,即外部传感器700。然而,在一些实施方案中,多个外部传感器可定位在机器人200周围。
在一些实施方案中,为了确定是否已经解决错误和/或辅助事件,可使用来自外部传感器的数据。在一些实施方案中,可预先注册和/或预定义环境中的传感器。举例来说,机器人200和/或远程网络402可具有机器人200的环境中的外部传感器的列表(例如,储存在存储器中)。当机器人确定是否已经解决错误和/或辅助事件时,机器人200和/或远程网络402可向列表上的一个或多个外部传感器发送信号。举例来说,信号可为命令(例如,以发送数据)、询问、查询和/或使外部传感器(例如,外部传感器700)发送传感器数据的其它信号。在一些情况下,可通过机器人200与外部传感器的接近来更新列表。举例来说,机器人200可向这类信号的范围内的外部传感器发送具有预定范围的信号,如蓝牙、射频、近场通信和/或其它形式的无线通信。有利地,如果外部传感器处于这类信号的范围内,那么机器人200在外部传感器的视野内的概率增加。
在一些实施方案中,外部传感器可辨识机器人200。举例来说,相机可具有被配置成识别机器人200的辨识软件。当外部传感器检测到机器人200已经因错误和/或辅助事件而停止时,外部传感器可将数据推送到机器人200和/或远程网络402。为了帮助辨识软件,机器人200可具有机器人200具有错误和/或辅助事件的另外的指示。举例来说,机器人200可具有以预定特性(例如,开/关频率、颜色、强度等)打开的灯、屏幕显示、热签名、声音和/或当机器人200具有错误和/或辅助请求时将由外部传感器的模态可观察的其它标记。有利地,机器人200将具有错误和/或辅助事件的外部可观察标记,以通知机器人200附近的操作员已发生错误和/或辅助事件。
外部传感器还可通过辨识传感器数据中的模式来检测错误和/或辅助事件的存在。举例来说,外部传感器可以与如关于机器人200的传感器单元312所描述的基本上类似的方式检测障碍物、溢出物、内部错误、致命错误、机器人无法继续进行任务、机器人卡住,和/或可导致错误和/或辅助事件的任何其它事件,其中传感器替代地为外部传感器。作为说明,在外部传感器为相机的情况下,来自外部传感器的传感器数据可由外部传感器、机器人200和/或远程网络402处理。因此,外部传感器、机器人200和/或远程网络402可通过识别传感器数据中的预定模式来检测错误和/或辅助事件的存在。作为说明,热传感相机可检测溢出物并且确定外部传感器的视野中是否存在溢出物。作为另一个例子,相机可检测机器人200前方的障碍物并且确定障碍物是否已移动。作为另一个例子,相机可检测机器人200的方位并且确定机器人200是否已移动。机器人200的移动可至少部分地指示机器人200已被辅助和/或错误已被解决。
在一些实施方案中,当机器人200从外部传感器接收指示错误和/或辅助事件的传感器信息时,其可确定尚未解决错误和/或辅助事件。举例来说,在外部传感器被配置成在存在错误和/或辅助事件时将信息推送到机器人200和/或远程网络402的情况下,机器人200已经从外部传感器接收传感器信息的事实可部分地指示尚未解决错误和/或辅助事件。
如果机器人200确定已经解决错误和/或辅助事件,那么机器人200可继续操作,如框508中所说明。继续操作可包括执行机器人200已经执行和/或应该执行的任务。继续操作也可为机器人200的正常操作。在一些情况下,机器人200可接收额外的维护、修复和/或辅助以更全面地解决错误和/或辅助事件。结果,继续操作可包括功能性受损的机器人200的继续操作。在一些情况下,可操作机器人200以接收额外的维护、修复和/或辅助,如通过致使机器人200移动到修复中心。在一些情况下,机器人200可在继续操作之前执行初始化。举例来说,机器人200可由操作员移动并且可使用绘图和定位单元324来重新定位。机器人200还可重新校准其传感器和/或执行状态检查,以便在继续进行操作之前确定机器人200的一个或多个部件和/或整体的状态。
当在框506中,机器人200确定尚未解决错误和/或辅助事件的情况下,可执行框510。框510可包括尝试解决错误和/或辅助事件并且确定是否已经解决错误和/或辅助事件。在相对于框506和/或框504的预定延迟之后,可发生解决错误和/或辅助事件的尝试。有利地,这类延迟可给出错误和/或辅助事件被解决的时间(例如,由操作员和/或远程网络402)。在一些情况下,如果已经解决错误和/或辅助事件,那么这类延迟可允许机器人200的资源不被消耗。此外,在一些情况下,尝试解决错误和/或辅助事件可干扰操作员尝试解决错误和/或辅助事件。
在一些实施方案中,可至少部分地基于以下中的一个或多个来确定预定延迟:解决错误和/或辅助事件花费多长时间、操作员接收警报花费多长时间的经验证据、如由传感器单元312检测到的环境改变、如由外部传感器检测到的环境改变、停机时间的后果(例如,用户/操作员信心的丧失)和/或其它因素。在一些情况下,预定延迟可短至几秒,如1、2、3、4、5、6、7、8、9、10或更多秒。在一些情况下,预定延迟可更长,如在几分钟或几小时的数量级。
在一些实施方案中,框510可包括显示用户输入的显示器600。在一些实施方案中,图6A-6C中的显示器600可为动态的。举例来说,显示器600可为辅助视图,其中机器人200的操作员可向机器人200发送命令。举例来说,操作员可选择机器人200应该采取的路径。作为另一个例子,用户可选择显示器600上的路径610,以告知机器人200返回路径610和/或在其上前进。在一些实施方案中,用户可向机器人200说明去哪里,如通过输入新路径(例如,在触摸屏上绘制和/或输入到显示器600中的任何其它方式)。作为另一个例子,用户可按压按钮,从而告知机器人200前进。
在一些情况下,多条行进路径的可用性可导致错误和/或辅助事件。举例来说,机器人200可多次穿过基本上类似的区域,从而产生多条路径。在一些情况下,机器人200可难以确定机器人200应该采取哪条路径。然后,操作员可从所呈现的多条路径中选择适当的路径。
在一些实施方案中,多条路径可出现在显示器600上,如与路径610基本上类似的多条路径。然后,操作员可选择机器人200采取的期望路径。在一些情况下,代替路径,方位、位置、姿势、取向等可显示在显示器600上以供选择。在一些实施方案中,操作员可输入路径,如通过利用触摸屏和/或(例如,用户界面单元318的)其它输入机构来绘制路径。
在一些实施方案中,显示器600上显示的路径可通过训练和/或用户输入来确定。举例来说,操作员可手动输入任何给定路径、位置、姿势、方位、取向等的替代路线。在一些实施方案中,可自动生成这类替代方案,如通过确定机器人200可行进的一条或多条路径、位置、姿势、方位、取向等,并且使这些可选择。在一些情况下,机器人200可随机选择预定数目的替代方案来显示。在一些情况下,机器人200可至少部分地基于路径行进的频率(例如,对于一般导航,可假设更有可能挑选较多行进的路径;然而,在一些应用中,如地板清洁中,在期望未行进的路径的情况下,可挑选较少行进的路径)、预定偏好、随机生成、统计概率和/或任何其它方法来选择要显示哪些替代方案。
在一些实施方案中,框510可包括机器人200的恢复,其中机器人200尝试解决问题。举例来说,机器人200可致动致动器单元320的一个或多个致动器,以便解决错误和/或辅助事件。作为说明,在一些情况下,错误和/或辅助事件可为一个或多个传感器中的噪声的结果。在一些情况下,噪声可具有障碍物的外观并且致使机器人200错误地认为障碍物防止其执行任务。然后,机器人200可进行小的移动,如转动、向前移动、向后移动和/或其它移动。在一些情况下,这类移动可允许机器人200确定障碍物的检测是由于噪声引起的并且解决错误和/或辅助事件(和/或考虑所解决的错误和/或辅助事件)。在一些情况下,机器人200可重启、校准、重新定位和/或执行过程以重置机器人200的工作中的错误。
如果已经解决错误和/或辅助事件(和/或用户能够解决错误和/或辅助事件),那么在框508中机器人200可继续操作。有利地,在机器人200可解决错误和/或辅助事件的情况下,机器人200可在几乎没有操作员输入的情况下继续操作,潜在地创建更好的用户体验。
如果尚未解决错误和/或辅助事件,那么在框504中机器人200可生成关于错误和/或辅助事件的警报。有利地,警报可提醒操作员/用户需要辅助。在一些应用中,可实施预定延迟。有利地,预定警报可允许有时间来解决错误和/或辅助事件。在一些实施方案中,预定延迟可由以下中的一个或多个来确定:解决错误和/或辅助事件所花费(例如,过程机器人200将花费和/或用户将花费)的时间、关于解决错误和/或辅助事件的经验数据、其中机器人200的环境改变的速度、安全担忧以及其它因素。通过实例,在一些实施方案中,延迟可为30、60、90、120或更多秒。
图8为说明根据本公开的一些实施方案的辅助过程的功能框图。框802包括障碍物检测。在一些实施方案中,障碍物检测可由传感器单元312的一个或多个传感器执行。作为说明,传感器可在机器人200行进时检测机器人200的路径中的堵塞物。堵塞物可沿机器人200的轨迹出现为实心物品。在一些实施方案中,使用传感器单元312的一个或多个传感器,机器人200可通过包括物体辨识的框820来识别障碍物。物体辨识可包括机器学习以将来自传感器单元312的一个或多个传感器的数据与物体的识别相关联。
在预定时间延迟810之后,机器人200可根据框804发出关于障碍物的警报。预定时间延迟810可基本上类似于参考框502描述的时间窗口。有利地,预定时间延迟810可允许障碍物在机器人200发出关于所述障碍物的警报之前自己移开和/或解决。
在框804中发出的警报可包括经由SMS 816和/或在辅助视图818中对远程网络814的警报。辅助视图818可包括用于显示警报和/或接收命令的系统和方法,例如显示器600。
在预定时间延迟808之后,机器人200可在框806中尝试恢复。预定时间延迟808可基本上类似于参考框506讨论的预定延迟。有利地,预定时间延迟808还可允许障碍物清除和/或机器人200以其他方式被辅助的时间。恢复可包括操作员的辅助或由机器人200采取的动作,如以与参考框510描述的动作基本上类似的动作。
如果机器人200在框806中不能够恢复,那么过程可在时间延迟812之后再次返回到框802。有利地,在框806中,时间延迟812可给出机器人200恢复的时间。在一些实施方案中,时间延迟812可由以下中的一个或多个来确定:解决错误和/或辅助事件所花费(例如,过程机器人200将花费和/或用户将花费)的时间、关于解决错误和/或辅助事件的经验数据、其中机器人200的环境改变的速度、安全担忧以及其它因素。通过实例,在一些实施方案中,延迟可为30、60、90、120或更多秒。
图9为根据本公开的一些实施方案的用于操作机器人的示例性方法900的过程流程图。框902包括致使机器人在环境中执行任务。框904包括当机器人执行任务时,利用机器人的一个或多个传感器生成关于环境的数据。框906包括从数据确定机器人至少部分地被阻碍执行任务。框908包括在确定机器人至少部分地被阻碍之后,在预定第一延迟之后,显示至少部分地指示机器人不可继续任务的第一警报。框910包括在显示警报之后,在预定第二延迟之后,尝试致使机器人执行任务。框912包括在尝试致使机器人执行任务之后,在预定第三延迟之后,显示至少部分地指示机器人至少部分地被阻碍的第二警报。
图10为根据本公开的一些实施方案的用于操作机器人的示例性方法1000的过程流程图。框1002包括致使机器人的一个或多个致动器执行第一机器人任务。框1004包括在执行第一机器人任务时至少部分地基于传感器数据检测障碍物。框1006包括致动一个或多个致动器,使得机器人至少部分地响应于检测的障碍物而不执行第一机器人任务。框1008包括在用户界面上显示辅助视图,所述辅助视图包含至少部分地指示检测的障碍物和机器人的一个或多个可选择方位的警报。框1010包括通过用户界面来接收机器人的一个或多个可选择方位中的选定一者。框1012包括至少部分地基于机器人的一个或多个可选择方位中的选定一者来致动致动器,并且继续执行与第一机器人任务基本上类似的任务。
图11为根据本公开的一些实施方案的用于辅助机器人的示例性方法1100的过程流程图。框1102包括显示以图形方式表示地板清洁机器人被阻碍进行清洁的辅助视图。框1104包括通过辅助视图来接收操作指令,操作指令包含在用户界面上显示机器人的多条行进路径,以及接收显示的路径的选择。框1106包括根据操作指令致使地板清洁机器人进行清洁。
如本文中所使用的,计算机和/或计算装置可包括但不限于个人计算机(“PC”)和微型计算机(无论是台式计算机、膝上型计算机还是其它)、大型计算机、工作站、服务器、个人数字助理(“PDA”)、手持式计算机、嵌入式计算机、可编程逻辑装置、个人通信器、平板电脑、移动装置、便携式助航设备、配备J2ME的装置、蜂窝电话、智能电话、个人集成通信或娱乐装置,和/或能够执行一组指令并且处理输入数据信号的任何其它装置。
如本文中所使用的,计算机程序和/或软件可包括执行功能的任何序列或人类或机器可识别的步骤。这类计算机程序和/或软件可用任何编程语言或环境来呈现,包括例如C/C++、C#、Fortran、COBOL、MATLABTM、PASCAL、GO、RUST、SCALA、Python、汇编语言、标记语言(例如,HTML、SGML、XML、VoXML)等,以及面向物体的环境,如公共对象请求代理结构(“CORBA”)、JAVATM(包括J2ME、Java Bean等)、二进制运行环境(例如,“BREW”)等。
如本文中所使用的,连接、链路和/或无线可包括任何两个或更多个实体(不论是物理的还是逻辑/虚拟的)之间的因果关系,它使得能够在实体之间信息交换。
将认识到,虽然按照方法的步骤的特定序列描述本公开的某些方面,但这些描述仅说明本公开中的较广泛方法,并且可根据特定应用的需要加以修改。在某些情况下,某些步骤可显得不必要或可选。此外,可将某些步骤或功能性添加至所公开的实施方案,或排列两个或更多个步骤的执行顺序。所有这类变化都被认为涵盖在本文中公开和要求保护的公开内容内。
虽然以上详细描述已经示出、描述并且指出应用于各种实施方案的本公开的新颖特征,但是应理解,在不脱离本公开的情况下,本领域技术人员可对所说明的装置或过程的形式和细节进行各种省略、替换和改变。前面的描述为目前设想的进行本公开的最佳模式。本说明书绝不意味着限制,而是应被视为对本公开的一般原理的说明。应该参考权利要求来确定本公开的范围。
虽然已经在附图和上述描述中详细说明和描述本公开,但是这类说明和描述应被认为是说明性或示例性而不是限制性的。本公开不限于所公开的实施例。通过研究附图、本公开内容和所附权利要求,本领域技术人员在实践所要求保护的公开内容时可理解和实现对所公开的实施例和/或实施方案的变化。
应注意,在描述本公开的某些特征或方面时使用特定术语不应被视为暗示本文中重新定义术语以限于包括与所述术语相关联的本公开的特征或方面的任何特定特性。除非另外明确陈述,否则本申请中使用的术语和短语以及其变化,尤其是所附权利要求中的术语和短语以及其变化,应被解释为开放式的而非限制性的。作为上述内容的实例,术语“包括(including)”应理解为意味着“包括(但不限于)”、“包括但不限于”等;如本文中所使用的术语“包含”与“包括”、“含有”或“特征在于”同义,并且为包含性或开放式的,并不排除额外的、未列出的元件或方法步骤;术语“具有”应解释为“至少具有”;术语“如”应解释为“如(但不限于)”;术语“包括(includes)”应解释为“包括但不限于”;术语“实例”用于在讨论时提供物品的示例性实例,而不是物品的穷举性或限制性列表,并且应解释为“实例但不限于”;如“已知的”、“通常的”、“标准的”的形容词和具有类似含义的术语不应被理解为将所描述的物品限于给定时间段或限于截至给定时间可用的物品,而是应理解为涵盖现在或在将来的任何时间可为可用的或熟知的已知的、通常的或标准的技术;以及如“优选地”、“优选的”、“期望”或“可期望的”的术语以及具有类似含义的词语的使用不应理解为暗示某些特征对于本公开的结构或功能来说为关键的、必不可少的或甚至为至关重要的,而是仅仅旨在突显可或可不用于特定实施例的替代方案或额外特征。同样地,除非另外明确陈述,否则用连接词“和”连在一起的一组物品不应被理解为要求那些物品中的每一个物品都存在于所述分组中,而是应被理解为“和/或”。类似地,除非另外明确陈述,否则用连接词“或”连在一起的一组物品不应被理解为在所述分组中要求相互排斥,而是应被理解为“和/或”。术语“约”或“大约”等为同义的,并且用于指示由所述术语修饰的值具有与其相关联的理解范围,其中所述范围可为±20%、±15%、±10%、±5%或±1%。术语“基本上”用于指示结果(例如,测量值)接近目标值,其中接近可意味着例如结果在值的80%内、在值的90%内、在值的95%内或在值的99%内。并且,如本文中所使用的,“定义”或“确定”可包括“预定义”或“预定”和/或以其他方式确定的值、条件、阈值、测量结果等。

Claims (20)

1.一种用于操作机器人的方法,其包含:
致使所述机器人在环境中执行任务;
当所述机器人执行所述任务时,利用所述机器人的一个或多个传感器生成关于所述环境的数据;
从所述数据确定所述机器人至少部分地被阻碍执行所述任务;
在确定所述机器人至少部分地被阻碍之后,在预定第一延迟之后,显示至少部分地指示所述机器人不能够继续所述任务的第一警报;
在显示所述警报之后,在预定第二延迟之后,尝试致使所述机器人执行所述任务;和
在所述尝试致使所述机器人执行所述任务之后,在预定第三延迟之后,显示至少部分地指示所述机器人至少部分地被阻碍的第二警报。
2.根据权利要求1所述的方法,其中所述任务包含清洁地板。
3.根据权利要求1所述的方法,其另外包含从操作员接收操作指令并且至少部分地基于所述操作指令继续所述任务的执行。
4.根据权利要求3所述的方法,其中从所述操作员接收所述操作指令包含接收所述机器人的按钮已被按下的确定,其中所述按钮的所述按下包含继续执行所述任务而不管障碍物的指令。
5.根据权利要求3所述的方法,其中所述操作指令的所述接收包含接收一条或多条行进路径并且显示所述一条或多条行进路径,以及接收所显示的路径的选择。
6.根据权利要求1所述的方法,其另外包含从外部传感器接收数据,并且至少部分地基于从所述外部传感器接收到的数据,确定所述机器人是否仍然至少部分地被阻碍执行所述任务。
7.根据权利要求1所述的方法,其另外包含通过物体辨识来识别所述机器人至少部分地被阻碍。
8.一种机器人,其包含:
一个或多个传感器,其被配置成生成关于环境的传感器数据;
一个或多个致动器,其被配置成执行第一机器人任务;
用户界面,其被配置成显示和接收信息;和
处理器,其被配置成:
致使所述一个或多个致动器执行所述第一机器人任务;
至少部分地基于所生成的传感器数据,在执行所述第一机器人任务时检测障碍物;
致动所述一个或多个致动器,使得所述机器人至少部分地响应于检测到的障碍物而不执行所述第一机器人任务;
在所述用户界面上显示辅助视图,所述辅助视图包含至少部分地指示检测到的障碍物和所述机器人的一个或多个可选择方位的警报;
通过所述用户界面来接收所述机器人的所述一个或多个可选择方位中的选定一者;和
至少部分地基于所述机器人的所述一个或多个可选择方位中的选定一者来致动所述致动器,并且继续执行与所述第一机器人任务基本上类似的任务。
9.根据权利要求8所述的机器人,其中所述机器人另外包含通信单元,所述通信单元通信地耦合到被配置成监视所述机器人的远程网络。
10.根据权利要求8所述的机器人,其中所述处理器另外被配置成识别所述障碍物。
11.根据权利要求10所述的机器人,其中所述处理器另外被配置成通过机器学习过程来学习识别所述障碍物。
12.根据权利要求8所述的机器人,其中所述机器人包含地板清洁器。
13.根据权利要求8所述的机器人,其中所述第一机器人任务包含预定路线的导航。
14.根据权利要求8所述的机器人,其中所述机器人的所述可选择方位包含所述机器人的不同轨迹。
15.一种用于辅助地板清洁机器人的方法,其包含:
显示以图形方式表示所述地板清洁机器人被阻碍进行清洁的辅助视图;
通过所述辅助视图来接收操作指令,所述操作指令包含在用户界面上显示所述机器人的多条行进路径,以及接收所显示的路径的选择;和
根据接收到的操作指令致使所述地板清洁机器人进行清洁。
16.根据权利要求15所述的方法,其中显示所述辅助视图另外包含:
从所述机器人的传感器接收数据;
至少部分地基于接收到的数据来识别辅助事件;和
生成指示所识别的辅助事件的图形。
17.根据权利要求15所述的方法,其另外包含将所述辅助视图传输到远程网络。
18.根据权利要求15所述的方法,其中所述致使所述地板清洁机器人进行清洁另外包含:
致使所述地板清洁机器人沿预定路径导航;和
致使所述地板清洁机器人沿所述预定路径擦洗所述地板。
19.根据权利要求15所述的方法,其另外包含从所述辅助视图的所述显示起,根据接收到的操作指令将所述致使所述地板清洁机器人进行清洁至少延迟预定时间。
20.根据权利要求15所述的方法,其中在接收指示所述机器人上的辅助按钮已被按下的信号之后,根据接收到的操作指令发生所述致使所述地板清洁机器人进行清洁。
CN201880019765.6A 2017-02-02 2018-02-02 用于辅助机器人设备的系统和方法 Pending CN110462540A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/423,442 US10377040B2 (en) 2017-02-02 2017-02-02 Systems and methods for assisting a robotic apparatus
US15/423,442 2017-02-02
PCT/US2018/016624 WO2018144846A1 (en) 2017-02-02 2018-02-02 Systems and methods for assisting a robotic apparatus

Publications (1)

Publication Number Publication Date
CN110462540A true CN110462540A (zh) 2019-11-15

Family

ID=61244722

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880019765.6A Pending CN110462540A (zh) 2017-02-02 2018-02-02 用于辅助机器人设备的系统和方法

Country Status (5)

Country Link
US (2) US10377040B2 (zh)
EP (1) EP3577530B1 (zh)
JP (1) JP7220871B2 (zh)
CN (1) CN110462540A (zh)
WO (1) WO2018144846A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11953908B2 (en) 2021-10-12 2024-04-09 Google Llc Deployable safety fence for mobile robots

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105446350B (zh) * 2014-09-26 2018-05-29 科沃斯机器人股份有限公司 自移动机器人移动界限划定方法
WO2016165793A1 (fr) * 2015-04-15 2016-10-20 Viel Pierre-Emmanuel Drone de nettoyage.
EP3551395A4 (en) * 2017-04-06 2020-08-05 Hewlett-Packard Development Company, L.P. ROBOT
JP7041492B2 (ja) * 2017-10-31 2022-03-24 川崎重工業株式会社 ロボットシステム
WO2019140126A1 (en) * 2018-01-10 2019-07-18 Simbe Robotics, Inc Method for detecting and responding to spills and hazards
DE102018120577A1 (de) * 2018-08-23 2020-02-27 Vorwerk & Co. Interholding Gmbh Sich selbsttätig innerhalb einer Umgebung fortbewegendes Bodenbearbeitungsgerät
TWI671610B (zh) * 2018-09-28 2019-09-11 財團法人工業技術研究院 自動引導車、自動引導車控制系統、以及自動引導車之控制方法
US10816994B2 (en) * 2018-10-10 2020-10-27 Midea Group Co., Ltd. Method and system for providing remote robotic control
EP3656702A1 (en) * 2018-11-21 2020-05-27 Mobile Industrial Robots A/S Mobile industrial robot with security system for pallet docketing
CN109784400A (zh) * 2019-01-12 2019-05-21 鲁班嫡系机器人(深圳)有限公司 智能体行为训练方法、装置、系统、存储介质及设备
US11169509B2 (en) * 2019-03-26 2021-11-09 Abb Schweiz Ag Exception handling for robot assisted product management
US11480431B1 (en) * 2019-08-27 2022-10-25 Alarm.Com Incorporated Lighting adaptive navigation
US11958183B2 (en) 2019-09-19 2024-04-16 The Research Foundation For The State University Of New York Negotiation-based human-robot collaboration via augmented reality
JPWO2021079778A1 (zh) * 2019-10-24 2021-04-29
JP7239507B2 (ja) * 2020-01-30 2023-03-14 株式会社日立製作所 アラート出力タイミング制御装置、アラート出力タイミング制御方法、アラート出力タイミング制御プログラム
WO2021158876A1 (en) * 2020-02-05 2021-08-12 Plus One Robotics, Inc. Intervention systems and methods for robotic picking systems
WO2022031621A1 (en) * 2020-08-04 2022-02-10 Artificial, Inc. Translation and automation of protocols in a robotic lab
CA3211974A1 (en) * 2021-03-04 2022-09-09 Tutor Intelligence, Inc. Robotic system
US20240165817A1 (en) * 2021-04-09 2024-05-23 Nec Corporation Robot management device, control method, and recording medium
SE545236C2 (en) * 2021-08-12 2023-05-30 Husqvarna Ab Problem handling of a robotic work tool
CN113934211A (zh) * 2021-10-13 2022-01-14 安徽淘云科技股份有限公司 一种控制方法及其相关设备
US20240007423A1 (en) * 2022-06-29 2024-01-04 Cox Communications, Inc. Enabling smart communication networks using asset information in a supply chain environment
WO2024054797A1 (en) * 2022-09-07 2024-03-14 Tutor Intelligence, Inc. Visual robotic task configuration system

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09160646A (ja) * 1995-12-11 1997-06-20 Shizukou Kk 自律走行車両
JPH09266871A (ja) * 1996-04-03 1997-10-14 Fuji Heavy Ind Ltd 清掃ロボットの制御方法
JP2002209035A (ja) * 2001-01-11 2002-07-26 Sharp Corp 画像処理装置、情報処理システム、及びデータ処理方法
US20120313779A1 (en) * 2011-06-12 2012-12-13 Microsoft Corporation Nomadic security device with patrol alerts
US20130056032A1 (en) * 2011-09-07 2013-03-07 Suuk Choe Robot cleaner, and system and method for remotely controlling the same
JP2014071845A (ja) * 2012-10-01 2014-04-21 Sharp Corp 機器制御装置、および自走式電子機器
US20140207282A1 (en) * 2013-01-18 2014-07-24 Irobot Corporation Mobile Robot Providing Environmental Mapping for Household Environmental Control
US20140207280A1 (en) * 2013-01-18 2014-07-24 Irobot Corporation Environmental management systems including mobile robots and methods using same
US20150019043A1 (en) * 2013-07-12 2015-01-15 Jaybridge Robotics, Inc. Computer-implemented method and system for controlling operation of an autonomous driverless vehicle in response to obstacle detection
US20150224640A1 (en) * 2005-09-30 2015-08-13 Irobot Corporation Companion robot for personal interaction
WO2015183005A1 (en) * 2014-05-28 2015-12-03 Samsung Electronics Co., Ltd. Mobile device, robot cleaner, and method for controlling the same
US20160052133A1 (en) * 2014-07-30 2016-02-25 Lg Electronics Inc. Robot cleaning system and method of controlling robot cleaner
US9486921B1 (en) * 2015-03-26 2016-11-08 Google Inc. Methods and systems for distributing remote assistance to facilitate robotic object manipulation
CN106175600A (zh) * 2015-05-28 2016-12-07 戴森技术有限公司 控制移动式机器人的方法

Family Cites Families (165)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5280179A (en) 1979-04-30 1994-01-18 Sensor Adaptive Machines Incorporated Method and apparatus utilizing an orientation code for automatically guiding a robot
US4638445A (en) 1984-06-08 1987-01-20 Mattaboni Paul J Autonomous mobile robot
US5121497A (en) 1986-03-10 1992-06-09 International Business Machines Corporation Automatic generation of executable computer code which commands another program to perform a task and operator modification of the generated executable computer code
US4763276A (en) 1986-03-21 1988-08-09 Actel Partnership Methods for refining original robot command signals
US4852018A (en) 1987-01-07 1989-07-25 Trustees Of Boston University Massively parellel real-time network architectures for robots capable of self-calibrating their operating parameters through associative learning
JPH0650460B2 (ja) 1989-10-17 1994-06-29 アプライド バイオシステムズ インコーポレイテッド ロボットインターフェース
US5680313A (en) 1990-02-05 1997-10-21 Caterpillar Inc. System and method for detecting obstacles in a road
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5673367A (en) 1992-10-01 1997-09-30 Buckley; Theresa M. Method for neural network control of motion using real-time environmental feedback
CA2081519C (en) 1992-10-27 2000-09-05 The University Of Toronto Parametric control device
KR0161031B1 (ko) 1993-09-09 1998-12-15 김광호 로보트의 위치오차보정장치
US5602761A (en) 1993-12-30 1997-02-11 Caterpillar Inc. Machine performance monitoring and fault classification using an exponentially weighted moving average scheme
WO1997010081A1 (fr) 1995-09-11 1997-03-20 Kabushiki Kaisha Yaskawa Denki Circuit de commande de robots
WO1997046929A2 (en) 1996-06-04 1997-12-11 Werbos Paul J 3-brain architecture for an intelligent decision and control system
US6366293B1 (en) 1998-09-29 2002-04-02 Rockwell Software Inc. Method and apparatus for manipulating and displaying graphical objects in a computer display device
US6243622B1 (en) 1998-10-16 2001-06-05 Xerox Corporation Touchable user interface using self movable robotic modules
EP1037134A2 (en) 1999-03-16 2000-09-20 Matsushita Electric Industrial Co., Ltd. Virtual space control data receiving apparatus and method
US6124694A (en) 1999-03-18 2000-09-26 Bancroft; Allen J. Wide area navigation for a robot scrubber
KR20010053322A (ko) 1999-04-30 2001-06-25 이데이 노부유끼 전자 페트 시스템, 네트워크 시스템, 로봇, 및 기억 매체
JP3537362B2 (ja) 1999-10-12 2004-06-14 ファナック株式会社 ロボットシステム用グラフィック表示装置
AU2001250802A1 (en) 2000-03-07 2001-09-17 Sarnoff Corporation Camera pose estimation
WO2001072478A1 (fr) 2000-03-31 2001-10-04 Sony Corporation Dispositif robotique, procede de commande de l'action du dispositif robotique, dispositif de detection de force exterieure, et procede de detection de force exterieure
US8543519B2 (en) 2000-08-07 2013-09-24 Health Discovery Corporation System and method for remote melanoma screening
JP4765155B2 (ja) 2000-09-28 2011-09-07 ソニー株式会社 オーサリング・システム及びオーサリング方法、並びに記憶媒体
US6442451B1 (en) 2000-12-28 2002-08-27 Robotic Workspace Technologies, Inc. Versatile robot control system
JP2002239960A (ja) 2001-02-21 2002-08-28 Sony Corp ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
US20020175894A1 (en) 2001-03-06 2002-11-28 Vince Grillo Hand-supported mouse for computer input
US6917925B2 (en) 2001-03-30 2005-07-12 Intelligent Inference Systems Corporation Convergent actor critic-based fuzzy reinforcement learning apparatus and method
JP2002301674A (ja) 2001-04-03 2002-10-15 Sony Corp 脚式移動ロボット及びその運動教示方法、並びに記憶媒体
EP1254688B1 (en) 2001-04-30 2006-03-29 Sony France S.A. autonomous robot
US6584375B2 (en) 2001-05-04 2003-06-24 Intellibot, Llc System for a retail environment
US6636781B1 (en) 2001-05-22 2003-10-21 University Of Southern California Distributed control and coordination of autonomous agents in a dynamic, reconfigurable system
JP3760186B2 (ja) 2001-06-07 2006-03-29 独立行政法人科学技術振興機構 二脚歩行式移動装置及びその歩行制御装置並びに歩行制御方法
JP4188607B2 (ja) 2001-06-27 2008-11-26 本田技研工業株式会社 二足歩行移動体の床反力推定方法及び二足歩行移動体の関節モーメント推定方法
JP4364634B2 (ja) 2001-07-13 2009-11-18 ブルックス オートメーション インコーポレイテッド 二次元3自由度ロボットアームの軌道プラニング及び移動制御戦略
US6710346B2 (en) 2001-08-02 2004-03-23 International Business Machines Corporation Active infrared presence sensor
CA2458979C (en) 2001-08-31 2010-09-28 George Danko Coordinated joint motion control system
US6812846B2 (en) 2001-09-28 2004-11-02 Koninklijke Philips Electronics N.V. Spill detector based on machine-imaging
US7243334B1 (en) 2002-01-16 2007-07-10 Prelude Systems, Inc. System and method for generating user interface code
JP3790816B2 (ja) 2002-02-12 2006-06-28 国立大学法人 東京大学 人型リンク系の運動生成方法
US7047861B2 (en) 2002-04-22 2006-05-23 Neal Solomon System, methods and apparatus for managing a weapon system
US7505604B2 (en) 2002-05-20 2009-03-17 Simmonds Precision Prodcuts, Inc. Method for detection and recognition of fog presence within an aircraft compartment using video images
EP1563348A2 (en) 2002-08-21 2005-08-17 Neal E. Solomon Systems, methods and apparatus for organizing groups of self-configurable mobile robotic agents in a multi-robotic system
AU2003900861A0 (en) 2003-02-26 2003-03-13 Silverbrook Research Pty Ltd Methods,systems and apparatus (NPS042)
JP3950805B2 (ja) 2003-02-27 2007-08-01 ファナック株式会社 教示位置修正装置
US7313279B2 (en) 2003-07-08 2007-12-25 Computer Associates Think, Inc. Hierarchical determination of feature relevancy
SE0301531L (sv) 2003-05-22 2004-11-23 Abb Ab A Control method for a robot
US7769487B2 (en) 2003-07-24 2010-08-03 Northeastern University Process and architecture of robotic system to mimic animal behavior in the natural environment
WO2005028166A1 (ja) 2003-09-22 2005-03-31 Matsushita Electric Industrial Co., Ltd. 弾性体アクチュエータの制御装置及び制御方法
US7342589B2 (en) 2003-09-25 2008-03-11 Rockwell Automation Technologies, Inc. System and method for managing graphical data
JP4592276B2 (ja) 2003-10-24 2010-12-01 ソニー株式会社 ロボット装置のためのモーション編集装置及びモーション編集方法、並びにコンピュータ・プログラム
JP4742329B2 (ja) 2004-02-25 2011-08-10 学校法人立命館 浮遊移動体の制御システム
JP4661074B2 (ja) 2004-04-07 2011-03-30 ソニー株式会社 情報処理システム、情報処理方法、並びにロボット装置
EP1622072B1 (en) 2004-07-27 2010-07-07 Sony France S.A. An automated action-selection system and method and application thereof for training prediction machines and for driving the development of self-developing devices
SE0402672D0 (sv) 2004-11-02 2004-11-02 Viktor Kaznov Ball robot
US7211979B2 (en) 2005-04-13 2007-05-01 The Broad Of Trustees Of The Leland Stanford Junior University Torque-position transformer for task control of position controlled robots
US7765029B2 (en) 2005-09-13 2010-07-27 Neurosciences Research Foundation, Inc. Hybrid control device
JP4876511B2 (ja) 2005-09-29 2012-02-15 株式会社日立製作所 ロジック抽出支援装置
US7668605B2 (en) 2005-10-26 2010-02-23 Rockwell Automation Technologies, Inc. Wireless industrial control user interface
KR101300493B1 (ko) 2005-12-02 2013-09-02 아이로보트 코퍼레이션 커버리지 로봇 이동성
US7741802B2 (en) 2005-12-20 2010-06-22 Intuitive Surgical Operations, Inc. Medical robotic system with programmably controlled constraints on error dynamics
US8224018B2 (en) 2006-01-23 2012-07-17 Digimarc Corporation Sensing data from physical objects
US8924021B2 (en) 2006-04-27 2014-12-30 Honda Motor Co., Ltd. Control of robots from human motion descriptors
WO2007138987A1 (ja) 2006-05-25 2007-12-06 Takehiro Ishizaki 作業ロボット
KR100791382B1 (ko) 2006-06-01 2008-01-07 삼성전자주식회사 로봇의 이동 경로에 따라 소정 영역의 특성에 관한 정보를수집하고 분류하는 방법 및 상기 영역 특성에 따라제어되는 로봇, 상기 영역 특성을 이용한 ui 구성 방법및 장치
JP4699426B2 (ja) 2006-08-08 2011-06-08 パナソニック株式会社 障害物回避方法と障害物回避移動装置
JP4267027B2 (ja) 2006-12-07 2009-05-27 ファナック株式会社 ロボット制御装置
EP2140316B1 (en) 2007-03-29 2011-12-28 iRobot Corporation Robot operator control unit configuration system and method
US8255092B2 (en) 2007-05-14 2012-08-28 Irobot Corporation Autonomous behaviors for a remote vehicle
JP5213023B2 (ja) 2008-01-15 2013-06-19 本田技研工業株式会社 ロボット
JP4445038B2 (ja) 2008-02-06 2010-04-07 パナソニック株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボットの制御装置の制御プログラム
JP5181704B2 (ja) 2008-02-07 2013-04-10 日本電気株式会社 データ処理装置、姿勢推定システム、姿勢推定方法およびプログラム
US8175992B2 (en) 2008-03-17 2012-05-08 Intelliscience Corporation Methods and systems for compound feature creation, processing, and identification in conjunction with a data analysis and feature recognition system wherein hit weights are summed
CA2719494C (en) 2008-04-02 2015-12-01 Irobot Corporation Robotics systems
JP4715863B2 (ja) 2008-05-01 2011-07-06 ソニー株式会社 アクチュエータ制御装置及びアクチュエータ制御方法、アクチュエータ、ロボット装置、並びにコンピュータ・プログラム
WO2010027968A2 (en) 2008-09-04 2010-03-11 Iwalk, Inc. Hybrid terrain-adaptive lower-extremity systems
US20110282169A1 (en) 2008-10-29 2011-11-17 The Regents Of The University Of Colorado, A Body Corporate Long Term Active Learning from Large Continually Changing Data Sets
US20100114372A1 (en) 2008-10-30 2010-05-06 Intellibot Robotics Llc Method of cleaning a surface using an automatic cleaning device
JP5242342B2 (ja) 2008-10-31 2013-07-24 株式会社東芝 ロボット制御装置
US8428781B2 (en) 2008-11-17 2013-04-23 Energid Technologies, Inc. Systems and methods of coordination control for robot manipulation
US8120301B2 (en) 2009-03-09 2012-02-21 Intuitive Surgical Operations, Inc. Ergonomic surgeon control console in robotic surgical systems
US8423182B2 (en) 2009-03-09 2013-04-16 Intuitive Surgical Operations, Inc. Adaptable integrated energy control system for electrosurgical tools in robotic surgical systems
US8364314B2 (en) 2009-04-30 2013-01-29 GM Global Technology Operations LLC Method and apparatus for automatic control of a humanoid robot
JP4676544B2 (ja) 2009-05-29 2011-04-27 ファナック株式会社 工作機械に対してワークの供給及び取り出しを行うロボットを制御するロボット制御装置
US8694449B2 (en) 2009-05-29 2014-04-08 Board Of Trustees Of Michigan State University Neuromorphic spatiotemporal where-what machines
US8706297B2 (en) 2009-06-18 2014-04-22 Michael Todd Letsky Method for establishing a desired area of confinement for an autonomous robot and autonomous robot implementing a control system for executing the same
WO2011001569A1 (ja) 2009-07-02 2011-01-06 パナソニック株式会社 ロボット、ロボットアームの制御装置、及びロボットアームの制御プログラム
EP2284769B1 (en) 2009-07-16 2013-01-02 European Space Agency Method and apparatus for analyzing time series data
US20110026770A1 (en) 2009-07-31 2011-02-03 Jonathan David Brookshire Person Following Using Histograms of Oriented Gradients
US8250901B2 (en) 2009-09-22 2012-08-28 GM Global Technology Operations LLC System and method for calibrating a rotary absolute position sensor
TW201113815A (en) 2009-10-09 2011-04-16 Primax Electronics Ltd QR code processing method and apparatus thereof
US8679260B2 (en) 2009-11-11 2014-03-25 Intellibot Robotics Llc Methods and systems for movement of an automatic cleaning device using video signal
US8423225B2 (en) 2009-11-11 2013-04-16 Intellibot Robotics Llc Methods and systems for movement of robotic device using video signal
US8521328B2 (en) 2009-12-10 2013-08-27 The Boeing Company Control system for robotic vehicles
TW201123031A (en) 2009-12-24 2011-07-01 Univ Nat Taiwan Science Tech Robot and method for recognizing human faces and gestures thereof
JP5506618B2 (ja) 2009-12-28 2014-05-28 本田技研工業株式会社 ロボットの制御装置
JP5506617B2 (ja) 2009-12-28 2014-05-28 本田技研工業株式会社 ロボットの制御装置
EP2533678B1 (en) 2010-02-11 2020-03-25 Intuitive Surgical Operations, Inc. System for automatically maintaining an operator selected roll orientation at a distal tip of a robotic endoscope
KR101169674B1 (ko) 2010-03-11 2012-08-06 한국과학기술연구원 원격현전 로봇, 이를 포함하는 원격현전 시스템 및 이의 제어 방법
US8660355B2 (en) 2010-03-19 2014-02-25 Digimarc Corporation Methods and systems for determining image processing operations relevant to particular imagery
US9311593B2 (en) 2010-03-26 2016-04-12 Brain Corporation Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices
US9122994B2 (en) 2010-03-26 2015-09-01 Brain Corporation Apparatus and methods for temporally proximate object recognition
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US8336420B2 (en) 2010-06-02 2012-12-25 Disney Enterprises, Inc. Three-axis robotic joint using four-bar linkages to drive differential side gears
FR2963132A1 (fr) 2010-07-23 2012-01-27 Aldebaran Robotics Robot humanoide dote d'une interface de dialogue naturel, methode d'utilisation et de programmation de ladite interface
US20120045068A1 (en) 2010-08-20 2012-02-23 Korea Institute Of Science And Technology Self-fault detection system and method for microphone array and audio-based device
KR20120035519A (ko) 2010-10-05 2012-04-16 삼성전자주식회사 먼지 유입 감지 유닛 및 이를 구비하는 로봇 청소기
US20120143495A1 (en) 2010-10-14 2012-06-07 The University Of North Texas Methods and systems for indoor navigation
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8726095B2 (en) 2010-12-02 2014-05-13 Dell Products L.P. System and method for proactive management of an information handling system with in-situ measurement of end user actions
JP5185358B2 (ja) 2010-12-13 2013-04-17 株式会社東芝 行動履歴検索装置
JP5074640B2 (ja) 2010-12-17 2012-11-14 パナソニック株式会社 弾性体アクチュエータ駆動機構の制御装置及び制御方法、並びに、制御プログラム
US8639644B1 (en) 2011-05-06 2014-01-28 Google Inc. Shared robot knowledge base for use with cloud computing system
US8380652B1 (en) 2011-05-06 2013-02-19 Google Inc. Methods and systems for autonomous robotic decision making
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
US9116521B2 (en) 2011-07-15 2015-08-25 Hitachi, Ltd. Autonomous moving device and control method thereof
US9189891B2 (en) 2011-08-16 2015-11-17 Google Inc. Systems and methods for navigating a camera
US9015092B2 (en) 2012-06-04 2015-04-21 Brain Corporation Dynamically reconfigurable stochastic learning apparatus and methods
US20130096719A1 (en) 2011-10-13 2013-04-18 The U.S.A. As Represented By The Administrator Of The National Aeronautics And Space Administration Method for dynamic optimization of a robot control interface
JP6305673B2 (ja) 2011-11-07 2018-04-04 セイコーエプソン株式会社 ロボット制御システム、ロボットシステム及びロボット
JP5399593B2 (ja) 2011-11-10 2014-01-29 パナソニック株式会社 ロボット、ロボットの制御装置、制御方法、及び制御プログラム
KR101305819B1 (ko) 2012-01-04 2013-09-06 현대자동차주식회사 착용식 로봇의 사용자 조작 의도 토크 추출방법
CN103251358A (zh) * 2012-02-16 2013-08-21 恩斯迈电子(深圳)有限公司 扫地机器人的控制方法
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
JP5895628B2 (ja) 2012-03-15 2016-03-30 株式会社ジェイテクト ロボットの制御方法及びロボット制御装置、並びにロボット制御システム
US9221177B2 (en) 2012-04-18 2015-12-29 Massachusetts Institute Of Technology Neuromuscular model-based sensing and control paradigm for a robotic leg
CA2872698C (en) * 2012-05-04 2018-07-24 Aeryon Labs Inc. System and method for controlling unmanned aerial vehicles
US9208432B2 (en) 2012-06-01 2015-12-08 Brain Corporation Neural network learning and collaboration apparatus and methods
US8996167B2 (en) 2012-06-21 2015-03-31 Rethink Robotics, Inc. User interfaces for robot training
US20130346347A1 (en) 2012-06-22 2013-12-26 Google Inc. Method to Predict a Communicative Action that is Most Likely to be Executed Given a Context
BR112014033122A2 (pt) 2012-07-04 2017-06-27 Indra Sist S A sistema integrado de detecção prematura de hidrocarbonetos em um meio aquoso
US8977582B2 (en) 2012-07-12 2015-03-10 Brain Corporation Spiking neuron network sensory processing apparatus and methods
US8892360B2 (en) * 2012-09-13 2014-11-18 Mitac International Corp. Method of generating a suggested navigation route based on touch input received from a user and related portable electronic device
US9367798B2 (en) 2012-09-20 2016-06-14 Brain Corporation Spiking neuron network adaptive control apparatus and methods
US8793205B1 (en) 2012-09-20 2014-07-29 Brain Corporation Robotic learning and evolution apparatus
US8972061B2 (en) 2012-11-02 2015-03-03 Irobot Corporation Autonomous coverage robot
US20140187519A1 (en) 2012-12-27 2014-07-03 The Board Of Trustees Of The Leland Stanford Junior University Biomarkers for predicting major adverse events
EP2752726B1 (de) 2013-01-08 2015-05-27 Cleanfix Reinigungssysteme AG Bodenbehandlungsmaschine und Verfahren zum Behandeln von Bodenflächen
US8958937B2 (en) 2013-03-12 2015-02-17 Intellibot Robotics Llc Cleaning machine with collision prevention
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
CN107485449B (zh) 2013-03-15 2020-05-05 直观外科手术操作公司 软件可配置的操纵器自由度
US9008840B1 (en) 2013-04-19 2015-04-14 Brain Corporation Apparatus and methods for reinforcement-guided supervised learning
US9292015B2 (en) 2013-05-23 2016-03-22 Fluor Technologies Corporation Universal construction robotics interface
US20140358828A1 (en) 2013-05-29 2014-12-04 Purepredictive, Inc. Machine learning generated action plan
US9242372B2 (en) 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
TWI585561B (zh) 2013-06-03 2017-06-01 新智控私人有限公司 機器人裝置的離機式導航方法與裝置
US9384443B2 (en) 2013-06-14 2016-07-05 Brain Corporation Robotic training apparatus and methods
US9792546B2 (en) 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US20150032258A1 (en) 2013-07-29 2015-01-29 Brain Corporation Apparatus and methods for controlling of robotic devices
JP5880498B2 (ja) * 2013-08-09 2016-03-09 トヨタ自動車株式会社 自律移動体、障害物判別方法及び障害物回避方法
SG2013071808A (en) 2013-09-24 2015-04-29 Ctrlworks Pte Ltd Offboard navigation apparatus capable of being coupled to a movable platform
US9296101B2 (en) 2013-09-27 2016-03-29 Brain Corporation Robotic control arbitration apparatus and methods
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9395723B2 (en) * 2013-09-30 2016-07-19 Five Elements Robotics, Inc. Self-propelled robot assistant
US9144907B2 (en) 2013-10-24 2015-09-29 Harris Corporation Control synchronization for high-latency teleoperation
US10612939B2 (en) 2014-01-02 2020-04-07 Microsoft Technology Licensing, Llc Ground truth estimation for autonomous navigation
EP3889717A1 (en) * 2014-03-31 2021-10-06 iRobot Corporation Autonomous mobile robot
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
US10255319B2 (en) 2014-05-02 2019-04-09 Google Llc Searchable index
US20150339589A1 (en) 2014-05-21 2015-11-26 Brain Corporation Apparatus and methods for training robots utilizing gaze-based saliency maps
US9475195B2 (en) 2014-09-12 2016-10-25 Toyota Jidosha Kabushiki Kaisha Anticipatory robot navigation
US9704043B2 (en) * 2014-12-16 2017-07-11 Irobot Corporation Systems and methods for capturing images and annotating the captured images with information
US10034421B2 (en) * 2015-07-24 2018-07-31 Irobot Corporation Controlling robotic lawnmowers
JP2018067785A (ja) * 2016-10-19 2018-04-26 前川 博文 コミュニケーションロボットシステム
US10377252B2 (en) * 2016-12-29 2019-08-13 Intel Corporation Robots and apparatus, systems and methods for powering robots

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09160646A (ja) * 1995-12-11 1997-06-20 Shizukou Kk 自律走行車両
JPH09266871A (ja) * 1996-04-03 1997-10-14 Fuji Heavy Ind Ltd 清掃ロボットの制御方法
JP2002209035A (ja) * 2001-01-11 2002-07-26 Sharp Corp 画像処理装置、情報処理システム、及びデータ処理方法
US20150224640A1 (en) * 2005-09-30 2015-08-13 Irobot Corporation Companion robot for personal interaction
US20120313779A1 (en) * 2011-06-12 2012-12-13 Microsoft Corporation Nomadic security device with patrol alerts
US20130056032A1 (en) * 2011-09-07 2013-03-07 Suuk Choe Robot cleaner, and system and method for remotely controlling the same
JP2014071845A (ja) * 2012-10-01 2014-04-21 Sharp Corp 機器制御装置、および自走式電子機器
US20140207282A1 (en) * 2013-01-18 2014-07-24 Irobot Corporation Mobile Robot Providing Environmental Mapping for Household Environmental Control
US20140207280A1 (en) * 2013-01-18 2014-07-24 Irobot Corporation Environmental management systems including mobile robots and methods using same
US20150019043A1 (en) * 2013-07-12 2015-01-15 Jaybridge Robotics, Inc. Computer-implemented method and system for controlling operation of an autonomous driverless vehicle in response to obstacle detection
WO2015183005A1 (en) * 2014-05-28 2015-12-03 Samsung Electronics Co., Ltd. Mobile device, robot cleaner, and method for controlling the same
US20160052133A1 (en) * 2014-07-30 2016-02-25 Lg Electronics Inc. Robot cleaning system and method of controlling robot cleaner
US9486921B1 (en) * 2015-03-26 2016-11-08 Google Inc. Methods and systems for distributing remote assistance to facilitate robotic object manipulation
CN106175600A (zh) * 2015-05-28 2016-12-07 戴森技术有限公司 控制移动式机器人的方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11953908B2 (en) 2021-10-12 2024-04-09 Google Llc Deployable safety fence for mobile robots

Also Published As

Publication number Publication date
US20190381663A1 (en) 2019-12-19
EP3577530C0 (en) 2023-08-02
EP3577530A1 (en) 2019-12-11
US11691286B2 (en) 2023-07-04
JP7220871B2 (ja) 2023-02-13
EP3577530B1 (en) 2023-08-02
US10377040B2 (en) 2019-08-13
JP2020507164A (ja) 2020-03-05
WO2018144846A1 (en) 2018-08-09
US20180215039A1 (en) 2018-08-02

Similar Documents

Publication Publication Date Title
CN110462540A (zh) 用于辅助机器人设备的系统和方法
US20210008714A1 (en) Systems and methods for remote operating and/or monitoring of a robot
EP3602223B1 (en) System and method for robotic path planning
KR102528869B1 (ko) 자율 네비게이션에서 동적 노정을 계획하기 위한 시스템 및 방법
Liu et al. Multirobot cooperative learning for semiautonomous control in urban search and rescue applications
US9592604B2 (en) Remotely operating a mobile robot
US20210223779A1 (en) Systems and methods for rerouting robots to avoid no-go zones
KR102306709B1 (ko) 청소 로봇, 청소 로봇의 제어 장치, 제어 시스템, 및 제어 방법
KR102298582B1 (ko) 센서 데이터를 이용하여 청소 동선을 결정하는 인공 지능 로봇 및 그 방법
JP5550671B2 (ja) 自律走行ロボット及び自律走行ロボットの走行制御方法
CN110998471A (zh) 机器人运动控制系统及方法
US20180263449A1 (en) Floor cleaning system and method for cleaning a floor surface
US11330951B2 (en) Robot cleaner and method of operating the same
KR20190086631A (ko) 사용자의 동작을 고려하여 청소하는 인공 지능 장치 및 그 방법
US11097414B1 (en) Monitoring of surface touch points for precision cleaning
US20220258351A1 (en) Intent based control of a robotic device
CN110325328A (zh) 机器人
KR20210047434A (ko) 로봇 청소기 및 그의 동작 방법
Merkt et al. Robust shared autonomy for mobile manipulation with continuous scene monitoring
JP5499212B1 (ja) 遠隔操作受付システム、遠隔操作システム及びプログラム
JP2004243499A (ja) 生活空間用の物品取扱いシステム、物品取扱い方法、及びロボット操作装置
WO2021261058A1 (ja) 情報処理方法、情報処理端末、及び、情報処理システム
JP2022087019A (ja) サービスアプリケーションと連係してサービスを提供するロボットを制御する方法およびクラウドサーバ
JP5583291B1 (ja) 遠隔操作受付システム、遠隔操作システム及びプログラム
Cavallin et al. Semi-Autonomous, teleoperated search and rescue robot

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20191115