CN112823083A - 可配置和交互式的机器人系统 - Google Patents
可配置和交互式的机器人系统 Download PDFInfo
- Publication number
- CN112823083A CN112823083A CN201980064641.4A CN201980064641A CN112823083A CN 112823083 A CN112823083 A CN 112823083A CN 201980064641 A CN201980064641 A CN 201980064641A CN 112823083 A CN112823083 A CN 112823083A
- Authority
- CN
- China
- Prior art keywords
- interface
- output signal
- processor
- electromechanical
- robotic system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000002452 interceptive effect Effects 0.000 title description 6
- 230000033001 locomotion Effects 0.000 claims abstract description 22
- 238000013473 artificial intelligence Methods 0.000 claims abstract description 19
- 230000014509 gene expression Effects 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 17
- 230000004044 response Effects 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 35
- 230000008878 coupling Effects 0.000 claims description 21
- 238000010168 coupling process Methods 0.000 claims description 21
- 238000005859 coupling reaction Methods 0.000 claims description 21
- 230000006399 behavior Effects 0.000 claims description 16
- 230000008921 facial expression Effects 0.000 claims description 5
- 230000001755 vocal effect Effects 0.000 claims description 5
- 210000003128 head Anatomy 0.000 description 13
- 230000000694 effects Effects 0.000 description 6
- 210000002414 leg Anatomy 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 241000282412 Homo Species 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 241000272525 Anas platyrhynchos Species 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000001953 sensory effect Effects 0.000 description 3
- 241000272814 Anser sp. Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241000283973 Oryctolagus cuniculus Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 229910045601 alloy Inorganic materials 0.000 description 1
- 239000000956 alloy Substances 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- -1 aluminum) Chemical class 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 150000002739 metals Chemical class 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 229920002994 synthetic fiber Polymers 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
- A63H11/18—Figure toys which perform a realistic walking motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/0015—Face robots, animated artificial faces for imitating human expressions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H11/00—Self-movable toy figures
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H3/00—Dolls
- A63H3/28—Arrangements of sound-producing means in dolls; Means in dolls for producing sounds
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0003—Home robots, i.e. small robots for domestic use
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0009—Constructional details, e.g. manipulator supports, bases
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63H—TOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
- A63H2200/00—Computerized interactive toys, e.g. dolls
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Fuzzy Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
一种机器人系统,包括:输入传感器;机电化接口;电子化接口;以及处理器,所述处理器包括硬件并被配置为执行包括基于人工智能的指令的机器可读指令,其中在执行机器可读指令时,处理器被配置为:根据基于人工智能的指令来处理用户经由输入传感器提供的输入;生成第一输出信号,该第一输出信号被提供给机电化接口,使得连接至机器人系统的可移动组件被投入运动中,并生成第二输出信号,该第二输出信号被提供给电子化接口,使得响应于输入的行为或表情被呈现在电子化接口处。
Description
对相关申请的交叉引用
本申请要求于2018年11月5日提交的第62/755,963号临时专利申请的优先权,该临时专利申请通过引用整体并入本文中。
技术领域
本公开涉及机器人技术领域,例如,根据用户偏好可配置的、响应于各种传感器输入并与用户交互的机器人系统、设备和技术。
发明内容
本公开的一方面在于提供一种机器人系统,其具有:输入传感器;机电化接口(electromechanical interface);电子化接口(electronic interface);以及处理器,其包括硬件并被配置为执行包括基于人工智能的指令的机器可读指令。在执行机器可读指令时,处理器被配置为:根据基于人工智能的指令来处理用户经由输入传感器提供的输入;响应于该输入而生成第一输出信号,该第一输出信号被提供给机电化接口,使得连接至机器人系统的至少一个可移动组件被投入运动中,以及生成第二输出信号,该第二输出信号被提供给电子化接口,使得响应于输入的行为或表情被呈现在电子化接口处。
另一个方面提供了一种用于与机器人系统交互的方法。例如,机器人系统可以包括上述系统特征。该方法包括:使用处理器执行机器可读指令;经由处理器根据基于人工智能的指令来处理用户经由输入传感器提供的输入;响应于该输入,经由处理器生成第一输出信号;将来自处理器的第一输出信号提供给机电化接口,使得连接至机器人系统的至少一个可移动组件被投入运动中;响应于输入,经由处理器生成第二输出信号;以及将来自处理器的第二输出信号提供给电子化接口,使得响应于该输入的行为或表情被呈现在电子化接口处。
本公开的其他方面、特征和优点将从以下详细描述、附图和所附权利要求中变得清楚。
附图说明
图1A和1B分别示出了根据本公开的实施例的机器人设备的侧视图和前视图。
图2A和2B示出了用户与机器人设备交互的示例。
图3A、3B和3C分别示出了机器人设备的透视图、前视图和侧视图。
图4A和图4B示出了根据本公开的另一实施例的处于第一位置中的机器人设备的前透视图。
图5A和5B分别示出了根据实施例的处于第二位置中的图4A和4B的机器人设备的侧视图和透视图。
图6示出了根据本公开的机器人设备的又一实施例。
图7示出了根据实施例的图4A至图5B中的机器人设备的示例性尺寸。
图8描绘了本文所公开的机器人设备和系统的部分的示例性示意图。
具体实施方式
本文所述的机器人系统和技术通过由具体的基于计算机的人工智能(AI)算法驱动的交互式用户界面为人类提供了陪伴,这些算法使用适当的硬件和软件来实现。这样,本文描述的系统和技术必然植根于技术,例如机器人技术。
在一些实施例中,本文公开的系统和设备旨在作为儿童的交互式学习助手。例如,根据本公开的一个实施例的设备可以用作利用人工智能来协助儿童和/或成人通过不同活动的台式/桌面产品。该设备可以包括或被连接到呈现类似于人的拟生表情和行为的一个或多个用户界面,这允许其提供与用户的自然协助和交互以增加采用和学习。对设备的儿童/人类输入以及经由设备所提供的(一个或多个)交互式用户界面而提供的拟生输出可以通过一种或多种不同的模式,例如,视觉、音频、触摸、触觉和/或其他感官模式。人-机器人设备交互的示例包括阅读书籍、协助体力/书面作业、通过平板电脑/移动设备上的学习应用程序进行交互,与人进行自然对话(语音和手势)。根据实施例,如在2018年12月27日提交的序列号为16/233,879的美国专利申请中公开的自动陪伴的细节和特征(该美国专利申请通过引用整体并入本文中)可以被包括在本公开所提供的系统和/或设备中,和/或作为其一部分。
在一些实施例中,机器人系统或设备被实现为台式电子设备,该台式电子设备能够接收和处理各种输入并根据该机器人系统或设备中实现的基于计算机的指令来提供输出。这样的机器人系统或设备100的示例在图1A至图3C中示出且示意性地在图8中示出。设备100能够促进和/或协助经由设备100和/或用户界面与用户的交互。在这样做时,该设备可以被配置为拟生设备和/或机器人设备,该拟生设备和/或机器人设备能够控制其部件中的至少一些以例如进行某些身体移动(诸如头部)、在相关联的显示器上展示某些面部表情(诸如弯眼微笑)、和/或以一定声音或音调(诸如兴奋的音调)说出一些话(经由到扬声器的输出)来显示某些情绪。图1A、1B所示的示例性系统/设备100(以及图2A、2B、3A-3C所示的类似设备)可以由不同的模块化组件组成,这些组件被连接以形成设备100的整体,和/或设备100可以是一体式结构。设备100在其外部主体上可以具有可识别的组件,包括头部101、颈部102、躯干103、基座104和面部接口(face interface)105。这些组件中的一个或多个可以由塑料或其他合成材料制成,或者由一种或多种金属或合金(例如铝)制成,并且可以被配置使得它们可以以防水或防风雨的布置将电气和电子组件容纳在其中。设备100可以被配置为依赖交流电源(120V)提供的交流电和/或连接到设备100或在设备100内部的电池提供的直流电来操作。
设备100可以被配置为提供一个或多个可移动组件,作为其结构的一部分。在实施例中,可移动组件经由一个或多个机电联接部EA(或联接关节/点)在其结构上的不同点处(例如在四(4)个位置处)实现。例如,机电联接部EA被配置为允许结构组件的旋转和/或枢转。机电联接部EA可以经由机电化接口EI来控制。机电化接口EI被配置为接收由处理器110生成的第一输出信号,并且处理该信号使得(例如,经由机电联接关节或点)连接至机器人系统的一个或多个可移动组件被投入运动。在实施例中,机电化接口EI、电子化接口105和处理器110是机器人设备的一部分,并且机器人设备包括基座104和主体103。例如,设备100的下联接部可经由至少一个关节111在隐藏的基座104内绕纵向或垂直轴线A(参见图3B或图3C)来旋转其主体103,并且可以经由枢转点或枢转关节绕枢转轴线D并且相对于基座104枢转(例如,向后、向前(forth)、向左、向右、向前(front)、向后)其主体103,该枢转点或枢转关节位于基座104上方和/或之中。基座104隐藏下联接点(参见图3C),该下联接点允许设备100的主体103相对于基座104枢转,例如向下至地平面。例如下旋转联接关节111允许设备在垂直(向上和向下)枢转时旋转多达360度。设备100还可包括在颈部102处的上颈部关节112(参见图3A或图3C)以及另一机械关节114,上颈部关节112允许头部101联接,即,经由枢转点绕轴线C垂直地上下枢转,另一机械关节114允许头部101绕轴线B旋转(swivel),轴线B可以是基本垂直的轴线或垂直的轴线。颈部102可经由至少一个机电联接关节EA连接到头部,其中颈部102被配置为相对于主体103绕轴线B旋转,相对于主体103绕轴线C绕枢转点枢转,或两者。在实施例中,主体103被配置为既相对于基座103绕垂直轴线A旋转又相对于基座104绕枢转点枢转。这样的移动(主体、头部、颈部)可以响应于由处理器110提供给机电化接口EI的(第一)输出信号。在一些实施例中,这些联接是串联发生的以允许设备100的逼真的拟生活动。设备100的可移动组件的机电联接/移动还可以伴随着类似于人的拟生活动和表情,这些拟生活动和表情显示在接口105的显示面板118/屏幕(例如,由LCD,LED等制成)上(参见,例如,图1B)。
该结构的可移动组件的移动以及因此机电联接部EA的移动可以使用电动机(例如步进电动机和/或伺服电动机)来激活(参见图8)。一个或多个电动机可以与至少一个可移动组件/机电联接部EA相关联。在系统或设备100的使用期间,处理器110被配置为响应于输入(106)来激活一个或多个电动机以使至少一个可移动组件绕着联接点移动。例如机电联接部EA可以包括球形关节、旋转关节、铰链关节、枢转关节、螺旋关节、旋转关节、环绕(revolving)关节、齿轮。
设备100提供的机电联接部和其他输出由设备100中的控制系统生成,其中控制系统被配置为接收不同的输入并根据在设备100处以硬件和软件实现的基于AI的技术来处理这些输入。在一些实施例中,设备100的控制系统包括由微处理器板组成的主处理单元或“处理器”110,其从与设备100相关联的各种输入传感器106接收多个信号。输入数据或“输入”由用户提供到设备100,并且输入传感器106将该输入转发给处理器110,使得设备100可以被控制以执行或完成各种输出响应,包括例如可移动组件或EA的移动、和/或经由电子化接口105实现例如到显示器118的行为或表情。即,处理器110被配置为根据基于人工智能的指令来处理用户经由输入传感器提供的输入、响应于输入而生成第一输出信号,该第一输出信号被提供给机电化接口,使得连接至机器人系统的至少一个可移动组件被投入运动中,以及生成第二输出信号,该第二输出信号被提供给电子化接口,使得响应于该输入的行为或表情被呈现在电子化接口处。例如,设备100可以具有鱼眼式宽镜头相机CA作为输入设备或传感器106,其允许设备100调查其环境并识别空间中的具体的人和物体。基于相机输入,设备100的联接部以具体方式产生拟生活动。另外,基于来自相机CA的视觉输入,面部105中的LCD/LED面板或显示器118充当面部并调整在其上显示的表情。LCD/LED面板还可以取决于传感器输入而向用户显示信息。设备100可以在头部101的侧面处包括一个或多个麦克风以捕获听觉输入——语音和环境声音,作为输入传感器106。这些麦克风还可以被利用来以波束成形方式检测空间差异/方向,这在儿童的教育产品中是独一无二的。设备100还可以包括位于基座104的前面的面向下的扬声器116,该扬声器提供听觉输出。根据实施例,呈现在电子化接口105和/或设备100处的行为包括处理器110被配置为经由扬声器116以语音形式发出一个或多个声音或言语响应。电子化接口105可以被用于响应于到处理器110的输入而传递言语响应和/或行为响应形式的响应。在一个实施例中,在电子化接口105处呈现的表情包括处理器110被配置为经由与电子(面部)接口105相关联的显示器118来展示面部表情(例如,参见图1B)。此外,设备100可以被配置为接纳附件,这些附件在物理上和数字上调整设备100的面向外部的特性(external facing character)以发生改变,例如,如果表示猫耳的附件被放置在设备100上,则设备100的面部和声音可以改变为呈现类似猫的表情和音频输出。设备100的行为中的这样的与附件相关的改变可能会在将附件连接到设备100时自动发生,也可能在用户手动输入命令后生效,使设备100的配置根据所附接的附件而改变。设备100可以包括与许多预定附件中的附件一起工作的一组预编程软件指令。
设备100可以包括多个内部传感器,这些传感器负责收集温度读数、汲取的电压和电流,并控制电池的健康状况,例如,以进行自我监测和诊断。这些传感器检测到可能发生的问题,并采取适当的措施,这可能导致有缺陷的设备被关闭和备份。设备100可以包括用于捕获附近环境的相机(CA)以及具有高变焦和低光要求的摇摄、倾斜和变焦(PTZ)相机。设备100的控制单元可以负责自主地控制这些相机的位置。控制设备100可以被远程地控制(例如,无线地或使用有线连接)以用于设备的远程操作。控制单元的处理器110(例如,微处理器)可以从远程设备接收命令(例如,经由安装在智能手机或平板电脑上的应用程序),并对命令进行处理以控制电动机控制器、PTZ相机和/或面部105的显示面板118。
设备100包括在其中实现的软件体系结构,该软件体系结构包含人-机器人接口和高级算法,该高级算法聚合来自机载传感器(on-board sensor)的数据并产生导致不同的机器人移动/联接和表情的信息。设备100的主要软件模块可以包括人-机接口。此组件具有人类代理与机器人设备100之间的中介的角色。所有相关的感官和遥测数据伴随机载相机的馈送一起呈现。人与机器人之间的交互不仅允许直接远程操作机器人,而且可以纠正或改善所期望的行为。设备100的软件可以包括应用程序模块——此组件是更高级别的AI逻辑处理算法所驻留之处。应用程序模块可包括用于自然语言处理、面部检测、图像建模、自我监测和错误恢复的设备100的能力。设备100可以包括用于存储所有持久数据、非持久和已处理的信息的存储库。数据可以被组织为跨设备100的软件模块可用的基于树的文件系统中的文件。还可以存在设备驱动器,其对于将传感器和致动器与设备100内的信息系统对接是至关重要的。它们在产生原始数据的硬件连接的可替换设备与具有跨模块通用的数据格式的主要机器人设备处理中心之间进行调解(mediate)。设备100还可以包括服务总线,该服务总线表示用于处理所有软件模块之间的通信(服务和消息)的公共接口。此外,设备100完全符合作为免费和开源软件框架的机器人操作系统(ROS)。ROS提供标准的操作系统服务,例如硬件抽象、低级别设备控制(low-level device control)、常用功能的实现、进程之间的消息传递、以及包管理。它基于图(graph)体系结构,其中处理在可能接收、发布和多路复用传感器控制、状态、计划、致动器和其他消息的节点中发生。它还是分布式计算开发的提供商,包括用于跨多台计算机获取、编写、构建和运行应用程序的库和工具。设备100的控制系统被配置为根据用于消息传送的节点和主题的概念来根据ROS语法进行操作。
设备100可以配备有至少一个处理单元110,该处理单元110能够执行实现本文所述的基于AI的交互式技术的至少一部分的机器语言指令。例如,设备100可以包括在接口105处提供(或电连接到设备100)的用户界面UI,该用户界面UI可以接收输入和/或向用户提供输出。用户界面UI可以配置为向来自输入设备(一个或多个)(例如键盘、小键盘、触摸屏、计算机鼠标、轨迹球、操纵杆和/或配置为从机器人设备100的用户接收用户输入其他类似设备)的用户输入发送数据和/或从其接收数据。用户界面UI可以与(一个或多个)输入传感器相关联。用户界面UI可以配置为向输出显示设备(诸如一个或多个阴极射线管(CRT)、液晶显示器(LCD)、发光二极管(LED)、使用数字光处理(DLP)技术的显示器、打印机、灯泡和/或能够向设备100的用户显示图形、文本和/或数字信息的其他类似设备)提供输出。用户界面模块还可以配置为生成(一个或多个)可听输出,诸如扬声器、扬声器插孔、音频输出端口、音频输出设备、耳机和/或被配置为向设备100的用户传送声音和/或可听信息的其他类似设备。用户界面模块可以被配置有触觉接口,其可以接收与虚拟工具和/或触觉接口点(HIP)、配置为由触觉接口控制的远程设备相关的输入和/或其他输入,并提供触觉输出,诸如触觉反馈、振动、力、运动和/或其他与触摸相关的输出。
处理器110被配置为执行许多步骤,包括根据基于人工智能的指令来处理由用户提供的输入数据(例如,经由输入传感器106提供给设备和/或用户界面UI)。响应于所述输入,处理器被配置为生成第一输出信号并将其提供给机电化接口EI,使得(经由机电联接部EA)连接至机器人系统的至少一个可移动组件被投入运动。处理器还被配置为响应于输入而生成第二输出信号,并将第二输出信号提供给电子化接口105,使得响应于输入的行为或表情被呈现在电子化接口105处。
此外,设备100可以包括网络通信接口模块120,其可以被配置为经由网络122通过无线接口和/或有线接口发送和接收数据(例如,从用户界面UI)。在实施例中,网络122可以被配置为与处理器110通信。在一些实施例中,网络122可以对应于单个网络或不同网络的组合。(一个或多个)有线接口(如果存在的话)可以包括到数据网络(诸如,广域网(WAN)、局域网(LAN),一个或多个公共数据网络(诸如因特网)、一个或多个私有数据网络或此类网络的任意组合)的电线、电缆、光纤链路和/或类似的物理连接。(一个或多个)无线接口(如果存在的话)可以利用空中接口(诸如到数据网络(诸如WAN、LAN、蜂窝网络、一个或多个公共数据网络(例如因特网)、内联网、蓝牙网络,一个或多个私有数据网络或公共和私有数据网络的任意组合)的ZigBee、Wi-Fi和/或LTE、4G、5G接口。
设备100可以包括一个或多个处理器,诸如中央处理单元(CPU)(一个或多个CPU)、计算机处理器、移动处理器、数字信号处理器(DSP)、GPU、微处理器、计算机芯片和/或配置为执行机器语言指令和进程数据的其他处理单元。(一个或多个)处理器可以被配置为执行包含在设备100的数据存储中的计算机可读程序指令。设备100还可以包括数据存储装置和/或存储器,诸如只读存储器(ROM)、随机存取存储器(RAM)、可移动磁盘驱动存储器、硬盘存储器、磁带存储器,闪存和/或其他存储设备。数据存储可以包括一个或多个物理和/或非暂时性存储设备,其具有至少足够的组合存储容量以包含计算机可读程序指令和任何相关联/相关的数据结构。包含在数据存储装置中的计算机可读程序指令和任何数据结构分别包括可由(一个或多个)处理器执行的计算机可读程序指令和执行本文中描述的技术的至少一部分所需的任何存储装置。
本公开的机器人系统的另一个实施例包括图4A至图7中描绘的移动系统/设备200。尽管下面对图4A至图7的描述可能未明确参考图1A至图3C和图8所示的描述、图示和特征,但应理解,参考图4A至图7图示和描述的设备可以包括和/或合并参考前述附图所描述的任何数量的类似功能方面和特征(反之亦然)。
为了清楚和简洁起见,贯穿附图一些相似的元件和组件以与参考图1A至图3C和图8所讨论的相同的标号和编号来标记。因此,尽管本文没有完全详细地讨论,但是本领域的普通技术人员应当理解,与图1A至图3C和图8的设备100相关联的各种特征类似于先前讨论的那些特征。另外,应当理解,在单个附图中的每一个示出的特征并不意味着仅限于所示出的实施例。即,贯穿本公开内容描述的特征可以与除它们参照其被示出和/或描述的那些实施例之外的其他实施例互换和/或一起使用。
图4A和4B示出了处于第一位置(例如处于伸展位置)的机器人设备200。图5A和5B示出了根据实施例的处于第二位置(例如折叠或收缩(nested)位置)的图4A和4B的机器人设备200。图6示出了机器人设备200或系统的一个实施例。图7示出了设备200的示例性非限制性尺寸。
图4A至图7的设备200包括上面描述的设备100的硬件和软件组件,并且附加地包括允许设备200移动的结构配置和组件(例如,踏板、轮子等)。在实施例中,腿201和联接脚205可以被连接到基座104,其中响应于(经由处理器110)被提供给机电化接口EI的第一输出信号,至少腿201被配置为经由机电联接关节EA在第一伸展位置(参见图4A、4B)和第二收缩位置(参见图5A、5B)之间移动。在一些实施例中,设备200是双踏板机器人,其可以通过联接其脚205向上例如达5英寸来跨过物体,以及将其腿201收缩在其主体中以采取低姿态的姿势。设备200可以进一步被配置为响应于(经由处理器110)被提供给机电化接口EI的第一输出信号,在其腿201相对于基座(104)的伸展和收缩之间交替。设备200可以包括联接颈部202,联接颈部202可以从主体(104)上脱落和/或相对于主体(104)移动,并充当通过相机203(其可能类似于相机CA,如前所述)识别人、物体和环境的潜望镜。此潜望镜还确定设备200的移动和方向取向。潜望镜可以包括三(3)个联接关节,这些联接关节允许颈部202和头部204向上伸展,但也向下到达地面并具有观察和用嘴巴/嘴拾取物体的能力。颈部经由至少一个机电联接关节连接到头部,其中该颈部被配置为相对于主体绕着垂直轴线旋转,相对于主体绕着枢转点枢转,或两者。在一些实施例中,设备200的全球定位以及其对地平面的位置和多个轴上的加速度由具有内置全球定位系统(GPS)设备的惯性测量单元收集。安装在伺服驱动器上的激光单元用于空间感知和障碍物躲避。对于短距离障碍物检测,设备200具有覆盖机器人外围的一圈超声传感器。
图6示出了鹅形的机器人系统200或设备的一个示例,其具有头部(如头部101)、颈部(如102或202)、主体(如主体103)和基座104。脚205经由机电联接关节EA连接到基座104内的通常被隐藏的部分。基座104还可以隐藏下联接点,这些下联接点允许设备100的主体103相对于主体104枢转。例如,这样的关节可以允许设备200的主体103旋转多达360度。尽管如图6所示的设备200看起来是鹅或鸭,但是它也可以以其他形式构造,诸如包括熊、兔子等的其他动物或人或角色。在一些实施例中,设备200上的面部105可以允许渲染人或动物的面部、表情或身体特征(例如,鼻子、眼睛)。这样显示的面部还可以被控制以表达情绪。
设备200的主体103可以包括固定的、可移动的和/或半可移动的部分。可移动的部件可经由作为设备200的一部分而被提供的机电联接关节EA来实现,例如,在主体103内。可移动的部件可相对于表面(诸如桌子表面或地板)和/或在其上旋转和/或枢转和/或移动。这样的可移动主体可以包括可以被动力学地控制以进行物理移动的部分。例如,设备200可以包括脚205或轮子(未示出),其可以在需要时被控制以在空间中移动。在一些实施例中,设备200的主体可以是半移动的,即,一些部分(一个或多个)是可移动的而一些部分不是。例如,具有鹅或鸭外观的设备200的主体上的颈部、尾巴或嘴是可移动的,但是鸭(或其脚)不能在空间中移动。
回到图7,所示的尺寸是示例性的。根据实施例,设备200具有总长度L1,其可以为大约357mm。根据实施例,每只脚可以具有长度L2,其可以为大约194至195mm。根据实施例,设备200还具有从脚205的底部到腿201的顶部联接关节的高度H1,其可以为大约218-219mm。根据实施例,腿201的底部的高度H2(例如,从膝盖联接关节起)可以为大约128mm。
在一些实施例中,设备200内的许多电动机中的每一个通过齿轮直接耦合至其对应的轮子或踏板。可以没有任何链条或带,这不仅有助于减少能量损失,而且有助于减少故障点的数量。通过使用软件和适当的硬件,设备200可以通过根据运动命令并基于机器人的建模运动学估计电动机的位置和速度来提供运动控制。设备200还可被配置用于涉及路径规划和障碍物躲避行为的导航。通过接收和融合传感信息、位置和速度估计,设备200可以能够确定到达期望目标的路径以及用于运动控制的下一个角速度和线性速度。
这样,通过说明书和相关附图可以看出,本公开的一个方面提供了一种机器人系统,该机器人系统具有:输入传感器;机电化接口;电子化接口;以及处理器,其包括硬件并被配置为执行包括基于人工智能的指令的机器可读指令。在执行机器可读指令时,处理器被配置为:根据基于人工智能的指令来处理用户经由输入传感器提供的输入;响应于该输入而生成第一输出信号,该第一输出信号被提供给机电化接口,使得连接至机器人系统的至少一个可移动组件被投入运动,并生成第二输出信号,该第二输出信号被提供给电子化接口,使得响应于输入的行为或表情被呈现在电子化接口处。
另一个方面提供了一种用于与机器人系统交互的方法。例如,机器人系统可以包括上述系统特征。该方法包括:使用处理器执行机器可读指令;经由处理器根据基于人工智能的指令来处理用户经由输入传感器提供的输入;响应于输入,经由处理器生成第一输出信号;将来自处理器的第一输出信号提供给机电化接口,使得连接至机器人系统的至少一个可移动组件被投入运动中;响应于输入,经由处理器生成第二输出信号;以及将来自处理器的第二输出信号提供给电子化接口,使得响应于输入的行为或表情被呈现在电子化接口处。
根据实施例,该方法还可以包括相对于基座绕枢转点使主体枢转。在实施例中,该方法可以包括相对于基座绕垂直轴线旋转主体。在一个实施例中,该方法还可以包括经由枢转点绕轴线枢转头部并且旋转头部。在实施例中,该方法可以包括相对于主体旋转和/或枢转颈部。根据实施例,该方法还可以包括经由处理器经由扬声器以语音形式发出一个或多个声音或言语响应。在实施例中,该方法还可以包括经由处理器经由与电子化接口相关联的显示器来展示面部表情。
尽管本公开的原理已在上述说明性实施例中阐明,对于本领域技术人员将清楚的是,可以对在本公开的实践中使用的结构、布置、比例、元件、材料和组件进行各种修改。
因此,将看到,本公开的特征已经被完全有效地实现。然而,将认识到,已经出于示出本公开的功能和结构原理的目的而示出和描述了前述优选的具体实施例,并且在不背离这样的原理的情况下可以对其进行改变。因此,本公开包括在所附权利要求的精神和范围之内的所有修改。
Claims (20)
1.一种机器人系统,包括:
输入传感器;
机电化接口;
电子化接口;以及
处理器,所述处理器包括硬件并被配置为执行包括基于人工智能的指令的机器可读指令,其中,在执行所述机器可读指令时,所述处理器被配置为:
根据基于所述人工智能的指令来处理用户经由所述输入传感器提供的输入;
响应于所述输入而生成第一输出信号,所述第一输出信号被提供给所述机电化接口,使得连接至所述机器人系统的至少一个可移动组件被投入运动中,以及
生成第二输出信号,所述第二输出信号被提供给所述电子化接口,使得响应于所述输入的行为或表情被呈现在所述电子化接口处。
2.如权利要求1所述的机器人系统,其中,所述至少一个可移动组件包括一个或多个机电联接关节,所述一个或多个机电联接关节被配置为允许绕垂直轴线旋转和/或绕枢转点枢转。
3.如权利要求1所述的机器人系统,其中,所述机电化接口、所述电子化接口和所述处理器是机器人设备的一部分,其中,所述机器人设备包括基座和主体,其中,所述主体是包括多个机电联接关节的所述至少一个可移动组件,其中,所述主体被配置为响应于被提供给所述机电化接口的所述第一输出信号而相对于所述基座绕枢转点枢转。
4.如权利要求3所述的机器人系统,其中,所述主体被配置为响应于被提供给所述机电化接口的所述第一输出信号,既相对于所述基座绕垂直轴线旋转,又相对于所述基座绕枢转点枢转。
5.如权利要求3所述的机器人系统,其中,所述主体包括头部和另一机械关节,所述头部被配置为响应于被提供给所述机电化接口的所述第一输出信号而经由枢转点绕轴线垂直地上下枢转,所述另一机械关节允许所述头部响应于被提供给所述机电化接口的所述第一输出信号而绕基本垂直的轴线或垂直轴线旋转。
6.如权利要求5所述的机器人系统,还包括经由至少一个机电联接关节被连接到所述头部的颈部,其中,所述颈部被配置为响应于被提供给所述机电化接口的所述第一输出信号而相对于所述主体绕垂直轴线旋转、相对于所述主体绕枢转点枢转、或者两者。
7.如权利要求3所述的机器人系统,还包括腿和连接到所述基座的联接脚,其中,至少所述腿被配置为:响应于被提供给所述机电化接口的所述第一输出信号,经由机电联接关节在第一伸展位置和第二收缩位置之间移动。
8.如权利要求7所述的机器人系统,其中,所述机器人设备被配置为充当双踏板机器人,所述双踏板机器人被配置为:响应于被提供给所述机电化接口的所述第一输出信号,通过联接所述双踏板机器人的脚以及使所述双踏板机器人的腿相对于所述基座在伸展和收缩之间交替,来采取步伐。
9.如权利要求1所述的机器人系统,其中,所述输入传感器与用户界面相关联。
10.如权利要求1所述的机器人系统,还包括相机,用于通过该相机识别人、物体和环境。
11.如权利要求1所述的机器人系统,其中,呈现在所述电子化接口处的所述行为包括:所述处理器被配置为经由扬声器以语音形式发出一个或多个声音或言语响应。
12.如权利要求1所述的机器人系统,其中,呈现在所述电子化接口处的所述表情包括:所述处理器被配置为经由与所述电子化接口相关联的显示器来展示面部表情。
13.如权利要求1所述的机器人系统,还包括与所述至少一个可移动组件相关联的一个或多个电动机,并且其中,所述处理器被配置为响应于所述输入而激活所述一个或多个电动机以使所述至少一个可移动组件绕联接点移动。
14.一种用于与机器人系统交互的方法,所述机器人系统包括输入传感器、机电化接口、电子化接口以及处理器,所述处理器包括硬件并被配置为执行包括基于人工智能的指令的机器可读指令;所述方法包括:
使用所述处理器执行所述机器可读指令;
经由所述处理器,根据基于所述人工智能的指令来处理用户经由所述输入传感器提供的输入;
响应于所述输入,经由所述处理器生成第一输出信号;
将来自所述处理器的所述第一输出信号提供给所述机电化接口,使得连接至所述机器人系统的至少一个可移动组件被投入运动中;
响应于所述输入,经由所述处理器生成第二输出信号;以及
将来自所述处理器的第二输出信号提供给所述电子化接口,使得响应于所述输入的行为或表情被呈现在所述电子化接口处。
15.如权利要求14所述的方法,其中,所述机电化接口、所述电子化接口和所述处理器是机器人设备的一部分,其中,所述机器人设备包括基座和主体,其中,所述主体是包括多个机电联接关节的所述至少一个可移动组件,其中,所述主体被配置为响应于被提供给所述机电化接口的所述第一输出信号而相对于所述基座绕枢转点枢转,以及其中所述方法还包括使所述主体相对于所述基座绕所述枢转点枢转。
16.如权利要求15所述的方法,其中,所述主体被配置为响应于被提供给所述机电化接口的所述第一输出信号,既相对于所述基座绕垂直轴线旋转,又相对于所述基座绕枢转点枢转,并且其中所述方法还包括相对于所述基座绕所述垂直轴线旋转所述主体。
17.如权利要求15所述的方法,其中,所述主体包括头部和另一机械关节,所述头部被配置为响应于被提供给所述机电化接口的所述第一输出信号而经由枢转点绕轴线垂直地上下枢转,所述另一机械关节允许所述头部响应于被提供给所述机电化接口的所述第一输出信号而绕基本垂直的轴线或垂直轴线旋转,并且其中所述方法还包括经由所述枢转点来枢转所述头部以及旋转所述头部。
18.如权利要求17所述的方法,还包括经由至少一个机电联接关节被连接到所述头部的颈部,其中,所述颈部被配置为响应于被提供给所述机电化接口的所述第一输出信号而相对于所述主体绕垂直轴线旋转、相对于所述主体绕枢转点枢转、或者两者;并且其中所述方法还包括相对于所述主体旋转和/或枢转所述颈部。
19.如权利要求14所述的方法,其中,呈现在所述电子化接口处的所述行为包括:经由所述处理器经由扬声器以语音形式发出一个或多个声音或言语响应。
20.如权利要求14所述的方法,其中,呈现在所述电子化接口处的所述表情包括:经由所述处理器经由与所述电子化接口相关联的显示器来展示面部表情。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862755963P | 2018-11-05 | 2018-11-05 | |
US62/755,963 | 2018-11-05 | ||
PCT/US2019/059841 WO2020097061A2 (en) | 2018-11-05 | 2019-11-05 | Configurable and interactive robotic systems |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112823083A true CN112823083A (zh) | 2021-05-18 |
Family
ID=70612469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980064641.4A Pending CN112823083A (zh) | 2018-11-05 | 2019-11-05 | 可配置和交互式的机器人系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220055224A1 (zh) |
CN (1) | CN112823083A (zh) |
WO (1) | WO2020097061A2 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102589146B1 (ko) * | 2020-02-14 | 2023-10-16 | 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. | 로봇 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1372505A (zh) * | 2000-04-03 | 2002-10-02 | 索尼公司 | 机器人控制装置和方法 |
CN1398214A (zh) * | 2000-10-23 | 2003-02-19 | 索尼公司 | 有足机器人、用于有足机器人的动作控制方法、和存储介质 |
CN1761554A (zh) * | 2003-04-01 | 2006-04-19 | 索尼株式会社 | 机器人设备、信息处理方法和程序 |
KR20060079832A (ko) * | 2005-04-15 | 2006-07-06 | 정재영 | 임베디드 시스템기반의 감정표현 휴먼노이드 로봇 |
KR200435980Y1 (ko) * | 2006-09-13 | 2007-03-30 | 주식회사 케이엠씨 | 지능형 안내로봇 시스템 |
CN101947786A (zh) * | 2009-04-30 | 2011-01-19 | 通用汽车环球科技运作公司 | 用于类人机器人自动控制的方法和装置 |
CN103459099A (zh) * | 2011-01-28 | 2013-12-18 | 英塔茨科技公司 | 与一个可移动的远程机器人相互交流 |
US20170106739A1 (en) * | 2013-04-26 | 2017-04-20 | Carla R. Gillett | Powered Skateboard System Comprising Inner-Motorized Omniwheel Trucks |
CN106625670A (zh) * | 2016-12-26 | 2017-05-10 | 迈赫机器人自动化股份有限公司 | 一种多功能人机交互仿人教育机器人的控制系统和方法 |
US20180136615A1 (en) * | 2016-11-15 | 2018-05-17 | Roborus Co., Ltd. | Concierge robot system, concierge service method, and concierge robot |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3443077B2 (ja) * | 1999-09-20 | 2003-09-02 | ソニー株式会社 | ロボットの運動パターン生成装置及び運動パターン生成方法、並びにロボット |
US9092021B2 (en) * | 2012-01-06 | 2015-07-28 | J. T. Labs Limited | Interactive apparatus |
FR2989209B1 (fr) * | 2012-04-04 | 2015-01-23 | Aldebaran Robotics | Robot apte a integrer des dialogues naturels avec un utilisateur dans ses comportements, procedes de programmation et d'utilisation dudit robot |
CN109416701A (zh) * | 2016-04-26 | 2019-03-01 | 泰康机器人公司 | 多种交互人格的机器人 |
CN109070356B (zh) * | 2016-04-28 | 2022-06-28 | 富士通株式会社 | 机器人 |
US10120386B2 (en) * | 2016-11-18 | 2018-11-06 | Robert Bosch Start-Up Platform North America, LLC, Series 1 | Robotic creature and method of operation |
-
2019
- 2019-11-05 CN CN201980064641.4A patent/CN112823083A/zh active Pending
- 2019-11-05 US US17/291,154 patent/US20220055224A1/en not_active Abandoned
- 2019-11-05 WO PCT/US2019/059841 patent/WO2020097061A2/en active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1372505A (zh) * | 2000-04-03 | 2002-10-02 | 索尼公司 | 机器人控制装置和方法 |
CN1398214A (zh) * | 2000-10-23 | 2003-02-19 | 索尼公司 | 有足机器人、用于有足机器人的动作控制方法、和存储介质 |
CN1761554A (zh) * | 2003-04-01 | 2006-04-19 | 索尼株式会社 | 机器人设备、信息处理方法和程序 |
KR20060079832A (ko) * | 2005-04-15 | 2006-07-06 | 정재영 | 임베디드 시스템기반의 감정표현 휴먼노이드 로봇 |
KR200435980Y1 (ko) * | 2006-09-13 | 2007-03-30 | 주식회사 케이엠씨 | 지능형 안내로봇 시스템 |
CN101947786A (zh) * | 2009-04-30 | 2011-01-19 | 通用汽车环球科技运作公司 | 用于类人机器人自动控制的方法和装置 |
CN103459099A (zh) * | 2011-01-28 | 2013-12-18 | 英塔茨科技公司 | 与一个可移动的远程机器人相互交流 |
US20170106739A1 (en) * | 2013-04-26 | 2017-04-20 | Carla R. Gillett | Powered Skateboard System Comprising Inner-Motorized Omniwheel Trucks |
US20180136615A1 (en) * | 2016-11-15 | 2018-05-17 | Roborus Co., Ltd. | Concierge robot system, concierge service method, and concierge robot |
CN106625670A (zh) * | 2016-12-26 | 2017-05-10 | 迈赫机器人自动化股份有限公司 | 一种多功能人机交互仿人教育机器人的控制系统和方法 |
Non-Patent Citations (1)
Title |
---|
严朝勇等: "电动汽车的电池管理系统", 30 November 2017, 重庆大学出版社, pages: 71 * |
Also Published As
Publication number | Publication date |
---|---|
WO2020097061A2 (en) | 2020-05-14 |
US20220055224A1 (en) | 2022-02-24 |
WO2020097061A3 (en) | 2021-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ferland et al. | Natural interaction design of a humanoid robot | |
JP2001260063A (ja) | 多関節型ロボット及びその動作制御方法 | |
US20090055019A1 (en) | Interactive systems employing robotic companions | |
JP7139643B2 (ja) | ロボット、ロボットの制御方法及びプログラム | |
CN107491043A (zh) | 基于多模态感觉数据远程控制机器人平台 | |
JP2003266351A (ja) | ロボット装置及びロボット装置の動作制御方法 | |
Pandey et al. | Pepper: The first machine of its kind | |
Yamauchi et al. | Development of a continuum robot enhanced with distributed sensors for search and rescue | |
JP2020000279A (ja) | 仮想キャラクタを想定する自律行動型ロボット | |
JP7559900B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2002144260A (ja) | 脚式移動ロボット及びその制御方法 | |
US20230195401A1 (en) | Information processing apparatus and information processing method | |
US20240181637A1 (en) | Autonomous humanoid robot | |
Maheux et al. | T-Top, a SAR experimental platform | |
CN112823083A (zh) | 可配置和交互式的机器人系统 | |
Hackel et al. | Humanoid robot platform suitable for studying embodied interaction | |
JP7363823B2 (ja) | 情報処理装置、および情報処理方法 | |
JP4281286B2 (ja) | ロボット装置及びその制御方法 | |
JP7238796B2 (ja) | 動物型の自律移動体、動物型の自律移動体の動作方法、およびプログラム | |
Graefe et al. | Past, present and future of intelligent robots | |
Sundarapandian et al. | A novel communication architecture and control system for telebot: A multi-modal telepresence robot for disabled officers | |
US12124295B2 (en) | Mount for a computing device | |
US20210341968A1 (en) | Mount for a computing device | |
Bischoff | System reliability and safety concepts of the humanoid service robot hermes | |
JP7503660B2 (ja) | ロボットシステム及びロボット作業方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40053080 Country of ref document: HK |
|
TA01 | Transfer of patent application right |
Effective date of registration: 20231018 Address after: 16th Floor, No. 37 Jinlong Road, Nansha District, Guangzhou City, Guangdong Province Applicant after: DMAI (GUANGZHOU) Co.,Ltd. Address before: California, USA Applicant before: De Mai Co.,Ltd. |
|
TA01 | Transfer of patent application right |