CN114867540B - 信息处理装置、信息处理方法和信息处理程序 - Google Patents

信息处理装置、信息处理方法和信息处理程序 Download PDF

Info

Publication number
CN114867540B
CN114867540B CN202080088833.1A CN202080088833A CN114867540B CN 114867540 B CN114867540 B CN 114867540B CN 202080088833 A CN202080088833 A CN 202080088833A CN 114867540 B CN114867540 B CN 114867540B
Authority
CN
China
Prior art keywords
moving body
autonomous moving
autonomous
posture
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202080088833.1A
Other languages
English (en)
Other versions
CN114867540A (zh
Inventor
野间英树
川部祐介
三泽淳一郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN114867540A publication Critical patent/CN114867540A/zh
Application granted granted Critical
Publication of CN114867540B publication Critical patent/CN114867540B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • B25J11/001Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H33/00Other toys
    • A63H33/005Motorised rolling toys
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H3/00Dolls
    • A63H3/28Arrangements of sound-producing means in dolls; Means in dolls for producing sounds

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Game Theory and Decision Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

根据本公开内容的信息处理装置(10)包括动作控制单元(175),该动作控制单元(175)控制在保持倒立状态的同时行进的自主移动体(10)的移动动作,并且控制从倒立状态下的基准姿势起随时间变化的自主移动体的姿势动作。此外,根据本公开内容的信息处理装置(10)还包括获取单元(174),该获取单元(174)获取与所述自主移动体(10)的姿势动作对应的运动数据。动作控制单元(175)基于由获取单元(174)获取的运动数据来控制自主移动体(10)的姿势动作。

Description

信息处理装置、信息处理方法和信息处理程序
技术领域
本发明涉及信息处理装置、信息处理方法和信息处理程序。
背景技术
近年来,配备有人工智能的自主移动体(如家庭中的机器人吸尘器和宠物机器人,以及工厂和配送仓库中的运输机器人)得到了积极的发展。
如上所述的自主移动体包括执行灵活自主操作的自主移动体,所述灵活自主操作包括根据用户、周围情况或自身情况来移动。例如,专利文献1公开了如下自主移动体:该自主移动体在站立状态下执行诸如前后运动、转弯运动和旋转运动的移动操作,同时保持前倾姿势。
引用列表
专利文献
专利文献1:WO 2019/163312 A
发明内容
技术问题
然而,在上述常规技术中,并不总是能够进一步丰富自主移动体的运动表达。例如,在上述常规技术中,自主移动体仅在自主移动体保持前倾姿势的站立状态下执行诸如前后运动、转弯运动和旋转运动的移动操作,而并不总是能够进一步丰富自主移动体的运动表达。
因此,本公开内容提出了能够进一步丰富自主移动体的运动表达的信息处理装置、信息处理方法和信息处理程序。
问题的解决方案
为了解决上述问题,信息处理装置包括:
操作控制器,其控制在保持倒立状态的同时行进的自主移动体的移动操作,并且控制从倒立状态下的基准姿势起随时间变化的自主移动体的姿势操作。
附图说明
图1是根据本公开内容的实施方式的自主移动体的前视图和后视图。
图2是根据实施方式的自主移动体的立体图。
图3是根据实施方式的自主移动体的侧视图。
图4是根据实施方式的自主移动体的俯视图。
图5是根据实施方式的自主移动体的仰视图。
图6是用于说明根据实施方式的自主移动体的内部结构的示意图。
图7是示出根据实施方式的基板的配置的图。
图8是根据同一实施方式的基板的截面图。
图9是示出根据实施方式的轮子的周边结构的图。
图10是示出根据实施方式的轮子的周边结构的图。
图11是用于描述根据实施方式的自主移动体以前倾姿势行进的图。
图12是用于描述根据实施方式的自主移动体以前倾姿势行进的图。
图13A是用于描述根据实施方式的通过自主移动体10的前倾运动获得的效果的图。
图13B是用于描述根据实施方式的通过自主移动体10的前倾运动获得的效果的图。
图14是示出根据实施方式的自主移动体的功能配置示例的框图。
图15是示出根据实施方式的动作存储单元的示例的图。
图16是示出根据实施方式的运动数据存储单元的示例的图。
图17是用于描述根据实施方式的基于运动数据进行姿势控制的图。
图18是用于说明根据实施方式的基于运动数据的轮子角速度的时间变化的概念图。
图19是示出根据实施方式的操作控制器的功能配置示例的框图。
图20是用于描述根据实施方式的停留期间和移动操作期间的姿势控制的图。
图21是用于描述根据实施方式的停留期间和移动操作期间的姿势控制的图。
图22是用于描述根据实施方式的向站立状态转变时的轮子控制的图。
图23是用于描述根据实施方式的向站立状态转变时的轮子控制的图。
图24是示出根据实施方式的信息处理过程的流程图。
图25是示出实现信息处理装置的功能的计算机的示例的硬件配置图。
具体实施方式
在下文中,将参照附图详细描述本公开内容的实施方式。在以下实施方式中,相同的部分用相同的附图标记表示,并且省略重复描述。
将按照以下项目的顺序描述本公开内容。
将按以下顺序给出描述。
1.实施方式
1.1.概述
1.2.自主移动体10的配置示例
1.3.自主移动体10的功能配置示例
1.3.1.根据实施方式的姿势控制的详情
1.3.1.1.表达喜悦的运动数据
1.3.1.2.表达欢乐的运动数据
1.3.1.3.表达愤怒的运动数据
1.3.1.4.表达悲伤的运动数据
1.3.1.5.运动数据中轮子的角速度的时间变化
1.3.1.6.操作控制器的功能配置示例
1.4.其他姿势控制的详情
1.5.根据实施方式的信息处理的过程
1.6.实施方式的修改例
1.6.1.姿势角与轮子的旋转角的兼容性
1.6.2.轻触时的运动数据
1.6.3.表达困惑(惊慌)的运动数据
1.6.4.表达衰弱(虚弱)的运动数据
2.根据本公开内容的效果
3.硬件配置
<1.实施方式>
<<1.1.概述>>
首先,将描述本公开内容的实施方式的概要。如上所述,已经开发了执行自主操作的各种机器人装置。例如,专利文献1公开了具有倒立摆结构的娱乐型机器人装置。
在现有技术中,对于具有倒立摆结构的机器人(在下文中,也称为倒立摆机器人),已经构造了用于将机器人的姿势角保持在恒定倾斜度的控制系统以保持倒立摆的状态(在下文中,也称为倒立状态)。另一方面,在娱乐型机器人中,不仅需要保持机器人的姿势恒定,而且还需要将姿势的变化作为表现力呈现给用户。常规的倒立摆机器人能够通过例如改变移动速度来表达移动的变化,但是难以通过改变姿势来表达移动的变化。
因此,根据本公开内容的实施方式的自主移动体10控制在保持倒立状态的同时行进的自主移动体的移动操作,并且控制自主移动体10从倒立状态下的基准姿势起随时间变化的姿势操作。因此,自主移动体10可以同时执行保持倒立状态的控制和随时间改变姿势的控制。即,自主移动体10能够在保持倒立状态的同时任意地改变姿势,因此能够表现出更多的表达。例如,自主移动体10可以表达姿势操作,该姿势操作表达自主移动体10的情绪。因此,自主移动体10可以进一步丰富自主移动体的运动表达。
<<1.2.自主移动体10的配置示例>>
接下来,将描述根据本公开内容的实施方式的自主移动体10的配置示例。根据本实施方式的自主移动体10可以是基于环境识别来执行自主操作的各种装置。在下文中,以根据本实施方式的自主移动体10是通过轮子自主行进的长椭圆体代理型机器人装置的情况为例进行描述。根据本实施方式的自主移动体10例如通过根据用户、周围环境或者用户的状况执行自主操作,从而实现包括信息呈现在内的各种类型的通信。根据本实施方式的自主移动体10可以是小型机器人,该小型机器人具有用户可以用一只手容易地举起该自主移动体的大小和重量。
首先,将参照图1至图5描述根据本实施方式的自主移动体10的外观的示例。图1是根据本实施方式的自主移动体10的前视图和后视图。图2是根据本实施方式的自主移动体10的立体图。图3是根据本实施方式的自主移动体10的侧视图。图4和图5分别是根据本实施方式的自主移动体10的俯视图和仰视图。
如图1至图4所示,根据本实施方式的自主移动体10在主体的上部中包括与右眼和左眼对应的两个眼部510。眼部510例如由LED等实现,并且能够表达视线、眨眼等。注意,眼部510不限于上述示例,并且可以通过例如单个或两个独立的有机发光二极管(OLED)来实现。
另外,根据本实施方式的自主移动体10在眼部510的上方包括两个摄像装置515。摄像装置515具有对用户和周边环境进行成像的功能。此外,自主移动体10可以基于由摄像装置515捕获的图像来实现同时定位和映射(SLAM)。
注意,根据本实施方式的眼部510和摄像装置515被设置在基板505上,该基板505被设置在外表面的内侧。此外,在本实施方式中,自主移动体10的外表面基本上使用不透明材料形成,但是对于以下部分设置由透明或半透明材料制成的头罩550:与其上设置有眼部510和摄像装置515的基板505对应的部分。因此,用户可以识别自主移动体10的眼部510,并且自主移动体10可以对外部世界进行成像。
此外,如图1、图2和图5所示,根据本实施方式的自主移动体10在前下部处包括ToF传感器520。ToF传感器520具有检测到前方存在的对象的距离的功能。根据ToF传感器520,可以高精度地检测到各种对象的距离,并且可以通过检测台阶等来防止坠落或跌倒。
此外,如图1、图3等所示,根据本实施方式的自主移动体10可以在背面包括外部装置的连接端子555和电源开关560。自主移动体10可以经由连接端子555连接至外部装置以执行信息通信。
另外,如图5所示,根据本实施方式的自主移动体10在底面处包括两个轮子570。根据本实施方式的轮子570由不同的电机565驱动。由此,自主移动体10能够实现诸如向前移动、向后移动、转弯和旋转的移动操作。另外,根据本实施方式的轮子570被设置成能够被收纳在主体内部并且能够突出到外部。根据本实施方式的自主移动体10还可以例如通过使两个轮子570大力突出到外部来执行跳跃移动。图5示出了轮子570被收纳在主体内部的状态。
以上描述了根据本实施方式的自主移动体10的外观。接下来,将描述根据本实施方式的自主移动体10的内部结构。图6是用于说明根据本实施方式的自主移动体10的内部结构的示意图。
如图6的左侧所示,根据本实施方式的自主移动体10包括设置在电子基板上的惯性传感器525和通信装置530。惯性传感器525检测自主移动体10的加速度和角速度。另外,通信装置530是用于实现与外部的无线通信的配置,并且包括例如蓝牙(Bluetooth,注册商标)以及Wi-Fi(注册商标)天线等。
此外,自主移动体10例如在主体侧面内部包括扬声器535。自主移动体10可以通过扬声器535输出包括语音在内的各种类型的声音信息。
此外,如图6的右侧所示,根据本实施方式的自主移动体10在主体上部的内部包括多个麦克风540。麦克风540收集用户的话语和周围环境声音。此外,由于自主移动体10包括多个麦克风540,因此可以以高灵敏度收集周围产生的声音并且实现声源的定位。
此外,如图6所示,自主移动体10包括多个电机565。例如自主移动体10可以包括:在竖直方向和水平方向上驱动其上设置有眼部510和摄像装置515的基板的两个电机565;驱动左轮和右轮570的两个电机565;以及用于实现自主移动体10的前倾姿势的一个电机565。根据本实施方式的自主移动体10可以通过多个电机565表达丰富的运动。
接下来,将详细描述其上设置有根据本实施方式的眼部510和摄像装置515的基板505的配置以及眼部510的配置。图7是示出根据本实施方式的基板505的配置的图。图8是根据本实施方式的基板505的截面图。参照图7,根据本实施方式的基板505连接至两个电机565。如上所述,两个电机565可以竖直和水平地驱动其上设置有眼部510和摄像装置515的基板505。据此,可以使自主移动体10的眼部510在竖直方向和水平方向上灵活地移动,并且可以表达根据状况和操作的丰富的眼球运动。
此外,如图7和图8所示,眼部510包括与虹膜对应的中心部分512以及与所谓的白眼球对应的外围边缘部分514。中心部分512表达包括蓝色、红色和绿色在内的任何颜色,而外围边缘部分514表达白色。如上所述,根据本实施方式的自主移动体10可以通过将眼部510的配置一分为二来表达更接近于真正的生物的自然眼球表情。
接下来,将参照图9和图10详细描述根据本实施方式的轮子570的结构。图9和图10是示出根据本实施方式的轮子570的外围结构的视图。如图9所示,根据本实施方式的两个轮子570由独立的电机565驱动。根据这样的配置,除了简单的向前移动或向后移动以外,还能够精细地表达诸如转弯或原地旋转的移动操作。
如上所述,根据本实施方式的轮子570被设置成能够被收纳在主体内部并且能够突出到外部。另外,由于减振器575与根据本实施方式的轮子570同轴设置,因此能够有效地减少传递到轴和主体的冲击和振动。
如图10所示,根据本实施方式的轮子570可以设置有辅助弹簧580。根据本实施方式的轮子的驱动需要自主移动体10中包括的驱动单元中的最大扭矩,但是通过设置辅助弹簧580,可以共享所有的电机565,而不需要针对各个驱动单元使用不同的电机565。
接下来,将描述根据本实施方式的自主移动体10在行进时的特征。图11是用于描述根据本实施方式的自主移动体10以前倾姿势行进的图。根据本实施方式的自主移动体10的特征之一在于,自主移动体在保持前倾姿势的同时执行诸如前后运动、转弯运动和旋转运动的移动操作。图11示出了从侧面观察自主移动体10在行进期间的状态。
如图11所示,根据本实施方式的自主移动体10的特征之一在于,自主移动体在相对于竖直方向向前倾斜角度θ的同时执行移动操作。角度θ可以是例如10°。在下文中,将图11所示的自主移动体10的姿势称为自主移动体10的基准姿势。另外,将图11所示的角度θ称为与自主移动体10的基准姿势对应的基准姿势角。
此时,如图12所示,稍后要描述的操作控制器173控制自主移动体10的移动操作,使得自主移动体10的重心CoG在竖直方向上位于轮子570的旋转轴CoW的上方。另外,在根据本实施方式的自主移动体10的背面侧上,为了保持前倾姿势时的平衡而设置有配重部hp。根据本实施方式的配重部hp可以是比自主移动体10中包括的其他部件重的部分,并且可以是例如电机565、电池等。根据上述部件布置,即使在头部前倾的情况下,也利于在保持平衡的状态下进行陀螺控制,并且能够防止自主移动体10不慎坠落,并且实现前倾姿势下的稳定行进。
接下来,将更详细地描述根据本实施方式的自主移动体10保持前倾姿势的移动操作。图13A和图13B是用于描述根据本实施方式的通过自主移动体10的前倾运动获得的效果的图。
这里,图13A示出了在自主移动体不采取前倾姿势的情况下的旋转操作的示例。如图13A所示,当自主移动体10在不采取前倾姿势的情况下在保持长形椭圆体直立的同时执行诸如旋转或前后运动的移动操作时,在长形椭圆体的本体中感觉不到方向性,并且难以消除自主移动体是人造物体的印象。
另一方面,如图13B所示,根据本实施方式的自主移动体10的特征之一在于,在保持前倾姿势的状态下执行诸如旋转的移动操作。根据这样的特征,由于自主移动体10的前上部分为头部,而其后下部分为腰部,因此在简单的长形椭圆体中也产生方向性。
如上所述,根据根据本实施方式的自主移动体10的前倾运动,能够以相对简单的外观表达与人的身体部位对应的结构,并且能够通过将简单的形式拟人化而向用户给出超越简单人工制品的生物体的印象。如上所述,可以说根据本实施方式的前倾运动是一种非常有效的手段,能够丰富地表达具有相对简单外观(诸如长形椭圆体)的机器人的表情,并且引发像真正的生物那样的复杂动作。
上面详细描述了根据本公开内容的实施方式的自主移动体10的配置示例。注意,参照图1至图13B描述的上述配置仅仅是示例,并且根据本公开内容的实施方式的自主移动体10的配置不限于这样的示例。根据本实施方式的自主移动体10的形状和内部结构可以任意设计。
<<1.3.自主移动体10的功能配置示例>>
接下来,将描述根据本公开内容的实施方式的自主移动体10的功能配置示例。图14是示出根据本实施方式的自主移动体10的功能配置示例的框图。参照图14,根据本实施方式的自主移动体10包括传感器单元110、输入单元120、光源130、音频输出单元140、驱动单元150、存储单元160、控制器170和通信单元180。
(传感器单元110)
根据本实施方式的传感器单元110具有收集与用户和周围环境相关的各种类型的传感器信息的功能。为此,根据本实施方式的传感器单元110包括例如上述的摄像装置515、ToF传感器520、麦克风540、惯性传感器525等。此外,除了上述部件之外,传感器单元110可以包括各种传感器,例如地磁传感器、触摸传感器、包括红外传感器等的各种光学传感器、温度传感器(例如,热敏电阻)、湿度传感器、电池电量计IC等。例如,触摸传感器通过诸如电容法、电阻膜法、表面声波法、红外线法或者电磁感应法的检测方法来检测用户的接触。
(输入单元120)
根据本实施方式的输入单元120具有检测用户的物理输入操作的功能。根据本实施方式的输入单元120例如包括按钮,诸如电源开关560。
(光源130)
根据本实施方式的光源130表达自主移动体10的眼球运动。为此,根据本实施方式的光源130包括两个眼部510。
(音频输出单元140)
根据本实施方式的音频输出单元140具有输出包括语音在内的各种声音的功能。为此,根据本实施方式的音频输出单元140包括扬声器535、放大器等。
(驱动单元150)
根据本实施方式的驱动单元150表达自主移动体10的本体操作。为此,根据本实施方式的驱动单元150包括两个轮子570和多个电机565。例如,驱动单元150根据操作控制器175的控制对自主移动体10执行移动操作。此外,驱动单元150根据操作控制器175的控制改变自主移动体10的姿势。
(存储单元160)
根据本实施方式的存储单元160例如由以下来实现:诸如随机存取存储器(RAM)或闪存的半导体存储装置,或者诸如硬盘或光盘的存储装置。例如,存储单元160存储根据实施方式的信息处理程序。如图14所示,存储单元160包括动作存储单元161和运动数据存储单元162。
(动作存储单元161)
动作存储单元161存储关于自主移动体10的行动的各种类型的信息。将参照图15描述根据本公开内容的实施方式的动作存储单元。图15是示出根据本公开内容的实施方式的动作存储单元的示例的图。在图15所示的示例中,动作存储单元161包括诸如“环境信息”、“动作指令”和“操作ID”的项目。
“环境信息”指示与自主移动体10的周围环境相关的环境信息。“动作指令”指示与自主移动体10的和环境信息对应的动作相关的指令。“操作ID”指示与自主移动体10的和环境信息对应的姿势操作相关的指示。
在图15的第一条记录所示的示例中,在检测单元171检测到“用摄像装置检测用户的面部”的环境信息的情况下,获取单元174获取“向用户直线移动”的动作指令。随后,获取单元174参考运动数据存储单元162以获取关于由操作ID“M1”标识的姿势操作的运动数据。
(运动数据存储单元162)
运动数据存储单元162存储关于表示自主移动体10的姿势操作的运动数据的各种类型的信息。将参照图16描述根据本公开内容的实施方式的运动数据存储单元。图16是示出根据本公开内容的实施方式的运动数据存储单元的示例的图。在图16所示的示例中,运动数据存储单元162包括诸如“操作ID”、“含义”、“情绪”和“运动数据”的项目。此外,“运动数据”还包括诸如“运动数据ID”、“姿势角”、“频率/时间”、“设定数据ID”、“播放时间(ms)”和“角度(°)”的小项。
“操作ID”指示用于标识自主移动体10的姿势操作的标识信息。“含义”指示姿势操作的含义。具体地,由操作ID“M1”标识的姿势操作(操作M1)指示与自主移动体10在直线移动期间的表达对应的姿势操作。另外,由操作ID“M2”标识的姿势操作(操作M2)指示与自主移动体10在转弯移动期间的表达对应的姿势操作。另外,由操作ID“M3”标识的姿势操作(操作M3)指示与自主移动体10原地旋转时的表达对应的姿势操作。如上所述,根据自主移动体10的移动操作的类型,存在着诸如前后运动、转弯运动和旋转运动的姿势操作。
此外,“情绪”指示自主移动体10的情绪。“运动数据”指示表示自主移动体10的姿势操作的数据。“运动数据ID”指示用于标识运动数据的标识信息。具体地,情绪“喜悦”指示自主移动体10的情绪对应于“喜悦”。另外,由运动数据ID“M11”标识的运动数据(运动数据M11)指示在自主移动体10的姿势操作为操作M1并且自主移动体10的情绪对应于“喜悦”的情况下为了表达自主移动体10的姿势操作而选择的数据组。此外,由运动数据ID“M12”标识的运动数据(运动数据M12)指示在自主移动体10的姿势操作为操作M1并且自主移动体10的情绪对应于“欢乐”的情况下为了表达自主移动体10的姿势操作而选择的数据组。注意,在根据自主移动体10的直线移动期间的表达的姿势操作(操作M1)中,除了“喜悦”和“欢乐”之外,还可以存在与自主移动体10的情绪的类型对应的各种运动数据。
情绪“愤怒”指示自主移动体10的情绪。此外,由运动数据ID“M21”标识的运动数据(运动数据M21)指示在自主移动体10的姿势操作为操作M2并且自主移动体10的情绪对应于“愤怒”的情况下为了表达自主移动体10的姿势操作而选择的数据组。此外,由运动数据ID“M22”标识的运动数据(运动数据M22)指示在自主移动体10的姿势操作为操作M2并且自主移动体10的情绪对应于“悲伤”的情况下为了表达自主移动体10的姿势操作而选择的数据组。此外,在与自主移动体10的转弯移动时的表情对应的姿势操作(操作M2)中,除了“愤怒”和“悲伤”以外,还可以存在根据自主移动体10的情绪的类型的各种运动数据。
此外,“姿势角”指示与自主移动体10的姿势角相关的信息。“频率/时间”指示与用于改变自主移动体10的姿势角的频率或时间相关的信息。另外,“设定数据ID”指示用于标识要到达的姿势角以及到达要到达的姿势角所需时间的一组数据的标识信息。具体地,“设定数据ID”指示用于标识包括“播放时间(ms)”和“角度(°)”的设定数据的指令信息的标识信息。“播放时间(ms)”指示到达要到达的姿势角所需的时间。“角度(°)”指示要到达的姿势角。
具体地,姿势角“sin波±3°”和频率/时间“1至3Hz”指示运动数据M11对应于以频率“1至3Hz”、以相对于基准姿势角θ的幅度角“±3°”执行振动的姿势操作。更具体地,自主移动体10每10ms执行通过绘制与运动数据M11对应的点而获得的多条设定数据。例如,由设定数据ID“SD11”标识的播放时间“0至10”(ms)和角度“θ11”(°)的设定数据指示自主移动体10的姿势角在从0ms至10ms的10ms内从基准姿势角θ(°)改变了姿势角θ11(°)的指令信息。此外,由设定数据ID“SD12”标识的播放时间“10至20”(ms)和角度“θ12”(°)的设定数据指示自主移动体10的姿势角在从10ms至20ms的10ms内进一步从“θ+θ11”(°)改变了θ12(°)的指令信息。另外,由设定数据ID“SD13”标识的播放时间“20至30”(ms)和角度“θ13”(°)的设定数据指示自主移动体10的姿势角在从20ms至30ms的10ms内进一步从“θ+θ1112”(°)改变了θ13(°)的指令信息。
(控制器170)
根据本实施方式的控制器170通过由中央处理单元(CPU)、微处理单元(MPU)等使用RAM作为工作区域来执行存储在自主移动体10内部的存储装置中的各种程序(对应于信息处理程序的示例)来实现。此外,控制器170例如由集成电路来实现,诸如专用集成电路(ASIC)或现场可编程门阵列(FPGA)。
描述返回到图14。控制器170具有控制包括在自主移动体10中的每个部件的功能。如图14所示,控制器170包括检测单元171、识别单元172、动作计划单元173、获取单元174和操作控制器175,并且实现或执行下述的信息处理的功能和动作。注意,控制器170的内部配置不限于图14所示的配置,并且可以是另一配置,只要该配置执行稍后将描述的信息处理即可。
(检测单元171)
检测单元171检测关于自主移动体10的周围环境的环境信息。具体地,检测单元171从传感器单元110获取由传感器单元110收集的传感器信息。随后,在获取到传感器信息时,检测单元171基于所获取的传感器信息来检测环境信息。例如,检测单元171检测关于位于自主移动体周围的自主移动体的用户的用户信息作为环境信息。
检测单元171检测作为用户信息的以下信息:指示用户的面部的图像信息、指示与用户交互的内容的交互信息、或者指示用户与自主移动体的接触方式的接触信息。具体地,检测单元171从摄像装置515获取由摄像装置515捕获的图像信息。随后,检测单元171基于所获取的图像信息来检测用户的面部。
此外,检测单元171从麦克风540获取由麦克风540收集的声音信息。随后,当获取到声音信息时,检测单元171基于所获取的声音信息来识别用户的语音。随后,在识别到用户的语音时,检测单元171将用户的语音转换为字符串。随后,检测单元171分析经转换的字符串的含义。以这种方式,检测单元171检测指示与用户的交互的内容的交互信息。
另外,检测单元171通过陀螺传感器检测当用户接触自主移动体10时的角速度和角加速度,并且预先学习当用户接触自主移动体10时的角速度和角加速度的模式。例如,检测单元171预先学习当用户用手指轻轻地(轻柔地)触摸自主移动体10的头部数次时的角速度和角加速度的模式。当检测到预先学习的模式的角速度或角加速度时,检测单元171检测到用户触摸自主移动体10。
另外,检测单元171检测指示自主移动体的内部状态的状态信息作为环境信息。检测单元171检测指示自主移动体的本体内的温度的温度信息或者指示自主移动体的剩余电池电量的信息作为状态信息。具体地,检测单元171从热敏电阻获取指示由热敏电阻检测出的自主移动体的本体内的温度的温度信息。随后,当获取到温度信息时,检测单元171确定自主移动体的本体内的温度是否超过预定阈值。当确定自主移动体的本体内的温度超过预定阈值时,检测单元171检测到自主移动体的本体内的温度超过预定阈值。当检测到自主移动体的本体内的温度超过预定阈值时,检测单元171可以检测到需要降低自主移动体的CPU的负荷。
此外,检测单元171从电池电量计IC获取指示由电池电量计IC检测到的自主移动体的剩余电池电量的信息。随后,在获取到指示剩余电池电量的信息时,检测单元171确定自主移动体的剩余电池电量是否等于或小于预定阈值。当确定自主移动体的剩余电池电量等于或小于预定阈值时,检测单元171检测到自主移动体的剩余电池电量等于或小于预定阈值。当检测到自主移动体的剩余电池电量等于或小于预定阈值时,检测单元171可以检测到需要对自主移动体的电池充电。
(识别单元172)
识别单元172具有基于由检测单元171获取的传感器信息来执行与用户、周围环境和自主移动体10的状态相关的各种识别的功能。作为示例,识别单元172可以执行用户识别、表情或视线识别、物体识别、颜色识别、形状识别、标记识别、障碍物识别、台阶识别、亮度识别等。
此外,识别单元172执行与用户的语音相关的情绪识别、词汇理解、声源定位等。此外,识别单元172可以识别环境温度、移动体的存在、自主移动体10的姿势等。
此外,识别单元172具有基于所识别的信息来估计和理解周围环境和放置自主移动体10的状况的功能。此时,识别单元172可以使用预先存储的环境知识综合地执行状况估计。
此外,识别单元172基于由检测单元171获取的传感器信息来估计自主移动体10的情绪。具体地,识别单元172将诸如喜悦、愤怒、悲伤和欢乐的情绪估计为自主移动体10的情绪。例如,在识别单元172检测到用户在预定时间内与自主移动体交谈的次数超过预定次数的情况下,识别单元估计到自主移动体10的情绪对应于喜悦。此外,在识别单元172检测到自主移动体10被用户称赞的情况下,识别单元可以估计到自主移动体10的情绪对应于喜悦。此外,在检测到自主移动体10被用户训斥的情况下,识别单元172可以估计到自主移动体10的情绪对应于悲伤。
注意,自主移动体10的情绪不限于一般的情绪,并且可以是更广泛的概念。例如,识别单元172将困惑(惊慌)和衰弱(虚弱)估计为自主移动体10的情绪。例如,在以自主移动体10的充电状态作为饥饿(或饱足)的指标的情况下,当检测到自主移动体的剩余电池电量等于或小于预定阈值时,识别单元172可以估计到自主移动体10的情绪对应于衰弱(虚弱)。
此外,识别单元172基于由检测单元171检测到的用户的面部表情来估计用户的情绪。随后,当估计到用户的情绪时,识别单元172可以将估计到的用户的情绪估计为自主移动体10的情绪。
此外,识别单元172可以基于学习模型来估计自主移动体10的情绪。例如,当输入由检测单元171获取的传感器信息时,识别单元172使用学习输出自主移动体10的情绪的学习模型来估计自主移动体10的情绪。
这里,假设学习模型的模型数据MDT1由“y=a1*x1+a2*x2+...+ai*xi”指示的回归模型来实现。在这种情况下,模型数据MDT1中包括的第一个元素对应于输入数据(xi),例如x1和x2。此外,第一个元素的权重对应于与xi对应的系数ai。这里,回归模型可以被看作是具有输入层和输出层的简单的感知器。当每个模型被视为简单的感知器时,第一个元素可以对应于输入层中包括的任何节点,第二个元素可以被视为输出层中包括的节点。
例如,识别单元172通过使用经学习的学习模型来估计自主移动体10的情绪,使得当自主移动体10被用户说出的次数为x1时,估计自主移动体10被用户说出的次数越多,自主移动体10的情绪对应于喜悦的概率就越高。此外,识别单元172使用经学习的学习模型来估计自主移动体10的情绪,使得当自主移动体10被用户称赞的次数为x2时,估计在被用户称赞时,自主移动体10的情绪对应于喜悦的概率高。
识别单元172使用具有诸如上述回归模型或神经网络的任何结构的模型来估计自主移动体10的情绪。具体地,模型数据MDT1的系数被设定为使得在输入传感器信息时输出自主移动体10的情绪。识别单元172使用这种模型数据MDT1估计自主移动体10的情绪。
(行动计划单元173)
此外,行动计划单元173具有基于由识别单元210估计到的状况和学习知识来计划由自主移动体10执行的行动的功能。行动计划单元173使用例如诸如深度学习的机器学习算法来执行行动计划。
此外,行动计划单元173基于由检测单元171检测出的环境信息来计划要由自主移动体10执行的行动。具体地,行动计划单元173基于由检测单元171检测到的环境信息来制定用于执行包括至少前后运动、转弯运动或旋转运动中的至少一种的移动操作的移动计划。
(获取单元174)
获取单元174获取与自主移动体的姿势操作对应的运动数据。具体地,当由检测单元171检测到环境信息时,获取单元174参考动作存储单元161以获取与检测到的环境信息对应的动作指令。例如,当检测单元171用摄像装置检测到用户的面部时,获取单元174参考动作存储单元161以获取直奔用户的动作指令。随后,当获取到动作指令时,获取单元174参考动作存储单元161以获取操作ID。例如,当获取到直奔用户的动作指令时,获取单元174获取操作ID“M1”。
此外,当由获取单元174获取到操作ID时,识别单元172估计自主移动体的情绪。例如,当由获取单元174获取到操作ID“M1”时,识别单元172估计到自主移动体的情绪对应于“喜悦”。当识别单元172估计到自主移动体的情绪时,获取单元174参考运动数据存储单元162以根据自主移动体的情绪来获取运动数据。例如,当识别单元172估计到自主移动体的情绪对应于“喜悦”时,获取单元174获取与作为自主移动体的情绪的“喜悦”对应的运动数据M11。
更具体地,获取单元174根据时间的流逝顺序地获取与运动数据M11对应的“播放时间”和“角度”的设定数据中的每一个。首先,获取单元174获取与运动数据M11对应的设定数据SD11。随后,获取单元174在获取到设定数据SD11之后10ms时获取与运动数据M11对应的设定数据SD12。随后,获取单元174在获取到设定数据SD12之后10ms时获取与运动数据M11对应的设定数据SD13。这样,获取单元174随着时间的流逝顺序地获取与运动数据M11对应的每条设定数据。注意,获取单元174可以一次获取与运动数据M11对应的多条设定数据。
此外,例如,当由获取单元174获取到操作ID“M1”时,识别单元172估计到自主移动体的情绪对应于“欢乐”。当识别单元172估计到自主移动体的情绪对应于“欢乐”时,获取单元174获取与作为自主移动体的情绪的“欢乐”对应的运动数据M12。
(操作控制器175)
操作控制器175基于动作计划单元220的动作计划来控制自主移动体10的操作。具体地,操作控制器175基于动作计划单元220的动作计划,在保持前倾姿势的同时移动自主移动体10。例如,操作控制器175控制自主移动体的包括前后运动、转弯运动或旋转运动中的至少一种的移动操作。
操作控制器175控制自主移动体在保持倒立状态行进的同时的移动操作,并且控制从倒立状态下的基准姿势起随时间变化的自主移动体的姿势操作。注意,操作控制器175控制自主移动体的姿势操作,使得倒立状态下的基准姿势为前倾姿势。具体地,操作控制器175基于由获取单元174获取的根据情绪的运动数据来控制自主移动体的姿势操作。例如,当由获取单元174获取到与“喜悦”对应的运动数据M11时,操作控制器175基于与“喜悦”对应的运动数据M11来控制自主移动体的姿势操作。另外,例如,在由获取单元174获取到与“欢乐”对应的运动数据M12的情况下,操作控制器175基于与“欢乐”对应的运动数据M12来控制自主移动体的姿势操作。注意,获取单元174可以一次获取与运动数据M11对应的多条设定数据。此外,操作控制器175可以根据时间的流逝顺序地执行一次获取的多条设定数据。
此外,操作控制器175基于指示自主移动体的内部状态的状态信息来控制自主移动体的姿势操作。操作控制器175基于作为状态信息的以下信息来控制自主移动体的姿势操作:指示自主移动体的本体内的温度的温度信息、或者指示自主移动体的剩余电池电量的信息。
此外,操作控制器173例如基于由传感器单元110收集的传感器信息来执行行动计划,并且控制光源130的眼球表达和音频输出单元140的声音输出。此外,操作控制器173可以基于上述的行动计划来控制驱动单元150的操作。
<<<1.3.1.根据实施方式的姿势控制的详情>>>
自主移动体在相对于行进方向的左侧和右侧具有轮子,并且操作控制器175基于与如下姿势操作对应的运动数据来控制自主移动体的姿势操作:以自主移动体的左轮和右轮的轴为旋转轴,围绕与基准姿势对应的基准姿势角振动。此外,操作控制器175控制自主移动体的包括前后运动、转弯运动或旋转运动中的至少一种的移动操作,并且控制自主移动体的姿势操作,使得自主移动体以自主移动体的左轮和右轮的轴为旋转轴、以预定频率、以预定幅度角围绕与基准姿势对应的基准姿势角振动。将参照图17详细描述这一点。图17是用于描述根据实施方式的基于运动数据的姿势控制的图。图17示出了从侧面观察自主移动体10在相对于竖直方向向前倾斜角度θ的同时执行移动操作的状态。另外,在图17中,自主移动体10执行诸如向前行进运动或转弯运动的移动操作的方向由行进方向D1来指示。此外,自主移动体10执行与运动数据对应的姿势操作的方向由振动方向D2来指示。
<<<<1.3.1.1.表达喜悦的运动数据>>>>
在图17所示的示例中,当自主移动体10的情绪对应于喜悦时,操作控制器175控制自主移动体10的向前行进运动,并且控制自主移动体10的姿势操作,使得自主移动体10以第一频率f1(例如,f1=1至3Hz)、以第一幅度角θ1(例如,θ1=θ=3°)、以自主移动体10的左轮和右轮的轴为旋转轴COW围绕与基准姿势对应的基准姿势角θ振动。
具体地,当由获取单元174获取到与“喜悦”对应的运动数据M11时,操作控制器175基于与“喜悦”对应的运动数据M11来控制自主移动体的姿势操作。更具体地,操作控制器175通过执行多条设定数据来控制自主移动体10的姿势操作,使得自主移动体10以第一频率f1(例如,f1=1至3Hz)、以第一幅度角θ1(例如,θ1=θ=3°)、围绕基准姿势角θ振动,所述多条设定数据是通过每10ms绘制与运动数据M11对应的正弦信号所指示的角度而获得的。操作控制器175基于与运动数据M11对应的“播放时间”和“角度”的每条设定数据来控制自主移动体的姿势角。
例如,获取单元174获取与运动数据M11对应的设定数据SD11。当由获取单元174获取到设定数据SD11时,操作控制器175基于设定数据SD11来控制自主移动体的姿势操作,使得在从0至10ms的10ms内将自主移动体10的姿势角从基准姿势角θ(°)改变了姿势角θ11(°)。另外,获取单元174在获取到设定数据SD11起经过了10ms时获取设定数据SD12。当由获取单元174获取到设定数据SD12时,操作控制器175控制自主移动体10的姿势操作,使得在从10至20ms的10ms内自主移动体10的姿势角从“θ+θ11”(°)进一步改变了姿势角θ12(°)。另外,获取单元174在获取到设定数据SD12起经过了10ms时获取设定数据SD13。当由获取单元174获取到设定数据SD13时,操作控制器175控制自主移动体10的姿势操作,使得在从20至30ms的10ms内自主移动体10的姿势角从“θ+θ1112”(°)改变了姿势角θ13(°)。这样,获取单元174根据时间的流逝顺序地获取与运动数据M11对应的每条设定数据。另外,操作控制器175控制自主移动体10的姿势操作,使得根据由获取单元174根据时间的流逝顺序地获取的运动数据M11的设定数据来改变自主移动体10的姿势角。
<<<<1.3.1.2.表达欢乐的运动数据>>>>
此外,在图17所示的示例中,当自主移动体10的情绪对应于欢乐时,操作控制器175控制自主移动体10的向前行进运动,并且控制自主移动体10的姿势操作,使得自主移动体10以小于第一频率f1的频率f4(例如,f4=1/2至1Hz)、以大于第一幅度角θ1的幅度角θ4(例如,θ4=θ0=5°)、以自主移动体10的左轮和右轮的轴为旋转轴COW围绕与基准姿势对应的基准姿势角θ振动。
具体地,当由获取单元174获取到与“欢乐”对应的运动数据M12时,操作控制器175基于与“欢乐”对应的运动数据M12来控制自主移动体的姿势操作。更具体地,操作控制器175通过执行多条设定数据来控制自主移动体10的姿势操作,使得自主移动体10以小于第一频率f1的频率f4(例如,f4=1/2至1Hz)、以大于第一幅度角θ1的幅度角θ4(例如,θ4=θ0=5°)围绕基准姿势角θ振动,所述多条设定数据是通过每10ms绘制与运动数据M12对应的正弦信号所指示的角度而获得的。操作控制器175基于与运动数据M12对应的“播放时间”和“角度”的每条设定数据来控制自主移动体的姿势角。
例如,获取单元174获取与运动数据M12对应的设定数据SD41。当由获取单元174获取到设定数据SD41时,操作控制器175基于设定数据SD41来控制自主移动体的姿势操作,使得在从0至10ms的10ms内将自主移动体10的姿势角从基准姿势角θ(°)改变了姿势角θ41(°)。这样,获取单元174根据时间的流逝顺序地获取与运动数据M12对应的每条设定数据。另外,操作控制器175控制自主移动体10的姿势操作,使得根据由获取单元174根据时间的流逝而顺序地获取的运动数据M12的设定数据来改变自主移动体10的姿势角。
<<<<1.3.1.3.表达愤怒的运动数据>>>>
此外,在图17所示的示例中,当自主移动体10的情绪是愤怒时,操作控制器175控制自主移动体10的转弯运动,并且控制自主移动体的姿势操作,使得自主移动体10以第二频率f2(例如,f2=1至2Hz)、以第二幅度角θ2(例如,θ2=θ0=10°)、以自主移动体10的左轮和右轮的轴为旋转轴COW围绕与基准姿势对应的基准姿势角θ振动。
具体地,当由获取单元174获取到与“愤怒”对应的运动数据M21时,操作控制器175基于与“愤怒”对应的运动数据M21来控制自主移动体的姿势操作。更具体地,操作控制器175通过执行多条设定数据来控制自主移动体10的姿势操作,使得自主移动体10以第二频率f2(例如,f2=1至2Hz)、以第二幅度角θ2(例如,θ2=θ0=10°)围绕基准姿势角θ振动,所述多条设定数据是通过每10ms绘制与运动数据M21对应的正弦信号所指示的角度而获得的。操作控制器175基于与运动数据M21对应的“播放时间”和“角度”的每条设定数据来控制自主移动体的姿势角。
例如,获取单元174获取与运动数据M21对应的设定数据SD21。当由获取单元174获取到设定数据SD21时,操作控制器175基于设定数据SD21来控制自主移动体的姿势操作,使得在从0至10ms的10ms内将自主移动体10的姿势角从基准姿势角θ(°)改变了姿势角θ21(°)。另外,获取单元174在获取到设定数据SD21起经过了10ms时获取设定数据SD22。当由获取单元174获取到设定数据SD22时,操作控制器175控制自主移动体10的姿势操作,使得在从10至20ms的10ms内自主移动体10的姿势角从“θ+θ21”(°)进一步改变了姿势角θ22(°)。另外,获取单元174在获取到设定数据SD22起经过了10ms时获取设定数据SD23。当由获取单元174获取到设定数据SD23时,操作控制器175控制自主移动体10的姿势操作,使得在从20至30ms的10ms内自主移动体10的姿势角从“θ+θ2122”(°)改变了姿势角θ23(°)。这样,获取单元174根据时间的流逝顺序地获取与运动数据M21对应的每条设定数据。另外,操作控制器175控制自主移动体10的姿势操作,使得根据由获取单元174根据时间的流逝而顺序地获取的运动数据M21的设定数据来改变自主移动体10的姿势角。
<<<<1.3.1.4.表达悲伤的运动数据>>>>
此外,在图17所示的示例中,当自主移动体10的情绪是悲伤时,操作控制器175控制自主移动体10的转弯运动,并且控制自主移动体10的姿势操作,使得自主移动体10以大于第二频率f2的频率f3(例如,f3=5Hz)、以小于第二幅度角θ2的幅度角θ3(例如,θ3=θ0=3°)、以自主移动体10的左轮和右轮的轴为旋转轴COW围绕与基准姿势对应的基准姿势角θ振动。
具体地,当由获取单元174获取到与“悲伤”对应的运动数据M22时,操作控制器175基于与“悲伤”对应的运动数据M22来控制自主移动体的姿势操作。更具体地,操作控制器175通过执行多条设定数据来控制自主移动体10的姿势操作,使得自主移动体10以大于第二频率f2的频率f3(例如,f3=5Hz)、以小于第二幅度角θ2的幅度角θ3(例如,θ3=θ0=3°)围绕基准姿势角θ振动,所述多条设定数据是通过每10ms绘制与运动数据M22对应的正弦信号所指示的角度而获得的。操作控制器175基于与运动数据M22对应的“播放时间”和“角度”的每条设定数据来控制自主移动体的姿势角。
例如,获取单元174获取与运动数据M22对应的设定数据SD31。当由获取单元174获取到设定数据SD31时,操作控制器175基于设定数据SD31来控制自主移动体的姿势操作,使得在从0至10ms的10ms内将自主移动体10的姿势角从基准姿势角θ(°)改变了姿势角θ31(°)。这样,获取单元174根据时间的流逝顺序地获取与运动数据M22对应的每条设定数据。另外,操作控制器175控制自主移动体10的姿势操作,使得根据由获取单元174根据时间的流逝而顺序地获取的运动数据M22的设定数据来改变自主移动体10的姿势角。
<<<<1.3.1.5.运动数据中轮子的角速度的时间变化>>>>
接下来,将参照图18概念性地描述运动数据中轮子的角速度的时间变化。图18是用于描述根据实施方式基于运动数据的轮子的角速度的时间变化的概念图。在图18所示的示例中,自主移动体10的左轮的角速度的目标值由VL指示,右轮的角速度的目标值由VR指示。具体地,图18示出了运动数据是表达自主移动体10的喜悦的姿势操作(运动数据M11)的情况。
图18的左上侧所示的图是概念性地示出自主移动体10的向前行进运动所需的左轮和右轮的角速度的时间变化的曲线图。如图18的左上侧所示,自主移动体10向前行进运动所需的左轮和右轮的角速度具有不随时间变化的恒定值。
图18的左下侧所示的图是概念性地示出自主移动体10的运动数据M11所需的左轮和右轮的角速度的时间变化的曲线图。如图18的左下侧所示,实现自主移动体10的运动数据M11所需的左轮和右轮的角速度由恒定周期的正弦信号指示。
图18的右图是概念性地示出通过将图18的左上侧所示的轮子的角速度与图18的左下侧所示的轮子的角速度叠加而获得的左轮和右轮的角速度的时间变化的曲线图。操作控制器175控制左轮和右轮的角速度,使得将向前行进运动所需的左轮和右轮子的角速度与实现运动数据M11所需的左轮和右轮的角速度相互叠加,以获得如图18右侧所示的角速度。因此,自主移动体10控制自主移动体10的姿势操作,使得自主移动体10在从基准姿势角前后摆动的同时执行前进行进运动。
<<<<1.3.1.6.操作控制器的功能配置示例>>>>
接下来,将参照图19描述示出操作控制器的功能配置示例的框图。图19是示出根据实施方式的操作控制器的功能配置示例的框图。在图19所示的示例中,操作控制器175包括目标计算单元、姿势控制器和倒立摆模型单元。
目标计算单元基于对自主移动体10的平移运动的指令或者转弯运动的指令来计算平移运动或转弯运动的目标移动距离和目标速度,并且将目标移动距离和目标速度转换为左轮和右轮的角速度的目标值(在下文中,也称为目标轮子角速度)。例如,图18的左上侧所示的轮子的角速度对应于从平移运动的目标移动距离和目标速度转换的目标轮子角速度。此外,目标计算单元计算实现自主移动体10的运动数据所需的姿势角和姿势角速度,并且将姿势角和姿势角速度转换为左轮和右轮的角速度的目标值(在下文中,也称为目标轮子角速度)。例如,图18左下侧所示的轮子的角速度对应于从实现运动数据M11所需的姿势角和姿势角速度转换的目标轮子角速度。随后,目标计算单元将经转换的目标轮子角速度顺序地发送到姿势控制器。例如,图18的右侧所示的轮子的角速度对应于顺序发送到姿势控制器的目标轮子角速度。
姿势控制器和倒立摆模型单元控制自主移动体10的姿势操作,使得自主移动体10在保持倒立状态的同时跟随所指示的目标轮子角速度。
倒立摆模型单元是通过矩阵或矢量来表达系统的运动方程(微分方程)而获得的,并且被称为状态空间表示。此时,将x(t)称为状态变量矢量,将A称为系统系数矩阵,将B称为输入矢量,将C称为输出矢量。这里,x(t)是表示随时变化的系统的内部状态的内部参数。具体地,x(t)表示倒立摆的姿势角和姿势角的微分、倒立摆的平移分量和平移分量的微分、以及转弯分量和转弯分量的微分。另外,u(t)是倒立摆的输入,并且具体地表示对电机施加的电压值,其中该电机是倒立摆的左轮和右轮部分。另外,将u(t)称为操作量。此外,y(t)是系统的输出,具体为轮子的平移分量和转弯分量。
这里,假设φR是右轮的旋转角度,φL是左轮的旋转角度,φC是虚拟中心轮的旋转角度,Ψ是倒立摆的本体的转弯角度,r是轮子半径,d是从自主移动体10的中心到轮子的距离,通过以下等式根据左轮和右轮的轮子角唯一地获得平移分量和转弯分量。
平移分量:
转弯分量:
状态反馈被配置成通过将状态变量矢量x(t)乘以矢量f来执行反馈。当操作量u(t)被添加到要控制的倒立摆时,或者当系统的内部状态发生变化时(当自主移动体10被用户触摸并且姿势角发生变化时等),状态反馈具有对下次操作量执行反馈以使得系统快速转换为稳定状态的作用。这里,稳定状态是指倒立摆不倒下。
目标计算单元每个小时周期性地向倒立摆系统发送左轮和右轮的角速度的目标值r(t)。如上所述,平移分量和转弯分量是通过上述等式根据左轮和右轮的角度计算而唯一获得的。在姿势控制器中,使用平移分量和转弯分量作为目标执行控制。这里,目标跟随反馈负责使系统的状态跟随其目标值。具体地,将目标值r(t)与要控制的输出y(t)之间的偏离“e(t)=r(t)-y(t)”进行积分以获得z(t),并且通过将z(t)乘以增益g而获得的结果被称为目标跟随反馈。以这种方式,积分确保受控对象以足够的时间可靠地接近最终目标值。
然而,反馈系统通常具有从目标中的改变到目标跟随之间的反应慢的问题。因此,添加了目标跟随前馈项来对此进行补偿。目标跟随前馈项被配置成将目标值r(t)乘以增益H,以将结果加到操作量。因此,可以在目标变化时快速地响应并且提高响应能力。
(通信单元180)
根据本实施方式的通信单元180例如通过NIC等来实现。然后,通信单元180例如以有线或无线方式连接至网络N以向外部信息处理服务器发送信息以及从外部信息处理服务器接收信息。
以上描述了根据本公开内容的实施方式的自主移动体10的功能配置示例。注意,参照图14描述的上述配置仅仅是示例,并且根据本公开内容的实施方式的自主移动体10的功能配置不限于这样的示例。例如,根据本实施方式的自主移动体10的操作可以由与自主移动体10通信的信息处理服务器控制。在这种情况下,自主移动体10可以经由上述通信单元180将传感器信息发送到信息处理服务器,并且可以从信息处理服务器接收控制信号。根据本实施方式的自主移动体10的功能配置能够根据自主移动体10的形状等灵活地修改。
<<1.4.其他姿势控制的详情>>
接下来,详细描述根据本实施方式的操作控制器173对自主移动体10的其他姿势控制。如上所述,根据本实施方式的操作控制器173的特征之一在于执行控制,使得自主移动体10在保持前倾姿势的状态下执行移动操作。根据根据本实施方式的操作控制器173的上述功能,通过使自主移动体10具有方向性,可以实现更接近于真正的生物体的丰富运动表达。
此外,根据本实施方式的操作控制器173可以在停留期间和移动操作期间执行不同的姿势控制。图20是用于描述根据本实施方式的停留期间和移动操作期间的姿势控制的图。图20的左侧示出了自主移动体10不执行移动操作而是停留在原地的情况。此时,根据本实施方式的操作控制器175可以将轮子570收纳在自主移动体10的主体内,并且使自主移动体10在就座状态下停止。
根据根据本实施方式的操作控制器175的上述控制,在不需要进行移动操作的情况下,通过将轮子570收纳在主体内并且使底部与安装表面接触,来使自主移动体10稳固地停止,并且可以防止在停留期间像一般机器人装置那样摇晃。此外,根据这样的控制,即使没有陀螺控制也可以使自主移动体10稳定化,并且可以有效地降低陀螺控制所需的功耗。
另一方面,图20的右侧示出了自主移动体执行移动操作的情况。此时,根据本实施方式的操作控制器175使轮子570向自主移动体10的主体的外侧突出以保持站立状态,并且执行轮子570的驱动控制和陀螺控制。
注意,如上所述,操作控制器175通过将自主移动体10的重心CoG控制为在竖直方向上位于轮子570的上方,来使自主移动体10保持前倾姿势。此时,操作控制器175可以根据重心CoG的位置调整轮子570的位置。
根据根据本实施方式的操作控制器175的上述控制,能够使自主移动体10在保持前倾姿势的状态下执行移动操作,并且即使在自主移动体10具有比较简单的外形的情况下,仍可以实现更接近于真正的生物体的丰富的运动表达。
注意,在图20所示的示例中,示出了自主移动体10即使在就座状态下也保持前倾姿势的情况,但是根据本实施方式的就座状态下的姿势不限于这样的示例。图21示出了根据本实施方式的自主移动体10在就座状态下采取直立姿势的情况的示例。在图21所示的示例中,可以看出,底面部的角度垂直于主体的体轴线。如上所述,通过改变底面部的角度,能够适当地调整自主移动体10在就座状态下的姿势。
如图20所示,在移动操作期间,当底面部的角度相对于体轴线倾斜而使得前部打开时,可以进一步降低下前部接触到行进表面的可能性。另一方面,如图21所示,当底面部的角度被形成为垂直于体轴线时,期待自主移动体10在就座状态下更稳定地停止的效果。
然而,在这种情况下,如图21的左侧所示,在就座状态下,自主移动体10的重心CoG从轮子570的旋转轴偏移。这里,在不执行控制的情况下,自主移动体10的主体在向站立状态转变的时刻由于重心CoG而向后移动。
为了防止上述情况,根据本实施方式的操作控制器175可以在从就座状态转变为站立状态时基于在竖直方向上自主移动体10的重心CoG与轮子570的旋转轴之间的偏离量来旋转轮子570。
图22是用于描述根据本实施方式的向站立状态转变时的轮子控制的图。图22示出了当自主移动体10的轮子570在其突出时与行进表面接触时的情况。此时,根据本实施方式的操作控制器175可以在将轮子570旋转偏离量+α并且将重心CoG在竖直方向上定位在轮子570的旋转轴的上方之后执行陀螺控制。根据操作控制器175的上述控制,即使在就座状态下重心与轮子570的旋转轴之间发生偏离的情况下,该偏离也被抵消,并且能够使自主移动体10稳定地转换到站立状态而不向后移动。
在以上描述中,作为示例描述了通过形成垂直于体轴线的底面部而在重心与旋转轴之间发生偏离的情况。然而,当行进表面具有如图23所示的倾斜度时,也会发生上述偏离。在图23所示的示例的情况下,底面部的角度类似于图20所示的示例的角度,但由于行进表面是倾斜的,所以就座状态下的重心CoG从轮子570的旋转轴偏离。
然而,即使在这种情况下,如参照图22所描述的,操作控制器175可以通过基于在竖直方向上重心CoG与轮子570的旋转轴之间的偏离量旋转轮子570来将自主移动体10稳定地转变为站立状态而不向后移动。
<<1.5.根据实施方式的信息处理的过程>>
接下来,将参照图24描述根据本公开内容的实施方式的信息处理的过程。图24是示出根据本公开内容的实施方式的信息处理的过程的流程图。
在图24所示的示例中,自主移动体10获取动作指令。例如,自主移动体10获取在用户的方向上向前移动(直线移动)的动作指示(步骤S101)。
随后,当获取到动作指令时,自主移动体10根据自主移动体的情绪获取运动数据(步骤S102)。随后,当获取到运动数据时,自主移动体10开始朝着用户的方向向前移动(步骤S103)。
随后,当开始向前移动时,自主移动体10获取向前移动所需的轮子速度(步骤S104)。随后,当获取到轮子速度时,自主移动体10执行姿势控制,使得在保持倒立状态的同时跟随轮子速度(步骤S105)。随后,自主移动体10根据时间的流逝获取运动数据(步骤S106)。
随后,自主移动体10确定是否结束向前移动(步骤S107)。当确定向前移动结束时(在步骤S107中为“是”),自主移动体10结束向前移动。另一方面,当确定向前移动未结束时(在步骤S107中为“否”),自主移动体10再次获取向前移动所需的轮子速度(步骤S104)。
<<1.6.实施方式的修改例>>
<<<1.6.1.姿势角与轮子的旋转角之间的兼容性>>>
在上述实施方式中,描述了通过自主移动体10的姿势角的时间变化来指定运动数据的示例。然而,自主移动体10的姿势角(或者姿势角速度)与自主移动体10的左轮和右轮的旋转角(或者角速度)对于特定自主移动体具有一一对应的关系。因此,可以使用左轮和右轮的旋转角(或者角速度)而不是姿势角来作为图15所示的运动数据存储单元162的姿势操作的“角度(°)”项。此外,操作控制器175可以基于左轮和右轮的旋转角(或者角速度)的时间变化而不是姿势角来控制自主移动体10的姿势。
<<<1.6.2.轻触时的运动数据>>>
此外,操作控制器175可以基于与位于自主移动体周围的自主移动体的用户相关的用户信息来控制自主移动体的姿势操作。具体地,操作控制器175基于作为用户信息的以下信息来控制自主移动体的姿势操作:指示用户的面部的图像信息、指示与用户的交互的内容的交互信息、或者指示用户与自主移动体的接触方式的接触信息。例如,检测单元171预先学习用户用手指轻轻地(轻柔地)触摸自主移动体10的头部数次时的角速度和角加速度的模式。当检测到预先学习的模式的角速度或角加速度时,检测单元171检测到用户触摸自主移动体10。
当操作控制器175检测到检测单元171被用户轻触时,操作控制器175控制自主移动体10的姿势操作,使得在与轻触方向相反的方向上移动的同时,转弯方向上的部件逐渐融合,表现出痒痒的感觉。此外,操作控制器175控制自主移动体10的姿势操作,使得在自主移动体10从轻触状态返回到稳定姿势时表达好像在困惑地说“哇”一样的姿势。例如,当自主移动体10从轻触状态返回到稳定姿势时,操作控制器175控制自主移动体10的姿势操作,使得自主移动体10以预定频率(例如,3Hz)、以预定幅度角(例如3°)、以自主移动体10的左轮和右轮的轴为旋转轴COW围绕与基准姿势对应的基准姿势角θ振动。
<<<1.6.3.表达困惑(惊慌)的运动数据>>>
当自主移动体10的情绪对应于困惑(惊慌)时,操作控制器175控制自主移动体10的姿势操作,使得在自主移动体10到达目标位置之前表达好像有意跌倒的姿势。具体地,当自主移动体10的情绪对应于困惑(惊慌)时,操作控制器175控制自主移动体10的向前行进运动,并且控制自主移动体10的姿势操作,使得在自主移动体10到达目标位置之前,自从以第三幅度角(例如5°)以自主移动体10的左轮和右轮的轴为旋转轴COW围绕与基准姿势对应的基准姿势角θ在行进方向上旋转起经过了预定时间之后(例如500ms之后),自主移动体10以大于第三幅度角的角度(例如,20°)、以自主移动体10的左轮和右轮的轴为旋转轴COW围绕与基准姿势对应的基准姿势角θ在与行进方向相反的方向上旋转。
<<<1.6.4.表达衰弱(虚弱)的运动数据>>>
当自主移动体10的情绪对应于衰弱(虚弱)时,操作控制器175控制自主移动体10的姿势操作,使得表达好像以“之”字形行走的姿势。具体地,当自主移动体10的情绪对应于衰弱(虚弱)时,操作控制器175控制自主移动体10的向前行进运动,并且控制自主移动体10的姿势操作,使得交替地执行以下控制:使自主移动体以在左右方向上自主移动体的另一侧比自主移动体的一侧前进得更远的方式而前进;以及使自主移动体以在左右方向上自主移动体的一侧比自主移动体的另一侧前进得更远的方式而前进。更具体地,操作控制器175通过交替地和周期性地随时间改变自主移动体10的左轮和右轮的旋转角或旋转角速度来控制自主移动体10的姿势操作。
此外,操作控制器175可以基于指示自主移动体10的内部状态的状态信息来控制自主移动体10的姿势操作。具体地,操作控制器175基于作为状态信息的以下信息来控制自主移动体10的姿势操作:指示自主移动体10的本体内的温度的温度信息、或者指示自主移动体10的剩余电池电量的信息。
例如,检测单元171检测到自主移动体10的本体内的温度超过预定阈值。当检测单元171检测到自主移动体10的本体内的温度超过预定阈值时,识别单元172估计到自主移动体10的情绪对应于衰弱(虚弱)。当识别单元172估计到自主移动体的情绪对应于衰弱(虚弱)时,获取单元174参考运动数据存储单元162以获取与作为自主移动体的情绪的衰弱(虚弱)对应的运动数据(未示出)。当由获取单元174获取到与衰弱(虚弱)对应的运动数据时,操作控制器175基于与衰弱(虚弱)对应的运动数据来控制自主移动体的姿势操作。注意,操作控制器175可以在由音频输出单元140输出诸如“我有点发烧”或者“我累了”的语音的同时表达好像以“之”字形行走的姿势。
此外,检测单元171检测到自主移动体10的剩余电池电量等于或小于预定阈值。当检测单元171检测到自主移动体10的剩余电池电量等于或小于预定阈值时,识别单元172估计到自主移动体10的情绪对应于衰弱(虚弱)。当识别单元172估计到自主移动体的情绪对应于衰弱(虚弱)时,获取单元174参考运动数据存储单元162以获取与作为自主移动体的情绪的衰弱(虚弱)对应的运动数据(未示出)。当由获取单元174获取到与衰弱(虚弱)对应的运动数据时,操作控制器175基于与衰弱(虚弱)对应的运动数据来控制自主移动体的姿势操作。注意,操作控制器175可以在音频输出单元140输出诸如“我饿了”或者“我头晕”的语音时表达好像以“之”字形行走的姿势。
<2.根据本公开内容的效果>
如上所述,根据本公开内容的信息处理装置(实施方式中的自主移动体10)包括操作控制器(实施方式中的操作控制器175)。操作控制器175控制在保持倒立状态的同时行进的自主移动体的移动操作,并且控制从倒立状态下的基准姿势起随时间变化的自主移动体的姿势操作。
因此,信息处理装置可以同时执行保持自主移动体的倒立状态的控制以及随时间改变自主移动体的姿势的控制。即,由于信息处理装置能够在保持自主移动体的倒立状态的同时以任意方式改变自主移动体的姿势,因此能够表现出更多的表情。因此,信息处理装置可以进一步丰富自主移动体的运动表达。
此外,根据本公开内容的信息处理装置(实施方式中的自主移动体10)还包括获取单元(实施方式中的获取单元174)。获取单元174获取与自主移动体的姿势操作对应的运动数据。操作控制器175基于由获取单元174获取的运动数据来控制自主移动体的姿势操作。
因此,信息处理装置可以表达自主移动体的各种姿势操作。
此外,获取单元174获取根据自主移动体的情绪的运动数据。操作控制器175基于由获取单元174获取的根据情绪的运动数据来控制自主移动体的姿势操作。
因此,信息处理装置可以根据自主移动体的情绪表达各种姿势操作。
另外,自主移动体在相对于行进方向的左侧和右侧具有轮子,并且操作控制器175基于与如下姿势操作对应的运动数据来控制自主移动体的姿势操作,该姿势操作以自主移动体的左轮和右轮的轴为旋转轴围绕与基准姿势对应的基准姿势角振动。
因此,信息处理装置能够在保持具有倒立摆结构的自主移动体的倒立状态的同时,表达在行进方向上振动的姿势操作。
此外,操作控制器175控制自主移动体的包括前后运动、转弯运动或旋转运动中的至少一种的移动操作,并且控制自主移动体的姿势操作,使得自主移动体以预定频率、以预定幅度角、以自主移动体的左轮和右轮的轴为旋转轴围绕与基准姿势对应的基准姿势角振动。
因此,信息处理装置可以控制自主移动体的包括前后运动、转弯运动或旋转运动中的至少一种的移动操作,并且可以控制自主移动体的姿势操作,使得可以表达自主移动体更多的各种姿势操作。
此外,操作控制器175控制自主移动体的向前行进运动,并且在自主移动体的情绪对应于喜悦时,控制自主移动体的姿势操作,使得自主移动体以第一频率、以第一幅度角、以自主移动体的左轮和右轮的轴为旋转轴围绕与基准姿势对应的基准姿势角振动,并且操作控制器175在自主移动体的情绪对应于欢乐时,控制自主移动体的姿势操作,使得自主移动体以小于第一频率的频率、以大于第一幅度角的幅度角、以自主移动体的左轮和右轮的轴为旋转轴围绕与基准姿势对应的基准姿势角振动。
因此,信息处理装置可以通过姿势的改变来表现自主移动体的喜悦情绪。此外,信息处理装置可以通过与喜悦不同的姿势变化来表现自主移动体的欢乐情绪。
此外,操作控制器175控制自主移动体的转弯运动,并且在自主移动体的情绪对应于愤怒时,控制自主移动体的姿势操作,使得自主移动体以第二频率、以第二幅度角、以自主移动体的左轮和右轮的轴为旋转轴围绕与基准姿势对应的基准姿势角振动,并且在自主移动体的情绪对应于悲伤时,控制自主移动体的姿势操作,使得自主移动体以大于第二频率的频率、以小于第二幅度角的幅度角、以自主移动体的左轮和右轮的轴为旋转轴围绕与基准姿势对应的基准姿势角振动。
因此,信息处理装置可以通过姿势的改变来表达自主移动体的愤怒情绪。此外,信息处理装置能够通过与愤怒不同的姿势变化来表现自主移动体的悲伤情绪。
另外,操作控制器175控制自主移动体的向前行进运动,并且当自主移动体的情绪对应于困惑时,控制自主移动体的姿势操作,使得在自主移动体到达目标位置之前自从自主移动体以第三幅度角、以自主移动体的左轮和右轮的轴为旋转轴围绕与基准姿势对应的基准姿势角在行进方向上旋转起经过了预定时间之后,自主移动体以大于第三幅度角的角度以自主移动体的左轮和右轮的轴为旋转轴围绕与基准姿势对应的基准姿势角在与行进方向相反的方向上旋转。
因此,信息处理装置可以通过例如滚动的姿势来表现自主移动体的困惑(惊慌)的情绪。
此外,操作控制器175控制自主移动体的向前行进运动,并且在自主移动体的情绪对应于衰弱的情况下,控制自主移动体的姿势操作,使得交替地执行以下控制:使自主移动体以在左右方向上自主移动体的另一侧比自主移动体的一侧前进得更远的方式而前进;以及使自主移动体以在左右方向上自主移动体的一侧比自主移动体的另一侧前进得更远的方式而前进。
因此,信息处理装置可以通过例如好像以“之”字形行走的姿势来表现自主移动体的衰弱(虚弱)的情绪。
此外,操作控制器175通过在时间上交替地且周期性地改变自主移动体的左轮和右轮的旋转角或旋转角速度来控制自主移动体的姿势操作。
因此,信息处理装置可以表现作为两轮倒立摆的自主移动体的各种表达。
此外,操作控制器175基于与位于自主移动体周围的自主移动体的用户相关的用户信息,控制自主移动体的姿势操作。此外,操作控制器175基于作为用户信息的以下信息来控制自主移动体的姿势操作:指示用户的面部的图像信息、指示与用户的交互的内容的交互信息、或者指示用户与自主移动体的接触方式的接触信息。
因此,信息处理装置可以根据与自主移动体的用户有关的用户信息来表现各种表达。
此外,操作控制器175基于指示自主移动体的内部状态的状态信息来控制自主移动体的姿势操作。操作控制器175基于作为状态信息的以下信息来控制自主移动体的姿势操作:指示自主移动体的本体内的温度的温度信息、或者指示自主移动体的剩余电池电量的信息。
因此,信息处理装置可以根据指示自主移动体的内部状态的状态信息表现各种表达。
此外,操作控制器175控制自主移动体的姿势操作,使得倒立状态下的基准姿势为前倾姿势。
因此,信息处理装置可以在保持倒立摆的状态的同时控制自主移动体的姿势操作。
<3.硬件配置>
信息装置,诸如根据上述实施方式和修改例的自主移动体10,例如由具有图25所示的配置的计算机1000来实现。图25是示出实现诸如自主移动体10的信息处理装置的功能的计算机1000的示例的硬件配置图。在下文中,以根据实施方式的自主移动体10为例进行描述。计算机1000包括CPU 1100、RAM 1200、只读存储器(ROM)1300、硬盘驱动器(HDD)1400、通信接口1500和输入/输出接口1600。计算机1000的各个单元通过总线1050连接。
CPU 1100基于存储在ROM 1300或HDD 1400中的程序进行操作,并且控制每个单元。例如,CPU 1100在RAM 1200中开发存储在ROM 1300或HDD 1400中的程序,并且执行与各种程序相对应的处理。
ROM 1300存储诸如在计算机1000启动时由CPU 1100执行的基本输入输出系统(BIOS)的引导程序、取决于计算机1000的硬件的程序等。
HDD 1400是非暂态地记录由CPU 1100执行的程序、由程序使用的数据等的计算机可读记录介质。具体地,HDD 1400是记录根据本公开内容的信息处理程序的记录介质,该信息处理程序是程序数据1450的示例。
通信接口1500是用于计算机1000连接至外部网络1550(例如,因特网)的接口。例如,CPU 1100经由通信接口1500从另一装置接收数据或者将由CPU 1100生成的数据发送至另一装置。
输入/输出接口1600是连接输入/输出装置1650和计算机1000的接口。例如,CPU1100经由输入/输出接口1600从诸如键盘和鼠标的输入装置接收数据。另外,CPU 1100经由输入/输出接口1600将数据发送至诸如显示器、扬声器或打印机的输出装置。此外,输入/输出接口1600可以用作媒体接口,其读取记录在预定记录介质(介质)中的程序等。例如,媒体是诸如数字多功能光盘(DVD)或相变可重写盘(PD)的光学记录介质、诸如磁光盘(MO)的光磁记录介质、磁带介质、磁记录介质、半导体存储器等。
例如,在计算机1000用作根据实施方式的自主移动体10情况下,计算机1000的CPU1100通过执行加载在RAM 1200上的信息处理程序来实现控制器170等的功能。另外,HDD1400将根据本公开内容的信息处理程序和数据存储在存储单元160中。CPU 1100从HDD1400读取程序数据1450,并且执行程序数据,但是作为另一示例,可以经由外部网络1550从另一装置获取这些程序。
本技术还可以被配置如下。
(1)
一种信息处理装置,包括:
操作控制器,其控制在保持倒立状态的同时行进的自主移动体的移动操作,并且控制从所述倒立状态下的基准姿势起随时间变化的所述自主移动体的姿势操作。
(2)
根据(1)所述的信息处理装置,还包括:
获取单元,其获取与所述自主移动体的姿势操作对应的运动数据,其中,
所述操作控制器基于由所述获取单元获取的运动数据来控制所述自主移动体的姿势操作。
(3)
根据(2)所述的信息处理装置,其中,
所述获取单元获取根据所述自主移动体的情绪的运动数据,并且其中,
所述操作控制器基于由所述获取单元获取的根据所述情绪的运动数据来控制所述自主移动体的姿势操作。
(4)
根据(2)或(3)所述的信息处理装置,其中,
所述自主移动体在相对于行进方向的左侧和右侧包括轮子,并且其中,
所述操作控制器基于与如下姿势操作对应的运动数据来控制所述自主移动体的姿势操作:以所述自主移动体的左轮和右轮的轴为旋转轴,围绕与所述基准姿势对应的基准姿势角振动。
(5)
根据(4)所述的信息处理装置,其中,
所述操作控制器控制所述自主移动体的包括前后运动、转弯运动和旋转运动中的至少一种的移动操作,并且控制所述自主移动体的姿势操作,使得所述自主移动体以所述自主移动体的左轮和右轮的轴为旋转轴、以预定频率、以预定幅度角围绕与所述基准姿势对应的基准姿势角振动。
(6)
根据(4)或(5)所述的信息处理装置,其中,
所述操作控制器
控制所述自主移动体的向前行进运动,并且在所述自主移动体的情绪对应于喜悦时,控制所述自主移动体的姿势操作,使得所述自主移动体以所述自主移动体的左轮和右轮的轴为旋转轴、以第一频率、以第一幅度角围绕与所述基准姿势对应的基准姿势角振动,并且
在所述自主移动体的情绪对应于欢乐时,控制所述自主移动体的姿势操作,使得所述自主移动体以所述自主移动体的左轮和右轮的轴为所述旋转轴、以小于所述第一频率的频率、以大于所述第一幅度角的幅度角围绕与所述基准姿势对应的基准姿势角振动。
(7)
根据(4)或(5)所述的信息处理装置,其中,
所述操作控制器
控制所述自主移动体的转弯运动,并且在所述自主移动体的情绪对应于愤怒时,控制所述自主移动体的姿势操作,使得所述自主移动体以所述自主移动体的左轮和右轮的轴为旋转轴、以第二频率、以第二幅度角围绕与所述基准姿势对应的基准姿势角振动,并且
在所述自主移动体的情绪对应于悲伤时,控制所述自主移动体的姿势操作,使得所述自主移动体以所述自主移动体的左轮和右轮的轴为所述旋转轴、以大于所述第二频率的频率、以小于所述第二幅度角的幅度角围绕与所述基准姿势对应的基准姿势角振动。
(8)
根据(4)或(5)所述的信息处理装置,其中,
所述操作控制器控制所述自主移动体的向前行进运动,并且在所述自主移动体的情绪对应于困惑时,控制所述自主移动体的姿势操作,使得在所述自主移动体到达目标位置之前自从所述自主移动体以所述自主移动体的左轮和右轮的轴为旋转轴、以第三幅度角围绕与所述基准姿势对应的基准姿势角在行进方向上旋转起经过了预定时间之后,所述自主移动体以所述自主移动体的左轮和右轮的轴为所述旋转轴、以大于所述第三幅度角的角度围绕与所述基准姿势对应的基准姿势角在与所述行进方向相反的方向上旋转。
(9)
根据(4)或(5)所述的信息处理装置,其中,所述操作控制器控制所述自主移动体的向前行进运动,并且在所述自主移动体的情绪对应于衰弱时,控制所述自主移动体的姿势操作,使得交替地执行以下控制:使所述自主移动体以在左右方向上所述自主移动体的另一侧比所述自主移动体的一侧前进得更远的方式而前进;以及使所述自主移动体以在所述左右方向上所述自主移动体的所述一侧比所述自主移动体的所述另一侧前进得更远的方式而前进。
(10)
根据(9)所述的信息处理装置,其中,
所述操作控制器通过在时间上交替地且周期性地改变所述自主移动体的所述左轮和所述右轮的旋转角或旋转角速度来控制所述自主移动体的姿势操作。
(11)
根据(1)至(10)中任一项所述的信息处理装置,其中,
所述操作控制器基于与位于所述自主移动体周围的所述自主移动体的用户相关的用户信息,控制所述自主移动体的姿势操作。
(12)
根据(11)所述的信息处理装置,其中,
所述操作控制器基于作为所述用户信息的以下信息来控制所述自主移动体的姿势操作:指示所述用户的面部的图像信息、指示与所述用户的交互的内容的交互信息、或者指示所述用户与所述自主移动体的接触方式的接触信息。
(13)
根据(1)至(12)中任一项所述的信息处理装置,其中,
所述操作控制器基于指示所述自主移动体的内部状态的状态信息来控制所述自主移动体的姿势操作。
(14)
根据(13)所述的信息处理装置,其中,
所述操作控制器基于作为所述状态信息的以下信息来控制所述自主移动体的姿势操作:指示所述自主移动体的本体内的温度的温度信息、或者指示所述自主移动体的剩余电池电量的信息。
(15)
根据(1)至(14)中任一项所述的信息处理装置,其中,
所述操作控制器控制所述自主移动体的姿势操作,使得所述倒立状态下的基准姿势为前倾姿势。
(16)
一种信息处理方法,用于执行处理以:
控制在保持倒立状态的同时行进的自主移动体的移动操作,以及控制从所述倒立状态下的基准姿势起随时间变化的所述自主移动体的姿势操作。
(17)
一种信息处理程序,用于使计算机执行操作控制过程,以:
控制在保持倒立状态的同时行进的自主移动体的移动操作,以及控制从所述倒立状态下的基准姿势起随时间变化的所述自主移动体的姿势操作。
附图标记列表
1 信息处理系统
N 网络
10 自主移动体
110 传感器单元
120 输入单元
130 光源
140 音频输出单元
150 驱动单元
160 存储单元
161 动作存储单元
162 运动数据存储单元
170 控制器
171 检测单元
172 识别单元
173 动作计划单元
174 获取单元
175 操作控制器
180 通信单元

Claims (15)

1.一种信息处理装置,包括:
操作控制器,其控制在保持倒立状态的同时行进的自主移动体的移动操作,并且控制从所述倒立状态下的基准姿势起随时间变化的所述自主移动体的姿势操作;以及
获取单元,其获取与所述自主移动体的姿势操作对应的运动数据,
其中,所述操作控制器基于由所述获取单元获取的运动数据来控制所述自主移动体的姿势操作,
其中,所述自主移动体在相对于行进方向的左侧和右侧包括轮子,并且其中,所述操作控制器基于与如下姿势操作对应的运动数据来控制所述自主移动体的姿势操作:以所述自主移动体的左轮和右轮的轴为旋转轴,围绕与所述基准姿势对应的基准姿势角振动。
2.根据权利要求1所述的信息处理装置,其中,
所述获取单元获取根据所述自主移动体的情绪的运动数据,并且其中,
所述操作控制器基于由所述获取单元获取的根据所述情绪的运动数据来控制所述自主移动体的姿势操作。
3.根据权利要求1所述的信息处理装置,其中,
所述操作控制器控制所述自主移动体的包括前后运动、转弯运动和旋转运动中的至少一种的移动操作,并且控制所述自主移动体的姿势操作,使得所述自主移动体以所述自主移动体的左轮和右轮的轴为旋转轴、以预定频率、以预定幅度角围绕与所述基准姿势对应的基准姿势角振动。
4.根据权利要求1所述的信息处理装置,其中,
所述操作控制器
控制所述自主移动体的向前行进运动,并且在所述自主移动体的情绪对应于喜悦时,控制所述自主移动体的姿势操作,使得所述自主移动体以所述自主移动体的左轮和右轮的轴为旋转轴、以第一频率、以第一幅度角围绕与所述基准姿势对应的基准姿势角振动,并且
在所述自主移动体的情绪对应于欢乐时,控制所述自主移动体的姿势操作,使得所述自主移动体以所述自主移动体的左轮和右轮的轴为所述旋转轴、以小于所述第一频率的频率、以大于所述第一幅度角的幅度角围绕与所述基准姿势对应的基准姿势角振动。
5.根据权利要求1所述的信息处理装置,其中,
所述操作控制器
控制所述自主移动体的转弯运动,并且在所述自主移动体的情绪对应于愤怒时,控制所述自主移动体的姿势操作,使得所述自主移动体以所述自主移动体的左轮和右轮的轴为旋转轴、以第二频率、以第二幅度角围绕与所述基准姿势对应的基准姿势角振动,并且
在所述自主移动体的情绪对应于悲伤时,控制所述自主移动体的姿势操作,使得所述自主移动体以所述自主移动体的左轮和右轮的轴为所述旋转轴、以大于所述第二频率的频率、以小于所述第二幅度角的幅度角围绕与所述基准姿势对应的基准姿势角振动。
6.根据权利要求1所述的信息处理装置,其中,
所述操作控制器控制所述自主移动体的向前行进运动,并且在所述自主移动体的情绪对应于困惑时,控制所述自主移动体的姿势操作,使得在所述自主移动体到达目标位置之前自从所述自主移动体以所述自主移动体的左轮和右轮的轴为旋转轴、以第三幅度角围绕与所述基准姿势对应的基准姿势角在行进方向上旋转起经过了预定时间之后,所述自主移动体以所述自主移动体的左轮和右轮的轴为所述旋转轴、以大于所述第三幅度角的角度围绕与所述基准姿势对应的基准姿势角在与所述行进方向相反的方向上旋转。
7.根据权利要求1所述的信息处理装置,其中,所述操作控制器控制所述自主移动体的向前行进运动,并且在所述自主移动体的情绪对应于衰弱时,控制所述自主移动体的姿势操作,使得交替地执行以下控制:使所述自主移动体以在左右方向上所述自主移动体的另一侧比所述自主移动体的一侧前进得更远的方式而前进;以及使所述自主移动体以在左右方向上所述自主移动体的所述一侧比所述自主移动体的所述另一侧前进得更远的方式而前进。
8.根据权利要求7所述的信息处理装置,其中,
所述操作控制器通过在时间上交替地且周期性地改变所述自主移动体的所述左轮和所述右轮的旋转角或旋转角速度来控制所述自主移动体的姿势操作。
9.根据权利要求1所述的信息处理装置,其中,
所述操作控制器基于与位于所述自主移动体周围的所述自主移动体的用户相关的用户信息,控制所述自主移动体的姿势操作。
10.根据权利要求9所述的信息处理装置,其中,
所述操作控制器基于作为所述用户信息的以下信息来控制所述自主移动体的姿势操作:指示所述用户的面部的图像信息、指示与所述用户的交互的内容的交互信息、或者指示所述用户与所述自主移动体的接触方式的接触信息。
11.根据权利要求1所述的信息处理装置,其中,
所述操作控制器基于指示所述自主移动体的内部状态的状态信息来控制所述自主移动体的姿势操作。
12.根据权利要求11所述的信息处理装置,其中,
所述操作控制器基于作为所述状态信息的以下信息来控制所述自主移动体的姿势操作:指示所述自主移动体的本体内的温度的温度信息、或者指示所述自主移动体的剩余电池电量的信息。
13.根据权利要求1所述的信息处理装置,其中,
所述操作控制器控制所述自主移动体的姿势操作,使得所述倒立状态下的所述基准姿势为前倾姿势。
14.一种信息处理方法,用于执行处理以:
控制在保持倒立状态的同时行进的自主移动体的移动操作,以及控制从所述倒立状态下的基准姿势起随时间变化的所述自主移动体的姿势操作;以及
获取与所述自主移动体的姿势操作对应的运动数据,
其中,基于所获取的运动数据来控制所述自主移动体的姿势操作,
其中,所述自主移动体在相对于行进方向的左侧和右侧包括轮子,并且其中,基于与如下姿势操作对应的运动数据来控制所述自主移动体的姿势操作:以所述自主移动体的左轮和右轮的轴为旋转轴,围绕与所述基准姿势对应的基准姿势角振动。
15.一种信息处理程序,用于使计算机执行操作控制过程,以:
控制在保持倒立状态的同时行进的自主移动体的移动操作,以及控制从所述倒立状态下的基准姿势起随时间变化的所述自主移动体的姿势操作;
获取与所述自主移动体的姿势操作对应的运动数据,
其中,基于所获取的运动数据来控制所述自主移动体的姿势操作,
其中,所述自主移动体在相对于行进方向的左侧和右侧包括轮子,并且其中,基于与如下姿势操作对应的运动数据来控制所述自主移动体的姿势操作:以所述自主移动体的左轮和右轮的轴为旋转轴,围绕与所述基准姿势对应的基准姿势角振动。
CN202080088833.1A 2019-12-27 2020-12-16 信息处理装置、信息处理方法和信息处理程序 Active CN114867540B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019239052 2019-12-27
JP2019-239052 2019-12-27
PCT/JP2020/046944 WO2021131959A1 (ja) 2019-12-27 2020-12-16 情報処理装置、情報処理方法及び情報処理プログラム

Publications (2)

Publication Number Publication Date
CN114867540A CN114867540A (zh) 2022-08-05
CN114867540B true CN114867540B (zh) 2024-04-30

Family

ID=76575905

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080088833.1A Active CN114867540B (zh) 2019-12-27 2020-12-16 信息处理装置、信息处理方法和信息处理程序

Country Status (5)

Country Link
US (1) US20230028871A1 (zh)
EP (1) EP4070866B1 (zh)
JP (1) JPWO2021131959A1 (zh)
CN (1) CN114867540B (zh)
WO (1) WO2021131959A1 (zh)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002036158A (ja) * 2000-07-27 2002-02-05 Yamaha Motor Co Ltd 自律機能を有する電子機器
WO2007035474A2 (en) * 2005-09-15 2007-03-29 Novomed Technologies, Inc. (Shanghai) Transdermal delivery peptides and method of use thereof
CN101462005A (zh) * 2008-11-26 2009-06-24 卢阳 一种模拟动物动作的电动玩具
CN102914293A (zh) * 2011-07-08 2013-02-06 佳能株式会社 信息处理设备和信息处理方法
AU2013101545A4 (en) * 2013-11-25 2014-01-09 Moon Mama A Portable Nursing Bag
CN204193481U (zh) * 2013-07-27 2015-03-11 阿历克斯·霍克斯特拉瑟 可摆姿势的玩具
CN107107841A (zh) * 2015-02-20 2017-08-29 歌乐株式会社 信息处理装置
CN108292816A (zh) * 2016-03-31 2018-07-17 深圳贝尔创意科教有限公司 模块化组件系统
CN208049379U (zh) * 2018-04-13 2018-11-06 邹敏 一种组合式玩具机器人
WO2019163312A1 (ja) * 2018-02-26 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN110227271A (zh) * 2018-06-29 2019-09-13 株式会社万代 臂构造和人型玩具

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060111814A1 (en) * 2004-11-19 2006-05-25 Shuji Hachitani Mobile robot
JP2012056001A (ja) * 2010-09-08 2012-03-22 Fit:Kk ロボット制御システム
JP6081271B2 (ja) * 2013-03-29 2017-02-15 本田技研工業株式会社 倒立振子型車両
JP6132754B2 (ja) * 2013-12-06 2017-05-24 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、出力装置、および出力方法
US20150202770A1 (en) * 2014-01-17 2015-07-23 Anthony Patron Sidewalk messaging of an autonomous robot
US9907449B2 (en) * 2015-03-16 2018-03-06 Irobot Corporation Autonomous floor cleaning with a removable pad
JP6436548B2 (ja) * 2016-07-11 2018-12-12 Groove X株式会社 自律行動型ロボット
GB201709199D0 (en) * 2017-06-09 2017-07-26 Delamont Dean Lindsay IR mixed reality and augmented reality gaming system
US11998291B2 (en) * 2018-02-02 2024-06-04 Covidien Lp Robotic surgical systems with user engagement monitoring
US10780578B2 (en) * 2018-02-22 2020-09-22 Boston Dynamics, Inc. Reaching mobile robots
US20210103281A1 (en) * 2018-02-26 2021-04-08 Sony Corporation Information processor, information processing method, and program
DE112019006409T5 (de) * 2018-12-27 2021-09-16 Honda Motor Co., Ltd. Pfadbestimmungsverfahren

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002036158A (ja) * 2000-07-27 2002-02-05 Yamaha Motor Co Ltd 自律機能を有する電子機器
WO2007035474A2 (en) * 2005-09-15 2007-03-29 Novomed Technologies, Inc. (Shanghai) Transdermal delivery peptides and method of use thereof
CN101462005A (zh) * 2008-11-26 2009-06-24 卢阳 一种模拟动物动作的电动玩具
CN102914293A (zh) * 2011-07-08 2013-02-06 佳能株式会社 信息处理设备和信息处理方法
CN204193481U (zh) * 2013-07-27 2015-03-11 阿历克斯·霍克斯特拉瑟 可摆姿势的玩具
AU2013101545A4 (en) * 2013-11-25 2014-01-09 Moon Mama A Portable Nursing Bag
CN107107841A (zh) * 2015-02-20 2017-08-29 歌乐株式会社 信息处理装置
CN108292816A (zh) * 2016-03-31 2018-07-17 深圳贝尔创意科教有限公司 模块化组件系统
WO2019163312A1 (ja) * 2018-02-26 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN208049379U (zh) * 2018-04-13 2018-11-06 邹敏 一种组合式玩具机器人
CN110227271A (zh) * 2018-06-29 2019-09-13 株式会社万代 臂构造和人型玩具

Also Published As

Publication number Publication date
JPWO2021131959A1 (zh) 2021-07-01
CN114867540A (zh) 2022-08-05
EP4070866B1 (en) 2024-05-15
US20230028871A1 (en) 2023-01-26
WO2021131959A1 (ja) 2021-07-01
EP4070866A4 (en) 2023-01-25
EP4070866A1 (en) 2022-10-12

Similar Documents

Publication Publication Date Title
US10120386B2 (en) Robotic creature and method of operation
KR102623574B1 (ko) 전자 장치 및 그 동작 방법
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
US10850400B2 (en) Robot with anti-noise speaker
JP7502520B2 (ja) ロボット、ロボットの制御方法及びプログラム
US20240184288A1 (en) Information processing device, information processing method, and program
US20180185764A1 (en) Robot
CA2998307A1 (en) Robot
US20200133275A1 (en) Electronic device and method of operating the same
US20170282383A1 (en) System for content recognition and response action
CN114867540B (zh) 信息处理装置、信息处理方法和信息处理程序
CN113474065B (zh) 移动体、移动方法
WO2020166373A1 (ja) 情報処理装置および情報処理方法
WO2020022122A1 (ja) 情報処理装置、行動決定方法及びプログラム
US20230042682A1 (en) Autonomous mobile body, information processing method, program, and information processing device
WO2021090704A1 (ja) 自律移動体、情報処理方法、プログラム、及び、情報処理装置
WO2019173321A1 (en) Robot transportation mode classification

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant