CN118288314A - 动作控制装置、动作控制方法以及记录介质 - Google Patents

动作控制装置、动作控制方法以及记录介质 Download PDF

Info

Publication number
CN118288314A
CN118288314A CN202311787455.8A CN202311787455A CN118288314A CN 118288314 A CN118288314 A CN 118288314A CN 202311787455 A CN202311787455 A CN 202311787455A CN 118288314 A CN118288314 A CN 118288314A
Authority
CN
China
Prior art keywords
sound
unit
data
control unit
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311787455.8A
Other languages
English (en)
Inventor
长谷川浩一
市川英里奈
小野田佳世子
黛幸辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Publication of CN118288314A publication Critical patent/CN118288314A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/243Means capturing signals occurring naturally from the environment, e.g. ambient optical, acoustic, gravitational or magnetic signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/02Casings; Cabinets ; Supports therefor; Mountings therein
    • H04R1/028Casings; Cabinets ; Supports therefor; Mountings therein associated with devices performing functions other than acoustics, e.g. electric candles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/20Acoustic signals, e.g. ultrasonic signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/326Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for microphones

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Otolaryngology (AREA)
  • Manipulator (AREA)
  • Toys (AREA)

Abstract

本发明提供动作控制装置、动作控制方法以及记录介质。动作控制装置(100)具备声音取得部、动作部(220)和控制部(110),控制部(110)进行控制,以使得若在动作部(220)动作中判定为由声音取得部取得的声音是人的声音,则使动作部(220)停止,取入给定期间的判定后的声音,在经过给定期间后,再次开始动作部(220)的动作。

Description

动作控制装置、动作控制方法以及记录介质
对关联申请的相互参照
本申请主张在2023年1月5日申请的日本专利申请第2023-000364号的优先权以及利益。将日本专利申请第2023-000364号的说明书、权利要求书、附图整体作为参照取入到本说明书中。
技术领域
本发明涉及动作控制装置、动作控制方法以及记录介质。
背景技术
以往,开发了各种宠物机器人。宠物机器人多是具备用于识别用户所发出的声音的麦克风、用于活动头、脚等的致动器。但致动器动作时发出的噪声有时会成为识别声音时的障碍。为此,例如,在特开2003-195886号公报中公开了一种机器人,在头部具备麦克风,且能减少致动器所发出的噪声给该麦克风带来的影响。
专利文献1公开的机器人通过将致动器配置在与麦克风隔离处,能减少致动器所发出的噪声的影响。但即使将麦克风和致动器隔离,根据声音的音量等级,也依旧避免不了受到噪声的影响。
发明内容
本发明鉴于这样的状况而提出的,其目的在于,减轻声音的取得处理与动作部的动作处理的竞争导致的相互的影响。
为了实现所述目的,本发明的实施方式所涉及的动作控制装置,具备声音取得部、动作部和控制部,所述控制部执行如下处理:进行控制,以使得若在所述动作部动作中判定为由所述声音取得部取得的声音是人的声音,则使所述动作部停止,取入给定期间的所述判定后的声音,在经过所述给定期间后,再次开始所述动作部的动作。
发明的效果
根据本发明,能减轻声音的取得处理与动作部的动作处理的竞争导致的相互的影响。
附图说明
图1是表示实施方式1所涉及的机器人的外观的图。
图2是从实施方式1所涉及的机器人的侧面观察的截面图。
图3是用于说明实施方式1所涉及的机器人的壳体的图。
图4是表示实施方式1所涉及的机器人的功能结构的框图。
图5是表示实施方式1所涉及的声音缓存器的一例的图。
图6是说明实施方式1所涉及的情感图表的一例的图。
图7是说明实施方式1所涉及的控制内容表格的一例的图。
图8是实施方式1所涉及的动作控制处理的流程图。
图9是实施方式1所涉及的麦克风输入处理的流程图。
图10是实施方式1所涉及的声音特征参数算出处理的流程图。
图11是实施方式1所涉及的触摸输入处理的流程图。
具体实施方式
以下,参照附图来说明本发明的实施方式。另外,对图中相同或相当部分标注相同的附图标记。
(实施方式1)
参照附图来说明将实施方式1所涉及的动作控制装置运用于图1所示的机器人200的实施方式。如图1所示那样,实施方式所涉及的机器人200是模仿小型的动物的宠物机器人,被具备模仿眼睛的装饰部件202以及毛茸茸的毛203的外装201覆盖。此外,在外装201中收纳机器人200的壳体207。如图2所示那样,机器人200的壳体207由头部204、连结部205以及躯干部206构成,头部204和躯干部206通过连结部205连结。
如图2所示那样,躯干部206在躯干部206的前端部装有被称作扭转电动机221的伺服电动机,头部204经由连结部205与躯干部206的前端部连结。并且,在连结部205装有被称作上下电动机222的伺服电动机。另外,在图2中,扭转电动机221装在躯干部206,但也可以装在连结部205,还可以装在头部204。此外,在图2中,上下电动机222装在连结部205,但也可以装在躯干部206,还可以装在头部204。不管哪种情况,扭转电动机221以及上下电动机222都设于壳体207的内部。
扭转电动机221能以穿过连结部205在躯干部206的前后方向上延伸的第1旋转轴为中心使头部204相对于躯干部206旋转。此外,上下电动机222能以穿过连结部205在躯干部206的宽度方向上延伸的第2旋转轴为中心使头部204相对于躯干部206向上方或下方旋转。
此外,机器人200具备触摸传感器211,能检测用户抚摸或拍打机器人200。更详细地,如图2所示那样,在头部204装有触摸传感器211H,能检测用户抚摸或拍打头部204。此外,如图2以及图3所示那样,在躯干部206的左侧面的前后分别装有触摸传感器211LF以及触摸传感器211LR,在躯干部206的右侧面的前后分别装有触摸传感器211RF以及触摸传感器211RR,能检测用户抚摸或拍打躯干部206。
此外,机器人200在躯干部206装有加速度传感器212,能进行机器人200的姿势(朝向)的检测,或检测被用户举高、改变朝向、抛投。此外,机器人200在躯干部206装有陀螺仪传感器213,能检测机器人200振动、摔倒或旋转。
此外,机器人200在躯干部206装有麦克风214,能检测外部的声音。如图2所示那样,麦克风214设于壳体207表面的适合外部环境音的取得位置。此外,麦克风214可以具备具有难以拾取伺服电动机(扭转电动机221以及上下电动机222)的声音的集音特性的指向性。
进而,机器人200在躯干部206装有扬声器231,能使用扬声器231发出鸣啼声,或唱歌。
另外,在本实施方式中,加速度传感器212、陀螺仪传感器213、麦克风214以及扬声器231装在躯干部206,但也可以它们的全部或一部分装在头部204。此外,也可以除了装在躯干部206的加速度传感器212、陀螺仪传感器213、麦克风214以及扬声器231以外,还将它们的全部或一部分也装在头部204。此外,触摸传感器211分别装在头部204以及躯干部206,但也可以仅装在头部204或躯干部206的任一方。此外,它们也可以均装有多个。
接下来,说明机器人200的功能结构。如图4所示那样,机器人200具备动作控制装置100、传感器部210、动作部220、声音输出部230和操作输入部240。并且,动作控制装置100具备控制部110、存储部120和通信部130。在图4中,动作控制装置100和传感器部210、动作部220、声音输出部230以及操作输入部240经由总线BL而连接,但这是一例。动作控制装置100和传感器部210、动作部220、声音输出部230以及操作输入部240也可以经由USB(Universal Serial Bus,通用串行总线)线缆等有线接口、Bluetooth(注册商标)等无线接口连接。此外,控制部110和存储部120、通信部130也可以经由总线BL连接。
动作控制装置100通过控制部110以及存储部120来控制机器人200的动作。另外,机器人200由于是被动作控制装置100控制的装置,因此也称作被控制装置。
控制部110例如由CPU(Central Processing Unit,中央处理器)等处理器构成,通过存储于存储部120的程序来执行后述的各种处理。另外,控制部110由于与并行执行多个处理的多线程功能对应,因此,能并行执行后述的各种处理。此外,控制部110还具备时钟功能、计时器功能,能对日期时间等进行计时。
存储部120由ROM(Read Only Memory,只读存储器)、闪速存储器、RAM(RandomAccess Memory,随机存取存储器)等构成。在ROM中存储控制部110的CPU所执行的程序以及执行程序上预先需要的数据。闪速存储器是能进行写入的非易失性的存储器,存储希望在电源OFF后也保存的数据。在RAM中存储在程序执行中作成或变更的数据。存储部120例如存储后述的情感数据121、情感变化数据122、成长天数数据123、控制内容表格124、声音缓存器125、声音历史记录126、触摸历史记录127等。
通信部130具备于无线LAN(Local Area Network,局域网)、Bluetooth(注册商标)等对应的通信模块,与智能手机等外部装置进行数据通信。
传感器部210具备前述的触摸传感器211、加速度传感器212、陀螺仪传感器213以及麦克风214。控制部110取得传感器部210所具备的各种传感器检测到的检测值,作为表征作用于机器人200的外部刺激的外部刺激数据。另外,传感器部210也可以具备触摸传感器211、加速度传感器212、陀螺仪传感器213、麦克风214以外的传感器。通过增加传感器部210所具备的传感器的种类,能增加控制部110能取得的外部刺激的种类。例如,传感器部210也可以具备CCD(Charge-Coupled Device,电荷耦合器件)图像传感器等图像取得部。在该情况下,控制部110能识别图像取得部所取得的图像来判定位于周围的人是谁(例如饲养者、总是照顾自己的人、不识别的人等)等。
触摸传感器211能检测某些物体接触。触摸传感器211例如由压力传感器、静电容传感器构成。控制部110基于来自触摸传感器211的检测值来取得接触强度、接触时间,能基于这些值来检测正由用户抚摸或拍打机器人200等外部刺激(例如参照特开2019-217122号公报)。另外,控制部110可以用触摸传感器211以外的传感器来检测这些外部刺激(例如参照专利第6575637号公报)。
加速度传感器212检测由机器人200的躯干部206的前后方向(X轴方向)、宽度(左右)方向(Y轴方向)以及上下方向(Z轴方向)构成的3轴方向的加速度。加速度传感器212由于在机器人200静止时检测重力加速度,因此,控制部110能基于加速度传感器212检测到的重力加速度来检测机器人200的当前的姿势。此外,例如在用户举高或抛投机器人200的情况下,加速度传感器212除了重力加速度以外还检测与机器人200的移动相伴的加速度。因此,控制部110通过从加速度传感器212检测到的检测值除去重力加速度的分量,能检测机器人200的活动。
陀螺仪传感器213检测机器人200的3轴的角速度。控制部110能根据3轴的角速度来判定机器人200的旋转的状态。此外,控制部110能根据3轴的角速度的最大值来判定机器人200的振动的状态。
在本实施方式中,在后述的触摸输入处理中,控制部110基于加速度传感器212检测到的重力加速度来判定机器人200的当前的姿势是水平、翻面、朝上、朝下、朝向侧面(朝向左侧或朝向右侧)的哪一者。然后,对应于判定结果,将数值0~4的任一值(若是水平则为0,若是翻面则为1,若是朝上则为2,若是朝下则为3,若是朝向侧面则为4)作为变量dir的值存储到存储部120。
此外,在后述的触摸输入处理中,控制部110分别基于触摸传感器211H的检测值来取得头部的触摸强度,基于触摸传感器211LF以及触摸传感器211LR的检测值来取得左侧面的触摸强度,基于触摸传感器211RF以及触摸传感器211RR的检测值来取得右侧面的触摸强度,基于陀螺仪传感器213的检测值来取得振动强度。并且,控制部110将所取得的强度分别设为变量touch_Head(头部的触摸强度)、变量touch_Left(左侧面的触摸强度)、变量touch_Right(右侧面的触摸强度)、变量gyro_Level(振动强度)的值,存储到存储部120。
在触摸输入处理中,控制部110将上述那样取得的各种检测值综合,作为触摸特征参数来进行处置。即,触摸特征参数由机器人200的姿势(dir)、头部的触摸强度(touch_Head)、左侧面的触摸强度(touch_Left)、右侧面的触摸强度(touch_Right)、振动强度(gyro_Level)的5维的信息构成。
并且,触摸特征参数在存储部120中以先进先出(FIFO:First In First Out)方式存储历史记录保存数(本实施方式中为256个)。在本实施方式中,将存储触摸特征参数的FIFO称作TFIFO,保存于TFIFO的触摸特征参数的个数是在TFIFO_SIZE这样的变量中保存的个数。即,TFIFO_SIZE的初始值是0,每当存储新的触摸特征参数则各增加1。并且,在增加至历史记录保存数后,TFIFO_SIZE保持历史记录保存数成为固定,每当在TFIFO中存储新的触摸特征参数,则不断将最旧的触摸特征参数从TFIFO删除。TFIFO由于存储触摸特征参数的历史记录,因此,也称作触摸历史记录。
回到图4,麦克风214是检测机器人200的周围的声音的声音取得部。控制部110通过分析麦克风214检测到的声音,能检测例如用户呼唤机器人200、拍手等。
具体地,控制部110对从麦克风214取得的声音数据以规定的采样频率(本实施方式中是16384Hz)以及量子化比特数(本实施方式中是16比特)进行采样,保存到存储部120的声音缓存器125。在本实施方式中,声音缓存器125(声音数据的存放区域)构成为将包含512样本的采样数据的声音副缓存器连续基准个数(本实施方式中是16个)的缓存器,其中,该基准数与解析从麦克风214取得的声音数据、判定该声音数据是否是说话声且该说话声与过去取得的声音相似所需的最小的数据量对应。即,如图5图示那样,将连续的16个声音副缓存器1250作为1个单位来判定与保存于声音历史记录的声音的相似度。
此外,在本实施方式中,将该连续的16个声音副缓存器1250以若是最初(第1个)的声音副缓存器1250则为buf[0]、若是最后(第16个)的声音副缓存器1250则为buf[15]这样的排列变量来表征。通过由这16个声音副缓存器1250构成的声音缓存器125来存放512样本×16个/16384Hz=0.5秒的声音数据。并且,该0.5秒这样的期间与为了解析控制部110从麦克风214取得的声音数据且判定从麦克风214取得的声音是人的声音所需的样本数据的数据量对应。
另外,在本实施方式中,控制部110将从麦克风214取得的声音数据保存到声音缓存器125的处理作为声音缓存器保存线程,和其他处理并行执行(若用户接通机器人200的电源则开始执行声音缓存器保存线程)。在声音缓存器保存线程中,控制部110在对从麦克风214取得的声音数据实施(例如由DSP(Digital Signal Processor,数字信号处理器)进行的)低通滤波器而进行了噪声除去后,以规定的采样频率以及量子化比特数进行采样,并不断保存到声音缓存器125。
此外,在本实施方式中,在后述的声音特征参数算出处理中,控制部110对16个声音副缓存器1250分别进行根据1个声音副缓存器1250中的512样本的采样数据算出3个倒谱信息的处理。控制部110将由此得到的48(=3×16)个数据作为48维的声音特征参数来进行处置。
将该声音特征参数以先进先出(FIFO)方式在存储部120中存储历史记录保存数(例如256个)。在本实施方式中,将存储声音特征参数的FIFO称作VFIFO,保存于VFIFO的声音特征参数的个数设为在VFIFO_SIZE这样的变量中保存的个数。VFIFO由于存储声音特征参数的历史记录,因此也称作声音历史记录。
回到图4,动作部220具备扭转电动机221以及上下电动机222,由控制部110驱动。通过控制部110控制动作部220,机器人200例如能表现将头部204抬起(以第2旋转轴为中心向上方旋转)或向旁边扭转(以第1旋转轴为中心向右方或左方扭转旋转)这样的动作。用于进行这些动作的控制数据(运动数据)记录于存储部120,基于检测到外部刺激、后述的情感数据121、相似度等来控制机器人200的动作。
另外,上述是动作部220的一例。动作部220也可以是车轮、履带等移动手段。此外,机器人200具备手脚、尾巴等构件,动作部220可以活动这些构件(手脚、尾巴等)。通过动作部220的动作,头部204、手脚等构件变更与壳体207的躯干部206的位置关系。
声音输出部230具备扬声器231,通过控制部110将声音数据输入到声音输出部230,来从扬声器231输出声音。例如,通过控制部110将机器人200的鸣啼声的数据输入到声音输出部230,机器人200发出虚拟的鸣啼声。该鸣啼声的数据也作为控制数据(效果音数据)记录在存储部120,基于检测到外部刺激、后述的情感数据121、相似度等来选择鸣啼声。
操作输入部240例如由操作按钮、音量旋钮等构成。操作输入部240是用于接受用户(所有者、被出借人)的操作、例如电源ON/OFF、输出音的音量调整等的接口。另外,机器人200为了提高生物感,作为操作输入部240,仅将电源开关装载于外装201的内侧,也可以具备这以外的操作按钮、音量旋钮等。在该情况下,也能使用经由通信部130而连接的外部的智能手机等来进行机器人200的音量调整等操作。
以上,说明了机器人200的功能结构。接下来,依次说明作为存储于存储部120的数据的、情感数据121、情感变化数据122、成长天数数据123、控制内容表格124、声音缓存器125、声音历史记录126以及触摸历史记录127。
情感数据121是用于使机器人200具有虚拟的情感的数据,是表示情感图表300上的坐标的数据(X,Y)。如图6所示那样,情感图表300以作为X轴311而具有安心度(不安度)的轴、作为Y轴312而具有兴奋度(无精打采度)的轴的2维的坐标系来表征。情感图表上的原点310(0,0)表征通常时的情感。并且,X坐标的值(X值)为正且其绝对值越大,表征安心度越高的情感,Y坐标的值(Y值)为正且其绝对值越大,表征兴奋度越高的情感。此外,X值为负且其绝对值越大,表征不安度越高的情感,Y值为负且其绝对值越大,表征无精打采度越高的情感。另外,在图6中,情感图表300以2维的坐标系来表征,但情感图表300的维数是任意的。
在本实施方式中,如图6的框301所示那样,关于作为情感图表300的初始值的尺寸,不管X值还是Y值,都是最大值成为100,最小值成为-100。并且,在第1期间之间,每当机器人200的虚拟的成长天数增加1天,情感图表300的最大值、最小值都各扩大2。在此,所谓第1期间,是机器人200虚拟地成长的期间,是机器人200的虚拟的诞生起例如50天的期间。另外,所谓机器人200的虚拟的诞生,是机器人200的工厂出厂后的用户的初次的启动时。若成长天数成为25天,则如图6的框302所示那样,不管X值还是Y值都是最大值成为150,最小值成为-150。并且,若经过第1期间(该示例中是50天),则由此机器人200的虚拟的成长完成,如图6的框303所示那样,不管X值还是Y值,都是最大值成为200,最小值成为-200,从而情感图表300的尺寸被固定。
情感变化数据122是设定使情感数据121的X值以及Y值各自增减的变化量的数据。在本实施方式中,作为与情感数据121的X对应的情感变化数据122,有使X值增加的DXP和使X值减少的DXM,作为与情感数据121的Y值对应的情感变化数据122,有使Y值增加的DYP和使Y值减少的DYM。即,情感变化数据122由以下的4个变量构成,是表示使机器人200的虚拟的情感变化的程度的数据。DXP:安心容易度(情感图表中的X值向正方向的变化容易度)DXM:成为不安容易度(情感图表中的向X值的负方向的变化容易度)DYP:兴奋容易度(情感图表中的向Y值的正方向的变化容易度)DYM:成为无精打采容易度(情感图表中的向Y值的负方向的变化容易度)
在本实施方式中,作为一例,将这些变量的初始值均设为10,通过学习后述的动作控制处理中的情感变化数据122的处理,最大增加至20。通过该学习处理,情感变化数据122即情感的变化程度发生变化,因此,机器人200对应于用户与机器人200的交往方式而变得具有各种性格。
成长天数数据123的初始值是1,每当经过1天,则不断各加上1。通过成长天数数据123来表征机器人200的虚拟的成长天数(虚拟的诞生起的天数)。
如图7所示那样,在控制内容表格124中,将控制条件和控制数据对应地存储。控制部110若满足控制条件(例如检测到什么外部刺激),则基于对应的控制数据(用于在动作部220表现动作的运动数据以及用于从声音输出部230输出效果音的效果音数据)来控制动作部220以及声音输出部230。
如图7所示那样,运动数据是控制动作部220的一系列序列数据(“时间(毫秒):上下电动机222的旋转角度(度):扭转电动机221的旋转角度(度)”的排列)。例如,若抚摸了身体,控制部110则控制动作部220,以使得在最初(0秒时),使上下电动机222以及扭转电动机221的旋转角度为0度(上下基准角度以及扭转基准角度),在0.5秒时,抬高头部204,以使上下电动机222的旋转角度成为60度,在1秒时,扭转头部204,以使扭转电动机221的旋转角度成为60度。
此外,在图7中,为了易于理解地示出,效果音数据记载说明各效果音数据的语句,但实际上,是将这些语句中说明的效果音数据自身(所采样的声音的数据)作为效果音数据存放于控制内容表格124。
另外,在图7所示的控制内容表格中,在控制条件中包含情感(以情感图表300上的坐标表征)、与后述的历史记录(声音历史记录126以及触摸历史记录127)的相似度所相关的条件,也可以将这些条件包括在内等,对应于情感、与历史记录的相似度来使控制数据变化。
如上述那样,声音缓存器125是存放对从麦克风214取得的音以规定的采样频率以及量子化比特数采样而得到的数据的区域。在图5中,声音缓存器125由基准个数(16个)的声音副缓存器1250构成,但也可以由基于基准个数以上的声音副缓存器1250的环形缓存器构成。
如上述那样,声音历史记录126是将声音特征参数的历史记录以先进先出方式存储历史记录保存数的量的存储区域(VFIFO)。声音历史记录126由历史记录保存数的要素所构成的环形缓存器构成,旧的数据不断自动被新的数据覆写。
如上述那样,触摸历史记录127是将触摸特征参数的历史记录以先进先出方式存储历史记录保存数的量的存储区域(TFIFO)。触摸历史记录127由历史记录保存数的要素所构成的环形缓存器构成,旧的数据不断自动被新的数据覆写。另外,声音历史记录126的历史记录保存数和触摸历史记录127的历史记录保存数可以不同。
接下来,参照图8所示的流程图来说明动作控制装置100的控制部110所执行的动作控制处理。动作控制处理是控制部110基于来自传感器部210的检测值等控制机器人200的动作(活动、鸣啼声等)的处理。若用户接通机器人200的电源,则与其他所需的处理并行地开始执行该动作控制处理的线程。通过动作控制处理来控制动作部220、声音输出部230,表现机器人200的活动,或输出鸣啼声等效果音。
首先,控制部110对情感数据121、情感变化数据122、成长天数数据123等各种数据进行初始化处理(步骤S101)。本实施方式中所用的各种变量(BigSound_Flag、TalkSound_Flag、Touch_Flag等)也在步骤S101被初始化成OFF或0。
并且,控制部110为了在麦克风214取得来自对象(用户)的外部刺激(声音)而执行麦克风输入处理(步骤S102)。麦克风输入处理的详细之后叙述。
接下来,控制部110为了在触摸传感器211、加速度传感器212取得来自对象(用户)的外部刺激(抚摸、举高等)而执行触摸输入处理(步骤S103)。触摸输入处理的详细之后叙述。
另外,在本实施方式中,为了使说明易于理解,将麦克风输入处理和触摸输入处理说明为分开的处理,但也可以作为1个处理(外部输入处理)来从传感器部210所具备的各种传感器取得外部刺激。
并且,控制部110判定是否在传感器部210取得外部刺激(步骤S104)。例如,通过上述的麦克风输入处理,若检测到大的声音,BigSound_Flag则成为ON,若检测到人的说话声,TalkSound_Flag则成为ON。此外,通过上述的触摸输入处理,若由各种传感器(触摸传感器211、加速度传感器212、陀螺仪传感器213)检测到外部刺激,Touch_Flag则成为ON。因此,控制部110能基于这些标记变量的值来判定步骤S104中的外部刺激的取得的有无。
在判定为取得外部刺激的情况下(步骤S104;是),控制部110对应于麦克风输入处理以及触摸输入处理中取得的外部刺激来取得在情感数据121加上或减去的情感变化数据122(步骤S105)。例如,若作为外部刺激而检测到抚摸了头部204,机器人200则得到虚拟的安心感,因此,控制部110取得DXP,作为与情感数据121的X值相加的情感变化数据122。
并且,控制部110对应于步骤S105中取得的情感变化数据122来设定情感数据121(步骤S106)。例如,若步骤S105中取得DXP作为情感变化数据122,控制部110则在情感数据121的X值上加上情感变化数据122的DXP。其中,在若加上情感变化数据122则情感数据121的值(X值、Y值)超过情感图表300的最大值的情况下,将情感数据121的值设定为情感图表300的最大值。此外,在若减去情感变化数据122则情感数据121的值变得不足情感图表300的最小值的情况下,将情感数据121的值设定为情感图表300的最小值。
在步骤S105以及步骤S106,针对各个外部刺激而取得怎样的情感变化数据122来设定情感数据121,能任意设定,在此,以下示出一例。
抚摸头部204(安心):X=X+DXP
拍打头部204(变得不安):X=X-DXM
(这些外部刺激能用头部204的触摸传感器211H检测)
抚摸躯干部206(兴奋):Y=Y+DYP
拍打躯干部206(变得无精打采):Y=Y-DYM
(这些外部刺激能用躯干部206的触摸传感器211检测)
将头向上并抱住(喜悦):X=X+DXP以及Y=Y+DYP
将头向下并悬空(悲伤):X=X-DXM以及Y=Y-DYM
(这些外部刺激能用触摸传感器211以及加速度传感器212检测)
以温柔的声音呼唤(变得平稳):X=X+DXP以及Y=Y-DYM
以大的声音斥责(焦躁):X=X-DXM以及Y=Y+DYP
(这些外部刺激能用麦克风214检测)
并且,控制部110参照控制内容表格124,取得与通过步骤S102以及步骤S103中取得的外部刺激而得以满足的控制条件对应的控制数据(步骤S107)。
并且,控制部110启动控制数据再现线程,并再现步骤S107中取得的控制数据(步骤S108)。控制数据再现线程是仅再现控制数据的(基于运动数据来控制动作部220,基于效果音数据来从声音输出部230输出声音)的线程,但通过在与动作控制处理不同的线程中执行,在机器人200基于控制数据而动作时也并行地推进动作控制处理。
并且,控制部110将标记变量(BigSound_Flag、TalkSound_Flag、Touch_Flag)设定为OFF(步骤S109),前进到步骤S112。
另一方面,在判定为未取得外部刺激的情况下(步骤S104;否),控制部110判定是否进行呼吸动作等自发的动作,其中该呼吸动作通过进行以某固定的节奏周期性地驱动动作部220而使机器人200看起来是在进行呼吸(步骤S110)。是否进行自发的动作的判定方法是任意的,在本实施方式中,在每呼吸周期(例如2秒),步骤S1 10中的判定成为“是”,进行呼吸动作。
在判定为进行自发的动作的情况下(步骤S110;是),控制部110执行自发的动作(例如呼吸动作)(步骤S1 1 1),前进到步骤S1 12。
在判定为不进行自发的动作的情况下(步骤S1 1 0;否),控制部110判定是否通过内置的时钟功能改变日期(步骤S112)。在判定为不改变日期的情况下(步骤S112;否)。控制部110回到步骤S102。
另一方面,在判定为改变日期的情况下(步骤S1 12;是),控制部110判定是否是第1期间中(步骤S1 13)。若将第1期间设为从机器人200的虚拟的诞生(例如购入后的用户的初次的启动时)起例如50天的期间,则若成长天数数据123为50以下,控制部110则判定为是第1期间中。是判定为不是第1期间中的情况下(步骤S1 13;否),控制部110前进到步骤S116。
在判定为是第1期间中的情况下(步骤S1 13;是),控制部110执行情感变化数据122的学习处理(步骤S1 14)。所谓情感变化数据122的学习处理,具体是如下处理:在该天的步骤S106中,若情感数据121的值哪怕1次达到情感图表300的最大值或最小值,则使对应的情感变化数据122增加。例如,若情感数据121的X值哪怕1次被设定为情感图表300的最大值,则在情感变化数据122的DXP上加上1,若Y值哪怕1次被设定为情感图表300的最大值,则在DYP上加上1,若X值哪怕1次被设定为情感图表300的最小值,则在DXM上加上1,若Y值哪怕1次被设定为情感图表300的最小值,则在DYM上加上1。其中,由于若情感变化数据122的各值变得过大,则情感数据121的1次的变化量则变得过大,因此,情感变化数据122的各值例如将20作为最大值,不超过其地进行增加。
并且,控制部110扩大情感图表(步骤S115)。所谓情感图表的扩大,具体地,是控制部110使情感图表300将最大值、最小值都仅扩大2的处理。其中,该扩大的数值“2”只是一例,也可以扩大3以上,还可以仅扩大1。此外,在情感图表300的每个轴、此外最大值和最小值,扩大的数值也可以不同。
并且,控制部110在成长天数数据123上加上1(步骤S116),使情感数据121将X值、Y值都初始化成0(步骤S117),回到步骤S102。
接下来,参照图9来说明动作控制处理(图8)的步骤S102中执行的麦克风输入处理。
首先,控制部110将存放于声音缓存器125的最初的声音副缓存器1250即buf[0]的采样数据的最大等级代入变量ML(步骤S201)。然后,控制部110判定变量ML的值是否比BigSoundTh大(步骤S202)。另外,BigSoundTh是针对比其大的声音而机器人200进行吃惊的动作的值(大声音阈值)。在判定为变量ML比BigSoundTh大的情况下(步骤S202;是),控制部110使表示输入了大的声音的变量BigSound_Flag成为ON(步骤S203),结束麦克风输入处理,前进到动作控制处理的步骤S103。
另一方面,在判定为变量ML并不比BigSoundTh大的情况下(步骤S202;否),控制部110判定变量ML的值是否比TalkSoundTh大。另外,TalkSoundTh是若为这以下的声音则机器人200不能作为说话声而听到的值(说话声阈值)。在判定为变量ML不比TalkSoundTh大的情况下(步骤S204;否),控制部110结束麦克风输入处理,前进到动作控制处理的步骤S103。
另一方面,在判定为变量ML比TalkSoundTh大的情况下(步骤S204;是),控制部110使动作部220的扭转电动机221以及上下电动机222临时停止(步骤S205)。由此,由于控制数据再现线程中控制的动作部220的动作临时停止,因此,不再产生通过动作部220的动作而产生的噪声。
然后,控制部110判定保存声音数据的声音副缓存器1250的数量是否不足基准数(这里是buf[0]~buf[15]的16个)(步骤S206)。在判定为保存声音数据的声音副缓存器1250的数量不足基准数的情况下(步骤S206;是),控制部110回到步骤S206,直到达到基准个数为止,都对在声音副缓存器1250保存声音数据进行待机。
另外,由于通过声音缓存器保存线程,在声音缓存器125中逐次保存声音数据,因此,通过在麦克风输入处理中进行待机,保存(最迟也则是与基准个数的16个量的声音副缓存器1250的全尺寸对应的0.5秒后)声音数据的声音副缓存器1250的数量总归会达到基准个数。
另一方面,在判定为保存声音数据的声音副缓存器1250的数量达到基准数的情况下(步骤S206;否),控制部110使动作部220的扭转电动机221以及上下电动机222的动作再次开始(步骤S207)。由此,由于在控制数据再现线程中控制的动作部220的动作再次开始,因此,动作部220临时停止的时间最长也成为0.5秒以下,不会使用户感到机器人200的活动的不自然。
然后,控制部110进行声音特征参数算出处理(步骤S208)。声音特征参数算出处理的详细之后叙述。
然后,控制部110判定保存于基准个数的声音副缓存器1250的声音是否是噪声(步骤S209)。作为是否是噪声的判定方法,能运用任意的方法,但在本实施方式中,使用以下的3个噪声判定方法(第1、第2以及第3噪声判定方法)。
首先,在第1噪声判定方法中,控制部110首先对基准个数声音副缓存器1250当中的先头部(buf[0])起的给定数的缓存器(例如3个声音缓存器即buf[0]、buf[1]以及buf[2])调查保存有各自中保存的声音数据当中的最大等级比TalkSoundTh大的声音数据的声音副缓存器1250的数量。然后,在保存有最大等级为TalkSoundTh以下的声音数据的声音副缓存器1250存在哪怕1个的情况下,控制部110将保存基准个数的声音副缓存器1250的声音数据全都判定为是噪声。
在第2噪声判定方法中,控制部110对基准个数声音副缓存器1250计数声音数据的峰值成为TalkSoundTh以上的声音副缓存器1250是基准个数中的几个,若为给定个数(例如5个)以下,则判定为保存基准个数的声音副缓存器1250的声音数据全都是噪声。
在第3噪声判定方法中,控制部110首先将基准个数声音副缓存器1250的声音数据汇总对于给定时间(例如0.5秒)量的声音数据确认频率分量。另外,由于在上述的声音特征参数算出处理中,该频率分量算出完毕,因此,控制部110确认算出完毕的频率分量即可。并且,在频率分量从低频段到高频段均匀的情况下、低频段比高频段小的情况下,判定为保存基准个数的声音副缓存器1250的声音数据全都是噪声。
在上述的噪声判定方法的哪一者中,都是在控制部110判定为保存于基准个数声音副缓存器1250的声音数据是噪声的情况下(步骤S209;是),控制部110无视当前的保存于基准个数声音副缓存器1250的声音数据(即,判断为不存在声音的外部刺激),结束麦克风输入处理,前进到动作控制处理的步骤S103。
另一方面,在上述的噪声判定方法的全部中,在控制部110判定为保存于基准个数声音副缓存器1250的声音不是噪声的情况下(步骤S209;否),控制部110判断为采样数据是说话声,在表示输入了说话声的变量TalkSound_Flag代入ON(步骤S210)。
接下来,控制部110比较声音特征参数算出处理中算出的声音特征参数和声音历史记录126,取得与过去的声音的相似度(步骤S211)。
然后,控制部110将步骤S208中算出的声音特征参数保存到声音历史记录126(VFIFO)(步骤S212),结束麦克风输入处理,并前进到动作控制处理的步骤S103。
另外,在图9中,也可以将声音特征参数算出处理(步骤S208)和噪声判定(步骤S209)交换顺序,仅在判定为不是噪声的情况下(步骤S209;否)前进到声音特征参数算出处理。在该情况下,在声音特征参数算出处理中也能利用第3噪声判定方法中算出的频率分量的信息。
接下来,参照图10来说明麦克风输入处理(图9)的步骤S208中执行的声音特征参数算出处理。另外,在此,将声音副缓存器1250的基准数说明为16。
首先,控制部110将用于指定作为排列变量的声音副缓存器1250的各要素(buf[0]~buf[15])的变量i初始化成0(步骤S231)。然后,控制部110判定变量i是否是16以上(步骤S232)。在判定为变量i是16以上的情况下(步骤S232;是),控制部110结束声音特征参数算出处理,前进到麦克风输入处理的步骤S209。
另一方面,在判定为变量i不足16的情况下(步骤S232;否),控制部110对buf[i]中所含的512样本进行高速傅立叶变换(FFT:Fast Fourier Transform)(步骤S233)。然后,控制部110算出通过FFT得到的最初的256个振幅分量(声音数据的频率谱)(步骤S234)。在此,若将振幅分量存放到变量α[0]~α[255],控制部110则计算α[n]=√(第n个实数分量的平方+第n个虚数分量的平方)(其中n是0~255)。
接下来,控制部110算出256个振幅分量各自的自然对数(步骤S235)。在此,若将自然对数存放到变量β[0]~β[255],控制部110则计算β[n]=ln(α[n])(其中n是0~255)。
接下来,控制部110对算出的256个自然对数再度进行FFT(步骤S236)。然后,控制部110算出从通过FFT得到的分量当中最初的分量除去直流分量(最初的第1个)的基准个数(本实施方式中是3个)分量的振幅分量(步骤S237)。在此,由于得到倒谱,因此,若将其存放到变量Cps[0]~Cps[2]中,则控制部110计算Cps[n-1]=√(第n个实数分量的平方+第n个虚数分量的平方)(其中n是1~3)。
接下来,控制部110将算出的3个倒谱作为声音特征参数进行保存(步骤S238)。在此,若将声音特征参数存放在排列变量VF[i,n]中,控制部110则执行VF[i,n]=Cps[n](其中n是0~2)。然后,控制部110在变量i上加上1(步骤S239),回到步骤S232。
通过以上的声音特征参数算出处理,能得到具有16×3=48个要素的声音特征参数(VF[0,0]~VF[15,2])。由于该声音特征参数如上述那样由从低的频率除去直流分量的3个分量的倒谱构成,因此,成为则算能根据短时间(0.5秒)的声音数据算出、识别人的差异的能力也高的特征量。
接下来,参照图11来说明动作控制处理(图8)的步骤S103中执行的触摸输入处理。
首先,控制部110从触摸传感器211、加速度传感器212、陀螺仪传感器213取得这些各传感器中检测到的检测值(步骤S301)。然后,控制部110基于检测值来判定在触摸传感器211中是否探测到触摸,或者加速度传感器212中检测到的加速度是否发生变化,或者陀螺仪传感器中检测到的角速度是否发生变化(步骤S302)。
若有触摸、加速度变化或角速度变化(步骤S302;是),控制部110则使变量Touch_Flag为ON(步骤S303),算出触摸特征参数(步骤S304)。如上述那样,触摸特征参数由机器人200的姿势(dir)、头部的触摸强度(touch_Head)、左侧面的触摸强度(touch_Left)、右侧面的触摸强度(touch_Right)、振动强度(gyro_Level)的5维的信息构成。
然后,控制部110比较步骤S304中算出的触摸特征参数和触摸历史记录127,来取得与过去的传感器信息的相似度(步骤S305)。
然后,控制部110将步骤S304中算出的触摸特征参数以先进先出方式保存到触摸历史记录127(TFIFO)(步骤S306)。然后,控制部110结束触摸输入处理,并前进到动作控制处理的步骤S104。
通过以上说明的动作控制处理,控制部110取得作用于机器人200(被控制装置)的外部刺激,进行与外部刺激相应的动作。然后,通过麦克风输入处理,控制部110在判定为麦克风214中取得了说话声的情况下,使动作部220的动作临时停止,由此减少噪声的影响。
由于机器人200被外装201(毛皮)覆盖,因此,若通过动作部220而头部204活动,则外装201也活动。因此,在动作部220正动作之间,麦克风214不仅易于拾取(动作部220的动作所引起的)电动机声,还易于拾取外装201摩擦的声音。在本实施方式中,由于若开始取得人的说话声,则控制部110使动作部220的动作临时停止,因此,不仅能防止电动机声的产生,还能防止外装201摩擦的声音的产生,更能减少误识别声音的可能性。
此外,在本实施方式中,由于能根据0.5秒的长度的声音数据算出声音特征参数,因此,能将使动作部220临时停止的给定期间抑制在0.5秒以下。因此,能减轻声音的取得处理与动作部的动作处理的竞争导致的相互的影响,能防止机器人200的活动看起来不自然。
(变形例)
另外,本发明并不限定于上述的实施方式,能进行各种变形以及应用。
例如,在上述的实施方式中,在麦克风输入处理(图9)的步骤S209中判定为不是噪声的情况下,判定为由麦克风214取得的声音(存放于声音缓存器125的声音数据)是人的声音,但判定为是人的声音的基准并不限定于此。也可以若(在麦克风输入处理(图9)的步骤S204中)声音副缓存器的最大等级比说话声阈值大,控制部110则判定为麦克风214中取得的声音是人的声音。此外,控制部110可以基于(在麦克风输入处理(图9)的步骤S208中)算出的声音特征参数的值来判定麦克风214中取得的声音是否是人的声音。
此外,控制部110也可以在与麦克风输入处理中取得的声音历史记录126的相似度为给定的值以上的情况下,判断为与发出声音的用户的亲密度高(饲养者、总是照顾自己的人),控制动作部220,以使得进行表征亲密程度的特别的动作,或者使得从声音输出部230输出表征亲密程度的特别的鸣啼声。同样地,控制部110也可以在与触摸输入处理中取得的触摸历史记录127的相似度为给定的值以上的情况下,判断为与对自己进行抚摸或拥抱的用户的亲密度高,进行表征亲密程度的特别的动作,或发出鸣啼声(例如参照日本特愿2021-158663号、日本特愿2022-187973号)。
此外,控制部110也可以将根据特定的用户所发出的声音而算出的声音特征参数登记到存储部120中,作为登记声音参数,在麦克风输入处理中,通过将声音特征参数与登记声音参数进行比较,能识别发出声音的用户是否是特定的用户(例如参照特愿2021-158663号)。
此外,在上述的实施方式中,若判定为麦克风214中取得的声音是人的声音,控制部110始终使动作部220临时停止,但是否使动作部220临时停止,也可以根据给定的条件来进行。例如,在情感数据121的Y值为正且超过给定的阈值的情况下(机器人200兴奋的情况),可以即使判定为麦克风214中取得的声音是人的声音,控制部110也不使动作部220临时停止。通过如此进行控制,在机器人200兴奋的情况下,能模仿是无法冷静下来听到人的声音(由于电动机持续活动,因此,有声音的误识别增加的可能性)的状态。
此外,在上述的实施方式中,设为在机器人200中内置控制机器人200的动作控制装置100的结构,但控制机器人200的动作控制装置100不一定非要内置于机器人200。例如,也可以动作控制装置100构成为与机器人200分开的装置,与动作控制装置100的控制部110以及通信部130分开地,机器人200还具备控制部250以及通信部260。在该情况下,构成为通信部260和通信部130能相互收发数据,控制部110经由通信部130以及通信部260取得传感器部210检测到外部刺激,或控制动作部220、声音输出部230。
在上述的实施方式中,控制部110的CPU所执行的动作程序说明为预先存储于存储部120的ROM等中。但本发明并不限定于此,也可以通过将用于使上述的各种处理执行的动作程序安装于已有的通用计算机等,作为与上述的实施方式所涉及的动作控制装置100相当的装置发挥功能。
这样的程序的提供方法是任意的,例如可以存放于计算机可读的记录介质(软盘、CD(Compact Disc,光盘)-ROM、DVD(Digital Versatile Disc,数字多功能盘)-ROM、MO(Magneto-Optical Disc,光磁盘)、存储卡、USB存储器等)进行分发,也可以在因特网等网络上的存贮器中存放程序,通过将其下载来提供。
此外,在通过OS(Operating System,操作系统)与应用程序的分担、或OS与应用程序的共同工作来执行上述的处理的情况下,可以仅将应用程序存放于记录介质、存贮器。此外,还能在载波中叠加程序,经由网络发布。例如,也可以在网络上的公告栏(BulletinBoard System:BBS)公告上述程序,经由网络来发布程序。并且,也可以构成为能通过将该程序启动,在OS的控制下与其他应用程序同样地执行,来执行上述的处理。
此外,控制部11除了可以由单处理器、多处理器、多核处理器等任意的处理器单体构成以外,也可以组合这些任意的处理器和ASIC(Application Specific IntegratedCircuit,特定用途集成电路)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)等处理电路来构成。
本发明能不脱离本发明的广义的精神和范围地进行各种实施方式以及变形。此外,前述的实施方式是用于说明本发明,并不限定本发明的范围。即,本发明的范围不是由实施方式而是由权利要求书示出。并且,在权利要求书内以及与其等同的发明的意义的范围内实施的各种变形也视作该发明的范围内。

Claims (9)

1.一种动作控制装置,其特征在于,
具备声音取得部、动作部和控制部,
所述控制部执行如下处理:
进行控制,以使得若在所述动作部动作中判定为由所述声音取得部取得的声音是人的声音,则使所述动作部停止,取入给定期间的所述判定后的声音,在经过所述给定期间后,再次开始所述动作部的动作。
2.根据权利要求1所述的动作控制装置,其特征在于,
所述动作控制装置还具备:具有多个存储区域的存储部,
所述控制部执行如下处理:
若将与由所述声音取得部取得的声音对应的声音数据存储到所述多个存储区域的一部分,则根据所述存储的声音数据来判定所述声音是否是人的声音,
进行控制,以使得若判定为所述声音是人的声音,则使所述动作部停止,使与持续取得的所述给定期间的声音对应的声音数据依次存储到所述多个存储区域。
3.根据权利要求2所述的动作控制装置,其特征在于,
所述控制部执行如下处理:
通过对依次存储到所述多个存储区域的声音数据进行解析,来识别发出所述声音的对象。
4.根据权利要求2所述的动作控制装置,其特征在于,
所述控制部执行如下处理:
算出依次存储到所述多个存储区域的声音数据的倒谱,
基于所述算出的倒谱的相似度来识别发出所述声音的对象。
5.根据权利要求1所述的动作控制装置,其特征在于,
所述动作控制装置具备:壳体;和通过所述动作部的动作来变更与所述壳体的位置关系的构件,
所述声音取得部设于所述壳体表面的适合外部环境音的取得的位置,
所述动作部设于所述壳体的内部。
6.根据权利要求1所述的动作控制装置,其特征在于,
所述声音取得部具备:具有难以取得来自所述动作部的声音的指向性的麦克风。
7.根据权利要求1~5中任一项所述的动作控制装置,其特征在于,
所述给定期间与为了所述控制部对从所述声音取得部取得的声音数据进行解析而判定为所述取得的声音是人的声音所需的样本数据的数据量对应。
8.一种动作控制方法,其特征在于,
具备声音取得部、动作部和控制部的动作控制装置的所述控制部执行如下处理:
进行控制,以使得若在所述动作部动作中判定为由所述声音取得部取得的声音是人的声音,则使所述动作部停止,取入给定期间的所述判定后的声音,在经过所述给定期间后,再次开始所述动作部的动作。
9.一种非暂时性的计算机可读取的记录介质,其特征在于,存储有程序,该程序使具备声音取得部和动作部的动作控制装置的计算机执行如下处理:
进行控制,以使得若在所述动作部动作中判定为由所述声音取得部取得的声音是人的声音,则使所述动作部停止,取入给定期间的所述判定后的声音,在经过所述给定期间后,再次开始所述动作部的动作。
CN202311787455.8A 2023-01-05 2023-12-22 动作控制装置、动作控制方法以及记录介质 Pending CN118288314A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2023-000364 2023-01-05
JP2023000364A JP2024097123A (ja) 2023-01-05 2023-01-05 動作制御装置、動作制御方法、及び、プログラム

Publications (1)

Publication Number Publication Date
CN118288314A true CN118288314A (zh) 2024-07-05

Family

ID=91684750

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311787455.8A Pending CN118288314A (zh) 2023-01-05 2023-12-22 动作控制装置、动作控制方法以及记录介质

Country Status (3)

Country Link
US (1) US20240231373A1 (zh)
JP (1) JP2024097123A (zh)
CN (1) CN118288314A (zh)

Also Published As

Publication number Publication date
US20240231373A1 (en) 2024-07-11
JP2024097123A (ja) 2024-07-18

Similar Documents

Publication Publication Date Title
JP7320239B2 (ja) 音源の方向を認識するロボット
AU2005210778B2 (en) Gesture control system
JP4250340B2 (ja) 仮想ペット装置及びその制御プログラム記録媒体
CN111475206B (zh) 用于唤醒可穿戴设备的方法及装置
JP3273550B2 (ja) 自動応答玩具
JP7081619B2 (ja) 機器の制御装置、機器、機器の制御方法及びプログラム
CN111191765A (zh) 一种情绪信息的处理方法及装置
CN107146625B (zh) 一种语音识别的方法、终端及存储介质
JP2023024848A (ja) ロボット、制御方法及びプログラム
KR20160065378A (ko) 애견 감정 표현 장치
CN118288314A (zh) 动作控制装置、动作控制方法以及记录介质
JP2023115370A (ja) ロボット、制御方法及びプログラム
JP2023099625A (ja) 機器の制御装置、機器の制御方法及びプログラム
JP4250635B2 (ja) 仮想ペット装置及びその制御プログラム記録媒体
US20240173636A1 (en) Action control device, action control method, and recording medium
JP2023049116A (ja) ロボット、ロボット制御方法及びプログラム
JP7287411B2 (ja) 機器の制御装置、機器の制御方法及びプログラム
US20240190000A1 (en) Action control device, action control method, and recording medium
JP7574894B2 (ja) 機器の電源制御装置、機器の制御方法及びプログラム
EP4342558A1 (en) Apparatus, control method for apparatus, and program
US20240100709A1 (en) Robot, robot control method and recording medium
US20240367065A1 (en) Autonomous mobile body, information processing method, and program
JP5602753B2 (ja) 懐く挙動を示す玩具
JP2024159597A (ja) 電子機器

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination