JP7205533B2 - 情報処理装置及び情報処理方法、並びにロボット装置 - Google Patents

情報処理装置及び情報処理方法、並びにロボット装置 Download PDF

Info

Publication number
JP7205533B2
JP7205533B2 JP2020507366A JP2020507366A JP7205533B2 JP 7205533 B2 JP7205533 B2 JP 7205533B2 JP 2020507366 A JP2020507366 A JP 2020507366A JP 2020507366 A JP2020507366 A JP 2020507366A JP 7205533 B2 JP7205533 B2 JP 7205533B2
Authority
JP
Japan
Prior art keywords
user
unit
data
classifier
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020507366A
Other languages
English (en)
Other versions
JPWO2019181144A1 (ja
Inventor
浩明 小川
典子 戸塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2019181144A1 publication Critical patent/JPWO2019181144A1/ja
Application granted granted Critical
Publication of JP7205533B2 publication Critical patent/JP7205533B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/04Training, enrolment or model building
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/06Decision making techniques; Pattern matching strategies

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Medical Informatics (AREA)
  • Manipulator (AREA)
  • Toys (AREA)
  • Image Analysis (AREA)

Description

本明細書で開示する技術は、ユーザ識別などに使用する情報を処理する情報処理装置及び情報処理方法、並びにロボット装置に関する。
ロボットとのインタラクションにおいて、ロボットがユーザを識別することで、ユーザ毎に異なる振る舞いを行うことができる。例えば、ペット型ロボットであれば、飼い主として登録されたユーザに対しては近づくが、知らないユーザであれば番犬のように吠えるなどの行動を起こすことができる。また、ユーザとの対話を解析してユーザに固有の情報を取得し、ユーザに固有の情報と固有でない情報を用いて対話内容を生成する対話システムについても提案がなされている(例えば、特許文献1を参照のこと)。ロボットを始めとする対話システムにおいて、ユーザを識別する機能は、ユーザに適合したサービスを提供する上で極めて重要である。
ユーザの顔や声の情報を用いたユーザ識別技術が広く用いられている。あらかじめユーザの顔や声の情報を学習しておき、ロボットが検出した顔や声と学習したデータとの類似性を計算して、既知のユーザであるかどうか、どのユーザであるかを判別することができる。
ユーザの顔や音声などの学習データは、ユーザの成長や老化などに伴って変化する。あらかじめ学習したユーザの顔や声の情報が古くなると、ユーザの識別性能が劣化することが知られている。例えば、声の情報を用いて識別を行う場合、数カ月程度の期間でも識別性能に影響を与える。したがって、識別性能を維持するためには、常に新鮮なユーザの顔や声のデータを学習する必要がある。
ロボットが顔や声を学習する作業は、ユーザに特定の発話や姿勢を強いることになり、ユーザにとって負担になる。そのため、しりとりや早口言葉などのゲームによってユーザの発話を促し、学習のための前処理をユーザに意識させることなく学習に必要な音声データを収集する音声認識装置について提案がなされている(例えば、特許文献2を参照のこと)。
特開2017-62602号公報 特開2017-3611号公報
本明細書で開示する技術の目的は、ユーザ識別に用いる情報を効率的に収集する情報処理装置及び情報処理方法、並びにロボット装置を提供することにある。
本明細書で開示する技術は、上記課題を参酌してなされたものであり、その第1の側面は、識別器により識別したオブジェクトに対して自発的に行動するデバイスに関する処理を行う情報処理装置であって、
前記識別器の状態を取得する取得部と、
前記状態に基づいて前記デバイスの行動を決定する決定部と、
を具備する情報処理装置である。
前記識別器は、例えば、ユーザの音声データから話者を識別する話者識別器とユーザの顔画像を識別する顔識別器を含む。また、前記決定部は、音声データが不足しているユーザから音声データを収集するための前記デバイスの行動を決定し、顔画像データが不足しているユーザの顔画像データを収集するための前記デバイスの行動を決定する。
また、本明細書で開示する技術の第2の側面は、識別器により識別したオブジェクトに対して自発的に行動するデバイスに関する処理を行う情報処理方法であって、
前記識別器の状態を取得する取得ステップと、
前記状態に基づいて前記デバイスの行動を決定する決定ステップと、
を有する情報処理方法である。
また、本明細書で開示する技術の第3の側面は、
センサ部と、
前記センサ部の出力に基づいてオブジェクトを識別する識別部と、
駆動部と、
前記識別部の状態に基づいて、前記駆動部を用いた行動を決定する決定部と、
を具備するロボット装置である。
本明細書で開示する技術によれば、ユーザの負担感が少ない状態で、ユーザ識別などに用いる情報を効率的に収集することができる情報処理装置及び情報処理方法、並びにロボット装置を提供することができる。
なお、本明細書に記載された効果は、あくまでも例示であり、本発明の効果はこれに限定されるものではない。また、本発明が、上記の効果以外に、さらに付加的な効果を奏する場合もある。
本明細書で開示する技術のさらに他の目的、特徴や利点は、後述する実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
図1は、脚式ロボット1の外装の斜視図である。 図2は、脚式ロボット1の外装の内部の構成を示した図である。 図3は、脚式ロボット1の外装の内部の構成を示した図である。 図4は、脚式ロボット1の軸構成を模式的に示した図である。 図5は、脚式ロボット1のアクチュエータとその制御系統などの構成例を示した図である。 図6は、脚式ロボット1の電気系統の内部構成例を示したブロック図である。 図7は、メイン制御部61の機能的構成例を示したブロック図である。 図8は、音声認識部101Aの機能的構成を示したブロック図である。 図9は、行動決定機構部103が脚式ロボット1の次の行動を決定するための処理手順を示したフローチャートである。 図10は、脚式ロボット1の状態遷移図の一例を示した図である。 図11は、識別性能の低下原因に応じて追加したユーザ識別用のデータの取り扱いを制御するように構成された行動決定機構部103の機能的構成を示したブロック図である。 図12は、識別性能の低下原因に応じて追加したユーザ識別用のデータの取り扱いを行うための処理手順を示したフローチャートである。
以下、図面を参照しながら本明細書で開示する技術の実施形態について詳細に説明する。
顔や声など、ユーザの識別に用いる情報は、単に新しさだけでなく、バリエーションも必要である。例えば、ユーザの正面向きと右向きの顔の情報しかなければ、左向きの顔を検出してユーザ識別を行うのは困難若しくは識別性能が低下する。また、ユーザが発話した「あ」と「い」の音声情報しかなければ、「う」という声しか検出できないときにユーザ識別を行うのは困難若しくは識別性能が低下する。
明示的に不足している情報を収集するためのユーザに動作又は行動を促すことは可能である。例えば、ロボットは、ユーザの左向きの顔の情報が不足しているときに、「左を向いてください」とユーザに指示して、ユーザの左向きの顔の情報を収集したり、「う」というユーザ発話が不足しているときに、「こちらに向かって「う」と発音してください」とユーザに指示して、ユーザの「う」を含む声を収集したりすることができる。しかしながら、ユーザはロボット側の指示に従う必要があり、ユーザの負担感が増してしまう。
一方、ユーザの普段の音声や顔の画像を収集し続けると、高い識別性能を維持するのに十分な情報を収集できる可能性はあるが、ある程度以上の識別性能を実現するための情報収集に長時間を要してしまう。また、十分な情報を収集できるまでの間は、識別性能が低いままになる。
そこで、本明細書では、ユーザの負担感が少ない状態で、ユーザ識別に用いる情報を効率的に収集することができる情報処理装置及び情報処理方法、並びにロボット装置について、以下で提案する。
図1には、本明細書で開示する技術を適用することが可能な、脚式ロボット1の外装の斜視図を示している。
脚式ロボット1は、人の住環境やその他の日常生活上のさまざまな場所を自在に移動して、人的活動を支援することができる。また、脚式ロボット1は、内部状態(怒り、悲しみ、喜び、楽しみなど)に応じて自律的に行動することができ、さらに人間が行なう基本的な動作を表出することができる。
図示の脚式ロボット1の外装は、幹部外装ユニット2の所定の位置に頭部外装ユニット3が連結されるとともに、左右2つの腕部外装ユニット4R/L(Right/Left:右腕/左腕)と、左右2つの脚部外装ユニット5R/Lが連結されて構成されている。
図2及び図3には、脚式ロボット1の外装の内部の構成を示している。但し、図2は脚式ロボット1の内部を正面方向から眺めた斜視図であり、図3は脚式ロボット1の内部を背面方向から眺めた斜視図である。また、図4には、脚式ロボット1の軸構成を模式的に示している。図4中に描かれた各円柱は関節機構に相当し、円柱の軸回りに回転可能な関節自由度を備えることを表している。以下、図2乃至図4を参照しながら、脚式ロボット1の内部構成について説明しておく。
脚式ロボット1は、胴体部ユニット11の上部に頭部ユニット12が配設される。また、胴体部ユニット11の上部左右に、同様の構成を有する腕部ユニット13A及び13Bが所定位置にそれぞれ取り付けられている。また、胴体部ユニット11の下部左右に、同様の構成を有する脚部ユニット14A及び14Bが所定位置にそれぞれ取り付けられている。頭部ユニット12には、タッチセンサ51と表示部55が設けられている。
胴体部ユニット11は、体幹上部を形成するフレーム21と、体幹下部を形成する腰ベース22が、腰関節機構23を介して連結することにより構成されている。体幹下部の腰ベース22に固定された腰関節機構23のアクチュエータA1を駆動することにより、体幹上部を体幹下部に対しロール軸24回りに回転させることができる。また、腰関節機構23のアクチュエータA2を駆動することによって、体幹上部を体幹下部に対しピッチ軸25の回りに回転させることができる。なお、アクチュエータA1とアクチュエータA2は、それぞれ独立して駆動することができるものとする。
頭部ユニット12は、フレーム21の上端に固定された肩ベース26の上面中央部に首関節機構27を介して取り付けられている。首関節機構27のアクチュエータA3を駆動することによって、頭部ユニット12をフレーム21(体幹上部)に対しピッチ軸28回りに回転させることができる。また、首関節機構27のアクチュエータA4を駆動することによって、頭部ユニット12をフレーム21(体幹上部)に対しヨー軸29の回りに回転させることができるようになされている。なお、アクチュエータA3とアクチュエータA4は、それぞれ独立して駆動することができるものとする。
腕部ユニット13A及び13Bは、肩関節機構30を介して、肩ベース26の左右にそれぞれ取り付けられている。肩関節機構30のアクチュエータA5を駆動することによって、肩ベース26に対して腕部ユニット13Aをピッチ軸31回りに回転させることができる。また、肩関節機構30のアクチュエータA6を駆動することによって、肩ベース26に対して腕部ユニット13Aをロール軸32の回りに回転させることができる。腕部ユニット13Bについても同様である。なお、アクチュエータA5とアクチュエータA6は、それぞれ独立して駆動することができるものとする。
腕部ユニット13A及び13Bは、上腕部を形成するアクチュエータA7と、アクチュエータA7の出力軸に肘関節機構33を介して連結された、前腕部を形成するアクチュエータA8と、前腕部の先端に取り付けられた手部34により構成されている。
腕部ユニット13Aにおいて、上腕部のアクチュエータA7を駆動することによって、上腕部に対して前腕部をヨー軸35回りに回転させることができる。また、前腕部のアクチュエータA8を駆動させることによって、上腕部に対して前腕部をピッチ軸36回りに回転させることができる。腕部ユニット13Bについても同様である。なお、アクチュエータA7とアクチュエータA8は、それぞれ独立して駆動することができるものとする。
脚部ユニット14A及び14Bは、股関節機構37を介して、体幹下部の腰ベース22にそれぞれ取り付けられている。股関節機構37のアクチュエータA9乃至A11をそれぞれ駆動することによって、腰ベース22に対して脚部ユニット14Aをヨー軸38、ロール軸39、及びピッチ軸40回りに回転させることができる。脚部ユニット14Bについても同様である。なお、アクチュエータA9乃至A11は、それぞれ独立して駆動することができるものとする。
脚部ユニット14A及び14Bは、大腿部を形成するフレーム41と、フレーム41の下端に膝関節機構42を介して連結された、下腿部を形成するフレーム43と、フレーム43の下端に足首関節機構44を介して連結された足部45により構成されている。
脚部ユニット14Aにおいて、膝関節機構42を形成するアクチュエータA12を駆動することによって、大腿部のフレーム41に対して下腿部のフレーム43をピッチ軸46回りに回転させることができる。また、足首関節機構44のアクチュエータA13及びA14をそれぞれ駆動することによって、下腿部のフレーム43に対して足部45をピッチ軸47及びロール軸48回りに回転させることができる。脚部ユニット14Bについても同様である。なお、アクチュエータA12乃至A14は、それぞれ独立して駆動することができるものとする。
また、胴体部ユニット11の体幹下部を形成する腰ベース22の背面側には、制御ユニット52が配設されている。この制御ユニット52は、後述するメイン制御部61や周辺回路62(いずれも図5を参照のこと)などを内蔵したボックスである。
図5には、脚式ロボット1のアクチュエータとその制御系統などの構成例を示している。
制御ユニット52には、脚式ロボット1全体の動作を統括的に制御するメイン制御部61と、電源回路及び通信回路などからなる周辺回路62と、バッテリ74(図6を参照のこと)などが収納されている
制御ユニット52には、各構成ユニット(胴体部ユニット11、頭部ユニット12、腕部ユニット13A及び13B、並びに、脚部ユニット14A及び14B)内にそれぞれ配設されたサブ制御部63A乃至63Dと接続されている。そして、制御ユニット52は、これらサブ制御部63A乃至63Dに対して必要な電源電圧を供給したり、サブ制御部63A乃至63Dと通信を行ったりする。
また、サブ制御部63A乃至63Dは、対応する構成ユニット11乃至14内のアクチュエータA1乃至A14とそれぞれ接続されている。そして、サブ制御部63A乃至63Dは、メイン制御部61から供給された各種制御コマンドに基づいて、それぞれ対応する構成ユニット11乃至14内のアクチュエータA1乃至A14を、指定された状態に駆動させるように制御する。
図6には、脚式ロボット1の電気系統の内部構成例を示している。
頭部ユニット12には、外部センサ部71として、脚式ロボット1の左右の「目」として機能するカメラ81L及び81R、「耳」として機能するマイクロホン82-1乃至82-N、並びにタッチセンサ51などがそれぞれ所定位置に配設されている。カメラ81L及び81Rには、例えばCMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)などの撮像素子で構成されるカメラが用いられる。また、頭部ユニット12には、出力部としてスピーカ72や表示部55などがそれぞれ所定位置に配設されている。スピーカ72は、音声を出力して、「口」として機能する。また、表示部55には、脚式ロボット1の状態や、ユーザからの応答を表示する。
また、制御ユニット52内には、メイン制御部61と、バッテリ74と、バッテリセンサ91及び加速度センサ92などからなる内部センサ部73と、外部メモリ75が配設されている。
外部センサ部71のカメラ81L及び81Rは、周囲の状況を撮像し、得られた画像信号S1Aを、メイン制御部61に送出する。マイクロホン82-1乃至82-Nは、ユーザから音声入力として与えられる「歩け」、「とまれ」又は「右手を挙げろ」などの各種命令音声(音声コマンド)を集音し、得られた音声信号S1Bを、メイン制御部61にそれぞれ送出する。なお、以下において、N個のマイクロホン82-1乃至82-Nを個別に区別する必要がない場合には、マイクロホン82と称する。
また、外部センサ部の71のタッチセンサ51は、例えば図2及び図3に示したように頭部ユニット12の上部に配設されており、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出して、その検出結果を、圧力検出信号S1Cとしてメイン制御部61に送出する。
内部センサ部73のバッテリセンサ91は、所定の周期毎にバッテリ74のエネルギ残量を検出して、検出結果をバッテリ残量検出信号S2Aとして、メイン制御部61に送出する。また、加速度センサ92は、脚式ロボット1の移動について、所定の周期毎に3軸方向(x軸、y軸及びz軸)の加速度を検出して、その検出結果を、加速度検出信号S2Bとして、メイン制御部61に送出する。
外部メモリ75は、プログラムやデータ、及び制御パラメータなどを記憶しており、そのプログラムやデータを必要に応じてメイン制御部61に内蔵されるメモリ61Aに供給する。また、外部メモリ75は、データなどをメモリ61Aから受け取り、記憶する。なお、外部メモリ75は、脚式ロボット1(若しくは、制御ユニット52)から着脱可能に構成されている。
メイン制御部61は、メモリ61Aを内蔵している。メモリ61Aは、プログラムやデータを記憶しており、メイン制御部61は、メモリ61Aに記憶されたプログラムを実行することで、各種の処理を行う。すなわち、メイン制御部61は、外部センサ部71のカメラ81L及び81R、マイクロホン82、及びタッチセンサ51からそれぞれ供給される、画像信号S1A、音声信号S1B、及び圧力検出信号S1C(以下、これらをまとめて外部センサ信号S1と称する)と、内部センサ部73のバッテリセンサ91及び加速度センサなどからそれぞれ供給される、バッテリ残量検出信号S2A及び加速度検出信号S2B(以下、これらをまとめて内部センサ信号S2と称する)に基づいて、脚式ロボット1の周囲及び内部の状況や、ユーザからの指令、又はユーザからの働きかけの有無などを判断する。
そして、メイン制御部61は、ロボット1の周囲及び内部の状況や、ユーザからの指令、又はユーザからの働きかけの有無の判断結果と、内部メモリ61Aにあらかじめ格納されている制御プログラム、あるいはそのとき装填されている外部メモリ75に格納されている各種制御パラメータなどに基づいて、脚式ロボット1の行動を決定し、その決定結果に基づく制御コマンドを生成して、対応するサブ制御部63A乃至63Dに送出する。サブ制御部63A乃至63Dは、メイン制御部61から供給された制御コマンドに基づいて、それぞれに対応するアクチュエータA1乃至A14の駆動を制御する。これにより、脚式ロボット1は、例えば、頭部ユニット12を上下左右に揺動かさせたり、腕部ユニット13A、腕部ユニット13Bを上に挙げたり、脚部ユニット14Aと14Bを交互に駆動させて、歩行するなどの行動を行う。
また、メイン制御部61は、必要に応じて、所定の音声信号S3をスピーカ72に与えることにより、音声信号S3に基づく音声を外部に出力させるとともに、例えば音声を検出したときに、表示信号S4に基づいて「だーれ」などのユーザへの応答を表示部55に表示する。さらに、メイン制御部61は、外見上の「目」として機能する、頭部ユニット12の所定位置に設けられた、図示しないLEDに対して駆動信号を出力して、LEDを点滅させることにより、表示部55として機能させる。
このようにして、脚式ロボット1は、周囲及び内部の状況や、ユーザからの指令及び働きかけの有無などに基づいて、自律的に行動することができる。
図7には、図6のメイン制御部61の機能的構成例を示している。なお、図7に示す機能的構成は、メイン制御部61が、メモリ61Aに記憶された制御プログラムを実行することで実現されるようになっている。但し、メイン制御部61内の図示の機能的構成の一部又は全部を、脚式ロボット1の外部(クラウドを含む)で実現することも可能である。
メイン制御部61は、状態認識情報処理部101と、モデル記憶部102と、行動決定機構部103と、姿勢遷移機構部104と、音声合成部105から構成されている。状態認識情報処理部101は、特定の外部状態を認識する。モデル記憶部102は、状態認識情報処理部101の認識結果等に基づいて更新される、ロボット1の感情、本能、あるいは、成長の状態などのモデルを記憶する。行動決定機構部103は、状態認識情報処理部101の認識結果等に基づいて、ロボット1の行動を決定する。姿勢遷移機構部104は、行動決定機構部103の決定結果に基づいて、実際にロボット1に行動を起こさせる。音声合成部105は、スピーカ72から音声出力する合成音を生成する。但し、参照番号101乃至105で示す機能的構成のうち一部又は全部を、メイン制御部61内ではなく、脚式ロボット1の外部(クラウドを含む)で実現することも可能である。以下、各部について詳細に説明する。
状態認識情報処理部101には、マイクロホン82や、カメラ81L及び81R、タッチセンサ51の各々から、音声信号、画像信号、圧力検出信号が、ロボット1の電源が投入されている間、常時入力される。そして、状態認識情報処理部101は、マイクロホン82や、カメラ81L及び81R、タッチセンサ51から与えられる音声信号、画像信号、圧力検出信号に基づいて、特定の外部状態や、ユーザからの特定の働きかけ、ユーザからの指示などを認識して、その認識結果を表す状態認識情報を、モデル記憶部102及び行動決定機構部103に常時出力する。
状態認識情報処理部101は、音声認識部101A、圧力処理部101C、及び画像認識部101Dを有している。
音声認識部101Aは、マイクロホン82-1乃至82-Nからそれぞれ与えられる音声信号S1Bについて音声の有無を検出して、音声が検出されたとき音声を検出したことを行動決定部103に出力する。音声認識部101Aは、情報の入出力と、入力された音声信号の音声認識処理を統括的に制御する制御部101aと、入力された音声信号に対して話者識別を行う話者識別部101bを備えている。
また、音声認識部101Aは、音声認識を行い、例えば、「あそぼう」、「止まれ」、「右手を挙げろ」などの指令や、その他の音声認識結果を、状態認識情報として、モデル記憶部102及び行動決定機構部103に通知する。
さらに、音声認識部101Aは、話者識別部101bにより音声認識対象となる音声に対して話者識別を行い、その結果を状態認識情報として、モデル記憶部102及び行動決定機構部103に通知する。この際に、話者識別部101bの内部状態として識別されたユーザに対する話者識別用音声の登録状態を判断して、(「ユーザの音声が不足している」、「ユーザの音声は十分ある」など)、状態認識情報(音声認識結果や話者識別結果)に付随して出力する。つまり、音声認識部101Aは、話者識別したユーザの話者識別用の音声の不足を行動判決定機構部103に送る。なお、ユーザに対する話者識別用音声の登録状態(すなわち、ユーザの話者識別データが十分であるか又は不足しているか)を判断する方法の詳細については、後述に譲る。
圧力処理部101Cは、タッチセンサ51から与えられる圧力検出信号S1Cを処理する。そして、圧力処理部101Cは、その処理の結果、例えば、所定の閾値以上で、且つ短時間の圧力を検出したときには、「叩かれた(しかられた)」と認識し、所定の閾値未満で、且つ長時間の圧力を検出したときには、「撫でられた(ほめられた)」と認識する。そして、圧力処理部101Cは、その認識結果を、状態認識情報として、モデル記憶部102及び行動決定機構部103に通知する。
画像認識部101Dは、カメラ81L及び81Rから与えられる画像信号S1Aを用いて、画像認識処理を行う。そして、画像認識部101Dは、その処理の結果、例えば、「赤い丸いもの」や、「地面に対して垂直なかつ所定高さ以上の平面」等を検出したときには、「ボールがある」や、「壁がある」、又は、人間の顔を検出したなどの画像認識結果を、状態認識情報として、音声認識部101A、モデル記憶部102及び行動決定機構部103に通知する。
ここで、音声認識部101Aは、画像認識部101Dから顔の認識によるユーザの識別結果を受け取ったときには、発話者識別結果の内部状態として識別されたユーザに対する話者識別用音声の登録状態(「ユーザの音声が不足している」、「ユーザの音声は十分ある」など)を判断して、出力することができる。つまり、ユーザが音声を発音しない状態でも、そのユーザの話者識別用の音声の不足を行動判決定機構部103に送る。なお、ユーザに対する話者識別用音声の登録状態(すなわち、ユーザの話者識別データが十分であるか又は不足しているか)を判断する方法の詳細については、後述に譲る。
モデル記憶部102は、脚式ロボット1の感情、本能、成長の状態を表現する感情モデル、本能モデル、成長モデルなどのモデルをそれぞれ記憶、管理している。
ここで、感情モデルは、例えば、「うれしさ」、「悲しさ」、「怒り」、「楽しさ」などの感情の状態(度合い)からなり、各状態は所定の範囲(例えば、-1.0乃至1.0など)の値によってそれぞれ表される。モデル記憶部102は、各感情の状態を表す値を記憶するとともに、状態認識情報処理部101からの状態認識情報や時間経過などに基づいて、その値を変化させる。
また、本能モデルは、例えば、「食欲」、「睡眠欲」、「運動欲」などの本能による欲求の状態(度合い)からなり、各状態は所定の範囲の値によってそれぞれ表される。モデル記憶部102は、各欲求の状態を表す値を記憶するとともに、状態認識情報処理部101からの状態認識情報や時間経過などに基づいて、その値を変化させる。
また、成長モデルは、例えば、「幼年期」、「青年期」、「熟年期」、「老年期」などの成長の状態(度合い)からなり、各状態は所定の範囲の値によってそれぞれ表される。モデル記憶部102は、各成長の状態を表す値を記憶するとともに、状態認識情報処理部101からの状態認識情報や時間経過などに基づいて、その値を変化させる。
モデル記憶部102は、上述のようにして感情モデル、本能モデル、成長モデルの値で表される感情、本能、成長の状態を、状態情報として、行動決定機構部103に送出する。
なお、モデル記憶部102には、状態認識情報処理部101から状態認識情報が供給される他に、行動決定機構部103から、ロボット1の現在又は過去の行動、具体的には、例えば、「長時間歩いた」などの行動の内容を示す行動情報が供給されるようになっている。したがって、モデル記憶部102は、状態認識情報処理部101から同一の状態認識情報が与えられても、行動情報が示すロボット1の行動に応じて、異なる状態情報を生成するようになっている。
すなわち、例えば、ロボット1が、ユーザに挨拶をし、ユーザに頭を撫でられた場合には、ユーザに挨拶をしたという行動情報と、頭を撫でられたという状態認識情報とが、モデル記憶部102に与えられ、この場合、モデル記憶部102では、「うれしさ」を表す感情モデルの値が増加される。一方、ロボット1が、何らかの仕事を実行中に頭を撫でられた場合には、仕事を実行中であるという行動情報と、頭を撫でられたという状態認識情報とが、モデル記憶部102に与えられ、この場合、モデル記憶部102では、「うれしさ」を表す感情モデルの値は変化されない。
このように、モデル記憶部102は、状態認識情報だけでなく、現在又は過去のロボット1の行動を示す行動情報も参照しながら、感情モデルの値を設定する。これにより、例えば、何らかのタスクを実行中に、ユーザが、いたずらするつもりで頭を撫でたときに、「うれしさ」を表す感情モデルの値を増加させるような、不自然な感情の変化が生じることを回避することができる。
モデル記憶部102は、音声認識部101Aより提供されるユーザ識別結果に基づいて、上記の感情モデルをユーザ毎に個別に持つことができる。このため、あるユーザ1に対して実行して「うれしい」行動と、異なるユーザ2に対して実行して「うれしい」行動が異なる。したがって、モデル記憶部102が、ユーザ識別結果に該当する状態情報を行動決定機構部103に送出することにより、ユーザ個人に応じた多様な行動を生成することができる。
なお、モデル記憶部102は、本能モデル及び成長モデルについても、感情モデルにおける場合と同様に、状態認識情報及び行動情報の両方に基づいて、その値を増減させるようになっている。また、モデル記憶部102は、感情モデル、本能モデル、成長モデルそれぞれの値を、他のモデルの値にも基づいて増減させるようになっている。
行動決定機構部103は、状態認識情報処理部101から出力される状態認識情報や、モデル記憶部102から出力される状態情報、時間経過などに基づいて、脚式ロボット1の次の行動を決定する。ここで、決定された行動の内容が、例えば、「ダンスをする」というような、音声認識処理や画像認識処理を必要としない場合には、その行動の内容を行動指令情報として、姿勢遷移機構部104に送出する。
行動決定機構部103は、脚式ロボット1の行動を規定する行動モデルとして、脚式ロボット1がとり得る行動をステート(状態:state)に対応させた有限オートマトンを管理している。そして、行動決定機構部103は、この行動モデルとしての有限オートマトンにおけるステートを、状態認識情報処理部101からの状態認識情報や、モデル記憶部102における感情モデル、本能モデル、又は成長モデルの値、時間経過などに基づいて遷移させ、遷移後のステートに対応する行動を、次にとるべき行動として決定する。
例えば、ユーザが「遊ぼう」と発話した時、状態認識情報処理部101からの状態認識情報出力される音声認識結果「遊ぼう」と、その他のモデルの状態とを基に行動が決定され、「おいかけっこ」や「しりとり」などの行動を出力することができる。
このとき、状態認識情報処理部101からの状態認識情報に同時に出力される話者識別結果がユーザ1であり、話者識別部101bの内部状態が「ユーザ1の音声情報が不足している」であれば、行動決定機構部103は、「ユーザ1さん、しりとりしよう」といった、ユーザ1の音声情報を収集するための行動を出力する。この結果、脚式ロボット1は、ユーザ1と遊びながら、ユーザ1の音声情報が増加するようにユーザ1を誘導することができる。
ここで、行動決定機構部103は、所定のトリガ(trigger)があったことを検出すると、ステートを遷移させる。すなわち、行動決定機構部103は、例えば、現在のステートに対応する行動を実行している時間が所定時間に達したときや、特定の状態認識情報を受信したとき、モデル記憶部102から供給される状態情報が示す感情や、本能、成長の状態の値が所定の閾値以下又は以上になったときなどに、ステートを遷移させる。
前述したように、状態認識情報処理部101から行動決定機構部103へ、状態認識情報に付随して、話者識別用音声の登録状態が出力される。話者識別用音声の登録状態は、具体的には、ユーザの話者識別データが十分であるか、又は不足しているかを示す情報を含む。そして、行動決定機構部103は、話者識別結果又は顔認識結果により目の前にいることが識別されたユーザについて話者識別データが不足していることが示されていれば、その情報をトリガとして、脚式ロボット1側から自律的に「しりとりしよう!」などと、不足している話者識別データを収集するための行動を出力することができる。
また、行動決定機構部103は、上述したように、状態認識情報処理部101からの状態認識情報だけでなく、モデル記憶部102における感情モデルや、本能モデル、成長モデルの値などにも基づいて、行動モデルにおけるステートを遷移させる。このことから、行動決定機構部103に同一の状態認識情報が入力されても、感情モデルや、本能モデル、成長モデルの値(状態情報)によっては、行動決定機構部103が決定するステートの遷移先は異なるものとなる。
また、行動決定機構部103は、上述したように、脚式ロボット1の頭部や手足などを動作させる行動指令情報の他に、脚式ロボット1に発話を行わせる行動指令情報も生成する。脚式ロボット1に発話を行わせる行動指令情報は、音声合成部105に供給されるようになっている。音声合成部105に供給される行動指令情報には、音声合成部105に生成させる合成音に対応するテキストデータなどが含まれる。そして、音声合成部105は、行動決定機構部103から行動指令情報を受信すると、その行動指令情報に含まれるテキストデータに基づき、合成音を生成し、スピーカ72に供給して出力させる。
また、行動決定機構部103は、発話に対応する、又は、発話をしない場合に発話の代わりとなる言葉を、表示部55にプロンプトとしてテキスト表示させる。例えば、音声を検出して振り向いたときに、「誰?」とか「なぁに?」といったテキストを表示部55にプロンプトとして表示したり、又は、スピーカ72より発生したりすることができる。
図8には、状態認識情報処理部101内の音声認識部101Aの機能的構成を詳細に示している。
制御部101aは、音声信号を検出したことを示す信号を検出すると、音声信号を検出したことを示す信号を行動決定機構部103に出力する。
また、制御部101aは、マイクロホン82から入力され、AD変換部(図示しない)によりデジタル信号に変換された音声信号を特徴抽出部121に出力する。
特徴抽出部121は、入力された音声信号の特徴量を演算する。マッチング部122は、音響モデル123、単語辞書124、並びに言語モデル125を用いて、入力音声の特徴に対応する単語系列を決定して、音声認識結果として行動決定機構部103に出力する。
音響モデル123は、音声認識する音声の言語における個々の音素や音節などの音響的な特徴を表す音響モデルを記憶している。音響モデルとしては、例えば、HMM(Hidden Markov Model)やニューラルネットワークが用いられる。単語辞書124は、認識対象の各単語(語彙)について、その発音に関する情報(音韻情報)が記述された単語辞書を記憶している。言語モデル125は、単語辞書124に登録されている各単語が、どのように連鎖するかを記述した文法規則を記憶している。文法規則としては、例えば、文脈自由文法(Context-Free Grammer:CFG)に基づく記述や、統計的な単語連鎖確率(N-gram)、ニューラルネットワーク言語モデルなどが用いられる。
特徴抽出部121は、話者識別部101bへも音声特徴を出力する。話者識別部101bは、音声信号が入力されると、話者音声データベース127を参照して音声に該当する話者を識別して、話者識別結果を行動決定機構部103に出力する。話者音声データベース127は、話者識別の対象となる1以上のユーザの音声データを登録している。話者識別部101bは、話者音声データベース127における話者識別用音声の登録状態も判断して、話者識別結果に付随して登録状態も行動決定機構部103に出力する。例えば、話話者識別部101bは、話者識別結果の「ユーザ1」に対する音声データが「不足している」、「十分である」の2値状態を話者音声データベース127の登録状態として出力する。
制御部101aは、画像認識部101Dのユーザ識別結果も入力として受け取り、その結果を話者識別部126へ送る。話者識別部101bは、画像認識処理に基づくユーザ識別結果が入力された場合には、話者識別は行わないが、話者音声データベース127における話者識別用音声の登録状態(すなわち、「不足している」、「十分である」の2値状態)を出力する。
ここで、話者識別部10bにおいて、話者音声データベース127における話者識別用音声の登録状態を判断するためのいくつかの方法について紹介しておく。
1つ目の判断方法として、話者識別のデータ量(音声データの長さ)と、データの取得日時を基準とする有効期限とに基づいて、登録状態を判断する方法が挙げられる。有効期限内のデータ量が基準値を下回るユーザについては、データが「不足している」と判断される。例えば、話者音声データベース127に登録されている各ユーザの音声データの状態が、以下の表1に示す通りであったとする。
Figure 0007205533000001
上記の表1は、話者識別用の音声データD0001乃至D0005の状態を表している。ここで、話者識別の音声データの必要量を5秒以上とし、話者識別のデータの有効期限を3ヶ月とする。
現在の日時が2018/1/15 15:00であれば、有効期間2017/10/15 15:00から現在時刻までの、ユーザU001の音声データは合計11.3秒であり、U002の音声データは7.4秒ある。各ユーザU001、U002の登録された有効期限内の音声は、必要量の5秒以上あるので、これらのユーザに対する音声データは「十分である」と判断される。
一方、現在の日時を2018/1/17 15:00とすると、データID D0001の音声が有効期限切れとなる。したがって、有効期限内のユーザU001の音声は3.3秒になり、これは必要量の5秒を下回る。このため、ユーザU001に対する音声データは「不足している」と判断される。
また、2つ目の判断方法として、話者識別のデータ量(音声データの長さ)と、データの有効期限とともに、音声の発音情報も利用して、登録状態を判断する方法が挙げられる。この方法によれば、ユーザ毎に、どのような音声(音韻)が不足しているかまで、詳細に判断することができる。例えば、話者音声データベース127に登録されている各ユーザの音声データの状態が、以下の表2に示す通りであったとする。
Figure 0007205533000002
上記の表2は、話者識別用の音声データD0001乃至D0005の状態を表している。ユーザの発話に対して、音韻単位の発音が付与されている。但し、説明の簡素化のため、ここでは、話者識別のために登録される音声には、「あ」、「い」、「う」、「え」、「お」の5つの音韻しか含まれないものとする。そして、話者識別のデータの必要量を各音韻が1回以上、話者識別のデータの有効期限を3ヶ月とする。
現在の日時を2018/1/15 15:00とすると、有効期間2017/10/15 15:00から現在時刻までの、ユーザU001の音声データは「あ」1回、「い」2回、「う」1回、「え」1回、「お」1回である。また、ユーザU002の有効期限内の音声データは「あ」2回、「い」1回、「う」1回、「え」1回、「お」2回ある。各ユーザU001、U002の登録された有効期限内の音声は、すべての音韻が必要量の1回以上あるので、これらのユーザに対する音声データは「十分ある」と判断される。
一方、現在の日時を2018/1/17 15:00とすると、データID D0001の音声が有効期限切れとなる。したがって、有効期限内のユーザU001の音声は、「い」3回、「う」1回、「え」1回のみとなり、「あ」と「お」の音が無いため、ユーザU001に対する音声データは不足していると判断される。さらに、ユーザU001の音韻「あ」、「お」についての音声データが不足していることがわかる。
このとき、行動決定機構部103は、不足している音韻の情報も入力されるので、単にユーザU001に発話を促して音声データを集めるだけでなく、不足している音韻(表2に示す例では、「あ」や「お」の音)が含まれる音声データを収集するような行動を積極的に(若しくは、高確率で)選択するようにすることができる。例えば、ユーザU001としりとりを行っているのであれば、「あ」の音を確実に得るためにロボット側から「インテリア」と出題したり、「お」の音を確実に得るためにロボット側から「えがお」と出題したりする。
2つ目の判断方法によれば、音声の発音を音韻単位で保持し、不足している音韻単位で求めたが、より細かい音素(/a/,/i/,/p/,/k/など)単位や、逆により大きい音韻列(あお、あい、あう、あかなど)や音素列(a-k-a, k-a-iなど)など、さまざまな粒度で同様の処理ができる。
なお、上述した2つの判断方法の説明では、音声認識を例としたので、音声データの長さがユーザ識別用のデータ量となる。これに対し、顔識別を行う場合には、正面顔、右向き、左向き、上向き、下向きなど顔の向き毎に取得した画像の数がユーザ識別用のデータ量に相当する。したがって、各ユーザの顔の向きとその収集日時をデータベースに登録し、上向きの顔が少ないなどの登録状態を判断することができる。そして、行動決定機構部103は、上向きの顔が少ないという登録状態が入力されたときには、ユーザに対して上向きの顔を誘発する行動を選択して(例えば、「今日の空は何色?」と尋ね、さらに脚式ロボット1がユーザの足元に移動して、ユーザが相対的に上向きの顔となる機会を増す)、ユーザの上向きの顔を取得し易くするようにする。
また、3つ目の判断方法として、上述した2つの判断方法のようにサンプルデータの新しさと量で判断するのではなく、話者識別の照合時のスコアや、さらに照合スコアを正規化した値などを用いることもできる。照合スコアは、識別のために入力されたデータと登録済みのサンプルデータとの類似度を示す値である。
例えば、顔識別を用いて目の前のユーザがユーザU001であると分かっているときに、そのユーザの音声の話者識別の照合スコアが低ければ、ユーザU001の音声データが古いあるいは不足していると判断することができる。このような場合、行動決定機構部103は、ユーザU001に「近づく」、「しりとりをする」、「歌を一緒にうたう」などの行動を積極的に(若しくは、高確率で)選択することで、ユーザU001の音声を集めることができる。
あるいは、話者識別を用いて話者がユーザU001であると分かっているときに、そのユーザの顔識別の照合スコアが低ければ、そのユーザの顔画像のデータが古いあるいは不足していると判断することができる。このような場合、行動決定機構部103は、ユーザU001に「近づく」、「周りをうろつく」などの行動を積極的に(若しくは、高確率で)選択することで、ユーザU001の正面、右向き、左向きなどの顔の画像を撮影することができる。
図9には、行動決定機構部103が脚式ロボット1の次の行動を決定するための処理手順をフローチャートの形式で示している。
まず、行動決定機構部103は、現在の状態を遷移元とし、状態情報認識処理部101から出力される、話者識別(又は顔識別)されたユーザに対する登録状態と、モデル記憶部102から出力される、そのユーザの状態情報とから、有限オートマトンなどの状態遷移図を参照して、脚式ロボット1の次の状態候補と、各状態候補への遷移確率を取得する(ステップS901)。
そして、行動決定機構部103は、乱数を発生させて、遷移確率に応じていずれかの遷移先の状態候補を選択して、脚式ロボット1の次の行動を決定して(ステップS902)、姿勢遷移機構部104又は音声合成部105に遷移先の状態の情報を出力する(ステップS903)。
図10には、図9に示したフローチャート中のステップS901において、行動決定機構部103が脚式ロボット1の次の行動を決定するため使用する、脚式ロボット1の状態遷移図の一例を示している。但し、同図上は、状態遷移図の一部分のグラフィカルな記述を示し、同図下は、状態遷移表としての記述例を示している。
図10に示す状態遷移図は、話者識別部101bにより識別されたある特定のユーザに対して用意されたものであるとする。あるいは、ユーザ毎に状態遷移図を用意せず、行動決定機構部103はすべてのユーザに対して同じ状態遷移図を使用して行動決定を行うようにしてもよい。また、行動決定機構部103は、話者識別部101bから、ユーザの識別結果に付随して、その識別したユーザの話者識別用音声の登録状態に関する情報も取得する(前述)。
現在の状態がState1のとき、次の行動は、State2に遷移する「しりとり」、State3へ遷移する「追いかけっこ」、State1に再び戻り「なにもしない」のいずれかである。状態情報認識処理部101(音声認識部101A)より得られた入力コマンドが「遊ぼう」である。
図10下の状態遷移表を参照すると、話者識別用音声の登録状態が「十分」のとき、脚式ロボット1が上記3つの行動「しりとり」、「追いかけっこ」、「何もしない」を起こす確率はそれぞれ、0.2、0.3、0.5である。つまり、脚式ロボット1は、2分の1の確率で何も行わないが、行動を起こすとすると追いかけっこが実行される可能性が高い。
一方、同じ状態State1及び入力コマンドが「遊ぼう」でも、話者識別用音声の登録状態が「不十分」のときには、脚式ロボット1が上記3つの行動「しりとり」、「追いかけっこ」、「何もしない」を起こす確率はそれぞれ、0.9、0.0、0.1となり、脚式ロボット1はかなり高い確率でしりとりを起動する。これは、ユーザとのしりとりを実行することにより、話者の音声を多く取得できることを狙った、状態遷移の例であるということができる。
図10に例示した状態遷移図では、成長モデルや感情モデルなどの、モデル記憶部102から出力される情報を用いていない。もちろん、これらのモデルの出力を状態遷移の条件に加えることができる。また、前述のトリガ情報なども状態遷移に用いることができる。
上述したような、行動決定機構部103が状態認識情報処理部101からの出力に基づいて脚式ロボット1の行動を決定することにより、脚式ロボット1は、外部からの入力や内部的なモデルだけでなく、認識処理など識別処理の内部状態に基づいて行動を実施することができる。
上述した実施例では、話者識別結果として、話者識別のための音声データが「不足している」、「十分である」の2値の状態が出力される場合の脚式ロボット1の行動を決定する例であった。これに対し、画像認識に基づいてユーザ識別を行う場合には、顔識別されたユーザの音声データが「無い」という状態も発生し得る。ユーザの音声データが「無い」場合には、行動決定機構部103は、「不足している」場合よりもさらに積極的に(若しくは、高確率で)、ユーザの音声データを取得するための行動を出力するようにすることができる。
上述した実施例では、行動決定機構部103は、話者識別用音声の登録状態に基づいて脚式ロボット1の行動を決定しているが、顔識別用の顔画像の登録状態に基づいて脚式ロボット1の行動を決定するようにすることもできる。例えば、ユーザの顔が検出できているが、右向きの顔が不足している場合には、行動決定機構部103は、「あっちむいてほい」のような、ユーザの顔向きの情報を多数収集できる行動を出力してもよい。
また、上述した実施例では、行動決定機構部103は、話者識別用音声や顔識別用の顔画像の登録状態に基づいて、「しりとり」、「あっちむいてほい」といったゲーム的な行動を決定するが、音声や顔などの各識別器の識別確信度もさらに考慮して、脚式ロボット1の行動を決定するようにすることもでき、ゲーム以外の行動を決定するようにしてもよい。例えば、ユーザの顔識別の確信度が低いときには、行動決定機構部103は、単にユーザに近づくなど、ゲーム的な要素が少ない(若しくは、全くない)、ユーザの応答も必要としないような行動の決定を増やすこともできる。
また、図10では、ユーザ識別のためのデータが「不足している」、「十分である」の2値の状態に基づいて脚式ロボット1の次の行動を決定する例を示したが、データ量だけでなく、データの新しさも評価に加えることができる。例えば、あるユーザに対するユーザ識別用に登録された音声データの量が十分であっても、そのデータが古くなってしまったときには、行動決定機構部103は、そのユーザの音声を収集できる行動を積極的に(若しくは、高確率で)決定することができる。古いデータを使用不能として扱えば、あるユーザについて古いデータしか蓄積されていない場合には、結局のところ、データが不足していると同じである。
また、あるユーザについて登録した音声データの量が十分であっても、特定の発音(音韻)のデータが不足している場合がある。例えば、「パ」から始まる音声データが不足している場合には、行動決定機構部103は、そのユーザと「しりとり」を行う際に、「コンパ」、「ヨーロッパ」、「カンパ」など語尾が「パ」となる単語を発音するように行動を決定することで、より効率的に話者識別に有用な音声データを収集することができる。
また、上述した実施例では、ユーザの音声や顔など、ユーザから発信される情報のみに着目して脚式ロボット1の行動を決定したが、例えば環境情報など、ユーザ以外を発信源とする情報の過不足も考慮して、脚式ロボット1の行動を決定することもできる。例えば、あるユーザの室内の顔情報は十分あるが、屋外での顔情報が不足しているときには、行動決定機構部103は、「散歩しよう」など、ユーザを外へ連れ出して屋外での顔情報を取得し易くすることができる。
また、上述した実施例では、行動決定機構部103は話者識別や顔識別などによりユーザを発見してからの、ユーザ識別に必要なデータを収集するための行動を決定していたが、ユーザを発見する前であっても行動を決定することもできる。
例えば、話者音声データベース127にはN人分のユーザ1~Nの話者識別データが記憶されており、話者識別部101bはこれらの情報に基づいて各ユーザ1~Nの話者識別を実施する場合を想定する。ここで、話者識別部101bは、話者音声データベース127をチェックして、ユーザ1を話者識別するための音声データが不足していることを検出したときには、ユーザ1を発見する前であっても(言い換えれば、ユーザ1の話者識別結果を伴わずに)、ユーザ1の音声データが不足しているという登録状態を出力する。そして、行動決定機構部103は、この出力に応答して、ユーザ1を探しに行く行動を積極的に(若しくは、高確率で)選択して、ユーザ1の音声データを収集し易くする。さらに、ユーザ1を発見できたときには、行動決定機構部103は、「お話ししよう」と脚式ロボット1側から声をかけるなど、ユーザの音声データを収集し易くする行動を積極的に(若しくは、高確率で)選択する。
また、上述した実施例では、脚式ロボット1は、話者識別と顔識別の2種類の識別器を用いてユーザを識別するように構成されているが、ユーザを識別する方法はこの2つに限定されるものではない。例えば、生体信号や虹彩など、ユーザを発信源とするさまざまなデータに基づいて、ユーザを識別することが可能である。また、脚式ロボット1が、話者識別及び顔識別以外の第3の識別器を利用する場合には、行動決定機構部103は、第3の識別器がユーザを識別するためのデータが不足しているときには、同様に、第3の識別器用のデータを収集し易くするための行動を積極的に(若しくは、高確率で)選択することができる。
例えば、第3の識別器が用いる心拍などの生体信号が不足している場合には、行動決定機構部103は、生体信号が不足しているユーザに対して接触を促し、心拍や呼吸などの生体情報を取得し易くするための行動を積極的に(若しくは、高確率で)選択する。具体的には、「お話ししよう」と脚式ロボット1側から声をかけ、ユーザに脚式ロボット1との接触を促す。また、第3の識別器が用いる虹彩の情報が不足している場合には、行動決定機構部103は、ユーザに「ボクの目を見て」、「にらめっこしよう」などと話しかけるなど、虹彩の情報を取得し易くするための行動を積極的に(若しくは、高確率で)選択する。このようにすれば、脚式ロボット1は、ユーザを発信源とするさまざまなデータを、ユーザの負担感なく取得することができる。
また、上述した実施例では、1台の脚式ロボットが単独で識別器がユーザを識別するためのデータを収集するが、もちろん2台以上の脚式ロボットが連携してデータ収集を行うようにしてもよい。
例えば、脚式ロボットAが、ユーザ1を話者識別するための音声データ、若しくは顔識別するための顔画像データが不足していることを検出して、ユーザ1を探しに行く行動を実施するが、ユーザ1を発見することができない。このような場合、脚式ロボットAは、連携し合う他の脚式ロボットB、Cに対して、ユーザ1の探索要求を送信する。
この探索要求には、ユーザ1の不足しているデータに関する情報(例えば、欠けている音韻を示す情報や、左向きの顔の情報がないことなど)を含めるようにしてもよい。また、この探索要求に、要求先の脚式ロボットB、Cでユーザ1を識別するための情報(例えば、要求元の脚式ロボットAが既に登録しているユーザ1の音声データや顔画像、その他、ユーザ1の特徴情報など)を含めるようにしてもよい。
例えば、要求先の脚式ロボットBが、脚式ロボットAから依頼されたユーザ1を発見できたとする。脚式ロボットBは、脚式ロボットAにおいて不足しているユーザ1のデータを取得するための行動を代行して実施し、その行動を通して取得できたユーザ1のデータ(音声データや顔画像など)を、要求元の脚式ロボットAに返信するようにしてもよい。あるいは、脚式ロボットBは、要求元の脚式ロボットAに、ユーザ1を発見した場所を通知するようにしてもよい。この場合、脚式ロボットAは、自ら出向いて、ユーザ1から不足しているデータを取得するための行動を実施することができる。
ユーザ自身は、短期間で突発的に変化したり、長時間にわたって経時的に変化したりするなど、バリエーションがある。ユーザ内で生じるバリエーションに伴い、ユーザの音声や顔などの識別用に登録しておいたデータが使用不能になり、識別性能の低下を招くことが懸念される。そこで、以下では、ユーザ内で生じるバリエーションをカバーするように、脚式ロボット1がユーザ識別用のデータを取得するための行動を選択する実施例について説明する。
例えば、ユーザの声色によって話者識別の性能が変化する場合、脚式ロボット1側から「悲しい声で喋ってみて」、「明るい声で喋ってみて」とユーザに声をかけることで、同じユーザからさまざまな声色の音声データを新たに収集して、話者識別の性能改善に役立てることができる。
また、ユーザの表情によって顔識別の性能が変化する場合には、脚式ロボット1側から「にらめっこしよう」、「笑って見せて」とユーザに働き掛けて、同じユーザのさまざまな表情の顔画像データを新たに収集して、顔識別の性能改善に役立てることができる。
ユーザの特徴の一時的な変化などに起因して、ユーザ識別の性能が突然低下するという場合が考えられる。例えば、風邪や声の出し過ぎによってユーザの声が枯れたときには、話者識別の性能が突然低下する。また、ユーザが顔に怪我したときや、顔の特徴部分に絆創膏を貼り付けたときには、顔識別の性能が突然低下する。上述した実施例1では、このような一時的な変化に伴う音声データや顔画像を、これまで蓄積したユーザの音声データや顔画像モデルの学習データに追加してしまう。その結果、ユーザの一時的な変化に対応して識別性能は回復するが、一時的な変化がなくなった際には、新たに追加した学習データのために識別性能をむしろ低下させてしまうおそれがある。
そこで、実施例2では、脚式ロボット1(若しくは、行動決定機構部103)は、ユーザの識別性能が低下したときには、ユーザとの対話などを通じてその低下原因を特定して、識別性能の低下に伴って追加したユーザ識別用のデータの取り扱いを、低下原因に応じて制御するようにしている。
図11には、実施例2に係る、識別性能の低下原因に応じて追加したユーザ識別用のデータの取り扱いを制御するように構成された行動決定機構部103の機能的構成を示している。
図示の行動決定機構部103は、識別性能判定部1101と、識別性能記憶部1102と、質問生成部1103と、学習判定部1104を備えている。
識別性能判定部1101は、音声認識部101A(若しくは、話者識別部101b)における話者識別性能や、画像認識部101Dにおける顔識別性能を判定する。また、識別性能記憶部1102は、識別性能判定部1101による話者識別性能及び顔識別性能の判定結果を一定時間分だけ記憶する。
そして、識別性能判定部1101は、識別性能判定部1101に入力された最新の話者識別性能及び顔識別性能を、識別性能記憶部1102に記憶されている、一定時間前の話者識別性能及び顔識別性能と比較して、識別性能が急激に低下していないかを判定する。例えば、識別性能判定部1101は、直近の24時間のユーザ識別結果に比べて現在の識別性能がどう変化したかを、ユーザ識別性能記憶部1102のデータと照らし合わせて、急激な性能低下の有無を確認する。識別性能判定部1101は、判定結果を質問生成部1103及び学習判定部1104に出力する。
質問生成部1103は、話者識別性能又は顔識別性能のうち少なくとも一方の識別性能が急激に低下していることが分かったときには、ユーザとの対話などを通じてその低下原因を特定するための質問文を生成する。生成した質問文は、音声合成部105に出力される。音声合成部105は、質問文の音声を合成して、スピーカ72から音声出力する。
質問文に対してユーザが回答した音声は、マイクロホン82-1乃至82-Nで収音され、音声認識部101Aによって音声認識され、その認識結果が学習判定部1104に供給される。
学習判定部1104は、質問文に対するユーザからの回答の内容を解析して、話者識別性能又は顔識別性能が急激に低下した原因を特定する。そして、学習判定部1104は、識別性能の低下原因に基づいて、識別性能の低下に伴って追加したユーザ識別用のデータの取り扱いを判定して、判定結果を話者識別部101b並びに画像認識部101Dに出力する。
学習判定部1104が識別性能の低下原因を一時的な変化によるものと判定した場合には、話者識別部101b並びに画像認識部101Dは、識別性能の低下に伴って収集したユーザの音声データや顔画像データを、通常の学習データとして追加するのではなく、一時的な学習データとして分けて記憶する。
話者識別部101b並びに画像認識部101Dは、一時的な変化が継続している間は一時的な学習データを用いてユーザの識別を行うことによって識別性能を回復させることができる。また、話者識別部101b並びに画像認識部101Dは、一時的な変化がなくなった際には、一時的な学習データは用いずに、通常の学習データを用いてユーザの識別を行うことによって識別性能を高いレベルに保つことができる。
図12には、図11に示した行動決定機構部103において実行される、識別性能の低下原因に応じて追加したユーザ識別用のデータの取り扱いを行うための処理手順をフローチャートの形式で示している。
識別性能判定部1101は、音声認識部101A(若しくは、話者識別部101b)における話者識別性能や、画像認識部101Dにおける顔識別性能を入力して(ステップS1201)、これらのユーザの識別性能が所定の閾値を下回ったかどうかをチェックする(ステップS1202)。
ユーザ識別性能が所定の閾値を下回ったときには(ステップS1202のYes)、ユーザ識別性能を回復させるために、新たにユーザからデータ収集が必要であると判定することができる。
次いで、識別性能判定部1101は、最新の話者識別性能及び顔識別性能を、識別性能記憶部1102に記憶されている、一定時間前の話者識別性能及び顔識別性能と比較して(ステップS1203)、ユーザ識別性能の変化が大きいかどうかをチェックする。
ここで、最新の話者識別性能及び顔識別性能と一定時間前の話者識別性能及び顔識別性能との差分が大きくないときには(ステップS1204のNo)、すなわち識別性能の急激な低下ではないときには、ユーザの音声データや顔データの通常の経時的な変化と考えられる。したがって、学習判定部1104は、識別性能の低下に伴って新たに収集したユーザの音声データや顔画像データを、通常の学習データとして追加するように、話者識別部101b並びに画像認識部101Dに指示を出力して(ステップS1209)、本処理を終了する。
一方、最新の話者識別性能及び顔識別性能と一定時間前の話者識別性能及び顔識別性能との差分が大きいとき(ステップS1204のYes)、すなわち急激な識別性能が急激に低下したときには、識別性能が急激に低下した原因を特定するための処理を開始する。
すなわち、質問生成部1103は、ユーザとの対話などを通じてその低下原因を特定するための質問文を生成する(ステップS1205)。生成した質問文は、音声合成部105に出力される。音声合成部105は、質問文の音声を合成して、スピーカ72から音声出力する。質問文に対してユーザが回答した音声は、マイクロホン82-1乃至82-Nで収音され、音声認識部101Aによって音声認識され、その認識結果が学習判定部1104に供給される。そして、学習判定部1104は、質問文に対するユーザからの回答の内容を解析して(ステップS1206)、話者識別性能又は顔識別性能が急激に低下した原因を特定する。
学習判定部1104は、識別性能の低下原因を一時的な変化によるものと判定した場合には(ステップS1207のYes)、話者識別部101b並びに画像認識部101Dは、識別性能の低下に伴って新たに収集したユーザの音声データや顔画像データを、通常の学習データとして追加するのではなく、一時的な学習データとして分けて記憶するように指示する(ステップS1208)。
話者識別部101b並びに画像認識部101Dは、一時的な変化が継続している間は新たに収集したデータを用いてユーザの識別を行うことによって識別性能を回復させることができる。また、話者識別部101b並びに画像認識部101Dは、一時的な変化がなくなった際には、識別性能の急激な低下により新たに収集したデータは用いずに、通常の学習データを用いてユーザの識別を行うことによって識別性能を高いレベルに保つことができる。各識別器は、一時的な変化がなくなった際には、識別性能の急激な低下により新たに収集したデータを破棄するようにしてもよい。
また、学習判定部1104は、識別性能の低下原因が一時的な変化によるものではない、すなわちユーザの音声データや顔データの通常の経時的な変化と判定した場合には(ステップS1207のNo)、識別性能の低下に伴って収集したユーザの音声データや顔画像データを、通常の学習データとして追加するように、話者識別部101b並びに画像認識部101Dに指示を出力して(ステップS1209)、本処理を終了する。
例えば、話者識別部101bにおけるユーザ(Aさん)の話者識別性能が前日に比べて急激に低下した場合を想定する。この場合、行動決定機構部103は、その性能低下の原因を特定するために、「Aさん、昨日と声が変わっているみたいだけど,大丈夫?」という質問を生成し、音声合成部105及びスピーカ72を通じて音声出力する。
この質問に対するAさんからの返答が、「本当?特に何も変わってないけど」など否定的な内容であったならば、行動決定機構部103内の学習判定部1104は、話者識別性能の急激な低下がユーザ(Aさん)の一時的な変化によるものでないと判定して、話者識別性能の低下をトリガにしてAさんから新たに収集した音声データを通常の学習データとして話者音声データベース127に追加する。
しかしながら、上記の質問に対するAさんからの返答が、「ちょっと風邪気味で」や、「昨日飲みすぎちゃって」など、一時的な変化であることを示す内容であったならば、行動決定機構部103内の学習判定部1104は、話者識別性能の急激な低下がユーザ(Aさん)の一時的な変化によるものであると判定する。この場合、話者識別性能の低下をトリガにしてAさんから新たに収集した音声データを、通常の学習データとしてではなく、「Aさんの一時的な音声データ」として、既存(通常)のAさんの音声データとは別にして学習する。
Aさんの音声の恒久的な特徴と、Aさんの音声の一時的な変化による特徴を分けて学習することにより、一時的に変化したAさんの声の識別性能を向上させるとともに、Aさんの声が元に戻った際の識別性能低下も防ぐことが可能となる。
上記では、収集したデータを、通常(既存)の学習データと、一時的な学習データの2通りに分けて学習するようにしている。ユーザの特徴の一時的な変化が、すぐに元に戻るとは限らず、しばらく継続する場合も想定される。例えば、画像認識によりユーザを識別する場合において、ユーザの髪型などは、ある日突然変化するが、その後はしばらく変化しない。
したがって、収集したデータを、通常(既存)の学習データと一時的な学習データの他に、これまでに蓄積してきたデータを捨てて新規に収集したデータに置き換えるという、第3の学習方法も考えられる。この場合、行動決定機構部103内の質問生成部1103は、識別性能の低下原因が、一時的な変化であり且つしばらく継続するかどうかも特定するための質問文を生成する必要がある。
例えば、ユーザの髪型が大きく変化したことにより顔認識の性能が下がった場合を想定する。行動決定機構部103内では、質問生成部1103が「髪型変えた?」という質問文を生成し、音声合成及び音声出力される。この質問に対してユーザから、「そうだよ」という応答があった場合には、行動決定機構部103は、「似合っているね!もっとよく見せて!」と発話する行動を選択するとともに、髪型を変えた後のユーザの画像データを収集し易くするための行動をさらに選択する。また、行動決定機構部103内の学習判定部1104は、そのユーザに対して蓄積してきたデータを捨てて、新規に収集した画像データに置き換えていくように、画像認識部101Dに指示する。なお、これまでに蓄積してきたデータをすべて捨てるのではなく、1割を残し9割を新しいデータに置き換えるという方法でもよい。
これまで説明してきたように、脚式ロボット1は、ユーザの識別器を備えるとともに自発的に行動を出力することができるが、さらに本明細書で開示する技術を適用することにより、識別器によるユーザの識別性能に応じて、受動的あるいは能動的に行動を決定することができる。すなわち、識別器がユーザの識別に用いるデータ量が不十分である場合には、脚式ロボット1は、識別器がユーザの識別に用いるデータを収集し易くする行動を積極的に(若しくは、高確率で)出力することができる。したがって、ユーザの負担感が少ない状態で、ユーザから情報を効率的に収集して、識別器の性能を高く保つことができる。また、脚式ロボット1が正確にユーザを識別することによって、個々のユーザに適合したサービスを提供することができる。
以上、特定の実施形態を参照しながら、本明細書で開示する技術について詳細に説明してきた。しかしながら、本明細書で開示する技術の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書では、主に脚式ロボットに関する実施形態について説明したが、本明細書で開示する技術の適用範囲はこれに限定されるものではない。脚式以外の移動ロボット、移動型でない対話ロボット、音声エージェントなど、ユーザ毎に自発的に行動するさまざまなタイプの自律行動装置に対して、同様に本明細書で開示する技術を適用することができる。
要するに、例示という形態により本明細書で開示する技術について説明してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本明細書で開示する技術の要旨を判断するためには、特許請求の範囲を参酌すべきである。
なお、本明細書の開示の技術は、以下のような構成をとることも可能である。
(1)識別器により識別したオブジェクトに対して自発的に行動するデバイスに関する処理を行う情報処理装置であって、
前記識別器の状態を取得する取得部と、
前記状態に基づいて前記デバイスの行動を決定する決定部と、
を具備する情報処理装置。
(1-1)前記識別器は、オブジェクトとしてユーザを識別し、
前記決定部は、前記識別器が識別したユーザに対する行動を決定する、
上記(1)に記載の情報処理装置。
(1-2)前記識別器は、前記デバイスに備えられたセンサによる検出信号に基づいてユーザを識別する、
上記(1-1)に記載の情報処理装置
(1-3)前記識別器をさらに備える、
上記(1)に記載の情報処理装置。
(1-4)前記デバイスをさらに備える、
上記(1)に記載の情報処理装置。
(1-5)前記デバイスは、移動手段を備えるロボット装置である、
上記(1-4)に記載の情報処理装置。
(2)前記取得部は、前記識別器のオブジェクトに対する識別性能を取得し、
前記決定部は、前記識別性能が低い原因を解決するための前記デバイスの行動を決定する、
上記(1)に記載の情報処理装置。
(3)前記取得部は、前記識別器がオブジェクトの識別に用いるデータの状態を取得し、
前記決定部は、識別用のデータが不足しているオブジェクトからデータを取得するための前記デバイスの行動を決定する、
上記(1)又は(2)のいずれかに記載の情報処理装置。
(3-1)前記取得部は、前記識別器が識別したオブジェクトの識別用のデータが十分又は不足しているかを取得し、
前記決定部は、データが不足している状態のときに、前記識別したオブジェクトからデータを取得するための前記デバイスの行動を決定する、
上記(3)に記載の情報処理装置。
(3-2)前記取得部は、識別用のデータが不足しているオブジェクトに関する情報を取得し、
前記決定部は、データが不足しているオブジェクトからデータを取得するための前記デバイスの行動を決定する、
上記(3)に記載の情報処理装置。
(4)前記識別器は、ユーザの音声データから話者を識別する話者識別器を含み、
前記決定部は、音声データが不足しているユーザから音声データを収集するための前記デバイスの行動を決定する、
上記(3)に記載の情報処理装置。
(5)前記取得部は、音韻又は音素単位でユーザ識別用の音声データが十分又は不足しているかどうかを取得し、
前記決定部は、不足している音韻又は音素を含む音声データをユーザから収集するための前記デバイスの行動を決定する、
上記(4)に記載の情報処理装置。
(6)前記識別器は、ユーザの顔画像を識別する顔識別器を含み、
前記決定部は、顔画像データが不足しているユーザの顔画像データを収集するための前記デバイスの行動を決定する、
上記(3)乃至(5)のいずれかに記載の情報処理装置。
(7)前記取得部は、顔の向き毎にユーザ識別用の顔データが十分又は不足しているかどうかを取得し、
決定部は、不足している顔の向きの顔画像を収集するための前記デバイスの行動を決定する、
上記(6)に記載の情報処理装置。
(8)前記決定部は、識別用のデータが古くなってしまったユーザからデータを取得するための前記デバイスの行動を決定する、
上記(3)乃至(7)のいずれかに記載の情報処理装置。
(9)前記取得部は、複数の識別器の状態を取得し、
前記決定部は、前記複数の識別器の各状態に基づいて、前記複数の識別器のうち少なくとも1つがオブジェクト識別に用いるデータを取得するための前記デバイスの行動を決定する、
上記(1)乃至(8)のいずれかに記載の情報処理装置。
(10)前記決定部は、第1の識別器で識別できたオブジェクトを第2の識別器で識別するためのデータが不足している場合に、前記オブジェクトから前記第2の識別器で識別に用いるデータを取得するための前記デバイスの行動を決定する、
上記(9)に記載の情報処理装置。
(11)前記決定部は、第1の識別器で識別できたオブジェクトを第2の識別器で識別するためのデータの照合スコアが低い場合に、前記オブジェクトから前記第2の識別器に用いるデータを取得するための前記デバイスの行動を決定する、
上記(9)又は(10)のいずれかに記載の情報処理装置。
(12)前記識別器は、ユーザの音声データから話者を識別する話者識別器とユーザの顔画像を識別する顔識別器を含み、
前記決定部は、
顔識別できたユーザを話者識別するための音声データの照合スコアが低い場合に、前記ユーザから音声データを取得するための前記デバイスの行動を決定し、
話者識別できたユーザを顔識別するための顔画像データの照合スコアが低い場合に、前記ユーザから顔画像データを取得するための前記デバイスの行動を決定する、
上記(11)に記載の情報処理装置。
(13)前記決定部は、ある環境下で前記識別器が前記ユーザの識別に用いるデータ量が不足している場合に、前記環境下でのデータを前記ユーザから取得するための前記デバイスの行動を決定する、
上記(6)に記載の情報処理装置。
(14)前記取得部は、生体情報に基づいてユーザを識別する識別器の状態を取得し、
前記決定部は、生体情報が不足しているユーザから生体情報を取得するための前記デバイスの行動を決定する、
上記(4)乃至(10)のいずれかに記載の情報処理装置。
(14-1)前記決定部は、心拍信号が不足しているユーザに対して接触を促すための前記デバイスの行動を決定する、
上記(14)に記載の情報処理装置。
(14-2)前記決定部は、虹彩の情報が不足しているユーザから虹彩の情報を取得し易くための前記デバイスの行動を決定する、
上記(14)に記載の情報処理装置。
(15)前記識別器がユーザを識別する識別性能の低下を判定する判定部をさらに備え、
前記決定部は、前記識別性能が低下した原因を特定するための前記デバイスの行動を決定し、前記識別性能の低下に応じてユーザから新たに取得したデータの取り扱いを前記識別器に指示する、
上記(4)乃至(14)のいずれかに記載の情報処理装置。
(16)前記決定部は、前記識別性能が低下した原因を特定するための前記ユーザに対する質問文を生成し、前記ユーザからの回答を解析して原因を特定する、
上記(15)に記載の情報処理装置。
(17)前記決定部は、前記原因が前記ユーザの一時的な変化によるものと特定した場合には、前記識別器に対して新たに取得したデータを一時的にのみ使用するように指示する、
上記(15)又は(16)のいずれかに記載の情報処理装置。
(18)前記決定部は、前記原因が前記ユーザの恒久的又は継続的な変化によるものと特定した場合には、前記識別器に対して新たに取得したデータで置き換えるように指示する、
上記(15)乃至(17)のいずれかに記載の情報処理装置。
(19)識別器により識別したオブジェクトに対して自発的に行動するデバイスに関する処理を行う情報処理方法であって、
前記識別器の状態を取得する取得ステップと、
前記状態に基づいて前記デバイスの行動を決定する決定ステップと、
を有する情報処理方法。
(20)センサ部と、
前記センサ部の出力に基づいてオブジェクトを識別する識別部と、
駆動部と、
前記識別部の状態に基づいて、前記駆動部を用いた行動を決定する決定部と、
を具備するロボット装置。
1…脚式ロボット、2…幹部外装ユニット、3…頭部外装ユニット
4R/L…腕部外装ユニット、5R/L…脚部外装ユニット
11…胴体部ユニット、12…頭部ユニット
13A、13B…腕部ユニット、14A、14B…脚部ユニット
21…フレーム、22…腰ベース、23…腰関節機構
24…体幹ロール軸、25…体幹ピッチ軸、26…肩ベース
27…首関節機構、28…首ピッチ軸、29…首ロール軸
30…肩関節機構、31…肩関節ピッチ軸、32…肩関節ロール軸
33…肘関節機構、34…手部
35…肘関節ヨー軸、36…肘関節ピッチ軸、37…股関節機構
38…股関節ヨー軸、39…股関節ロール軸、40…股関節ピッチ軸
41…大腿部フレーム、42…膝関節機構、43…下腿部フレーム
44…足首関節機構、45…足部、46…膝関節ピッチ軸
47…足首関節ピッチ軸、48…足首関節ロール軸
51…タッチセンサ、52…制御ユニット、55…表示部
61…メイン制御部、61A…メモリ、62…周辺回路
63A乃至63D…サブ制御部、71…外部センサ部
72…スピーカ、73…内部センサ部、74…バッテリ
75…外部メモリ81L/R…カメラ、82…マイクロホン
91…バッテリセンサ、92…加速度センサ
101…状態認識情報処理部、101A…音声認識部
101a…制御部、101b…話者識別部
101C…圧力処理部、101D…画像認識部、102…モデル記憶部
103…行動決定機構部、104…姿勢遷移機構部
105…音声合成部、121…特徴抽出部、122…マッチング部
123…音響モデル、124…単語辞書、125…言語モデル
127…話者音声データベース
1101…識別性能判定部、1102…識別性能記憶部
1103…質問生成部、1104…学習判定部

Claims (19)

  1. 識別器により識別したオブジェクトに対して自発的に行動するデバイスに関する処理を行う情報処理装置であって、
    前記識別器の状態を取得する取得部と、
    前記状態に基づいて前記デバイスの行動を決定する決定部と、
    を具備し、
    前記識別器は、ユーザを識別する識別器を含み、
    前記情報処理装置は、前記ユーザを識別する識別器の識別性能の低下を判定する判定部をさらに備え、
    前記決定部は、前記ユーザを識別する識別器の識別性能が低下した原因を特定するための前記デバイスの行動を決定し、前記ユーザを識別する識別器の識別性能の低下に応じてユーザから新たに取得したデータの取り扱いを前記ユーザを識別する識別器に指示する、
    情報処理装置。
  2. 前記取得部は、前記識別器のオブジェクトに対する識別性能を取得し、
    前記決定部は、前記識別性能が低い原因を解決するための前記デバイスの行動を決定する、
    請求項1に記載の情報処理装置。
  3. 前記取得部は、前記識別器がオブジェクトの識別に用いるデータの状態を取得し、
    前記決定部は、識別用のデータが不足しているオブジェクトからデータを取得するための前記デバイスの行動を決定する、
    請求項1に記載の情報処理装置。
  4. 前記識別器は、ユーザの音声データから話者を識別する話者識別器を含み、
    前記決定部は、音声データが不足しているユーザから音声データを収集するための前記デバイスの行動を決定する、
    請求項3に記載の情報処理装置。
  5. 前記取得部は、音韻又は音素単位でユーザ識別用の音声データが十分又は不足しているかどうかを取得し、
    前記決定部は、不足している音韻又は音素を含む音声データをユーザから収集するための前記デバイスの行動を決定する、
    請求項4に記載の情報処理装置。
  6. 前記識別器は、ユーザの顔画像を識別する顔識別器を含み、
    前記決定部は、顔画像データが不足しているユーザの顔画像データを収集するための前記デバイスの行動を決定する、
    請求項3に記載の情報処理装置。
  7. 前記取得部は、顔の向き毎にユーザ識別用の顔データが十分又は不足しているかどうかを取得し、
    決定部は、不足している顔の向きの顔画像を収集するための前記デバイスの行動を決定する、
    請求項6に記載の情報処理装置。
  8. 前記決定部は、識別用のデータが古くなってしまったユーザからデータを取得するための前記デバイスの行動を決定する、
    請求項3に記載の情報処理装置。
  9. 前記取得部は、複数の識別器の状態を取得し、
    前記決定部は、前記複数の識別器の各状態に基づいて、前記複数の識別器のうち少なくとも1つがオブジェクト識別に用いるデータを取得するための前記デバイスの行動を決定する、
    請求項1に記載の情報処理装置。
  10. 前記決定部は、第1の識別器で識別できたオブジェクトを第2の識別器で識別するためのデータが不足している場合に、前記オブジェクトから前記第2の識別器で識別に用いるデータを取得するための前記デバイスの行動を決定する、
    請求項9に記載の情報処理装置。
  11. 前記決定部は、第1の識別器で識別できたオブジェクトを第2の識別器で識別するためのデータの照合スコアが低い場合に、前記オブジェクトから前記第2の識別器に用いるデータを取得するための前記デバイスの行動を決定する、
    請求項9に記載の情報処理装置。
  12. 前記識別器は、ユーザの音声データから話者を識別する話者識別器とユーザの顔画像を識別する顔識別器を含み、
    前記決定部は、
    顔識別できたユーザを話者識別するための音声データの照合スコアが低い場合に、前記ユーザから音声データを取得するための前記デバイスの行動を決定し、
    話者識別できたユーザを顔識別するための顔画像データの照合スコアが低い場合に、前記ユーザから顔画像データを取得するための前記デバイスの行動を決定する、
    請求項11に記載の情報処理装置。
  13. 前記決定部は、ある環境下で前記識別器が前記ユーザの識別に用いるデータ量が不足している場合に、前記環境下でのデータを前記ユーザから取得するための前記デバイスの行動を決定する、
    請求項6に記載の情報処理装置。
  14. 前記取得部は、生体情報に基づいてユーザを識別する識別器の状態を取得し、
    前記決定部は、生体情報が不足しているユーザから生体情報を取得するための前記デバイスの行動を決定する、
    請求項4に記載の情報処理装置。
  15. 前記決定部は、前記ユーザを識別する識別器の識別性能が低下した原因を特定するための前記ユーザに対する質問文を生成し、前記ユーザからの回答を解析して原因を特定する、
    請求項に記載の情報処理装置。
  16. 前記決定部は、前記原因が前記ユーザの一時的な変化によるものと特定した場合には、前記ユーザを識別する識別器に対して新たに取得したデータを一時的にのみ使用するように指示する、
    請求項に記載の情報処理装置。
  17. 前記決定部は、前記原因が前記ユーザの恒久的又は継続的な変化によるものと特定した場合には、前記ユーザを識別する識別器に対して新たに取得したデータで置き換えるように指示する、
    請求項に記載の情報処理装置。
  18. 識別器により識別したオブジェクトに対して自発的に行動するデバイスに関する処理を行う情報処理方法であって、
    前記識別器の状態を取得する取得ステップと、
    前記状態に基づいて前記デバイスの行動を決定する決定ステップと、
    を有し、
    前記識別器は、ユーザを識別する識別器を含み、
    前記情報処理方法は、前記ユーザを識別する識別器の識別性能の低下を判定する判定ステップをさらに有し、
    前記決定ステップでは、前記ユーザを識別する識別器の識別性能が低下した原因を特定するための前記デバイスの行動を決定し、前記ユーザを識別する識別器の識別性能の低下に応じてユーザから新たに取得したデータの取り扱いを前記ユーザを識別する識別器に指示する、
    情報処理方法。
  19. センサ部と、
    前記センサ部の出力に基づいてオブジェクトを識別する識別部と、
    駆動部と、
    前記識別部の状態に基づいて、前記駆動部を用いた行動を決定する決定部と、
    を具備し、
    前記識別部は、ユーザを識別する識別器を含み、
    前記ユーザを識別する識別器の識別性能の低下を判定する判定部をさらに備え、
    前記決定部は、前記ユーザを識別する識別器の識別性能が低下した原因を特定するための前記駆動部を用いた行動を決定し、前記ユーザを識別する識別器の識別性能の低下に応じてユーザから新たに取得したデータの取り扱いを前記ユーザを識別する識別器に指示する、
    ロボット装置。
JP2020507366A 2018-03-20 2019-01-07 情報処理装置及び情報処理方法、並びにロボット装置 Active JP7205533B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018053566 2018-03-20
JP2018053566 2018-03-20
PCT/JP2019/000053 WO2019181144A1 (ja) 2018-03-20 2019-01-07 情報処理装置及び情報処理方法、並びにロボット装置

Publications (2)

Publication Number Publication Date
JPWO2019181144A1 JPWO2019181144A1 (ja) 2021-04-01
JP7205533B2 true JP7205533B2 (ja) 2023-01-17

Family

ID=67987098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020507366A Active JP7205533B2 (ja) 2018-03-20 2019-01-07 情報処理装置及び情報処理方法、並びにロボット装置

Country Status (4)

Country Link
US (1) US11992930B2 (ja)
EP (1) EP3770821A4 (ja)
JP (1) JP7205533B2 (ja)
WO (1) WO2019181144A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024191111A1 (ko) * 2023-03-16 2024-09-19 유재천 Ai 로봇 메디컬 핸드 장치 및 이를 이용한 자가 검사 방법

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI722709B (zh) * 2019-12-10 2021-03-21 東海大學 智慧型聲音故事生成之方法及系統
JP7283495B2 (ja) * 2021-03-16 2023-05-30 カシオ計算機株式会社 機器の制御装置、機器の制御方法及びプログラム
WO2023275971A1 (ja) * 2021-06-29 2023-01-05 日本電気株式会社 情報処理装置、情報処理方法及び非一時的なコンピュータ可読媒体
EP4443430A1 (en) * 2021-12-03 2024-10-09 Panasonic Intellectual Property Management Co., Ltd. Voice registration device and voice registration method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004252111A (ja) 2003-02-19 2004-09-09 Sony Corp 学習装置及び学習方法並びにロボット装置
JP2006285882A (ja) 2005-04-05 2006-10-19 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2007065766A (ja) 2005-08-29 2007-03-15 Sony Corp 画像処理装置および方法、並びにプログラム
JP2008009914A (ja) 2006-06-30 2008-01-17 Canon Inc 画像処理装置、画像処理方法、プログラム、記憶媒体

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9189611B2 (en) * 2013-02-07 2015-11-17 Sony Corporation Adapting content and monitoring user behavior based on facial recognition
US9711148B1 (en) * 2013-07-18 2017-07-18 Google Inc. Dual model speaker identification
GB2517952B (en) * 2013-09-05 2017-05-31 Barclays Bank Plc Biometric verification using predicted signatures
US10395640B1 (en) * 2014-07-23 2019-08-27 Nvoq Incorporated Systems and methods evaluating user audio profiles for continuous speech recognition
US10446141B2 (en) * 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
JP6084654B2 (ja) 2015-06-04 2017-02-22 シャープ株式会社 音声認識装置、音声認識システム、当該音声認識システムで使用される端末、および、話者識別モデルを生成するための方法
KR102420450B1 (ko) * 2015-09-23 2022-07-14 삼성전자주식회사 음성인식장치, 음성인식방법 및 컴퓨터 판독가능 기록매체
JP6120927B2 (ja) 2015-09-24 2017-04-26 シャープ株式会社 対話システム、対話を制御する方法、およびコンピュータを対話システムとして機能させるためのプログラム
CN106570443A (zh) * 2015-10-09 2017-04-19 芋头科技(杭州)有限公司 一种快速识别方法及家庭智能机器人
GB2552723A (en) * 2016-08-03 2018-02-07 Cirrus Logic Int Semiconductor Ltd Speaker recognition
US10339935B2 (en) * 2017-06-19 2019-07-02 Intel Corporation Context-aware enrollment for text independent speaker recognition
US20190147046A1 (en) * 2017-11-16 2019-05-16 Facebook, Inc. Systems and methods for providing personalized context-aware information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004252111A (ja) 2003-02-19 2004-09-09 Sony Corp 学習装置及び学習方法並びにロボット装置
JP2006285882A (ja) 2005-04-05 2006-10-19 Sony Corp 情報処理装置、情報処理方法、およびプログラム
JP2007065766A (ja) 2005-08-29 2007-03-15 Sony Corp 画像処理装置および方法、並びにプログラム
JP2008009914A (ja) 2006-06-30 2008-01-17 Canon Inc 画像処理装置、画像処理方法、プログラム、記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024191111A1 (ko) * 2023-03-16 2024-09-19 유재천 Ai 로봇 메디컬 핸드 장치 및 이를 이용한 자가 검사 방법

Also Published As

Publication number Publication date
EP3770821A4 (en) 2021-05-12
US20200406469A1 (en) 2020-12-31
US11992930B2 (en) 2024-05-28
WO2019181144A1 (ja) 2019-09-26
JPWO2019181144A1 (ja) 2021-04-01
EP3770821A1 (en) 2021-01-27

Similar Documents

Publication Publication Date Title
JP7205533B2 (ja) 情報処理装置及び情報処理方法、並びにロボット装置
AU2018204246B2 (en) Method of performing multi-modal dialogue between a humanoid robot and user, computer program product and humanoid robot for implementing said method
Roy Grounded spoken language acquisition: Experiments in word learning
JP7205148B2 (ja) ロボット、制御方法、及び、プログラム
US20020198717A1 (en) Method and apparatus for voice synthesis and robot apparatus
JP2003255989A (ja) 学習装置及び学習方法並びにロボット装置
JP2003255991A (ja) 対話制御システム、対話制御方法及びロボット装置
JP4250340B2 (ja) 仮想ペット装置及びその制御プログラム記録媒体
JP7416295B2 (ja) ロボット、対話システム、情報処理方法及びプログラム
JP2006123136A (ja) コミュニケーションロボット
JP4600736B2 (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP4587009B2 (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP4706893B2 (ja) 音声認識装置および方法、並びに、プログラムおよび記録媒体
JP2005335001A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
WO2020004213A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP4250635B2 (ja) 仮想ペット装置及びその制御プログラム記録媒体
JP2001154693A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2004286805A (ja) 話者識別装置および話者識別方法、並びにプログラム
JP4635486B2 (ja) 概念獲得装置及びその方法、並びにロボット装置及びその行動制御方法
JP2004309523A (ja) ロボット装置の動作パターン共有システム、ロボット装置の動作パターン共有方法、及びロボット装置
JP2001212779A (ja) 行動制御装置および行動制御方法、並びに記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221212

R151 Written notification of patent or utility model registration

Ref document number: 7205533

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151