JP2006289508A - ロボット装置及びその表情制御方法 - Google Patents
ロボット装置及びその表情制御方法 Download PDFInfo
- Publication number
- JP2006289508A JP2006289508A JP2005109242A JP2005109242A JP2006289508A JP 2006289508 A JP2006289508 A JP 2006289508A JP 2005109242 A JP2005109242 A JP 2005109242A JP 2005109242 A JP2005109242 A JP 2005109242A JP 2006289508 A JP2006289508 A JP 2006289508A
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- facial expression
- user
- robot
- expression
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Toys (AREA)
Abstract
【課題】
本発明は、簡易な構成で、ユーザとの間で適切なインタラクションを行い得るロボット装置及びその制御方法を実現するものである。
【解決手段】
表情生成部106が、ユーザ発話やロボット装置自身の発話に応じて表情表出を制御することにより、あたかもロボットが発話に応じた感情を抱いているかのような自然な印象をユーザに対して与えることができる。
【選択図】 図16
本発明は、簡易な構成で、ユーザとの間で適切なインタラクションを行い得るロボット装置及びその制御方法を実現するものである。
【解決手段】
表情生成部106が、ユーザ発話やロボット装置自身の発話に応じて表情表出を制御することにより、あたかもロボットが発話に応じた感情を抱いているかのような自然な印象をユーザに対して与えることができる。
【選択図】 図16
Description
本発明はロボット装置及びその表情制御方法に関し、例えばヒューマノイド型のロボットに適用して好適なものである。
近年、2足歩行型のヒューマノイド型のロボットが多くの企業等において開発され、商品化されている。そしてこのようなロボットの中には、CCD(Charge Coupled Device)カメラやマイクロホン等の各種外部センサが搭載され、これら外部センサの出力に基づいて外部状況を認識し、認識結果に基づいて自律的に行動し得るようになされたものなどもある。
また近年では、感情・本能モデルや音声認識機能及び対話制御機能を搭載し、人間との間で簡単な日常会話を行い得るようになされたロボットも提案されている(例えば、特許文献1参照)。
特開2003−191187公報
このようなロボットが人間との間で音声を通じたインタラクションを行う場合、ロボットがユーザの音声入力を受けつける際に、ユーザの発話に反応しているとか、ユーザの発話を正しく聞いているという状態を明示的に表現する手段を持つことが必要である。人間は、相手が自分の発話を認識したのかを確認出来ないと不安になり、これがインタラクションを継続する上での障害となるからである。
従来、ロボットがユーザの発話に注意を向けていることを表現する方法として、ユーザの顔をカメラでトラッキングする手法が用いられている。しかしながら、この顔トラッキングのような連続的な表現手法では、ロボットがいつの時点で発話を認識したのかというタイミングを確認することができないという問題がある。
一方、ロボットがユーザに対して発話状態であることを明示的に示す表現する手段を持つことも重要である。なぜなら、複数のロボットとのコミュニケーションを実現しようと考えた場合、発話中のロボットをユーザが識別できないと、インタラクションを成立させる上での障害となるからである。
従来、自律的に音声発話を行うヒューマノイドロボットであっても、そもそも口の動きに相当する表現手段を機械的に搭載したものはなく、それに代わるものとして、音声と連動してLED(Light Emitting Diode)のような発光手段を点滅することによって、発話状態であることをユーザに伝えるといった手法が用いられてきた。
しかし、発光手段の点滅はその表現の抽象性ゆえ発話以外の意味を示す手段としても利用されるために、発光手段が点滅したことが必ずしも発話と一致しないという状態を生じ、ユーザに対して混乱を生じさせる原因ともなっていた。
また、発話、音声認識など明示的なイベントを伴うインタラクションを行っていない場合においても、表情などを通したロボット側の能動的な動きがないと、ロボットは思考を継続している(起動している)のか、音声入力待ちの状態になっているのかといった動作状態が分からないため、ユーザはこのロボットに対して話しかけても大丈夫なのかという不安感を与える原因となっていた。
また、ロボット自身の感情をはじめとする内部状態の表現方法として、従来、表示手段の発光色を変化させる、ジェスチャを変化させるなどによる表現が用いられてきたが、表現しようとする感情と色表現、ジェスチャなどとの対応が、前提知識を持たないユーザには直感的に理解し難く、設計者の意図を正しくユーザに伝えることが困難であるという問題があった。
特に近年ではロボットの小型化が進んでおり、上述した複雑な構成の駆動機構を小型化された頭部に収納することは困難であるという問題があった。
特に近年ではロボットの小型化が進んでおり、上述した複雑な構成の駆動機構を小型化された頭部に収納することは困難であるという問題があった。
本発明は以上の点を考慮してなされたもので、簡易な構成で、ユーザとの間で適切なインタラクションを行い得るロボット装置及びその表情制御方法を提案しようとするものである。
かかる課題を解決するため本発明においては、ユーザとの対話機能を有するロボット装置において、ユーザの発話を検出するユーザ発話検出手段と、ユーザ発話検出手段で検出したユーザの発話に基づいて、ロボット装置に設けられた表情表出手段を駆動する表情制御手段とをロボット装置に設けた。
そして表情制御手段は、ユーザ発話検出手段によってユーザの発話が検出されたとき、表情表出手段を駆動して当該発話を検出した旨を通知するようにした。
これにより、ユーザの発話を聴き取っていることを視覚を通じて直感的な形で通知することができる。
また、検出したユーザの発話の特徴量を抽出するユーザ発話特徴量検出手段をロボット装置に設け、表情制御手段は、抽出したユーザの発話の特徴量に基づいて表情表出手段を駆動するようにした。
これにより、あたかもロボット装置がユーザの発話に対応した感情を抱いているかのような直感的な印象をユーザに与えることができる。
また本発明においては、ユーザとの対話機能を有するロボット装置において、ロボット装置自身の発話を生成し音声出力する発話生成手段と、ロボット装置自身の発話に基づいて、ロボット装置に設けられた表情表出手段を駆動する表情制御手段とをロボット装置に設けた。
そして表情制御手段は、発話生成手段によって発話が出力されているとき、表情表出手段を駆動して発話を行っている旨を通知するようにした。
これにより、ロボット装置が発話していることを、視覚を通じて直感的な形で通知することができる。
また、ロボット装置自身の発話の特徴量を抽出するロボット発話特徴量検出手段をロボット装置に設け、表情制御手段は、抽出したロボット装置自身の発話の特徴量に基づいて表情表出手段を駆動するようにした。
これにより、あたかもロボット装置が自身の発話に対応した感情を抱いているかのような直感的な印象をユーザに与えることができる。
さらに本発明においては、ロボット装置自身の状態に基づいて、優先度が高いコマンドと、優先度が低いコマンドの少なくとも2種の表情生成コマンドを発行するコマンド発行手段と、表情生成コマンドに基づいて、ロボット装置に設けられた表情表出手段を駆動する表情制御手段とをロボット装置に設け、表情制御手段は、複数の表情生成コマンドを同時に受け付けたとき、優先度が高いコマンドを選択して実行するようにした。
これにより、複数の表情生成コマンドに基づく表情を、競合させることなく、同じ表情表出手段上で表出させることができる。
本発明によれば、ユーザとの間で適切なインタラクションを行い得るロボット装置及びその表情制御方法を実現できる。
以下図面について、本発明の一実施の形態を詳述する。
(1)ロボットの全体構成
図1及び図2において、1は全体として本実施の形態によるロボットを示し、胴体部ユニット2の上部に首部3を介して頭部ユニット4が連結されると共に、当該胴体部ユニット2の上部左右両側面にそれぞれ腕部ユニット5A、5Bが連結され、かつ当該胴体部ユニット2の下部に一対の脚部ユニット6A、6Bが連結されることにより構成されている。
図1及び図2において、1は全体として本実施の形態によるロボットを示し、胴体部ユニット2の上部に首部3を介して頭部ユニット4が連結されると共に、当該胴体部ユニット2の上部左右両側面にそれぞれ腕部ユニット5A、5Bが連結され、かつ当該胴体部ユニット2の下部に一対の脚部ユニット6A、6Bが連結されることにより構成されている。
この場合、首部3は、図3に示すように、首関節ピッチ軸10回り、首関節ヨー軸11回り及び首関節ピッチ軸12回りの自由度を有する首関節機構部13により保持されている。また頭部ユニット4は、この首部3の先端部に図3のように首部ロール軸14回りの自由度をもって取り付けられている。これによりこのロボット1においては、頭部ユニット4を前後、左右及び斜めの所望方向に向かせることができるようになされている。
また各腕部ユニット5Aは、図1及び図2において明らかなように、上腕部ブロック15、前腕部ブロック16及び手先部ブロック17の3つのブロックから構成され、上腕部ブロック15の上端部が図3のように肩ピッチ軸18回り及び肩ロール軸19回りの自由度を有する肩関節機構部20を介して胴体部ユニット2に連結されている。
このとき前腕部ブロック16は、図3のように上腕部ブロック15に上腕ヨー軸21回りの自由度をもって連結されている。また手先部ブロック17は、図3のように前腕部ブロック16に手首ヨー軸22回りの自由度をもって連結されている。さらに前腕部ブロック16には、肘ピッチ軸23回りの自由度を有する肘関節機構部24が設けられている。
これによりロボット1においては、これら腕部ユニット5A、5Bを全体としてほぼ人間の腕部と同様の自由度をもって動かすことができ、かくして片手を上げた挨拶や腕部ユニット5A、5Bを振り回すダンスなどの当該腕部ユニット5A、5Bを用いた各種行動を行い得るようになされている。
さらに手先部ブロック17の先端部には、5本の指部25がそれぞれ屈曲及び伸長自在に取り付けられており、これによりこれら指部を使って物を摘んだり、把持することができるようになされている。
他方、各脚部ユニット6A、6Bは、図1及び図2において明らかなように、大腿部ブロック30、脛部ブロック31及び足平部ブロック32の3つのブロックから構成され、大腿部ブロック30の上端部が図3のように股関節ヨー軸33回り、股関節ロール軸34回り及び股関節ピッチ軸35回りの自由度を有する股関節機構部36を介して胴体部ユニット2に連結されている。
このとき大腿部ブロック30及び脛部ブロック31は、図3のように脛ピッチ軸37回りの自由度を有する膝関節機構部38を介して連結されると共に、脛ブロック31及び足平ブロック32は、図3のように足首ピッチ軸39回り及び足首ロール軸40回りの自由度を有する足首関節機構部41を介して連結されている。
これによりロボット1においては、これら脚部ユニット6A、6Bを人間の脚部とほぼ同様の自由度をもって動かすことができ、かくして歩行やボールを蹴るなどの脚部ユニット6A、6Bを用いた各種行動を行い得るようになされている。
さらに胴体部ユニット2の後側上部には、首部3を囲むようにグリップハンドル2Aが設けられており、かくしてユーザがこのグリップハンドル2Aを手掛かりとして、ロボット1全体を持ち上げることができるようになされている。
なおこのロボット1の場合、各股関節機構部36は、図3のように体幹ロール軸42回り及び体幹ピッチ軸43回りの自由度を有する腰関節機構部44により支持されており、これにより胴体部ユニット2を前後、左右方向に自在に傾かせることもできるようになされている。
ここでロボット1においては、上述のように頭部ユニット4、各腕部ユニット5A、5B、各脚部ユニット6A、6B及び胴体部ユニット2を動かすための動力源として、図4に示すように、首関節機構部13及び肩関節機構部20等の各関節機構部を含む各自由度を有する部位に、それぞれその自由度数分のアクチュエータA1〜A17が配設されている。
また頭部ユニット4には、後述する瞼の開閉や回転、及び口部を開閉するための動力源として、アクチュエータA18〜A20が配設されている。
一方胴体部ユニット2には、当該ロボット1全体の動作制御を司るメイン制御部50と、電源回路及び通信回路などの周辺回路51と、バッテリ52(図5)となどが収納されると共に、各構成ユニット(胴体部ユニット2、頭部ユニット4、各腕部ユニット5A、5B及び各脚部ユニット6A、6B)内には、それぞれメイン制御部50と電気的に接続されたサブ制御部53A〜53Dが収納されている。
さらに頭部ユニット4には、図5に示すように、このロボット1の「目」として機能する一対のCCD(Charge Coupled Device)カメラ60A、60B及び「耳」として機能するマイクロホン61などの各種外部センサと、発声装置として機能するスピーカ62となどがそれぞれ所定位置に配設されている。
また各脚部ユニット6A、6Bにおける足平部ブロック32の裏面や、グリップハンドル2Aの把持部分等の各所定部位には外部センサとしてのタッチセンサ63が配設されている。なお、以下においては、各脚分ユニット6A、6Bにおける足平部ブロック32の裏面に設けられたタッチセンサ63を足底力センサ63L、63Rと呼び、グリップハンドル2Aの把持部分に設けられたタクトスイッチでなるタッチセンサ63をグリップスイッチ63Gと呼ぶものとする。
さらに胴体部ユニット2内には、バッテリセンサ64及び加速度センサ65などの各種内部センサが配設されると共に、各構成ユニット内には、それぞれ各アクチュエータA1〜A20にそれぞれ対応させて、対応するアクチュエータA1〜A20の出力軸の回転角度を検出する内部センサとしてのポテンショメータP1〜P20が設けられている。
そして各CCDカメラ60A、60Bは、周囲の状況を撮像し、得られた画像信号S1Aをサブ制御部53B(図5において図示せず)を介してメイン制御部50に送出する一方、マイクロホン61は、各種外部音を集音し、かくして得られた音声信号S1Bをサブ制御部53Bを介してメイン制御部50に送出する。また各タッチセンサ63は、ユーザからの物理的な働きかけや、外部との物理的な接触を検出し、検出結果を圧力検出信号S1Cとして対応するサブ制御部53A〜53D(図5において図示せず)を介してメイン制御部50に送出する。
さらにバッテリセンサ64は、バッテリ52のエネルギ残量を所定周期で検出し、検出結果をバッテリ残量信号S2Aとしてメイン制御部50に送出する一方、加速度センサ65は、3軸(x軸、y軸及びz軸)の加速度を所定周期で検出し、検出結果を加速度検出信号S2Bとしてメイン制御部50に送出する。また各ポテンショメータP1〜P20は、対応するアクチュエータA1〜A20の出力軸の回転角度を検出し、検出結果を所定周期で角度検出信号S2C1〜S2C20として対応するサブ制御部53A〜53Dを介してメイン制御部50に送出する。
メイン制御部50は、CCDカメラ60A、60B、マイクロホン61及び各タッチセンサ63等の各種外部センサからそれぞれ供給される画像信号S1A、音声信号S1B及び圧力検出信号S1C等の外部センサ信号S1と、バッテリセンサ64、加速度センサ65及び各ポテンショメータP1〜P20等の各種内部センサからそれぞれ供給されるエネルギ残量信号S2A、加速度検出信号S2B及び各角度検出信号S2C1〜S2C20等の内部センサ信号S2とに基づいて、ロボット1の外部及び内部の状況や、ユーザの物理的な働きかけの有無等を判断する。
そしてメイン制御部50は、この判断結果と、予め内部メモリ50Aに格納されている制御プログラムと、そのとき装填されている外部メモリ66に格納されている各種制御パラメータとなどに基づいて続くロボット1の行動を決定し、当該決定結果に基づく制御コマンドを対応するサブ制御部53A〜53D(図4)に送出する。
この結果、この制御コマンドに基づき、そのサブ制御部53A〜53Dの制御のもとに、対応するアクチュエータA1〜A17が駆動され、かくして頭部ユニット4を上下左右に揺動させたり、腕部ユニット5A、5Bを上に上げたり、歩行するなどの各種行動がロボット1により発現される。
このようにしてこのロボット1は、外部及び内部の状況等に基づいて自律的に行動することができるようになされている。
(2)頭部ユニットの構成
図6及び図7は頭部ユニット4の構成を示し、頭部外装4Aの前面下方に略半月状の平板でなる口部69が設けられているとともに、当該頭部外装4Aの前面には左右の目部70(左目部70A及び右目部70B)が設けられている。
図6及び図7は頭部ユニット4の構成を示し、頭部外装4Aの前面下方に略半月状の平板でなる口部69が設けられているとともに、当該頭部外装4Aの前面には左右の目部70(左目部70A及び右目部70B)が設けられている。
口部69は、頭部外装4Aの内部における2つの目部70の中間上方に内蔵された口部駆動モータ69A(アクチュエータA18)によって、その一片を支点として開閉駆動される。
そしてメイン制御部50(図5)は、スピーカ62(図5)からの発声に同期して口部69を開閉させることにより、あたかもロボット1が実際にこの口部69から音声を発声しているかのような印象をユーザに与え得るとともに、複数のロボット1のうちの発声中の個体を視覚を介してユーザに認識させることができる。
またメイン制御部50は、後述する上瞼81及び下瞼82の開閉や回転に同期して口部69を開閉することもでき、これにより様々な表情を表出し得るようになされている。
一方目部70は、図7に示すように、すりばち状に凹んだ眼窩71の奥に眼球部72が配設されている。眼窩71は、図示しないLED(Light Emitting Diode)によって照明される。また眼球部72は、CCDカメラ60を内蔵したカメラケース72Aと、その前方に設けられた瞳72Bとで構成される。そしてCCDカメラ60は、カメラケース72A及び瞳72Bの中央に開口された瞳孔を介して外部を撮像し得るようになされている。
カメラケース72Aは、連結部材72Bを介して左右のカメラケース72Aが一体に連結され、さらに当該連結部材72Bを介して頭部ユニット4のメインフレーム75に固定されている。
(3)瞼開閉部の構成
さらに本発明のロボット1では、図7に示すように、上瞼81及び下瞼82を眼窩71と眼球部72との間の空間内で開閉駆動して、当該眼球部72を被覆及び露出する瞼開閉部80(左瞼開閉部80A及び右瞼開閉部80B)を有している。このように本発明のロボット1では、瞼を上瞼81及び下瞼82の2つに分離したことにより、瞼一個当たりの開閉の移動量を、瞼が一体の場合に比べて格段に少なくすることができ、ロボット顔面の非常に限られたスペース内に開閉する瞼を組み込む事ができる。
さらに本発明のロボット1では、図7に示すように、上瞼81及び下瞼82を眼窩71と眼球部72との間の空間内で開閉駆動して、当該眼球部72を被覆及び露出する瞼開閉部80(左瞼開閉部80A及び右瞼開閉部80B)を有している。このように本発明のロボット1では、瞼を上瞼81及び下瞼82の2つに分離したことにより、瞼一個当たりの開閉の移動量を、瞼が一体の場合に比べて格段に少なくすることができ、ロボット顔面の非常に限られたスペース内に開閉する瞼を組み込む事ができる。
図8及び図9に示すように、瞼開閉部80においては、上瞼81及び下瞼82はそれぞれ上瞼ガイド軸84A及び下瞼ガイド軸84Bに支持されて上下に摺動し、上下の瞼があたかも開閉するかのような直線運動を行う。さらに、上瞼81の先端部81Aは上瞼抑え85Aと瞼開閉部シャーシ83との間で保持され、これにより上瞼81は瞼開閉部シャーシ83に対して常に平行な状態で往復移動する。同様に、下瞼82の先端部82Aは下瞼ガイドに挟み込まれるように保持され、これにより下瞼82も瞼開閉部シャーシ83に対して常に平行な状態で往復移動する。
そして、上瞼81にはラック81Bが形成されており、瞼開閉駆動機構86の最終段ギア86Eに対して歯合している。瞼開閉駆動機構86は、瞼開閉モータ86M(アクチュエータA19)の回転力をウォーム86A及びギア86B〜86Eを順次介して減速しながらラック81Bに伝達し、これにより上瞼81を開閉駆動する。
また、最終段ギア86Eにはポテンショメータ86P(P19)が接続されており、当該最終段ギア86Eの回転角に基づいて上瞼81の開き状態を検出し得るようになされている。
さらに、ギア86Dには摩擦クラッチが内蔵されており、過大なトルクが発生した場合に当該摩擦クラッチが滑り、これにより上瞼81が所定の移動範囲を超えてストッパーに突き当たった場合や異物が上瞼81及び下瞼82の間に挟まった場合等、瞼開閉駆動機構86内に過大なトルクが発生した場合の機構破損を防止している。
これに加えて瞼開閉部80は、上瞼81の閉動作に連動して下瞼82の閉動作させるための瞼連動リンク87が、瞼開閉部シャーシ83のおける開口部下側(下瞼側)に、軸部87Cを介して回動自在に設けられている。また図10に示すように、上瞼81におけるラック81Bの裏側(すなわちシャシー側)には上瞼81の閉動作を瞼連動リンク87に伝達するための上瞼連動ピン81Cが突設され、下瞼82には瞼連動リンク87の回動動作を当該下瞼82に伝達するための下瞼連動ピン82Cが突設されている。さらに、下瞼82は図示しない付勢ばねによって開方向に常時付勢され、当該下瞼82の下瞼連動ピン82Cと瞼連動リンク87の下瞼側連動端87Bとは常時接触している。
図10に示す瞼全開状態においては、全開位置にある上瞼81の上瞼連動ピン81Cは瞼連動リンク87のはるか上方にあり、上瞼連動ピン81Cと瞼連動リンク87とは接触していない。一方、下瞼82は付勢ばねによって開方向に付勢されて自然位置(すなわち全開位置)にある。
この状態から、上瞼81は最終段ギア86Eの回転に連動して下方へと移動して閉じていき、図11に示すように、当該上瞼81が半分程度まで閉じた時点で上瞼連動ピン81Cと上瞼側連動端87Aとが接触する。これ以降、瞼連動リンク87は下瞼82を上瞼81に連動して閉動作させる。
すなわち図12に示すように、瞼連動リンク87は、上瞼連動ピン81Cによる上瞼側連動端87Aの押し下げに応じて反対側の下瞼側連動端87Bが持ち上がり、これにより下瞼側連動端87Bが下瞼連動ピン82Cを押し上げて下瞼82を上昇(閉動作)させていく。そして図13に示すように、上瞼81と下瞼82とが接触して瞼が完全に閉じた状態となる。
このように瞼開閉部80は、上瞼81の動きを瞼連動リンク87を介して下瞼82に伝達することにより、片目当たり1個の瞼開閉モータ86Mで上瞼81及び下瞼82の双方を駆動することができる。
また瞼連動リンク87は、入力端である上瞼側連動端87Aと支点である軸部87Cとの間隔に比べて、出力端である下瞼側連動端87Bと軸部87Cとの間隔が大きく設定されており、これにより下瞼82は上瞼81に比べて速く移動する。また上述したように、下瞼82は上瞼81が半分ほど閉じた状態から閉じ始める。
このため瞼開閉部80は、図14(A)に示す瞼全開状態から、先に上瞼81が閉じ始め(図14(B))、当該上瞼81が半分ほど閉じた時点で下瞼82が上瞼81よりも速い速度で移動を開始し(図14(C)、最終的に上下瞼が合致して図14(D)に示す瞼全閉状態となる。
これにより瞼開閉部80は、片目当たり1個の瞼開閉モータ86Mで、上瞼81及び下瞼82をそれぞれ異なる移動開始タイミング及び移動速度で駆動することができる。
さらに本発明のロボット1では、左右の瞼をそれぞれ独立して開閉させることにより、例えば図14(D)に示すウインク等の様々な表情を表出するようになされている。
(4)瞼回転部の構成
かかる構成に加えて本発明のロボット1では、瞼開閉部80を回転させることにより瞼を傾斜させ、上述した瞼の開閉と併せて様々な表情を表出するための、瞼回転部90(左瞼回転部90A及び右瞼回転部90B)を有している(図7〜9)。
かかる構成に加えて本発明のロボット1では、瞼開閉部80を回転させることにより瞼を傾斜させ、上述した瞼の開閉と併せて様々な表情を表出するための、瞼回転部90(左瞼回転部90A及び右瞼回転部90B)を有している(図7〜9)。
図9に示すように瞼回転部90は、瞼回転モータ91Mの回転力を減速して回転軸92に伝達するための瞼回転駆動機構91と、回転軸92に接続され当該回転軸92とともに矢印A方向及びその反対方向に回転する瞼回転部シャーシ93とを有している。そして瞼回転部90は、回転軸92の中心と眼球部72の中心とが略一致した状態で、取付板95を介して頭部ユニット4のメインフレーム75に固定されている。これによりこのロボット1では、片目当たり1個の瞼回転モータ91Mのみによって、瞼を様々な角度に傾斜させることができる。
このようにこのロボット1では、眼球部72の前面側に瞼開閉部80を設けるとともに、当該眼球部72の背面側に瞼開閉部80を回転駆動する瞼回転部90を設けたことにより、眼球部72のCCDカメラによる撮像機能に何ら影響を及ぼすことなく、瞼を様々な角度に傾斜させて、喜怒哀楽等の様々な表情を表出することができる(図15(A)〜(C))。
さらに本発明のロボット1では、左右の瞼を同方向に向けて傾斜させることにより、あたかも横目で見るような表情を表出することができる(図15(D))。
(5)インタラクションに関する制御部の処理内容
次に、ユーザとの間のインタラクションに関するメイン制御部50の処理内容について説明する。
次に、ユーザとの間のインタラクションに関するメイン制御部50の処理内容について説明する。
このロボット1のインタラクションに関するメイン制御部50の処理内容を機能的に分類すると、図16に示すように、外界の状況を知るためにロボット1に搭載されているCCDカメラ60やマイクロホン61等のセンサ100と、マイクロホン61を介して集音したユーザ音声の音声区間を検出して抽出する音声区間検出部101と、音声区間検出部101から送られた音声を文字列に認識する音声認識部102と、音声認識部102から受け取った文字列に基づいてロボットの返答を生成する応答生成部103と、音声認識部102が生成した文字列を音声に変換して出力する音声合成部104と、マイクロホン61からの情報をもとに音源の方向や音の強度の情報を出力する音源方向検出部105と、音声区間検出部101や、応答生成部103からの情報に基づいてロボット1の表情を制御する表情生成部106とに分けることができる。
(5−1)ユーザ発話に対するまばたき生成
ユーザ発話検出手段としての音声区間検出部101は、ユーザ音声の音声区間の開始を検知すると、これに応じて音声区間開始を示すbegin信号を表情生成部106に送る。表情生成部106はbegin信号に基づいて瞼開閉部80(図9)を制御し、両瞼を同時に開−閉−開と遷移させる「まばたき」をn回(n=1,2…)実行させることにより、ユーザに対して、その発話をロボット1が聴き取っていることを表現する。
ユーザ発話検出手段としての音声区間検出部101は、ユーザ音声の音声区間の開始を検知すると、これに応じて音声区間開始を示すbegin信号を表情生成部106に送る。表情生成部106はbegin信号に基づいて瞼開閉部80(図9)を制御し、両瞼を同時に開−閉−開と遷移させる「まばたき」をn回(n=1,2…)実行させることにより、ユーザに対して、その発話をロボット1が聴き取っていることを表現する。
このユーザ発話に対するまばたきは短期的な表情変化であり、後述する表情共存方法におけるバックグラウンドコマンドとして生成される。
(5−2)ユーザ以外の音源に対する注意表現
人間とロボットとのインタラクション場面においては、ロボットの注意がどこへ向けられているかをユーザに通知することが、よりスムーズなインタラクションを行う上で重要である。例えば、ロボットとユーザとのインタラクション中に周囲で大きな音が発生したとする。ユーザはこの音に対して注意を引かれるが、ロボットがこの音に対して反応せずにインタラクションを継続した場合、これがユーザに対して不自然な印象を与えることが考えられる。
人間とロボットとのインタラクション場面においては、ロボットの注意がどこへ向けられているかをユーザに通知することが、よりスムーズなインタラクションを行う上で重要である。例えば、ロボットとユーザとのインタラクション中に周囲で大きな音が発生したとする。ユーザはこの音に対して注意を引かれるが、ロボットがこの音に対して反応せずにインタラクションを継続した場合、これがユーザに対して不自然な印象を与えることが考えられる。
一方、ロボットが音源へと注意を向けていることを表現する方法として、首を回転させて頭全体を音源方向に思考させたり、カメラ(すなわち目)を音源方向へ向けるなどの方法が用いられる。
しかしながらこれらの方法では、カメラのフォーカス(すなわち視線)も同時に移動してしまうため、対話中にはユーザを見ることを中断しなければならないとともに、ユーザにとっては、ロボットが対話を中断して全注意を音源に向けたかのような印象を与えてしまうという問題がある。
このため表情制御手段としての表情生成部106は、瞬間的な外音等の振り向くまでもないような重要度の低い音イベントに対する注意を表現する際には、図17(A)〜(B)に示すように、まず、音のする方向の瞼のみを開くことにより、ユーザに視線を合わせつつも横目でちらっと音源方向を見るような、音源に対する軽い注意を表現する。
さらに表情生成部106は、外音が連続したり当該外音の音量が極めて大きい等、音イベントの重要性が高いと判断した場合は、図17(C)に示すように、両瞼の音源側を持ち上げるようにして傾けることにより、音源に対するやや強い注意を表現する。
このようにロボット1は、外音に対する軽い注意を瞼を用いて表現することにより、ユーザに対して視線を合致しながら、ユーザに対して周囲の状況を共有しているかのような安心感を与えるようになされている。
この外音に対する注意表現は短期的な表情変化であり、後述する表情共存方法におけるバックグラウンドコマンドとして生成される。
(5−3)発声に同期した口部の開閉
発話生成手段としての応答生成部103は、ユーザの発話に基づいてロボット自身の発話を生成するとともに、発話開始タイミング及び発話長情報を表情生成部106に供給する。表情制御手段としての表情生成部106は発話開始タイミング及び発話長情報に基づいて、ロボット1が発話している間、口部69(図6)を開閉させることにより、あたかもロボット1が口部69を用いて発声しているかのような印象をユーザに与えるとともに、複数のロボット1の中での発話中の個体を視覚によって認識させることができる。
発話生成手段としての応答生成部103は、ユーザの発話に基づいてロボット自身の発話を生成するとともに、発話開始タイミング及び発話長情報を表情生成部106に供給する。表情制御手段としての表情生成部106は発話開始タイミング及び発話長情報に基づいて、ロボット1が発話している間、口部69(図6)を開閉させることにより、あたかもロボット1が口部69を用いて発声しているかのような印象をユーザに与えるとともに、複数のロボット1の中での発話中の個体を視覚によって認識させることができる。
この発声に同期した口開閉は短期的な表情変化であり、後述する表情共存方法におけるバックグラウンドコマンドとして生成される。
(5−4)音声の特徴量に応じた表情生成
発話生成手段としての応答生成部103は、ロボット自身の発話の音量情報及び発話長情報を表情生成部106に供給する。表情制御手段としての表情生成部106はこれらの特徴量に基づいて、図18に示すように瞼の開度及び回転角を変化させることにより、あたかもロボット1が発話に対応した感情を抱いているかのような印象をユーザに与えることができる。
発話生成手段としての応答生成部103は、ロボット自身の発話の音量情報及び発話長情報を表情生成部106に供給する。表情制御手段としての表情生成部106はこれらの特徴量に基づいて、図18に示すように瞼の開度及び回転角を変化させることにより、あたかもロボット1が発話に対応した感情を抱いているかのような印象をユーザに与えることができる。
また表情生成部106は、マイクロホン61を介して集音したユーザ音声の特徴量に基づいて、図18に示すように瞼の開度及び回転角を変化させることにより、あたかもロボット1がユーザ音声に応じた感情を抱いているかのような印象をユーザに与えることができる。
この場合、音量情報として、音声区間検出部101から出力される音声区間の音声のPowerの最大値を使用する。また、発話長情報として、音声区間検出部101から出力される音声区間のframe数を用いる(音声区間の検出器によってサンプリングレートは決定される。例えば10msec=1frameなど。)。
このPowerとframe数を−1から1の値に正規化し、これら2つの特徴量の値から、瞼の開度及び回転角を決定する。それぞれは以下の式によって決定される。
瞼の開度(−1<x<1))
Frame > -Power のとき (Power2 + frame2)/√2
-Power > Frame のとき -(Power2 + frame2)/√2
Frame > -Power のとき (Power2 + frame2)/√2
-Power > Frame のとき -(Power2 + frame2)/√2
瞼の回転角(−1<x<1))
Frame > Power のとき (Power2 + frame2)/√2
Power > Frame のとき -(Power2 + frame2)/√2
Frame > Power のとき (Power2 + frame2)/√2
Power > Frame のとき -(Power2 + frame2)/√2
これらの値は瞼の開度及び回転角の最大値と最小値をそれぞれ1、−1とした範囲で正規化されているので、この値を実際の値に変化しなおして、瞼の開度及び回転角を決定する。すなわち図19に示すように、瞼の開度は0°(瞼全閉)から30°(瞼全開)の範囲であり、瞼の回転角は−30°から+30°の範囲である。なお、瞼の回転角は「つり目」の状態を+30°とし、「たれ目」の状態を−30°とする。
図20は瞼の開度及び回転角の組み合わせによる表情表出の例を示す。例えば、両瞼の開度を0°(全閉)、角度を+30°とした表情を「怒り」(図20(A))、 両瞼の開度を0°、角度を−30°とした表情を「悲しみ」(図20(B))、両瞼の開度を30°(全開)、角度を0°とした表情を「驚き」(図20(C))、 両瞼の開度を0°、角度を0°とした表情を「眠り」(図20(D))とする。
これらの音声に応じた表情生成は継続的な表情変化であり、後述する表情共存方法におけるフォアグラウンドコマンドとして生成される。
(5−5)複数の表情コマンドの共存制御
上述したように、コマンド発行手段としての表情生成部106は、音声認識や発話などの状態に応じて様々な表情コマンドを生成するが、これらのコマンドは状況に応じて随時発行されるため、瞼や口部等の表情表出デバイスに対する表出制御が競合する場合がある。
上述したように、コマンド発行手段としての表情生成部106は、音声認識や発話などの状態に応じて様々な表情コマンドを生成するが、これらのコマンドは状況に応じて随時発行されるため、瞼や口部等の表情表出デバイスに対する表出制御が競合する場合がある。
例えば、ロボットが自身の発話に応じた表情コマンドを生成して表情表出している状態において、ユーザの発話を聞き取ると、このことを示す「まばたき」コマンドを生成するが、このコマンドと発話に応じた表情コマンドとで瞼に対する制御が競合する。
このような場合、従来のロボットでは、実行中の発話に応じた表情コマンドに対し、音声認識したことを示すまばたきのコマンドを上書きする。しかしながら、まばたきのコマンドは短期的なものであり、このまばたきが終了すると、それ以前のコマンド(発話に応じた表情コマンド)を再発行して元の表情に明示的に戻す必要があるため、コマンドの終了タイミングを監視して再発行する等、調停制御が煩雑になるという問題がある。
このため本発明のロボット1では、表情コマンドをバックグラウンドコマンド及びフォアグラウンドコマンドの2種のコマンドタイプに分類し、表情制御手段としての表情生成部106は、複数の表情コマンドを受け付けたとき、フォアグラウンドコマンドを優先的に実行して表情表出制御を行うようにした。
バックグラウンドコマンドは、発話に応じた感情表現のような、定常的な状態変化を表出することを目的とした表情コマンドであり、その有効期限は定められておらず、表情生成部106は古いバックグラウンドコマンド(後発コマンド)を新たなバックグラウンドコマンド(先発コマンド)で順次上書きして実行していく。
一方フォアグラウンドコマンドは、音源に対する反応のような、イベント発生的で短期的な状態変化を表出することを目的とした表情コマンドであり、その有効期限が予め定められており、バックグラウンドコマンドと同様、表情生成部106は後発のフォアグラウンドコマンドを先発のフォアグラウンドコマンドで上書きして実行するとともに、有効期限が到達したバックグラウンドコマンドを無効化(すなわち終了)する。
これに加えて、フォアグラウンドコマンドはバックグラウンドコマンドに比べて優先度が高く設定されており、表情生成部106は、バックグラウンドコマンドを実行中にフォアグラウンドコマンドを受け付けた場合、バックグラウンドコマンドの実行を一時中断してフォアグラウンドコマンドを実行し(コマンドの一時上書き)、当該フォアグラウンドコマンドの有効期限が到達して実行終了すると、中断していたバックグラウンドコマンドを再開する。
すなわち図21に示すように、表情生成部106はバックグラウンドコマンド及びバックグラウンドコマンドをそれぞれ後発のコマンドで上書きしつつ、フォアグラウンドコマンドを優先して(コマンドの一時上書き)表情表出を行う。そして表情生成部106は、フォアグラウンドコマンドが終了すると、上書きされていたバックグラウンドコマンドに戻る。
図22は、表情生成部106による表情表出制御の例を示す。バックグラウンドコマンドとして「悲しみ顔」が発行されている状態において、ユーザ発話の認識に対する「まばたき」がフォアグラウンドコマンドとして発行されると、表情生成部106は、バックグラウンドコマンドの「悲しみ顔」をフォアグラウンドコマンドの「まばたき」で一時上書きし、これによりロボット1の表情を「悲しみ顔」から「まばたき」へと変化させる。
そして「まばたき」コマンドが終了すると、表情生成部106は、上書きされていたバックグラウンドコマンドの「悲しみ顔」に基づき、ロボット1の表情を「まばたき」から「悲しみ顔」へと戻す。
続いて、バックグラウンドコマンドとして「恐怖顔」が発行されると、表情生成部106は古いバックグラウンドコマンドの「悲しみ顔」を当該後発のバックグラウンドコマンド「恐怖顔」で上書きし、これによりロボット1の表情を悲しみ顔」から「恐怖顔」へと変化させる。
さらに、ロボット1自身の発声に同期した「口開閉」がフォアグラウンドコマンドとして発行されると、表情生成部106は、バックグラウンドコマンドの「恐怖顔」をフォアグラウンドコマンドの「口開閉」で一時上書きし、これによりロボット1の表情を「口開閉」へと変化させる。
そして「口開閉」コマンドが終了すると、表情生成部106は、上書きされていたバックグラウンドコマンドの「恐怖顔」に基づき、ロボット1の表情を「口開閉」から「恐怖顔」へと戻す。
(6)動作及び効果
以上の構成において、このロボット1は、ユーザ発話の検出に応じて、両瞼を同時に開閉する「まばたき」を実行する。このようにロボット1は、ユーザの発話を聴き取っている旨を視覚を通じて直感的な形で通知するため、安心したインタラクションをユーザとの間で確立することができる。
以上の構成において、このロボット1は、ユーザ発話の検出に応じて、両瞼を同時に開閉する「まばたき」を実行する。このようにロボット1は、ユーザの発話を聴き取っている旨を視覚を通じて直感的な形で通知するため、安心したインタラクションをユーザとの間で確立することができる。
またロボット1は、ユーザとのインタラクション中に外音を検出すると、音源方向に向けて瞼の開度及び回転角を変化させることにより、音源に対する軽い注意を直感的な形で表現する。これによりロボット1は、ユーザに視線を合わせてインタラクションを継続しながら、周囲の状況を共有しているかのような安心感をユーザに与えることができる。
またロボット1は、ロボット自身が発話している間、口部69を開閉させることにより、あたかもロボット1が口部69を用いて発声しているかのような直感的な印象をユーザに与えるとともに、発話中の個体を視覚によって認識させることができる。
またロボット1は、ロボット1自身の発話やユーザ発話の特徴量に基づいて瞼の開度及び回転角を変化させることにより、あたかもロボット1が発話に対応した感情を発しているかのような直感的な印象をユーザに与えて、安心したインタラクションをユーザとの間で確立することができる。
さらにロボット1は、バックグラウンドコマンド及びフォアグラウンドコマンドの2つのコマンドタイプに基づいて、複数の表情コマンドに対する表情表出制御を行うようにしたことにより、長期的な反応に基づく表情と、突発的なイベントに対する表情とを同じ表情表出デバイス上で共存させることができる。
以上の構成によれば、ユーザ発話の検出や他の音源への注意発生といったイベントに応じた表情表出や、ロボット自身の発話やユーザ発話に応じた表情表出等、ロボット自身の状態を直感的に表示することができ、かくしてユーザとの間で適切なインタラクションを行い得るロボット装置を実現できる。
(7)他の実施の形態
なお、上述の実施の形態においては、フォアグラウンドコマンドに有効期限を設け、当該有効期限が到達した時点でバックグラウンドコマンドを再開するようにしたが、本発明はこれに限らず、フォアグラウンドコマンドの効力(言い換えれば有効性)が徐々に減衰していくようにし、後発のコマンドの効力がフォアグラウンドコマンドの現在の効力を上回った時点で、当該フォアグラウンドコマンドを終了させるようにしても良い。
なお、上述の実施の形態においては、フォアグラウンドコマンドに有効期限を設け、当該有効期限が到達した時点でバックグラウンドコマンドを再開するようにしたが、本発明はこれに限らず、フォアグラウンドコマンドの効力(言い換えれば有効性)が徐々に減衰していくようにし、後発のコマンドの効力がフォアグラウンドコマンドの現在の効力を上回った時点で、当該フォアグラウンドコマンドを終了させるようにしても良い。
すなわち表情生成部106は、フォアグラウンドコマンドを実行開始するとともに、その効力を初期値(例えば「100」)から所定のレートあるいはコマンド固有のレートで減衰させていく。
そして、フォアグラウンドコマンドの実行中に新たなバックグラウンドコマンドが発行された場合、減衰していくフォアグラウンドコマンドの効力がバックグラウンドコマンド固有の効力を下回った時点で、当該フォアグラウンドコマンドを終了して新たなバックグラウンドコマンドを実行する。
また、フォアグラウンドコマンドの実行中に新たなバックグラウンドコマンドが発行されなかった場合は、フォアグラウンドコマンドの効力が所定値(例えば「0」)に低下した時点で、先発のバックグラウンドコマンドを再開する。
このため、時間が経過して効力の弱まったフォアグラウンドコマンドに対し、新たに発行されたバックグラウンドコマンドを優先して実行させることができ、これにより人間の感情変化に則したリアルな表情表出を行うことができる。
そして、フォアグラウンドコマンド及びバックグラウンドコマンドの効力やフォアグラウンドコマンドの効力減衰レートをコマンドそれぞれの性質に応じて変えることにより、感情や状況変化の重要度等に応じた表情変化を表出することができる。
例えば、「怒り」や「驚き」のような強い反応を表すコマンドについては効力を大きく設定し、外音に対する注意のような弱い反応を表すコマンドについては効力を小さく設定すれば、強い反応を表すバックグラウンドコマンドをより優先して実行させることができ、これにより人間の感情変化に則したリアルな表情表出を行うことができる。
1……ロボット、2……胴体部ユニット、3……首部、4……頭部ユニット、5A、5B……腕部ユニット、6A、6B……脚部ユニット、13……首関節機構部、20……肩関節機構部、24……肘関節機構部、32……足平部ブロック、36……股関節機構部、38……膝関節機構部、41……足首関節機構部、50……メイン制御部、60……CCDカメラ、70……目部、71……眼窩、72……眼球部、80……瞼開閉部、81……上瞼、82……下瞼、86……瞼開閉駆動機構、90……瞼回転部、91……瞼回転駆動機構、92……回転軸、93……瞼回転部シャーシ、100……センサ、101……音声区間検出部、102……音声認識部、103……応答生成部、104……音声合成部、105……音源方向検出部、106……表情生成部。
Claims (12)
- ユーザとの対話機能を有するロボット装置において、
上記ユーザの発話を検出するユーザ発話検出手段と、
上記ユーザ発話検出手段で検出したユーザの発話に基づいて、上記ロボット装置に設けられた表情表出手段を駆動する表情制御手段と
を具えることを特徴とするロボット装置。 - 上記表情制御手段は、
上記ユーザ発話検出手段によってユーザの発話が検出されたとき、上記表情表出手段を駆動して、当該発話を検出した旨を通知する
ことを特徴とする請求項1に記載のロボット装置。 - 上記検出したユーザの発話の特徴量を抽出するユーザ発話特徴量検出手段
を具え、
上記表情制御手段は、上記抽出したユーザの発話の特徴量に基づいて、上記表情表出手段を駆動する
ことを特徴とする請求項1に記載のロボット装置。 - ユーザとの対話機能を有するロボット装置において、
上記ロボット装置自身の発話を生成し音声出力する発話生成手段と、
上記ロボット装置自身の発話に基づいて、上記ロボット装置に設けられた表情表出手段を駆動する表情制御手段と
を具えることを特徴とするロボット装置。 - 上記表情制御手段は、
上記発話生成手段によって上記発話が出力されているとき、上記表情表出手段を駆動して上記発話を行っている旨を通知する
ことを特徴とする請求項4に記載のロボット装置。 - 上記ロボット装置自身の発話の特徴量を抽出するロボット発話特徴量検出手段
を具え、
上記表情制御手段は、上記抽出したロボット装置自身の発話の特徴量に基づいて上記表情表出手段を駆動する
ことを特徴とする請求項4に記載のロボット装置。 - ロボット装置自身の状態に基づいて、優先度が高いコマンドと、優先度が低いコマンドの少なくとも2種の表情生成コマンドを発行するコマンド発行手段と、
上記表情生成コマンドに基づいて、上記ロボット装置に設けられた表情表出手段を駆動する表情制御手段と
を具え、
上記表情制御手段は、複数の表情生成コマンドを同時に受け付けたとき、上記優先度が高いコマンドを選択して実行する
ことを特徴とする記載のロボット装置。 - 上記表情制御手段は、上記複数の表情生成コマンドのうちの優先度の高いコマンドを終了した後、優先度の低いコマンドを実行する
ことを特徴とする請求項7に記載のロボット装置。 - 上記優先度が高いコマンドには有効期間が設定されている
ことを特徴とする請求項8に記載のロボット装置。 - ユーザとの対話機能を有するロボット装置の表情制御方法において、
上記ユーザの発話を検出するユーザ発話検出ステップと、
上記ユーザ発話検出ステップで検出したユーザの発話に基づいて、上記ロボット装置頭部に設けられた表情表出手段を駆動する表情制御ステップと
を具えることを特徴とするロボット装置の表情制御方法。 - ユーザとの対話機能を有するロボット装置の表情制御方法において、
上記ロボット装置自身の発話を生成し音声出力する発話生成ステップと、
上記ロボット装置自身の発話に基づいて、上記ロボット装置頭部に設けられた表情表出手段を駆動する表情制御ステップと
を具えることを特徴とするロボット装置の表情制御方法。 - ロボット装置の表情制御方法において、
上記ロボット装置自身の状態に基づいて、優先度が高いコマンドと、優先度が低いコマンドの少なくとも2種の表情生成コマンドを発行するコマンド発行ステップと、
上記表情生成コマンドに基づいて、上記ロボット装置に設けられた表情表出手段を駆動する表情制御ステップと
を具え、
上記表情制御ステップは、複数の表情生成コマンドを同時に受け付けたとき、上記優先度が高いフォアグラウンドコマンドを選択して実行する
ことを特徴とする記載のロボット装置の表情制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005109242A JP2006289508A (ja) | 2005-04-05 | 2005-04-05 | ロボット装置及びその表情制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005109242A JP2006289508A (ja) | 2005-04-05 | 2005-04-05 | ロボット装置及びその表情制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006289508A true JP2006289508A (ja) | 2006-10-26 |
Family
ID=37410657
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005109242A Pending JP2006289508A (ja) | 2005-04-05 | 2005-04-05 | ロボット装置及びその表情制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006289508A (ja) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011067941A (ja) * | 2009-09-22 | 2011-04-07 | Gm Global Technology Operations Inc | 人間型ロボットのための視覚認知システムおよび方法 |
KR101155424B1 (ko) | 2009-12-29 | 2012-06-14 | 한국생산기술연구원 | 피부색 변화를 이용한 안드로이드 로봇의 감정 표현 장치 및 방법 그리고 이를 행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체 |
CN102566474A (zh) * | 2012-03-12 | 2012-07-11 | 上海大学 | 仿人面部表情机器人交互系统和方法以及人脸检测和跟踪方法 |
EP2492850A1 (en) * | 2009-10-21 | 2012-08-29 | Thecorpora, S.L. | Social robot |
KR101303789B1 (ko) * | 2012-03-09 | 2013-09-04 | 한국생산기술연구원 | 안드로이드 로봇의 안면 근육 제어 장치 |
JP2013193149A (ja) * | 2012-03-16 | 2013-09-30 | Fujitsu Ltd | ロボット制御装置、ロボットシステム、ロボット制御方法、及びロボット制御プログラム |
US8662955B1 (en) | 2009-10-09 | 2014-03-04 | Mattel, Inc. | Toy figures having multiple cam-actuated moving parts |
US8780221B2 (en) | 2008-04-09 | 2014-07-15 | Canon Kabushiki Kaisha | Facial expression recognition apparatus, image sensing apparatus, facial expression recognition method, and computer-readable storage medium |
WO2014162161A1 (en) * | 2013-04-01 | 2014-10-09 | Tosy Robotics Joint Stock Company | Shoulder and arm arrangement for a humanoid robot |
WO2014162162A1 (en) * | 2013-04-01 | 2014-10-09 | Tosy Robotics Joint Stock Company | Sound system for humanoid robot |
WO2016024849A1 (ko) * | 2014-08-14 | 2016-02-18 | 경북대학교 산학협력단 | 로봇가디언모듈과 이를 이용한 로봇 안전 보장 장치 및 방법 |
WO2016157944A1 (ja) * | 2015-03-31 | 2016-10-06 | シャープ株式会社 | ロボット |
JPWO2014192304A1 (ja) * | 2013-05-29 | 2017-02-23 | 京セラ株式会社 | 被制御装置、制御装置、装置制御方法及び装置制御システム |
JP2017047494A (ja) * | 2015-09-01 | 2017-03-09 | 株式会社国際電気通信基礎技術研究所 | アンドロイドロボットの制御システム、装置、プログラムおよび方法 |
JP2018023464A (ja) * | 2016-08-08 | 2018-02-15 | 株式会社ソニー・インタラクティブエンタテインメント | ロボットおよび筐体 |
JP2019057256A (ja) * | 2017-09-19 | 2019-04-11 | 鉄男 菊池 | 多機能郵便ポストロボット |
JP2019101492A (ja) * | 2017-11-28 | 2019-06-24 | トヨタ自動車株式会社 | コミュニケーション装置 |
US10350761B2 (en) | 2016-10-13 | 2019-07-16 | Toyota Jidosha Kabushiki Kaisha | Communication device |
US10464214B2 (en) | 2016-10-04 | 2019-11-05 | Toyota Jidosha Kabushiki Kaisha | Voice interaction device and control method therefor |
US10808879B2 (en) | 2016-04-20 | 2020-10-20 | Sony Interactive Entertainment Inc. | Actuator apparatus |
US11052547B2 (en) | 2016-04-20 | 2021-07-06 | Sony Interactive Entertainment Inc. | Robot and housing |
WO2022064899A1 (ja) * | 2020-09-28 | 2022-03-31 | ソニーグループ株式会社 | ロボット装置および情報処理装置 |
WO2022114263A1 (ko) * | 2020-11-26 | 2022-06-02 | 주식회사 제페토로보틱스 | 교육용 로봇의 동작보정 시스템 및 동작보정 방법 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001246174A (ja) * | 2000-03-08 | 2001-09-11 | Okayama Prefecture | 音声駆動型複数身体引き込みシステム |
JP2004046400A (ja) * | 2002-07-10 | 2004-02-12 | Mitsubishi Heavy Ind Ltd | ロボットの発話方法 |
-
2005
- 2005-04-05 JP JP2005109242A patent/JP2006289508A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001246174A (ja) * | 2000-03-08 | 2001-09-11 | Okayama Prefecture | 音声駆動型複数身体引き込みシステム |
JP2004046400A (ja) * | 2002-07-10 | 2004-02-12 | Mitsubishi Heavy Ind Ltd | ロボットの発話方法 |
Cited By (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9258482B2 (en) | 2008-04-09 | 2016-02-09 | Canon Kabushiki Kaisha | Facial expression recognition apparatus, image sensing apparatus, facial expression recognition method, and computer-readable storage medium |
US9147107B2 (en) | 2008-04-09 | 2015-09-29 | Canon Kabushiki Kaisha | Facial expression recognition apparatus, image sensing apparatus, facial expression recognition method, and computer-readable storage medium |
US8780221B2 (en) | 2008-04-09 | 2014-07-15 | Canon Kabushiki Kaisha | Facial expression recognition apparatus, image sensing apparatus, facial expression recognition method, and computer-readable storage medium |
JP2011067941A (ja) * | 2009-09-22 | 2011-04-07 | Gm Global Technology Operations Inc | 人間型ロボットのための視覚認知システムおよび方法 |
US8662955B1 (en) | 2009-10-09 | 2014-03-04 | Mattel, Inc. | Toy figures having multiple cam-actuated moving parts |
EP2492850A1 (en) * | 2009-10-21 | 2012-08-29 | Thecorpora, S.L. | Social robot |
EP2492850A4 (en) * | 2009-10-21 | 2013-04-03 | Thecorpora S L | SOCIAL ROBOT |
KR101155424B1 (ko) | 2009-12-29 | 2012-06-14 | 한국생산기술연구원 | 피부색 변화를 이용한 안드로이드 로봇의 감정 표현 장치 및 방법 그리고 이를 행하는 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체 |
KR101303789B1 (ko) * | 2012-03-09 | 2013-09-04 | 한국생산기술연구원 | 안드로이드 로봇의 안면 근육 제어 장치 |
CN102566474A (zh) * | 2012-03-12 | 2012-07-11 | 上海大学 | 仿人面部表情机器人交互系统和方法以及人脸检测和跟踪方法 |
JP2013193149A (ja) * | 2012-03-16 | 2013-09-30 | Fujitsu Ltd | ロボット制御装置、ロボットシステム、ロボット制御方法、及びロボット制御プログラム |
WO2014162162A1 (en) * | 2013-04-01 | 2014-10-09 | Tosy Robotics Joint Stock Company | Sound system for humanoid robot |
WO2014162161A1 (en) * | 2013-04-01 | 2014-10-09 | Tosy Robotics Joint Stock Company | Shoulder and arm arrangement for a humanoid robot |
JPWO2014192304A1 (ja) * | 2013-05-29 | 2017-02-23 | 京セラ株式会社 | 被制御装置、制御装置、装置制御方法及び装置制御システム |
US10090677B2 (en) | 2013-05-29 | 2018-10-02 | Kyocera Corporation | Controlled device, control device, device control method, and device control system |
WO2016024849A1 (ko) * | 2014-08-14 | 2016-02-18 | 경북대학교 산학협력단 | 로봇가디언모듈과 이를 이용한 로봇 안전 보장 장치 및 방법 |
WO2016157944A1 (ja) * | 2015-03-31 | 2016-10-06 | シャープ株式会社 | ロボット |
JP2016193466A (ja) * | 2015-03-31 | 2016-11-17 | シャープ株式会社 | ロボット |
JP2017047494A (ja) * | 2015-09-01 | 2017-03-09 | 株式会社国際電気通信基礎技術研究所 | アンドロイドロボットの制御システム、装置、プログラムおよび方法 |
US10808879B2 (en) | 2016-04-20 | 2020-10-20 | Sony Interactive Entertainment Inc. | Actuator apparatus |
US11052547B2 (en) | 2016-04-20 | 2021-07-06 | Sony Interactive Entertainment Inc. | Robot and housing |
JP2018023464A (ja) * | 2016-08-08 | 2018-02-15 | 株式会社ソニー・インタラクティブエンタテインメント | ロボットおよび筐体 |
US10464214B2 (en) | 2016-10-04 | 2019-11-05 | Toyota Jidosha Kabushiki Kaisha | Voice interaction device and control method therefor |
US10350761B2 (en) | 2016-10-13 | 2019-07-16 | Toyota Jidosha Kabushiki Kaisha | Communication device |
JP2019057256A (ja) * | 2017-09-19 | 2019-04-11 | 鉄男 菊池 | 多機能郵便ポストロボット |
JP2019101492A (ja) * | 2017-11-28 | 2019-06-24 | トヨタ自動車株式会社 | コミュニケーション装置 |
WO2022064899A1 (ja) * | 2020-09-28 | 2022-03-31 | ソニーグループ株式会社 | ロボット装置および情報処理装置 |
WO2022114263A1 (ko) * | 2020-11-26 | 2022-06-02 | 주식회사 제페토로보틱스 | 교육용 로봇의 동작보정 시스템 및 동작보정 방법 |
KR20220073067A (ko) * | 2020-11-26 | 2022-06-03 | 주식회사 제페토로보틱스 | 교육용 로봇의 동작보정 시스템 및 동작보정 방법 |
KR102480556B1 (ko) | 2020-11-26 | 2022-12-23 | 주식회사 제페토로보틱스 | 교육용 로봇의 동작보정 시스템 및 동작보정 방법 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006289508A (ja) | ロボット装置及びその表情制御方法 | |
US11000952B2 (en) | More endearing robot, method of controlling the same, and non-transitory recording medium | |
JP6505748B2 (ja) | 人間型ロボットとユーザーの間におけるマルチモード会話を実行する方法、前記方法を実装するコンピュータプログラム及び人間型ロボット | |
JP7173031B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR100813668B1 (ko) | 안드로이드 로봇의 감정표현 방법 | |
WO2002076687A1 (en) | Robot device and control method therefor, and storage medium | |
CN201163417Y (zh) | 具有人脸识别的智能机器人 | |
WO2019087495A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
KR20060079832A (ko) | 임베디드 시스템기반의 감정표현 휴먼노이드 로봇 | |
JP2024009862A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2006289507A (ja) | ロボット装置及びその制御方法 | |
JP4617428B2 (ja) | 動作生成システム | |
JP6922766B2 (ja) | コミュニケーションロボットおよびその制御プログラム | |
JP4433273B2 (ja) | ロボット装置及びロボット装置の制御方法 | |
JP7428141B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2003266353A (ja) | ロボット装置及びその制御方法 | |
JP2004283927A (ja) | ロボット制御装置および方法、記録媒体、並びにプログラム | |
JP2005231012A (ja) | ロボット装置及びその制御方法 | |
JP4210897B2 (ja) | 音源方向判断装置及び音源方向判断方法 | |
Fukuda et al. | Human-robot mutual communication system | |
JPS63200786A (ja) | 自動人形 | |
JP7156300B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN113878595B (zh) | 基于树莓派的仿人实体机器人系统 | |
KR200386045Y1 (ko) | 임베디드 시스템기반의 감정표현 휴먼노이드 로봇 | |
JP2003266364A (ja) | ロボット装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Effective date: 20080214 Free format text: JAPANESE INTERMEDIATE CODE: A621 |
|
A131 | Notification of reasons for refusal |
Effective date: 20110127 Free format text: JAPANESE INTERMEDIATE CODE: A131 |
|
A02 | Decision of refusal |
Effective date: 20110705 Free format text: JAPANESE INTERMEDIATE CODE: A02 |