JP2006212717A - ロボット装置 - Google Patents
ロボット装置 Download PDFInfo
- Publication number
- JP2006212717A JP2006212717A JP2005025581A JP2005025581A JP2006212717A JP 2006212717 A JP2006212717 A JP 2006212717A JP 2005025581 A JP2005025581 A JP 2005025581A JP 2005025581 A JP2005025581 A JP 2005025581A JP 2006212717 A JP2006212717 A JP 2006212717A
- Authority
- JP
- Japan
- Prior art keywords
- head
- facial expression
- screen
- image
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】 この発明は、ユーザのニーズや好みに応じてロボットの表情を容易に変更することができるロボット装置を提供する。
【解決手段】 この発明は、表情を変化させることができるロボット装置であって、透光性の球形状のスクリーン10からなる頭部1を胴体部2に取り付け、この胴体部2の内部に顔の表情を投影するための液晶プロジェクタ6を設ける。スクリーン10の内周面に液晶プロジェクタ6から映像光を出射し、頭部1に表情映像を投影するとともに、液晶プロジェクタ6に与える映像を変化させることで顔の表情及び/または向きを変化させる。
【選択図】 図4
【解決手段】 この発明は、表情を変化させることができるロボット装置であって、透光性の球形状のスクリーン10からなる頭部1を胴体部2に取り付け、この胴体部2の内部に顔の表情を投影するための液晶プロジェクタ6を設ける。スクリーン10の内周面に液晶プロジェクタ6から映像光を出射し、頭部1に表情映像を投影するとともに、液晶プロジェクタ6に与える映像を変化させることで顔の表情及び/または向きを変化させる。
【選択図】 図4
Description
この発明は、ロボット装置に関し、特に、表情を変化させることができるロボット装置に関するものである。
従来、目や口を動かすことにより、人間にとって親近感を感じさせるようにさせた人間の顔を持ったロボットが知られている。この種のロボットは、顔部分に、眼球や瞼、下顎の器官に対応したメカニカルな駆動機構を設け、表面全体をゴム被覆に被覆し、これら機構を駆動させて、顔の表情を変化させている(例えば、特許文献1参照)。
一方、マネキンの上半身にプロジェクタを組み込み、モデルに合わせて成形したフェイシャルスクリーンに内側から顔の映像を投影することで、人物の顔、表情や口の動きを本物そっくりに表示するマネキン(商品名Chatty)が発表されている(例えば、非特許文献1参照)。
また、透光性の球殻状をなし、その一部に開口部を有するスクリーンと、前記開口部に出射面を臨ませて設けられており、映像光を出射するプロジェクタと、前記スクリーンの内周面の前記開口部に対向する位置に設けられており、前記プロジェクタから出射された映像光を反射する凸面鏡とを備えた映像表示装置が提案されている(特許文献2参照)。
特開平6−261982号公報
特開2003―35933号公報
超立体映像「Chatty」インターネット <http://www.holoart.co.jp/cho01.html>
上記した特許文献1に示した装置においては、表情を変化させるために複雑な機構を必要とするとともに、年齢や性別を変える場合にはその都度新たな機構で修正する必要があり、作業が煩瑣になるとともにそのコストも嵩むという問題があった。
また、非特許文献1に記載のマネキンにおいては、映像で表情や口の動きを変化させることはできるが、モデルに合わせたフェイシャルスクリーンを準備する必要があり、ユーザの好みにより頻繁にモデルを変えることはできないとともに、首振りなどの動作はやはりメカニカルな機構が必要になるという問題があった。
また、特許文献2には、球状のスクリーンに地球などを表示することができる装置が示されているが、顔の向きや表情をユーザのニーズや好みに応じて適宜変更するという考えは示唆されていない。
そこで、この発明は、かかる問題を解決するためになされたものであり、ユーザのニーズや好みに応じてロボットの表情を容易に変更することができるロボット装置を提供することを目的とする。
この発明は、表情を変化させることができるロボット装置であって、透光性の球形状のスクリーン部材からなる頭部を胴体部に取り付け、この胴体部の内部に顔の表情を投影するためのプロジェクタを設け、前記スクリーン部材の内周面にプロジェクタから映像光を出射し、前記頭部に表情映像を投影するとともに、前記プロジェクタに与える映像を変化させることで顔の表情及び/または向きを変化させることを特徴とする。
さらに、この発明は、前記頭部の頭頂部に全方位視覚センサを配置し、この全方位視覚センサの出力に応じて、前記プロジェクタに与える映像を変化させ、顔の表情及び/または向きを変化させるように構成できる。
また、この発明は、ロボット装置に命令を伝達する手段を設け、この命令伝達手段からの出力に応じて、前記プロジェクタに与える映像を変化させ、顔の表情及び/または向きを変化させるように構成できる。
この発明は、頭部を構成するスクリーンの内周面に、プロジェクタからの映像光で顔の表情等を投影表示するように構成しているので、プロジェクタに与える映像を処理することで、顔の表情、向きを自在に変化させることができる。
従って、この発明によれば、ユーザのニーズや好みに応じてロボットの表情を適宜変更させて、ユーザの好みに応じたロボット装置を提供することができる。
この発明の実施の形態について図面を参照しながら詳細に説明する。なお、図中同一または相当部分には同一符号を付し、説明の重複を避けるためにその説明は繰返さない。図1はこの発明の実施形態にかかるロボット装置を示す正面図、図2は同側面図、図3は背面図である。図4は、この発明の一実施形態のロボット装置の表情投影機構の構成を示す概略断面図である。
図1ないし図4に示すように、この実施形態のロボット装置は、自律移動型のロボット装置であり、頭部1と胴体部2と一対の腕部3と人間の足代わりの走行駆動部4とロボットの目として機能する全方位視覚センサ装置5とを有している。
頭部1は、後述するように、ロボット内部に設けられた表情投影機構により、顔の表情等が投影表示され、各ユーザ毎にパーソナル化されたロボットや後天的な成長などが自在に表現可能に構成されている。このため頭部1は、表情投影機構から与えられる映像を投影するために、全体が球形状をなすスクリーン10を備え、この球形状スクリーン10が胴体部2に首部12を介して取り付けられている。
胴部2内部には、表情投影機構として、この実施形態では、液晶プロジェクタ6並びにこのロボット装置の動作を制御するためのコントローラ20や各種制御装置、電源装置などが備えられている。
腕部3は、人間の肩に当たる第1の関節部31、肘に当たる第2の関節部32、手首に当たる第3の関節部33とを有しており、関節31、32、33を中心に回動可能に支持されている。また、第3の関節部33から先にはものをつかむことができるチャック部34が備えられている。そして、この腕部3、3は、アクチュエータ30、30により、数々の動作をこなすことができきるようになっている。
走行駆動部4は、ロボットが倒れたり姿勢を崩したりすることなく移動できるものを採用することができる。ここでは、後述のモータ42を用いて底面に設けられた車輪41を駆動し、前後左右に自在に移動できるようになっている。
全方位視覚センサ装置5は、全方位(360度)を観測し、ユーザ位置や周囲の状態などを観測するものである。全方位視覚センサ装置5としては、例えば、双曲面ミラー(円錐形ミラー)51とレンズ52、CCDカメラ53とを備え、全方位の画像をCCDカメラ53に導く全方位視覚センサ50が用いられる。そして、全方位視覚センサ装置5の透明ケース5a内に、全方位視覚センサ50が収容されている。移動ロボットに全方位視覚センサを搭載することはすでに知られている。例えば、山澤一誠、八木康史等、移動ロボットのための全方位視覚センサHyperOmni Visionの提案、信学論(D−11)、VolJ78−D−II、No.5、pp698−707、1996に詳しい。
また、この実施形態においては、頭部1が回転することはないので、頭部1の頂点部(頭頂部)に全方位視覚センサ装置5の中心が位置するように固定している。このように、表情投影のスクリーン10と全方位視覚センサ装置5のカメラの位置を同軸上に配列することで、視差のない視線検出と視線追従を可能にしている。
上述したように、この実施形態のロボット装置においては、頭部1の内部に設けられた表情投影機構により、顔の表情等を投影表示するように構成されている。
図4に示すように、胴体3内部に液晶プロジェクタ6が、その映像光の出射面を頭部1の頂点部に向けて取り付けられている。液晶プロジェクタ6は、表示すべきロボットの表情に関するRGBの映像データを作成するコントローラ20に接続されており、コントローラ20にて作成されたRGBの映像データが液晶プロジェクタ6へ送られ、その映像データに応じた映像光が出射されるようになっている。
胴体7と頭部1とを接続する首部12には、液晶プロジェクタ6の出射面に対応させて孔12aが形成されており、この孔12aを通って、液晶プロジェクタ6からRGBの映像光が上方に出射される。
また、首部12の上面には、内周面10a及び外周面10bを有して全体が球形状をなすスクリーン10で構成された頭部1が一体的に取り付けられている。この頭部1を構成するスクリーン10は、液晶プロジェクタ6の出射面に対応する部分が開口部となっており、この開口部が胴体部2の首部12の上面に接続されている。また、スクリーン10は、例えば、透光性のアクリル樹脂から構成される。内周面10aは、例えばフッ化マグネシウムなどの公知の反射抑制材料にてコーティングすることにより、所謂無反射コーティング処理が施されている。
スクリーン10の開口部と対向する部分、(頭部1の天頂部分)の内周面10aには、円錐形ミラー11が、ボルト/ナットからなる固定部材によって固定されている。円錐形ミラー11の液晶プロジェクタ6側に向いた反射面11aは双曲面状をなしている。なお、この円錐形ミラー11は、樹脂材の表面にクロム、アルミニウム、銀などの金属膜を設けて構成しても良い。また、反射面11aの形状は、双曲面状に限らず、軸対称形状であれば任意の形状であって良い。
このような構成により、液晶プロジェクタ6から上方に出射されたRGBの映像光からなる表情映像は、円錐形ミラー11の反射面11aにて反射され、その反射光はスクリーン10の内周面10aに入射されてスクリーン10を透過してその外周面10bから外部に放射されるようになっている。そして、この放射光をユーザが認識することにより映像を視認する。この際、表示対象の物体の映像がこの球殻状のスクリーン10に正確に表示されるように、スクリーン10の半径、円錐形ミラー11の反射面11aの形状などを考慮して、その映像データがコントローラ20にて作成されるようになっている。
次に、動作について説明する。各ユーザ毎にパーソナル化されたロボットの表情や首振りなどその状態に応じたRGBの映像データがコントローラ20にて作成され、その作成された映像データは液晶プロジェクタ6へ送られる。この映像データに基づいて液晶プロジェクタ6からRGBの映像光が出射される。
出射された映像光は、胴体部2の孔12a及びスクリーン10の開口部を通過して少し広がりながらスクリーン10の中空内を上方に進み、円錐形ミラー11の双曲面状をなす反射面11aにて、スクリーン10の内周面10aに向けて反射される。その反射映像光は、スクリーン10の内周面10aからスクリーン10を透過して外周面10bに到達されて、球形の物体の全体映像がその外周面10bにおいてユーザに視認される。
このような映像光の進み方にあっては、スクリーン10の内周面10aで反射される映像光の影響が懸念される。しかしながら、この発明にあっては、その内周面10aに無反射コーティング処理を施しているので、内周面10aに入射した映像光は殆ど反射しないため、反射光の影響を受けることがなく、鮮明な表情の映像が得られる。
図5は、この発明の一実施形態にかかるロボット装置の内部構成例を示すブロック図である。この図5に示すブロック図に従いこの発明のロボット装置の構成につきさらに説明する。
このロボット装置は、コントローラ部20により、各部が制御される。コントローラ部20には、CPU21やメモリ22等を内蔵しており、CPU21にて、メモリ22に記憶された制御プログラムが実行されることにより、各種の処理が行われる。
腕部3、3を動かす命令を実行する際には、コントローラ20は、腕部3、3のアクチュエータ30、30の駆動を制御する。同じく、ロボット装置を移動させるときには、走行駆動部4のモータ42等の駆動をコントローラ20が制御して、所定の位置に移動させる。また、液晶プロジェクタ6にロボットの所定の表情を表示させる場合には、画像データ記憶部23に記憶された、色々な表情画像データから所定の画像データをコントローラ20が読み出し、その画像データをロボットの正面、側面、背面等に応じた画像データを作成し、液晶プロジェクタ6に与える。
どのような表情を投影表示するかは、ユーザの設定、全方位センサ装置5からの出力、音声認識部25からの出力などに応じて適宜選択され、そのニーズに応じた表情の画像データが作成され、液晶プロジェクタ6から頭部1のスクリーンに投影表示される。
音声認識部5は、内蔵するマイクからユーザからの声、周囲の音声を集音した音声信号により、その音声を認識し、その音声データをコントローラ20に与える。コントローラ20は、与えられた音声からユーザの指示、周りの音などからどのような表情をロボットがすべきかを判断し、画像データ記憶部23から所定の画像データを読み出し、ニーズに応じた表情の画像データが作成され、液晶プロジェクタ6から頭部1のスクリーン10に投影表示される。さらに、音の方向を検出することにより、その音の方向に顔を向けるように、画像データ記憶部23から所定の画像データを読み出し、音の方向にロボットの顔の正面画像が表示させるように、液晶プロジェクタ6から頭部1のスクリーン10に映像を投影表示させる。
スピーカ24は、コントローラ部20の制御に基づき、所定の音声、警告音などを出力する。
このロボット装置は、ユーザが所持する操作ユニット8からの指示信号に基づいても各種動作を行わせることができる。このため、操作ユニット8からの指示信号が通信ユニット26を介してコントローラ20に与えられ、コントローラ20はユーザの指示に従った動作を行わせるように各部を制御する。
画像データ記憶部23には、種々の感情表現に応じた画像データ、ユーザが好む表情の画像データ、後天的な成長に伴う表情の画像データ、髭、眼鏡など色々なアクセサリの画像データなどが格納されている。
コントローラ20は、上述したように、ロボット装置の各種動作を制御するが、ここでは、頭部1のスクリーン10に表示する表情処理の動作の一例につき、図6のフローチャートに従いさらに説明する。図6はこの発明の実施形態にかかるロボット装置の表情表示処理動作を説明するためのフローチャートである。この図6に示す動作は、全方位視覚センサ装置5からの出力とユーザが行う操作に基づいて行われる。
まず、表情表示処理動作を開始すると、コントローラ20は初期表情を表示させるべく、画像データ記憶部20に格納されたユーザによりパーソナル化された表情の画像データを読み出し、顔が正面に向いているように見えるように、画像データを液晶プロジェクタ6へ送り、液晶プロジェクタ6から頭部1のスクリーン10に投影表示される(ステップS1)。図1ないし図3の表示状態は、この例では初期表情の表示としている。
続いて、全方位視覚センサ装置5から得られるデータに基づく指示か否か判断する(ステップS2)。このロボット装置は、全方位視覚センサ装置5において、得られた画像データにより、ユーザなどの人がどの位置に存在しているか否か判断し、人がいる方位に向かってロボット装置の顔を向けるように、頭部1のスクリーン10に投影する映像を切り替えるようにコントローラ20が制御する。全方位視覚センサ装置5により、人の位置を検出する方法としては、例えば、全方位視覚センサ50により、全方位の画像データを逐次取り込み、その画像データの例えば、肌色領域とその領域の大きさを認識し、その領域の大きさ、移動量などにより、被写体の位置や移動を検出する。この検出結果に基づき、コントローラ20が、全方位視覚センサ装置5により人を検出したと判断する。ステップS2において、全方位視覚センサ装置5により人を検出したと判断すると、全方位視覚センサ装置5からの映像の切り替えの指示があったと判断し、ステップS3に進む。
一方、全方位視覚センサ装置5から映像の切り替えの指示がないと判断している場合には、ステップS4へ進み、ステップS4にて、ユーザが操作ユニット8を用いて、ロボットの頭部1に投影される映像を変更するなどの指示があった否か判断される。ユーザからの指示があるとステップS11に進み、指示がない場合にはステップS10に進む。
ステップS3において、全方位視覚センサ装置5からの出力により、ロボット装置の正面に人がいると判断すると、ステップS5に進み、ステップS5において、コントローラ20は、正面を向いている表示画像データを頭部1のスクリーンに表示するように、画像データ記憶部23より、画像データを液晶プロジェクタ6へ送り、液晶プロジェクタ6から頭部1のスクリーンに正面の表情データを投影表示し、ステップS10に進む。ステップS10では、表情処理を終了するか否か判断され、表情処理を終了する場合には動作を終了し、終了しない場合にはステップS2に戻る。
ステップS3において、全方位視覚センサ装置5からの出力により、ロボット装置の正面には人がいないと判断すると、ステップS6に進む。
ステップS6において、全方位視覚センサ装置5からの出力により、ロボット装置の側面に人がいると判断すると、ステップS7に進み、ステップS7において、コントローラ20は、側面を向いている表示画像データを頭部1のスクリーン10に表示するように、画像データ記憶部23からの画像データを作成し、液晶プロジェクタ6へ送り、液晶プロジェクタ6から頭部1のスクリーン10に側面の表情データを投影表示し、ステップS10に進む。図7に頭部1のスクリーン10に側面の表情データを投影表示した状態を示す。図1に示す状態から図7に示す状態へと頭部1のスクリーンに表示させるデータを徐々に変化させることで、ロボットは首を振り頭を側面に回したようにユーザには認識される。このように、首を振るための機械的なメカニズムを必要とせずユーザに首を振ったように認識させることができる。そして、ステップS10では、表情処理を終了するか否か判断され、表情処理を終了する場合には動作を終了し、終了しない場合にはステップS2に戻る。
ステップS6において、全方位視覚センサ装置5からの出力により、ロボット装置の側面には人がいないと判断すると、ステップS8に進む。
ステップS8において、全方位視覚センサ装置5からの出力により、ロボット装置の背面に人がいると判断すると、ステップS9に進み、ステップS9において、コントローラ20は、背面を向いている表示画像データを頭部1のスクリーン10に表示するように、画像データ記憶部23からの画像データを作成し、液晶プロジェクタ6へ送り、液晶プロジェクタ6から頭部1のスクリーン10に背面の表情データを投影表示し、ステップS10に進む。図8に頭部1のスクリーン10に側面の表情データを投影表示した状態を示す。図1または図7に示す状態から図8に示す状態へと頭部1のスクリーン10に表示させるデータを徐々に変化させることで、ロボットは首を振り頭を背面に回したようにユーザには認識される。そして、ステップS10では、表情処理を終了するか否か判断され、表情処理を終了する場合には動作を終了し、終了しない場合にはステップS2に戻る。
上記した処理は、便宜上代表的な処理について説明しており、実際には、正面と側面との中間位置、側面と背面との中間位置など全方位視覚センサ装置5により検出される全方位(360度)に対応し、その対応する位置にロボットの表情の正面が向くように、画像データ記憶部23からの画像データを作成し、液晶プロジェクタ6へ送り、液晶プロジェクタ6から頭部1のスクリーン10に投影表示させるように構成している。従って、全方位視覚センサ装置5により検出された人に追従してロボットが首を振っているように、ユーザに認識されることになる。
一方、ステップS2において、全方位視覚センサ装置5から映像の切り替えの指示がないと判断されると、ステップS4へ進み、ステップS4にて、ユーザが操作ユニット8を用いて、ロボットの頭部1に投影される映像を変更するなどの指示があったと判断されると、ステップS11に進む。
ステップS11においては、ユーザの操作ユニット8の指示が正面画像の表示であると判断すると、ステップS13に進み、ステップS13において、コントローラ20は、正面を向いている表示画像データを頭部1のスクリーン10に表示するように、画像データ記憶部23より、画像データを液晶プロジェクタ6へ送り、液晶プロジェクタ6から頭部1のスクリーンに正面の表情データを投影表示し、ステップS10に進む。ステップS10では、表情処理を終了するか否か判断され、表情処理を終了する場合には動作を終了し、終了しない場合にはステップS2に戻る。
ステップS11において、操作ユニット8からの指示が正面画像表示でないとと判断すると、ステップS12に進む。
ステップS12においては、操作ユニット8からの指示により、ロボットの側面画像の表示と判断すると、ステップS15に進み、ステップS15において、コントローラ20は、側面を向いている表示画像データを頭部1のスクリーン10に表示するように、画像データ記憶部23からの画像データを作成し、液晶プロジェクタ6へ送り、液晶プロジェクタ6から頭部1のスクリーン10に側面の表情データを投影表示し、ステップS10に進む。図1に示す状態から図7に示す状態へと頭部1のスクリーンに表示させるデータを徐々に変化させることで、ロボットは首を振り頭を側面に回したようにユーザには認識される。そして、ステップS10では、表情処理を終了するか否か判断され、表情処理を終了する場合には動作を終了し、終了しない場合にはステップS2に戻る。
ステップS12において、操作ユニット8からの指示が側面画像の表示でないと判断すると、ステップS14に進む。
ステップS14において、操作ユニット8からの指示がロボット装置の背面画像の表示であると判断すると、ステップS17に進み、ステップS17において、コントローラ20は、背面を向いている表示画像データを頭部1のスクリーン10に表示するように、画像データ記憶部23からの画像データを作成し、液晶プロジェクタ6へ送り、液晶プロジェクタ6から頭部1のスクリーンに背面の表情データを投影表示し、ステップS10に進む。図1または図7に示す状態から図8に示す状態へと頭部1のスクリーンに表示させるデータを徐々に変化させることで、ロボットは首を振り頭を背面に回したようにユーザには認識される。そして、ステップS10では、表情処理を終了するか否か判断され、表情処理を終了する場合には動作を終了し、終了しない場合にはステップS2に戻る。
上記した処理は、便宜上代表的な処理について説明しており、実際には、正面と側面との中間位置、側面と背面との中間位置などユーザが任意な位置に設定する位置に対応し、その対応する位置にロボットの表情の正面が向くように、画像データ記憶部23からの画像データを作成し、液晶プロジェクタ6へ送り、液晶プロジェクタ6から頭部1のスクリーン10に投影表示させるように構成している。
ステップS14において、操作ユニット8からの指示が背面画像の表示でないと判断すると、ステップS18に進む。
ステップS18において、操作ユニット8からの指示がロボット装置が上向き画像の表示であると判断すると、ステップS19に進み、ステップS19において、コントローラ20は、上を向いている表示画像データを頭部1のスクリーン10に表示するように、画像データ記憶部23からの画像データを作成し、液晶プロジェクタ6へ送り、液晶プロジェクタ6から頭部1のスクリーン10に背面の表情データを投影表示し、ステップS10に進む。図9は正面で上向きの画像を表示している状態を示す。なお、上向き表示は、正面以外に側面、背面でも行うように制御するようにしてもよい。そして、ステップS10では、表情処理を終了するか否か判断され、表情処理を終了する場合には動作を終了し、終了しない場合にはステップS2に戻る。
また、この上向き処理は、ユーザが設定する場合に限らず、全方位視覚センサ装置5からの出力に応じて表示データを切り替える場合にも適用することもできる。例えば、上記ステップS5、S7、S9の動作の後、上向き処理を行ったり、S5、S7、S9の動作とともに上向き処理を行うなど種々の対応を採用することができる。
ステップS18において、操作ユニット8からの指示が上向き画像の表示でないと判断すると、ステップS20に進む。
ステップS20において、操作ユニット8からの指示がロボット装置の下向き画像の表示であると判断すると、ステップS21に進み、ステップS21において、コントローラ20は、下向きを向いている表示画像データを頭部1のスクリーン10に表示するように、画像データ記憶部23からの画像データを作成し、液晶プロジェクタ6へ送り、液晶プロジェクタ6から頭部1のスクリーン10に下向きの表情データを投影表示し、ステップS10に進む。図10は正面で下向きの画像を表示している状態を示す。なお、下向き表示は、正面以外に側面、背面でも行うように制御するようにしてもよい。そして、ステップS10では、表情処理を終了するか否か判断され、表情処理を終了する場合には動作を終了し、終了しない場合にはステップS2に戻る。
また、この下向き処理は、ユーザが設定する場合に限らず、全方位視覚センサ装置5からの出力に応じて表示データを切り替える場合にも適用することもできる。例えば、上記ステップS5、S7、S9の動作の後、下向き処理を行ったり、S5、S7、S9の動作とともに下向き処理を行うなど種々の対応を採用することができる。
ステップS20において、操作ユニット8からの指示が下向き画像の表示でないと判断すると、ステップS22に進む。
ステップS22において、操作ユニット8からの指示がロボット装置が感情のの表示であると判断すると、ステップS23に進み、ステップS23において、コントローラ20は、感情に応じた表示画像データを頭部1のスクリーン10に表示するように、画像データ記憶部23からの画像データを作成し、液晶プロジェクタ6へ送り、液晶プロジェクタ6から頭部1のスクリーンに感情に応じた表情データを投影表示し、ステップS10に進む。図11は正面で怒った感情の画像を表示している状態、図12は正面で悲しい感情の画像を表示している状態を示す。なお、感情表示は、正面以外に側面、背面、上向き、下向きで行うように制御するようにしてもよい。感情表示は、喜怒哀楽に応じてユーザが画像データ記憶部23に格納された画像データを選択して作成するように構成してもよい。そして、ステップS10では、表情処理を終了するか否か判断され、表情処理を終了する場合には動作を終了し、終了しない場合にはステップS2に戻る。
また、この感情処理は、ユーザが設定する場合に限らず、全方位視覚センサ装置5からの出力に応じて表示データを切り替える場合にも適用することもできる。例えば、上記ステップS5、S7、S9の動作の後、感情表示処理を行ったり、S5、S7、S9の動作とともに感情表示処理を行うなど種々の対応を採用することができる。
なお、頭部1のスクリーンに投影する画像データとしては上記した例に限らず、赤ちゃんの画像から成人の画像に変化するものや、同じ部品の配置を異ならせて、年をとるようなロボットなどユーザの好みなどに応じて種々の変更が画像データを切り替えることで容易に行える。
また、擬人化した人間の画像データだけでなく、ペットの画像データを種々変更させてもよい。
また、上記した実施形態においては、全方位視覚センサ装置5の出力または操作ユニット8からの指示により、画像表示を変更させる場合につき例示したが、画像表示の変更はこれに限らず色々な条件に応じて変更するように構成できる。例えば、音声認識部25で認識した音声に応じて表情を変える、例えば、ユーザの声を認識した場合に笑顔の表示になるなど色々な条件でニーズに応じて画像表示を容易に切り替えることが可能となる。もちろん、スピーカ24からの音声に応じて口などの画像を変化させ、話をしているようにも容易に対応できる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
この発明は、擬人化されたロボット装置、ペットの代用となるロボット装置など種々のロボット装置に適用することができる。
1 頭部、2 胴体部、3 腕部、 4 走行駆動部、5 全方位視覚センサ装置、6 液晶プロジェクタ、10 スクリーン、20 コントローラ。
Claims (3)
- 表情を変化させることができるロボット装置であって、透光性の球形状のスクリーン部材からなる頭部を胴体部に取り付け、この胴体部の内部に顔の表情を投影するためのプロジェクタを設け、前記スクリーン部材の内周面にプロジェクタから映像光を出射し、前記頭部に表情映像を投影するとともに、前記プロジェクタに与える映像を変化させることで顔の表情及び/または向きを変化させることを特徴とするロボット装置。
- 前記頭部の頭頂部に全方位視覚センサを配置し、この全方位視覚センサの出力に応じて、前記プロジェクタに与える映像を変化させ、顔の表情及び/または向きを変化させることを特徴とする請求項1に記載のロボット装置。
- ロボット装置に命令を伝達する手段を設け、この命令伝達手段からの出力に応じて、前記プロジェクタに与える映像を変化させ、顔の表情及び/または向きを変化させることを特徴とする請求項1に記載のロボット装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005025581A JP2006212717A (ja) | 2005-02-01 | 2005-02-01 | ロボット装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005025581A JP2006212717A (ja) | 2005-02-01 | 2005-02-01 | ロボット装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006212717A true JP2006212717A (ja) | 2006-08-17 |
Family
ID=36976347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005025581A Pending JP2006212717A (ja) | 2005-02-01 | 2005-02-01 | ロボット装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006212717A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8983662B2 (en) | 2012-08-03 | 2015-03-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Robots comprising projectors for projecting images on identified projection surfaces |
WO2016157944A1 (ja) * | 2015-03-31 | 2016-10-06 | シャープ株式会社 | ロボット |
WO2017056520A1 (ja) * | 2015-09-30 | 2017-04-06 | シャープ株式会社 | ロボット装置 |
WO2017164545A1 (ko) * | 2016-03-24 | 2017-09-28 | 삼성전자주식회사 | 디스플레이 장치, 및 디스플레이 장치의 제어방법 |
CN107717957A (zh) * | 2017-10-12 | 2018-02-23 | 北京搜狗科技发展有限公司 | 一种机器人 |
JPWO2018043235A1 (ja) * | 2016-08-29 | 2018-12-20 | Groove X株式会社 | 音源の方向を認識する自律行動型ロボット |
US10576633B2 (en) | 2016-09-29 | 2020-03-03 | Toyota Jidosha Kabushiki Kaisha | Communication device |
WO2020179949A1 (ko) * | 2019-03-06 | 2020-09-10 | 엘지전자 주식회사 | 로봇 |
US20210312841A1 (en) * | 2020-04-01 | 2021-10-07 | Coretronic Corporation | Interactive projection system and interactive display method of projection system |
CN113518211A (zh) * | 2020-04-10 | 2021-10-19 | 中强光电股份有限公司 | 投影系统以及投影操作方法 |
DE112018005034B4 (de) | 2017-09-11 | 2022-05-12 | Groove X, Inc. | Autonom handelnder Roboter, der den Begleiter anblickt |
-
2005
- 2005-02-01 JP JP2005025581A patent/JP2006212717A/ja active Pending
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8983662B2 (en) | 2012-08-03 | 2015-03-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Robots comprising projectors for projecting images on identified projection surfaces |
US9943965B2 (en) | 2012-08-03 | 2018-04-17 | Toyota Motor Engineering & Manufacturing North America, Inc. | Robots comprising projectors for projecting images on identified projection surfaces |
WO2016157944A1 (ja) * | 2015-03-31 | 2016-10-06 | シャープ株式会社 | ロボット |
JP2016193466A (ja) * | 2015-03-31 | 2016-11-17 | シャープ株式会社 | ロボット |
WO2017056520A1 (ja) * | 2015-09-30 | 2017-04-06 | シャープ株式会社 | ロボット装置 |
WO2017164545A1 (ko) * | 2016-03-24 | 2017-09-28 | 삼성전자주식회사 | 디스플레이 장치, 및 디스플레이 장치의 제어방법 |
US10778966B2 (en) | 2016-03-24 | 2020-09-15 | Samsung Electronics Co., Ltd. | Display device and method for controlling display device |
CN109644303A (zh) * | 2016-08-29 | 2019-04-16 | Groove X 株式会社 | 识别声源方向的行为自主型机器人 |
GB2567600B (en) * | 2016-08-29 | 2022-05-04 | Groove X Inc | Autonomously acting robot that recognizes direction of sound source |
JPWO2018043235A1 (ja) * | 2016-08-29 | 2018-12-20 | Groove X株式会社 | 音源の方向を認識する自律行動型ロボット |
CN109644303B (zh) * | 2016-08-29 | 2021-07-23 | Groove X 株式会社 | 对发声体作出动作的机器人 |
US11376740B2 (en) | 2016-08-29 | 2022-07-05 | Groove X, Inc. | Autonomously acting robot that recognizes direction of sound source |
US10576633B2 (en) | 2016-09-29 | 2020-03-03 | Toyota Jidosha Kabushiki Kaisha | Communication device |
US11498222B2 (en) | 2017-09-11 | 2022-11-15 | Groove X, Inc. | Autonomously acting robot that stares at companion |
DE112018005034B4 (de) | 2017-09-11 | 2022-05-12 | Groove X, Inc. | Autonom handelnder Roboter, der den Begleiter anblickt |
CN107717957A (zh) * | 2017-10-12 | 2018-02-23 | 北京搜狗科技发展有限公司 | 一种机器人 |
WO2020179949A1 (ko) * | 2019-03-06 | 2020-09-10 | 엘지전자 주식회사 | 로봇 |
CN113495406A (zh) * | 2020-04-01 | 2021-10-12 | 中强光电股份有限公司 | 交互式投影系统以及投影系统的交互式显示方法 |
US20210312841A1 (en) * | 2020-04-01 | 2021-10-07 | Coretronic Corporation | Interactive projection system and interactive display method of projection system |
US11538373B2 (en) * | 2020-04-01 | 2022-12-27 | Coretronic Corporation | Interactive projection system and interactive display method of projection system |
CN113518211A (zh) * | 2020-04-10 | 2021-10-19 | 中强光电股份有限公司 | 投影系统以及投影操作方法 |
US11340518B2 (en) * | 2020-04-10 | 2022-05-24 | Coretronic Corporation | Projection system and projection operation method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006212717A (ja) | ロボット装置 | |
US9838597B2 (en) | Imaging device, imaging method, and program | |
JP6735013B2 (ja) | ロボット | |
JP4512830B2 (ja) | コミュニケーションロボット | |
US20060293787A1 (en) | Communication robot control system | |
ES2920148T3 (es) | Sistemas y métodos de cabezas de personajes animadas | |
JP2007069302A (ja) | 動作表出装置 | |
JP2003265869A (ja) | ロボットの目・眉機構 | |
WO2018123431A1 (ja) | 対話型ロボット | |
Pierce et al. | “Mask-Bot 2i”: An active customisable robotic head with interchangeable face | |
JP2014064248A (ja) | 画像投影装置及び画像投影方法 | |
JP2018051701A (ja) | コミュニケーション装置 | |
WO2019073689A1 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2017056520A1 (ja) | ロボット装置 | |
JP4247149B2 (ja) | ロボット | |
KR20190093166A (ko) | 커뮤니케이션 로봇 및 그 제어 프로그램 | |
JP2013205518A (ja) | 映像表示装置 | |
CN106371206A (zh) | 一种广视角虚拟现实装置 | |
JP7249419B2 (ja) | ロボット | |
JP2005279895A (ja) | ロボット | |
JP2006043780A (ja) | 曲面顔画像表示を用いたコミュニケーションロボット | |
JP2018042004A (ja) | 表示装置、頭部装着型表示装置、及び、表示装置の制御方法 | |
JP2022025465A (ja) | アニメーション制作システム | |
JP5702037B1 (ja) | 撮像装置、撮像方法およびプログラム | |
WO2022158207A1 (ja) | 頭部装着型ディスプレイ |