JP2006289507A - ロボット装置及びその制御方法 - Google Patents
ロボット装置及びその制御方法 Download PDFInfo
- Publication number
- JP2006289507A JP2006289507A JP2005109241A JP2005109241A JP2006289507A JP 2006289507 A JP2006289507 A JP 2006289507A JP 2005109241 A JP2005109241 A JP 2005109241A JP 2005109241 A JP2005109241 A JP 2005109241A JP 2006289507 A JP2006289507 A JP 2006289507A
- Authority
- JP
- Japan
- Prior art keywords
- eyelid
- opening
- closing
- heel
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Toys (AREA)
- Manipulator (AREA)
Abstract
【課題】
本発明は、簡易な構成で感情表出を行い得るロボット装置及びその制御方法を実現するものである。
【解決手段】
上下2分割の瞼を有する瞼開閉部80を、撮像機能を有する眼球部72の前方に設けるとともに、当該眼球部72の後方に設けた瞼回転部90によって瞼開閉部80を回転駆動するようにしたことにより、瞼の開閉量及び傾斜角を自在に変化させて様々な表情を表出することができるとともに、表情表出機構全体を簡易化及び小型化することができる。
【選択図】 図9
本発明は、簡易な構成で感情表出を行い得るロボット装置及びその制御方法を実現するものである。
【解決手段】
上下2分割の瞼を有する瞼開閉部80を、撮像機能を有する眼球部72の前方に設けるとともに、当該眼球部72の後方に設けた瞼回転部90によって瞼開閉部80を回転駆動するようにしたことにより、瞼の開閉量及び傾斜角を自在に変化させて様々な表情を表出することができるとともに、表情表出機構全体を簡易化及び小型化することができる。
【選択図】 図9
Description
本発明はロボット装置及びその制御方法に関し、例えばヒューマノイド型のロボットに適用して好適なものである。
近年、2足歩行型のヒューマノイド型のロボットが多くの企業等において開発され、商品化されている。そしてこのようなロボットの中には、CCD(Charge Coupled Device)カメラやマイクロホン等の各種外部センサが搭載され、これら外部センサの出力に基づいて外部状況を認識し、認識結果に基づいて自律的に行動し得るようになされたものなどもある。
また近年では、音声認識機能及び対話制御機能が搭載され、ユーザとの間で簡単な日常会話を行い得るようになされたエンターテインメントロボットも多く見受けられるようになってきた。
このようなロボットでは、例えば目や顔に設けられたLEDの発光色を変化させる(例えば怒りを表現する場合は赤で、穏やかな感情を表現するには緑で)ことにより、ロボット自身の感情を表現(いわゆる感情表出)していた。
しかしながら、発光色に対して想起される感情は個人個人で異なるため、ロボットの感情がユーザに対して正確に伝わるとは限らないという問題がある。
このため、ロボットの目部に開閉可能な上下瞼を設けるとともに当該目部の上方に変形可能な眉を設け、当該瞼の開度や眉の形状を変化させることにより感情表出を行うようになされたロボットが提案されている(例えば、特許文献1参照)。
特開2003−230770公報
しかしながら上述した構成のロボットでは、回転するアクチュエータからプーリ及び糸を介して瞼及び眉を駆動するようになされており、当該瞼及び眉の駆動機構が複雑かつ大型になるという問題がある。
特に近年ではロボットの小型化が進んでおり、上述した複雑な構成の駆動機構を小型化された頭部に収納することは困難であるという問題があった。
本発明は以上の点を考慮してなされたもので、簡易かつ小型な構成で的確に感情表出を行い得るロボット装置及びその制御方法を提案しようとするものである。
かかる課題を解決するため本発明においては、瞼部を開閉駆動して眼球部を隠蔽及び露出する瞼開閉手段と、瞼開閉手段を回転駆動して瞼部の傾斜角を可変する瞼回転手段とをロボット装置に設けた。
この結果このロボット装置は、瞼開閉部手段を瞼回転手段で回転させるだけで、瞼部を任意の角度に傾斜させて表情表出を行うことができる。
本発明によれば、瞼部を開閉駆動して眼球部を隠蔽及び露出する瞼開閉手段と、瞼開閉手段を回転駆動して瞼部の傾斜角を可変する瞼回転手段とをロボット装置に設けたことにより、瞼開閉部手段を瞼回転手段で回転させるだけで、瞼部を任意の角度に傾斜させて表情表出を行うことができ、簡易かつ小型な構成で様々な表情を表出することができるロボット装置を実現できる。
以下図面について、本発明の一実施の形態を詳述する。
(1)ロボットの全体構成
図1及び図2において、1は全体として本実施の形態によるロボットを示し、胴体部ユニット2の上部に首部3を介して頭部ユニット4が連結されると共に、当該胴体部ユニット2の上部左右両側面にそれぞれ腕部ユニット5A、5Bが連結され、かつ当該胴体部ユニット2の下部に一対の脚部ユニット6A、6Bが連結されることにより構成されている。
図1及び図2において、1は全体として本実施の形態によるロボットを示し、胴体部ユニット2の上部に首部3を介して頭部ユニット4が連結されると共に、当該胴体部ユニット2の上部左右両側面にそれぞれ腕部ユニット5A、5Bが連結され、かつ当該胴体部ユニット2の下部に一対の脚部ユニット6A、6Bが連結されることにより構成されている。
この場合、首部3は、図3に示すように、首関節ピッチ軸10回り、首関節ヨー軸11回り及び首関節ピッチ軸12回りの自由度を有する首関節機構部13により保持されている。また頭部ユニット4は、この首部3の先端部に図3のように首部ロール軸14回りの自由度をもって取り付けられている。これによりこのロボット1においては、頭部ユニット4を前後、左右及び斜めの所望方向に向かせることができるようになされている。
また各腕部ユニット5Aは、図1及び図2において明らかなように、上腕部ブロック15、前腕部ブロック16及び手先部ブロック17の3つのブロックから構成され、上腕部ブロック15の上端部が図3のように肩ピッチ軸18回り及び肩ロール軸19回りの自由度を有する肩関節機構部20を介して胴体部ユニット2に連結されている。
このとき前腕部ブロック16は、図3のように上腕部ブロック15に上腕ヨー軸21回りの自由度をもって連結されている。また手先部ブロック17は、図3のように前腕部ブロック16に手首ヨー軸22回りの自由度をもって連結されている。さらに前腕部ブロック16には、肘ピッチ軸23回りの自由度を有する肘関節機構部24が設けられている。
これによりロボット1においては、これら腕部ユニット5A、5Bを全体としてほぼ人間の腕部と同様の自由度をもって動かすことができ、かくして片手を上げた挨拶や腕部ユニット5A、5Bを振り回すダンスなどの当該腕部ユニット5A、5Bを用いた各種行動を行い得るようになされている。
さらに手先部ブロック17の先端部には、5本の指部25がそれぞれ屈曲及び伸長自在に取り付けられており、これによりこれら指部を使って物を摘んだり、把持することができるようになされている。
他方、各脚部ユニット6A、6Bは、図1及び図2において明らかなように、大腿部ブロック30、脛部ブロック31及び足平部ブロック32の3つのブロックから構成され、大腿部ブロック30の上端部が図3のように股関節ヨー軸33回り、股関節ロール軸34回り及び股関節ピッチ軸35回りの自由度を有する股関節機構部36を介して胴体部ユニット2に連結されている。
このとき大腿部ブロック30及び脛部ブロック31は、図3のように脛ピッチ軸37回りの自由度を有する膝関節機構部38を介して連結されると共に、脛ブロック31及び足平ブロック32は、図3のように足首ピッチ軸39回り及び足首ロール軸40回りの自由度を有する足首関節機構部41を介して連結されている。
これによりロボット1においては、これら脚部ユニット6A、6Bを人間の脚部とほぼ同様の自由度をもって動かすことができ、かくして歩行やボールを蹴るなどの脚部ユニット6A、6Bを用いた各種行動を行い得るようになされている。
さらに胴体部ユニット2の後側上部には、首部3を囲むようにグリップハンドル2Aが設けられており、かくしてユーザがこのグリップハンドル2Aを手掛かりとして、ロボット1全体を持ち上げることができるようになされている。
なおこのロボット1の場合、各股関節機構部36は、図3のように体幹ロール軸42回り及び体幹ピッチ軸43回りの自由度を有する腰関節機構部44により支持されており、これにより胴体部ユニット2を前後、左右方向に自在に傾かせることもできるようになされている。
ここでロボット1においては、上述のように頭部ユニット4、各腕部ユニット5A、5B、各脚部ユニット6A、6B及び胴体部ユニット2を動かすための動力源として、図4に示すように、首関節機構部13及び肩関節機構部20等の各関節機構部を含む各自由度を有する部位に、それぞれその自由度数分のアクチュエータA1〜A17が配設されている。
また頭部ユニット4には、後述する瞼の開閉や回転、及び口部を開閉するための動力源として、アクチュエータA18〜A20が配設されている。
一方胴体部ユニット2には、当該ロボット1全体の動作制御を司るメイン制御部50と、電源回路及び通信回路などの周辺回路51と、バッテリ52(図5)となどが収納されると共に、各構成ユニット(胴体部ユニット2、頭部ユニット4、各腕部ユニット5A、5B及び各脚部ユニット6A、6B)内には、それぞれメイン制御部50と電気的に接続されたサブ制御部53A〜53Dが収納されている。
さらに頭部ユニット4には、図5に示すように、このロボット1の「目」として機能する一対のCCD(Charge Coupled Device)カメラ60A、60B及び「耳」として機能するマイクロホン61などの各種外部センサと、発声装置として機能するスピーカ62となどがそれぞれ所定位置に配設されている。
また各脚部ユニット6A、6Bにおける足平部ブロック32の裏面や、グリップハンドル2Aの把持部分等の各所定部位には外部センサとしてのタッチセンサ63が配設されている。なお、以下においては、各脚分ユニット6A、6Bにおける足平部ブロック32の裏面に設けられたタッチセンサ63を足底力センサ63L、63Rと呼び、グリップハンドル2Aの把持部分に設けられたタクトスイッチでなるタッチセンサ63をグリップスイッチ63Gと呼ぶものとする。
さらに胴体部ユニット2内には、バッテリセンサ64及び加速度センサ65などの各種内部センサが配設されると共に、各構成ユニット内には、それぞれ各アクチュエータA1〜A20にそれぞれ対応させて、対応するアクチュエータA1〜A20の出力軸の回転角度を検出する内部センサとしてのポテンショメータP1〜P20が設けられている。
そして各CCDカメラ60A、60Bは、周囲の状況を撮像し、得られた画像信号S1Aをサブ制御部53B(図5において図示せず)を介してメイン制御部50に送出する一方、マイクロホン61は、各種外部音を集音し、かくして得られた音声信号S1Bをサブ制御部53Bを介してメイン制御部50に送出する。また各タッチセンサ63は、ユーザからの物理的な働きかけや、外部との物理的な接触を検出し、検出結果を圧力検出信号S1Cとして対応するサブ制御部53A〜53D(図5において図示せず)を介してメイン制御部50に送出する。
さらにバッテリセンサ64は、バッテリ52のエネルギ残量を所定周期で検出し、検出結果をバッテリ残量信号S2Aとしてメイン制御部50に送出する一方、加速度センサ65は、3軸(x軸、y軸及びz軸)の加速度を所定周期で検出し、検出結果を加速度検出信号S2Bとしてメイン制御部50に送出する。また各ポテンショメータP1〜P20は、対応するアクチュエータA1〜A20の出力軸の回転角度を検出し、検出結果を所定周期で角度検出信号S2C1〜S2C20として対応するサブ制御部53A〜53Dを介してメイン制御部50に送出する。
メイン制御部50は、CCDカメラ60A、60B、マイクロホン61及び各タッチセンサ63等の各種外部センサからそれぞれ供給される画像信号S1A、音声信号S1B及び圧力検出信号S1C等の外部センサ信号S1と、バッテリセンサ64、加速度センサ65及び各ポテンショメータP1〜P20等の各種内部センサからそれぞれ供給されるエネルギ残量信号S2A、加速度検出信号S2B及び各角度検出信号S2C1〜S2C20等の内部センサ信号S2とに基づいて、ロボット1の外部及び内部の状況や、ユーザの物理的な働きかけの有無等を判断する。
そしてメイン制御部50は、この判断結果と、予め内部メモリ50Aに格納されている制御プログラムと、そのとき装填されている外部メモリ66に格納されている各種制御パラメータとなどに基づいて続くロボット1の行動を決定し、当該決定結果に基づく制御コマンドを対応するサブ制御部53A〜53D(図4)に送出する。
この結果、この制御コマンドに基づき、そのサブ制御部53A〜53Dの制御のもとに、対応するアクチュエータA1〜A17が駆動され、かくして頭部ユニット4を上下左右に揺動させたり、腕部ユニット5A、5Bを上に上げたり、歩行するなどの各種行動がロボット1により発現される。
このようにしてこのロボット1は、外部及び内部の状況等に基づいて自律的に行動することができるようになされている。
(2)頭部ユニットの構成
図6及び図7は頭部ユニット4の構成を示し、頭部外装4Aの前面下方に略半月状の平板でなる口部69が設けられているとともに、当該頭部外装4Aの前面には左右の目部70(左目部70A及び右目部70B)が設けられている。
図6及び図7は頭部ユニット4の構成を示し、頭部外装4Aの前面下方に略半月状の平板でなる口部69が設けられているとともに、当該頭部外装4Aの前面には左右の目部70(左目部70A及び右目部70B)が設けられている。
口部69は、頭部外装4Aの内部における2つの目部70の中間上方に内蔵された口部駆動モータ69A(アクチュエータA18)によって、その一片を支点として開閉駆動される。
そしてメイン制御部50(図5)は、スピーカ62(図5)からの発声に同期して口部69を開閉させることにより、あたかもロボット1が実際にこの口部69から音声を発声しているかのような印象をユーザに与え得るとともに、複数のロボット1のうちの発声中の個体を視覚を介してユーザに認識させることができる。
またメイン制御部50は、後述する上瞼81及び下瞼82の開閉や回転に同期して口部69を開閉することもでき、これにより様々な表情を表出し得るようになされている。
一方目部70は、図7に示すように、すりばち状に凹んだ眼窩71の奥に眼球部72が配設されている。眼窩71は、図示しないLED(Light Emitting Diode)によって照明される。また眼球部72は、CCDカメラ60を内蔵したカメラケース72Aと、その前方に設けられた瞳72Bとで構成される。そしてCCDカメラ60は、カメラケース72A及び瞳72Bの中央に開口された瞳孔を介して外部を撮像し得るようになされている。
カメラケース72Aは、連結部材72Bを介して左右のカメラケース72Aが一体に連結され、さらに当該連結部材72Bを介して頭部ユニット4のメインフレーム75に固定されている。
(3)瞼開閉部の構成
さらに本発明のロボット1では、図7に示すように、上瞼81及び下瞼82を眼窩71と眼球部72との間の空間内で開閉駆動して、当該眼球部72を被覆及び露出する瞼開閉部80(左瞼開閉部80A及び右瞼開閉部80B)を有している。このように本発明のロボット1では、瞼を上瞼81及び下瞼82の2つに分離したことにより、瞼一個当たりの開閉の移動量を、瞼が一体の場合に比べて格段に少なくすることができ、ロボット顔面の非常に限られたスペース内に開閉する瞼を組み込む事ができる。
さらに本発明のロボット1では、図7に示すように、上瞼81及び下瞼82を眼窩71と眼球部72との間の空間内で開閉駆動して、当該眼球部72を被覆及び露出する瞼開閉部80(左瞼開閉部80A及び右瞼開閉部80B)を有している。このように本発明のロボット1では、瞼を上瞼81及び下瞼82の2つに分離したことにより、瞼一個当たりの開閉の移動量を、瞼が一体の場合に比べて格段に少なくすることができ、ロボット顔面の非常に限られたスペース内に開閉する瞼を組み込む事ができる。
図8及び図9に示すように、瞼開閉部80においては、上瞼81及び下瞼82はそれぞれ上瞼ガイド軸84A及び下瞼ガイド軸84Bに支持されて上下に摺動し、上下の瞼があたかも開閉するかのような直線運動を行う。さらに、上瞼81の先端部81Aは上瞼抑え85Aと瞼開閉部シャーシ83との間で保持され、これにより上瞼81は瞼開閉部シャーシ83に対して常に平行な状態で往復移動する。同様に、下瞼82の先端部82Aは下瞼ガイドに挟み込まれるように保持され、これにより下瞼82も瞼開閉部シャーシ83に対して常に平行な状態で往復移動する。
そして、上瞼81にはラック81Bが形成されており、瞼開閉駆動機構86の最終段ギア86Eに対して歯合している。瞼開閉駆動機構86は、瞼開閉モータ86M(アクチュエータA19)の回転力をウォーム86A及びギア86B〜86Eを順次介して減速しながらラック81Bに伝達し、これにより上瞼81を開閉駆動する。
また、最終段ギア86Eにはポテンショメータ86P(P19)が接続されており、当該最終段ギア86Eの回転角に基づいて上瞼81の開き状態を検出し得るようになされている。
さらに、ギア86Dには摩擦クラッチが内蔵されており、過大なトルクが発生した場合に当該摩擦クラッチが滑り、これにより上瞼81が所定の移動範囲を超えてストッパーに突き当たった場合や異物が上瞼81及び下瞼82の間に挟まった場合等、瞼開閉駆動機構86内に過大なトルクが発生した場合の機構破損を防止している。
これに加えて瞼開閉部80は、上瞼81の閉動作に連動して下瞼82の閉動作させるための瞼連動リンク87が、瞼開閉部シャーシ83のおける開口部下側(下瞼側)に、軸部87Cを介して回動自在に設けられている。また図10に示すように、上瞼81におけるラック81Bの裏側(すなわちシャシー側)には上瞼81の閉動作を瞼連動リンク87に伝達するための上瞼連動ピン81Cが突設され、下瞼82には瞼連動リンク87の回動動作を当該下瞼82に伝達するための下瞼連動ピン82Cが突設されている。さらに、下瞼82は図示しない付勢ばねによって開方向に常時付勢され、当該下瞼82の下瞼連動ピン82Cと瞼連動リンク87の下瞼側連動端87Bとは常時接触している。
図10に示す瞼全開状態においては、全開位置にある上瞼81の上瞼連動ピン81Cは瞼連動リンク87の上方にあり、上瞼連動ピン81Cと瞼連動リンク87とは接触していない。一方、下瞼82は付勢ばねによって開方向に付勢されて自然位置(すなわち全開位置)にある。
この状態から、上瞼81は最終段ギア86Eの回転に連動して下方へと移動して閉じていき、図11に示すように、当該上瞼81が半分程度まで閉じた時点で上瞼連動ピン81Cと上瞼側連動端87Aとが接触する。これ以降、瞼連動リンク87は下瞼82を上瞼81に連動して閉動作させる。
すなわち図12に示すように、瞼連動リンク87は、上瞼連動ピン81Cによる上瞼側連動端87Aの押し下げに応じて反対側の下瞼側連動端87Bが持ち上がり、これにより下瞼側連動端87Bが下瞼連動ピン82Cを押し上げて下瞼82を上昇(閉動作)させていく。そして図13に示すように、上瞼81と下瞼82とが接触して瞼が完全に閉じた状態となる。
このように瞼開閉部80は、上瞼81の動きを瞼連動リンク87を介して下瞼82に伝達することにより、片目当たり1個の瞼開閉モータ86Mで上瞼81及び下瞼82の双方を駆動することができる。
また瞼連動リンク87は、入力端である上瞼側連動端87Aと支点である軸部87Cとの間隔に比べて、出力端である下瞼側連動端87Bと軸部87Cとの間隔が大きく設定されており、これにより下瞼82は上瞼81に比べて速く移動する。また上述したように、下瞼82は上瞼81が半分ほど閉じた状態から閉じ始める。
このため瞼開閉部80は、図14(A)に示す瞼全開状態から、先に上瞼81が閉じ始め(図14(B))、当該上瞼81が半分ほど閉じた時点で下瞼82が上瞼81よりも速い速度で移動を開始し(図14(C)、最終的に上下瞼が合致して図14(D)に示す瞼全閉状態となる。
これにより瞼開閉部80は、片目当たり1個の瞼開閉モータ86Mで、上瞼81及び下瞼82をそれぞれ異なる移動開始タイミング及び移動速度で駆動させ、人間の瞼に似た自然な瞼開閉動作を行うことができる。
さらに本発明のロボット1では、左右の瞼をそれぞれ独立して開閉させることにより、例えば図14(D)に示すウインク等の様々な表情を表出するようになされている。
(4)瞼回転部の構成
かかる構成に加えて本発明のロボット1では、瞼開閉部80を回転させることにより瞼を傾斜させ、上述した瞼の開閉と併せて様々な表情を表出するための、瞼回転部90(左瞼回転部90A及び右瞼回転部90B)を有している(図7〜9)。
かかる構成に加えて本発明のロボット1では、瞼開閉部80を回転させることにより瞼を傾斜させ、上述した瞼の開閉と併せて様々な表情を表出するための、瞼回転部90(左瞼回転部90A及び右瞼回転部90B)を有している(図7〜9)。
図9に示すように瞼回転部90は、瞼回転モータ91Mの回転力を減速して回転軸92に伝達するための瞼回転駆動機構91と、回転軸92に接続され当該回転軸92とともに矢印A方向及びその反対方向に回転する瞼回転部シャーシ93とを有している。そして瞼回転部90は、回転軸92の中心と眼球部72の中心とが略一致した状態で、取付板95を介して頭部ユニット4のメインフレーム75に固定されている。これによりこのロボット1では、片目当たり1個の瞼回転モータ91Mのみによって、瞼を様々な角度に傾斜させることができる。
このようにこのロボット1では、眼球部72の前面側に瞼開閉部80を設けるとともに、当該眼球部72の背面側に瞼開閉部80を回転駆動する瞼回転部90を設けたことにより、眼球部72のCCDカメラによる撮像機能に何ら影響を及ぼすことなく、瞼を様々な角度に傾斜させて、喜怒哀楽等の様々な表情を表出することができる(図15(A)〜(C))。
さらに本発明のロボット1では、左右の瞼を同方向に向けて傾斜させることにより、あたかも横目で見るような表情を表出することができる(図15(D))。
(5)動作及び効果
以上の構成において、ロボット1では、開閉自在な瞼を備えた瞼開閉部80全体を、瞼回転部90によって回転駆動するようにした。
以上の構成において、ロボット1では、開閉自在な瞼を備えた瞼開閉部80全体を、瞼回転部90によって回転駆動するようにした。
このためこのロボット1では、瞼開閉部80を回転させるだけで瞼を任意の角度に傾斜させることができ、この瞼傾斜によって喜怒哀楽等の様々な表情を表出することができる。
これによりこのロボット1では、眉の形状変化によって表出を行う従来のロボットに比べて、表出に必要な駆動機構が極めて簡素になり、その分全体として簡易かつ小型に構築することができる。
そしてこのロボット1では、眼球部72の前面側に瞼開閉部80を設けるとともに、当該眼球部72の背面側に瞼回転部90を設けることにより、眼球部72の撮像機能に影響を及ぼすことなく、瞼を様々な角度に傾斜させることができる。
さらにこのロボット1では、2分割した上瞼81及び下瞼82を直線的に駆動して瞼の開閉を行うようにした。
実際上、このロボット1は擬人化された略球状の頭部ユニット4を有しており、その顔面は大きくラウンドしているため、目部70の上下のスペースは極めて小さい。このような小さなスペースに開閉式の瞼を設ける場合、特許文献1で示されるような回転式瞼を用いることが考えられるが、この場合奥行き方向に瞼の収納スペースが必要となる。
しかしながら頭部ユニット4の中心部は、首関節機構部13や各種電子機器で占められており、これらと頭部外装4Aとの間隙は小さいため、ここに開閉式の瞼の収納スペースを設けることは困難である。また、瞼開閉部80の背面側には眼球部72があるため、収納された瞼が眼球部72に干渉してしまうという問題もある。
これに対してこのロボット1では、瞼を上下に2分割することで上瞼81及び下瞼82それぞれの移動量を削減し、さらに当該上瞼81及び下瞼82を瞼開閉部80のシャーシ83と平行に直線移動させることで瞼開閉部80全体の厚さを薄く保ち、かくして、開閉及び回転可能な瞼を、上下方向及び奥行き方向の双方が限られたスペース内に、眼球部72に干渉することなく配置することができる。
以上の構成によれば、上下2分割の瞼を有する瞼開閉部80を瞼回転部90によって回転させることにより、瞼の開閉量及び傾斜角を自在に変化させて様々な表情を表出することができるとともに、表情表出機構を簡易化及び小型化することができる。
1……ロボット、2……胴体部ユニット、3……首部、4……頭部ユニット、5A、5B……腕部ユニット、6A、6B……脚部ユニット、13……首関節機構部、20……肩関節機構部、24……肘関節機構部、32……足平部ブロック、36……股関節機構部、38……膝関節機構部、41……足首関節機構部、50……メイン制御部、60……CCDカメラ、70……目部、71……眼窩、72……眼球部、80……瞼開閉部、81……上瞼、82……下瞼、86……瞼開閉駆動機構、90……瞼回転部、91……瞼回転駆動機構、92……回転軸、93……瞼回転部シャーシ。
Claims (8)
- 瞼部を開閉駆動して眼球部を隠蔽及び露出する瞼開閉手段と、
上記瞼開閉手段を回転駆動して上記瞼部の傾斜角を可変する瞼回転手段と
を具えることを特徴とするロボット装置。 - 上記瞼部は上瞼及び下瞼で構成され、上記瞼開閉手段は上瞼及び下瞼の双方を開閉駆動する
ことを特徴とする請求項1に記載のロボット装置。 - 上記瞼開閉手段は、上記上瞼及び下瞼を直線的に開閉駆動する
ことを特徴とする請求項1に記載のロボット装置。 - 上記瞼開閉手段は、上記上瞼が閉じ始めた後に上記下瞼を閉じ始める
ことを特徴とする請求項2に記載のロボット装置。 - 上記瞼開閉手段は、上記上瞼よりも速い速度で上記下瞼を駆動する
ことを特徴とする請求項4に記載のロボット装置。 - 上記瞼開閉手段及び瞼開閉手段は、曲面状の顔面内に収納される
ことを特徴とする請求項1に記載のロボット装置。 - 上記眼球部は撮像機能を有し
上記瞼開閉手段は上記眼球部の背面側に設けられ、
上記瞼回転手段は上記眼球部とは独立に上記瞼開閉手段を回転駆動する
ことを特徴とする請求項1に記載のロボット装置。 - ロボット装置の瞼部を開閉駆動して眼球部を隠蔽及び露出する瞼開閉ステップと、
上記瞼部を回転駆動して当該瞼部の傾斜角を可変する瞼回転ステップと
を具えることを特徴とするロボット装置の制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005109241A JP2006289507A (ja) | 2005-04-05 | 2005-04-05 | ロボット装置及びその制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005109241A JP2006289507A (ja) | 2005-04-05 | 2005-04-05 | ロボット装置及びその制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006289507A true JP2006289507A (ja) | 2006-10-26 |
Family
ID=37410656
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005109241A Pending JP2006289507A (ja) | 2005-04-05 | 2005-04-05 | ロボット装置及びその制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006289507A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101596366B (zh) * | 2008-06-05 | 2012-03-14 | 鸿富锦精密工业(深圳)有限公司 | 玩具眼睛 |
JP2013508177A (ja) * | 2009-10-21 | 2013-03-07 | セコルポラ, エセ. エレ. | ソーシャルロボット |
WO2017183319A1 (ja) * | 2016-04-20 | 2017-10-26 | 株式会社ソニー・インタラクティブエンタテインメント | ロボットおよび筐体 |
US10350761B2 (en) | 2016-10-13 | 2019-07-16 | Toyota Jidosha Kabushiki Kaisha | Communication device |
US10808879B2 (en) | 2016-04-20 | 2020-10-20 | Sony Interactive Entertainment Inc. | Actuator apparatus |
CN114661057A (zh) * | 2022-05-23 | 2022-06-24 | 武汉跨克信息技术有限公司 | 一种智能仿生双足巡检机器人 |
-
2005
- 2005-04-05 JP JP2005109241A patent/JP2006289507A/ja active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101596366B (zh) * | 2008-06-05 | 2012-03-14 | 鸿富锦精密工业(深圳)有限公司 | 玩具眼睛 |
JP2013508177A (ja) * | 2009-10-21 | 2013-03-07 | セコルポラ, エセ. エレ. | ソーシャルロボット |
WO2017183319A1 (ja) * | 2016-04-20 | 2017-10-26 | 株式会社ソニー・インタラクティブエンタテインメント | ロボットおよび筐体 |
US10808879B2 (en) | 2016-04-20 | 2020-10-20 | Sony Interactive Entertainment Inc. | Actuator apparatus |
US11052547B2 (en) | 2016-04-20 | 2021-07-06 | Sony Interactive Entertainment Inc. | Robot and housing |
US10350761B2 (en) | 2016-10-13 | 2019-07-16 | Toyota Jidosha Kabushiki Kaisha | Communication device |
CN114661057A (zh) * | 2022-05-23 | 2022-06-24 | 武汉跨克信息技术有限公司 | 一种智能仿生双足巡检机器人 |
CN114661057B (zh) * | 2022-05-23 | 2022-08-26 | 武汉跨克信息技术有限公司 | 一种智能仿生双足巡检机器人 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006289508A (ja) | ロボット装置及びその表情制御方法 | |
US9079113B2 (en) | Interactive personal robotic apparatus | |
CA2882968C (en) | Facilitating generation of autonomous control information | |
Miwa et al. | Development of a new human-like head robot WE-4 | |
JP2006289507A (ja) | ロボット装置及びその制御方法 | |
US20070233318A1 (en) | Follow Robot | |
WO2002076687A1 (en) | Robot device and control method therefor, and storage medium | |
WO2019087495A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
Pateromichelakis et al. | Head-eyes system and gaze analysis of the humanoid robot Romeo | |
JP7363809B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2023014130A (ja) | ロボット装置および制御方法 | |
JP2006212717A (ja) | ロボット装置 | |
CN108055868A (zh) | 机器人 | |
JP4617428B2 (ja) | 動作生成システム | |
Hackel et al. | Humanoid robot platform suitable for studying embodied interaction | |
EP3400994A1 (en) | Interactive robotic toy | |
JP4433273B2 (ja) | ロボット装置及びロボット装置の制御方法 | |
WO2013121469A1 (ja) | 脚式ロボット | |
Itoh et al. | Mechanical design of emotion expression humanoid robot we-4rii | |
JP4210897B2 (ja) | 音源方向判断装置及び音源方向判断方法 | |
CA3003530A1 (en) | Interactive robotic toy | |
JPS63200786A (ja) | 自動人形 | |
JP2003266353A (ja) | ロボット装置及びその制御方法 | |
JP2004163772A (ja) | ロボット装置 | |
CN205586558U (zh) | 交互式电子玩偶 |