JP4524524B2 - ロボット装置及びその制御方法 - Google Patents

ロボット装置及びその制御方法 Download PDF

Info

Publication number
JP4524524B2
JP4524524B2 JP2000350277A JP2000350277A JP4524524B2 JP 4524524 B2 JP4524524 B2 JP 4524524B2 JP 2000350277 A JP2000350277 A JP 2000350277A JP 2000350277 A JP2000350277 A JP 2000350277A JP 4524524 B2 JP4524524 B2 JP 4524524B2
Authority
JP
Japan
Prior art keywords
led
action
light emitting
unit
light emission
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000350277A
Other languages
English (en)
Other versions
JP2002120181A (ja
Inventor
英樹 野間
直泰 細沼
京子 古村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000350277A priority Critical patent/JP4524524B2/ja
Publication of JP2002120181A publication Critical patent/JP2002120181A/ja
Application granted granted Critical
Publication of JP4524524B2 publication Critical patent/JP4524524B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

【0001】
【発明の属する技術分野】
本発明はロボット装置及びその制御方法に関し、例えばペットロボットに適用して好適なものである。
【0002】
【従来の技術】
近年、ユーザからの指示や周囲の環境に応じて自律的に行動するようになされたペットロボットが本願特許出願人により開発されている。かかるペットロボットは、一般家庭において飼育される犬や猫に似せた外観を有し、それぞれ所定位置に配設されたCCD(Charge Coupled Device)カメラ、マイクロホン及びタッチセンサ等の出力に基づいて周囲及び自己内部の状況や、ユーザからの指令及び働きかけの有無などを認識し、認識結果に基づいて行動するものである。
【0003】
【発明が解決しようとする課題】
ところでかかるペットロボットにおいて、例えばユーザからの「叩く」や「撫でる」といった働きかけに対して「怒り」や「喜び」などの感情を表現し得るようにすることができれば、ユーザとペットロボットのコミュニケーションを円滑させることができ、その分ペットロボットに対するユーザの愛着心及び好奇心を向上させて、そのエンターテイメント性をより一層向上させ得るものと考えられる。
【0004】
そして従来ではこのような考えのもとに、外見上の「目」として機能する発光体を点滅させることによってペットロボットの感情を表現する方法が広く用いられている。
【0005】
ところが従来のペットロボットに採用されているかかる方法では、左右の各「目」に相当する発光体を単に同時にオン/オフさせるだけであったため、複雑な感情表現を行い難く、この結果としてユーザに飽きを感じさせ易いおそれがあった。
【0006】
またかかる従来のペットロボットは、上述のように自律的に行動するものであるが故に、ユーザからの働きかけ等に対して必ずしも反応したり決まった反応を起こすものではない。このためかかるペットロボットにおいては、例えばもともと動きのない姿勢にある場合(例えば寝ていたり、又は単に座っているだけの場合)や、意識的に動きを発現しない動作モード時に、ユーザにペットロボットが壊れてしまったとの誤解を与えるおそれがあった。
【0007】
従ってかかるペットロボットにおいて、より複雑な表情表現を行い得るようにすることができれば、ユーザに飽きを感じさせ難くすることができ、その分ペットロボットとしてのエンターテイメント性をより一層向上させ得るものと考えられる。
【0008】
またかかるペットロボットにおいて、ユーザがペットロボットのシステムの状態を容易に認識できるようにすることができれば、ユーザに不要の誤解や心配を与えるのを防止して、エンターテイメント性をより一層向上させ得るものと考えられる。
【0009】
本発明は以上の点を考慮してなされたもので、エンターテイメント性を向上させ得るロボット装置及びその制御方法を提案しようとするものである。
【0010】
【課題を解決するための手段】
かかる課題を解決するため本発明は、ロボット装置であって、外見上の目として配される第1の発光手段と、第2の発光手段と、外部若しくは内部の状況及び又は外部からの入力を検出するセンサと、センサの出力に基づいて行動又は動作を決定する決定手段と、決定手段が決定した行動又は動作に関連付けられる表情を示す発光パターンで、第1の発光手段を点滅制御する制御手段とを有する。この制御手段は、ロボット体部を構成するユニットを、ユーザに対する危険回避のために非駆動とする動作モードが決定手段により決定された場合、第1の発光手段とともに又は第1の発光手段とは別に、第2の発光手段を点滅制御する。
【0013】
また本発明は、ロボット装置の制御方法であって、ロボット装置に設けられる複数のセンサから、外部若しくは内部の状況及び又は外部からの入力を検出する検出ステップと、センサでの検出結果に基づいて行動又は動作を決定する決定ステップと、決定ステップで決定される行動又は動作に関連付けられる表情を示す発光パターンで、ロボット装置の目として配される第1の発光手段を点滅制御させる第発光ステップと、ロボット体部を構成するユニットを、ユーザに対する危険回避のために非駆動とする動作モードが決定ステップで決定された場合、第1の発光手段とともに又は第1の発光手段とは別に、第2の発光手段を点滅制御する第発光ステップとを有する。
【0016】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0017】
(1)本実施の形態によるペットロボット1の構成
図1において、1は全体として本実施の形態によるペットロボットを示し、胴体部ユニット2の前後左右にそれぞれ脚部ユニット3A〜3Dが連結されると共に、胴体部ユニット2の前端部及び後端部にそれぞれ頭部ユニット4及び尻尾部ユニット5が連結されることにより構成されている。
【0018】
この場合胴体部ユニット2には、図2に示すように、このペットロボット1全体の動作を制御するコントローラ10と、このペットロボットの動力源1としてのバッテリ11と、バッテリセンサ12、温度センサ13及び加速度センサ14等からなる内部センサ部15となどが収納されている。
【0019】
また頭部ユニット4には、このペットロボット1の実質上の「目」として機能するCCDカメラ16、実質上の「耳」として機能するマイクロホン17及びタッチセンサ18などからなる外部センサ部19と、外見上の「目」としての機能を有する複数のLED(Light Emitting Diode、発光ダイオード)からなるLED部20と、実質上の「口」として機能するスピーカ21となどがそれぞれ所定位置に配設されている。
【0020】
さらに尻尾部ユニット5には、駆動自在に尻尾5Aが配設されると共に、当該尻尾5Aには、そのときのペットロボット1の心理状態を表示するための青色又はオレンジ色に発光可能なLED(以下、これを心理状態表示用LEDと呼ぶ)23が配設されている。
【0021】
さらに各脚部ユニット3A〜3Dの関節部分や、各脚部ユニット3A〜3D及び胴体部ユニット2の各連結部分、頭部ユニット4及び胴体部ユニット2の連結部分、並びに尻尾部ユニット5における尻尾5Aの付根部分などには、それぞれ対応する自由度数分のアクチュエータ22〜22が配設されている。
【0022】
そして外部センサ部19のCCDカメラ16は、周囲の状況を撮像し、得られた画像信号S1Aをコントローラ10に送出する。またマイクロホン17は、ユーザから図示しないサウンドコマンダを介して音階として与えられる「歩け」、「伏せ」又は「ボールを追いかけろ」等の指令音を集音し、得られた音声信号S1Bをコントローラ10に送出する。
【0023】
さらにタッチセンサ18は、図1において明らかなように、頭部ユニット4の上部に設けられており、ユーザからの「撫でる」や「叩く」といった物理的な働きかけにより得られた圧力を検出し、検出結果を圧力検出信号S1Cとしてコントローラ10に送出する。
【0024】
一方、内部センサ部15のバッテリセンサ12は、バッテリ11の残量を検出し、検出結果をバッテリ残量検出信号S2Aとしてコントローラ10に送出する。また温度センサ13は、ペットロボット1内部の温度を検出し、検出結果を温度検出信号S2Bとしてコントローラ10に送出する一方、加速度センサ14は、3軸(X軸、Y軸及びZ軸)方向の加速度を検出し、検出結果を加速度検出信号S2Cとしてコントローラ10に送出する。
【0025】
コントローラ10は、外部センサ部19のCCDカメラ16、マイクロホン17及びタッチセンサ18からそれぞれ供給される画像信号S1A、音声信号S1B及び圧力検出信号S1C(以下、これらをまとめて外部センサ信号S1と呼ぶ)と、内部センサ部15のバッテリセンサ12、温度センサ13及び加速度センサ14からそれぞれ与えられるバッテリ残量検出信号S2A、温度検出信号S2B及び加速度検出信号S2C(以下、これらをまとめて内部センサ信号S2と呼ぶ)となどに基づいて、ペットロボット1の周囲及び内部の状況や、ユーザからの指令、ユーザからの働きかけの有無などを判断する。
【0026】
そしてコントローラ10は、この判断結果と、予めメモリ10Aに格納された制御プログラムとに基づいて続く行動を決定し、決定結果に基づいて必要なアクチュエータ22〜22を駆動させることにより、頭部ユニット4を上下左右に振らせたり、尻尾部ユニット5の尻尾部5Aを動かせたり、各脚部ユニット3A〜3Dを駆動して歩行させるなどの行動を行わせる。
【0027】
またこの際コントローラ10は、必要に応じて所定の音声信号S3をスピーカ21に与えることにより当該音声信号S3に基づく音声を外部に出力させ、外見上の「目」としてのLED部20にLED駆動信号S4を出力することによりこれをかかる判断結果に応じた所定の発光パターンで発光させ、及び又は尻尾部ユニット5の心理状態表示用LED23にLED駆動信号S5を送出することによりこれをそのときの心理状態に応じた発光パターンで発光させる。
【0028】
このようにしてこのペットロボット1においては、周囲及び内部の状況や、ユーザからの指令及び働きかけの有無などに基づいて自律的に行動することができるようになされている。
【0029】
なおペットロボット1の外見上の「目」としての機能を有するLED部20の具体的な構成を図3に示す。この図3からも明らかなように、LED部20は、感情を表現するための感情表現用LEDとして、それぞれ赤色光を発光する一対の第1の赤色LED20R11、20R12及び一対の第2の赤色LED20R21、20R22と、それぞれ青緑色光を発光する一対の青緑色LED20BG、20GBとを有している。
【0030】
この場合各第1の赤色LED20R11、20R12は、それぞれ発光部が所定長さの直線形状を有しており、矢印aで示す頭部ユニット4の前方向に行くに従って先窄みの位置関係となるように頭部ユニット4の前後方向のほぼ中段部に配設されている。
【0031】
また各第2の赤色LED20R21、20R22は、それぞれ発光部が所定長さの直線形状を有しており、頭部ユニット4の前方向に行くに従って先広がりの位置関係となるように、かつ各第1の赤色LED20R11、20R12と合わせてほぼ放射状の位置関係となるように頭部ユニット4の中段部に配設されている。
【0032】
これによりこのペットロボット1においては、各第1の赤色LED20R11、20R12を同時に点灯することによって、図4(A)のようにあたかも目をつり上げて怒っているかのような「怒り」の表情や、嫌悪感を感じているかのような「嫌悪」の表情などを表現することができ、各第2の赤色LED20R21、20R22を同時に点灯することによって、図4(B)のようにあたかも悲しんでいるかのような「悲しみ」の表情などを表現することができ、さらには各第1及び第2の赤色LED20R11、20R12、20R21、20R22を全て同時に点灯することによって、図4(C)のように恐怖を感じているかのような「恐怖」の表情や、驚いているかのような「驚き」の表情などを表現することができるようになされている。
【0033】
これに対して各青緑色LED20BG、20BGは、それぞれ発光部が所定長さの弓なり形状を有しており、それぞれ頭部ユニット4における対応する第1の赤色LED20R11、20R12の直前位置に、弓なりの内側を前方(矢印a)に向けた状態で配設されている。
【0034】
これによりこのペットロボット1では、各青緑色LED20BG、20BGを同時に点灯することによって、図4(D)のようにあたかも笑っているかのような「喜び」の表情を表現することができるようになされている。
【0035】
そしてかかるボットロボット1では、頭部ユニット4の前端近傍からタッチセンサ18の直前までの筐体の上部部分に、これら第1及び第2の赤色LED20R11、20R12、20R21、20R22並びに青緑色LED20BG、20BGを覆い隠すように、例えば合成樹脂材からなる黒色の半透明カバー24(図1)が配設されている。
【0036】
これによりこのペットロボット1においては、第1、第2の赤色LED20R11、20R12、20R21、20R22や青緑色LED20BG、20BGが点灯していない状態のときにはこれらが外側から見えず、これに対して第1、第2の赤色LED20R11、20R12、20R21、20R22や青緑色LED20BG、20BGが点灯している状態のときにはこれを外側から確実に見えるようにすることができ、かくして3種類の形状の「目」が存在することに起因する違和感を有効に防止することができるようになされている。
【0037】
かかる構成に加えてこのペットロボット1の場合、LED部20には、後述するように当該ペットロボット1のシステムが特別な状態にあるときに点滅駆動されるシステム情報表示用の緑色LED20Gが設けられている。
【0038】
この場合この緑色LED20Gは、発光部が所定長さの直線形状を有する緑色に発光可能なLEDであり、頭部ユニット4における第1の赤色LED20R11、20R12の僅か上側で、かつ半透明カバー24によって覆い隠される位置に配設されている。
【0039】
これによりこのペットロボット1では、半透明カバー24越しに見えるこの緑色LED20Gの点滅状態に基づいて、ユーザが当該ペットロボット1のシステム状態を容易に認識することができるようになされている。
【0040】
(2)コントローラ10の処理
次にこのペットロボット1におけるコントローラ10の具体的な処理について説明する。
【0041】
コントローラ10は、メモリ10Aに格納された制御プログラムに従って上述のような各種処理を実行する。かかるコントローラ10の処理内容を機能的に分類すると、図5に示すように、外部及び内部の状態を認識する状態認識部40と、状態認識部40の認識結果に基づいてこのペットロボット1の感情及び本能の状態を決定する感情・本能モデル部41と、状態認識部40の認識結果及び感情・本能モデル部41の出力に基づいて続く行動を決定する行動決定部42と、行動決定部42の決定結果に応じた行動をペットロボット1に生成(発現)させる行動生成部43とに分けることができる。
【0042】
以下、これら状態認識部40、感情・本能モデル部41、行動決定部42及び行動生成部43について詳細に説明する。
【0043】
(2−1)状態認識部40の構成
状態認識部40は、外部センサ部19(図2)から与えられる外部センサ信号S1と、内部センサ部15(図2)から与えられる内部センサ信号S2とに基づいて特定の状態を認識し、認識結果を状態認識情報S10として感情・本能モデル部41及び行動決定部42に通知する。
【0044】
実際上、状態認識部40は、外部センサ部19のCCDカメラ16(図2)から与えられる画像信号S1Aを常時監視し、当該画像信号S1Aに基づく画像内に例えば「丸い赤いもの」や、「何らかの物体」を検出したときには、「ボールがある」、「障害物がある」と認識し、認識結果を感情・本能モデル部41及び行動決定部42に通知する。
【0045】
また状態認識部40は、マイクロホン17(図2)から与えられる音声信号S1Bを常時監視し、当該音声信号S1Bに基づいて「歩け」、「伏せ」、「ボールを追いかけろ」などの指令音が入力されたことを認識すると、かかる認識結果を感情・本能モデル部41及び行動決定部42に通知する。
【0046】
さらに状態認識部40は、タッチセンサ18(図2)から与えられる圧力検出信号S1Cを常時監視し、当該圧力検出信号S1Cに基づいて所定の閾値以上のかつ短時間(例えは2秒未満)の圧力を検出したときには「叩かれた(叱られた)」と認識し、所定の閾値未満で長時間(例えば2秒以上)かつ広範囲の圧力を検出したときには「撫でられた(誉められた)」と認識し、認識結果を感情・本能モデル部41及び行動決定部42に通知する。
【0047】
さらに状態認識部40は、内部センサ部15の温度センサ13(図2)から与えられる温度検出信号S2Bを常時監視し、当該温度検出信号S2Bに基づいて所定の温度以上の温度を検出したときには「内部温度が上昇した」と認識し、認識結果を感情・本能モデル部41及び行動決定部42に通知する。
【0048】
また状態認識部40は、加速度センサ14(図2)から与えられる加速度検出信号S2Cを常時監視し、当該加速度検出信号S2Cに基づいて例えば上向きの大きな加速度を検出した場合には「抱き上げられた」と認識し、認識結果を感情・本能モデル部41及び行動決定部42に通知する。
【0049】
(2−2)感情・本能モデル部41の構成
感情・本能モデル部41は、「喜び」、「悲しみ」、「驚き」、「恐怖」、「嫌悪」及び「怒り」の合計6つの情動について、各情動ごとにその情動の強さを表すパラメータを保持している。そして感情・本能モデル部41は、これら各情動のパラメータ値を、それぞれ状態認識部40から状態認識情報S10として与えられる「叩かれた」や「撫でられた」などの特定の認識結果と、後述のように行動決定部42から与えられる決定された出力行動を表す行動決定情報S11と、経過時間となどに基づいて順次更新する。
【0050】
具体的に感情・本能モデル部41は、状態認識情報S10に基づき得られる認識結果及び行動決定情報S11に基づく出力行動がその情動に対して作用する度合い(予め設定されている)と、他の情動から受ける抑制及び刺激の度合いと、経過時間となどに基づいて所定の演算式により算出されるその情動の変化量ΔE〔t〕、現在のその情動のパラメータ値をE〔t〕、認識結果等に応じてその情動を変化させる割合を表す係数をkとして、所定周期で次式
【0051】
【数1】
Figure 0004524524
【0052】
を用いて次の周期におけるその情動のパラメータ値E〔t+1〕を算出する。
【0053】
そして感情・本能モデル部41は、この演算結果を現在のその情動のパラメータ値E〔t〕と置き換えるようにしてその情動のパラメータ値を更新する。なお各認識結果や各出力行動に対してどの情動のパラメータ値を更新するかは、予め決められており、例えば「叩かれた」といった認識結果が与えられた場合には「怒り」の情動のパラメータ値が上がると共に「喜び」の情動のパラメータ値が下がり、「撫でられた」といった認識結果が与えられた場合には「喜び」の情動のパラメータ値が上がると共に「悲しみ」及び「怒り」の各情動のパラメータ値が下がる。
【0054】
これと同様にして、感情・本能モデル部41は、「運動欲」、「愛情欲」、「食欲」、「好奇心」及び「睡眠欲」の互いに独立した5つの欲求について、これら欲求ごとにその欲求の強さを表すパラメータ値を保持している。そして感情・本能モデル部41は、これら各欲求のパラメータ値を、それぞれ状態認識部40からの認識結果や、経過時間及び行動決定部42からの通知などに基づいて順次更新する。
【0055】
具体的に感情・本能モデル部41は、「運動欲」、「愛情欲」及び「好奇心」については、ペットロボット1の出力行動、経過時間及び認識結果などに基づいて所定の演算式により算出されるその欲求の変動量ΔI〔k〕、現在のその欲求のパラメータ値をI〔k〕、その欲求の感度を表す係数をkとして、所定周期で次式
【0056】
【数2】
Figure 0004524524
【0057】
を用いて次の周期におけるその欲求のパラメータ値I〔k+1〕を算出し、この演算結果を現在のその欲求のパラメータ値I〔k〕と置き換えるようにしてその欲求のパラメータ値を更新する。この場合、出力行動や認識結果等に対してどの欲求のパラメータ値を変化させるかは予め定められており、例えば行動決定部42から何らかの行動を行ったとの通知があったときには「運動欲」のパラメータ値が下がる。
【0058】
また感情・本能モデル部41は、「食欲」については、状態認識部40を介して与えられるバッテリ残量検出信号S1A(図2)に基づいて、バッテリ残量をBとして所定周期で次式
【0059】
【数3】
Figure 0004524524
【0060】
により「食欲」のパラメータ値I〔k+1〕を算出し、この演算結果を現在の食欲のパラメータ値I〔k〕と置き換えるようにして当該「食欲」のパラメータ値を更新する。
【0061】
さらに感情・本能モデル部41は、「睡眠欲」については1日を1同期として、所定時間ごとにパラメータ値を増減変更する。
【0062】
なお本実施の形態においては、各情動及び各欲求のパラメータ値がそれぞれ0から100までの範囲で変動するように規制されており、また係数k、kの値も各情動及び各欲求ごとに個別に設定されている。
【0063】
(2−3)行動決定部42の構成
行動決定部42は、状態認識部40から与えられる状態認識情報10と、感情・本能モデル部41における各情動及び各欲求のパラメータ値と、予めメモリ10Aに格納された行動モデルと、経過時間となどに基づいて次の行動を決定し、決定結果を行動決定情報S11として感情・本能モデル部41及び行動生成部43に出力する。
【0064】
この場合、行動決定部42は、次の行動を決定する手法として、図6に示すように1つのノード(状態)NODEから同じ又は他のどのノードNODE〜NODEに遷移するかを各ノードNODE〜NODE間を接続するアークARC〜ARCに対してそれぞれ設定された遷移確率P〜Pに基づいて確率的に決定する確率オートマトンと呼ばれるアルゴリズムを用いる。
【0065】
より具体的には、メモリ10Aには、行動モデルとして、各ノードNODE〜NODEごとの図7に示すような状態遷移表44が格納されており、行動決定部42がこの状態遷移表44に基づいて次の行動を決定する。
【0066】
ここで状態遷移表44では、そのノードNODE〜NODEにおいて遷移条件とする入力イベント(状態認識部40の認識結果)が「入力イベント」の行に優先順に列記され、その条件についてのさらなる条件が「データ名」及び「データ範囲」の行における対応する列に記述されている。
【0067】
従って図7の状態遷移表44で定義されたノードNODE100では、「ボールを検出した(BALL)」という認識結果が与えられた場合に、当該認識結果と共に与えられるそのボールの「大きさ(SIZE)」が「0から100の範囲(0,1000)」であることや、「障害物を検出(OBSTACLE)」という認識結果が与えられた場合に、当該認識結果と共に与えられるその障害物までの「距離(DISTANCE)」が「0から1000の範囲(0,1000)」であることが自己又は他のノードNODE〜NODEに遷移するための条件となる。
【0068】
またこのノードNODE100では、認識結果の入力がない場合においても、行動決定部42が周期的に参照する感情・本能モデル部41の各情動及び各欲求のパラメータ値のうち「喜び(JOY)」、「驚き(SUPRISE)」又は「悲しみ(SUDNESS)」のいずれかの情動のパラメータ値が「50から100の範囲(50,100)」であるときには自己又は他のノードNODE〜NODEに遷移することができる。
【0069】
さらに状態遷移表44では、「他のノードへの遷移確率」の欄における「遷移先ノード」の列にそのノードNODE〜NODEから遷移できるいくつかのノードNODE〜NODEが列記されると共に、「入力イベント名」、「データ値」及び「データの範囲」の各行に記述された全ての条件が揃った場合におけるそのノードNODE〜NODEへの遷移確率が「他のノードへの遷移確率」の欄におけるそのノードNODE〜NODEの行に記述され、このとき出力される行動及び動作が「出力行動」の行に記述される。なお「他のノードへの遷移確率」の欄における各行の遷移確率の和は100〔%〕となっている。
【0070】
従ってこの例のノードNODE100では、例えば「ボールを検出(BALL)」し、そのボールの「大きさ(SIZE)」が「0から1000の範囲(0,1000)」であるという認識結果が与えられた場合には、「30〔%〕」の確率で「ノードNODE120(node120)」に遷移でき、そのとき「ACTION 1」の行動又は動作が出力されることとなる。
【0071】
そして行動モデルは、このような状態遷移表44として記述されたノードNODE〜NODEがいくつも繋がるようにして形成されている。
【0072】
かくして行動決定部42は、状態認識部40から状態認識情報S10が与えられたときや、最後に行動を発現してから一定時間が経過したときなどに、メモリ10Aに格納されている行動モデルのうちの対応するノードNODE〜NODEの状態遷移表44を利用して次の行動や動作(「出力行動」の行に記述された行動又は動作)を確率的に決定し、決定結果を行動決定情報S11として感情・本能モデル部42及び行動生成部43に出力する。
【0073】
(2−4)行動生成部43の構成
行動生成部43は、行動決定部42から与えられる行動決定情報S11に基づいて、必要に応じてアクチュエータ22〜22(図2)に駆動信号S13〜S13を送出したり、スピーカ21(図2)に音声信号S3を出力したり、LED群20に第1のLED駆動信号S4を送出する。
【0074】
この結果、駆動信号S13〜S13に基づいて必要なアクチュエータ22〜22が駆動し、音声信号S3に基づく音声がスピーカ21から出力され、及び又は第1のLED駆動信号S4に基づいてLED部20が対応する発光パターンで発光することにより、上述のように行動決定部42において決定された行動又は動作がペットロボット1により発現される。
【0075】
このようにしてこのペットロボット1においては、コントローラ10の制御のもとに、周囲及び内部の状況や、ユーザからの指令及び働きかけの有無などに基づいて自律的に行動し得るようになされている。
【0076】
(3)LED部20の点滅制御
次にこのペットロボット1の頭部ユニット4に設けられたLED部20の点滅制御について説明する。
【0077】
このペットロボット1では、上述のようにコントローラ10の機能の1つである行動決定部42において、対応する状態遷移表44(図7)を利用して続く行動や動作を決定する。この場合、このようにして決定される行動や動作のうちの一部には、外見上の「目」として機能を有するLED部20の第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び又は青緑色LED20BG、20BGを発光させる動作が関連付けられている。また行動決定部42において決定される行動又は動作自体が第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び又は青緑色LED20BG、20BGの発光動作である場合もある。
【0078】
このためメモリ10A(図2)には、LED部20を、各種行動や動作にそれぞれ関連付けられた対応する発光パターンで発光させ、又は他の行動や動作と関連付けられていない独立した動作として各種発光パターンで発光させるためのLED駆動データがそれぞれファイル化(以下、このファイルを第1の発光パターンデータファイルと呼ぶ)されて格納されている。
【0079】
そして行動生成部43は、行動決定部42からペットロボット1が次に発現すべき行動又は動作としてLED部20の発光動作が関連付けられた行動又は動作が指定されたときや、ペットロボット1が次に発現すべき行動又は動作としてLED部20を所定パターンで発光する動作が指定されたときには、メモリ10A内の対応する第1の発光パターンデータファイルを再生し、かくして得られたLED駆動データを上述のLED駆動信号S4としてLED部20に送出することにより、LED部20内の対応する第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び又は青緑色LED20BG、20BGを対応する発光パターンで点滅させる。
【0080】
具体的には、例えば図7に示す状態遷移表44における「撫でられた(PAT)」という認識結果と対応付けられた出力行動(例えば「ACTION 2」)に対し、LED部20のうちの各青緑色LED20BG、20BGを点滅させるという動作が関連付けられ、又は当該「ACTION 2」自体が各青緑色LED20BG、20BGを点滅させるという行動である場合において、当該「ACTION 2」を指定する行動決定情報S11が行動決定部42から行動生成部43に与えられると、行動生成部43は、必要なアクチュエータ22〜22を駆動する一方、これと共に又はこれに代えて「ACTION 2」に関連付けられたメモリ10A内の対応する第1の発光パターンデータファイルを再生し、かくして得られたLED駆動データをLED駆動信号S4としてLED部20に送出する。
【0081】
この結果、このLED駆動信号S4に基づいてLED部20内の各青緑色LED20BG、20BGが所定周期で点滅し、これにより「ACTION 2」という行動と共に又は代えて「喜び」の表情が発現される。
【0082】
またこれと同様にして、図7に示す状態遷移表44における「叩かれた(HIT)」という認識結果と対応付けられた出力行動(例えば「ACTION 3」)に対し、LED部20のうちの各第1の赤色LED20R11、20R12を点滅させるという行動が関連付けられ、又は当該「ACTION 3」自体が各第1の赤色LED20R11、20R12を点滅させるという行動である場合において、当該「ACTION 3」を指定する行動決定情報S11が行動決定部42から行動生成部43に与えられると、行動生成部43は、必要なアクチュエータ22〜22を駆動する一方、これと共に又はこれに代えてこの「ACTION 3」に関連付けられたメモリ10A内の対応する第1の発光パターンデータファイルを再生し、かくして得られたLED駆動データをLED駆動信号S4としてLED部20に送出する。
【0083】
この結果、このLED駆動信号S4に基づいてLED部20内の各第1の赤色LED20R11、20R12が所定周期で点滅し、これにより「ACTION 3」という行動と共に又は代えて「怒り」の表情が発現される。
【0084】
因に、このペットロボット1における各第1の発光パターンデータファイルには、各第1の赤色LED20R11、20R12、各第2の赤色LED20R21、20R22及び各青緑色LED20BG、20BGのそれぞれに対応させて、6チャンネル分のLED駆動データが格納されている。
【0085】
そして行動生成部43は、第1の発光パターンデータファイルを再生することにより得られた6チャンネル分のLED駆動データを、それぞれLED部20内の対応する第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び青緑色LED20BG、20BGにLED駆動信号S4として送出するようになされている。
【0086】
これによりこのペットロボット1においては、LED部20内の全てのLED(第1及び第2のLED20R11、20R12、20R21、20R22並びに青緑色LED20BG、20BG)をそれぞれ独立に点滅制御することができ、かくしてLED部20の発光パターンとして、図4(A)〜(D)について上述したパターンだけでなく、例えば図8(A)のように第1及び第2の赤色LED20R11、20R12、20R21、20R22を時計回り方向に1つずつ順番に点灯させてゆくパターンや、図8(B)のように第1の赤色LED20R11、20R12を左右交互に1つずつ点滅させるパターン、図8(C)のように青緑色LED20BG、20BG及び第1の赤色LED20R11、20R12を順次交互に点滅させるパターンなども発現させ得るようになされている。
【0087】
また行動生成部43は、第1の発光パターンデータファイルを再生することにより得られたLED駆動データを、図9(B)〜図9(E)に示すように、ソフトウェア処理によって4段階でPWM(Pulse Width Modulation)変調することができ、これによりLED部20内の各第1及び第2のLED20R11、20R12、20R21、20R22並びに青緑色LED20BG、20BGの発光輝度を輝度が0〔%〕である場合(図9(A))を含めて5段階に調整することができるようになされている。
【0088】
これによりこのペットロボット1においては、かかる行動生成部43の機能を利用して、LED部20の発光パターンとして、例えば図10(A)及び(B)に示すように、対応する第1のLED20R11、20R12、第2のLED20R21、20R22及び又は青緑色LED20BG、20BGの発光輝度を周期的(例えば1〜3秒周期)に変化させるパターンをも発現し得るようになされており、かくしてペットロボット1に多様な表情表現を行わせ得るようになされている。
【0089】
さらにこれと同様にして、メモリ10Aには、システムが特定の状態となったときに、当該状態に応じた発光パターンで緑色LED20G等を発光させるための各種LED駆動データがそれぞれファイル(以下、これを第2の発光パターンデータファイルと呼ぶ)化されて格納されている。そして行動生成部43は、行動決定部42からシステムが特定の状態となったとの通知が与えられたときなどに、当該通知された状態に応じた第2の発光パターンデータファイルを再生し、かくして得られたLED駆動データをLED駆動信号S4としてLED部20に送出する。
【0090】
具体的に、このペットロボット1では、状態認識部40が「抱き上げられた」という認識結果を得た場合には、抱き上げたユーザに怪我を負わせないようにするために各脚部ユニット3A〜3D等を駆動させない特定の動作モードに移行するが、この際これを知らせる通知が行動決定部42から行動生成部43に与えられる。
【0091】
このとき行動生成部43は、かかる行動決定部42からの通知に基づいて、メモリ10A内の対応する第2の発光パターンデータファイルを再生し、かくして得られたLED駆動信号S4をLED部20に送出する。この結果、このLED駆動信号S4に基づいて、抱き上げられている間は、図11(A)のように緑色LED20Gが所定周期で点滅する。
【0092】
また行動決定部42は、例えば感情・本能モデル部41に保持された「食欲」のパラメータ値が閾値以上になったとき、すなわちバッテリ残量が少なくなったときもこれを行動生成部43に通知する。そしてこのとき行動生成部43は、かかる行動決定部42からの通知に基づいて、メモリ10A内の対応する第2の発光パターンデータファイルを再生し、かくして得られたLED駆動信号S4をLED部20に送出する。この結果、このLED駆動信号S4に基づいて、この後バッテリ11が充電されるまで、図11(B)のようにLED部20内の各第2の赤色LED20R21、20R22が点灯すると共に、緑色LED20Gが輝度を例えば1〜3秒程度の周期で変化させながら発光する。
【0093】
さらに行動生成部42は、「立つ」、「座る」又は「歩く」等の現在の自己の姿勢を常に認識している。そして行動生成部42は、例えば「座る」の姿勢のときにはメモリ10A内の対応する第2の発光パターンデータファイルを再生し、かくして得られたLED駆動信号S4をLED部20に送出する。この結果、このLED駆動信号S4に基づいて、座っている間は図11(C)のように緑色LED20Gが常時点灯する。
【0094】
このようにしてこのペットロボット1においては、ユーザが、頭部ユニット4に設けられた第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び青緑色LED20BG、20BGに基づいて当該ペットロボット20の感情等を認識し得る一方、緑色LED20Gに基づいてシステム状態を認識し得るようになされている。
【0095】
(4)心理状態表示用LED23の点滅制御
次にこのペットロボット1の尻尾部ユニット5の尻尾5Aに配設された心理状態表示用LED23の点滅制御について説明する。
【0096】
上述のようにこのペットロボット1では、尻尾5Aに青色又はオレンジ色に発光する心理状態表示用LED23が配設されており、そのときのペットロボット1の心理状態を心理状態表示用LED23の発光パターン及び色によって表示するようになされている。実際上、心理状態表示用LED23は、例えば平常時には青色で、また異常時にはオレンジ色で発光する。
【0097】
このためメモリ10Aには、心理状態表示用LED23を、そのときの心理状態に応じた発光パターン及び色で発光させるための各種LED駆動用データがそれぞれファイル(以下、これを第3の発光パターンデータファイルと呼ぶ)化されて格納されている。
【0098】
そして行動生成部43は、後述のように行動決定部42から与えられる通知に基づいて、メモリ10Aに格納されている対応する第3の発光パターンデータファイルを再生し、かくして得られたLED駆動用データをLED駆動信号S5として心理状態表示用LED23に送出する。
【0099】
例えば行動決定部42は、図7について説明したそのときのノードNODE〜NODEを遷移させるべき認識結果が状態認識部40から所定時間以上もの間与えられないとき(暇なとき)には、これを行動生成部43に通知する。そして行動生成部43は、かかる通知に基づいて、メモリ10A内の対応する第3の発光パターンデータファイルを再生し、かくして得られたLED駆動用データをLED駆動信号S5として心理状態表示用LED23に送出する。この結果、このLED駆動信号S5に基づいて、図12(A)のように心理状態表示用LED23が青色のかつ弱い輝度で常時点灯する。なお図12(B)〜(E)も同様であるので、その説明は省略する。
【0100】
また行動決定部42は、続く行動又は動作として何かを探す探索行動を選択した場合には、行動決定情報S11とは別にこれを行動生成部43に通知する。そしてこのとき行動生成部43は、かかる通知に基づいて、メモリ10A内の対応する第3の発光パターンデータファイルを再生し、かくして得られたLED駆動用データをLED駆動信号S5として心理状態表示用LED23に送出する。この結果、このLED駆動信号S5に基づいて、図13(A)のように心理状態表示用LED23が一瞬だけ青色で強く点灯する。
【0101】
さらに行動決定部42は、探索行動を行っていた場合において目的物を発見したことを状態認識部40からの状態認識信号S10に基づいて認識すると、これを行動生成部43に通知する。そしてこのとき行動生成部43は、かかる通知に基づいて、メモリ10A内の対応する第3の発光パターンデータファイルを再生し、かくして得られたLED駆動用データをLED駆動信号S5として心理状態表示用LED23に送出する。この結果、このLED駆動信号S5に基づいて、図13(B)のように心理状態表示表示用LED23が一瞬だけ青色で強く点灯する。
【0102】
このようにしてこのペットロボット1においては、尻尾部ユニット5の尻尾5Aに設けられた心理状態表示用LED23を点滅制御することによって、そのときのペットロボット1の心理状態を表示するようになされている。
【0103】
(5)本実施の形態の動作及び効果
以上の構成において、このペットロボット1では、外部センサ部19及び内部センサ部15からそれぞれ出力される外部センサ信号S1又は内部センサ信号S2等に基づいて自己の感情を生成し、当該生成した感情を、頭部ユニット4に設けられたLED部20内の第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22、及び青緑色LED20BG、20BGを点滅駆動することにより表現すると共に、これとは別にシステムが動きのない姿勢や動きのない動作モードにある場合にはLED部20の緑色LED20Gを点滅させる。
【0104】
従ってこのペットロボット1では、このLED部20の緑色LED20Gの点滅状態に基づいて当該ペットロボット1のシステム状態をユーザが認識することができ、その分ペットロボット1が例えば動きのない姿勢や、動きのない動作モードにある場合においても、ユーザに不要な誤解や心配を与えるのを未然に防止することができる。
【0105】
またこのペットロボット1では、LED部20の第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22、青緑色LED20BG、20BG及び緑色LED20Gを点滅駆動するに際し、メモリ10Aから読み出した対応する第1〜第3の発光パターンデータファイル内のLED駆動データを必要に応じてPWM変調処理する。
【0106】
従ってこのペットロボット1では、これらLED部20内の第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22、青緑色LED20BG、20BG及び緑色LED20Gを多様な発光パターンで点滅駆動することができる。
【0107】
さらにこのペットロボット1では、感情等を表現する場合や、独立した行動としてLED部20を発光させる際の各種発光パターンごとに第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び青緑色LED20BG、20BGをそれぞれ点滅制御するためのLED駆動データが、これら第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び青緑色LED20BG、20BGにそれぞれ対応させて、これらと同じチャンネル数分だけまとめて1つの第1の発光パターンデータファイルに格納されているため、全ての第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び青緑色LED20BG、20BGをそれぞれ独立して点滅制御することができる。
【0108】
従ってこのペットロボット1では、これらLED部20全体の発光パターンとして、より多様なパターンを発現できる。
【0109】
以上の構成によれば、感情を、頭部ユニット4に設けられたLED部20内の第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22、及び青緑色LED20BG、20BGを点滅駆動することにより表現すると共に、これとは別にシステムが動きのない姿勢や動きのない動作モードにある場合にはLED部20の緑色LED20Gを点滅させるようにしたことにより、ユーザが緑色LED20Gの点滅状態に基づいて当該ペットロボット1のシステム状態を容易に認識することができる。かくするにつきペットロボット1が例えば動きのない姿勢や、動きのない動作モードにある場合においても、ユーザに不要な誤解や心配を与えるのを未然に防止することができ、かくしてエンターテイメント性を向上させ得るペットロボットを実現できる。
【0110】
また以上の構成によれば、LED部20の第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22、青緑色LED20BG、20BG及び緑色LED20Gを点滅駆動するに際し、メモリ10Aから読み出した対応する第1〜第3の発光パターンデータファイル内のLED駆動データを必要に応じてPWM変調処理するようにしたことにより、これら第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22、青緑色LED20BG、20BG及び緑色LED20Gを多様な発光パターンで点滅駆動することができ、かくしてエンターテイメント性を向上させ得るペットロボットを実現できる。
【0111】
さらに以上の構成によれば、感情等を表現する場合や、独立した行動としてLED部20を発光させる際の各種発光パターンごとに第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び青緑色LED20BG、20BGをそれぞれ点滅制御するためのLED駆動データを、これら第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び青緑色LED20BG、20BGにそれぞれ対応させて、これらと同じチャンネル数分だけまとめて1つの第1の発光パターンデータファイルに格納し、これら6チャンネル分のLED駆動データに基づいて、対応する第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び青緑色LED20BG、20BGをそれぞれ点滅駆動するようにしたことにより、全ての第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び青緑色LED20BG、20BGをそれぞれ独立して点滅制御することができる。かくするにつきLED部20全体の発光パターンとして、より多様なパターンを発現でき、かくしてエンターテイメント性を向上させ得るペットロボットを実現できる。
【0112】
(6)他の実施の形態
なお上述の実施の形態においては、本発明を図1のように構成された4脚歩行型のペットロボット1に適用するようにした場合について述べたが、本発明はこれに限らず、この他種々の形態のペットロボットに広く適用することができる。
【0113】
また上述の実施の形態においては、外見上の「目」として機能する第1の発光手段及びシステム情報を表示する第2の発光手段としてLED(発光ダイオード)を適用するようにした場合について述べたが、本発明はこれに限らず、この他例えば液晶パネル等のこの他種々の発光手段を広く適用することができる。
【0114】
さらに上述の実施の形態においては、外部若しくは内部の状況及び又は外部からの入力を検出するセンサとして、CCDカメラ16、マイクロホン17、タッチセンサ18、バッテリセンサ12、温度センサ13及び加速度センサ14等を適用するようにした場合について述べたが、本発明はこれに限らず、要は外部若しくは内部の状況及び又は外部からの入力を検出することができるものであれば、これに加えて又はこれ以外にも種々のセンサを広く適用することができる。
【0115】
さらに上述の実施の形態においては、外部センサ19及び内部センサ15の出力等に基づいて感情等を表現するようにLED部20の第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び青緑色LED20BG、20BGや、緑色LED20Gを点滅制御する制御手段としてペットロボット1全体の動作制御を司るコントローラ10を適用するようにした場合について述べたが、本発明はこれに限らず、かかる制御手段をコントローラ10とは別体に設けるようにしても良い。
【0116】
さらに上述の実施の形態においては、第1〜第3の発光パターンデータファイル内のLED駆動データをソフトウェア処理によりPWM変調するようにした場合について述べたが、本発明はこれに限らず、ハードウェア構成のPWM変調回路を別途設け、当該PWM変調回路によってLED駆動データを必要に応じてPWM変調処理するようにしても良い。このようにすることによってコントローラ10のソフトウェア処理の負荷を軽減することができる。
【0117】
さらに上述の実施の形態においては、第1の発光パターンデータファイル内に、第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び青緑色LED20BG、20BGのそれぞれに対応させて6チャンネル分のLED駆動データを格納することにより、これら6つの第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び青緑色LED20BG、20BGをそれぞれ独立して個別に点滅制御することができるようにした場合について述べたが、本発明はこれに限らず、このうちのいつくかを1つのグループ(例えば右側だけとか左側だけなど)として、グループ単位で点滅制御することができるように、各グループのそれぞれ対応させて当該グループ数と同じチャンネル分のLED駆動データを第1の発光パターンデータファイル内に格納するようにしても良い。
【0118】
さらに上述の実施の形態においては、尻尾部ユニット5の尻尾5Aに設けられた心理状態表示用LED23を点滅制御することによって、そのときのペットロボット1の心理状態を表示するようにした場合について述べたが、本発明はこれに限らず、心理状態表示用LED23の点滅のみならず、例えば図14のように尻尾5Aの動きや状態等をも合わせてペットロボット1の心理状態を表現するようにしても良い。
【0119】
さらに上述の実施の形態においては、ペットロボット1の「目」として機能するLED(第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び青緑色LED20BG、20BG)の点滅によって、当該ペットロボット1の感情を表現するようにした場合について述べたが、本発明はこれに限らず、かかるLED(第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び青緑色LED20BG、20BG)の点滅と同期させて可動部を駆動するようにして感情を表現するようにしても良い。
【0120】
例えば外見上の「耳」に相当する部位を可動自在としておき、かかるLED(第1の赤色LED20R11、20R12、第2の赤色LED20R21、20R22及び青緑色LED20BG、20BG)の点滅に同期させて、当該部位を駆動するようにすることもでき、このようにすることによって感情をより多様なパターンで表現できるようになる。
【0121】
【発明の効果】
上述のように本発明によれば、ロボット装置又はその制御方法において、ロボット装置の目として配される第1の発光手段を、情に応じた発光パターンで点滅制御するとともに、ロボット体部を構成するユニットを、ユーザに対する危険回避のために非駆動とする動作モードが決定された場合、第1の発光手段とともに又は第1の発光手段とは別に、第2の発光手段を点滅制御するようにしたことにより、多様な情を表現するとともに、無用の誤解や心配をユーザに与えることを防止することができ、かくして、エンターテイメント性を向上させることができる。
【図面の簡単な説明】
【図1】本実施の形態によるペットロボットの外観構成を示す斜視図である。
【図2】本実施の形態によるペットロボットの内部構成を示すブロック図である。
【図3】LED部の構成を示す一部断面図である。
【図4】LED部の発光パターンの説明に供する略線図である。
【図5】コントローラの処理の説明に供するブロック図である。
【図6】確率オートマトンを示す概念図である。
【図7】状態遷移表を表す図表である。
【図8】LED部の発光パターンの説明に供する略線図である。
【図9】LED駆動用データのPWM変調の説明に供するパルス波形図である。
【図10】LED部の発光パターンの説明に供する略線図である。
【図11】緑色LEDの発光パターンの説明に供する略線図である。
【図12】心理状態表示用LEDの発光パターン例を示す略線図である。
【図13】心理状態表示用LEDの発光パターン例を示す略線図である。
【図14】他の実施の形態の説明に供する図表である。
【符号の説明】
1……ペットロボット、2……胴体部ユニット、3A〜3D……脚部ユニット、4……頭部ユニット、5……尻尾部ユニット、5A……尻尾、10……コントローラ、10A……メモリ、20……LED部、20R11、20R12、20R21、20R22……赤色LED、20BG、20BG……青緑LED、20G……緑色LED、23……心理状態表示用LED、24……半透明カバー、40……状態認識部、41……感情・本能モデル部、42……行動決定部、43……行動生成部、S4、S5……LED駆動信号。

Claims (6)

  1. 外見上の目として配される第1の発光手段と、
    第2の発光手段と、
    外部若しくは内部の状況及び又は外部からの入力を検出するセンサと、
    上記センサの出力に基づいて行動又は動作を決定する決定手段と、
    上記決定手段が決定した行動又は動作に関連付けられる表情を示す発光パターンで、上記第1の発光手段を点滅制御する制御手段と
    を有し、
    上記制御手段は、
    ロボット体部を構成するユニットを、ユーザに対する危険回避のために非駆動とする動作モードが上記決定手段により決定された場合にのみ、上記第1の発光手段とともに又は上記第1の発光手段とは別に、上記第2の発光手段を点滅制御する
    ロボット装置。
  2. 第3の発光手段をさらに有し、
    上記制御手段は、
    上記決定手段が決定した行動又は動作に対応する心理を示す発光パターンで、上記第1の発光手段とともに又は上記第1の発光手段とは別に上記第3の発光手段を点滅制御する
    請求項1に記載のロボット装置。
  3. 上記第2の発光手段は、発光ダイオードである
    請求項1に記載のロボット装置。
  4. 上記制御手段は、
    上記第2の発光手段の発光輝度をパルス幅変調方式により制御する
    請求項3に記載のロボット装置。
  5. 上記第1の発光手段は、複数でなり、
    上記制御手段は、
    各上記発光手段をそれぞれ個別に点滅制御する
    請求項1に記載のロボット装置。
  6. ロボット装置に設けられる複数のセンサから、外部若しくは内部の状況及び又は外部からの入力を検出する検出ステップと、
    上記センサでの検出結果に基づいて行動又は動作を決定する決定ステップと、
    上記決定ステップで決定される行動又は動作に関連付けられる表情を示す発光パターンで、上記ロボット装置の目として配される第1の発光手段を点滅制御させる第1の発光ステップと、
    ロボット体部を構成するユニットを、ユーザに対する危険回避のために非駆動とする動作モードが上記決定ステップで決定された場合にのみ、上記第1の発光手段とともに又は上記第1の発光手段とは別に、第2の発光手段を点滅制御する第2の発光ステップと
    を有するロボット装置の制御方法。
JP2000350277A 2000-10-11 2000-10-11 ロボット装置及びその制御方法 Expired - Fee Related JP4524524B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000350277A JP4524524B2 (ja) 2000-10-11 2000-10-11 ロボット装置及びその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000350277A JP4524524B2 (ja) 2000-10-11 2000-10-11 ロボット装置及びその制御方法

Publications (2)

Publication Number Publication Date
JP2002120181A JP2002120181A (ja) 2002-04-23
JP4524524B2 true JP4524524B2 (ja) 2010-08-18

Family

ID=18823536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000350277A Expired - Fee Related JP4524524B2 (ja) 2000-10-11 2000-10-11 ロボット装置及びその制御方法

Country Status (1)

Country Link
JP (1) JP4524524B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004237392A (ja) 2003-02-05 2004-08-26 Sony Corp ロボット装置、及びロボット装置の表現方法
JP4373903B2 (ja) 2004-12-14 2009-11-25 本田技研工業株式会社 自律移動ロボット
JP5925111B2 (ja) * 2012-11-22 2016-05-25 本田技研工業株式会社 ロボット
JP7222537B2 (ja) * 2019-02-27 2023-02-15 学校法人 関西大学 ロボット装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000032360A1 (fr) * 1998-11-30 2000-06-08 Sony Corporation Robot et son procede de commande
JP2000233386A (ja) * 1999-02-10 2000-08-29 Sony Corp ロボット装置及びその制御方法
WO2000056506A1 (fr) * 1999-03-24 2000-09-28 Sony Corporation Robot
JP2001327765A (ja) * 1999-11-02 2001-11-27 Sega Toys:Kk 電子玩具及びその制御方法及び記憶媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) * 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
JP3183355B2 (ja) * 1991-12-20 2001-07-09 株式会社ダイヘン 産業用ロボットの制御装置
EP1136194A4 (en) * 1998-11-30 2001-09-26 Sony Corp ROBOT, CONTROL PROCEDURE OF THE ROBOT AND MEDIUM FOR PROGRAM RECORDING

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000032360A1 (fr) * 1998-11-30 2000-06-08 Sony Corporation Robot et son procede de commande
JP2000233386A (ja) * 1999-02-10 2000-08-29 Sony Corp ロボット装置及びその制御方法
WO2000056506A1 (fr) * 1999-03-24 2000-09-28 Sony Corporation Robot
JP2001327765A (ja) * 1999-11-02 2001-11-27 Sega Toys:Kk 電子玩具及びその制御方法及び記憶媒体

Also Published As

Publication number Publication date
JP2002120181A (ja) 2002-04-23

Similar Documents

Publication Publication Date Title
EP1120740B1 (en) Robot device, its control method, and recorded medium
JP3277500B2 (ja) ロボット装置
US6708068B1 (en) Machine comprised of main module and intercommunicating replaceable modules
US6519506B2 (en) Robot and control method for controlling the robot's emotions
JP3632607B2 (ja) 乗物の表現動作制御システム及び乗物のコミュニケーションシステム、表現動作を行う乗物
JP4661074B2 (ja) 情報処理システム、情報処理方法、並びにロボット装置
US6889117B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
US6684130B2 (en) Robot apparatus and its control method
JP2002239963A (ja) ロボット装置、ロボット装置の動作制御方法、プログラム及び記録媒体
US6512965B2 (en) Robot and control method for entertainment
TW544614B (en) Editing device, editing method and recording medium for robot
JP4524524B2 (ja) ロボット装置及びその制御方法
JP2003159674A (ja) ロボット装置、ロボット装置の外力検出方法及びロボット装置の外力検出プログラム、並びにロボット装置の外力検出のためのキャリブレーション方法及びロボット装置の外力検出のためのキャリブレーションプログラム
JP2003136456A (ja) ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体
JP4411503B2 (ja) ロボット装置及びその制御方法
JP4385281B2 (ja) ロボット装置及びその制御方法
JP4419035B2 (ja) ロボット装置及びその制御方法
JP2001353674A (ja) ロボット装置
JP2003208161A (ja) ロボット装置及びその制御方法
JP4379052B2 (ja) 動体検出装置、動体検出方法、及びロボット装置
JP2004130426A (ja) ロボット装置及びその動作制御方法
JP2001157979A (ja) ロボット装置及びその制御方法
JP2002224980A (ja) ロボット装置及びその制御方法
JP2003071765A (ja) ロボット装置及びロボット装置の入力方法
JP2001157983A (ja) ロボット装置及びロボット装置の性格判別方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081030

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090730

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091001

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091126

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100506

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100519

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130611

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees