JP2002120181A - ロボット装置及びその制御方法 - Google Patents
ロボット装置及びその制御方法Info
- Publication number
- JP2002120181A JP2002120181A JP2000350277A JP2000350277A JP2002120181A JP 2002120181 A JP2002120181 A JP 2002120181A JP 2000350277 A JP2000350277 A JP 2000350277A JP 2000350277 A JP2000350277 A JP 2000350277A JP 2002120181 A JP2002120181 A JP 2002120181A
- Authority
- JP
- Japan
- Prior art keywords
- light emitting
- emitting means
- external
- sensor
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
い難い問題があった。また従来のロボット装置では、ユ
ーザがシステム状態を認識し難く、このため不要な誤解
や不安を与えるおそれがあった。 【解決手段】ロボット装置及びその制御方法において、
外見上の目として機能する第1の発光手段及びシステム
系の状態を表示するための第2の発光手段をロボット装
置に配設し、感情を表現するように第1の発光手段を点
滅制御すると共に、システム系の状態を表現するように
第2の発光手段を点滅制御するようにした。また感情を
表現する発光手段を必要に応じてパルス幅変調方式によ
り制御しながら点滅駆動するようにした。さらにセンサ
出力に基づいて外部若しくは内部の状況及び又は外部か
らの入力を認識し、認識結果に基づいて、感情を表現す
るように各発光手段をそれぞれ個別に点滅制御するよう
にした。
Description
の制御方法に関し、例えばペットロボットに適用して好
適なものである。
応じて自律的に行動するようになされたペットロボット
が本願特許出願人により開発されている。かかるペット
ロボットは、一般家庭において飼育される犬や猫に似せ
た外観を有し、それぞれ所定位置に配設されたCCD
(Charge Coupled Device)カメ
ラ、マイクロホン及びタッチセンサ等の出力に基づいて
周囲及び自己内部の状況や、ユーザからの指令及び働き
かけの有無などを認識し、認識結果に基づいて行動する
ものである。
ロボットにおいて、例えばユーザからの「叩く」や「撫
でる」といった働きかけに対して「怒り」や「喜び」な
どの感情を表現し得るようにすることができれば、ユー
ザとペットロボットのコミュニケーションを円滑させる
ことができ、その分ペットロボットに対するユーザの愛
着心及び好奇心を向上させて、そのエンターテイメント
性をより一層向上させ得るものと考えられる。
外見上の「目」として機能する発光体を点滅させること
によってペットロボットの感情を表現する方法が広く用
いられている。
ているかかる方法では、左右の各「目」に相当する発光
体を単に同時にオン/オフさせるだけであったため、複
雑な感情表現を行い難く、この結果としてユーザに飽き
を感じさせ易いおそれがあった。
のように自律的に行動するものであるが故に、ユーザか
らの働きかけ等に対して必ずしも反応したり決まった反
応を起こすものではない。このためかかるペットロボッ
トにおいては、例えばもともと動きのない姿勢にある場
合(例えば寝ていたり、又は単に座っているだけの場
合)や、意識的に動きを発現しない動作モード時に、ユ
ーザにペットロボットが壊れてしまったとの誤解を与え
るおそれがあった。
り複雑な表情表現を行い得るようにすることができれ
ば、ユーザに飽きを感じさせ難くすることができ、その
分ペットロボットとしてのエンターテイメント性をより
一層向上させ得るものと考えられる。
ザがペットロボットのシステムの状態を容易に認識でき
るようにすることができれば、ユーザに不要の誤解や心
配を与えるのを防止して、エンターテイメント性をより
一層向上させ得るものと考えられる。
で、エンターテイメント性を向上させ得るロボット装置
及びその制御方法を提案しようとするものである。
め本発明においては、ロボット装置において、外見上の
目として機能する第1の発光手段と、外部若しくは内部
の状況及び又は外部からの入力を検出するセンサと、セ
ンサの出力に基づいて、感情を表現するように第1の発
光手段を点滅制御する制御手段と、システム系の状態を
表示するための第2の発光手段とを具え設け、制御部
が、システム系の状態に基づいて第2の発光手段を点滅
制御するようにした。この結果このロボット装置では、
ユーザが第2の発光手段の発光状態に応じてシステム系
の状態を容易に認識することができる。
いて、外見上の目として機能する発光手段と、外部若し
くは内部の状況及び又は外部からの入力を検出するセン
サと、センサの出力に基づいて、感情を表現するように
発光手段を点滅制御する制御手段とを設け、制御手段
が、発光手段の発光輝度をパルス幅変調方式により制御
するようにした。この結果このロボット装置では、発光
手段を多様な発光パターンで点滅駆動することができ
る。
おいて、外見上の目として機能する複数の発光手段と、
外部若しくは内部の状況及び又は外部からの入力を検出
するセンサと、センサの出力に基づいて、感情を表現す
るように各発光手段をそれぞれ個別に点滅制御する制御
手段とを設けるようにした。この結果このロボット装置
では、発光手段を多様な発光パターンで点滅駆動するこ
とができる。
制御方法において、外見上の目として機能する第1の発
光手段及びシステム系の状態を表示するための第2の発
光手段をロボット装置に配設する第1のステップと、外
部若しくは内部の状況及び又は外部からの入力を検出す
るセンサの出力に基づいて、感情を表現するように第1
の発光手段を点滅制御すると共に、システム系の状態を
表現するように第2の発光手段を点滅制御する第2のス
テップとを設けるようにした。この結果このロボット装
置の制御方法によれば、ユーザが第2の発光手段の発光
状態に応じてシステム系の状態を容易に認識することが
できる。
て機能する発光手段と、外部若しくは内部の状況及び又
は外部からの入力を検出するセンサを有するロボット装
置の制御方法において、センサの出力に基づいて外部若
しくは内部の状況及び又は外部からの入力を認識する第
1のステップと、認識結果に基づいて、感情を表現する
ように発光手段を点滅制御する第2のステップとを設
け、第2のステップでは、必要に応じて発光手段の発光
輝度をパルス幅変調方式により制御するようにした。こ
の結果このロボット装置の制御方法によれば、発光手段
を多様な発光パターンで点滅駆動することができる。
て機能する複数の発光手段と、外部若しくは内部の状況
及び又は外部からの入力を検出するセンサとを有するロ
ボット装置の制御方法において、センサの出力に基づい
て外部若しくは内部の状況及び又は外部からの入力を認
識する第1のステップと、認識結果に基づいて、感情を
表現するように各発光手段をそれぞれ個別に点滅制御す
る第2のステップとを設けるようにした。この結果この
ロボット装置の制御方法によれば、発光手段を多様な発
光パターンで点滅駆動することができる。
施の形態を詳述する。
1の構成 図1において、1は全体として本実施の形態によるペッ
トロボットを示し、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A〜3Dが連結されると共に、胴体
部ユニット2の前端部及び後端部にそれぞれ頭部ユニッ
ト4及び尻尾部ユニット5が連結されることにより構成
されている。
すように、このペットロボット1全体の動作を制御する
コントローラ10と、このペットロボットの動力源1と
してのバッテリ11と、バッテリセンサ12、温度セン
サ13及び加速度センサ14等からなる内部センサ部1
5となどが収納されている。
ット1の実質上の「目」として機能するCCDカメラ1
6、実質上の「耳」として機能するマイクロホン17及
びタッチセンサ18などからなる外部センサ部19と、
外見上の「目」としての機能を有する複数のLED(L
ight Emitting Diode、発光ダイオ
ード)からなるLED部20と、実質上の「口」として
機能するスピーカ21となどがそれぞれ所定位置に配設
されている。
尻尾5Aが配設されると共に、当該尻尾5Aには、その
ときのペットロボット1の心理状態を表示するための青
色又はオレンジ色に発光可能なLED(以下、これを心
理状態表示用LEDと呼ぶ)23が配設されている。
分や、各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5における尻尾5Aの
付根部分などには、それぞれ対応する自由度数分のアク
チュエータ221〜22nが配設されている。
6は、周囲の状況を撮像し、得られた画像信号S1Aを
コントローラ10に送出する。またマイクロホン17
は、ユーザから図示しないサウンドコマンダを介して音
階として与えられる「歩け」、「伏せ」又は「ボールを
追いかけろ」等の指令音を集音し、得られた音声信号S
1Bをコントローラ10に送出する。
明らかなように、頭部ユニット4の上部に設けられてお
り、ユーザからの「撫でる」や「叩く」といった物理的
な働きかけにより得られた圧力を検出し、検出結果を圧
力検出信号S1Cとしてコントローラ10に送出する。
12は、バッテリ11の残量を検出し、検出結果をバッ
テリ残量検出信号S2Aとしてコントローラ10に送出
する。また温度センサ13は、ペットロボット1内部の
温度を検出し、検出結果を温度検出信号S2Bとしてコ
ントローラ10に送出する一方、加速度センサ14は、
3軸(X軸、Y軸及びZ軸)方向の加速度を検出し、検
出結果を加速度検出信号S2Cとしてコントローラ10
に送出する。
CCDカメラ16、マイクロホン17及びタッチセンサ
18からそれぞれ供給される画像信号S1A、音声信号
S1B及び圧力検出信号S1C(以下、これらをまとめ
て外部センサ信号S1と呼ぶ)と、内部センサ部15の
バッテリセンサ12、温度センサ13及び加速度センサ
14からそれぞれ与えられるバッテリ残量検出信号S2
A、温度検出信号S2B及び加速度検出信号S2C(以
下、これらをまとめて内部センサ信号S2と呼ぶ)とな
どに基づいて、ペットロボット1の周囲及び内部の状況
や、ユーザからの指令、ユーザからの働きかけの有無な
どを判断する。
と、予めメモリ10Aに格納された制御プログラムとに
基づいて続く行動を決定し、決定結果に基づいて必要な
アクチュエータ221〜22nを駆動させることによ
り、頭部ユニット4を上下左右に振らせたり、尻尾部ユ
ニット5の尻尾部5Aを動かせたり、各脚部ユニット3
A〜3Dを駆動して歩行させるなどの行動を行わせる。
じて所定の音声信号S3をスピーカ21に与えることに
より当該音声信号S3に基づく音声を外部に出力させ、
外見上の「目」としてのLED部20にLED駆動信号
S4を出力することによりこれをかかる判断結果に応じ
た所定の発光パターンで発光させ、及び又は尻尾部ユニ
ット5の心理状態表示用LED23にLED駆動信号S
5を送出することによりこれをそのときの心理状態に応
じた発光パターンで発光させる。
いては、周囲及び内部の状況や、ユーザからの指令及び
働きかけの有無などに基づいて自律的に行動することが
できるようになされている。
しての機能を有するLED部20の具体的な構成を図3
に示す。この図3からも明らかなように、LED部20
は、感情を表現するための感情表現用LEDとして、そ
れぞれ赤色光を発光する一対の第1の赤色LED20R
11、20R12及び一対の第2の赤色LED20R
21、20R22と、それぞれ青緑色光を発光する一対
の青緑色LED20BG1、20GB2とを有してい
る。
20R12は、それぞれ発光部が所定長さの直線形状を
有しており、矢印aで示す頭部ユニット4の前方向に行
くに従って先窄みの位置関係となるように頭部ユニット
4の前後方向のほぼ中段部に配設されている。
R22は、それぞれ発光部が所定長さの直線形状を有し
ており、頭部ユニット4の前方向に行くに従って先広が
りの位置関係となるように、かつ各第1の赤色LED2
0R11、20R12と合わせてほぼ放射状の位置関係
となるように頭部ユニット4の中段部に配設されてい
る。
は、各第1の赤色LED20R11、20R12を同時
に点灯することによって、図4(A)のようにあたかも
目をつり上げて怒っているかのような「怒り」の表情
や、嫌悪感を感じているかのような「嫌悪」の表情など
を表現することができ、各第2の赤色LED20
R21、20R22を同時に点灯することによって、図
4(B)のようにあたかも悲しんでいるかのような「悲
しみ」の表情などを表現することができ、さらには各第
1及び第2の赤色LED20R11、20R12、20
R21、20R22を全て同時に点灯することによっ
て、図4(C)のように恐怖を感じているかのような
「恐怖」の表情や、驚いているかのような「驚き」の表
情などを表現することができるようになされている。
20BG2は、それぞれ発光部が所定長さの弓なり形状
を有しており、それぞれ頭部ユニット4における対応す
る第1の赤色LED20R11、20R12の直前位置
に、弓なりの内側を前方(矢印a)に向けた状態で配設
されている。
青緑色LED20BG1、20BG2を同時に点灯する
ことによって、図4(D)のようにあたかも笑っている
かのような「喜び」の表情を表現することができるよう
になされている。
ユニット4の前端近傍からタッチセンサ18の直前まで
の筐体の上部部分に、これら第1及び第2の赤色LED
20R11、20R12、20R21、20R22並び
に青緑色LED20BG1、20BG2を覆い隠すよう
に、例えば合成樹脂材からなる黒色の半透明カバー24
(図1)が配設されている。
は、第1、第2の赤色LED20R11、20R12、
20R21、20R22や青緑色LED20BG1、2
0BG2が点灯していない状態のときにはこれらが外側
から見えず、これに対して第1、第2の赤色LED20
R11、20R12、20R21、20R22や青緑色
LED20BG1、20BG2が点灯している状態のと
きにはこれを外側から確実に見えるようにすることがで
き、かくして3種類の形状の「目」が存在することに起
因する違和感を有効に防止することができるようになさ
れている。
の場合、LED部20には、後述するように当該ペット
ロボット1のシステムが特別な状態にあるときに点滅駆
動されるシステム情報表示用の緑色LED20Gが設け
られている。
が所定長さの直線形状を有する緑色に発光可能なLED
であり、頭部ユニット4における第1の赤色LED20
R11、20R12の僅か上側で、かつ半透明カバー2
4によって覆い隠される位置に配設されている。
透明カバー24越しに見えるこの緑色LED20Gの点
滅状態に基づいて、ユーザが当該ペットロボット1のシ
ステム状態を容易に認識することができるようになされ
ている。
具体的な処理について説明する。
された制御プログラムに従って上述のような各種処理を
実行する。かかるコントローラ10の処理内容を機能的
に分類すると、図5に示すように、外部及び内部の状態
を認識する状態認識部40と、状態認識部40の認識結
果に基づいてこのペットロボット1の感情及び本能の状
態を決定する感情・本能モデル部41と、状態認識部4
0の認識結果及び感情・本能モデル部41の出力に基づ
いて続く行動を決定する行動決定部42と、行動決定部
42の決定結果に応じた行動をペットロボット1に生成
(発現)させる行動生成部43とに分けることができ
る。
モデル部41、行動決定部42及び行動生成部43につ
いて詳細に説明する。
られる外部センサ信号S1と、内部センサ部15(図
2)から与えられる内部センサ信号S2とに基づいて特
定の状態を認識し、認識結果を状態認識情報S10とし
て感情・本能モデル部41及び行動決定部42に通知す
る。
19のCCDカメラ16(図2)から与えられる画像信
号S1Aを常時監視し、当該画像信号S1Aに基づく画
像内に例えば「丸い赤いもの」や、「何らかの物体」を
検出したときには、「ボールがある」、「障害物があ
る」と認識し、認識結果を感情・本能モデル部41及び
行動決定部42に通知する。
(図2)から与えられる音声信号S1Bを常時監視し、
当該音声信号S1Bに基づいて「歩け」、「伏せ」、
「ボールを追いかけろ」などの指令音が入力されたこと
を認識すると、かかる認識結果を感情・本能モデル部4
1及び行動決定部42に通知する。
8(図2)から与えられる圧力検出信号S1Cを常時監
視し、当該圧力検出信号S1Cに基づいて所定の閾値以
上のかつ短時間(例えは2秒未満)の圧力を検出したと
きには「叩かれた(叱られた)」と認識し、所定の閾値
未満で長時間(例えば2秒以上)かつ広範囲の圧力を検
出したときには「撫でられた(誉められた)」と認識
し、認識結果を感情・本能モデル部41及び行動決定部
42に通知する。
5の温度センサ13(図2)から与えられる温度検出信
号S2Bを常時監視し、当該温度検出信号S2Bに基づ
いて所定の温度以上の温度を検出したときには「内部温
度が上昇した」と認識し、認識結果を感情・本能モデル
部41及び行動決定部42に通知する。
(図2)から与えられる加速度検出信号S2Cを常時監
視し、当該加速度検出信号S2Cに基づいて例えば上向
きの大きな加速度を検出した場合には「抱き上げられ
た」と認識し、認識結果を感情・本能モデル部41及び
行動決定部42に通知する。
「驚き」、「恐怖」、「嫌悪」及び「怒り」の合計6つ
の情動について、各情動ごとにその情動の強さを表すパ
ラメータを保持している。そして感情・本能モデル部4
1は、これら各情動のパラメータ値を、それぞれ状態認
識部40から状態認識情報S10として与えられる「叩
かれた」や「撫でられた」などの特定の認識結果と、後
述のように行動決定部42から与えられる決定された出
力行動を表す行動決定情報S11と、経過時間となどに
基づいて順次更新する。
認識情報S10に基づき得られる認識結果及び行動決定
情報S11に基づく出力行動がその情動に対して作用す
る度合い(予め設定されている)と、他の情動から受け
る抑制及び刺激の度合いと、経過時間となどに基づいて
所定の演算式により算出されるその情動の変化量ΔE
〔t〕、現在のその情動のパラメータ値をE〔t〕、認
識結果等に応じてその情動を変化させる割合を表す係数
をkeとして、所定周期で次式
メータ値E〔t+1〕を算出する。
算結果を現在のその情動のパラメータ値E〔t〕と置き
換えるようにしてその情動のパラメータ値を更新する。
なお各認識結果や各出力行動に対してどの情動のパラメ
ータ値を更新するかは、予め決められており、例えば
「叩かれた」といった認識結果が与えられた場合には
「怒り」の情動のパラメータ値が上がると共に「喜び」
の情動のパラメータ値が下がり、「撫でられた」といっ
た認識結果が与えられた場合には「喜び」の情動のパラ
メータ値が上がると共に「悲しみ」及び「怒り」の各情
動のパラメータ値が下がる。
1は、「運動欲」、「愛情欲」、「食欲」、「好奇心」
及び「睡眠欲」の互いに独立した5つの欲求について、
これら欲求ごとにその欲求の強さを表すパラメータ値を
保持している。そして感情・本能モデル部41は、これ
ら各欲求のパラメータ値を、それぞれ状態認識部40か
らの認識結果や、経過時間及び行動決定部42からの通
知などに基づいて順次更新する。
動欲」、「愛情欲」及び「好奇心」については、ペット
ロボット1の出力行動、経過時間及び認識結果などに基
づいて所定の演算式により算出されるその欲求の変動量
ΔI〔k〕、現在のその欲求のパラメータ値をI
〔k〕、その欲求の感度を表す係数をkiとして、所定
周期で次式
メータ値I〔k+1〕を算出し、この演算結果を現在の
その欲求のパラメータ値I〔k〕と置き換えるようにし
てその欲求のパラメータ値を更新する。この場合、出力
行動や認識結果等に対してどの欲求のパラメータ値を変
化させるかは予め定められており、例えば行動決定部4
2から何らかの行動を行ったとの通知があったときには
「運動欲」のパラメータ値が下がる。
については、状態認識部40を介して与えられるバッテ
リ残量検出信号S1A(図2)に基づいて、バッテリ残
量をBLとして所定周期で次式
1〕を算出し、この演算結果を現在の食欲のパラメータ
値I〔k〕と置き換えるようにして当該「食欲」のパラ
メータ値を更新する。
欲」については1日を1同期として、所定時間ごとにパ
ラメータ値を増減変更する。
各欲求のパラメータ値がそれぞれ0から100までの範
囲で変動するように規制されており、また係数ke、k
iの値も各情動及び各欲求ごとに個別に設定されてい
る。
認識情報10と、感情・本能モデル部41における各情
動及び各欲求のパラメータ値と、予めメモリ10Aに格
納された行動モデルと、経過時間となどに基づいて次の
行動を決定し、決定結果を行動決定情報S11として感
情・本能モデル部41及び行動生成部43に出力する。
決定する手法として、図6に示すように1つのノード
(状態)NODE0から同じ又は他のどのノードNOD
E0〜NODEnに遷移するかを各ノードNODE0〜
NODEn間を接続するアークARC0〜ARCnに対
してそれぞれ設定された遷移確率P0〜Pnに基づいて
確率的に決定する確率オートマトンと呼ばれるアルゴリ
ズムを用いる。
モデルとして、各ノードNODE0〜NODEnごとの
図7に示すような状態遷移表44が格納されており、行
動決定部42がこの状態遷移表44に基づいて次の行動
を決定する。
ODE0〜NODEnにおいて遷移条件とする入力イベ
ント(状態認識部40の認識結果)が「入力イベント」
の行に優先順に列記され、その条件についてのさらなる
条件が「データ名」及び「データ範囲」の行における対
応する列に記述されている。
ノードNODE100では、「ボールを検出した(BA
LL)」という認識結果が与えられた場合に、当該認識
結果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から100の範囲(0,1000)」であ
ることや、「障害物を検出(OBSTACLE)」とい
う認識結果が与えられた場合に、当該認識結果と共に与
えられるその障害物までの「距離(DISTANC
E)」が「0から1000の範囲(0,1000)」で
あることが自己又は他のノードNODE0〜NODEn
に遷移するための条件となる。
結果の入力がない場合においても、行動決定部42が周
期的に参照する感情・本能モデル部41の各情動及び各
欲求のパラメータ値のうち「喜び(JOY)」、「驚き
(SUPRISE)」又は「悲しみ(SUDNES
S)」のいずれかの情動のパラメータ値が「50から1
00の範囲(50,100)」であるときには自己又は
他のノードNODE0〜NODEnに遷移することがで
きる。
への遷移確率」の欄における「遷移先ノード」の列にそ
のノードNODE0〜NODEnから遷移できるいくつ
かのノードNODE0〜NODEnが列記されると共
に、「入力イベント名」、「データ値」及び「データの
範囲」の各行に記述された全ての条件が揃った場合にお
けるそのノードNODE0〜NODEnへの遷移確率が
「他のノードへの遷移確率」の欄におけるそのノードN
ODE0〜NODEnの行に記述され、このとき出力さ
れる行動及び動作が「出力行動」の行に記述される。な
お「他のノードへの遷移確率」の欄における各行の遷移
確率の和は100〔%〕となっている。
は、例えば「ボールを検出(BALL)」し、そのボー
ルの「大きさ(SIZE)」が「0から1000の範囲
(0,1000)」であるという認識結果が与えられた
場合には、「30〔%〕」の確率で「ノードNODE
120(node120)」に遷移でき、そのとき「A
CTION 1」の行動又は動作が出力されることとな
る。
表44として記述されたノードNODE0〜NODEn
がいくつも繋がるようにして形成されている。
0から状態認識情報S10が与えられたときや、最後に
行動を発現してから一定時間が経過したときなどに、メ
モリ10Aに格納されている行動モデルのうちの対応す
るノードNODE0〜NODEnの状態遷移表44を利
用して次の行動や動作(「出力行動」の行に記述された
行動又は動作)を確率的に決定し、決定結果を行動決定
情報S11として感情・本能モデル部42及び行動生成
部43に出力する。
決定情報S11に基づいて、必要に応じてアクチュエー
タ221〜22n(図2)に駆動信号S131〜S13
nを送出したり、スピーカ21(図2)に音声信号S3
を出力したり、LED群20に第1のLED駆動信号S
4を送出する。
基づいて必要なアクチュエータ221〜22nが駆動
し、音声信号S3に基づく音声がスピーカ21から出力
され、及び又は第1のLED駆動信号S4に基づいてL
ED部20が対応する発光パターンで発光することによ
り、上述のように行動決定部42において決定された行
動又は動作がペットロボット1により発現される。
いては、コントローラ10の制御のもとに、周囲及び内
部の状況や、ユーザからの指令及び働きかけの有無など
に基づいて自律的に行動し得るようになされている。
たLED部20の点滅制御について説明する。
コントローラ10の機能の1つである行動決定部42に
おいて、対応する状態遷移表44(図7)を利用して続
く行動や動作を決定する。この場合、このようにして決
定される行動や動作のうちの一部には、外見上の「目」
として機能を有するLED部20の第1の赤色LED2
0R11、20R12、第2の赤色LED20R21、
20R22及び又は青緑色LED20BG1、20BG
2を発光させる動作が関連付けられている。また行動決
定部42において決定される行動又は動作自体が第1の
赤色LED20R11、20R12、第2の赤色LED
20R21、20R22及び又は青緑色LED20BG
1、20BG2の発光動作である場合もある。
D部20を、各種行動や動作にそれぞれ関連付けられた
対応する発光パターンで発光させ、又は他の行動や動作
と関連付けられていない独立した動作として各種発光パ
ターンで発光させるためのLED駆動データがそれぞれ
ファイル化(以下、このファイルを第1の発光パターン
データファイルと呼ぶ)されて格納されている。
からペットロボット1が次に発現すべき行動又は動作と
してLED部20の発光動作が関連付けられた行動又は
動作が指定されたときや、ペットロボット1が次に発現
すべき行動又は動作としてLED部20を所定パターン
で発光する動作が指定されたときには、メモリ10A内
の対応する第1の発光パターンデータファイルを再生
し、かくして得られたLED駆動データを上述のLED
駆動信号S4としてLED部20に送出することによ
り、LED部20内の対応する第1の赤色LED20R
11、20R12、第2の赤色LED20R21、20
R22及び又は青緑色LED20BG1、20BG2を
対応する発光パターンで点滅させる。
44における「撫でられた(PAT)」という認識結果
と対応付けられた出力行動(例えば「ACTION
2」)に対し、LED部20のうちの各青緑色LED2
0BG1、20BG2を点滅させるという動作が関連付
けられ、又は当該「ACTION 2」自体が各青緑色
LED20BG1、20BG2を点滅させるという行動
である場合において、当該「ACTION 2」を指定
する行動決定情報S11が行動決定部42から行動生成
部43に与えられると、行動生成部43は、必要なアク
チュエータ221〜22nを駆動する一方、これと共に
又はこれに代えて「ACTION 2」に関連付けられ
たメモリ10A内の対応する第1の発光パターンデータ
ファイルを再生し、かくして得られたLED駆動データ
をLED駆動信号S4としてLED部20に送出する。
いてLED部20内の各青緑色LED20BG1、20
BG2が所定周期で点滅し、これにより「ACTION
2」という行動と共に又は代えて「喜び」の表情が発
現される。
移表44における「叩かれた(HIT)」という認識結
果と対応付けられた出力行動(例えば「ACTION
3」)に対し、LED部20のうちの各第1の赤色LE
D20R11、20R12を点滅させるという行動が関
連付けられ、又は当該「ACTION 3」自体が各第
1の赤色LED20R11、20R12を点滅させると
いう行動である場合において、当該「ACTION
3」を指定する行動決定情報S11が行動決定部42か
ら行動生成部43に与えられると、行動生成部43は、
必要なアクチュエータ221〜22nを駆動する一方、
これと共に又はこれに代えてこの「ACTION 3」
に関連付けられたメモリ10A内の対応する第1の発光
パターンデータファイルを再生し、かくして得られたL
ED駆動データをLED駆動信号S4としてLED部2
0に送出する。
いてLED部20内の各第1の赤色LED20R11、
20R12が所定周期で点滅し、これにより「ACTI
ON3」という行動と共に又は代えて「怒り」の表情が
発現される。
1の発光パターンデータファイルには、各第1の赤色L
ED20R11、20R12、各第2の赤色LED20
R21、20R22及び各青緑色LED20BG1、2
0BG2のそれぞれに対応させて、6チャンネル分のL
ED駆動データが格納されている。
ーンデータファイルを再生することにより得られた6チ
ャンネル分のLED駆動データを、それぞれLED部2
0内の対応する第1の赤色LED20R11、20R
12、第2の赤色LED20R21、20R22及び青
緑色LED20BG1、20BG2にLED駆動信号S
4として送出するようになされている。
は、LED部20内の全てのLED(第1及び第2のL
ED20R11、20R12、20R21、20R22
並びに青緑色LED20BG1、20BG2)をそれぞ
れ独立に点滅制御することができ、かくしてLED部2
0の発光パターンとして、図4(A)〜(D)について
上述したパターンだけでなく、例えば図8(A)のよう
に第1及び第2の赤色LED20R11、20R12、
20R21、20R22を時計回り方向に1つずつ順番
に点灯させてゆくパターンや、図8(B)のように第1
の赤色LED20R11、20R12を左右交互に1つ
ずつ点滅させるパターン、図8(C)のように青緑色L
ED20BG1、20BG2及び第1の赤色LED20
R11、20R12を順次交互に点滅させるパターンな
ども発現させ得るようになされている。
ンデータファイルを再生することにより得られたLED
駆動データを、図9(B)〜図9(E)に示すように、
ソフトウェア処理によって4段階でPWM(Pulse
Width Modulation)変調することが
でき、これによりLED部20内の各第1及び第2のL
ED20R11、20R12、20R21、20R22
並びに青緑色LED20BG1、20BG2の発光輝度
を輝度が0〔%〕である場合(図9(A))を含めて5
段階に調整することができるようになされている。
は、かかる行動生成部43の機能を利用して、LED部
20の発光パターンとして、例えば図10(A)及び
(B)に示すように、対応する第1のLED20
R11、20R12、第2のLED20R21、20R
22及び又は青緑色LED20BG1、20BG2の発
光輝度を周期的(例えば1〜3秒周期)に変化させるパ
ターンをも発現し得るようになされており、かくしてペ
ットロボット1に多様な表情表現を行わせ得るようにな
されている。
は、システムが特定の状態となったときに、当該状態に
応じた発光パターンで緑色LED20G等を発光させる
ための各種LED駆動データがそれぞれファイル(以
下、これを第2の発光パターンデータファイルと呼ぶ)
化されて格納されている。そして行動生成部43は、行
動決定部42からシステムが特定の状態となったとの通
知が与えられたときなどに、当該通知された状態に応じ
た第2の発光パターンデータファイルを再生し、かくし
て得られたLED駆動データをLED駆動信号S4とし
てLED部20に送出する。
態認識部40が「抱き上げられた」という認識結果を得
た場合には、抱き上げたユーザに怪我を負わせないよう
にするために各脚部ユニット3A〜3D等を駆動させな
い特定の動作モードに移行するが、この際これを知らせ
る通知が行動決定部42から行動生成部43に与えられ
る。
定部42からの通知に基づいて、メモリ10A内の対応
する第2の発光パターンデータファイルを再生し、かく
して得られたLED駆動信号S4をLED部20に送出
する。この結果、このLED駆動信号S4に基づいて、
抱き上げられている間は、図11(A)のように緑色L
ED20Gが所定周期で点滅する。
モデル部41に保持された「食欲」のパラメータ値が閾
値以上になったとき、すなわちバッテリ残量が少なくな
ったときもこれを行動生成部43に通知する。そしてこ
のとき行動生成部43は、かかる行動決定部42からの
通知に基づいて、メモリ10A内の対応する第2の発光
パターンデータファイルを再生し、かくして得られたL
ED駆動信号S4をLED部20に送出する。この結
果、このLED駆動信号S4に基づいて、この後バッテ
リ11が充電されるまで、図11(B)のようにLED
部20内の各第2の赤色LED20R21、20R22
が点灯すると共に、緑色LED20Gが輝度を例えば1
〜3秒程度の周期で変化させながら発光する。
る」又は「歩く」等の現在の自己の姿勢を常に認識して
いる。そして行動生成部42は、例えば「座る」の姿勢
のときにはメモリ10A内の対応する第2の発光パター
ンデータファイルを再生し、かくして得られたLED駆
動信号S4をLED部20に送出する。この結果、この
LED駆動信号S4に基づいて、座っている間は図11
(C)のように緑色LED20Gが常時点灯する。
いては、ユーザが、頭部ユニット4に設けられた第1の
赤色LED20R11、20R12、第2の赤色LED
20R21、20R22及び青緑色LED20BG1、
20BG2に基づいて当該ペットロボット20の感情等
を認識し得る一方、緑色LED20Gに基づいてシステ
ム状態を認識し得るようになされている。
御 次にこのペットロボット1の尻尾部ユニット5の尻尾5
Aに配設された心理状態表示用LED23の点滅制御に
ついて説明する。
尻尾5Aに青色又はオレンジ色に発光する心理状態表示
用LED23が配設されており、そのときのペットロボ
ット1の心理状態を心理状態表示用LED23の発光パ
ターン及び色によって表示するようになされている。実
際上、心理状態表示用LED23は、例えば平常時には
青色で、また異常時にはオレンジ色で発光する。
用LED23を、そのときの心理状態に応じた発光パタ
ーン及び色で発光させるための各種LED駆動用データ
がそれぞれファイル(以下、これを第3の発光パターン
データファイルと呼ぶ)化されて格納されている。
動決定部42から与えられる通知に基づいて、メモリ1
0Aに格納されている対応する第3の発光パターンデー
タファイルを再生し、かくして得られたLED駆動用デ
ータをLED駆動信号S5として心理状態表示用LED
23に送出する。
明したそのときのノードNODE0〜NODEnを遷移
させるべき認識結果が状態認識部40から所定時間以上
もの間与えられないとき(暇なとき)には、これを行動
生成部43に通知する。そして行動生成部43は、かか
る通知に基づいて、メモリ10A内の対応する第3の発
光パターンデータファイルを再生し、かくして得られた
LED駆動用データをLED駆動信号S5として心理状
態表示用LED23に送出する。この結果、このLED
駆動信号S5に基づいて、図12(A)のように心理状
態表示用LED23が青色のかつ弱い輝度で常時点灯す
る。なお図12(B)〜(E)も同様であるので、その
説明は省略する。
として何かを探す探索行動を選択した場合には、行動決
定情報S11とは別にこれを行動生成部43に通知す
る。そしてこのとき行動生成部43は、かかる通知に基
づいて、メモリ10A内の対応する第3の発光パターン
データファイルを再生し、かくして得られたLED駆動
用データをLED駆動信号S5として心理状態表示用L
ED23に送出する。この結果、このLED駆動信号S
5に基づいて、図13(A)のように心理状態表示用L
ED23が一瞬だけ青色で強く点灯する。
ていた場合において目的物を発見したことを状態認識部
40からの状態認識信号S10に基づいて認識すると、
これを行動生成部43に通知する。そしてこのとき行動
生成部43は、かかる通知に基づいて、メモリ10A内
の対応する第3の発光パターンデータファイルを再生
し、かくして得られたLED駆動用データをLED駆動
信号S5として心理状態表示用LED23に送出する。
この結果、このLED駆動信号S5に基づいて、図13
(B)のように心理状態表示表示用LED23が一瞬だ
け青色で強く点灯する。
いては、尻尾部ユニット5の尻尾5Aに設けられた心理
状態表示用LED23を点滅制御することによって、そ
のときのペットロボット1の心理状態を表示するように
なされている。
センサ部19及び内部センサ部15からそれぞれ出力さ
れる外部センサ信号S1又は内部センサ信号S2等に基
づいて自己の感情を生成し、当該生成した感情を、頭部
ユニット4に設けられたLED部20内の第1の赤色L
ED20R11、20R12、第2の赤色LED20R
21、20R22、及び青緑色LED20BG1、20
BG2を点滅駆動することにより表現すると共に、これ
とは別にシステムが動きのない姿勢や動きのない動作モ
ードにある場合にはLED部20の緑色LED20Gを
点滅させる。
ED部20の緑色LED20Gの点滅状態に基づいて当
該ペットロボット1のシステム状態をユーザが認識する
ことができ、その分ペットロボット1が例えば動きのな
い姿勢や、動きのない動作モードにある場合において
も、ユーザに不要な誤解や心配を与えるのを未然に防止
することができる。
20の第1の赤色LED20R11、20R12、第2
の赤色LED20R21、20R22、青緑色LED2
0BG1、20BG2及び緑色LED20Gを点滅駆動
するに際し、メモリ10Aから読み出した対応する第1
〜第3の発光パターンデータファイル内のLED駆動デ
ータを必要に応じてPWM変調処理する。
LED部20内の第1の赤色LED20R11、20R
12、第2の赤色LED20R21、20R22、青緑
色LED20BG1、20BG2及び緑色LED20G
を多様な発光パターンで点滅駆動することができる。
を表現する場合や、独立した行動としてLED部20を
発光させる際の各種発光パターンごとに第1の赤色LE
D20R11、20R12、第2の赤色LED20R
21、20R22及び青緑色LED20BG1、20B
G2をそれぞれ点滅制御するためのLED駆動データ
が、これら第1の赤色LED20R11、20R12、
第2の赤色LED20R21、20R22及び青緑色L
ED20BG1、20BG2にそれぞれ対応させて、こ
れらと同じチャンネル数分だけまとめて1つの第1の発
光パターンデータファイルに格納されているため、全て
の第1の赤色LED20R11、20R12、第2の赤
色LED20R21、20R22及び青緑色LED20
BG1、20BG2をそれぞれ独立して点滅制御するこ
とができる。
LED部20全体の発光パターンとして、より多様なパ
ターンを発現できる。
ト4に設けられたLED部20内の第1の赤色LED2
0R11、20R12、第2の赤色LED20R21、
20R22、及び青緑色LED20BG1、20BG2
を点滅駆動することにより表現すると共に、これとは別
にシステムが動きのない姿勢や動きのない動作モードに
ある場合にはLED部20の緑色LED20Gを点滅さ
せるようにしたことにより、ユーザが緑色LED20G
の点滅状態に基づいて当該ペットロボット1のシステム
状態を容易に認識することができる。かくするにつきペ
ットロボット1が例えば動きのない姿勢や、動きのない
動作モードにある場合においても、ユーザに不要な誤解
や心配を与えるのを未然に防止することができ、かくし
てエンターテイメント性を向上させ得るペットロボット
を実現できる。
第1の赤色LED20R11、20R12、第2の赤色
LED20R21、20R22、青緑色LED20BG
1、20BG2及び緑色LED20Gを点滅駆動するに
際し、メモリ10Aから読み出した対応する第1〜第3
の発光パターンデータファイル内のLED駆動データを
必要に応じてPWM変調処理するようにしたことによ
り、これら第1の赤色LED20R11、20R12、
第2の赤色LED20R21、20R22、青緑色LE
D20BG1、20BG2及び緑色LED20Gを多様
な発光パターンで点滅駆動することができ、かくしてエ
ンターテイメント性を向上させ得るペットロボットを実
現できる。
する場合や、独立した行動としてLED部20を発光さ
せる際の各種発光パターンごとに第1の赤色LED20
R11、20R12、第2の赤色LED20R21、2
0R22及び青緑色LED20BG1、20BG2をそ
れぞれ点滅制御するためのLED駆動データを、これら
第1の赤色LED20R11、20R12、第2の赤色
LED20R21、20R22及び青緑色LED20B
G1、20BG2にそれぞれ対応させて、これらと同じ
チャンネル数分だけまとめて1つの第1の発光パターン
データファイルに格納し、これら6チャンネル分のLE
D駆動データに基づいて、対応する第1の赤色LED2
0R11、20R12、第2の赤色LED20R21、
20R22及び青緑色LED20BG1、20BG2を
それぞれ点滅駆動するようにしたことにより、全ての第
1の赤色LED20R11、20R12、第2の赤色L
ED20R21、20R22及び青緑色LED20BG
1、20BG2をそれぞれ独立して点滅制御することが
できる。かくするにつきLED部20全体の発光パター
ンとして、より多様なパターンを発現でき、かくしてエ
ンターテイメント性を向上させ得るペットロボットを実
現できる。
に構成された4脚歩行型のペットロボット1に適用する
ようにした場合について述べたが、本発明はこれに限ら
ず、この他種々の形態のペットロボットに広く適用する
ことができる。
の「目」として機能する第1の発光手段及びシステム情
報を表示する第2の発光手段としてLED(発光ダイオ
ード)を適用するようにした場合について述べたが、本
発明はこれに限らず、この他例えば液晶パネル等のこの
他種々の発光手段を広く適用することができる。
若しくは内部の状況及び又は外部からの入力を検出する
センサとして、CCDカメラ16、マイクロホン17、
タッチセンサ18、バッテリセンサ12、温度センサ1
3及び加速度センサ14等を適用するようにした場合に
ついて述べたが、本発明はこれに限らず、要は外部若し
くは内部の状況及び又は外部からの入力を検出すること
ができるものであれば、これに加えて又はこれ以外にも
種々のセンサを広く適用することができる。
センサ19及び内部センサ15の出力等に基づいて感情
等を表現するようにLED部20の第1の赤色LED2
0R11、20R12、第2の赤色LED20R21、
20R22及び青緑色LED20BG1、20BG
2や、緑色LED20Gを点滅制御する制御手段として
ペットロボット1全体の動作制御を司るコントローラ1
0を適用するようにした場合について述べたが、本発明
はこれに限らず、かかる制御手段をコントローラ10と
は別体に設けるようにしても良い。
〜第3の発光パターンデータファイル内のLED駆動デ
ータをソフトウェア処理によりPWM変調するようにし
た場合について述べたが、本発明はこれに限らず、ハー
ドウェア構成のPWM変調回路を別途設け、当該PWM
変調回路によってLED駆動データを必要に応じてPW
M変調処理するようにしても良い。このようにすること
によってコントローラ10のソフトウェア処理の負荷を
軽減することができる。
の発光パターンデータファイル内に、第1の赤色LED
20R11、20R12、第2の赤色LED20
R21、20R22及び青緑色LED20BG1、20
BG2のそれぞれに対応させて6チャンネル分のLED
駆動データを格納することにより、これら6つの第1の
赤色LED20R11、20R12、第2の赤色LED
20R21、20R22及び青緑色LED20BG1、
20BG2をそれぞれ独立して個別に点滅制御すること
ができるようにした場合について述べたが、本発明はこ
れに限らず、このうちのいつくかを1つのグループ(例
えば右側だけとか左側だけなど)として、グループ単位
で点滅制御することができるように、各グループのそれ
ぞれ対応させて当該グループ数と同じチャンネル分のL
ED駆動データを第1の発光パターンデータファイル内
に格納するようにしても良い。
部ユニット5の尻尾5Aに設けられた心理状態表示用L
ED23を点滅制御することによって、そのときのペッ
トロボット1の心理状態を表示するようにした場合につ
いて述べたが、本発明はこれに限らず、心理状態表示用
LED23の点滅のみならず、例えば図14のように尻
尾5Aの動きや状態等をも合わせてペットロボット1の
心理状態を表現するようにしても良い。
トロボット1の「目」として機能するLED(第1の赤
色LED20R11、20R12、第2の赤色LED2
0R21、20R22及び青緑色LED20BG1、2
0BG2)の点滅によって、当該ペットロボット1の感
情を表現するようにした場合について述べたが、本発明
はこれに限らず、かかるLED(第1の赤色LED20
R11、20R12、第2の赤色LED20R21、2
0R22及び青緑色LED20BG1、20BG2)の
点滅と同期させて可動部を駆動するようにして感情を表
現するようにしても良い。
動自在としておき、かかるLED(第1の赤色LED2
0R11、20R12、第2の赤色LED20R21、
20R22及び青緑色LED20BG1、20BG2)
の点滅に同期させて、当該部位を駆動するようにするこ
ともでき、このようにすることによって感情をより多様
なパターンで表現できるようになる。
装置及びその制御方法において、外見上の目として機能
する第1の発光手段及びシステム系の状態を表示するた
めの第2の発光手段をロボット装置に配設し、外部若し
くは内部の状況及び又は外部からの入力を検出するセン
サの出力に基づいて、感情を表現するように第1の発光
手段を点滅制御すると共に、システム系の状態を表現す
るように第2の発光手段を点滅制御するようにしたこと
により、第2の発光手段の発光状態に応じてシステム系
の状態をユーザが容易に認識することができる。かくす
るにつき無用の誤解や心配をユーザに与えることを防止
することができ、かくしてエンターテイメント性を向上
させ得るロボット装置及びその制御方法を実現できる。
の制御方法において、外部若しくは内部の状況及び又は
外部からの入力を検出するセンサの出力に基づいて外部
若しくは内部の状況及び又は外部からの入力を認識し、
認識結果に基づいて、感情を表現するように発光手段を
必要に応じてパルス幅変調方式により制御しながら点滅
制御するようにしたことにより、発光手段を多様な発光
パターンで点滅駆動することができ、かくしてエンター
テイメント性を向上させ得るロボット装置及びその制御
方法を実現できる。
その制御方法において、外部若しくは内部の状況及び又
は外部からの入力を検出するセンサの出力に基づいて外
部若しくは内部の状況及び又は外部からの入力を認識
し、認識結果に基づいて、感情を表現するように各発光
手段をそれぞれ個別に点滅制御するようにしたことによ
り、発光手段を多様な発光パターンで点滅駆動すること
ができ、かくしてエンターテイメント性を向上させ得る
ロボット装置及びその制御方法を実現できる。
を示す斜視図である。
を示すブロック図である。
である。
である。
である。
るパルス波形図である。
図である。
線図である。
す略線図である。
す略線図である。
3D……脚部ユニット、4……頭部ユニット、5……尻
尾部ユニット、5A……尻尾、10……コントローラ、
10A……メモリ、20……LED部、20R11、2
0R12、20R21、20R22……赤色LED、2
0BG1、20BG2……青緑LED、20G……緑色
LED、23……心理状態表示用LED、24……半透
明カバー、40……状態認識部、41……感情・本能モ
デル部、42……行動決定部、43……行動生成部、S
4、S5……LED駆動信号。
Claims (18)
- 【請求項1】外見上の目として機能する第1の発光手段
と、 外部若しくは内部の状況及び又は外部からの入力を検出
するセンサと、 上記センサの出力に基づいて、感情を表現するように上
記第1の発光手段を点滅制御する制御手段と、 上記システム系の状態を表示するための第2の発光手段
とを具え、 上記制御部は、 上記システム系の上記状態に基づいて上記第2の発光手
段を点滅制御することを特徴するロボット装置。 - 【請求項2】上記第2の発光手段は、発光ダイオードで
あることを特徴とする請求項1に記載のロボット装置。 - 【請求項3】上記システム系の各種状態に応じた上記第
2の発光手段の駆動情報が格納されたメモリを具え、 上記制御手段は、 上記システム系の状態に応じて、対応する上記駆動情報
を上記メモリから読み出し、当該読み出した駆動情報に
基づいて上記第2の発光手段を点滅制御することを特徴
とする請求項1に記載のロボット装置。 - 【請求項4】上記制御手段は、 上記第2の発光手段の発光輝度をパルス幅変調方式によ
り制御することを特徴とする請求項3に記載のロボット
装置。 - 【請求項5】外見上の目として機能する発光手段と、 外部若しくは内部の状況及び又は外部からの入力を検出
するセンサと、 上記センサの出力に基づいて、感情を表現するように上
記発光手段を点滅制御する制御手段とを具え、 上記制御手段は、 上記発光手段の発光輝度をパルス幅変調方式により制御
することを特徴とするロボット装置。 - 【請求項6】上記発光手段は、発光ダイオードであるこ
とを特徴とする請求項5に記載のロボット装置。 - 【請求項7】外見上の目として機能する複数の発光手段
と、 外部若しくは内部の状況及び又は外部からの入力を検出
するセンサと、 上記センサの出力に基づいて、感情を表現するように各
上記発光手段をそれぞれ個別に点滅制御する制御手段と
を具えることを特徴とするロボット装置。 - 【請求項8】各上記発光手段は、発光ダイオードである
ことを特徴とする請求項7に記載のロボット装置。 - 【請求項9】各上記感情に応じた各上記発光手段ごとの
駆動情報が予め格納されたメモリを具え、 上記センサの出力に基づいて、上記メモリに格納された
対応する各上記発光手段ごとの上記駆動情報を必要に応
じて読み出し、当該読み出した各上記駆動情報に基づい
て各上記発光手段をそれぞれ個別に点滅駆動することを
特徴とする請求項7に記載のロボット装置。 - 【請求項10】外見上の目として機能する第1の発光手
段及びシステム系の状態を表示するための第2の発光手
段をロボット装置に配設する第1のステップと、 外部若しくは内部の状況及び又は外部からの入力を検出
するセンサの出力に基づいて、感情を表現するように上
記第1の発光手段を点滅制御すると共に、システム系の
状態を表現するように上記第2の発光手段を点滅制御す
る第2のステップとを具えることを特徴とするロボット
装置の制御方法。 - 【請求項11】上記第2の発光手段は、発光ダイオード
であることを特徴とする請求項10に記載のロボット装
置の制御方法。 - 【請求項12】上記第1のステップでは、 上記システム系の各種状態に応じた上記第2の発光手段
の駆動情報をメモリに格納し、 上記第2のステップでは、 上記システム系の状態に応じて、対応する上記駆動情報
を上記メモリから読み出し、当該読み出した駆動情報に
基づいて上記第2の発光手段を点滅制御することを特徴
とする請求項10に記載のロボット装置の制御方法。 - 【請求項13】上記第2のステップでは、 上記第2の発光手段の発光輝度をパルス幅変調方式によ
り制御することを特徴とする請求項10に記載のロボッ
ト装置の制御方法。 - 【請求項14】外見上の目として機能する発光手段と、
外部若しくは内部の状況及び又は外部からの入力を検出
するセンサを有するロボット装置の制御方法において、 上記センサの出力に基づいて上記外部若しくは内部の状
況及び又は外部からの入力を認識する第1のステップ
と、 上記認識結果に基づいて、感情を表現するように上記発
光手段を点滅制御する第2のステップとを具え、 上記第2のステップでは、 必要に応じて上記発光手段の発光輝度をパルス幅変調方
式により制御することを特徴とするロボット装置の制御
方法。 - 【請求項15】上記発光手段は、発光ダイオードである
ことを特徴とする請求項14に記載のロボット装置の制
御方法。 - 【請求項16】外見上の目として機能する複数の発光手
段と、外部若しくは内部の状況及び又は外部からの入力
を検出するセンサとを有するロボット装置の制御方法に
おいて、 上記センサの出力に基づいて上記外部若しくは内部の状
況及び又は外部からの入力を認識する第1のステップ
と、 上記認識結果に基づいて、感情を表現するように各上記
発光手段をそれぞれ個別に点滅制御する第2のステップ
とを具えることを特徴とするロボット装置の制御方法。 - 【請求項17】各上記発光手段は、発光ダイオードであ
ることを特徴とする請求項16に記載のロボット装置の
制御方法。 - 【請求項18】上記第1のステップでは、各上記感情に
応じた各上記発光手段ごとの駆動情報をメモリに格納
し、 上記第2のステップでは、 上記センサの出力に基づいて、上記メモリに格納された
対応する各上記発光手段ごとの上記駆動情報を必要に応
じて読み出し、当該読み出した各上記駆動情報に基づい
て各上記発光手段をそれぞれ個別に点滅駆動することを
特徴とする請求項16に記載のロボット装置の制御方
法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000350277A JP4524524B2 (ja) | 2000-10-11 | 2000-10-11 | ロボット装置及びその制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000350277A JP4524524B2 (ja) | 2000-10-11 | 2000-10-11 | ロボット装置及びその制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002120181A true JP2002120181A (ja) | 2002-04-23 |
JP4524524B2 JP4524524B2 (ja) | 2010-08-18 |
Family
ID=18823536
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000350277A Expired - Fee Related JP4524524B2 (ja) | 2000-10-11 | 2000-10-11 | ロボット装置及びその制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4524524B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7363108B2 (en) | 2003-02-05 | 2008-04-22 | Sony Corporation | Robot and control method for controlling robot expressions |
US7894941B2 (en) | 2004-12-14 | 2011-02-22 | Honda Motor Co., Ltd. | Sound detection and associated indicators for an autonomous moving robot |
JP2014104513A (ja) * | 2012-11-22 | 2014-06-09 | Honda Motor Co Ltd | ロボット |
JP2020137687A (ja) * | 2019-02-27 | 2020-09-03 | 公立大学法人岡山県立大学 | ロボット装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05173627A (ja) * | 1991-12-20 | 1993-07-13 | Daihen Corp | 産業用ロボットの制御装置 |
WO2000032361A1 (fr) * | 1998-11-30 | 2000-06-08 | Sony Corporation | Robot, procede de commande de robot et support d'enregistrement de programme |
WO2000032360A1 (fr) * | 1998-11-30 | 2000-06-08 | Sony Corporation | Robot et son procede de commande |
WO2000043167A1 (fr) * | 1999-01-20 | 2000-07-27 | Sony Corporation | Robot et procede de commande de deplacement |
JP2000233386A (ja) * | 1999-02-10 | 2000-08-29 | Sony Corp | ロボット装置及びその制御方法 |
WO2000056506A1 (fr) * | 1999-03-24 | 2000-09-28 | Sony Corporation | Robot |
JP2001327765A (ja) * | 1999-11-02 | 2001-11-27 | Sega Toys:Kk | 電子玩具及びその制御方法及び記憶媒体 |
-
2000
- 2000-10-11 JP JP2000350277A patent/JP4524524B2/ja not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05173627A (ja) * | 1991-12-20 | 1993-07-13 | Daihen Corp | 産業用ロボットの制御装置 |
WO2000032361A1 (fr) * | 1998-11-30 | 2000-06-08 | Sony Corporation | Robot, procede de commande de robot et support d'enregistrement de programme |
WO2000032360A1 (fr) * | 1998-11-30 | 2000-06-08 | Sony Corporation | Robot et son procede de commande |
WO2000043167A1 (fr) * | 1999-01-20 | 2000-07-27 | Sony Corporation | Robot et procede de commande de deplacement |
JP2000233386A (ja) * | 1999-02-10 | 2000-08-29 | Sony Corp | ロボット装置及びその制御方法 |
WO2000056506A1 (fr) * | 1999-03-24 | 2000-09-28 | Sony Corporation | Robot |
JP2001327765A (ja) * | 1999-11-02 | 2001-11-27 | Sega Toys:Kk | 電子玩具及びその制御方法及び記憶媒体 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7363108B2 (en) | 2003-02-05 | 2008-04-22 | Sony Corporation | Robot and control method for controlling robot expressions |
US7894941B2 (en) | 2004-12-14 | 2011-02-22 | Honda Motor Co., Ltd. | Sound detection and associated indicators for an autonomous moving robot |
JP2014104513A (ja) * | 2012-11-22 | 2014-06-09 | Honda Motor Co Ltd | ロボット |
JP2020137687A (ja) * | 2019-02-27 | 2020-09-03 | 公立大学法人岡山県立大学 | ロボット装置 |
JP7222537B2 (ja) | 2019-02-27 | 2023-02-15 | 学校法人 関西大学 | ロボット装置 |
Also Published As
Publication number | Publication date |
---|---|
JP4524524B2 (ja) | 2010-08-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1120740B1 (en) | Robot device, its control method, and recorded medium | |
JP3986720B2 (ja) | 昆虫ロボット | |
US6650965B2 (en) | Robot apparatus and behavior deciding method | |
EP1151779B1 (en) | Robot and action deciding method for robot | |
US6684130B2 (en) | Robot apparatus and its control method | |
KR20180104645A (ko) | 변경 가능한 캐릭터를 가진 로봇 | |
US6385506B1 (en) | Robot | |
JP2002239963A (ja) | ロボット装置、ロボット装置の動作制御方法、プログラム及び記録媒体 | |
JP2004237392A (ja) | ロボット装置、及びロボット装置の表現方法 | |
US6711467B2 (en) | Robot apparatus and its control method | |
JP2001025984A (ja) | ロボット装置及びその制御方法並びに記録媒体 | |
JP2001191281A (ja) | 編集装置、編集方法及び記録媒体 | |
JP2002120181A (ja) | ロボット装置及びその制御方法 | |
JP2004298975A (ja) | ロボット装置、障害物探索方法 | |
JP2003136456A (ja) | ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体 | |
JP4411503B2 (ja) | ロボット装置及びその制御方法 | |
JP4385281B2 (ja) | ロボット装置及びその制御方法 | |
JP2002239952A (ja) | ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体 | |
JP2001157979A (ja) | ロボット装置及びその制御方法 | |
JP2001154707A (ja) | ロボット装置及びその制御方法 | |
JP2003071765A (ja) | ロボット装置及びロボット装置の入力方法 | |
JP2001157981A (ja) | ロボット装置及びその制御方法 | |
JP2003208161A (ja) | ロボット装置及びその制御方法 | |
JP4419035B2 (ja) | ロボット装置及びその制御方法 | |
JP2001157982A (ja) | ロボット装置及びその制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070307 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20081024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081030 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090730 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091001 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091126 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100506 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100519 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130611 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130611 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |