JP2001025984A - ロボット装置及びその制御方法並びに記録媒体 - Google Patents
ロボット装置及びその制御方法並びに記録媒体Info
- Publication number
- JP2001025984A JP2001025984A JP2000135146A JP2000135146A JP2001025984A JP 2001025984 A JP2001025984 A JP 2001025984A JP 2000135146 A JP2000135146 A JP 2000135146A JP 2000135146 A JP2000135146 A JP 2000135146A JP 2001025984 A JP2001025984 A JP 2001025984A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- light emitting
- unit
- emitting means
- external
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Toys (AREA)
- Manipulator (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
- Feedback Control In General (AREA)
Abstract
一層向上させることを目的とする。 【解決手段】ロボット装置及びその制御方法において、
外部センサの出力に基づいて外部の状況及び又は外部か
らの入力を認識し、認識結果に基づいて、感情を表現す
るように発光手段を点滅させるようにした。また記録媒
体において、かかる制御プログラムを記録するようにし
た。
Description
の制御方法並びに記録媒体に関し、例えばペットロボッ
トに適用して好適なものである。
応じて自律的に行動を行う4足歩行型のペットロボット
が本願特許出願人により開発されている。かかるペット
ロボットは、一般家庭において飼育される犬や猫に似せ
た形状を有し、ユーザからの指令や周囲の環境などに応
じて行動するものである。
ロボットにおいて、例えばユーザからの「叩く」や「撫
でる」といった働きかけに対して「怒り」や「喜び」な
どの感情を表現し得るようにすることができれば、ユー
ザがペットロボットとコミュニケーションを円滑に行う
ことができ、その分ペットロボットに対するユーザの愛
着心及び好奇心を向上させて、エンターテインメント性
をより一層向上させ得るものと考えられる。
で、エンターテインメント性をより一層向上させ得るロ
ボット装置及びその制御方法並びに記録媒体を提案しよ
うとするものである。
め本発明においては、ロボット装置において、外見上の
目として機能する発光手段と、外部の状況及び又は外部
からの入力を検出する外部センサと、外部センサの出力
に基づいて、感情を表現するように発光手段を点滅させ
る制御手段とを設けるようにした。この結果このロボッ
ト装置によれば、発光手段の発光状態に基づいてユーザ
が当該ロボット装置の感情を容易に認識することができ
る。
機能する発光手段と、外部の状況及び又は外部からの入
力を検出する外部センサとを有するロボット装置の制御
方法において、外部センサの出力に基づいて外部の状況
及び又は外部からの入力を認識する第1のステップと、
認識結果に基づいて、感情を表現するように発光手段を
点滅させる第2のステップとを設けるようにした。この
結果このロボット装置の制御方法によれば、ユーザがロ
ボット装置の発光手段の発光状態に基づいてユーザが当
該ロボット装置の感情を容易に認識することができる。
て機能する発光手段と、外部の状況及び又は外部からの
入力を検出する外部センサとを有するロボット装置の制
御プログラムが記録された記録媒体において、外部セン
サの出力に基づいて外部の状況及び又は外部からの入力
を認識する第1のステップと、当該認識結果に基づい
て、感情を表現するように発光手段を点滅させる第2の
ステップとを有する制御プログラムを記録するようにし
た。この結果この記録媒体に記録された制御プログラム
によれば、ユーザがロボット装置の発光手段の発光状態
に基づいてユーザが当該ロボット装置の感情を容易に認
識することができる。
施の形態を詳述する。
1の構成 図1において、1は全体として本実施の形態によるペッ
トロボットを示し、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A〜3Dが連結されると共に、胴体
部ユニット2の前端部及び後端部にそれぞれ頭部ユニッ
ト4及び尻尾部ユニット5が連結されることにより構成
されている。
すように、このペットロボット1全体の動作を制御する
コントローラ10と、このペットロボット1の動力源と
してのバッテリ11と、バッテリセンサ12及び温度セ
ンサ13などからなる内部センサ部14となどが収納さ
れている。
ット1の実質的な「目」として機能するCCD(Charge
Coupled Device )カメラ15、「耳」として機能する
マイクロホン16及びタッチセンサ17などからなる外
部センサ部18と、外見上の「目」として機能するLE
D(Light Emitting Diode)19と、「口」として機能
するスピーカ20となどがそれぞれ所定位置に配設され
ている。
分や、各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5における尻尾5A
(図1)の付根部分などには、それぞれ対応する自由度
数分のアクチュエータ211 〜21n が配設されてい
る。
は、周囲の状況を撮像し、得られた画像信号S1Aをコ
ントローラ10に送出する。またマイクロホン16は、
ユーザから図示しないサウンドコマンダを介して音階と
して与えられる「歩け」、「伏せ」又は「ボールを追い
かけろ」等の指令音を集音し、得られた音声信号S1B
をコントローラ10に送出する。
明らかなように頭部ユニット4の上部に設けられてお
り、ユーザからの「撫でる」や「叩く」といった物理的
な働きかけにより受けた圧力を検出し、検出結果を圧力
検出信号S1Cとしてコントローラ10に送出する。
1の残量を検出して、検出結果をバッテリ残量検出信号
S2Aとしてコントローラ10に送出し、温度センサ1
3は、ペットロボット1内部の温度を検出して検出結果
を温度検出信号S2Bとしてコントローラ10に送出す
る。
CCDカメラ15、マイクロホン16及びタッチセンサ
17からそれぞれ供給される画像信号S1A、音声信号
S1B及び圧力検出信号S1C(以下、これらをまとめ
て外部センサ信号S1と呼ぶ)と、内部センサ部14の
バッテリセンサ及び熱センサからそれぞれ与えられるバ
ッテリ残量検出信号S2A及び温度検出信号S2B(以
下、これらをまとめて内部センサ信号S2と呼ぶ)など
に基づいて、ペットロボット1の周囲及び内部の状況
や、ユーザからの指令、ユーザからの働きかけの有無な
どを判断する。
と、予めメモリ10Aに格納されている制御プログラム
とに基づいて続く行動を決定し、決定結果に基づいて必
要なアクチュエータ211 〜21n を駆動させることに
より、頭部ユニット4を上下左右に振らせたり、尻尾部
ユニット5の尻尾を動かせたり、各脚部ユニット3A〜
3Dを駆動して歩行させるなどの行動を行わせる。
じて所定の音声信号S3をスピーカ20に与えることに
より当該音声信号S3に基づく音声を外部に出力させた
り、外見上の「目」としてのLED19にLED駆動信
号S4を出力することによりこれを点滅させる。
いては、周囲及び内部の状況や、ユーザからの指令及び
働きかけの有無などに基づいて自律的に行動することが
できるようになされている。
してのLED19の具体的な構成を図3に示す。この図
3からも明らかなように、LED19は、それぞれ赤色
光を発光する一対の赤色LED19R1 、19R2 と、
それぞれ緑色光を発光する一対の緑色LED19G1 、
19G2 とから構成される。
は、それぞれ発光部が所定長さの直線形状を有してお
り、矢印aで示す頭部ユニット4の前方向に行くに従っ
て先窄みの位置関係となるように頭部ユニット4の長手
方向のほぼ中段部に配設されている。これによりこのペ
ットロボット1においては、これら赤色LED19
R1 、19R2 を共に点灯することにより、あたかも目
をつり上げて怒っているかのごとく、「怒り」の表情を
表現することができるようになされている。
それぞれ発光部が所定長さの弓なり形状を有しており、
それぞれ頭部ユニット4における対応する赤色LED1
9R1 、19R2 の直前位置に、弓なりの内側を前方向
(矢印a)に向けた状態で配設されている。これにより
このペットロボット1においては、これら緑色LED1
9G1 、19G2 を共に点灯することによって、あたか
も笑っているかのごとく、「喜び」の表情を表現するこ
とができるようになされている。
ら赤色LED19R1 、19R2 及び緑色LED19G
1 、19G2 を覆い隠すように、頭部ユニット4の前端
近傍からタッチセンサ17の直前までの筐体の上部部分
が例えば合成樹脂材からなる黒色の半透明カバー4Aに
より覆われている。
D19が点灯していない状態のときにはこれらが外側か
ら目視確認し難く、これに対してLED19が点灯して
いる状態のときにはこれを外側から容易に目視確認し得
るようにすることができ、かくして2種類の形状の
「目」(赤色LED19R1 、19R2 及び緑色LED
19G1 、19G2 )が露出していることに起因する違
和感を有効に回避し得るようになされている。
「目」として機能するCCDカメラ15が頭部ユニット
4の先端部にその光学軸が矢印aと平行に配設されてお
り、これによりこのCCDカメラ15によって頭部ユニ
ット4が向いている前方の状況を確実に撮像し得るよう
になされている。
具体的な処理について説明する。
された制御プログラムに従って上述のような各種処理を
実行する。そしてかかるコントローラ10の処理内容を
機能的に分類すると、図5に示すように、外部及び内部
の状態を認識する状態認識部30と、状態認識部30の
認識結果に基づいて感情及び本能の状態を決定する感情
・本能モデル部31と、状態認識部30の認識結果及び
感情・本能モデル部31の出力に基づいて続く行動を決
定する行動決定部32と、行動決定部32の決定結果に
応じた行動をペットロボットに生成(発現)させる行動
生成部33とに分けることができる。
モデル部31、行動決定部32及び行動生成部33につ
いて詳細に説明する。
られる外部情報信号S1と、内部センサ部14(図2)
から与えられる内部情報信号S2とに基づいて特定の状
態を認識し、認識結果を状態認識情報S10として感情
・本能モデル部31及び行動決定部32に通知する。
18のCCDカメラ15(図2)から与えられる画像信
号S1A(図2)を常時監視し、当該画像信号S1Aに
基づく画像内に例えば「赤い丸いもの」や、「垂直な平
面」を検出したときには、「ボールがある」、「壁があ
る」と認識し、認識結果を感情・本能モデル部31及び
行動決定部32に通知する。
(図2)から与えられる音声信号S1B(図2)を常時
監視し、当該音声信号S1Bに基づいて「歩け」、「伏
せ」、「ボールを追いかけろ」などの指令音が入力され
たことを認識すると、かかる認識結果を感情・本能モデ
ル部31及び行動決定部32に通知する。
7(図2)から与えられる圧力検出信号S1C(図2)
を常時監視し、当該圧力検出信号S1Cに基づいて所定
の閾値以上のかつ短時間(例えば2秒未満)の圧力を検
出したときには「叩かれた(叱られた)」と認識し、所
定の閾値未満のかつ長時間(例えば2秒以上)の圧力を
検出したときには「撫でられた(誉められた)」と認識
し、認識結果を感情・本能モデル部31及び行動決定部
32に通知する。
4(図2)の温度センサ13(図2)から与えられる温
度検出信号S2B(図2)を常時監視し、当該温度検出
信号S2Bに基づいて所定以上の温度を検出したときに
は「内部温度が上昇した」と認識し、認識結果を感情・
本能モデル部31及び行動決定部32に通知する。
「驚き」、「恐怖」、「嫌悪」及び「怒り」の合計6つ
の情動について、各情動ごとにその情動の強さを表すパ
ラメータを保持している。そして感情・本能モデル部3
1は、これら各情動のパラメータ値を、それぞれ状態認
識部30から状態認識情報S10として与えられる「叩
かれた」及び「撫でられた」などの特定の認識結果と、
後述のように行動決定部32から与えられる決定された
出力行動を表す行動決定情報S12と、経過時間となど
に基づいて順次更新する。
認識情報S10に基づき得られる認識結果及び行動決定
情報S12に基づく出力行動がその情動に対して作用す
る度合い(予め設定されている)と、他の情動から受け
る抑制及び刺激の度合いと、経過時間となどに基づいて
所定の演算式により算出されるその情動の変化量をΔE
〔t〕、現在のその情動のパラメータ値をE〔t〕、認
識結果等に応じてその情動を変化させる割合を表す係数
をke として、所定周期で次式
メータ値E〔t+1〕を算出する。
算結果を現在のその情動のパラメータ値E〔t〕と置き
換えるようにしてその情動のパラメータ値を更新する。
なお各認識結果や各出力行動に対してどの情動のパラメ
ータ値を更新するかは予め決められており、例えば「叩
かれた」といった認識結果が与えられた場合には「怒
り」の情動のパラメータ値が上がると共に「喜び」の情
動のパラメータが下がり、「撫でられた」といった認識
結果が与えられた場合には「喜び」の情動のパラメータ
値が上がると共に「悲しみ」の情動のパラメータ値が下
がる。なお各情動についてのより具体的な説明及びこれ
ら情動が変化する具体的な要因の一例を図6に示す。
1は、「運動欲」、「愛情欲」、「食欲」及び「好奇
心」の互いに独立した4つの欲求について、これら欲求
ごとにその欲求の強さを表すパラメータを保持してい
る。そして感情・本能モデル部31は、これら欲求のパ
ラメータ値を、それぞれ状態認識部30からの認識結果
や、経過時間及び行動決定部32からの通知などに基づ
いて順次更新する。
動欲」、「愛情欲」及び「好奇心」については、ペット
ロボット1の出力行動、経過時間及び認識結果などに基
づいて所定の演算式により算出されるその欲求の変動量
をΔI〔k〕、減算のその欲求のパラメータ値をI
〔k〕、その欲求の感度を表す係数をki として、所定
周期で次式
メータ値I〔k+1〕を算出し、この演算結果を現在の
その欲求のパラメータ値I〔k〕と置き換えるようにし
てその欲求のパラメータ値を更新する。なお出力行動や
認識結果等に対してどの欲求のパラメータ値を変化させ
るかは予め定められており、例えば行動決定部32から
何らかの行動を行ったとの通知があったときには「運動
欲」のパラメータ値が下がる。
については、状態認識部30を介して与えられるバッテ
リ残量検出信号S2A(図2)に基づいて、バッテリ残
量をBL として所定周期で次式
1〕を算出し、この演算結果を現在の食欲のパラメータ
値I〔k〕と置き換えるようにして当該「食欲」のパラ
メータ値を更新する。
各欲求のパラメータ値がそれぞれ0から100 までの範囲
で変動するように規制されており、また係数ke 、ki
の値も各情動及び各欲求ごとに個別に設定されている。
認識情報S10と、感情・本能モデル部31における各
情動及び各欲求のパラメータ値と、予めメモリ10Aに
格納された行動モデルと、時間経過となどに基づいて次
の行動を決定し、決定結果を行動決定情報S12として
感情・本能モデル部31及び行動生成部33に出力す
る。
決定する手法として、図7に示すような1つのノード
(状態)NODE0 から同じ又は他のどのノードNOD
E0 〜NODEn に遷移するかを各ノードNODE0 〜
NODEn 間を接続するアークARC0 〜ARCn に対
してそれぞれ設定された遷移確率P0 〜Pn に基づいて
確率的に決定する確率オートマトンと呼ばれるアルゴリ
ズムを用いる。
モデルとして、各ノードNODE0 〜NODEn ごとの
図8に示すような状態遷移表40が格納されており、行
動決定部32がこの状態遷移表40に基づいて次の行動
を決定するようになされている。
ードNODE0 〜NODEn において遷移条件とする入
力イベント(状態認識部30の認識結果)が「入力イベ
ント」の行に優先順に列記され、その条件についてのさ
らなる条件が「データ名」及び「データ範囲」の行にお
ける対応する列に記述されている。
ノードNODE100 では、「ボールを検出した(BAL
L)」という認識結果が与えられた場合に、当該認識結
果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000の範囲(0,1000)」であること
や、「障害物を検出(OBSTACLE)」という認識
結果が与えられた場合に、当該認識結果と共に与えられ
るその障害物までの「距離(DISTANCE)」が
「0から1000の範囲(0,1000)」であることが自己又
は他のノードに遷移するための条件となっている。
果の入力がない場合においても、行動決定部32が周期
的に参照する感情・本能モデル部31の各情動及び各欲
求のパラメータ値のうち「喜び(JOY)」、「驚き
(SUPRISE)」又は「悲しみ(SUDNES
S)」のいずれかの情動のパラメータ値が「50から100
の範囲(50,100 )」であるときには自己又は他のノー
ドに遷移することができる。
への遷移確率」の欄における「遷移先ノード」の列にそ
のノードNODE0 〜NODEn から遷移できるノード
名が列記されると共に、「入力イベント名」、「データ
値」及び「データの範囲」の各行に記述された全ての条
件が揃った場合におけるそのノードNODE0 〜NOD
En への遷移確率が「他のノードへの遷移確率」の欄に
おけるそのノードNODE0 〜NODEn の行に記述さ
れ、このとき出力される行動又は動作が「出力行動」の
行に記述される。なお「他のノードへの遷移確率」の欄
における各行の遷移確率の和は100 〔%〕となってい
る。
例えば「ボールを検出(BALL)」し、そのボールの
「大きさ(SIZE)」が「0から1000の範囲(0,10
00)」であるという認識結果が与えられた場合には、
「30〔%〕」の確率で「ノードNODE120 (node 12
0)」に遷移でき、そのとき「ACTION 1」の行
動又は動作が出力されることとなる。
表40として記述されたノードNODE0 〜NODEn
がいくつも繋がるようにして構成されている。
0から状態認識情報S10が与えられたときや、最後に
行動を発現してから一定時間が経過したときなどに、メ
モリ10Aに格納されている行動モデルのうちの対応す
るノードNODE0 〜NODEn の状態遷移表40を利
用して次の行動や動作(「出力行動」の行に記述された
行動又は動作)を確率的に決定し、決定結果を行動決定
情報S12として感情・本能モデル部31及び行動生成
部33に出力する。
情報S12に基づいて、必要なアクチュエータ211 〜
21n (図2)に駆動信号S131 〜S13n を送出し
たり、スピーカ20(図2)に必要な音声信号S3を送
出したり、LED19にLED駆動信号S4を送出す
る。
号S131 〜S13n に基づいて必要なアクチュエータ
211 〜21n を所定状態に駆動させたり、音声信号3
に基づく音声をスピーカ20から出力させたり、LED
駆動信号S3に基づく点滅パターンでLED19を点滅
させる。
の「目」として機能するLED19の点滅との関係につ
いて説明する。
コントローラ10の機能の1つである行動決定部32に
おいて、対応する状態遷移表40(図8)に基づいて続
く行動や動作を決定する。
れた(PAT)」という認識結果と対応付けられた各出
力行動(例えば図8における「ACTON 2」)に
は、LED19のうちの各緑色LED19G1 、19G
2 を点滅させるという行動が関連付けられている。
ら「撫でられた」という認識結果が与えられた場合に
は、上述のように対応する状態遷移表40を用いて確率
的に次の行動や動作を決定し、決定した行動や動作を行
動決定情報S12として行動生成部33に出力する一
方、これと共に感情・本能モデル部31における「喜
び」のパラメータの値を読み出し、これを行動生成部3
3に通知するようなされている。
決定部32から与えられる行動決定情報S12に基づい
て、必要なアクチュエータ211 〜21n を駆動するこ
とにより指定された「喜び」を表現する行動を行わせる
一方、これと共に又はこれに代えてそのときの「喜び」
のパラメータの値に応じて、当該値が大きければ大きい
ほど点滅周期が速くなるように各緑色LED19G1 、
19G2 を点滅させる。これによりペットロボット1
は、あたかも笑っているかのごとく、「喜び」の感情を
表情として表現することができる。
る「叩かれた(HIT)」という認識結果と対応付けら
れた各出力行動(例えば図8における「ACTON
3」)には、LED19のうちの各赤色LED19R1
〜19R2 を点滅させるという行動が関連付けられてい
る。
ら「叩かれた」という認識結果が与えられた場合には、
対応する状態遷移表40を用いて確率的に次の行動や動
作を決定し、決定した行動や動作を行動決定情報S12
として行動生成部33に出力する一方、これと共に感情
・本能モデル部31における「怒り」のパラメータの値
を読み出し、これを行動生成部33に通知するようなさ
れている。
決定部32から与えられる行動決定情報S12に基づい
て、必要なアクチュエータ211 〜21n を駆動するこ
とにより、指定された「怒り」を表す行動を行わせる一
方、これと共に又はこれに代えてそのときの「怒り」の
パラメータの値に応じて、当該値が大きければ大きいほ
ど点滅周期が速くなるように各赤色LED19R1 、1
9R2 を点滅させる。これによりペットロボット1は、
あたかも笑っているかのごとく、「怒り」の感情を表情
として表現することができる。
表40における例えば「大きな音の入力(SOUN
D)」のような予め定められた「驚き」を表現すべき特
定の認識結果と対応付けられた各出力行動(例えば図8
における「ACTON 4」)には、LEDの各赤色L
ED19R1 、19R2 及び各緑色LED19G1 、1
9G2 を順次交互に点滅させるという行動が関連付けら
れている。
らかかる「驚き」を表現すべき特定の認識結果が与えら
れた場合には、対応する状態遷移表40を用いて確率的
に次の行動や動作を決定し、決定結果を行動生成部33
に通知する。
決定部32から与えられる行動決定情報S12に基づい
て、必要なアクチュエータ211 〜21n を駆動するこ
とにより、指定された「驚き」を表すペットロボット1
に行動を行わせる一方、これと共に各赤色LED19R
1 、19R2 及び各緑色LED19G1 、19G2 を順
次交互に点滅させる。これによりペットロボット1は、
あたかも笑っているような表情と、怒っているような表
情とを順次交互に繰り返すことにより、「驚き」の感情
を表情として表現することができる。
いては、「撫でられた」ことに対する「喜び」の感情
や、「叩かれた」ことに対する「怒り」の感情、及びあ
る特定の認識結果に基づく「驚き」の感情を、各赤色L
ED19R1 、19R2 及び又は各緑色LED19G
1 、19G2 の点滅によって表情として表現し得るよう
なされている。
ザが頭部ユニット4の上部(タッチセンサ17)を叩く
と各赤色LED19R1 、19R2 が同時に点滅するこ
とにより、あたかも目をつり上げて怒っているかのよう
な「怒り」の感情を表情として表現し、これに対してユ
ーザが撫でると各緑色LED19R1 、19R2 が同時
に点滅することにより、あたかも笑っているかのような
「喜び」の感情を表情として表現する。またペットロボ
ット1では、例えば周囲で大きな音が発生すると各赤色
LED19R1 、19R2 及び各緑色LED19G1 、
19G2 が順次交互に点滅することにより、目を開閉さ
せて驚いているかのような「驚き」の感情を表情として
表現する。
がペットロボット1の感情状態をLED19の点滅状態
に基づいて容易に認識し易く、また「撫でる」や「叩
く」といったユーザの働きかけに応じて当該働きかけに
応じた感情を表現するため、ユーザとのコミュニケーシ
ョンをより円滑に行い得るようにすることができる。
感情を外見上の「目」としてのLED19の点滅により
表現するようにしたことにより、ユーザとのコミュニケ
ーションをより円滑に行い得るようにすることができ、
かくしてエンターテイメント性を格段的に向上させ得る
ペットロボットを実現できる。
に構成された4足歩行型のペットロボット1に適用する
ようにした場合について述べたが、本発明はこれに限ら
ず、この他種々の形状のロボット装置(いわゆる玩具
(おもちゃ、トイ(Toy))を含む)に広く適用する
ことができる。
段としてLED19を適用するようにした場合について
述べたが、本発明はこれに限らず、要は、光を発光する
この他種々の発光手段を広く適用することができる。
光素子50をアレイ状に配置したものや、カラー又は白
黒の液晶ディスプレイなども適用することができ、この
ような発光手段を適用することによって外見上の目とし
てより多様な形状を表示し、これによってより多様な表
情を表現し得るようにすることができる。
び」、「怒り」及び「驚き」の3つの感情(情動)を外
見上の目として機能するLED19の発光状態により表
現するようにした場合について述べたが、本発明はこれ
に限らず、これらの感情に加えて又はこれらの感情に代
えて他の感情(情動)をLED19の発光状態により表
現するようにしても良い。
D19として赤色LED19R1 、19R2 及び緑色L
ED19G1 、19G2 の2色分のLEDを用いるよう
にした場合について述べたが、本発明はこれに限らず、
1色又は3色以上のLEDを用意し、これらを感情に応
じて所定の発光パターンで発光させるようにしても良
い。
が強ければ強いほどLED19の点滅周期を速くするよ
うにした場合について述べたが、本発明はこれに限ら
ず、感情が強ければ強いほどLED19の発光輝度を上
げるようにしても良く、要は、感情の強さに応じてLE
D19の発光パターンを変化させるようにするのであれ
ば、その発光パターンとしてはこの他種々の発光パター
ンを適用することができる。
状況や外部入力を検出する外部センサとしてCCDカメ
ラ15、マイクロホン16及びタッチセンサ17を適用
するようにした場合について述べたが、本発明はこれに
限らず、要は、外部状況や外部入力を検出することがで
きるのであれば、外部センサとしてはこれらに加え又は
これらに代えてこの他種々のセンサを広く適用すること
ができる。
トロボット1において制御プログラムを記録する記録媒
体としてメモリ10Aを適用するようにした場合につい
て述べたが、本発明はこれに限らず、要は制御プログラ
ムを記録し、これを再生することができるものであれ
ば、記録媒体としてはこの他種々のものを広く適用する
ことができる。
チセンサ17をペットロボット1の頭部ユニット4の上
部に配設するようにした場合について述べたが、本発明
はこれに限らず、この他の場所に配置するようにしても
良い。ただしこのようにタッチセンサ17をペットロボ
ット1の頭部の額や頭頂に配設することによって、実験
的及び経験的にも、ペットロボット1とユーザとのコミ
ュニケーションが図りやすく、ユーザがペットロボット
1に対して感情移入をし易くすることができるという利
点がある。
ザからの「叩く」や「撫でる」といった働きかけを検出
する手段としてタッチセンサ17を適用するようにした
場合について述べたが、本発明はこれに限らず、例えば
タッチセンサ17に代えて単なるスイッチを配設し、当
該スイッチのオン/オフによって「叩く」というユーザ
の働きかけを検出して、当該検出結果に基づいてLED
19を点滅させるなどしてペットロボットに感情を表現
させるようにしても良い。
装置において、外見上の目として機能する発光手段と、
外部の状況及び又は外部からの入力を検出する外部セン
サと、外部センサの出力に基づいて、感情を表現するよ
うに発光手段を点滅させる制御手段とを設けるようにし
たことにより、発光手段の発光状態に基づいてユーザが
当該ロボット装置の感情を容易に認識することができ
る。かくするにつきユーザとのコミュニケーションを円
滑に行うことができ、かくしてエンターテイメント性を
より一層向上させ得るロボット装置を実現できる。
機能する発光手段と、外部の状況及び又は外部からの入
力を検出する外部センサとを有するロボット装置の制御
方法において、外部センサの出力に基づいて外部の状況
及び又は外部からの入力を認識する第1のステップと、
認識結果に基づいて、感情を表現するように発光手段を
点滅させる第2のステップとを設けるようにしたことに
より、ユーザがロボット装置の発光手段の発光状態に基
づいてユーザが当該ロボット装置の感情を容易に認識す
ることができる。かくするにつきユーザとロボット装置
とのコミュニケーションを円滑化させることができ、か
くしてエンターテイメント性をより一層向上させ得るロ
ボット装置の制御方法を実現できる。
て機能する発光手段と、外部の状況及び又は外部からの
入力を検出する外部センサとを有するロボット装置の制
御プログラムが記録された記録媒体において、外部セン
サの出力に基づいて外部の状況及び又は外部からの入力
を認識する第1のステップと、当該認識結果に基づい
て、感情を表現するように発光手段を点滅させる第2の
ステップとを有する制御プログラムを記録するようにし
た。この結果この記録媒体に記録された制御プログラム
によれば、ユーザがロボット装置の発光手段の発光状態
に基づいてユーザが当該ロボット装置の感情を容易に認
識することができることから、ユーザとロボット装置と
のコミュニケーションを円滑化させることができ、かく
してユーザとロボット装置とのコミュニケーションを円
滑化させることができ、かくしてロボット装置のエンタ
ーテイメント性をより一層向上させ得る記録媒体を実現
できる。
す斜視図である。
る。
である。
る。
半透明カバー、10……コントローラ、10A……メモ
リ、15……CCDカメラ、16……マイクロホン、1
7……タッチセンサ、19……LED、19R1 、19
R2 ……赤色LED、19G1 、19G2 ……緑色LE
D、211 〜21n ……アクチュエータ、30……状態
認識部、31……感情・本能モデル部、32……行動決
定部、33……行動生成部、40……状態遷移表、S3
……音声信号、S4……LED駆動信号、S10……状
態認識情報、S11……行動決定情報、S12(S12
1 〜S12n )……駆動信号。
Claims (18)
- 【請求項1】外見上の目として機能する発光手段と、 外部の状況及び又は外部からの入力を検出する外部セン
サと、 上記外部センサの出力に基づいて、感情を表現するよう
に上記発光手段を点滅させる制御手段とを具えることを
特徴とするロボット装置。 - 【請求項2】上記発光手段は、発光ダイオードでなるこ
とを特徴とする請求項1に記載のロボット装置。 - 【請求項3】上記制御手段は、 上記発光手段の点滅パターンによって上記感情の強さを
表現することを特徴とする請求項1に記載のロボット装
置。 - 【請求項4】それぞれ異なる色で発光する複数の上記発
光手段を具え、 上記制御手段は、 点滅させる上記発光手段の上記色によって上記感情を表
現することを特徴とする請求項1に記載のロボット装
置。 - 【請求項5】可動部と、 上記可動部を駆動する駆動手段とを具え、 上記制御手段は、 上記発光手段の点滅に加えて、上記駆動手段を制御して
上記可動部を所定パターンで駆動させることにより、上
記感情を表現することを特徴とする請求項1に記載のロ
ボット装置。 - 【請求項6】上記制御手段は、 上記外部センサの出力に基づいて、予め保持している感
情をモデル化した感情モデルを更新し、 当該更新した感情モデルに基づいて感情を決定し、 決定した上記感情を表現するように上記発光手段を点滅
させることを特徴とする請求項1に記載のロボット装
置。 - 【請求項7】上記発光手段は、 表現する上記感情に応じた複数形状の発光部を有し、又
は表現する上記感情に応じた複数形状を表示することを
特徴とする請求項1に記載のロボット装置。 - 【請求項8】上記ロボット装置は、頭部を有し、 上記発光手段は、 上記頭部に配置されると共に、半透明なカバーで覆われ
たことを特徴とする請求項1に記載のロボット装置。 - 【請求項9】外見上の目として機能する発光手段と、外
部の状況及び又は外部からの入力を検出する外部センサ
とを有するロボット装置の制御方法において、 上記外部センサの出力に基づいて上記外部の状況及び又
は上記外部からの入力を認識する第1のステップと、 上記認識結果に基づいて、感情を表現するように上記発
光手段を点滅させる第2のステップとを具えることを特
徴とするロボット装置の制御方法。 - 【請求項10】上記第2のステップでは、 上記発光手段の点滅パターンによって上記感情の強さを
表現することを特徴とする請求項9に記載のロボット装
置の制御方法。 - 【請求項11】上記ロボット装置は、それぞれ異なる色
で発光する複数の上記発光手段を具え、 上記第2のステップでは、 点滅させる上記発光手段の上記色によって上記感情を表
現することを特徴とする請求項9に記載のロボット装置
の制御方法。 - 【請求項12】上記ロボット装置は、 可動部と、 上記可動部を駆動する駆動手段とを具え、 上記第2ステップでは、 上記発光手段の点滅に加えて、上記駆動手段を制御して
上記可動部を所定パターンで駆動させることにより、上
記感情を表現することを特徴とする請求項9に記載のロ
ボット装置の制御方法。 - 【請求項13】上記第2のステップでは、 上記外部センサの出力に基づいて、予め保持している感
情をモデル化した感情モデルを更新し、 当該更新した感情モデルに基づいて感情を決定し、 決定した上記感情を表現するように上記発光手段を点滅
させることを特徴とする請求項9に記載のロボット装置
の制御方法。 - 【請求項14】外見上の目として機能する発光手段と、
外部の状況及び又は外部からの入力を検出する外部セン
サとを有するロボット装置の制御プログラムが記録され
た記録媒体において、 上記外部センサの出力に基づいて上記外部の状況及び又
は上記外部からの入力を認識する第1のステップと、 当該認識結果に基づいて、感情を表現するように上記発
光手段を点滅させる第2のステップとを具える上記制御
プログラムが記録されたことを特徴とする記録媒体。 - 【請求項15】上記第2のステップでは、 上記発光手段の点滅パターンによって上記感情の強さを
表現することを特徴とする請求項14に記載の記録媒
体。 - 【請求項16】上記ロボット装置は、それぞれ異なる色
で発光する複数の上記発光手段を具え、 上記第2のステップでは、 点滅させる上記発光手段の上記色によって上記感情を表
現することを特徴とする請求項14に記載の記録媒体。 - 【請求項17】上記ロボット装置は、 可動部と、 上記可動部を駆動する駆動手段とを具え、 上記第2ステップでは、 上記発光手段の点滅に加えて、上記駆動手段を制御して
上記可動部を所定パターンで駆動させることにより、上
記感情を表現することを特徴とする請求項14に記載の
記録媒体。 - 【請求項18】上記第2のステップでは、 上記第1のステップでの上記認識結果に基づいて、予め
保持している感情をモデル化した感情モデルを更新し、 当該更新した感情モデルに基づいて感情を決定し、 決定した上記感情を表現するように上記発光手段を点滅
させることを特徴とする請求項14に記載の記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000135146A JP3277500B2 (ja) | 1999-05-10 | 2000-05-08 | ロボット装置 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11-129279 | 1999-05-10 | ||
JP12927999 | 1999-05-10 | ||
JP2000135146A JP3277500B2 (ja) | 1999-05-10 | 2000-05-08 | ロボット装置 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001111837A Division JP2001353674A (ja) | 1999-05-10 | 2001-04-10 | ロボット装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001025984A true JP2001025984A (ja) | 2001-01-30 |
JP3277500B2 JP3277500B2 (ja) | 2002-04-22 |
Family
ID=26464725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000135146A Expired - Fee Related JP3277500B2 (ja) | 1999-05-10 | 2000-05-08 | ロボット装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3277500B2 (ja) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002229606A (ja) * | 2001-01-31 | 2002-08-16 | Nec Corp | 状態遷移モデル実行装置、状態遷移モデル実行方法、およびプログラム |
JP2002239256A (ja) * | 2001-02-14 | 2002-08-27 | Sanyo Electric Co Ltd | 自動応答玩具における感情決定装置および自動応答玩具 |
WO2002065825A2 (fr) * | 2001-02-21 | 2002-08-29 | Sony Corporation | Robot et procede de commande du fonctionnement dudit robot |
WO2002074502A1 (fr) * | 2001-03-16 | 2002-09-26 | Kabushiki Kaisha Bandai | Dispositif de commande de robot et son procede |
JP2003060745A (ja) * | 2001-08-22 | 2003-02-28 | Sony Corp | 情報伝達装置、情報伝達方法及びモニタ装置 |
KR100458079B1 (ko) * | 2001-11-23 | 2004-11-18 | (주)로보티즈 | 감정 표현 로보트 |
US6865446B2 (en) | 2001-02-21 | 2005-03-08 | Sony Corporation | Robot device and method of controlling robot device operation |
JP2010070171A (ja) * | 2008-09-22 | 2010-04-02 | Denso It Laboratory Inc | 車載機器の制御装置及び制御方法 |
WO2014081813A1 (en) * | 2012-11-21 | 2014-05-30 | SomniQ, Inc. | Devices, systems, and methods for empathetic computing |
WO2017187620A1 (ja) * | 2016-04-28 | 2017-11-02 | 富士通株式会社 | ロボット |
USD806711S1 (en) | 2015-12-11 | 2018-01-02 | SomniQ, Inc. | Portable electronic device |
US9946351B2 (en) | 2015-02-23 | 2018-04-17 | SomniQ, Inc. | Empathetic user interface, systems, and methods for interfacing with empathetic computing device |
WO2018135502A1 (ja) * | 2017-01-20 | 2018-07-26 | シャープ株式会社 | 家電機器および家電制御システム |
JP2018124399A (ja) * | 2017-01-31 | 2018-08-09 | 富士フイルム株式会社 | ディスプレイ及びロボット |
US10222875B2 (en) | 2015-12-11 | 2019-03-05 | SomniQ, Inc. | Apparatus, system, and methods for interfacing with a user and/or external apparatus by stationary state detection |
JP2019510288A (ja) * | 2016-03-28 | 2019-04-11 | 浙江吉利控股集団有限公司Zhejiang Geely Holding Group Co.,Ltd. | 盗難防止監視装置、システム及び方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006198017A (ja) * | 2005-01-18 | 2006-08-03 | Sega Toys:Kk | ロボット玩具 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57100993U (ja) * | 1980-12-12 | 1982-06-21 | ||
JPS63192423A (ja) * | 1987-02-04 | 1988-08-09 | 株式会社 ナムコ | 感情表現玩具 |
JPH05346766A (ja) * | 1992-06-16 | 1993-12-27 | Omron Corp | 照光表示器 |
JPH0633205U (ja) * | 1992-09-29 | 1994-04-28 | 神鋼電機株式会社 | ロボットの表示装置 |
JPH09313743A (ja) * | 1996-05-31 | 1997-12-09 | Oki Electric Ind Co Ltd | 疑似生物機器の表情形成機構 |
JPH10289006A (ja) * | 1997-04-11 | 1998-10-27 | Yamaha Motor Co Ltd | 疑似感情を用いた制御対象の制御方法 |
-
2000
- 2000-05-08 JP JP2000135146A patent/JP3277500B2/ja not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57100993U (ja) * | 1980-12-12 | 1982-06-21 | ||
JPS63192423A (ja) * | 1987-02-04 | 1988-08-09 | 株式会社 ナムコ | 感情表現玩具 |
JPH05346766A (ja) * | 1992-06-16 | 1993-12-27 | Omron Corp | 照光表示器 |
JPH0633205U (ja) * | 1992-09-29 | 1994-04-28 | 神鋼電機株式会社 | ロボットの表示装置 |
JPH09313743A (ja) * | 1996-05-31 | 1997-12-09 | Oki Electric Ind Co Ltd | 疑似生物機器の表情形成機構 |
JPH10289006A (ja) * | 1997-04-11 | 1998-10-27 | Yamaha Motor Co Ltd | 疑似感情を用いた制御対象の制御方法 |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002229606A (ja) * | 2001-01-31 | 2002-08-16 | Nec Corp | 状態遷移モデル実行装置、状態遷移モデル実行方法、およびプログラム |
JP2002239256A (ja) * | 2001-02-14 | 2002-08-27 | Sanyo Electric Co Ltd | 自動応答玩具における感情決定装置および自動応答玩具 |
WO2002065825A2 (fr) * | 2001-02-21 | 2002-08-29 | Sony Corporation | Robot et procede de commande du fonctionnement dudit robot |
WO2002065825A3 (fr) * | 2001-02-21 | 2002-11-07 | Sony Corp | Robot et procede de commande du fonctionnement dudit robot |
US6865446B2 (en) | 2001-02-21 | 2005-03-08 | Sony Corporation | Robot device and method of controlling robot device operation |
WO2002074502A1 (fr) * | 2001-03-16 | 2002-09-26 | Kabushiki Kaisha Bandai | Dispositif de commande de robot et son procede |
JP2003060745A (ja) * | 2001-08-22 | 2003-02-28 | Sony Corp | 情報伝達装置、情報伝達方法及びモニタ装置 |
KR100458079B1 (ko) * | 2001-11-23 | 2004-11-18 | (주)로보티즈 | 감정 표현 로보트 |
JP2010070171A (ja) * | 2008-09-22 | 2010-04-02 | Denso It Laboratory Inc | 車載機器の制御装置及び制御方法 |
US9830005B2 (en) | 2012-11-21 | 2017-11-28 | SomniQ, Inc. | Devices, systems, and methods for empathetic computing |
WO2014081813A1 (en) * | 2012-11-21 | 2014-05-30 | SomniQ, Inc. | Devices, systems, and methods for empathetic computing |
US9218055B2 (en) | 2012-11-21 | 2015-12-22 | SomniQ, Inc. | Devices, systems, and methods for empathetic computing |
US9946351B2 (en) | 2015-02-23 | 2018-04-17 | SomniQ, Inc. | Empathetic user interface, systems, and methods for interfacing with empathetic computing device |
US10409377B2 (en) | 2015-02-23 | 2019-09-10 | SomniQ, Inc. | Empathetic user interface, systems, and methods for interfacing with empathetic computing device |
US10222875B2 (en) | 2015-12-11 | 2019-03-05 | SomniQ, Inc. | Apparatus, system, and methods for interfacing with a user and/or external apparatus by stationary state detection |
USD940136S1 (en) | 2015-12-11 | 2022-01-04 | SomniQ, Inc. | Portable electronic device |
USD806711S1 (en) | 2015-12-11 | 2018-01-02 | SomniQ, Inc. | Portable electronic device |
USD864961S1 (en) | 2015-12-11 | 2019-10-29 | SomniQ, Inc. | Portable electronic device |
JP2019510288A (ja) * | 2016-03-28 | 2019-04-11 | 浙江吉利控股集団有限公司Zhejiang Geely Holding Group Co.,Ltd. | 盗難防止監視装置、システム及び方法 |
US10937288B2 (en) | 2016-03-28 | 2021-03-02 | Zhejiang Geely Holding Group Co., Ltd. | Theft prevention monitoring device and system and method |
JPWO2017187620A1 (ja) * | 2016-04-28 | 2018-11-22 | 富士通株式会社 | ロボット |
WO2017187620A1 (ja) * | 2016-04-28 | 2017-11-02 | 富士通株式会社 | ロボット |
US11331808B2 (en) | 2016-04-28 | 2022-05-17 | Fujitsu Limited | Robot |
WO2018135502A1 (ja) * | 2017-01-20 | 2018-07-26 | シャープ株式会社 | 家電機器および家電制御システム |
JP2018124399A (ja) * | 2017-01-31 | 2018-08-09 | 富士フイルム株式会社 | ディスプレイ及びロボット |
Also Published As
Publication number | Publication date |
---|---|
JP3277500B2 (ja) | 2002-04-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2000068879A1 (fr) | Dispositif robot, son procede de commande et support d'enregistrement | |
JP3277500B2 (ja) | ロボット装置 | |
US6519506B2 (en) | Robot and control method for controlling the robot's emotions | |
WO2001039932A1 (fr) | Robot, son procede de commande et procede d'appreciation du caractere du robot | |
JP2003039363A (ja) | ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体 | |
US6512965B2 (en) | Robot and control method for entertainment | |
JP2001191276A (ja) | ロボットシステム、ロボット装置及びその外装 | |
JP2001038663A (ja) | マシンの制御システム | |
JP2001191281A (ja) | 編集装置、編集方法及び記録媒体 | |
US20080058988A1 (en) | Robots with autonomous behavior | |
JP2001353674A (ja) | ロボット装置 | |
JP4524524B2 (ja) | ロボット装置及びその制御方法 | |
JP2001157980A (ja) | ロボット装置及びその制御方法 | |
JP2001157979A (ja) | ロボット装置及びその制御方法 | |
JP2001154707A (ja) | ロボット装置及びその制御方法 | |
JP2001157982A (ja) | ロボット装置及びその制御方法 | |
JP2001157981A (ja) | ロボット装置及びその制御方法 | |
JP4411503B2 (ja) | ロボット装置及びその制御方法 | |
JP2001157983A (ja) | ロボット装置及びロボット装置の性格判別方法 | |
JP4385281B2 (ja) | ロボット装置及びその制御方法 | |
JP2003208161A (ja) | ロボット装置及びその制御方法 | |
JP4419035B2 (ja) | ロボット装置及びその制御方法 | |
JP4296702B2 (ja) | 動作表出装置及び玩具 | |
WO2023037608A1 (ja) | 自律移動体、情報処理方法、及び、プログラム | |
JP2004130426A (ja) | ロボット装置及びその動作制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080215 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090215 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100215 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100215 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110215 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120215 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130215 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |