JP2001277166A - ロボット及びロボットの行動決定方法 - Google Patents

ロボット及びロボットの行動決定方法

Info

Publication number
JP2001277166A
JP2001277166A JP2000101349A JP2000101349A JP2001277166A JP 2001277166 A JP2001277166 A JP 2001277166A JP 2000101349 A JP2000101349 A JP 2000101349A JP 2000101349 A JP2000101349 A JP 2000101349A JP 2001277166 A JP2001277166 A JP 2001277166A
Authority
JP
Japan
Prior art keywords
user
information
action
robot
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000101349A
Other languages
English (en)
Inventor
Takeshi Takagi
剛 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000101349A priority Critical patent/JP2001277166A/ja
Priority to DE60111677T priority patent/DE60111677T2/de
Priority to EP01302886A priority patent/EP1151779B1/en
Priority to US09/821,679 priority patent/US6539283B2/en
Priority to KR1020010016957A priority patent/KR20010095176A/ko
Priority to CN01119267A priority patent/CN1103659C/zh
Publication of JP2001277166A publication Critical patent/JP2001277166A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H30/00Remote-control arrangements specially adapted for toys, e.g. for toy vehicles
    • A63H30/02Electrical arrangements
    • A63H30/04Electrical arrangements using wireless transmission
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H11/00Self-movable toy figures
    • A63H11/18Figure toys which perform a realistic walking motion
    • A63H11/20Figure toys which perform a realistic walking motion with pairs of legs, e.g. horses
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63HTOYS, e.g. TOPS, DOLLS, HOOPS OR BUILDING BLOCKS
    • A63H2200/00Computerized interactive toys, e.g. dolls

Abstract

(57)【要約】 【課題】 使用者毎に異なった反応を示す。 【解決手段】 ロボット装置1は、使用者の情報を検出
するセンサ101と、センサ101が検出した使用者の
情報に基づいて、識別可能な複数の使用者から一の使用
者を識別する使用者識別部120と、使用者識別部12
0が識別した一の使用者に対応した行動を出現させる行
動制御手段とされる行動計画部130、行動命令実行部
103及び出力部104とを備える。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ロボット及び、ロ
ボットの行動を決定する行動決定方法に関する。
【0002】
【従来の技術】近年、周囲の情報(外的要因)や内部の
情報(内的要因)に応じて自律的に行動するロボットが
提案されている。例えば、このようなロボットとして
は、動物を模したロボット装置であるいわゆるペットロ
ボット、模擬生物、或いはコンピュータシステムのディ
スプレイ等に表示される仮想生物等が挙げられる。
【0003】上述のロボット装置等は、例えば使用者の
発した言葉或いは命令に応じて、自律的に行動をするこ
とができる。例えば、特開平10−289006号公報には、疑
似感情に基づいて行動を決定する技術が開示されてい
る。
【0004】
【発明が解決しようとする課題】ところで、従来のロボ
ット装置等では、使用者毎に対応は同じであった。すな
わち、ロボット装置等は、使用者が異なっても反応は一
律であり、使用者毎に反応が変化することはなかった。
【0005】ロボット装置等が、使用者を識別し、使用
者毎に異なる反応を示すようになれば、各使用者毎のイ
ンタラクションによる反応を楽しむことができる。
【0006】そこで、本発明は、上述の実情に鑑みてな
されたものであり、使用者毎に異なった反応を示すロボ
ット及びロボットの行動決定方法の提供を目的とする。
【0007】
【課題を解決するための手段】本発明に係るロボット
は、上述の課題を解決するために、使用者の情報を検出
する検出手段と、検出手段が検出した使用者の情報に基
づいて、識別可能な複数の使用者から一の使用者を識別
する識別手段と、識別手段が識別した一の使用者に対応
した行動を出現させる行動制御手段とを備える。
【0008】このような構成を備えたロボットは、検出
手段が検出した使用者の情報に基づいて、識別可能な複
数の使用者から一の使用者を識別手段により識別し、識
別手段が識別した一の使用者に対応した行動を行動制御
手段により出現させる。
【0009】これによりロボットは、複数の識別可能な
使用者から一の使用者を識別して、当該一の使用者に応
じた反応を示す。
【0010】また、本発明に係るロボットの行動決定方
法は、上述の課題を解決するために、検出手段が検出し
た使用者の情報に基づいて、識別可能な複数の使用者か
ら一の使用者を識別し、識別した一の使用者に対応した
行動を出現させる。
【0011】このロボットの行動決定方法により、ロボ
ットは、複数の識別可能な使用者から一の使用者を識別
して、当該一の使用者に応じた反応を示す。
【0012】
【発明の実施の形態】以下、本発明に係る実施の形態に
ついて図面を用いて詳しく説明する。この実施の形態
は、本発明を、周囲の情報や内部の情報(自己の情報)
に応じて、自律的に行動するロボット装置に適用したも
のである。
【0013】実施の形態では、先ず、ロボット装置の構
成について説明して、その後、ロボット装置における本
発明の適用部分について詳細に説明する。
【0014】(1)本実施の形態によるロボット装置の
構成 図1に示すように、「犬」を模した形状のいわゆるペッ
トロボットとされ、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A,3B,3C,3Dが連結される
と共に、胴体部ユニット2の前端部及び後端部にそれぞ
れ頭部ユニット4及び尻尾部ユニット5が連結されて構
成されている。
【0015】胴体部ユニット2には、図2に示すよう
に、CPU(Central Processing Unit)10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read 0nly Memory)12、PC(Personal Co
mputer)カードインターフェース回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このロボット
装置1の動力源としてのバッテリ17とが収納されてい
る。また胴体部ユニット2には、ロボット装置1の向き
や動きの加速度を検出するための角速度センサ18及び
加速度センサ19なども収納されている。
【0016】また、頭部ユニット4には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラ20と、使用者からの「撫でる」や「叩く」といった
物理的な働きかけにより受けた圧力を検出するためのタ
ッチセンサ21と、前方に位置する物体までの距離を測
定するための距離センサ22と、外部音を集音するため
のマイクロホン23と、鳴き声等の音声を出力するため
のスピーカ24と、ロボット装置1の「目」に相当する
LED(Light Emitting Diode)(図示せず)となどが
それぞれ所定位置に配置されている。
【0017】さらに、各脚部ユニット3A〜3Dの関節
部分や各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部
分などにはそれぞれ自由度数分のアクチュエータ251
〜25n及びポテンショメータ261〜26nが配設され
ている。
【0018】そして、これら角速度センサ18、加速度
センサ19、タッチセンサ21、距離センサ22、マイ
クロホン23、スピーカ24及び各ポテンショメータ2
1〜26nなどの各種センサ並びにLED及び各アクチ
ュエータ251 〜25nは、それぞれ対応するハブ271
〜27nを介してコントロール部16の信号処理回路1
4と接続され、CCDカメラ20及びバッテリ17は、
それぞれ信号処理回路14と直接接続されている。
【0019】信号処理回路l4は、上述の各センサから
供給されるセンサデータや画像データ及び音声データを
順次取り込み、これらをそれぞれ内部バス15を介して
DRAM11内の所定位置に順次格納する。また信号処
理回路14は、これと共にバッテリ17から供給される
バッテリ残量を表すバッテリ残量データを順次取り込
み、これをDRAM11内の所定位置に格納する。
【0020】このようにしてDRAM11に格納された
各センサデータ、画像データ、音声データ及びバッテリ
残量データは、この後CPU10がこのロボット装置1
の動作制御を行う際に利用される。
【0021】実際上CPU10は、ロボット装置1の電
源が投入された初期時、胴体部ユニット2の図示しない
PCカードスロットに装填されたメモリカード28又は
フラッシュROM12に格納された制御プログラムをP
Cカードインターフェース回路13を介して又は直接読
み出し、これをDRAM11に格納する。
【0022】また、CPU10は、この後上述のように
信号処理回路14よりDRAM11に順次格納される各
センサデータ、画像データ、音声データ及びバッテリ残
量データに基づいて自己及び周囲の状況や、使用者から
の指示及び働きかけの有無などを判断する。
【0023】さらにCPU10は、この判断結果及びD
RAM11に格納しだ制御プログラムに基づいて続く行
動を決定すると共に、当該決定結果に基づいて必要なア
クチュエータ251〜25nを駆動させることにより、頭
部ユニット4を上下左右に振らせたり、尻尾部ユニット
5の尻尾5Aを動かせたり、各脚部ユニット3A〜3D
を駆動させて歩行させるなどの行動を行わせる。
【0024】またこの際CPU10は、必要に応じて音
声データを生成し、これを信号処理回路14を介して音
声信号としてスピーカ24に与えることにより当該音声
信号に基づく音声を外部に出力させたり、上述のLED
を点灯、消灯又は点滅させる。
【0025】このようにしてこのロボット装置1におい
ては、自己及び周囲の状況や、使用者からの指示及び働
きかけに応じて自律的に行動し得るようになされてい
る。
【0026】(2)制御プログラムのソフトウェア構成 ここでロボット装置1における上述の制御プログラムの
ソフトウェア構成は、図3に示すようになる。この図3
において、デバイス・ドライバ・レイヤ30は、この制
御プログラムの最下位層に位置し、複数のデバイス・ド
ライバからなるデバイス・ドライバ・セット31から構
成されている。この場合各デバイス・ドライバは、CC
Dカメラ20(図2)やタイマ等の通常のコンピュータ
で用いられるハードウェアに直接アクセスするごとを許
されたオブジェクトであり、対応するハードウェアから
の割り込みを受けて処理を行う。
【0027】また、ロボティック・サーバ・オブジェク
ト32は、デバイス・ドライバ・レイヤ30の最下位層
に位置し、例えば上述の各種センサやアクチュエータ2
1〜25n等のハードウェアにアクセスするためのイン
ターフェースを提供するソフトウェア群でなるバーチャ
ル・ロボット33と、電源の切換えなどを管理するソフ
トウェア群でなるバワーマネージャ34と、他の種々の
デバイス・ドライバを管理するソフトウェア群でなるデ
バイス・ドライバ・マネージャ35と、ロボット装置1
の機構を管理するソフトウェア群でなるデザインド・ロ
ボット36とから構成されている。
【0028】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。この場合オブジェクト・マネージ
ャ38は、ロボティック・サーバ・オブジェクト32、
ミドル・ウェア・レイヤ40、及びアプリケーション・
レイヤ41に含まれる各ソフトウェア群の起動や終了を
管理するソフトウェア群であり、サービス・マネージャ
39は、メモリカード28(図2)に格納されたコネク
ションファイルに記述されている各オブジェクト間の接
続情報に基づいて各オブジェクトの接続を管理するソフ
トウェア群である。
【0029】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ41は、ミドル・ウェア
・レイヤ40の上位層に位置し、当該ミドル・ウェア・
レイヤ40を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。
【0030】なお、ミドル・ウェア・レイヤ40及びア
プリケーション・レイヤ41の具体なソフトウェア構成
をそれぞれ図4に示す。
【0031】ミドル・ウェア・レイヤ40においては、
図4に示すように、騒音検出用、温度検出用、明るさ検
出用、音階認識用、距離検出用、姿勢検出用、タッチセ
ンサ用、動き検出用及び色認識用の各信号処理モジュー
ル50〜58並びに入力セマンティクスコンバータモジ
ュール59などを有する認識系60と、出力セマンティ
クスコンバータモジュール68並びに姿勢管理用、トラ
ッキング用、モーション再生用、歩行用、転倒復帰用、
LED点灯用及び音再生用の各信号処理モジュール61
〜67などを有する認識系69とから構成されている。
【0032】認識系60の各信号処理モジュール50〜
58は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33によりDRAM11(図2)か
ら読み出される各センサデータや画像データ及び音声デ
ータのうちの対応するデータを取り込み、当該データに
基づいて所定の処理を施して、処理結果を入力セマンテ
ィクスコンバータモジュール59に与える。ここで、例
えば、バーチャル・ロボット33は、所定の通信規約に
よって、信号の授受或いは変換をする部分として構成さ
れている。
【0033】入力セマンティクスコンパータモジュール
59は、これら各信号処理モジュール50〜58から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、使用者か
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41(図2)に出力する。
【0034】アプリケーション・レイヤ4lにおいて
は、図5に示すように、行動モデルライブラリ70、行
動切換えモジュール71、学習モジュール72、感情モ
デル73及び本能モデル74の5つのモジュールから構
成されている。
【0035】行動モデルライブラリ70には、図6に示
すように、「バッテリ残量が少なくなった場合」、「転
倒復帰する」、「障害物を回避する場合」、「感情を表
現する楊命」、「ボールを検出した場合」などの予め選
択されたいくつかの条件項目にそれぞれ対応させて、そ
れぞれ独立した行動モデル701〜70nが設けられてい
る。
【0036】そして、これら行動モデル701〜70
nは、それぞれ入力セマンティクスコンバータモジュー
ル59から認識結果が与えられたときや、最後の認識結
果が与えられてから一定時間が経過したときなどに、必
要に応じて後述のように感情モデル73に保持されてい
る対応する情動のバラメータ値や、本能モデル74に保
持されている対応する欲求のパラメータ値を参照しなが
ら続く行動をそれぞれ決定し、決定結果を行動切換えモ
ジュール71に出力する。
【0037】なお、この実施の形態の場合、各行動モデ
ル701〜70nは、次の行動を決定する手法として、図
7に示すような1つのノード(状態)NODE0〜NO
DEnから他のどのノードNODE0〜NODEnに遷移
するかを各ノードNODE0〜NODEnに間を接続する
アークARC1〜ARCn 1に対してそれぞれ設定された
遷移確率P1〜Pnに基づいて確率的に決定する有限確率
オートマトンと呼ばれるアルゴリズムを用いる。
【0038】具体的に、各行動モデル701〜70nは、
それぞれ自己の行動モデル701〜70nを形成するノー
ドNODE0〜NODEnにそれぞれ対応させて、これら
ノードNODE0〜NODEnごとに図8に示すような状
態遷移表80を有している。
【0039】この状態遷移表80では、そのノードNO
DE0〜NODEnにおいて遷移条件とする入力イベント
(認識結果)が「入力イベント名」の行に優先順に列記
され、その遷移条件についてのさらなる条件が「データ
名」及び「データ範囲」の行における対応する列に記述
されている。
【0040】したがって、図8の状態遷移表80で表さ
れるノードNODE100では、「ボールを検出(BAL
L)」という認識結果が与えられた場合に、当該認識結
果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物
を検出(OBSTACLE)」という認識結果が与えら
れた場合に、当該認識結果と共に与えられるその障害物
までの「距離(DISTANCE)」が「0から100」の
範囲であることが他のノードに遷移するための条件とな
っている。
【0041】また、このノードNODE100では、認識
結果の入力がない場合においても、行動モデル701
70nが周期的に参照する感情モデル73及び本能モデ
ル74にそれぞれ保持された各情動及び各欲求のパラメ
ータ値のうち、感情モデル73に保持された「喜び(J
OY)」、「驚き(SURPRISE)」若しくは「悲
しみ(SUDNESS)」のいずれかのパラメータ値が
「50から100」の範囲であるときには他のノードに遷移
することができるようになっている。
【0042】また、状態遷移表80では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の列にそ
のノードNODE0〜 NODEnから遷移できるノード
名が列記されていると共に、「入力イベント名」、「デ
ータ値」及び「データの範囲」の行に記述された全ての
条件が揃ったときに遷移できる他の各ノードNODE0
〜NODEnへの遷移確率が「他のノードヘの遷移確
率」の欄内の対応する箇所にそれぞれ記述され、そのノ
ードNODE0〜NODEnに遷移する際に出力すべき行
動が「他のノードヘの遷移確率」の欄における「出力行
動」の行に記述されている。なお、「他のノードヘの遷
移確率」の欄における各行の確率の和は100[%]と
なっている。
【0043】したがって、図8の状態遷移表80で表さ
れるノードNODE100 では、例えば「ボールを検出
(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「AC
TION1」の行動が出力されることとなる。
【0044】各行動モデル701〜70nは、それぞれこ
のような状態遷移表80として記述されたノードNOD
0〜 NODEnがいくつも繋がるようにして構成され
ており、入力セマンティクスコンバータモジュール59
から認識結果が与えられたときなどに、対応するノード
NODE0〜NODEnの状態遷移表を利用して確率的に
次の行動を決定し、決定結果を行動切換えモジュール7
1に出力するようになされている。
【0045】なお、後述する使用者認識システムでは、
このような有限確率オートマトンによって行動情報を構
築する行動モデルを、使用者毎に異なるものとして有し
ており、ロボット装置1は、識別した一の使用者に対応
する行動モデル(有限確率オートマトン)によって行動
を決定している。そして、例えば、ノード間の遷移確率
を変化させることにより、識別した使用者毎の行動の違
いをだしている。
【0046】行動切換えモジュール71は、行動モデル
ライブラリ70の各行動モデル701〜70nからそれぞ
れ出力される行動のうち、予め定められた優先順位の高
い行動モデル701〜70nから出力された行動を選択
し、当該行動を実行すべき旨のコマンド(以下、これを
行動コマンドという。)をミドル・ウェア・レイヤ40
の出力セマンティクスコンバータモジュール68に送出
する。なお、この実施の形態においては、図6において
下側に表記された行動モデル701〜70nほど優先順位
が高く設定されている。
【0047】また、行動切換えモジュール71は、行動
完了後に出力セマンティクスコンバータモジュール68
から与えられる行動完了情報に基づいて、その行動が完
了したことを学習モジュール72、感情モデル73及び
本能モデル74に通知する。
【0048】一方、学習モジュール72は、入力セマン
ティクスコンバータモジュール59から与えられる認識
結果のうち、「叩かれた」や「撫でられた」など、使用
者からの働きかけとして受けた教示の認識結果を入力す
る。
【0049】そして、学習モジュール72は、この認識
結果及び行動切換えモジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデル701〜7
nの対応する遷移確率を変更する。
【0050】他方、感情モデル73は、「喜び(jo
y)」、「悲しみ(sadness)」、「怒り(anger)」、
「驚き(surprise)」、「嫌悪(disgust)」及び「恐
れ(fear)」の合計6つの情動について、各情動ごとに
その情動の強さを表すパラメータを保持している。そし
て、感情モデル73は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
59から与えられる「叩かれた」及び「撫でられた」な
どの特定の認識結果と、経過時間及び行動切換えモジュ
ール71からの通知となどに基づいて周期的に更新す
る。
【0051】具体的には、感情モデル73は、入力セマ
ンティクスコンバータモジュール59から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間となどに基づいて所定の演算式に
より算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkeとして、(1)式によっ
て次の周期におけるその情動のパラメータ値E[t+
1]を算出し、これを現在のその情動のパラメータ値E
[t]と置き換えるようにしてその情動のパラメータ値
を更新する。また、感情モデル73は、これと同様にし
て全ての情動のパラメータ値を更新する。
【0052】
【数1】
【0053】なお、各認識結果や出力セマンティクスコ
ンバータモジュール68からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
【0054】ここで、出力セマンティクスコンバータモ
ジュール68からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル73は、このような情報によっ
ても感情を変化させる。これは、例えば、「吠える」と
いった行動により怒りの感情レベルが下がるといったよ
うなことである。なお、出力セマンティクスコンバータ
モジュール68からの通知は、上述し学習モジュール7
2にも入力されており、学習モジュール72は、その通
知に基づいて行動モデル701〜70nの対応する遷移確
率を変更する。
【0055】なお、行動結果のフィードバックは、行動
切換えモジュレータ71の出力(感情が付加された行
動)によりなされるものであってもよい。
【0056】一方、本能モデル74は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求ごとにその欲求の強さを
表すパラメータを保持している。そして、本能モデル7
4は、これらの欲求のパラメータ値を、それぞれ入力セ
マンティクスコンバータモジュール59から与えられる
認識結果や、経過時間及び行動切換えモジュール71か
らの通知などに基づいて周期的に更新する。
【0057】具体的には、本能モデル74は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール68からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量をΔI[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kiとして、所定周期で(2)式を用い
て次の周期におけるその欲求のパラメータ値I[k+
1]を算出し、この演算結果を現在のその欲求のパラメ
ータ値I[k]と置き換えるようにしてその欲求のパラ
メータ値を更新する。また、本能モデル74は、これと
同様にして「食欲」を除く各欲求のパラメータ値を更新
する。
【0058】
【数2】
【0059】なお、認識結果及び出力セマンティクスコ
ンバータモジュール68からの通知などが各欲求のパラ
メータ値の変動量△I[k]にどの程度の影響を与える
かは予め決められており、例えば出力セマンティクスコ
ンバータモジュール68からの通知は、「疲れ」のパラ
メータ値の変動量△I[k]に大きな影響を与えるよう
になっている。
【0060】また、以下に示すように、パラメータ値を
決定することもできる。
【0061】例えば、「痛み」のパラメータ値を設け
る。「痛み」は、例えば、感情モデル73の「悲しみ」
に影響するものである。
【0062】この「痛み」について、ミドル・ウェア・
レイヤ40の姿勢検出用の信号処理モジュール55と、
入力セマンティクスコンバータモジュール59を介して
通知される異常姿勢の回数に基づいて、回数をNとし、
痛みの強さをK1とし、痛みが減少する速度の定数をK2
とし、(3)式により、「痛み」のパラメータ値I
[k]を算出し、この演算結果を現在の痛みのパラメー
タ値I[k]と置き換えるようにして当該「痛み」のパ
ラメータ値を変更する。ただし、I[k]<0のときは
I[k]=0、t=0、N=0とする。
【0063】
【数3】
【0064】また、「熱」のパラメータ値を設ける。こ
の「熱」については、入力セマンティクスコンバータモ
ジュール59を介して与えられる温度検出用の信号処理
モジュール51からの温度データに基づいて、温度をT
とし、外気温をT0とし、温度上昇係数K3として、
(4)式により、「熱」のパラメータ値I[k]を算出
し、この演算結果を現在の熱のパラメータ値I[k]と
置き換えるようにして当該「熱」のパラメータ値を更新
する。T−T0<0のときには、I[k]=0とする。
【0065】
【数4】
【0066】また、本能モデル74の「食欲」について
は、入力セマンティクスコンバータモジュール59を介
して与えられるバッテリ残量データ(図示しないバッテ
リ残量検出用のモジュールが得た情報)に基づいて、バ
ッテリ残量をBLとして、所定周期で、(5)式によ
り、「食欲」のパラメータ値I[k]を算出し、この演
算結果を現在の食欲パラメータ値I[k]と置き換える
ことにようにして当該「食欲」のパラメータ値を更新す
る。
【0067】
【数5】
【0068】また、「乾き」のパラメータ値を設ける。
この「乾き」については、入力セマンティクスコンバー
タモジュール59を介して与えられるバッテリ残量変化
速度に基づいて、時刻tにおけるバッテリ残量をBL
(t)とし、今時刻t1とt2でバッテリ残量データを取
得したとすると、(6)式により、「乾き」のパラメー
タ値I[k]を算出し、この演算結果を現在の乾きパラ
メータ値I[k]と置き換えるようにして当該「乾き」
のパラメータを更新する。
【0069】
【数6】
【0070】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から100ま
での範囲で変動するように規制されており、また係数k
e、kiの値も各情動及び各欲求ごとに個別に設定されて
いる。
【0071】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール68は、図4に示
すように、上述のようにしてアプリケーション・レイヤ
41の行動切換えモジュール71から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系69の対応する信号処理モジュール61〜67に与え
る。
【0072】そしてこれら信号処理モジュール61〜6
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動を行うために対応するアクチュエー
タ251〜25n(図2)に与えるべきサーボ指令値や、
スピーカ24(図2)から出力する音の音声データ及び
又は「目」のLEDに与える駆動データを生成し、これ
らのデータをロボティック・サーバ・オブジェクト32
のバーチャルロボット33及び信号処理回路14(図
2)を順次介して対応するアクチュエータ251〜25n
又はスピーカ24又はLEDに順次送出する。
【0073】このようにしてロボット装置1において
は、制御プログラムに基づいて、自己及び周囲の状況
や、使用者からの指示及び働きかけに応じた自律的な行
動を行うことができるようになされている。
【0074】(3)環境に応じた本能及び感情の変化 かかる構成に加えてこのロボット装置1の場合、例え
ば、周囲が「明るい」ときには陽気になり、これに対し
て周囲が「暗い」ときには物静かになるなど、周囲の環
境のうちの「騒音」、「温度」及び「照度」の3つの条
件(以下、環境条件という。)の度合いに応じて感情・
本能を変化させるようになされている。
【0075】すなわち、このロボット装置1には、周囲
の状況を検出するための外部センサとして、上述したC
CDカメラ20、距離センサ22、タッチセンサ21及
びマイクロホン23などに加えて周囲の温度を検出する
ための温度センサ(図示せず)が所定位置に設けられて
いる。対応する構成として、ミドル・ウェア・レイヤ4
0の認識系60には、騒音検出用、温度検出用及び明る
さ検出用の各信号処理モジュール50〜52が設けられ
ている。
【0076】そして、騒音検出用の信号処理モジュール
50は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33を介して与えられるマイクロホ
ン23(図2)からの音声データに基づいて周囲の騒音
レベルを検出し、検出結果を入力セマンティクスコンバ
ータモジュール59に出力するようになされている。
【0077】また、温度検出用の信号処理モジュール5
1は、バーチャル・ロボット33を介して与えられる温
度センサからのセンサデータに基づいて周囲の温度を検
出し、検出結果を入力セマンティクスコンバータモジュ
ール59に出力する。
【0078】さらに、明るさ検出用の信号処理モジュー
ル52は、バーチャル・ロボット33を介して与えられ
るCCDカメラ20(図2)からの画像データに基づい
て周囲の照度を検出し、検出結果を入力セマンティクス
コンバータモジュール59に出力する。
【0079】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜52の出力
に基づいて周囲の「騒音」、「温度」及び「照度」の度
合いを認識し、当該認識結果を上述のようにアプリケー
ション・モジュール41(図5)の内的状態モデル部7
1に出力する。
【0080】具体的に、入力セマンティクスコンバータ
モジュール59は、騒音検出用の信号処理モジュール5
0の出力に基づいて周囲の「騒音」の度合いを認識し、
「うるさい」又は「静か」といった認識結果を感情モデ
ル73及び本能モデル74等に出力する。
【0081】また、入力セマンティクスコンバータモジ
ュール59は、温度検出用の信号処理モジュール51の
出力に基づいて周囲の「温度」の度合いを認識し、「暑
い」又は「寒い」といった認識結果を感情モデル73及
び本能モデル74等に出力するさらに、入力セマンティ
クスコンバータモジュール59は、明るさ検出用の信号
処理モジュール52の出力に基づいて周囲の「照度」の
度合いを認識し、「明るい」又は「暗い」といった認識
結果を、感情モデル73及び本能モデル74等に出力す
る。
【0082】感情モデル部73は、上述のように、入力
セマンティクスコンバータモジュール59から与えられ
る各種認識結果に基づき(1)式に従つて各パラメータ
値を周期的に変更する。
【0083】そして、感情モデル73は、入力セマンテ
ィクスコンバータモジュール59から与えられる「騒
音」、「温度」及び「照度」についての認識結果に基づ
いて、予め定められた対応する情動についての(1)式
の係数keの値を増減させる。
【0084】具体的には、感情モデル73は、例えば
「うるさい」といった認識結果が与えられた場合には
「怒り」の情動に対する係数keの値を所定数増加さ
せ、これに対して「静か」といった認識結果が与えられ
た場合には「怒り」の情動に対する係数keの値を所定
数減少させる。これにより、周囲の「騒音」に影響され
て「怒り」のパラメータ値が変化することになる。
【0085】また、感情モデル73は、「暑い」といっ
た認識結果が与えられた場合には「喜び」の情動に対す
る係数keの値を所定数減少させ、これに対して「寒
い」といった認識結果が与えられた場合には「悲しみ」
の情動に対する係数keの値を所定数増加させる。これ
により、周囲の「温度」に影響されて「悲しみ」のパラ
メータ値が変化することになる。
【0086】さらに、感情モデル73は、「明るい」と
いった認識結果が与えられた場合には「喜び」の情動に
対する係数keの値を所定数増加させ、これに対して
[暗い」といった認識結果が与えられた場合には「恐
れ」の情動に対する係数keの値を所定数増加させる。
これにより、周囲の「照度」に影響されて「恐れ」のパ
ラメータ値が変化することになる。
【0087】これと同様にして、本能モデル74は、上
述のように、入力セマンティクスコンバータモジュール
59から与えられる各種認識結果等に基づき(2)式〜
(6)式に従って各欲求のパラメータ値を周期的に変更
する。
【0088】また、本能モデル74は、入力セマンティ
クスコンバータモジュール59から与えられる「騒
音」、「温度」及び「照度」の度合いについての認識結
果に基づいて、予め定められた対応する欲求の(2)式
の係数kiの値を増減させる。
【0089】具体的に本能モデル74は、例えば「うる
さい」や「明るい」といった認識結果が与えられた場合
には、「疲れ」に対する係数kiの値を所定数減少さ
せ、これに対して「静か」や「暗い」といった認識結果
が与えられた場合には「疲れ」に対する係数kiの値を
所定数増加させる。また、本能モデル74は、「暑い」
又は「寒い」といった認識結果が与えられた場合には
「疲れ」に対する係数kiの値を所定数増加させる。
【0090】この結果このロボット装置1においては、
例えば周囲が「うるさい」ときには、「怒り」のパラメ
ータ値が増加しやすく、「疲れ」のパラメータ値が減少
しやすくなるために、全体として行動が「いらいら」し
たような行動となり、これに対して周囲が「静か」なと
きには、「怒り」のパラメータ値が減少しやすく、「疲
れ」のパラメータ値が増加しやすくなるために、全体と
して行動が「おちついた」行動となる。
【0091】また、周囲が「暑い」ときには、「喜び」
のパラメータ値が減少しやすく、「疲れ」のパラメータ
値が増加しやすくなるために、全体として行動が「だら
けた」ような行動となり、これに対して周囲が「寒い」
ときには、「悲しみ」のパラメータ値が増加しやすく、
「疲れ」のパラメータ値が増加しやすくなるために、全
体として行動が「寒がっている」行動となる。
【0092】また、周囲が「明るい」ときには、「喜
び」のパラメータ値が増加しやすく、「疲れ」のパラメ
ータ値が減少しやすくなるために、全体として行動が
「陽気」な行動となり、これに対して周囲が「暗い」と
きには、「喜び」のパラメータ値が増加しやすく、「疲
れ」のパラメータ値が増加しやすくなるために、全体と
して行動が「物静か」な行動となる。
【0093】以上のようにロボット装置1は構成されて
おり、ロボット装置1は、自己及び外界の情報に応じ
て、感情及び本能の状態を変化させて、その感情及び本
能の状態に応じて自律的に行動することができる。
【0094】(4)使用者認識のための構成 次にロボット装置において本発明が適用される部分につ
いて詳しく説明する。本発明が適用されたロボット装置
は、複数の使用者を識別して、各使用者に応じた反応を
示すことができるように構成されている。各使用者に応
じた反応を示すことを可能とするロボット装置1の使用
者識別システムは、図9に示すように構成されている。
【0095】使用者識別システムは、センサ101、使
用者登録部110、使用者識別部120、使用者識別情
報データベース102、行動計画部130、行動命令実
行部103及び出力部104を備えている。
【0096】この使用者識別システムにおいて、使用者
識別部120は、センサ101からの出力に基づいて使
用者を識別する。このとき、使用者登録部110により
使用者識別情報データベース102に予め登録されてい
る複数の使用者の情報を参照して、一の使用者の識別が
なされる。そして、行動計画部130は、使用者識別部
120の識別結果に基づいて一の使用者に応じた行動の
計画を立て、その行動計画部130における行動計画に
応じて行動命令実行部103及び出力部104により実
際の行動の出力がなされる。
【0097】このような構成において、センサ101
は、使用者の情報を検出する検出手段を構成し、使用者
識別部120は、センサ101が検出した使用者の情報
に基づいて、識別可能な複数の使用者から一の使用者を
識別する識別手段を構成し、行動計画部130、行動命
令実行部103及び出力部104は、使用者識別部12
0が識別した一の使用者に対応した行動を出現させる行
動制御手段を構成する。
【0098】また、使用者登録部110は、使用者識別
情報データベース102に複数の使用者の情報(使用者
識別情報)を予め登録する登録手段を構成している。こ
のような使用者識別システムの各構成部の詳細は以下の
ようになる。
【0099】使用者識別部120は、登録されている複
数の使用者から一の使用者を識別する。具体的には、使
用者識別部120は、図10に示すように、使用者情報
検出器121、使用者情報抽出器122及び使用者識別
器123を備え、一の使用者の識別をする。
【0100】使用者情報検出器121は、センサ101
からのセンサ信号を使用者識別に使用するための使用者
識別情報(使用者識別信号)に変換する。また、使用者
情報検出器121は、例えば、センサ信号から使用者の
特徴量を検出して、これを使用者識別情報に変換する。
ここで、センサ101としては、画像情報を検出する図
2に示すCCDカメラ20、押圧情報を検出するタッチ
センサ21及び音声情報を検出するマイクロホン23等
の使用者の特徴の検出が可能な検出手段が挙げられる。
例えば、CCDセンサ20であれば顔の特徴部分、マイ
クロホン23であれば音声の特徴部分が特徴量として検
出される。
【0101】そして、使用者情報検出器121は、検出
した使用者識別情報を使用者識別器123に出力する。
使用者識別器123には、使用者情報抽出器122から
の情報(登録されている使用者識別情報)も入力されて
いる。
【0102】使用者情報抽出器122は、使用者識別情
報データベース102から予め登録されている使用者識
別情報(使用者識別信号)を抽出して、抽出した使用者
識情報(以下、登録使用者識別情報という。)を使用者
識別器123に出力する。
【0103】ここで、使用者識別情報データベース10
2は、使用者に関する種々の情報により構築されている
ものであって、一の情報として使用者識別のための登録
使用者識別情報が含まれている。例えば、使用者の特徴
量が登録使用者識別情報とされている。また、使用者識
別登録データベース102への使用者識別情報の登録
は、図9に示した使用者登録部110によりなされてい
る。
【0104】具体的には、使用者登録部110は、図1
1に示すように、使用者情報検出器111及び使用者情
報登録器112を備えている。
【0105】使用者情報検出器111は、センサ101
からの情報(センサ信号)を使用者識別情報(使用者識
別信号)として検出する。また、センサ101が上述し
たように、CCDカメラ20、タッチセンサ21或いは
マイクロホン23等である場合には、使用者情報検出器
111は、このようなセンサ101から出力された画像
情報、押圧情報或いは音声情報を、使用者識別情報とし
て使用者情報登録器112に出力する。
【0106】さらに、上述した使用者識別部120の使
用者情報検出器121が検出する使用者識別情報と、使
用者識別登録データベースに登録された登録使用者識別
情報とを比較可能とするため、使用者情報検出器111
は、上述した使用者識別部120の使用者情報検出器1
21の出力形態と同様な形態として情報を使用者情報登
録器112に出力している。すなわち、例えば、使用者
情報検出器111は、使用者認識部120の使用者情報
検出器121が検出する使用者の特徴量と同様な使用者
特徴量をセンサ信号から検出する。
【0107】また、例えば、ロボット装置1には、使用
者識別情報を取り込みのためのスイッチ或いはボタンが
あり、使用者情報検出器111は、このスイッチ或いは
ボタンの使用者による操作をトリガとして使用者識別情
報の取り込みを開始する。
【0108】使用者情報登録器112は、使用者情報検
出器111からの使用者識別情報を使用者識別データベ
ース102に書き込む。
【0109】以上のような使用者登録部110により、
使用者識別データベース102に使用者識別情報が予め
登録される。そして、同様な手順により、複数の使用者
の使用者識別情報が使用者識別データベースに登録され
る。
【0110】図10に戻り、使用者識別部120の使用
者識別器123は、使用者情報検出器121からの使用
者識別情報と、使用者情報抽出器122からの登録使用
者識別情報とを比較して、使用者を識別する。例えば、
パターンマッチングにより使用者識別情報を比較する。
また、例えば、使用者識別情報が使用者の特徴量からな
る場合には、使用者識別のためのパターンマッチングを
高速で処理することができるようになる。
【0111】また、登録使用者識別情報には、優先度を
付けておいてもよい。比較については、複数の使用者識
別情報について行うことになるが、優先度を参照するこ
とで、所定の登録使用者識別情報から比較していき、こ
れにより、短時間で使用者を特定することが可能にな
る。
【0112】例えば、優先度は、ロボット装置1に接し
た機会が多い順番とする。この場合、例えば、ロボット
装置1は、使用者の識別履歴をとり、その履歴情報に基
づいて、登録使用者識別情報に優先度を付す。すなわ
ち、ロボット装置1に接した機会が多いほど優先度を高
くして、優先度の高い登録使用者識別情報を早期に比較
対象にする。これにより、短時間で使用者を特定するこ
とが可能になるといえる。
【0113】使用者識別器123は、上述のようにして
得た識別結果を行動計画部130に出力する。例えば、
識別した使用者情報を使用者ラベル(使用者ラベル信
号)として出力する。
【0114】このように使用者情報検出器121等によ
り構成された使用者識別部120は、センサ101から
検出した使用者識別情報と、予め登録されている登録使
用者識別情報とを比較して、使用者を識別している。な
お、使用者識別部120については、圧力センサにより
使用者を識別する場合を例として後で詳述する。
【0115】行動計画部130では、使用者に応じた行
動を選択する。具体的には、行動計画部130は、図1
0に示すように、行動計画選択器131及び行動命令選
択器132を備えている。
【0116】行動計画選択器131は、使用者識別部1
20からの使用者ラベルをもとに、行動情報とされる行
動計画データを選択する。具体的には、行動計画選択器
131は、複数の使用者に応じて複数の行動計画データ
を有し、使用者ラベルに対応される行動計画データを選
択する。行動計画データは、今後のロボット装置1の行
動を決定していくために必要な情報であり、遷移可能と
される複数の姿勢や行動から構築された情報であって、
具体的には、上述した行動モデルであって、有限確率オ
ートマトンにより行動が規定された行動情報である。
【0117】そして、行動計画選択器131は、使用者
ラベルに対応して選択した行動計画データを行動命令選
択器132に出力する。
【0118】行動命令選択器132では、行動計画選択
器131により選択された行動計画データをもとに行動
命令信号を選択し、これを行動命令実行部103に出力
する。すなわち、行動計画データが有限確率オートマト
ンとして構築されている場合には、行動命令信号は、各
ノード(NODE)において実行される動作或いは姿勢
(目的の動作或いは姿勢)を実現するための情報からな
る。
【0119】このように行動計画選択器131等により
構成された行動計画部130は、使用者識別部120の
識別結果とされる使用者ラベルに基づいて行動計画デー
タを選択する。そして、選択した行動計画データに基づ
いた行動命令信号を行動命令実行部103に出力する。
【0120】ここで、行動計画選択器131における行
動計画データ(有限確率オートマトン)の保持形態につ
いて説明する。
【0121】行動計画選択器131は、図12に示すよ
うに、複数の使用者に対応させて複数の有限確率オート
マトン(行動計画データ)DT1,DT2,DT3,D
T4を保持している。これにより行動計画選択器131
は、使用者ラベルに応じて、対応される有限確率オート
マトンを選択し、行動命令選択器132に出力する。そ
して、行動命令選択器132では、行動計画選択器13
1が選択した有限確率オートマトンに基づいて行動命令
信号を出力する。
【0122】また、行動計画選択器131は、図13に
示すように、行動を規定するものとなる有限確率オート
マトンの一部を各使用者に対応させて保持することもで
きる。すなわち、基本部分の有限確率オートマトンDM
と、使用者毎の有限確率オートマトンDS1,DS2,
DS3,DS4とを行動計画データとして保持すること
もできる。
【0123】上述の図12に示した例では、1つの有限
確率オートマトンを完結したデータとして複数の使用者
に対応して保持しているが、図13に示すように、一部
を使用者毎に保持することもできる。ロボット装置1の
示す反応が使用者毎に異なることが本発明におけるポイ
ントとなるが、必ずしも全体の行動について異なる必要
もなく、その一方で、一般的な行動部分については共通
する部分もあるからである。
【0124】このようなことから、行動計画選択器13
1は、有限確率オートマトンの一部を複数の使用者に応
じて保持している。また、このような場合、基本部分の
有限確率オートマトンDMと、使用者特有のものとして
用意した有限確率オートマトンDS1,DS2,DS
3,DS4とにおいて、基本ノードを設定することによ
り、当該2つの有限確率オートマトンを繋げて、1つの
行動決定のための情報として取り扱うことが可能にな
る。
【0125】このように、有限確率オートマトン全体で
はなく、有限確率オートマトンの一部を複数の使用者に
応じて保持することにより、保持するデータ量を少なく
することができるようになり、その結果、メモリ資源を
有効活用することができるようになる。
【0126】また、行動計画選択器131は、図14に
示すように、各使用者に対応した行動計画データを遷移
確率データDPとして保持こともできる。
【0127】上述したように、有限確率オートマトン
は、確率をもってノード間を遷移することを規定するも
のであるが、その遷移確率データを複数の使用者に応じ
て保持することもできる。例えば、図14に示すよう
に、有限確率オートマトンDT内にある各アークのアド
レスに対応させて遷移確率データDPを複数の使用者に
対応させて保持する。図14に示す例は、ノード”
A”,”B”,”C”,・・・に対応させて当該ノード
から他のノードに接続されるアークの遷移確率データを
保持しているものであり、「使用者2」の遷移確率デー
タによって有限確率オートマトンDTのアークの遷移確
率が規定されている場合を示している。
【0128】このように有限確率オートマトンのアーク
に付した遷移確率を使用者毎に持つことで、用意するノ
ード(姿勢或いは動作)を使用者に関係なく一律とする
一方、各ノード間の遷移確率を使用者毎に異なるものと
することができ、上述したように使用者毎に有限確率オ
ートマトンを有する場合と比べ、メモリ資源を有効利用
することができる。
【0129】以上のような行動計画データが、行動計画
選択器131において使用者に対応して選択されて、行
動命令選択器132がその行動計画データに基づいて行
動命令情報を後段の行動命令実行部103に出力する。
【0130】行動命令実行部103は、行動計画部13
0から出力される行動命令信号に基づいて行動を実行す
るための動作命令信号を出力部104に出力する。具体
的には、上述した出力セマンティクスコンバータモジュ
ール68及び信号処理モジュール61〜67がこれに該
当する。
【0131】出力部104は、ロボット装置1における
モータ等によって駆動される動作部であり、行動命令実
行部103からの動作命令信号に基づいて動作する。出
力部104は、具体的には、信号処理モジュール61〜
67からのコマンドに制御される各デバイスである。
【0132】以上、使用者識別システムの構成及び構成
各部における処理を説明した。ロボット装置1は、この
ような使用者識別システムにより、使用者を識別して、
その識別結果から使用者に対応する行動計画データを選
択して、その選択した行動計画データに基づいて行動を
出現させている。これにより、ロボット装置1は、使用
者毎に異なる反応を示すようになる。よって、各使用者
毎のインタラクションによる反応を楽しむことができ、
ロボット装置1の娯楽性が向上する。
【0133】なお、上述の実施の形態では、本発明をロ
ボット装置1に適用して説明したが、これに限定される
ものではない。例えば、模擬生物やコンピュータシステ
ムのディスプレイ等に表示される仮想生物に対しても使
用者識別システムを適用することもできる。
【0134】また、上述の実施の形態では、使用者毎に
用意する行動計画データが有限確率オートマトンである
として説明したが、これに限定されるものではない。要
は、ロボット装置1の行動を規定するような行動モデル
等のデータが使用者毎に用意されてればよい。
【0135】また、使用者毎にマッチングセットを用意
しておくこともできる。マッチングセットは、一の使用
者についての複数の情報を示す情報群であり、具体的に
は、一の使用者について取得された異なった表情或いは
異なった音声等の各使用者毎の特徴情報が挙げられる。
【0136】使用者を特定(識別)した後は、当該使用
者のマッチングセットを使用して、使用者からの表情や
命令をパターンマッチングすることにより、当該使用者
に対しての反応を高速で行う、すなわち使用者とのイン
タラクションをスムーズに行うことができるようにな
る。これは、一の使用者が特定された後は、ロボット装
置1に接する使用者の変更はないという前提にたつ処理
である。
【0137】ここで、上述した使用者識別部120の具
体的な構成を、圧力センサの押圧により使用者を識別す
る場合について説明する。
【0138】例えば、使用者識別部120は、図15に
示すように、使用者情報検出器121が圧力検出部14
1及びなで方検出部142を備え、使用者識別器123
がなで方評価信号演算部143及び使用者判定部144
を備えている。そして、センサが圧力センサ101aと
されている。
【0139】圧力検出部141には、ロボット装置1の
あご部や頭部に取り付けられている圧力センサ101a
から電気信号S1が入力されている。例えば、頭部に取
り付けられている圧力センサ101aは、上述したタッ
チセンサ21である。
【0140】圧力検出部141では、圧力センサ101
aからの電気出力S1から当該圧力センサ101aが接
触されたことを検出する。圧力検出部141からの信号
(圧力検出信号)S2はなで方検出部31に入力され
る。
【0141】なで方検出部142は、圧力検出信号S2
の入力により、あごや頭部がなでられたことを認識す
る。通常、圧力センサ101aには、他の情報が入力さ
れている。例えば、ロボット1装置1は、上述したよう
に、使用者が「叩く」、「なでる」といった行為を圧力
センサ101a(タッチセンサ21)により検出して、
「怒られた」、「誉められた」等といった行動を実行す
るようにもなされている。すなわち、使用者識別をする
ための情報を生成するため以外の用途にも圧力センサ1
01aの出力が使用されている。このようなことから、
なで方検出部142は、圧力検出信号S2が使用者識別
のためのものであるかを認識する。
【0142】具体的には、なで方検出部142は、圧力
検出信号S2が大雑把にあるパターンで入力されたもの
である場合、当該圧力検出信号S2が使用者識別のため
の入力であると認識する。換言すれば、圧力検出信号S
2は、あるパターンをなしている場合にのみ、使用者識
別のための信号であることが認識される。
【0143】このように、圧力検出部141及びなで方
検出部142により、使用者情報検出器121は、圧力
センサ101aにより入力された信号のうち、使用者識
別のための信号を検出している。そして、なで方検出部
142により使用者識別のためのものであるとされた圧
力検出信号(使用者識別情報)S2は、なで方評価信号
演算部143に入力される。
【0144】なで方評価信号演算部143は、入力され
てきた圧力検出信号S3から、使用者識別の評価情報を
取得する。具体的には、なで方評価信号演算部143
は、圧力検出信号S2のパターンと予め登録されている
登録パターンとを比較して、その比較結果として評価値
を取得する。なで方評価信号演算部143が取得した評
価値は、評価信号S3として、使用者判定部144に入
力される。使用者判定部144は、評価信号S3に基づ
いて、圧力センサ101aをなでた者を判定する。
【0145】なで方評価信号演算部143における使用
者の評価情報の取得手順については、具体的には、次の
ようになる。ここでは、あご部に設けた圧力センサ及び
頭部に設けた圧力センサ(タッチセンサ21)の両方の
入力によって使用者を識別する場合を例に挙げる。
【0146】なで方評価信号演算部143では、予め登
録されている接触パターン(登録接触パターン)と、あ
ご部及び頭部がなでられて圧力センサ101aから実際
に得た接触パターン(実測接触パターン)とを比較す
る。
【0147】登録接触パターンが例えば図16に示すよ
うなパターンとして登録されている場合について説明す
る。ここで、登録接触パターンが使用者識別情報データ
ベース102に登録されている登録使用者識別情報とな
る。
【0148】図16に示すこの登録接触パターンは、あ
ご部の圧力センサ101a1の接触(押圧)時間と、頭
部の圧力センサ101a2(タッチセンサ21)の接触
(押圧)時間と、どの圧力センサ101a1,101a2
も接触されていない非接触(非押圧)時間との配列から
構成されている。
【0149】なお、接触パターンは、このパターンに限
定されるものではない。この例では、あご部の圧力セン
サ101a1と頭部の圧力センサ101a2とが同時に接
触(押圧)がなされていない登録接触パターンである
が、例えば、あご部の圧力センサ101a1と頭部の圧
力センサ101a2とが同時に接触(押圧)されるよう
な登録接触パターンであってもよい。
【0150】登録接触パターンのデータは、具体的に
は、tを時間の無次元量(時間要素)、pを圧力センサ
の出力値(検出信号要素)とした場合において、D
i[ti,p](ここで、iは整数。)として表すと、図
16に示すような登録接触パターンでは、表1に示すよ
うに、のど部の圧力センサ101a1の接触データD
1、圧力センサの非接触データD2、頭部の圧力センサ
101a2の1度目の接触データD3、圧力センサの非
接触データD4、頭部の圧力センサ101a2の2度目
の接触データD5といった5個(i=1,2,・・・,
5)のデータの配列の集合D(=D1,D2,D3,D
4,D5)となる。
【0151】
【表1】
【0152】ここで、時間の無次元量は、登録接触パタ
ーンの合計時間T(100+50+100+50+10
0[msec])により無次元とされている。また、p1
をあご部の圧力センサ101a1の出力値(例えば、
「1」とする。)とし、p2を頭部の圧力センサ101
2の出力値(例えば、「2」とする。)としている。
接触パターンのデータとされる時間を無次元化している
のは、なで方評価信号演算部143での評価信号への変
換時における時間依存性を排除し、ロバストにするため
である。
【0153】上述したような登録接触パターンに対し
て、自己を識別させようとする使用者は、その登録パタ
ーンに合致するように圧力センサ101aをなでる必要
がある。例えば、自己を識別させようとするあご部及び
頭部の圧力センサ101a1,101a2の操作により、
図17に示すような実測接触パターンが得られたとす
る。
【0154】実測接触パターンのデータは、t’を時間
の無次元量とした場合において、Di’[ti’,p]
(ここで、iは整数。)として表すと、図17に示すよ
うな実測接触パターンでは、表2に示すような5個(i
=1,2,・・・,5)のデータD1’,D2’,D
3’,D4’,D5’の配列の集合D’(=D1’,D
2’,D3’,D4’,D5’)となる。
【0155】
【表2】
【0156】なで方評価信号演算部143は、以上のよ
うな形態として表される実測接触パターンと登録接触パ
ターンとを比較する。比較の際に、使用者情報抽出器1
22により使用者識別情報データベース102から登録
接触パターンが読み出される。
【0157】具体的には、実測接触パターンを構成する
実測データD1’,D2’,D3’,D4’,D5’
と、登録接触パターンを構成する登録データD1,D
2,D3,D4,D5とを各々照合する。
【0158】照合では、実測データD1’,D2’,D
3’,D4’,D5’と登録データD1,D2,D3,
D4,D5との時間要素を比較し、そのずれを検出す
る。具体的には、5つの実測データについて登録データ
との照合を行い、その分散Suを算出する。分散Suは
(7)式及び(8)式により(9)式として与えられ
る。
【0159】
【数7】
【0160】
【数8】
【0161】
【数9】
【0162】そして、この分散から(10)式により与
えられる評価値Xを得る。
【0163】
【数10】
【0164】以上のような手順により、なで方評価信号
演算部41にて評価値Xが取得される。
【0165】使用者判定部144では、上述のようにな
で方評価信号演算部143により算出した評価値(評価
信号S3)から使用者判定(識別)を行う。具体的に
は、評価値がより「1」に近い方が「使用者」である確
率は高いので、例えば、「1」近傍に設定された閾値と
評価値を比較し、評価値が閾値を超えた場合に「使用
者」と特定する。また、例えば、使用者判定部143
は、圧力センサ101aの信頼性等を考慮して、閾値と
評価値とを比較する。例えば、評価値にセンサの「信頼
度」を掛ける。
【0166】ところで、この使用者判定部144におけ
る使用者判定では、実測時間と登録時間との差分(或い
は実測時間の無次元量と登録時間の無次元量との分散)
を求めている。これは、例えば、登録接触パターンの時
間の無次元量tiと実測接触パターンの時間の時間の無
次元量ti’との差(ti−ti’)をみた場合、図1
8に示すようになり、データ全体としてまとまりのない
ものとなる。よって、本当の使用者であっても、圧力セ
ンサ101aの押圧を登録接触パターンと完全に一致さ
れて行うことは困難といえる。また、圧力センサ101
aの信頼性も考慮する必要がある。
【0167】このようなことから、分散を評価値として
用いることにより、照合を的確に行うことができるよう
になる。
【0168】また、上述したような評価値は、具体的に
は、図19に示すような手順により取得される。
【0169】ステップST1において使用者の特徴デー
タ(実測接触パターンを構成するデータ)の検出が開始
され、続くステップST2において、使用者識別のため
の終了の入力があったか否かの判別を行う。ここで、終
了の入力があった場合、ステップST7に進み、終了の
入力がない場合、ステップST3に進む。
【0170】具体的には、圧力センサ101aによる入
力が一定時間がなされなかった場合に、上位の制御部か
らデータ取得部(なで方検出部142或いはなで方評価
信号演算部143)へ使用者識別の終了の入力がなさ
れ、この入力により、ステップST7以降において、な
で方検出部142において圧力検出信号S2の取得が終
了され、或いはなで方評価信号演算部143において評
価値の演算が開始される。
【0171】一方、ステップST3では、次のパターン
の圧力センサ101aが押されたか否かが判別される。
次のパターンの圧力センサ101aが押された場合、ス
テップST4において、圧力センサ101aが押される
までの非接触時間のデータ[time(i)’,0]を得
る。ここで、time(i)’は無次元化されていない実測
時間である。
【0172】そして、続くステップST5及びステップ
ST6において、圧力センサ101aから手が離された
か否かの判別と、接触時間のデータ[time(i+
1)’,p]を得る。具体的には、ステップST5にお
いて、圧力センサ101aから手が離されたか否かの判
別について自己ループをかけて、圧力センサ101aか
ら手が離された場合には、ステップST6に進み圧力セ
ンサ101aが押されるまでの接触時間のデータ[time
(i+1)’,p]を得る。そして、ステップST6に
おいて、接触時間のデータ[time(i+1)’,p]を
得た後、ステップST2において、終了の入力があった
か否かを再び判別する。
【0173】ステップST2にて終了の入力があった場
合に進むステップST7では、全時間に対する圧力セン
サ101aの非接触時間と圧力センサの非接触時間の比
を算出する。すなわち、無次元化された接触時間及び非
接触時間のデータを取得する。具体的には、圧力センサ
101aが押圧されていた実測時間time(i)’とし
て、(11)式により実測の全時間Tを算出し、(1
2)式により無次元量としての実測時間のデータti
を算出し、実測接触パターンの集合データDi’[ti
p]を求める。
【0174】
【数11】
【0175】
【数12】
【0176】そして、続くステップST8において上述
したような手順により、評価値(評価信号)を算出す
る。以上述べたような手順により評価値を得ることがで
きる。このような評価値に基づいて使用者判定部144
では、使用者を判定する。
【0177】このように、なで方評価信号演算部143
及び使用者判定部144により、使用者識別器123
は、なで方検出部142からの使用者識別情報(実測接
触パターン)と、使用者情報抽出器122からの登録使
用者識別情報(登録接触パターン)とを比較して、使用
者を識別している。そして、使用者識別器123は、上
述したように、特定した使用者(情報)を使用者ラベル
として行動計画部130に出力する。
【0178】以上、ロボット装置1における使用者認識
システムについて説明した。ロボット装置1は、使用者
識別システムにより、使用者を識別して、使用者毎とに
異なる反応を示すことができるようになる。これによ
り、ロボット装置1の娯楽性が向上されたものとなる。
【0179】
【発明の効果】本発明に係るロボットは、使用者の情報
を検出する検出手段が検出した使用者の情報に基づい
て、識別可能な複数の使用者から一の使用者を識別手段
により識別し、識別手段が識別した一の使用者に対応し
た行動を行動制御手段により出現させることにより、複
数の識別可能な使用者から一の使用者を識別して、当該
一の使用者に応じた反応を示すことができるようにな
る。
【0180】また、本発明に係るロボットの行動決定方
法は、検出手段が検出した使用者の情報に基づいて、識
別可能な複数の使用者から一の使用者を識別し、識別し
た一の使用者に対応した行動を出現させることにより、
ロボットが、複数の識別可能な使用者から一の使用者を
識別して、当該一の使用者に応じた反応を示すことがで
きるようになる。
【図面の簡単な説明】
【図1】本発明の実施の形態であるロボット装置の外観
構成を示す斜視図である。
【図2】上述のロボット装置の回路構成を示すブロック
図である。
【図3】上述のロボット装置のソフトウェア構成を示す
ブロック図である。
【図4】上述のロボット装置のソフトウェア構成におけ
るミドルウェア層の構成を示すブロック図である。
【図5】上述のロボット装置のソフトウェア構成におけ
るアプリケーション層の構成を示すブロック図である。
【図6】上述のアプリケーション層の行動モデルライブ
ラリの構成を示すブロック図である。
【図7】ロボット装置の行動決定のための情報となる有
限確率オートマトンを説明するために使用した図であ
る。
【図8】有限確率オートマトンの各ノードに用意された
状態遷移表を示す図である。
【図9】ロボット装置の使用者認識システムを示すブロ
ック図である。
【図10】上述の使用者認識システムの使用者識別部及
び行動計画部を示すブロック図である。
【図11】上述の使用者認識システムの使用者登録部を
示すブロック図である。
【図12】ロボット装置の行動情報となる行動計画デー
タであって、複数の使用者に応じた有限確率オートマト
ンされたものを示す図である。
【図13】ロボット装置の行動情報となる行動計画デー
タであって、有限確率オートマトンの一部が複数の使用
者に応じて用意されているものを示す図である。
【図14】複数の使用者に応じて有限確率オートマトン
の遷移確率データが用意されている場合を示す図であ
る。
【図15】上述の使用者認識システムの使用者識別部1
20の具体的な構成を示すブロック図である。
【図16】登録接触パターンを説明するために使用した
特性図である。
【図17】実測接触パターンを説明するために使用した
特性図である。
【図18】使用者の評価情報として分散を用いているこ
とを説明するために使用した特性図である。
【図19】実測接触パターンを取得して、評価信号を得
るための手順を示すフローチャートである。
【符号の説明】
1 ロボット装置、101 センサ、102 使用者認
識データベース、103 行動命令部、104 出力
部、110 使用者登録部、120 使用者認識部、1
30 行動計画部
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C150 BA06 CA01 CA02 DA04 DA05 DA24 DA26 DA27 DA28 DF02 DF04 ED42 ED52 EF16 EF23 EF29 EF33 EF36 3F059 AA00 BA02 BB06 CA05 CA06 DA02 DA05 DA09 DB02 DC01 DC04 DC08 DD01 DD06 DD11 DD18 FA03 FA05 FB01 FB22 FC02 FC13 FC14 FC15 3F060 AA00 CA14 CA26 GA05 GA13 GB21 GD12 GD13 GD15 HA02 HA32 HA35

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 使用者の情報を検出する検出手段と、 上記検出手段が検出した使用者の情報に基づいて、識別
    可能な複数の使用者から一の使用者を識別する識別手段
    と、 上記識別手段が識別した一の使用者に対応した行動を出
    現させる行動制御手段とを備えたことを特徴とするロボ
    ット。
  2. 【請求項2】 複数の使用者の情報を予め登録して保持
    し、且つ複数の使用者に対応して複数の行動情報を保持
    しており、 上記識別手段は、予め登録されている使用者の情報と、
    上記検出手段が検出した使用者の情報とに基づいて、一
    の使用者を識別し、 上記行動制御手段は、一の使用者に対応される行動情報
    に基づいて行動を出現させることを特徴とする請求項1
    記載のロボット。
  3. 【請求項3】 上記使用者の情報を予め登録する登録手
    段を備えることを特徴とする請求項2記載のロボット。
  4. 【請求項4】 上記行動情報は、複数の姿勢及び動作の
    遷移図である有限確率オートマトンによるものであるこ
    とを特徴とする請求項1記載のロボット。
  5. 【請求項5】 上記行動制御手段によりモータを制御
    し、動作部を駆動して、行動を出現させるロボット装置
    であることを特徴とする請求項1記載のロボット。
  6. 【請求項6】 検出手段が検出した使用者の情報に基づ
    いて、識別可能な複数の使用者から一の使用者を識別
    し、識別した一の使用者に対応した行動を出現させるこ
    とを特徴とするロボットの行動決定方法。
JP2000101349A 2000-03-31 2000-03-31 ロボット及びロボットの行動決定方法 Withdrawn JP2001277166A (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2000101349A JP2001277166A (ja) 2000-03-31 2000-03-31 ロボット及びロボットの行動決定方法
DE60111677T DE60111677T2 (de) 2000-03-31 2001-03-28 Roboter und handlungsbestimmtes Verfahren für Roboter
EP01302886A EP1151779B1 (en) 2000-03-31 2001-03-28 Robot and action deciding method for robot
US09/821,679 US6539283B2 (en) 2000-03-31 2001-03-29 Robot and action deciding method for robot
KR1020010016957A KR20010095176A (ko) 2000-03-31 2001-03-30 로봇 및 로봇의 행동 결정 방법
CN01119267A CN1103659C (zh) 2000-03-31 2001-03-31 机器人装置及机器人装置动作决定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000101349A JP2001277166A (ja) 2000-03-31 2000-03-31 ロボット及びロボットの行動決定方法

Publications (1)

Publication Number Publication Date
JP2001277166A true JP2001277166A (ja) 2001-10-09

Family

ID=18615414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000101349A Withdrawn JP2001277166A (ja) 2000-03-31 2000-03-31 ロボット及びロボットの行動決定方法

Country Status (6)

Country Link
US (1) US6539283B2 (ja)
EP (1) EP1151779B1 (ja)
JP (1) JP2001277166A (ja)
KR (1) KR20010095176A (ja)
CN (1) CN1103659C (ja)
DE (1) DE60111677T2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2005099971A1 (ja) * 2004-04-16 2007-08-16 松下電器産業株式会社 ロボット、ヒント出力装置、ロボット制御システム、ロボット制御方法、ロボット制御プログラム及び集積回路

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1112984C (zh) * 1999-05-10 2003-07-02 索尼公司 机器宠物装置的控制方法
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
WO2002086651A2 (en) * 2001-04-23 2002-10-31 Koninklijke Philips Electronics N.V. Method of controlling an apparatus
US6484068B1 (en) * 2001-07-24 2002-11-19 Sony Corporation Robot apparatus and method for controlling jumping of robot device
JP4689107B2 (ja) * 2001-08-22 2011-05-25 本田技研工業株式会社 自律行動ロボット
KR100429975B1 (ko) * 2001-12-21 2004-05-03 엘지전자 주식회사 로봇의 행동학습 강화방법
KR100429976B1 (ko) * 2002-02-01 2004-05-03 엘지전자 주식회사 로봇의 행동학습방법
JP2004001162A (ja) * 2002-03-28 2004-01-08 Fuji Photo Film Co Ltd ペットロボット充電システム、受取装置、ロボット、及びロボットシステム
US20040002790A1 (en) * 2002-06-28 2004-01-01 Paul Senn Sensitive devices and sensitive applications
US7118443B2 (en) 2002-09-27 2006-10-10 Mattel, Inc. Animated multi-persona toy
JP2004268235A (ja) * 2003-03-11 2004-09-30 Sony Corp ロボット装置、その行動制御方法及びプログラム
JP4303602B2 (ja) * 2004-01-09 2009-07-29 本田技研工業株式会社 顔面像取得システム
JP4800039B2 (ja) * 2004-02-16 2011-10-26 本田技研工業株式会社 移動ロボットの歩容生成装置
US20050203600A1 (en) 2004-03-12 2005-09-15 Scimed Life Systems, Inc. Collapsible/expandable tubular electrode leads
KR100762653B1 (ko) * 2004-03-31 2007-10-01 삼성전자주식회사 캐릭터 육성 시뮬레이션을 제공하는 이동 통신 장치 및 방법
KR100595821B1 (ko) * 2004-09-20 2006-07-03 한국과학기술원 로봇의 감성합성장치 및 방법
JP4612398B2 (ja) * 2004-11-11 2011-01-12 Necインフロンティア株式会社 照合装置および照合方法
US7565200B2 (en) * 2004-11-12 2009-07-21 Advanced Neuromodulation Systems, Inc. Systems and methods for selecting stimulation sites and applying treatment, including treatment of symptoms of Parkinson's disease, other movement disorders, and/or drug side effects
US8588979B2 (en) * 2005-02-15 2013-11-19 Sony Corporation Enhancements to mechanical robot
JP4808036B2 (ja) * 2006-02-15 2011-11-02 富士通株式会社 電子機器
US7427220B2 (en) * 2006-08-02 2008-09-23 Mcgill University Amphibious robotic device
US8353767B1 (en) * 2007-07-13 2013-01-15 Ganz System and method for a virtual character in a virtual world to interact with a user
JP2009061547A (ja) * 2007-09-06 2009-03-26 Olympus Corp ロボット制御システム、ロボット、プログラム及び情報記憶媒体
US8752166B2 (en) * 2007-12-21 2014-06-10 The Invention Science Fund I, Llc Security-activated operational components
US9071436B2 (en) * 2007-12-21 2015-06-30 The Invention Science Fund I, Llc Security-activated robotic system
US20110178619A1 (en) * 2007-12-21 2011-07-21 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Security-activated robotic tasks
US9626487B2 (en) * 2007-12-21 2017-04-18 Invention Science Fund I, Llc Security-activated production device
US8286236B2 (en) * 2007-12-21 2012-10-09 The Invention Science Fund I, Llc Manufacturing control system
US20090164379A1 (en) * 2007-12-21 2009-06-25 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Conditional authorization for security-activated device
US9128476B2 (en) * 2007-12-21 2015-09-08 The Invention Science Fund I, Llc Secure robotic operational system
US8429754B2 (en) * 2007-12-21 2013-04-23 The Invention Science Fund I, Llc Control technique for object production rights
US9818071B2 (en) * 2007-12-21 2017-11-14 Invention Science Fund I, Llc Authorization rights for operational components
KR101048406B1 (ko) * 2008-12-17 2011-07-11 한국전자통신연구원 사용자 자세를 사용자 명령으로 인식하는 게임 시스템 및 방법
US8406926B1 (en) * 2011-05-06 2013-03-26 Google Inc. Methods and systems for robotic analysis of environmental conditions and response thereto
CN103179157A (zh) * 2011-12-22 2013-06-26 张殿礼 一种智能网络机器人及控制方法
JP5549724B2 (ja) * 2012-11-12 2014-07-16 株式会社安川電機 ロボットシステム
US10391636B2 (en) * 2013-03-15 2019-08-27 Sqn Venture Income Fund, L.P. Apparatus and methods for providing a persistent companion device
CN106570443A (zh) * 2015-10-09 2017-04-19 芋头科技(杭州)有限公司 一种快速识别方法及家庭智能机器人
CN106926258B (zh) * 2015-12-31 2022-06-03 深圳光启合众科技有限公司 机器人情绪的控制方法和装置
CN105867633B (zh) * 2016-04-26 2019-09-27 北京光年无限科技有限公司 面向智能机器人的信息处理方法及系统
CN107309883A (zh) * 2016-04-27 2017-11-03 王方明 智能机器人
CN107307852A (zh) * 2016-04-27 2017-11-03 王方明 智能机器人系统
JP6844124B2 (ja) * 2016-06-14 2021-03-17 富士ゼロックス株式会社 ロボット制御システム
CN106462804A (zh) * 2016-06-29 2017-02-22 深圳狗尾草智能科技有限公司 一种机器人交互内容的生成方法、系统及机器人
WO2018006373A1 (zh) * 2016-07-07 2018-01-11 深圳狗尾草智能科技有限公司 一种基于意图识别控制家电的方法、系统及机器人
CN109526208B (zh) * 2016-07-11 2021-02-02 Groove X 株式会社 活动量受控制的行为自主型机器人
CN106227347B (zh) * 2016-07-26 2019-05-21 北京光年无限科技有限公司 面向智能机器人的通讯方法、设备及通讯系统
CN107336246B (zh) * 2017-06-15 2021-04-30 重庆柚瓣科技有限公司 养老机器人的拟人化系统
CN107378945B (zh) * 2017-07-21 2019-12-13 武汉蛋玩科技有限公司 宠物型机器人及交互、传输方法
JP6577532B2 (ja) 2017-07-28 2019-09-18 ファナック株式会社 機械学習装置、及びユーザ識別装置
JP1622874S (ja) 2017-12-29 2019-01-28 ロボット
USD916160S1 (en) * 2017-10-31 2021-04-13 Sony Corporation Robot
KR102463806B1 (ko) * 2017-11-09 2022-11-07 삼성전자주식회사 이동이 가능한 전자 장치 및 그 동작 방법
JP6720958B2 (ja) * 2017-12-22 2020-07-08 カシオ計算機株式会社 駆動装置、駆動方法及びプログラム
JP6781183B2 (ja) * 2018-03-26 2020-11-04 ファナック株式会社 制御装置及び機械学習装置
CN113727767B (zh) * 2018-10-17 2023-05-23 派拓艺(深圳)科技有限责任公司 机器动物拼插模型
KR102619973B1 (ko) 2018-11-28 2024-01-02 삼성전자주식회사 복수의 태스크들을 스케줄링하는 전자 장치 및 그의 동작 방법

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4657104A (en) * 1983-07-23 1987-04-14 Cybermation, Inc. Concentric shaft mobile base for robots and the like
US5742738A (en) * 1988-05-20 1998-04-21 John R. Koza Simultaneous evolution of the architecture of a multi-part program to solve a problem using architecture altering operations
US5983161A (en) * 1993-08-11 1999-11-09 Lemelson; Jerome H. GPS vehicle collision avoidance warning and control system and method
JP3254994B2 (ja) * 1995-03-01 2002-02-12 セイコーエプソン株式会社 音声認識対話装置および音声認識対話処理方法
US5963712A (en) * 1996-07-08 1999-10-05 Sony Corporation Selectively configurable robot apparatus
US5832189A (en) * 1996-09-26 1998-11-03 Interval Research Corporation Affect-based robot communication methods and systems
AU1575499A (en) * 1997-12-19 1999-07-12 Smartoy Ltd. A standalone interactive toy
JP3765356B2 (ja) * 1997-12-22 2006-04-12 ソニー株式会社 ロボツト装置
WO1999054015A1 (en) * 1998-04-16 1999-10-28 Creator Ltd. Interactive toy

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2005099971A1 (ja) * 2004-04-16 2007-08-16 松下電器産業株式会社 ロボット、ヒント出力装置、ロボット制御システム、ロボット制御方法、ロボット制御プログラム及び集積回路
US7747350B2 (en) 2004-04-16 2010-06-29 Panasonic Corporation Robot, hint output device, robot control system, robot control method, robot control program, and integrated circuit

Also Published As

Publication number Publication date
EP1151779B1 (en) 2005-06-29
CN1103659C (zh) 2003-03-26
KR20010095176A (ko) 2001-11-03
US6539283B2 (en) 2003-03-25
US20020024312A1 (en) 2002-02-28
DE60111677D1 (de) 2005-08-04
EP1151779A3 (en) 2003-05-14
CN1318454A (zh) 2001-10-24
DE60111677T2 (de) 2006-05-04
EP1151779A2 (en) 2001-11-07

Similar Documents

Publication Publication Date Title
JP2001277166A (ja) ロボット及びロボットの行動決定方法
US7076334B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
JP2002239963A (ja) ロボット装置、ロボット装置の動作制御方法、プログラム及び記録媒体
US20180370039A1 (en) More endearing robot, method of controlling the same, and non-transitory recording medium
JP2002157596A (ja) ロボット装置及び顔識別方法
JP2004133637A (ja) 顔検出装置、顔検出方法及びプログラム、並びにロボット装置
JPWO2002099545A1 (ja) マン・マシン・インターフェースユニットの制御方法、並びにロボット装置及びその行動制御方法
JP2002160185A (ja) ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法
JP2004302644A (ja) 顔識別装置、顔識別方法、記録媒体、及びロボット装置
JP2003136456A (ja) ロボット装置、ロボット装置の明るさ検出方法、明るさ検出プログラム及び記録媒体
WO2021005878A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP2004130427A (ja) ロボット装置及びロボット装置の動作制御方法
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2007125629A (ja) ロボット装置及びその行動制御方法
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP2004302645A (ja) 顔登録装置、顔登録方法、記録媒体、及びロボット装置
JP2002239952A (ja) ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
JP2001157980A (ja) ロボット装置及びその制御方法
WO2020166373A1 (ja) 情報処理装置および情報処理方法
JP4379052B2 (ja) 動体検出装置、動体検出方法、及びロボット装置
JP2002120183A (ja) ロボット装置及びロボット装置の入力情報検出方法
JP2001157981A (ja) ロボット装置及びその制御方法
JP2001157982A (ja) ロボット装置及びその制御方法
JP2001157983A (ja) ロボット装置及びロボット装置の性格判別方法
JP2001154707A (ja) ロボット装置及びその制御方法

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070605