JP4296736B2 - ロボット装置 - Google Patents

ロボット装置 Download PDF

Info

Publication number
JP4296736B2
JP4296736B2 JP2001317315A JP2001317315A JP4296736B2 JP 4296736 B2 JP4296736 B2 JP 4296736B2 JP 2001317315 A JP2001317315 A JP 2001317315A JP 2001317315 A JP2001317315 A JP 2001317315A JP 4296736 B2 JP4296736 B2 JP 4296736B2
Authority
JP
Japan
Prior art keywords
behavior
internal state
action
robot apparatus
information acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001317315A
Other languages
English (en)
Other versions
JP2002219677A (ja
Inventor
雅博 藤田
剛 高木
里香 堀中
順 横野
コスタ ガブリエル
秀樹 下村
活樹 南野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001317315A priority Critical patent/JP4296736B2/ja
Publication of JP2002219677A publication Critical patent/JP2002219677A/ja
Application granted granted Critical
Publication of JP4296736B2 publication Critical patent/JP4296736B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、ロボット装置やそのようなロボット装置の行動制御方法に関する。
【0002】
【従来の技術】
近年、外観形状が犬等の動物に模して形成されたロボット装置が提供されている。このロボット装置は、例えば、外部からの情報や内部の状態(例えば、感情状態)等に応じて、動物のように行動する。そして、このようなロボット装置には、ボールを蹴るなどの行動をするものがある。さらに、このようなロボット装置には、学習機能を備えているものもある。例えば、学習機能としては、言語学習機能が挙げられる。
【0003】
【発明が解決しようとする課題】
ところで、ペット型のロボット装置における1つの究極の目標はライフライク(Life-like)なロボット装置を構成することである。これは換言すれば、オープンエンディット(OPEN-ENDED)なシステムを構築することといえる。
【0004】
従来は、いかに複雑度を増して見せるか、ということでライフライク(life-like)なロボット装置を構成するという目標に近づけている。その中には、学習や成長といった要素も考慮されている。
【0005】
しかし、その実装は行動生成のために固定的に設定してある確率的ステートマシンの確率を強化学習により変更或いはステートマシン全体の取り替えにより実現している。
【0006】
行動の生成頻度やそのパターンはユーザーや外界とのインタラクションにより変化し、ロボット装置がもつ複雑度を増してはいるものの、設計者(プログラマー)が最初に想定した行動、反応を超えるものではない。同じく、ロボット装置により認識可能とされる対象物は限定的なものとされており、これにより、プログラマーが設定した以外のものを認識することができない。これらは、未知刺激に対してどのように行動するかを決定する能力を欠いていることを意味している。
【0007】
設計者の設定を超えるオープンエンディット(OPEN-ENDED)なシステムを作るために必要なことは、以下のことである。
(1) 未知刺激を認識できる能力
(2) 新たな行動を創生する能力
(3) 未知刺激に対する適切な行動を選択する能力
さらに、ペット型のロボット装置であることを考慮した場合、人間とインタラクションする能力は特に重要である。様々な未知の事柄を学習する場合も、人間とのインタラクションを通じて学習することが多いのも事実である。
【0008】
人間とのインタラクションにおいて最も重要になるものが言語によるコミュニケーションである。上述の(1)の未知刺激を認識する能力に関しては、適切なカテゴライズとそのシンボル(Symbol)としての名前を獲得することや、その行動の名前を獲得することがその第1歩になると考えられる。これはいわゆる言語獲得といわれる研究分野であるが、特にそれらのシンボルは物理的に関連付け或いは接地(Ground)していることが重要であることが指摘されている。
【0009】
これ関しては、例えば、Kaplanによる報告(Kaplan, F. Talking AIBO: First experimentation of verbal interactions with an autonomous four-legged robot. In proceedings of the CELE-Twente workshop on interacting agents, October, 2000、以下、文献1という。)、Royらによる報告(Roy, D. and Pentland A. Learning words from natural audio-visual input, in proceedings of International Conference on Spoken Language Processing, 1998、以下、文献2という。)、或いはSteelsによる報告(Steels, L. Perceptually Grounded Meaning Creation, In proceedings of the International Conference on Multi-Agent Systems, 1996、以下、文献3という。)で挙げられている。
【0010】
また、上述の(2)の行動獲得に関しては、イミテーション(imitation)によるもの、補強学習(reinforcement learning)によるもの、Evolutionary Computingによるものなどがある。
【0011】
これに関しては、Damasioによる報告(Damasio, A. Descartes' Error: Emotion, Reason, and the Human Brain, Putman Publishing Group, 1994、以下、文献4という。)やMataricによる報告(Mataric, M., Sensory-motor primitives as a basis for imitation: Linking perception to action and biology to robotics, Imitation in Animals and Artifacts, C. Nehniv and K. Dautenhalm (eds), The MIT Press, 2000、以下、文献5という。)等に挙げられている。
【0012】
しかしながら、上述の(3)の未知刺激に対する適切な行動に関しては、実世界においては非常にプリミティブなものが報告されているだけである。或いは仮想的な世界でいくつかの関連するものがあるだけである。
【0013】
この上述の(3)の意味するところは、その物体がロボット装置に対してどのような意味を持つのかをいかにして獲得するか、にある。例えばそれが食べ物なのか、遊び道具なのか、怖いものなのか、等である。そのためには認識対象物を物理的に関連付け或いは接地(ground)するだけでなく、ロボット装置の内的状態にどのように影響を及ぼすか、すなわち内的状態(例えば、primary emotion、secondary emotion等)に関連付け(ground)することが必要になる。
【0014】
そこで、本発明は、上述の実情に鑑みてなされたものであり、よりライフライク(Life-like)に近づけられたロボット装置及びそのようなロボット装置の行動制御方法を提供することを目的としている。
【0017】
【課題を解決するための手段】
本発明に係るロボット装置は、上述の課題を解決するために、自律行動するロボット装置であって、対象物を検出するセンサと、上記センサからの入力信号を評価する知覚用評価部と、上記知覚用評価部の評価結果が入力され、上記評価結果に基づいて変化する擬似的内部状態を管理する内部状態管理部と、上記対象物と当該対象物に基づく上記内部状態の変化との関係を記憶する記憶手段と、行動生成部とを備え、対象物が検出された際に、検出された対象物に基づく上記内部状態の変化と上記対象物とを関連させて上記記憶手段に記憶し、上記内部状態管理部は、上記内部状態の変化因子としての情報獲得欲に関連し経時的に減少する変数が新規情報の学習量である情報獲得欲求変数を有し、上記内部状態を一定に保つようにする内部状態の恒常性に基づいて上記内部状態を管理するとともに、上記恒常性が乱れたときには上記行動生成部に第1の信号を送信し、上記情報獲得欲求変数の値に基づいて上記行動生成部に第2の信号を送信し、上記行動生成部は、上記第1の信号に基づいて上記恒常性を保つための行動を生成し、上記第2の信号に基づいて上記情報獲得変数が欠乏状態を示す所定の閾値以下となったとき、該情報獲得変数を該閾値より大きくするための情報獲得行動を生成する。
【0028】
【発明の実施の形態】
以下、本発明の実施の形態について図面を用いて詳しく説明する。この実施の形態は、周囲環境(或いは外部刺激)や内部状態に応じて自律行動をする自律型のロボット装置である。
【0029】
実施の形態では、先ず、ロボット装置の構成について説明して、その後、ロボット装置における本発明の適用部分について詳細に説明する。
【0030】
(1)本実施の形態によるロボット装置の構成
図1に示すように、「犬」等の動物を模した形状のいわゆるペット型ロボットとされ、胴体部ユニット2の前後左右にそれぞれ脚部ユニット3A,3B,3C,3Dが連結されると共に、胴体部ユニット2の前端部及び後端部にそれぞれ頭部ユニット4及び尻尾部ユニット5が連結されて構成されている。
【0031】
胴体部ユニット2には、図2に示すように、CPU(Central Processing Unit)10、DRAM(Dynamic Random Access Memory)11、フラッシュROM(Read 0nly Memory)12、PC(Personal Computer)カードインターフェース回路13及び信号処理回路14が内部バス15を介して相互に接続されることにより形成されたコントロール部16と、このロボット装置1の動力源としてのバッテリ17とが収納されている。また、胴体部ユニット2には、ロボット装置1の向きや動きの加速度を検出するための角速度センサ18及び加速度センサ19なども収納されている。
【0032】
また、頭部ユニット4には、外部の状況を撮像するためのCCD(Charge Coupled Device)カメラ20と、使用者からの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するためのタッチセンサ21と、前方に位置する物体までの距離を測定するための距離センサ22と、外部音を集音するためのマイクロホン23と、鳴き声等の音声を出力するためのスピーカ24と、ロボット装置1の「目」に相当するLED(Light Emitting Diode)(図示せず)などがそれぞれ所定位置に配置されている。
【0033】
さらに、各脚部ユニット3A〜3Dの関節部分や各脚部ユニット3A〜3D及び胴体部ユニット2の各連結部分、頭部ユニット4及び胴体部ユニット2の連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部分などにはそれぞれ自由度数分のアクチュエータ25〜25及びポテンショメータ26〜26が配設されている。例えば、アクチュエータ25〜25はサーボモータを構成として有している。サーボモータの駆動により、脚部ユニット3A〜3Dが制御されて、目標の姿勢或いは動作に遷移する。
【0034】
そして、これら角速度センサ18、加速度センサ19、タッチセンサ21、距離センサ22、マイクロホン23、スピーカ24及び各ポテンショメータ26〜26などの各種センサ並びにLED及び各アクチュエータ25 〜25は、それぞれ対応するハブ27〜27を介してコントロール部16の信号処理回路14と接続され、CCDカメラ20及びバッテリ17は、それぞれ信号処理回路14と直接接続されている。
【0035】
信号処理回路l4は、上述の各センサから供給されるセンサデータや画像データ及び音声データを順次取り込み、これらをそれぞれ内部バス15を介してDRAM11内の所定位置に順次格納する。また信号処理回路14は、これと共にバッテリ17から供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、これをDRAM11内の所定位置に格納する。
【0036】
このようにしてDRAM11に格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、この後CPU10がこのロボット装置1の動作制御を行う際に利用される。
【0037】
実際上CPU10は、ロボット装置1の電源が投入された初期時、胴体部ユニット2の図示しないPCカードスロットに装填されたメモリカード28又はフラッシュROM12に格納された制御プログラムをPCカードインターフェース回路13を介して又は直接読み出し、これをDRAM11に格納する。
【0038】
また、CPU10は、この後上述のように信号処理回路14よりDRAM11に順次格納される各センサデータ、画像データ、音声データ及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無などを判断する。
【0039】
さらに、CPU10は、この判断結果及びDRAM11に格納した制御プログラムに基づいて続く行動を決定すると共に、当該決定結果に基づいて必要なアクチュエータ25〜25を駆動させることにより、頭部ユニット4を上下左右に振らせたり、尻尾部ユニット5の尻尾5Aを動かせたり、各脚部ユニット3A〜3Dを駆動させて歩行させるなどの行動を行わせる。
【0040】
また、この際CPU10は、必要に応じて音声データを生成し、これを信号処理回路14を介して音声信号としてスピーカ24に与えることにより当該音声信号に基づく音声を外部に出力させたり、上述のLEDを点灯、消灯又は点滅させる。
【0041】
このようにしてこのロボット装置1においては、自己及び周囲の状況や、使用者からの指示及び働きかけに応じて自律的に行動し得るようになされている。
【0042】
(2)制御プログラムのソフトウェア構成
ここで、ロボット装置1における上述の制御プログラムのソフトウェア構成は、図3に示すようになる。この図3において、デバイス・ドライバ・レイヤ30は、この制御プログラムの最下位層に位置し、複数のデバイス・ドライバからなるデバイス・ドライバ・セット31から構成されている。この場合、各デバイス・ドライバは、CCDカメラ20(図2)やタイマ等の通常のコンピュータで用いられるハードウェアに直接アクセスすることを許されたオブジェクトであり、対応するハードウェアからの割り込みを受けて処理を行う。
【0043】
また、ロボティック・サーバ・オブジェクト32は、デバイス・ドライバ・レイヤ30の最下位層に位置し、例えば上述の各種センサやアクチュエータ25〜25等のハードウェアにアクセスするためのインターフェースを提供するソフトウェア群でなるバーチャル・ロボット33と、電源の切換えなどを管理するソフトウェア群でなるバワーマネージャ34と、他の種々のデバイス・ドライバを管理するソフトウェア群でなるデバイス・ドライバ・マネージャ35と、ロボット装置1の機構を管理するソフトウェア群でなるデザインド・ロボット36とから構成されている。
【0044】
マネージャ・オブジェクト37は、オブジェクト・マネージャ38及びサービス・マネージャ39から構成されている。オブジェクト・マネージャ38は、ロボティック・サーバ・オブジェクト32、ミドル・ウェア・レイヤ40、及びアプリケーション・レイヤ41に含まれる各ソフトウェア群の起動や終了を管理するソフトウェア群であり、サービス・マネージャ39は、メモリカード28(図2)に格納されたコネクションファイルに記述されている各オブジェクト間の接続情報に基づいて各オブジェクトの接続を管理するソフトウェア群である。
【0045】
ミドル・ウェア・レイヤ40は、ロボティック・サーバ・オブジェクト32の上位層に位置し、画像処理や音声処理などのこのロボット装置1の基本的な機能を提供するソフトウェア群から構成されている。また、アプリケーション・レイヤ41は、ミドル・ウェア・レイヤ40の上位層に位置し、当該ミドル・ウェア・レイヤ40を構成する各ソフトウェア群によって処理された処理結果に基づいてロボット装置1の行動を決定するためのソフトウェア群から構成されている。
【0046】
なお、ミドル・ウェア・レイヤ40及びアプリケーション・レイヤ41の具体なソフトウェア構成をそれぞれ図4に示す。
【0047】
ミドル・ウェア・レイヤ40は、図4に示すように、騒音検出用、温度検出用、明るさ検出用、音階認識用、距離検出用、姿勢検出用、タッチセンサ用、動き検出用及び色認識用の各信号処理モジュール50〜58並びに入力セマンティクスコンバータモジュール59などを有する認識系60と、出力セマンティクスコンバータモジュール68並びに姿勢管理用、トラッキング用、モーション再生用、歩行用、転倒復帰用、LED点灯用及び音再生用の各信号処理モジュール61〜67などを有する出力系69とから構成されている。
【0048】
認識系60の各信号処理モジュール50〜58は、ロボティック・サーバ・オブジェクト32のバーチャル・ロボット33によりDRAM11(図2)から読み出される各センサデータや画像データ及び音声データのうちの対応するデータを取り込み、当該データに基づいて所定の処理を施して、処理結果を入力セマンティクスコンバータモジュール59に与える。ここで、例えば、バーチャル・ロボット33は、所定の通信規約によって、信号の授受或いは変換をする部分として構成されている。
【0049】
入力セマンティクスコンバータモジュール59は、これら各信号処理モジュール50〜58から与えられる処理結果に基づいて、「うるさい」、「暑い」、「明るい」、「ボールを検出した」、「転倒を検出した」、「撫でられた」、「叩かれた」、「ドミソの音階が聞こえた」、「動く物体を検出した」又は「障害物を検出した」などの自己及び周囲の状況や、使用者からの指令及び働きかけを認識し、認識結果をアプリケーション・レイヤ41(図2)に出力する。
【0050】
アプリケーション・レイヤ4lは、図5に示すように、行動モデルライブラリ70、行動切換モジュール71、学習モジュール72、感情モデル73及び本能モデル74の5つのモジュールから構成されている。
【0051】
行動モデルライブラリ70には、図6に示すように、「バッテリ残量が少なくなった場合」、「転倒復帰する」、「障害物を回避する場合」、「感情を表現する場合」、「ボールを検出した場合」などの予め選択されたいくつかの条件項目にそれぞれ対応させて、それぞれ独立した行動モデル70〜70が設けられている。
【0052】
そして、これら行動モデル70〜70は、それぞれ入力セマンティクスコンバータモジュール59から認識結果が与えられたときや、最後の認識結果が与えられてから一定時間が経過したときなどに、必要に応じて後述のように感情モデル73に保持されている対応する情動のパラメータ値や、本能モデル74に保持されている対応する欲求のパラメータ値を参照しながら続く行動をそれぞれ決定し、決定結果を行動切換モジュール71に出力する。
【0053】
なお、この実施の形態の場合、各行動モデル70〜70は、次の行動を決定する手法として、図7に示すような1つのノード(状態)NODE〜NODEから他のどのノードNODE〜NODEに遷移するかを各ノードNODE〜NODEに間を接続するアークARC〜ARCに対してそれぞれ設定された遷移確率P〜Pに基づいて確率的に決定する有限確率オートマトンと呼ばれるアルゴリズムを用いる。
【0054】
具体的に、各行動モデル70〜70は、それぞれ自己の行動モデル70〜70を形成するノードNODE〜NODEにそれぞれ対応させて、これらノードNODE〜NODEごとに図8に示すような状態遷移表80を有している。
【0055】
この状態遷移表80では、そのノードNODE〜NODEにおいて遷移条件とする入力イベント(認識結果)が「入力イベント名」の列に優先順に列記され、その遷移条件についてのさらなる条件が「データ名」及び「データ範囲」の列における対応する行に記述されている。
【0056】
したがって、図8の状態遷移表80で表されるノードNODE100では、「ボールを検出(BALL)」という認識結果が与えられた場合に、当該認識結果と共に与えられるそのボールの「大きさ(SIZE)」が「0から1000」の範囲であることや、「障害物を検出(OBSTACLE)」という認識結果が与えられた場合に、当該認識結果と共に与えられるその障害物までの「距離(DISTANCE)」が「0から100」の範囲であることが他のノードに遷移するための条件となっている。
【0057】
また、このノードNODE100では、認識結果の入力がない場合においても、行動モデル70〜70が周期的に参照する感情モデル73及び本能モデル74にそれぞれ保持された各情動及び各欲求のパラメータ値のうち、感情モデル73に保持された「喜び(JOY)」、「驚き(SURPRISE)」若しくは「悲しみ(SUDNESS)」のいずれかのパラメータ値が「50から100」の範囲であるときには他のノードに遷移することができるようになっている。
【0058】
また、状態遷移表80では、「他のノードヘの遷移確率」の欄における「遷移先ノード」の行にそのノードNODE〜 NODEから遷移できるノード名が列記されていると共に、「入力イベント名」、「データ値」及び「データの範囲」の列に記述された全ての条件が揃ったときに遷移できる他の各ノードNODE〜NODEへの遷移確率が「他のノードヘの遷移確率」の欄内の対応する箇所にそれぞれ記述され、そのノードNODE〜NODEに遷移する際に出力すべき行動が「他のノードヘの遷移確率」の欄における「出力行動」の行に記述されている。なお、「他のノードヘの遷移確率」の欄における各行の確率の和は100[%]となっている。
【0059】
したがって、図8の状態遷移表80で表されるノードNODE100では、例えば「ボールを検出(BALL)」し、そのボールの「SIZE(大きさ)」が「0から1000」の範囲であるという認識結果が与えられた場合には、「30[%]」の確率で「ノードNODE120(node 120)」に遷移でき、そのとき「ACTION1」の行動が出力されることとなる。
【0060】
各行動モデル70〜70は、それぞれこのような状態遷移表80として記述されたノードNODE〜 NODEがいくつも繋がるようにして構成されており、入力セマンティクスコンバータモジュール59から認識結果が与えられたときなどに、対応するノードNODE〜NODEの状態遷移表を利用して確率的に次の行動を決定し、決定結果を行動切換モジュール71に出力するようになされている。
【0061】
図5に示す行動切換モジュール71は、行動モデルライブラリ70の各行動モデル70〜70からそれぞれ出力される行動のうち、予め定められた優先順位の高い行動モデル70〜70から出力された行動を選択し、当該行動を実行すべき旨のコマンド(以下、これを行動コマンドという。)をミドル・ウェア・レイヤ40の出力セマンティクスコンバータモジュール68に送出する。なお、この実施の形態においては、図6において下側に表記された行動モデル70〜70ほど優先順位が高く設定されている。
【0062】
また、行動切換モジュール71は、行動完了後に出力セマンティクスコンバータモジュール68から与えられる行動完了情報に基づいて、その行動が完了したことを学習モジュール72、感情モデル73及び本能モデル74に通知する。
【0063】
一方、学習モジュール72は、入力セマンティクスコンバータモジュール59から与えられる認識結果のうち、「叩かれた」や「撫でられた」など、使用者からの働きかけとして受けた教示の認識結果を入力する。
【0064】
そして、学習モジュール72は、この認識結果及び行動切換モジュール71からの通知に基づいて、「叩かれた(叱られた)」ときにはその行動の発現確率を低下させ、「撫でられた(誉められた)」ときにはその行動の発現確率を上昇させるように、行動モデルライブラリ70における対応する行動モデル70〜70の対応する遷移確率を変更する。
【0065】
他方、感情モデル73は、「喜び(joy)」、「悲しみ(sadness)」、「怒り(anger)」、「驚き(surprise)」、「嫌悪(disgust)」及び「恐れ(fear)」の合計6つの情動について、各情動ごとにその情動の強さを表すパラメータを保持している。そして、感情モデル73は、これら各情動のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール59から与えられる「叩かれた」及び「撫でられた」などの特定の認識結果と、経過時間及び行動切換モジュール71からの通知などに基づいて周期的に更新する。
【0066】
具体的には、感情モデル73は、入力セマンティクスコンバータモジュール59から与えられる認識結果と、そのときのロボット装置1の行動と、前回更新してからの経過時間などに基づいて所定の演算式により算出されるそのときのその情動の変動量を△E[t]、現在のその情動のパラメータ値をE[t]、その情動の感度を表す係数をkとして、(1)式によって次の周期におけるその情動のパラメータ値E[t+1]を算出し、これを現在のその情動のパラメータ値E[t]と置き換えるようにしてその情動のパラメータ値を更新する。また、感情モデル73は、これと同様にして全ての情動のパラメータ値を更新する。
【0067】
【数1】
Figure 0004296736
【0068】
なお、各認識結果や出力セマンティクスコンバータモジュール68からの通知が各情動のパラメータ値の変動量△E[t]にどの程度の影響を与えるかは予め決められており、例えば「叩かれた」といった認識結果は「怒り」の情動のパラメータ値の変動量△E[t]に大きな影響を与え、「撫でられた」といった認識結果は「喜び」の情動のパラメータ値の変動量△E[t]に大きな影響を与えるようになっている。
【0069】
ここで、出力セマンティクスコンバータモジュール68からの通知とは、いわゆる行動のフィードバック情報(行動完了情報)であり、行動の出現結果の情報であり、感情モデル73は、このような情報によっても感情を変化させる。これは、例えば、「吠える」といった行動により怒りの感情レベルが下がるといったようなことである。なお、出力セマンティクスコンバータモジュール68からの通知は、上述した学習モジュール72にも入力されており、学習モジュール72は、その通知に基づいて行動モデル70〜70の対応する遷移確率を変更する。
【0070】
なお、行動結果のフィードバックは、行動切換モジュレータ71の出力(感情が付加された行動)によりなされるものであってもよい。
【0071】
一方、本能モデル74は、「運動欲(exercise)」、「愛情欲(affection)」、「食欲(appetite)」及び「好奇心(curiosity)」の互いに独立した4つの欲求について、これら欲求ごとにその欲求の強さを表すパラメータを保持している。そして、本能モデル74は、これらの欲求のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール59から与えられる認識結果や、経過時間及び行動切換モジュール71からの通知などに基づいて周期的に更新する。
【0072】
具体的には、本能モデル74は、「運動欲」、「愛情欲」及び「好奇心」については、認識結果、経過時間及び出力セマンティクスコンバータモジュール68からの通知などに基づいて所定の演算式により算出されるそのときのその欲求の変動量をΔI[k]、現在のその欲求のパラメータ値をI[k]、その欲求の感度を表す係数kとして、所定周期で(2)式を用いて次の周期におけるその欲求のパラメータ値I[k+1]を算出し、この演算結果を現在のその欲求のパラメータ値I[k]と置き換えるようにしてその欲求のパラメータ値を更新する。また、本能モデル74は、これと同様にして「食欲」を除く各欲求のパラメータ値を更新する。
【0073】
【数2】
Figure 0004296736
【0074】
なお、認識結果及び出力セマンティクスコンバータモジュール68からの通知などが各欲求のパラメータ値の変動量△I[k]にどの程度の影響を与えるかは予め決められており、例えば出力セマンティクスコンバータモジュール68からの通知は、「疲れ」のパラメータ値の変動量△I[k]に大きな影響を与えるようになっている。
【0075】
なお、本実施の形態においては、各情動及び各欲求(本能)のパラメータ値がそれぞれ0から100までの範囲で変動するように規制されており、また係数k、kの値も各情動及び各欲求ごとに個別に設定されている。
【0076】
一方、ミドル・ウェア・レイヤ40の出力セマンティクスコンバータモジュール68は、図4に示すように、上述のようにしてアプリケーション・レイヤ41の行動切換モジュール71から与えられる「前進」、「喜ぶ」、「鳴く」又は「トラッキング(ボールを追いかける)」といった抽象的な行動コマンドを出力系69の対応する信号処理モジュール61〜67に与える。
【0077】
そしてこれら信号処理モジュール61〜67は、行動コマンドが与えられると当該行動コマンドに基づいて、その行動を行うために対応するアクチュエータ25〜25(図2)に与えるべきサーボ指令値や、スピーカ24(図2)から出力する音の音声データ及び又は「目」のLEDに与える駆動データを生成し、これらのデータをロボティック・サーバ・オブジェクト32のバーチャル・ロボット33及び信号処理回路14(図2)を順次介して対応するアクチュエータ25〜25又はスピーカ24又はLEDに順次送出する。
【0078】
このようにしてロボット装置1においては、制御プログラムに基づいて、自己(内部)及び周囲(外部)の状況や、使用者からの指示及び働きかけに応じた自律的な行動を行うことができるようになされている。
【0079】
(3)ロボット装置への本発明の適用
ここで、説明する技術は、本発明をロボット装置に適用するための原理となる技術である。
【0080】
(3−1)システム構造の概要
先ず、情動関連シンボル獲得(Emotinally Gounded Symbol Acquisition)を実現するシステム構造の概要を説明する。
【0081】
ここで、先ず、システムを構築するにあたり以下の問題を提起し、本発明を適用したシステムではこれを解決し、従来において達成できなかった、ライフライク(life-like)なロボット装置の実現を図っている。
(Req-1)言語獲得行動をどのようにロボット装置1のような自律行動システムに埋め込むか。
(Req-2)情動関連シンボル(Emotionally Grounded Symbol)をどのようにして構成するか。
(Req-3)実世界における認識対象物をどのようにカテゴライズするか。
(Req-4)ロボット装置1と人の間でどのようにして、同じ対象物に注意をはらうか。すなわち、共同注意(Shared Attention)の問題をどう解決するか。
【0082】
以上のように先ず問題を提起した。先ず、(Req-1)に対しては、動物行動学的モデル(Ethological Model)による自律行動生成と物理関連シンボル獲得(Physically Grounded Symbol Acquisition)の方法とを統合することで解決した。
【0083】
ここで、動物行動学的モデル(Ethological Model)による自律行動生成は、例えばArkinらの報告(Arkin, R.C., Fujita, M., Takagi, T., and Hasegawa, R. Ethological Model..., submitted to ICRA-2001、以下、文献6という。)やBatesの報告(Bates, J. The nature of character in interactive worlds and the oz project. Technical Report CMU-CS-92-200, Carnegie Mellon Unversity, Oct. 1992、以下、文献6という。)において提唱されている技術である。
【0084】
また、物理関連シンボル獲得(Physically Grounded Symbol Acquisition)の方法は、例えば、上述の文献1、文献2及び文献3において提唱されている技術である。
【0085】
特に、自律行動の1つとして情報に関する飢餓感を満たすような行動としての情報獲得行動を定義し、食物を食べる行動と同様なサブシステムとして、情報を「食べる」といった情報獲得行動を実現している。獲得対象とされる情報としては、対象物の呼び名や意味である。
【0086】
ここで、サブシステムは、ロボット装置1の行動を規定するシステムであって、ロボット装置1は、このサブシステムを行動の種類に応じて複数種類もっている。そして、サブシステムは、主に知覚や内部状態によって決定するようになされている。
【0087】
さらに、上述の(Req-2)の情動関連シンボル(Emotionally Grounded Symbol)に関しては、それらの行動の動機を生成している内部状態の変化とその時の入力、行動とを関連付けることで解決する。具体的には、入力のあったときの内部状態そのものではなく、入力に対しての内部状態の変化を関連づけることで、その対象物の個体への意味とその内部状態が満たされたときに情動想起との関連が可能にしている。
【0088】
また、(Req-3)に関しては、対象物を知覚(Perception)で認識(Categorize)し、知覚として検出した色等のカテゴライザー(Categorizer)として統計的なモデル等を用いることで、実世界の認識対象物を適切にカテゴライズしている。
【0089】
例えば、コンピューター内に構築された仮想的(Virtual)な世界で提案されているEl-Nasrらの報告(El-Nasr,M., Loeger, T., and Yen, J., PETEEI: A Pet with Evolving Emotionaly Intelligence, in proceedings of International Conference on Autonomous Agents, 2000、以下、文献8という。)のおいて提唱されているSynthesis Creaturとの違いは、ロボット装置が実世界で動作できなければならない点である。実世界の物体においては、色や形状といったものがそれぞれの特徴空間において連続的に分布している。さらに、それを見ただけでは現実にはどのような意味を持つものかをあらかじめプログラムされていなければ知ることができない。このようなことから、上述の(Req-3)に関しては、知覚(Perception)のカテゴライザー(Categorizer)として統計的なモデルなどを用いて解決した。
【0090】
上述の(Req-4)の共同注意の問題に関しては、この動物行動学的モデル(Ethological Model)の行動選択の中に、ある対象物に注目した行動をとる、という部分を利用して自然な形で実行することで解決している。
【0091】
実世界におけるシンボル獲得(Symbol Acquisition)で重要な機能にShared Attention(共同注意)或いはJoint Attentionといわれるものがある。Brunerの報告(Bruner, J. Learning how to do things with words, in J. Bruner and A. Garton (Eds.) Human growth and development, Wolfson College Lectures, Claredon Press, 1978、以下、文献9という。)においては、共同注意(Shared Attention)は、幼児の学習過程において重要な働きをすることが認知心理学などより指摘されている。例えば、指をさした方向や視線の方向を幼児が自然に見ることにより、教える側と教わる側が注意をむける対象物を共有する、という能力である。
【0092】
このような共同注意を、動物行動学的モデル(Ethological Model)の行動選択の中に、ある対象物に注目した行動をとる、という部分を利用して自然な形で自律行動に取り入れている。
【0093】
以下、まず最初に、動物行動学の研究(Ethological Study)を考慮した行動制御(Behavior Control)に関して簡単に説明する。例えば、動物行動学の動作制御の技術としては、上述の文献6が挙げられる。
【0094】
ついで、構造全体といかに情報獲得行動を自律型のロボット装置1のソフトウエアに統合するかに関して述べ、共同注意に関しての解決方法について説明する。
【0095】
(3−2)外的刺激と内的状態との関連付け(Fusion of External Stimuli and Internal Variables)
動物行動学的モデル(Ethological Model)における重要点は、行動が内部状態及び外的刺激の両者によって選択される、という点と、内部状態からのモチベーション(Motivation)生成と外的刺激からの知覚刺激(Release signal)はそれぞれ独立に評価され、行動評価値(Behavior Value)生成時に関連づけ(fusion)される、という点にある。これにより、内部状態をある範囲内に止めるようなホメオスタシス行動を生成することができる。ここで、ホメスタシス行動とは、例えば内部状態を一定に保つように表出される行動である。
【0096】
図9には、ある行動に対して、対応する内部状態と外的刺激とを独立に評価するための構成を示している。また、図10には、ホメスタシス行動を実現するための構成であって、具体的には、行動が体系的に構成され、外部環境を解して外的刺激を得て、内部状態を一定に保つ行動が選択されるための構成を示している。
【0097】
図9について、摂食行動(ingestive)の場合を例に挙げて説明する。モチベーション生成部(Motivation Creator)101は、空腹度等の内部状態から摂食行動のモチベーション値(motivation value)を評価して出力する。一方、リリースメカニズム(release mechanism)102は、摂食行動に関係する外的刺激、例えば、食物があればその摂食行動の知覚信号(release signal)を評価して出力する。そして、モチベーション値(motivation value)とリリース信号或いは知覚信号(release signal)とは独立に評価されている。
【0098】
行動評価部(Behavior evaluator)103では、モチベーション値(motivation value)とリリース信号(release signal)とを評価して、この行動そのものの評価値を行動評価値(behavior value)として出力する。このような行動が複数存在し、それぞれが独立に行動評価値(behavior value)を計算し、後述する行動選択部(Action selection)に出力する。行動選択部(Action selection)では、もっとも高い評価を与えた行動を選択して、その行動を実行する。
【0099】
ここで、モチベーション生成部(motivation creator)101を内部状態が適当な範囲からずれた場合に、それをもとの範囲に戻すことが出来る行動にするように定義させることで、その行動の対象物が外界に存在すればそれを獲得にいくという一般的な行動定義が実現され、これによりホメオスタシス行動が実現されるようになる。
【0100】
(3−3)情動関連シンボル獲得の構築(Emotionally Grounded Symbol Acquisition Architecture)
情動関連シンボル獲得(Emotionally Grounded Symbol Acquisition)により、自律行動の一部としての未知の対象物に対する情報獲得行動を実現している。情動関連シンボル獲得(Emotionally Grounded Symbol Acquisition)が自律行動の一部として実現される構成は、例えば図12に示すような構成になる。このシステム構築におけるポイントは以下のようになる。
(i)未知入力か既知入力かを判別できる各チャンネルのカテゴライザー。
(ii)各チャンネルのカテゴライズの結果を内部状態の変化するタイミングで記憶する連想記憶。
(iii)内部状態と外部刺激の動物行動学的モデル(Ethological Model)による統合。
【0101】
以上がシステム構築におけるポイントになる。なお、外部刺激が既知の刺激であれば、通常の動物行動学的(Ethological Model)によるホメオスタシス行動を基本とする自律行動を起こすようにしている。
【0102】
また、本発明を適用して実現した情動関連シンボル獲得(Emotionally Grounded Symbol Acquisition)では、その対象物が内部状態の何に対して重要であるかを記憶することも特徴であり、この点で、通常の物理関連シンボル獲得(Physically Grounded Symbol Acquisition)と大きく異なっている。
【0103】
このように、情動関連シンボル獲得(Emotionally Grounded Symbol Acquisition)では、対象物に情動関連(Emotionally Grounded)情報を関連付けており、このように対象物に情動を関連付けることにより、新しい対象物に対しても、どの行動(Action)をするべきかをリリースメカニズム(Release Mechanism)で評価することを可能としている。
【0104】
また、内部状態の変化を対象物との関係において連想記憶として持つことで、学習済みの入力が提示されたとき、連想記憶から2次情動(secondary emotion)に記憶してある内部状態(internal variables)の変化を出力し、それにより2次情動の生成をすることもできる。例えば、喜びや恐怖などを情動(emotion)として作り出す。
【0105】
これにより、対象物等を見たことに対応して、情動表出行動として表情をつくったり、行動選択に影響を及ぼしたり、動作に変調を与えることができるようになる。
【0106】
(3−4)情報獲得行動(Information Eating Behavior)
自律行動の一部としての情報獲得行動を実現するために、内部状態を示すモデルとして、内部状態の因子としての情報獲得欲求に関連する変数(以下、情報獲得変数という。)を有したサブシステム(以下、情報獲得行動サブシステムという。)を定義する。
【0107】
例えば、情報獲得行動サブシステムは、その情報獲得変数が、連想記憶が未知の入力に対して学習を行った場合に増加し、時間とともに減少するような内部モデルとして定義する。この情報獲得行動サブシステムは、情報獲得変数が欠乏状態になると、情報獲得行動に対するモチベーション(Motivation)を生成する。
【0108】
さらに、この場合において、リリースメカニズム(Release Mechanism)は、入力(情報)が未知のものであればリリース信号(release signal)を生成するようにする。これにより、食物を食べるのと同じように、情報を獲得する行動を内部状態及び外部刺激の関連付け(fusion)として生成することができるようになる。
【0109】
情報獲得行動として表出される具体的な行動としては、典型的なものとして、情報獲得欲が大きくなると、未知の物体を探す行動を発生し、さらにそれに対して“これは何?”などの質問行動をとること等が挙げられる。そして、一般に、このような行動はユーザーとの間での対話として形成されるものである。
【0110】
このようなシステムを構築することにより、好奇心をベースにした対話による情報獲得を実現することができ、さらにそのような情報獲得行動が自律行動の中に自然に埋め込むことができるようになる。すなわち、ロボット装置1において自律行動として実現されているインタラクションの新しい要素として情報獲得行動が実現される。
【0111】
(3−5)共同注意(Shared Attention)
システムの中にはShared Attention或いはJoint Attentionを自然なかたちとして埋め込まれている。システム構造において、共同注意に基づく情報獲得(Information Eating)の行動は以下のように実行される。
【0112】
上述のように内部状態と外部刺激との関連づけ(fusion)により情報獲得行動が行動選択部(Action selection)116により選択されたとする。
【0113】
リリースメカニズム(Release Mechanism)102がリリース信号を出す起因となった対象物が情報獲得を行うターゲットである。また、内部状態の飢餓感だけからこの行動が選択されたとすれば、探索が行われて、その結果として、ある対象物が情報獲得行動のターゲットになる。このように情報獲得を行うターゲットが、共同注意(Shared Attention)のターゲットになる。
【0114】
ロボット中心の場合は、すなわち、内部状態の飢餓感に起因する情報獲得行動の場合、ロボット装置1は、そのターゲットに近づき、指をさし、“これは何?”といった質問で人間の注意をその対象物に払ってもらうことにより共同注意(Shared Attention)が達成される。
【0115】
一方、ユーザが主導権を握っている場合、すなわち、リリースメカニズム(Release Mechanism)102が出したリリース信号を要因としてターゲットを特定する場合、先ずロボット装置1は、音や対象物を動かすことで、ユーザに注意を促すようにする。これに対応して、ユーザーは例えば指でターゲットを指しながら、“これは何?”と質問をすることが想定されるが、ロボット装置1では、この指や質問により行動獲得行動が選択された場合、指でさされた物をその対象物として特定する。これにより、ユーザが主導権を握っている場合においても、同じ対象物に対しての共同注意(Shared Attention)が達成される。
【0116】
このように、本発明では、システムに、注意が内部状態として欲しているもの、或いは外部刺激の強いものに対して払われる、という一般的な考え方の一部として共同注意(Shared Attention)を取り込んでいる。
【0117】
(3−5)内部状態変化と情動(INTERNAL VARIABLES AND EMOTIONS)
図12に示すように、感情部(Emotion part)130は、大きく分けて、知覚用内部状態部131、内部状態部132及び情動部133とから構成されている。
【0118】
1つ目の内部状態部132は、内部状態そのもののダイナミクスを管理する部分である。ここでいう内部状態には、後述するように栄養素、水分、疲労、好奇心等が擬似的に変数として存在している(図23)。ただし、これらの内部状態は、上述した他に、生物又は動物に見受けられる他の内部状態であってもよい。内部状態部132は、その個体保持に必要な状態をモニターし、それが適切な値から外れることを検知する。さらに、内部状態部132は、その内部状態を一定に保つため、すなわち、恒常性を保つために必要な行動に対するモチベーション生成部(Motivation Creator)に対して、内部状態を保持するために必要な行動を促す信号を送信する部分である。
【0119】
2つ目の知覚用内部状態部131は、内部センサー或いは外部センサーからの入力を解析し、内部状態管理部へ解析結果を入力する部分である。ここで、センサー信号解析は、本来の動物であれば、血液中の糖分の割合等から検出される食事に関する情報や疲労に関する情報等にあたる。ロボット装置1においては、バッテリ残量解析等がそれにあたるが、ロボット装置1においては、擬似的な食欲などを想定し、適当な行動(Action)を行うことで擬似的に内部状態を一定に保つための入力信号を作り出している。
【0120】
3つ目の情動部133は、内部状態の変化より快、不快などを生成し、喜び、怒りなどに対応する情動(emotions)を生成する部分である。この情動部133は、2次情動とも呼ばれ、内部情動(これを1次情動という。)の満たされ具合により快、不快信号などを発生する。さらに情動部133では、この快、不快信号と覚醒度、確信度などからいわゆる喜び、悲しみ、怒りなどの情動を生成する。2次情動は、情動表出のための動作、例えば顔の表情生成やそれに対応するLEDの光パターン生成等に利用される。
【0121】
この内部状態の変化は、図12に示すように、学習用メモリ(Associative Memory)140の学習のタイミングに使用される。これは換言すれば、学習は、内部状態が大きく変化したときに行うということである。また、内部状態と情動状態とはそれぞれ行動(Behavior)生成部のモチベーション生成部(Motivation Creator)に入力され、それぞれの行動動機の起因として利用される。
【0122】
(3−6)未知刺激の知覚(PERCEPTION FOR UNKNOWN STIMULI)
実世界におけるロボット装置1の開発において「認識」は大きな課題とされている。特に、実環境下における実時間認識では、様々な要因で変化する入力を既に学習してある情報と同一視すべきか、それとも新規な刺激と判断するかが大きな問題を生じる。
【0123】
近年、このような認識の分野において大きな成果を得ている手法として、統計的パターン認識(Statistical (or probabilistic) Pattern Classification)がある。これは、特徴空間に分布する入力サンプルをリスク関数最小化を統計的問題として扱い、そのためのパラメータを求める認識手法である。後述する発話認識として現在主流とされているHidden-Markov-Model(以下、HMMという。)もこの範疇の認識手法であり、また、画像認識においても代表的な認識手法である。
【0124】
本システムでは、この統計的パターン認識手法を用いて入力が未知のオブジェクトなのか、それとも既知のオブジェクトなのかを判断している。
【0125】
統計的パターン認識では、オブジェクトがそのプロトタイプであるか否かを確率或いは尤度を与えており、この確率或いは尤度を用いて、オブジェクトが未知刺激なのか既知の刺激なのかの識別を行っている。さらに、あるセンサーチャンネルの特徴空間における距離が近く、このチャンネルだけでの判別が困難な場合でも、他のチャンネルを用いた場合、優位な差が観測され、もとの空間における識別パラメータの調節を行うことなどもできる。
【0126】
(3−7)感情が記憶される学習用メモリ(ASSOCIATIVE MEMORY WITH EMOTIONS)
学習用メモリ(Associative Memory)は、各知覚用チャンネル(Perceptual Channel)の出力により内部状態が変化したことをトリガーに学習を行うためのものである。ここで、学習とは、具体的には、そのようにトリガーとされた内部状態の変化と、内部状態を変化させた、すなわち内部状態に影響を与えた対象物とを連想記憶することである。
【0127】
ここで、内部状態の変化は、例えば上述の「(3−5)内部状態変化と情動(INTERNAL VARIABLES AND EMOTIONS)」において述べた、センサー信号解析において実際にセンスできる量(関節で消費される電流等)と擬似的にセンスする量(擬似的な食べ物に対して食べるという動作をしていることの検出)をもとに生じるものである。ここで、関節で消費される電流とは、例えば動作された回数等により決定されるもので、例えば、「疲れ」の要因を構成する。
【0128】
連想としては、知覚チャンネル(Perception Channel)から送られてくるプロトタイプ(prototype)の番号とそのプロトタイプ(prototype)に属する確率或いは尤度をもとに、同時に生じている事象の結び付きを学習している。ここでいう事象の中には、行動生成を介して送られてくる対象物に対する名称等のいわゆる物理関連シンボル(Physically Grounded Symbol)も含まれており、これも学習として獲得する。
【0129】
さらに、同時に、トリガーとなる内部状態の変化と対象物に対して行った行動を同じく連想記憶する。これにより、その対象物にどのような行動をとれば、どのような内部状態の変化が起こるかが記憶されたことになる。このような学習が情動関連シンボル(Emotionally Grounded Symbol)の獲得になる。
【0130】
ここで、情動(Emotion)とは、直接的には内部状態の変化であるため1次情動と称されるものであるが、1次情動の変化により2次情動を生じさせることができるため、恐怖などにも関連付け(Grounded)されたシンボル(Symbol)である。
【0131】
(3−8)サブシステム及び行動(SUBSYSTEMS AND BEHAVIORS)
行動は、図10に示すような分類可能な複数の行動群とされるサブシステム(subsystem)115〜115に基づいて制御されている。サブシステム115〜115は、階層構造でかつツリー構造をもつものであり、最上位層が実際のサブシステムになる。
【0132】
例えば、上述の文献6にてArkinらが報告している動物行動学の研究において、canny behaviorとして必要十分と思われるサブシステムを挙げている。文献6にて報告されている技術の特徴は、図11に示すように、サブシステムの1つである摂食行動(Investigative)を情報を食べる、という行動として定義していることである。例えば、摂食行動(ingestive)というサブシステムは、食べ物(電気)を食べる、という行動として定義されている。これにより、理想的にはバッテリー残量を内部状態として、それをある範囲内に保つような行動を生成し、バッテリーが少なくなれば、充電場所の探索、充電欲求、あるいは自動充電という行動を生成するモチベーション(Motivation)を生成することが可能とされている。
【0133】
本システムでは、このような考え方を情報獲得のステップにおいて導入し、内部状態の項目として“新規情報の学習量”に対応するものを設け、時間等の因子により、減少するような内部状態のダイナミクスを定義している。そして、このような内部状態のダイナミクスでは、バッテリの場合と同様に“学習量”に応じた行動を生成するようにする。すなわち例えば、ロボット装置1は、“学習量”をある範囲内に保つように行動し、また、“学習量”が少なくなれば新規情報を獲得するために、未知対象物の探索、未知対象物が外的刺激として存在すれば、それに接近して、指をさし、"what is this?(これは何?)”という行動をし、或いは人が発話した名前を連想記憶で学習する、という行動を生成するようにする。ここで、学習量は、例えば、その学習対象物の特徴に応じて決定されたり、また、学習量は経時的に減少するようにする変化量である。
【0134】
さらに、もし対象物の名前を学習したが、それが内部状態に対してどのような意味があるかを獲得する行動を定義することもできる。これは、その対象物にある行動を試して、内部状態が変化したときにその行動(action)と内部状態変化を連想学習する、ということで実現することができる。
【0135】
(4)実際のロボット装置への適用(IMPLEMENTATION)
(4−1)4足歩行型のロボット装置の構造(Enhanced Four-legged Robot Platform)
上述のシステムが実装された4足歩行型のロボット装置1について説明する。図13には、ロボット装置1を構成として備えたネットワークシステムの一例を示している。
【0136】
このネットワークシステムにおいて、ロボット装置1は、無線LAN用カード(wireless LAN card)161を用いることにより、TCP/IP(Transmission Control Protocol/Internet Prorocol)のプロトコルを用いてネットワークに接続している。
【0137】
ロボット装置1は、例えば、MIPS R4XXXの約100MIPSの特性を持つCPUと16MBのメインメモリーとを備えている。そして、このロボット装置1は、出力としてprimitive behaviors(basic posture transition, to search an object, to track an object, to close to an object, to kick an object. to eat an object, etc)等の実行するソフトウエアと発音記号列を入力とするSpeechのオブジェクト(object)とを備えている。また、ロボット装置1は、目に対応するLEDを用いていくつかの表情をつくるコマンドも用意されている。
【0138】
このようなロボット装置1において、上述したようなシステムが構築されており、ロボット装置1は、例えば、自律行動の一部として情報獲得行動が表出する。
【0139】
さらに、このようなロボット装置1が接続されているネットワークシステムにより、ワークステーション163上においてもロボット装置1における処理と同様な処理を実行することができる。例えば、これにより、ワークステーション163上において、ロボット装置1における動作確認をすることができるようになる。ワークステーション163上において処理を行う場合については以下のようになされる。
【0140】
ロボット装置1は、入力は画像信号をキャプチャー(capture)し、無線LAN用カード161によって、無線LAN(wireless LAN)を介して画像をアクセスポイント162に送信する。そして、画像は、アクセスポイント162からイーサネット(ethernet)(登録商標)を介してワークステーション163に転送される。
【0141】
また、このようなロボット装置1からワークステーション163へ画像を転送する場合と同様に、ロボット装置1における関節角度検出やタッチセンサー、加速度センサー等によるセンサー検出情報がワークステーション163に転送される。また、例えば、このようにワークステーション163において処理する場合には、音に関してはロボット装置1のマイクを使わずに、ワークステーション163のマイクで入力することもできる。
【0142】
ワークステーション163上では、上述の画像等の入力信号を用いて上述のPerception, Evaluation for internal variable, Behavior subsystem, action selection等を実行する。これらの機能は、例えばLinux上に実装されたOPEN−R(ソニー株式会社が提供するシステム)によりワークステーション上にもロボット装置内と同じようにOPEN−Rオブジェクト(OPEN-R objects)を設計し、それらをネットワーク上で自由に結合することで実現される。例えば、現在はMatlabプログラムとOPEN-R objects on Linuxの混在で動作をしている。
【0143】
(4−2)実機の機能と実験結果(Implemented Functions and Experimental Results)
ロボット装置1は、本発明が適用されることにより、最終的には、自律行動の一部としての共同注意による情報獲得行動又は情動確認行動を表出するようになされている。具体的には、ロボット装置1は、図14に示すように、大別して、自律行動(ステップS1)、対象物の入力(ステップS2)及び行動選択(ステップS3)に段階を踏んで、最終的に、共同注意による情報獲得行動や情報確認行動を表出させている(ステップS4)。そして、ロボット装置1は、このような各段階を自律行動の一部として処理している。
【0144】
(4−2−1)知覚部(Perception Part)
図10に示すように、知覚部111は、ロボット装置1内に備えられている。具体的には、図12に示すように、知覚部121は、画像を知覚するための色知覚部122及び型知覚部123と、接触を知覚する接触知覚部(触覚部)124と、音を知覚する音声知覚部125とを備えている。
【0145】
具体的には、色知覚部122は、対象物の情報から後述の自動カラーセグメンテーションを行う部分であり、型知覚部123は、画像情報に基づいて対象物の型を分析を行う部分であり、また、音声知覚部125は、マイクからの発話入力に対して発話認識をする部分である。以下の説明は、このような各知覚部においてなされる処理についての説明になる。
【0146】
また、接触知覚部124は、例えば、ロボット装置1の足裏に備えられたいわゆる肉球形状とされたいわゆる肉球センサからの信号によって対象物への接触を検出する。
【0147】
(4−2−1−1)自動カラーセグメンテーション(Automatic Color Segmentation)
色を用いたカラーセグメンテーションが知覚刺激の入力において先ず行われる。カラーセグメンテーションでは、任意の単一色からなる複数のオブジェクトを切り分けることが可能とされている。また、カラーセグメンテーションでは教師なし学習によるクラスタリングアルゴリズムによるものを使用する。
【0148】
図15には、人工的に塗ったオブジェクト(図中A)と、そのカラーセグメンテーションの結果(図中(B))を示している。また、図16には、人間の手を含む自然画像、人の顔を含む自然画像(図中A)とそのカラーセグメンテーションの結果(図中B)を示している。
【0149】
ここで、入力画像は、比較的狭い視野角(53 x 41 度)のカメラよりシステムへの入力時に既にLow pass filterを通り88 x 60 pixelsに落とされたものである。これを考慮に入れ、セグメンテーションは画素(pixel)毎に独立した処理だけで行っている。このようにすることで、図15中B及び図16中Bに示すような良好な結果をほぼリアルタイムに得ることができる。
【0150】
また、通常、カラーセグメンテーションは、RGB或いは正規化したRGB空間で行うことが多いが、カメラの信号がY,Cr,Cbフォーマットであることから、(Nr, Nb) = (atan(Cr/Y) ,atan(Cb/Y))の2次元空間を色空間とする。RGB空間に写像する際に生じる計算量と量子化する際の誤差等を考慮すると非常に効率的な処理である。
【0151】
なお、このようなカラーセグメンテーションは、形状解析のための初期処理として用いられる。
【0152】
以下に、上述のカラーセグメンテーションにおけるクラスタリングのアルゴリズムの処理ステップ(i)〜(vi)の例を示す。
【0153】
ステップ(i)では、適当な数のプロトタイプ(prototype)を一様に配置する。
【0154】
ステップ(ii)では、下記の(3)式を距離としてすべての画素に対し最も近いプロトタイプ(prototype)へのクラスラベルをつける。
【0155】
【数3】
Figure 0004296736
【0156】
ここで、σhue,σsatは、図17に示すように、それぞれhueとsaturationに対応する分布であり、これらは予め適当なサンプル画像の分布より求めたものであり、一般にσhue<σsatである。すなわち、hue方向の誤差に重みを持たせた距離と考えることができる。
【0157】
ステップ(iii)では、もしそのプロトタイプに属する画素が少ない場合はそのプロトタイプを変更する。
【0158】
ステップ(iv)では、同じクラスラベルのついた平均位置にそのプロトタイプを移動する。
【0159】
ステップ(v)では、もし2つ以上のプロトタイプがある距離以下の場合は1つにまとめる。
【0160】
ステップ(vi)では、プロトタイプの位置の更新が少なくなってきたら、或いは適当な回数になったら終了する。それ以外は上述のステップ(ii)に戻って再び処理を開始する。
【0161】
なお、図18には、入力画像に対するクラスタリングの様子を示している。図18に示す例では、予め記憶してある肌色領域を分析し、指をさしている方向の検出とその延長線上にある物体の剥き出しを行っている場合を示している。例えば、この情報は、後述の共同注意(Shared Attention)において使用される。
【0162】
(4−2−1−2)型分析(Shape Analysis)
型分析(Shape Analysis)は、大きさ、回転の普遍特徴量であるフーリエ記述子(FD)を用い行っている。例えば、この型分析において、カテゴライズは、Fourier Descriptorの空間(64次元)でのL2ノルムを用いる。入力された物体をFD空間であらわし、もっとも近いプロトタイプとの距離を用いて新規プロトタイプとするかどうかを決定する。なお、図19には、カラーセグメンテーションで切り出された物体の形状分析の結果を示している。
【0163】
(4−2−1−3)発話認識(Speech Recognition)
発話認識(Speech Recognition)としてHMMを用いた連続発話認識を用いている。この技術としては、上述の文献5において提唱する技術がある。
【0164】
このシステムは、図20に示すように、音声入力部171、複数のHMMを備えたHMMレジスタ172、未知語入力用HMM173及び比較部174を備えている。
【0165】
HMMレジスタ172のHMMは、日本語の音韻学習をしたHMMであって、予め必要な単語が登録されている。また、HMMレジスタ172のHMMには、後発的に獲得された単語が学習されているものも含まれている。ここで、例えば、登録されている或いは獲得された単語としては、名詞及び動詞等が挙げられる。入力された音韻系列は、このようなHMMレジスタ172のHMMにおいて確信度として評価される。
【0166】
未知語入力用HMM173は、未知語獲得のためのHMMである。この未知語入力用HMM173は、図21に示すように、全ての音韻モデルをステートとし、全ての音韻ステートに結合している。例えば、未知語入力用HMM173は、図21に示すように、“bouruu”という発話入力がなされた場合には、“booru”として認識する。
【0167】
入力された音韻系列は、既に登録或いは獲得された単語のHMMと、この未知語入力用HMM173とにおいて評価されるが、このとき、確信度(verification value)を用いて最大にマッチしたHMMとの距離が比較部174において評価される。そして、確信度(verification value)がある値以上であれば新規音韻系列として新たなラベルをつけ、それがHMMレジスタ172のHMMとして登録される。
【0168】
例として、HMMレジスタ172が、HMMとして、“tomare (stop)”と“kere (kick)”という2つの単語が登録されているもののみを有する場合について説明する。図22には、このようなシステムを使用した場合の結果を示している。
【0169】
図22において、右側には登録してある単語に対する入力信号の確信度(verification)の値を示している。なお、この確信度(verification)の値は低いほど確信度が高い。
【0170】
例えば、“tomare”という発話に対して、システムは、”tomoare”という音韻系列の入力であると推定し、その確信度(verification)の値は0.136である。
【0171】
一方、図22において上から3番目の”booru (ball)”という未知語の入力に対しては、最もあうモデルは“tomare”であり、その確信度(verification)は4.835と非常に大きいためunknown-1という新しいシンボルが割り当てられて、登録される。これにより、システムは、次回の発話入力である図22において上から4番目に示す“booru (ball)”の発話入力に対しては、unknown-1に対応するHMMが最も近く、その確信度(verification)は0.41と小さい値をとり、正しくunknown-1により”booru(ball)”が獲得されるようになる。
【0172】
また、このシステムでは、HMMが連続発話認識が可能なため、図22において上から7番目の発話のように”booru kere”に対し、先に獲得した”booru”に対するラベルunknown-1に続き、kereというシンボルを認識することが可能とされている。
【0173】
このような発話認識のシステムによって、例えば、けれ、とまれなどである。もし、“ボール”という名詞を獲得すれば、“ボール けれ”という命令によりロボット装置1はボールをけることができるようになる。
【0174】
(4−2−1−4)感情部(Emotion Part)
図23には、内部状態(Internal Variables)及びそれに関連する行動(subsystem)の関係を示している。
【0175】
この例では、摂食行動の生理学モデルなどを参考にして、一般的な内部状態保持のために、仮想的な体内栄養貯蔵バッファと排泄用バッファを想定し、その貯蔵量を内部状態として定義している。それらは、例えばEnergy-2(疑似食物、Fake Food)の量とFake 排泄物(excrement)の量である。
【0176】
例えば、図24に示すように、仮想的な胃(体内栄養貯蔵バッファ)と仮想的な膀胱又は腸(排泄用バッファ)とを関連付けることにより、仮想的な胃の貯蔵量の減少が、仮想的な膀胱等の貯蔵量の増加をもたらすようにしている。
【0177】
図23に示すように、ある要因で増加或いは減少するようなダイナミクスを持っている。モチベーション生成部(Motivation Creator)の基本的な動作は、この内部状態変数をある許容範囲に保つために、対応する行動群(subsystem)のモチベーション(Motivation)を上げることになる。
【0178】
また、擬似的(Fake)な食物や水は主としてロボット装置1の娯楽性(Entertainment)の目的に実装されると考えられるが、その他に、本来の意味での電気Energyや疲労に相当する内的状態変数も存在している。これらも図23に示す増加、減少要因によりダイナミクスを構成し、対応するサブシステム(subsystem)のモチベーション生成部(motivation creator)はこれを一定に保つように行動の動機を与えるようになされている。ただし、ロボット装置1がいわゆる充電装置に自律行動として装着するような自動充電行動も考えられるが、このような自動充電行動を備えていない場合には、ロボット装置1は、充電に関してはそれを要求する行動を出し、他者(人間)に充電してもらうようにする。
【0179】
また、連想記憶に獲得される情報においても同様な内部状態変数を用意する。連想記憶で仮想的な意味の内部獲得情報量を計算し送られてくる。この場合、忘却がなければ連想記憶の内部情報量は増加するのみであるが、忘却を実装してなくても良い。適当な時間範囲内の各情報量の積分を増加要因、時間的減少要因の簡単なダイナミクスを構築して情報獲得行動サブシステムの動機を構成している。
【0180】
(4−2−1−5)学習用メモリ部(Associative Memory Part)
図25には、ロボット装置1が情報獲得に使用する学習用メモリ(Associative Memory)140の具体的な構成を示している。学習用メモリ140は、図25に示すように、短期用メモリ181、長期用メモリ182及び注意対象用メモリ183を備えている。この学習用メモリ140は、具体的には、図12に示すように備えられている。
【0181】
学習用メモリ(Associative Memory)140は、このような構成により、ある色とある形で1つの名前をもつ記憶部として機能し、さらに、そのものがロボット装置1の内的状態に対してどのような意味を持つかの記憶部として機能する。
【0182】
短期記憶用メモリ(Short Term Memory、STM)181において、画像内のID番号付けられた物体の情報が貯蔵される。このとき物体の情報は、色のプロトタイプ番号(CP-i)と形状のプロトタイプ番号(SP-j)の情報である。また、短期用メモリ(Short Term Memory)181には、音声処理から入力される1発話分の単語系列が入力される。
【0183】
画像からのデータは、色のプロトタイプ番号(CP-i)及び形状のプロトタイプ番号(SP-j)を入力として、物体の名称(HMM-k)と内部状態への影響(Delta-I)を得て、これらをひとまとめとされて図12に示すように、行動生成部(Behavior Generator)150に送られる。もし、物体の名称(HMM-k)と内部状態への影響(Delta-I)が得られない場合は、そこを空白(nil)情報をして送られる。発話データはそのまま行動生成部(Behavior Generator)150に送られる。
【0184】
一方、行動選択部(Action Selection)116において行動(Action)とその対象物体(Obj-ID)が選択されるが、この情報は後述する行動ステートマシン(Behavior State Machine)から学習用メモリ(Associative Memory)140に送られてくる。この対象物体(Obj-ID)に対応する情報は、短期用メモリ(Short Term Memory)181から注意対象用メモリ(Attention Object Memory、AOM)183に貯蔵される。なお、そのとき短期用メモリ(Short Term Memory)181に入っている発話された単語系列はそのまま注意対象用メモリ(Attention Object Memory)183に送られる。
【0185】
注意対象用メモリ(Attention Object Memory)183から本来の学習用メモリ(Associative Memory)として機能する長期用メモリ(Long Term Memory)182に対する学習のタイミングは、内部状態変化をトリガーとして行われる。これにより、ある対象物(Object)に対するあるアクションをしている際に内部状態が変化することにより、その対象物に関連付けて内部状態変化が記憶される。
【0186】
(4−2−1−6)行動生成部(Behavior Generation Part)
ここでは、ロボット装置1の行動を規定するサブシステムのうちの情報獲得行動サブシステムについて説明する。図26に示すように、情報獲得行動サブシステム151は、階層構造を有するものとして構成されている。
【0187】
行動のサブシステム層に1つのソフトウェアオブジェクト(software object)が存在する。
【0188】
このソフトウェアオブジェクト(software object)のモチベーション生成部(Motivation Creator)101は、上述の1次的内部記憶量が適当な範囲から外れるとモチベーション値(motivation value)が出力されるように構成されている。
【0189】
【数4】
Figure 0004296736
【0190】
一方、リリースメカニズム(Release Mechanism)102は、学習用メモリ(Associative Memory)140から送られてくる対象物(Object)を調べることによってなされる。リリースメカニズム(Release Mechanism)102では、現在未知のもの、と人間による指さしに関する知覚(release)因子を考慮している。ここで、例えば、知覚因子は、対象物(Object)の名前(Obj:Name)、Colorの名前(Color:Name)、Shapeの名前(Shape:Name)、その対象物(Object)の内部状態変化への影響(Act:Delta-I)である。
【0191】
リリースメカニズム(Release Mechanism)102は、知覚因子として得られたものに、情報の定義がなされていなければリリース信号(Release signal)を創出する。そして、リリースメカニズム(Release Mechanism)102が出力するリリース信号(release signal)の値は、1つの対象物に対しての未定義の数を累積したものとしてその物体に対応されて決定されている。例えば、対象物の名前(Obj:Name)と内部状態変化への影響(Act:Delta-I)のみを対象とすることもできる。
【0192】
そして、リリースメカニズム(Release Mechanism)102は、存在している対象物に対してリリース信号(release signal)を評価し、その値が最も大きな対象物を選択して、その選択した対象物(Obj)を特定するIDとリリース信号(release signal)を出力する。
【0193】
例えば、対象物としてリンゴが特定した場合には、ロボット装置1には、上述したような型分析やカラーセグメンテーションを使ってその型や色を分析して、知覚因子としてのColorの名前(Color:Name)、Shapeの名前(Shape:Name)を評価する。リンゴが予め登録されているような場合には、評価値が高いものもとして得られ、これにより対象物がリンゴであることが認識される。そして、その選択した対象物とされるリンゴを特定するIDとそのときのリリース信号(release signal)が出力される。また、リンゴが予め登録されていない場合には、未定義の数を累積し、これを、未知の対象物としてのリンゴに対応させる。
【0194】
一方、リリースメカニズム(Release Mechanism)102は、人間による指さしに関しては、さらに大きなリリース信号(release signal)を生成するように設定されている。そして、リリースメカニズム(Release Mechanism)102は、指差しによる物体検出がなされた場合には、その物体が未知であるか既知であるかにかかわらずリリース信号(release signal)を生成している。これは、指さしが明らかに人間から情報獲得或いは情報確認の要求であり、内部状態に大きく依存せずに情報獲得行動を誘引させたい、或いは既知のものに対して確認行動をとらせる、という考えによるものである。
【0195】
そして、情報獲得行動サブシステム151では、このリリース信号(release signal)とモチベーション値(motivation value)とを乗算したものを行動評価値(behavior value)として得る。また、同様にして、Eating等を規定する他の各サブシステム(subsystem)においても、情報獲得行動サブシステム151に入力されたリリース信号(release signal)とモチベーション値(motivation value)とを用いて、行動評価値(behavior value)を得る。
【0196】
そして、行動選択部116において、各サブシステム(subsystem)からの行動評価値(behavior value)を比較し、最も大きな行動評価値(behavior value)を持つサブシステム(subsystem)が実行するサブシステムとして選択される。こここで説明では、このような評価値の比較により、情報獲得行動サブシステム151における行動評価値(behavior value)が最大とされた場合となる。
【0197】
なお、選択されたサブシステム(subsystem)は、しばらく選び続ける必要があるが、これは、例えば、相互抑制や疲労要因(fatigue factor)などによって実現することができる。
【0198】
情報獲得行動サブシステム151が選択されると、図26に示すように、次にモード(Mode)MDと呼ばれる階層に進む。モード(Mode)MDでは、同様に、情報の選択処理がなされるが、具体的には、モード(Mode)では、上位層の選択が指さしによる物体か、自ら選択した物体、すなわち未知の物体か、が区別される。このモード(Mode)MDにおいて、区別がなされると、図26に示すように、その下層とされるモジュール(Module)MJといわれる層において、具体的な行動に対する評価がなされる。この評価に基づいて、行動選択部116において、具体的な行動の選択がなされる。
【0199】
これにより、ロボット装置1は、例えば、対象物が既知のものであれば、その確認行動をとるようになり、対象物が未知のものであれば、獲得行動をとるようになる。例えば、情報獲得行動は、対象物の名前(Obj:Name)と内部状態変化への影響(Act:Delta-Int)とで2種類の情報獲得がなされた場合には、サブシステム(subsystem)のところで最大値評価を与えた対象物を調べどちらかが選択されるようにすることもできる。
【0200】
例えば、確認行動を実行する場合の処理としては、その確認行動に対応するステートマシンに命令が送られ、その名前の確認行動が実行される。そして、ロボット装置1は、人間が指でさした物体を視覚的なトラッキング(Visual Tracking)をしながら近づき、それからその物体を指でさし、すなわち前脚でさし、“これはXXですね?”等といったような行動を表出させる。このような行動は、そのような行動を規定する行動シーケンスが記述されたステートマシンにより制御することにより実現される。
【0201】
対象物の名前(Obj:Name)の獲得行動をする場合の処理としては、その出力が対応する対象物の名前(Obj:Name)の獲得のためのステートマシンに送られる。
対象物の名前(Obj:Name)の獲得行動においては、その対象物に対して視覚的トラッキング(Visual Tracking)をしながら接近し、指をさし、“これはなんという名前?”等という行動を表出させる。また、このとき、対象物との距離を用いて適切な行動制御がなされる。このような行動は、そのような行動を規定する行動シーケンスが記述されたステートマシンにより制御することにより実現される。
【0202】
そして、“これはなんという名前?”に引き続き、入力された発話認識部からの出力に有効なものがあれば、その音韻系列を繰り返して確認するようなステートマシンを組み込むこともできる。
【0203】
一方、内部状態変化への影響(Act:Delta-Int)による獲得行動、すなわち、内部状態変化に基づく未知の対象物に対する獲得行動が選択されると、その対象物に対していくつかの行動をランダムに選択して実行する。そして、そのときに生じる内部状態変化への影響(Delta-Int)を連想記憶で評価する。これにより、この対象物が内部状態に関連付け(Grounding)されるので、新たな対象物に対する内部状態変化への影響が意味獲得としてなされるようになる。
【0204】
例えば、リンゴを見て、そのときに内部状態が「快」に変化した場合には、その内部状態の変化を、対象物であるリンゴに対応させてる。以後、ロボット装置1は、リンゴを快として意味解釈するようになり、これにより、リンゴの意味獲得がロボット装置1においてなされたことになる。
以上のように、ロボット装置1は、本発明が適用されることにより、自律行動の一部として情報獲得行動を表出させて、最適な挙動としての共同注意を実行し、さらには、そのような情報獲得行動において、内部状態の変化として得られる未知の対象物の意味を獲得することができる。これにより、ロボット装置1は、よりライフライク(Life-like)に近づけられたものとなる。
【0205】
なお、上述したような、ロボット装置1への本発明の適用は、例えばソフトウェアとよって実現可能とされるものである。
【0206】
【発明の効果】
本発明に係るロボット装置は、自律行動の一行動として情報獲得行動をさせる行動制御手段を備えることにより、自律行動の一行動として情報獲得行動を表出することができる。
【0207】
また、本発明に係るロボット装置の行動制御方法は、ロボット装置の自律的行動の一行動として情報獲得行動をさせることにより、ロボット装置は、自律的行動の一行動として情報獲得行動を表出することができる。
【0208】
また、本発明に係るロボット装置は、対象物の意味を獲得する意味獲得手段を備えることにより、対象物の意味を獲得することができるようになる。
【0209】
また、本発明に係るロボット装置の行動制御方法は、内部状態に基づいて行動をしているロボット装置が対象物に対する行動をしたときの、内部状態の変化を当該対象物の意味として獲得することにより、ロボット装置は、内部状態に基づいて行動をし、対象物に対する行動をしたときの内部状態の変化を当該対象物の意味として獲得することができる。
【0210】
また、本発明に係るロボット装置は、音声入力手段と、発話した際の単語系列の特徴量に基づいて区分けされた複数の単語系列特徴モデルと、音声入力手段になされた発話入力を、単語系列特徴モデルに基づいて評価する発話入力評価手段と、発話入力評価手段の評価値に基づいて、発話入力の単語系列を特定する単語系列特定手段とを備えることにより、音声入力手段になされた発話入力を、発話した際の単語系列の特徴量に基づいて区分けされた複数の単語系列特徴モデルに基づいて発話入力評価手段により評価し、発話入力評価手段の評価値に基づいて、発話入力の単語系列を単語系列特定手段により特定することができる。これにより、ロボット装置は、入力された発話を最適な単語系列として特定することができる。
【0211】
また、本発明に係るロボット装置の行動制御方法は、音声入力工程と、音声入力工程にてなされた発話入力を、発話した際の単語系列の特徴量に基づいて区分けされた複数の単語系列特徴モデルに基づいて評価する発話入力評価工程と、発話入力評価工程にて得た評価値に基づいて、発話入力の単語系列を特定する単語系列特定工程とを有することにより、ロボット装置は、入力された発話を最適な単語系列として特定することができる。
【0212】
また、本発明に係るロボット装置は、自己の学習対象物を指し示す行動制御をする制御手段を備えることにより、自己の学習対象物を指し示す行動をすることができる。これにより、ロボット装置とユーザとの間の共同注意が確実なものとされるようになる。
【0213】
また、本発明に係るロボット装置の行動制御方法は、自律行動するロボット装置が自己の学習対象物を指し示すようにロボット装置の行動を制御することにより、ロボット装置は、自己の学習対象物を指し示す行動をすることができる。これにより、ロボット装置とユーザとの間の共同注意が確実なものとされるようになる。
【0214】
また、本発明に係るロボット装置は、対象物を検出するセンサと、センサからの入力信号を評価する知覚用評価部と、知覚用評価部の評価結果が入力され、当該評価結果に基づいて変化する擬似的内部状態を管理する内部状態管理部と、対象物と当該対象物に基づく内部状態の変化との関係を記憶する記憶手段とを備えることにより、対象物が検出された際に、検出された対象物に基づく上記内部状態の変化と上記対象物とを関連させて上記記憶手段に記憶することができる。
【0215】
また、本発明に係るロボット装置の行動制御方法は、対象物を検出するセンサからの入力信号を評価する知覚評価工程と、知覚評価工程における評価結果に基づいて変化する擬似的内部状態を管理する内部状態管理工程と、対象物と当該対象物に基づく内部状態の変化との関係を記憶手段に記憶する記憶工程とを有することにより、ロボット装置は、対象物が検出された際に、検出された対象物に基づく上記内部状態の変化と上記対象物とを関連させて上記記憶手段に記憶することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態であるロボット装置の外観構成を示す斜視図である。
【図2】上述のロボット装置の回路構成を示すブロック図である。
【図3】上述のロボット装置のソフトウェア構成を示すブロック図である。
【図4】上述のロボット装置のソフトウェア構成におけるミドル・ウェア・レイヤの構成を示すブロック図である。
【図5】上述のロボット装置のソフトウェア構成におけるアプリケーション・レイヤの構成を示すブロック図である。
【図6】上述のアプリケーション・レイヤの行動モデルライブラリの構成を示すブロック図である。
【図7】ロボット装置の行動決定のための情報となる有限確率オートマトンを説明するために使用した図である。
【図8】有限確率オートマトンの各ノードに用意された状態遷移表を示す図である。
【図9】行動を選択する構成部を示すブロック図である。
【図10】知覚によって行動を選択する構成部を示すブロック図である。
【図11】サブシステムの具体例を示す図である。
【図12】行動を選択する構成のより具体的な構成部を示すブロック図である。
【図13】ロボット装置が共同注意により、情報獲得行動又は情報確認行動を表出するまでの一連の手順を示すフローチャートである。
【図14】ロボット装置を含むネットワークシステムの構成を示す図である。
【図15】任意の単一色からなる入力画像のカラーセグメンテーションについての説明に使用した図である。
【図16】人間が含まれた入力画像のカラーセグメンテーションについての説明に使用した図である。
【図17】カラーセグメンテーションのクラスタリングの説明に使用した図である。
【図18】入力画像のクラスタリングの様子を示す図である。
【図19】カラーセグメンテーションにより切り出された外形分析の結果を示す図である。
【図20】発話認識を実現する構成部を示すブロック図である。
【図21】未知語入力用HMMの構成例を示す図である。
【図22】発話認識の結果を示す図である。
【図23】内部状態に関する情報を示す図である。
【図24】仮想的な胃と仮想的な膀胱等の関係を示す図である。
【図25】学習用メモリの構成を示すブロック図である。
【図26】外部刺激、内部状態に基づく情報から、共同注意による情報獲得行動又は情報確認行動を表出するまでの処理を示す図である。
【符号の説明】
1 ロボット装置、10 CPU、101 モチベーション生成部、102 リリースメカニズム、103 動作評価部、111 知覚部、112 知覚用内部状態部、113 内部状態部、114 情動部、115 サブシステム、116 行動選択部、140 学習用メモリ

Claims (3)

  1. 自律行動するロボット装置であって、
    対象物を検出するセンサと、
    上記センサからの入力信号を評価する知覚用評価部と、
    上記知覚用評価部の評価結果が入力され、上記評価結果に基づいて変化する擬似的内部状態を管理する内部状態管理部と、
    上記対象物と当該対象物に基づく上記内部状態の変化との関係を記憶する記憶手段と、
    行動生成部とを備え、
    対象物が検出された際に、検出された対象物に基づく上記内部状態の変化と上記対象物とを関連させて上記記憶手段に記憶し、
    上記内部状態管理部は、上記内部状態の変化因子としての情報獲得欲に関連し経時的に減少する変数が新規情報の学習量である情報獲得変数を有し、上記内部状態を一定に保つようにする内部状態の恒常性に基づいて上記内部状態を管理するとともに、上記恒常性が乱れたときには上記行動生成部に第1の信号を送信し、上記情報獲得変数の値に基づいて上記行動生成部に第2の信号を送信し、
    上記行動生成部は、上記第1の信号に基づいて上記恒常性を保つための行動を生成し、上記第2の信号に基づいて上記情報獲得変数が欠乏状態を示す所定の閾値以下となったとき、該情報獲得変数を該閾値より大きくするための情報獲得行動を生成するロボット装置。
  2. 上記内部状態の変化と上記恒常性を保つための行動とを上記記憶手段に連想記憶する請求項記載のロボット装置。
  3. 上記情報獲得行動が、情報として言語を獲得する言語獲得行動である請求項記載のロボット装置。
JP2001317315A 2000-10-13 2001-10-15 ロボット装置 Expired - Fee Related JP4296736B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001317315A JP4296736B2 (ja) 2000-10-13 2001-10-15 ロボット装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000314524 2000-10-13
JP2000-314524 2000-10-13
JP2001317315A JP4296736B2 (ja) 2000-10-13 2001-10-15 ロボット装置

Publications (2)

Publication Number Publication Date
JP2002219677A JP2002219677A (ja) 2002-08-06
JP4296736B2 true JP4296736B2 (ja) 2009-07-15

Family

ID=26602109

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001317315A Expired - Fee Related JP4296736B2 (ja) 2000-10-13 2001-10-15 ロボット装置

Country Status (1)

Country Link
JP (1) JP4296736B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210303964A1 (en) * 2020-03-25 2021-09-30 Casio Computer Co., Ltd. Apparatus control device, apparatus, apparatus control method, and storage medium

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3574632B2 (ja) * 2001-07-09 2004-10-06 憲三 岩間 単語学習ロボット、移動物体の学習動作制御装置およびその方法
JP3529049B2 (ja) * 2002-03-06 2004-05-24 ソニー株式会社 学習装置及び学習方法並びにロボット装置
JP3951235B2 (ja) 2003-02-19 2007-08-01 ソニー株式会社 学習装置及び学習方法並びにロボット装置
JP2004268235A (ja) 2003-03-11 2004-09-30 Sony Corp ロボット装置、その行動制御方法及びプログラム
JP4179230B2 (ja) 2004-06-07 2008-11-12 ソニー株式会社 ロボット装置及びその動作制御方法
JP5892361B2 (ja) * 2011-08-02 2016-03-23 ソニー株式会社 制御装置、制御方法、プログラム、及びロボット制御システム
JP6467710B2 (ja) * 2015-04-06 2019-02-13 信太郎 本多 環境に適応する、汎用性を意識した人工知能システム
CN105945949A (zh) * 2016-06-01 2016-09-21 北京光年无限科技有限公司 面向智能机器人的信息处理方法及系统
WO2019163312A1 (ja) 2018-02-26 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN109299240B (zh) * 2018-09-30 2022-02-25 北京小谛机器人科技有限公司 聊天机器人知识展示方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210303964A1 (en) * 2020-03-25 2021-09-30 Casio Computer Co., Ltd. Apparatus control device, apparatus, apparatus control method, and storage medium
US11886970B2 (en) * 2020-03-25 2024-01-30 Casio Computer Co., Ltd. Apparatus control device, apparatus, apparatus control method, and storage medium

Also Published As

Publication number Publication date
JP2002219677A (ja) 2002-08-06

Similar Documents

Publication Publication Date Title
KR100864339B1 (ko) 로봇 장치 및 로봇 장치의 행동 제어 방법
US7813835B2 (en) Robot behavior control system, behavior control method, and robot device
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
US20050240412A1 (en) Robot behavior control system and method, and robot apparatus
US7515992B2 (en) Robot apparatus and emotion representing method therefor
JP2011115944A (ja) ロボット装置、ロボット装置の行動制御方法及びプログラム
EP1406135B1 (en) Man-machine interface unit control method; robot apparatus; and its action control method
Breazeal et al. Toward teaching a robot ‘infant’using emotive communication acts
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
KR20030007533A (ko) 로봇 장치의 동작 제어 방법, 프로그램, 기록 매체 및로봇 장치
JP2006110707A (ja) ロボット装置
JP4296736B2 (ja) ロボット装置
JP2002160185A (ja) ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法
JP3558222B2 (ja) ロボットの行動制御システム及び行動制御方法、並びにロボット装置
JP2007125629A (ja) ロボット装置及びその行動制御方法
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
JP2004114285A (ja) ロボット装置及びその行動制御方法
JP2001157980A (ja) ロボット装置及びその制御方法
JP2004209599A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動生成方法
JP2002264057A (ja) ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
JP2002269530A (ja) ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
Chumkamon Study on Emotion and Behavior Generating System based on Facial Expression Recognition
JP2005193330A (ja) ロボット装置及びその情動表出方法
JP2007125630A (ja) ロボット装置及びその行動制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080701

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090324

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090406

R151 Written notification of patent or utility model registration

Ref document number: 4296736

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120424

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130424

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140424

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees