JP2005169567A - コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置 - Google Patents

コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置 Download PDF

Info

Publication number
JP2005169567A
JP2005169567A JP2003413427A JP2003413427A JP2005169567A JP 2005169567 A JP2005169567 A JP 2005169567A JP 2003413427 A JP2003413427 A JP 2003413427A JP 2003413427 A JP2003413427 A JP 2003413427A JP 2005169567 A JP2005169567 A JP 2005169567A
Authority
JP
Japan
Prior art keywords
content
internal state
information
robot apparatus
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003413427A
Other languages
English (en)
Other versions
JP4556425B2 (ja
Inventor
Takuma Aoyama
拓磨 青山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003413427A priority Critical patent/JP4556425B2/ja
Publication of JP2005169567A publication Critical patent/JP2005169567A/ja
Application granted granted Critical
Publication of JP4556425B2 publication Critical patent/JP4556425B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Toys (AREA)

Abstract

【課題】ロボット装置の表現能力を向上させる。
【解決手段】
外部情報、外部からの働きかけに応じた動作及び/又は内部状態に基づいて自律的に行動するロボット装置10は、コンテンツ再生装置20に対して感情情報を送信する。コンテンツ再生装置20は、コンテンツに関する情報を記述したメタデータとロボット装置10の感情情報とを比較し、ロボット装置10の感情に適合するコンテンツを選択する。そして、選択したコンテンツを再生部26で再生してロボット装置10の感情を表現する。
【選択図】図1

Description

本発明は、コンテンツ再生システム、コンテンツ再生方法、及びコンテンツ再生装置に関し、具体的には、外部情報、外部からの働きかけに応じた動作及び/又は内部状態に基づく自律的動作を実行するロボット装置の内部状態に適合したコンテンツを再生するコンテンツ再生システム、コンテンツ再生方法、及びコンテンツ再生装置に関する。
最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う動物の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等の脚式移動ロボットは、既に実用化されつつある。
これらの脚式移動ロボットは、産業用ロボットと比較してエンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボットと呼称される場合もある。
上述したような自律型のロボット装置は、人間と円滑にコミュニケーションをとることでロボット装置への愛着信及び好奇心を向上させて、エンターテインメント性を向上しうるものと考えられる。
従来、人間と円滑にコミュニケーションをとるためにロボット装置に発光素子を取り付け、その発光パターンや発光色によりロボット装置の感情を表現している(例えば、特許文献1参照)。
しかしながら、発光素子の発光パターンや発光色による感情の表現は、人間の感情表現とは、大きく異なるため、ロボット装置の感情表現に慣れていない人間は、ロボット装置の感情を認識することができない。
また、発光手段を用いた感情表現方法では、“喜び”や“悲しみ”など単純な感情しか表現することしかできないため、ロボット装置の複雑な感情や欲求、思考内容などを適切に表現することができない。ロボット装置が感情や思考内容を適切に表現すると、ロボット装置と人間とのコミュニケーションをより円滑化しうるものと考えられる。
特許第3277500号
本発明は、以上の点を考慮してなされたもので、ロボット装置の表現能力をより一層向上させうるコンテンツ再生システム、コンテンツ再生装置、及びコンテンツ再生方法を提供する。
上述した課題を解決するために、本発明にかかるコンテンツ再生システムは、外部情報、外部からの働きかけに応じた動作及び/又は内部状態に基づく自律的動作を実行するロボット装置と、コンテンツに関する情報を記憶する記憶手段と、ロボット装置の内部状態を受信する内部状態受信手段と、ロボット装置の内部状態とコンテンツに関する情報とを比較し、ロボット装置の内部状態に適合したコンテンツを選択するコンテンツ選択手段と、選択手段にて選択したコンテンツを再生するコンテンツ再生手段とを備えたコンテンツ再生装置とを備えた。
また、本発明にかかるコンテンツ再生方法は、外部情報、外部からの働きかけに応じた動作及び/又は内部状態に基づく自律的動作を実行するロボット装置の内部状態を受信する内部状態受信工程と、コンテンツの内容を示す情報を受信する情報受信工程と、内部状態とコンテンツの内容を示す情報とを比較し、内部状態に適合したコンテンツを検索するコンテンツ検索工程と、コンテンツを再生するコンテンツ再生工程とを有する。
また、本発明にかかるコンテンツ再生装置は、外部情報、外部からの働きかけに応じた動作及び/又は内部状態に基づく自律的動作を実行するロボット装置の内部状態を受信する内部状態受信手段と、コンテンツの内容を示す情報を記憶する記憶手段と、ロボット装置の内部状態とコンテンツの内容を示す情報とを比較し、ロボット装置の内部状態に適合したコンテンツを選択するコンテンツ選択手段と、ロボット装置の内部状態に適合したコンテンツを再生するコンテンツ再生手段とを備える。
本発明は、コンテンツを再生してロボット装置の内部状態を表現するため、ロボット装置の表現力が広がり、ロボット装置のエンターテインメント性が向上する。本発明では、ロボット装置の内部状態とコンテンツに関する情報とを比較し、コンテンツの内部状態に適合したコンテンツを選択する。
また、本発明では、ネットワーク上に存在するコンテンツ及びコンテンツに関する情報を記録した外部記録装置を検索し、この外部記録装置からコンテンツに関する情報を受信する。そして、このコンテンツに関する情報を記録した外部記録装置に対してコンテンツの配信を要求する。ネットワーク上には、無数の外部記録装置が存在するので、コンテンツの選択の幅が広がる。
以下、本発明を適用したコンテンツ再生システムについて説明する。ロボット装置は、外部環境や外部からの働きかけに応じて内部状態を変更して自律的に動作を行う。コンテンツ再生システムは、コンテンツに付加されたメタ情報とロボット装置の内部状態とを比較し、ロボット装置の内部状態に適合したコンテンツを再生することによりロボット装置の内部状態をユーザに通知するシステムである。
図1は、コンテンツ再生システムの一例を示している。以下に示すコンテンツ再生システム1は、ロボット装置10の内部状態の1つである感情をコンテンツで表現する。コンテンツ再生システム1は、感情を変化し自律的に行動するロボット装置10と、ロボット装置10の感情に適合したコンテンツを選択し再生するコンテンツ再生装置20とから構成される。
図2はロボット装置10の外観構成を示しており、図3はロボット装置10の内部構成を示している。ロボット装置10は、四肢を有する動物の形状や構造をモデルにして構成された多関節型のロボット装置10である。特に、このロボット装置10は、愛玩動物の代表例であるイヌの形状及び構造を模してデザインされたペット型ロボットであり、例えば、実際のイヌと同じように、人間の住環境において人間と共存するような形態でユーザ操作に応じた動作表現をする。
本実施の形態において、ロボット装置10は、4足歩行のロボットとしているが、ロボット装置10は、2足、4足、6足などの脚式歩行を行うロボットのほか、クローラ式など他の移動メカニズムによって移動するロボット装置10にも、本発明を適用することができる。
ロボット装置10は、胴体部ユニット2と、四肢すなわち脚部ユニット3A〜3Dと、頭部ユニット4と、尻尾5とで構成される。頭部ユニット3は、ロール、ピッチ及びヨーの各軸方向の自由度を持つ首関節5を介して、胴体部ユニット2の略前上端に配設されている。
また、頭部ユニット3には、イヌの「目」に相当するCCD(Charge Coupled Device:電荷結合素子)カメラと116、「耳」に相当するマイクロフォン115と、「口」に相当するスピーカ118と、触感に相当するタッチセンサ117が搭載されている。
また、ロボット装置10における主制御部11では、加速度センサ14、タッチセンサ117、接地センサ13A〜13D等の各種センサ、及びCCDカメラ16からの画像情報、マイクロフォン15からの音声情報等を統括して処理している。主制御部11は、ロボット装置10の間接部に設けられたアクチュエータ3A〜3A、3B〜3B、3C〜3C、3D〜3D、4〜4、5、5と接続されている。
主制御部11は、上述の各センサから供給されるセンサデータや画像データ及び音声データを順次取り込み、これらをそれぞれ内部インターフェイスを介してDRAM12内の所定位置に順次格納する。また、主制御部11は、バッテリセンサ19から供給されるバッテリ残量データを順次取り込み、これをDRAM12内の所定位置に格納する。DRAM12に格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、主制御部11がこのロボット装置10の動作制御を行う際に利用される。
主制御部11は、上述のように主制御部11よりDRAM12に順次格納される各センサデータ、画像データ、音声データ及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無などを判断する。さらに、主制御部11は、この判断結果及びDRAM12に格納した制御プログラムに基づいて自己の状況に応じて行動を決定するとともに、当該決定結果に基づいて必要なアクチュエータを駆動させる。
ロボット装置10の行動生成は、後述する行動生成モジュール51で行う。行動生成モジュール51では、ロボット装置10の行動を認識し、この行動に応じてロボット装置10の感情のパラメータや欲求のパラメータを変化させる。本発明のロボット装置10は、行動生成モジュール51で生成した感情をコンテンツ再生装置20に送信する。なお、行動生成モジュール51の詳しい説明は後述する。
次いでコンテンツ再生装置20について図1を参照して説明する。コンテンツ再生装置20は、コンテンツを記憶するコンテンツ記憶部21と、コンテンツの内容を示すメタデータを記憶するメタデータ記憶部22と、ロボット装置10と無線通信を行う無線通信部23と、ロボット装置10から受信した感情を記憶する感情情報記憶部24と、メタデータとロボット装置10の感情の相関を基にロボット装置10の感情に対応したコンテンツを選択するコンテンツ選択部25と、コンテンツを再生する再生部26とを備える。
無線通信部23は、ロボット装置10の感情情報を入力する。無線通信部23は、入力した感情情報を感情情報記憶部24に記憶させる。この感情には、「喜び」、「悲しみ」、「怒り」、「驚き」、「嫌悪」及び「恐れ」などがある。
コンテンツ記憶部21は、映画、ドラマ、ニュース、音楽などのコンテンツを記憶する。各コンテンツには、コンテンツに関係する情報であるメタデータが付加されている。メタデータは、メタデータ記憶部22に記憶されている。メタデータは、複数の項目から構成される。メタデータを構成する項目には、コンテンツのタイトル、ジャンル、内容紹介などがある。以下、各コンテンツに1つのメタデータが付加されているものとして説明するが、コンテンツが複数のセグメントから構成される場合には各セグメントにメタデータを付加してもよい。
コンテンツ選択部23は、メタデータ記憶部22が記憶しているメタデータと感情情報記憶部24が記憶している感情情報とを比較し、ロボット装置10の感情情報と最も相関が深いメタデータを選択する。コンテンツ選択部23のコンテンツ選択方法の一例を説明する。この例におけるコンテンツ選択部23は、図4に示すようにロボット装置10の感情に関連するキーワードを記録している。キーワードは、メタデータの項目に区分して記憶されている。コンテンツ選択部23は、メタデータの項目内容とキーワードとをマッチングし、キーワードと最も適合度が高いコンテンツを選択する。また、適合度が等しい複数のコンテンツを選択した場合、コンテンツ選択部23は、複数のコンテンツから無作為に1つのコンテンツを選択する。コンテンツをランダムに選択するのは、コンテンツを偏りなく選択するためである。コンテンツ選択部23は、選択したコンテンツを再生部26に出力する。
上述したコンテンツ再生システム1がロボット装置10の感情に適合したコンテンツを再生する手順について図5を参照して説明する。ここで、ロボット装置10は、サッカーでゴールを決め嬉しくなっているものとする。ロボット装置10がゴールすると、ロボット装置10の感情は「嬉しい」に変化する(ステップS11)。ロボット装置10は、この感情をコンテンツ再生装置20に送信する(ステップS12)。
コンテンツ再生装置20は、ロボット装置10の「嬉しい」という感情に対応するキーワードを読出し、メタデータ記憶部22に記憶されたメタデータとキーワードとを比較する(ステップS13)。例えば、「嬉しい」に対応するキーワードとして“嬉し泣き”が存在し、このキーワードとコンテンツのタイトルが一致すると(ステップS14)、コンテンツ再生装置1は、このコンテンツをコンテンツ記憶部21から読み出して再生部26に出力する(ステップS15)。コンテンツ再生装置1の再生部26には、ロボット装置10のゴールと同時に嬉し泣きのシーンが表示される(ステップS16)。ユーザは、再生部26の表示内容からロボット装置10が喜んでいること知ることができる。
また、感情以外の因子からコンテンツを絞り込むことができる。現在のロボット装置10は、動作モードに応じて、絵を描いたり、ゲームをしたり、スポーツをする。ロボット装置10の動作モードがサッカーの試合である場合、コンテンツ再生装置1は、キーワードにサッカーを追加する。そして、サッカーというキーワードとメタデータが一致するコンテンツを検索する。これにより、ロボット装置10がゴールするとサッカー選手がグラウンドでダンスしているシーンや観客の歓声など表示してロボット装置10の感情を表現することができる。コンテンツを選択する因子を増やすことでより具体的なコンテンツを選択することができる。
次いで、ネットワーク上のサーバ30に記録されたコンテンツを再生するコンテンツ再生システム1について説明する。このコンテンツ再生システム1は、図6に示すようにコンテンツ再生装置20とサーバ30とがネットワークを介して接続されたシステムである。このシステムにおけるコンテンツ再生装置20は、サーバからコンテンツを受信するため、選択できるコンテンツの幅が広がる。
サーバ30は、図7に示すようにコンテンツを記録するコンテンツ記録部31と、コンテンツのメタデータを記録するメタデータ記録部32と、コンテンツ再生装置20からの情報を受信する受信部33と、コンテンツ再生装置20に情報を送信する情報送信部34と、コンテンツ再生装置20からの要求に応じてサーバ30のサービス内容を返信するサービス内容返信部35とを備える。
また、このコンテンツ再生システム1におけるコンテンツ再生装置20は、上述した構成の他にサーバに情報を送信する送信部27、サーバが送信した情報を受信する受信部28、コンテンツ及びコンテンツのメタデータを記録したサーバを検索するサーバ検索部29とを備える。
サーバ30の検索はサーバ検索部29が行う。サーバ検索部29は、例えば、UPnP(Universal Plug and Play)を用いてネットワークに存在するサーバ30が提供しているサービスの内容を問い合わせ、コンテンツ及びメタデータを配信するサービスを行っているサーバに対してメタデータの配信を要求し、受信したメタデータをメタデータ記憶部22に記憶する。
このコンテンツ再生システム1では、以下のようなことが可能である。例えば、サーバ検索部29が定期的に新しいサーバ30を検索し、メタデータ記憶部22の内容を定期的に更新することができる。これにより、コンテンツ再生装置20は、常に新しいコンテンツを提供することができ、ユーザの楽しみがより一層向上する。また、このコンテンツ再生システム1では、ロボット装置10の感情に適合するコンテンツが見つからなかった場合、ロボット装置10の感情に適合するコンテンツを所有するサーバをネットワーク上から検索することができる。
図8を参照して、コンテンツ再生装置20のサーバ検索処理について説明する。まず、コンテンツ再生装置20は、ネットワーク上に存在するサーバ30のサービス内容を問い合わせ(ステップS21)、コンテンツ及びコンテンツのメタデータを提供するサーバ30を検索する(ステップS22)。コンテンツ再生装置20は、目的のサーバ30を発見すると、このサーバ30に対してメタデータの送信を要求する(ステップS23)。コンテンツ再生装置20は、受信したメタデータをメタデータ記憶部22に記憶する(ステップS24)。
次いで、コンテンツ再生装置20は、ロボット装置10の感情を受信し(ステップS25)、ロボット装置10の感情とメタデータとを比較し、ロボット装置10の感情に適合したコンテンツを選択する(ステップS26)。ステップS26において、感情に適合したコンテンツが選択できた場合(ステップS27;YES)、コンテンツ再生装置20は、このコンテンツを記録するサーバ30にコンテンツの転送を要求し(ステップS28)、受信したコンテンツを再生部26に出力する(ステップS29)。
一方、ステップS26において、感情に適合したコンテンツが存在しなかった場合(ステップS27;NO)、コンテンツ再生装置20は、ステップS21に処理を移行し、再度メタデータを収集する(ステップS28)。
以上のよう説明したロボット装置10の感情や動作は、主制御部10に組み込まれたソフトウェアによって実現される。ロボット装置10における制御プログラムのソフトウェア構成例について図9〜図14用いて説明する。
図9において、デバイス・ドライバ・レイヤ40は、制御プログラムの最下位層に位置し、複数のデバイス・ドライバからなるデバイス・ドライバ・セット41から構成されている。この場合、各デバイス・ドライバは、CCDカメラやタイマ等の通常のコンピュータで用いられるハードウェアに直接アクセスすることを許されたオブジェクトであり、対応するハードウェアからの割り込みを受けて処理を行う。
また、ロボティック・サーバ・オブジェクト42は、デバイス・ドライバ・レイヤ40の最下位層に位置し、例えば上述の各種センサやアクチュエータ等のハードウェアにアクセスするためのインターフェイスを提供するソフトウェア群でなるバーチャル・ロボット43と、電源の切換えなどを管理するソフトウェア群でなるパワーマネージャ44と、他の種々のデバイス・ドライバを管理するソフトウェア群でなるデバイス・ドライバ・マネージャ45と、ロボット装置10の機構を管理するソフトウェア群でなるデザインド・ロボット46とから構成されている。
マネージャ・オブジェクト47は、オブジェクト・マネージャ48及びサービス・マネージャ49から構成されている。オブジェクト・マネージャ48は、ロボティック・サーバ・オブジェクト42、ミドル・ウェア・レイヤ50、及びアプリケーション・レイヤ51に含まれる各ソフトウェア群の起動や終了を管理するソフトウェア群であり、サービス・マネージャ49は、メモリカードに格納されたコネクションファイルに記述されている各オブジェクト間の接続情報に基づいて各オブジェクトの接続を管理するソフトウェア群である。
ミドル・ウェア・レイヤ50は、ロボティック・サーバ・オブジェクト42の上位層に位置し、画像処理や音声処理などのこのロボット装置10の基本的な機能を提供するソフトウェア群から構成されている。また、アプリケーション・レイヤ51は、ミドル・ウェア・レイヤ50の上位層に位置し、当該ミドル・ウェア・レイヤ50を構成する各ソフトウェア群によって処理された処理結果に基づいてロボット装置10の行動を決定するためのソフトウェア群から構成されている。
なお、ミドル・ウェア・レイヤ50及びアプリケーション・レイヤ51の具体なソフトウェア構成をそれぞれ図10に示す。
ミドル・ウェア・レイヤ50は、図10に示すように、騒音検出用、温度検出用、明るさ検出用、音階認識用、距離検出用、姿勢検出用、タッチセンサ用、動き検出用及び色認識用の各信号処理モジュール60〜68並びに入力セマンティクスコンバータモジュール69などを有する認識系70と、出力セマンティクスコンバータモジュール78並びに姿勢管理用、トラッキング用、モーション再生用、歩行用、転倒復帰用、LED点灯用及び音再生用の各信号処理モジュール71〜77などを有する出力系79とから構成されている。
上述したインタラクション生成部200をプログラムとして用意した場合、インタラクションを生成する処理は、このモーション再用の信号処理モジュール73に含まれる。
認識系70の各信号処理モジュール60〜68は、ロボティック・サーバ・オブジェクト42のバーチャル・ロボット43によりDRAMから読み出される各センサデータや画像データ及び音声データのうちの対応するデータを取り込み、当該データに基づいて所定の処理を施して、処理結果を入力セマンティクスコンバータモジュール69に与える。ここで、例えば、バーチャル・ロボット43は、所定の通信規約によって、信号の授受或いは変換をする部分として構成されている。
入力セマンティクスコンバータモジュール69は、これら各信号処理モジュール60〜68から与えられる処理結果に基づいて、「うるさい」、「暑い」、「明るい」、「ボールを検出した」、「転倒を検出した」、「撫でられた」、「叩かれた」、「ドミソの音階が聞こえた」、「動く物体を検出した」又は「障害物を検出した」などの自己及び周囲の状況や、使用者からの指令及び働きかけを認識し、認識結果をアプリケーション・レイヤ51に出力する。
アプリケーション・レイヤ51は、図11に示すように、行動モデルライブラリ80、行動切換モジュール81、学習モジュール82、感情モデル83及び本能モデル84の5つのモジュールから構成されている。
行動モデルライブラリ80には、図12に示すように、「転倒復帰する」、「障害物を回避する場合」、「感情を表現する場合」、「ボールを検出した場合」などの予め選択されたいくつかの条件項目にそれぞれ対応させて、それぞれ独立した行動モデルが設けられている。
そして、これら行動モデルは、図11に示すように、それぞれ入力セマンティクスコンバータモジュール69から認識結果が与えられたときや、最後の認識結果が与えられてから一定時間が経過したときなどに、必要に応じて後述のように感情モデル83に保持されている対応する情動のパラメータ値や、本能モデル84に保持されている対応する欲求のパラメータ値を参照しながら続く行動をそれぞれ決定し、決定結果を行動切換モジュール81に出力する。
なお、この実施の形態の場合、各行動モデルは、次の行動を決定する手法として、図13に示すような1つのノード(状態)NODE〜NODEから他のどのノードNODE〜NODEに遷移するかを各ノードNODE〜NODEの間を接続するアークARC〜ARCn1に対してそれぞれ設定された遷移確率P〜Pに基づいて確率的に決定する有限確率オートマトンと呼ばれるアルゴリズムを用いる。
具体的に、各行動モデルは、それぞれ自己の行動モデルを形成するノードNODE〜NODEにそれぞれ対応させて、これらノードNODE〜NODE毎に図14に示すような状態遷移表90を有している。
この状態遷移表90では、そのノードNODE〜NODEにおいて遷移条件とする入力イベント(認識結果)が「入力イベント名」の列に優先順に列記され、その遷移条件についてのさらなる条件が「データ名」及び「データ範囲」の列における対応する行に記述されている。
したがって、図14の状態遷移表90で表されるノードNODE100では、「ボールを検出(BALL)」という認識結果が与えられた場合に、当該認識結果とともに与えられるそのボールの「大きさ(SIZE)」が「0から1000」の範囲であることや、「障害物を検出(OBSTACLE)」という認識結果が与えられた場合に、当該認識結果とともに与えられるその障害物までの「距離(DISTANCE)」が「0から100」の範囲であることが他のノードに遷移するための条件となっている。
また、このノードNODE100では、認識結果の入力がない場合においても、行動モデルが周期的に参照する感情モデル83及び本能モデル84にそれぞれ保持された各情動及び各欲求のパラメータ値のうち、感情モデル83に保持された「喜び(Joy)」、「驚き(Surprise)」又は「悲しみ(Sadness)」の何れかのパラメータ値が「50から100」の範囲であるときには他のノードに遷移することができるようになっている。
また、状態遷移表90では、「他のノードヘの遷移確率」の欄における「遷移先ノード」の行にそのノードNODE〜NODEから遷移できるノード名が列記されているとともに、「入力イベント名」、「データ名」及び「データの範囲」の列に記述された全ての条件が揃ったときに遷移できるほかの各ノードNODE〜NODEへの遷移確率が「他のノードヘの遷移確率」の欄内の対応する箇所にそれぞれ記述され、そのノードNODE〜NODEに遷移する際に出力すべき行動が「他のノードヘの遷移確率」の欄における「出力行動」の行に記述されている。なお、「他のノードヘの遷移確率」の欄における各行の確率の和は100[%]となっている。
したがって、図14の状態遷移表90で表されるノードNODE100では、例えば「ボールを検出(BALL)」し、そのボールの「SIZE(大きさ)」が「0から1000」の範囲であるという認識結果が与えられた場合には、「30[%]」の確率で「ノードNODE120(node 120)」に遷移でき、そのとき「ACTION1」の行動が出力されることとなる。
各行動モデルは、それぞれこのような状態遷移表90として記述されたノードNODE〜NODEが幾つも繋がるようにして構成されており、入力セマンティクスコンバータモジュール69から認識結果が与えられたときなどに、対応するノードNODE〜NODEの状態遷移表を利用して確率的に次の行動を決定し、決定結果を行動切換モジュール81に出力するようになされている。
図11に示す行動切換モジュール81は、行動モデルライブラリ80の各行動モデルからそれぞれ出力される行動のうち、予め定められた優先順位の高い行動モデルから出力された行動を選択し、当該行動を実行すべき旨のコマンド(以下、行動コマンドという。)をミドル・ウェア・レイヤ50の出力セマンティクスコンバータモジュール78に送出する。なお、この実施の形態においては、図11において下側に表記された行動モデルほど優先順位が高く設定されている。
また、行動切換モジュール81は、行動完了後に出力セマンティクスコンバータモジュール78から与えられる行動完了情報に基づいて、その行動が完了したことを学習モジュール82、感情モデル83及び本能モデル84に通知する。
一方、学習モジュール82は、入力セマンティクスコンバータモジュール69から与えられる認識結果のうち、「叩かれた」や「撫でられた」など、使用者からの働きかけとして受けた教示の認識結果を入力する。
そして、学習モジュール82は、この認識結果及び行動切換えモジュール71からの通知に基づいて、「叩かれた(叱られた)」ときにはその行動の発現確率を低下させ、「撫でられた(誉められた)」ときにはその行動の発現確率を上昇させるように、行動モデルライブラリ70における対応する行動モデルの対応する遷移確率を変更する。
他方、感情モデル83は、「喜び(Joy)」、「悲しみ(Sadness)」、「怒り(Anger)」、「驚き(Surprise)」、「嫌悪(Disgust)」及び「恐れ(Fear)」の合計6つの情動について、各情動毎にその情動の強さを表すパラメータを保持している。そして、感情モデル83は、これら各情動のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール69から与えられる「叩かれた」及び「撫でられた」などの特定の認識結果や、経過時間及び行動切換モジュール81からの通知などに基づいて周期的に更新する。
具体的には、感情モデル83は、入力セマンティクスコンバータモジュール69から与えられる認識結果と、そのときのロボット装置10の行動と、前回更新してからの経過時間となどに基づいて所定の演算式により算出されるそのときのその情動の変動量をΔE[t]、現在のその情動のパラメータ値をE[t]、その情動の感度を表す係数をkとして、(1)式によって次の周期におけるその情動のパラメータ値E[t+1]を算出し、これを現在のその情動のパラメータ値E[t]と置き換えるようにしてその情動のパラメータ値を更新する。また、感情モデル83は、これと同様にして全ての情動のパラメータ値を更新する。
Figure 2005169567
なお、各認識結果や出力セマンティクスコンバータモジュール78からの通知が各情動のパラメータ値の変動量ΔE[t]にどの程度の影響を与えるかは予め決められており、例えば「叩かれた」といった認識結果は「怒り」の情動のパラメータ値の変動量ΔE[t]に大きな影響を与え、「撫でられた」といった認識結果は「喜び」の情動のパラメータ値の変動量ΔE[t]に大きな影響を与えるようになっている。
ここで、出力セマンティクスコンバータモジュール78からの通知とは、いわゆる行動のフィードバック情報(行動完了情報)であり、行動の出現結果の情報であり、感情モデル83は、このような情報によっても感情を変化させる。これは、例えば、「叫ぶ」といった行動により怒りの感情レベルが下がるといったようなことである。なお、出力セマンティクスコンバータモジュール78からの通知は、上述した学習モジュール82にも入力されており、学習モジュール82は、その通知に基づいて行動モデルの対応する遷移確率を変更する。
なお、行動結果のフィードバックは、行動切換モジュール81の出力(感情が付加された行動)によりなされるものであってもよい。
一方、本能モデル84は、「運動欲(exercise)」、「愛情欲(affection)」、「食欲(appetite)」及び「好奇心(curiosity)」の互いに独立した4つの欲求について、これら欲求毎にその欲求の強さを表すパラメータを保持している。そして、本能モデル84は、これらの欲求のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール69から与えられる認識結果や、経過時間及び行動切換モジュール81からの通知などに基づいて周期的に更新する。
具体的には、本能モデル84は、「運動欲」、「愛情欲」及び「好奇心」については、認識結果、経過時間及び出力セマンティクスコンバータモジュール78からの通知などに基づいて所定の演算式により算出されるそのときのその欲求の変動量をΔI[k]、現在のその欲求のパラメータ値をI[k]、その欲求の感度を表す係数kとして、所定周期で(2)式を用いて次の周期におけるその欲求のパラメータ値I[k+1]を算出し、この演算結果を現在のその欲求のパラメータ値I[k]と置き換えるようにしてその欲求のパラメータ値を更新する。また、本能モデル84は、これと同様にして「食欲」を除く各欲求のパラメータ値を更新する。
Figure 2005169567
なお、認識結果及び出力セマンティクスコンバータモジュール78からの通知などが各欲求のパラメータ値の変動量ΔI[k]にどの程度の影響を与えるかは予め決められており、例えば出力セマンティクスコンバータモジュール78からの通知は、「疲れ」のパラメータ値の変動量ΔI[k]に大きな影響を与えるようになっている。
なお、本実施の形態においては、各情動及び各欲求(本能)のパラメータ値がそれぞれ0から100までの範囲で変動するように規制されており、また係数k、kの値も各情動及び各欲求毎に個別に設定されている。
一方、ミドル・ウェア・レイヤ50の出力セマンティクスコンバータモジュール78は、図8に示すように、上述のようにしてアプリケーション・レイヤ51の行動切換モジュール81から与えられる「前進」、「喜ぶ」、「鳴く」又は「トラッキング(ボールを追いかける)」といった抽象的な行動コマンドを出力系79の対応する信号処理モジュール71〜77に与える。
そしてこれら信号処理モジュール71〜77は、行動コマンドが与えられると当該行動コマンドに基づいて、その行動をするために対応するアクチュエータに与えるべきサーボ指令値や、スピーカから出力する音の音声データ及び又はLEDに与える駆動データを生成し、これらのデータをロボティック・サーバ・オブジェクト42のバーチャル・ロボット43及び信号処理回路を順次介して対応するアクチュエータ又はスピーカ又はLEDに順次送出する。このようにしてロボット装置10は、上述した制御プログラムに基づいて、自己(内部)及び周囲(外部)の状況や、使用者からの指示及び働きかけに応じた自律的な行動ができる。
以上説明したように本発明を適用したコンテンツ再生装置は、映画、テレビ、音楽などのコンテンツを再生してロボット装置の感情を表現するため、複雑な感情表現、臨場感あふれる感情表現、あいまいな感情表現などが表現できるようになり、ロボット装置の感情表現の幅が広がる。
また、コンテンツ再生装置は、コンテンツ及びコンテンツのメタデータを記録したサーバを検索するサーバ検索部を備える。そのため、定期的に新しいサーバを検索して、メタデータを更新したり、現在記憶しているメタデータに適合する感情が存在しないときに新しいサーバを検索することができる。ネットワーク上には、無数のサーバが存在するため、選択するコンテンツの幅が広がる、
なお、本発明は、上述した実施の形態に限定されるものではなく、コンテンツを再生してロボット装置の感情を表現するという本発明の主旨を含む変形、改良は、本発明に含まれるものとする。例えば、内部状態は、感情には限定されず、ロボット装置の欲求、思考内容などの他の内部状態も含む。また、コンテンツを選択する際、「嬉しい」、「悲しい」のような単純な感情だけでなく、「喜び」、「悲しみ」、「怒り」、「驚き」、「嫌悪」、「恐れ」の6つの感情のパラメータをもとにコンテンツを選択してもよい。こうすることにより、より複雑な感情表現が可能である。
さらに、コンテンツ再生装置とサーバとは、外部ネットワークを介して接続されているとしたが、ホームネットワークのような狭域ネットワークを介して接続してもよい。この場合、サーバは、ユーザの家や仕事場などに存在するパーソナルコンピュータ等であると考えられる。このサーバにメタデータ入力部を設け、ユーザがコンテンツのメタデータを定義できるようにしてもよい。例えば、ユーザの撮った写真やビデオなどにタイトルなどのメタデータを入力すると、より親しみのあるコンテンツを再生することができる。
コンテンツ再生システムの構成を示す図である。 ロボット装置の外観を示す図である。 ロボット装置の内部構成を示す図である。 コンテンツ検索部に記録されたキーワードのデータ構造を示す図である。 コンテンツを再生する手順を示すフローチャートである。 コンテンツ再生システムの構成を示す図である。 サーバの構成を示す図である。 サーバ検索処理の手順を示すフローチャートである。 同ロボット装置のソフトウェア構成を示すブロック図である。 同ロボット装置のソフトウェア構成におけるミドル・ウェア・レイヤの構成を示すブロック図である。 同ロボット装置のソフトウェア構成におけるアプリケーション・レイヤの構成を示すブロック図である。 アプリケーション・レイヤの行動モデルライブラリの構成を示すブロック図である。 同ロボット装置の行動決定のための情報となる有限確率オートマトンを説明する図である。 有限確率オートマトンの各ノードに用意された状態遷移表を示す図である。
符号の説明
1 コンテンツ再生システム、10 ロボット装置、11 主制御部、20 コンテンツ再生装置、21 コンテンツ記憶部、22 メタデータ記憶部、23 無線通信部、24 感情情報記憶部、25 コンテンツ選択部、26 再生部、27 送信部、28 受信部、29 サーバ検索部、30 サーバ、31 コンテンツ記録部、32 メタデータ記録部、33 受信部、34、送信部、35 サービス内容返信部、80 行動モデルライブラリ、81 行動切換モジュール、82 学習モジュール、83 感情モデル、84 本能モデル

Claims (8)

  1. 外部情報、外部からの働きかけに応じた動作及び/又は内部状態に基づく自律的動作を実行するロボット装置と、
    コンテンツに関する情報を記憶する記憶手段と、上記ロボット装置の内部状態を受信する内部状態受信手段と、上記ロボット装置の内部状態とコンテンツに関する情報とを比較し、ロボット装置の内部状態に適合したコンテンツを選択するコンテンツ選択手段と、上記選択手段にて選択したコンテンツを再生するコンテンツ再生手段とを備えたコンテンツ再生装置と
    を備えたことを特徴とするコンテンツ再生システム。
  2. 上記ロボット装置の内部状態は、ロボット装置の感情であることを特徴とする請求項1記載のコンテンツ再生システム。
  3. コンテンツを記録するコンテンツ記録手段と、上記コンテンツに関する情報を記録するコンテンツ関係情報記録手段とを備えた外部記録装置を備え、
    上記コンテンツ再生装置は、上記選択手段にて上記外部記録装置のコンテンツを選択すると、上記外部記録装置に対してコンテンツの配信を要求するコンテンツ配信要求手段を備えたことを特徴とする請求項1記載のコンテンツ再生システム。
  4. 上記コンテンツ再生装置は、
    外部ネットワーク上に存在する外部記録装置が提供するサービスの内容を問合せ、コンテンツ記録手段及びコンテンツ関係情報記録手段を備えた外部記録装置を検索する情報処理装置検索手段を備えたことを特徴とする請求項3記載のコンテンツ再生システム。
  5. 上記コンテンツは、複数のセグメントから構成され、各セグメントにその内容に関する情報が付加されていることを特徴とする請求項1記載のコンテンツ再生システム。
  6. 上記コンテンツ選択手段は、
    複数のコンテンツを選択した場合、上記複数のコンテンツの任意の1つのコンテンツを無作為に選択することを特徴とする請求項1記載のコンテンツ再生システム。
  7. 外部情報、外部からの働きかけに応じた動作及び/又は内部状態に基づく自律的動作を実行するロボット装置の内部状態を受信する内部状態受信工程と、
    コンテンツの内容を示す情報を受信する情報受信工程と、
    上記内部状態とコンテンツの内容を示す情報とを比較し、上記内部状態に適合したコンテンツを検索するコンテンツ検索工程と、
    上記コンテンツを再生するコンテンツ再生工程と
    を有するコンテンツ再生方法。
  8. 外部情報、外部からの働きかけに応じた動作及び/又は内部状態に基づく自律的動作を実行するロボット装置の内部状態を受信する内部状態受信手段と、
    コンテンツの内容を示す情報を記憶する記憶手段と、
    上記ロボット装置の内部状態とコンテンツの内容を示す情報とを比較し、ロボット装置の内部状態に適合したコンテンツを選択するコンテンツ選択手段と、上記ロボット装置の内部状態に適合したコンテンツを再生するコンテンツ再生手段と
    を備えたコンテンツ再生装置。
JP2003413427A 2003-12-11 2003-12-11 コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置 Expired - Fee Related JP4556425B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003413427A JP4556425B2 (ja) 2003-12-11 2003-12-11 コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003413427A JP4556425B2 (ja) 2003-12-11 2003-12-11 コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置

Publications (2)

Publication Number Publication Date
JP2005169567A true JP2005169567A (ja) 2005-06-30
JP4556425B2 JP4556425B2 (ja) 2010-10-06

Family

ID=34733568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003413427A Expired - Fee Related JP4556425B2 (ja) 2003-12-11 2003-12-11 コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置

Country Status (1)

Country Link
JP (1) JP4556425B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010525848A (ja) * 2007-04-30 2010-07-29 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド 対話型玩具及びエンタテインメント装置
US8583287B2 (en) 2011-06-14 2013-11-12 Panasonic Corporation Robotic system, robot control method and robot control program
CN106292424A (zh) * 2016-08-09 2017-01-04 北京光年无限科技有限公司 针对人形机器人的音乐数据处理方法及装置
WO2018163811A1 (ja) 2017-03-07 2018-09-13 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
WO2019026420A1 (ja) * 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019182155A (ja) * 2018-04-09 2019-10-24 株式会社Liberaware 飛行体
JP2019182418A (ja) * 2019-05-27 2019-10-24 株式会社Liberaware 飛行体

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049385A (ja) * 2000-08-07 2002-02-15 Yamaha Motor Co Ltd 音声合成装置、疑似感情表現装置及び音声合成方法
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
JP2002305781A (ja) * 2001-01-31 2002-10-18 Nippon Telegr & Teleph Corp <Ntt> 制御機器、機器制御信号生成方法、機器制御方法、記録媒体およびプログラム
JP2003036090A (ja) * 2001-05-11 2003-02-07 Sony France Sa 音声合成方法及び装置、並びにロボット装置
JP2003076376A (ja) * 2001-09-03 2003-03-14 Hitachi Information & Control Systems Inc イベント音楽再生方法及び装置
JP2003084783A (ja) * 2001-09-17 2003-03-19 Sharp Corp 音楽データ再生装置、音楽データ再生方法、音楽データ再生プログラム、並びに音楽データ再生プログラムを記録した記録媒体
JP2003111981A (ja) * 2001-10-09 2003-04-15 Sony Corp ロボット装置及びその制御方法、ロボットのための情報提供システム及び情報提供方法、並びに記憶媒体
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
JP2003208161A (ja) * 2001-11-12 2003-07-25 Sony Corp ロボット装置及びその制御方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049385A (ja) * 2000-08-07 2002-02-15 Yamaha Motor Co Ltd 音声合成装置、疑似感情表現装置及び音声合成方法
JP2002127059A (ja) * 2000-10-20 2002-05-08 Sony Corp 行動制御装置および方法、ペットロボットおよび制御方法、ロボット制御システム、並びに記録媒体
JP2002305781A (ja) * 2001-01-31 2002-10-18 Nippon Telegr & Teleph Corp <Ntt> 制御機器、機器制御信号生成方法、機器制御方法、記録媒体およびプログラム
JP2003036090A (ja) * 2001-05-11 2003-02-07 Sony France Sa 音声合成方法及び装置、並びにロボット装置
JP2003076376A (ja) * 2001-09-03 2003-03-14 Hitachi Information & Control Systems Inc イベント音楽再生方法及び装置
JP2003084783A (ja) * 2001-09-17 2003-03-19 Sharp Corp 音楽データ再生装置、音楽データ再生方法、音楽データ再生プログラム、並びに音楽データ再生プログラムを記録した記録媒体
JP2003111981A (ja) * 2001-10-09 2003-04-15 Sony Corp ロボット装置及びその制御方法、ロボットのための情報提供システム及び情報提供方法、並びに記憶媒体
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
JP2003208161A (ja) * 2001-11-12 2003-07-25 Sony Corp ロボット装置及びその制御方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010525848A (ja) * 2007-04-30 2010-07-29 ソニー コンピュータ エンタテインメント ヨーロッパ リミテッド 対話型玩具及びエンタテインメント装置
US8583287B2 (en) 2011-06-14 2013-11-12 Panasonic Corporation Robotic system, robot control method and robot control program
CN106292424A (zh) * 2016-08-09 2017-01-04 北京光年无限科技有限公司 针对人形机器人的音乐数据处理方法及装置
WO2018163811A1 (ja) 2017-03-07 2018-09-13 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
WO2019026420A1 (ja) * 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP2019182155A (ja) * 2018-04-09 2019-10-24 株式会社Liberaware 飛行体
JP2019182418A (ja) * 2019-05-27 2019-10-24 株式会社Liberaware 飛行体
JP7049672B2 (ja) 2019-05-27 2022-04-07 株式会社Liberaware 飛行体

Also Published As

Publication number Publication date
JP4556425B2 (ja) 2010-10-06

Similar Documents

Publication Publication Date Title
JP4985805B2 (ja) ロボット装置及び動作制御方法
KR101137205B1 (ko) 로봇의 행동 제어 시스템 및 행동 제어 방법, 및 로봇 장치
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
US6684127B2 (en) Method of controlling behaviors of pet robots
US7216082B2 (en) Action teaching apparatus and action teaching method for robot system, and storage medium
US7076334B2 (en) Robot apparatus and method and system for controlling the action of the robot apparatus
JP7400923B2 (ja) 情報処理装置および情報処理方法
WO2000066239A1 (fr) Systeme d&#39;animal de compagnie electronique, systeme de reseau, robot et support de donnees
US7063591B2 (en) Edit device, edit method, and recorded medium
KR20010052699A (ko) 로봇 장치, 로봇 장치의 제어방법 및 프로그램 기록 매체
JP2020534567A (ja) ロボット対話方法およびデバイス
JP2004283959A (ja) ロボット装置、その動作制御方法、及びプログラム
JP2006110707A (ja) ロボット装置
JP4556425B2 (ja) コンテンツ再生システム、コンテンツ再生方法、コンテンツ再生装置
JP2004298975A (ja) ロボット装置、障害物探索方法
JP2004302644A (ja) 顔識別装置、顔識別方法、記録媒体、及びロボット装置
JP4411900B2 (ja) 電子機器間の相互成長システム、電子機器及びロボット装置
KR20020067694A (ko) 로봇 장치 및 로봇 장치의 동작 제어 방법
JP2001154707A (ja) ロボット装置及びその制御方法
JP2001157979A (ja) ロボット装置及びその制御方法
JP2001157981A (ja) ロボット装置及びその制御方法
JP4379052B2 (ja) 動体検出装置、動体検出方法、及びロボット装置
JP2001191279A (ja) 行動管理システム、行動管理方法及びロボット装置
JP2001191274A (ja) データ保持装置、ロボット装置、変更装置及び変更方法
JP2003136439A (ja) ロボット装置及びロボット装置の歩行制御方法並びにロボット装置の歩行制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090526

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100629

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100712

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130730

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees