JP2002337079A - 情報処理装置および方法、記録媒体、並びにプログラム - Google Patents

情報処理装置および方法、記録媒体、並びにプログラム

Info

Publication number
JP2002337079A
JP2002337079A JP2001141047A JP2001141047A JP2002337079A JP 2002337079 A JP2002337079 A JP 2002337079A JP 2001141047 A JP2001141047 A JP 2001141047A JP 2001141047 A JP2001141047 A JP 2001141047A JP 2002337079 A JP2002337079 A JP 2002337079A
Authority
JP
Japan
Prior art keywords
action
robot
script
condition
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001141047A
Other languages
English (en)
Inventor
Naohiro Yokoo
直弘 横尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001141047A priority Critical patent/JP2002337079A/ja
Publication of JP2002337079A publication Critical patent/JP2002337079A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Toys (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】 ユーザが所望する行動を容易にとらせること
ができるようにする。 【解決手段】 リアルロボット31に好みの行動をとら
せる場合、ユーザは、音声入力装置22のマイクロフォ
ン23に、その行動を指定する言葉を入力する。パーソ
ナルコンピュータ1においては、入力された音声が認識
され、ユーザが所望する行動をリアルロボット31にと
らせるための制御スクリプトが生成される。生成された
制御スクリプトは、無線通信部4から無線でリアルロボ
ット31に送信され、リアルロボット31により、その
制御スクリプトが実行される。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、情報処理装置およ
び方法、記録媒体、並びにプログラムに関し、特に、ユ
ーザが所望する行動を容易にとらせることができるよう
にする情報処理装置および方法、記録媒体、並びにプロ
グラムに関する。
【0002】
【従来の技術】近年、例えば、ペット型のロボットとし
て、音声認識装置を搭載し、ユーザからの呼びかけ(命
令)に応じて、各種の行動をとるものが提案されてい
る。
【0003】このようなペット型のロボットには、例え
ば、頭部ユニットの所定の位置にマイクロフォンが設置
されており、ユーザの発話を集音するようになされてい
る。
【0004】
【発明が解決しようとする課題】しかしながら、ユーザ
がロボットに対して話しかける環境には、通常、各種の
騒音が存在しており、ロボットに設置されているマイク
ロフォンには、ユーザの発言とともに周囲の騒音が集音
され、搭載されている音声認識装置の認識性能が十分に
発揮されないという課題があった。
【0005】従って、ユーザが話しかけた場合であって
も、ロボットがその呼びかけに応じてくれないことがあ
った。
【0006】ところで、ロボットに実行させるプログラ
ムをパーソナルコンピュータで作成し、それを無線でロ
ボットに対して送信して、好みの行動をとらせるものも
提案されている。
【0007】ユーザは、好みの行動をとらせるためのプ
ログラムを作成し、ロボットに送信することにより、上
述したように、ロボットに直接話しかける場合に較べ
て、遠隔から、確実に好みの行動をとらせることができ
るものの、プログラムの作成が複雑であるという課題が
あった。
【0008】本発明はこのような状況に鑑みてなされた
ものであり、ペット型ロボットとの容易なコミュニケー
ションを可能とし、エンターテイメント性をより向上さ
せることができるようにしたものである。
【0009】
【課題を解決するための手段】本発明の第1の情報処理
装置は、入力される音声を認識する音声認識手段と、音
声認識手段により認識された音声中に、実在するロボッ
トが実行可能な行動を指定する単語が含まれている場
合、ロボットに行動をとらせるための行動スクリプトを
取得する行動スクリプト取得手段と、行動スクリプト取
得手段により取得された行動スクリプトに基づいて、ロ
ボットを制御する制御スクリプトを生成する制御スクリ
プト生成手段とを備えることを特徴とする。
【0010】音声認識手段により認識された音声中に、
ロボットが行動スクリプトを実行するきっかけとなる条
件を指定する条件単語が含まれているか否かを判定する
判定手段と、判定手段により条件単語が含まれていると
判定された場合、条件単語に対応する条件スクリプトを
取得する条件スクリプト取得手段とをさらに備え、制御
スクリプト生成手段は、条件スクリプト取得手段により
取得された条件スクリプトと、行動スクリプトとに基づ
いて、制御スクリプトを生成するようにすることができ
る。
【0011】条件は、ロボットの所定の位置に設けられ
ているタッチセンサに対する入力であるようにすること
ができる。
【0012】制御スクリプト生成手段により生成された
制御スクリプトをロボットに対して無線で送信する送信
手段をさらに備えるようにすることができる。
【0013】制御スクリプト生成手段により生成された
制御スクリプトを所定の記憶媒体を介して、ロボットに
提供する提供手段をさらに備えるようにすることができ
る。
【0014】音声認識手段が参照する認識用辞書に登録
されている第1の言葉に、第2の言葉を対応付けて設定
する設定手段をさらに備えるようにすることができる。
【0015】本発明の第1の情報処理装置の情報処理方
法は、入力される音声を認識する音声認識処理ステップ
と、音声認識処理ステップの処理により認識された音声
中に、実在するロボットが実行可能な行動を指定する単
語が含まれている場合、ロボットに行動をとらせるため
の行動スクリプトを取得する行動スクリプト取得処理ス
テップと、行動スクリプト取得処理ステップの処理によ
り取得された行動スクリプトに基づいて、ロボットを制
御する制御スクリプトを生成する制御スクリプト生成処
理ステップとを含むことを特徴とする。
【0016】本発明の第1の記録媒体のプログラムは、
入力される音声を認識する音声認識処理ステップと、音
声認識処理ステップの処理により認識された音声中に、
実在するロボットが実行可能な行動を指定する単語が含
まれている場合、ロボットに行動をとらせるための行動
スクリプトを取得することを制御する行動スクリプト取
得制御ステップと、行動スクリプト取得制御ステップの
処理により取得された行動スクリプトに基づいて、ロボ
ットを制御する制御スクリプトを生成する制御スクリプ
ト生成処理ステップとを含むことを特徴とする。
【0017】本発明の第1のプログラムは、入力される
音声を認識する音声認識処理ステップと、音声認識処理
ステップの処理により認識された音声中に、実在するロ
ボットが実行可能な行動を指定する単語が含まれている
場合、ロボットに行動をとらせるための行動スクリプト
を取得することを制御する行動スクリプト取得制御ステ
ップと、行動スクリプト取得制御ステップの処理により
取得された行動スクリプトに基づいて、ロボットを制御
する制御スクリプトを生成することを制御する制御スク
リプト生成処理ステップと含むことを特徴とする。
【0018】本発明の第2の情報処理装置は、入力され
る音声を認識する音声認識手段と、仮想ロボットに対し
て入力される仮想的な接触を受け付ける受付手段と、音
声認識手段により認識された音声中に、仮想ロボットが
実行可能な行動を指定する単語と、行動を仮想ロボット
にとらせるためのきっかけとなる仮想的な接触としての
条件を指定する条件単語が含まれている場合、条件に対
応する仮想的な接触が受付手段により受け付けられるこ
とに応じて、単語により指定される行動をとらせるべ
く、仮想ロボットの行動を制御する制御手段とを備える
ことを特徴とする。
【0019】受付手段は、仮想的な接触を受け付けるた
めの所定のオブジェクトを表示し、オブジェクトに設定
されている所定の範囲に対する入力期間に基づいて、仮
想的な接触の種類を識別するようにすることができる。
【0020】音声認識手段が参照する認識用辞書に登録
されている第1の言葉に、第2の言葉を対応付けて設定
する設定手段をさらに備えるようにすることができる。
【0021】本発明の第2の情報処理装置の情報処理方
法は、入力される音声を認識する音声認識処理ステップ
と、仮想ロボットに対して入力される仮想的な接触を受
け付ける受付処理ステップと、音声認識処理ステップの
処理により認識された音声中に、仮想ロボットが実行可
能な行動を指定する単語と、行動を仮想ロボットにとら
せるためのきっかけとなる仮想的な接触としての条件を
指定する条件単語が含まれている場合、条件に対応する
仮想的な接触が受付処理ステップの処理により受け付け
られることに応じて、単語により指定される前記行動を
とらせるべく、仮想ロボットの行動を制御する制御処理
ステップとを含むことを特徴とする。
【0022】本発明の第2の記録媒体のプログラムは、
入力される音声を認識する音声認識処理ステップと、仮
想ロボットに対して入力される仮想的な接触を受け付け
ることを制御する受付制御ステップと、音声認識処理ス
テップの処理により認識された音声中に、仮想ロボット
が実行可能な行動を指定する単語と、行動を仮想ロボッ
トにとらせるためのきっかけとなる仮想的な接触として
の条件を指定する条件単語が含まれている場合、条件に
対応する仮想的な接触が受付制御ステップの処理により
受け付けられることに応じて、単語により指定される行
動をとらせるべく、仮想ロボットの行動を制御する制御
処理ステップとを含むことを特徴とする。
【0023】本発明の第2のプログラムは、入力される
音声を認識する音声認識処理ステップと、仮想ロボット
に対して入力される仮想的な接触を受け付けることを制
御する受付制御ステップと、音声認識処理ステップの処
理により認識された音声中に、仮想ロボットが実行可能
な行動を指定する単語と、行動を仮想ロボットにとらせ
るためのきっかけとなる仮想的な接触としての条件を指
定する条件単語が含まれている場合、条件に対応する仮
想的な接触が受付制御ステップの処理により受け付けら
れることに応じて、単語により指定される行動をとらせ
るべく、仮想ロボットの行動を制御する制御処理ステッ
プとを含むことを特徴とする。
【0024】本発明の第3の情報処理装置は、実在する
ロボットにとらせる行動を設定する行動設定手段と、行
動設定手段により設定された行動を、ロボットにとらせ
るきっかけとなる条件を設定する条件設定手段と、行動
設定手段により設定された行動を、ロボットにとらせる
ための行動スクリプトを取得する行動スクリプト取得手
段と、条件設定手段により設定された条件に対応する条
件スクリプトを取得する条件スクリプト取得手段と、行
動スクリプト取得手段により取得された行動スクリプト
と、条件スクリプト取得手段により取得された条件スク
リプトに基づいて、ロボットを制御する制御スクリプト
を生成する制御スクリプト生成手段とを備えることを特
徴とする。
【0025】制御スクリプト生成手段により生成された
制御スクリプトをロボットに対して無線で送信する送信
手段をさらに備えるようにすることができる。
【0026】制御スクリプト生成手段により生成された
制御スクリプトを所定の記憶媒体を介して、ロボットに
提供する提供手段をさらに備えるようにすることができ
る。
【0027】条件は、ロボットの所定の位置に設けられ
ているタッチセンサに対する入力であるようにすること
ができる。
【0028】本発明の第3の情報処理装置の情報処理方
法は、実在するロボットにとらせる行動を設定する行動
設定処理ステップと、行動設定処理ステップの処理によ
り設定された行動を、ロボットにとらせるきっかけとな
る条件を設定する条件設定処理ステップと、行動設定処
理ステップの処理により設定された行動を、ロボットに
とらせるための行動スクリプトを取得する行動スクリプ
ト取得処理ステップと、条件設定処理ステップの処理に
より設定された条件に対応する条件スクリプトを取得す
る条件スクリプト取得処理ステップと、行動スクリプト
取得処理ステップの処理により取得された行動スクリプ
トと、条件スクリプト取得処理ステップの処理により取
得された条件スクリプトに基づいて、ロボットを制御す
る制御スクリプトを生成する制御スクリプト生成処理ス
テップとを含むことを特徴とする。
【0029】本発明の第3の記録媒体のプログラムは、
実在するロボットにとらせる行動を設定する行動設定処
理ステップと、行動設定処理ステップの処理により設定
された行動を、ロボットにとらせるきっかけとなる条件
を設定する条件設定処理ステップと、行動設定処理ステ
ップの処理により設定された行動を、ロボットにとらせ
るための行動スクリプトを取得することを制御する行動
スクリプト取得制御ステップと、条件設定処理ステップ
の処理により設定された条件に対応する条件スクリプト
を取得することを制御する条件スクリプト取得制御ステ
ップと、行動スクリプト取得制御ステップの処理により
取得された行動スクリプトと、条件スクリプト取得制御
ステップの処理により取得された条件スクリプトに基づ
いて、ロボットを制御する制御スクリプトを生成する制
御スクリプト生成処理ステップとを含むことを特徴とす
る。
【0030】本発明の第3のプログラムは、実在するロ
ボットにとらせる行動を設定する行動設定処理ステップ
と、行動設定処理ステップの処理により設定された行動
を、ロボットにとらせるきっかけとなる条件を設定する
条件設定処理ステップと、行動設定処理ステップの処理
により設定された行動を、ロボットにとらせるための行
動スクリプトを取得することを制御する行動スクリプト
取得制御ステップと、条件設定処理ステップの処理によ
り設定された条件に対応する条件スクリプトを取得する
ことを制御する条件スクリプト取得制御ステップと、行
動スクリプト取得制御ステップの処理により取得された
行動スクリプトと、条件スクリプト取得制御ステップの
処理により取得された条件スクリプトに基づいて、ロボ
ットを制御する制御スクリプトを生成する制御スクリプ
ト生成処理ステップとを特徴とする。
【0031】本発明の第4の情報処理装置は、仮想的な
ロボットにとらせる行動を設定する行動設定手段と、行
動設定手段により設定された行動を、ロボットにとらせ
るきっかけとなる条件を設定する条件設定手段と、ロボ
ットに対する、条件としての仮想的な接触の入力を受け
付ける受付手段と、受付手段により、条件設定手段によ
り設定されている条件に対応する仮想的な接触が受け付
けられることに応じて、行動設定手段により設定されて
いる行動をとらせるべく、ロボットの行動を制御する制
御手段とを備えることを特徴とする。
【0032】受付手段は、仮想的な接触を受け付けるた
めの所定のオブジェクトを表示し、オブジェクトに設定
されている所定の範囲に対する入力期間に基づいて、仮
想的な接触の種類を識別するようにすることができる。
【0033】本発明の第4の情報処理装置の情報処理方
法は、仮想的なロボットにとらせる行動を設定する行動
設定処理ステップと、行動設定処理ステップの処理によ
り設定された行動を、ロボットにとらせるきっかけとな
る条件を設定する条件設定処理ステップと、ロボットに
対する、条件としての仮想的な接触の入力を受け付ける
受付処理ステップと、受付処理ステップの処理により、
条件設定処理ステップの処理により設定されている条件
に対応する仮想的な接触が受け付けられることに応じ
て、行動設定処理ステップの処理により設定されている
行動をとらせるべく、ロボットの行動を制御する制御処
理ステップとを含むことを特徴とする。
【0034】本発明の第4の記録媒体のプログラムは、
仮想的なロボットにとらせる行動を設定する行動設定処
理ステップと、行動設定処理ステップの処理により設定
された行動を、ロボットにとらせるきっかけとなる条件
を設定する条件設定処理ステップと、ロボットに対す
る、条件としての仮想的な接触の入力を受け付けること
を制御する受付制御ステップと、受付制御ステップの処
理により、条件設定処理ステップの処理により設定され
ている条件に対応する仮想的な接触が受け付けられるこ
とに応じて、行動設定処理ステップの処理により設定さ
れている行動をとらせるべく、ロボットの行動を制御す
る制御処理ステップとを含むことを特徴とする。
【0035】本発明の第4のプログラムは、仮想的なロ
ボットにとらせる行動を設定する行動設定処理ステップ
と、行動設定処理ステップの処理により設定された行動
を、ロボットにとらせるきっかけとなる条件を設定する
条件設定処理ステップと、ロボットに対する、条件とし
ての仮想的な接触の入力を受け付けることを制御する受
付制御ステップと、受付制御ステップの処理により、条
件設定処理ステップの処理により設定されている条件に
対応する仮想的な接触が受け付けられることに応じて、
行動設定処理ステップの処理により設定されている行動
をとらせるべく、ロボットの行動を制御する制御処理ス
テップとを含むことを特徴とする。
【0036】本発明の第1の情報処理装置および方法、
並びにプログラムにおいては、入力される音声が認識さ
れ、認識された音声中に、実在するロボットが実行可能
な行動を指定する単語が含まれている場合、ロボットに
行動をとらせるための行動スクリプトが取得される。そ
して、行動スクリプトに基づいて、ロボットを制御する
制御スクリプトが生成される。
【0037】本発明の第2の情報処理装置および方法、
並びにプログラムにおいては、入力される音声が認識さ
れ、仮想ロボットに対して入力される仮想的な接触が受
け付けられる。また、認識された音声中に、仮想ロボッ
トが実行可能な行動を指定する単語と、行動を仮想ロボ
ットにとらせるためのきっかけとなる仮想的な接触とし
ての条件を指定する条件単語が含まれている場合、条件
に対応する仮想的な接触が受け付けられることに応じ
て、単語により指定される行動をとらせるべく、仮想ロ
ボットの行動が制御される。
【0038】本発明の第3の情報処理装置および方法、
並びにプログラムにおいては、実在するロボットにとら
せる行動が設定され、設定された行動を、ロボットにと
らせるきっかけとなる条件が設定される。また、設定さ
れた行動を、ロボットにとらせるための行動スクリプト
が取得され、設定された条件に対応する条件スクリプト
が取得される。そして、行動スクリプトと、条件スクリ
プトに基づいて、ロボットを制御する制御スクリプトが
生成される。
【0039】本発明の第4の情報処理装置および方法、
並びにプログラムにおいては、仮想的なロボットにとら
せる行動が設定され、設定された行動を、ロボットにと
らせるきっかけとなる条件が設定される。また、ロボッ
トに対する、条件としての仮想的な接触の入力が受け付
けられ、設定されている条件に対応する仮想的な接触が
受け付けられることに応じて、設定されている行動をと
らせるべく、ロボットの行動が制御される。
【0040】
【発明の実施の形態】図1は、本発明を適用したロボッ
ト制御システムの構成例を示す図である。
【0041】パーソナルコンピュータ1には、表示部2
に表示されるバーチャルロボット11、およびパーソナ
ルコンピュータ1の近傍に存在するリアルロボット31
の行動を管理するロボット制御プログラムが格納されて
いる。
【0042】バーチャルロボット11は、リアルロボッ
ト31のいわば仮想的なものであり、ユーザからの入力
に反応して各種の行動を行ったり、また、いずれの入力
がない場合でも、自律的に各種の行動を行うロボットで
ある。ユーザは、後述する方法により、例えば、バーチ
ャルロボット11の頭を撫でたりすることができる。
【0043】リアルロボット31は、外界からの刺激を
受けることにより、学習、または成長して、自らの判断
で自律行動が可能な、例えば、図に示すようなペット型
のロボットである。リアルロボット31には、その詳細
な構成は後述するが、行動に必要なコントローラやセン
サ類のハードウエア、および感情、本能、学習機能、成
長機能などを組み込んだソフトウエアが設けられてい
る。
【0044】そして、ユーザは、ロボット制御プログラ
ムを起動させ、キーボード3を操作し、このようなバー
チャルロボット11、またはリアルロボット31に好み
の行動をとらせることができる。
【0045】例えば、ユーザは、キーボード3を操作し
て「お手」などの行動を設定し、バーチャルロボット1
1、またはリアルロボット31に、その行動をとらせる
ことができる。
【0046】設定した行動をリアルロボット31にとら
せる場合、パーソナルコンピュータ1においては、リア
ルロボット31が実行することにより、設定された行動
が行われるための制御スクリプトが生成され、無線通信
部4からリアルロボット31に送信される。すなわち、
リアルロボット31にも、パーソナルコンピュータ1と
同様に、無線通信部が設けられており、例えば、TCP/IP
(Transmission Control Protocol/Internet Protocol)
に基づく通信が可能なようになされている。
【0047】そして、リアルロボット31は、パーソナ
ルコンピュータ1から無線を介して送信されてきた制御
スクリプトを解釈、実行し、ユーザにより設定された行
動をとる。
【0048】また、ユーザは、パーソナルコンピュータ
1とケーブル21を介して接続されている音声入力装置
22を利用して、バーチャルロボット11、またはリア
ルロボット31に好みの行動をとらせることができる。
【0049】ユーザが所望する行動を指定する言葉を発
した場合、その発言は音声入力装置22のマイクロフォ
ン(以下、単に、マイクと称する)23により集音さ
れ、音声信号がパーソナルコンピュータ1に供給され
る。そして、パーソナルコンピュータ1においては、入
力された音声が認識され、認識結果に基づいて、上述し
た制御スクリプトが生成されて、バーチャルロボット1
1、またはリアルロボット31が制御される。
【0050】例えば、ユーザがリアルロボット31に
「お手」をさせるべく、「ロボットお手して」などの発
話をした場合、そのユーザの発話が音声認識され、リア
ルロボット31が実行することにより「お手」の行動を
とるような制御スクリプトが生成されて、上述したよう
に、リアルロボット31に無線で送信される。
【0051】このように、ユーザは、制御スクリプトを
実行させることで、自らが設定した行動をリアルロボッ
ト31にとらせるようにしたので、リアルロボット31
に対して直接話しかける場合に較べて、より確実に所望
の行動をとらせることが可能となる。例えば、ユーザが
リアルロボット31に直接話しかけて、好みの行動をと
らせる場合、周囲のノイズによりリアルロボット31の
音声認識機能が十分に発揮されず、所望の行動が実行さ
れないことがある。
【0052】また、パーソナルコンピュータ1から無線
で制御スクリプトを送信するようにしたので、ノイズに
よる影響を排除するため、リアルロボット31に近づい
て話しかける必要がなくなり、遠隔からリアルロボット
31に所望の行動を指示することができる。
【0053】さらに、演算能力の違いにより、パーソナ
ルコンピュータ1には、リアルロボット31に実装され
ている音声認識機能よりも、優れている音声認識機能を
実装することができるので、より複雑な、かつ、より長
い発話を確実に認識させることができる。
【0054】従って、ユーザが指定した通りに、バーチ
ャルロボット11、またはリアルロボット31が行動す
るため、それぞれのロボットに対して、より愛着がわく
ようになる。
【0055】なお、上述した例においては、パーソナル
コンピュータ1により生成された制御スクリプトは、無
線を介してリアルロボット31に対して送信されるとし
たが、パーソナルコンピュータ1、およびリアルロボッ
ト31がともに着脱可能とされる半導体メモリ5を介し
て提供することもできる。
【0056】半導体メモリ5を介して制御スクリプトを
提供する場合、ユーザは、半導体メモリ5をパーソナル
コンピュータ1の所定のドライブに装着し、生成された
制御スクリプトを半導体メモリ5に記憶させる。そし
て、ユーザは、制御スクリプトが記憶された半導体メモ
リ5をリアルロボット31の所定の位置に設けられるス
ロットに装着し、制御スクリプトを読み出させ、実行さ
せる。
【0057】このように、様々な方法でリアルロボット
31に対して制御スクリプトを提供することも可能であ
る。例えば、Bluetooth(登録商標)などにより、制御
スクリプトを送信するようにしてもよい。
【0058】次に、図1に示したロボット制御システム
の各構成について説明する。
【0059】図2乃至図5は、図1のパーソナルコンピ
ュータ1の外観を示している。このノート型のパーソナ
ルコンピュータ1は、基本的に、本体41と、この本体
41に対して開閉自在とされる表示部2により構成され
ている。図2は表示部2を本体41に対して開いた状態
を示す外観斜視図である。図3は本体41の平面図、図
4は本体41に設けられている、後述するジョグダイヤ
ル42付近の拡大図である。また、図5は本体41のジ
ョグダイヤル42側の側面図である。
【0060】本体41には、その上面に、各種の文字や
記号などを入力するとき操作されるキーボード3、ポイ
ンタ(マウスカーソル)を移動させるときなどに操作さ
れるポインティングデバイスとしてのタッチパッド4
3、および電源スイッチ45が設けられており、また、
側面側に、ジョグダイヤル42、スロット46、および
IEEE1394ポート47等が設けられている。なお、タッチ
パッド43に代えて、例えば、スティック式のポインテ
ィングデバイスを設けることも可能である。
【0061】また、表示部2の正面には、画像を表示す
るLCD(Liquid Crystal Display)44が設けられてい
る。表示部2の右上部には、電源ランプPL、電池ランプ
BL、必要に応じてメッセージランプML、その他のLEDよ
りなるランプが設けられている。なお、電源ランプPLや
電池ランプBL、メッセージランプML等は表示部2の下部
に設けることも可能である。
【0062】次に、ジョグダイヤル42は、本体41上
のキーボード3のキーの間に組み込まれ、また、キーと
ほぼ同じ高さになるように取り付けられている。ジョグ
ダイヤル42は、図4の矢印aに示す回転操作に対応し
て所定の処理を実行し、かつ、矢印bに示す移動操作に
対応した処理を実行する。なお、ジョグダイヤル42
は、本体41の左側面に配置してもよく、LCD44が設
けられた表示部2の左側面又は右側面、あるいは、キー
ボード3のGキーとHキーの間に縦方向に配置してもよ
い。また、ジョグダイヤル42は、タッチパッド43を
人差し指で操作しながら親指で操作可能なように、前面
の中央部に配置してもよく、あるいは、タッチパッド4
3の上端縁又は下端縁に沿って横方向に配置しても、ま
た、タッチパッド43の右ボタンと左ボタンの間に縦方
向に配置してもよい。更に、ジョグダイヤル42は、縦
方向や横方向に限定せず、各指で操作し易い斜め方向
へ、所定角度を付けて配置してもよい。その他、ジョグ
ダイヤル42は、ポインティングデバイスであるマウス
の側面の親指で操作可能な位置に配置することも可能で
ある。
【0063】次に、図6は、パーソナルコンピュータ1
の電気的構成を示すブロック図である。
【0064】CPU(Central Processing Unit(中央処理
装置))71は、例えば、インテル(Intel)社製のペ
ンティアム(登録商標)(Pentium(R))プロセッサ等で
構成され、ホストバス72に接続されている。ホストバ
ス72には、更に、ブリッジ73が接続されており、ブ
リッジ73は、AGP(Accelerated Graphics Port)70
及びPCIバス76にも接続されている。ブリッジ73
は、例えば、インテル社製の400BXなどで構成されて
おり、CPU71やRAM74周辺の制御を行うようになされ
ている。更に、ブリッジ73は、AGP70を介してビデ
オコントローラ77に接続されている。なお、このブリ
ッジ73とブリッジ78とで、いわゆるチップセットが
構成されている。
【0065】ブリッジ73は、更に、RAM(Random Acce
ss Memory)74及びキャッシュメモリ75とも接続さ
れている。キャッシュメモリ75は、CPU71が使用す
るデータをキャッシュするようになされている。なお、
図示していないが、CPU71にも1次的なキャッシュメ
モリが内蔵されている。
【0066】RAM74は、例えば、DRAM(Dynamic Rando
m Access Memory)で構成され、CPU71が実行するプロ
グラムや、CPU71の行動上必要なデータを記憶するよ
うになされている。具体的に、RAM74には、起動が完
了した時点において、例えば、ロボット制御プログラム
74A、音声認識プログラム74B、ジョグダイヤル状
態監視プログラム74C、ジョグダイヤルドライバ74
D、オペレーティングプログラム(OS)74E、その他
のアプリケーションプログラム74F1乃至74FnがHD
D86から転送され、記憶される。
【0067】ロボット制御プログラム74Aは、図1を
参照して説明したように、LCD44に表示されるバーチ
ャルロボット11、およびリアルロボット31を制御す
るプログラムであり、その詳細な機能構成は図7を参照
して説明する。
【0068】音声認識プログラム74Bは、マイク23
により集音され、サウンドコントローラ85から出力さ
れた音声データを取得し、ユーザの発話を認識する。そ
して、音声認識プログラム74Bは、認識結果をロボッ
ト制御プログラム74Aなどに提供する。
【0069】ジョグダイヤル状態監視プログラム74C
は、アプリケーションプログラム74F1乃至74Fn
からジョグダイヤル対応であるか否かの通知を受け取
り、そのアプリケーションプログラムがジョグダイヤル
対応であれば、ジョグダイヤル42を操作することで実
行できる操作を、アプリケーションが有するユーザイン
ターフェース機能を用いて、ユーザに対して表示するた
めに行動する。ジョグダイヤル状態監視プログラム74
Cは、通常、ジョグダイヤル42のイベント待ちになっ
ており、アプリケーションプログラムからの通知を受け
取るリストを有している。ジョグダイヤルドライバ74
Dは、ジョグダイヤル42の操作に対応して各種機能を
実行する。
【0070】OS(Operation System(基本プログラムソ
フトウェア))74Eは、例えば、マイクロソフト社の
ウィンドウズ(登録商標)95(Windows(R) 95)、ウ
ィンドウズ(登録商標)98(Windows(R) 98)、ある
いは、アップルコンピュータ社のマックOS(商標)等に
代表される、コンピュータの基本的な行動を制御するも
のである。
【0071】ビデオコントローラ77は、PCIバス76
に接続されており、更に、AGP70を介してブリッジ7
3に接続されており、PCIバス76、もしくはAGP70を
介して供給されるデータに基づいて、LCD44の表示を
制御する。
【0072】PCIバス76には、サウンドコントローラ
85が接続され、図1に示した音声入力装置22が接続
されている。サウンドコントローラ85は、音声入力装
置22のマイク23からの音声入力を取り込み、あるい
はスピーカ24に対して音声信号を供給する。サウンド
コントローラ85により取り込まれたユーザからの音声
入力は、例えば、ロボット制御プログラム74A、およ
び音声認識プログラム74Bを実行する上で利用され
る。
【0073】また、PCIバス76には、モデム93およ
びPCカードスロットインターフェース104も接続され
ている。
【0074】モデム93は、公衆電話回線94、インタ
ーネットサービスプロバイダ95を介して、インターネ
ット98やメールサーバ96等に接続することができ
る。
【0075】また、オプション機能を追加する場合、PC
カードスロットインターフェース104に接続されてい
るスロット46に、インターフェースカード105が適
宜装着されることにより、外部装置とのデータの授受が
できるようになされている。例えば、インターフェース
カード105には、ドライブ106を接続することがで
き、ドライブ106に挿入される磁気ディスク121、
光ディスク122、光磁気ディスク123、および図1
に示した半導体メモリ5などとデータの授受を行うこと
ができる。
【0076】リアルロボット31に対して制御スクリプ
トを提供するとき、この半導体メモリ5には、上述した
ように、ロボット制御プログラム74Aにより生成され
た制御スクリプトが書き込まれる。なお、半導体メモリ
5、磁気ディスク121、光ディスク122、光磁気デ
ィスク123とデータの授受を行うドライブ106は、
USBポート103を介して接続することもできる。
【0077】また、インターフェースカード105に
は、無線通信部4が接続される。そして、例えば、ロボ
ット制御プログラム74Aにより生成された制御スクリ
プトは、PCIバス76、PCカードインターフェース10
4、およびインターフェースカード105を介して、無
線通信部4に供給され、リアルロボット31に送信され
る。
【0078】更に、PCIバス76にはブリッジ78も接
続されている。ブリッジ78は、例えば、インテル社製
のPIIX4Eなどで構成されており、各種の入出力を制御
するようになされている。すなわち、ブリッジ78は、
IDE(Integrated Drive Electronics)コントローラ/
コンフィギュレーションレジスタ79、タイマ回路8
0、IDEインターフェース81、およびUSB(Universal
Serial Bus)インターフェース82で構成され、IDEバ
ス83に接続されるデバイス、USBポート103に接続
されるデバイス、もしくは、ISA/EIO(Industry Standa
rd Architecture /Extended Input Output)バス84お
よびI/Oインターフェース87を介して接続されるデバ
イスの制御等を行うようになされている。
【0079】例えば、USBポート103に、GPS(Global
Positioning System)アンテナ102が装着された場
合、USBインターフェース82は、GPSアンテナ102か
ら供給される位置データ、および時刻データをPCIバス
76、ブリッジ73、およびホストバス72を介してCP
U71へ送出する。
【0080】IDEコントローラ/コンフィギュレーショ
ンレジスタ79は、いわゆるプライマリIDEコントロー
ラとセカンダリIDEコントローラとの2つのIDEコントロ
ーラ、およびコンフィギュレーションレジスタ(config
uration register)等から構成されている。
【0081】プライマリIDEコントローラは、IDEバス8
3を介して、コネクタ(図示せず)に接続しており、コ
ネクタには、HDD86が接続されている。また、セカン
ダリIDEコントローラは、他のIDEバス(図示せず)を介
して、外部装置と接続可能なようになされている。
【0082】なお、HDD86には、ロボット制御プログ
ラム86A、音声認識プログラム86B、ジョグダイヤ
ル状態監視プログラム86C、ジョグダイヤルドライバ
86D、OS(基本プログラムソフトウェア)86E、そ
の他の複数のアプリケーションプログラム86F1乃至
86Fn、さらに、それらのプログラムで用いられるデ
ータ等が記憶されている。HDD86に記憶されているプ
ログラム86A乃至86Gnは、起動(ブートアップ)
処理の過程で、RAM74内に順次転送され、格納され
る。
【0083】ISA/EIOバス84には、更に、I/Oインター
フェース87が接続されている。このI/Oインターフェ
ース87と、ROM88、RAM89、およびCPU90とは、
相互に接続されて構成されている。
【0084】ROM88には、例えば、IEEE1394I/Fプログ
ラム88A、LED制御プログラム88B、タッチパッド
入力監視プログラム88C、キー入力監視プログラム8
8D、ウェイクアッププログラム88E、ジョグダイヤ
ル状態監視プログラム88Fが予め格納されている。
【0085】IEEE1394I/Fプログラム88AはIEEE1394
入出力ポート47を介して送受信されるIEEE1394準拠の
データの入出力を行うプログラムである。LED制御プロ
グラム88Bは、電源ランプPL、電池ランプBL、必要に
応じてメッセージランプML、その他のLEDよりなるラン
プの点灯の制御を行うプログラムである。タッチパッド
入力監視プログラム88Cは、タッチパッド43を用い
たユーザによる入力を監視するプログラムである。キー
入力監視プログラム88Dは、キーボード3やその他の
キースイッチを用いたユーザによる入力を監視するプロ
グラムである。ウェイクアッププログラム88Eは、ブ
リッジ78内のタイマ回路80から供給される現在時刻
データに基づいて、予め設定された時刻になったかどう
かをチェックして、設定された時刻になると、所定の処
理(またはプログラム)を起動するために各チップ電源
の管理を行うプログラムである。ジョグダイヤル状態監
視プログラム88Fは、ジョグダイヤル42の回転型エ
ンコーダ部の回転、あるいは押下を常に監視するための
プログラムである。
【0086】更に、ROM88には、BIOS(Basic Input/O
utput System)88Gが書き込まれている。BIOSとは、
基本入出力システムのことをいい、OSやアプリケーショ
ンプログラムと周辺機器(ディスプレイ、キーボード、
HDD等)の間でのデータの入出力を制御するソフトウェ
アプログラムである。
【0087】RAM89は、LED制御、タッチパッド入力ス
テイタス、キー入力ステイタス、設定時刻用の各レジス
タや、ジョグダイヤル状態監視用のI/Oレジスタ、IEEE1
394I/Fレジスタ等を、レジスタ89A乃至89Fとして
有している。例えば、LED制御レジスタは、ジョグダイ
ヤル42が押下された場合、電子メールの瞬時の立ち上
げ状態を表示するメッセージランプMLの点灯を制御す
る。キー入力ステイタスレジスタは、ジョグダイヤル4
2が押下されると、操作キーフラグが格納されるように
なっている。設定時刻レジスタは、ある時刻を任意に設
定することができる。
【0088】また、このI/Oインターフェース87に
は、図示を省略したコネクタを介して、キーボード3、
ジョグダイヤル42、タッチパッド43、IEEE1394入出
力ポート47がそれぞれ接続されており、キーボード
3、ジョグダイヤル42、タッチパッド43、を用い
て、ユーザが操作を行った場合、キーボード3、ジョグ
ダイヤル42、タッチパッド43から、それぞれが受け
た操作に対応する信号を入力され、ISA/EIOバス84に
出力するようになされている。更に、I/Oインターフェ
ース87は、IEEE1394入出力ポート47を介して外部と
の間でデータの送受信を行う。更に、I/Oインターフェ
ース87には、電源ランプPL、電池ランプBL、メッセー
ジランプML、電源制御回路73、その他のLEDよりなる
ランプが接続されている。
【0089】電源制御回路91は、内蔵バッテリ92又
はAC電源に接続されており、各ブロックに、必要な電源
を供給するとともに、内蔵バッテリ92や、周辺装置の
セカンドバッテリの充電のための制御を行うようになさ
れている。また、CPU90は、I/Oインターフェース87
を介して、電源をオン又はオフするとき操作される電源
スイッチ45を監視している。
【0090】CPU90は、電源45がオフ状態の場合に
おいても、常に内部電源により、IEEE1394I/Fプログラ
ム88A乃至BIOS88Gを実行することができる。すな
わち、IEEE1394I/Fプログラム88A乃至BIOS88G
は、表示部2のLCD44上にいずれかのウインドウが開
いていない場合においても、常時行動している。従っ
て、CPU90は、電源スイッチ45がオフ状態で、OS7
4EがCPU71で起動されていなくても、常時、ジョグ
ダイヤル状態監視プログラム88Eを実行しており、パ
ーソナルコンピュータ1に専用のキーを設けなくとも、
プログラマブルパワーキー(PPK)機能を有するように
なされており、ユーザは、例えば、省電力状態、あるい
は電源オフ状態であっても、ジョグダイヤル42を押下
するだけで、好みのソフトウエアやスクリプトファイル
を起動することができる。
【0091】図7は、ロボット制御プログラム74A、
および音声認識プログラム74Bの機能構成例を示すブ
ロック図である。この機能構成は、HDD86に保存され
ているロボット制御プログラム86A、および音声認識
プログラム86BがRAM74に展開されることで実現さ
れる。
【0092】音声認識プログラム74Bは、音声認識部
131、音声認識用辞書記憶部132、および辞書登録
部133から構成され、ロボット制御プログラム74A
と連動して機能する。
【0093】音声認識部131は、音声入力装置22の
マイク23からの入力を監視し、ユーザからの音声デー
タが入力されてきたとき、音声認識用辞書記憶部132
に記憶されている音声認識用辞書を参照し、それを認識
する。
【0094】例えば、音声認識部131は、音声データ
が入力されてきたとき、それを適当なフレーム毎に、例
えば、MFCC(Mel Frequency Cepstrum Coefficient)分析
を行い、その分析の結果得られるMFCCを、特徴パラメー
タ(特徴ベクトル)として抽出する。なお、音声認識部
131では、その他、例えば、線形予測係数、ケプスト
ラム係数、線スペクトル対、所定の周波数帯域ごとのパ
ワー(フィルタバンクの出力)等を、特徴パラメータと
して抽出することが可能である。
【0095】そして、音声認識部131は、取得した特
徴パラメータを用いて、音声認識用辞書記憶部132を
必要に応じて参照しながら音声認識する。
【0096】すなわち、音声認識用辞書記憶部132に
は、音声認識する音声の言語における個々の音素や音節
などの音響的な特徴を表す音響モデル、認識対象の各単
語について、その発音に関する情報(音韻情報)が記述
された単語辞書、および、単語辞書に登録されている各
単語が、どのように連鎖する(つながる)のかを記述し
た文法規則などが記憶されている。
【0097】音声認識部131は、認識結果をテキスト
データとして入力判定部134に出力するとともに、そ
のテキストデータをLCD44に表示させる。
【0098】辞書登録部133は、音声認識用辞書記憶
部132に記憶されている辞書をユーザの好みに応じて
カスタマイズする。ユーザは、辞書登録部133の制御
に従って、所定の登録操作を行うことで、例えば、リア
ルロボット31のことを「相棒」などと呼ぶことが可能
となる。辞書登録部133の詳細な処理については後述
する。
【0099】入力判定部134は、バーチャルロボット
11、およびリアルロボット31(以下、バーチャルロ
ボット11とリアルロボット31のそれぞれを個々に区
別する必要がない場合、まとめてロボットと称する)に
とって可能であるとして予め規定されている行動を示す
単語(キーワード)が、音声認識部131から供給され
てきたテキストデータ中に含まれているか否かを、行動
認識用辞書記憶部136に記憶されている辞書を参照し
て判定する。
【0100】すなわち、行動認識用辞書記憶部136に
は、ロボットにとって実行可能とされる行動の辞書が記
憶されている。例えば、行動認識用辞書記憶部136に
は、「お手」、「寝る」、「あいさつ」、「お座り」、
「ダンス」、「ジャンプ」などの行動が予め規定され、
記憶されている。
【0101】例えば、「ロボットあいさつして」などの
テキストデータが音声認識部131から供給されてきた
場合、入力判定部134は、ロボットにとって実行可能
な行動として規定されている「あいさつ」がテキストデ
ータ中に含まれていると判定し、それ以降の処理を実行
する。一方、テキストデータ中に、予め規定されている
行動に対応するキーワードがない場合、ユーザが入力し
た指令(音声)は無効とされる。
【0102】また、入力判定部134は、ユーザにより
入力された指示(音声認識部131から供給されてきた
テキストデータ)が、条件付きの指示であるか否かを判
定し、その判定結果に応じて、音声認識部131から供
給されてきたテキストデータの出力先を切り替える。
【0103】この条件付きの指示とは、例えば、「頭を
撫でたら喜んで」などの指示であり、入力判定部134
は、ロボットのいずれかのセンサ入力を指定する条件が
含まれているか否かを判定する。すなわち、この例
(「頭を撫でたら喜んで」のテキストデータ)の場合、
「頭を撫でたら」が「条件」に相当する。
【0104】入力判定部134は、ユーザから条件付き
の指示が入力されたと判定した場合、そのテキストデー
タをメタスクリプト生成部141に出力する。
【0105】一方、例えば、音声認識部131から供給
されてきたテキストデータが「あいさつして」などのテ
キストデータである場合、入力判定部134は、ユーザ
から条件付きの指示が入力されていないと判定し、テキ
ストデータを行動決定部135に出力する。
【0106】行動決定部135は、行動認識用辞書記憶
部136を参照し、入力判定部134から供給されてき
たテキストデータ中に含まれる、行動を指定するキーワ
ードに基づいて、ロボットに実行させる行動を決定す
る。
【0107】そして、行動決定部135は、決定した行
動をリアルロボットスクリプト生成部137、またはバ
ーチャルロボット制御部144に通知する。例えば、ユ
ーザがリアルロボット31に対して指示している場合、
行動決定部135は、決定した行動を識別する情報をリ
アルロボットスクリプト生成部137に出力し、バーチ
ャルロボット11に対して指示している場合、その識別
情報をバーチャルロボット制御部144に出力する。
【0108】リアルロボットスクリプト生成部137
は、行動決定部135から供給されてきた識別情報に基
づいて、リアルロボット31に送信(提供)する制御ス
クリプトを生成する。
【0109】より具体的には、リアルロボット31に送
信する制御スクリプトの雛形がリアルロボットスクリプ
ト生成部137に予め用意されており、リアルロボット
スクリプト生成部137は、行動決定部135により決
定された「行動」を実行させるための行動スクリプトを
リアルロボット用行動スクリプト記憶部138から読み
出し、雛形の所定の位置に挿入する。
【0110】また、リアルロボットスクリプト生成部1
37は、メタスクリプト生成部141により生成された
メタスクリプト(上述した「条件」に対応するセンサ入
力を指定するスクリプト)が供給されてきた場合、リア
ルロボット用行動スクリプト記憶部138から取得した
行動スクリプトと、供給されてきたメタスクリプトを雛
形の所定の位置にそれぞれ挿入し、リアルロボット31
に送信する制御スクリプトを作成する。
【0111】図8は、リアルロボット用行動スクリプト
記憶部138に記憶されている、行動(キーワード)と
行動スクリプトの対応例を示す図である。
【0112】例えば、行動決定部135から、「お手」
の行動を識別する情報が供給されてきた場合、リアルロ
ボットスクリプト生成部137は、リアルロボット用行
動スクリプト記憶部138から「PLAY:ACTION:OTE」の
行動スクリプトを読み出し、それを雛形に挿入してリア
ルロボット31に送信する制御スクリプトを生成する。
【0113】図8に示すように、リアルロボット用行動
スクリプト記憶部138には、例えば、「寝て」のキー
ワードに対応する「PLAY:ACTION:SLEEP」の行動スクリ
プトや、「こんにちはして」のキーワードに対応する
「PLAY:ACTION:Hello」の行動スクリプト、および「ダ
ンスして」のキーワードに対応する「PLAY:ACTION:Danc
e」の行動スクリプトなどが記憶されている。
【0114】スクリプト送信部139は、無線通信部4
を制御し、リアルロボットスクリプト生成部137によ
り生成された制御スクリプトをリアルロボット31に送
信する。
【0115】半導体メモリ管理部140は、ドライブ1
06を制御し、リアルロボットスクリプト生成部137
により生成された制御スクリプトを半導体メモリ5に書
き込み、リアルロボット31に提供する。
【0116】メタスクリプト生成部141は、入力判定
部134からテキストデータが供給されてきたとき、そ
のテキストデータに含まれる「条件」に対応するメタス
クリプトをメタスクリプト記憶部142から読み出し、
それをリアルロボットスクリプト生成部137、または
バーチャルロボット制御部144に出力する。
【0117】すなわち、メタスクリプト記憶部142に
は、「条件」(センサ入力)とメタスクリプトの対応テ
ーブルが保存されている。例えば、「頭が叩かれたら」
の「条件」(センサ入力)がユーザにより設定されたと
き、「if(Head hit==1)」などのメタスクリプトが読み
出される。
【0118】また、メタスクリプト生成部141は、動
作設定部143から供給されてきた設定情報を、リアル
ロボットスクリプト生成部137、またはバーチャルロ
ボット制御部144に出力する。
【0119】動作設定部143は、上述したような「行
動」、および「条件」を設定するためのGUI(Graphical
User Interface)をLCD44に表示し、ユーザに提示す
る。そして、GUIに対してユーザから「行動」、および
「条件」が入力されたとき、その入力に基づいて、ロボ
ットの動作を設定する。すなわち、ユーザは、音声を入
力してロボットに各種の指示をするだけでなく、LCD4
4上で設定した動作をとらせることもできる。GUIの詳
細については後述する。
【0120】バーチャルロボット制御部144は、行動
決定部135から供給されてきた行動の識別情報に基づ
いて、バーチャルロボット11を制御するための行動ス
クリプトをバーチャルロボット用行動スクリプト記憶部
145から取得する。
【0121】また、バーチャルロボット制御部144
は、メタスクリプト生成部141から、メタスクリプト
と、動作設定部143における設定情報が供給されてき
たとき、それに基づいて制御スクリプトを生成し、バー
チャルロボット11の行動を制御する。
【0122】センサ入力部146は、バーチャルロボッ
ト11に対して入力された、「頭が撫でられた」、「頭
が叩かれた」などのセンサ入力を監視し、図14を参照
して後述する所定の方法により、ユーザからバーチャル
ロボット11に対する入力があったとき、その入力に対
応する信号をバーチャルロボット制御部144に出力す
る。
【0123】次に、リアルロボット31の構成について
説明する。
【0124】図9は、リアルロボット31の外観構成の
例を示す斜視図であり、図10は、その内部構成の例を
示すブロック図である。
【0125】図9に示すように、リアルロボット31
は、四つ足の動物型のロボットとされている。胴体部ユ
ニット201の前後左右に、それぞれ、脚部ユニット2
02A,202B,202C,202Dが連結され、胴体部
ユニット201の前端部と後端部に、それぞれ、頭部ユ
ニット203と尻尾部ユニット204が連結されてい
る。
【0126】なお、胴体部ユニット201の上面には背
中センサ201Aが設けられ、頭部ユニット203に
は、その上部に頭センサ203Aが、下部に顎センサ2
03Bがそれぞれ設けられている。
【0127】尻尾部ユニット204は、水平方向、およ
び上下方向に揺動自在に引き出されている。
【0128】図10に示すように、胴体部ユニット20
1には、コントローラ211が格納されている。コント
ローラ211には、基本的に、コントローラ211の全
体の動作を制御するCPU211A、CPU211Aが各部を制
御するのに用いるプログラムが記憶されているメモリ2
11Bが配置されている。
【0129】また、胴体部ユニット201には、パーソ
ナルコンピュータ1の無線通信部4と、TCP/IPに基づい
て通信する通信部212が格納されている。これによ
り、パーソナルコンピュータ1において生成され、無線
で送信されてきた制御スクリプトを取得することが可能
になっている。
【0130】さらに、胴体部ユニット201には、半導
体メモリ制御部213が設けられており、半導体メモリ
制御部213は、所定のスロットに装着された半導体メ
モリ5を制御し、データの読み書きを行う。例えば、パ
ーソナルコンピュータ1において、半導体メモリ5に書
き込まれたリアルロボット31用の制御スクリプトは、
半導体メモリ制御部213により読み出され、コントロ
ーラ211に出力される。
【0131】また、背中センサ201Aにより、ユーザ
からの圧力が検出されたとき、圧力検出信号がコントロ
ーラ211に出力される。
【0132】胴体部ユニット201には、コントローラ
211、通信部212、半導体メモリ制御部213の他
に、例えば、リアルロボット31の動力源となるバッテ
リ(図示せず)等も格納されている。
【0133】図10に示すように、頭部ユニット203
には、外部からの刺激を感知するセンサとしての、音を
感知する「耳」に相当するマイク221、光を感知する
「目」に相当するCCD(Charge Coupled Device)222、
およびユーザがふれることによる圧力等を感知する触覚
に相当する頭センサ203A、および顎センサ203B
が、それぞれ所定の位置に設けられている。また、頭部
ユニット203には、リアルロボット31の「口」に相
当するスピーカ223が、所定の位置に設置されてい
る。
【0134】脚部ユニット202A乃至202Dのそれぞ
れの関節部分、脚部ユニット202A乃至202Dのそれ
ぞれと胴体部ユニット201の連結部分、頭部ユニット
203と胴体部ユニット201の連結部分、並びに尻尾
部ユニット204と胴体部ユニット201の連結部分な
どには、アクチュエータが設置されている。アクチュエ
ータは、コントローラ211からの指示に基づいて各部
を動作させる。
【0135】頭部ユニット203に設置されるマイク2
21は、ユーザからの発話を含む周囲の音声(音)を集
音し、得られた音声信号を、コントローラ211に出力
する。CCD222は、周囲の状況を撮像し、得られた画
像信号を、コントローラ211に出力する。頭センサ2
03Aは、例えば、頭部ユニット203の上部に設けら
れており、ユーザからの「撫でる」や「叩く」といった
物理的な働きかけにより受けた圧力を検出し、その検出
結果を圧力検出信号としてコントローラ211に出力す
る。顎センサ203Bは、頭部ユニット203の下部
(リアルロボット31を動物とした場合、その顎の部
分)に設けられており、頭センサ203Aと同様に、ユ
ーザからの圧力を検出し、検出結果をコントローラ21
1に出力する。
【0136】コントローラ211は、マイク221、CC
D222、背中センサ201A、頭センサ203A、お
よび顎センサ203Bから与えられる音声信号、画像信
号、圧力検出信号に基づいて、周囲の状況や、ユーザか
らの指令、ユーザからの働きかけなどの有無を判断し、
その判断結果に基づいて、リアルロボット31が次にと
る行動を決定する。そして、コントローラ211は、そ
の決定に基づいて、必要なアクチュエータを駆動させ、
これにより、頭部ユニット203を上下左右に振らせた
り、尻尾部ユニット204を動かせたり、各脚部ユニッ
ト202A乃至202Dを駆動して、リアルロボット31
を歩行させるなどの行動をとらせる。
【0137】また、コントローラ211は、パーソナル
コンピュータ1から無線や半導体メモリ5を介して提供
されてきた制御スクリプトを実行し、ユーザが指示した
行動をとる。
【0138】さらに、コントローラ211は、必要に応
じて、合成音を生成し、それをスピーカ223に供給し
て出力させたり、リアルロボット31の「目」の位置に
設けられた、図示しないLEDを点灯、消灯または点滅さ
せる。
【0139】以上のようにして、リアルロボット31
は、周囲の状況や、接してくるユーザに基づいて、自律
的に行動をとるようになっている。
【0140】図11は、図10のコントローラ211の
機能的構成例を示している。なお、図11に示す機能的
構成は、CPU211Aが、メモリ211Bに記憶された制
御プログラムを実行することで実現される。
【0141】コントローラ211のセンサ入力処理部2
41は、背中センサ201Aや、頭センサ203A、顎
センサ203B、マイク221、CCD222等からそれ
ぞれ与えられる圧力検出信号、音声信号、画像信号等に
基づいて、特定の外部状態や、ユーザからの特定の働き
かけ、ユーザからの指示等を認識し、その認識結果を表
す状態認識情報を、モデル記憶部242および行動決定
機構部243に通知する。
【0142】即ち、センサ入力処理部241は、圧力処
理部241A、音声認識部241B、および画像処理部
241Cを有している。
【0143】圧力処理部241Aは、背中センサ201
A、頭センサ203A、または顎センサ203Bから与
えられる圧力検出信号を処理する。そして、圧力処理部
241Aは、その処理の結果、所定の閾値以上で、かつ
短時間の圧力を検出したときには、「叩かれた(しから
れた)」と認識し、所定の閾値未満で、かつ長時間の圧
力を検出したときには、「なでられた(ほめられた)」
と認識して、その認識結果を、状態認識情報として、モ
デル記憶部242、行動決定機構部243、およびスク
リプト実行部247に通知する。
【0144】音声認識部241Bは、マイク221から
与えられる音声信号について音声認識を行う。そして、
音声認識部241Bは、その音声認識結果としての、例
えば、「歩け」、「伏せ」、「ボールを追いかけろ」等
の指令その他を、状態認識情報として、モデル記憶部2
42、行動決定機構部243、およびスクリプト実行部
247に通知する。
【0145】画像処理部241Cは、CCD222から与
えられる画像信号を用いて、画像認識処理を行う。そし
て、画像処理部241Cは、その処理の結果、例えば、
「赤い丸いもの」や、「地面に対して垂直なかつ所定の
高さ以上の平面」等を検出したときには、「ボールがあ
る」や、「壁がある」等の画像認識結果を、状態認識情
報として、モデル記憶部242、行動決定機構部24
3、およびスクリプト実行部247に通知する。
【0146】モデル記憶部242は、ロボットの感情、
本能、成長の状態を表現する感情モデル、本能モデル、
成長モデルをそれぞれ記憶し、管理している。
【0147】ここで、感情モデルは、例えば、「うれし
さ」、「悲しさ」、「怒り」、「楽しさ」等の感情の状
態(度合い)を、所定の範囲(例えば、−1.0乃至
1.0等)の値によってそれぞれ表し、センサ入力処理
部241からの状態認識情報や時間経過等に基づいて、
その値を変化させる。
【0148】本能モデルは、例えば、「食欲」、「睡眠
欲」、「運動欲」等の本能による欲求の状態(度合い)
を、所定の範囲の値によってそれぞれ表し、センサ入力
処理部241からの状態認識情報や時間経過等に基づい
て、その値を変化させる。
【0149】成長モデルは、例えば、「幼年期」、「青
年期」、「熟年期」、「老年期」等の成長の状態(度合
い)を、所定の範囲の値によってそれぞれ表し、センサ
入力処理部241からの状態認識情報や時間経過等に基
づいて、その値を変化させる。
【0150】モデル記憶部242は、上述のようにして
感情モデル、本能モデル、成長モデルの値で表される感
情、本能、成長の状態を、状態情報として、行動決定機
構部243に送出する。
【0151】なお、モデル記憶部242には、センサ入
力処理部241から状態認識情報が供給される他に、行
動決定機構部243から、リアルロボット31の現在ま
たは過去の行動、具体的には、例えば、「長時間歩い
た」などの行動の内容を示す行動情報が供給されるよう
になっており、モデル記憶部242は、同一の状態認識
情報が与えられても、行動情報が示すリアルロボット3
1の行動に応じて、異なる状態情報を生成するようにな
っている。
【0152】例えば、リアルロボット31が、ユーザに
挨拶をし、ユーザに頭を撫でられた場合には、ユーザに
挨拶をしたという行動情報と、頭を撫でられたという状
態認識情報とが、モデル記憶部242に与えられ、この
場合、モデル記憶部242では、「うれしさ」を表す感
情モデルの値が増加される。
【0153】行動決定機構部243は、センサ入力処理
部241からの状態認識情報や、モデル記憶部242か
らの状態情報、時間経過等に基づいて、次の行動を決定
し、決定された行動の内容を、行動指令情報として、姿
勢遷移機構部244に出力する。
【0154】即ち、行動決定機構部243は、リアルロ
ボット31がとり得る行動をステート(状態)(state)
に対応させた有限オートマトンを、リアルロボット31
の行動を規定する行動モデルとして管理している。そし
て、行動決定機構部243は、この行動モデルとしての
有限オートマトンにおけるステートを、センサ入力処理
部241からの状態認識情報や、モデル記憶部242に
おける感情モデル、本能モデル、または成長モデルの
値、時間経過等に基づいて遷移させ、遷移後のステート
に対応する行動を、次にとるべき行動として決定する。
【0155】ここで、行動決定機構部243は、所定の
トリガ(trigger)があったことを検出すると、ステート
を遷移させる。即ち、行動決定機構部243は、例え
ば、現在のステートに対応する行動を実行している時間
が所定時間に達したときや、特定の状態認識情報を受信
したとき、モデル記憶部242から供給される状態情報
が示す感情や、本能、成長の状態の値が所定の閾値以下
または以上になったとき等に、ステートを遷移させる。
【0156】なお、行動決定機構部243は、上述した
ように、センサ入力処理部241からの状態認識情報だ
けでなく、モデル記憶部242における感情モデルや、
本能モデル、成長モデルの値等にも基づいて、行動モデ
ルにおけるステートを遷移させることから、同一の状態
認識情報が入力されても、感情モデルや、本能モデル、
成長モデルの値(状態情報)によっては、ステートの遷
移先は異なるものとなる。
【0157】その結果、行動決定機構部243は、例え
ば、状態情報が、「怒っていない」こと、および「お腹
がすいていない」ことを表している場合において、状態
認識情報が、「目の前に手のひらが差し出された」こと
を表しているときには、目の前に手のひらが差し出され
たことに応じて、「お手」という行動をとらせる行動指
令情報を生成し、これを、姿勢遷移機構部244に送出
する。
【0158】また、行動決定機構部243は、例えば、
状態情報が、「怒っていない」こと、および「お腹がす
いている」ことを表している場合において、状態認識情
報が、「目の前に手のひらが差し出された」ことを表し
ているときには、目の前に手のひらが差し出されたこと
に応じて、「手のひらをぺろぺろなめる」ような行動を
行わせるための行動指令情報を生成し、これを、姿勢遷
移機構部244に送出する。
【0159】なお、行動決定機構部243には、モデル
記憶部242から供給される状態情報が示す感情や、本
能、成長の状態に基づいて、遷移先のステートに対応す
る行動のパラメータとしての、例えば、歩行の速度や、
手足を動かす際の動きの大きさおよび速度などを決定さ
せることができ、この場合、それらのパラメータを含む
行動指令情報が、姿勢遷移機構部244に送出される。
【0160】また、行動決定機構部243では、上述し
たように、リアルロボット31の頭部や手足等を動作さ
せる行動指令情報の他、リアルロボット31に発話を行
わせる行動指令情報も生成される。そして、リアルロボ
ット31に発話させる行動指令情報は、音声合成部24
6に供給されるようになっている。
【0161】スクリプト実行部247は、パーソナルコ
ンピュータ1から無線を介して送信され、通信部212
において受信された制御スクリプト、または半導体メモ
リ5を介して提供され、半導体メモリ制御部213によ
り読み出された制御スクリプトを取得し、それを解釈、
実行する。そして、スクリプト実行部247は、制御ス
クリプトに含まれる、行動スクリプトにより指定される
行動をとらせるべく、姿勢遷移機構部244に行動指令
情報を出力する。
【0162】また、スクリプト実行部247は、メタス
クリプトを含む制御スクリプトを取得したとき、メタス
クリプトに対応するセンサ入力があったか否かを、セン
サ入力処理部241からの状態認識情報に基づいて判定
し、メタスクリプトの後段に規定されている行動スクリ
プトを実行するタイミングを制御する。
【0163】例えば、「頭を撫でられたら」の条件に対
応するメタスクリプトが制御スクリプト中に含まれてい
る場合、スクリプト実行部247は、「頭を撫でられ
た」ことを指定する状態認識情報がセンサ入力処理部2
41から供給されてきたとき、メタスクリプトの後段に
挿入されている行動スクリプトを実行する(行動指令情
報を姿勢遷移機構部244に出力する)。
【0164】これにより、例えば、「頭を撫でられたら
ダンスする」に対応する制御スクリプトがパーソナルコ
ンピュータ1から提供された場合、頭が撫でられたタイ
ミングで(頭が撫でられることをトリガとして)、所定
のダンスが行われることになる。
【0165】姿勢遷移機構部244は、行動決定機構部
243、またはスクリプト実行部247から供給される
行動指令情報に基づいて、リアルロボット31の姿勢
を、現在の姿勢から次の姿勢に遷移させるための姿勢遷
移情報を生成し、これを制御機構部245に送出する。
【0166】ここで、現在の姿勢から次に遷移可能な姿
勢は、例えば、胴体や手や足の形状、重さ、各部の結合
状態のようなリアルロボット31の物理的形状と、関節
が曲がる方向や角度のようなアクチュエータの機構とに
よって決定される。
【0167】また、次の姿勢としては、現在の姿勢から
直接遷移可能な姿勢と、直接には遷移できない姿勢とが
ある。例えば、4本足のリアルロボット31は、手足を
大きく投げ出して寝転んでいる状態から、伏せた状態へ
直接遷移することはできるが、立った状態へ直接遷移す
ることはできず、一旦、手足を胴体近くに引き寄せて伏
せた姿勢になり、それから立ち上がるという2段階の動
作が必要である。また、安全に実行できない姿勢も存在
する。例えば、4本足のリアルロボット31は、その4
本足で立っている姿勢から、両前足を挙げてバンザイを
しようとすると、簡単に転倒してしまう。
【0168】このため、姿勢遷移機構部244は、直接
遷移可能な姿勢をあらかじめ登録しておき、行動決定機
構部243、またはスクリプト実行部247から供給さ
れる行動指令情報が、直接遷移可能な姿勢を示す場合に
は、その行動指令情報を制御機構部245に送出する。
【0169】一方、行動指令情報が、直接遷移不可能な
姿勢を示す場合には、姿勢遷移機構部244は、遷移可
能な他の姿勢に一旦遷移した後に、目的の姿勢まで遷移
させるような姿勢遷移情報を生成し、制御機構部245
に送出する。これによりロボットが、遷移不可能な姿勢
を無理に実行しようとする事態や、転倒するような事態
を回避することができるようになっている。
【0170】制御機構部245は、姿勢遷移機構部24
4からの姿勢遷移情報にしたがって、アクチュエータを
駆動するための制御信号を生成し、これを、各部のアク
チュエータに送出する。
【0171】次に、図12乃至図17を参照して、図7
のバーチャルロボット制御部144により、その行動が
制御されるバーチャルロボット11の表示例について説
明する。
【0172】ロボット制御プログラム74Aが起動され
ることに応じて、例えば、図12に示すようなほぼ円形
のバーチャルロボット表示ウインドウ261がLCD44
に表示される。バーチャルロボット表示ウインドウ26
1のほぼ中央には、バーチャルロボット表示部262が
配置され、その中にバーチャルロボット11が表示され
る。
【0173】バーチャルロボット11は、上述したリア
ルロボット31と同様の外観を有しており、このバーチ
ャルロボット表示部262内で、リアルロボット31と
同様に、様々な自律行動をとるようになされている。
【0174】バーチャルロボット表示ウインドウ261
には、様々な表示部、またはユーザにより操作される操
作ボタン等が配置される。
【0175】例えば、バーチャルロボット表示ウインド
ウ261の右上方には、音声認識状態表示部263が設
けられている。音声認識状態表示部263は、ユーザが
マイクロフォン23からバーチャルロボット11に対し
て話しかけているとき、所定の色を点滅させ、バーチャ
ルロボット11が、その呼びかけを聞いていることを表
示する。
【0176】また、バーチャルロボット表示ウインドウ
261の右上部(音声認識状態表示部263の左側)に
は、バーチャルロボット表示ウインドウ261を閉じる
とき操作されるクローズボタン264が表示される。
【0177】そして、バーチャルロボット表示ウインド
ウ261の右側には、各種の操作ボタンが配置される。
この操作ボタンには、例えば、バーチャルロボット表示
ウインドウ261を最小化するとき操作される最小化ボ
タン265、バーチャルロボット表示ウインドウ261
を最大表示したりするときなどに操作される表示設定ボ
タン266、他の音楽データ管理ソフトと連動して、曲
のプレイリストを表示するとき操作されるプレイリスト
表示ボタン267、後述するコミュニケータウインドウ
281(図13)を表示するとき操作されるコミュニケ
ータ表示ボタン268、およびバーチャルロボット11
の各種の設定を行うとき操作される設定ボタン269な
どがある。
【0178】図13は、図12のコミュニケータ表示ボ
タン268が操作されることに応じて表示されるコミュ
ニケータウインドウ281の例を示す図である。
【0179】コミュニケータウインドウ281のほぼ中
央には、コミュニケーション用バーチャルロボット表示
部282が表示され、そこにコミュニケーション用バー
チャルロボット283が表示される。
【0180】このコミュニケーション用バーチャルロボ
ット283は、バーチャルロボット表示部262に表示
されているバーチャルロボット11に対してセンサ入力
を行うためのオブジェクトであり、ユーザはポインタ2
84により、バーチャルロボット11と各種のコミュニ
ケーションを図ることができる。
【0181】すなわち、コミュニケーション用バーチャ
ルロボット283は、バーチャルロボット11にリンク
されており、ユーザは、バーチャルロボット11とコミ
ュニケーションを図るとき、ポインタ284を操作し、
バーチャルロボット11に対してセンサ入力を行う。
【0182】そして、ユーザがセンサ入力を行うため
に、コミュニケーション用バーチャルロボット283に
は、例えば、その背中の部分には背中センサ283A
が、頭の上部には頭センサ283Bが、頭の下部(顎の
部分)には顎センサ283Cがそれぞれ所定の範囲(大
きさ)で設定されている。なお、この背中センサ283
A、頭センサ283B、および顎センサ283Cは、リ
アルロボット31に設けられているセンサとほぼ同様の
位置に配置される。
【0183】コミュニケーション用バーチャルロボット
表示部282の右側には、ポインタ284によるセンサ
入力の方法を変化させる(センサ入力の方法を変化させ
る)ときにユーザが参照するインジケータ287が表示
され、コミュニケーション用バーチャルロボット表示部
282の下方には、後述する各種の動作設定を行うとき
操作される動作設定ボタン288が表示される。
【0184】図14は、コミュニケーション用バーチャ
ルロボット283に対して行う、センサ入力を説明する
ための図である。なお、図14においては、コミュニケ
ータウインドウ281以外の部分については省略して図
示してある。
【0185】インジケータ287は、例えば、ユーザが
タッチパッド43を使用してクリックボタンを押下して
いる期間に応じて、その最も上方にある表示部(ラン
プ)から、順次、点灯されるようになっている。
【0186】そして、インジケータ287は、図に示す
ように3個の表示部毎に領域が区切られており、ユーザ
は、クリックボタンを押下する期間を変えることによ
り、その領域毎に設定されているセンサ入力の方法を選
択することができる。
【0187】例えば、インジケータ287の上から1番
目乃至3番目までの領域(領域287A)は、そのセン
サ入力の方法が「触れる」に対応しており、4番目乃至
6番目の領域(領域287B)は、そのセンサ入力の方
法が「叩く」に対応しており、7番目乃至9番目の領域
(領域287C)は、そのセンサ入力の方法が「撫で
る」に対応しており、10番目乃至12番目の領域(領
域287D)は、そのセンサ入力の方法が「強く撫で
る」に対応している。
【0188】従って、図14に示すように、インジケー
タ287が領域287Cまで点灯されており、ポインタ
284が頭センサ283Bにある場合、バーチャルロボ
ット11(コミュニケーション用バーチャルロボット2
83)に対するセンサ入力は、「頭を撫でている」状態
であることを示している。
【0189】また、バーチャルロボット11に対するセ
ンサ入力としては、図15に示すように、ボール301
をバーチャルロボット11に対して見せるなどがある。
【0190】このようにして各種のセンサ入力がされる
ことに応じて、バーチャルロボット制御部144は、例
えば、上述したようなリアルロボット31がセンサ入力
された場合と同様に、バーチャルロボット11の行動を
変化させる。例えば、バーチャルロボット制御部144
は、バーチャルロボット11の頭センサ283Bが撫で
られることに応じて、バーチャルロボット11に喜びを
表現する行動をとらせたりする。
【0191】図16は、音声認識ウインドウ311の表
示例を示す図である。
【0192】音声認識ウインドウ311は、所定の操作
により音声認識プログラム74Bが起動され、ロボット
制御プログラム74Aと連動可能な状態とされたとき、
図に示すように、例えば、バーチャルロボット表示ウイ
ンドウ261の下方に表示される。
【0193】音声認識ウインドウ311は、基本的に、
認識結果表示部312、入力状態表示部313、および
設定表示部314から構成される。
【0194】認識結果表示部312には、図7の音声認
識部131による認識結果がテキストとして表示され
る。入力状態表示部313には、音声の入力中であると
き、例えば、同心円の複数の輪が拡大、または縮小して
繰り返し表示され、認識中であることをユーザに提示す
る。
【0195】設定表示部314には、現在の音声認識プ
ログラム74Bの設定状態が表示される。例えば、バー
チャルロボット11に対して話しかけることを、ユーザ
が設定した場合、図に示すように、「バーチャルロボッ
ト 音声認識可」などのメッセージが表示される。
【0196】図17は、バーチャルロボット表示部26
2が閉じている状態を示す図である。
【0197】例えば、バーチャルロボット11が自律動
作により眠っている状態のとき、または、ロボット制御
プログラム74Aがリアルロボット31を制御している
状態のとき、図17に示すように、バーチャルロボット
表示部262が閉じた状態とされる。
【0198】以上においては、図12乃至図17を参照
して、本発明を適用したロボット制御システムに直接関
係のある部分の表示について説明したが、例えば、設定
ボタン269を操作することにより可能とされる各種の
設定などについては、後にまとめて説明する。
【0199】次に、フローチャートを参照して、ロボッ
ト制御プログラム74A、および音声認識プログラム7
4Bの処理について説明する。
【0200】始めに、図18のフローチャートを参照し
て、音声認識プログラム74Bの音声認識処理について
説明する。
【0201】ステップS1において、音声認識部131
は、図6のサウンドコントローラ85の出力を監視し、
音声が入力されたか否かを判定する。そして、音声認識
部131は、ステップS1で、ユーザから音声が入力さ
れたと判定するまで待機し、入力されたと判定した場
合、ステップS2に進む。
【0202】ステップS2において、音声認識部131
は、音声認識用辞書記憶部132を参照し、入力されて
きた音声を認識する。例えば、音声認識部131は、ス
テップS2で、入力されてきた音声データを適当なフレ
ーム毎に分割し、それぞれの音声データに対して、例え
ば、MFCC分析を行い、その分析の結果得られるMFCCを、
特徴パラメータとして抽出する。
【0203】そして、音声認識部131は、音声認識用
辞書記憶部132に記憶されている音響モデル、および
文法規則などを必要に応じて参照し、取得した特徴パラ
メータを用いて音声認識する。
【0204】ステップS3において、音声認識部131
は、認識結果のテキストをLCD44に表示されている音
声認識ウインドウ311の認識結果表示部312に表示
する。
【0205】図19は、LCD44の表示例を示す図であ
る。
【0206】例えば、ユーザがマイク23に向かって、
「ダンスして」などの言葉を発した場合、図に示すよう
に、その認識結果が認識結果表示部312に表示され
る。なお、図19においては、ユーザがリアルロボット
31に対して指示している場合であるため、バーチャル
ロボット表示部262は閉じた状態とされ、設定表示部
314には、「リアルロボット 音声認識可」のメッセ
ージが表示されている。
【0207】ステップS4において、音声認識部131
は、認識結果に対応するテキストデータをロボット制御
プログラム74Aの入力判定部134に出力する。そし
て処理は終了される。
【0208】次に、図20のフローチャートを参照し
て、音声の認識結果に基づいて、リアルロボット31を
制御するロボット制御プログラム74Aの処理について
説明する。
【0209】ステップS11において、入力判定部13
4は、音声認識部131からユーザの入力音声に対応す
るテキストデータが供給されてきたか否かを判定し、供
給されてきたと判定するまで待機する。
【0210】入力判定部134は、ステップS11で、
テキストデータが供給されてきたと判定した場合、ステ
ップS12に進む。
【0211】入力判定部134は、ステップS12にお
いて、行動認識用辞書記憶部136を参照し、リアルロ
ボット31にとって可能な行動を指定するキーワード
が、音声認識部131から供給されてきたテキストデー
タ中に含まれているか否かを判定する。
【0212】入力判定部134は、リアルロボット31
にとって実行可能な行動を指定するキーワードがテキス
トデータ中に含まれていないと判定した場合、処理を終
了し、含まれていると判定した場合、ステップS13に
進む。
【0213】例えば、図19に示したように、「ダンス
して」などのテキストデータが音声認識部131から供
給されてきた場合、入力判定部134は、行動認識用辞
書記憶部136に、「ダンス」はリアルロボット31が
実行可能な行動として規定されていると判定する。
【0214】そして、ステップS13において、入力判
定部134は、行動認識用辞書記憶部136を参照し、
ユーザからの音声入力は条件付きの指示であるか否か
(音声認識部131から供給されてきたテキストデータ
にリアルロボット31に対するセンサ入力を指定するキ
ーワードが含まれているか否か)を判定する。
【0215】例えば、「ダンスして」などのテキストデ
ータが供給されてきた場合、入力判定部134は、ユー
ザからの音声入力は「条件」付きの指令でないと判定
し、ステップS14に進む。
【0216】ステップS14において、入力判定部13
4は、音声認識部131から供給されてきたテキストデ
ータを行動決定部135に出力する。
【0217】行動決定部135は、ステップS15で、
行動認識用辞書記憶部136を参照し、テキストデータ
中に含まれる、行動を指定するキーワードに基づいて、
リアルロボット31に実行させる行動を決定する。行動
決定部135により決定された行動の識別情報は、リア
ルロボットスクリプト生成部137に出力される。
【0218】ステップS16において、リアルロボット
スクリプト生成部137は、行動決定部135から供給
されてきた識別情報に基づいて、リアルロボット用行動
スクリプト記憶部138から行動スクリプトを取得す
る。
【0219】例えば、図8に示すような、行動と行動ス
クリプトの対応テーブルがリアルロボット用行動スクリ
プト記憶部138に保存されており、行動として「ダン
ス」を識別する情報が供給されてきた場合、リアルロボ
ットスクリプト生成部137は、「PLAY:ACTION:DANC
E」の行動スクリプトを取得する。
【0220】そして、ステップS17において、リアル
ロボットスクリプト生成部137は、予め用意されてい
る雛形の所定の位置に行動スクリプトを挿入し、リアル
ロボット31に送信する制御スクリプトを生成する。
【0221】図21は、リアルロボットスクリプト生成
部137が生成する制御スクリプトの例を示す図であ
る。
【0222】リアルロボット31に送信する制御スクリ
プトの雛形(雛形331)が予めリアルロボットスクリ
プト生成部137に予め用意されている。そして、リア
ルロボットスクリプト生成部137は、リアルロボット
用行動スクリプト記憶部138から、行動決定部135
により決定された「行動」に対応する行動スクリプト
(行動スクリプト332)を取得し、その行動スクリプ
ト(またはその一部)を雛形331の所定の位置に挿入
する。
【0223】ステップS18において、リアルロボット
スクリプト生成部137は、半導体メモリ5に制御スク
リプトを書き込むことが指示されたか否かを判定し、指
示されていない(無線により送信することが指示され
た)と判定した場合、ステップS19に進む。リアルロ
ボットスクリプト生成部137により生成された制御ス
クリプトは、スクリプト送信部139に出力される。
【0224】ステップS19において、スクリプト送信
部139は、無線通信部4を制御し、リアルロボットス
クリプト生成部137から供給された制御スクリプトを
リアルロボット31に送信する。
【0225】その後、リアルロボット31においては、
制御スクリプトが実行され、ユーザにより指示された行
動がとられる。リアルロボット31の処理については後
述する。
【0226】一方、ステップS18において、リアルロ
ボットスクリプト生成部137は、生成した制御スクリ
プトを半導体メモリ5に書き込むことが指示されたと判
定した場合、ステップS20に進む。リアルロボットス
クリプト生成部137により生成された制御プログラム
は、半導体メモリ管理部140に出力される。
【0227】ステップS20において、半導体メモリ管
理部140は、リアルロボットスクリプト生成部137
から供給されてきた制御スクリプトをドライブ106に
装着されている半導体メモリ5に書き込む。制御スクリ
プトが書き込まれた半導体メモリ5は、ユーザによりド
ライブ106から取り出され、リアルロボット31の所
定のスロットに装着される。これにより、リアルロボッ
ト31に対して制御プログラムを提供することが可能と
なる。
【0228】一方、ステップS13において、入力判定
部134は、行動認識用辞書記憶部136を参照し、ユ
ーザから条件付きの指示がされたと判定した場合、ステ
ップS21に進む。
【0229】ステップS21において、入力判定部13
4は、音声認識部131から供給されてきた認識結果と
してのテキストデータをメタスクリプト生成部141に
出力する。
【0230】ステップS22において、メタスクリプト
生成部141は、テキストデータに含まれる「条件」に
対応するメタスクリプトをメタスクリプト記憶部142
から読み出す。
【0231】例えば、「頭が叩かれたら」などのキーワ
ードを含むテキストデータが入力判定部134から供給
されてきたとき、メタスクリプト生成部141は、「if
(Head hit==1)」などのメタスクリプトを読み出し、ス
テップS23において、それをリアルロボットスクリプ
ト生成部137に出力する。また、テキストデータは行
動決定部135に出力される。
【0232】ステップS24において、行動決定部13
5は、ステップS15の処理と同様に、行動認識用辞書
記憶部136を参照し、テキストデータに基づいて行動
を決定する。決定された行動を識別する情報は、リアル
ロボットスクリプト生成部137に出力される。
【0233】ステップS25において、リアルロボット
スクリプト生成部137は、ステップS16の処理と同
様に、決定された行動に対応する行動スクリプトをリア
ルロボット用行動スクリプト記憶部138から取得す
る。
【0234】そして、リアルロボットスクリプト生成部
137は、ステップS26において、メタスクリプト生
成部141から供給されてきたメタスクリプトと、ステ
ップS25で取得した行動スクリプトを雛形の所定の位
置にそれぞれ挿入し、制御スクリプトを生成する。
【0235】図22は、リアルロボットスクリプト生成
部137が生成する、メタスクリプトを含む制御スクリ
プトの例を示す図である。
【0236】上述したように、制御スクリプトの雛形3
31が予め用意されており、リアルロボットスクリプト
生成部137は、メタスクリプト生成部141から供給
されてきた、ユーザが入力した「条件」に対応するメタ
スクリプト(メタスクリプト333)、およびリアルロ
ボット用行動スクリプト記憶部138から読み出した
「行動」に対応する行動スクリプト(行動スクリプト3
32)を、それぞれ雛形331の所定の位置に挿入す
る。これにより制御スクリプトが生成される。
【0237】図20に戻り、ステップS26でメタスク
リプトを含む制御スクリプトが生成された後、上述した
それ以降の処理が実行される。すなわち、ステップS1
8で、制御スクリプトを半導体メモリ5に書き込むこと
がユーザから指示されたか否かが判定される。そして、
半導体メモリ5に書き込むことが指示されていない場
合、ステップS19で、スクリプト送信部139により
制御スクリプトがリアルロボット31に送信され、一
方、半導体メモリ5に書き込むことが指示されている場
合、ステップS20で、半導体メモリ管理部140によ
り、制御スクリプトが半導体メモリ5に書き込まれ、リ
アルロボット31に提供される。
【0238】次に、図23のフローチャートを参照し
て、リアルロボット31の制御スクリプトの実行処理に
ついて説明する。
【0239】ステップS41において、図11に示すよ
うにコントローラ211に構成されるスクリプト実行部
247は、通信部212、または半導体メモリ制御部2
13から制御スクリプトが出力されてきたか否かを判定
し、出力されてきたと判定するまで待機する。
【0240】そして、スクリプト実行部247は、ステ
ップS41で、制御スクリプトが出力されてきたと判定
した場合、ステップS42に進み、その制御スクリプト
を解釈し、実行する。
【0241】ステップS43において、スクリプト実行
部247は、制御スクリプトには、メタスクリプト(セ
ンサ入力を条件とする命令文)が含まれているか否かを
判定する。スクリプト実行部247は、例えば、「if(H
ead hit==1)」などの、図7のメタスクリプト生成部1
41により取得されたメタスクリプトが制御スクリプト
に含まれていると判定した場合、ステップS44に進
み、「条件」に対応するセンサ入力がされたか否かを判
定する。
【0242】そして、ステップS44において、スクリ
プト実行部247は、センサ入力処理部241から供給
される状態認識情報に基づいて、メタスクリプトにより
指定されるセンサ入力がされたと判定した場合、ステッ
プS45に進み、行動スクリプトの実行結果に基づいた
動作をとらせる。
【0243】例えば、上述したように、「if(Head hit=
=1)」のメタスクリプトが制御スクリプトに含まれてお
り、センサ入力処理部241から、頭センサ203Aが
叩かれたことを示す状態認識情報が供給されてきた場
合、スクリプト実行部247は、メタスクリプトの後段
に挿入されている行動スクリプトを実行し、その実行結
果に対応する行動指令情報を姿勢遷移機構部244に出
力する。
【0244】姿勢遷移機構部244は、スクリプト実行
部247から供給された行動指令情報に基づいて、リア
ルロボット31の姿勢を、現在の姿勢から次の姿勢に遷
移させるための姿勢遷移情報を生成し、これを制御機構
部245に送出し、各部のアクチュエータを制御させ
る。
【0245】一方、ステップS43において、スクリプ
ト実行部247は、制御スクリプトにメタスクリプトが
含まれていないと判定した場合、ステップS44をスキ
ップし、ステップS45で、上述したように行動スクリ
プトに基づいた行動をとらせる。
【0246】図18、図20、および図23のフローチ
ャートを参照して説明したような一連の処理により、ユ
ーザは、リアルロボット31に対して、所望する動作を
音声でとらせることができる。
【0247】具体的には、ユーザが「リアルロボット、
ダンスして」などの発話をした場合、パーソナルコンピ
ュータ1において「ダンス」を実行させる制御スクリプ
トが生成され、リアルロボット31に送信される。そし
て、リアルロボット31においては、制御スクリプトが
実行されて、ダンスが行われる。
【0248】また、ユーザが「頭を撫でたらダンスし
て」などの発話をした場合、パーソナルコンピュータ1
において、ユーザが頭を撫でたタイミングで「ダンス」
が実行されるような制御スクリプトが生成され、リアル
ロボット31に送信される。そして、ユーザがリアルロ
ボット31の頭センサ203Aを撫でたとき、ダンスが
行われる。
【0249】従って、騒音が激しい環境においても、ユ
ーザの指示を、より確実に実行させることができる。ま
た、リアルロボット31に実装されている音声認識機能
よりも優れている音声認識機能をパーソナルコンピュー
タ1に実装することが可能であるため、ユーザは、より
長い、かつより複雑な指令をリアルロボット31に対し
て行うことができる。
【0250】従って、例えば、「頭を撫でたら、喜ん
で、ジャンプして、ダンスして」などのように、複数の
行動を指示した場合であっても、リアルロボット31に
忠実に所望する行動をとらせることができる。
【0251】また、無線で制御スクリプトを送信するよ
うにしたので、通信可能範囲である限り、リアルロボッ
ト31が離れた場所にいる場合であっても、ユーザは、
リアルロボット31(音声認識装置22)に話しかけ、
様々な行動をとらせることができる。
【0252】次に、図24のフローチャートを参照し
て、音声認識結果に基づいてバーチャルロボット11を
制御するロボット制御プログラム74Aの処理について
説明する。音声認識プログラム74Aにより、図18を
参照して説明した処理が行われた後、この処理が開始さ
れる。
【0253】ステップS61乃至ステップS65の処理
は、基本的に、図20のステップS11乃至ステップS
15の処理と同様の処理である。すなわち、ステップS
61において、入力判定部134は、音声認識部131
からテキストデータが供給されてきたか否かを判定し、
供給されてきたと判定した場合、ステップS62で、行
動認識用辞書記憶部136を参照して、バーチャルロボ
ット11にとって可能な行動を指定するキーワードが、
テキストデータ中に含まれているか否かを判定する。
【0254】入力判定部134は、バーチャルロボット
11にとって実行可能な行動を指定するキーワードがテ
キストデータ中に含まれていないと判定した場合、処理
を終了し、含まれていると判定した場合、ステップS6
3に進む。
【0255】そして、ステップS63において、入力判
定部134は、ユーザからの音声入力は条件付きの指示
であるか否かを判定し、条件付きの指示でないと判定し
た場合、ステップS64において、認識結果のテキスト
データを行動決定部135に出力する。
【0256】行動決定部135は、ステップS65にお
いて、上述したようにテキストデータに基づいてバーチ
ャルロボット11に実行させる行動を決定し、それをバ
ーチャルロボット制御部144に通知する。
【0257】ステップS66において、バーチャルロボ
ット制御部144は、通知されてきた行動に対応する行
動スクリプトを、バーチャルロボット用スクリプト記憶
部145から取得する。
【0258】そして、バーチャルロボット制御部144
は、ステップS67において、図21に示したように、
ステップS66で取得した行動スクリプトを、予め用意
されている雛形の所定の位置に挿入して制御スクリプト
を生成し、その制御スクリプトに基づいて、バーチャル
ロボット11の行動を制御する。
【0259】図25は、ユーザが、音声入力によりバー
チャルロボット11に対して指示した場合のLCD44の
表示例を示す図である。
【0260】例えば、ユーザが「こんにちわして」など
の発話をした場合、図18を参照して説明した音声認識
部131の処理により、音声認識ウインドウ311の認
識結果表示部312には、図に示すような、入力音声に
対応するテキストが表示される。また、ロボット制御プ
ログラム74Aにおいては、ステップS64乃至ステッ
プS67の処理が実行され、バーチャルロボット11が
ユーザに対して挨拶しているようなポーズがとられる。
【0261】図24の説明に戻り、一方、ステップS6
3において、入力判定部134は、行動認識用辞書記憶
部136を参照し、ユーザから条件付きの指示がされた
と判定した場合、ステップS68に進む。
【0262】ステップS68において、入力判定部13
4は、音声認識部131から供給されてきた認識結果と
してのテキストデータをメタスクリプト生成部141に
出力する。そして、ステップS69において、メタスク
リプト生成部141は、図20のステップS22の処理
と同様に、テキストデータに含まれる「条件」に対応す
るメタスクリプトをメタスクリプト記憶部142から読
み出し、それをバーチャルロボット制御部144に出力
する。また、認識結果としてのテキストデータもバーチ
ャルロボット制御部144に出力される。
【0263】ステップS70において、バーチャルロボ
ット制御部144は、供給されてきたテキストデータに
基づいて、対応する行動スクリプトをバーチャルロボッ
ト用行動スクリプト記憶部145から読み出し、取得す
る。
【0264】バーチャルロボット制御部144は、ステ
ップS71で、供給されてきたメタスクリプトと、ステ
ップS70で取得した行動スクリプトを、予め用意され
ている雛形の所定の位置にそれぞれ挿入し、制御スクリ
プトを生成する。
【0265】図26は、ユーザが、音声入力によりバー
チャルロボット11に対して指示した場合のLCD44の
他の表示例を示す図である。
【0266】例えば、ユーザが「頭を叩いたらふせて悲
しんで」などの発話をした場合、音声認識部131の処
理により、音声認識ウインドウ311の認識結果表示部
312には、図に示すような、入力音声に対応するテキ
ストが表示される。また、ロボット制御プログラム74
Aにおいては、ステップS68乃至ステップS71の処
理が実行され、図14を参照して説明した方法により、
バーチャルロボット11の頭が叩かれるのを待機する状
態となる。
【0267】ステップS72において、バーチャルロボ
ット制御部144は、センサ入力部146からの出力に
基づいて、メタスクリプトにより指定される「条件」に
対応するセンサ入力あったか否かを判定し、センサ入力
があったと判定するまで待機する。
【0268】例えば、上述した例のように、「頭を叩い
たら」などの条件がユーザにより指示されており、ユー
ザがタッチパッド43を操作して、図14に示すように
LCD44に表示されているコミュニケーション用バーチ
ャルロボット283の頭センサ283Bを叩いた場合
(インジケータ287が、領域287Bまで点灯される
期間だけ、クリックされていた場合)、センサ入力部1
46は、そのような入力があったことをバーチャルロボ
ット制御部144に通知する。
【0269】そして、バーチャルロボット制御部144
は、ステップS72において、「条件」に対応するセン
サの入力があったと判定した場合、ステップS73に進
み、制御スクリプトのメタスクリプトの後段に配置され
る行動スクリプトを実行し、バーチャルロボット11の
行動を制御する。
【0270】例えば、上述した例のように、「頭を叩い
たらふせて悲しんで」などの音声が入力されている場
合、バーチャルロボット制御部144は、バーチャルロ
ボット11に「ふせ」のポーズと「悲しんでいる」ポー
ズを連続してとらせ、バーチャルロボット表示部262
に表示させる。
【0271】このように、ユーザは、複数の行動を言葉
で指定することもできる。
【0272】以上のように、コミュニケーション用のバ
ーチャルロボットを設けて、それに対する入力をトリガ
として、話しかけて設定した各種の行動をとらせること
ができるので、ユーザは、バーチャルロボット11との
コミュニケーション感をより一層得ることができる。
【0273】また、例えば、音楽管理用のプログラム
が、HDD86に用意されている場合、それをRAM74に展
開させることで、ロボット制御プログラム74A、音声
認識プログラム74Bと連動させることも可能である。
【0274】図27は、ロボット制御プログラム74
A、音声認識プログラム74B、および音楽管理プログ
ラムが起動されているときのLCD44の表示例を示す図
である。
【0275】図に示すように、音楽管理プログラムが起
動されている場合、LCD44には、音楽管理プログラム
により管理されている曲の情報が表示されるプレイリス
ト表示ウインドウ341が表示される。また、その上方
に、プレイリスト表示ウインドウ341に表示されてい
る曲の再生等を入力するとき操作される、各種のボタン
からなる操作パネル342が表示される。
【0276】そして、ユーザは、図27に示すようなLC
D44の状態において、プレイリスト表示ウインドウ3
41に表示されている曲を言葉で再生させたりすること
ができる。例えば、プレイリスト表示ウインドウ341
に表示されている「愛の曲」を再生させる場合、ユーザ
は、タッチパッド43を操作することなく、「愛の曲よ
ろしく」などの言葉を発話するだけで、「愛の曲」を再
生させることができる。
【0277】また、図に示すように、曲が再生されるこ
とに応じて、バーチャルロボット11の口の開閉が繰り
返されるため、バーチャルロボット11が歌っているよ
うな状態となる。また、バーチャルロボット11が曲に
合わせて踊ったりするため、エンターテイメント性をよ
り向上させることができる。
【0278】さらに、ユーザは、バーチャルロボット1
1に対して、例えば、「次の曲よろしく」や、「一曲リ
ピートにして」などの言葉を発話することで、「曲の頭
出し」、または「一曲リピート」などの操作をすること
が可能である。
【0279】なお、以上においては、ユーザからバーチ
ャルロボット11に対する指示があったとき、各部の処
理により制御スクリプトが生成され、それに基づいて、
バーチャルロボット11の行動が制御されるとしたが、
実際には、バーチャルロボット11の描画を変えるだけ
なので、所定の制御プログラムを実行することにより、
その行動を制御するようにしてもよい。
【0280】以上においては、ユーザは、音声を入力す
ることで、バーチャルロボット11、またはリアルロボ
ット31に各種の行動をとらせることが可能であるとし
たが、上述したように、LCD44に表示される所定のGUI
を利用して、それぞれのロボットの行動を設定すること
も可能である。
【0281】次に、図28のフローチャートを参照し
て、GUIに入力された情報に基づいて、行動を設定する
ロボット制御プログラム74Aの処理について説明す
る。
【0282】ステップS81において、動作設定部14
3は、キーボード3、およびタッチパッド43からの入
力を監視し、例えば、図13に示したコミュニケータウ
インドウ281の動作設定ボタン288が操作されたか
否かを判定する。
【0283】動作設定部143は、動作設定ボタン28
8が操作されたと判定した場合、ステップS82に進
み、動作設定ウインドウをLCD44に表示させる。
【0284】図29は、ステップS82で表示される動
作設定ウインドウ351の表示例を示す図である。
【0285】図に示すように、動作設定ウインドウ35
1は、例えば、コミュニケータウインドウ281の下方
に表示され、基本的に、センサ入力を設定する表示部
と、設定されたセンサ入力をトリガとして、バーチャル
ロボット11、またはリアルロボット31(ロボット)
がとる行動を設定する表示部から構成される。
【0286】より具体的には、「条件」としてのセンサ
入力を設定する条件設定部352、条件設定部352に
設定されたセンサ入力をトリガとして、ロボットがとる
行動(行動(1))を設定する行動設定部353、行動
(1)に続いてロボットがとる行動(行動(2))を設
定する行動設定部354、行動(2)に続いてロボット
がとる行動(行動(3))を設定する行動設定部35
5、行動(3)に続いてロボットがとる行動(行動
(4))を設定する行動設定部356、行動(4)に続
いてロボットがとる行動(行動(5))を設定する行動
設定部357が動作設定ウインドウ351に表示され
る。
【0287】また、動作設定ウインドウ351の下方に
は、左側から、条件設定部352乃至行動設定部357
の設定に基づいて生成された制御スクリプトをリアルロ
ボット31に無線で転送するとき操作される転送ボタン
358、条件設定部352乃至行動設定部357の設定
に対応する動作をバーチャルロボット11にとらせると
きに操作される教え込みボタン359、設定した条件を
クリアするとき操作されるクリアボタン360、および
動作設定ウインドウ351を閉じるとき操作されるクロ
ーズボタン361が表示される。
【0288】なお、条件設定部352乃至行動設定部3
57の右側には、プルダウンボタン(プルダウンボタン
352A乃至357A)がそれぞれ設けられており、ユ
ーザは、このプルダウンボタンを選択することで、選択
メニューを表示させることができる。
【0289】図30は、条件設定部352に設けられて
いるプルダウンボタン352Aが操作されたときに表示
される条件設定メニュー352Bの表示例を示す図であ
る。なお、図30においては、動作設定ウインドウ35
1を中心に図示してあり、他の表示については省略して
ある。後述する図31、および図32に関しても同様で
ある。
【0290】図に示すように、条件設定メニュー352
Bには、複数の条件が予め規定されており、ユーザは、
タッチパッド43等を操作し、カーソル352Cを移動
させることで、好みの条件を選択することができる。
【0291】なお、条件として、例えば、「頭をさわっ
たら」、「頭を叩いたら」、「頭を撫でたら」、「頭を
抑えたら」、「背中をさわったら」、「アゴをさわった
ら」、「アゴを抑えたら」、「ボールが見えたら」など
が規定されている。また、音声入力の条件として、例え
ば、「パフォーマンスして」、「何かして」、「芸し
て」、「得意技して」、「面白いことして」などが規定
されている。
【0292】図31は、行動設定部353に設けられて
いるプルダウンボタン353Aが操作されたときに表示
される行動設定メニュー353Bの表示例を示す図であ
る。
【0293】図30の場合と同様に、ユーザは、カーソ
ル353Cを移動させ、好みの行動(行動(1))を選
択することができる。
【0294】そして、ユーザが選択可能な行動として
は、「喜んで」、「悲しんで」、「必殺技して」、「踊
って」、「びっくりポーズして」、「タラリラダンスし
て」、「エアロビクスして」、「お手して」、「二回お
手して」、「三回お手して」、「変なことして」、「二
回変なことして」、「三回変なことして」、「ジャンプ
して」、「二回ジャンプして」、「三回ジャンプし
て」、「バクテンして」などの行動が規定されている。
【0295】図31に示すような行動設定メニューが、
プルダウンボタン354A乃至357Aを操作したとき
にも表示されるため、ユーザは、それぞれの行動を1つ
ずつ設定することができる。
【0296】図32は、上述したそれぞれの設定メニュ
ーから、ユーザが「条件」および「行動」を設定した場
合の表示例を示す図である。
【0297】なお、図32においては、「条件」として
「頭をさわったら」が選択され、行動(1)として「喜
んで」が選択され、行動(2)として「まわって」が選
択され、行動(3)として「吠えて」が選択され、行動
(4)として「踊って」が選択され、行動(5)として
「ジャンプして」が選択された場合の例とされている。
なお、行動が設定されていない場合、その設定部には
「未定義」が表示される。
【0298】図28の説明に戻り、ステップS83にお
いて、動作設定部143は、上述のようにして、条件設
定部352に設定された「条件」を取得(認識)し、ス
テップS84において、行動設定部353乃至357に
設定された「行動」を取得する。
【0299】そして、ステップS85において、動作設
定部143は、ユーザにより、転送ボタン358が操作
されたか否か(設定した行動をリアルロボット31にと
らせることが選択されたか否か)を判定し、操作されて
いないと判定した場合、ステップS86に進む。
【0300】動作設定部143は、ステップS86で、
教え込みボタン359が操作されたか否か(設定した行
動をバーチャルロボット11にとらせることが選択され
たか否か)を判定し、操作されていないと判定した場
合、ステップS87に進み、クローズボタン361が操
作されたか否かを判定する。そして、動作設定部143
は、クローズボタン361が操作されたと判定した場
合、処理を終了し、操作されていないと判定した場合、
ステップS81に戻り、それ以降の処理を繰り返し実行
する。
【0301】一方、ステップS85において、動作設定
部143は、転送ボタン358が操作されたと判定した
場合、ステップS88に進む。そして、設定された各種
の情報(以下、設定情報と称する)は、メタスクリプト
生成部141に出力される。
【0302】ステップS88において、メタスクリプト
生成部141は、設定情報を参照し、条件設定部352
に設定された「条件」に対応するメタスクリプトをメタ
スクリプト記憶部142から取得する。メタスクリプト
生成部141は、取得したメタスクリプトと設定情報を
リアルロボットスクリプト生成部137に出力する。
【0303】ステップS89において、リアルロボット
スクリプト生成部137は、メタスクリプト生成部14
1から供給されてきた設定情報を参照し、設定された
「行動(行動(1)乃至行動(5))」に対応する行動
スクリプトをリアルロボット用行動スクリプト記憶部1
38からそれぞれ取得する。
【0304】また、リアルロボットスクリプト生成部1
37は、ステップS90において、メタスクリプトと、
ステップS89で取得した行動スクリプトを、予め用意
されている制御スクリプトの雛形に挿入し、制御スクリ
プトを生成する。
【0305】図33は、リアルロボットスクリプト生成
部137が生成する制御スクリプトの例を示す図であ
る。
【0306】例えば、図に示すように、条件設定部35
2に設定された「条件」に対応するメタスクリプト(メ
タスクリプト341)が雛形の所定の位置に挿入され、
その後段の所定の位置に、行動設定部353に設定され
た「行動(1)」に対応する行動スクリプト(行動スク
リプト332−1)が挿入される。
【0307】また、以下、同様にして、行動設定部35
4に設定された「行動(2)」に対応する行動スクリプ
ト(行動スクリプト332−2)、行動設定部355に
設定された「行動(3)」に対応する行動スクリプト
(行動スクリプト332−3)、行動設定部356に設
定された「行動(4)」に対応する行動スクリプト(行
動スクリプト332−4)、および行動設定部357に
設定された「行動(5)」に対応する行動スクリプト
(行動スクリプト332−5)が、雛形331の所定の
位置にそれぞれ挿入される。
【0308】例えば、図32に示した動作設定ウインド
ウ351の例のように各情報が設定された場合、「頭を
さわったら」に対応するメタスクリプトがメタスクリプ
ト341として、「喜んで」に対応する行動スクリプト
が行動スクリプト332−1として、「まわって」に対
応する行動スクリプトが行動スクリプト332−2とし
て、「吠えて」に対応する行動スクリプトが行動スクリ
プト332−3として、「踊って」に対応する行動スク
リプトが行動スクリプト332−4として、「ジャンプ
して」に対応する行動スクリプトが行動スクリプト33
2−5として、雛形331の所定の位置にそれぞれ挿入
される。
【0309】このようにしてリアルロボットスクリプト
生成部137により生成された制御スクリプトは、スク
リプト送信部139に出力される。
【0310】そして、ステップS91において、スクリ
プト送信部139は、無線通信部4を制御し、リアルロ
ボットスクリプト生成部137により生成された制御ス
クリプトをリアルロボット31に送信する。
【0311】図34は、スクリプト送信部139がリア
ルロボット31に対して制御スクリプトを送信している
ときのLCD44の表示例を示す図である。
【0312】図に示すように、通信状態表示ウインドウ
371が表示され、そこに、例えば、「リアルロボット
に接続しています。」などのメッセージが表示される。
【0313】これにより、ユーザは、通信状態を確認す
ることができる。なお、リアルロボット31に接続して
いる状態であるため、バーチャルロボット表示部262
は、閉じた状態とされている。
【0314】リアルロボット31においては、図23を
参照して説明したような処理が実行され、動作設定ウイ
ンドウ351に設定された情報に応じた行動がとられ
る。例えば、ユーザが図32に示すように各情報を設定
した場合、ユーザがリアルロボット31の頭センサ20
3Aをさわることに応じて、リアルロボット31は、始
めに、喜びを表現するポーズをとり、その次に、その場
をまわり、その次に、吠えて、その次に、踊って、そし
て最後にジャンプするような行動をとる。
【0315】また、ユーザは、このようにGUIで設定
し、生成された制御スクリプトを、上述したように、半
導体メモリ5を介してリアルロボット31に提供するこ
とも可能である。
【0316】一方、ステップS86において、動作設定
部143は、教え込みボタン359が操作されたと判定
した場合、ステップS92に進む。このとき、設定情報
は、メタスクリプト生成部141に出力される。
【0317】そして、メタスクリプト生成部141は、
ステップS92において、ステップS88の場合と同様
に、設定情報を参照し、設定された「条件」に対応する
メタスクリプトをメタスクリプト記憶部142から取得
する。メタスクリプト生成部141は、取得したメタス
クリプトと設定情報をバーチャルロボット制御部144
に出力する。
【0318】ステップS93において、バーチャルロボ
ット制御部144は、メタスクリプト生成部141から
供給されてきた設定情報を参照し、設定された「行動
(行動(1)乃至行動(5))」に対応する行動スクリ
プトをバーチャルロボット用行動スクリプト記憶部14
5からそれぞれ取得する。
【0319】また、バーチャルロボット制御部144
は、ステップS94において、メタスクリプトと、ステ
ップS93で取得した行動スクリプトを、図33に示し
たようにして雛形331の所定の位置にそれぞれ挿入
し、制御スクリプトを生成する。
【0320】そして、バーチャルロボット制御部144
は、生成した制御スクリプトに含まれるメタスクリプト
に対応する「条件」が入力されるのを待機する。
【0321】次に、図35のフローチャートを参照し
て、GUIによる設定に基づく、バーチャルロボット制御
部144の制御処理について説明する。
【0322】図35のステップS101、およびステッ
プS102の処理は、それぞれ、図24のステップS7
2およびステップS73の処理と同様の処理である。す
なわち、ステップS101において、バーチャルロボッ
ト制御部144は、センサ入力部146からの出力に基
づいて、条件設定部352に設定された「条件」に対応
するセンサ入力があったか否かを判定し、センサ入力が
あったと判定するまで待機する。
【0323】例えば、図32の例のように、「頭をさわ
ったら」の条件がユーザにより設定されており、ユーザ
がタッチパッド43を操作して、図14に示すように、
コミュニケーション用バーチャルロボット283の頭セ
ンサ283Bをさわった場合(領域287Aまで点灯さ
れる期間だけ、クリックされていた場合)、センサ入力
部146は、そのような入力があったことをバーチャル
ロボット制御部144に通知する。
【0324】そして、バーチャルロボット制御部144
は、ステップS101において、「条件」に対応するセ
ンサの入力があったと判定した場合、ステップS102
に進み、制御スクリプトのメタスクリプトの後段に配置
される行動スクリプト(行動スクリプト(1)乃至行動
スクリプト(5))を実行し、バーチャルロボット11
の行動を制御する。
【0325】このように、ユーザは、LCD44に表示さ
れるGUIを利用して、バーチャルロボット11、または
リアルロボット31の行動を容易に設定することができ
る。従って、複雑なプログラミングソフトを利用する必
要がなくなる。
【0326】また、リアルロボット31に実行させるコ
マンドを選択する、いわゆるリモートコントローラ(以
下、単に、リモコンと称する)を使用しても、リアルロ
ボット31の行動を容易に設定することができる。
【0327】図36は、リモコンウインドウ381の表
示例を示す図であり、例えば、バーチャルロボット表示
ウインドウ261の所定のボタンが操作されることで表
示される。
【0328】ユーザは、例えば、リモコンウインドウ3
81のコマンド表示部382から、好みのコマンド(リ
アルロボット31に実行させたい行動)を選択し、その
下に設けられているコマンド決定ボタン383を操作す
る。これにより、選択されたコマンドに対応する音階
(リアルロボット31が識別可能なメロディ)がパーソ
ナルコンピュータ1の図示せぬスピーカから発生される
ため、リアルロボット31に好みの行動をとらせること
ができる。
【0329】なお、コマンド決定ボタン383の下に
は、リアルロボット31のモードを選択するとき操作さ
れるパフォーマンスボタン384A、コネクトボタン3
84B、およびゲームボタン384Cがそれぞれ表示さ
れている。
【0330】次に、図37乃至図44の表示画面を参照
して、上述した各種の処理などに関する、詳細な設定に
ついて説明する。
【0331】図37は、バーチャルロボット表示ウイン
ドウ261の設定ボタン269が操作されたときに表示
される設定メニューの例を示す図である。
【0332】設定メニュー401には各種の設定項目が
表示されており、ユーザはカーソル402を移動させ
て、好みの項目を選択することができる。そして、項目
を選択するとき操作されるボタンとして、例えば、上か
ら、バーチャルロボット表示部262の表示方向を設定
するとき選択される注視点ボタン411、バーチャルロ
ボット表示ウインドウ261のフレームをカスタマイズ
するとき選択されるウインドウフレームボタン412、
およびバーチャルロボット表示部262の内部の空間を
設定するとき選択される模様替えボタン413が表示さ
れる。
【0333】また、その下に、図13に示したコミュニ
ケータウインドウ281の設定を行うとき操作されるコ
ミュニケータボタン414、プレイリストの設定を行う
とき操作されるプレイヤーボタン415、リアルロボッ
ト31との接続の設定を行うとき操作される接続ボタン
416、後述する各種の設定を行うとき操作される設定
ボタン417が表示される。
【0334】さらにその下に、ヘルプを表示するとき操
作されるヘルプボタン418、バーチャルロボット制御
プログラム74Aのバージョン情報を表示するとき操作
されるバージョン情報ボタン419、および設定メニュ
ー401を閉じるとき操作される終了ボタン420が表
示される。
【0335】図38乃至図44の表示画面は、図37の
設定メニュー401の設定ボタン417が操作されたと
きに表示される設定画面の例を示す図である。
【0336】設定ボタン417が操作されたときに表示
される設定ウインドウ431には、図38に示すよう
に、3Dビュータブ441、カラーリングタブ442、
ウインドウタブ443、ダンスタブ444、リモコンタ
ブ445、メール読み上げタブ446、およびリアルロ
ボットタブ447が用意されており、ユーザは、好みの
タブを選択し、詳細な設定を行うことができる。なお、
設定ウインドウ431の下方には、設定を変更し、設定
ウインドウ431を閉じるとき操作されるOKボタン46
1、設定をキャンセルするとき操作されるキャンセルボ
タン462、および変更した設定を適用するとき操作さ
れる適用ボタン463が表示されている。
【0337】図38は、3Dビュータブ441が選択さ
れた場合の表示例であり、ユーザは、描画オプションを
利用して、バーチャルロボット表示部262の描画を設
定できる。
【0338】この例においては、ユーザは、入力部47
1において、バーチャルロボット11の描画速度を設定
することができ、入力部472において、レンダリング
モード(描画方法)を設定することができ、入力部47
3において、バーチャルロボット表示部262のテクス
チャの表示方法を設定することができ、入力部474に
おいて、バーチャルロボット11の影を表示するか否か
を設定することができる。
【0339】図39は、カラーリングタブ442が選択
された場合の表示例であり、ユーザは、バーチャルロボ
ット11の色を設定することができる。
【0340】図39の例においては、ユーザは、バーチ
ャルロボット11の色を、「ゴールド」、「ブラッ
ク」、「シルバー」、「レッド」、「グリーン」、「オ
レンジ」、「ホワイト」の中から選択できるとされてい
る。
【0341】図40は、ウインドウタブ443が選択さ
れた場合の表示例であり、ユーザは、バーチャルロボッ
ト表示ウインドウ261の設定を行うことができる。
【0342】ユーザは、例えば、ウインドウタブ443
が選択されている状態において、バーチャルロボット1
1を、常時、描画させておくか否か(バーチャルロボッ
ト表示ウインドウ261がアクティブでない場合であっ
てもバーチャルロボット11を常時自律動作させるか否
か)、およびバーチャルロボット表示ウインドウ261
を常にアクティブにさせておくか否かを設定できる。
【0343】図41は、ダンスタブ444が選択された
場合の表示例であり、ユーザは、バーチャルロボット1
1がダンスをしているときの各種の設定を行うことがで
きる。
【0344】ユーザは、例えば、ダンスタブ444が選
択されている状態において、バーチャルロボット11が
ダンスをしているときの視点の移動、および特殊ライト
による演出を設定できる。
【0345】図42は、リモコンタブ445が選択され
た場合の表示例であり、ユーザは、図36を参照して説
明したリモコンの設定を行うことができる。
【0346】ユーザは、例えば、リモコンタブ445が
選択されている場合において、上述したリモコンを操作
した場合に発せられる音階の出力間隔や、音階により指
定されるコマンドのタイプを選択できる。
【0347】図43は、メール読み上げタブ446が選
択された場合の表示例である。そして、ユーザは、メー
ル読み上げタブ446が選択されている場合において、
ロボット制御プログラム74Aを図27において説明し
た音楽管理プログラムと連携させるか、または、図示せ
ぬメール読み上げプログラムと連携させるかを選択でき
る。
【0348】図44は、リアルロボットタブ447が選
択された場合の表示例である。ユーザは、リアルロボッ
トタブ447が選択されている場合において、制御プロ
グラムを提供するリアルロボットのバージョンを設定す
ることができる。また、ユーザは、半導体メモリ5が装
着されるドライブ名、およびリアルロボット31のIPア
ドレスを設定することができる。
【0349】上述したように、ユーザは、音声入力装置
22を利用して言葉でロボットに各種の行動をとらせる
ことができるとしたが、その場合において、音声認識用
辞書記憶部132に記憶されている辞書をカスタマイズ
することにより、好みの言葉でロボットに指示をするこ
ともできる。
【0350】より具体的には、上述したような「ダンス
して」などの言葉を、「例のやつやって」などの言葉に
置換して(対応付けて)音声認識用辞書に登録すること
により、ユーザは、「例のやつやって」の言葉を入力す
るだけで、ロボットにダンスをさせることができる。従
って、自分の好きな言葉で各種の行動をとらせることが
できるため、ロボットとのより親密なコミュニケーショ
ンが可能となる。
【0351】次に、図45のフローチャートを参照し
て、音声認識用辞書記憶部132に記憶されている認識
用辞書を変更する辞書登録部133の登録処理について
説明する。
【0352】ステップS111において、音声認識プロ
グラム74Bの辞書登録部133は、他の言葉と対応付
ける、音声認識用辞書記憶部132に既に登録されてい
る言葉の入力を要求する。
【0353】例えば、辞書登録部133は、「他の言葉
と対応付ける言葉を入力してください」などのメッセー
ジをLCD44に表示させ、ユーザに音声の入力を要求す
る。
【0354】辞書登録部133は、ステップS112に
おいて、ユーザから音声(言葉)が入力されてきたか否
かを判定し、入力されたと判定するまで待機する。そし
て、辞書登録部133は、他の言葉と対応付ける言葉が
入力されたと判定した場合、音声認識部131からの認
識結果に基づいて、入力された言葉を取得し、ステップ
S113に進む。
【0355】ステップS113において、辞書登録部1
33は、新たに対応付けて登録する言葉の入力をユーザ
に対して要求する。
【0356】例えば、辞書登録部133は、「新たに登
録する言葉を入力してください」などのメッセージをLC
D44に表示させる。
【0357】辞書登録部133は、ステップS114に
おいて、新たに登録する言葉が入力されたか否かを判定
し、入力されたと判定するまで待機する。そして、辞書
登録部133は、新たに登録する言葉が入力されたと判
定した場合、ステップS115に進み、入力されてきた
言葉を、既に登録されている、選択された言葉と対応付
けて音声認識用辞書記憶部132に登録する。
【0358】図46は、新たに登録した言葉の対応例を
示す図である。
【0359】例えば、音声認識用辞書記憶部132に
「お手して」の言葉が登録されており、それに「あれや
って」の言葉を対応付けて登録した場合、ユーザは、
「あれやって」と発話するだけで、リアルロボット31
に「お手」の行動をとらせることができる。
【0360】すなわち、「あれやって」の音声が入力さ
れたとき、音声認識部131は、その出力するテキスト
を「お手して」のテキストに置き換えて入力判定部13
4に出力する。そして、それ以降、上述したように、行
動決定部135により行動(お手)が決定され、リアル
ロボットスクリプト生成部137により、「PLAY:ACTIO
N:OTE」の行動スクリプトが読み出され、リアルロボッ
ト31に制御スクリプトが提供されることとなる。
【0361】図46に示すように、それぞれの言葉が行
動スクリプトと対応付けられて音声認識用辞書記憶部1
32に登録されている場合、ユーザは、「これやって」
と発話するだけで、ロボットに「寝る」の行動をとらせ
ることができ、「例のやつやって」と発話するだけで、
ロボットに「こんにちは」の行動をとらせることがで
き、「おもしろいことやって」と発話するだけで、ロボ
ットに「ダンス」をさせることができる。
【0362】このように、自分の好きな言葉で、所望す
る行動をとらせることが可能となるので、ユーザは、バ
ーチャルロボット11、またはリアルロボット31が自
分になついているような感覚をより得ることができる。
【0363】上述した例においては、パーソナルコンピ
ュータ1の近傍に存在するリアルロボット31に無線で
制御スクリプトを送信するとしたが、リアルロボット3
1は、IPアドレスを有しているため、インターネットを
介して、例えば、外出先などの遠隔地からでも、リアル
ロボット31を制御することもできる。この場合、ユー
ザは、外出先にあるパーソナルコンピュータから、図1
のパーソナルコンピュータ1に対して、制御スクリプト
(または、設定情報)を送信し、リアルロボット31に
対して送信させる。
【0364】これにより、ユーザは、リアルロボット3
1の行動を遠隔地から制御できるので、リアルロボット
31の近傍にいる人などを驚かせたりすることができ、
エンターテイメント性がより向上する。
【0365】また、一度設定した条件と、行動をリアル
ロボット31等に記憶させておくようにしてもよい。こ
れにより、再び、設定したものと同じ条件をユーザが入
力した場合に、再び同じ行動がとられるため、ユーザ
は、そのリアルロボット31等が自分になついている感
覚をより得ることができる。
【0366】上述した一連の処理は、ハードウェアによ
り実行させることもできるが、ソフトウェアにより実行
させることもできる。そして、一連の処理をソフトウエ
アにより実行させる場合には、そのソフトウエアを構成
するプログラムが、専用のハードウエアに組み込まれて
いるコンピュータ、または、各種のプログラムをインス
トールすることで、各種の機能を実行することが可能
な、例えば、汎用のパーソナルコンピュータなどに、ネ
ットワークや記録媒体からインストールされる。
【0367】この記録媒体は、図6に示すように、装置
本体とは別に、ユーザにプログラムを提供するために配
布される、プログラムが記録されている磁気ディスク1
21(フロッピ(登録商標)ディスクを含む)、光ディ
スク122(CD-ROM(CompactDisk-Read Only Memory),
DVD(Digital Versatile Disk)を含む)、光磁気ディス
ク123(MD(Mini-Disk)(登録商標)を含む)、もし
くは半導体メモリ5などよりなるパッケージメディアに
より構成されるだけでなく、装置本体に予め組み込まれ
た状態でユーザに提供される、プログラムが記録されて
いるHDD86などで構成される。
【0368】なお、本明細書において、記録媒体に記録
されるプログラムを記述するステップは、記載された順
序に従って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
【0369】また、本明細書において、システムとは、
複数の装置により構成される装置全体を表すものであ
る。
【0370】
【発明の効果】本発明の第1の情報処理装置および方
法、並びにプログラムによれば、入力される音声を認識
し、認識した音声中に、実在するロボットが実行可能な
行動を指定する単語が含まれている場合、ロボットに行
動をとらせるための行動スクリプトを取得する。そし
て、行動スクリプトに基づいて、ロボットを制御する制
御スクリプトを生成するようにしたので、実在するロボ
ットに対して、より複雑な行動を指示することができ、
より親密なコミュニケーションを図ることが可能とな
る。
【0371】本発明の第2の情報処理装置および方法、
並びにプログラムによれば、入力される音声を認識し、
仮想ロボットに対して入力される仮想的な接触を受け付
ける。また、認識した音声中に、仮想ロボットが実行可
能な行動を指定する単語と、行動を仮想ロボットにとら
せるためのきっかけとなる仮想的な接触としての条件を
指定する条件単語が含まれている場合、条件に対応する
仮想的な接触を受け付けることに応じて、単語により指
定される行動をとらせるべく、仮想ロボットの行動を制
御するようにしたので、仮想的なロボットと、より親密
なコミュニケーションを図ることが可能となる。
【0372】本発明の第3の情報処理装置および方法、
並びにプログラムによれば、実在するロボットにとらせ
る行動を設定し、設定した行動を、ロボットにとらせる
きっかけとなる条件を設定する。また、設定した行動
を、ロボットにとらせるための行動スクリプトを取得
し、設定した条件に対応する条件スクリプトを取得す
る。そして、行動スクリプトと、条件スクリプトに基づ
いて、ロボットを制御する制御スクリプトを生成するよ
うにしたので、複雑なプログラミングをすることなく、
容易にロボットの行動を制御することができる。
【0373】本発明の第4の情報処理装置および方法、
並びにプログラムによれば、仮想的なロボットにとらせ
る行動を設定し、設定した行動を、ロボットにとらせる
きっかけとなる条件を設定する。また、ロボットに対す
る、条件としての仮想的な接触の入力を受け付け、設定
している条件に対応する仮想的な接触を受け付けること
に応じて、設定している行動をとらせるべく、ロボット
の行動を制御するようにしたので、複雑なプログラミン
グをすることなく、容易にロボットの行動を制御するこ
とができる。
【図面の簡単な説明】
【図1】本発明を適用したロボット制御システムの構成
例を示す図である。
【図2】図1のパーソナルコンピュータの外観を示す斜
視図である。
【図3】図1のパーソナルコンピュータの外観を示す平
面図である。
【図4】図1のパーソナルコンピュータの外観を示す他
の斜視図である。
【図5】図1のパーソナルコンピュータの外観を示す側
面図である。
【図6】図1のパーソナルコンピュータの機能構成例を
示すブロック図である。
【図7】図6のロボット制御プログラムと音声認識プロ
グラムの機能構成例を示すブロック図である。
【図8】行動スクリプトとキーワードの対応例を示す図
である。
【図9】図1のリアルロボットの外観を示す斜視図であ
る。
【図10】図1のリアルロボットの内部構成例を示すブ
ロック図である。
【図11】図10のコントローラの機能構成例を示すブ
ロック図である。
【図12】LCDの表示例を示す図である。
【図13】LCDの他の表示例を示す図である。
【図14】LCDのさらに他の表示例を示す図である。
【図15】LCDの表示例を示す図である。
【図16】LCDの他の表示例を示す図である。
【図17】LCDのさらに他の表示例を示す図である。
【図18】音声認識プログラムの処理を説明するフロー
チャートである。
【図19】LCDの表示例を示す図である。
【図20】ロボット制御プログラムの処理を説明するフ
ローチャートである。
【図21】制御スクリプトの例を示す図である。
【図22】制御スクリプトの他の例を示す図である。
【図23】リアルロボットの処理を説明するフローチャ
ートである。
【図24】ロボット制御プログラムの他の処理を説明す
るフローチャートである。
【図25】LCDの他の表示例を示す図である。
【図26】LCDのさらに他の表示例を示す図である。
【図27】LCDの表示例を示す図である。
【図28】ロボット制御プログラムのさらに他の処理を
説明するフローチャートである。
【図29】LCDの他の表示例を示す図である。
【図30】LCDのさらに他の表示例を示す図である。
【図31】LCDの表示例を示す図である。
【図32】LCDの他の表示例を示す図である。
【図33】制御スクリプトの他の例を示す図である。
【図34】LCDのさらに他の表示例を示す図である。
【図35】ロボット制御プログラムの処理を説明するフ
ローチャートである。
【図36】LCDの表示例を示す図である。
【図37】LCDの他の表示例を示す図である。
【図38】LCDのさらに他の表示例を示す図である。
【図39】LCDの表示例を示す図である。
【図40】LCDの他の表示例を示す図である。
【図41】LCDのさらに他の表示例を示す図である。
【図42】LCDの表示例を示す図である。
【図43】LCDの他の表示例を示す図である。
【図44】LCDのさらに他の表示例を示す図である。
【図45】ロボット制御プログラムの他の処理を説明す
るフローチャートである。
【図46】行動スクリプトとキーワードとの他の対応例
を示す図である。
【符号の説明】
1 パーソナルコンピュータ, 4 無線通信部, 5
半導体メモリ, 11 バーチャルロボット, 22
音声入力装置, 23 マイクロフォン,31 リア
ルロボット, 71 CPU, 74 RAM, 74A ロ
ボット制御プログラム, 74B 音声認識プログラ
ム, 86 HDD, 86A ロボット制御プログラ
ム, 86B 音声認識プログラム, 121 磁気デ
ィスク,122 光ディスク, 123 光磁気ディス
ク, 131 音声認識部, 132 音声認識用辞書
記憶部, 133 辞書登録部, 134 入力判定
部,135 行動決定部, 136 行動認識用辞書記
憶部, 137 リアルロボットスクリプト生成部,
138 リアルロボット用行動スクリプト記憶部,13
9 スクリプト送信部, 140 半導体メモリ管理
部, 141 メタスクリプト生成部, 142 メタ
スクリプト記憶部, 143 動作設定部,144 バ
ーチャルロボット制御部, 145 バーチャルロボッ
ト用行動スクリプト記憶部, 146 センサ入力部
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/28 G10L 3/00 551P 561H Fターム(参考) 2C150 CA04 DF02 DF33 DK02 ED11 ED42 EF16 EF23 EF36 FA04 3C007 AS36 CS08 JS07 JU14 KS31 KS39 KT01 LV12 MS29 WA04 WA14 WB18 WB19 WB25 WC01 WC03 5D015 KK01

Claims (27)

    【特許請求の範囲】
  1. 【請求項1】 入力される音声を認識する音声認識手段
    と、 前記音声認識手段により認識された前記音声中に、実在
    するロボットが実行可能な行動を指定する単語が含まれ
    ている場合、前記ロボットに前記行動をとらせるための
    行動スクリプトを取得する行動スクリプト取得手段と、 前記行動スクリプト取得手段により取得された前記行動
    スクリプトに基づいて、前記ロボットを制御する制御ス
    クリプトを生成する制御スクリプト生成手段とを備える
    ことを特徴とする情報処理装置。
  2. 【請求項2】 前記音声認識手段により認識された前記
    音声中に、前記ロボットが前記行動スクリプトを実行す
    るきっかけとなる条件を指定する条件単語が含まれてい
    るか否かを判定する判定手段と、 前記判定手段により前記条件単語が含まれていると判定
    された場合、前記条件単語に対応する条件スクリプトを
    取得する条件スクリプト取得手段とをさらに備え、 前記制御スクリプト生成手段は、前記条件スクリプト取
    得手段により取得された前記条件スクリプトと、前記行
    動スクリプトとに基づいて、前記制御スクリプトを生成
    することを特徴とする請求項1に記載の情報処理装置。
  3. 【請求項3】 前記条件は、前記ロボットの所定の位置
    に設けられているタッチセンサに対する入力であること
    を特徴とする請求項2に記載の情報処理装置。
  4. 【請求項4】 前記制御スクリプト生成手段により生成
    された前記制御スクリプトを前記ロボットに対して無線
    で送信する送信手段をさらに備えることを特徴とする請
    求項1に記載の情報処理装置。
  5. 【請求項5】 前記制御スクリプト生成手段により生成
    された前記制御スクリプトを所定の記憶媒体を介して、
    前記ロボットに提供する提供手段をさらに備えることを
    特徴とする請求項1に記載の情報処理装置。
  6. 【請求項6】 前記音声認識手段が参照する認識用辞書
    に登録されている第1の言葉に、第2の言葉を対応付け
    て設定する設定手段をさらに備えることを特徴とする請
    求項1に記載の情報処理装置。
  7. 【請求項7】 入力される音声を認識する音声認識処理
    ステップと、 前記音声認識処理ステップの処理により認識された前記
    音声中に、実在するロボットが実行可能な行動を指定す
    る単語が含まれている場合、前記ロボットに前記行動を
    とらせるための行動スクリプトを取得する行動スクリプ
    ト取得処理ステップと、 前記行動スクリプト取得処理ステップの処理により取得
    された前記行動スクリプトに基づいて、前記ロボットを
    制御する制御スクリプトを生成する制御スクリプト生成
    処理ステップとを含むことを特徴とする情報処理方法。
  8. 【請求項8】 入力される音声を認識する音声認識処理
    ステップと、 前記音声認識処理ステップの処理により認識された前記
    音声中に、実在するロボットが実行可能な行動を指定す
    る単語が含まれている場合、前記ロボットに前記行動を
    とらせるための行動スクリプトを取得することを制御す
    る行動スクリプト取得制御ステップと、 前記行動スクリプト取得制御ステップの処理により取得
    された前記行動スクリプトに基づいて、前記ロボットを
    制御する制御スクリプトを生成する制御スクリプト生成
    処理ステップとを含むことを特徴とするコンピュータが
    読み取り可能なプログラムが記録されている記録媒体。
  9. 【請求項9】 入力される音声を認識する音声認識処理
    ステップと、 前記音声認識処理ステップの処理により認識された前記
    音声中に、実在するロボットが実行可能な行動を指定す
    る単語が含まれている場合、前記ロボットに前記行動を
    とらせるための行動スクリプトを取得することを制御す
    る行動スクリプト取得制御ステップと、 前記行動スクリプト取得制御ステップの処理により取得
    された前記行動スクリプトに基づいて、前記ロボットを
    制御する制御スクリプトを生成する制御スクリプト生成
    処理ステップとをコンピュータに実行させるためのプロ
    グラム。
  10. 【請求項10】 仮想ロボットの行動を制御し、表示す
    る情報処理装置において、 入力される音声を認識する音声認識手段と、 前記仮想ロボットに対して入力される仮想的な接触を受
    け付ける受付手段と、 前記音声認識手段により認識された前記音声中に、前記
    仮想ロボットが実行可能な行動を指定する単語と、前記
    行動を前記仮想ロボットにとらせるためのきっかけとな
    る前記仮想的な接触としての条件を指定する条件単語が
    含まれている場合、前記条件に対応する前記仮想的な接
    触が前記受付手段により受け付けられることに応じて、
    前記単語により指定される前記行動をとらせるべく、前
    記仮想ロボットの行動を制御する制御手段とを備えるこ
    とを特徴とする情報処理装置。
  11. 【請求項11】 前記受付手段は、前記仮想的な接触を
    受け付けるための所定のオブジェクトを表示し、前記オ
    ブジェクトに設定されている所定の範囲に対する入力期
    間に基づいて、前記仮想的な接触の種類を識別すること
    を特徴とする請求項10に記載の情報処理装置。
  12. 【請求項12】 前記音声認識手段が参照する認識用辞
    書に登録されている第1の言葉に、第2の言葉を対応付
    けて設定する設定手段をさらに備えることを特徴とする
    請求項10に記載の情報処理装置。
  13. 【請求項13】 仮想ロボットの行動を制御し、表示す
    る情報処理装置の情報処理方法において、 入力される音声を認識する音声認識処理ステップと、 前記仮想ロボットに対して入力される仮想的な接触を受
    け付ける受付処理ステップと、 前記音声認識処理ステップの処理により認識された前記
    音声中に、前記仮想ロボットが実行可能な行動を指定す
    る単語と、前記行動を前記仮想ロボットにとらせるため
    のきっかけとなる前記仮想的な接触としての条件を指定
    する条件単語が含まれている場合、前記条件に対応する
    前記仮想的な接触が前記受付処理ステップの処理により
    受け付けられることに応じて、前記単語により指定され
    る前記行動をとらせるべく、前記仮想ロボットの行動を
    制御する制御処理ステップとを含むことを特徴とする情
    報処理方法。
  14. 【請求項14】 仮想ロボットの行動を制御し、表示す
    る情報処理装置のプログラムにおいて、 入力される音声を認識する音声認識処理ステップと、 前記仮想ロボットに対して入力される仮想的な接触を受
    け付けることを制御する受付制御ステップと、 前記音声認識処理ステップの処理により認識された前記
    音声中に、前記仮想ロボットが実行可能な行動を指定す
    る単語と、前記行動を前記仮想ロボットにとらせるため
    のきっかけとなる前記仮想的な接触としての条件を指定
    する条件単語が含まれている場合、前記条件に対応する
    前記仮想的な接触が前記受付制御ステップの処理により
    受け付けられることに応じて、前記単語により指定され
    る前記行動をとらせるべく、前記仮想ロボットの行動を
    制御する制御処理ステップとを含むことを特徴とするコ
    ンピュータが読み取り可能なプログラムが記録された記
    録媒体。
  15. 【請求項15】 仮想ロボットの行動を制御し、表示す
    る情報処理装置を制御するコンピュータに実行させるプ
    ログラムにおいて、 入力される音声を認識する音声認識処理ステップと、 前記仮想ロボットに対して入力される仮想的な接触を受
    け付けることを制御する受付制御ステップと、 前記音声認識処理ステップの処理により認識された前記
    音声中に、前記仮想ロボットが実行可能な行動を指定す
    る単語と、前記行動を前記仮想ロボットにとらせるため
    のきっかけとなる前記仮想的な接触としての条件を指定
    する条件単語が含まれている場合、前記条件に対応する
    前記仮想的な接触が前記受付制御ステップの処理により
    受け付けられることに応じて、前記単語により指定され
    る前記行動をとらせるべく、前記仮想ロボットの行動を
    制御する制御処理ステップとを含むことを特徴とするプ
    ログラム。
  16. 【請求項16】 実在するロボットにとらせる行動を設
    定する行動設定手段と、 前記行動設定手段により設定された前記行動を、前記ロ
    ボットにとらせるきっかけとなる条件を設定する条件設
    定手段と、 前記行動設定手段により設定された前記行動を、前記ロ
    ボットにとらせるための行動スクリプトを取得する行動
    スクリプト取得手段と、 前記条件設定手段により設定された前記条件に対応する
    条件スクリプトを取得する条件スクリプト取得手段と、 前記行動スクリプト取得手段により取得された前記行動
    スクリプトと、前記条件スクリプト取得手段により取得
    された前記条件スクリプトに基づいて、前記ロボットを
    制御する制御スクリプトを生成する制御スクリプト生成
    手段とを備えることを特徴とする情報処理装置。
  17. 【請求項17】 前記制御スクリプト生成手段により生
    成された前記制御スクリプトを前記ロボットに対して無
    線で送信する送信手段をさらに備えることを特徴とする
    請求項16に記載の情報処理装置。
  18. 【請求項18】 前記制御スクリプト生成手段により生
    成された前記制御スクリプトを所定の記憶媒体を介し
    て、前記ロボットに提供する提供手段をさらに備えるこ
    とを特徴とする請求項16に記載の情報処理装置。
  19. 【請求項19】 前記条件は、前記ロボットの所定の位
    置に設けられているタッチセンサに対する入力であるこ
    とを特徴とする請求項16に記載の情報処理装置。
  20. 【請求項20】 実在するロボットにとらせる行動を設
    定する行動設定処理ステップと、 前記行動設定処理ステップの処理により設定された前記
    行動を、前記ロボットにとらせるきっかけとなる条件を
    設定する条件設定処理ステップと、 前記行動設定処理ステップの処理により設定された前記
    行動を、前記ロボットにとらせるための行動スクリプト
    を取得する行動スクリプト取得処理ステップと、 前記条件設定処理ステップの処理により設定された前記
    条件に対応する条件スクリプトを取得する条件スクリプ
    ト取得処理ステップと、 前記行動スクリプト取得処理ステップの処理により取得
    された前記行動スクリプトと、前記条件スクリプト取得
    処理ステップの処理により取得された前記条件スクリプ
    トに基づいて、前記ロボットを制御する制御スクリプト
    を生成する制御スクリプト生成処理ステップとを含むこ
    とを特徴とする情報処理方法。
  21. 【請求項21】 実在するロボットにとらせる行動を設
    定する行動設定処理ステップと、 前記行動設定処理ステップの処理により設定された前記
    行動を、前記ロボットにとらせるきっかけとなる条件を
    設定する条件設定処理ステップと、 前記行動設定処理ステップの処理により設定された前記
    行動を、前記ロボットにとらせるための行動スクリプト
    を取得することを制御する行動スクリプト取得制御ステ
    ップと、 前記条件設定処理ステップの処理により設定された前記
    条件に対応する条件スクリプトを取得することを制御す
    る条件スクリプト取得制御ステップと、 前記行動スクリプト取得制御ステップの処理により取得
    された前記行動スクリプトと、前記条件スクリプト取得
    制御ステップの処理により取得された前記条件スクリプ
    トに基づいて、前記ロボットを制御する制御スクリプト
    を生成する制御スクリプト生成処理ステップとを含むこ
    とを特徴とするコンピュータが読み取り可能なプログラ
    ムが記録された記録媒体。
  22. 【請求項22】 実在するロボットにとらせる行動を設
    定する行動設定処理ステップと、 前記行動設定処理ステップの処理により設定された前記
    行動を、前記ロボットにとらせるきっかけとなる条件を
    設定する条件設定処理ステップと、 前記行動設定処理ステップの処理により設定された前記
    行動を、前記ロボットにとらせるための行動スクリプト
    を取得することを制御する行動スクリプト取得制御ステ
    ップと、 前記条件設定処理ステップの処理により設定された前記
    条件に対応する条件スクリプトを取得することを制御す
    る条件スクリプト取得制御ステップと、 前記行動スクリプト取得制御ステップの処理により取得
    された前記行動スクリプトと、前記条件スクリプト取得
    制御ステップの処理により取得された前記条件スクリプ
    トに基づいて、前記ロボットを制御する制御スクリプト
    を生成する制御スクリプト生成処理ステップとをコンピ
    ュータに実行させるためのプログラム。
  23. 【請求項23】 仮想的なロボットにとらせる行動を設
    定する行動設定手段と、 前記行動設定手段により設定された前記行動を、前記ロ
    ボットにとらせるきっかけとなる条件を設定する条件設
    定手段と、 前記ロボットに対する、前記条件としての仮想的な接触
    の入力を受け付ける受付手段と、 前記受付手段により、前記条件設定手段により設定され
    ている前記条件に対応する前記仮想的な接触が受け付け
    られることに応じて、前記行動設定手段により設定され
    ている前記行動をとらせるべく、前記ロボットの行動を
    制御する制御手段とを備えることを特徴とする情報処理
    装置。
  24. 【請求項24】 前記受付手段は、前記仮想的な接触を
    受け付けるための所定のオブジェクトを表示し、前記オ
    ブジェクトに設定されている所定の範囲に対する入力期
    間に基づいて、前記仮想的な接触の種類を識別すること
    を特徴とする請求項23に記載の情報処理装置。
  25. 【請求項25】 仮想的なロボットにとらせる行動を設
    定する行動設定処理ステップと、 前記行動設定処理ステップの処理により設定された前記
    行動を、前記ロボットにとらせるきっかけとなる条件を
    設定する条件設定処理ステップと、 前記ロボットに対する、前記条件としての仮想的な接触
    の入力を受け付ける受付処理ステップと、 前記受付処理ステップの処理により、前記条件設定処理
    ステップの処理により設定されている前記条件に対応す
    る前記仮想的な接触が受け付けられることに応じて、前
    記行動設定処理ステップの処理により設定されている前
    記行動をとらせるべく、前記ロボットの行動を制御する
    制御処理ステップとを含むことを特徴とする情報処理方
    法。
  26. 【請求項26】 仮想的なロボットにとらせる行動を設
    定する行動設定処理ステップと、 前記行動設定処理ステップの処理により設定された前記
    行動を、前記ロボットにとらせるきっかけとなる条件を
    設定する条件設定処理ステップと、 前記ロボットに対する、前記条件としての仮想的な接触
    の入力を受け付けることを制御する受付制御ステップ
    と、 前記受付制御ステップの処理により、前記条件設定処理
    ステップの処理により設定されている前記条件に対応す
    る前記仮想的な接触が受け付けられることに応じて、前
    記行動設定処理ステップの処理により設定されている前
    記行動をとらせるべく、前記ロボットの行動を制御する
    制御処理ステップとを含むことを特徴とするコンピュー
    タが読み取り可能なプログラムが記録されている記録媒
    体。
  27. 【請求項27】 仮想的なロボットにとらせる行動を設
    定する行動設定処理ステップと、 前記行動設定処理ステップの処理により設定された前記
    行動を、前記ロボットにとらせるきっかけとなる条件を
    設定する条件設定処理ステップと、 前記ロボットに対する、前記条件としての仮想的な接触
    の入力を受け付けることを制御する受付制御ステップ
    と、 前記受付制御ステップの処理により、前記条件設定処理
    ステップの処理により設定されている前記条件に対応す
    る前記仮想的な接触が受け付けられることに応じて、前
    記行動設定処理ステップの処理により設定されている前
    記行動をとらせるべく、前記ロボットの行動を制御する
    制御処理ステップとをコンピュータに実行させるための
    プログラム。
JP2001141047A 2001-05-11 2001-05-11 情報処理装置および方法、記録媒体、並びにプログラム Withdrawn JP2002337079A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001141047A JP2002337079A (ja) 2001-05-11 2001-05-11 情報処理装置および方法、記録媒体、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001141047A JP2002337079A (ja) 2001-05-11 2001-05-11 情報処理装置および方法、記録媒体、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2002337079A true JP2002337079A (ja) 2002-11-26

Family

ID=18987556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001141047A Withdrawn JP2002337079A (ja) 2001-05-11 2001-05-11 情報処理装置および方法、記録媒体、並びにプログラム

Country Status (1)

Country Link
JP (1) JP2002337079A (ja)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004193932A (ja) * 2002-12-11 2004-07-08 Matsushita Electric Ind Co Ltd ロボットと、それを首周辺部に固定する機構を備えたネックコミュニケーション装置
EP1531375A2 (en) * 2003-11-11 2005-05-18 Fanuc Ltd Robot teaching program editing apparatus based on voice input
JP2005246502A (ja) * 2004-03-01 2005-09-15 Zmp:Kk ロボット
WO2006120636A2 (en) * 2005-05-10 2006-11-16 Koninklijke Philips Electronics N. V. Method and device for providing help to a user in using a device by using a robot
JP2007196375A (ja) * 2006-01-25 2007-08-09 Lin Chyi Yeu 自律型ロボットとの相互作用の装置と方法
EP1942601A1 (en) * 2006-12-29 2008-07-09 Union Creations Limited Device and method of expressing information in a communication message sent through a network
JPWO2006080179A1 (ja) * 2005-01-26 2008-08-07 株式会社安川電機 ロボットシステム
KR100927950B1 (ko) 2008-02-29 2009-11-23 주식회사 케이티 로봇 스크립트를 이용한 로봇 행동 제어 시스템 및 그 로봇
JP2011121171A (ja) * 2009-12-14 2011-06-23 Ir Robot Co Ltd ロボット同期化装置及びその方法
JP2011212776A (ja) * 2010-03-31 2011-10-27 Sony Corp ロボット装置、ロボット装置の制御方法およびプログラム
JP2014028284A (ja) * 2008-07-18 2014-02-13 Hydrae Ltd 対話式玩具
JP2017215577A (ja) * 2016-04-27 2017-12-07 劉錦銘 バーチャルロボットを用いた教育システム
CN109664293A (zh) * 2018-01-20 2019-04-23 鲁东大学 基于虚拟仿真技术的操作臂远程监控系统
WO2019142227A1 (ja) * 2018-01-16 2019-07-25 株式会社ソニー・インタラクティブエンタテインメント 移動体および移動体制御方法
JP2020000279A (ja) * 2018-06-25 2020-01-09 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット
WO2020203067A1 (ja) * 2019-03-29 2020-10-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11648672B2 (en) 2018-01-16 2023-05-16 Sony Interactive Entertainment Inc. Information processing device and image generation method
US11780084B2 (en) 2018-01-16 2023-10-10 Sony Interactive Entertainment Inc. Robotic device, control method for robotic device, and program

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004193932A (ja) * 2002-12-11 2004-07-08 Matsushita Electric Ind Co Ltd ロボットと、それを首周辺部に固定する機構を備えたネックコミュニケーション装置
US7430457B2 (en) 2003-11-11 2008-09-30 Fanuc Ltd Robot teaching program editing apparatus based on voice input
EP1531375A3 (en) * 2003-11-11 2005-11-09 Fanuc Ltd Robot teaching program editing apparatus based on voice input
EP1531375A2 (en) * 2003-11-11 2005-05-18 Fanuc Ltd Robot teaching program editing apparatus based on voice input
JP2005246502A (ja) * 2004-03-01 2005-09-15 Zmp:Kk ロボット
JPWO2006080179A1 (ja) * 2005-01-26 2008-08-07 株式会社安川電機 ロボットシステム
JP4716268B2 (ja) * 2005-01-26 2011-07-06 株式会社安川電機 ロボットシステム
WO2006120636A2 (en) * 2005-05-10 2006-11-16 Koninklijke Philips Electronics N. V. Method and device for providing help to a user in using a device by using a robot
WO2006120636A3 (en) * 2005-05-10 2007-05-03 Koninkl Philips Electronics Nv Method and device for providing help to a user in using a device by using a robot
JP2007196375A (ja) * 2006-01-25 2007-08-09 Lin Chyi Yeu 自律型ロボットとの相互作用の装置と方法
JP4617322B2 (ja) * 2006-01-25 2011-01-26 國立台湾科技大學 自律型ロボットとの相互作用の装置と方法
EP1942601A1 (en) * 2006-12-29 2008-07-09 Union Creations Limited Device and method of expressing information in a communication message sent through a network
KR100927950B1 (ko) 2008-02-29 2009-11-23 주식회사 케이티 로봇 스크립트를 이용한 로봇 행동 제어 시스템 및 그 로봇
JP2014028284A (ja) * 2008-07-18 2014-02-13 Hydrae Ltd 対話式玩具
JP2011121171A (ja) * 2009-12-14 2011-06-23 Ir Robot Co Ltd ロボット同期化装置及びその方法
JP2011212776A (ja) * 2010-03-31 2011-10-27 Sony Corp ロボット装置、ロボット装置の制御方法およびプログラム
JP2017215577A (ja) * 2016-04-27 2017-12-07 劉錦銘 バーチャルロボットを用いた教育システム
WO2019142227A1 (ja) * 2018-01-16 2019-07-25 株式会社ソニー・インタラクティブエンタテインメント 移動体および移動体制御方法
US11648672B2 (en) 2018-01-16 2023-05-16 Sony Interactive Entertainment Inc. Information processing device and image generation method
US11733705B2 (en) 2018-01-16 2023-08-22 Sony Interactive Entertainment Inc. Moving body and moving body control method
US11780084B2 (en) 2018-01-16 2023-10-10 Sony Interactive Entertainment Inc. Robotic device, control method for robotic device, and program
CN109664293A (zh) * 2018-01-20 2019-04-23 鲁东大学 基于虚拟仿真技术的操作臂远程监控系统
JP2020000279A (ja) * 2018-06-25 2020-01-09 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット
JP7298860B2 (ja) 2018-06-25 2023-06-27 Groove X株式会社 仮想キャラクタを想定する自律行動型ロボット
WO2020203067A1 (ja) * 2019-03-29 2020-10-08 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP7501523B2 (ja) 2019-03-29 2024-06-18 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Similar Documents

Publication Publication Date Title
JP2002337079A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP5616325B2 (ja) ユーザ命令に基づいて表示を変更する方法
US7216082B2 (en) Action teaching apparatus and action teaching method for robot system, and storage medium
JP7173031B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2002045916A1 (fr) Robot, procede de commande du mouvement d'un robot et systeme de commande du mouvement d'un robot
US20210205987A1 (en) System and method for dynamic robot configuration for enhanced digital experiences
JP2002351305A (ja) 語学研修用ロボット
JP2001157976A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
WO2002076687A1 (en) Robot device and control method therefor, and storage medium
JP2002189488A (ja) ロボット制御装置およびロボット制御方法、記録媒体、並びにプログラム
JPWO2005014242A1 (ja) コミュニケーションロボット用制御システム
JP4687936B2 (ja) 音声出力装置および音声出力方法、並びにプログラムおよび記録媒体
CN102500113A (zh) 基于智能手机交互的综合型迎宾机器人
JP2013099823A (ja) ロボット装置、ロボット制御方法、ロボット制御プログラム、およびロボットシステム
WO2022079933A1 (ja) コミュニケーション支援プログラム、コミュニケーション支援方法、コミュニケーション支援システム、端末装置及び非言語表現プログラム
US20220241977A1 (en) System and method for dynamic program configuration
WO2019160612A1 (en) System and method for dynamic robot profile configurations based on user interactions
JP2002304188A (ja) 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体
KR20180082777A (ko) 노년층을 위한 교감 로봇시스템
WO2002086861A1 (fr) Processeur de langage
WO2010112677A1 (en) Method for controlling an apparatus
TWI402784B (zh) Music detection system based on motion detection, its control method, computer program products and computer readable recording media
JP2001212780A (ja) 行動制御装置および行動制御方法、並びに記録媒体
JP2004283927A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP2002334040A (ja) 情報処理装置および方法、記録媒体、並びにプログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080805