JP2001212780A - 行動制御装置および行動制御方法、並びに記録媒体 - Google Patents

行動制御装置および行動制御方法、並びに記録媒体

Info

Publication number
JP2001212780A
JP2001212780A JP2000022224A JP2000022224A JP2001212780A JP 2001212780 A JP2001212780 A JP 2001212780A JP 2000022224 A JP2000022224 A JP 2000022224A JP 2000022224 A JP2000022224 A JP 2000022224A JP 2001212780 A JP2001212780 A JP 2001212780A
Authority
JP
Japan
Prior art keywords
action
stimulus
information
behavior
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000022224A
Other languages
English (en)
Inventor
Hideki Shimomura
秀樹 下村
Katsuki Minamino
活樹 南野
Takashi Toyoda
崇 豊田
Osamu Hanagata
理 花形
Hiroki Saijo
弘樹 西條
Toshiya Ogura
稔也 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000022224A priority Critical patent/JP2001212780A/ja
Publication of JP2001212780A publication Critical patent/JP2001212780A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】 ロボット等に、より人間的な行動を行わせ
る。 【解決手段】 ロボットに圧力が与えられると、その圧
力の意味が認識され、その認識結果としての意味認識情
報が意味統合解釈部33に供給される。意味統合解釈部
33は、意味認識情報が「叩かれた」というものである
場合には、その叩かれたという原因を、履歴メモリ34
や知識メモリ35を参照しながら解釈し、叩かれた原因
が、例えば、花瓶を割ったことにある旨の解釈情報を、
二次行動制御部36に出力する。二次行動制御部36
は、そのような解釈情報を受信すると、例えば、「ごめ
んなさい」と発話するとともに、頭を下げるといった謝
る行動を、二次行動として決定する。これにより、ロボ
ットは、「叩かれた」ということに対して直接的な行動
である、「痛い」と発話した後、「ごめんなさい」と発
話するとともに、頭を下げるという二次行動をとる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、行動制御装置およ
び行動制御方法、並びに記録媒体に関し、特に、例え
ば、ロボット等に、より人間的な行動を行わせること等
ができるようにする行動制御装置および行動制御方法、
並びに記録媒体に関する。
【0002】
【従来の技術】近年においては、例えば、ユーザからの
音声や圧力等に応じて、各種の行動をとる、エンタテイ
メント用その他の用途のロボット(いわゆる、ぬいぐる
み状のものも含む)が実現されている。
【0003】このようなロボットにおいて、ユーザとの
間で、自然なインタフェースを実現するには、ユーザの
音声や、動き、その他の刺激を感知するセンサを用いた
マルチモーダル技術が重要であり、マルチモーダルにつ
いては、現在、様々な研究が行われている。
【0004】
【発明が解決しようとする課題】ところで、例えば、ユ
ーザがロボットを叩いた場合に、ロボットが「痛い」と
発話したり、叩いたユーザの方を見るといった行動は、
ユーザからの圧力が、短時間で、かつ強いものであるか
どうかを検出することで、「叩かれた」のかどうかを判
定して行うようにすることができる。このように、ユー
ザからの刺激に対して、いわば直接的に反応して行われ
る行動(以下、適宜、一次行動という)は、いわゆる無
条件反射に似たものである。
【0005】エンタテイメント用のロボット等を実現す
る場合においては、ロボットに、上述のような一次行動
を行わせることで、そのエンタテイメント性を向上させ
ることができるが、さらに、例えば、ロボットを擬人化
して、ユーザとの間で自然なやりとりを行うには、ユー
ザに叩かれた原因を解釈し、その原因に基づき、叩かれ
たことに対する、いわば二次的な行動(以下、適宜、二
次行動という)を、ロボットにとらせるようにするのが
望ましい。
【0006】即ち、例えば、ユーザに叩かれた場合に、
ロボットが、「痛い」と発したり、ユーザの方を見るだ
けでなく、あるいは、そのような一次行動を行わずに、
「どうして叩くの?」と発話するような、ユーザに叩か
れた原因を問い合わせる二次行動を、ロボットにとらせ
れば、ユーザに、より人間的な感覚を感じさせることが
できる。
【0007】本発明は、このような状況に鑑みてなされ
たものであり、ロボット等に、より人間的な行動を行わ
せること等ができるようにするものである。
【0008】
【課題を解決するための手段】本発明の行動制御装置
は、外部から与えられた刺激の意味を認識し、その認識
結果としての意味認識情報を出力する意味認識手段と、
意味認識情報に基づいて、刺激が与えられた原因を解釈
し、その解釈結果としての解釈情報を出力する解釈手段
と、解釈情報に基づき、行動対象の、刺激に対して二次
的な二次行動を決定する二次行動決定手段とを備えるこ
とを特徴とする。
【0009】この行動制御装置には、音、光、または圧
力による刺激を感知する感知手段をさらに設けることが
できる。
【0010】二次行動決定手段には、刺激が与えられた
原因にしたがって行うべき行動を、二次行動として決定
させることができる。
【0011】二次行動決定手段には、刺激が与えられた
原因が不明である場合、その不明点を解消するための問
合せを行う行動を、二次行動として決定させることがで
きる。
【0012】二次行動は、刺激とは異なるモーダルで行
うようにすることができる。
【0013】二次行動は、動きまたは音声によるものと
することができる。
【0014】本発明の行動制御装置は、ロボットとする
ことができる。
【0015】本発明の行動制御方法は、外部から与えら
れた刺激の意味を認識し、その認識結果としての意味認
識情報を出力する意味認識ステップと、意味認識情報に
基づいて、刺激が与えられた原因を解釈し、その解釈結
果としての解釈情報を出力する解釈ステップと、解釈情
報に基づき、行動対象の、刺激に対して二次的な二次行
動を決定する二次行動決定ステップとを備えることを特
徴とする。
【0016】本発明の記録媒体は、外部から与えられた
刺激の意味を認識し、その認識結果としての意味認識情
報を出力する意味認識ステップと、意味認識情報に基づ
いて、刺激が与えられた原因を解釈し、その解釈結果と
しての解釈情報を出力する解釈ステップと、解釈情報に
基づき、行動対象の、刺激に対して二次的な二次行動を
決定する二次行動決定ステップとを備えるプログラムが
記録されていることを特徴とする。
【0017】本発明の行動制御装置および行動制御方
法、並びに記録媒体においては、外部から与えられた刺
激の意味が認識され、その結果得られる意味認識情報に
基づいて、刺激が与えられた原因が解釈される。そし
て、その解釈結果としての解釈情報に基づき、行動対象
の、刺激に対して二次的な二次行動が決定される。
【0018】
【発明の実施の形態】図1は、本発明を適用したロボッ
トの一実施の形態の外観構成例を示しており、図2は、
その電気的構成例を示している。
【0019】本実施の形態では、ロボットは、四つ足の
犬形状のものとされており、胴体部ユニット2の前後左
右に、それぞれ脚部ユニット3A,3B,3C,3Dが
連結されるとともに、胴体部ユニット2の前端部と後端
部に、それぞれ頭部ユニット4と尻尾部ユニット5が連
結されることにより構成されている。
【0020】尻尾部ユニット5は、胴体部ユニット2の
上面に設けられたベース部5Bから、2自由度をもって
湾曲または揺動自在に引き出されている。
【0021】胴体部ユニット2には、ロボット全体の制
御を行うコントローラ10、および通信部11が収納さ
れている。通信部11は、外部との無線通信または有線
通信を行うための制御を行うようになっており、これに
より、例えば、コントローラ10が内蔵するメモリ10
Bが記憶しているプログラムのバージョンアップ版のダ
ウンロード等が可能になっている。なお、通信部11に
おいて無線による通信が行われる場合において、電波の
送受信にアンテナが必要なときには、例えば、尻尾部ユ
ニット5をアンテナとして利用することが可能である。
【0022】ここで、胴体部ユニット2には、通信部1
1の他、例えば、ロボットの動力源となるバッテリ(図
示せず)等も収納されている。
【0023】頭部ユニット4には、「口」に相当するス
ピーカ18が、所定位置に配設されている。さらに、頭
部ユニット4には、外部からの刺激を感知するセンサと
しての、音を感知する「耳」に相当するマイク(マイク
ロフォン)15、光を感知する「目」に相当するCCD
(Charge Coupled Device)カメラ16、および圧力等を
感知する触覚に相当するタッチセンサ17が、それぞれ
所定位置に配設されている。
【0024】また、脚部ユニット3A乃至3Dそれぞれ
の関節部分や、脚部ユニット3A乃至3Dそれぞれと胴
体部ユニット2の連結部分、頭部ユニット4と胴体部ユ
ニット2の連結部分、並びに尻尾部ユニット5と胴体部
ユニット2の連結部分などには、図2に示すように、ア
クチュエータが配設されている。
【0025】頭部ユニット4におけるマイク15は、ユ
ーザからの発話を含む周囲の音声(音)を集音し、得ら
れた音声信号を、コントローラ10に送出する。CCD
カメラ16は、周囲の状況を撮像し、得られた画像信号
を、コントローラ10に送出する。タッチセンサ17
は、例えば、頭部ユニット4の上部に設けられており、
ユーザからの「なでる」や「叩く」といった物理的な働
きかけにより受けた圧力を検出し、その検出結果を圧力
検出信号としてコントローラ10に送出する。
【0026】コントローラ10は、CPU(Central Pro
cessing Unit)10Aやメモリ10B等を内蔵してお
り、CPU10Aにおいて、メモリ10Bに記憶された
制御プログラムが実行されることにより、各種の処理を
行う。
【0027】即ち、コントローラ10は、マイク15
や、CCDカメラ16、タッチセンサ17から与えられ
る音声信号、画像信号、圧力検出信号に基づいて、周囲
の状況や、ユーザからの指令、ユーザからの働きかけな
どの有無を判断する。
【0028】さらに、コントローラ10は、この判断結
果等に基づいて、ロボットに行わせる行動を決定し、そ
の決定結果に基づいて、必要なアクチュエータを駆動さ
せ、これにより、頭部ユニット4を上下左右に振らせた
り、尻尾部ユニット5を動かせたり、各脚部ユニット3
A乃至3Dを駆動して、ロボットを歩行させるなどの行
動を行わせる。
【0029】また、コントローラ10は、必要に応じ
て、合成音を生成し、スピーカ18に供給して出力させ
たり、ロボットの「目」の位置に設けられた図示しない
LED(Light Emitting Diode)を点灯、消灯または点
滅させる。
【0030】以上のようにして、ロボットは、周囲の状
況等に基づいて自律的に行動をとるようになっている。
【0031】次に、図3は、図2のコントローラ10の
機能的構成例を示している。なお、図3に示す機能的構
成は、CPU10Aが、メモリ10Bに記憶された制御
プログラムを実行することで実現されるようになってい
る。
【0032】コントローラ10は、外部からの刺激を感
知するセンサとしてのマイク15、CCDビデオカメラ1
6、タッチセンサ17の出力を処理することにより、特
定の外部状態等を認識するセンサ入力処理部50、セン
サ入力処理部50の認識結果を累積して、感情および本
能の状態を表現する感情/本能モデル部51、センサ入
力処理部50の認識結果等に基づいて、行動を決定する
行動決定機構部52、行動決定機構部52の決定結果に
基づいて、実際にロボットに行動を起こさせる姿勢遷移
機構部53、各アクチュエータを駆動制御する制御機構
部54、並びに合成音を生成する音声合成部55から構
成されている。
【0033】センサ入力処理部50は、マイク15や、
CCDカメラ16、タッチセンサ17等から与えられる
音声信号、画像信号、圧力検出信号等に基づいて、特定
の外部状態や、ユーザからの特定の働きかけ、ユーザか
らの指示等の意味を認識し、その認識結果を表す意味認
識情報を、感情/本能モデル部51および行動決定機構
部52に通知する。
【0034】即ち、センサ入力処理部50は、マイク1
5から与えられる音声信号について、音声認識を行う。
そして、センサ入力処理部50は、その音声認識結果と
しての、例えば、「歩け」、「伏せ」、「ボールを追い
かけろ」等の指令その他を、意味認識情報として、感情
/本能モデル部51および行動決定機構部52に通知す
る。
【0035】また、センサ入力処理部50は、CCDカ
メラ16から与えられる画像信号を用いて、画像認識処
理を行う。そして、センサ入力処理部50は、その処理
の結果、例えば、「赤い丸いもの」や、「地面に対して
垂直なかつ所定高さ以上の平面」等を検出したときに
は、「ボールがある」や、「壁がある」等の画像認識結
果を、意味認識情報として、感情/本能モデル部51お
よび行動決定機構部52に通知する。
【0036】さらに、センサ入力処理部50は、タッチ
センサ17から与えられる圧力検出信号を処理する。そ
して、センサ入力処理部50は、その処理の結果、所定
の閾値以上で、かつ短時間の圧力を検出したときには、
「叩かれた(叱られた)」と認識し、所定の閾値未満
で、かつ長時間の圧力を検出したときには、「撫でられ
た(誉められた)」と認識して、その認識結果を、意味
認識情報として、感情/本能モデル部51および行動決
定機構部52に通知する。
【0037】感情/本能モデル部51は、ロボットの感
情と本能の状態をそれぞれ表現する感情モデルと本能モ
デルを管理している。
【0038】感情モデルは、例えば、「うれしさ」、
「悲しさ」、「怒り」、「楽しさ」それぞれの感情の状
態(度合い)を、例えば、0乃至100の範囲の値によ
ってそれぞれ表し、センサ入力処理部50からの意味認
識情報や時間経過等に基づいて、その値を変化させる。
本能モデルは、例えば、「食欲」、「睡眠欲」、「運動
欲」という本能それぞれによる欲求の状態(度合い)
を、例えば、0乃至100の範囲の値によってそれぞれ
表し、センサ入力処理部50からの意味認識情報や時間
経過等に基づいて、その値を変化させる。
【0039】感情/本能モデル部51は、上述のように
して値が変化する感情モデルおよび本能モデルを、感情
および本能の状態として、行動決定機構部52に送出す
る。
【0040】行動決定機構部52は、センサ入力処理部
50からの意味認識情報や、感情/本能モデル部51か
らの感情/本能モデル、時間経過等に基づいて、次の行
動を決定し、決定された行動の内容を、行動指令情報と
して、姿勢遷移機構部53に送出する。
【0041】即ち、行動決定機構部52は、例えば、図
4に示すように、ロボットがとり得る行動をステート
(状態)(state)に対応させた有限オートマトンを、ロ
ボットの行動を規定する行動モデルとして管理してお
り、この行動モデルとしての有限オートマトンにおける
ステートを、センサ入力処理部50からの意味認識情報
や、感情/本能モデル部51における感情モデルおよび
本能モデルの値、時間経過等に基づいて遷移させ、遷移
後のステートに対応する行動を、次にとるべき行動とし
て決定する。
【0042】具体的には、例えば、図4において、ステ
ートST3が「立っている」という行動を、ステートS
T4が「寝ている」という行動を、ステートST5が
「ボールを追いかけている」という行動を、それぞれ表
しているとする。いま、例えば、「ボールを追いかけて
いる」というステートST5において、「ボールが見え
なくなった」という意味認識情報が供給されると、ステ
ートST5からST3に遷移し、その結果、ステートS
T3に対応する「立っている」という行動を、次にとる
ことが決定される。また、例えば、「寝ている」という
ステートST4において、「起きろ」という意味認識情
報が供給されると、ステートST4からST3に遷移
し、その結果、やはり、ステートST3に対応する「立
っている」という行動を、次にとることが決定される。
【0043】ここで、行動決定機構部52は、例えば、
所定のトリガ(trigger)があったことを検出すると、ス
テートを遷移させる。即ち、行動決定機構部52は、例
えば、現在のステートに対応する行動を実行している時
間が所定時間に達したときや、特定の意味認識情報を受
信したとき、感情/本能モデル部51から供給される感
情/本能モデルの値が所定の閾値以下または以上である
とき等に、ステートを遷移させる。
【0044】なお、行動決定機構部52は、上述したよ
うに、センサ入力処理部50からの意味認識情報だけで
なく、感情/本能モデル部51における感情モデルおよ
び本能モデルの値等にも基づいて、図5の有限オートマ
トンにおけるステートを遷移させることから、同一の意
味認識情報が入力されても、感情モデルや本能モデルの
値(感情/本能状態情報)によっては、ステートの遷移
先は異なるものとなる。
【0045】その結果、行動決定機構部52は、例え
ば、感情/本能モデルが、「怒っていない」こと、およ
び「お腹がすいていない」ことを表している場合におい
て、意味認識情報が、「目の前に手のひらが差し出され
た」ことを表しているときには、目の前に手のひらが差
し出されたことに応じて、「お手」という行動をとらせ
る行動指令情報を生成し、これを、姿勢遷移機構部53
に送出する。
【0046】また、行動決定機構部52は、例えば、感
情/本能モデルが、「怒っていない」こと、および「お
腹がすいている」ことを表している場合において、意味
認識情報が、「目の前に手のひらが差し出された」こと
を表しているときには、目の前に手のひらが差し出され
たことに応じて、「手のひらをぺろぺろなめる」ような
行動を行わせるための行動指令情報を生成し、これを、
姿勢遷移機構部53に送出する。
【0047】また、行動決定機構部52は、例えば、感
情/本能モデルが、「怒っている」ことを表している場
合において、意味認識情報が、「目の前に手のひらが差
し出された」ことを表しているときには、感情/本能モ
デルが、「お腹がすいている」ことを表していても、ま
た、「お腹がすいていない」ことを表していても、「ぷ
いと横を向く」ような行動を行わせるための行動指令情
報を生成し、これを、姿勢遷移機構部53に送出する。
【0048】なお、行動決定機構部52には、感情/本
能モデル部51から供給される感情/本能モデルが示す
感情や本能の状態に基づいて、遷移先のステートに対応
する行動のパラメータとしての、例えば、歩行の速度
や、手足を動かす際の動きの大きさおよび速度などを決
定させることができ、この場合、それらのパラメータを
含む行動指令情報が、姿勢遷移機構部53に送出され
る。
【0049】また、行動決定機構部52では、上述した
ように、ロボットの頭部や手足等を動作させる行動指令
情報の他、ロボットに発話を行わせる行動指令情報も生
成される。ロボットに発話を行わせる行動指令情報は、
音声合成部55に供給されるようになっており、音声合
成部55に供給される行動指令情報には、音声合成部5
5に生成させる合成音の内容を表す内容情報等が含まれ
る。音声合成部55は、行動決定部52から行動指令情
報を受信すると、その行動指令情報に含まれる内容情報
に対応するテキストを生成する。そして、音声合成部5
5は、そのテキストにしたがって合成音を生成し、スピ
ーカ18に供給して出力させる。これにより、ロボット
は、発話を行う。
【0050】姿勢遷移機構部53は、行動決定機構部5
2から供給される行動指令情報に基づいて、ロボットの
姿勢を、現在の姿勢から次の姿勢に遷移させるための姿
勢遷移情報を生成し、これを制御機構部54に送出す
る。
【0051】ここで、現在の姿勢から次に遷移可能な姿
勢は、例えば、胴体や手や足の形状、重さ、各部の結合
状態のようなロボットの物理的形状と、関節が曲がる方
向や角度のようなアクチュエータの機構とによって決定
される。
【0052】また、次の姿勢としては、現在の姿勢から
直接遷移可能な姿勢と、直接には遷移できない姿勢とが
ある。例えば、4本足のロボットは、手足を大きく投げ
出して寝転んでいる状態から、伏せた状態へ直接遷移す
ることはできるが、立った状態へ直接遷移することはで
きず、一旦、手足を胴体近くに引き寄せて伏せた姿勢に
なり、それから立ち上がるという2段階の動作が必要で
ある。また、安全に実行できない姿勢も存在する。例え
ば、4本足のロボットは、その4本足で立っている姿勢
から、両前足を挙げてバンザイをしようとすると、簡単
に転倒してしまう。
【0053】このため、姿勢遷移機構部53は、直接遷
移可能な姿勢をあらかじめ登録しておき、行動決定機構
部52から供給される行動指令情報が、直接遷移可能な
姿勢を示す場合には、その行動指令情報を、そのまま姿
勢遷移情報として、制御機構部54に送出する。一方、
行動指令情報が、直接遷移不可能な姿勢を示す場合に
は、姿勢遷移機構部53は、遷移可能な他の姿勢に一旦
遷移した後に、目的の姿勢まで遷移させるような姿勢遷
移情報を生成し、制御機構部54に送出する。これによ
りロボットが、遷移不可能な姿勢を無理に実行しようと
する事態や、転倒するような事態を回避することができ
るようになっている。
【0054】即ち、姿勢遷移機構部53は、例えば、図
5に示すように、ロボットがとり得る姿勢をノードNO
DE1乃至NODE5として表現するとともに、遷移可
能な2つの姿勢に対応するノードどうしの間を、有向ア
ークARC1乃至ARC10で結合した有向グラフを記
憶しており、この有向グラフに基づいて、上述したよう
な姿勢遷移情報を生成する。
【0055】具体的には、姿勢遷移機構部53は、行動
決定機構部52から行動指令情報が供給されると、現在
の姿勢に対応したノードNODEと、行動指令情報が示
す次に取るべき姿勢に対応するノードNODEとを結ぶ
ように、有向アークARCの向きに従いながら、現在の
ノードNODEから次のノードNODEに至る経路を探
索し、探索した経路上にあるノードNODEに対応する
姿勢を順番にとっていくように指示する姿勢遷移情報を
生成する。
【0056】その結果、姿勢遷移機構部53は、例え
ば、現在の姿勢が「ふせる」という姿勢を示すノードN
ODE2にある場合において、「すわれ」という行動指
令情報が供給されると、有向グラフにおいて、「ふせ
る」という姿勢を示すノードNODE2から、「すわ
る」という姿勢を示すノードNODE5へは、直接遷移
可能であることから、「すわる」に対応する姿勢遷移情
報を生成して、制御機構部54に与える。
【0057】また、姿勢遷移機構部53は、現在の姿勢
が「ふせる」という姿勢を示すノードNODE2にある
場合において、「歩け」という行動指令情報が供給され
ると、有向グラフにおいて、「ふせる」というノードN
ODE2から、「あるく」というノードNODE4に至
る経路を探索する。この場合、「ふせる」に対応するノ
ードNODE2、「たつ」に対応するNODE3、「あ
るく」に対応するNODE4の経路が得られるから、姿
勢遷移機構部53は、「たつ」、「あるく」という順番
の姿勢遷移情報を生成し、制御機構部54に送出する。
【0058】制御機構部54は、姿勢遷移機構部53か
らの姿勢遷移情報にしたがって、アクチュエータを駆動
するための制御信号を生成し、これを、必要なアクチュ
エータに送出する。これにより、アクチュエータは、制
御信号にしたがって駆動し、ロボットは、所定の行動を
起こす。
【0059】次に、図6は、図3のセンサ入力処理部5
0の構成例を示している。
【0060】特徴抽出部21には、外部からの刺激を感
知するセンサとしてのマイク15、CCDカメラ16、
またはタッチセンサ17からの音声信号、画像信号、ま
たは圧力検出信号(以下、適宜、これらをまとめて、セ
ンサ出力信号という)が供給されるようになっており、
特徴抽出部21は、そこに供給されるセンサ出力信号の
特徴量を抽出する。
【0061】即ち、特徴抽出部21は、センサ出力信号
が音声信号である場合には、その音声信号を音響処理す
ることにより、例えば、MFCC(Mel Frequency Cepst
rumCoefficient)や、線形予測係数、ケプストラム係
数、線スペクトル対、所定の周波数帯域ごとのパワー
(フィルタバンクの出力)等を、その特徴量として抽出
する。
【0062】また、特徴抽出部21は、センサ出力信号
が画像信号である場合には、その画像信号における、例
えば、エッジ、あるいは輪郭、ひとまとまりの領域等
を、その特徴量として抽出する。
【0063】さらに、特徴抽出部21は、センサ出力信
号が圧力検出信号である場合には、その圧力検出信号か
ら、例えば、圧力の強さや、同一の強さの圧力が加えら
れている時間(加圧時間)等を、その特徴量として抽出
する。
【0064】そして、特徴抽出部21で抽出された特徴
量は、意味認識部22に供給される。
【0065】意味認識部22は、特徴抽出部21からの
特徴量に基づき、外部から与えられた刺激の意味を認識
し、その認識結果としての意味認識情報を出力する。
【0066】即ち、意味認識部22は、特徴抽出部21
からの特徴量が音声の特徴量である場合には、その特徴
量を用いて、例えば、HMM(Hidden Markov Model)法
による音声認識を行い、その音声認識結果としての文字
列または記号列を、意味認識情報として出力する。ある
いは、また、意味認識部22は、音声認識結果に対し
て、さらに、形態素解析や意味解析といった自然言語処
理を施し、その言語処理結果として得られる、例えば、
フレーズ列等を、意味認識情報として出力する。
【0067】ここで、意味認識部22では、上述したよ
うな音声認識や自然言語処理を行わずに、例えば、パワ
ーが大きく、かつその継続時間が短いといった特徴量に
ついて、「物体が落下した」というような意味認識情報
を出力するようにすることも可能である。
【0068】意味認識部22は、特徴抽出部21からの
特徴量が画像の特徴量である場合には、その特徴量を用
いて画像認識を行う。そして、意味認識部22は、その
画像認識結果として、例えば、「赤い丸いもの」や、
「地面に対して垂直なかつ所定高さ以上の平面」等が得
られた場合には、上述したように、「赤いボールがあ
る」や、「壁がある」等といった意味認識情報を出力す
る。また、意味認識部22は、例えば、「ユーザが直方
体状の物体を持ってたっている」という画像認識結果が
得られた場合には、「ユーザが箱を持って立っている」
といった意味認識情報を出力する。
【0069】また、意味認識部22は、特徴抽出部21
からの特徴量が圧力の特徴量である場合には、その特徴
量を用いて、加えられた圧力の意味を認識する。具体的
には、意味認識部22は、圧力の特徴量から、例えば、
その圧力が、所定の閾値以上の強さで、かつ短時間のも
のであるかどうかを判定し、そのような圧力であれば、
「叩かれた」と認識する。また、意味認識部22は、圧
力が、例えば、所定の閾値未満の強さで、かつ長時間の
ものである場合には、「撫でられた」と認識する。さら
に、意味認識部22は、圧力が、例えば、所定の閾値未
満の強さで、かつ短時間のものである場合には、「単
に、触られただけ」と認識する。そして、意味認識部2
2は、上述のような圧力の意味の認識結果を、意味認識
情報として出力する。
【0070】ここで、圧力が、所定の閾値以上の強さ
で、かつ短時間のものである場合において、その強さ
が、所定の閾値を大きく上回るものであるときには、意
味認識部22において、「叩かれた」ではなく、例え
ば、「悪意をもって殴られた」といった意味認識情報を
出力するようにすることが可能である。
【0071】なお、特徴抽出部21は、センサとしての
マイク15や、CCDカメラ16、タッチセンサ17と
一体的に構成することが可能である。
【0072】また、特徴抽出部21および意味認識部2
2は、外部からの刺激を検出するセンサの種類ごとに
(モーダルごとに)、個別に設けることが可能である。
即ち、本実施の形態では、特徴抽出部21および意味認
識部22は、マイク15用、CCDカメラ16用、およ
びタッチセンサ17用の3セット設けることが可能であ
る。
【0073】次に、図7は、図3の行動決定機構部52
の構成例を示している。
【0074】センサ入力処理部50(図6)が出力す
る、上述したような意味認識情報は、一次行動制御部3
1および意味統合解釈部33に供給される。
【0075】一次行動制御部31は、意味認識情報を受
信すると、例えば、その意味認識情報と、行動モデル部
32における行動モデルに基づいて、一次行動を決定す
る。
【0076】即ち、行動モデル部32には、図4で説明
したような行動モデルが記憶されており、一次行動制御
部31は、意味認識情報に基づいて、行動モデル(図
4)のステートを遷移させ、その遷移後のステートに対
応する行動を、意味認識情報が表す意味の刺激に対する
直接的な行動である一次行動として決定する。具体的に
は、一次行動制御部31は、例えば、「叩かれた」とい
う意味認識情報を受信した場合には、その「叩かれた」
ということに対して、「痛い」と発話する、あるいは、
叩いたユーザの方を振り向くといった一次行動を決定す
る。また、一次行動制御部31は、例えば、「おはよう
と挨拶された」という意味認識情報を受信した場合に
は、その「挨拶された」ということに対して、「おはよ
う」と発話する、あるいは、挨拶をしたユーザの方を振
り向くといった一次行動を決定する。
【0077】なお、一次行動制御部31は、一次行動の
決定にあたって、上述したように、感情/本能モデル部
51(図3)における感情モデルや本能モデルを考慮す
る。
【0078】一次行動制御部31は、以上のようにし
て、一次行動を決定すると、その一次行動をとることを
指令する一次行動指令情報を生成し、行動指令調整部3
7に出力する。
【0079】一方、意味統合解釈部33は、意味認識情
報を受信すると、その意味認識情報に基づき、対応する
刺激が与えられた原因を、必要に応じて、履歴メモリ3
4および知識メモリ35を参照しながら解釈し、その解
釈結果としての解釈情報を出力する。
【0080】即ち、履歴メモリ34には、過去に供給さ
れた意味認識情報の履歴や、ロボットの過去の行動履歴
等の履歴情報が記憶されるようになっており、知識メモ
リ35には、一般的な知識(常識)(例えば、物を壊す
ことは悪いことで、謝るべきといったこと)としての知
識情報が記憶されている。
【0081】意味統合解釈部33は、例えば、「叩かれ
た」という意味認識情報を受信した場合、その叩かれた
という原因を、必要に応じて、履歴メモリ34や知識メ
モリ35を参照しながら解釈する(意味認識情報と、履
歴メモリ34や知識メモリ35に記憶された情報との単
一化を行う)。
【0082】具体的には、例えば、知識メモリ35に、
「物を壊すことは悪いことで、謝るべき」という知識情
報が記憶されている場合において、履歴メモリ34に、
「直前に花瓶を割った」という履歴情報が記憶されてい
るときには、意味統合解釈部33は、叩かれた原因が、
花瓶を割ったことにあると解釈し、叩かれたこと、およ
びその原因が花瓶を割ったことにあることを、解釈情報
として、二次行動制御部36に出力する。
【0083】また、意味統合解釈部33は、叩かれた原
因を解釈することができない場合、即ち、叩かれた理由
が分からない場合、叩かれたこと、およびその原因が不
明であることを、解釈情報として、二次行動制御部36
に出力する。
【0084】さらに、意味統合解釈部33は、例えば、
「ユーザが箱を持って立っている」という意味認識情報
を受信した場合において、ユーザが持っている箱が、履
歴情報として記憶されている「ケーキが入った箱」に一
致しており(例えば、ユーザの持っている箱の大きさ
や、形、色等が、過去にプレゼントされたケーキの箱の
ものに近似しており)、さらに、過去に、ケーキが入っ
た箱をプレゼントしてもらったという履歴情報が、履歴
メモリ34に記憶されているときには、ユーザが箱を持
って立っている原因が、ケーキをプレゼントするためで
あると解釈し、ユーザがケーキの箱を持って立っている
こと、およびその原因が、ケーキをプレゼントするため
であることを、解釈情報として二次行動制御部36に出
力する。
【0085】なお、意味統合解釈部33は、意味統合解
釈部33から意味認識情報を受信すると、まず最初に、
対応する刺激が与えられたことについて、原因があるべ
きかどうかを判定し、原因があるべきである場合に、上
述のように、その原因の解釈を行うが、原因があるべき
ではない場合は、原因の解釈は行わない。従って、対応
する刺激が与えられたことについて、原因があるべきで
ない場合には、意味統合解釈部33は、解釈情報を出力
せず、二次行動も行われない。具体的には、例えば、
「おはようと挨拶された」という意味認識情報を受信し
た場合には、その「挨拶された」ということについて
は、特に、原因はなく、二次行動は行われない。
【0086】二次行動制御部36は、意味統合解釈部3
3から解釈情報を受信すると、その解釈情報に基づき、
対応する刺激に対して二次的な二次行動を決定する。
【0087】即ち、二次行動制御部36は、例えば、解
釈情報として、叩かれたこと、およびその原因が花瓶を
割ったことにあることを受信した場合には、例えば、
「ごめんなさい」と発話するとともに、頭を下げるとい
った謝る行動を、二次行動として決定する。
【0088】また、二次行動制御部36は、例えば、解
釈情報として、叩かれたこと、およびその原因が不明で
あることを受信した場合には、例えば、「なぜ叩くの
?」と発話する、叩かれたことの原因を問い合わせる行
動を、二次行動として決定する。
【0089】さらに、二次行動制御部36は、例えば、
解釈情報として、ユーザがケーキの箱を持って立ってい
ること、およびその原因が、ケーキをプレゼントするた
めであることを受信した場合には、例えば、「やった
!」と発話するとともに、尻尾をふるといった喜びの行
動を、二次行動として決定する。
【0090】二次行動制御部36は、以上のようにし
て、二次行動を決定すると、その二次行動をとることを
指令する二次行動指令情報を生成し、行動指令調整部3
7に出力する。
【0091】行動指令調整部37は、一次行動制御部3
1からの一次行動指令情報、および二次行動制御部36
からの二次行動指令情報を、必要に応じて、その出力タ
イミングを調整し、行動指令情報として、姿勢遷移機構
部53または音声合成部55に出力する。
【0092】即ち、例えば、行動決定機構部52に対し
て、「叩かれた」という意味認識情報が供給された場合
において、一次行動制御部31で、「痛い」と発話する
一次行動に対応する一次行動指令情報が生成されるとと
もに、二次行動制御部31で、「ごめんなさい」と発話
し、かつ、頭を下げる二次行動に対応する二次行動指令
情報が生成されたときには、行動指令調整部37は、最
初に、一次行動指令情報を、その後に、二次行動指令情
報を出力する。これにより、ロボットは、叩かれたこと
に起因して、最初に、「痛い」と発話し、その後、「ご
めんなさい」と発話しながら、頭を下げるという行動を
とる。
【0093】さらに、この場合、二次行動としての、
「ごめんなさい」との発話と、頭を下げるという動きと
は、同時に行われることとなるが、行動指令調整部37
は、このような複数の行動が行われるときの、それぞれ
の行動のタイミングの調整も行う。
【0094】以上のように、ロボットは、一次行動だけ
でなく、二次行動も行うので、その行動は、より人間的
なものとなり、ユーザに、より人間的な感覚を感じさせ
ることができる。
【0095】さらに、二次行動は、与えられた刺激とは
異なるモーダルで行われることがあるので、即ち、例え
ば、叩くという圧力による刺激に対して、「ごめんなさ
い」と発話するクロスモーダルな反応(応答)が返され
るので、ユーザからの働きかけに対する応答の自然性を
向上させることができる。
【0096】なお、二次行動は、一次行動を前提とする
ものではない。即ち、ロボットは、一次行動を行わず
に、二次行動だけを行う場合がある。具体的には、例え
ば、ロボットには、ユーザに叩かれた場合に、「痛い」
と発話する一次行動をとらせた後に、「ごめんなさい」
と発話しながら、頭を下げる二次行動をとらせる他、
「痛い」と発話する一次行動をとらせずに、単に、「ご
めんなさい」と発話しながら、頭を下げる二次行動だけ
をとらせることが可能である。
【0097】また、意味統合解釈部33においては、音
声(音)、画像(光)、または圧力による刺激から得ら
れる意味認識情報それぞれを、別個独立に用いて、上述
したような、刺激が与えられた原因を解釈する処理(以
下、適宜、解釈処理という)を行う他、複数種類の刺激
が同時に与えられた場合には、その複数種類の刺激それ
ぞれから得られる意味認識情報を、いわば総合的に用い
て、解釈処理を行うようにすることが可能である。
【0098】即ち、音声による刺激と、圧力による刺激
とが同時に与えられた場合において、音声による刺激に
ついては、例えば、「ばか」と言われたという意味認識
情報が得られ、圧力による刺激については、例えば、
「叩かれた」という意味認識情報が得られたとする。こ
の場合、意味統合解釈部33では、「ばか」という怒っ
ていることを表す発話が行われながら、叩かれたことか
ら、直前に、怒られるような行動をとったか、あるいは
ユーザの気に入らない行動をとったという推測が行わ
れ、解釈処理において、その推測に合致する情報が、履
歴メモリ34や知識メモリ35から優先的に検索され
る。
【0099】次に、図8のフローチャートを参照して、
図7の意味統合解釈部33の処理(解釈処理)につい
て、さらに、説明する。
【0100】意味統合解釈部33による解釈処理は、例
えば、センサ入力処理部50から、意味認識情報が供給
されるごとに行われる。
【0101】即ち、センサ入力処理部50から、意味統
合解釈部33に対して、意味認識情報が供給されると、
意味統合解釈部33は、ステップS1において、その意
味認識情報を受信し、ステップS2に進み、その意味認
識情報に対応する刺激が与えられたことについて、原因
があるべきかどうかを判定する。
【0102】ステップS2において、意味認識情報に対
応する刺激が与えられたことについては、原因が存在す
るものではないと判定された場合、即ち、例えば、刺激
が、「おはよう」とのユーザによる挨拶の発話である場
合、処理を終了する。従って、この場合には、意味統合
解釈部33から二次行動制御部36に対しては、解釈情
報は出力されず、その結果、二次行動も行われない。
【0103】一方、ステップS2において、意味認識情
報に対応する刺激が与えられたことについては、原因が
存在するべきであると判定された場合、ステップS3に
進み、意味統合解釈部33は、意味認識情報に基づき、
対応する刺激が与えられた原因を、必要に応じて、履歴
メモリ34および知識メモリ35を参照しながら解釈す
る。そして、ステップS4に進み、意味統合解釈部33
は、その解釈結果としての解釈情報を、二次行動制御部
36に出力し、処理を終了する。
【0104】次に、図9のフローチャートを参照して、
図7の二次行動制御部36の処理(二次行動決定処理)
について、さらに、説明する。
【0105】二次行動制御部36による二次行動決定処
理は、例えば、意味統合解釈部33から、解釈情報が供
給されるごとに行われる。
【0106】即ち、意味統合解釈部33から、二次行動
制御部36に対して、解釈情報が供給されると、二次行
動制御部36は、ステップS11において、その解釈情
報を受信し、ステップS12に進み、解釈情報が、刺激
が与えられたことの原因が不明であることを表している
かどうかを判定する。
【0107】ステップS12において、解釈情報が、刺
激が与えられたことの原因が不明であることを表してい
ると判定された場合、ステップS13に進み、二次行動
制御部36は、刺激が与えられたことの原因が不明であ
ることを解消するために、その刺激が与えられた原因の
問合せを行う行動を、二次行動として決定し、その二次
行動を行うことを指令する二次行動指令情報を生成し
て、ステップS15に進む。
【0108】即ち、例えば、上述したように、解釈情報
が、叩かれたこと、およびその原因が不明であることを
表している場合には、二次行動制御部36は、「なぜ叩
くの?」と発話する、叩かれたことの原因を問い合わせ
る行動を、二次行動として決定し、対応する二次行動指
令情報を生成する。
【0109】一方、ステップS12において、解釈情報
が、刺激が与えられたことの原因が不明であることを表
していないと判定された場合、ステップS14に進み、
二次行動制御部36は、その解釈情報にしたがって行う
べき行動を、二次行動として決定し、その二次行動を行
うことを指令する二次行動指令情報を生成して、ステッ
プS15に進む。
【0110】即ち、例えば、上述したように、解釈情報
が、叩かれたこと、およびその原因が花瓶を割ったこと
にあることを表している場合には、二次行動制御部36
は、「ごめんなさい」と発話するとともに、頭を下げる
といった、花瓶を割ったことに対して謝る行動を、二次
行動として決定し、対応する二次行動指令情報を生成す
る。
【0111】そして、ステップS15では、二次行動制
御部36は、生成した二次行動指令情報を、行動指令調
整部37に出力し、処理を終了する。
【0112】なお、上述した一連の処理は、CPU10
Aにプログラムを実行させることにより行う他、それ専
用のハードウェアによって行うことも可能である。
【0113】また、プログラムは、あらかじめメモリ1
0B(図2)に記憶させておく他、フロッピーディス
ク、CD-ROM(Compact Disc Read Only Memory),MO(Magn
eto optical)ディスク,DVD(Digital Versatile Dis
c)、磁気ディスク、半導体メモリなどのリムーバブル記
録媒体に、一時的あるいは永続的に格納(記録)してお
くことができる。そして、このようなリムーバブル記録
媒体を、いわゆるパッケージソフトウエアとして提供
し、ロボット(メモリ10B)にインストールするよう
にすることができる。
【0114】さらに、プログラムは、リムーバブル記録
媒体からインストールする他、ダウンロードサイトか
ら、ディジタル衛星放送用の人工衛星を介して、無線で
転送したり、LAN(Local Area Network)、インターネッ
トといったネットワークを介して、有線で転送し、メモ
リ10Bにインストールすることができる。
【0115】この場合、プログラムがバージョンアップ
されたとき等に、そのバージョンアップされたプログラ
ムを、メモリ10Bに、容易にインストールすることが
できる。
【0116】さらに、プログラムは、1のCPUにより
処理されるものであっても良いし、複数のCPUによっ
て分散処理されるものであっても良い。
【0117】また、CPU10Aに各種の処理を行わせ
るためのプログラムを記述する処理ステップは、必ずし
もフローチャートとして記載された順序に沿って時系列
に処理する必要はなく、並列的あるいは個別に実行され
る処理(例えば、並列処理あるいはオブジェクトによる
処理)も含むものである。
【0118】次に、上述の場合には、行動を行う行動対
象として、実世界の物体としてのロボットを用いたが、
行動対象としては、その他、例えば、コンピュータによ
ってディスプレイ上に表示される仮想的なキャラクタを
用いることも可能である。
【0119】そこで、図10は、仮想的なキャラクタを
表示して、その仮想的なキャラクタに、上述したような
行動をとらせるプログラムがインストールされるコンピ
ュータの一実施の形態の構成例を示している。
【0120】なお、プログラムは、上述した場合と同様
に、コンピュータに内蔵されているハードディスク10
5やROM103に予め記録しておいたり、あるいは、
リムーバブル記録媒体111に、一時的あるいは永続的
に格納(記録)し、パッケージソフトウエアとして提供
することができる。また、プログラムは、ネットワーク
を介してダウンロードし、コンピュータが内蔵するハー
ドディスク105にインストールすることができる。
【0121】コンピュータは、CPU(Central Processing
Unit)102を内蔵している。CPU102には、バス1
01を介して、入出力インタフェース110が接続され
ており、CPU102は、入出力インタフェース110を
介して、キーボードや、マウス、ゲーム用のコントロー
ラ、マイク、CCDカメラ等で構成される入力部107
から与えられるユーザによる指令等が入力されると、そ
れに対応して、ROM(Read Only Memory)103に格納さ
れているプログラムを実行する。あるいは、また、CPU
102は、ハードディスク105に格納されているプロ
グラム、衛星若しくはネットワークから転送され、通信
部108で受信されてハードディスク105にインスト
ールされたプログラム、またはドライブ109に装着さ
れたリムーバブル記録媒体111から読み出されてハー
ドディスク105にインストールされたプログラムを、
RAM(Random Access Memory)104にロードして実行す
る。これにより、CPU102は、上述したフローチャー
トにしたがった処理、あるいは上述したブロック図の構
成により行われる処理を行う。そして、CPU102は、
その処理結果を、必要に応じて、例えば、入出力インタ
フェース110を介して、LCD(Liquid CryStal Displa
y)やスピーカ等で構成される出力部106から出力、あ
るいは、通信部108から送信、さらには、ハードディ
スク105に記録等させる。
【0122】即ち、ここでは、コンピュータにおいて
は、出力部106で仮想的なキャラクタが表示される。
そして、ユーザが、その仮想的なキャラクタに対して、
何らかの刺激を与えると、コンピュータにおいては、そ
の刺激の意味が認識され、その結果得られる意味認識情
報に基づき、仮想的なキャラクタの、刺激に対して直接
的な一次行動が決定される。これにより、仮想的なキャ
ラクタは、その一次行動をとる。あるいは、また、コン
ピュータにおいては、意味認識情報に基づいて、刺激が
与えられた原因が解釈され、その結果得られる解釈情報
に基づき、仮想的なキャラクタの、刺激に対して二次的
な二次行動が決定される。これにより、仮想的なキャラ
クタは、その二次行動をとる。
【0123】なお、入力部107が、上述したように、
マイクやCCDカメラを有する場合には、仮想的なキャ
ラクタに対し、音や光による刺激は、上述のロボットに
おける場合と同様にして与えることができる。
【0124】但し、圧力による刺激は、刺激を与える対
象が、仮想的なキャラクタであるため、実際に触れた
り、叩いたりすることはできない。このため、圧力によ
る刺激は、例えば、ユーザが入力部107を構成するマ
ウスや、キーボード、ゲーム用コントローラ等を操作す
ることで、仮想的に与えることになる。
【0125】さらに、このように、圧力による刺激は、
仮想的に与えられるから、その刺激の意味は、入力部1
07を構成するハードウェア環境や、その特性、制約を
考慮して認識される。即ち、例えば、マウスカーソル
が、仮想的なキャラクタの肩の部分に移動され、クリッ
クが1回だけ行われた場合には、「肩に触れられた」と
認識される。また、例えば、クリックが複数回行われた
場合には、そのクリックの回数に応じた強さで「叩かれ
た」と認識される。さらに、例えば、ゲーム用コントロ
ーラの1以上のボタンが操作された場合には、その操作
されたボタンや、操作されたボタンの組合せ等によっ
て、仮想的な圧力による刺激の意味が、例えば、「後ろ
を振り向け」や、「こっちを見ろ」といったように認識
される。また、例えば、キーボードが操作されることに
より文字列が入力された場合には、その文字列が表す意
味が、仮想的な圧力による刺激の意味として認識され
る。
【0126】一方、仮想的なキャラクタの行動は、出力
部106に表示されている仮想的なキャラクタの状態が
変更されたり、仮想的なキャラクタが発話したように感
じさせる合成音が、出力部106から出力されることで
実現される。また、例えば、ゲーム用コントローラに、
それを振動させるモータ等が内蔵されている場合には、
仮想的なキャラクタの状態を変更させるとともに、ゲー
ム用コントローラを振動させて、仮想的なキャラクタが
怒っていることや、興奮していること等を、ユーザに伝
達するようにすることも可能である。
【0127】
【発明の効果】本発明の行動制御装置および行動制御方
法、並びに記録媒体によれば、外部から与えられた刺激
の意味が認識され、その結果得られる意味認識情報に基
づいて、刺激が与えられた原因が解釈される。そして、
その解釈結果としての解釈情報に基づき、行動対象の、
刺激に対して二次的な二次行動が決定される。従って、
行動対象に、より人間的な行動を行わせることが可能と
なる。
【図面の簡単な説明】
【図1】本発明を適用したロボットの外観構成例を示す
斜視図である。
【図2】図1のロボットの電気的構成例を示すブロック
図である。
【図3】コントローラ10の機能的構成例を示すブロッ
ク図である。
【図4】行動モデルを示す図である。
【図5】姿勢遷移機構部54の処理を説明するための図
である。
【図6】図3のセンサ入力処理部50の構成例を示すブ
ロック図である。
【図7】図3の行動決定機構部52の構成例を示すブロ
ック図である。
【図8】図7の意味統合解釈部33の処理を説明するた
めのフローチャートである。
【図9】図7の二次行動制御部36の処理を説明するた
めのフローチャートである。
【図10】本発明を適用したコンピュータの一実施の形
態の構成例を示すブロック図である。
【符号の説明】
2 胴体部ユニット, 3A乃至3D 脚部ユニット,
4 頭部ユニット,5 尻尾部ユニット, 5B ベ
ース部, 10 コントローラ, 10ACPU, 1
0B メモリ, 11 通信部, 15 マイク, 1
6 CCDカメラ, 17 タッチセンサ, 18 ス
ピーカ, 21 特徴抽出部, 22 意味認識部,
31 一次行動制御部, 32 行動モデル部, 33
意味統合解釈部, 34 履歴メモリ, 35 知識
メモリ, 36 二次行動制御部, 37 行動指令調
整部, 101 バス, 102 CPU, 103 RO
M, 104 RAM, 105 ハードディスク, 10
6 出力部, 107入力部, 108 通信部, 1
09 ドライブ, 110 入出力インタフェース,
111 リムーバブル記録媒体
───────────────────────────────────────────────────── フロントページの続き (72)発明者 豊田 崇 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 花形 理 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 西條 弘樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 小倉 稔也 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 3F059 AA00 BA00 BB06 DA05 DB04 DC00 DC01 FB11 3F060 AA00 BA10 CA14 5B049 BB07 CC22 DD00 DD01 DD03 DD05 EE03 EE07 FF00 FF01 FF06 FF09 GG03 GG08 5H269 AB27 GG06 9A001 HH19 HH34

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】 行動する行動対象の行動を制御する行動
    制御装置であって、 外部から与えられた刺激の意味を認識し、その認識結果
    としての意味認識情報を出力する意味認識手段と、 前記意味認識情報に基づき、前記行動対象の、前記刺激
    に対して直接的な一次行動を決定する一次行動決定手段
    と、 前記意味認識情報に基づいて、前記刺激が与えられた原
    因を解釈し、その解釈結果としての解釈情報を出力する
    解釈手段と、 前記解釈情報に基づき、前記行動対象の、前記刺激に対
    して二次的な二次行動を決定する二次行動決定手段とを
    備えることを特徴とする行動制御装置。
  2. 【請求項2】 音、光、または圧力による前記刺激を感
    知する感知手段をさらに備えることを特徴とする請求項
    1に記載の行動制御装置。
  3. 【請求項3】 前記二次行動決定手段は、前記刺激が与
    えられた原因にしたがって行うべき行動を、前記二次行
    動として決定することを特徴とする請求項1に記載の行
    動制御装置。
  4. 【請求項4】 前記二次行動決定手段は、前記刺激が与
    えられた原因が不明である場合、その不明点を解消する
    ための問合せを行う行動を、前記二次行動として決定す
    ることを特徴とする請求項1に記載の行動制御装置。
  5. 【請求項5】 前記二次行動は、前記刺激とは異なるモ
    ーダルで行われることを特徴とする請求項1に記載の行
    動制御装置。
  6. 【請求項6】 前記二次行動は、動きまたは音声による
    ことを特徴とする請求項1に記載の行動制御装置。
  7. 【請求項7】 ロボットであることを特徴とする請求項
    1に記載の行動制御装置。
  8. 【請求項8】 行動する行動対象の行動を制御する行動
    制御方法であって、外部から与えられた刺激の意味を認
    識し、その認識結果としての意味認識情報を出力する意
    味認識ステップと、 前記意味認識情報に基づき、前記行動対象の、前記刺激
    に対して直接的な一次行動を決定する一次行動決定ステ
    ップと、 前記意味認識情報に基づいて、前記刺激が与えられた原
    因を解釈し、その解釈結果としての解釈情報を出力する
    解釈ステップと、 前記解釈情報に基づき、前記行動対象の、前記刺激に対
    して二次的な二次行動を決定する二次行動決定ステップ
    とを備えることを特徴とする行動制御方法。
  9. 【請求項9】 行動する行動対象の行動を制御する行動
    制御処理を、コンピュータに行わせるプログラムが記録
    されている記録媒体であって、 外部から与えられた刺激の意味を認識し、その認識結果
    としての意味認識情報を出力する意味認識ステップと、 前記意味認識情報に基づき、前記行動対象の、前記刺激
    に対して直接的な一次行動を決定する一次行動決定ステ
    ップと、 前記意味認識情報に基づいて、前記刺激が与えられた原
    因を解釈し、その解釈結果としての解釈情報を出力する
    解釈ステップと、 前記解釈情報に基づき、前記行動対象の、前記刺激に対
    して二次的な二次行動を決定する二次行動決定ステップ
    とを備えるプログラムが記録されていることを特徴とす
    る記録媒体。
JP2000022224A 2000-01-31 2000-01-31 行動制御装置および行動制御方法、並びに記録媒体 Withdrawn JP2001212780A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000022224A JP2001212780A (ja) 2000-01-31 2000-01-31 行動制御装置および行動制御方法、並びに記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000022224A JP2001212780A (ja) 2000-01-31 2000-01-31 行動制御装置および行動制御方法、並びに記録媒体

Publications (1)

Publication Number Publication Date
JP2001212780A true JP2001212780A (ja) 2001-08-07

Family

ID=18548550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000022224A Withdrawn JP2001212780A (ja) 2000-01-31 2000-01-31 行動制御装置および行動制御方法、並びに記録媒体

Country Status (1)

Country Link
JP (1) JP2001212780A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002264051A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
JP2002264052A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
JP2002264053A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
JP2002264058A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
WO2002072317A1 (fr) * 2001-03-09 2002-09-19 Japan Science And Technology Corporation Systeme de robot audiovisuel
JP2005313308A (ja) * 2004-03-30 2005-11-10 Nec Corp ロボット、ロボット制御方法、ロボット制御プログラム、ならびに思考装置
JP2006035381A (ja) * 2004-07-28 2006-02-09 Honda Motor Co Ltd 移動ロボットの制御装置
JP2014098962A (ja) * 2012-11-13 2014-05-29 Sharp Corp 行動制御装置、行動制御方法、および制御プログラム
JP2017161637A (ja) * 2016-03-08 2017-09-14 シャープ株式会社 発話装置、発話装置の制御方法、制御プログラム、および記録媒体

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002264051A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
JP2002264052A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
JP2002264053A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
JP2002264058A (ja) * 2001-03-09 2002-09-18 Japan Science & Technology Corp ロボット視聴覚システム
WO2002072317A1 (fr) * 2001-03-09 2002-09-19 Japan Science And Technology Corporation Systeme de robot audiovisuel
US6967455B2 (en) 2001-03-09 2005-11-22 Japan Science And Technology Agency Robot audiovisual system
JP2005313308A (ja) * 2004-03-30 2005-11-10 Nec Corp ロボット、ロボット制御方法、ロボット制御プログラム、ならびに思考装置
JP4555039B2 (ja) * 2004-03-30 2010-09-29 日本電気株式会社 ロボット、ロボット制御方法、ロボット制御プログラム
JP2006035381A (ja) * 2004-07-28 2006-02-09 Honda Motor Co Ltd 移動ロボットの制御装置
JP2014098962A (ja) * 2012-11-13 2014-05-29 Sharp Corp 行動制御装置、行動制御方法、および制御プログラム
JP2017161637A (ja) * 2016-03-08 2017-09-14 シャープ株式会社 発話装置、発話装置の制御方法、制御プログラム、および記録媒体

Similar Documents

Publication Publication Date Title
JP4296714B2 (ja) ロボット制御装置およびロボット制御方法、記録媒体、並びにプログラム
US7065490B1 (en) Voice processing method based on the emotion and instinct states of a robot
US7228276B2 (en) Sound processing registering a word in a dictionary
JP2001157976A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
KR100879417B1 (ko) 음성 출력 장치
JP2003131683A (ja) 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
KR20020094021A (ko) 음성 합성 장치
JP2002337079A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP2001212780A (ja) 行動制御装置および行動制御方法、並びに記録媒体
JP2002304188A (ja) 単語列出力装置および単語列出力方法、並びにプログラムおよび記録媒体
JP2002116792A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2002318594A (ja) 言語処理装置および言語処理方法、並びにプログラムおよび記録媒体
JP4587009B2 (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2001154693A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2004283927A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP2006038894A (ja) ロボット制御装置および方法、記録媒体、並びにプログラム
JP2002268663A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP2002307349A (ja) ロボット装置、情報学習方法、プログラム及び記録媒体
JP2002258886A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP4656354B2 (ja) 音声処理装置および音声処理方法、並びに記録媒体
JP2007241304A (ja) 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
JP4742415B2 (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2002318590A (ja) 音声合成装置および音声合成方法、並びにプログラムおよび記録媒体
JP2002120177A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2001154692A (ja) ロボット制御装置およびロボット制御方法、並びに記録媒体

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070403