JP2002331481A - ロボット装置、動作作成装置及び動作作成方法、並びに、制御プログラム及び記録媒体 - Google Patents

ロボット装置、動作作成装置及び動作作成方法、並びに、制御プログラム及び記録媒体

Info

Publication number
JP2002331481A
JP2002331481A JP2001135422A JP2001135422A JP2002331481A JP 2002331481 A JP2002331481 A JP 2002331481A JP 2001135422 A JP2001135422 A JP 2001135422A JP 2001135422 A JP2001135422 A JP 2001135422A JP 2002331481 A JP2002331481 A JP 2002331481A
Authority
JP
Japan
Prior art keywords
modality
generating
expression
generated
inconsistency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001135422A
Other languages
English (en)
Inventor
Profio Ugo Di
ディ プロフィオ ウゴ
Kazuo Ishii
和夫 石井
Atsushi Okubo
厚志 大久保
Gabriel Costa
コスタ ガブリエル
Hideki Shimomura
秀樹 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001135422A priority Critical patent/JP2002331481A/ja
Publication of JP2002331481A publication Critical patent/JP2002331481A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)

Abstract

(57)【要約】 【課題】 表現能力の全てを統合し自然で表現力豊かな
コミュニケーション動作を生成する。 【解決手段】 内的動機生成部101において生成され
た動機付けに基づいてモダリティを生成し、各モダリテ
ィ生成部104、106及び言語モダリティ配列部10
9において生成されたモダリティが重複する場合、モダ
リティコンフリクト解消部において重複による動作のコ
ンフリクトを解消し、モダリティ統合部110において
各モダリティを統合してマルチモダル・タイムラインを
生成する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ロボット装置、並
びに、動作作成方法及び動作作成方法、並びに制御プロ
グラム及び記録媒体に関し、特に、表出可能な表現を全
て利用し自然で表現力豊かなコミュニケーション動作を
実行することができるロボット装置、並びに、表出可能
な表現を全て利用し自然で表現力豊かなコミュニケーシ
ョン動作を作成することができる動作作成装置及び動作
作成方法、並びに、表出可能な表現を全て利用し自然で
表現力豊かなコミュニケーション動作をロボット装置に
実行させる制御プログラム及びこのプログラムが記録さ
れた記録媒体に関する。
【0002】
【従来の技術】電気的又は磁気的な作用を用いて人間
(生物)の動作に似た運動を行う機械装置を「ロボッ
ト」という。我が国においてロボットが普及し始めたの
は、1960年代末からであるが、その多くは、工場に
おける生産作業の自動化・無人化等を目的としたマニピ
ュレータや搬送ロボット等の産業用ロボット(Industri
al Robot)であった。
【0003】最近では、人間のパートナーとして生活を
支援する、すなわち住環境その他の日常生活上の様々な
場面における人的活動を支援する実用ロボットの開発が
進められている。このような実用ロボットは、産業用ロ
ボットとは異なり、人間の生活環境の様々な局面におい
て、個々に個性の相違した人間、又は様々な環境への適
応方法を自ら学習する能力を備えている。例えば、犬、
猫のように4足歩行の動物の身体メカニズムやその動作
を模した「ペット型」ロボット、あるいは、2足直立歩
行を行う動物の身体メカニズムや動作をモデルにしてデ
ザインされた「人間型」又は「人間形」ロボット(Huma
noid Robot)等の脚式移動ロボットは、既に実用化され
つつある。
【0004】このようなロボット装置は、産業用ロボッ
トと比較してエンターテインメント性を重視した様々な
動作を行うことができるため、エンターテインメントロ
ボットと呼称される場合もある。
【0005】人間(ユーザ)からロボット装置に対する
入力(multimodal input)方式としては、主として、グ
ラフィック・ユーザ・インターフェイス(以下、GUI
と記す。)、発話、手書き及び身振り等が利用されてい
る。また、ロボット装置から人間への出力(multimodal
output)方式としては、発話、GUI等が利用されて
いる。
【0006】このようなロボット装置としては、例え
ば、表情を動画として表示する顔部を備えたアバター
(avatar)(固有名詞)がある。アバター(固有名詞)
は、発話に同期して表情の動画を表示することができる
ロボット装置である。また、発声と、頭部及び視線の方
向と、顔の表情とを統合して出力する人間型ロボットも
知られている。
【0007】
【発明が解決しようとする課題】ところが、従来のロボ
ット装置は、表出可能な動作が豊富であるのにも関わら
ず、外部からの働きかけに対する動作及び内部状態の表
現力に乏しいという欠点があった。
【0008】そこで、本発明は、このような従来の実情
に鑑みて提案されたものであり、表現能力の全てを統合
し自然で表現力豊かなコミュニケーション動作を生成す
ることができるロボット装置、並びに、自然で表現力豊
かなコミュニケーション動作を作成することができる動
作作成方法及び動作作成方法、並びに、ロボット装置に
対してロボット装置のもてる表現能力の全てを統合し、
自然で表現力豊かなコミュニケーション動作を実行させ
る制御プログラム及びこの制御プログラムが記録された
記録媒体を提供することを目的とする。
【0009】
【課題を解決するための手段】上述した目的を達成する
ために、本発明に係るロボット装置は、外部からの働き
かけに応じた動作及び/又は内部状態に基づく自律的動
作を実行するための動機付けを生成する内的動機生成手
段と、内的動機生成手段によって生成された動機付けに
基づいて、外部からの働きかけに応じた動作及び/又は
内部状態に基づく自律的動作を表出する際の様態として
のモダリティを生成するモダリティ生成手段と、モダリ
ティ生成手段において生成された動作表出の様態が重複
する場合、重複による動作の不調和を解消するモダリテ
ィ不調和解消手段と、動作表出の様態が表出時間に応じ
て時系列に配置されたモダリティ・タイムラインを生成
するモダリティ統合制御手段とを備える。
【0010】このようなロボット装置は、内的動機生成
手段において生成された動機付けに基づいて動作表出の
様態としてのモダリティを生成し、モダリティ生成手段
において生成された動作表出の様態が重複する場合、モ
ダリティ不調和解消手段において重複による動作の不調
和を解消し、モダリティ統合制御手段において動作表出
の様態を時系列に配置したモダリティ・タイムラインを
生成し、外部からの働きかけに応じた動作及び/又は内
部状態に基づく自律的動作を統合して表出する。
【0011】また、上述した目的を達成するために、本
発明に係る動作作成装置は、外部からの働きかけに応じ
た動作及び/又は内部状態に基づく動作を作成するため
の誘因を生成する誘因生成手段と、誘因生成手段によっ
て生成された誘因に基づいて、外部からの働きかけに応
じた動作及び/又は内部状態に基づく動作を表出する際
の様態としてのモダリティを生成するモダリティ生成手
段と、モダリティ生成手段において生成された動作表出
の様態が重複する場合、重複による動作の不調和を解消
するモダリティ不調和解消手段と、動作表出の様態が表
出時間に応じて時系列に配置されたモダリティ・タイム
ラインを生成するモダリティ統合制御手段とを備える。
【0012】このような動作作成装置は、内的動機生成
手段において生成された動機付けに基づいて動作表出の
様態としてのモダリティを生成し、モダリティ生成手段
において生成された動作表出の様態が重複する場合、モ
ダリティ不調和解消手段において重複による動作の不調
和を解消し、モダリティ統合制御手段において動作表出
の様態を時系列に配置したモダリティ・タイムラインを
生成し、外部からの働きかけに応じた動作及び/又は内
部状態に基づく自律的動作を統合して表出する。
【0013】また、上述した目的を達成するために、本
発明に係る動作作成方法は、外部からの働きかけに応じ
た動作及び/又は内部状態に基づく動作を作成するため
の誘因が生成される誘因生成工程と、誘因生成工程にお
いて生成された誘因に基づいて、外部からの働きかけに
応じた動作及び/又は内部状態に基づく動作を表出する
際の様態としてのモダリティが生成されるモダリティ生
成工程と、モダリティ生成工程において生成された動作
表出の様態が重複した場合の重複による動作の不調和が
解消されるモダリティ不調和解消工程と、動作表出の様
態が表出時間に応じて時系列に配置されたモダリティ・
タイムラインが生成されるモダリティ統合制御工程とを
備える。
【0014】このような動作作成方法によれば、内的動
機生成工程において生成された動機付けに基づいて動作
表出の様態としてのモダリティが生成され、モダリティ
生成工程において生成された動作表出の様態が重複する
場合、モダリティ不調和解消工程において重複による動
作の不調和が解消され、モダリティ統合制御工程におい
て動作表出の様態を時系列に配置したモダリティ・タイ
ムラインが生成され、外部からの働きかけに応じた動作
及び/又は内部状態に基づく動作が統合される。
【0015】また、上述した目的を達成するために、本
発明に係るロボット装置の制御プログラムは、外部から
の働きかけに応じた動作及び/又は内部状態に基づく自
律的動作を実行するための動機付けを生成する内的動機
生成処理と、内的動機生成処理によって生成された動機
付けに基づいて、外部からの働きかけに応じた動作及び
/又は内部状態に基づく自律的動作を表出する際の様態
としてのモダリティを生成するモダリティ生成処理と、
モダリティ生成処理によって生成された動作表出の様態
が重複する場合、重複による動作の不調和を解消するモ
ダリティ不調和解消処理と、動作表出の様態が表出時間
に応じて時系列に配置されたモダリティ・タイムライン
を生成するモダリティ統合制御処理とを実行させる。ま
た、本発明に係る制御プログラムを記録媒体に記録して
提供する。
【0016】このような制御プログラムは、ロボット装
置に対して、内的動機生成処理によって生成された動機
付けに基づいて動作表出の様態としてのモダリティを生
成させ、モダリティ生成処理において生成された動作表
出の様態が重複する場合、モダリティ不調和解消処理に
おいて重複による動作の不調和を解消させ、モダリティ
統合制御処理において動作表出の様態を時系列に配置し
たモダリティ・タイムラインを生成させ、外部からの働
きかけに応じた動作及び/又は内部状態に基づく自律的
動作を統合して表出することを実行させる。
【0017】
【発明の実施の形態】本発明の一構成例として示すロボ
ット装置は、内部状態に応じて自律的に動作するロボッ
ト装置である。このロボット装置は、少なくとも上肢と
体幹部と下肢とを備え、上肢及び下肢、又は下肢のみを
移動手段とする脚式移動ロボットである。脚式移動ロボ
ットには、4足歩行の動物の身体メカニズムやその動き
を模倣したペット型ロボットや、下肢のみを移動手段と
して使用する2足歩行の動物の身体メカニズムやその動
きを模倣したロボット装置があるが、本実施の形態とし
て示すロボット装置は、2足歩行タイプの人間型ロボッ
ト装置である。
【0018】この人間型ロボット装置は、住環境その他
の日常生活上の様々な場面における人的活動を支援する
実用ロボットであり、内部状態(怒り、悲しみ、喜び、
楽しみ等)に応じて行動できるほか、人間が行う基本的
な動作を表出できるエンターテインメントロボットであ
る。
【0019】また、本発明の一構成例として示す人間型
ロボット装置は、所定の内的動機(内的衝動)が効果的
に混在した動作表出の様態(以下、モダリティと記
す。)を有するコミュニケーション動作を実行するロボ
ット装置である。ここで内的動機とは、この人間型ロボ
ット装置の内部状態より引き出される動作に対する動
機、例えば、飢餓感、疲労感、感情等の内部状態に基づ
く自律的な動作のための動機付けを示している。また、
ここでの内的動機には、外部から与えられた働きかけに
応じた動作、例えば、人間(ユーザ)との間の対話に応
答するための動機付けも含まれる。
【0020】つまり、この人間型ロボット装置は、内部
状態として、ある感情が生じた場合、その感情を動作と
して表出するための様態(モダリティ)が複数生成され
る。モダリティとは、例えば、四角形、円形等の形状を
示すための身振り(以下、ジェスチャと記す。)であっ
たり、「大きい」、「小さい」等の形容的ジェスチャで
あったり、驚嘆や不安を表す表情である。また、会話を
伴う場合は、適切な表現の言語であったりする。
【0021】ただし、本発明の一構成例として示す人間
型ロボット装置では、言語モダリティは、他のモダリテ
ィとは異なる特別なモダリティとして示されている。言
語モダリティは、ここで生成される言葉(会話文)が、
言語生成過程の結果、単語の序列として生成されるもの
であればよく、例えば、種々のパターンと状況に基づい
て会話文を生成できる通常の会話生成手段を用いること
ができる。
【0022】言語モダリティ以外の他のモダリティに関
しては、各々を統合して複数のモダリティを含むコミュ
ニケーション動作として表現するために、音声、身振
り、顔の表情、動き等のモダリティを識別できることが
前提となっている。
【0023】ここで、音声、身振り、顔の表情、動き等
の各モダリティは、さらに、詳細に分類されている。例
えば、音声モダリティは、音量のモダリティ、音のピッ
チのモダリティ等に分類されており、各々のモダリティ
に関しても、基本的な事例と複雑な事例とが与えられて
いる。例えば、ジェスチャ・モダリティ(必要に応じ
て、GMと記す。)における基本的な事例とは、指や足
を鳴らすこと、頭を傾けること等であり、複雑な事例と
は、指を指すこと、腕や手を用いて円形や四角形等の形
状を示すこと、また、高い、低い、大きい、小さい等の
形容表現を示すことである。
【0024】さらに、各々のモダリティの事例には、表
現カレベル(Expressive Power Level)(必要に応じ
て、EPLと記す。)を付する。このほかに、例えば、
オブジェクト、アクション、属性等のセマンティック情
報及び実行時間(Execution time)(必要に応じて、E
Tと記す。)等の注釈を付ける。
【0025】例えば、ジェスチャ・モダリティ及びセマ
ンティック情報の属性等を記述する場合、形状を身振り
で表現することは、オブジェクトを表現することとして
注釈付けすることができ、形容を身振りで表現すること
は属性として注釈付けすることができ、身振りで指差す
ことはアクションとして注釈付けすることができる。一
般的に、属性は、オブジェクトより高い表現力があると
規定する。モダリティの各々にEPL等の注釈を付する
ことによって、モダリティの事例が重複する場合、EP
Lに応じて動作として表出する際の順位を付ける、又
は、順位の高いモダリティを採用するなどして、モダリ
ティ間の不調和(以下、コンフリクトと記す。)を解消
し、表現力豊かなコミュニケーション動作を表出するこ
とができるようになる。
【0026】以下、本発明の一構成例として示す人間型
ロボット装置200について、図面を参照して詳細に説
明する。
【0027】図1及び図2には、人間型ロボット装置2
00を前方及び後方の各々から眺望した様子を示してい
る。さらに、図3には、この人間型ロボット装置200
が具備する関節自由度構成を模式的に示している。
【0028】図1に示すように、人間型ロボット装置2
00は、2本の腕部と頭部201を含む上肢と、移動動
作を実現する2本の脚部からなる下肢と、上肢と下肢と
を連結する体幹部とで構成される。
【0029】頭部201を支持する首関節は、首関節ヨ
ー軸202と、首関節ピッチ軸203と、首関節ロール
軸204という3自由度を有している。
【0030】また、各腕節は、肩関節ピッチ軸208
と、肩関節ロール軸209と、上腕ヨー軸210と、肘
関節ピッチ軸211と、前腕ヨー軸212と、手首関節
ピッチ軸213と、手首関節ロール輪214と、手部2
15とで構成される。手部215は、実際には、複数本
の指を含む多関節・多自由度構造体である。ただし、手
部215の動作は人間型ロボット装置200の姿勢制御
や歩行制御に対する寄与や影響が少ないので、本明細書
ではゼロ自由度と仮定する。したがって、各腕部は7自
由度を有するとする。
【0031】また、体幹部は、体幹ピッチ軸205と、
体幹ロール軸206と、体幹ヨー軸207という3自由
度を有する。
【0032】また、下肢を構成する各々の脚部は、股関
節ヨー軸216と、股関節ピッチ軸217と、股関節ロ
ール軸218と、膝関節ピッチ軸219と、足首関節ピ
ッチ軸220と、足首関節ロール軸221と、足部22
2とで構成される。本明細書中では、股関節ピッチ軸2
17と股関節ロール軸218の交点は、人間型ロボット
装置200の股関節位置を定義する。人体の足部222
は、実際には多関節・多自由度の足底を含んだ構造体で
あるが、人間型ロボット装置200の足底は、ゼロ自由
度とする。したがって、各脚部は、6自由度で構成され
る。
【0033】以上を総括すれば、人間型ロボット装置2
00全体としては、合計で3+7×2+3+6×2=3
2自由度を有することになる。ただし、エンターテイン
メント向けの人間型ロボット装置200が必ずしも32
自由度に限定されるわけではない。設計・制作上の制約
条件や要求仕様等に応じて、自由度すなわち関節数を適
宜増減することができることはいうまでもない。
【0034】上述したような人間型ロボット装置200
がもつ各自由度は、実際にはアクチュエータを用いて実
装される。外観上で余分な膨らみを排してヒトの自然体
形状に近似させること、2足歩行という不安定構造体に
対して姿勢制御を行うことなどの要請から、アクチュエ
ータは小型且つ軽量であることが好ましい。
【0035】図4には、人間型ロボット装置200の制
御システム構成を模式的に示している。同図に示すよう
に、人間型ロボット装置200は、ヒトの四肢を表現し
た各機構ユニット230,240,250R/L,26
0R/Lと、各機構ユニット間の協調動作を実現するた
めの適応制御を行う制御ユニット280とで構成される
(ただし、R及びLの各々は、右及び左の各々を示す接
尾辞である。以下同様)。
【0036】人間型ロボット装置200全体の動作は、
制御ユニット280によって統括的に制御される。制御
ユニット280は、CPU(Central Processing Uni
t)や、DRAM、フラッシュROM等の主要回路コン
ポーネント(図示しない)で構成される主制御部281
と、電源回路や人間型ロボット装置200の各構成要素
とのデータやコマンドの授受を行うインターフェイス
(何れも図示しない)などを含んだ周辺回路282とで
構成される。
【0037】本発明を実現するうえで、この制御ユニッ
ト280の設置場所は、特に限定されない。図4では体
幹部ユニット240に搭載されているが、頭部ユニット
230に搭載してもよい。あるいは、人間型ロボット装
置200外に制御ユニット280を配備して、人間型ロ
ボット装置200の機体とは有線若しくは無線で交信す
るようにしてもよい。
【0038】図3に示した人間型ロボット装置200内
の各関節自由度は、それぞれに対応するアクチュエータ
によって実現される。すなわち、頭部ユニット230に
は、首関節ヨー軸202、首関節ピッチ203、首関節
ロール軸204の各々を表現する首関節ヨー軸アクチュ
エータA、首関節ピッチ軸アクチュエータA、首関
節ロール軸アクチュエータAが配設されている。
【0039】また、頭部ユニット230には、外部の状
況を撮像するためのCCD(ChargeCoupled Device)カ
メラが設けられているほか、前方に位置する物体までの
距離を測定するための距離センサ、外部音を集音するた
めのマイク、音声を出力するためのスピーカ、使用者か
らの「撫でる」や「叩く」といった物理的な働きかけに
より受けた圧力を検出するためのタッチセンサ等が配設
されている。
【0040】また、体幹部ユニット240には、体幹ピ
ッチ軸205、体幹ロール軸206、体幹ヨー軸207
の各々を表現する体幹ピッチ軸アクチュエータA、体
幹ロール軸アクチュエータA、体幹ヨー軸アクチュエ
ータAが配設されている。また、体幹部ユニット24
0には、この人間型ロボット装置200の起動電源とな
るバッテリを備えている。このバッテリは、充放電可能
な電池によって構成されている。
【0041】また、腕部ユニット250R/Lは、上腕
ユニット251R/Lと、肘関節ユニット252R/L
と、前腕ユニット253R/Lに細分化されるが、肩関
節ピッチ軸8、肩関節ロール軸209、上腕ヨー軸21
0、肘関節ピッチ軸211、前腕ヨー軸212、手首関
節ピッチ軸213、手首関節ロール軸214の各々表現
する肩関節ピッチ軸アクチュエータA、肩関節ロール
軸アクチュエータA、上腕ヨー軸アクチュエータA
10、肘関節ピッチ軸アクチュエータA11、肘関節ロ
ール軸アクチュエータA12、手首関節ピッチ軸アクチ
ュエータA13、手首関節ロール軸アクチュエータA
14が配備されている。
【0042】また、脚部ユニット260R/Lは、大腿
部ユニット261R/Lと、膝ユニット262R/L
と、脛部ユニット263R/Lに細分化されるが、股関
節ヨー軸216、股関節ピッチ軸217、股関節ロール
軸218、膝関節ピッチ軸219、足首関節ピッチ軸2
20、足首関節ロール軸221の各々を表現する股関節
ヨー軸アクチュエータA16、股関節ピッチ軸アクチュ
エータA17、股関節ロール軸アクチュエータA18
膝関節ピッチ軸アクチュエータA19、足首関節ピッチ
軸アクチュエータA20、足首関節ロール軸アクチュエ
ータA21が配備されている。各関節に用いられるアク
チュエータA,A・・・は、より好ましくは、ギア直
結型で旦つサーボ制御系をワンチップ化してモータ・ユ
ニット内に搭載したタイプの小型ACサーボ・アクチュ
エータで構成することができる。
【0043】頭部ユニット230、体幹部ユニット24
0、腕部ユニット250、各脚部ユニット260などの
各機構ユニット毎に、アクチュエータ駆動制御部の副制
御部235,245,255R/L,265R/Lが配
備されている。さらに、各脚部260R,Lの足底が着
床したか否かを検出する接地確認センサ291及び29
2を装着するとともに、体幹部ユニット240内には、
姿勢を計測する姿勢センサ293を装備している。
【0044】接地確認センサ291及び292は、例え
ば足底に設置された近接センサ又はマイクロ・スイッチ
などで構成される。また、姿勢センサ293は、例え
ば、加速度センサとジャイロ・センサの組み合わせによ
って構成される。
【0045】接地確認センサ291及び292の出力に
よって、歩行・走行などの動作期間中において、左右の
各脚部が現在立脚又は遊脚何れの状態であるかを判別す
ることができる。また、姿勢センサ293の出力によ
り、体幹部分の傾きや姿勢を検出することができる。
【0046】主制御部281は、各センサ291〜29
3の出力に応答して制御目標をダイナミックに補正する
ことができる。より具体的には、副制御部235,24
5,255R/L,265R/Lの各々に対して適応的
な制御を行い、人間型ロボット装置200の上肢、体
幹、及び下肢が協調して駆動する全身運動パターンを実
現できる。
【0047】人間型ロボット装置200の機体上での全
身運動は、足部運動、ZMP(ZeroMoment Point)軌
道、体幹運動、上肢運動、腰部高さなどを設定するとと
もに、これらの設定内容にしたがった動作を指示するコ
マンドを各副制御部235,245,255R/L,2
65R/Lに転送する。そして、各々の副制御部23
5,245,・・・等では、主制御部281からの受信
コマンドを解釈して、各アクチュエータA,A・・
・等に対して駆動制御信号を出力する。ここでいう「Z
MP」とは、歩行中の床反力によるモーメントがゼロと
なる床面上の点のことであり、また、「ZMP軌道」と
は、例えば人間型ロボット装置200の歩行動作期間中
にZMPが動く軌跡を意味する。
【0048】歩行時には、重力と歩行運動に伴って生じ
る加速度によって、歩行系から路面には重力と慣性力、
並びにこれらのモーメントが作用する。いわゆる「ダラ
ンベールの原理」によると、それらは路面から歩行系へ
の反作用としての床反力、床反力モーメントとバランス
する。力学的推論の帰結として、足底接地点と路面の形
成する支持多角形の辺上或いはその内側にピッチ及びロ
ール軸モーメントがゼロとなる点、すなわち「ZMP
(Zero Moment Point)」が存在する。
【0049】脚式移動ロボットの姿勢安定制御や歩行時
の転倒防止に関する提案の多くは、このZMPを歩行の
安定度判別の規範として用いたものである。ZMP規範
に基づく2足歩行パターン生成は、足底着地点を予め設
定することができ、路面形状に応じた足先の運動学的拘
束条件を考慮しやすいなどの利点がある。また、ZMP
を安定度判別規範とすることは、力ではなく軌道を運動
制御上の目標値として扱うことを意味するので、技術的
に実現可能性が高まる。なお、ZMPの概念並びにZM
Pを歩行ロボットの安定度判別規範に適用する点につい
ては、Miomir Vukobratovic著“LEGGED LOCOMOTION ROB
OTS”(加藤一郎外著『歩行ロボットと人工の足』(日
刊工業新聞社))に記載されている。
【0050】一般には、4足歩行よりもヒューマノイド
のような2足歩行のロボットの方が、重心位置が高く、
且つ、歩行時のZMP安定領域が狭い。したがって、こ
のような路面状態の変化に伴う姿勢変動の問題は、2足
歩行ロボットにおいてとりわけ重要となる。
【0051】以上のように、人間型ロボット装置200
は、各々の副制御部235,245,・・・等が、主制
御部281からの受信コマンドを解釈して、各アクチュ
エータA,A・・・に対して駆動制御信号を出力
し、各ユニットの駆動を制御している。これにより、人
間型ロボット装置200は、目標の姿勢に安定して遷移
し、安定した姿勢で歩行できる。
【0052】また、人間型ロボット装置200における
制御ユニット280では、上述したような姿勢制御のほ
かに、加速度センサ、タッチセンサ、接地確認センサ等
の各種センサ、及びCCDカメラからの画像情報、マイ
クからの音声情報等を統括して処理している。制御ユニ
ット280では、図示しないが加速度センサ、ジャイロ
・センサ、タッチセンサ、距離センサ、マイク、スピー
カなどの各種センサ、各アクチュエータ、CCDカメラ
及びバッテリが各々対応するハブを介して主制御部28
1と接続されている。
【0053】主制御部281は、上述の各センサから供
給されるセンサデータや画像データ及び音声データを順
次取り込み、これらをそれぞれ内部インターフェイスを
介してDRAM内の所定位置に順次格納する。また、主
制御部281は、バッテリから供給されるバッテリ残量
を表すバッテリ残量データを順次取り込み、これをDR
AM内の所定位置に格納する。DRAMに格納された各
センサデータ、画像データ、音声データ及びバッテリ残
量データは、主制御部281がこの人間型ロボット装置
200の動作制御を行う際に利用される。
【0054】主制御部281は、人間型ロボット装置2
00の電源が投入された初期時、制御プログラムを読み
出し、これをDRAMに格納する。また、主制御部28
1は、上述のように主制御部281よりDRAMに順次
格納される各センサデータ、画像データ、音声データ及
びバッテリ残量データに基づいて自己及び周囲の状況
や、使用者からの指示及び働きかけの有無などを判断す
る。
【0055】さらに、主制御部281は、この判断結果
及びDRAMに格納した制御プログラムに基づいて自己
の状況に応じて行動を決定するとともに、当該決定結果
に基づいて必要なアクチュエータを駆動させることによ
り人間型ロボット装置200に、いわゆる「身振り」、
「手振り」といった行動をとらせる。
【0056】したがって、人間型ロボット装置200
は、制御プログラムに基づいて自己及び周囲の状況を判
断し、使用者からの指示及び働きかけに応じて自律的に
行動できる。
【0057】また、制御ユニット280には、図5に示
すように、上述した構成のほかに外部からの働きかけに
応じた動作及び/又は飢餓感、疲労感、感情等の内部状
態に基づく自律的な動作のための動機付けを生成する内
的動機生成部101と、動機付けに基づくモダリティを
生成し統合して一連のコミュニケーション動作表現を構
成するためのモダリティ制御部102と、モダリティに
関する注釈情報(詳細は、後述する。)を格納するモダ
リティ付属情報格納部103とが備えられている。
【0058】モダリティ制御部102は、外部からの働
きかけに応じたジェスチャ及び/又は内部状態に基づく
ジェスチャを実行するための動機付けに基づいて、形状
を表すジェスチャや、「大きい」、「小さい」等の形容
的ジェスチャのためのジェスチャ・モダリティを生成す
るジェスチャ・モダリティ生成部104と、ジェスチャ
・モダリティ生成部104において生成されたモダリテ
ィの重複を解消するジェスチャ・モダリティ・コンフリ
クト解消部105と、外部からの働きかけに応じた表情
及び/又は内部状態に基づく表情を表出するための動機
付けに基づいて、表情のモダリティであるフェイシャル
・エクスプレッション・モダリティを生成するフェイシ
ャル・エクスプレッション・モダリティ生成部106
と、フェイシャル・エクスプレッション・モダリティ生
成部106において生成されたモダリティの重複を解消
するフェイシャル・エクスプレッション・モダリティ・
コンフリクト解消部107と、外部からの働きかけに応
じた単語(言語モダリティ)及び/又は内部状態に基づ
く単語(言語モダリティ)を抽出する言語ジェネレータ
108と、種々のパターンと状況に基づいて、会話のた
めの文を単語の序列として生成する言語モダリティ配列
部109と、モダリティを時系列に配列してモダリティ
・タイムラインを生成するモダリティ統合部110とを
備えている。
【0059】ジェスチャ・モダリティ生成部104及び
フェイシャル・エクスプレッション・モダリティ生成部
106では、さらに、EPL、オブジェクト、アクショ
ン、属性等のセマンティック情報及び実行時間(ET)
等の注釈をモダリティ付属情報格納部103から抽出
し、各々のモダリティに対して付加する。
【0060】ジェスチャ・モダリティ・コンフリクト解
消部105及びフェイシャル・エクスプレッション・モ
ダリティ・コンフリクト解消部107は、モダリティ・
タイムラインとしてモダリティを配置する際にモダリテ
ィ間の不調和(コンフリクト)が発生した場合に、所定
期間継続されるモダリティを中断し、表出時間のより短
いモダリティを優先させる。中断された継続モダリティ
は、他のモダリティの表出後に再開される。また、各モ
ダリティコンフリクト解消部は、重複する複数のモダリ
ティを1つに混合することによってコンフリクトを解消
する場合もある。重複する複数のモダリティの中から1
つのモダリティを選択することによってコンフリクトを
解消することもできる。
【0061】モダリティ統合部110は、各モダリティ
生成部において生成され、各モダリティコンフリクト解
消部においてモダリティ・タイムラインの調整がなされ
た各モダリティ・タイムラインと、言語ジェネレータ1
08及び言語モダリティ配列部109において生成さ
れ、単語の序列として表された言語モダリティとを統合
して1つのモダリティ・タイムラインを構成する。各モ
ダリティは、モダリティ統合部110において統合さ
れ、同一期間内に互いに同期されたコミュニケーション
動作のための信号として内部バス111を介してCPU
に送信される。
【0062】続いて、この人間型ロボット装置200
が、ジェスチャ、表情、及び言語の3つのモダリティを
に基づいてコミュニケーション動作を表出する場合につ
いて、以下に示す例を用いて具体的に説明する。
【0063】人間型ロボット装置200は、“big red
box”(「大きな赤い箱」)を見つけ、嬉しい(happy)
気分になり、その箱を見つけたことをユーザに伝えたが
っている。このとき人間型ロボット装置200の内的動
機生成部101において、例えば、印象(形(四角
形)、色(赤)、大きさ(大))、感情(嬉しい)等の
内的動機が生成される。この内的動機によって、形、
色、大きさを含む全体の印象に基づくモダリティと、感
情に基づくモダリティとが生成される。
【0064】図6に示すように、ジェスチャ・モダリテ
ィ生成部104では、内的動機に基づくジェスチャ・モ
ダリティが生成される。さらに、ジェスチャ・モダリテ
ィ生成部104は、時間軸に沿ってジェスチャに関わる
各モダリティを配置し、ジェスチャ・モダリティ・タイ
ムライン(Gesture Modality Timeline)(以下、必要
に応じて、GMTと記す。)を構成する。
【0065】図6に示すジェスチャ・モダリティ・タイ
ムラインには、“box”(「箱」)に対するモダリティ
及びEPL等のモダリティ付属情報と、“big”(「大
きい」)に対するモダリティ及びモダリティ付属情報と
が時系列に沿って示されている。
【0066】ここで、“big red box”を表現するため
の内的動機のうち、色を示す“red”(「赤」)につい
ては、ジェスチャ・モダリティは、発生しない。一般
に、ジェスチャ・モダリティ生成部104は、内的動機
生成部101において生成される動機付けの全てに関し
てモダリティを生成するわけではない。
【0067】本発明の一構成例として示す人間型ロボッ
ト装置200においては、「感情」は、顔の表情を通し
て表現されるものとする。したがって、人間型ロボット
装置200内で生じた感情は、フェイシャル・エクスプ
レッション・モダリティ生成部106において、表情の
モダリティとして生成される。フェイシャル・エクスプ
レッション・モダリティ生成部106は、図7に示すよ
うに、時間軸に沿って表情に関わるモダリティ“happ
y”(「嬉しい」)を配置し、フェイシャル・エクスプ
レッション・モダリティ・タイムライン(Facial Expre
ssion Modality Timeline)(以下、FEMTと記
す。)を構成する。
【0068】顔の表情に関しては、例えば、「眼」に相
当するLED等のライトを点滅させることによって、適
切な感情を表出する。ここでは、人間型ロボット装置2
00は、“happy”(「嬉しい」)感情を抱いたとす
る。図7に示すように、フェイシャル・エクスプレッシ
ョン・モダリティ生成部106において、「嬉しい」の
感情を表情として表出するためのFEMTが生成され
る。また、FEMTの属性として示されるフェイシャル
・エクスプレッション動作の実行時間ETは、「継続」
となっている。これは、コミュニケーション動作の間、
“happy”な状態が継続することを意味している。
【0069】言語モダリティ配列部109は、言語ジェ
ネレータ108において生成された単語から、ここで
は、“Hey! I can see a big box!”(「ねえ、大きな
箱が見えるよ!」)という言葉のシーケンスを発生す
る。
【0070】言語モダリティ配列部109は、図8に示
すように、“Hey! I can see a bigbox!”の単語の序列
を言葉の間に必要な空白期間を置きながらスペーシング
して、言語モダリティ・タイムライン(Language Modal
ity Timeline)(以下、必要に応じて、LMTと記
す。)を構成する。
【0071】以上のように生成された各モダリティ・タ
イムラインは、モダリティ統合部110において、図9
に示すように、“Hey! I can see a big box!”として
表される言語モダリティ・タイムラインに対して、「嬉
しい」を示すフェイシャル・エクスプレッション・モダ
リティ・タイムラインが対応付けされ、さらに、ジェス
チャ・モダリティ・タイムラインが対応付けされて、マ
ルチモダル・タイムライン(Multimodal Timeline)
(以下、必要に応じて、MMTと記す。)として統合さ
れる。
【0072】図9では、ジェスチャ・モダリティが重複
する期間があるが、ここでは、より高いEPLを有する
「大きい」を表現するための形容的ジェスチャが選択さ
れ、図10に示すようなマルチモダル・タイムラインと
して構成される。
【0073】ただし、モダリティの統合の際のモダリテ
ィのコンフリクトの解決方法としては、例えば、“bi
g”と“box”についてのジェスチャ・モダリティを同期
して示すこともできる。ジェスチャ・モダリティを同期
することによって、図11(a)に示すように、“bo
x”と“big”を表す元のジェスチャ自体が統合され、図
11(b)に示すように、“big box”を表現するジェ
スチャとして実行することもできる。
【0074】したがって、人間型ロボット装置200
は、モダリティ統合部110において生成されたマルチ
モダル・タイムラインに基づく動作信号によって、「嬉
しい」を示すサインとして眼を点滅し続けながら、“He
y! I can see a big box!”(「ねえ、大きな箱が見え
るよ!」)と言い、“big”(「大きい」)という言葉
が発せられるのとほぼ同時に“big”(「大きい」)を
表現するためのジェスチャを実行することによって表現
力豊かなコミュニケーション動作を行うことができる。
【0075】このほかにも、異なるモダリティを統合す
るためのより有効な方法として、また、同一のモダリテ
ィ間のコンフリクトを解決するためのより有効な方法と
して、セマンティック情報、又は自学自習法に基づく方
法を適用することができる。
【0076】モダリティを統合する際の、別の例につい
て以下に述べる。ここでは、人間型ロボット装置200
が大きな音を聞いたことにより不安になり、大きな音が
聞こえたことをユーザに伝えたがっている場合を想定し
ている。
【0077】「音の大きさ」から生成された「大きい」
という単語のように、発音の激しさや音量によって標識
付けられた単語についてのセマンティック情報に基づく
言語モダリティに対しても、他のモダリティ・タイムラ
インと統合することができる。
【0078】このとき人間型ロボット装置200におけ
る内的動機生成部101は、例えば、印象(音、音量
大)、感情(不安)等を表現するための内的動機を生成
する。すなわち、音量(VOLUME)(EPL:8,
属性:0.8,ET:0.8)を表すモダリティが音量
のモダリティ・タイムラインに配置される。
【0079】言語モダリティ配列部109は、このと
き、図12に示すように、例えば、“0h 0h l have hea
rd a loud sound!”(「わぁ、大きな音が聞こえたよ
!」)という単語列を言語モダリティ・タイムライン
(LMT)として構成する。上述の音量のモダリティ
は、モダリティ統合部110において、言語モダリティ
・タイムラインにおける“big”(「大きい」)という言
葉に同期される。
【0080】したがって、この場合、モダリティ統合部
110からのマルチモダル・タイムラインに基づく動作
信号によって、単語列を音声として生成する音声生成部
(図示しない)は、「大きい」という言葉を発するとき
のスピーチシンセサイザの音量を高めることによって、
発音を強めることができる。
【0081】またここでは、感情のモダリティは、“0h
oh”に反映され、感覚的なモダリティは、“I have he
ard a loud sound”に反映される。ここで、セマンティ
ック情報は、言語モダリティ・タイムラインを分析する
ことで誘導されるようにしてもよい。
【0082】このように、言語モダリティにおいては、
セマンティック情報及び自学自習法を使用することによ
ってにコンフリクトを解決することができ、同一の言語
モダリティ同士を適切に統合することができる。
【0083】以上のように、人間型ロボット装置200
は、モダリティの生成とその統合によって、表現能力の
全てを用いた自然で表現力豊かなコミュニケーション動
作を実行することができる。したがって、人間型ロボッ
ト装置200は、豊富なユーザインタラクションが可能
となり、エンターテインメント性が向上される。
【0084】ところで、本実施の形態として示す人間型
ロボット装置200は、内部状態に応じて自律的に行動
できるロボット装置である。人間型ロボット装置200
における制御プログラムのソフトウェア構成例につい
て、図13乃至図18に示す。この制御プログラムは、
上述したように、予めフラッシュROM12に格納され
ており、人間型ロボット装置200の電源投入初期時に
おいて読み出される。
【0085】図13において、デバイス・ドライバ・レ
イヤ30は、制御プログラムの最下位層に位置し、複数
のデバイス・ドライバからなるデバイス・ドライバ・セ
ット31から構成されている。この場合、各デバイス・
ドライバは、CCDカメラやタイマ等の通常のコンピュ
ータで用いられるハードウェアに直接アクセスすること
を許されたオブジェクトであり、対応するハードウェア
からの割り込みを受けて処理を行う。
【0086】また、ロボティック・サーバ・オブジェク
ト32は、デバイス・ドライバ・レイヤ30の最下位層
に位置し、例えば上述の各種センサやアクチュエータ2
〜25等のハードウェアにアクセスするためのイ
ンターフェイスを提供するソフトウェア群でなるバーチ
ャル・ロボット33と、電源の切換えなどを管理するソ
フトウェア群でなるパワーマネージャ34と、他の種々
のデバイス・ドライバを管理するソフトウェア群でなる
デバイス・ドライバ・マネージャ35と、人間型ロボッ
ト装置200の機構を管理するソフトウェア群でなるデ
ザインド・ロボット36とから構成されている。
【0087】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。オブジェクト・マネージャ38
は、ロボティック・サーバ・オブジェクト32、ミドル
・ウェア・レイヤ40、及びアプリケーション・レイヤ
41に含まれる各ソフトウェア群の起動や終了を管理す
るソフトウェア群であり、サービス・マネージャ39
は、メモリカードに格納されたコネクションファイルに
記述されている各オブジェクト間の接続情報に基づいて
各オブジェクトの接続を管理するソフトウェア群であ
る。
【0088】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこの人間型ロボット装置200
の基本的な機能を提供するソフトウェア群から構成され
ている。また、アプリケーション・レイヤ41は、ミド
ル・ウェア・レイヤ40の上位層に位置し、当該ミドル
・ウェア・レイヤ40を構成する各ソフトウェア群によ
って処理された処理結果に基づいて人間型ロボット装置
200の行動を決定するためのソフトウェア群から構成
されている。
【0089】なお、ミドル・ウェア・レイヤ40及びア
プリケーション・レイヤ41の具体なソフトウェア構成
をそれぞれ図14に示す。
【0090】ミドル・ウェア・レイヤ40は、図14に
示すように、騒音検出用、温度検出用、明るさ検出用、
音階認識用、距離検出用、姿勢検出用、タッチセンサ
用、動き検出用及び色認識用の各信号処理モジュール5
0〜58並びに入力セマンティクスコンバータモジュー
ル59などを有する認識系60と、出力セマンティクス
コンバータモジュール68並びに姿勢管理用、トラッキ
ング用、モーション再生用、歩行用、転倒復帰用、LE
D点灯用及び音再生用の各信号処理モジュール61〜6
7などを有する出力系69とから構成されている。
【0091】認識系60の各信号処理モジュール50〜
58は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33によりDRAMから読み出され
る各センサデータや画像データ及び音声データのうちの
対応するデータを取り込み、当該データに基づいて所定
の処理を施して、処理結果を入力セマンティクスコンバ
ータモジュール59に与える。ここで、例えば、バーチ
ャル・ロボット33は、所定の通信規約によって、信号
の授受或いは変換をする部分として構成されている。
【0092】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜58から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、使用者か
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41に出力する。
【0093】アプリケーション・レイヤ41は、図15
に示すように、行動モデルライブラリ70、行動切換え
モジュール71、学習モジュール72、感情モデル73
及び本能モデル74の5つのモジュールから構成されて
いる。
【0094】行動モデルライブラリ70には、図16に
示すように、「バッテリ残量が少なくなった場合」、
「転倒復帰する」、「障害物を回避する場合」、「感情
を表現する場合」、「ボールを検出した場合」などの予
め選択されたいくつかの条件項目にそれぞれ対応させ
て、それぞれ独立した行動モデルが設けられている。
【0095】そして、これら行動モデルは、それぞれ入
力セマンティクスコンバータモジュール59から認識結
果が与えられたときや、最後の認識結果が与えられてか
ら一定時間が経過したときなどに、必要に応じて後述の
ように感情モデル73に保持されている対応する情動の
パラメータ値や、本能モデル74に保持されている対応
する欲求のパラメータ値を参照しながら続く行動をそれ
ぞれ決定し、決定結果を行動切換えモジュール71に出
力する。
【0096】なお、この実施の形態の場合、各行動モデ
ルは、次の行動を決定する手法として、図17に示すよ
うな1つのノード(状態)NODE〜NODEから
他のどのノードNODE〜NODEに遷移するかを
各ノードNODE〜NODEに間を接続するアーク
ARC〜ARCn1に対してそれぞれ設定された遷移
確率P〜Pに基づいて確率的に決定する有限確率オ
ートマトンと呼ばれるアルゴリズムを用いる。
【0097】具体的に、各行動モデルは、それぞれ自己
の行動モデルを形成するノードNODE〜NODE
にそれぞれ対応させて、これらノードNODE〜NO
DE 毎に図18に示すような状態遷移表80を有して
いる。
【0098】この状態遷移表80では、そのノードNO
DE〜NODEにおいて遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の行に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の行における対応する列に記
述されている。
【0099】したがって、図18の状態遷移表80で表
されるノードNODE100では、「ボールを検出(B
ALL)」という認識結果が与えられた場合に、当該認
識結果とともに与えられるそのボールの「大きさ(SI
ZE)」が「0から1000」の範囲であることや、「障害
物を検出(OBSTACLE)」という認識結果が与え
られた場合に、当該認識結果とともに与えられるその障
害物までの「距離(DISTANCE)」が「0から10
0」の範囲であることが他のノードに遷移するための条
件となっている。
【0100】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデルが周期
的に参照する感情モデル73及び本能モデル74にそれ
ぞれ保持された各情動及び各欲求のパラメータ値のう
ち、感情モデル73に保持された「喜び(Joy)」、
「驚き(Surprise)」若しくは「悲しみ(Sadness)」
の何れかのパラメータ値が「50から100」の範囲である
ときには他のノードに遷移することができるようになっ
ている。
【0101】また、状態遷移表80では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の列にそ
のノードNODE〜NODEから遷移できるノード
名が列記されているとともに、「入力イベント名」、
「データ名」及び「データの範囲」の行に記述された全
ての条件が揃ったときに遷移できるほかの各ノードNO
DE〜NODEへの遷移確率が「他のノードヘの遷
移確率」の欄内の対応する箇所にそれぞれ記述され、そ
のノードNODE〜NODEに遷移する際に出力す
べき行動が「他のノードヘの遷移確率」の欄における
「出力行動」の行に記述されている。なお、「他のノー
ドヘの遷移確率」の欄における各行の確率の和は100
[%]となっている。
【0102】したがって、図18の状態遷移表80で表
されるノードNODE100では、例えば「ボールを検
出(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。
【0103】各行動モデルは、それぞれこのような状態
遷移表80として記述されたノードNODE〜 NO
DEが幾つも繋がるようにして構成されており、入力
セマンティクスコンバータモジュール59から認識結果
が与えられたときなどに、対応するノードNODE
NODEの状態遷移表を利用して確率的に次の行動を
決定し、決定結果を行動切換えモジュール71に出力す
るようになされている。
【0104】図15に示す行動切換えモジュール71
は、行動モデルライブラリ70の各行動モデルからそれ
ぞれ出力される行動のうち、予め定められた優先順位の
高い行動モデルから出力された行動を選択し、当該行動
を実行すべき旨のコマンド(以下、これを行動コマンド
という。)をミドル・ウェア・レイヤ40の出力セマン
ティクスコンバータモジュール68に送出する。なお、
この実施の形態においては、図16において下側に表記
された行動モデルほど優先順位が高く設定されている。
【0105】また、行動切換えモジュール71は、行動
完了後に出力セマンティクスコンバータモジュール68
から与えられる行動完了情報に基づいて、その行動が完
了したことを学習モジュール72、感情モデル73及び
本能モデル74に通知する。
【0106】一方、学習モジュール72は、入力セマン
ティクスコンバータモジュール59から与えられる認識
結果のうち、「叩かれた」や「撫でられた」など、使用
者からの働きかけとして受けた教示の認識結果を入力す
る。
【0107】そして、学習モジュール72は、この認識
結果及び行動切換えモジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデルの対応する
遷移確率を変更する。
【0108】他方、感情モデル73は、「喜び(Jo
y)」、「悲しみ(Sadness)」、「怒り(Anger)」、
「驚き(Surprise)」、「嫌悪(Disgust)」及び「恐
れ(Fear)」の合計6つの情動について、各情動毎にそ
の情動の強さを表すパラメータを保持している。そし
て、感情モデル73は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
59から与えられる「叩かれた」及び「撫でられた」な
どの特定の認識結果と、経過時間及び行動切換えモジュ
ール71からの通知となどに基づいて周期的に更新す
る。
【0109】具体的には、感情モデル73は、入力セマ
ンティクスコンバータモジュール59から与えられる認
識結果と、そのときの人間型ロボット装置200の行動
と、前回更新してからの経過時間となどに基づいて所定
の演算式により算出されるそのときのその情動の変動量
を△E[t]、現在のその情動のパラメータ値をE
[t]、その情動の感度を表す係数をkとして、
(1)式によって次の周期におけるその情動のパラメー
タ値E[t+1]を算出し、これを現在のその情動のパ
ラメータ値E[t]と置き換えるようにしてその情動の
パラメータ値を更新する。また、感情モデル73は、こ
れと同様にして全ての情動のパラメータ値を更新する。
【0110】
【数1】
【0111】なお、各認識結果や出力セマンティクスコ
ンバータモジュール68からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
【0112】ここで、出力セマンティクスコンバータモ
ジュール68からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル73は、このような情報によっ
ても感情を変化させる。これは、例えば、「吠える」と
いった行動により怒りの感情レベルが下がるといったよ
うなことである。なお、出力セマンティクスコンバータ
モジュール68からの通知は、上述した学習モジュール
72にも入力されており、学習モジュール72は、その
通知に基づいて行動モデルの対応する遷移確率を変更す
る。
【0113】なお、行動結果のフィードバックは、行動
切換えモジュレータ71の出力(感情が付加された行
動)によりなされるものであってもよい。
【0114】一方、本能モデル74は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求毎にその欲求の強さを表
すパラメータを保持している。そして、本能モデル74
は、これらの欲求のパラメータ値を、それぞれ入力セマ
ンティクスコンバータモジュール59から与えられる認
識結果や、経過時間及び行動切換えモジュール71から
の通知などに基づいて周期的に更新する。
【0115】具体的には、本能モデル74は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール68からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量をΔI[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kとして、所定周期で(2)式を用い
て次の周期におけるその欲求のパラメータ値I[k+
1]を算出し、この演算結果を現在のその欲求のパラメ
ータ値I[k]と置き換えるようにしてその欲求のパラ
メータ値を更新する。また、本能モデル74は、これと
同様にして「食欲」を除く各欲求のパラメータ値を更新
する。
【0116】
【数2】
【0117】なお、認識結果及び出力セマンティクスコ
ンバータモジュール68からの通知などが各欲求のパラ
メータ値の変動量△I[k]にどの程度の影響を与える
かは予め決められており、例えば出力セマンティクスコ
ンバータモジュール68からの通知は、「疲れ」のパラ
メータ値の変動量△I[k]に大きな影響を与えるよう
になっている。
【0118】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から100ま
での範囲で変動するように規制されており、また係数k
、kの値も各情動及び各欲求毎に個別に設定されて
いる。
【0119】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール68は、図14に
示すように、上述のようにしてアプリケーション・レイ
ヤ41の行動切換えモジュール71から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系69の対応する信号処理モジュール61〜67に与え
る。
【0120】そしてこれら信号処理モジュール61〜6
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動をするために対応するアクチュエー
タに与えるべきサーボ指令値や、スピーカから出力する
音の音声データ及び又は「眼」のLEDに与える駆動デ
ータを生成し、これらのデータをロボティック・サーバ
・オブジェクト32のバーチャル・ロボット33及び信
号処理回路を順次介して対応するアクチュエータ又はス
ピーカ又はLEDに順次送出する。
【0121】このようにして人間型ロボット装置200
は、上述した制御プログラムに基づいて、自己(内部)
及び周囲(外部)の状況や、使用者からの指示及び働き
かけに応じた自律的な行動ができる。
【0122】したがって、内的動機からモダリティを生
成し、これらのモダリティを統合してコミュニケーショ
ン動作を実行するという制御プログラムが予め組み込ま
れていないロボット装置であっても、新たな制御プログ
ラムを読み込ませることによって、上述の処理を実行さ
せることができる。
【0123】このような制御プログラムは、ロボット装
置が読取可能な形式で記録された記録媒体を介して提供
される。制御プログラムを記録する記録媒体としては、
磁気読取方式の記録媒体(例えば、磁気テープ、フロッ
ピー(登録商標)ディスク、磁気カード)、光学読取方
式の記録媒体(例えば、CD−ROM、MO、CD−
R、DVD)等が考えられる。記録媒体には、半導体メ
モリ(いわゆるメモリカード(矩形型、正方形型など形
状は問わない。)、ICカード)等の記憶媒体も含まれ
る。また、制御プログラムは、いわゆるインターネット
等を介して提供されてもよい。
【0124】これらの制御プログラムは、専用の読込ド
ライバ装置、又はパーソナルコンピュータ等を介して再
生され、有線又は無線接続によって人間型ロボット装置
200に伝送されて読み込まれる。また、ロボット装置
は、半導体メモリ、又はICカード等の小型化された記
憶媒体のドライブ装置を備える場合、これら記憶媒体か
ら制御プログラムを直接読み込むこともできる。
【0125】なお、本発明は、上述した実施の形態のみ
に限定されるものではなく、本発明の要旨を逸脱しない
範囲において種々の変更が可能であることは勿論であ
る。本実施の形態では、4足歩行の脚式移動ロボットに
関して説明したが、ロボット装置は、内部状態に応じて
動作するものであれば適用可能であって、移動手段は、
4足歩行、さらには脚式移動方式に限定されない。
【0126】
【発明の効果】以上詳細に説明したように本発明に係る
ロボット装置は、外部からの働きかけに応じた動作及び
/又は内部状態に基づく自律的動作を実行するための動
機付けを生成する内的動機生成手段と、内的動機生成手
段によって生成された動機付けに基づいて、外部からの
働きかけに応じた動作及び/又は内部状態に基づく自律
的動作を表出する際の様態としてのモダリティを生成す
るモダリティ生成手段と、モダリティ生成手段において
生成された動作表出の様態が重複する場合、重複による
動作の不調和を解消するモダリティ不調和解消手段と、
動作表出の様態が表出時間に応じて時系列に配置された
モダリティ・タイムラインを生成するモダリティ統合制
御手段とを備える。
【0127】このようなロボット装置は、内的動機生成
手段において生成された動機付けに基づいて動作表出の
様態としてのモダリティを生成し、モダリティ生成手段
において生成された動作表出の様態が重複する場合、モ
ダリティ不調和解消手段において重複による動作の不調
和を解消し、モダリティ統合制御手段において動作表出
の様態を時系列に配置したモダリティ・タイムラインを
生成し、外部からの働きかけに応じた動作及び/又は内
部状態に基づく自律的動作を統合して表出する。
【0128】したがって、本発明に係るロボット装置に
よれば、表現能力の全てを統合し自然で表現力豊かなコ
ミュニケーション動作が実行される。また、本発明に係
るロボット装置によれば、豊富なユーザインタラクショ
ンが可能となるため、エンターテインメント性が向上さ
れる。さらに、ロボット装置と人間(ユーザ)との間の
社会的な相互作用を向上させることができる。
【0129】また、本発明に係る動作作成装置は、外部
からの働きかけに応じた動作及び/又は内部状態に基づ
く動作を作成するための誘因を生成する誘因生成手段
と、誘因生成手段によって生成された誘因に基づいて、
外部からの働きかけに応じた動作及び/又は内部状態に
基づく動作を表出する際の様態としてのモダリティを生
成するモダリティ生成手段と、モダリティ生成手段にお
いて生成された動作表出の様態が重複する場合、重複に
よる動作の不調和を解消するモダリティ不調和解消手段
と、動作表出の様態が表出時間に応じて時系列に配置さ
れたモダリティ・タイムラインを生成するモダリティ統
合制御手段とを備える。
【0130】このような動作作成装置は、内的動機生成
手段において生成された動機付けに基づいて動作表出の
様態としてのモダリティを生成し、モダリティ生成手段
において生成された動作表出の様態が重複する場合、モ
ダリティ不調和解消手段において重複による動作の不調
和を解消し、モダリティ統合制御手段において動作表出
の様態を時系列に配置したモダリティ・タイムラインを
生成し、外部からの働きかけに応じた動作及び/又は内
部状態に基づく自律的動作を統合して表出する。
【0131】したがって、本発明に係る動作生成装置に
よれば、表現能力の全てを統合し自然で表現力豊かなコ
ミュニケーション動作が生成される。また、本発明に係
る動作生成装置によれば、豊富なユーザインタラクショ
ンが可能となるため、エンターテインメント性が向上さ
れる。さらに、本発明に係る動作作成装置をロボット装
置に適用した場合、ロボット装置と人間(ユーザ)との
間の社会的な相互作用を向上させることができる。
【0132】また、本発明に係る動作作成方法は、外部
からの働きかけに応じた動作及び/又は内部状態に基づ
く動作を作成するための誘因が生成される誘因生成工程
と、誘因生成工程において生成された誘因に基づいて、
外部からの働きかけに応じた動作及び/又は内部状態に
基づく動作を表出する際の様態としてのモダリティが生
成されるモダリティ生成工程と、モダリティ生成工程に
おいて生成された動作表出の様態が重複した場合の重複
による動作の不調和が解消されるモダリティ不調和解消
工程と、動作表出の様態が表出時間に応じて時系列に配
置されたモダリティ・タイムラインが生成されるモダリ
ティ統合制御工程とを備える。
【0133】このような動作作成方法によれば、内的動
機生成工程において生成された動機付けに基づいて動作
表出の様態としてのモダリティが生成され、モダリティ
生成工程において生成された動作表出の様態が重複する
場合、モダリティ不調和解消工程において重複による動
作の不調和が解消され、モダリティ統合制御工程におい
て動作表出の様態を時系列に配置したモダリティ・タイ
ムラインが生成され、外部からの働きかけに応じた動作
及び/又は内部状態に基づく動作が統合される。
【0134】したがって、本発明に係る動作生成方法に
よれば、表現能力の全てを統合し自然で表現力豊かなコ
ミュニケーション動作が生成される。また、本発明に係
る動作生成方法によって生成される動作では、豊富なユ
ーザインタラクションが可能となるため、本発明に係る
動作生成方法をロボット装置の動作表出に適用した場
合、エンターテインメント性が向上され、ロボット装置
と人間(ユーザ)との間の社会的な相互作用を向上させ
ることができる。
【0135】また、本発明に係るロボット装置の制御プ
ログラムは、外部からの働きかけに応じた動作及び/又
は内部状態に基づく自律的動作を実行するための動機付
けを生成する内的動機生成処理と、内的動機生成処理に
よって生成された動機付けに基づいて、外部からの働き
かけに応じた動作及び/又は内部状態に基づく自律的動
作を表出する際の様態としてのモダリティを生成するモ
ダリティ生成処理と、モダリティ生成処理によって生成
された動作表出の様態が重複する場合、重複による動作
の不調和を解消するモダリティ不調和解消処理と、動作
表出の様態が表出時間に応じて時系列に配置されたモダ
リティ・タイムラインを生成するモダリティ統合制御処
理とを実行させる。また、本発明に係る制御プログラム
を記録媒体に記録して提供する。
【0136】このような制御プログラムは、ロボット装
置に対して、内的動機生成処理によって生成された動機
付けに基づいて動作表出の様態としてのモダリティを生
成させ、モダリティ生成処理において生成された動作表
出の様態が重複する場合、モダリティ不調和解消処理に
おいて重複による動作の不調和を解消させ、モダリティ
統合制御処理において動作表出の様態を時系列に配置し
たモダリティ・タイムラインを生成させ、外部からの働
きかけに応じた動作及び/又は内部状態に基づく自律的
動作を統合して表出することを実行させる。
【0137】したがって、本発明に係る制御プログラム
をロボット装置の制御に適用した場合、ロボット装置に
対して、表現能力の全てを統合し自然で表現力豊かなコ
ミュニケーション動作の表出を可能にする。また、本発
明に係る制御プログラムによって生成される動作では、
豊富なユーザインタラクションが可能となるため、本発
明に係る制御プログラムをロボット装置の動作制御に適
用した場合、エンターテインメント性が向上され、ロボ
ット装置と人間(ユーザ)との間の社会的な相互作用を
向上させることができる。
【0138】また、本発明に係る制御プログラムを記録
媒体に記録して提供すれば、このような制御プログラム
を予め備えていないロボット装置であっても、表現能力
の全てを統合し自然で表現力豊かなコミュニケーション
動作を表出できるようになる。また、本発明に係る制御
プログラムをロボット装置に読み込ませることによっ
て、豊富なユーザインタラクションが可能となり、ロボ
ット装置のエンターテインメント性が向上される。さら
に、ロボット装置と人間(ユーザ)との間の社会的な相
互作用を向上させることができる。
【図面の簡単な説明】
【図1】本発明の一構成例として示す人間型ロボット装
置の前方からみた外観を説明する外観図である。
【図2】本発明の一構成例として示す人間型ロボット装
置の後方からみた外観を説明する外観図である。
【図3】本発明の一構成例として示す人間型ロボット装
置の自由度構成モデルを模式的に示す図である。
【図4】本発明の一構成例として示す人間型ロボット装
置の制御システム構成を説明する図である。
【図5】本発明の一構成例として示す人間型ロボット装
置の制御ユニットの一部を詳細に説明する構成図であ
る。
【図6】本発明の一構成例として示す人間型ロボット装
置のジェスチャ・モダリティ生成部において構成される
ジェスチャ・モダリティ・タイムラインを説明する図で
ある。
【図7】本発明の一構成例として示す人間型ロボット装
置のフェイシャル・エクスプレッション・モダリティ生
成部において構成されるフェイシャル・エクスプレッシ
ョン・モダリティ・タイムラインを説明する図である。
【図8】本発明の一構成例として示す人間型ロボット装
置の言語モダリティ配列部において構成される言語モダ
リティを説明する図である。
【図9】本発明の一構成例として示す人間型ロボット装
置のモダリティ統合部において構成されるマルチモダル
・タイムラインを説明する図である。
【図10】本発明の一構成例として示す人間型ロボット
装置のモダリティ統合部において構成されるマルチモダ
ル・タイムラインを説明する図である。
【図11】図11(a)は、本発明の一構成例として示
す人間型ロボット装置が行う“box”と“big”それぞれ
のジェスチャを説明する図であり、図11(b)は、
“box”と“big”のジェスチャを統合した“big box”
のジェスチャを説明する図である。
【図12】本発明の一構成例として示す人間型ロボット
装置の言語モダリティ配列部において構成される言語モ
ダリティを説明する図である。
【図13】本発明の一構成例として示すロボット装置の
制御プログラムのソフトウェア構成を示す構成図であ
る。
【図14】本発明の一構成例として示すロボット装置の
制御プログラムのうち、ミドル・ウェア・レイヤの構成
を示す構成図である。
【図15】本発明の一構成例として示すロボット装置の
制御プログラムのうち、アプリケーション・レイヤの構
成を示す構成図である。
【図16】本発明の一構成例として示すロボット装置の
制御プログラムのうち、行動モデルライブラリの構成を
示す構成図である。
【図17】本発明の一構成例として示すロボット装置の
行動を決定するためのアルゴリズムである有限確率オー
トマトンを説明する模式図である。
【図18】本発明の一構成例として示すロボット装置の
行動を決定するための状態遷移条件を表す図である。
【符号の説明】
101 内的動機生成部、102 モダリティ制御部、
103 モダリティ付属情報格納部、104 ジェスチ
ャ・モダリティ生成部、105 ジェスチャ・モダリテ
ィ・コンフリクト解消部、106 フェイシャル・エク
スプレッション・モダリティ生成部、107 フェイシ
ャル・エクスプレッション・モダリティ・コンフリクト
解消部、108 言語ジェネレータ、109 言語モダ
リティ配列部、110 モダリティ統合部、111 内
部バス、200 人間型ロボット装置
───────────────────────────────────────────────────── フロントページの続き (72)発明者 大久保 厚志 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 ガブリエル コスタ 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 下村 秀樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 3C007 AS36 CS08 MT14 WA03 WB16 WB19 WB21 WB24 WB25 WB27 WC07 5D015 KK01 KK02 KK04

Claims (26)

    【特許請求の範囲】
  1. 【請求項1】 外部からの働きかけに応じた動作及び/
    又は内部状態に基づく自律的動作を実行するロボット装
    置において、 上記外部からの働きかけに応じた動作及び/又は内部状
    態に基づく自律的動作を実行するための動機付けを生成
    する内的動機生成手段と、 上記内的動機生成手段によって生成された動機付けに基
    づいて、上記外部からの働きかけに応じた動作及び/又
    は内部状態に基づく自律的動作を表出する際の様態とし
    てのモダリティを生成するモダリティ生成手段と、 上記モダリティ生成手段において生成された上記動作表
    出の様態が重複する場合、重複による動作の不調和を解
    消するモダリティ不調和解消手段と、 上記動作表出の様態が表出時間に応じて時系列に配置さ
    れたモダリティ・タイムラインを生成するモダリティ統
    合制御手段とを備えることを特徴とするロボット装置。
  2. 【請求項2】 複数個のモダリティ生成手段と上記複数
    個のモダリティ生成手段に対応する数のモダリティ不調
    和解消手段とを備え、上記モダリティ統合制御手段は、
    上記複数個のモダリティ生成手段の各々において生成さ
    れ、上記モダリティ不調和解消手段において不調和が解
    消された動作表出の様態の各々を統合してモダリティ・
    タイムラインに配置することを特徴とする請求項1記載
    のロボット装置。
  3. 【請求項3】 上記モダリティ不調和解消手段は、上記
    モダリティ生成手段において動作表出の様態が重複した
    場合、複数の様態を1つに混合することによって不調和
    を解消することを特徴とする請求項1記載のロボット装
    置。
  4. 【請求項4】 上記モダリティ不調和解消手段は、上記
    モダリティ生成手段において動作表出の様態が重複した
    場合、複数の様態の中から1つのモダリティを選択する
    ことによって不調和を解消することを特徴とする請求項
    1記載のロボット装置。
  5. 【請求項5】 外部からの問いかけに対する応答及び/
    又は内部状態に基づいた発話を生成する会話生成手段を
    備え、上記モダリティ統合制御手段は、上記会話生成手
    段において生成された単語の序列をモダリティ・タイム
    ラインに配置することを特徴とする請求項1記載のロボ
    ット装置。
  6. 【請求項6】 上記モダリティ・タイムラインに配置さ
    れた複数の動作表出の様態は、同一期間内に互いに同期
    された動作として表出されることを特徴とする請求項2
    記載のロボット装置。
  7. 【請求項7】 上記外部からの働きかけに応じた身振り
    及び/又は内部状態に基づく身振りを実行するための動
    機付けに基づいて、上記身振りの様態としてのジェスチ
    ャ・モダリティを生成するジェスチャ・モダリティ生成
    手段と、上記外部からの働きかけに応じた表情及び/又
    は内部状態に基づく表情を表出するための動機付けに基
    づいて、上記表情の様態としてのフェイシャル・エクス
    プレッション・モダリティを生成するフェイシャル・エ
    クスプレッション・モダリティ生成手段とを備えること
    を特徴とする請求項2記載のロボット装置。
  8. 【請求項8】 上記ジェスチャ・モダリティ生成手段
    は、上記会話生成手段において生成された会話文脈中の
    形容詞を表現するための身振りを生成することを特徴と
    する請求項7記載のロボット装置。
  9. 【請求項9】 外部からの働きかけに応じた動作及び/
    又は内部状態に基づく動作を作成する動作作成装置にお
    いて、 上記外部からの働きかけに応じた動作及び/又は内部状
    態に基づく動作を作成するための誘因を生成する誘因生
    成手段と、 上記誘因生成手段によって生成された誘因に基づいて、
    上記外部からの働きかけに応じた動作及び/又は内部状
    態に基づく動作を表出する際の様態としてのモダリティ
    を生成するモダリティ生成手段と、 上記モダリティ生成手段において生成された上記動作表
    出の様態が重複する場合、重複による動作の不調和を解
    消するモダリティ不調和解消手段と、 上記動作表出の様態が表出時間に応じて時系列に配置さ
    れたモダリティ・タイムラインを生成するモダリティ統
    合制御手段とを備えることを特徴とする動作作成装置。
  10. 【請求項10】 複数個のモダリティ生成手段と上記複
    数個のモダリティ生成手段に対応する数のモダリティ不
    調和解消手段とを備え、上記モダリティ統合制御手段
    は、上記複数個のモダリティ生成手段の各々において生
    成され、上記モダリティ不調和解消手段において不調和
    が解消された動作表出の様態の各々を統合してモダリテ
    ィ・タイムラインに配置することを特徴とする請求項9
    記載の動作作成装置。
  11. 【請求項11】 上記モダリティ不調和解消手段は、上
    記モダリティ生成手段において動作表出の様態が重複し
    た場合、複数の様態を1つに混合することによって不調
    和を解消することを特徴とする請求項9記載の動作作成
    装置。
  12. 【請求項12】 上記モダリティ不調和解消手段は、上
    記モダリティ生成手段において動作表出の様態が重複し
    た場合、複数の様態の中から1つのモダリティを選択す
    ることによって不調和を解消することを特徴とする請求
    項9記載の動作作成装置。
  13. 【請求項13】 外部からの問いかけに対する応答及び
    /又は内部状態に基づいた発話を生成する会話生成手段
    を備え、上記モダリティ統合制御手段は、上記会話生成
    手段において生成された単語の序列をモダリティ・タイ
    ムラインに配置することを特徴とする請求項9記載の動
    作作成装置。
  14. 【請求項14】 上記モダリティ・タイムラインに配置
    された複数の動作表出の様態は、同一期間内に互いに同
    期された動作として表出されることを特徴とする請求項
    10記載の動作作成装置。
  15. 【請求項15】 上記外部からの働きかけに応じた身振
    り及び/又は内部状態に基づく身振りを実行するための
    誘因に基づいて、上記身振りの様態としてのジェスチャ
    ・モダリティを生成するジェスチャ・モダリティ生成手
    段と、上記外部からの働きかけに応じた表情及び/又は
    内部状態に基づく表情を表出するための誘因に基づい
    て、上記表情の様態としてのフェイシャル・エクスプレ
    ッション・モダリティを生成するフェイシャル・エクス
    プレッション・モダリティ生成手段とを備えることを特
    徴とする請求項10記載の動作作成装置。
  16. 【請求項16】 上記ジェスチャ・モダリティ生成手段
    は、上記会話生成手段において生成された会話文脈中の
    形容詞を表現するための身振りを生成することを特徴と
    する請求項15記載の動作作成装置。
  17. 【請求項17】 外部からの働きかけに応じた動作及び
    /又は内部状態に基づく動作を作成する動作作成方法に
    おいて、 上記外部からの働きかけに応じた動作及び/又は内部状
    態に基づく動作を作成するための誘因が生成される誘因
    生成工程と、 上記誘因生成工程において生成された誘因に基づいて、
    上記外部からの働きかけに応じた動作及び/又は内部状
    態に基づく動作を表出する際の様態としてのモダリティ
    が生成されるモダリティ生成工程と、 上記モダリティ生成工程において生成された上記動作表
    出の様態が重複した場合の重複による動作の不調和が解
    消されるモダリティ不調和解消工程と、 上記動作表出の様態が表出時間に応じて時系列に配置さ
    れたモダリティ・タイムラインが生成されるモダリティ
    統合制御工程とを備えることを特徴とする動作作成方
    法。
  18. 【請求項18】 複数の独立したモダリティ生成工程と
    上記複数の独立したモダリティ生成工程に対応するモダ
    リティ不調和解消工程とを備え、上記モダリティ統合制
    御工程では、上記複数の独立したモダリティ生成工程の
    各々において生成され、上記モダリティ不調和解消工程
    において不調和が解消された動作表出の様態の各々が統
    合されてモダリティ・タイムラインに配置されることを
    特徴とする請求項17記載の動作作成方法。
  19. 【請求項19】 上記モダリティ不調和解消工程では、
    上記モダリティ生成工程において動作表出の様態が重複
    した場合、複数の様態が1つに混合されることによって
    不調和が解消されることを特徴とする請求項17記載の
    動作作成方法。
  20. 【請求項20】 上記モダリティ不調和解消工程では、
    上記モダリティ生成工程において動作表出の様態が重複
    した場合、複数の様態の中から1つのモダリティが選択
    されることによって不調和が解消されることを特徴とす
    る請求項17記載の動作作成方法。
  21. 【請求項21】 外部からの問いかけに対する応答及び
    /又は内部状態に基づいた発話を生成する会話生成工程
    を備え、上記モダリティ統合制御工程では、上記会話生
    成工程において生成された単語の序列がモダリティ・タ
    イムラインに配置されることを特徴とする請求項17記
    載の動作作成方法。
  22. 【請求項22】 上記モダリティ・タイムラインに配置
    された複数の動作表出の様態は、同一期間内に互いに同
    期された動作として表出されることを特徴とする請求項
    18記載の動作作成方法。
  23. 【請求項23】 上記外部からの働きかけに応じた身振
    り及び/又は内部状態に基づく身振りを実行するための
    誘因に基づいて、上記身振りの様態としてのジェスチャ
    ・モダリティが生成されるジェスチャ・モダリティ生成
    工程と、上記外部からの働きかけに応じた表情及び/又
    は内部状態に基づく表情を表出するための誘因に基づい
    て、上記表情の様態としてのフェイシャル・エクスプレ
    ッション・モダリティが生成されるフェイシャル・エク
    スプレッション・モダリティ生成工程とを備えることを
    特徴とする請求項18記載の動作作成方法。
  24. 【請求項24】 上記ジェスチャ・モダリティ生成工程
    では、上記会話生成工程において生成された会話文脈中
    の形容詞を表現するための身振りが生成されることを特
    徴とする請求項23記載の動作作成方法。
  25. 【請求項25】 外部からの働きかけに応じた動作及び
    /又は内部状態に基づく自律的動作を実行するロボット
    装置を制御する制御プログラムにおいて、 上記外部からの働きかけに応じた動作及び/又は内部状
    態に基づく自律的動作を実行するための動機付けを生成
    する内的動機生成処理と、 上記内的動機生成処理によって生成された動機付けに基
    づいて、上記外部からの働きかけに応じた動作及び/又
    は内部状態に基づく自律的動作を表出する際の様態とし
    てのモダリティを生成するモダリティ生成処理と、 上記モダリティ生成処理によって生成された上記動作表
    出の様態が重複する場合、重複による動作の不調和を解
    消するモダリティ不調和解消処理と、 上記動作表出の様態が表出時間に応じて時系列に配置さ
    れたモダリティ・タイムラインを生成するモダリティ統
    合制御処理とを実行させることを特徴とする制御プログ
    ラム。
  26. 【請求項26】 外部からの働きかけに応じた動作及び
    /又は内部状態に基づく自律的動作を実行するための動
    機付けを生成する内的動機生成処理と、 上記内的動機生成処理によって生成された動機付けに基
    づいて、上記外部からの働きかけに応じた動作及び/又
    は内部状態に基づく自律的動作を表出する際の様態とし
    てのモダリティを生成するモダリティ生成処理と、 上記モダリティ生成処理によって生成された上記動作表
    出の様態が重複する場合、重複による動作の不調和を解
    消するモダリティ不調和解消処理と、 上記動作表出の様態が表出時間に応じて時系列に配置さ
    れたモダリティ・タイムラインを生成するモダリティ統
    合制御処理とをロボット装置に実行させる制御プログラ
    ムが記録された記録媒体。
JP2001135422A 2001-05-02 2001-05-02 ロボット装置、動作作成装置及び動作作成方法、並びに、制御プログラム及び記録媒体 Pending JP2002331481A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001135422A JP2002331481A (ja) 2001-05-02 2001-05-02 ロボット装置、動作作成装置及び動作作成方法、並びに、制御プログラム及び記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001135422A JP2002331481A (ja) 2001-05-02 2001-05-02 ロボット装置、動作作成装置及び動作作成方法、並びに、制御プログラム及び記録媒体

Publications (1)

Publication Number Publication Date
JP2002331481A true JP2002331481A (ja) 2002-11-19

Family

ID=18982890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001135422A Pending JP2002331481A (ja) 2001-05-02 2001-05-02 ロボット装置、動作作成装置及び動作作成方法、並びに、制御プログラム及び記録媒体

Country Status (1)

Country Link
JP (1) JP2002331481A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106527222A (zh) * 2016-10-25 2017-03-22 北京光年无限科技有限公司 一种用于机器人的输出控制方法及机器人
JPWO2019160100A1 (ja) * 2018-02-16 2021-02-04 日本電信電話株式会社 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
JPWO2019160105A1 (ja) * 2018-02-16 2021-02-04 日本電信電話株式会社 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6224988A (ja) * 1985-07-23 1987-02-02 志井田 孝 感情をもつロボツト

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6224988A (ja) * 1985-07-23 1987-02-02 志井田 孝 感情をもつロボツト

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106527222A (zh) * 2016-10-25 2017-03-22 北京光年无限科技有限公司 一种用于机器人的输出控制方法及机器人
CN106527222B (zh) * 2016-10-25 2019-08-02 北京光年无限科技有限公司 一种用于机器人的输出控制方法及机器人
JPWO2019160100A1 (ja) * 2018-02-16 2021-02-04 日本電信電話株式会社 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
JPWO2019160105A1 (ja) * 2018-02-16 2021-02-04 日本電信電話株式会社 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
JP7157340B2 (ja) 2018-02-16 2022-10-20 日本電信電話株式会社 非言語情報生成装置、非言語情報生成モデル学習装置、方法、及びプログラム
JP7280512B2 (ja) 2018-02-16 2023-05-24 日本電信電話株式会社 非言語情報生成装置及びプログラム

Similar Documents

Publication Publication Date Title
JP3714268B2 (ja) ロボット装置
US6493606B2 (en) Articulated robot and method of controlling the motion of the same
US8145492B2 (en) Robot behavior control system and method, and robot apparatus
US7251606B2 (en) Robot device with changing dialogue and control method therefor and storage medium
JP2001322079A (ja) 脚式移動ロボット及びその動作教示方法
JP4239635B2 (ja) ロボット装置、その動作制御方法、及びプログラム
KR20030007841A (ko) 각식 이동 로봇 및 그 운동교시 방법, 및 기억매체
JP2002283259A (ja) ロボット装置のための動作教示装置及び動作教示方法、並びに記憶媒体
JP4179230B2 (ja) ロボット装置及びその動作制御方法
JP2006110707A (ja) ロボット装置
JP2004302644A (ja) 顔識別装置、顔識別方法、記録媒体、及びロボット装置
JP3925140B2 (ja) 情報提供方法及び情報提供装置、並びにコンピュータ・プログラム
JP2004298975A (ja) ロボット装置、障害物探索方法
JP2003271958A (ja) 画像処理方法、その装置、そのプログラム、その記録媒体及び画像処理装置搭載型ロボット装置
JP2002331481A (ja) ロボット装置、動作作成装置及び動作作成方法、並びに、制御プログラム及び記録媒体
JP2004302645A (ja) 顔登録装置、顔登録方法、記録媒体、及びロボット装置
JP2003266348A (ja) ロボット装置及びその制御方法
JP2003136439A (ja) ロボット装置及びロボット装置の歩行制御方法並びにロボット装置の歩行制御プログラム
JP2003266350A (ja) ロボット装置及び内部状態表出装置
JP2003044080A (ja) ロボット装置、文字認識装置及び文字認識方法、並びに、制御プログラム及び記録媒体
JP3961892B2 (ja) ロボット装置および緩衝装置
JP2001157980A (ja) ロボット装置及びその制御方法
JP4506249B2 (ja) ロボット装置及びその動作比較方法
JP2003269579A (ja) 動力伝達装置及びロボット装置
JP2004299006A (ja) ロボット装置及びロボット装置による顔認識状況の提示方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110705