JP2002160185A - ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法 - Google Patents

ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法

Info

Publication number
JP2002160185A
JP2002160185A JP2001103855A JP2001103855A JP2002160185A JP 2002160185 A JP2002160185 A JP 2002160185A JP 2001103855 A JP2001103855 A JP 2001103855A JP 2001103855 A JP2001103855 A JP 2001103855A JP 2002160185 A JP2002160185 A JP 2002160185A
Authority
JP
Japan
Prior art keywords
information
learning
action
input
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001103855A
Other languages
English (en)
Inventor
Masahiro Fujita
雅博 藤田
Takeshi Takagi
剛 高木
Rika Hasegawa
里香 長谷川
Osamu Hanagata
理 花形
Jun Yokono
順 横野
Gabriel Costa
コスタ ガブリエル
Hideki Shimomura
秀樹 下村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001103855A priority Critical patent/JP2002160185A/ja
Publication of JP2002160185A publication Critical patent/JP2002160185A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 音声信号等の入力信号に結びつけて行動を学
習する。 【解決手段】 ロボット装置1は、接触を検出するタッ
チセンサによる接触検出と同時又は時間的前後に入力さ
れた情報を検出する音声認識部101と、接触に応じて
出現した行動と、音声認識部101が検出した入力情報
(音声信号)とを結びつけて記憶する連想想起記憶部1
04と、新たに得られた入力情報(音声信号)に基づい
て、連想想起記憶部104により連想された行動をする
ように制御をする行動生成部105とを備える。そし
て、センサ処理部102は、タッチセンサによる接触検
出に応じて行動を出現させる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ロボット装置、ロ
ボット装置の行動を制御するロボット装置の行動制御方
法並びに外力を検出する外力検出装置及び外力検出方法
に関する。
【0002】
【従来の技術】従来、知識獲得或いは言語獲得と呼ばれ
る分野においては、主に視覚情報と聴覚情報の連想記憶
を基本とするものであった。
【0003】「LEARNING WORDS FROM NATURAL AUDIO-VI
SUAL INPUT」(Deb Roy, Alex Pentland)(以下、文献
1という。)では、入力音声と入力画像から言語を学習
する研究を行っている。この文献1での学習手法は、概
略は次のようなものである。
【0004】画像信号と音声信号(音響信号)とを同時
或いは時間を前後して学習システムに入力させる。文献
1では、このように同時或いは時間を前後して入力され
た画像と音声のペアのイベント(Event)をAVイベン
ト(AV‐Event)と呼んでいる。
【0005】このように入力された画像信号及び音声信
号について、画像処理により画像信号から色と形を検出
し、一方で、音声処理により音声信号から音声区間検出
(リカレントニューラルネット)及び音韻分析を行う。
具体的には、画像特徴空間における特徴(距離等)から
入力された画像を各クラス(特定画像を認識するための
クラス、認識クラス。)に分類する一方、音特徴空間に
おける特徴(距離等)から入力された音を各クラス(特
定の音を認識するためのクラス、認識クラス。)に分類
する。特徴空間は、図1に示すように、複数の要素によ
って構成される空間であり、例えば、画像信号であれ
ば、色差信号や輝度信号を要素とした2次元或いはそれ
以上の多次元空間として構成されている。そして、入力
された画像はそのような特徴空間において所定の分布を
示すことから、そのような分布に基づいて色の認識が可
能になる。例えば、このような特徴空間において、距離
関係からクラス分類して、色を認識する。
【0006】例えば、音の認識では、連続認識HMM
(Hidden Markov Model)法を採用する。連続認識HM
M法(以下、単にHMMという。)は、音声信号を音韻
系列として認識可能とするものである。また、上述のリ
カレントニューラルネットとは、信号が入力層側へ戻る
ような流れのニューラルネットワークである。
【0007】そして、同時発生に関する相関(相関学
習)をもとに、画像処理でクラス分類される刺激(画
像)に対してクラス分類された音韻を結びつけ(関連づ
け)、学習を行っている。すなわち、画像で示されたも
のの名前や形容を学習結果として獲得している。
【0008】例えば、上述のような学習によれば、図2
に示すように、画像情報からなる「赤いもの」、「青い
もの」、・・・等に分類されている画像クラスにより入
力画像が特定(認識)され、また、音情報からなる“a
−ka”、“a−o”,“ki”、・・・等に分類され
ているクラスにより入力音声が特定(認識)される。
【0009】そして、そのようなクラス分類された画像
や音声が相関学習により関連づけされる。これにより、
“赤色のもの”が画像入力された場合には、その相関学
習の結果として、学習システム200は、“a−ka”
の音韻系列を出力することができる。
【0010】
【発明が解決しようとする課題】ところで、近年、周囲
の環境(外的要因)や内部状態(内的要因、例えば、感
情、本能等の状態)に応じて自律的に行動するロボット
装置が提案されている。このようなロボット装置は、人
間或いは環境とインタラクション(対話)をするような
ものとして構成されている。例えば、ロボット装置とし
て、動物に模した形状及び動物のような仕草をする、い
わゆるペットロボット等が提案されている。
【0011】例えば、このようなロボット装置において
は、種々の情報を学習させることはその娯楽性の向上に
繋がる。特に、行動を学習させることができれば、娯楽
性は高まると言える。
【0012】しかし、上述した学習手法(文献1)を、
行動を引き起こすことを目的として構成されているロボ
ット装置に応用する場合、以下のような問題が生じる。
【0013】先ず、上述したような学習手法では、行動
を引き起こすことを適切に設定されていない。
【0014】上述の文献1では、発話は、入力信号に対
する記憶した単語を発生するか、或いは新規な信号と判
断されれば、適当な音韻の系列を発生させて出力してい
る。しかし、ロボット装置には、人間或いは環境とのイ
ンタラクション(対話)として、入力信号をそのまま表
現する出力(発話)が求められるわけではなく、入力に
対して適切な行動が引き起こされることが要求されてい
る。
【0015】また、画像特徴空間及び音特徴空間での距
離関係をもとにクラス分類する場合、取得した画像及び
音声については、画像特徴空間及び音特徴空間で近い情
報となるが、それに対する行動が異なる場合、或いはそ
れに対する行動を異ならせたい場合も想定される。この
ような場合、最適な行動がなされるようにクラス分類に
反映しなければならない。しかし、従来の手法はこのよ
うな状況に対処できるものではない。
【0016】また、従来の知識獲得或いは言語獲得は主
として次のような事柄から構成されている。 (1).画像信号のクラス分類と新しいクラスを生成す
る手段。 (2).音響信号のクラス分類と新しいクラスを生成す
る手段。 (3).項目(1)と項目(2)との結果を結びつける
手段。或いは画像と音とを相関学習する手段。
【0017】もちろん、これ以外の機能が付加されてい
るものもある。しかし、少なくともこの3つが構成要素
となっている。
【0018】この項目(1)及び項目(2)のクラス分
類の手法としては、特徴空間へのマッピング、意味のあ
る信号に対する先見的知識を用いたパラメトリックな識
別法、確率的なクラス分類結果など様様な手法が存在す
る。
【0019】画像については、例えば、色空間において
赤色、青色、緑色、黄色などの色テンプレートにおける
閾値を制御することで行ったり、提示される色刺激に対
して既にある色の記憶領域と入力色の特徴空間での距離
より、各色としての確率を求めるなど、一般的な画像認
識手法を用いることができる。例えば、図1に示すよう
な特徴空間においてある特徴量として既にクラス分類さ
れている領域に対して、入力された画像の特徴量が示す
領域の距離から、そのようなクラスである確率を求める
ようにである。また、ニューラルネットなどの手法も有
効である。
【0020】一方、音声については、音韻検出、HMM
による入力された音韻系列と記憶されている音韻系列と
を比較し、それに基づいた確率的単語認識などが用いら
れる。
【0021】また、上記項目(1)、項目(2)の新し
いクラスを生成する手段としては、次のようなものがあ
る。
【0022】入力信号に対し、既存のクラスに所属する
かどうかの評価をし、既存のクラスに所属すると判断す
れば、その入力信号をそのクラスに所属させ、クラス所
属の評価方法に反映させたりする。もし、既存のどのク
ラスにも所属しないと判断されれば、新しいクラスを生
成し、そのクラス所属の評価はその入力刺激をもとに行
うように学習を行う。
【0023】例えば、新しいクラスの生成としては、画
像クラスについて既存のクラス(画像Aのクラス、画像
Bのクラス、・・・)に所属しないと判断した場合、図
3中(A)に示すように、いまあるクラス(例えば、画
像Aのクラス)を分割して新たな画像のクラスを生成
し、或いは音クラスについては、既存のクラス(音αの
クラス、音βのクラス、・・・)に所属しないと判断し
た場合、図3中(B)に示すように、いまあるクラス
(音βのクラス)を分割して新たな音のクラスを生成す
る。
【0024】また、上記項目(3)の画像と音のクラス
を結びつける手法には、例えば連想記憶等がある。
【0025】画像の識別クラスをベクトル(以下、画像
識別ベクトルという。)IC[i](i=0,1,・・
・,NIC−1)、音の識別クラスのベクトル(以下、音
識別ベクトルという。)SC[j](j=0,1,・・
・,NSC−1)とする。提示(学習のために入力)され
た画像と音信号に対して、各認識クラスの確率或いは評
価結果値をそれぞれのベクトル値に設定する。
【0026】自己想起型の連想記憶では、画像識別ベク
トルICと音識別ベクトルSCとを、(1)式及び
(2)式で示すことができる1つのベクトルとする。
【0027】
【数1】
【0028】
【数2】
【0029】なお、自己想起型の連想記憶としては、ホ
ップフィールドの提唱するいわゆるホップフィールドネ
ットが有名である。
【0030】各ベクトルは、次のように1つのベクトル
になされる。今、ベクトルCVを列ベクトルとすると自
己想起型の連想記憶は、(3)式のdelta_Wというマト
リクスを現状の記憶しているマトリクスWに足すことで
なされる。
【0031】
【数3】
【0032】これにより、画像刺激(入力された画像)
をあるクラスとみなし、そのクラスに音声認識結果の単
語(これは例えばHMMのクラス)と結びつけることが
可能となる。新しい画像(例えば赤)を提示し、音声
“a−ka”を入力することにより、画像刺激の赤色に
各クラスが特徴空間上の刺激度或いは距離によって適当
な大きさを示し、同様に音声“a−ka”という音韻系
列に各クラスが適当な大きさで反応するが、それらを上
記の式で相関行列として扱い、統計的に平均化すること
によって、同じ刺激には同じ画像と音声のクラスが高い
値を示すため、高い相関を示すことになる。これによ
り、画像として赤色を提示すれば、“a−ka”という
HMMのクラスが連想記憶される。
【0033】一方、「Perceptually grounded meaning
creation」(Luc Steels, ICMAS, Kyoto 1996)(以
下、文献2という。)では、ディスクリミネーションゲ
ーム(Discrimination Game)と呼ぶ実験で意味獲得を
行っている。ディスクリミネーションゲームは概略とし
て次のようなものである。
【0034】システムは、上述のように画像と音響とは
限らずに一般的なセンサチャンネルと特微量検出器とを
複数して構成されている。そして、それらの特微量検出
器により、エージェント(agent)とよぶ物(例えば、
ソフトウェアにより構成)が、提示されたオブジェクト
(object)に対し、他のオブジェクト(既に認知してい
るオブジェクト)とを区別しようと試み、例えば、特徴
量に基づいて区別化を図ろうとし、もし区別できる特徴
量がなければ、その新たに提示されたオブジェクトに対
応される新しい特微量検出器を作り出していくというも
のである。そして、区別できる特徴量をもっていない場
合、すなわち対応する特徴量検出器を持ってない場合は
負け、持っていれば勝ちといった評価をしていく。
【0035】そして、システム全体は、セレクショニス
トの原理により動作する。すなわち、ゲームに勝てば生
き残る確率をあげ、負ければ新しい特徴量検出器を作り
出す。ただし、その新しい特徴量検出器は次回のゲーム
で使われ、正しい結果を出すかどうかはわからない。こ
のような動作により、区別をより良くするエージェント
が生き残るようになる。
【0036】以上がディスクリミネーションゲームの概
略であり、このようなディスクリミネーションゲーム
は、換言すれば、選択淘汰により、よりよい特微量検出
器を作り出す手法とみることもできる。
【0037】また、「The Spontaneous Self-organizat
ion of an Adaptive Language」(Luc Steels, Mugglet
on, S.(ed.)(1996)Machine, Intelligence 15.)
(以下、文献3という。)では、ランゲージゲーム(La
nguage Game)という手法で言語の発生を論じている。
ランゲージゲームは次の3つのステップからなる。
【0038】第1ステップ、プロパゲーション(propag
ation)。第2ステップ、クリエーション(creatio
n)。このステップでは、エージェント(agent)が新し
い単語を作り、それに対して新しい特徴を連想づける。
第3ステップ、セルフオーガナイゼーション(self-org
anization)。このステップでは、淘汰と選択によりシ
ステムが自己組織化していく。
【0039】このランゲージゲームは、いわゆる画像処
理にあたる第1ステップの部分と、言語処理に関係する
単語に対応する第2ステップの部分(ただし、実際には
音声認識をせずいわゆる文字を入力する部分)、それと
その単語からステップ1において取得している画像を連
想させる第3ステップからなる。上述したディスクリミ
ネーションゲームは、第2ステップに相当する部分はな
く、既存の特徴空間での区別だけを対象としている。
【0040】また、「知覚情報からの概念構造にもとづ
く音声入力による言語獲得」(岩崎、田村、ソニーコン
ピュータサイエンス研究所)(以下、文献4という。)
では、音声認識にHMMを使用し、画像はコンピュータ
のモニター上の色がついた典型的なパターン(丸、三角
等の形状、及び赤、青等の色のもの)を用いて文法獲得
を行っている。
【0041】文献4では、図4に示すように、ユーザは
モニター210上のパターン(ある物体)をマウスでク
リックし(ポインタ212で指示し)、同時に音声で
“赤い丸”などと発話する。そして、色画像のディスク
リミネータゲームの理論とHMMの音声認識を用い、上
述した文献3のランゲージゲームにおける第1ステップ
〜第3ステップを確率的に行っている。
【0042】新しいクラスの生成は、所定の手法による
ベリフィケーション(verification)により行ってい
る。この文献4では、音声認識にHMMを用いてベリフ
ィケーションで新しいクラスをつくると判断したとき、
そのHMMをさらに分割することで新しいクラスを生成
している。
【0043】さらに、図4中の矢印方向として示すよう
に、マウスで選んだパターン211を動かすことによ
り、“第1のオブジェクト(Obj1)211を第2のオ
ブジェクト(Obj2)213の上へ移動”という動作と
同時に、”上にのせる”という音声を入力することによ
り、そのようなモニター210内でしたパターンの動き
を認識させることができる。そして、このような認識さ
れた動作については、HMMによりクラス分けをしてい
る。
【0044】以上のように、知識獲得或いは言語獲得に
ついての技術が種々提案されている。しかし、このよう
な手法についても、ロボット装置における行動獲得(行
動学習)といった面から以下のような問題が存在する。 (1).入力信号の特徴空間内の距離とクラス所属評価
についての問題。 (2).行動生成とその評価についての問題。 (3).学習対象物をインタラクションを行う両者で共
有することについての問題。いわゆる学習対象物の共有
の問題。
【0045】上述の問題(1)は、例えば入力された画
像信号に対してクラス所属評価が画像信号にかかわる情
報だけ、若しくは同時に入力された音信号、又はその2
つにより想起された記憶情報に影響されるだけでは難し
い状況がある、というものである。なお、ここで、クラ
ス所属評価とは、どのクラスに該当するかの指標となる
ものである。
【0046】例えば、既存のクラスの特徴空間で非常に
近いとされる画像信号が入力されたと仮定する。例え
ば、図5中(A)に示すように、クラスAとクラスBと
が画像特徴空間において近接している場合である。しか
し、ここで入力された画像信号は、実は新しいクラスの
生成をするべき信号とされているものとする。
【0047】一方、このような条件の下で、この画像信
号に対応する対象物の他の情報として、同時に音声信号
が入力され、この入力された音声信号が既存のクラスと
は非常に離れているという判断がなされれば、当該対象
物について音についての新たなクラスが生成されること
になる。例えば、図5中(B)に示すように、クラスα
(画像のクラスAに対応付けされる音クラス)とクラス
β(画像のクラスBに対応付けされる音クラス)とが音
特徴空間において、分布が異なり、閾値Sを設定でき
るものとする。
【0048】よって、画像のクラス所属評価に、音につ
いての特徴空間に基づいてしたクラス所属評価を反映さ
せることができれば、画像についても新しいクラスを生
成することができる。例えば、音特徴空間におけるクラ
ス所属評価を反映させることにより、図5中(A)に示
すように、特徴の近似のクラスAとクラスBとの間に両
者を区別する閾値Sを設定することができる。すなわ
ち、他方のクラス所属評価を参照することにより、クラ
スの所属評価が適切になされるようになるというもので
ある。
【0049】しかし、もし画像信号及び音声信号の両方
についてもクラスが非常に近かった場合、これだけでは
画像及び音声について新しいクラスを発生させることは
難しい。これは、例えば、図6中(A)及び(B)に示
すように、画像及び音の特徴空間においてクラスが近似
している場合において、第3の特徴空間からみて全く異
なる特徴を有しているときであっても、それらを区別化
ができないということである。例えば、第3の特徴空間
としては、行動の特徴を示すものが考えられる。
【0050】そこで、本発明は、上述の実情に鑑みてな
されたものであり、対象物を、各特徴空間において適切
に判別することができるロボット装置及びロボット装置
の行動制御方法の提供を目的としている。
【0051】また、上述の問題(2)については、例え
ば新しいクラス所属と判断するべき信号が入力されたと
き、いかにロボット装置の新しい行動を生成し、それを
評価するのか、ということである。
【0052】従来の手法では、言語発生の評価が、生成
した行動の評価に対応するとも考えられるが、文献3で
は、任意の音韻列を生成している。それが、入力信号お
そらくは画像信号に含まれているオブジェクトの名前等
になるのである。しかしながら、行動の生成として、任
意の動き列を発生させるわけにはいかない。
【0053】例えば、4本の各脚が3自由度のロボット
装置の各関節角の任意列を発生してもほとんどの場合、
意味のある動きにならない。また、言語発生ではその音
韻系列がそのオブジェクト(対象物)の名前になってい
くだけであるが、行動生成では、そのようにして生成し
た行動についての善し悪しの評価をどうするかが問題に
なる。
【0054】また、本発明は、このような実情に鑑みて
なされたものであり、入力に対して、適切な行動を生成
することができるロボット装置及びロボット装置の行動
制御方法の提供を目的としている。
【0055】また、上述の問題(3)については、いわ
ゆる学習対象物の共有(共同注意)の問題であり、ロボ
ット装置が知覚している情報が多様であることに起因す
る。例えば、ロボット装置の画像信号入力部(例えば、
CCDカメラ)と全く異なる方向に人間がオレンジのボ
ールをもって、“オレンジのボール”を発言し、教育し
ても、ロボット装置の視野に入っているオブジェクト
(対象物)がピンクの箱であれば、それを“オレンジの
ボール”を結びつけてしまう。
【0056】また、上述した文献4の手法においては、
モニター210上のパターン211をマウスでクリック
して学習対象物(教育対象物)として指定しているが、
実世界ではこのような学習対象物の指定手段がない。ま
た、上述の文献2及び文献3の理論をロボット装置に適
用したと仮定した場合でも、ロボット装置のなす行動
は、視覚に入っているいくつかの対象物のうち、言い手
が適当に選んだ対象物に対して、自分の記憶に従ってそ
の名前を発話し、その発話に基づいて言い手が学習対象
物を選ぶ、というものになる。これでは、実世界におい
てなされているような、学習対象物を特定した学習とは
なっていない。
【0057】また、本発明は、このような実情に鑑みて
なされたものであり、学習対象物の共有(共同注意)を
可能として、適切に学習対象物を特定することができる
ロボット装置及びロボット装置の行動制御方法の提供を
目的としている。
【0058】また、従来のロボット装置1は、頭部に設
けたタッチセンサ等を介し、頭等に外部から力が加えら
れたことを検出して、ユーザとのインタラクション(対
話)をしていたが、これではセンサの数やその配置位置
によりインタラクションが制限されてしまうことにな
る。
【0059】そこで、本発明は、このような実情に鑑み
てなされたものであり、ユーザからの接触(外力)によ
るインタラクションの自由度を高くすることを可能にす
るロボット装置、外力検出装置及び外力検出方法の提供
を目的としている。
【0060】
【課題を解決するための手段】本発明に係るロボット装
置は、上述の課題を解決するために、接触を検出する接
触検出手段と、接触検出手段による接触検出と同時又は
時間的前後に入力された情報を検出する入力情報検出手
段と、接触に応じて出現した行動と、入力情報検出手段
が検出した入力情報とを結びつけて記憶する記憶手段
と、新たに得られた入力情報に基づいて、記憶手段にお
ける情報から行動を連想して、その行動をする行動制御
手段とを備える。
【0061】このような構成を備えたロボット装置は、
接触検出手段による接触検出の時間的前後に入力された
情報を入力情報検出手段により検出し、接触に応じて出
現した行動と、入力情報検出手段が検出した入力情報と
を結びつけて記憶手段に記憶し、行動制御手段により、
新たに得られた入力情報に基づいて、記憶手段における
情報から行動を連想して、その行動をする。
【0062】これにより、ロボット装置は、入力情報と
その際に出現した行動とを結びつけて記憶して、再び同
一の入力情報が入力された際には、対応される行動を再
び出現させる。
【0063】また、本発明に係るロボット装置の行動制
御方法は、上述の課題を解決するために、接触を検出す
る接触検出工程と、接触検出工程による接触検出と同時
又は時間的前後に入力された情報を検出する入力情報検
出工程と、接触に応じて出現した行動と、入力情報検出
工程にて検出した入力情報とを結びつけて記憶手段に記
憶する記憶工程と、新たに得られた入力情報に基づい
て、記憶手段における情報から行動を連想して、その行
動をする行動制御工程とを有する。
【0064】このようなロボット装置の行動制御方法に
より、ロボット装置は、入力情報とその際に出現した行
動とを結びつけて記憶して、再び同一の入力情報が入力
された際には、対応される行動を再び出現させる。
【0065】また、本発明に係るロボット装置は、上述
の課題を解決するために、情報を検出する入力情報検出
手段と、入力情報検出手段が検出した入力情報に応じて
行動した結果を示す行動結果情報と、当該入力情報とを
結びつけて記憶する記憶手段と、新たに入力された入力
情報に基づいて、記憶手段における行動結果情報を特定
し、当該行動結果情報に基づいて行動をする行動制御手
段とを備える。
【0066】このような構成を備えたロボット装置は、
入力情報検出手段が検出した入力情報に応じて行動した
結果を示す行動結果情報と、当該入力情報とを結びつけ
て記憶手段に記憶し、行動制御手段により、新たに入力
された入力情報に基づいて、記憶手段における行動結果
情報を特定し、当該行動結果情報に基づいて行動をす
る。
【0067】これにより、ロボット装置は、入力情報と
その入力情報に応じて行動した結果の行動結果情報とを
結びつけて記憶して、再び同一の入力情報が入力された
際には、対向される行動結果情報に基づき過去の行動を
想起して、適切な行動を出現させる。
【0068】また、本発明に係るロボット装置の行動制
御方法は、上述の課題を解決するために、入力情報検出
手段が検出した入力情報に応じて行動した結果を示す行
動結果情報と、当該入力情報とを結びつけて記録手段に
記憶する記憶工程と、新たに入力された入力情報に基づ
いて、上記記憶手段における行動結果情報を特定し、当
該行動結果情報に基づいて行動をする行動制御工程とを
有する。
【0069】このようなロボット装置の行動制御方法に
より、ロボット装置は、入力情報とその入力情報に応じ
て行動した結果の行動結果情報とを結びつけて記憶し
て、再び同一の入力情報が入力された際には、対向され
る行動結果情報に基づき過去の行動を想起して、適切な
行動を出現させる。
【0070】また、本発明に係るロボット装置は、情報
を検出する入力情報検出手段と、入力情報検出手段が検
出した入力情報の特徴量を検出する特徴量検出手段と、
特徴量に基づいて、入力情報を分類する情報分類手段
と、入力情報の分類に基づいて、行動をする行動制御手
段と行動制御手段により行動した結果を示す行動結果情
報に基づいて、当該行動を引き起こした入力情報の分類
を変更する分類変更手段とを備える。このような構成を
備えたロボット装置は、入力情報検出手段が検出した入
力情報の特徴量を特徴量検出手段により検出し、特徴量
に基づいて、入力情報を情報分類手段により分類し、行
動制御手段により、入力情報の分類に基づいて行動をし
て、行動制御手段により制御されて行動した結果を示す
行動結果情報に基づいて、当該行動を引き起こした入力
情報の分類を分類変更手段により変更する。
【0071】これにより、ロボット装置は、入力情報の
分類に応じて行動をして、その行動した結果に基づいて
その分類を変更する。
【0072】また、本発明に係るロボット装置の行動制
御方法は、上述の課題を解決するために、入力情報検出
手段が検出した入力情報の特徴量を検出する特徴量検出
工程と、特徴量検出工程にて検出した特徴量に基づい
て、入力情報を分類する情報分類工程と、情報分類工程
における入力情報の分類に基づいて行動をする行動制御
工程と、行動制御工程にて制御されて行動した結果を示
す行動結果情報に基づいて、当該行動を引き起こした入
力情報の分類を変更する分類変更工程とを有する。
【0073】このようなロボット装置の行動制御方法に
より、ロボット装置は、入力情報の分類に応じて行動を
して、その行動した結果に基づいてその分類を変更す
る。
【0074】また、本発明に係るロボット装置は、上述
の課題を解決するために、学習対象物を特定する学習対
象物特定手段と、学習対象物特定手段が特定した学習対
象物の情報を記憶する記憶手段と、新たな検出した物と
記憶手段に記憶した学習対象物の情報とに基づいて、行
動をする行動制御手段と備える。
【0075】このような構成を備えたロボット装置は、
学習対象物を特定する学習対象物特定手段が特定した学
習対象物の情報を記憶手段に記憶し、行動制御手段によ
り、新たな検出した物と記憶手段に記憶した学習対象物
の情報とに基づいて行動をする。
【0076】これにより、ロボット装置は、学習対象物
を記憶して、再び同一の対象物が入力された際には、所
定の行動をする。
【0077】また、本発明に係るロボット装置の行動制
御方法は、上述の課題を解決するために、学習対象物を
特定する学習対象物特定工程と、学習対象物特定工程に
て特定した学習対象物の情報を記憶手段に記憶する記憶
工程と、新たな検出した物と記憶手段に記憶した学習対
象物の情報とに基づいて、行動をする行動制御工程とを
有する。
【0078】このようなロボット装置の行動制御方法に
より、ロボット装置は、学習対象物を記憶して、再び同
一の対象物が入力された際には、所定の行動をする。
【0079】また、本発明に係るロボット装置は、上述
の課題を解決するために、動作部材と、動作部材を動作
させるための関節部と、動作部材を介して外力が作用し
ている関節部の状態を検出する検出手段と、検出手段が
検出した関節部の状態と外力とを対応させて学習する学
習手段とを備える。
【0080】このような構成を備えたロボット装置は、
動作部材を介して外力が作用している関節部の状態を検
出手段により検出し、検出手段が検出した関節部の状態
と外力とを対応させて学習手段により学習する。すなわ
ち、ロボット装置は、動作部材に作用する外力に応じて
変化する関節部の状態に対応させて当該外力を学習す
る。
【0081】また、本発明に係る外力検出装置は、上述
の課題を解決するために、動作部材を動作させるための
関節部の状態を検出する検出手段と、検出手段が検出し
た関節部の状態に基づいて動作部材に作用する外力を検
出する外力検出手段とを備える。
【0082】このような構成を備えた外力検出装置は、
動作部材を動作させるための関節部の状態を検出手段に
より検出し、検出手段が検出した関節部の状態に基づい
て動作部材に作用する外力を検出する。すなわち、外力
検出装置は、動作部材に作用する外力を、当該動作部材
を動作させる関節部の状態に基づいて検出する。
【0083】また、本発明に係る外力検出方法は、上述
の課題を解決するために、動作部材を動作させるための
関節部の状態を検出し、検出した関節部の状態に基づい
て動作部材に作用する外力を検出する。すなわち、外力
検出方法は、動作部材に作用する外力を、当該動作部材
を動作させる関節部の状態に基づいて検出する。
【0084】
【発明の実施の形態】以下、本発明の実施の形態につい
て図面を用いて詳しく説明する。この実施の形態は、周
囲の環境(外的要因)や内部の状態(内的要因)に応じ
て自律的に行動をする自律型のロボット装置である。
【0085】実施の形態では、先ず、ロボット装置の構
成について説明して、その後、ロボット装置における本
発明の適用部分について詳細に説明する。
【0086】 (1)本実施の形態によるロボット装置の構成 図7に示すように、「犬」を模した形状のいわゆるペッ
トロボットとされ、胴体部ユニット2の前後左右にそれ
ぞれ脚部ユニット3A,3B,3C,3Dが連結される
と共に、胴体部ユニット2の前端部及び後端部にそれぞ
れ頭部ユニット4及び尻尾部ユニット5が連結されて構
成されている。
【0087】胴体部ユニット2には、図8に示すよう
に、CPU(Central Processing Unit)10、DRA
M(Dynamic Random Access Memory)11、フラッシュ
ROM(Read 0nly Memory)12、PC(Personal Co
mputer)カードインターフェース回路13及び信号処理
回路14が内部バス15を介して相互に接続されること
により形成されたコントロール部16と、このロボット
装置1の動力源としてのバッテリ17とが収納されてい
る。また、胴体部ユニット2には、ロボット装置1の向
きや動きの加速度を検出するための角速度センサ18及
び加速度センサ19なども収納されている。
【0088】また、頭部ユニット4には、外部の状況を
撮像するためのCCD(Charge Coupled Device)カメ
ラ20と、使用者からの「撫でる」や「叩く」といった
物理的な働きかけにより受けた圧力を検出するためのタ
ッチセンサ21と、前方に位置する物体までの距離を測
定するための距離センサ22と、外部音を集音するため
のマイクロホン23と、鳴き声等の音声を出力するため
のスピーカ24と、ロボット装置1の「目」に相当する
LED(Light Emitting Diode)(図示せず)となどが
それぞれ所定位置に配置されている。
【0089】さらに、各脚部ユニット3A〜3Dの関節
部分や各脚部ユニット3A〜3D及び胴体部ユニット2
の各連結部分、頭部ユニット4及び胴体部ユニット2の
連結部分、並びに尻尾部ユニット5の尻尾5Aの連結部
分などにはそれぞれ自由度数分のアクチュエータ25
〜25及びポテンショメータ26〜26が配設さ
れている。例えば、アクチュエータ25〜25はサ
ーボモータを構成として有している。サーボモータの駆
動により、脚部ユニット3A〜3Dが制御されて、目標
の姿勢或いは動作に遷移する。
【0090】そして、これら角速度センサ18、加速度
センサ19、タッチセンサ21、距離センサ22、マイ
クロホン23、スピーカ24及び各ポテンショメータ2
〜26などの各種センサ並びにLED及び各アク
チュエータ25 〜25は、それぞれ対応するハブ
27〜27を介してコントロール部16の信号処理
回路14と接続され、CCDカメラ20及びバッテリ1
7は、それぞれ信号処理回路14と直接接続されてい
る。
【0091】なお、後述するように、動作(行動)の学
習において、この角速度センサ18、加速度センサ1
9、ポテンショメータ26 〜26等の信号が使用
される。
【0092】信号処理回路l4は、上述の各センサから
供給されるセンサデータや画像データ及び音声データを
順次取り込み、これらをそれぞれ内部バス15を介して
DRAM11内の所定位置に順次格納する。また信号処
理回路14は、これと共にバッテリ17から供給される
バッテリ残量を表すバッテリ残量データを順次取り込
み、これをDRAM11内の所定位置に格納する。
【0093】このようにしてDRAM11に格納された
各センサデータ、画像データ、音声データ及びバッテリ
残量データは、この後CPU10がこのロボット装置1
の動作制御を行う際に利用される。
【0094】実際上CPU10は、ロボット装置1の電
源が投入された初期時、胴体部ユニット2の図示しない
PCカードスロットに装填されたメモリカード28又は
フラッシュROM12に格納された制御プログラムをP
Cカードインターフェース回路13を介して又は直接読
み出し、これをDRAM11に格納する。
【0095】また、CPU10は、この後上述のように
信号処理回路14よりDRAM11に順次格納される各
センサデータ、画像データ、音声データ及びバッテリ残
量データに基づいて自己及び周囲の状況や、使用者から
の指示及び働きかけの有無などを判断する。
【0096】さらに、CPU10は、この判断結果及び
DRAM11に格納した制御プログラムに基づいて続く
行動を決定すると共に、当該決定結果に基づいて必要な
アクチュエータ25〜25を駆動させることによ
り、頭部ユニット4を上下左右に振らせたり、尻尾部ユ
ニット5の尻尾5Aを動かせたり、各脚部ユニット3A
〜3Dを駆動させて歩行させるなどの行動を行わせる。
【0097】また、この際CPU10は、必要に応じて
音声データを生成し、これを信号処理回路14を介して
音声信号としてスピーカ24に与えることにより当該音
声信号に基づく音声を外部に出力させたり、上述のLE
Dを点灯、消灯又は点滅させる。
【0098】このようにしてこのロボット装置1におい
ては、自己及び周囲の状況や、使用者からの指示及び働
きかけに応じて自律的に行動し得るようになされてい
る。
【0099】(2)制御プログラムのソフトウェア構成 ここで、ロボット装置1における上述の制御プログラム
のソフトウェア構成は、図9に示すようになる。この図
9において、デバイス・ドライバ・レイヤ30は、この
制御プログラムの最下位層に位置し、複数のデバイス・
ドライバからなるデバイス・ドライバ・セット31から
構成されている。この場合、各デバイス・ドライバは、
CCDカメラ20(図8)やタイマ等の通常のコンピュ
ータで用いられるハードウェアに直接アクセスするごと
を許されたオブジェクトであり、対応するハードウェア
からの割り込みを受けて処理を行う。
【0100】また、ロボティック・サーバ・オブジェク
ト32は、デバイス・ドライバ・レイヤ30の最下位層
に位置し、例えば上述の各種センサやアクチュエータ2
〜25等のハードウェアにアクセスするためのイ
ンターフェースを提供するソフトウェア群でなるバーチ
ャル・ロボット33と、電源の切換えなどを管理するソ
フトウェア群でなるバワーマネージャ34と、他の種々
のデバイス・ドライバを管理するソフトウェア群でなる
デバイス・ドライバ・マネージャ35と、ロボット装置
1の機構を管理するソフトウェア群でなるデザインド・
ロボット36とから構成されている。
【0101】マネージャ・オブジェクト37は、オブジ
ェクト・マネージャ38及びサービス・マネージャ39
から構成されている。オブジェクト・マネージャ38
は、ロボティック・サーバ・オブジェクト32、ミドル
・ウェア・レイヤ40、及びアプリケーション・レイヤ
41に含まれる各ソフトウェア群の起動や終了を管理す
るソフトウェア群であり、サービス・マネージャ39
は、メモリカード28(図8)に格納されたコネクショ
ンファイルに記述されている各オブジェクト間の接続情
報に基づいて各オブジェクトの接続を管理するソフトウ
ェア群である。
【0102】ミドル・ウェア・レイヤ40は、ロボティ
ック・サーバ・オブジェクト32の上位層に位置し、画
像処理や音声処理などのこのロボット装置1の基本的な
機能を提供するソフトウェア群から構成されている。ま
た、アプリケーション・レイヤ41は、ミドル・ウェア
・レイヤ40の上位層に位置し、当該ミドル・ウェア・
レイヤ40を構成する各ソフトウェア群によって処理さ
れた処理結果に基づいてロボット装置1の行動を決定す
るためのソフトウェア群から構成されている。
【0103】なお、ミドル・ウェア・レイヤ40及びア
プリケーション・レイヤ41の具体なソフトウェア構成
をそれぞれ図10に示す。
【0104】ミドル・ウェア・レイヤ40は、図10に
示すように、騒音検出用、温度検出用、明るさ検出用、
音階認識用、距離検出用、姿勢検出用、タッチセンサ
用、動き検出用及び色認識用の各信号処理モジュール5
0〜58並びに入力セマンティクスコンバータモジュー
ル59などを有する認識系60と、出力セマンティクス
コンバータモジュール68並びに姿勢管理用、トラッキ
ング用、モーション再生用、歩行用、転倒復帰用、LE
D点灯用及び音再生用の各信号処理モジュール61〜6
7などを有する出力系69とから構成されている。
【0105】認識系60の各信号処理モジュール50〜
58は、ロボティック・サーバ・オブジェクト32のバ
ーチャル・ロボット33によりDRAM11(図8)か
ら読み出される各センサデータや画像データ及び音声デ
ータのうちの対応するデータを取り込み、当該データに
基づいて所定の処理を施して、処理結果を入力セマンテ
ィクスコンバータモジュール59に与える。ここで、例
えば、バーチャル・ロボット33は、所定の通信規約に
よって、信号の授受或いは変換をする部分として構成さ
れている。
【0106】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜58から与
えられる処理結果に基づいて、「うるさい」、「暑
い」、「明るい」、「ボールを検出した」、「転倒を検
出した」、「撫でられた」、「叩かれた」、「ドミソの
音階が聞こえた」、「動く物体を検出した」又は「障害
物を検出した」などの自己及び周囲の状況や、使用者か
らの指令及び働きかけを認識し、認識結果をアプリケー
ション・レイヤ41(図8)に出力する。
【0107】アプリケーション・レイヤ4lは、図11
に示すように、行動モデルライブラリ70、行動切換え
モジュール71、学習モジュール72、感情モデル73
及び本能モデル74の5つのモジュールから構成されて
いる。
【0108】行動モデルライブラリ70には、図12に
示すように、「バッテリ残量が少なくなった場合」、
「転倒復帰する」、「障害物を回避する場合」、「感情
を表現する楊命」、「ボールを検出した場合」などの予
め選択されたいくつかの条件項目にそれぞれ対応させ
て、それぞれ独立した行動モデル70〜70が設け
られている。
【0109】そして、これら行動モデル70〜70
は、それぞれ入力セマンティクスコンバータモジュール
59から認識結果が与えられたときや、最後の認識結果
が与えられてから一定時間が経過したときなどに、必要
に応じて後述のように感情モデル73に保持されている
対応する情動のパラメータ値や、本能モデル74に保持
されている対応する欲求のパラメータ値を参照しながら
続く行動をそれぞれ決定し、決定結果を行動切換えモジ
ュール71に出力する。
【0110】なお、この実施の形態の場合、各行動モデ
ル70〜70は、次の行動を決定する手法として、
図13に示すような1つのノード(状態)NODE
NODEから他のどのノードNODE〜NODE
に遷移するかを各ノードNODE〜NODEに間を
接続するアークARC〜ARCに対してそれぞれ設
定された遷移確率P〜Pに基づいて確率的に決定す
る有限確率オートマトンと呼ばれるアルゴリズムを用い
る。
【0111】具体的に、各行動モデル70〜70
は、それぞれ自己の行動モデル70〜70を形成
するノードNODE〜NODEにそれぞれ対応させ
て、これらノードNODE〜NODEごとに図14
に示すような状態遷移表80を有している。
【0112】この状態遷移表80では、そのノードNO
DE〜NODEにおいて遷移条件とする入力イベン
ト(認識結果)が「入力イベント名」の行に優先順に列
記され、その遷移条件についてのさらなる条件が「デー
タ名」及び「データ範囲」の行における対応する列に記
述されている。
【0113】したがって、図14の状態遷移表80で表
されるノードNODE100では、「ボールを検出(B
ALL)」という認識結果が与えられた場合に、当該認
識結果と共に与えられるそのボールの「大きさ(SIZ
E)」が「0から1000」の範囲であることや、「障害物
を検出(OBSTACLE)」という認識結果が与えら
れた場合に、当該認識結果と共に与えられるその障害物
までの「距離(DISTANCE)」が「0から100」の
範囲であることが他のノードに遷移するための条件とな
っている。
【0114】また、このノードNODE100では、認
識結果の入力がない場合においても、行動モデル70
〜70が周期的に参照する感情モデル73及び本能モ
デル74にそれぞれ保持された各情動及び各欲求のパラ
メータ値のうち、感情モデル73に保持された「喜び
(JOY)」、「驚き(SURPRISE)」若しくは
「悲しみ(SADNESS)」のいずれかのパラメータ
値が「50から100」の範囲であるときには他のノードに
遷移することができるようになっている。
【0115】また、状態遷移表80では、「他のノード
ヘの遷移確率」の欄における「遷移先ノード」の列にそ
のノードNODE〜 NODEから遷移できるノー
ド名が列記されていると共に、「入力イベント名」、
「データ値」及び「データの範囲」の行に記述された全
ての条件が揃ったときに遷移できる他の各ノードNOD
〜NODEへの遷移確率が「他のノードヘの遷移
確率」の欄内の対応する箇所にそれぞれ記述され、その
ノードNODE〜NODEに遷移する際に出力すべ
き行動が「他のノードヘの遷移確率」の欄における「出
力行動」の行に記述されている。なお、「他のノードヘ
の遷移確率」の欄における各行の確率の和は100
[%]となっている。
【0116】したがって、図14の状態遷移表80で表
されるノードNODE100では、例えば「ボールを検
出(BALL)」し、そのボールの「SIZE(大き
さ)」が「0から1000」の範囲であるという認識結果が
与えられた場合には、「30[%]」の確率で「ノードN
ODE120(node 120)」に遷移でき、そのとき「A
CTION1」の行動が出力されることとなる。
【0117】各行動モデル70〜70は、それぞれ
このような状態遷移表80として記述されたノードNO
DE〜 NODEがいくつも繋がるようにして構成
されており、入力セマンティクスコンバータモジュール
59から認識結果が与えられたときなどに、対応するノ
ードNODE〜NODEの状態遷移表を利用して確
率的に次の行動を決定し、決定結果を行動切換えモジュ
ール71に出力するようになされている。
【0118】図11に示す行動切換えモジュール71
は、行動モデルライブラリ70の各行動モデル70
70からそれぞれ出力される行動のうち、予め定めら
れた優先順位の高い行動モデル70〜70から出力
された行動を選択し、当該行動を実行すべき旨のコマン
ド(以下、これを行動コマンドという。)をミドル・ウ
ェア・レイヤ40の出力セマンティクスコンバータモジ
ュール68に送出する。なお、この実施の形態において
は、図12において下側に表記された行動モデル70
〜70ほど優先順位が高く設定されている。
【0119】また、行動切換えモジュール71は、行動
完了後に出力セマンティクスコンバータモジュール68
から与えられる行動完了情報に基づいて、その行動が完
了したことを学習モジュール72、感情モデル73及び
本能モデル74に通知する。
【0120】一方、学習モジュール72は、入力セマン
ティクスコンバータモジュール59から与えられる認識
結果のうち、「叩かれた」や「撫でられた」など、使用
者からの働きかけとして受けた教示の認識結果を入力す
る。
【0121】そして、学習モジュール72は、この認識
結果及び行動切換えモジュール71からの通知に基づい
て、「叩かれた(叱られた)」ときにはその行動の発現
確率を低下させ、「撫でられた(誉められた)」ときに
はその行動の発現確率を上昇させるように、行動モデル
ライブラリ70における対応する行動モデル70〜7
の対応する遷移確率を変更する。
【0122】他方、感情モデル73は、「喜び(jo
y)」、「悲しみ(sadness)」、「怒り(anger)」、
「驚き(surprise)」、「嫌悪(disgust)」及び「恐
れ(fear)」の合計6つの情動について、各情動ごとに
その情動の強さを表すパラメータを保持している。そし
て、感情モデル73は、これら各情動のパラメータ値
を、それぞれ入力セマンティクスコンバータモジュール
59から与えられる「叩かれた」及び「撫でられた」な
どの特定の認識結果と、経過時間及び行動切換えモジュ
ール71からの通知となどに基づいて周期的に更新す
る。
【0123】具体的には、感情モデル73は、入力セマ
ンティクスコンバータモジュール59から与えられる認
識結果と、そのときのロボット装置1の行動と、前回更
新してからの経過時間となどに基づいて所定の演算式に
より算出されるそのときのその情動の変動量を△E
[t]、現在のその情動のパラメータ値をE[t]、そ
の情動の感度を表す係数をkとして、(4)式によっ
て次の周期におけるその情動のパラメータ値E[t+
1]を算出し、これを現在のその情動のパラメータ値E
[t]と置き換えるようにしてその情動のパラメータ値
を更新する。また、感情モデル73は、これと同様にし
て全ての情動のパラメータ値を更新する。
【0124】
【数4】
【0125】なお、各認識結果や出力セマンティクスコ
ンバータモジュール68からの通知が各情動のパラメー
タ値の変動量△E[t]にどの程度の影響を与えるかは
予め決められており、例えば「叩かれた」といった認識
結果は「怒り」の情動のパラメータ値の変動量△E
[t]に大きな影響を与え、「撫でられた」といった認
識結果は「喜び」の情動のパラメータ値の変動量△E
[t]に大きな影響を与えるようになっている。
【0126】ここで、出力セマンティクスコンバータモ
ジュール68からの通知とは、いわゆる行動のフィード
バック情報(行動完了情報)であり、行動の出現結果の
情報であり、感情モデル73は、このような情報によっ
ても感情を変化させる。これは、例えば、「吠える」と
いった行動により怒りの感情レベルが下がるといったよ
うなことである。なお、出力セマンティクスコンバータ
モジュール68からの通知は、上述した学習モジュール
72にも入力されており、学習モジュール72は、その
通知に基づいて行動モデル70〜70の対応する遷
移確率を変更する。
【0127】なお、行動結果のフィードバックは、行動
切換えモジュレータ71の出力(感情が付加された行
動)によりなされるものであってもよい。
【0128】一方、本能モデル74は、「運動欲(exer
cise)」、「愛情欲(affection)」、「食欲(appetit
e)」及び「好奇心(curiosity)」の互いに独立した4
つの欲求について、これら欲求ごとにその欲求の強さを
表すパラメータを保持している。そして、本能モデル7
4は、これらの欲求のパラメータ値を、それぞれ入力セ
マンティクスコンバータモジュール59から与えられる
認識結果や、経過時間及び行動切換えモジュール71か
らの通知などに基づいて周期的に更新する。
【0129】具体的には、本能モデル74は、「運動
欲」、「愛情欲」及び「好奇心」については、認識結
果、経過時間及び出力セマンティクスコンバータモジュ
ール68からの通知などに基づいて所定の演算式により
算出されるそのときのその欲求の変動量をΔI[k]、
現在のその欲求のパラメータ値をI[k]、その欲求の
感度を表す係数kとして、所定周期で(5)式を用い
て次の周期におけるその欲求のパラメータ値I[k+
1]を算出し、この演算結果を現在のその欲求のパラメ
ータ値I[k]と置き換えるようにしてその欲求のパラ
メータ値を更新する。また、本能モデル74は、これと
同様にして「食欲」を除く各欲求のパラメータ値を更新
する。
【0130】
【数5】
【0131】なお、認識結果及び出力セマンティクスコ
ンバータモジュール68からの通知などが各欲求のパラ
メータ値の変動量△I[k]にどの程度の影響を与える
かは予め決められており、例えば出力セマンティクスコ
ンバータモジュール68からの通知は、「疲れ」のパラ
メータ値の変動量△I[k]に大きな影響を与えるよう
になっている。
【0132】なお、本実施の形態においては、各情動及
び各欲求(本能)のパラメータ値がそれぞれ0から100ま
での範囲で変動するように規制されており、また係数k
、kの値も各情動及び各欲求ごとに個別に設定され
ている。
【0133】一方、ミドル・ウェア・レイヤ40の出力
セマンティクスコンバータモジュール68は、図10に
示すように、上述のようにしてアプリケーション・レイ
ヤ41の行動切換えモジュール71から与えられる「前
進」、「喜ぶ」、「鳴く」又は「トラッキング(ボール
を追いかける)」といった抽象的な行動コマンドを出力
系69の対応する信号処理モジュール61〜67に与え
る。
【0134】そしてこれら信号処理モジュール61〜6
7は、行動コマンドが与えられると当該行動コマンドに
基づいて、その行動を行うために対応するアクチュエー
タ25〜25(図8)に与えるべきサーボ指令値
や、スピーカ24(図8)から出力する音の音声データ
及び又は「目」のLEDに与える駆動データを生成し、
これらのデータをロボティック・サーバ・オブジェクト
32のバーチャル・ロボット33及び信号処理回路14
(図8)を順次介して対応するアクチュエータ25
25又はスピーカ24又はLEDに順次送出する。
【0135】このようにしてロボット装置1において
は、制御プログラムに基づいて、自己(内部)及び周囲
(外部)の状況や、使用者からの指示及び働きかけに応
じた自律的な行動を行うことができるようになされてい
る。
【0136】(3)環境に応じた本能及び感情の変化 ロボット装置1は、さらに、例えば、周囲が「明るい」
ときには陽気になり、これに対して周囲が「暗い」とき
には物静かになるなど、周囲の環境のうちの「騒音」、
「温度」及び「照度」の3つの条件(以下、環境条件と
いう。)の度合いに応じて感情・本能を変化させるよう
になされている。
【0137】すなわち、ロボット装置1には、周囲の状
況を検出するための外部センサとして、上述したCCD
カメラ20、距離センサ22、タッチセンサ21及びマ
イクロホン23などに加えて周囲の温度を検出するため
の温度センサ(図示せず)が所定位置に設けられてい
る。対応する構成として、ミドル・ウェア・レイヤ40
の認識系60には、騒音検出用、温度検出用及び明るさ
検出用の各信号処理モジュール50〜52が設けられて
いる。
【0138】騒音検出用の信号処理モジュール50は、
ロボティック・サーバ・オブジェクト32のバーチャル
・ロボット33を介して与えられるマイクロホン23
(図8)からの音声データに基づいて周囲の騒音レベル
を検出し、検出結果を入力セマンティクスコンバータモ
ジュール59に出力する。
【0139】温度検出用の信号処理モジュール51は、
バーチャル・ロボット33を介して与えられる温度セン
サからのセンサデータに基づいて周囲の温度を検出し、
検出結果を入力セマンティクスコンバータモジュール5
9に出力する。
【0140】明るさ検出用の信号処理モジュール52
は、バーチャル・ロボット33を介して与えられるCC
Dカメラ20(図8)からの画像データに基づいて周囲
の照度を検出し、検出結果を入力セマンティクスコンバ
ータモジュール59に出力する。
【0141】入力セマンティクスコンバータモジュール
59は、これら各信号処理モジュール50〜52の出力
に基づいて周囲の「騒音」、「温度」及び「照度」の度
合いを認識し、当該認識結果を上述のようにアプリケー
ション・モジュール41(図11)の内的状態モデル部
に出力する。
【0142】具体的に、入力セマンティクスコンバータ
モジュール59は、騒音検出用の信号処理モジュール5
0の出力に基づいて周囲の「騒音」の度合いを認識し、
「うるさい」又は「静か」といった認識結果を感情モデ
ル73及び本能モデル74等に出力する。
【0143】また、入力セマンティクスコンバータモジ
ュール59は、温度検出用の信号処理モジュール51の
出力に基づいて周囲の「温度」の度合いを認識し、「暑
い」又は「寒い」といった認識結果を感情モデル73及
び本能モデル74等に出力する。
【0144】さらに、入力セマンティクスコンバータモ
ジュール59は、明るさ検出用の信号処理モジュール5
2の出力に基づいて周囲の「照度」の度合いを認識し、
「明るい」又は「暗い」といった認識結果を、感情モデ
ル73及び本能モデル74等に出力する。
【0145】感情モデル73は、上述のように、入力セ
マンティクスコンバータモジュール59から与えられる
各種認識結果に基づき(4)式に従って各パラメータ値
を周期的に変更する。
【0146】そして、感情モデル73は、入力セマンテ
ィクスコンバータモジュール59から与えられる「騒
音」、「温度」及び「照度」についての認識結果に基づ
いて、予め定められた対応する情動についての(4)式
の係数kの値を増減させる。
【0147】具体的には、感情モデル73は、例えば
「うるさい」といった認識結果が与えられた場合には
「怒り」の情動に対する係数kの値を所定数増加さ
せ、これに対して「静か」といった認識結果が与えられ
た場合には「怒り」の情動に対する係数kの値を所定
数減少させる。これにより、周囲の「騒音」に影響され
て「怒り」のパラメータ値が変化することになる。
【0148】また、感情モデル73は、「暑い」といっ
た認識結果が与えられた場合には「喜び」の情動に対す
る係数kの値を所定数減少させ、これに対して「寒
い」といった認識結果が与えられた場合には「悲しみ」
の情動に対する係数kの値を所定数増加させる。これ
により、周囲の「温度」に影響されて「悲しみ」のパラ
メータ値が変化することになる。
【0149】さらに、感情モデル73は、「明るい」と
いった認識結果が与えられた場合には「喜び」の情動に
対する係数kの値を所定数増加させ、これに対して
[暗い」といった認識結果が与えられた場合には「恐
れ」の情動に対する係数kの値を所定数増加させる。
これにより、周囲の「照度」に影響されて「恐れ」のパ
ラメータ値が変化することになる。
【0150】これと同様にして、本能モデル74は、上
述のように、入力セマンティクスコンバータモジュール
59から与えられる各種認識結果等に基づき(5)式に
従って各欲求のパラメータ値を周期的に変更する。
【0151】また、本能モデル74は、入力セマンティ
クスコンバータモジュール59から与えられる「騒
音」、「温度」及び「照度」の度合いについての認識結
果に基づいて、予め定められた対応する欲求の(5)式
の係数kの値を増減させる。
【0152】具体的には、本能モデル74は、例えば
「うるさい」や「明るい」といった認識結果が与えられ
た場合には、「疲れ」に対する係数kの値を所定数減
少させ、これに対して「静か」や「暗い」といった認識
結果が与えられた場合には「疲れ」に対する係数k
値を所定数増加させる。また、本能モデル74は、「暑
い」又は「寒い」といった認識結果が与えられた場合に
は「疲れ」に対する係数kの値を所定数増加させる。
【0153】この結果、ロボット装置1の行動は、例え
ば周囲が「うるさい」ときには、「怒り」のパラメータ
値が増加しやすく、「疲れ」のパラメータ値が減少しや
すくなるために、全体として行動が「いらいら」したよ
うな行動となり、これに対して周囲が「静か」なときに
は、「怒り」のパラメータ値が減少しやすく、「疲れ」
のパラメータ値が増加しやすくなるために、全体として
行動が「おちついた」行動となる。
【0154】また、ロボット装置1の行動は、周囲が
「暑い」ときには、「喜び」のパラメータ値が減少しや
すく、「疲れ」のパラメータ値が増加しやすくなるため
に、全体として行動が「だらけた」ような行動となり、
これに対して周囲が「寒い」ときには、「悲しみ」のパ
ラメータ値が増加しやすく、「疲れ」のパラメータ値が
増加しやすくなるために、全体として行動が「寒がって
いる」行動となる。
【0155】また、ロボット装置1の行動は、周囲が
「明るい」ときには、「喜び」のパラメータ値が増加し
やすく、「疲れ」のパラメータ値が減少しやすくなるた
めに、全体として行動が「陽気」な行動となり、これに
対して周囲が「暗い」ときには、「喜び」のパラメータ
値が増加しやすく、「疲れ」のパラメータ値が増加しや
すくなるために、全体として行動が「物静か」な行動と
なる。
【0156】以上のようにロボット装置1は構成されて
おり、ロボット装置1は、環境に応じて、感情及び本能
を変化させ、その感情及び本能の状態に応じて自律的に
行動することができる。
【0157】(4)本発明の適用 (4−1)全体の説明 上述のロボット装置1において本発明が適用された要部
を説明する。ロボット装置1は、画像信号や音声信号
(音響信号)等に結びつけて(関連づけて)行動を学習
し、学習後は、結びつけられた画像信号や音声信号によ
り行動を引き起こすように構成されている。以下の説明
では、学習として行動に音声を結びつける例について主
に説明するが、行動に画像を結びつけることもできるこ
とはいうまでもない。具体的には、ロボット装置1は本
発明の実現のために次のような構成を有している。ロボ
ット装置1は、図15に示すように、音声認識部10
1、センサ処理部102、本能情動部103、連想想起
記憶部104及び行動生成部105を備えている。
【0158】ここで、音声認識部101は、接触を検出
する接触検出手段とされるタッチセンサ(図8に示すタ
ッチセンサ21等)による接触検出と同時又は時間的前
後に入力された情報を検出する入力情報検出手段として
機能し、連想想起記憶部104は、接触に応じて出現し
た行動と、音声認識部101が検出した入力情報(音声
信号)とを結びつけて記憶する記憶手段として機能し、
行動生成部105は、新たに得られた入力情報(音声信
号)に基づいて、連想想起記憶部104により連想され
た行動をする行動制御手段として機能する。また、セン
サ処理部102は、例えば、図示しないタッチセンサに
よる接触検出に応じて行動を出現させる行動出現手段と
しての機能を有する。具体的には、各構成部分は、次の
ように機能する。
【0159】音声認識部101は、外部(マイクロホン
23)から入力された音声信号を音声処理して、所定の
言語として認識する。具体的には、音声認識部101
は、HMMを採用して構成されており、HMMによる複
数の認識クラスにより、入力された音声を音韻系列とし
て認識する。
【0160】また、音声認識部101では、既存のクラ
スから学習によりクラスを増加させることも可能であ
る。例えば、図9中(B)に示したように、認識できな
い音声の入力がなされた場合には、既存のクラスを分割
して新たなクラスを生成する。具体的には、入力された
音声に対して確信度(所属評価)の高い既存のクラスを
分割して、新たなクラスを生成する。例えば、クラスの
分割では、当該クラスにおいて特徴性の低い部分を新た
なクラスとして分割する。これにより、予め登録してあ
る言語を認識することができるばかりではなく、新規言
語を認識できるようにもなる。
【0161】センサ処理部102は、センサ信号の変化
に基づいて、教示された動作(行動)の信号を生成す
る。すなわち、センサ処理部102は、入力された行動
情報を認識する。
【0162】例えば、教示される動作については、予め
設定されている動作によるものでもよく、使用者により
新規に設定される動作によるものでも良い。また、既に
設定されている行動のうちのどれか選択して生成するこ
とができる。
【0163】予め設定されている動作の教示とは、例え
ば、タッチセンサからのセンサ信号の入力をトリガー
(発火)として動作が教示される、といったようなもの
である。例えば、「立ち姿勢」において背中後方に設け
られた所定のタッチセンサを押したときに、「座り姿
勢」に遷移させることを予め設定しておいて、実際の場
面において、「立ち姿勢」においてそのような背中後方
に設けられているタッチセンサが押されたときに、「座
り姿勢」への遷移が、動作として教示される、というよ
うにである。
【0164】なお、このような動作を教示するためのセ
ンサを設ける位置については、例えは、頭部、脚部先端
等であってもよい。このようにセンサを任意に設けるこ
とで、種々の動作を教示することが可能になる。
【0165】また、新規に設定して行う動作の教示とし
ては、例えば、動作部(関節部)を制御する信号の変化
を使用して行うことなどが挙げられる。動作部とは、例
えば、上述したように、各脚部ユニット3A〜3Dの関
節部分や各脚部ユニット3A〜3D及び胴体部ユニット
2の各連結部分、頭部ユニット4及び胴体部ユニット2
の連結部分、並びに尻尾部ユニット5の尻尾5Aの連結
部分などに設けられているアクチュエータ(サーボモー
タ等)25〜25である。
【0166】例えば、使用者がロボット装置1の動作部
を強制的に動かした際には、当該動作部に負荷が発生す
る。このとき動作部への負荷により通常の動作(外部負
荷のない動作)とは異なる信号、例えば、当該動作部へ
のサーボ信号が発生する。このような信号に基づけば、
姿勢の遷移、すなわち動作を把握することが可能であ
る。このようなことから、このような信号を記憶するこ
とにより、使用者に強制的に遷移させられた動作を新規
の動作として学習することができる。このような新規動
作の教示については、後で詳述する。なお、さらに後で
詳述することであるが、本発明によりロボット装置1
は、このような信号の変化から外力(外部負荷)を検出
して、当該外力を学習するといったこともできるように
なされている。
【0167】さらに、センサ処理部102は、学習する
行動をクラス認識することもできる。例えば、入力され
た行動情報を、行動特徴空間における特徴量からクラス
認識して、学習することもできる。
【0168】本能情動部103は、上述したような音声
や行動に結びつけられる情動の情報が格納されている部
分である。すなわち、本能情報部103は、上述したよ
うに、本能モデルや感情モデルにより、入力されるセン
サ信号等によりその本能や感情を変化させている。
【0169】連想想起記憶部104は、上述したような
音声認識部101、センサ処理部102及び本能情動部
103からの情報に基づいて学習をして、さらに学習後
においては、その学習に基づいて、入力された音声や画
像に対応される行動情報を生成する。例えば、連想想起
記憶部104は、(1)式及び(2)式を用いて説明し
た画像と音のクラスとを相関行列として結びつける従来
手法の連想記憶を採用し、各情報を連想記憶している。
【0170】例えば、連想想起記憶部104は、センサ
処理部102が上述したように、センサ出力から「立ち
姿勢」から「座り姿勢」への遷移の動作の教示を検出し
て、同時或いは時間を前後して音声認識部101が“お
すわり”の言語を認識した場合には、連想想起記憶部1
04は、「立ち姿勢」から「座り姿勢」への遷移の動作
と、“おすわり”の発言とを結びつけて記憶(学習)す
る。これは、一般的に動物の犬に対する「お座り」の教
示としてなされているようなことである。
【0171】また、連想想起記憶部104は、入力され
た動作と入力された言語とが対として予め設定されてい
るときにのみ、その動作と言語とを結びつけて(発火し
て)学習するようにすることもできる。例えば、上述し
たようないわゆる「お座り」の動作の教示と同時或いは
時間を前後して“おすわり”の言語が入力されれば、そ
の動作を学習(結びつけて記憶)するが、それ以外の言
語に対しては、動作を学習しないというようにである。
【0172】また、連想想起記憶部104は、認識され
た動作或いは言語に、本能情動部103から出力される
本能や感情をも関連づけして学習することもできる。例
えば、学習時において、音声(言語)が入力された際
に、恐怖を感じていたとした場合にはそのような音声
に、そのような感情を結びつけて学習することもでき
る。
【0173】以上のように連想想起記憶部104は、音
声、動作或いは感情を関連づけして(結びつけて)学習
し、学習後には、そのような学習結果に基づいて、入力
された画像や音声等に対応して、行動情報を生成するよ
うになる。
【0174】行動生成部105は、そのような連想想起
記憶部104から出力される行動情報に基づいて行動を
生成する。例えば、上述したような「お座り」の教示の
学習後において、連想想起記憶部104が“おすわり”
の言語が入力された場合には、「立ち姿勢」から「座り
姿勢」への遷移させる行動を出現させる(引き起こさせ
る)。
【0175】このように、ロボット装置1は、音声情報
とセンサ信号の変化とを結びつけて、動作を学習して、
学習結果として、入力されてくる音声に基づいて行動
(動作)を発現することができるようになる。
【0176】例えば、「お座り」の動作を学習して、出
力するまでのロボット装置1における一連の処理は次の
ようになる。
【0177】学習時には、図16中(A)に示すよう
に、ロボット装置1は、音声信号(音響信号)と同時或
いは時間を前後して接触信号が与えられる。音声信号と
しては、例えば、“おすわり”が入力される。また、接
触信号を与えるとは、「立ち姿勢」から「座り姿勢」へ
の遷移の動作の教示により、その動作に関与する動作部
のセンサ信号に変化を与えることと等価である。なお、
上述したように所定箇所にタッチセンサ或いは押圧ボタ
ン(例えば、お座り教示ボタン)を設けて、このタッチ
センサの操作(押圧)により、そのような動作を教示す
ることもでき、この場合には、接触信号を与えることと
は、そのようなタッチセンサの操作による信号の発生を
いう。
【0178】このような学習操作により、ロボット装置
1は、図16中(A−1)から同図中(A−2)に示す
ように遷移する動作が教示される。
【0179】そして、ロボット装置1は、学習後には、
図16中(B)の(B−1)に示すように、学習時に教
示した言葉(音響信号)、例えば、“おすわり”を与え
ることにより、図16中(B−2)に示すように、学習
時に教示した図16中(A−2)と同様な姿勢とされる
「お座り」の姿勢に遷移するようになる。
【0180】また、教示する動作については、上述した
ような動作に限定されない。すなわち、音声入力(発
話)と同時或いは時間を前後して、例えば、ロボット装
置1の背中を前方に押す、首の下を上方向に押す若しく
は下方向に押す又は前脚を持ち上げる等の動作を教示す
ることもできる。このような動作の教示と、入力言語を
結びつけることにより、「伏せ」、「立て」或いは「お
手」等の動作の教示となる。
【0181】また、例えば、ロボット装置1は、次のよ
うな学習をすることもできる。
【0182】先ず、ロボット装置1は、行動の学習とし
て、「蹴る」動作を学習する。具体的には、使用者(教
示者)により前脚部が操作されて、物を「蹴る」の動作
が学習される。動作の学習は、予め設定されている動作
によるものでもよく、新規な動作によるものでもよい。
一方で、言語認識により得た言葉“a−ka”と画像認
識された赤とを対応させて記憶する。
【0183】このような学習結果として、ロボット装置
1は、“あか、けれ”の発話を音声認識して、“赤”の
物体に対して、行動生成により蹴る動作を生成する。例
えば、赤の対象物の特定は、入力画像をセグメンテーシ
ョンして、赤色の部分を特定することにより行う。すな
わち、赤色に相当するセグメントした物体を対象物とし
て特定する。
【0184】また、上述の実施の形態では、行動と結び
つける情報を音声情報としているがこれに限定されるも
のではない。例えば、画像情報を行動情報に結びつける
ことができる。この場合、例えば、CCDカメラ20等
の撮像手段からの画像信号から特定画像を認識するため
の画像認識部を備える。
【0185】また、上述の実施の形態では、本能情動部
103から出力される本能或いは情動を学習された行動
や言語に結びつけられている場合について説明している
が、これに限定されるものではない。例えば、予め設定
されている行動や言語に対し、後発的に発生された本能
や情動をリンクさせることもできる。
【0186】さらに、ロボット装置1は、出力(実際の
行動)により引き起こされた情動とそのきっかけとなっ
た入力(例えば、言語や画像等)と、当該出力とを記憶
(学習)することもできる。これにより、ロボット装置
1は、学習後の実際の場面において、言語等の入力か
ら、対応される記憶した情動を想起して、本来であれば
そのような入力に対応される出力をすべきところ、出力
(行動)をすることなく、所定の行動を出現させること
もできる。
【0187】例えば、ロボット装置1が、ある赤いもの
(入力)に触った(行動)時に引き起こされた情動、例
えば、熱さを感じたことによる恐怖感(情動)を記憶
(学習)することにより、後に赤いものをみる(入力が
あった)だけで、恐怖を想起して、その恐怖を行動とし
て表出させる(所定の行動を起こす)ことができる。す
なわち、赤いものに触るといった過去の動作を出現する
ことなく、他の適切な動作を出現させる。
【0188】例えば、このような場合、上述の連想想起
記憶部104が、音声認識部101が検出した音声信号
に応じて行動した結果を示す行動結果情報と、当該音声
信号とを結びつけて記憶する記憶手段として機能し、行
動生成部105が、新たに入力された音声信号に基づい
て、連想想起記憶部104が特定した行動結果情報に基
づいて行動をする行動制御手段として機能する。
【0189】また、ロボット装置1は、入力信号の特徴
空間に、他の入力、情動、行動の空間の影響を与え、当
該入力信号のクラス分類に影響を与えることもできる。
すなわち、例えば、図12中(A)及び(B)に示すよ
うに、画像及び音の特徴空間においてクラスが近似して
いる場合、第3の特徴空間(例えば、行動の特徴空間)
を参照して、画像及び音のクラス分類をする。
【0190】具体的には、画像信号で特徴づけられてい
る第1のオブジェクト(画像)の入力に対して、第1の
行動をとったとき報償(例えば、「撫でられた」)を得
て、画像特徴空間において第1のオブジェクトに非常に
近い第2のオブジェクトに対してもクラス分類の結果
(画像特徴空間においては近似している旨)として同様
に第1の行動をとったときに罰(例えば、「殴られ
た」)を得た場合には、次回以降の第2のオブジェクト
の入力に際しては、第1の行動以外をとるようにする。
すなわち、他の特徴空間におけるクラス分類の結果(こ
こでは行動結果)を利用して、他のクラスの分類に影響
を及ぼす、或いはクラス分類の戦略を変更する。
【0191】例えば、このような場合、音声認識部10
1が、入力情報検出手段、入力情報検出手段が検出した
音声信号の特徴量を検出する特徴量検出手段、及び特徴
量に基づいて、音声信号を分類する情報分類手段として
の機能を有する。ここで、特徴量に基づく音声信号の分
類とは、HMMによるクラス分類に該当する。なお、特
徴量検出手段としての機能は、後で詳述する図33に示
す特徴量抽出部122により実現され、情報分類手段と
しての機能は、図33に示すHMM部123により実現
される。
【0192】さらに、音声認識部101は、行動生成部
105に制御されて行動した結果を示す行動結果情報
(例えば、報償、罰)に基づいて、当該行動を引き起こ
した音声信号の分類(認識クラス)を変更する分類変更
手段としての機能を有することになる。なお、連想記憶
による学習については、誉められたときにとった行動と
刺激(音声、画像、行動等)が結びつけるような学習を
行うこともできる。
【0193】以上、ロボット装置1における本発明に係
る部分の全体について説明した。次に各部についてさら
に具体的に説明する。
【0194】(4−2)任意の動作の学習(センサ処理
部の具体例)ロボット装置1は、上述したように、学習
する動作(行動)を、予め設定されている動作や任意の
動作としている。ここでは、任意の動作の学習、すなわ
ち新規動作の学習について説明する。
【0195】ロボット装置1は、上述したように、サー
ボモータで各関節が制御されている。ロボット装置1
は、CPU10からの角度指定(角度指定情報)により
各関節の角度時系列を発生して、その結果として動作を
出力している。
【0196】また、サーボ制御部からの信号として、関
節につけられたポテンショメータにより実際の関節の角
度、及びモータに与えているパルス信号等を得ることが
できる。任意の動作の教示は、このようなパルス信号
を、上述したような予め設定されている動作を教示する
タッチセンサ等のセンサ信号の代わりに使用して実行す
るものである。
【0197】ロボット装置1は、このような任意の動作
の学習をするための具体的な構成として図17中
(A)に示すように、識別部111を備えている。ここ
で、識別部111は、図15に示したセンサ処理部10
2が任意の動作を学習するために構成されている場合の
具体例となる。識別部111は、各関節モータへの制御
信号のパルス幅に基づいて動作を学習する。
【0198】ところで、ロボット装置1は、各姿勢に遷
移するようになされているいることから、動作の学習の
際には、一定の姿勢に留まっていることはない。この場
合、「立ち姿勢」や「座り姿勢」等の各姿勢において、
同様な動作を学習させる必要がある。よって、動作部
(関節部)を制御するパルス幅によって動作を教示する
ような場合、各姿勢を把握した上で行うことが必要にな
る。
【0199】このようなことから識別部111は、図1
7中(B)に示すように、各姿勢に応じて複数の識別器
111,111,・・・を備えている。例えば、第
1の識別器111は、「座り姿勢」時の動作学習用、
第2の識別器111は、「立ち姿勢」時の動作学習用
というようにである。
【0200】識別部111は、このように複数の識別器
111,111,・・・から、現在の姿勢情報に基
づいて、所望の一の識別器に切換えて、任意姿勢におけ
る動作の学習をする。
【0201】なお、現在の姿勢の情報である姿勢情報
は、各ポテンショメータ26〜26 、角速度センサ
18或いは加速度センサ19から得られる情報、例えば
重力情報から認識することができる。また、行動生成部
105から動作部の制御信号として出力されるコマンド
に基づいて、現在の姿勢情報を得ることもできる。
【0202】学習については、外力を与えていない状態
のパルス幅との比較によって行う。これは、通常の状態
で各関節がとるパルス幅はある程度の誤差範囲内で決ま
ったパターンとなっているが、外力が加わっているとそ
のパターンは通常のものと異なるものになる。このよう
な関係を利用し、通常の動作と、外力を加えて動作を教
示する際のパターンとの差異から、学習される動作の情
報を得る。具体的には、次のようにして動作を学習す
る。
【0203】例えば、姿勢情報から立ち姿勢であると認
識された場合、第1の識別器111 に対して、動作学
習のために外力を加えたときのパルス幅を情報として与
え、同時に、その動作に割り当てられる情報を与える。
例えば、動作学習において使用するパルス幅は、(6)
式に示すように、いわゆるPID制御として使用する信
号を使用する。そして、具体的には、PWM制御された
パルス幅を使用する。
【0204】
【数6】
【0205】ここで、eは、時刻iでのエラー値(ポ
テンショメータの目標角度と現在角度(実際の角度)の
差分)であり、P,I,Dは定数であり、このよ
うな(6)式のP値を使用する。
【0206】例えば、与えるパルス幅及び動作の情報と
しては、ベクトル値とする。例えば、学習する動作に割
り当てられる情報として、5次元のベクトル[V,V
,V,V,V]とする。ここで、ベクトルの要
素をV,V,V,V,Vの5個にすることに
より、5種類の刺激を認識することができるようにな
る。具体的には、以下のようにして学習を行う。
【0207】背中を後ろ方向に押したとき(backward)
には、そのときに発生したパルス幅で構成したベクトル
及び対応される動作の情報としてO=[0,1,
0,0,0]を与える。例えば、図18に示すように、
識別器111に、パルス幅のベクトル値(backward)
及び[0,1,0,0,0]を与える。
【0208】ここで、各値V,V,V,V,V
は、0から1の間の実数(浮動小数点)として学習さ
れ、その刺激(学習)される部分が大きいほど1とされ
る。例えば、O=[0,1,0,0,0]による行動
の取得による結果としてベクトルが[0.1,0.9,0.2,0.
1,0.3]といった実数として得られる。
【0209】また、背中を前方向に押したときには、そ
のときに発生したパルス幅で構成したベクトルP及び
対応される動作の情報としてO=[0,0,1,0,
0]を与え、首を下方向に押したときには、そのときに
発生したパルス幅で構成したベクトルP及び対応され
る動作の情報としてO=[0,0,0,1,0]を与
え、首を上に押し上げたときには、そのときに発生した
パルス幅で構成したベクトルP4及び対応される動作の
情報としてO=[0,0,0,0,1]を与える。そ
して、例えば、姿勢の初期値として、外力が加わってい
ないときのパルス幅のベクトルP及びそれに対応され
る動作の情報としてO=[1,0,0,0,0]を与
え、これと上述した値と比較して動作を学習する。
【0210】例えば、パルス幅の例を図19乃至図25
に示す。この図19乃至図25では、横軸に各関節の位
置を示し、縦軸にいわゆるPWMパルスの値を示す。
【0211】図19は、立ち姿勢におけるパルス幅(パ
ルス信号の値)の値を示している。ここで、図中、「F
R1」は、右前脚の第1関節(肩の関節)の位置、「F
R2」は、その第2関節(膝の関節)の位置、「FR
3」は、その第3関節(足首の関節)の位置である。ま
た、「FL1」は、左前脚の第1関節(肩の関節)の位
置、「FL2」は、その第2関節(膝の関節)の位置、
「FL3」は、その第3関節(足首の関節)の位置であ
る。また、「HR1」は、右後脚の第1関節(肩の関
節)の位置、「HR2」は、その第2関節(膝の関節)
の位置、「HR3」は、その第3関節(足首の関節)の
位置である。また、「HL1」は、後左脚の第1関節
(肩の関節)の位置、「HL2」は、その第2関節(膝
の関節)の位置、「HL3」は、その第3関節(足首の
関節)の位置である。また、「Head1」、「Hea
d2」、「Head3」は、首が多関節からなりそれぞ
れに対応される位置を示す。以下の図20乃至図25に
おいても同様である。このように、ある状態(姿勢或い
は動作)において、全15個のパルス幅の値を得ること
ができ、すなわち、上述した学習に使用するベクトル値
Pを、15次元の要素からなるベクトル値として得るこ
とができる。
【0212】立ち姿勢において背中を前方向に押したと
きには、図20に示すようなパルス幅となり、立ち姿勢
において背中を後方に押したときには、図21に示すよ
うなパルス幅となり、立ち姿勢において頭を上方向に押
したときには、図22に示すようなパルス幅となり、立
ち姿勢において頭を下方向に押したときには、図23に
示すようなパルス幅となり、座り姿勢において右脚を持
たれたときには、図24に示すようなパルス幅となり、
座り姿勢において左脚を持たれたときには、図25に示
すようなパルス幅となる。識別部は、このようなパルス
幅に基づいて、姿勢を把握して、動作を学習する。
【0213】また、ロボット装置1は、図26に示すよ
うに、快及び不快判定部112を備えることにより、実
際の動物に行うと同様に、動作を学習することができ
る。
【0214】快及び不快判定部112は、センサ処理部
102からの出力に対して、快或いは不快を規定する情
動の値の判別をする。そして、それに応じて行動情動を
出力する。例えば、快及び不快判定部112は、感情モ
デル73における不快を規定する情動の値が大きいと
き、不快を回避する行動を引き起こす行動情報を出力す
る。例えば、背中を後方向に押されたら、不快と判断し
て、「座り姿勢」に遷移する行動情報を出力する。ま
た、背中を前方向に押され、或いは頭を下方向に押され
たら、不快と判断して、「伏せ姿勢」に遷移する行動情
報を出力する。また、伏せ姿勢から首を上方向に持ち上
げられたら、不快と判断して、「座り姿勢」に遷移する
行動情報を出力する。また、座り姿勢から首を上方向に
持ち上げられたら、不快と判断して、「立ち姿勢」に遷
移する行動情報を出力する。すなわち、上述のような動
作は、外部からの負荷が大きく、不快と感じることによ
り発現される動作である。このような行動情報に基づい
て行動生成部105は行動を生成する。
【0215】このように動作を発現させることにより、
実際の犬等に姿勢の学習をさせると同様に、不快と感じ
たロボット装置1は自ら姿勢を遷移し、このよう遷移動
作を学習する。
【0216】なお、上述したような動作の学習は複数回
の入力をすることにより行う。また、他の姿勢(他の識
別器)についても、学習を行う。そして、各識別器の構
成については、例えば、階層型ニューラルネットワーク
を採用した学習がなせるように構成する。例えば、3層
のニューラルネットワークの場合は、図27に示すよう
に、入力層、中間層及び出力層から構成する。このよう
な場合、概略として次のような手順により学習がなされ
る。
【0217】入力層では、当該入力層に対応された形態
されたセンサ信号等が各ニューロンに入力される。中間
層では、入力層の各ニューロンから伝えられたデータの
特徴量を抽出する。具体的には、中間層の各ニューロン
は、入力データの何らかの特徴に着目して、その特徴量
を抽出して評価する。そして、出力層は、中間層の各ニ
ューロンから与えられる特徴を組み合わせることによっ
て最終的な決定を行う。
【0218】また、例えば、上述したような3層のニュ
ーラルネットワークにおいては、バックプロパゲーショ
ンによる学習が確立されており、例えばこれを採用して
識別器を構成する。これにより、背中を後ろ方向に押し
て、O=[0,1,0,0,0]が入力させて、出力
として[0,1,0,0,0]に近い値(実数)が出力
されるようになる。
【0219】以上のようにして、ロボット装置1は、識
別部111により、任意の動作を学習することができ
る。これにより、画像信号や音声信号を結びつけて学習
することにより、ロボット装置1は、所定の発話(音声
信号)に対して、当該発話に対応して学習した動作を発
現するようになる。
【0220】 (4−3)ロボット装置に与えられた外力の学習 上述の任意の動作の学習においては、外力を与えて強制
的に変化した際の姿勢を学習することで、所定の発話等
に結びつけて発現する動作(姿勢)を学習する場合につ
いて説明した。ここでは、そのような外力の種類の学習
について説明する。ロボット装置1は、外力の種類を学
習することにより、学習した外力が入力された際には、
所定の動作を発現することができる。具体的には、ロボ
ット装置1は、腰に与えられる外力を学習して、学習後
において腰に対して学習した外力が与えられた場合に、
この外部からの力入力を認識し、所定の動作としてお座
りを出現するようなことができる。以下、具体的に、外
力の学習について説明する。
【0221】ロボット装置1は、外力の学習のための構
成として、図28に示すように、動作部材151と、動
作部材151を動作させるための関節部152と、動作
部材151を介して外力が作用している関節部152の
状態を検出する検出手段153と、検出手段153が検
出した関節部152の状態と外力とを対応させて学習す
る学習手段160とを備えている。そして、学習後にお
いては、ロボット装置1は、外力が与えられた場合、関
節部152の状態からその種類を特定することができ
る。ここで、動作部材151は、ここで、ロボット装置
1は、図7及び図8に示すように、胴体部ユニット2、
脚部ユニット3A,3B,3C,3D、胴体部ユニット
2及び頭部ユニット4等のアクチュエータ25〜25
によって駆動される部分である。また、関節部152
は、そのようなアクチュエータ25 〜25であっ
て、具体的には、アクチュエータ25〜25を構成
しているモータである。
【0222】このような構成とすることにより、ロボッ
ト装置1は、モータに与えられるPWMのパルス信号を
使用して外力の学習を行えるようになされている。ロボ
ット装置1は、上述したように、胴体部ユニット2、脚
部ユニット3A,3B,3C,3D、胴体部ユニット2
及び頭部ユニット4等が関節(ジョイント)を介した動
作部材とされ、さらに、脚部ユニット3A,3B,3
C,3Dが複数の関節(肩関節、膝関節、足首関節)を
介した複数の動作部材からなり、胴体部ユニット2の前
後左右にそれぞれ脚部ユニット3A,3B,3C,3D
が関節を介して連結されると共に、胴体部ユニット2の
前端部及び後端部にそれぞれ頭部ユニット4及び尻尾部
ユニット5が関節を介して連結されて構成されている。
そして、これら動作部材を動作可能に接合する関節は、
アクチュエータ25〜25によって構成されてお
り、PWMのパルス信号は、このアクチュエータ25
〜25 を構成しているモータに与えられる信号であ
る。
【0223】PWMのパルス信号のその幅の値は、動作
部材(各種ユニット)151を介して外力が作用してい
る関節部(モータ)152の状態によって決定されるも
のであり、すなわち各ジョイント(モータ)の目標角度
と実際の角度とのエラー値として計算されるものであ
り、このようなことから、ロボット装置1に力が加われ
ば、エラー値が大きくなり、これによりパルス幅の値も
大きくなる。すなわち、PWMのパルス幅の値は、ロボ
ット装置1に加わる外力に従って大きくなる。ロボット
装置1は、外力の学習を、このようなPWMのパルス信
号を使用して行っている。検出手段153は、具体的に
はこのようなPWMのパルス幅の値を、動作部材151
を介して外力が作用している関節部152の状態として
検出している。なお、上述したように、PWMのパルス
信号のその幅の値は、各ジョイント(モータ)の目標角
度と実際の角度とのエラー値(差分)として計算される
ものであることから、検出手段153が検出する関節部
152の状態とは、各ジョイント(モータ)の目標角度
と実際の角度とのエラー値である言うこともできる。な
お、検出手段153は、例えば、図8等に示す信号処理
回路14の一機能として実現され、又はソフトウェア或
いはオブジェクトプログラムによって実現される。
【0224】ここで、実施の形態では、後で詳述する
が、外力の学習用のPWMのパルス信号として、脚部ユ
ニット3A,3B,3C,3Dの関節となるモータに与
えられるPWMのパルス信号と、胴体部ユニット2と頭
部ユニット4の関節となるモータに与えられるPWMの
パルス信号とを使用している。上述した図19〜図25
は、様々な外力が加わった場合のそのような外力の学習
に使用される各関節部(モータ)のPWMのパルス信号
の変化を示すものであり、様々な外力に応じたパターン
変化を示すものである。なお、図20に示す「前方へ押
す」の際のパターンと図21に示す「後方に押す」の際
のパターンとを比較してみてもわかるように、PWMパ
ルス幅の値が0(x軸)について略対象となっている。
【0225】外力の学習では、上述したような様々な外
力が加えた際のこのようなパターン(詳しくはベクトル
値)を学習用のデータとして利用して、学習手段160
においてニューラルネットワークを利用した学習を行っ
ている。例えば、学習手段160は、ソフトウェア或い
はオブジェクトプログラムによって実現される。
【0226】ニューラルネットワークとして、階層結合
型ネットワークの、特にバックプロパゲーションによる
ニューラルネットワークを利用して学習している。バッ
クプロパゲーションによるニューラルネットワークは、
パターン認識への適応性が高く、実施の形態では、図2
9及び図30に示すように、入力層161、隠れ層(中
間層)162及び出力層163の3層からなる3層バッ
クプロパゲーションによるニューラルネットワークによ
る学習を行っている。
【0227】このような3層バックプロパゲーションに
よるニューラルネットワークにより、学習後において
は、センサからの情報(パルス幅の値)Dinが入力層
161に入力されると、出力層163からそのようなセ
ンサからの情報Dinに対応される学習された外力の種
類の情報Doutが出力されるようになる。
【0228】このような3層バックプロパゲーションに
よるニューラルネットワークにおける入力層161、隠
れ層162及び出力層163は具体的には次のように構
成されている。
【0229】入力層161は、複数のニューロンを有し
ており、実施の形態では18個のニューロンを有してい
る。すなわち、入力層161には、外力の学習のために
18のデータが入力される。例えば、ロボット装置1
は、現在の姿勢として「立ち姿勢(Standing)」、「座
り姿勢(お座り姿勢、Sitting)」、「寝姿勢(Sleepin
g)」といった3種類あり、各ジョイント(各関節部の
モータ)のPWMパルス幅の値が15種類(4脚×3=
12種類と頭部には3種類があり計15種類)あり、こ
のようなことから、その総計の18種類が入力データと
されている。
【0230】ここで、現在の姿勢の入力をも外力の学習
に用いているのは、ジョイント(関節)の状態が姿勢に
依存するからであり、すなわちそのパルス幅の値が姿勢
に依存するからである。
【0231】このような入力層161に、各パルス幅の
値からなるベクトル値とされたパターンがセンサからの
情報Dinとして入力される。なお、実施の形態では、
入力値であるパルス幅の値は、[−512,512]の
範囲内で値をとるため、(7)式により正規化してい
る。
【0232】
【数7】
【0233】ここで、Pは実測されたパルス幅の値であ
り、Pmaxは最大値(512)であり、Pminは最
小値(−512)である。また、姿勢に関しての入力デ
ータは、[0,1]のため(0又は1のどちらかの値を
とるため)、正規化は必要ない。
【0234】隠れ層162は、複数のニューロンを有し
ており、実施の形態では17個のニューロンを有してい
る。このニューロンの数は、いわゆるタンブ法により決
定している。すなわち、入力層161のニューロンの数
と出力層163のニューロンの数との平均をとり、得ら
れた値のスムージングを行うことにより決定した。タン
ブ法による隠れ層162のニューロン数numOfHidden
は、式で表すと(8)式のようになる。
【0235】
【数8】
【0236】ここで、numOfInputは入力層161のニュ
ーロン数であり、numOfOutputは出力層153のニュー
ロン数であり、αはスムージングにより増減する値とな
る。この(8)式に入力層161のニューロン数numOfI
nputとして18、後述の出力層153のニューロン数nu
mOfOutputとして10を代入すると、隠れ層162のニ
ューロン数numOfHiddenは17になる。
【0237】出力層163は、複数のニューロンを有し
ており、実施の形態では10個のニューロンを有してい
る。ここで出力層163のニューロン数が10個とある
が、これは、10種類の外力を学習により認識すること
ができることを示唆し、例えば、前に押された(ForceF
orward、図20に示した外力)、後ろに押された(Forc
eBakward、図21に示した外力)、右手を持たれた(Ri
ghtHandUp、図24に示した外力)、左手を持たれた(L
eftHandUp、図25に示した外力)、両手を持たれた(B
othHandUp、図示なし)、頭を上に押された(HeadUp、
図22に示した外力)、頭を下に押された(HeadDown、
図23に示した外力)、頭を右に押された(HeadRigh
t、図示なし)、頭を左に押された(HeadLeft、図示な
し)、押されていない(NoForce、例えば図9に示した
状態)等として10種類の外力を認識することができ
る。
【0238】このように入力層161、隠れ層162及
び出力層163が構成されており、隠れ層162及び出
力層163で使用される入出力関数については種々挙げ
られるが、実施の形態ではいわゆるシグモイド関数を使
用している。シグモイド関数は、例えば、図31に示す
ように、いわゆる閾値関数等と異なり入力和に対して出
力がなめらかに変化する特性を有している。
【0239】このような3層バックプロパゲーションに
よるニューラルネットワークを使用して、種々の外力の
学習が次のようになされる。
【0240】学習は、図30に示すように、入力ベクト
ルデータ及び教示信号ベクトルデータの対をネットワー
ク(学習手段160)に与えることにより行う。教師ベ
クトルデータは、ある特定のニューロンの出力が1で、
それ以外は0になるように与える。すなわち例えば、認
識させたい種類の外力を1として、認識する必要がない
外力の種類を全て0として与える。
【0241】このとき、中間層162が入力和により得
られる出力y (1)は(9)式に示されるようなシグ
モイド関数sigmoid()よって得られ、また、出力層1
63が入力和により得られる出力y (2)は(10)
式に示されるようなシグモイド関数sigmoid()よって
得られる。そして、重みの更新、すなわち重みの学習
は、(11)式によってなされる。ここで、シグモイド
関数sigmoid()は(12)式のように示される関数で
ある。
【0242】
【数9】
【0243】
【数10】
【0244】
【数11】
【0245】
【数12】
【0246】ここで、aは入力される各パルス幅の値
であり、zは誤差逆伝播出力であり、εは学習関数で
あり、βはモーメント係数である。ε(学習関数)及び
β(モーメント係数)は、学習速度に大きく影響する因
子であり、例えば、実施の形態のように構成されたロボ
ット装置1の場合には、ε=0.2、β=0.4とする
ことで学習速度を最適なものとすることができる。
【0247】そして、複数回の入力ベクトルデータの入
力と教師ベクトルデータの入力とを行い、ニューラルネ
ットワークに入力された入力ベクトルデータと教師ベク
トルデータとの誤差がある閾値以下に収束したとき学習
を終了する。例えば、(13)式に示すような平均2乗
誤差errorがある閾値以下に収束したときに学習を終了
する。
【0248】
【数13】
【0249】ここで、aは入力ベクトルデータであり、
teは教師ベクトルデータである。
【0250】例えば、学習手順は、オンライン学習(逐
次学習)で、同じデータを10回繰り返し学習するよう
にする。また、同じパターンのデータも略20個連続で
学習させる。これにより、総計略800サンプルによる
学習がなされることになる。
【0251】図32には、学習回数と平均2乗誤差との
関係の一例を示している。この図32に示す結果は、学
習回数が約50回で上述の平均2乗誤差が極小になって
おり、これは、学習が約50回で収束していることを示
している。なお、通常、重み係数の初期値はランダムに
与えるので、その初期値によっては学習が収束の程度が
異なってくる。すなわち、初期値によっては、このよう
に約50回で学習が収束することもあるが、場合によっ
ては、学習を収束させるまで150回程度要する場合も
あるということである。
【0252】以上のような手順により3層バックプロパ
ゲーションによるニューラルネットワークを使用した学
習がなされる。これにより、ロボット装置1は、複数種
類の外力の入力(複数回の入力)により、関節部152
の状態(例えば、PWMパルス幅の値)に対応させて当
該複数種類の外力を学習して、外力をカテゴライゼーシ
ョン(分類化)することができる。なお、例えば、うま
くカテゴライゼーションされているか否か或いは過学習
しているか否かは、ロボット装置1によるいわゆる汎化
性テストを行うことにより確認することができる。
【0253】具体的には、このような外力の学習によ
り、ロボット装置1は、腰に外力が与えられた場合、学
習した複数種類の外力から当該外力が腰に作用している
ことを認識して、具体的には各関節部152に与えられ
る各PWMパルス幅の値(パターン)から当該外力が腰
に作用していることを認識して、対応される所定の動作
としてのお座りを出現することができるようになる。こ
のようにロボット装置1は、任意の外力を学習すること
ができ、これにより、ユーザからの接触(外力)による
インタラクションの自由度を高くして、多くの動作を出
現させることができるようになる。
【0254】なお、ここでは、学習部における学習を3
層バックプロパゲーションによるニューラルネットワー
クを利用して行う場合について説明したが、学習部では
他の学習手法を利用することができることはいうまでも
ない。例えば、SVM(Support Vector Machine)を用
いて、外力をカテゴライゼーションすることもできる。
SVMは、パーセプトロンと同様に線形分類する方法で
あるが、データを非線形な空間に一度写像し、その空間
内で分離する超平面を求めるため、事実上非線形な問題
を解くことができる。以下にその原理を示す計算式を示
す。
【0255】通常、パターン認識の問題は、テストサン
プルx=(x,x,x,・・・・,x)とした
場合に対して、(14)式に示す認識関数f(x)を求
めることができる。
【0256】
【数14】
【0257】ここで、教師ラベルをy=(y,y
,・・・,y)とすると、(15)式のような制
約条件の下で、‖v‖を最小化する問題を考えれば良
い。
【0258】
【数15】
【0259】このような制約のついた問題は、ラグラン
ジュの未定乗数法を用いて解くことができる。ラグラン
ジュ乗数を導入すると、(16)式のように示すことが
できる。
【0260】
【数16】
【0261】ここで、b及びvについて(17)式のよ
うに編微分すると、(18)式に示すような二次計画問
題を落とすことができる。(19)式には制約条件を示
している。
【0262】
【数17】
【0263】
【数18】
【0264】
【数19】
【0265】特徴空間の次元数が、訓練サンプルの数よ
りも少ない場合は、スラック変数ξ≧0を導入して、制
約条件を(20)式のように変更する。
【0266】
【数20】
【0267】最適化については、(21)式の目的関数
を最適化する。
【0268】
【数21】
【0269】ここで、Cは、制約条件をどこまで緩める
かを指定する係数で、実験的に値を決定する必要があ
る。ラグランジュ乗数αに関する問題は、(22)式の
ように示すように変更される。(23)式には制約条件
を示している。
【0270】
【数22】
【0271】
【数23】
【0272】しかし、ここまででは、非線形の問題を解
くことはできないため、非線形な写像関数であるカーネ
ル関数K(x,x’)を導入し、一度高次元の空間に写
像してその空間で線形分離することを考える。こうする
ことによって、元の次元では、非線形分離をしているこ
とと同等になる。カーネル関数は、ある写像Φを用い
て、(24)式のように示すことができる。そして、識
別関数は、(25)式に示すようになる。
【0273】
【数24】
【0274】
【数25】
【0275】学習に関しても、(26)式に示すように
なる。(27)式には制約条件を示している。
【0276】
【数26】
【0277】
【数27】
【0278】カーネル関数としては、ガウシアンカーネ
ルの(28)式等を用いることができる。
【0279】
【数28】
【0280】以上のような原理により、SVMによる行
動のカテゴライゼーションが可能になる。
【0281】また、ここでは、ロボット装置1がジョイ
ント(関節部)の状態に基づいて外力を学習する場合に
ついて説明したが、ジョイントの状態からロボット装置
1に作用する外力を検出することに留まるだけでも良
い。すなわち、この場合、ロボット装置1は、動作部材
を動作させるための関節部の状態を検出する検出手段
と、検出手段が検出した関節部の状態に基づいて動作部
材に作用する外力を検出する外力検出手段とを備える。
例えば、ここでいう検出手段は、上述の図28に示した
検出手段153である。
【0282】このようなロボット装置1は、関節部の状
態に基づいて外力があったことを検出することができ
る。そして、例えば、検出手段と外力検出手段とはソフ
トウェア或いはオブジェクトプログラムとして実現可能
であり、よって、このようなロボット装置1は、特別
(専用)なセンサを装備することなく、外力が加わって
いることを検出することができるようになる。また、ロ
ボット装置1は、上述したような外力を学習する場合に
際しても新たな構成を備えることなく外力の学習が達成
されていると言える。
【0283】なお、ロボット装置1におけるこのような
外力を検出する構成は、いわゆる外力検出装置としての
構成であり、この外力検出装置としての構成は、ロボッ
ト装置1に適応されることに限定されないことはいうま
でもない。
【0284】また、本例では、外力の学習用のPWMの
パルス信号として、脚部ユニット3A,3B,3C,3
Dの関節となるモータに与えられるPWMのパルス信号
と、胴体部ユニット2と頭部ユニット4の関節となるモ
ータに与えられるPWMのパルス信号とを使用した場合
を説明したが、これに限定されるものではなく、他の関
節を構成するモータのPWMのパルス信号を外力の学習
用に使用することもできる。
【0285】また、本例では、PWMのパルス信号を外
力の学習用に使用している場合について説明したが、こ
れに限定されるものではなく、外力に応じて変化する信
号を外力の学習用に使用することができる。
【0286】 (4−4)音声信号の認識(音声認識部の具体例) 次に、音声信号の認識について具体的に説明する。ロボ
ット装置1は、図33に示すように、音声信号を認識す
る部分として、音声信号入力部121、特徴量抽出部1
22、HMM部123を備えている。ここで、特徴量抽
出部122及びHMM部123からなる構成は、図15
に示した音声認識部101の具体例となる。
【0287】音響信号入力部121は、周囲の音等が入
力される部分である。例えば、上述のマイクロホン23
である。この音響信号入力部121からの音響信号(音
声信号)は、特徴量抽出部122に出力される。
【0288】特徴量抽出部122は、音響信号の特徴量
を検出して、後段のHMM部123に出力する。
【0289】HMM部123は、Hidden Markov Model
を採用し、特徴量に基づいて、入力されてきた音響信号
のクラス分類をする。例えば、複数に分類されているク
ラスに基づいて、音響信号を識別する。そして、HMM
部123は、各クラスにおける認識結果を、例えば、各
クラスに対応される単語と思われる確率として出力す
る。例えば、ベクトル値として出力する。
【0290】以上のような構成により、ロボット装置1
は、マイクロホン23等から入力される音声を音韻系列
として識別する。
【0291】そして、図34に示すように、音声認識部
101によりHMMにより認識された言語の情報
[S,S,S]が、センサ認識部102により取
得した動作の情報[V,V,V,V,V]と
ともに、連想想起記憶部104に入力される。
【0292】連想想起記憶部104では、学習時におい
て、これらの情報を結びつけて記憶する。そして、連想
想起記憶部104は、学習後には、入力された情報に基
づいて行動情報を出力する。例えば、ベクトル値の行動
情報[B,B,B,B ]を出力する。
【0293】例えば、学習において、図35に示すよう
に音声認識結果としての“おすわり(backward)”の言
語と、行動の取得による結果としてベクトル[0.1,0.
9,0.2,0.1,0.3]が入力されている場合において、学
習後に、“おすわり(backward)”が入力されたときに
は、「お座り」の動作[0,1,0,0,0]を行動情
報として出力する。
【0294】以上、ロボット装置1における連想想起に
よる学習について説明した。次に、学習対象物の特定を
容易にする共同注意を取り入れた学習について説明す
る。
【0295】(5)共同注意 ロボット装置1による音声や画像を学習する場合、周囲
のノイズから特定の音や画像を特定して、これを学習の
対象(学習対象物、ターゲットオブジェクト)とするこ
とが前提とされる。共同注意は、そのような学習対象物
を特定を容易にするものである。例えば、共同注意は、
学習対象物を振る或いは揺する(視覚刺激)、又は声を
発して指示する(聴覚刺激)等の被教示者が学習対象物
を特定させるための刺激を発生させることにより可能と
なる。
【0296】ロボット装置1は、共同注意のための構成
として、図36に示すように、画像信号入力部131、
セグメンテーション処理部132及び学習対象物検出部
133を備えている。ここでセグメンテーション処理部
132及び学習対象物検出部133は、学習対象物を特
定する学習対象物特定手段として機能する。そして、上
述の行動生成部105が、そのような学習対象物特定手
段が特定した学習対象物の情報が記憶された連想想起記
憶部104の当該学習対象物の情報と、新たな検出した
物の情報とに基づいて行動をする行動制御手段として機
能する。
【0297】画像信号入力部131は、周囲を撮像する
部分であり、具体的には、図8に示したCCDカメラ2
0である。この画像信号入力部131から入力された画
像信号はセグメンテーション処理部132に入力され
る。
【0298】セグメンテーション処理部132は、画像
信号からセグメンテーションを行う。例えば、色による
セグメンテーションを行う。セグメンテーションとは、
画像内において領域を特定し、それの特微量を調べる、
或いは特徴空間に写像することを意味する。このセグメ
ンテーションにより、撮像した画像内において、学習対
象物と周囲の画像との差別化が可能となる。セグメンテ
ーション処理部132においてセグメンテーションされ
た画像信号は、後段の学習対象物検出部133に入力さ
れる。
【0299】学習対象物検出部133は、セグメンテー
ションされた画像情報から注意部分(学習対象物)を検
出(特定)する。例えば、セグメンテーションされた画
像情報から動きのある部分、すなわち時間系列において
変化のある部分を特定領域として、ある条件を満たした
とき学習対象物として検出する。具体的には、次のよう
に、学習対象物の検出がなされる。
【0300】先ず、セグメンテーションされた画像にお
いて、動きのある部分(時間的に変化している部分)を
特定領域として、注意量を設定する。ここで、注意量
は、学習対象物特定のための指標となるものである。動
きにより学習対象物を特定する場合には、注意量は動き
により変化する量となる。
【0301】そして、その特定領域を追尾して、注意量
により学習対象物か否かを判別する。その注意量がある
条件を満たせば、学習対象物として特定、すなわちロボ
ット装置1が“注意を払う”ようにする。
【0302】動きにより学習対象物を特定することにつ
いては、人間世界でもそうであるが、教示者は、学習対
象物を教示する際には、当該学習対象物を振って或いは
揺すって被教示者に教示するからである。例えば、「コ
ップ」であることを教示する際には、教示者は、「コッ
プ」を振りながら、被教示者に“コップ”と言って教示
するようにである。
【0303】学習対象物検出部133は、特定領域を追
尾して注意量が所定の値、例えば、動きが所定量の変化
を示したとき、学習対象物として特定して、注意を払う
ようにする。具体的には、注意量がある閾値(ステッ
プ)以上を超えた場合に注意を払うようにする。
【0304】このように、学習対象物検出部133は、
セグメンテーション処理部132によって特定領域に注
意量を設定して、学習対象物を検出(特定)している。
【0305】以上のような画像信号入力部131、セグ
メンテーション処理部132及び学習対象物検出部13
3を備えることにより、ロボット装置1は共同注意を可
能としている。
【0306】これにより、ロボット装置1は、学習対象
物を適切に特定して、上述したように、画像情報或いは
行動と結びつけた学習を適切にすることができる。
【0307】なお、上述の実施の形態では、ロボット装
置1の行う共同注意について、対象(物体)の動きから
学習対象物として特定することについて説明した。しか
し、これに限定されるものではない。例えば、音声によ
り学習対象物を特定することもできる。この場合、例え
ば、ロボット装置1は、音声が発せられている方向に向
き、対象物を学習対象物として特定する。例えば、音
声、例えば発生している方向及び大きさに対して注意量
を設定して、ある条件を満たした際に、学習対象物とし
て特定するようにする。
【0308】また、学習対象物に対する注意は、時間に
より減衰するものとするものとしてもよい。或いは、連
想が安定すると減衰するものとしてもよい。これによ
り、新たな刺激(画像入力、音声入力)に対して注意を
払い、学習を発火(開始)させることができる。
【0309】また、注意を払った時点でステップ上に大
きな値をとり、ある条件により減衰するようにすること
としてもよい。例えば、ある条件を時間として、時間の
経過により減衰するようにする。また一方で、同時に2
つ以上の対象に対して、注意の量を設定することもでき
る。例えば、注意量の設定は、対象の動き、或いは音声
に対して行う。例えば、一方の対象の動きに対してして
注意量を設定し、他方の対象については音声に対して注
意量を設定する。
【0310】これにより、注意を払っている対象(特定
領域)を調査(例えば、色、形等の特徴量を調査)して
いるときに、他の刺激(例えば、音声、画像)により他
の対象に注意量を設定することができる。ここで、現在
注意を払っている対象については、上述したように、ス
テップ上に大きな値とされるので、このような他の刺激
により違う対象に注意量が設定されても、しばらくは先
に選択した対象の調査を続けることができる。
【0311】そして、現在注意を払っている対象の”注
意”が減衰してきた場合は、他の刺激のある対象、すな
わち注意量が増加してきた対象に注意を移すことができ
る。
【0312】また、共同注意は、刺激として学習対象物
の動きによるものの他に、人間の指により行うこともで
きる。すなわち、その指の指す方向の物体を学習対象物
として特定するというものである。
【0313】このような共同注意とは、通常の人と人の
インタラクションで想定される共同注意の例である。例
えば、この場合には、セグメンテーションにより得た肌
色の領域を特定領域として、注意を払う。図37を用い
て説明する。
【0314】図37中(A)に示すように、ある環境に
おいて、円錐体141を手142により指し示している
撮像画像が得られたとする。なお、以下の処理において
対象物を画像処理により、例えば、計算速度等を考慮し
て撮像画像にローパスフィルタをかけてもよい。
【0315】そして、画像内における肌色部分を抜き取
る。この場合、色特徴空間を使用して、肌色部分の特徴
を得て、画像内における肌色部分を抜き取る。これによ
り、図37中(B)に示すように、手142の部分が抜
き取られる。
【0316】そして、図37中(C)に示すように、そ
の手142の部分の長手方向を特定する。これは、対象
物を指し示したときの手の形状が対象物に向かって略長
方形状となるからである。例えば、長手方向は、図中の
線143に示すように特定される。
【0317】そして、図37中(D)に示すように、原
画像に求めた長手方向を合わせ込み、図37中(E)に
示すように、対象物を特定する。すなわち、指によって
指し示されている円錐体141が特定される。例えば、
指の先端近傍の画像をサンプルとして取り出し、色特徴
空間において色を特定して、該当する色によって構成さ
れている領域を特定する。これにより同一色とされてい
る、例えば、黄色の円錐体141を特定することができ
る。
【0318】また、共同注意については、上述のような
手法によるものに限定されるものではない。例えば、人
間の視線の先のものに注意を払う、というような共同注
意とすることもできる。
【0319】また、ロボット装置1が共同注意を行って
いるか否かを確認する手段を備えてもよい。すなわち、
共同注意により学習対象を特定した場合には、所定の行
動を出現させる。例えば、ロボット装置1は、対象が振
られて教示がなされている場合に、学習対象を特定(追
尾)したときには、頭部を振る等の行動を出現させて、
特定した旨を使用者に知らせる。これにより、教示物
は、自己が教示している物をロボット装置1が学習対象
物として捕らえているかを確認することができる。
【0320】以上のようにロボット装置1は、人間とイ
ンタラクションを通じて、自身が行動を評価し、自身に
とって適切な行動を獲得していくことができる。
【0321】また、ロボット装置1は、その行動を音声
などの他のセンサ刺激と連想記憶することにより、音声
のみでその行動を出せるように学習することができる。
【0322】次に、上述した連想記憶システムの具体例
について、図38を参照しながら説明する。この図38
に示す連想記憶システムの具体例においては、4つの知
覚チャンネル入力パターン(色、形、音声、本能)を記
憶、連想するものを想定している。この図38におい
て、色(Color)認識器201、形(Shape)認識器20
2、音声(Speech)認識器203の各チャンネルの入力
に対しては、予めいくつかのパターンあるいはプロトタ
イプを用意し、各プロトタイプ毎に例えば2値のID
(識別情報)を付しておき、各認識器201〜203で
は入力パターンがこれらのいずれのプロトタイプに対応
するかを認識して、そのID、すなわち、色プロトタイ
プID、形プロトタイプID、音声プロトタイプIDを
それぞれ出力し、連想記憶部210の短期記憶部211
に送るようにしている。ここで、音声(Speech)認識器
203からの出力は、意味や文法に従ったタグ付けを行
うセマンティクス・コンバータ(SC)204を介して
音声プロトタイプIDが短期記憶部211に送られ、同
時に音素記号列(Phoneme Sequence)も短期記憶部21
1に送られる。また、本能に関しては、本能情報部(I
SM:Internal StatesModel)205からは本能(例え
ば好奇心)の変化値(デルタ値)がアナログ量として出
力され、連想記憶部210の短期記憶部211に送られ
る。
【0323】連想記憶部(Associative Memory)210
は、短期記憶部(Short Term Memory)211、長期記
憶部(Long Term Memory)212及び注意記憶部(Atte
ntionMemory)213を有して構成されている。さら
に、この連想記憶システムにおいては、短期記憶部21
1に関連して、リリースメカニズム(RM)221及び
行動(behavior)ネットワーク(BeNet)222が設け
られている。RM(リリースメカニズム)221及びB
eNet(行動ネットワーク)222は行動生成部とも称さ
れる。
【0324】この図38に示す連想記憶システムにおい
て、色認識器201では、カラーセグメンテーション・
モジュールによりセグメンテーションされた各オブジェ
クトは、色プロトタイプIDを付加されて連想記憶部2
10に入力される。音声認識器203からは、ユーザの
発話により単語のプロトタイプIDが出力され、このと
き、発話の音素記号列(Phoneme Sequence)も連想記憶
部210に送られる。これによって、記憶・連想の処理
で、ロボットに発話させることが可能となる。入力され
た各チャンネルの情報は、連想記憶部210内の短期記
憶部(Short Term Memory)211に貯蔵され、ある一
定の時間、例えば100オブジェクト分程度保存され
る。
【0325】連想記憶部210では、入力パターンに関
して、過去に記憶したものであるかどうか連想(recal
l)する。連想が不可能な場合は、入力パターンをその
ままリリースメカニズム(RM)221及び行動ネット
ワーク(BeNet)222に送信する。連想可能な場合
は、連想の方向を付加してRM221及びBeNet222
に送信する。
【0326】BeNet222では、色認識器201のカラ
ーセグメンテーション・モジュールからのフラグ(Shar
ed Attention Flag) をチェックし、上述したようなユ
ーザからの指差し等による共同注意の有無をラッチコマ
ンドに変換して、連想記憶部210に送信する。連想記
憶部210では、BeNet222からラッチコマンドを受
信すると、フレームナンバによる検索を行い、マッチす
るオブジェクトを注意記憶部(Attention Memory)21
3に格納する。この状態で、本能の変化値(デルタ値)
が十分大きければ、注意記憶部(Attention Memory)か
ら213長期記憶部(Long Term Memory)212への記
憶(memory)を行う。本能の変化値(デルタ値)は、例
えば0〜100のようなアナログ的な値をとることがで
き、本能のデルタ値を例えば80で記憶しておけば、連
想により80という値を得ることが可能である。
【0327】次に、連想記憶の詳細について説明する。
図39は、連想記憶に用いられる2層の階層型ニューラ
ルネットワークの例を示している。この図39において
は、第一層を入力層(Input Layer)231、第二層を
競合層(Competitive Layer)232とする競合学習ネ
ットワークの例を示しており、入力層231の第iユニ
ット(ニューロン)と、競合層232の第jユニットと
の間の結合重みをWjiとしている。動作としては、記
憶モードと連想(あるいは想起)モードの2モード存在
し、記憶モードでは入力パターンを競合的に記憶し、想
起モードでは、ある部分的な入力パターンから、過去に
記憶したパターンを想起する。入力側には、上記色、
形、音声及び本能の入力x,x,...,x に対応し
てm個のニューロンが存在しており、例えば色プロトタ
イプID、形プロトタイプID、音声プロトタイプID
をそれぞれ20個ずつとし、本能の種類を6個とすると
き、入力ニューロン数は、20+20+20+6=66
より、66個となる。競合ニューロンは、それぞれのニ
ューロンが1つのシンボルを表し、競合ニューロンの数
は、記憶できるシンボルあるいはパターンの数に等し
い。上記の具体例では、各プロトタイプID及び本能の
種類の全ての組み合わせパターンが、20×20×20
×6で48000となるが、例えば300程度を実装す
ることが挙げられる。
【0328】次に、記憶モードについて説明する。入力
層231と競合層232との結合重みWjiは、0から
1までの間の値をとるものとする。初期結合重みはラン
ダムに決定する。記憶は、先ず競合層で勝ち抜いたニュ
ーロンを選択し、そのニューロンと入力ニューロンとの
結合力(結合重みWji)を強めることで行う。入力パ
ターンベクトル[x,x,...,x] については、
例えばニューロンxに対応するプロトタイプID(例
えば第1番目の色プロトタイプID)が認識されたとき
に、当該ニューロンx を発火させ、順次、形、音声
も同様に認識されたニューロンを発火させることとす
る。発火したニューロンは+1、発火しないニューロン
は−1の値をとる。
【0329】出力(競合)ニューロンy の値は、入
力側のニューロンx について、次の(29)式によ
り求める。
【0330】
【数29】
【0331】また、競合に勝ち抜くニューロンは、 max{y} により求める。
【0332】競合に勝ち抜いたニューロン(winner neu
ron) と入力ニューロンとの結合の更新は、Kohonen の
更新規則により、 ΔWji = α(x−Wji) α:学習率 Wji(new) = ΔWji+Wji(old) により求める。これをL2Normで正規化して、次の(3
0)式とする。
【0333】
【数30】
【0334】この結合力がいわゆる学習の強さを表し、
記憶力になる。
【0335】ここで、具体例としては、上記学習率α=
0.5を用いており、一度記憶させれば忘却することは
なく、次回同じようなパターンを提示すれば、ほぼ間違
いなく記憶したパターンを連想することができる。
【0336】なお、本来、逐次的に学習させていく過程
で、提示回数の多いパターンに関しては記憶力が強くな
り、あまり提示されないパターンに対しては記憶力の弱
くなるような仕組みが連想記憶に対して求められ、本実
施の形態に適用することも可能である。すなわち、学習
率と連想記憶のチューニングにより対応でき、例えば、
学習率を低く設定しておけば、それだけ記憶力が強くな
るまでに提示回数を必要とする。また、提示回数に応じ
て学習率を低くさせていく、例えば最初の1回は学習率
が高いが、提示回数が増えるほど学習率を低くする、と
いったこともできる。これにより、提示回数が少ないパ
ターンに関して記憶力の更新があまり行われず、その結
果、記憶があいまいになり、記憶したのとは違うパター
ンを連想したり、また、連想閾値に達せず連想できなか
ったりすることが生じる。ただし、その分、新しいシン
ボルあるいはパターンを獲得できる可能性があるため、
容量が限られていても柔軟な連想記憶システムを実現で
きることになる。
【0337】次に、想起(連想)モードについて説明す
る。いま、ある入力パターンベクトル[x,x,...,
] がこの連想記憶システムに提示されたとする。
この入力ベクトルは、プロトタイプIDでも、プロトタ
イプIDに対する尤度や確率でもよい。出力(競合)ニ
ューロンy の値は、入力側のニューロンx につい
て、上記(29)式により計算されるが、各チャンネル
の尤度に応じて、競合ニューロンの発火値も一種の尤度
を表す。ここで重要なのは、複数チャンネルからの尤度
入力に対して、それらをコネクションして全体的な尤度
を求めることができるという点である。本実施の形態の
具体例では、連想するものは唯一で、競合に勝ち抜くニ
ューロンを、 max{y} により求める。求めたニューロンの番号がシンボルの番
号に対応し、逆行列演算により入力パターンを想起す
る。すなわち、 Y=W・X X=W−1・Y=W・Y である。
【0338】次に、入力パターンの提示回数と結合係数
について説明する。本実施の形態の具体例では、学習率
を高く設定しておき、提示されたパターンを一度で記憶
するようにチューニングしている。この場合の学習回数
と結合係数との関係を調べる。ある入力パターンと競合
層のシンボルニューロンとの結合係数は、上記(29)
式を調べることと等価である。
【0339】ここで、図40は、ある入力パターンによ
り発火したニューロンとシンボルを獲得した競合層のニ
ューロンとの結合の関係(active input)及び発火して
いない入力ニューロンと結合層のニューロンとの結合の
関係(non-active input)について、横軸を提示回数
(epoch) 、縦軸をニューロン発火値(activation)と
して表している。この図40より、active inputの場合
には、提示回数が増えるほど入力パターンとシンボルニ
ューロンとの結合が強まっているのが分かる。提示2回
目で結合が急激に強まっているのは、1回目の提示で大
きく更新されたからであり、学習率を低く設定すれば緩
やかなカーブになる。これとは対照的に、non-active i
nputの場合の入力パターンで発火していないニューロン
との結合は弱まっている。
【0340】なお、提示回数のみでなく、提示頻度も考
慮した連想記憶システムを構築することも挙げられる。
これは、記憶容量が固定(有限)であることから、よく
提示されるパターンを優先的に記憶することが好ましい
からである。このことと関連して、忘却関数も導入する
ことが好ましい。例えば、認識器のノイズ等の非線形要
素により、間違えて記憶してしまったパターンを、一度
の提示のみで保存する必要はなく、提示回数が少なく、
しかも提示頻度も低いパターンに関しては、忘却するよ
うにし、新しく提示された重要なパターンを記憶する方
が好ましい。
【0341】ここで、本実施の形態の具体例において
は、学習率を固定し、新しい入力パターンか否かの識別
を、ある閾値を用いて行っているが、学習率を変化させ
ることも可能であり、また、閾値の決め方に関しては、
定式化も可能である。
【0342】次に、多数の入力パターンに対する応答に
ついて説明する。様々なパターンを入力として提示した
ときの連想記憶システムの動作についてテストを行った
結果を次の表1に示す。
【0343】
【表1】
【0344】この表1において、色(Color)、形(Sha
pe)、音声(Speech)及び本能(instinct)についての
各プロトタイプIDを1,2,・・・等の数字で表し、
連想されたプロトタイプIDを○つきの数字、,,
・・・等で表している。
【0345】この表2から明らかなように、最初に入力
パターン[1,1,1,1]が記憶(memory)された後
に、5番目の提示で、色1,形3のパターンが入力され
ると、色1のみに基づいて[1,3,,]が連想
(recall)されるが、次の6番目の提示で[1,3,
3,1]のパターンが記憶された後の7番目の提示で
は、色1,形3のパターンの入力に対して[1,3,
,]が連想(recall)されている。
【0346】ここで、記憶容量を20シンボルとすると
き、次の表2に示すような20の入力パターンの記憶は
正常に行われるが、次の表3に示すような20より多く
の入力パターン(合計400パターン)の提示に対して
は、あとから学習したものを記憶として保持し、[1,
1,1,1]等のように初期に記憶したシンボルは上書
きされることになる。
【0347】
【表2】
【0348】
【表3】
【0349】表3の場合に獲得(保持)できるシンボル
は、最後に学習したものから20シンボル前までのみで
ある。
【0350】ところで、新しいシンボルであるか否かの
判断条件として、「2つ以上のニューロンの発火値の異
なる入力パターンが提示されたとき」を採用すると、例
えば、色、形のいずれかのみが異なる複数物体に対して
同じ名前を付けることはできないが、色、形共に異なる
場合には、同じ名前を付けることが可能である。すなわ
ち、[1,1,1,1]と[2,1,1,1]とを同時
に記憶することはできないが、[1,1,1,1]と
[2,2,1,1]とは記憶可能である。この場合、次
の表4に示すような入力パターンは全て記憶可能であ
る。
【0351】
【表4】
【0352】以上説明したような連想記憶システムにお
いては、記憶容量が限られているため、効率よく利用し
ていく必要がある。そのためには、よく提示されるパタ
ーンを優先的に記憶する、あるいは、頻度の高いパター
ンを優先的に記憶するようにすることが好ましい。
【0353】また、記憶容量と関連して、記憶する必要
のないパターンは忘却し、新たな重要なパターンが入力
されたときに記憶可能とすることが好ましい。このため
に、次のような結合係数忘却関数f、すなわち、 Wnew = f(Wold) を用いることが挙げられる。なお、Wnew は新しい
結合係数、Wold は古い結合係数を示す。最も簡単
な忘却関数は、パターンが提示される毎に、競合層で敗
北者ニューロンとの結合係数を弱める方法である。例え
ば、新しい結合係数Wnew は、古い結合係数W
old と、忘却結合係数Wforgetを用いて Wnew = f(Wold)= Wold − W
forget とすることが挙げられる。これにより、提示されないパ
ターンに対する結合は弱まり、重要でない頻度の低いパ
ターンを忘却することができる。ここで、ヒューマノイ
ド・ロボットの場合には、人間の脳生理学の知見に基づ
いた忘却関数fを設定するのが自然であり、好ましい。
【0354】また、上述した実施の形態の具体例では、
単語(名詞)の記憶について採り上げたが、意味記憶や
エピソード記憶、動詞の獲得についても考慮することが
好ましい。例えば、「蹴る」という行動を獲得して「蹴
る」という言葉を獲得できるようにする等である。
【0355】また、新しい入力パターンの判断は、競合
層の勝者ニューロンの発火値に閾値を設けて行っている
が、入力チャンネルの増加に伴いチューニングし直す必
要があり、定量的に設定できる、例えばプログラム中で
自動的に計算するようにすることが好ましい。
【0356】さらに、入力チャンネル数が増加してマル
チモーダルになった場合に、各チャンネルの正規化につ
いても考慮することが好ましい。
【0357】次に、上記図38の本能情報部(ISM:
Internal States Model)205に関連して、ロボット
装置の行動決定方法の実現例について説明する。すなわ
ち、外的原因因子及び内的原因因子に基づいて、実行す
る行動を決定する動物行動学的アプローチを適用したロ
ボット装置における動作生成を調べるための動作テスト
の具体例を説明する。
【0358】本実施の形態の具体例においては、ロボッ
トの内部状態(Internal States)及び本能について、
8つのゲージ(gauge)と8つの本能(instinct)とを
用いている。すなわち、ロボットの内部状態を表す8つ
のゲージとして、Nourishment(養分)、Movement(大
便)、Moisture(水分)、Urine(小便)、Tiredness
(疲労)、Affection(愛情)、Curiosity(興味)及び
Sleepy(眠気)を用い、これらのそれぞれに対して、Hu
nger(摂食欲)、Defecation(排便欲)、Thirst(摂水
欲)、Urination(排尿欲)、Exercise(運動欲)、Aff
ection(愛情欲)、Curiosity(好奇心)及びSleepy
(睡眠欲)の8つの本能(instinct)を対応させてい
る。
【0359】内部状態は、例えばバイオリズム(Biorhy
thm)より通知される時間経過により変化し、また、セ
ンサ入力と行動の成功/失敗によっても変化する。変化
幅は0〜100、変化の度合いは、例えばpersonality_
gauge.cfg 及びpersonality_perception.cfgにある係数
によって決定する。
【0360】また、Frustration (欲求不満)は、欲求
が最大値MAX に達しても行動を出せないときに生成さ
れ、行動によってゲージ(gauge) が期待通りに変化し
た場合にクリアされるように設定している。
【0361】ここで、今回の動作テストにおいては、動
物行動学的なアプローチによる行動選択・決定システム
として、複数の行動が階層構造(ツリー構造)にて構築
された図41に示すようなコンテンツツリー(contents
tree) を用いている。このコンテンツツリーでは、上
位から順に、システム(system)、サブシステム(subs
ystem)、モード(mode)、モジュール(module)とさ
れ、上位層の行動が願望のような抽象的な行動とされ、
下位層の行動がそのような願望を実現するための具体的
な行動とされている。図41のツリーでは、生態学モデ
ル(Ethological Model)として最低限の行動をし、音
声認識を使用したツリーへの切り替え及び動作のテスト
と、学習についてのテストが可能なものを採用してい
る。また、今回の動作テストでは、図41のツリーに対
応した本能(instinct)、すなわち、Hunger(摂食
欲)、Affection(愛情欲)、Curiosity(好奇心)、Sl
eepy(睡眠欲)を使用しており、これらの本能(instin
ct)に対応したゲージ(gauge)、すなわち、Nourishme
nt(養分)、Affection(愛情)、Curiosity(興味)、
Sleepy(眠気)のみを使用している。なお、実際の動作
テストでは、モジュール(module)を実行したときに具
体的に何を成功とし何を失敗とするかをコード上に記述
しており、また、ゲージ(gauge)と本能(instinct)
の対応については、線形対応としているが、これに限定
されるものではない。
【0362】本実施の形態において、感情(emotion)
については複数軸による表現を用いており、具体的に
は、覚醒度(Activation)と快度(Pleasantness)とを
用い、さらにもう1軸の確信度(Certainly)を用い
て、3軸による3次元空間に感情を表現している。覚醒
度(Activation)とは、主に生物に存在するバイオリズ
ムによって決定する起きているか寝ているかの度合いで
あり、快度(Pleasantness)とは、本能がどれだけ満た
されたか又は満たされていないかを示す度合いであり、
確信度(Certainly)とは、現在注目しているものがど
れだけ自分自身で確信できるものかを示す度合いであ
る。快度(Pleasantness)を求めるのに必要な本能とし
て、上述した8gauge,8instinct(ただし、動作テスト
では上述した4ゲージ、4本能まで)を使用している。
覚醒度(Activation)、快度(Pleasantness)、確信度
(Certainly)については、各々−100〜100の範
囲内の値をとるものとし、快度(Pleasantness)と確信
度(Certainly)については常に0を保持するように時
間変動する。また、覚醒度(Activation)も、本能(in
stinct)要因の場合は0を保持するようにし、バイオリ
ズム(Biorhythm)に関しては値をそのまま使用するよ
うにしている。
【0363】本能(instinct)の満足の度合いは快度
(Pleasantness)に反映させる。確信度(Certainly)
は、注意(Attention)しているものがある場合、ビジ
ョンオブジェクト(Vision Object) によるそのものの
確信度をそのまま使用する。覚醒度(Activation)は、
基本的にバイオリズム(Biorhythm)の値によるが、睡
眠(Sleep)に変動があった場合にはその結果を用いて
変化させている。
【0364】今回の動作テストにおける制限事項とし
て、バイオリズム(Biorhythm)は覚醒度(Activatio
n)のみに反映させ、この場合の確信度(Certainly)を
0〜100の範囲で変化させているが、これに限定され
ないことは勿論である。
【0365】次に、動作テストの第1の具体例として、
睡眠(Sleep)と食べる(Eat)についてのテスト結果を
図42〜図44を参照しながら説明する。この第1の動
作テストでは、Hunger(摂食欲)とSleepy(睡眠欲)以
外の本能(instinct)を固定とし、図41のコンテンツ
ツリーのモジュール(module)による探す(Search)/
食べる(eat)と、眠る(Sleeping)の移り変わりを調
べる。図42は、本能(instinct)の内のHunger(摂食
欲)及びSleepy(睡眠欲)の時間変化を示し、図43
は、感情(emotion)として覚醒度(Activation)、快
度(Pleasantness)、確信度(Certainly)の時間変化
を示し、図44は、モチベーション(Motivation)とし
ての睡眠(Sleep)と食べる(Eat)の時間変化を示して
いる。
【0366】これらの図42〜図44から明らかなよう
に、PAT(なでる)によるSleepツリーへの切り替えが可
能であり、図示しないがHIT(叩く)によるSleepツリー
からの切り替えも可能である。Hunger(摂食欲)が高ま
ることによるEatツリーへの切り替え、Hungerが満たさ
れることによるSleepへの切り替えも可能である。叩か
れたときに覚醒度(Activation)に変化がないのは、Sl
eepが最小(MIN)、すなわち−100であるため、本能
(instinct)が変更されないためである。Hungerが最大
(MAX)、すなわち100になった後、欲求不満(Frust
ration)(図示せず)の値が増加するため、快度(Plea
santness)の増加が少し緩やかになる。
【0367】次に、動作テストの第2の具体例として、
上記4つ全てのゲージ(gauge) 、すなわち、Nourishm
ent(養分)、Affection(愛情)、Curiosity(興
味)、Sleepy(眠気)、これらに対応する4つの本能
(instinct)を用い、図41のコンテンツツリーを用い
た場合のふるまい(behavior)の移り変わりと、本能
(instinct)等を値の変化を図45〜図47に示す。図
45は、本能(instinct)の時間変化を示し、図46
は、感情(emotion)の時間変化を示し、図47は、リ
リースメカニズム(Release Mechanism)の時間変化を
示している。
【0368】これらの図45〜図47において、PAT
(なでる)によるSleepへの切り替え、Hunger(摂食
欲)によるEatへの切り替え、Curiosity(好奇心)によ
る情報獲得(Information Acquisition)の切り替えが
それぞれ有効に動作している。また、本能(instinct)
のCuriosity(好奇心)が最大(100)になっている
のに動作が発現していない状態では、快度(Pleasantne
ss)が不快方向(欲求不満)に振れているのが分かる。
さらに、PAT(なでる)によりSleepが増加すると、快度
(Pleasantness)が快方向に変化し、それに伴って安ら
ぎを求める(ComfortSeeking)が変化している様子が分
かる。
【0369】以上の動作テストにより、図41のコンテ
ンツツリーに基づく動物行動学的なアプローチによる行
動選択・決定システムが有効に動作していることが確認
できた。
【0370】なお、本発明は、上述した実施の形態のみ
に限定されるものではなく、例えば、連想記憶システム
の具体的な構成例や、動作テストのためのコンテンツツ
リー等は図示の例に限定されず、種々の構成が可能であ
る。この他、本発明の要旨を逸脱しない範囲で種々の構
成が可能であることは勿論である。
【0371】
【発明の効果】本発明に係るロボット装置は、接触検出
手段による接触検出の時間的前後に入力された情報を入
力情報検出手段により検出し、接触検出手段による接触
検出に応じて出現した行動と、入力情報検出手段が検出
した入力情報とを結びつけて記憶手段に記憶し、行動制
御手段により、新たに得られた入力情報に基づいて、記
憶手段における情報から行動を連想して、その行動をす
ることにより、入力情報とその際に出現した行動とを結
びつけて記憶して、再び同一の入力情報が入力された際
には、対応される行動を再び出現させることができる。
【0372】また、本発明に係るロボット装置の行動制
御方法は、接触を検出する接触検出工程と、接触検出工
程による接触検出の時間的前後に入力された情報を検出
する入力情報検出工程と、接触検出工程による接触検出
に応じて出現した行動と、入力情報検出工程にて検出し
た入力情報とを結びつけて記憶手段に記憶する記憶工程
と、新たに得られた入力情報に基づいて、記憶手段にお
ける情報から行動を連想して、その行動をする行動制御
工程とを有する。
【0373】この発明が適用されたロボット装置は、入
力情報とその際に出現した行動とを結びつけて記憶し
て、再び同一の入力情報が入力された際には、対応され
る行動を再び出現させることができる。
【0374】また、本発明に係るロボット装置は、入力
情報検出手段が検出した入力情報に応じて行動した結果
を示す行動結果情報と、当該入力情報とを結びつけて記
憶手段に記憶し、行動制御手段により、新たに入力され
た入力情報に基づいて、記憶手段における行動結果情報
を特定し、当該行動結果情報に基づいて行動をすること
により、入力情報とその入力情報に応じて行動した結果
の行動結果情報とを結びつけて記憶して、再び同一の入
力情報が入力された際には、対向される行動結果情報に
基づき過去の行動を想起して、適切な行動を出現させる
ことができる。
【0375】また、本発明に係るロボット装置の行動制
御方法は、入力情報検出手段が検出した入力情報に応じ
て行動した結果を示す行動結果情報と、当該入力情報と
を結びつけて記録手段に記憶する記憶工程と、新たに入
力された入力情報に基づいて、上記記憶手段における行
動結果情報を特定し、当該行動結果情報に基づいて行動
をする行動制御工程とを有する。
【0376】この発明が適用されたロボット装置は、入
力情報とその入力情報に応じて行動した結果の行動結果
情報とを結びつけて記憶して、再び同一の入力情報が入
力された際には、対向される行動結果情報に基づき過去
の行動を想起して、適切な行動を出現させることができ
る。
【0377】また、本発明に係るロボット装置は、入力
情報検出手段が検出した入力情報の特徴量を特徴量検出
手段により検出し、特徴量に基づいて、入力情報を情報
分類手段により分類し、行動制御手段により、入力情報
の分類に基づいて行動をして、行動制御手段により制御
されて行動した結果を示す行動結果情報に基づいて、当
該行動を引き起こした入力情報の分類を分類変更手段に
より変更することにより、入力情報の分類に応じて行動
をして、その行動した結果に基づいてその分類を変更す
ることができる。
【0378】また、本発明に係るロボット装置の行動制
御方法は、入力情報検出手段が検出した入力情報の特徴
量を検出する特徴量検出工程と、特徴量検出工程にて検
出した特徴量に基づいて、入力情報を分類する情報分類
工程と、情報分類工程における入力情報の分類に基づい
て行動をする行動制御工程と、行動制御工程にて制御さ
れて行動した結果を示す行動結果情報に基づいて、当該
行動を引き起こした入力情報の分類を変更する分類変更
工程とを有する。
【0379】この発明が適用されたロボット装置は、入
力情報の分類に応じて行動をして、その行動した結果に
基づいてその分類を変更することができる。
【0380】また、本発明に係るロボット装置は、学習
対象物を特定する学習対象物特定手段が特定した学習対
象物の情報を記憶手段に記憶し、行動制御手段により、
新たな検出した物と記憶手段に記憶した学習対象物の情
報とに基づいて行動をすることにより、学習対象物を記
憶して、再び同一の対象物が入力された際には、所定の
行動をすることができる。
【0381】また、本発明に係るロボット装置の行動制
御方法は、学習対象物を特定する学習対象物特定工程
と、学習対象物特定工程にて特定した学習対象物の情報
を記憶手段に記憶する記憶工程と、新たな検出した物と
記憶手段に記憶した学習対象物の情報とに基づいて、行
動をする行動制御工程とを有する。
【0382】この発明が適用されたロボット装置は、学
習対象物を記憶して、再び同一の対象物が入力された際
には、所定の行動をすることができる。
【0383】また、本発明に係るロボット装置は、動作
部材と、動作部材を動作させるための関節部と、動作部
材を介して外力が作用している関節部の状態を検出する
検出手段と、検出手段が検出した関節部の状態と外力と
を対応させて学習する学習手段とを備えることにより、
動作部材を介して外力が作用している関節部の状態を検
出手段により検出し、検出手段が検出した関節部の状態
と外力とを対応させて学習手段により学習することがで
きる。すなわち、ロボット装置は、動作部材に作用する
外力に応じて変化する関節部の状態に対応させて当該外
力を学習することができる。
【0384】また、本発明に係る外力検出装置は、動作
部材を動作させるための関節部の状態を検出する検出手
段と、検出手段が検出した関節部の状態に基づいて動作
部材に作用する外力を検出する外力検出手段とを備える
ことにより、動作部材を動作させるための関節部の状態
を検出手段により検出し、検出手段が検出した関節部の
状態に基づいて動作部材に作用する外力を検出すること
ができる。すなわち、外力検出装置は、動作部材に作用
する外力を、当該動作部材を動作させる関節部の状態に
基づいて検出することができる。
【0385】また、本発明に係る外力検出方法は、動作
部材を動作させるための関節部の状態を検出し、検出し
た関節部の状態に基づいて動作部材に作用する外力を検
出することにより、動作部材に作用する外力を、当該動
作部材を動作させる関節部の状態に基づいて検出するこ
とができる。
【図面の簡単な説明】
【図1】入力信号の特徴量を検出するための特徴量空間
を示す図である。
【図2】画像及び音についての認識クラス等を備えた学
習システムを示すブロック図である。
【図3】新たな認識クラスの生成についての説明に使用
した図である。
【図4】先行文献(文献4、岩橋ら)を説明するために
使用した図である。
【図5】画像特徴空間と音特徴空間との関係を説明する
ために使用した図である。
【図6】画像特徴空間、音特徴空間、及び第3の特徴空
間との関係を説明するために使用した図である。
【図7】本発明の実施の形態であるロボット装置の外観
構成を示す斜視図である。
【図8】上述のロボット装置の回路構成を示すブロック
図である。
【図9】上述のロボット装置のソフトウェア構成を示す
ブロック図である。
【図10】上述のロボット装置のソフトウェア構成にお
けるミドル・ウェア・レイヤの構成を示すブロック図で
ある。
【図11】上述のロボット装置のソフトウェア構成にお
けるアプリケーション・レイヤの構成を示すブロック図
である。
【図12】上述のアプリケーション・レイヤの行動モデ
ルライブラリの構成を示すブロック図である。
【図13】ロボット装置の行動決定のための情報となる
有限確率オートマトンを説明するために使用した図であ
る。
【図14】有限確率オートマトンの各ノードに用意され
た状態遷移表を示す図である。
【図15】上述のロボット装置における本発明に係る部
分の構成を示すブロック図である。
【図16】ロボット装置への動作の教示を説明するため
に使用した図である。
【図17】ロボット装置の動作を教示する識別部を示す
ブロック図である。
【図18】動作の学習をする識別器を示すブロック図で
ある。
【図19】動作の学習に使用するパルス幅を示す図であ
って、立ち姿勢におけるパルス幅の特性図である。
【図20】動作の学習に使用するパルス幅を示す図であ
って、立ち姿勢から背中を前方向に押したときのパルス
幅を示す特性図である。
【図21】動作の学習に使用するパルス幅を示す図であ
って、立ち姿勢から背中を後ろ方向に押したときのパル
ス幅を示す特性図である。
【図22】動作の学習に使用するパルス幅を示す図であ
って、立ち姿勢において、頭を上方向に押したときのパ
ルス幅を示す特性図である。
【図23】動作の学習に使用するパルス幅を示す図であ
って、立ち姿勢において、頭を下方向に押したときのパ
ルス幅を示す特性図である。
【図24】動作の学習に使用するパルス幅を示す図であ
って、座り姿勢において、頭を右上方向に押したときの
パルス幅を示す特性図である。
【図25】動作の学習に使用するパルス幅を示す図であ
って、座り姿勢において、頭を左上方向に押したときの
パルス幅を示す特性図である。
【図26】ロボット装置の快及び不快判定部を示すブロ
ック図である。
【図27】ニューラルネットワークを説明するために使
用した図である。
【図28】本発明の実施の形態であって、ロボット装置
が外力を学習するために備える構成を示すブロック図で
ある。
【図29】3層バックプロパゲーションによるニューラ
ルネットワークを示す図である。
【図30】3層バックプロパゲーションによるニューラ
ルネットワークにおける各層のニューロンの構成を示す
図である。
【図31】シグモイド関数を示す特性図である。
【図32】学習回数と平均2乗誤差との関係を示す特性
図である。
【図33】ロボット装置の音声認識部を具体的構成を示
すブロック図である。
【図34】ロボット装置の連想想起記憶部及び行動生成
部を示すブロック図である。
【図35】具体的な処理を説明するために使用した連想
想起記憶部を示すブロック図である。
【図36】ロボット装置のセンサ処理部の具体的構成を
示すブロック図である。
【図37】指により学習対象物を特定する共同学習を説
明するために使用した図である。
【図38】連想記憶システムの具体例の概略構成を示す
ブロック図である。
【図39】連想記憶システムに用いられる2層の階層型
の競合学習ニューラルネットワークの例を示す図であ
る。
【図40】ある入力パターンにより発火した入力ニュー
ロン及び発火していない入力ニューロンと、競合層のニ
ューロンとの結合について、提示回数に伴う変化の例を
示す図である。
【図41】ロボット装置の行動決定動作のテストを行う
ために使用した階層構造の行動決定システムのコンテン
ツツリーを示す図である。
【図42】第1の動作テストにおける本能(instinct)
の内のHunger(摂食欲)及びSleepy(睡眠欲)の時間変
化を示す図である。
【図43】第1の動作テストにおける感情(emotion)
としての覚醒度(Activation)、快度(Pleasantnes
s)、確信度(Certainly)の時間変化を示す図である。
【図44】第1の動作テストにおけるモチベーション
(Motivation)としての睡眠(Sleep)と食べる(Eat)
の時間変化を示す図である。
【図45】第2の動作テストにおける本能(instinct)
の時間変化を示す図である。
【図46】第2の動作テストにおける感情(emotion)
の時間変化を示す図である。
【図47】第2の動作テストにおけるリリースメカニズ
ム(Release Mechanism)の時間変化を示す図である。
【符号の説明】
1 ロボット装置、101 音声認識部、102 セン
サ処理部、103 本能情動部、104 連想想起記憶
部、105 行動生成部、111 識別部、122 特
徴量抽出部、123 HMM部、131 画像信号入力
部、132 セグメンテーション処理部、133 学習
対象物検出部、151 動作部材、152 関節部、1
53 検出手段、160 学習手段
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/00 G10L 3/00 551H (72)発明者 長谷川 里香 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 花形 理 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 横野 順 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 ガブリエル コスタ 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 下村 秀樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 Fターム(参考) 3C007 AS36 CY02 KS22 KS23 KS31 KS33 KS36 KS39 KT02 KT11 KV01 KV06 KV11 KV18 KX13 LS06 LW12 LW15 MT14 WA04 WA14 WB13 WB14 WB16 WB18 WB19 WB23 WB25 WB26 WC10 WC13 WC29 5B057 AA05 BA02 CA12 CA16 DA11 DC01 DC36 5D015 AA05 GG00 KK01 KK02 5L096 CA02 FA00 HA11 JA11 KA04

Claims (29)

    【特許請求の範囲】
  1. 【請求項1】 接触を検出する接触検出手段と、 上記接触検出手段による接触検出と同時又は時間的前後
    に入力された情報を検出する入力情報検出手段と、 上記接触に応じて出現した行動と、上記入力情報検出手
    段が検出した入力情報とを結びつけて記憶する記憶手段
    と、 新たに得られた入力情報に基づいて、上記記憶手段にお
    ける情報から行動を連想して、その行動をする行動制御
    手段とを備えたことを特徴とするロボット装置。
  2. 【請求項2】 上記接触手段による接触検出に応じて出
    現した行動は、上記接触の外部負荷による動作部の変位
    結果であり、 上記接触検出手段は、上記外部負荷による動作部の制御
    信号の変化から接触を検出することを特徴とする請求項
    1記載のロボット装置。
  3. 【請求項3】 上記接触検出手段による接触検出に応じ
    て行動を出現させる行動出現手段を備え、 上記記憶手段は、上記接触検出手段による接触検出に応
    じて出現させる行動と、上記入力情報検出手段が検出し
    た入力情報とを結びつけて記憶することを特徴とする請
    求項1記載のロボット装置。
  4. 【請求項4】 上記入力情報検出手段は、画像情報又は
    音声情報の少なくとも一方を検出することを特徴とする
    請求項1記載のロボット装置。
  5. 【請求項5】 接触を検出する接触検出工程と、 上記接触検出工程による接触検出と同時又は時間的前後
    に入力された情報を検出する入力情報検出工程と、 上記接触に応じて出現した行動と、上記入力情報検出工
    程にて検出した入力情報とを結びつけて記憶手段に記憶
    する記憶工程と、 新たに得られた入力情報に基づいて、記憶手段における
    情報から行動を連想して、その行動をする行動制御工程
    とを有することを特徴とするロボット装置の行動制御方
    法。
  6. 【請求項6】 情報を検出する入力情報検出手段と、 上記入力情報検出手段が検出した入力情報に応じて行動
    した結果を示す行動結果情報と、当該入力情報とを結び
    つけて記憶する記憶手段と、 新たに入力された入力情報に基づいて、上記記憶手段に
    おける行動結果情報を特定し、当該行動結果情報に基づ
    いて行動をする行動制御手段とを備えたことを特徴とす
    るロボット装置。
  7. 【請求項7】 外的要因及び/又は内的要因に応じて情
    動を変化させ、情動の状態に基づいて行動し、 上記記憶手段は、上記入力情報に応じて行動した結果、
    生じた情動の状態を上記行動結果情報として、当該入力
    情報と結びつけて記憶し、 上記行動制御手段は、上記入力情報に基づいて、上記記
    憶手段から対応される情動の状態を想起し、当該情動の
    状態に応じて行動をすることを特徴とする請求項6記載
    のロボット装置。
  8. 【請求項8】 上記入力情報検出手段は、画像情報又は
    音声情報の少なくとも一方を検出することを特徴とする
    請求項6記載のロボット装置。
  9. 【請求項9】 入力情報検出手段が検出した入力情報に
    応じて行動した結果を示す行動結果情報と、当該入力情
    報とを結びつけて記録手段に記憶する記憶工程と、 新たに入力された入力情報に基づいて、上記記憶手段に
    おける行動結果情報を特定し、当該行動結果情報に基づ
    いて行動をする行動制御工程とを有することを特徴とす
    るロボット装置の行動制御方法。
  10. 【請求項10】 情報を検出する入力情報検出手段と、 上記入力情報検出手段が検出した入力情報の特徴量を検
    出する特徴量検出手段と、 上記特徴量に基づいて、上記入力情報を分類する情報分
    類手段と、 上記入力情報の分類に基づいて、行動をする行動制御手
    段と上記行動制御手段に制御されて行動した結果を示す
    行動結果情報に基づいて、当該行動を引き起こした上記
    入力情報の分類を変更する分類変更手段とを備えること
    を特徴とするロボット装置。
  11. 【請求項11】 上記入力情報が、画像情報又は音声情
    報であることを特徴とする請求項10記載のロボット装
    置。
  12. 【請求項12】 上記分類変更手段は、上記行動結果情
    報が行動した結果が不快であった旨を示すとき、上記入
    力情報の分類を変更することを特徴とする請求項10記
    載のロボット装置。
  13. 【請求項13】 入力情報検出手段が検出した入力情報
    の特徴量を検出する特徴量検出工程と、 上記特徴量検出工程にて検出した特徴量に基づいて、上
    記入力情報を分類する情報分類工程と、 上記情報分類工程における上記入力情報の分類に基づい
    て、行動をする行動制御工程と上記行動制御工程にて制
    御されて行動した結果を示す行動結果情報に基づいて、
    当該行動を引き起こした上記入力情報の分類を変更する
    分類変更工程とを有することを特徴とするロボット装置
    の行動制御方法。
  14. 【請求項14】 学習対象物を特定する学習対象物特定
    手段と、 上記学習対象物特定手段が特定した学習対象物の情報を
    記憶する記憶手段と、 新たな検出した物と上記記憶手段に記憶した学習対象物
    の情報とに基づいて、行動をする行動制御手段とを備え
    たことを特徴とするロボット装置。
  15. 【請求項15】 上記学習対象物特定手段は、入力画像
    情報をセグメントして、セグメントした領域の時間的変
    化を検出して、時間的変化が所定量になった領域に対応
    する対象物を学習対象物として特定することを特徴とす
    る請求項14記載のロボット装置。
  16. 【請求項16】 上記学習対象物特定手段は、入力音声
    情報に基づいて、学習対象物を特定することを特徴とす
    る請求項14記載のロボット装置。
  17. 【請求項17】 上記学習対象物特定手段は、入力音声
    情報の少なくとも音量又は方向の情報のうちの一の情報
    から学習対象物を特定することを特徴とする請求項16
    記載のロボット装置。
  18. 【請求項18】 上記学習対象物特定手段は、学習対象
    対象物を教示する教示者の視線を検出して、当該視線か
    ら学習対象物を特定することを特徴とする請求項14記
    載のロボット装置。
  19. 【請求項19】 学習対象物を特定する学習対象物特定
    工程と、 上記学習対象物特定工程にて特定した学習対象物の情報
    を記憶手段に記憶する記憶工程と、 新たな検出した物と上記記憶手段に記憶した学習対象物
    の情報とに基づいて、行動をする行動制御工程とを備え
    たことを特徴とするロボット装置の行動制御方法。
  20. 【請求項20】 動作部材と、 上記動作部材を動作させるための関節部と、 上記動作部材を介して外力が作用している上記関節部の
    状態を検出する検出手段と、 上記検出手段が検出した上記関節部の状態と上記外力と
    を対応させて学習する学習手段とを備えることを特徴と
    するロボット装置。
  21. 【請求項21】 上記検出手段は、上記関節部の状態と
    して上記動作部材を介して当該関節部に作用する外力を
    検出し、 上記学習手段は、上記検出手段が検出した外力と上記動
    作部材への外力とを対応させて学習することを特徴とす
    る請求項20記載のロボット装置。
  22. 【請求項22】 上記検出手段は、上記関節部の状態と
    して関節部の状態の目標値と実測値との差を検出し、 上記学習手段は、上記検出手段が検出した上記目標値と
    実測値との差と上記外力とを対応させて学習することを
    特徴とする請求項20記載のロボット装置。
  23. 【請求項23】 上記検出手段は、上記関節部の状態の
    目標値と実測値との差として、上記外力による上記関節
    部の制御信号の変化を検出し、 上記学習手段は、上記検出手段が検出した変化した制御
    信号と上記外力とを対応させて学習することを特徴とす
    る請求項22記載のロボット装置。
  24. 【請求項24】 上記学習手段の学習結果と学習後にお
    ける記関節部の状態とに基づいて所定の動作をさせる動
    作制御手段をさらに備えることを特徴とする請求項20
    記載のロボット装置。
  25. 【請求項25】 上記学習手段は、入力層、隠れ層及び
    出力層を有するニューラルネットワークにより学習する
    ことを特徴とする請求項20記載のロボット装置。
  26. 【請求項26】 動作部材を動作させるための関節部の
    状態を検出する検出手段と、 上記検出手段が検出した関節部の状態に基づいて上記動
    作部材に作用する外力を検出する外力検出手段とを備え
    たことを特徴とする外力検出装置。
  27. 【請求項27】 上記検出手段は、上記関節部の状態と
    して関節部の状態の目標値と実測値との差を検出し、 上記外力検出手段は、上記検出手段が検出した上記目標
    値と実測値との差に基づいて上記外力を検出することを
    特徴とする請求項26記載の外力検出装置。
  28. 【請求項28】 上記検出手段は、上記関節部の状態の
    目標値と実測値との差として、上記動作部材を介した外
    力による上記関節部の制御信号の変化を検出し、 上記外力検出手段は、上記検出手段が検出した変化した
    制御信号に基づいて上記外力を検出することを特徴とす
    る請求項27記載の外力検出装置。
  29. 【請求項29】 動作部材を動作させるための関節部の
    状態を検出し、 検出した上記関節部の状態に基づいて上記動作部材に作
    用する外力を検出することを特徴とする外力検出方法。
JP2001103855A 2000-03-31 2001-04-02 ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法 Pending JP2002160185A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001103855A JP2002160185A (ja) 2000-03-31 2001-04-02 ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2000-101364 2000-03-31
JP2000101364 2000-03-31
JP2000-280871 2000-09-14
JP2000280871 2000-09-14
JP2001103855A JP2002160185A (ja) 2000-03-31 2001-04-02 ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2011047594A Division JP2011115944A (ja) 2000-03-31 2011-03-04 ロボット装置、ロボット装置の行動制御方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2002160185A true JP2002160185A (ja) 2002-06-04

Family

ID=27342964

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001103855A Pending JP2002160185A (ja) 2000-03-31 2001-04-02 ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法

Country Status (1)

Country Link
JP (1) JP2002160185A (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002080141A1 (fr) * 2001-03-30 2002-10-10 Sony Corporation Appareil de traitement du son
WO2003075261A1 (fr) * 2002-03-06 2003-09-12 Sony Corporation Dispositif d'apprentissage, procede d'apprentissage et dispositif robot
JP2004114285A (ja) * 2002-09-02 2004-04-15 Sony Corp ロボット装置及びその行動制御方法
JP2004127126A (ja) * 2002-10-04 2004-04-22 Agi:Kk 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム
JP2004325440A (ja) * 2003-04-25 2004-11-18 Microsoft Corp 無線信号強度を使用する装置位置測定システムのキャリブレーション
JP2005148851A (ja) * 2003-11-11 2005-06-09 Sony Corp ロボット装置及びその物体学習方法
JP2005539296A (ja) * 2002-08-21 2005-12-22 ニール,ソロモン マルチ−ロボットシステム内での自己設定可能なモバイルロボットエージェントの組織化団体の為のシステムと方法と装置
US7152050B2 (en) 2003-02-19 2006-12-19 Sony Corporation Learning system capable of performing additional learning and robot apparatus
JP2007021719A (ja) * 2006-08-01 2007-02-01 Sony Corp 学習装置及び学習方法並びにロボット装置
CN100351054C (zh) * 2004-09-14 2007-11-28 索尼株式会社 机器人设备和控制其行为的方法
KR20080061901A (ko) * 2006-12-28 2008-07-03 주식회사 유진로봇 로봇의 입출력 장치에 의한 효율적인 음성인식 방법 및시스템
US7421313B2 (en) 2003-02-19 2008-09-02 Sony Corporation Robot apparatus and control method thereof
JP2013131172A (ja) * 2011-12-22 2013-07-04 Honda Motor Co Ltd 物体分類装置、物体分類方法、物体認識装置及び物体認識方法
CN104057458A (zh) * 2014-06-16 2014-09-24 浙江大学 一种基于体感和触摸的多轴机械臂直观控制系统及方法
CN105700438A (zh) * 2016-03-18 2016-06-22 北京光年无限科技有限公司 一种多关节小型机器人电控系统
WO2016103651A1 (ja) * 2014-12-22 2016-06-30 日本電気株式会社 情報処理システム、情報処理方法、及び、記録媒体
WO2018084164A1 (ja) * 2016-11-07 2018-05-11 Soinnホールディングス合同会社 動作転移装置、動作転移方法及び動作転移プログラムが格納された非一時的なコンピュータ可読媒体
JP2019105965A (ja) * 2017-12-12 2019-06-27 日本電信電話株式会社 学習型自律システム用学習データ生成装置、学習型自律システム用学習データ生成方法、プログラム
CN115091482A (zh) * 2022-07-14 2022-09-23 湖北工业大学 一种智能交流机器人

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002080141A1 (fr) * 2001-03-30 2002-10-10 Sony Corporation Appareil de traitement du son
US7228276B2 (en) 2001-03-30 2007-06-05 Sony Corporation Sound processing registering a word in a dictionary
WO2003075261A1 (fr) * 2002-03-06 2003-09-12 Sony Corporation Dispositif d'apprentissage, procede d'apprentissage et dispositif robot
JP2005539296A (ja) * 2002-08-21 2005-12-22 ニール,ソロモン マルチ−ロボットシステム内での自己設定可能なモバイルロボットエージェントの組織化団体の為のシステムと方法と装置
JP2004114285A (ja) * 2002-09-02 2004-04-15 Sony Corp ロボット装置及びその行動制御方法
JP2004127126A (ja) * 2002-10-04 2004-04-22 Agi:Kk 発想モデル装置、自発感情モデル装置、発想のシミュレーション方法、自発感情のシミュレーション方法、およびプログラム
US7421313B2 (en) 2003-02-19 2008-09-02 Sony Corporation Robot apparatus and control method thereof
US7152050B2 (en) 2003-02-19 2006-12-19 Sony Corporation Learning system capable of performing additional learning and robot apparatus
JP2004325440A (ja) * 2003-04-25 2004-11-18 Microsoft Corp 無線信号強度を使用する装置位置測定システムのキャリブレーション
JP2005148851A (ja) * 2003-11-11 2005-06-09 Sony Corp ロボット装置及びその物体学習方法
CN100351054C (zh) * 2004-09-14 2007-11-28 索尼株式会社 机器人设备和控制其行为的方法
JP2007021719A (ja) * 2006-08-01 2007-02-01 Sony Corp 学習装置及び学習方法並びにロボット装置
JP4529091B2 (ja) * 2006-08-01 2010-08-25 ソニー株式会社 学習装置及び学習方法並びにロボット装置
KR20080061901A (ko) * 2006-12-28 2008-07-03 주식회사 유진로봇 로봇의 입출력 장치에 의한 효율적인 음성인식 방법 및시스템
JP2013131172A (ja) * 2011-12-22 2013-07-04 Honda Motor Co Ltd 物体分類装置、物体分類方法、物体認識装置及び物体認識方法
CN104057458A (zh) * 2014-06-16 2014-09-24 浙江大学 一种基于体感和触摸的多轴机械臂直观控制系统及方法
WO2016103651A1 (ja) * 2014-12-22 2016-06-30 日本電気株式会社 情報処理システム、情報処理方法、及び、記録媒体
CN105700438A (zh) * 2016-03-18 2016-06-22 北京光年无限科技有限公司 一种多关节小型机器人电控系统
WO2018084164A1 (ja) * 2016-11-07 2018-05-11 Soinnホールディングス合同会社 動作転移装置、動作転移方法及び動作転移プログラムが格納された非一時的なコンピュータ可読媒体
JPWO2018084164A1 (ja) * 2016-11-07 2019-04-11 Soinnホールディングス合同会社 動作転移装置、動作転移方法及び動作転移プログラムが格納された非一時的なコンピュータ可読媒体
US11207773B2 (en) 2016-11-07 2021-12-28 Soinn Inc. Action transfer device, action transfer method, and non-transitory computer-readable medium storing action transfer program
JP2019105965A (ja) * 2017-12-12 2019-06-27 日本電信電話株式会社 学習型自律システム用学習データ生成装置、学習型自律システム用学習データ生成方法、プログラム
CN115091482A (zh) * 2022-07-14 2022-09-23 湖北工业大学 一种智能交流机器人
CN115091482B (zh) * 2022-07-14 2023-05-23 湖北工业大学 一种智能交流机器人

Similar Documents

Publication Publication Date Title
JP2011115944A (ja) ロボット装置、ロボット装置の行動制御方法及びプログラム
KR100864339B1 (ko) 로봇 장치 및 로봇 장치의 행동 제어 방법
JP2002160185A (ja) ロボット装置、ロボット装置の行動制御方法、外力検出装置及び外力検出方法
KR102497042B1 (ko) 사용자 행동을 바탕으로 반응하는 로봇 및 그의 제어 방법
JP4244812B2 (ja) 行動制御システム及びロボット装置の行動制御方法
EP1151779B1 (en) Robot and action deciding method for robot
US8538750B2 (en) Speech communication system and method, and robot apparatus
EP1486300B1 (en) Robot behavior control system, behavior control method, and robot device
US7117190B2 (en) Robot apparatus, control method thereof, and method for judging character of robot apparatus
Breazeal et al. Toward teaching a robot ‘infant’using emotive communication acts
Szwoch et al. Emotion recognition for affect aware video games
JP2003039363A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動学習プログラム、及びプログラム記録媒体
JP2005199403A (ja) 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
JP2006110707A (ja) ロボット装置
JP3558222B2 (ja) ロボットの行動制御システム及び行動制御方法、並びにロボット装置
JP4296736B2 (ja) ロボット装置
JP2002205289A (ja) ロボット装置の動作制御方法、プログラム、記録媒体及びロボット装置
Zhang et al. Spatio–temporal multimodal developmental learning
JP2000155750A (ja) 行動生成装置、行動生成方法及び行動生成プログラム記録媒体
JP2004209599A (ja) ロボット装置、ロボット装置の行動学習方法、ロボット装置の行動生成方法
JP2002269530A (ja) ロボット装置、ロボット装置の行動制御方法、プログラム及び記録媒体
Huang Developmental learning with applications to attention, task transfer and user presence detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110304

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111012

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120306