JP5499924B2 - ロボットの制御方法、ロボットの制御プログラムおよびロボット - Google Patents

ロボットの制御方法、ロボットの制御プログラムおよびロボット Download PDF

Info

Publication number
JP5499924B2
JP5499924B2 JP2010135419A JP2010135419A JP5499924B2 JP 5499924 B2 JP5499924 B2 JP 5499924B2 JP 2010135419 A JP2010135419 A JP 2010135419A JP 2010135419 A JP2010135419 A JP 2010135419A JP 5499924 B2 JP5499924 B2 JP 5499924B2
Authority
JP
Japan
Prior art keywords
emotion
robot
potential
information
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010135419A
Other languages
English (en)
Other versions
JP2012000694A (ja
Inventor
久俊 山岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010135419A priority Critical patent/JP5499924B2/ja
Publication of JP2012000694A publication Critical patent/JP2012000694A/ja
Application granted granted Critical
Publication of JP5499924B2 publication Critical patent/JP5499924B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、ロボットを制御する技術に関する。
近年、人と接するロボットに対人親和性を高めるために擬似的な感情を持たせる方法が用いられている。例えば、擬似的な感情を実現する手段として、喜怒哀楽などの基本的な感情を仮想空間の軸に対応付けし、それら軸上の値により決定される座標に対応する感情をロボットに表現させる方法が多く用いられている。上記仮想空間は多次元空間であり、以後感情空間と呼ぶものとする。
感情空間を用いた方法において、座標の動かしかたはロボットに自然な感情の遷移を表現させるために重要なものである。しかし、座標を単純な規則によって逐次遷移しただけでは、定期的に喜怒哀楽を繰り返す単調なロボットになってしまう。そこで、ロボットに備えられたセンサなどを介して外部から得られる信号を用いて座標を遷移させることにより、感情の遷移に変化を持たせて、ロボットに自然な感情を表現させる方法が知られている。
しかし、ロボットに自然な感情を表現させるためには、座標の動かし方にある程度の複雑性を持たせる必要があるため、感情空間上のどの位置にいる時に、どのように座標を動かすのかといった条件定義を数多く定義する必要がある。ところが、数多くの定義をプログラムすると、数多く定義した条件各々がどのように関連付けられているのかがプログラム作成者に簡単に理解できなくなるため、プログラムの記述ミスなどが起こりやすくなる。また、設計者の意図しない不都合な感情の遷移が発生する。例えば、感情空間上の特定の領域から座標が移動できなくなり、ロボットの感情が同じ状態のまま変化せず、利用者からみて明らかに不自然な挙動をロボットが示すことになる。例えば、ロボットが怒った状態のままになることなどである。
そこで、感情空間上の座標を動かす方法として、情動方程式を用いる方法が提案されている。この方法によれば、外部刺激と、感情空間上の座標の位置とを変数とした微分方程式によって、座標の単位時間あたりの移動量を定義するので、座標の遷移を、感情空間上の場所ごとあるいは刺激イベントごとに別々に記述する必要がなくなる。しかし、情動方程式によって記述する移動量の式は単位時間あたりのものであり、微分方程式を解かない限り、座標の長期的な時間の軌跡が不明になるため、座標の遷移を設計することが難しい。
また、移動量を示す式に、解軌跡が既知のマス-バネ-ダンパモデルの式を用いる方法が提案されている。この方法によれば、座標をどのように収束させるのかを設計することができる。しかし、マス-バネ-ダンパモデルでは、単一の外部刺激に対してどのように座標を目標に収束させていくかという過渡状態の軌跡を、パラメータによって調整できるのみであるため、設計可能な座標の遷移に限りがある。
また、他の技術として、外部状況に応じて変化させる感情を用いて、当該感情の状態に応じた行動を行うロボットが知られている。このロボットとその制御方法によれば、外部状況を検出した後、当該検出結果に基づいて、外部状況に対する印象を生成する。さらに、当該生成された印象に基づいて感情を変化させることにより、外部状況に対する印象に基づいて、新たな感情をあたかも本物の動物や人間がもつ感情のように変化させている。
特開2001−212783号公報
「ヒューマノイド心理モデルに関する研究」第4章(p69〜80、p94〜104)、早稲田大学大学院、三輪洋靖、2004年7月、
本発明は上記のような実情に鑑みてなされたものであり、ロボットに自然な感情を表現させるロボット制御技術を提供することを目的とする。
実施態様のひとつである、複数の感情に対応する軸を有する感情空間を用いて、ロボットに感情を表現させる方法は、ロボットが備えるコンピュータを用いて実行する。コンピュータは、記録部に記録した上記感情空間の座標により示される感情点により1つの値が決まる関数を有するポテンシャル情報を取得する。次にコンピュータは、上記ポテンシャル情報が有する上記感情点により1つの値が決まる関数と、現在の感情点を用いて、該現在の感情点における勾配ベクトルを求める。そして、コンピュータは上記勾配ベクトルが示す移動量と方向と、上記現在の感情点とを用いて、次の感情点を求める。
実施の態様によれば、ロボットに自然な感情を表現させることができるという効果を奏する。
感情空間の一実施例を示す図である。 Aは感情空間とポテンシャルの一実施例を示す3次元グラフであり、Bは各感情点の勾配ベクトルの一実施例を示す図である。 実施形態1の一実施例を示すブロック図である。 ロボットポテンシャルとイベントポテンシャルの合成の一実施例を示す図である。 関数の一実施例を示す図である。 感情空間上にポテンシャルをプロットした一実施例を示す図である。 AとBはイベントポテンシャルテーブルの一実施例を示す図である。 Aは感情マップの一実施例を示す図であり、Bは感情マップに対応する感情マップテーブルの一実施例を示す図である。 実施形態1の動作の一実施例を示すフロー図である。 A〜Cは勾配を用いた感情点の移動方法のシミュレーションの一実施例を示す図である。 イベントポテンシャルの減衰の一実施例を示す図である。 実施形態2の動作の一実施例を示すフロー図である。 実施形態3の一実施例を示す図である。 実施形態3の動作の一実施例を示す図である。 ロボットの感情を制御するためのポテンシャルを設計するためのツールの一実施例を示す図である。 実施形態5のハードウェア構成の一実施例を示す図である。
以下図面に基づいて、実施形態について詳細を説明する。
実施形態1について説明をする。
実施形態1の処理では、ロボットに感情を表現させるために用いる感情空間に、多変数により1つの値が決まる関数であるポテンシャルを適用し、感情空間の感情を表す座標に対応するポテンシャルの勾配ベクトルを求める。
図1は、感情空間の一実施例を示す図である。感情空間は、ロボットに感情を表現させるために、感情を表現するための複数の要素ごとに関連付けた軸を有する多次元空間である。図1の感情空間は、感情を表すための軸として快−不快、覚醒−睡眠、受容−警戒を有している。なお、感情空間の軸は、ロボットに感情を表現させるための何らかの状態量を表すものであればよい。以降、感情を表す座標を感情点と呼ぶ。
ポテンシャルについて図2のAを用いて説明する。図2のAは、感情空間にポテンシャルを適用した空間の一実施例を示す図である。図2のAは、感情空間として快−不快の軸、覚醒−睡眠の軸と、ポテンシャルと快−不快と覚醒−睡眠の各軸上の値により求められる値を示す位置の軸と、を有している。すなわち、図2のAでは多変数が快−不快の軸と覚醒−睡眠の軸の各軸上の値であり、この多変数により決まる1つの値が位置の軸上の値である。なお、図2のAでは、2変数により1つの値が決まっている。つまり、図2のAにおいて感情空間の次元数は2となっている。しかし、次元数は2次元に限られるものではなく、2次元以上であってもよい。
勾配ベクトルは、ポテンシャルをU(x)とすると、感情点ごとに−dU(x)/dxを演算処理することにより求めることができる。ここで、xは感情点であり、ポテンシャルU(x)は感情点における位置の値を示す。そして、勾配ベクトルは、感情空間上の感情点の移動量と方向を決め、次の感情点の移動先を決める。図2のBは、図2のAにおける各感情点の勾配ベクトルを示した図である。各座標の矢印各々の長さは勾配ベクトルの移動量を示し、矢印各々の向きは勾配ベクトルの方向を示している。
次に、感情点の移動先が決定されると、次の感情点に予め対応付けられている、感情を表現させるための情報を有する行動指示情報を記録部から取得して、取得した行動指示情報をロボットに感情を表現させるための可動部や音声を発生させる発生部などに出力する。また、ロボット動作中は、周期的に感情空間上の感情点を勾配ベクトルに従って移動させて、感情点に対応付けてマッピングされた行動指示情報に基づいて、ロボットに自然な感情を表現させる。
このように、ポテンシャルから勾配ベクトルを求めて、勾配ベクトルという物理的に妥当な量に従って感情点を移動させることにより、自然な感情をロボットに表現させる。
図3は、実施形態1のロボットの一実施例を示す図である。図3のロボット1は、センサ部2、処理部3、記録部4、可動部5、発声部6などを備えている。センサ部2は、外部からロボット1に与えられる刺激を検出する各種センサであり、検出した刺激に対応する検出信号を処理部3の後述するイベント処理部7に転送する。各種センサは、接触センサ、接近センサ、画像取得装置(カメラ、ビデオカメラ、赤外線カメラ、暗視カメラなど)、音声取得装置(マイクなど)、臭覚センサなどである。ただし、センサは上記各種センサに限定されるものではない。
処理部3は、イベント処理部7、ポテンシャル合成部8、勾配計算部9、座標移動部10、行動指示部11を備えている。また、処理部3はロボット1を制御する。なお、処理部3は、Central Processing Unit(CPU)やプログラマブルなデバイス(Field Programmable Gate Array(FPGA)、Programmable Logic Device(PLD)など)を用いて実現してもよい。
記録部4は、後述するイベントポテンシャルテーブル12、ロボットポテンシャルテーブル13、ポテンシャルテーブル14、感情状態テーブル15、感情マップテーブル16などを記録している。また、記録部4にはプログラム、テーブル、データなどが記録されている。なお、記録部4は、例えばRead Only Memory(ROM)、Random Access Memory(RAM)、ハードディスクなどのメモリである。また、記録部4は、パラメータ値、変数値などのデータを記録してもよいし、ワークエリアとして用いてもよい。
可動部5は、ロボットに備えられている機構で、利用者とコミュニケーションをとる場合などに用いられる。例えば、人間型ロボットであれば可動部5は頭部、胴体部、顔部、手腕部、足部などである。また、顔部には眉部、目部、鼻部、耳部、口部などの表情により感情を表す機構を備えている。手腕部には指部などの機構を備えている。なお、人間型ロボットでない場合には、可動部5は感情を表すために稼動させる機構である。
発声部6は、ロボットが音声を用いて利用者とコミュニケーションをとる場合などに、音声を発生させる。また、外部からの刺激をセンサ部2が検出したときに、検出した刺激に対応する感情を音声により表現する場合に用いる。例えば、笑い声、泣き声などの感情を表現する音声を出力する。
処理部3について説明する。
イベント処理部7、センサ部2から出力された検出信号を受信して、受信した検出信号を用いて記録部4のイベントポテンシャルテーブル12を検索して、イベントベントポテンシャル情報をポテンシャル合成部8に出力する。イベントポテンシャルテーブル12は、センサを識別するための情報と、該センサを識別する情報に関連付けられているイベントポテンシャル情報を有している。イベントベントポテンシャル情報は、外部から刺激を受けたときにロボットに感情を表現させるためのポテンシャルを示す関数である。
ポテンシャル合成部8は、ロボットポテンシャルテーブル13のロボットポテンシャル情報とイベントポテンシャルテーブル12のイベントベントポテンシャル情報を用いて、ポテンシャル情報を生成する。すなわち、ロボットポテンシャルとイベントポテンシャルを合成して、合成したポテンシャルを生成して、記録部4の後述するポテンシャルテーブル14に記録する。ロボットポテンシャル情報は、記録部4のロボットポテンシャルテーブル13に記録されている。また、ロボットポテンシャル情報を、ロボットごとに変えることで、ロボット各々に異なる感情をもたせてもよい。また、ロボット各々に異なる感情を表現させることにより、ロボットは異なる個性をもっているように利用者に見える。また、ポテンシャル合成部8によりロボットポテンシャル情報とイベントベントポテンシャル情報を合成することにより、外部からの刺激に対する感情の反応を、ロボットの個性を反映した自然なものにすることができる。
図4を用いてポテンシャルの合成について説明する。
図4は、ロボットポテンシャルとイベントポテンシャルを合成してポテンシャルを生成する一実施例を示す図である。図4の感情空間は、快−不快の軸、覚醒−睡眠の軸を有している。図4の空間41には感情空間にロボットポテンシャルE(x)を適用した空間が示されており、空間42には感情空間にイベントポテンシャルS(x)を適用した空間が示されている。空間43は、合成したポテンシャルU(x)を適用した空間が示されている。n個のイベントが発生したとときのポテンシャルU(x)は数1を用いて求める。nは1以上の自然数である。
すなわち、ロボットポテンシャルE(x)にイベントポテンシャルS(x)を足し合わせて、ポテンシャルU(x)を求める。図4の例では、イベントポテンシャルS(x)は1つなので数1のiとnは1になるので、数2のように表される。
次に、ロボットポテンシャルE(x)、イベントポテンシャルS(x)は、例えば、数3に示すようなガウス関数を用いて表すことが考えられる。なお、イベントポテンシャルS(x)は、ガウス関数などの釣鐘型の関数で表してもよいし、ガウス関数を複数結合させて表してもよい。なお、数3にはガウス関数を用いた例を示しているが、必ずしもガウス関数を用いなくてもよく、ガウス関数以外の関数を用いてもよい。
数3では、図4の空間41のロボットポテンシャルE(x)をガウス関数1、図4の空間42のイベントポテンシャルS(x)をガウス関数2で示している。図5の51は、ガウス関数1の形を示している。図5の52は、ガウス関数2の形を示している。
例えば、元々眠くなりやすい個性のロボットに対して、外部からロボットを覚醒させる刺激を受信した場合、ポテンシャルの合成により2箇所のポテンシャルが存在することになる。すなわち、図6に示すように感情空間上にロボットポテンシャルE(x)の谷61とイベントポテンシャルS(x)の谷62が生じる。なお、覚醒させる刺激を受信した場合に、感情点の位置が睡眠側にあった場合は、覚醒させるための刺激に対して反応が鈍く覚醒側へと感情点が移動しにくい。つまり、感情点を移動させるには、イベントポテンシャルS(x)の谷62を深くしなければならない。また、覚醒の刺激が弱いと谷62が浅くなるため、睡眠側のロボットポテンシャルE(x)の谷から感情点が抜け出せずに再度眠ってしまう。また、ポテンシャル合成部8は、足し合わせたイベントポテンシャルS(x)の谷62を減衰させる機能を備えている。
ロボットポテンシャルテーブル13について説明する。ロボットポテンシャルテーブル13は記録部4に記録されており、ロボットポテンシャルE(x)を有している。
図7のA、図7のBを用いて、イベントポテンシャルテーブル12について説明する。図7のAのイベントポテンシャルテーブルは、「センサ情報」「イベントポテンシャル情報」を有している。「センサ情報」は、センサを識別するための識別子や名称が記録されている。例えば、図7のAでは「センサ1」「センサ2」「センサ3」・・・が記録されている。「センサ1」「センサ2」「センサ3」・・・は、センサ1、センサ2、センサ3から出力されたセンサの識別子または名称が記録されている。「イベントポテンシャル情報」には、「センサ情報」に関連付けられたイベントポテンシャルS(x)が予め作成され記録されている。図7のAでは、「イベントポテンシャルSx1」「イベントポテンシャルSx2」「イベントポテンシャルSx3」・・・・が、「センサ情報」に関連付けられている。
また、図7のBのイベントポテンシャルテーブルは、「センサ情報」「イベントポテンシャル情報」に、「検出レベル」を加えたものである。「検出レベル」は、各センサが刺激を検出した際の、刺激の強弱を示すレベルである。図7のBの例では、「センサ情報」の「センサ1」「センサ2」「センサ3」・・・それぞれに「検出レベル」が関連付けられている。「センサ1」は、「検出レベル」として「L11」「L12」「L13」・・・が記録され、「センサ2」は、「検出レベル」として「L21」「L22」「L23」・・・が記録され、「センサ3」は、「検出レベル」として「L31」「L32」「L33」・・・が記録されている。「イベントポテンシャル情報」は、「L11」「L12」「L13」・・・「L21」「L22」「L23」・・・「L31」「L32」「L33」・・・に関連付けられたイベントポテンシャル情報が記録されている。図7のBでは、「イベントポテンシャルSx11」「イベントポテンシャルSx12」「イベントポテンシャルSx13」・・・・「イベントポテンシャルSx31」「イベントポテンシャルSx32」「イベントポテンシャルSx33」・・・が、関連付けられている。
なお、図7のBのイベントポテンシャルテーブルを使用する際には、検出信号に検出レベルを付さなくてはならない。なお、刺激の強弱を示すレベルはセンサの種類によって異なるが、接触センサであれば、タッチの強弱を段階的に示すことが考えられる。また、接近センサであれば、接近距離を段階的に示すことが考えられる。画像取得装置であれば、取得した画像を画像処理してその結果を段階的に示すことが考えられる。例えば、画像に写ったものを認識して、画像に写ったものに応じてレベルを設定する。音声取得装置であれば、取得した音声を信号処理してその結果を段階的に示すことが考えられる。例えば、音声をテキストに変換して、変換したテキストの内容や、口調などに応じてレベルを設定する。なお、各種センサとレベルの設定は、上記レベル設定に限定されるものではない。
ポテンシャルテーブル14について説明する。
ポテンシャルテーブル14には、現在のポテンシャルU(x)が記録されている。刺激を外部から受けていないときは、ポテンシャルU(x)としてロボットポテンシャルE(x)のみが記録されている。刺激を外部から受けたときは、ポテンシャルU(x)としてロボットポテンシャルE(x)+イベントポテンシャルS(x)が記録される。また、刺激を受けたのちに該刺激を受けなくなると徐々にイベントポテンシャルS(x)は減衰するので、その場合にはポテンシャルU(x)としてロボットポテンシャルE(x)+減衰したイベントポテンシャルS(x)が記録される。減衰方法については後述する。
勾配計算部9は、ポテンシャルテーブル14からポテンシャルU(x)を取得し、感情状態テーブル15から現在の感情点を取得する。そして、現在の感情点における−dU(x)/dxを演算して、勾配ベクトルを求め、この勾配ベクトルを用いて感情空間上の感情点の移動量と方向を求める。
座標移動部10は、勾配計算部9で求めた移動量と方向に従って、次の感情点の移動先を決め、感情状態テーブル15に移動先の感情点を記録する。
感情状態テーブル15には、現在の感情点が記録されている。図6の例であれば、感情点が快−不快の軸上の値と覚醒−睡眠の軸上の値で表されている。
行動指示部11は、感情状態テーブル15から現在の感情点を取得し、感情マップテーブル16から該現在の感情点に関連付けられている行動指示情報を検索する。そして、行動指示部11は、取得した行動指示情報が有する可動部5と発声部6などを動作させる情報を、可動部5と発声部6などに出力する。
感情マップテーブル16について説明する。
図8は、感情マップテーブルの一実施例を示す図である。図8のAは、感情マップを示しており、快−不快の軸と覚醒−睡眠の軸を有する2次元の感情空間を示している。図8のBは、図8のAの感情マップに対応する感情マップテーブルであり、「感情点」「行動指示情報」を有している。図8のBでは、「感情点」を覚醒−睡眠の軸上の値と、快−不快の軸上の値を、それぞれ0〜1の範囲で表した値を用いて表している。図8のBの「感情点」では、(0.0,0.0)(0.0,0.1)(0.0,0.2)・・・(0.1,0.0)(0.1,0.1)(0.1,0.2)・・・(1.0,0.0)・・・(1.0,1.0)が記録されている。「行動指示情報」は、「感情点」に関連付けられており、図8のBでは、「可動指示1,発生指示1」「可動指示2,発生指示2」・・・「可動指示100,発生指示100」が記録されている。可動指示1〜100は、可動部5を稼動させるための情報である。発生指示1〜100は、発声部6に音声を出力させるための情報である。なお、図8のAでは、便宜上感情空間上に「寝る」「しくしく泣く」・・・「怒る」・・・「大笑いする」が表されているが、実際には必要ない。また、図8のBでも、便宜上各「行動指示情報」に関連付けられて「寝る」「しくしく泣く」・・・「怒る」・・・「大笑いする」が表されているが、実際には必要ない。
次にロボットの感情の制御動作について説明する。
図9は、ロボットの感情の制御動作の一実施例を示す図である。
ステップS1では、処理部3のイベント処理部7がセンサ部2から検出信号を受信したか否かを判定する。本例では、検出信号を受信したときイベントが発生したとして、ステップS2に移行し、検出信号を受信していないときはステップS3に移行する。なお、イベントがあったか否かを示す情報を含む検出信号を、センサ部2から定期的にイベント処理部7へ送信して、イベント処理部7が検出信号を解析してイベントが発生したか否かを判定してもよい。
ステップS2では、イベント処理部7が記録部4のイベントポテンシャルテーブル12から検出信号のセンサに対応するイベントポテンシャル情報を取得して、取得したイベントポテンシャル情報をポテンシャル合成部8に出力する。なお、ポテンシャル合成部8が、イベント処理部7からセンサ情報を取得して、センサ情報に基づいてイベントポテンシャルテーブル12から対応するイベントポテンシャル情報を取得してもよい。また、イベントポテンシャルテーブル12は、例えば、図7のAまたは図7のBに示したテーブルを用いることが望ましい。ただし、図7のA、図7のBに示したテーブルに限定されるものではない。
ステップS3では、ポテンシャル合成部8が記録部4のロボットポテンシャルテーブル13のロボットポテンシャル情報と、ステップS2で取得したイベントポテンシャルと、を数1に従い合成して、ポテンシャル情報を生成する。生成したポテンシャル情報は、ポテンシャル合成部8によりポテンシャルテーブル14に記録される。複数のイベントポテンシャルを取得される場合は、ロボットポテンシャルに複数のイベントポテンシャルが合成される。複数のイベントポテンシャルが取得される条件は、例えば、複数のセンサから刺激を受けた場合である。
ステップS4で勾配計算部9は、記録部4のポテンシャルテーブル14から合成したポテンシャル情報と、現在の感情空間の感情点を感情状態テーブル15から取得する。
ステップS5では、勾配計算部9が感情点の位置の勾配ベクトルを求める。勾配計算部9は、例えば、ポテンシャル情報にポテンシャルU(x)が記録されている場合であれば、現在の感情点における勾配dU(x)/dxを求める。次に、求めた勾配の方向としてマイナスを付して勾配ベクトル−dU(x)/dxを求める。勾配ベクトルについては図2のBを参照。
ステップS6で勾配計算部9は勾配ベクトルを用いて移動量を求める。
移動量について説明する。感情空間上のポテンシャルの勾配に基づいて感情点を移動させる方法として、例えば、勾配を用いる方法がある。感情点はその地点におけるポテンシャルの勾配が最も急な方向へ落ち込んでいくので、ポテンシャルU(x)の感情点の位置をxとすると、感情点の移動量は数4によって求められる。
図10のAに、勾配を用いた感情点の移動方法のシミュレーションの一実施例を示す。図10に示すA、B、Cは、図6に示した快−不快の軸、覚醒−睡眠の軸を有する感情空間のポテンシャルに、シミュレーションを実施した場合の例である。
次に、勾配にさらに慣性力を付与する方法について説明する。時刻tにおける座標点の移動量をVtとすると、1ステップ前(時刻:t−1)の移動量に適当な係数mを掛けると慣性力となる。よって、勾配に慣性力を付与した場合の移動量は、数5によって示される。
勾配に慣性力を付与して感情点を移動させた場合、係数mの値が大きいとポテンシャルの谷に落ち込みにくくなり小さな谷であれば乗り越える。結果としてロボットの感情は固定されにくく、移動幅も大きくなり、刺激に対する反応が鈍いロボットとなる。
図10のBに、勾配に慣性力を付与した場合の感情点の移動方法のシミュレーションの一実施例を示す。
次に、一定の確率でランダムに移動する方法について説明する。通常はポテンシャルの勾配に沿って移動し、一定の確率でランダムな方向に移動させる。ここで、一定の確率とは、例えば、n回に1回の割合で実行することを示す。nは1以上の自然数である。また、ランダムな方向への移動とは、勾配に関係なく方向を決めて、予め決められた移動量の範囲で感情点を移動させることである。この方法では、感情点は直近のポテンシャルの谷に引き込まれる傾向を持ちつつも、場合によっては違う谷に落ち込む可能性がある。この結果、ロボットの感情の変化が必ずしも予想できるものでなくなる。
図10のCに、一定の確率でランダムに移動する方法のシミュレーションの一実施例を示す。
ステップS7では、座標移動部10がステップS6で求めた移動量と方向を用いて、移動先の感情点の位置を求めて、移動先の感情点を記録部4の感情状態テーブル15に記録する。例えば、現在の感情点を移動先の感情点で上書きしてもよいし、感情点をログとして残してもよい。
ステップS8では、行動指示部11が移動した感情点の位置に関連付けられている行動指示情報を感情マップテーブル16から取得して可動部5または発声部6などに出力する。
ステップS9では、ポテンシャル合成部8が以前にロボットポテンシャルE(x)に合成したイベントポテンシャルS(x)が残っているか否かを判定する。ロボットポテンシャルE(x)だけであれば、イベントポテンシャルS(x)が減衰したとしてステップS1に移行する。ポテンシャルU(x)にロボットポテンシャルE(x)以外にイベントポテンシャルS(x)または減衰させたイベントポテンシャルS(x)がある場合には、ステップS10に移行する。
ステップS10でポテンシャル合成部8は、イベントポテンシャルS(x)を減衰する。図11は、イベントポテンシャルS(x)の減衰の一実施例を示す図である。図11の空間111は刺激を受信した直後の時間1のイベントポテンシャルS(x)を表している。図11の空間112〜114は、イベントポテンシャルS(x)を一定周期ごとに数7に従って減衰させることを表している。
図11の例では、0〜1の範囲で表される減衰係数δ1<δ2<δ3を用いて、空間112、113、114の減衰させたイベントポテンシャルを示している。空間112は時間2における減衰させたイベントポテンシャルであるδ3・S(x)、空間113は時間3における減衰させたイベントポテンシャルであるδ2・S(x)を示している。空間114は時間4における減衰させたイベントポテンシャルであるδ1・S(x)を示している。時間4以降は、イベントポテンシャルの影響をポテンシャルU(x)が受けないようにする。すなわち、ポテンシャルU(x)がロボットポテンシャルE(x)となる。なお、減衰係数は、イベントポテンシャル各々に関連付けて記録部4に記録しておくことが考えられる。また、イベントポテンシャルごとに異なる減衰係数を関連付けてもよい。
実施形態1によれば、感情空間上の感情点の動かし方をより自然で、かつバリエーション豊かな単調でないものにできるため、ロボットと利用者との親和性をより高めることができる。また、ロボットポテンシャルをロボットごとに変えることにより、利用者がロボットに対して個性を感じることができる。また、ロボットごとにイベントポテンシャルを変えることにより、さらにロボットに対して個性を感じることができる。
実施形態2について説明をする。
実施形態2では、感情点がポテンシャルの極小値に落ち込んで停止した場合や、ロボットの感情を強制的に変化させたい場合に、感情点の移動量を強制力によって変化させる方法について説明する。数8に、強制力の一実施例として、ポテンシャルの勾配ベクトルを回転させた式を示す。
ポテンシャルU(x)がどのようなものであっても、その勾配ベクトルの回転成分は必ずゼロになることから、強制力の回転量θは共通した値で調整することができる。例えば、θ=πのときは、必ずポテンシャルU(x)の谷から湧き出す方向の力となり、例えばθ=π/2のときは必ずポテンシャルU(x)の等高線を周回するような力となる。等高線とは、図10のA、B、Cに示した等高線などを示す。また、谷から湧き出す方向の力、等高線を周回するような力を、強制力という。数9は、移動量を表す数4に、強制力f=(fx,fy)を追加した例を示している。
ここで、αは移動量のうち強制力の占める割合を意味する。α=1のとき移動量は強制力によってのみ定まる。θ、αの値は目的に応じて動的に変更してもよい。なお、強制力を数5、数6で説明した移動量に負荷してもよい。
実施形態2の動作について説明する。
図12は、実施形態2の動作の一実施例を示すフロー図である。図12のステップS6では、勾配計算部9が図9のステップS5で求めた勾配ベクトルを用いて移動量と方向を求める。
ステップS121では、勾配計算部9がステップS6で求めた移動量と予め記録部4に記録してある閾値とを比較して、該移動量が閾値内である場合にはステップS122に移行し、該移動量が閾値外である場合には図9に示したステップS7に移行する。閾値は感情点が極小点付近に停留していることを判定するため、例えば、0以上で移動していないと判定可能な値であることが望ましい。ステップS122では、勾配計算部9が極小点付近に感情点が停留していると判定する。
ステップS123では、勾配計算部9が強制力によって、極小点から脱出する方向の移動量を定める。例えば、記録部4の合成したポテンシャルU(x)の勾配ベクトルを、数9に従って回転させる。すなわち、極小点へ収束するベクトル場を、極小点から発散するベクトル場に変換させて強制力として元の移動量に加える。次に、勾配計算部9は、感情状態テーブル15に強制力を加えた移動量を記録する。その後、ステップS7に移行する。
実施形態2によれば、感情点がポテンシャルの極小値に落ち込んで停止した場合や、ロボットの感情を強制的に変化させたい場合に、感情点の移動量を強制力によって変化させることができる。また、感情空間上の特定の領域から座標が移動できなくなり、ロボットの感情が同じ状態のまま変化せず、利用者からみて明らかに不自然な挙動をロボットが示さなくなる。例えば、ロボットが怒った状態のままになることなどを防ぐことができる。
実施形態3について説明をする。
実施形態3は、ロボットのポテンシャルを変更することによって、ロボットの成長を表現する。ロボットポテンシャル情報の変更方法の一実施例として、ロボットポテンシャルを形成する関数にパラメータを含ませておき、そのパラメータを決められた条件で段階的に変更する方法が考えられる。例えばパラメータをpとして数10のようにポテンシャルU(x,y,p)を定義する。
数10の場合、パラメータpの値によってポテンシャルの極小点の数が変わる。図13のAは、パラメータpが10以下の値のときで、極小が1つのときの一実施例を示す図である。本例では極小点は131である。図13のBは、パラメータpが10より大きく20以下の値のときで、極小が2つのときの一実施例を示す図である。本例では極小点は132、133である。図13のCは、パラメータpが20より大きい値のときで、極小が4つのときの一実施例を示す図である。本例では極小点は134、135、136、137である。なお、図13のA、B、Cは、極小点付近の等高線のみを描画した図である。
図13に示したように、極小点の数を分岐によって次々と増えていくようにロボットポテンシャルを変更すれば、極小点が増えて成長するとともに感情の遷移が複雑になり、感情豊かな表現をロボットにさせることができる。ここで、分岐とはパラメータpを増やしていくとき、パラメータpのある閾値をもって極小点の数が変化する点である。図13の例では10、20が閾値である。
実施形態3の動作について説明する。
図14は、ロボットポテンシャルを変更する動作の一実施例を示したフロー図であり、図9のフローにステップS141を追加したフロー図である。ステップS141では、処理部3に設けられた機能により、記録部4のロボットポテンシャルテーブル13に記録されているロボットポテンシャル情報を変更する。例えば、処理部3に設けられた機能により、パラメータpと閾値が等しくなったとき分岐を検出したとし、ロボットポテンシャルの極小点の数を増やす。閾値は、利用者が予め設定してもよいし、感情点に連動させて増やしてもよい。また、パラメータpの値の増加は、予め設定した時間によって増加させてもよいし、感情点に連動させて増やしてもよい。なお、本例ではパラメータpを増加させているが、減少させてもよい。減少させる場合は、例えば、減少させる条件を用意して、減少させる条件に一致したときに減少させることが考えられる。
実施形態3では、ロボットポテンシャルを変更することによって、ロボットの成長を表現させることができる。また、感情の遷移が複雑になり、感情が豊かな表現をロボットにさせることができる。
実施形態1、2、3では、ポテンシャルの勾配という物理的にも妥当な量に従って感情点を動かすため、感情の遷移パターンは、必然的にロボットのポテンシャルを反映した自然なものとなる。その結果、ロボットの感情は、ロボット自身の個性や成長を反映して複雑に遷移しながら、外部からの刺激にも適宜反応を示すため、より自然で生き物らしい振る舞いを示すことになり、対人親和性が大きく向上する。
実施形態4について説明をする。
プログラムを作成する際に、ポテンシャルを含む感情を遷移させる条件を数多く定義して、数多く定義した条件各々を個別に関連付けると、プログラム作成者にも関連付けが簡単に理解できなくなるため、プログラムの記述ミスなどが起こりやすくなる。実施形態4では、プログラムを作成する利用者が、感情を遷移させる条件各々を個別に記述して関連付けるのではなく、容易で直感的に記述する方法について説明する。
図15は、ロボットの感情を制御するためのポテンシャルを設計するためのツールの一実施例を示す図である。図15に示したポテンシャル作成ツールは、パーソナルコンピュータなどに実装して用いられるソフトウェアである。ポテンシャル作成ツールは、例えば、パーソナルコンピュータのモニタに表示され、例えば、表示画面151を3分割してポテンシャル作成画面152、感情空間−ポテンシャル表示画面153、3次元ポテンシャル表示154を有している。ポテンシャル作成画面152は、記録されている複数のポテンシャル関数のうち利用者が選択した、基本となるポテンシャル名とグラフを表示する部品155と、該ポテンシャルを調整するためのパラメータ調整する部品156、157を有している。本例では、部品155にはポテンシャル名として「ガウス」が表示されている。また、部品156、157として、広がりと深さを調整する部品が表示されている。なお、この部品156、157を調整すると、部品155のグラフが連動して変化する。感情空間−ポテンシャル表示画面153は、ポテンシャル作成画面152で作成したポテンシャルを、感情空間上に等高線を用いて山または谷が分かるようにプロットしたグラフ158を有している。図15の例では、2つのポテンシャルがプロットされている。本例では、感情空間−ポテンシャル表示画面153は、グラフ158を3次元表示した3次元グラフ159を有している。
実施形態4によれば、プログラムを作成する利用者が、感情を遷移させるポテンシャルを容易で直感的に記述することができる。すなわち、ロボットの個性や成長、複数の外部刺激に対する反応を考慮した感情の遷移パターンを、ポテンシャルという枠組みで統一して直感的に記述することがきる。そのため、従来のようにルールベースで遷移条件を個別記述する方式に比べ、遷移パターンのデザインにかける工数、時間を大幅に削減することができる。
実施形態5について説明する。
実施形態5は、実施形態1、2、3を、コンピュータを用いて実現される場合の構成について説明する。または、ロボットをコンピュータの表示装置の画面上で表現する場合について示す。
図16は、実施形態5のコンピュータのハードウェア構成の一実施例を示す図である。コンピュータのハードウェア1600は、CPU1601、記録部1602、記録媒体読取装置1603、入出力インタフェース1604(入出力I/F)、通信インタフェース1605(通信I/F)などを備えている。また、上記各構成部はバス1606によってそれぞれ接続されている。また、ロボットの可動部5は、本例では画面上に表示されるロボットの各部品と対応付ける。発声部6は、入出力装置1608のスピーカに対応付ける。センサ部2により出力される検出信号は、画像認識センサ、音声認識センサと表示されたロボットの各部品を画面上で触ったことが分かる機能を利用して取得する。表示されたロボットの各部品を画面上で触ったことが分かる機能は、例えば、タッチパネル、マウスなどにより各部品に触れたことを検出するものである。
CPU1601は、記録部1602に格納されている上記説明した装置の各処理を実行する。
記録部1602には、CPU1601が実行するプログラムやデータが記録されている。また、ワークエリアなどとして使用される。また、記録部1602は上記説明した記録部4の機能を有する。記録部1602は、例えば、ROM、RAM、ハードディスクドライブなどである。
記録媒体読取装置1603は、CPU1601の制御に従って記録媒体1607に対するデータのリード/ライトを制御する。そして、記録媒体1607に記録媒体読取装置1603の制御で書き込まれたデータを記録させたり、記録媒体1607に記憶されたデータを読み取らせたりする。また、着脱可能な記録媒体1607は、コンピュータで読み取り可能なnon−transitory(非一時的)な記録媒体として、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリなどがある。磁気記録装置には、ハードディスク装置(HDD)などがある。光ディスクには、Digital Versatile Disc (DVD)、DVD−RAM、Compact Disc Read Only Memory (CD−ROM)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、Magneto-Optical disk (MO)などがある。
入出力インタフェース1604には、入出力装置1608が接続され、利用者が入力した情報を受信し、バス1606を介してCPU1601に送信する。また、CPU1601からの命令に従ってディスプレイの画面上に操作情報などを表示する。入出力装置1608は、例えば、タッチパネルなどが考えられる。
通信インタフェース1605は、必要に応じ、他のコンピュータとの間のLAN接続やインターネット接続や無線接続を行うためのインタフェースである。また、他の装置に接続され、外部装置からのデータの入出力を制御する。
このようなハードウェア構成を有するコンピュータを用いることによって、上記説明した各種処理機能が実現される。その場合システムが有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体1607に記録しておくことができる。なお、上記各種処理機能は、実施形態1、2、3で説明したフローチャートなどである。
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの記録媒体1607が販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
プログラムを実行するコンピュータは、例えば、記録媒体1607に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記録部1602に格納する。そして、コンピュータは、自己の記録部1602からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、記録媒体1607から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。
また、本発明は、上記実施の形態に限定されるものでなく、本発明の要旨を逸脱しない範囲内で種々の改良、変更が可能である。なお、各実施例は処理に矛盾の無い限りにおいて、互いに組み合わせても構わない。
以上実施形態1、2、3、4、5を含む実施形態に関し、更に以下の付記を開示する。
(付記1)
複数の感情に対応する軸を有する感情空間を用いて、ロボットに感情を表現させるロボットの制御方法であって、
コンピュータが、
記録部に記録した前記感情空間の座標により示される感情点により1つの値が決まる関数を有するポテンシャル情報を取得し、
前記ポテンシャル情報が有する前記感情点により1つの値が決まる関数と、現在の感情点を用いて、該現在の感情点における勾配ベクトルを求め、
前記勾配ベクトルが示す移動量と方向と、前記現在の感情点とを用いて、次の感情点を求め、
前記ロボットが備える可動部または発声部を稼動するための行動指示情報と前記感情点を関連付けて前記記録部に記録される感情マップテーブルを参照して、前記次の感情点に関連付けられている前記行動指示情報を取得して、取得した前記行動指示情報を前記可動部または前記発声部に出力する、
ことを実行するロボットの制御方法。
(付記2)
コンピュータが、
前記ロボットが備える複数のセンサのいずれかから、前記センサを識別するセンサ情報を取得し、
前記記録部に記録されている、複数の前記センサ各々を識別するセンサ情報と、前記センサ情報各々に関連付けられる前記感情点により1つの値が決まる関数を有する1つ以上のイベントポテンシャル情報を記録するイベントポテンシャルテーブルから、前記センサ情報に関連付けられている前記イベントポテンシャル情報を取得し、
前記記録部に記録されている、前記感情点により1つの値が決まる関数を有するロボットポテンシャル情報を記録するロボットポテンシャルテーブルを取得し、取得した前記ロボットポテンシャル情報の有する関数と前記イベントポテンシャル情報の有する関数を合成して、合成した関数を有するポテンシャル情報を生成する、
ことを実行する付記1に記載のロボットの制御方法。
(付記3)
コンピュータが、
前記ポテンシャル情報に含まれる前記イベントポテンシャル情報の有する関数により決まる感情点各々に対応する値各々を、予め設定した時間ごとに減衰させることを特徴とする付記2に記載のロボットの制御方法。
(付記4)
前記勾配ベクトルに慣性力を付加して前記次の感情点までの移動量と方向を求めることを特徴とする付記3に記載のロボットの制御方法。
(付記5)
前記移動量が0から閾値の範囲であるとき、前記ポテンシャル情報が有する関数の極小点に感情点が停留していると判定したとき、前記ポテンシャル情報が有する関数に前記勾配ベクトルを回転させる強制力を付加することを特徴とする付記1に記載のロボット制御方法。
(付記6)
複数の感情に対応する軸を有する感情空間を用いて、ロボットに感情を表現させるロボットの感情制御プログラムであって、
コンピュータに、
記録部に記録した前記感情空間の座標により示される感情点により1つの値が決まる関数を有するポテンシャル情報を取得する処理と、
前記ポテンシャル情報が有する前記感情点により1つの値が決まる関数と、現在の感情点を用いて、現在の感情点における勾配ベクトルを求める処理と、
前記勾配ベクトルが示す移動量と方向と前記現在の感情点を用いて、次の感情点を求める処理と、
前記ロボットが備える可動部または発声部を稼動するための行動指示情報と前記感情点を関連付けて前記記録部に記録される感情マップテーブルを参照して、前記次の感情点に関連付けられている前記行動指示情報を取得して、取得した前記行動指示情報を前記可動部または前記発声部に出力する処理と、
を実行させることを特徴とするロボットの制御プログラム。
(付記7)
複数の感情に対応する軸を有する感情空間を用いて、感情を表現するロボットであって、
前記ロボットが感情を表現するのに用いる前記ロボットの可動部または発声部を稼動する行動指示情報と、前記感情空間の座標により示される感情点とを関連付けて記録する感情マップテーブルと、
前記感情点により1つの値が決まる関数を有するロボットポテンシャル情報を記録するロボットポテンシャルテーブルと、
前記ロボットが備える複数のセンサを識別するセンサ情報と、前記センサ情報各々に関連付けられる前記感情点により1つの値が決まる関数を有する1つ以上のイベントポテンシャル情報を記録するイベントポテンシャルテーブルと、を有する記録部と、
前記イベントポテンシャルテーブルから前記センサ情報に関連付けられている前記イベントポテンシャル情報を取得するイベント処理部と、
前記イベント処理部で取得した前記イベントポテンシャル情報の有する関数を、ロボットポテンシャル情報の有する関数に合成して、合成した関数を有するポテンシャル情報を生成するポテンシャル合成部と、
前記ポテンシャル情報が有する前記感情点により1つの値が決まる関数と、現在の感情点を用いて、現在の感情点における勾配ベクトルを求める勾配計算部と、
前記勾配ベクトルが示す移動量と方向と前記現在の感情点を用いて、次の感情点を求める座標移動部と、
前記次の感情点に関連付けられている前記感情マップテーブルの行動指示情報を取得し、取得した前記行動指示情報を前記可動部または前記発声部に出力する行動指示部と、
を備えることを特徴とするロボット。
(付記8)
コンピュータが、
前記ロボットポテンシャル情報が有する関数の極小点の数を、予め設定した時間ごとに変化させることを特徴とする付記3に記載のロボットの制御方法。
(付記9)
前記次の感情点までの移動量と方向を、一定の確率でランダムに変更することを特徴とする付記3または8のいずれか1つに記載のロボットの制御方法。
(付記10)
コンピュータに、
前記ロボットが備える複数のセンサのいずれかから、前記センサを識別するセンサ情報を取得する処理と、
前記記録部に記録されている、複数の前記センサ各々を識別するセンサ情報と、前記センサ情報各々に関連付けられる前記感情点により1つの値が決まる関数を有する1つ以上のイベントポテンシャル情報を記録するイベントポテンシャルテーブルから、前記センサ情報に関連付けられている前記イベントポテンシャル情報を取得する処理と、
前記記録部に記録されている、前記感情点により1つの値が決まる関数であるロボットポテンシャル情報を記録するロボットポテンシャルテーブル取得し、取得した前記ロボットポテンシャル情報の有する関数と前記イベントポテンシャル情報の有する関数を合成して、合成した関数を有するポテンシャル情報を生成する処理と、
を実行させることを特徴とする付記6に記載のロボットの制御プログラム。
(付記11)
コンピュータに、
前記ポテンシャル情報に含まれる前記イベントポテンシャル情報の有する関数により決まる感情点各々に対応する値各々を、予め設定した時間ごとに減衰させる処理を実行させることを特徴とする付記10に記載のロボットの制御プログラム。
(付記12)
コンピュータに、
前記ロボットポテンシャル情報が有する関数の極小点の数を、予め設定した時間ごとに変化させる処理を実行させることを特徴とする付記11に記載のロボットの制御プログラム。
(付記13)
コンピュータに、
前記勾配ベクトルに慣性力を付加して前記次の感情点までの移動量と方向を求める処理を実行させることを特徴とする付記11に記載のロボットの制御プログラム。
(付記14)
コンピュータに、
前記次の感情点までの移動量と方向を、一定の確率でランダムに変更する処理を実行させることを特徴とする付記11または13のいずれか1つに記載のロボットの制御プログラム。
(付記15)
コンピュータに、
前記移動量が0から閾値の範囲であるとき、前記ポテンシャル情報が有する関数の極小点に感情点が停留していると判定したとき、前記ポテンシャル情報が有する関数に前記勾配ベクトルを回転させた強制力を付加する処理を実行させることを特徴とする付記6に記載のロボット制御プログラム。
(付記16)
前記ポテンシャル合成部で求めた前記ポテンシャル情報の有する関数に含まれる前記イベントポテンシャル情報の関数により決まる感情点各々に対応する値各々を、予め設定した時間ごとに減衰させることを特徴とする付記7に記載のロボット。
(付記17)
前記ロボットポテンシャル情報が有する関数の極小点の数を、予め設定した時間ごとに変化させることを特徴とする付記16に記載のロボット。
(付記18)
前記勾配ベクトルに慣性力を付加して前記次の感情点までの移動量と方向を求めることを特徴とする付記7に記載のロボット。
(付記19)
前記次の感情点までの移動量と方向を、一定の確率でランダムに変更することを特徴とする請求項16または18のいずれか1つに記載のロボット。
(付記20)
前記移動量が0から閾値の範囲であるとき、前記ポテンシャル情報の関数の極小点に感情点が停留していると判定して、前記ポテンシャル情報の関数に前記勾配ベクトルを回転させた強制力を付加することを特徴とする付記7に記載のロボット。
1 ロボット
2 センサ部
3 処理部
4 記録部
5 可動部
6 発声部
7 イベント処理部
8 ポテンシャル合成部
9 勾配計算部
10 座標移動部
11 行動指示部
12 イベントポテンシャルテーブル
13 ロボットポテンシャルテーブル
14 ポテンシャルテーブル
15 感情状態テーブル
16 感情マップテーブル
151 表示画面
152 ポテンシャル作成画面
153 感情空間−ポテンシャル表示画面
154 3次元ポテンシャル表示
155、156、157 部品
158 グラフ
159 3次元グラフ
1600 ハードウェア
1602 記録部
1603 記録媒体読取装置
1604 入出力インタフェース
1605 通信インタフェース
1606 バス
1607 記録媒体
1608 入出力装置

Claims (7)

  1. 複数の感情に対応する軸を有する感情空間を用いて、ロボットに感情を表現させるロボットの制御方法であって、
    コンピュータが、
    記録部に記録した前記感情空間の座標により示される感情点により1つの値が決まる関数を有するポテンシャル情報を取得し、
    前記ポテンシャル情報が有する前記感情点により1つの値が決まる関数と、現在の感情点を用いて、該現在の感情点における勾配ベクトルを求め、
    前記勾配ベクトルが示す移動量と方向と、前記現在の感情点とを用いて、次の感情点を求め、
    前記ロボットが備える可動部または発声部を稼動するための行動指示情報と前記感情点を関連付けて前記記録部に記録される感情マップテーブルを参照して、前記次の感情点に関連付けられている前記行動指示情報を取得して、取得した前記行動指示情報を前記可動部または前記発声部に出力する、
    ことを実行するロボットの制御方法。
  2. コンピュータが、
    前記ロボットが備える複数のセンサのいずれかから、前記センサを識別するセンサ情報を取得し、
    前記記録部に記録されている、複数の前記センサ各々を識別するセンサ情報と、前記センサ情報各々に関連付けられる前記感情点により1つの値が決まる関数を有する1つ以上のイベントポテンシャル情報を記録するイベントポテンシャルテーブルから、前記センサ情報に関連付けられている前記イベントポテンシャル情報を取得し、
    前記記録部に記録されている、前記感情点により1つの値が決まる関数を有するロボットポテンシャル情報を記録するロボットポテンシャルテーブルを取得し、取得した前記ロボットポテンシャル情報の有する関数と前記イベントポテンシャル情報の有する関数を合成して、合成した関数を有するポテンシャル情報を生成する、
    ことを実行する請求項1に記載のロボットの制御方法。
  3. コンピュータが、
    前記ポテンシャル情報に含まれる前記イベントポテンシャル情報の有する関数により決まる感情点各々に対応する値各々を、予め設定した時間ごとに減衰させることを特徴とする請求項2に記載のロボットの制御方法。
  4. 前記勾配ベクトルに慣性力を付加して前記次の感情点までの移動量と方向を求めることを特徴とする請求項3に記載のロボットの制御方法。
  5. 前記移動量が0から閾値の範囲であるとき、前記ポテンシャル情報が有する関数の極小点に感情点が停留していると判定したとき、前記ポテンシャル情報が有する関数に前記勾配ベクトルを回転させる強制力を付加することを特徴とする請求項1に記載のロボット制御方法。
  6. 複数の感情に対応する軸を有する感情空間を用いて、ロボットに感情を表現させるロボットの感情制御プログラムであって、
    コンピュータに、
    記録部に記録した前記感情空間の座標により示される感情点により1つの値が決まる関数を有するポテンシャル情報を取得する処理と、
    前記ポテンシャル情報が有する前記感情点により1つの値が決まる関数と、現在の感情点を用いて、現在の感情点における勾配ベクトルを求める処理と、
    前記勾配ベクトルが示す移動量と方向と前記現在の感情点を用いて、次の感情点を求める処理と、
    前記ロボットが備える可動部または発声部を稼動するための行動指示情報と前記感情点を関連付けて前記記録部に記録される感情マップテーブルを参照して、前記次の感情点に関連付けられている前記行動指示情報を取得して、取得した前記行動指示情報を前記可動部または前記発声部に出力する処理と、
    を実行させることを特徴とするロボットの制御プログラム。
  7. 複数の感情に対応する軸を有する感情空間を用いて、感情を表現するロボットであって、
    前記ロボットが感情を表現するのに用いる前記ロボットの可動部または発声部を稼動する行動指示情報と、前記感情空間の座標により示される感情点とを関連付けて記録する感情マップテーブルと、
    前記感情点により1つの値が決まる関数を有するロボットポテンシャル情報を記録するロボットポテンシャルテーブルと、
    前記ロボットが備える複数のセンサを識別するセンサ情報と、前記センサ情報各々に関連付けられる前記感情点により1つの値が決まる関数を有する1つ以上のイベントポテンシャル情報を記録するイベントポテンシャルテーブルと、を有する記録部と、
    前記イベントポテンシャルテーブルから前記センサ情報に関連付けられている前記イベントポテンシャル情報を取得するイベント処理部と、
    前記イベント処理部で取得した前記イベントポテンシャル情報の有する関数を、ロボットポテンシャル情報の有する関数に合成して、合成した関数を有するポテンシャル情報を生成するポテンシャル合成部と、
    前記ポテンシャル情報が有する前記感情点により1つの値が決まる関数と、現在の感情点を用いて、現在の感情点における勾配ベクトルを求める勾配計算部と、
    前記勾配ベクトルが示す移動量と方向と前記現在の感情点を用いて、次の感情点を求める座標移動部と、
    前記次の感情点に関連付けられている前記感情マップテーブルの行動指示情報を取得し、取得した前記行動指示情報を前記可動部または前記発声部に出力する行動指示部と、
    を備えることを特徴とするロボット。
JP2010135419A 2010-06-14 2010-06-14 ロボットの制御方法、ロボットの制御プログラムおよびロボット Active JP5499924B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010135419A JP5499924B2 (ja) 2010-06-14 2010-06-14 ロボットの制御方法、ロボットの制御プログラムおよびロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010135419A JP5499924B2 (ja) 2010-06-14 2010-06-14 ロボットの制御方法、ロボットの制御プログラムおよびロボット

Publications (2)

Publication Number Publication Date
JP2012000694A JP2012000694A (ja) 2012-01-05
JP5499924B2 true JP5499924B2 (ja) 2014-05-21

Family

ID=45533292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010135419A Active JP5499924B2 (ja) 2010-06-14 2010-06-14 ロボットの制御方法、ロボットの制御プログラムおよびロボット

Country Status (1)

Country Link
JP (1) JP5499924B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10733992B2 (en) 2017-06-14 2020-08-04 Toyota Jidosha Kabushiki Kaisha Communication device, communication robot and computer-readable storage medium

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6166234B2 (ja) * 2014-08-08 2017-07-19 日本電信電話株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
CN104461016B (zh) * 2014-12-23 2018-02-13 杭州云造科技有限公司 产品的机器性格表现方法及装置
JP6639166B2 (ja) * 2015-09-15 2020-02-05 株式会社Soken 動作体の感情動作制御装置及び感情動作制御方法
CN107020637A (zh) * 2016-01-29 2017-08-08 深圳光启合众科技有限公司 宠物机器人的情绪表达方法及宠物机器人
JP7152908B2 (ja) * 2018-09-05 2022-10-13 日本放送協会 仕草制御装置及び仕草制御プログラム
KR102598435B1 (ko) * 2021-11-29 2023-11-07 한국과학기술연구원 사람의 감정 변화 패턴을 반영한 로봇의 감정 상태 결정 장치 및 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003191187A (ja) * 2001-12-21 2003-07-08 Sony Corp ロボット装置及びその制御方法
KR101108733B1 (ko) * 2004-03-26 2012-03-29 ?지 미쓰요시 의지발현 모델장치, 심리효과 프로그램, 의지발현시뮬레이션방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10733992B2 (en) 2017-06-14 2020-08-04 Toyota Jidosha Kabushiki Kaisha Communication device, communication robot and computer-readable storage medium

Also Published As

Publication number Publication date
JP2012000694A (ja) 2012-01-05

Similar Documents

Publication Publication Date Title
JP5499924B2 (ja) ロボットの制御方法、ロボットの制御プログラムおよびロボット
US10438393B2 (en) Virtual reality presentation of body postures of avatars
US11461950B2 (en) Object creation using body gestures
KR101819535B1 (ko) 표정 제어점에 기초한 강체 영역의 표현 방법 및 장치
KR20170085422A (ko) 가상 에이전트 동작 방법 및 장치
US11145138B2 (en) Virtual reality presentation of layers of clothing on avatars
JP2014504959A (ja) 人間型ロボットのジェスチャと音声の同期
CN106660209B (zh) 智能机器人控制系统、方法及智能机器人
CN114630738B (zh) 用于模拟感测数据和创建感知的系统和方法
US20230273685A1 (en) Method and Arrangement for Handling Haptic Feedback
US20210375067A1 (en) Virtual reality presentation of clothing fitted on avatars
Cruz et al. Generative storytelling for information visualization
KR20180115551A (ko) 감정 표현이 가능한 로봇 및 이의 동작 방법
JP2017134609A (ja) 画像生成プログラム及び記録媒体
JP5002818B2 (ja) 接触音のリアルタイム生成装置、方法、プログラムおよびプログラムを格納した記録媒体
JP6198375B2 (ja) ゲームプログラムおよびゲームシステム
US8077183B1 (en) Stepmode animation visualization
JP6576544B2 (ja) 情報処理装置、情報処理方法、コンピュータ読み取り可能な記憶媒体
CN104732572B (zh) 一种生成运动图像的方法及装置
Corradini et al. Towards believable behavior generation for embodied conversational agents
Leandro Parreira Duarte et al. Coarticulation and speech synchronization in MPEG-4 based facial animation
Ogawa et al. Factors and influences of body ownership over virtual hands
US20230267669A1 (en) Method for generating joint-based facial rig and apparatus therefor
JP2002092639A (ja) パーティクルの挙動を表示するアニメーション生成方法および装置
Vala et al. From virtual bodies to believable characters

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140225

R150 Certificate of patent or registration of utility model

Ref document number: 5499924

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150