JP5499924B2 - ロボットの制御方法、ロボットの制御プログラムおよびロボット - Google Patents
ロボットの制御方法、ロボットの制御プログラムおよびロボット Download PDFInfo
- Publication number
- JP5499924B2 JP5499924B2 JP2010135419A JP2010135419A JP5499924B2 JP 5499924 B2 JP5499924 B2 JP 5499924B2 JP 2010135419 A JP2010135419 A JP 2010135419A JP 2010135419 A JP2010135419 A JP 2010135419A JP 5499924 B2 JP5499924 B2 JP 5499924B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- robot
- potential
- information
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Description
実施形態1について説明をする。
実施形態1の処理では、ロボットに感情を表現させるために用いる感情空間に、多変数により1つの値が決まる関数であるポテンシャルを適用し、感情空間の感情を表す座標に対応するポテンシャルの勾配ベクトルを求める。
このように、ポテンシャルから勾配ベクトルを求めて、勾配ベクトルという物理的に妥当な量に従って感情点を移動させることにより、自然な感情をロボットに表現させる。
イベント処理部7、センサ部2から出力された検出信号を受信して、受信した検出信号を用いて記録部4のイベントポテンシャルテーブル12を検索して、イベントベントポテンシャル情報をポテンシャル合成部8に出力する。イベントポテンシャルテーブル12は、センサを識別するための情報と、該センサを識別する情報に関連付けられているイベントポテンシャル情報を有している。イベントベントポテンシャル情報は、外部から刺激を受けたときにロボットに感情を表現させるためのポテンシャルを示す関数である。
図4は、ロボットポテンシャルとイベントポテンシャルを合成してポテンシャルを生成する一実施例を示す図である。図4の感情空間は、快−不快の軸、覚醒−睡眠の軸を有している。図4の空間41には感情空間にロボットポテンシャルE(x)を適用した空間が示されており、空間42には感情空間にイベントポテンシャルS(x)を適用した空間が示されている。空間43は、合成したポテンシャルU(x)を適用した空間が示されている。n個のイベントが発生したとときのポテンシャルU(x)は数1を用いて求める。nは1以上の自然数である。
ポテンシャルテーブル14には、現在のポテンシャルU(x)が記録されている。刺激を外部から受けていないときは、ポテンシャルU(x)としてロボットポテンシャルE(x)のみが記録されている。刺激を外部から受けたときは、ポテンシャルU(x)としてロボットポテンシャルE(x)+イベントポテンシャルS(x)が記録される。また、刺激を受けたのちに該刺激を受けなくなると徐々にイベントポテンシャルS(x)は減衰するので、その場合にはポテンシャルU(x)としてロボットポテンシャルE(x)+減衰したイベントポテンシャルS(x)が記録される。減衰方法については後述する。
感情状態テーブル15には、現在の感情点が記録されている。図6の例であれば、感情点が快−不快の軸上の値と覚醒−睡眠の軸上の値で表されている。
図8は、感情マップテーブルの一実施例を示す図である。図8のAは、感情マップを示しており、快−不快の軸と覚醒−睡眠の軸を有する2次元の感情空間を示している。図8のBは、図8のAの感情マップに対応する感情マップテーブルであり、「感情点」「行動指示情報」を有している。図8のBでは、「感情点」を覚醒−睡眠の軸上の値と、快−不快の軸上の値を、それぞれ0〜1の範囲で表した値を用いて表している。図8のBの「感情点」では、(0.0,0.0)(0.0,0.1)(0.0,0.2)・・・(0.1,0.0)(0.1,0.1)(0.1,0.2)・・・(1.0,0.0)・・・(1.0,1.0)が記録されている。「行動指示情報」は、「感情点」に関連付けられており、図8のBでは、「可動指示1,発生指示1」「可動指示2,発生指示2」・・・「可動指示100,発生指示100」が記録されている。可動指示1〜100は、可動部5を稼動させるための情報である。発生指示1〜100は、発声部6に音声を出力させるための情報である。なお、図8のAでは、便宜上感情空間上に「寝る」「しくしく泣く」・・・「怒る」・・・「大笑いする」が表されているが、実際には必要ない。また、図8のBでも、便宜上各「行動指示情報」に関連付けられて「寝る」「しくしく泣く」・・・「怒る」・・・「大笑いする」が表されているが、実際には必要ない。
図9は、ロボットの感情の制御動作の一実施例を示す図である。
ステップS1では、処理部3のイベント処理部7がセンサ部2から検出信号を受信したか否かを判定する。本例では、検出信号を受信したときイベントが発生したとして、ステップS2に移行し、検出信号を受信していないときはステップS3に移行する。なお、イベントがあったか否かを示す情報を含む検出信号を、センサ部2から定期的にイベント処理部7へ送信して、イベント処理部7が検出信号を解析してイベントが発生したか否かを判定してもよい。
ステップS5では、勾配計算部9が感情点の位置の勾配ベクトルを求める。勾配計算部9は、例えば、ポテンシャル情報にポテンシャルU(x)が記録されている場合であれば、現在の感情点における勾配dU(x)/dxを求める。次に、求めた勾配の方向としてマイナスを付して勾配ベクトル−dU(x)/dxを求める。勾配ベクトルについては図2のBを参照。
移動量について説明する。感情空間上のポテンシャルの勾配に基づいて感情点を移動させる方法として、例えば、勾配を用いる方法がある。感情点はその地点におけるポテンシャルの勾配が最も急な方向へ落ち込んでいくので、ポテンシャルU(x)の感情点の位置をxとすると、感情点の移動量は数4によって求められる。
図10のBに、勾配に慣性力を付与した場合の感情点の移動方法のシミュレーションの一実施例を示す。
ステップS7では、座標移動部10がステップS6で求めた移動量と方向を用いて、移動先の感情点の位置を求めて、移動先の感情点を記録部4の感情状態テーブル15に記録する。例えば、現在の感情点を移動先の感情点で上書きしてもよいし、感情点をログとして残してもよい。
実施形態2では、感情点がポテンシャルの極小値に落ち込んで停止した場合や、ロボットの感情を強制的に変化させたい場合に、感情点の移動量を強制力によって変化させる方法について説明する。数8に、強制力の一実施例として、ポテンシャルの勾配ベクトルを回転させた式を示す。
図12は、実施形態2の動作の一実施例を示すフロー図である。図12のステップS6では、勾配計算部9が図9のステップS5で求めた勾配ベクトルを用いて移動量と方向を求める。
実施形態3は、ロボットのポテンシャルを変更することによって、ロボットの成長を表現する。ロボットポテンシャル情報の変更方法の一実施例として、ロボットポテンシャルを形成する関数にパラメータを含ませておき、そのパラメータを決められた条件で段階的に変更する方法が考えられる。例えばパラメータをpとして数10のようにポテンシャルU(x,y,p)を定義する。
図14は、ロボットポテンシャルを変更する動作の一実施例を示したフロー図であり、図9のフローにステップS141を追加したフロー図である。ステップS141では、処理部3に設けられた機能により、記録部4のロボットポテンシャルテーブル13に記録されているロボットポテンシャル情報を変更する。例えば、処理部3に設けられた機能により、パラメータpと閾値が等しくなったとき分岐を検出したとし、ロボットポテンシャルの極小点の数を増やす。閾値は、利用者が予め設定してもよいし、感情点に連動させて増やしてもよい。また、パラメータpの値の増加は、予め設定した時間によって増加させてもよいし、感情点に連動させて増やしてもよい。なお、本例ではパラメータpを増加させているが、減少させてもよい。減少させる場合は、例えば、減少させる条件を用意して、減少させる条件に一致したときに減少させることが考えられる。
プログラムを作成する際に、ポテンシャルを含む感情を遷移させる条件を数多く定義して、数多く定義した条件各々を個別に関連付けると、プログラム作成者にも関連付けが簡単に理解できなくなるため、プログラムの記述ミスなどが起こりやすくなる。実施形態4では、プログラムを作成する利用者が、感情を遷移させる条件各々を個別に記述して関連付けるのではなく、容易で直感的に記述する方法について説明する。
実施形態5は、実施形態1、2、3を、コンピュータを用いて実現される場合の構成について説明する。または、ロボットをコンピュータの表示装置の画面上で表現する場合について示す。
記録部1602には、CPU1601が実行するプログラムやデータが記録されている。また、ワークエリアなどとして使用される。また、記録部1602は上記説明した記録部4の機能を有する。記録部1602は、例えば、ROM、RAM、ハードディスクドライブなどである。
(付記1)
複数の感情に対応する軸を有する感情空間を用いて、ロボットに感情を表現させるロボットの制御方法であって、
コンピュータが、
記録部に記録した前記感情空間の座標により示される感情点により1つの値が決まる関数を有するポテンシャル情報を取得し、
前記ポテンシャル情報が有する前記感情点により1つの値が決まる関数と、現在の感情点を用いて、該現在の感情点における勾配ベクトルを求め、
前記勾配ベクトルが示す移動量と方向と、前記現在の感情点とを用いて、次の感情点を求め、
前記ロボットが備える可動部または発声部を稼動するための行動指示情報と前記感情点を関連付けて前記記録部に記録される感情マップテーブルを参照して、前記次の感情点に関連付けられている前記行動指示情報を取得して、取得した前記行動指示情報を前記可動部または前記発声部に出力する、
ことを実行するロボットの制御方法。
(付記2)
コンピュータが、
前記ロボットが備える複数のセンサのいずれかから、前記センサを識別するセンサ情報を取得し、
前記記録部に記録されている、複数の前記センサ各々を識別するセンサ情報と、前記センサ情報各々に関連付けられる前記感情点により1つの値が決まる関数を有する1つ以上のイベントポテンシャル情報を記録するイベントポテンシャルテーブルから、前記センサ情報に関連付けられている前記イベントポテンシャル情報を取得し、
前記記録部に記録されている、前記感情点により1つの値が決まる関数を有するロボットポテンシャル情報を記録するロボットポテンシャルテーブルを取得し、取得した前記ロボットポテンシャル情報の有する関数と前記イベントポテンシャル情報の有する関数を合成して、合成した関数を有するポテンシャル情報を生成する、
ことを実行する付記1に記載のロボットの制御方法。
(付記3)
コンピュータが、
前記ポテンシャル情報に含まれる前記イベントポテンシャル情報の有する関数により決まる感情点各々に対応する値各々を、予め設定した時間ごとに減衰させることを特徴とする付記2に記載のロボットの制御方法。
(付記4)
前記勾配ベクトルに慣性力を付加して前記次の感情点までの移動量と方向を求めることを特徴とする付記3に記載のロボットの制御方法。
(付記5)
前記移動量が0から閾値の範囲であるとき、前記ポテンシャル情報が有する関数の極小点に感情点が停留していると判定したとき、前記ポテンシャル情報が有する関数に前記勾配ベクトルを回転させる強制力を付加することを特徴とする付記1に記載のロボット制御方法。
(付記6)
複数の感情に対応する軸を有する感情空間を用いて、ロボットに感情を表現させるロボットの感情制御プログラムであって、
コンピュータに、
記録部に記録した前記感情空間の座標により示される感情点により1つの値が決まる関数を有するポテンシャル情報を取得する処理と、
前記ポテンシャル情報が有する前記感情点により1つの値が決まる関数と、現在の感情点を用いて、現在の感情点における勾配ベクトルを求める処理と、
前記勾配ベクトルが示す移動量と方向と前記現在の感情点を用いて、次の感情点を求める処理と、
前記ロボットが備える可動部または発声部を稼動するための行動指示情報と前記感情点を関連付けて前記記録部に記録される感情マップテーブルを参照して、前記次の感情点に関連付けられている前記行動指示情報を取得して、取得した前記行動指示情報を前記可動部または前記発声部に出力する処理と、
を実行させることを特徴とするロボットの制御プログラム。
(付記7)
複数の感情に対応する軸を有する感情空間を用いて、感情を表現するロボットであって、
前記ロボットが感情を表現するのに用いる前記ロボットの可動部または発声部を稼動する行動指示情報と、前記感情空間の座標により示される感情点とを関連付けて記録する感情マップテーブルと、
前記感情点により1つの値が決まる関数を有するロボットポテンシャル情報を記録するロボットポテンシャルテーブルと、
前記ロボットが備える複数のセンサを識別するセンサ情報と、前記センサ情報各々に関連付けられる前記感情点により1つの値が決まる関数を有する1つ以上のイベントポテンシャル情報を記録するイベントポテンシャルテーブルと、を有する記録部と、
前記イベントポテンシャルテーブルから前記センサ情報に関連付けられている前記イベントポテンシャル情報を取得するイベント処理部と、
前記イベント処理部で取得した前記イベントポテンシャル情報の有する関数を、ロボットポテンシャル情報の有する関数に合成して、合成した関数を有するポテンシャル情報を生成するポテンシャル合成部と、
前記ポテンシャル情報が有する前記感情点により1つの値が決まる関数と、現在の感情点を用いて、現在の感情点における勾配ベクトルを求める勾配計算部と、
前記勾配ベクトルが示す移動量と方向と前記現在の感情点を用いて、次の感情点を求める座標移動部と、
前記次の感情点に関連付けられている前記感情マップテーブルの行動指示情報を取得し、取得した前記行動指示情報を前記可動部または前記発声部に出力する行動指示部と、
を備えることを特徴とするロボット。
(付記8)
コンピュータが、
前記ロボットポテンシャル情報が有する関数の極小点の数を、予め設定した時間ごとに変化させることを特徴とする付記3に記載のロボットの制御方法。
(付記9)
前記次の感情点までの移動量と方向を、一定の確率でランダムに変更することを特徴とする付記3または8のいずれか1つに記載のロボットの制御方法。
(付記10)
コンピュータに、
前記ロボットが備える複数のセンサのいずれかから、前記センサを識別するセンサ情報を取得する処理と、
前記記録部に記録されている、複数の前記センサ各々を識別するセンサ情報と、前記センサ情報各々に関連付けられる前記感情点により1つの値が決まる関数を有する1つ以上のイベントポテンシャル情報を記録するイベントポテンシャルテーブルから、前記センサ情報に関連付けられている前記イベントポテンシャル情報を取得する処理と、
前記記録部に記録されている、前記感情点により1つの値が決まる関数であるロボットポテンシャル情報を記録するロボットポテンシャルテーブル取得し、取得した前記ロボットポテンシャル情報の有する関数と前記イベントポテンシャル情報の有する関数を合成して、合成した関数を有するポテンシャル情報を生成する処理と、
を実行させることを特徴とする付記6に記載のロボットの制御プログラム。
(付記11)
コンピュータに、
前記ポテンシャル情報に含まれる前記イベントポテンシャル情報の有する関数により決まる感情点各々に対応する値各々を、予め設定した時間ごとに減衰させる処理を実行させることを特徴とする付記10に記載のロボットの制御プログラム。
(付記12)
コンピュータに、
前記ロボットポテンシャル情報が有する関数の極小点の数を、予め設定した時間ごとに変化させる処理を実行させることを特徴とする付記11に記載のロボットの制御プログラム。
(付記13)
コンピュータに、
前記勾配ベクトルに慣性力を付加して前記次の感情点までの移動量と方向を求める処理を実行させることを特徴とする付記11に記載のロボットの制御プログラム。
(付記14)
コンピュータに、
前記次の感情点までの移動量と方向を、一定の確率でランダムに変更する処理を実行させることを特徴とする付記11または13のいずれか1つに記載のロボットの制御プログラム。
(付記15)
コンピュータに、
前記移動量が0から閾値の範囲であるとき、前記ポテンシャル情報が有する関数の極小点に感情点が停留していると判定したとき、前記ポテンシャル情報が有する関数に前記勾配ベクトルを回転させた強制力を付加する処理を実行させることを特徴とする付記6に記載のロボット制御プログラム。
(付記16)
前記ポテンシャル合成部で求めた前記ポテンシャル情報の有する関数に含まれる前記イベントポテンシャル情報の関数により決まる感情点各々に対応する値各々を、予め設定した時間ごとに減衰させることを特徴とする付記7に記載のロボット。
(付記17)
前記ロボットポテンシャル情報が有する関数の極小点の数を、予め設定した時間ごとに変化させることを特徴とする付記16に記載のロボット。
(付記18)
前記勾配ベクトルに慣性力を付加して前記次の感情点までの移動量と方向を求めることを特徴とする付記7に記載のロボット。
(付記19)
前記次の感情点までの移動量と方向を、一定の確率でランダムに変更することを特徴とする請求項16または18のいずれか1つに記載のロボット。
(付記20)
前記移動量が0から閾値の範囲であるとき、前記ポテンシャル情報の関数の極小点に感情点が停留していると判定して、前記ポテンシャル情報の関数に前記勾配ベクトルを回転させた強制力を付加することを特徴とする付記7に記載のロボット。
2 センサ部
3 処理部
4 記録部
5 可動部
6 発声部
7 イベント処理部
8 ポテンシャル合成部
9 勾配計算部
10 座標移動部
11 行動指示部
12 イベントポテンシャルテーブル
13 ロボットポテンシャルテーブル
14 ポテンシャルテーブル
15 感情状態テーブル
16 感情マップテーブル
151 表示画面
152 ポテンシャル作成画面
153 感情空間−ポテンシャル表示画面
154 3次元ポテンシャル表示
155、156、157 部品
158 グラフ
159 3次元グラフ
1600 ハードウェア
1602 記録部
1603 記録媒体読取装置
1604 入出力インタフェース
1605 通信インタフェース
1606 バス
1607 記録媒体
1608 入出力装置
Claims (7)
- 複数の感情に対応する軸を有する感情空間を用いて、ロボットに感情を表現させるロボットの制御方法であって、
コンピュータが、
記録部に記録した前記感情空間の座標により示される感情点により1つの値が決まる関数を有するポテンシャル情報を取得し、
前記ポテンシャル情報が有する前記感情点により1つの値が決まる関数と、現在の感情点を用いて、該現在の感情点における勾配ベクトルを求め、
前記勾配ベクトルが示す移動量と方向と、前記現在の感情点とを用いて、次の感情点を求め、
前記ロボットが備える可動部または発声部を稼動するための行動指示情報と前記感情点を関連付けて前記記録部に記録される感情マップテーブルを参照して、前記次の感情点に関連付けられている前記行動指示情報を取得して、取得した前記行動指示情報を前記可動部または前記発声部に出力する、
ことを実行するロボットの制御方法。 - コンピュータが、
前記ロボットが備える複数のセンサのいずれかから、前記センサを識別するセンサ情報を取得し、
前記記録部に記録されている、複数の前記センサ各々を識別するセンサ情報と、前記センサ情報各々に関連付けられる前記感情点により1つの値が決まる関数を有する1つ以上のイベントポテンシャル情報を記録するイベントポテンシャルテーブルから、前記センサ情報に関連付けられている前記イベントポテンシャル情報を取得し、
前記記録部に記録されている、前記感情点により1つの値が決まる関数を有するロボットポテンシャル情報を記録するロボットポテンシャルテーブルを取得し、取得した前記ロボットポテンシャル情報の有する関数と前記イベントポテンシャル情報の有する関数を合成して、合成した関数を有するポテンシャル情報を生成する、
ことを実行する請求項1に記載のロボットの制御方法。 - コンピュータが、
前記ポテンシャル情報に含まれる前記イベントポテンシャル情報の有する関数により決まる感情点各々に対応する値各々を、予め設定した時間ごとに減衰させることを特徴とする請求項2に記載のロボットの制御方法。 - 前記勾配ベクトルに慣性力を付加して前記次の感情点までの移動量と方向を求めることを特徴とする請求項3に記載のロボットの制御方法。
- 前記移動量が0から閾値の範囲であるとき、前記ポテンシャル情報が有する関数の極小点に感情点が停留していると判定したとき、前記ポテンシャル情報が有する関数に前記勾配ベクトルを回転させる強制力を付加することを特徴とする請求項1に記載のロボット制御方法。
- 複数の感情に対応する軸を有する感情空間を用いて、ロボットに感情を表現させるロボットの感情制御プログラムであって、
コンピュータに、
記録部に記録した前記感情空間の座標により示される感情点により1つの値が決まる関数を有するポテンシャル情報を取得する処理と、
前記ポテンシャル情報が有する前記感情点により1つの値が決まる関数と、現在の感情点を用いて、現在の感情点における勾配ベクトルを求める処理と、
前記勾配ベクトルが示す移動量と方向と前記現在の感情点を用いて、次の感情点を求める処理と、
前記ロボットが備える可動部または発声部を稼動するための行動指示情報と前記感情点を関連付けて前記記録部に記録される感情マップテーブルを参照して、前記次の感情点に関連付けられている前記行動指示情報を取得して、取得した前記行動指示情報を前記可動部または前記発声部に出力する処理と、
を実行させることを特徴とするロボットの制御プログラム。 - 複数の感情に対応する軸を有する感情空間を用いて、感情を表現するロボットであって、
前記ロボットが感情を表現するのに用いる前記ロボットの可動部または発声部を稼動する行動指示情報と、前記感情空間の座標により示される感情点とを関連付けて記録する感情マップテーブルと、
前記感情点により1つの値が決まる関数を有するロボットポテンシャル情報を記録するロボットポテンシャルテーブルと、
前記ロボットが備える複数のセンサを識別するセンサ情報と、前記センサ情報各々に関連付けられる前記感情点により1つの値が決まる関数を有する1つ以上のイベントポテンシャル情報を記録するイベントポテンシャルテーブルと、を有する記録部と、
前記イベントポテンシャルテーブルから前記センサ情報に関連付けられている前記イベントポテンシャル情報を取得するイベント処理部と、
前記イベント処理部で取得した前記イベントポテンシャル情報の有する関数を、ロボットポテンシャル情報の有する関数に合成して、合成した関数を有するポテンシャル情報を生成するポテンシャル合成部と、
前記ポテンシャル情報が有する前記感情点により1つの値が決まる関数と、現在の感情点を用いて、現在の感情点における勾配ベクトルを求める勾配計算部と、
前記勾配ベクトルが示す移動量と方向と前記現在の感情点を用いて、次の感情点を求める座標移動部と、
前記次の感情点に関連付けられている前記感情マップテーブルの行動指示情報を取得し、取得した前記行動指示情報を前記可動部または前記発声部に出力する行動指示部と、
を備えることを特徴とするロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010135419A JP5499924B2 (ja) | 2010-06-14 | 2010-06-14 | ロボットの制御方法、ロボットの制御プログラムおよびロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010135419A JP5499924B2 (ja) | 2010-06-14 | 2010-06-14 | ロボットの制御方法、ロボットの制御プログラムおよびロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012000694A JP2012000694A (ja) | 2012-01-05 |
JP5499924B2 true JP5499924B2 (ja) | 2014-05-21 |
Family
ID=45533292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010135419A Active JP5499924B2 (ja) | 2010-06-14 | 2010-06-14 | ロボットの制御方法、ロボットの制御プログラムおよびロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5499924B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10733992B2 (en) | 2017-06-14 | 2020-08-04 | Toyota Jidosha Kabushiki Kaisha | Communication device, communication robot and computer-readable storage medium |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6166234B2 (ja) * | 2014-08-08 | 2017-07-19 | 日本電信電話株式会社 | ロボット制御装置、ロボット制御方法及びロボット制御プログラム |
CN104461016B (zh) * | 2014-12-23 | 2018-02-13 | 杭州云造科技有限公司 | 产品的机器性格表现方法及装置 |
JP6639166B2 (ja) * | 2015-09-15 | 2020-02-05 | 株式会社Soken | 動作体の感情動作制御装置及び感情動作制御方法 |
CN107020637A (zh) * | 2016-01-29 | 2017-08-08 | 深圳光启合众科技有限公司 | 宠物机器人的情绪表达方法及宠物机器人 |
JP7152908B2 (ja) * | 2018-09-05 | 2022-10-13 | 日本放送協会 | 仕草制御装置及び仕草制御プログラム |
KR102598435B1 (ko) * | 2021-11-29 | 2023-11-07 | 한국과학기술연구원 | 사람의 감정 변화 패턴을 반영한 로봇의 감정 상태 결정 장치 및 방법 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003191187A (ja) * | 2001-12-21 | 2003-07-08 | Sony Corp | ロボット装置及びその制御方法 |
KR101108733B1 (ko) * | 2004-03-26 | 2012-03-29 | ?지 미쓰요시 | 의지발현 모델장치, 심리효과 프로그램, 의지발현시뮬레이션방법 |
-
2010
- 2010-06-14 JP JP2010135419A patent/JP5499924B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10733992B2 (en) | 2017-06-14 | 2020-08-04 | Toyota Jidosha Kabushiki Kaisha | Communication device, communication robot and computer-readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP2012000694A (ja) | 2012-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5499924B2 (ja) | ロボットの制御方法、ロボットの制御プログラムおよびロボット | |
US10438393B2 (en) | Virtual reality presentation of body postures of avatars | |
US11461950B2 (en) | Object creation using body gestures | |
KR101819535B1 (ko) | 표정 제어점에 기초한 강체 영역의 표현 방법 및 장치 | |
KR20170085422A (ko) | 가상 에이전트 동작 방법 및 장치 | |
US11145138B2 (en) | Virtual reality presentation of layers of clothing on avatars | |
JP2014504959A (ja) | 人間型ロボットのジェスチャと音声の同期 | |
CN106660209B (zh) | 智能机器人控制系统、方法及智能机器人 | |
CN114630738B (zh) | 用于模拟感测数据和创建感知的系统和方法 | |
US20230273685A1 (en) | Method and Arrangement for Handling Haptic Feedback | |
US20210375067A1 (en) | Virtual reality presentation of clothing fitted on avatars | |
Cruz et al. | Generative storytelling for information visualization | |
KR20180115551A (ko) | 감정 표현이 가능한 로봇 및 이의 동작 방법 | |
JP2017134609A (ja) | 画像生成プログラム及び記録媒体 | |
JP5002818B2 (ja) | 接触音のリアルタイム生成装置、方法、プログラムおよびプログラムを格納した記録媒体 | |
JP6198375B2 (ja) | ゲームプログラムおよびゲームシステム | |
US8077183B1 (en) | Stepmode animation visualization | |
JP6576544B2 (ja) | 情報処理装置、情報処理方法、コンピュータ読み取り可能な記憶媒体 | |
CN104732572B (zh) | 一种生成运动图像的方法及装置 | |
Corradini et al. | Towards believable behavior generation for embodied conversational agents | |
Leandro Parreira Duarte et al. | Coarticulation and speech synchronization in MPEG-4 based facial animation | |
Ogawa et al. | Factors and influences of body ownership over virtual hands | |
US20230267669A1 (en) | Method for generating joint-based facial rig and apparatus therefor | |
JP2002092639A (ja) | パーティクルの挙動を表示するアニメーション生成方法および装置 | |
Vala et al. | From virtual bodies to believable characters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130403 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140225 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5499924 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |