JP5521240B1 - 人工情緒表現動作を選択するための装置及び方法 - Google Patents

人工情緒表現動作を選択するための装置及び方法 Download PDF

Info

Publication number
JP5521240B1
JP5521240B1 JP2012282346A JP2012282346A JP5521240B1 JP 5521240 B1 JP5521240 B1 JP 5521240B1 JP 2012282346 A JP2012282346 A JP 2012282346A JP 2012282346 A JP2012282346 A JP 2012282346A JP 5521240 B1 JP5521240 B1 JP 5521240B1
Authority
JP
Japan
Prior art keywords
emotion
expression
combination
motion
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012282346A
Other languages
English (en)
Other versions
JP2014124708A (ja
Inventor
ソク アン、ホ
ウク リー、ドン
ヒー ション、ウーン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Korea Academy of Industrial Technology
Original Assignee
Korea Academy of Industrial Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Korea Academy of Industrial Technology filed Critical Korea Academy of Industrial Technology
Priority to JP2012282346A priority Critical patent/JP5521240B1/ja
Application granted granted Critical
Publication of JP5521240B1 publication Critical patent/JP5521240B1/ja
Publication of JP2014124708A publication Critical patent/JP2014124708A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】人間の感情表現に最大限類似してロボットで表現できる最適の動作組み合わせを選定する、人工情緒表現動作を選択するための装置及び方法を提供する。
【解決手段】既定の各感情に対して、機械装置の表現要素別に行われる各感情表現動作の確率を設定する感情表現設定部と、各表現要素から、感情表現動作をランダムに一つずつ抽出して組み合わせた動作組み合わせを一つ以上生成する動作組み合わせ生成部と、各動作組み合わせに含まれた感情表現動作の確率の平均を、機械装置の感情別に算出し、各動作組み合わせから、感情表現動作の確率の平均が、既定の機械装置の感情値に最も近い動作組み合わせを選定する動作組み合わせ選定部と、を備える人工情緒表現動作を選択するための装置。
【選択図】図2

Description

本発明は、人工情緒表現動作を選択するための装置及び方法に係り、さらに詳細には、人間の感情表現に最大限類似してロボットで表現できる最適の動作組み合わせをリアルタイムで選定する、人工情緒表現動作を選択するための装置及び方法に関する。
人間は、同じ感情であっても常に同じ感情表現(動作)を示すものではなく、少しずつ異なる感情表現(動作)を示す。また、一つの感情ではなく多様な感情を反映した動作を示す。感情を感じた大きさによっても動作は変わりうる。
しかし、既存ロボットの感情表現研究では、一つの感情に対して一つの行動を一対一にマッピングした後、定められた感情に対応する行動を表現した。これは、単純な行動のみ示し、多様な行動を示すことができない方法である。また多様な行動を示すためには、予め定義する過程が必要であるが、これは人間が手作業でせねばならない過程であるため、非効率的な方法である。したがって、いくつかの定義だけでも多様な感情を反映する行動を生成する方法を考案する必要がある。
本発明は、人間の感情表現に最大限類似してロボットで表現できる最適の動作組み合わせをリアルタイムで選定する、感情表現動作選定装置及び方法を提供するためのものである。
本発明が解決しようとする技術的課題は、以上で述べた技術的課題に制限されず、述べていないさらに他の技術的課題は、下記の記載から当業者に明確に理解されうる。
前記の目的を達成するための本発明の一側面による感情表現動作選定装置は、既定の各感情に対して、機械装置の表現要素別に行われる各感情表現動作の確率を設定する感情表現設定部と、前記各表現要素から、前記感情表現動作をランダムに一つずつ抽出して組み合わせた動作組み合わせを一つ以上生成する動作組み合わせ生成部と、前記各動作組み合わせに含まれた感情表現動作の確率の平均を、機械装置の感情別に算出し、前記各動作組み合わせから、前記平均が、既定の機械装置の感情値に最も近い動作組み合わせを選定する動作組み合わせ選定部と、を備える。
一実施形態において、前記機械装置の感情値に最も近い平均を近接平均という時、前記動作組み合わせ選定部は、前記動作組み合わせ生成部から入力される動作組み合わせの順に前記平均を算出し、現在算出された平均が現在までの近接平均ではない場合、現在算出された平均と近接平均との差がランダム性を満たせば、前記現在算出された平均を前記現在までの近接平均と選定する。
本発明の他の側面による感情表現動作選定方法は、既定の各感情に対して機械装置の表現要素別に行われる各感情表現動作の確率を設定する段階と、前記各表現要素から、前記感情表現動作をランダムに一つずつ抽出して一つ以上の動作組み合わせを生成する段階と、前記動作組み合わせに含まれた感情表現動作の確率の平均を機械装置の感情別に算出し、前記動作組み合わせから、前記平均が、既定の機械装置の感情値に最も近い動作組み合わせを選定する段階と、を含む。
一実施形態において、前記機械装置の感情値に最も近いと選定された動作組み合わせb(k)は、次の数式2で定められる。
ここで、e(k)は、k時間において表現しようとする機械装置の感情値(ベクトル)であり、
Pは、機械装置感情表現要素の総数であり、
は、p番目の表現要素でw番目の感情表現動作の感情値(ベクトル)であり、‖‖は、ベクトルのサイズ(ベクトル間の距離)であり、minは、複数の値のうち最小値を選択する演算子であり、
は、値の導出に使われた因子w1、w2、…、wp、…、wPを転置行列として表す演算子であり、b(k)は、機械装置の感情値に最も近いと選定された動作組み合わせである。
本発明のさらに他の側面による感情表現動作選定方法は、a)既定の各感情に対して、機械装置の表現要素別に行われる各感情表現動作の確率を設定する段階と、b)前記表現要素別に、既定の機械装置の感情値に最も近い感情表現動作を抽出して初期動作組み合わせを生成する段階と、c)前記各表現要素から、前記感情表現動作をランダムに一つずつ抽出して動作組み合わせを生成し、前記動作組み合わせに含まれた感情表現動作の確率の平均を機械装置の感情別に算出する段階と、d)前記確率の平均と、前記初期動作組み合わせを初期値とする最適動作組み合わせのうち、どちらが前記機械装置の感情値にさらに近いかを判別する段階と、e)前記確率の平均が前記機械装置の感情値にさらに近いならば、前記確率の平均の動作組み合わせで前記最適動作組み合わせを代替して反復値を差し引きした後、前記反復値が設定値以下ならば、前記最適動作組み合わせを機械装置の動作と選定し、そうでなければ、前記c)段階に戻る段階と、を含む。
一実施形態において、f)前記確率の平均の動作組み合わせと前記最適動作組み合わせとの差がランダム性を満たすかどうかを判別する段階と、g)前記ランダム性を満たすならば、前記動作組み合わせで前記最適動作組み合わせを代替して前記反復値を差し引きした後、前記反復値が設定値以下ならば、前記最適動作組み合わせを前記機械装置の動作と選定し、そうでなければ、前記c)段階に戻る段階と、h)前記ランダム性を満たさなければ、前記c)段階に戻る段階と、をさらに含む。
一実施形態において、前記f)段階は、前記最適動作組み合わせが前記機械装置の感情値により近い場合、前記確率の平均の動作組み合わせと前記最適動作組み合わせとの差がランダム性を満たすかどうかを判別する。
一実施形態において、前記ランダム性を満たすかどうかは、次の数式3によって定められる。
ここで、
であり、random(0,1)は、0と1との間のランダム値であり、Zは、終了定数であって、反復値がカウントされる度に減少する値であり、error(bbest(k))は、最適動作組み合わせと機械装置の感情値との差の大きさであり、error(bcan(k))は、動作組み合わせと機械装置の感情値との差の大きさであり、
である。
本発明の感情表現動作選定装置及び方法は、多様な感情表現動作の組み合わせから現感情値に最も近い動作組み合わせをリアルタイムで選定することで、選定された動作組み合わせに含まれた感情表現動作を行うロボットに、さらに自然な感じの感情表現を与えられる。
言い換えれば、ベクトル空間上で制限された数の地点に感情表現動作組み合わせを設定した既存の感情表現方式によれば、例えば、地点1近くの複数の感情値に対していずれも同一に地点1に設定された感情表現動作が行われるが、本発明によれば、各感情値によって異なる感情表現動作が行われうる。したがって、さらに人間の感情表現に類似した多様な感情表現が可能になる。また、ランダム性が反映された感情表現動作組み合わせを選定させることで、さらに自然な感情表現が可能である。
一般的な機械装置感情表現方式を示す概略図である。 本発明の機械装置の感情表現動作選定装置が適用可能な人工感情学習装置の一実施形態についての概略的なブロック図である。 図2の人工感情学習装置の作動原理を説明するための概略的なブロック図である。 本発明の一実施形態による感情表現動作選定装置を示すブロック図である。 本発明に採用可能な機械装置の要素のうち、目の多様な動作を示す概略図である。 本発明において、ユーザが機械装置の各要素の感情表現動作に係る感情別優先順位を設定した表の一実施形態を示す概略図である。 図6の表を用いて、機械装置の各要素の感情表現動作に係る感情別確率値を設定した表を示す概略図である。 本発明の感情表現動作選定方法を示すフローチャートである。
以下、本発明の感情表現動作選定装置及び方法について、図面を参照してさらに詳細に説明する。
本格的な説明の前に、理解を助けるために機械装置感情表現の方式について調べる。
図1は、一般的なロボット感情表現方式を示す概略図である。
ロボットにとって感情を表現させるためには、現在ロボットの感情値を算出せねばならない。感情とは、喜びや悲しみなどの一つの細部感情に定められる場合はほとんどない。人間が現在喜びを感じる場合であっても、驚きの感情と怒りの感情など他の感情が一部反映される。すなわち、感情表現は、複合的な細部感情が反映された結果である。したがって、ロボットを通じて現実的な感情表現を具現するためには、ロボットに適用する感情値も、喜び(happiness)、悲しみ(sadness)、驚き(surprise)、怒り(anger)などの多様な細部感情を反映してベクトルで表すことができる。
図1のように、一般的にロボットの感情を表現するために2次元または3次元の固定された次元の空間を用いて、かかる固定された次元の空間上の一定の位置に感情及びその感情に該当する感情表現をマッピングする。感情値は、空間上の一定の位置に該当するベクトル値で表現及び計算できる。
すなわち、ベクトル空間上のいろいろな点を感情をマッピングしておき、各感情に該当する感情表現を一対一にマッピングした後、特定の感情ベクトルが与えられた場合、前記特定の感情ベクトルとベクトル空間上にマッピングされたいろいろな感情のうち、距離上最も近い感情一つを選択し、その感情と一対一にマッピングされた感情を表現する方法を採用してきた。
言い換えれば、ベクトル空間上の無数な座標に感情及びその感情に該当する感情表現を手作業でマッピングさせるのに限界があるため、従来の図1の方式は、少数の座標を選択して各座標に該当する感情及び感情に該当する感情表現動作をマッピングしておいた後、ロボットの感情値を分析して最も近い座標の感情を選択し、それにより感情表現を行うことである。
例えば、4次元ベクトル空間上の座標1に、感情値1{喜び1、悲しみ0、驚き0、怒り0)を表すように設定されており、感情値2{喜び3/4、悲しみ1/4、驚き0、怒り0}と感情値3{喜び3/4、悲しみ0、驚き1/4、驚き0}とが他の感情を表現する座標より座標1に近い場合、感情値1、2、3はいずれも座標1に設定された感情表現を行う。
このように、従来の方式は、内部的に実際に生成された感情値が相異なるにもかかわらず、選択される感情値は、座標1にマッピングされた感情値のうち最も類似した一つのみ選択され、同じ座標の感情値を基準として感情表現動作を選択するため、一般的に表現機関を通じて表現される形態も同一である。
すなわち、うれしくても驚きが一部反映されているならば、口を大きく開けることが自然であるが、図1の方式によれば、単純にうれしい時の動作と同じく表現されるので、かかる感情表現動作は自然な動作ではない。
以下、従来技術の限界を乗り越えるために、本発明を調べる。
先ず、本発明のロボットの感情表現動作選定装置及び方法を採用できる人工感情学習装置の全体的な構成について、図2及び図3を参照して説明した後、本発明によるロボットの感情表現動作選定装置及び方法について説明する。
図2は、本発明のロボットの感情表現動作選定装置が適用できる人工感情学習装置の一実施形態についての概略的なブロック図である。図3は、図2の人工感情学習装置の作動原理を説明するための概略的な構成図である。
図2及び図3は、本発明が適用できる生成的確率モデル(Generative Probability Model)を用いた人工感情学習装置を示す。
本実施形態による人工感情学習装置1000は、生成的確率モデル基盤の人工感情を学習するために、4つの空間である外部入力空間910、内部状態空間920、感情空間930、動作空間940と、マッピングプロセスなどを行う4つの装置である内部状態算出装置100、感情決定装置200、動作生成装置300及び感情学習装置400とで形成される。
第1に、外部入力空間(External Input Space)910は、顔表情、ジェスチャー、口調などの外部で感知された情報を用いたベクトル空間で構成される。
第2に、内部状態空間(Internal State Space)920は、性格の5要因模型(The Five−Factor Model)により構成され、性格の5要因は、開放性(openness to experience)、誠実性(conscientiousness)、外向性(extraversion)、親和性(agreeableness)、神経症的傾向性(neuroticism)で形成される。
もちろん、内部状態空間は、定義によって5つの要因のうち一つ以上の要因のみで構成された状態を表すことができる。各要因を意味する空間の軸の一定位置に、性格の特性によって発生できる感情の分布が生成され、内部状態ベクトルが表す値によって感情の確率分布値が定められる。
内部状態空間は、本発明を通じて提示しようとする人格や感情を持つロボットが特定外部入力に対して反応するための基礎的な内部状態を構成するために導入される概念である。詳細には、同じ外部入力や刺激があっても、それぞれの人間は、成長してきた背景や環境によって反応する程度、すなわち、生成される感情が相異なり、かかる相異なる感情に基づいて窮極的な自分の感情を外部に表出する。
例えば、暴力的な環境に長く露出された人間とそうでない人間とに同じ程度の外部刺激を入力させた場合に、前者は内部状態、すなわち、性格が非常に鋭い状態である可能性が高く、かかる状態に基づいて感情を生成する可能性が高い一方、後者はそうでない可能性が高い。
感情空間(Emotion Space)930は、幸せ、驚き、悲しみ、恋、嫌さ、恐れ、怒りなどの感情の大きさ程度に基づいたベクトル空間で構成される。感情空間の各軸は、幸せ、驚きなど使用する感情ごとに一つの軸を持ち、感情の数によって感情空間の軸の数が定められる。
感情空間の軸は0〜1の範囲を持ち、内部状態空間に配された感情確率分布によって感情ベクトルの値が定められる。そして、この感情ベクトルの値は、感情空間上の一点を表し、この点の値が多様な感情値を表す。
一般的に確率の範囲を0〜1にするため前記のようで設定するが、必要に応じて確率の範囲を拡張または縮少でき、これは、感情空間の軸の範囲にも同一に適用される。
動作空間(Behavior Space)940は、口、目、頭などのそれぞれの感情表現機関の微笑む口、口開けなどの最も小さな動作を示す単位動作(Unit Behavior)の量に基づいたベクトル空間で構成される。動作空間の各軸は表現機関ごとに一つの軸を持ち、動作空間上の一点は、選択された最適の行動組み合わせを表す。
次いで、4つの装置を説明すれば、内部状態算出装置100は、内部プロセスとして内部状態を計算し、外部入力空間910から内部状態空間920にマッピングし、内部状態空間920及び次元(Dimension)を定義する。内部状態とは、外部入力を使用する内部状態空間920内の一点を意味する。
従来技術において、既存の内部状態空間は、心理学的研究に基づいたのにもかかわらず任意に修正されて、また内部状態空間と感情空間とを同一視し、同一視した空間上の一定位置に感情を固定させた。したがって、既存の内部状態空間は、内部状態ベクトルが変わっても生成される感情が同一であった。しかし、本発明では、かかる問題点を解決するために、心理学の研究である性格の5要因模型に基づいて内部状態空間920を構成する。性格の5要因模型は、心理学的に人間性格を説明するために導入されたものであり)、既に周知であるため、本明細書ではそれについての詳細な説明を省略する。
内部状態算出装置100の内部プロセスは、性格の5要因模型の測定方法であるNEO−PI−R(the Revised NEO Personality Inventory)を使用して構成される。NEO−PI−Rを用いた感情決定装置200は、感情決定プロセスとして、内部状態空間920から感情空間930にマッピングされる感情ベクトルを選択する。
従来技術において、内部状態空間が感情を分類する固定された複数の区域に配されたため、年齢や文化的背景の差を反映し難かった。また、心理学研究ごとに、基本感情の定義とその数が異なるという問題点があった。しかし、本発明は、感情空間上に混合ガウス分布(GMM、Gaussian Mixture Model)を用いた感情確率方法で、内部状態空間から感情空間にマッピングされる感情ベクトルを設定し、ユーザのフィードバックにより感情確率を更新する。かかる構成によれば、従来技術のように、単純に一つの感情のみ選択するものではなく、あらゆる感情上に分布された確率値を通じて感情ベクトルを選択できる。
動作生成装置300は、動作生成プロセス(Behavior Generation Process)として、ロボットの動作を生成するために感情空間930から動作空間940にマッピングする。
従来技術において、動作生成装置は、動作と感情間の既定の1:1マッピングを用いてロボットの行動や動作を選択した。したがって、既存のロボットは、同じ外部入力などが与えられる場合に常に同じ動作を表現した。また、既存のロボットで生成された一つの動作は一つの感情のみ反映するため、ロボットは、簡単かつ断片的な動作のみ表現するしかなかった。しかし、本発明では、ロボットの最も蓋然性の高い動作を定めるために、単位動作及び確率感情値を考慮した多様な動作を生成するための動作生成プロセスの概念を導入する。
以下、生成的確率モデルに基づいた感情決定プロセスのうち、内部状態生成についてそれぞれ分設する。
まず、内部状態生成と関連して図2及び図3に示したように、本発明の生成的確率モデルを用いる感情システム1000は、内部プロセスと、学習方法(learning scheme)を持つ感情決定プロセスとの2つのプロセスを含む。
内部プロセス(internal process)は、外部入力空間910を内部状態空間920にマッピングさせ、内部状態空間920内に存在する一つの点で内部状態を生成する。内部プロセスは、性格の5要因模型を測定するために開発された方法であるNEO PI−R(Revised NEO Personality Inventory)を使用してモデリングされる。性格の5要因模型は、個人の性格を説明する模型であり、個人の性格を説明するために次の5側面の個性を含む。
開放性(openness to experience)
誠実性(conscientiousness)
外向性(extraversion)
親和性(agreeableness)
神経症的傾向性(neuroticism)
また、NEO PI−Rは、心理学的人格検査方法の一種であり、性格の5要因模型の測定方法として使われる。NEO PI−R実験は、性格の5要因模型の各要因の面(facet)であると知られている6つの下位要素(面)を含んでおり、これらを測定できる。上位要素当たり6個の下位要素は、次の通りである。
開放性(openness to experience):想像(fantasy)、審美性(aesthetics)、感じ(feelings)、行動(actions)、思考(ideas)、価値(values)
誠実性(conscientiousness):有能感(competence)、整然性(order)、充実性(dutifulness)、成就追求(achievement striving)、自己規制(self−discipline)、慎重性(deliberation)
外向性(extraversion):温情(warmth)、社交性(gregariousness)、主張(assertiveness)、活動性(activity)、刺激追求(excitement seeking)、肯定的情緒(positive emotion)
親和性(agreeableness):信頼性(trust)、率直性(straightforwardness)、利他性(altruism)、順応性(compliance)、謙虚(modesty)、同情(tender mindedness)
神経症的傾向性(neuroticism):不安(anxiety)、敵対感(hostility)、憂欝(depression)、自意識(self−consciousness)、衝動性(impulsiveness)、ストレス脆弱性(vulnerability to stress)
本実施形態において、図3のu(k)は、外部入力ベクトル(external input vector)と定義され、外部入力ベクトルの要素は、顔の表情、ジェスチャー及び口調などの外部入力状態を指示する。また、外部入力ベクトルは、S個の外部入力があるS次元の外部入力空間910に存在する。
x(k)は、内部状態ベクトル(internal state vector)と定義され、内部状態ベクトルの要素は、性格の5要因模型に基づいて、内部状態空間920上で開放性、誠実性、外向性、親和性、神経症的傾向性の5要因の状態を表す。また、x(k)は、定義によって5要因のうち一つ以上の要因のみでで構成された状態を表す。
前述したu(k)は、内部プロセスの入力となり、x(k)は、内部プロセスの出力となる。もし、所定の時間の間に外部入力がない場合、内部状態は、感情状態が中立である0に収まる。u(k)は、内部プロセスの入力である同時に外部から入力される刺激、すなわち、ロボットがセンシングできるあらゆるデータを意味する。感情決定プロセス(emotion decision process)は、内部状態空間920から感情空間930にマッピングするプロセスであり、感情空間930上に存在する一点である感情ベクトルを生成する。本実施形態の感情システム1000は、内部状態空間920上に分布する感情確率分布を設定し、学習により感情確率分布を更新する。
e(k)は、感情ベクトル(emotion vector)と定義され、感情ベクトルを構成する要素は、該当要素が示す感情の確率サイズを表す。感情空間930は、J次元である。ここで、前記Jは、感情の数を表す。
前述したx(k)は、感情決定プロセスに入力され、e(k)は、感情決定プロセスから出力される。x(k)が感情決定プロセスに入力されれば、内部状態空間920に分布された感情確率分布を用いてそれぞれの感情確率が定められ、e(k)は、あらゆる感情に対して確率を持つように定められる。
b(k)は、動作ベクトル(Behavior vector)と定義され、動作ベクトルを構成する要素は、各感情表現動作の確率を設定して各感情表現動作の組み合わせを一つ以上含み、各感情表現動作の組み合わせに基づいて感情表現動作を表すように具現される。
前述したe(k)は、動作生成プロセスの入力となり、b(k)は、動作生成プロセスの出力となる。e(k)が動作生成プロセスに入力されれば、動作生成装置300の動作生成プロセッサーは、感情空間930で定められた感情確率を用いて、ランダム動作組み合わせを含むb(k)を通じて多様な感情動作を表現できる。
図4は、本発明の一実施形態による感情表現動作選定装置を示すブロック図である。図5は、図4の感情表現動作選定装置に採用できるロボットの表現要素のうち、目の多様な動作を示す概略図である。図6は、本発明において、ユーザがロボットの各表現要素の感情表現動作に係る感情別優先順位を設定した表の一実施形態を示す概略図である。そして、図7は、図6の表を用いて、ロボットの各表現要素の感情表現動作に係る感情別確率値を設定した表を示す概略図である。
本実施形態による感情表現動作選定装置は、図2及び図3を参照すれば、前述した感情決定装置の少なくとも一部の機能を行う手段、またはかかる手段に相応する機能を行う構成部に対応する。
図4に示したように、感情表現動作選定装置は、既定の各感情に対してロボットの表現要素別に行われる各感情表現動作の確率を設定する感情表現設定部110、ロボットの各表現要素から感情表現動作をランダムに一つずつ抽出して組み合わせた動作組み合わせを一つ以上生成する動作組み合わせ生成部130、及び各動作組み合わせに含まれた感情表現動作の確率の平均を、既定のロボットの感情別に算出し、各動作組み合わせから、前記平均が既定のロボットの感情値に最も近い動作組み合わせを選定する動作組み合わせ選定部150を備える。
さらに詳細には、感情表現設定部110は、各表現要素の多様な動作から感情表現と関連する動作(感情表現動作)を定義し、各感情表現動作に感情別確率を設定する。感情表現設定部110は、ロボットの初期化段階で行われるものであって、基本的にロボットの動作中には作動せず、ユーザが優先順位を変更する場合にのみ初期化のために作動できる。かかる感情表現設定部110は、ロボットのスペックが定められて、ユーザがロボットを使用する前にセットするための手段または該手段に相応する機能を行う構成部で具現される。
ロボットの表現要素は、外部でロボットの動作を視覚または聴覚で認識できる、ロボットで運用できる個別動作要素または感情表現要素である。例えば、目、口、耳、頭、手、足などがロボットの表現要素に該当する。ロボットの表現要素には、笑い声、泣き声などの感情音響を表示するスピーカーも含まれうる。
すなわち、ロボットは、個別動作要素または感情表現要素として所定の表現部位を備えるが、かかる表現部位は、ロボットのスペックによって異なって備えられるか、または設定される。例えば、顔ロボットは、動作や感情表現のために目、鼻、口などの顔中にある部位のみ利用でき、腕と脚を持っているロボットは、腕と脚部位も感情表現に利用できる。また、顔ロボットのうちでも、スペックまたは設定によって目と口のみ用いて感情を表現するか、または眉毛と目または耳を別々に使用して感情を表現できる。
例えば、感情表現設定部110は、図5に示した総23個の目動作のうち23個すべてまたは一部を感情表現動作として選択できる。さらに具体的に説明すれば、ユーザは、図5に示したように、目の各表現部位別に表現できるあらゆる動作を定義する。例えば、目を1°開け、2°開けるなどの細部的な動作を設定してもよい。そして、各細部動作と感情間の関係を、図6のように優先順位と設定できる。
そして、感情表現設定部110は、感情表現動作に対して、図7のように各感情(細部動作)別に確率を設定する。図7に示した確率表は、各細部動作が感情といかほど関連があるかを確率で示した表であり、今後に最適の行動組み合わせを定める時、レファレンス資料として使われる。図7を説明すれば、口に対して普通(Neutral)、微笑む(Smile)、開ける(Open)、ぎゅっと閉じる(Close)、振る/捻る(Shake)、しかめる(Frown)の感情表現動作を定義し、目と頭に対してもそれぞれ6個の表現動作を定義した。もちろん、各表現要素の感情表現動作の数は同一でなくてもよい。
例えば、感情表現設定部110は、図7に示したように、開ける(Open)に対して細部感情別に確率を設定できる。具体的に喜び(Happiness)2/6=1/3、悲しみ(Sadness)0、驚き(Surprise)3/6=1/2、怒り(Anger)1/6のように設定できる。かような確率を、各表現要素別のあらゆる動作に対して設定する。感情(細部感情)の数及び確率はユーザによって設定される。ユーザが確率を直接設定する場合、感情表現設定部110は、各表現要素の感情表現動作に係る感情別確率を表に保存するデータベースの機能を行える。
一方、ユーザが直接確率を設定し難いので、ユーザをして簡単に優先順位のみ設定させ、感情表現設定部110で設定された優先順位を確率に変換してもよい。
また、感情表現設定部110は、図6の優先順位を図7の確率に変換するために次の数式1を利用できる。
ここで、
は、p番目の表現要素で、w番目の感情表現動作に係るj番目の感情の確率値であり、
は、p番目の表現要素で、w番目の感情表現動作に係るj番目の感情の優先順位であり、
は、p番目の表現要素で、w番目の感情表現動作に係るj番目の感情の優先順位のうち最も大きい値であり、
は、p番目の表現要素で、w番目の感情表現動作に係るあらゆる感情の優先順位の和である。
図7で、口開け(Mouth Open)の優先順位は、驚き1順位、喜び2順位、怒り3順位である。これを数式1に適用すれば、口開け喜びは、(3−2+1)/6=1/3になる。口開け悲しみは、優先順位がないので0である。口開け驚きは、(3−1+1)/6=1/2になる。口開け怒りは、(3−3+1)/6=1/6になる。これは、図6の場合と一致する。
動作組み合わせ生成部130は、各表現要素から感情表現動作をランダムに一つずつ抽出して組み合わせることで動作組み合わせを生成する。動作組み合わせは、感情を表現する時に動作する各表現要素の感情表現動作集合である。例えば、動作組み合わせは、表現要素の口(Mouth)から開ける(Open)動作を、表現要素の目(Eyes)から大きく開ける(Big)動作を、表現要素の頭(Head)から仰け反る(Back)動作を抽出して組み合わせられる。かかる組み合わせの確率(値)を、喜び、悲しみ、驚き、怒りの順に並べれば、次の通りである。
口 1/3 0 1/2 1/6
目 1/3 0 2/3 0
頭 0 0 2/3 1/3
動作組み合わせ生成部130は、一つ以上の動作組み合わせを生成できる。
感情表現動作をランダムに抽出するのは、同じ感情値に対して多様な感情表現動作を行わせるためであり、これについては後述する。
次いで、動作組み合わせ選定部150は、まず動作組み合わせに含まれた感情表現動作の確率に対して感情別に平均を出す。
すなわち、口を開ける−目を大きく開ける−頭を仰け反る動作の組み合わの場合、喜びの平均は(1/3+1/3+0)/3=2/9、悲しみの平均は0、驚きの平均は(1/2+2/3+2/3)/3=11/18、怒りの平均は(1/6+0+1/3)/3=1/6である。
次いで、算出された平均値を、入力されたロボットの感情値と比較する。ロボットの感情値が{喜び、悲しみ、驚き、怒り}形態のベクトルならば、比較可能に算出された平均値も{2/9、0、11/18、1/6}(以下、第1ベクトルという)のようにベクトル化する。
次いで、動作組み合わせ選定部150は、算出されたベクトル平均値と現在入力されたロボットの感情値ベクトル間の距離を計算する。動作組み合わせが複数ならば、各動作組み合わせに対して感情別平均値を用いて前記のようにロボットの感情値までの距離を求め、最も短い距離を持つ平均(ベクトル)が算出された動作組み合わせを選定する。このように選定された動作組み合わせを、各要素を制御する制御部に伝送することで、ロボットが自然な感情を表現できるようにする。両ベクトル間の距離が最も短いというのは、最も近いということを表す。
例えば、動作組み合わせは、表現要素の口(Mouth)から微笑(Smile)む動作を、表現要素の目(Eyes)からぎゅっと両目を閉じる(Close Both)動作を、表現要素の頭から捻る(Tilt)動作を抽出して組み合わせられる。かかる組み合わせの確率(値)を、喜び、悲しみ、驚き、怒りの順に並べれば、次の通りである。
口 1 0 0 0
目 1/6 1/2 0 1/3
頭 0 1/3 0 2/3
前記の例と同様に、感情表現動作の確率に対して感情別に平均を出せば、{7/18、5/18、0、1/3}(以下、第2ベクトルという)のようにベクトル化される。現在入力されたロボットの感情ベクトル値が{2/8、1/8、5/8、0}(以下、第3ベクトルという)である時、第3ベクトルと第1ベクトル間の距離
と、第3ベクトルと第2ベクトル間の距離
とを比較して、短い距離にあるベクトルである第1ベクトルを選択し、選択された第1ベクトルと関連する動作組み合わせの口(Mouth)から開ける(Open)動作、目から大きく開ける(Big)動作、表現要素の頭(Head)から仰け反る(Back)動作を表現する。
本例では、2つの動作組み合わせと現在感情値間の演算について言及したが、可能な動作組み合わせの数は5個であり、5個の動作組み合わせのうち最も近い動作組み合わせを選定して表現できる。
以上の動作組み合わせ選定部150の動作は、次の数式2で定義される。下記の数式は、動作組み合わせ選定部150の動作を説明する一つの例である。
ここで、e(k)は、k時間における表現しようとするロボットの感情値(ベクトル)であり、Pは、ロボット感情表現要素の総数であり、
は、p番目の表現要素で、w番目の感情表現動作の感情値(ベクトル)であり、‖‖は、ベクトルのサイズ(ベクトル間の距離)であり、minは、複数の値のうち最小値を選択する演算子であり、
は、値の導出に使われた因子w、w、…、w、…、wを転置行列として表す演算子であり、b(k)は、ロボットの感情値に最も近いと選定された動作組み合わせである。
既存の感情表現方式によれば、ロボットは、予め定義された少数の動作組み合わせのみを用いて感情を表現することができたが、以上の構成によれば、抽出可能なあらゆる動作組み合わせを用いれば、(表現要素に割り当てられた感情表現動作の種類数)表現要素の数個の動作組み合わせを用いて感情を表現できる。
また、ランダムに感情表現動作を抽出する動作組み合わせ生成部130で、あらゆる動作組み合わせではなく一部の動作組み合わせのみを生成するならば、同一感情値に対しても異なる動作組み合わせが選定されうる。したがって、さらに自然な感情表現が可能になる。例えば、人間の場合、嬉しい感情を表現する時、微笑みの代わりに口をしかめることもあるが、以上の構成によれば、いわゆる感情表現のランダム性を具現できる。
感情表現のランダム性を浮き彫りにするために、次の方案をさらに考慮できる。
ロボットの感情値に最も近い平均を近接平均という時、動作組み合わせ選定部150は、動作組み合わせ生成部130から入力される動作組み合わせの順に平均を算出し、現在算出された平均が現在までの近接平均ではない場合、現在算出された平均と近接平均との差がランダム性を満たせば、現在算出された平均を、現在までの近接平均と選定できる。ここで、算出された平均が現在までの近接平均ではない場合は、算出された平均が現在までの近接平均と異なる値を持つ場合を含む。
ここで、動作組み合わせ生成部130は、所定の感情表現動作選定装置により既に算出されたあらゆる感情の確率値が入力される時、これに対応するあらゆる感情表現動作組み合わせのうち、予め設定されたロボットの感情値に最も近い組み合わせが選定されるように動作組み合わせの候補群を生成するための手段、または該手段に相応する機能を行う構成部で具現される。そして、動作組み合わせ選定部150は、動作組み合わせ生成部130で生成されたあらゆる動作組み合わせに対して、最適化アルゴリズムを用いて入力された感情の確率値に最も近い感情表現動作組み合わせを選定する。このために、動作組み合わせ選定部150は、感情表現設定部110により予め生成された確率表を用いて各感情表現動作組み合わせの感情値を生成する。そして、動作組み合わせ選定部150は、入力と各感情表現動作組み合わせの感情値との比較により、最も近い感情値を持つ感情表現動作組み合わせを選定してロボットの感情を表現する。
さらに具体的に説明すれば、動作組み合わせ選定部150は、現在算出された平均が現在までの近接平均でなければ、該当動作組み合わせに興味を持っていない。これは、感情値にさらに近い動作組み合わせがあるのに、敢えて現在の動作組み合わせを選定する必要がないからである。したがって、近接平均でなければ、現在算出された平均をダミー(Dummy)と見なしてしまう恐れがある。
しかし、同一感情に対して多様な動作組み合わせを選定しようとするならば、現在までの近接平均ではなく現在算出された平均に、近接平均と選定できる機会をさらに与えられる。
このために、動作組み合わせ選定部150は、現在算出された平均と近接平均との差がランダム性を満たすかどうかを判別する。この時、ランダム性は、ランダムに選択された定数を基準とすることを意味する。
すなわち、現在算出された平均と近接平均との差がランダム性を満たすかどうかは、ランダムに選択された定数を基準として判別する多様な方案を含む。
現在算出された平均と近接平均との差も、直接的な引き算以外に間接的な引き算を含む。かかる例として、次の数式3のようにランダム性を満たすかどうかが判別できる。
ここで、
であり、random(0,1)は、0と1との間のランダム値であり、Zは、終了定数であって、反復値がカウントされる度に減少する値であり、error(bbest(k))は、最適動作組み合わせとロボットの感情値との差の大きさであり、error(bcan(k))は、動作組み合わせとロボットの感情値との差の大きさであり、
である。
数式3には、算出された平均と近接平均との差がP(k)と表現されており、ランダムな定数として0と1間の値を用いる。
終了定数Zは、反復値、すなわち、反復回数に関するものであり、後述する。
図8は、本発明の一実施形態による感情表現動作選定方法を示すフローチャートである。
図8に示した感情表現動作選定方法は、図4の感情表現動作選定装置の動作についての説明に対応できる。
まず、既定の各感情に対して、ロボットの表現要素別に行われる各感情表現動作の確率を設定する(S510)。感情表現設定部110で行われる動作で、各感情はユーザによって予め設定される。
各表現要素で、感情表現動作をランダムに一つずつ抽出して一つ以上の動作組み合わせを生成する(S530)。動作組み合わせ生成部130で行われる動作である。
動作組み合わせに含まれた感情表現動作の確率の平均を感情別に算出し、動作組み合わせから、平均がロボットの感情値に最も近い動作組み合わせを選定する(S550)。動作組み合わせ選定部150で行われる動作は、一例として数式2による動作組み合わせと選定される。
ここで、動作組み合わせを選定する段階を、細部的に再び記述すれば、次の通りである。
a)既定の各感情に対して、ロボットの表現要素別に行われる各感情表現動作の確率を設定する(S510)。ユーザの便宜を考慮して、数式1のように優先順位を確率に変換できる。
b)前記表現要素別に前記ロボットの感情値に最も近い感情表現動作を抽出して、初期動作組み合わせを生成する(S530)。
初期動作組み合わせbinitは、次の数式4で定義される。
ここで、
であり、Rは、実数を構成要素とするP次元のベクトルを表す。すなわち、binitは、P次元のベクトルで表現され、実数を構成要素とする。
c)前記各表現要素から、前記感情表現動作をランダムに一つずつ抽出して動作組み合わせを生成し、前記動作組み合わせに含まれた感情表現動作の確率の平均を前記感情別に算出する(S551)。
生成された動作組み合わせbcan(k)は、次の数式5で定義される。
can(k)は、ランダムに抽出された感情表現動作の組み合わせであるため、数式4の
のような端緒がない。
d)前記確率の平均と、前記初期動作組み合わせを初期値とする最適動作組み合わせbbest(k)のうち、どちらが前記ロボットの感情値にさらに近いかを判別する(S552)。
この時の判別に使用する式は、次の数式6で定義される。
ここで、
であり、判別初期に
であり、e)段階で代替が行われれば、error(bbest(k))=error(bcan(k))である。
e)前記確率の平均が前記ロボットの感情値にさらに近いならば、すなわち、数式6を満たすならば、前記確率の平均の動作組み合わせbcan(k)に前記最適動作組み合わせbbest(k)を代替し(S553)(bbest(k)←bcan(k))、反復値を差し引いた(S554)後、前記反復値が0ならば(S555)、前記最適動作組み合わせをロボットの動作と選定し(S556)、そうでなければ、前記c)段階に戻る。
もちろん、必ずしも反復値が0である必要はなく、ユーザが設定した値以下ならば、前記最適動作組み合わせを、ロボットが表現する動作組み合わせと選定できる。すなわち、反復値は、多様な方式、数式、定数で設定される。
例えば、終了定数Z及び終了基準εを設定し、次の数式7を満たすならば、反復値が0であると処理できる。
ここで、初期Zは、εより大きい実数であり、反復値の差し引きは、ZがξZに代替されることであり、0<ξ<1である。
数式3の終了定数Zは、数式7の終了定数Zであり得、この場合、反復回数が増加するほど現在算出された平均が数式3を満たす確率が高くなる。
f)前記最適動作組み合わせが前記ロボットの感情値にさらに近いならば、前記確率の平均の動作組み合わせと前記最適動作組み合わせとの差がランダム性を満たすかどうかを判別する(S557)。一例として、数式3を通じてランダム性を判別できる。
もちろんこの時も、前記最適動作組み合わせが前記ロボットの感情値にさらに近い時だけランダム性を満たすかどうかを検討する必要はなく、近くないとしてもランダム性を満たすかどうかは検討できる。
g)前記ランダム性を満たすならば、前記動作組み合わせに前記最適動作組み合わせを代替し(S553)、前記反復値を差し引いた(S554)後、前記反復値が0ならば(S555)、前記最適動作組み合わせを前記ロボットの動作と選定し(S556)、前記反復値が0でなければ、前記c)段階に戻る。
もちろんこの時も、前述したように、必ずしも反復値が0である必要はなく、ユーザが設定した値以下ならば、最適動作組み合わせをロボットの動作と選定できる。
h)前記ランダム性を満たさなければ(S557)、前記反復値の差し引きなしに前記c)段階に戻る。もちろんランダム性を満たさないとしても、前記反復値の差し引き後にc)段階に戻ることができる。g)段階及びh)段階がランダム性を満たすかどうかは、数式3によって行われる。反復値の差し引きなしにc)段階に戻るということは、数式6の判別結果、e)段階が全く進んでいない場合であってもg)段階を必ず進めるということを意味する。したがって、g)段階を必ず進めないようにする場合、h)段階で反復値を差し引いてc)段階に戻るようにすればよい。
一方、一般的に人々が同じ感情を感じるとしても同じ感情表現をするわけではなく、また、同じ人が同じ感情を感じる場合にも、同一に感情を表現するわけではない。かかる点を鑑みて、本発明はランダム性の検討如何を通じてさらに繊細な感情表現を行える。
すなわち、本発明はランダム性の検討を通じて、現在入力された感情値と動作組み合わせとが最も類似した組み合わせではなくても、感情を表現するように動作組み合わせを選択できる。これにより、ロボットは、実際人間のように類似した感情値が入力されても、互いに異なってそれを表現できる。このために、ランダム性の検討結果によって、確率的に動作組み合わせを加える段階をさらに含まねばならないということはいうまでもない。
言い換えれば、ランダム性を満たすかどうかを検討する段階を含んでいない場合、本発明は、現在感情値と最も類似した最適の感情を表現する動作組み合わせを生成して出力するのに対し、ランダム性を満たすかどうかを検討する段階を備える場合、実際人間のように、類似した感情値が入力されても状況によって異なる表現動作組み合わせが生成されて出力可能である。もちろん、前記相異なる表現動作組み合わせは、互いに類似した範ちゅうに属する。
本発明の感情表現動作選定装置及び方法によれば、多様な感情表現動作の組み合わせから現感情値に最も近い組み合わせを選定することで、選定された組み合わせに含まれた感情表現動作を行うロボットに、さらに自然な感じの感情表現方式を付与できる。
一方、当業者ならば、本発明がその技術的思想や必須特徴を変更せずに他の具体的な形態で行われうるということを理解できるであろう。したがって、以上で述べた実施形態はあらゆる面で例示的なものであり、限定的なものではないと理解せねばならない。本発明の範囲は、前記詳細な説明よりは特許請求の範囲によって示され、特許請求の範囲の意味及び範囲、そしてその等価概念から導出されるあらゆる変更または変形された形態は、本発明の範囲に含まれていると解釈されねばならない。
本発明は、感情を表現できるロボットに適用できる。特に、生物と類似した構造の感情表現要素を持つロボットに好適に適用できる。
100 内部状態算出装置
200 感情決定装置
300 動作生成装置
400 感情学習装置
1000 人工感情学習装置

Claims (5)

  1. 既定の各感情に対して、機械装置の表現要素別に行われる各感情表現動作の確率を設定する感情表現設定部と、
    前記表現要素の各々から、前記感情表現動作をランダムに一つずつ抽出して組み合わせた動作組み合わせを一つ以上生成する動作組み合わせ生成部と、
    前記動作組み合わせの各々に含まれた感情表現動作の確率の平均を、機械装置の感情別に算出し、前記動作組み合わせの各々から、前記平均が、既定の機械装置の感情値に最も近い動作組み合わせを選定する動作組み合わせ選定部と、
    を備えており、
    前記感情表現設定部は、次の数式1に基づいて上記の感情表現の動作の確率を設定することを特徴とする人工情緒表現動作を選択するための装置。
  2. 前記機械装置の感情値に最も近い平均を近接平均という時、前記動作組み合わせ選定部は、
    前記動作組み合わせ生成部から入力される動作組み合わせの順に前記平均を算出し、現在算出された平均が現在までの近接平均ではない場合、現在算出された平均と近接平均との差がランダム性を満たせば、前記現在算出された平均を前記現在までの近接平均と選定し、
    前記ランダム性を満たすかどうかは、次の数式3によって定められることを特徴とする 請求項1に記載の人工情緒表現動作を選択するための装置:
  3. 既定の各感情に対して機械装置の表現要素別に行われる各感情表現動作の確率を設定する段階と、
    前記表現要素の各々から、前記感情表現動作をランダムに一つずつ抽出して一つ以上の動作組み合わせを生成する段階と、
    前記動作組み合わせに含まれた感情表現動作の確率の平均を機械装置の感情別に算出し、前記動作組み合わせから、前記平均が、既定の機械装置の感情値に最も近い動作組み合わせを選定する段階と、
    を含み、
    前記確率を設定する段階は、次の数式1に基づいて上記の感情表現の動作の確率を設定することを特徴とし、
    前記機械装置の感情値に最も近いと選定された動作組み合わせb(k)は、次の数式2で定められることを特徴とする感情表現動作選定方法:
  4. a)既定の各感情に対して、機械装置の表現要素別に行われる各感情表現動作の確率を設定する段階と、
    b)前記表現要素別に、既定の機械装置の感情値に最も近い感情表現動作を抽出して初期動作組み合わせを生成する段階と、
    c)前記表現要素の各々から、前記感情表現動作をランダムに一つずつ抽出して動作組み合わせを生成し、前記動作組み合わせに含まれた感情表現動作の確率の平均を機械装置の感情別に算出する段階と、
    d)前記確率の平均と、前記初期動作組み合わせを初期値とする最適動作組み合わせとのうち、どちらが前記機械装置の感情値にさらに近いかを判別する段階と、
    e)前記d)段階において前記確率の平均が前記機械装置の感情値にさらに近いと判別されたならば、前記確率の平均の動作組み合わせで前記最適動作組み合わせを代替して反復値を差し引きした後、前記反復値が設定値以下ならば、前記最適動作組み合わせを機械装置の動作と選定し、前記反復値が前記設定値を超過するならば、前記c)段階に戻る段階と、
    f)前記確率の平均の動作組み合わせと前記最適動作組み合わせとの差がランダム性を満たすかどうかを判別する段階と、
    g)前記f)段階において前記ランダム性を満たすと判別されたならば、前記動作組み合わせで前記最適動作組み合わせを代替して前記反復値を差し引きした後、前記反復値が前記設定値以下ならば、前記最適動作組み合わせを前記機械装置の動作と選定し、前記反復値が前記設定値を超過するならば、前記c)段階に戻る段階と、
    h)前記ランダム性を満たさなければ、前記c)段階に戻る段階と
    を含み、
    前記確率を設定する段階は、次の数式1に基づいて上記の感情表現の動作の確率を設定することを特徴とし、
    前記ランダム性を満たすかどうかは、次の数式3によって定められることを特徴とする人工情緒表現動作を選択するための方法:
  5. 前記f)段階は、前記d)段階において前記最適動作組み合わせが前記機械装置の感情値により近いと判別された場合、前記確率の平均の動作組み合わせと前記最適動作組み合わせとの差がランダム性を満たすかどうかを判別することを特徴とする請求項に記載の人工情緒表現動作を選択するための方法。
JP2012282346A 2012-12-26 2012-12-26 人工情緒表現動作を選択するための装置及び方法 Active JP5521240B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012282346A JP5521240B1 (ja) 2012-12-26 2012-12-26 人工情緒表現動作を選択するための装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012282346A JP5521240B1 (ja) 2012-12-26 2012-12-26 人工情緒表現動作を選択するための装置及び方法

Publications (2)

Publication Number Publication Date
JP5521240B1 true JP5521240B1 (ja) 2014-06-11
JP2014124708A JP2014124708A (ja) 2014-07-07

Family

ID=51031368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012282346A Active JP5521240B1 (ja) 2012-12-26 2012-12-26 人工情緒表現動作を選択するための装置及び方法

Country Status (1)

Country Link
JP (1) JP5521240B1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6917611B2 (ja) * 2017-03-13 2021-08-11 株式会社国際電気通信基礎技術研究所 ヒューマノイドロボットの驚き動作生成装置
JP6904621B1 (ja) * 2020-10-27 2021-07-21 有限会社小山直樹一級建築士事務所 ロボット制御システム、性格情報管理サーバ及びロボット

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002137182A (ja) * 2000-10-31 2002-05-14 Yamaha Motor Co Ltd 動作内容決定装置
JP2011115944A (ja) * 2000-03-31 2011-06-16 Sony Corp ロボット装置、ロボット装置の行動制御方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011115944A (ja) * 2000-03-31 2011-06-16 Sony Corp ロボット装置、ロボット装置の行動制御方法及びプログラム
JP2002137182A (ja) * 2000-10-31 2002-05-14 Yamaha Motor Co Ltd 動作内容決定装置

Also Published As

Publication number Publication date
JP2014124708A (ja) 2014-07-07

Similar Documents

Publication Publication Date Title
US8972313B2 (en) Apparatus and method for learning emotion of robot
Bhattacharya et al. Text2gestures: A transformer-based network for generating emotive body gestures for virtual agents
JP5624100B2 (ja) 人工感情学習装置及び方法
Randhavane et al. FVA: Modeling perceived friendliness of virtual agents using movement characteristics
KR20130091364A (ko) 로봇의 학습이 가능한 감정생성장치 및 감정생성방법
CN114630738B (zh) 用于模拟感测数据和创建感知的系统和方法
Lala et al. Towards a virtual environment for capturing behavior in cultural crowds
Basori Emotion walking for humanoid avatars using brain signals
CN113760101A (zh) 一种虚拟角色控制方法、装置、计算机设备以及存储介质
Basori et al. Intelligent avatar on E-learning using facial expression and haptic
Dasgupta et al. A mixed reality based social interactions testbed: A game theory approach
US9037526B2 (en) Apparatus and method for selecting motion signifying artificial feeling
JP5521240B1 (ja) 人工情緒表現動作を選択するための装置及び方法
US9117168B2 (en) Apparatus and method for calculating internal state for artificial emotion
US20140170619A1 (en) Apparatus and method for creating artificial feelings
KR20200019296A (ko) 표정 인식 모델 생성 장치, 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독가능한 기록매체
Auflem et al. Facing the facs—using ai to evaluate and control facial action units in humanoid robot face development
JP5491599B2 (ja) 人工感情を表現するための内部状態算出装置および方法ならびに記録媒体
KR100745720B1 (ko) 다중 감정 모델을 이용한 감정 처리 장치 및 그 방법
KR20120111453A (ko) 감정값 산출 장치 및 방법
JP5527747B1 (ja) 機械装置の持続的な情緒表現動作を選択するための装置及び方法
JP5605661B2 (ja) 人工情緒発生装置及び方法
Hong Human-robot interactions for single robots and multi-robot teams
Ahn Designing of a personality based emotional decision model for generating various emotional behavior of social robots
WO2023199256A2 (en) Affective response modulation in embodied agents

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140319

R150 Certificate of patent or registration of utility model

Ref document number: 5521240

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250