JP2014074997A - 人工感情学習装置及び方法 - Google Patents

人工感情学習装置及び方法 Download PDF

Info

Publication number
JP2014074997A
JP2014074997A JP2012221460A JP2012221460A JP2014074997A JP 2014074997 A JP2014074997 A JP 2014074997A JP 2012221460 A JP2012221460 A JP 2012221460A JP 2012221460 A JP2012221460 A JP 2012221460A JP 2014074997 A JP2014074997 A JP 2014074997A
Authority
JP
Japan
Prior art keywords
emotion
internal state
value
distribution
gaussian distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012221460A
Other languages
English (en)
Other versions
JP5624100B2 (ja
Inventor
Ho Seok Ahn
ソク アン、ホ
Dong Wook Lee
ウク イ、ドン
Hee Shon Woong
ヒ ション、ウォン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Korea Institute of Industrial Technology KITECH
Original Assignee
Korea Institute of Industrial Technology KITECH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Korea Institute of Industrial Technology KITECH filed Critical Korea Institute of Industrial Technology KITECH
Priority to JP2012221460A priority Critical patent/JP5624100B2/ja
Publication of JP2014074997A publication Critical patent/JP2014074997A/ja
Application granted granted Critical
Publication of JP5624100B2 publication Critical patent/JP5624100B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Feedback Control In General (AREA)
  • Artificial Intelligence (AREA)
  • Manipulator (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)

Abstract

【課題】 人工感情学習装置及び方法を提供する。
【解決手段】 外部環境情報を感知して内部状態座標系の一点に対応する内部状態ベクトル値を算出する内部状態算出部と、内部状態座標系上でロボットの内部状態入力値の座標が示す各感情値群内の感情値をロボットの感情として生成する感情決定処理部と、感情決定処理部で定められた感情値によって、ロボットの動作を定めて感情表現を行う動作生成部と、感情決定処理部から定められた感情値と、ユーザ入力部から入力される感情の種類情報とを入力されて、内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、フィードバック情報を用いて内部状態座標系の感情確率分布を変更する感情学習部と、感情学習部に感情の種類情報を入力するユーザ入力部とを備える人工感情学習装置。
【選択図】 図3A

Description

本発明は、人工感情学習装置及び方法に関し、さらに詳細には、学習によりユーザの所望する方式で感情を生成できるロボットの人工感情学習装置及び方法に関する。
一般的にロボットの感情は、センサーからの入力により、予め設定された一定数の感情を持つ感情空間の特定位置で生成される感情に限定される。
図1は、一般的なロボット感情表現方式を示す概略図である。
ロボットとして感情を表現させるためには、現在ロボットの感情値を算出しなければならない。感情とは、喜びや悲しみなどの一つの細部感情に定められる場合はほとんどない。人間が現在喜びを感じる場合であっても、驚きの感情と怒りの感情など他の感情が一部反映される。すなわち、感情表現は、複合的な細部感情が反映された結果である。したがって、ロボットを通じて現実的な感情表現を具現化する際には、ロボットに適用する感情値も喜び(happiness)、悲しみ(sadness)、驚き(surprise)、怒り(anger)などの多様な細部感情を反映してベクトルで表すことができる。
図1のように、一般的にロボットの感情を表現するために2次元または3次元の固定された次元の空間を用い、このような固定された次元の空間上の一定の位置に感情及びその感情に該当する感情表現をマッピングする。感情値は、空間上の一定の位置に該当するベクトル値で表現及び計算できる。
すなわち、ベクトル空間上のいろいろな点に対して感情をマッピングしておき、各感情に該当する感情表現を一対一にマッピングした後、特定の感情ベクトルが与えられた場合、前記特定の感情ベクトルと、ベクトル空間上にマッピングされたいろいろな感情のうち距離上最も近い感情の一つを選択して、その感情と一対一にマッピングされた感情を表現する方法を採用してきた。
言い換えれば、ベクトル空間上の無数の座標に感情及びその感情に該当する感情表現を手作業でマッピングさせるには限界があるため、従来の図1の方式は、少数の座標を選択して各座標に該当する感情及び感情に該当する感情表現動作をマッピングしておいた後、ロボットの感情状態が反映されて定められた感情ベクトルに最も近い座標の感情を選択し、それによって感情表現を行うものである。
例えば、4次元ベクトル空間上の座標1に感情値1{喜び1、悲しみ0、驚き0、怒り0}を表すように設定されており、感情値2{喜び3/4、悲しみ1/4、驚き0、怒り0}と感情値3{喜び3/4、悲しみ0、驚き1/4、怒り0}とが他の感情を表現する座標より座標1に近い場合、感情値1、2、3は、いずれも座標1に設定された感情表現を行うようになる。
このように、従来の方式は、内部的に実際に生成された感情値が相異なるにもかかわらず、選択される感情値は、座標1にマッピングされた感情値のうち最も類似した一つのみ選択され、同じ座標の感情値を基準として感情表現動作を選択するため、一般的に表現機関を通じて表現される形態も同一である。
さらに詳細な説明のために、図2を活用する。図2は、従来の感情状態入力値からロボットの感情を生成する過程を説明するための概略図である。図2では、説明の便宜のために1次元感情座標系を使用した。
感情座標系で、座標1に喜びの基本感情を配し、座標−1に悲しみの基本感情を配した場合を仮定する。入力値が0.3ならば、0.3に最も近い基本感情を抽出する。図2の場合、0.3は−1より1に近いので、喜びの基本感情が抽出される。喜びの基本感情は、感情座標系で座標1であるため、最終的にロボットの感情は座標1になる。
前記のような感情発生方式によれば、入力値が0.5であるとしても、入力値が0.3である場合と同じく、最終ロボットの感情は、座標1になる。
したがって、前述した感情発生方式によって生成されたロボットの感情を入力されて目、口、ジェスチャーなどを表現する感情表現装置の場合では、感情状態入力値が0.3、0.5などと相異なっても同じ座標1をロボットの感情と表現する。したがって、従来のほとんどのロボットでは、入力値が異なっても同じ感情表現がなされる。
ところが、このように従来によるロボットの感情生成装置は、同じ入力に対して常に同じ感情を生成するので、ユーザの性向によって願わない感情が現われる場合、ロボットと共感できなくなり、ロボットへの興味が半減するという問題点が生じていた。
Miwa H.,et al.,"Effective emotional expressions with expression humanoid robot WE-4RII:integration of humanoid robot hand RCH-1," In Proceedings of 2004 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS 2004),vol.3,pp.2203-2208,2004. C.Breazeal,"Function meets style: insights from emotion theory applied to HRI," IEEE Transactions on Systems, Man and Cybernetics, Part C:Applications and Reviews,Vol.34,no.2,pp.187-194,2004. Park Jeong-Woo,Lee Hui-Sung,Jo Su-Hun,and Chung Myung-Jin,"Dynamic Emotion Model in 3D Affect Space for a Mascot-Type Facial Robot," In Proceedings of the 2nd Korea Robot Society Annual Conference,2007. Christian Becker,Stefan Kopp,and Ipke Wachsmuth,"Simulating the Emotion Dynamics of a Multimodal Conversational Agent," In Proceedings Tutorial and Research Workshop on Affective Dialogue Systems,pp.154-165,2004.
前記のような問題点を解決するために、ユーザによる学習を通じて感情空間上に配置された感情の分布を変更することで、ユーザの所望する感情を生成できるロボットの学習可能な人工感情学習装置及び方法を提供するところにその目的がある。
前記課題を解決するために、本発明による人工感情学習装置は、外部環境情報を感知して内部状態座標系の一点に対応する内部状態ベクトル値を算出する内部状態算出部と、前記内部状態座標系上でロボットの内部状態入力値の座標が示す各感情値群内の感情値を前記ロボットの感情として生成する感情決定処理部と、前記感情決定処理部で定められた前記感情値によって、前記ロボットの動作を定めて感情表現を行う動作生成部と、前記感情決定処理部から定められた感情値と、ユーザ入力部から入力される感情の種類情報とを入力されて、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、前記フィードバック情報を用いて前記内部状態座標系の感情確率分布を変更する感情学習部と、前記感情学習部に感情の種類情報を入力するユーザ入力部とを備える。ここで、前記感情確率分布は、加重値、中央値、分散を持つ一つのガウス分布であるか、または複数の前記ガウス分布が合成されたガウス分布であることが望ましい。
特に、前記感情学習部は、マッチング関数を用いて前記フィードバック情報に対応するガウス分布を検索してガウス分布を変更することを特徴とする。
一方、前記課題を解決するために、本発明による人工感情学習方法は、内部状態算出部が外部環境情報を感知して、内部状態座標系の一点に対応する内部状態ベクトル値を算出して内部状態を生成するステップと、n次元の内部状態座標系上にj種の感情についての感情確率分布が形成された感情モデルが備えられた感情決定処理部が、前記内部状態算出部の入力値を前記内部状態座標系にマッチングさせてロボットの感情値を定めるステップと、動作生成部が、前記感情決定処理部で定められた感情値によって前記ロボットの動作を定めて感情表現を行うステップと、感情学習部が、前記感情決定処理部から定められた感情値とユーザ入力部から入力される感情の種類情報とを入力されて、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、前記フィードバック情報を用いて前記内部状態座標系の感情確率分布を変更するステップとを含む。
本発明によれば、ユーザの学習を通じて感情空間上に配置された感情の分布を変更することで、ユーザの所望する感情を生成できる。したがって、ユーザの性向に合わせて共感できる感情を示すようにして、ロボットへの興味を高めることができる。
一般的なロボットの感情モデルを示す概略図である。 従来の技術による感情空間上で、感情状態入力値からロボットの感情を生成する過程を示す一実施形態の図面である。 本発明による人工感情学習装置を示す構成図である。 本発明による人工感情学習装置の各構成及び各構成間の空間を示す構成図である。 本発明の一実施形態に採用可能な感情確率分布を示す概略図である。 本発明の一実施形態による1次元感情空間上に、同一感情についての2個のガウス分布が合成された感情確率分布を持つ感情モデルを示す図面である。 本発明の一実施形態による1次元感情空間上に、他の感情に対して2個の感情確率分布を持つ感情モデルを示す図面である。 本発明による内部状態算出装置を示す概念図である。 本発明による内部状態算出方法を示す概念図である。 本発明の一実施形態による感情モデルを示す概略図である。 本発明の一実施形態による、学習によって変更された感情モデルを示す概略図である。 本発明の一実施形態による人工感情学習方法のフローチャートである。
以下、添付した図面を参照して本発明の実施形態を詳しく説明する。
図3A及び図3Bは、本発明が適用される生成的確率モデル(Generative Probability Model)を用いた人工感情学習装置1000を示す構成図である。
先ず、図3A及び図3Bを参照して、全体的な人工感情学習装置1000の構成について説明する。
図3A及び図3Bに示すように、人工感情学習装置1000は、生成的確率モデル基盤の人工感情を学習するため、4つの空間である外部入力空間910、内部状態空間920、感情空間930、動作空間940と、マッピングプロセスなどを行う4つの構成である内部状態算出部100、感情決定処理部200、動作生成部300、感情学習部400及びユーザ入力部500で構成される。
先ず、外部入力空間(External Input Space)910は、顔表情、ジェスチャー、口調などの外部で感知された情報を用いたベクトル空間で構成される。
内部状態空間(Internal State Space)920は、性格の5要因模型(The Five-Factor Model)により構成され、性格の5要因は、開放性(openness to experience)、誠実性(conscientiousness)、外向性(extraversion)、親和性(agreeableness)、神経症的傾向性(neuroticism)で形成される。
内部状態空間920は、性格の5要因のうち一つ以上を使った1次元以上の感情空間930としても構成でき、性格の5要因のうち一つ以上と、それ以外の要因とを合わせて感情空間930としても構成できる。また、性格の5要因のうち一つも使わず、他の要因を用いて構成された感情空間930など、いかなる要因で構成された感情空間930であってもよく、いずれも適用できる。
内部状態空間920は、人格や感情を持つロボットが特定外部入力に対して反応するための基礎的な内部状態を構成するために導入される概念である。さらに詳細には、同じ外部入力や刺激があったとしても、それぞれの人間は、成長してきた背景や環境によって反応する程度、すなわち、生成される感情が相異なり、かかる相異なる感情に基づいて究極的な自分の感情を外部に表出する。
例えば、暴力的な環境に長く露出された人間とそうでない人間とに同じ程度の外部刺激を入力させた場合に、前者は内部状態、すなわち、性格が非常に鋭い状態である可能性が高く、かかる状態に基づいて感情を生成する可能性が高い一方、後者はそうでない可能性が高い。
感情空間(Emotion Space)930は、幸せ、驚き、悲しみ、恋、嫌さ、恐れ、怒りなどの感情の大きさ程度に基づいたベクトル空間で構成される。
動作空間(Behavior Space)940は、口、目、頭などのそれぞれの感情表現機関の微笑む口、口開けなどの最も小さな動作を示す単位動作(Unit Behavior)の量に基づいたベクトル空間で構成される。
図3A及び図3Bの内部状態算出部100は、内部プロセス(internal process)として内部状態を計算し、外部入力空間910から内部状態空間920にマッピングし、内部状態空間920及び次元(Dimension)を定義する。内部状態とは、外部入力を使う内部状態空間920内の一点を意味する。
従来技術による内部状態空間920は、心理学的研究に基づいたものにもかかわらず任意に修正された。また、内部プロセスの結果は、内部状態空間920上の一点であるため、内部プロセスは、状態空間と連結されなければならない。しかし、従来技術は、ユーザの経験によって任意に内部プロセスが内部状態空間920と連結されるという問題点があった。
本発明では、心理学の研究である性格の5要因模型(The Five-Factor Model)に基づいて内部状態空間920を構成する。性格の5要因模型は、心理学的に人間の性格を説明するために導入したものであり、当業者には周知であるので、本発明では詳しい説明を略す。
内部プロセスは、性格の5要因模型の測定方法であるNEO−PI−R(the Revised NEO Personality Inventory)を使用して構成される。もちろん、前述したように、内部プロセスは、NEO−PI−Rと異なるものを使って構成してもよい。NEO−PI−Rは、下記で後述する。
図3A及び図3Bの感情決定処理部200は、感情決定プロセス(Emotion Decision Process)として、内部状態空間920で感情空間930にマッピングされる感情ベクトルe(k)を選択する。
従来技術は、内部状態空間920が、感情を分類する固定された複数の区域に配されたため、年齢や文化的背景の差を反映し難かった。また、心理学研究ごとに、基本感情の定義とその数が異なるという問題点があった。
しかし、本発明は、感情空間930上に混合ガウス分布(GMM、Gaussian Mixture Model)を用いた感情確率方法を設定し、ユーザのフィードバックにより感情確率を更新する。従来技術のように、ただ一つの感情のみ選択するものではなく、本発明では、あらゆる感情上に分布された確率値を通じて感情ベクトルe(k)を選択する。
図3A及び図3Bの動作生成部300は、動作生成プロセス(Behavior Generation Process)として、ロボットの動作を生成するために、感情空間930から動作空間940にマッピングする。
従来には、動作および感情間の既定の1:1マッピングを用いてロボットの行動や動作を選択した。したがって、既存のロボットは、同じ外部入力などが与えられる場合に常に同じ動作を表現した。また、生成された一つの動作は一つの感情のみ反映するため、ロボットは、簡単かつ断片的な動作のみ表現するしかなかった。
本発明では、ロボットの最も蓋然性の高い動作を定めるために、単位動作及び確率感情値を考慮した多様な動作を生成するための動作生成プロセスの概念を導入する。
以下、生成的確率モデルに基づいた感情決定プロセスのうち内部状態の生成についてそれぞれ分説する。
先ず、内部状態生成に関して図3A及び図3Bに示すように、本発明の生成的確率モデルを用いる人工感情学習装置1000は、内部プロセスと、学習方法(learning scheme)を持つ感情決定プロセスとの2つのプロセスを含む。
内部プロセス(internal process)は、外部入力空間910を内部状態空間920にマッピングさせ、内部状態空間920内に存在する一つの点で内部状態を生成する。内部プロセスは、性格の5要因模型を測定するために開発された方法であるNEO−PI−R(Revised NEO Personality Inventory)を使ってモデリングされる。
前述したように、性格の5要因模型は、個人の性格を説明する模型であり、個人の性格を説明するために次の5側面の個性を含む。5要因として、開放性(openness to experience)、誠実性(conscientiousness)、外向性(extraversion)、親和性(agreeableness)、神経症的傾向性(neuroticism)がある。
また、NEO−PI−Rは、心理学的人格検査方法であり、性格の5要因模型の測定方法として使われる。NEO−PI−R実験は、性格の5要因模型の各要因の面(facet)であると知られている6つの下位要素(面)を含んでおり、これらを測定できる。
NEO−PI−Rでは、下記のように上位要素当たり6個の下位要素で形成される。
・開放性(openness to experience) : 想像(fantasy)、審美性(aesthetics)、感じ(feelings)、行動(actions)、思考(ideas)、価値(values)
・誠実性(conscientiousness) : 有能感(competence)、整然性(order)、充実性(dutifulness)、成就追求(achievement striving)、自己規制(self-discipline)、慎重性(deliberation)
・外向性(extraversion) : 温情(warmth)、社交性(gregariousness)、主張(assertiveness)、活動性(activity)、刺激追求(excitement seeking)、肯定的情緒(positive emotion)
・親和性(agreeableness) : 信頼性(trust)、率直性(straightforwardness)、利他性(altruism)、順応性(compliance)、謙虚(modesty)、同情(tender mindedness)
・神経症的傾向性(neuroticism) : 不安(anxiety)、敵対感(hostility)、憂鬱(depression)、自意識(self-consciousness)、衝動性(impulsiveness)、ストレス脆弱性(vulnerability to stress)
図3A及び図3Bのu(k)は、外部入力ベクトル(external input vector)と定義され、外部入力ベクトルu(k)の要素は、顔の表情、ジェスチャー及び口調などの外部入力状態を指示する。また、前記外部入力ベクトルu(k)は、S個の外部入力があるS次元の外部入力空間910に存在する。
x(k)は、内部状態ベクトル(internal state vector)と定義され、内部状態ベクトルx(k)の要素は、性格の5要因模型に基づいて、内部状態空間920上に開放性、誠実性、外向性、親和性、神経症的傾向性の5要因の状態を表す。
外部入力ベクトルu(k)は、内部プロセスの入力となり、内部状態ベクトルx(k)は、内部プロセスの出力となる。もし、所定時間の間に外部入力がない場合、内部状態は、感情状態が中立である0に収まる。
感情決定プロセス(emotion decision process)は、内部状態空間920から感情空間930にマッピングするプロセスであり、感情空間930上に存在する一点である感情ベクトルe(k)を生成する。本発明では、内部状態空間920上に分布する感情確率分布を設定し、学習により感情確率分布を更新する。
e(k)は、感情ベクトル(emotion vector)と定義され、感情ベクトルe(k)を構成する要素は、該当要素が示す感情の確率サイズを表す。感情空間930は、J次元であり、前記Jは、感情の数を表す。
内部状態ベクトルx(k)は、感情決定プロセスに入力され、感情ベクトルe(k)は、感情決定プロセスから出力される。内部状態ベクトルx(k)が感情決定プロセスに入力されれば、内部状態空間920に分布された感情確率分布を用いてそれぞれの感情確率が定められ、感情ベクトルe(k)は、あらゆる感情に対して確率を持つように定められる。
動作生成部300は、感情決定処理部200で定められた感情ベクトルe(k)によって感情表現を行う。前記動作生成部300は、ロボットの顔表情処理、音声出力処理、ロボットの腕、足、胴などを用いた動作処理などを行える。一方、動作生成部300は、本発明の主な観点ではないので、詳しい説明は略す。
感情学習部400は、前記感情決定処理部200から定められた感情ベクトルe(k)と、ユーザ入力部500から入力される感情種類情報e(k)とを入力されて、前記感情空間930上に存在する一点である感情ベクトルe(k)に対応するフィードバック情報x(k+1)を生成し、前記フィードバック情報x(k+1)を用いて前記感情確率分布を変更する。すなわち、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報x(k+1)を生成し、前記フィードバック情報x(k+1)を用いて前記内部状態座標系の感情確率分布を変更する。
ユーザ入力部500は、前記感情学習部400に感情の種類情報を入力する。
図4Aは、本発明の一実施形態に採用可能な感情確率分布を示す概略図である。
先ず、図4Aに関して説明すれば、図4Aは、内部状態空間920を示す座標であり、心理学のFFM(Five Factor Model)に基づいて5次元の内部状態(開放性(openness to experience)、誠実性(conscientiousness)、外向性(extraversion)、親和性(agreeableness)、神経症的傾向性(neuroticism))空間を構成したものであり、図4A上に示した同じ質感の円錐形状は、それぞれの感情を示すものである。すなわち、一つの円錐形状は、一つの感情確率分布を示すものである。図4Aに示したように、外向性と親和性というロボットの基本内部状態軸に近いところに、G1という感情を表す確率分布曲線が描かれている。
ここで、一つの感情分布は、複数のガウス分布G1またはガウスモードを持っている一つの生成的確率モデルとして表現され、感情空間930は、体積空間を形成する複数の生成的確率モデルとして表現される。この時、体積空間は、基本感情の座標で最も大きく、基本感情の座標から遠ざかるほど徐々に減少する複数の感情値で表現される。そして、感情値は感情を表す大きさである。例えば、純粋に喜びの感情のみがある場合を仮定する時、同じ喜びでも喜びの大きさが異なる。このように喜びの大きさを表現するためのものが感情値である。
基本感情は、ユーザがロボットに付与した感情であり、喜び、悲しみ、怒り、驚き、恐れなどのように定義できる。これらの基本感情は、ロボットの内部状態空間座標系上に設定される。
感情値群は多様に設定され、これらの感情値群で生成された体積空間の形状は、ロボットの性格や性向と現れる。例えば、図4Aに示したように、同じ質感の円錐は同じ感情を表し、各円錐の形態はロボットごとに異なるので、すなわち、これはロボットの固有性格になる。また、感情値群の設定時に基本感情の座標における感情値を最も大きくし、基本感情の座標から遠ざかるほど感情値を徐々に低減させるのが自然な感情表現に有利であるが、必ずしもこれに限定される必要はない。
一方、感情値群は、内部状態入力値に基づいて生成される。ロボットが感情表現をするためには、初期に外部の刺激が必要である。かかる刺激は、ロボットに設けられた感情関連センサーにより感知され、センサーの感知結果は、ロボットが持っている内部状態空間920の座標系上で表現できるデータに加工される。このように加工されたデータが内部状態入力値になりうる。また、感情値群を内部状態入力値によって変動させることで、ダイナミックな感情表現が可能になる。
前記内部状態算出部100が、ロボットに設けられた感情関連センサーによって外部環境情報、すなわち、外部刺激を感知し、座標系上で表現できるデータに加工する役割を行う。ここで、外部刺激は、音声認識(言葉の意味、音の大きさなど)、映像認識(人間の認識、物体の認識、色相の認識など)、各種センサー値(タッチセンサーの位置値、強度、距離移動量、温度、湿度など)など人間が認知できるすべての刺激を使うことができる。
学習能力が付与されたロボットの場合、学習によって喜びの感情座標が変動、追加、削除される。例えば、図4Bに示すように、喜びの座標1以外に学習によって喜びの座標0.5が追加される。このような場合、同じ感情が2つであるので、これを組み合わせて一つの感情値群に示す。これについては、感情学習部400で詳しく後述する。
図4Bは、各感情値群が基本感情の座標を中心とするガウス曲線を形成する場合を示し、喜びの座標1のガウス曲線と、学習によって新たに追加された喜び0.5のガウス曲線とが、GMM(Gaussian Mixture Model)によって併合された状態を示す。
この時、各感情に対して、ガウス分布の加重値は常に1を満たさねばならない。例えば、A感情に対して一つのガウス分布のみ存在するならば、そのガウス分布の加重値は1である。同様に、A感情に対して2個のガウス分布が存在するならば、2つのガウス分布の加重値は相異なるが、その和は常に1を満たさねばならない。
このように、内部状態空間920の座標系上で、ロボットの内部状態入力値の座標が示す各感情値群の感情値の集合をロボットの感情に生成できる。
一方、本発明では、ガウス曲線で感情値群を示したが、三角形のように、前述した体積空間の条件を満たす多様な曲線で感情値群を示してもよい。すなわち、さらに他の実施形態として、前記感情確率分布は、ガウス分布ではない多様な形状(例えば、円形分布、方形分布、三角形分布、半円形分布など)の分布に形成される。
前述したように、ガウス分布以外の他の分布も適用でき、この場合、ガウス分布数式と異なる数式が適用され得るが、その原理は同一である。本明細書では、他の分布に関する数式についての詳しい説明を略す。
但し、中央値(基本感情についての感情値など)を中心として散布の同じガウス曲線などを用いれば、ロボットの感情座標系で基準感情を中心とする感情値の散布を均一に形成することで、ロボットの感情を示す感情ベクトルe(k)の計算を容易に行えるが、必ずしもこれに限定されるものではない。
前記感情決定処理部200は、入力値として感情状態入力値を感情モデルに適用し、出力値として感情値を計算する。
図4Cは、本発明の一実施形態による1次元感情空間上に、他の感情に対して2個の感情確率分布を持つ感情モデルを示した図面であり、ロボットの感情決定処理部200の動作を説明するための概略図である。説明の便宜のために、図4Cに示したように、1次元内部状態空間920上に位置している感情曲線を用いて感情モデルを説明する。
図4Cでは、1次元座標上に基本感情である喜びの座標1と異なる基本感情である悲しみの座標−1が付与されており、各基本感情に対して、ガウス曲線を形成する感情確率分布が付与されている。
もし、内部状態入力値が0.3である場合、既存には喜びの座標1がロボットの感情となったが、本実施形態の感情発生部130によれば、0.3の座標が表す各感情値群の感情値の集合である{4,1}がロボットの感情となる。もちろん、このような表現のためには、集合の元素順序を予め設定しておかねばならない。本実施形態では、{喜びの感情値、悲しみの感情値}のように設定された場合を示す。
本実施形態によれば、単純に喜びを表す座標1でロボットの感情を表現する代わりに、喜びの感情の大きさが4であり、悲しみの感情の大きさが1である複合感情を、信頼性高く生成できる。この時、ガウス曲線の形状によって複合感情が変わるので、ガウス曲線はロボットの性格を形成する。
また、次元によって、一つの内部状態入力値が一つの感情確率分布で複数の入力値を表す場合、最も大きい値または最も小さな値または平均に近い値などを選択して一つの感情値を抽出してもよい。結果的に複数次元で内部状態座標系が拡張される場合、内部状態入力値が表す入力値は内部状態当り一つのみ抽出してもよい。一方、ロボットの感情を入力とするロボットの感情表現装置の便宜を考慮して、複合感情の各要素である集合の感情値を確率的に表現できる。確率的な表現は、感情値を百分率または合計が1となる分数で表すことを意味する。例えば、前記の例でロボットの感情が{4,1}である場合、百分率で表せば{80,20}になり、合計が1となる分数で表せば{4/5,1/5}になる。
次いで、感情学習部400は、感情モデルを学習するための構成であり、入力値として、感情決定処理部200の出力値である感情ベクトルe(k)と、ユーザ入力部500を通じて感情種類情報e(k)とを入力され、出力値として、感情モデル上の各ガウス分布の加重値、中央値及び分散を変更するためのフィードバック情報x(k+1)を出力する。すなわち、学習とは、感情空間930上に分布されたガウス分布を変化させるものであり、ガウス分布の加重値、中央値及び分散の値を変化させるという意味を持つ。特に、前記感情学習部400は、マッチング関数を用いて前記フィードバック情報x(k+1)に対応するガウス分布を検索し、ガウス分布を変更することを特徴とする。
望ましい実施形態として、本発明による人工感情学習装置1000に対して、k時間に「腕を広げて愛していると言う」という入力が入って来た時、これを見たユーザは「幸せ」という教育ができる。ユーザ入力部500を通じて感情の種類として「幸せ」を感情学習部400に入力すれば、設定された方式によって状態ベクトル周辺のガウス分布を学習させる。
以下、本発明の人工感情学習装置1000の動作を、数式で説明する。
(1)内部状態ベクトルx(k)の定義
図5A及び図5Bは、NEO−PI−Rを使用する内部プロセスを図示するものであり、図5A及び図5Bのプロセスは、内部状態空間920で使われる性格の5要因モデルを測定するための方法であるNEO−PI−Rを使用してモデリングされる。
図5A及び図5Bを参照すれば、内部状態演算は、性格の要因に対する面(Facet)値ベクトルの計算、性格の要因値計算及び内部状態計算の順に行われる。
図5A及び図5Bを参照すれば、外部入力ベクトルu(k)∈{0,1}は、外部入力によって定められ、この時、Sは、外部入力の数を表す。外部入力ベクトルu(k)内のi番目要素の値は、i番目センサーが動作の是非を表すものであり、動作中であれば1、そうでなければ0を表す。ただし、i∈{1,2,…,S}である。
入力ベクトルは、3種の性格パラメータを持つ動的システムにより処理される。
・Facetパラメータ151(第1性格) : Γ,Γ,Γ,Γ,Γ∈R6×s
・性格要因パラメータ152(第2性格) : β,β,β,β,β∈R
・Durabilityパラメータ153(第3性格) : α,α,α,α,α∈[0,1]
各パラメータの下添字であるo,c,e,a,nは、開放性、誠実性、外向性、親和性、神経症的傾向性を表す。
Durability(持続性)パラメータ153(第3性格)は、性格の5要因モデルによるそれぞれの性格要因に対する持続性を表し、性格要因パラメータ152(第2性格)は、各性格要因の敏感程度を表す。
Facet(面)パラメータ151(第1性格)は、各性格要因に含まれた6つの下位要素の敏感程度を表す。Facetパラメータ151(第1性格)は、5つの性格要因がそれぞれ6つの下位要素を含むため、合計で30個になり得る。
例えば、性格要因のうち一つである開放性に対するFacetパラメータ151(第1性格)は、次のように表現できる。
Γ=[γo1,γo2,γo3,γo4,γo5,γo6であり、γo1,γo2,γo3,γo4,γo5,γo6∈Rである。
他の4つの要因のFacetパラメータ151(第1性格)は、同じ方式で表現できる。
次いで、性格の要因に対する面(Facet)値ベクトルの計算と関連して、入力ベクトルは、それに相応するFacetパラメータ151を使用して、開放性、誠実性、外向性、親和性及び神経症的傾向性の5要因のfacet値ベクトルに変換される。
例えば、開放性に対するfacet値ベクトルであるf(k)(但し、f(k)∈R)は、下記のように定められる。
(k)=Γu(k)であり、f(k)=[fo1(k),fo2(k),fo3(k),fo4(k),fo5(k),fo6(k)]である。
他の4つの性格要因のfacet値ベクトルであるf(k)、f(k)、f(k)、f(k)も、同じ方式で定められる。
次いで、性格要因値の計算と関連して、facet値ベクトルは6つのfacet値を合せることで、性格要因値として計算できる。
例えば、開放性に対する要因値であるg(k)(但し、g(k)∈R)は、下記のように定められる。

Figure 2014074997
であり、1は、1で満たされた6×1ベクトルである。
他の4つの性格要因に対する値であるg(k)、g(k)、g(k)、g(k)も、同じ方式で定められる。
最後に内部状態計算と関連して、Durabilityパラメータ153、性格要因パラメータ152及び過去内部状態値を用いて、内部状態値に変換される。
例えば、開放性に対するo(k+1)は、下記の状態方程式により定められる。
o(k+1)=αo(k)+β(k)
c(k+1)、e(k+1)、a(k+1)、n(k+1)は、同じ方式により定められる。
すなわち、計算された現在の性格要因値であるβ(k)と、内部状態の持続性を表すDurabilityパラメータ153であるαとを直前の内部状態とかけた値を足して、現在の内部状態値を計算する。
全体内部状態値と関連して、全体内部状態力学(dynamics)は、下記の状態方程式で表現できる。
x(k+1)=Ax(k)+Bu(k)
x(k)=[o(k)c(k)e(k)a(k)n(k)]∈R
Figure 2014074997
Figure 2014074997
また、NEO−PI−Rによる上位要素5つをすべて使用することに制限されず、必要に応じて1つ以上を使用してもよい。そして、前記上位要素に含まれている下位要素も6つをすべて使用する必要はなく、必要に応じて1つ以上を使用してもよい。この場合、内部状態の次元値が変動する。
(2)ロボットの感情値である感情ベクトルe(k)の定義
最終感情は、一つの感情値に表現されるものではなく、複数の感情値の確率値が反映された複合感情として生成される。この複合感情は感情ベクトルe(k)になり、J個の感情を使うならば、次のロボットの感情数式3のように示すことができる。
Figure 2014074997

ここで、Jは、基本感情の数であり、eは、j番目の基本感情の感情値である。例えば、e=happiness、e=surprise、e=sadness、e=loveなどである。[ ]は、転置行列であって表現方式が一つであるので、削除できる。
(3)感情確率分布P(x(k)|e)の設定
内部状態座標系上に各基本感情についての確率分布を配置する。各基本感情についての確率分布は、GMM(Gaussian Mixture Model)を使う。これを用いれば、各基本感情の分布をダイナミックにすることができ、各感情値を独立的に計算することができる。n次元の内部状態座標系でj番目の基本感情についての感情確率分布(感情分布、感情値群)P(x(k)|e)は、以下の数式4のように定められる。
Figure 2014074997

そして、ωj,m(k)は、k時間でj番目の感情分布のm番目のガウス分布またはガウスモード(Gaussian mode)の加重値であり、M(k)は、k時間でj番目の感情分布が持っているガウスモードの数であり、μj,m(k)は、k時間でj番目の感情分布のm番目ガウスモードの中央値であり、Σj,m(k)は、k時間でj番目の感情分布のm番目ガウスモードの帯域幅であり、x(k)は、k時間における感情状態入力値である。ガウスモードは、一つのガウス曲線を意味する。
(4)感情値の確率的表現であるP(e|x(k))の計算
各感情値の確率的表現(確率値)は、ベイズの整理(Bayes' rule)を用いて数式5のように計算される。ここでj番目の感情の確率値であるP(e|x(k))は、事後確率(posterior probability)として使われる。
Figure 2014074997

ここで、P(x(k)|e)は、尤度関数(likelihood function)として使われ、P(e)は、eの事前確率(prior probability)であって、各感情値が選択される確率(感情値の確率的表現)であり、各感情値の事前確率の和は、1である。
以上の数式3ないし5によれば、J個の基本感情が付与された場合、J個のP(e|x(k))を持っているJ次元の感情ベクトルe(k)が定められる。e(k)は、J個の感情値が確率的表現として反映された複合感情になる。
(5)マッチング関数の計算(Calculate Matching Function)
内部状態ベクトルx(k)のベクトルポイントを中心としてユーザのフィードバック情報x(k+1)を用いて、学習するための感情のガウスモード(または、ガウス分布)を次のように探す。
ここで、前記マッチング関数(matchj,m(k+1))は、次の数式6を満たす。
Figure 2014074997

ここで、matchj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布のマッチング関数を意味し、δは、マッチング範囲を示し(この時、δが大きければ、多くのガウスモード(ガウス分布)を学習するため、学習が速くなり得る)、σj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の標準偏差を示し、x(k+1)は、フィードバック情報x(k+1)を示し、μj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の中央値を示す。
参考までに、前記マッチング関数は、ユークリッド距離(Euclidean Distance)計算法によって定義された関数であるが、これ以外にもマハラノビス距離(Mahalanobis Distance)計算法またはミンコフスキー距離(Minkowski Distance)計算法などを用いてマッチング関数を定義してもよい。
(6)確率分布におけるユーザフィードバック学習(User Feedback Learning on Probability Distribution)
マッチング関数を用いてガウスモードを次のように選別した後、ユーザの意図を反映してガウス分布を学習する。
学習は、2つの場合に区分し、第1の場合は、マッチング関数を通じて学習するガウスモードを探せた場合(6−1)であり、第2の場合は、探せなかった場合(6−2)である。
(6−1)∃m∈{1,2,…,M(k)} such that matchj,m(k+1)=1の場合
前記マッチング関数を通じてマッチングされるガウス分布を一つでも探せた場合、ガウス分布を学習するようになるが、この時、選択された、すなわち、マッチングされたガウス分布と、選択されていない、すなわち、マッチングされていないガウス分布とを区分して学習する。
(6−1−1)matchj,m(k+1)=1のそれぞれのm
これによって、選択されたj番目の感情分布のm番目ガウスモードが学習される。この場合、ガウス分布の加重値、中央値、分散の3つを学習する。
言い換えれば、前記マッチング関数が1である場合、選択されたj番目の感情分布のうちm番目のガウス分布は、前記フィードバック情報x(k+1)を中心として次の数式7の加重値(ωj,m(k+1))、中央値(μj,m(k+1))及び分散(σ j,m(k+1))を満たすように、ガウス分布が変更される。
Figure 2014074997

ここで、ωj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の加重値であり、λは、既定の基本加重値であり、ωj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の加重値であり、μj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の中央値であり、x(k+1)は、フィードバック情報x(k+1)であり、μj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の中央値であり、σ j,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の分散であり、σ j,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の分散であり、[ ]は、転置行列であり、

Figure 2014074997

である。この時、Σj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の帯域幅である。
(6−1−2)matchj,m(k+1)=0のそれぞれのm
また、選択されていないj番目の感情分布のm番目ガウスモードが学習される。この場合、加重値のみ学習する。
言い換えれば、前記マッチング関数が1である場合、選択されていないj番目の感情分布のうちm番目のガウス分布は、前記フィードバック情報x(k+1)を中心として、次の数式8の加重値(ωj,m(k+1))を満たすようにガウス分布が変更される。
Figure 2014074997


ここで、ωj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の加重値であり、λは、既定の基本加重値であり、ωj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の加重値である。
次いで、前記感情学習部400は、ガウス分布が変更された後、各感情に該当するすべてのガウス分布の加重値をノーマライズ(Normalize)する。すなわち、加重値の和を1にする。
(6−2)matchj,m(k+1)=0 for ∀m∈{1,2,…,M(k)}の場合
一方、マッチングされるガウスモードを探せなかった場合、ユーザのフィードバックを中心として新たなガウスモードを立てる。したがって、k+1時間でj番目の感情分布が持っているガウスモードの数M(k+1)は、M(k+1)=M(k)+1になる。
言い換えれば、前記感情学習部400は、マッチング関数が0である場合(マッチングされるガウス分布がない場合)、前記フィードバック情報x(k+1)を中心として、次の数式9の加重値、中央値及び分散を満たすガウス分布を生成する。
Figure 2014074997
次いで、前記感情学習部400は、ガウス分布が生成された後、各感情に該当するすべてのガウス分布の加重値をノーマライズ(Normalize)する。すなわち、加重値の和を1にする。
ここで、ガウス分布の中央値は、いかなる感情に影響を及ぼすかを示し、分散は、該ガウス分布がどれほど広く影響を及ぼすかを意味し、加重値は、同じ感情に関する色々なガウス分布のうち該当のガウス分布がどれほど影響を及ぼすかを意味する。すなわち、加重値が高ければ、そのガウス分布の該当値が多く反映されることを意味する。
したがって、k時間でのガウス分布と、k+1時間でのガウス分布とが異なるので、同じ入力に対して他の出力値、すなわち、感情値を生成する。かかる過程を通じて、ユーザの所望の通りに感情空間930上に感情分布が学習されるため、この過程を繰り返せば、ユーザが教育した通りにロボットが感情を生成して表現できるようになる。
図6Aは、本発明の一実施形態による感情モデルを示す概略図であり、図6Bは、学習によって変更された感情モデルを示す概略図であり、図6A及び図6Bでは、心理学のFFM(Five Factor Model)に基づいて5次元の感情空間930を構成した。したがって、図6Aのように、学習の前のガウス分布G1が、ユーザの教育によって学習後のガウス分布G2に変更された。したがって、感情決定処理部200は、同じ感情状態入力値が入力されると仮定する時、学習前(図6A)と学習後(図6B)とは相異なる感情値を定める。
一方、図7に示したように、本発明による人工感情学習方法は、(a)内部状態算出部100が外部入力空間910を内部状態空間920にマッピングさせ、外部環境情報を感知して内部状態空間920内に存在する一つの点で内部状態を生成するステップ(S100)を含む。すなわち、本段階では、内部状態座標系の一点に対応する内部状態ベクトル値を算出する。
次いで、(b)内部状態空間920上に多くの種類の感情についての感情確率分布が形成された感情モデルが備えられた感情決定処理部200が、前記内部状態算出部100の入力値を前記内部状態空間920にマッチングさせてロボットの感情値を定めるステップ(S200)を含む。前記(b)ステップでは、n次元の前記内部状態座標系上にJ種の感情についての感情確率分布が形成された感情モデルが備えられる。
次いで、(c)動作生成部300が、前記感情決定処理部200で定められた感情値によって感情表現を行うステップ(S300)を含む。
最後に、(d)感情学習部400が、前記感情決定処理部200から定められた感情値と、ユーザ入力部500から入力される感情の種類情報とを入力されて、前記感情空間930上に存在する一つのポイントである感情値に対応するフィードバック情報x(k+1)を生成し、前記フィードバック情報x(k+1)を用いて前記感情確率分布を変更するステップ(S400)を含んで構成される。すなわち、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報x(k+1)を生成し、前記フィードバック情報x(k+1)を用いて、前記内部状態座標系の感情確率分布を変更する。
以上、本発明について図面及び実施形態を挙げて説明したが、本発明は特定の実施形態に限定されず、当業者ならば、本発明の範囲から逸脱せずに多くの修正及び変形が可能であるということを理解できるであろう。また、前記図面は発明の理解を助けるために図示されたものであり、請求範囲を限定すると理解してはならない。
本発明は、人工感情学習装置関連の技術分野に好適に用いられる。
1000 人工感情学習装置
100 内部状態算出部
200 感情決定処理部
300 動作生成部
400 感情学習部
500 ユーザ入力部

Claims (10)

  1. 外部環境情報を感知して内部状態座標系の一点に対応する内部状態ベクトル値を算出する内部状態算出部と、
    前記内部状態座標系上でロボットの内部状態入力値の座標が示す各感情値群内の感情値を前記ロボットの感情として生成する感情決定処理部と、
    前記感情決定処理部で定められた前記感情値によって、前記ロボットの動作を定めて感情表現を行う動作生成部と、
    前記感情決定処理部から定められた感情値と、ユーザ入力部から入力される感情の種類情報とを入力されて、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、前記フィードバック情報を用いて前記内部状態座標系の感情確率分布を変更する感情学習部と、
    前記感情学習部に感情の種類情報を入力するユーザ入力部と、
    を備える人工感情学習装置。
  2. 前記感情確率分布は、加重値、中央値、分散を持つ一つのガウス分布であるか、または複数の前記ガウス分布が合成されたガウス分布であることを特徴とする請求項1に記載の人工感情学習装置。
  3. 前記感情学習部は、マッチング関数を用いて前記フィードバック情報に対応するガウス分布を検索してガウス分布を変更することを特徴とする請求項2に記載の人工感情学習装置。
  4. 前記マッチング関数(matchj,m(k+1))は、次の式を満たすことを特徴とする請求項3に記載の人工感情学習装置。


    Figure 2014074997

    ここで、matchj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布のマッチング関数を意味し、δは、マッチング範囲を示し、σj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の標準偏差を示し、x(k+1)は、フィードバック情報を示し、μj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の中央値を示す。
  5. 前記マッチング関数が1である場合、選択されたj番目の感情分布のうちm番目のガウス分布は、前記フィードバック情報を中心として、次の加重値(ωj,m(k+1))、中央値(μj,m(k+1))及び分散(σ j,m(k+1))を満たすようにガウス分布が変更されることを特徴とする請求項4に記載の人工感情学習装置。


    Figure 2014074997

    ここで、ωj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の加重値であり、λは、既定の基本加重値であり、ωj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の加重値であり、μj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の中央値であり、x(k+1)は、フィードバック情報であり、μj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の中央値であり、σ j,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の分散であり、σ j,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の分散であり、[ ]は、転置行列であり、


    Figure 2014074997

    であり、この時、Σj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の帯域幅である。
  6. 前記マッチング関数が1である場合、選択されていないj番目の感情分布のうちm番目のガウス分布は、前記フィードバック情報を中心として次の加重値(ωj,m(k+1))を満たすようにガウス分布が変更されることを特徴とする請求項4に記載の人工感情学習装置。


    Figure 2014074997

    ここで、ωj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の加重値であり、λは、既定の基本加重値であり、ωj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の加重値である。
  7. 前記感情学習部は、前記ガウス分布が変更された後、各感情に該当するすべてのガウス分布の加重値をノーマライズ(Normalize)することを特徴とする請求項5または6に記載の人工感情学習装置。
  8. 前記感情学習部は、マッチング関数が0である場合(マッチングされるガウス分布がない場合)、前記フィードバック情報を中心として次の加重値、中央値及び分散を満たすガウス分布を生成することを特徴とする請求項4に記載の人工感情学習装置。

    Figure 2014074997
  9. 前記感情学習部は、前記ガウス分布が生成された後、各感情に該当するすべてのガウス分布の加重値をノーマライズ(Normalize)することを特徴とする請求項8に記載の人工感情学習装置。
  10. 内部状態算出部が外部環境情報を感知して、内部状態座標系の一点に対応する内部状態ベクトル値を算出して内部状態を生成するステップと、
    n次元の内部状態座標系上にj種の感情についての感情確率分布が形成された感情モデルが備えられた感情決定処理部が、前記内部状態算出部の入力値を前記内部状態座標系にマッチングさせてロボットの感情値を定めるステップと、
    動作生成部が、前記感情決定処理部で定められた感情値によって前記ロボットの動作を定めて感情表現を行うステップと、
    感情学習部が、前記感情決定処理部から定められた感情値とユーザ入力部から入力される感情の種類情報とを入力されて、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、前記フィードバック情報を用いて前記内部状態座標系の感情確率分布を変更するステップと、
    を含む人工感情学習方法。
JP2012221460A 2012-10-03 2012-10-03 人工感情学習装置及び方法 Active JP5624100B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012221460A JP5624100B2 (ja) 2012-10-03 2012-10-03 人工感情学習装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012221460A JP5624100B2 (ja) 2012-10-03 2012-10-03 人工感情学習装置及び方法

Publications (2)

Publication Number Publication Date
JP2014074997A true JP2014074997A (ja) 2014-04-24
JP5624100B2 JP5624100B2 (ja) 2014-11-12

Family

ID=50749121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012221460A Active JP5624100B2 (ja) 2012-10-03 2012-10-03 人工感情学習装置及び方法

Country Status (1)

Country Link
JP (1) JP5624100B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017187974A1 (ja) * 2016-04-28 2017-11-02 Cocoro Sb株式会社 感情特定システム、システム及びプログラム
WO2018096756A1 (ja) * 2016-11-25 2018-05-31 株式会社デンソー インタラクション装置及びインタラクションの表出方法
CN108510052A (zh) * 2017-02-27 2018-09-07 顾泽苍 一种人工智能新型神经网络的构建方法
WO2018230882A1 (ko) * 2017-06-12 2018-12-20 주식회사 아카인텔리전스 컴퓨터의 감정을 결정하는 방법
JP2020037155A (ja) * 2018-09-05 2020-03-12 日本放送協会 仕草制御装置及び仕草制御プログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6841167B2 (ja) 2017-06-14 2021-03-10 トヨタ自動車株式会社 コミュニケーション装置、コミュニケーションロボットおよびコミュニケーション制御プログラム
KR102570279B1 (ko) 2018-01-05 2023-08-24 삼성전자주식회사 감정 인식을 위한 학습 방법, 감정을 인식하는 방법 및 장치

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011020258A (ja) * 2009-07-02 2011-02-03 Samsung Electronics Co Ltd 感性モデル装置、感性モデルの性向学習装置及び方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011020258A (ja) * 2009-07-02 2011-02-03 Samsung Electronics Co Ltd 感性モデル装置、感性モデルの性向学習装置及び方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6013039396; Ho Seok Ahn, et al.: 'A Behavior Combination Generating Method for Reflecting Emotional Probabilities using Simulated Anne' RO-MAN, 2011 IEEE , 2011, p.192-197 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017187974A1 (ja) * 2016-04-28 2017-11-02 Cocoro Sb株式会社 感情特定システム、システム及びプログラム
JP2017199319A (ja) * 2016-04-28 2017-11-02 Cocoro Sb株式会社 感情特定システム、システム及びプログラム
WO2018096756A1 (ja) * 2016-11-25 2018-05-31 株式会社デンソー インタラクション装置及びインタラクションの表出方法
CN108510052A (zh) * 2017-02-27 2018-09-07 顾泽苍 一种人工智能新型神经网络的构建方法
WO2018230882A1 (ko) * 2017-06-12 2018-12-20 주식회사 아카인텔리전스 컴퓨터의 감정을 결정하는 방법
CN110799993A (zh) * 2017-06-12 2020-02-14 Aka智能株式会社 确定计算机的情感的方法
JP2020530932A (ja) * 2017-06-12 2020-10-29 アカ インテリジェンス インコーポレイテッドAKA Intelligence Inc. コンピューターの感情を決定する方法
JP7078714B2 (ja) 2017-06-12 2022-05-31 アカ インテリジェンス インコーポレイテッド コンピューターの感情を決定する方法
CN110799993B (zh) * 2017-06-12 2023-08-15 Aka人工智能株式会社 确定计算机的情感的方法
JP2020037155A (ja) * 2018-09-05 2020-03-12 日本放送協会 仕草制御装置及び仕草制御プログラム
JP7152908B2 (ja) 2018-09-05 2022-10-13 日本放送協会 仕草制御装置及び仕草制御プログラム

Also Published As

Publication number Publication date
JP5624100B2 (ja) 2014-11-12

Similar Documents

Publication Publication Date Title
JP5624100B2 (ja) 人工感情学習装置及び方法
US8972313B2 (en) Apparatus and method for learning emotion of robot
Salmeron Fuzzy cognitive maps for artificial emotions forecasting
JP4169063B2 (ja) データ処理装置、データ処理方法、及びプログラム
KR20130091364A (ko) 로봇의 학습이 가능한 감정생성장치 및 감정생성방법
JP4201012B2 (ja) データ処理装置、データ処理方法、およびプログラム
JP4244812B2 (ja) 行動制御システム及びロボット装置の行動制御方法
Wagner The role of trust and relationships in human-robot social interaction
JP2005199403A (ja) 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
Harriott et al. Modeling human performance for human–robot systems
Randhavane et al. Fva: Modeling perceived friendliness of virtual agents using movement characteristics
Lala et al. Towards a virtual environment for capturing behavior in cultural crowds
KR20190075416A (ko) 디지털 에이전트 이동 매니퓰레이터 및 그 동작 방법
US20140170619A1 (en) Apparatus and method for creating artificial feelings
US9037526B2 (en) Apparatus and method for selecting motion signifying artificial feeling
US9117168B2 (en) Apparatus and method for calculating internal state for artificial emotion
He Robotgpt: From chatgpt to robot intelligence
JP5521240B1 (ja) 人工情緒表現動作を選択するための装置及び方法
Masuyama et al. Robotic emotional model with personality factors based on Pleasant-Arousal scaling model
Ajili et al. Expressive motions recognition and analysis with learning and statistical methods
CN106845391B (zh) 一种家居环境下的氛围场识别方法及识别系统
Herrero et al. Modelling the sensory abilities of intelligent virtual agents
JP5491599B2 (ja) 人工感情を表現するための内部状態算出装置および方法ならびに記録媒体
Wu et al. An improved vascular model based on mass spring model and parameters optimization by Gaussian processes
Moro Learning Socially Assistive Robot Behaviors for Personalized Human-Robot Interaction

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140603

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140606

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140702

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140925

R150 Certificate of patent or registration of utility model

Ref document number: 5624100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250