JP5624100B2 - Artificial emotion learning apparatus and method - Google Patents
Artificial emotion learning apparatus and method Download PDFInfo
- Publication number
- JP5624100B2 JP5624100B2 JP2012221460A JP2012221460A JP5624100B2 JP 5624100 B2 JP5624100 B2 JP 5624100B2 JP 2012221460 A JP2012221460 A JP 2012221460A JP 2012221460 A JP2012221460 A JP 2012221460A JP 5624100 B2 JP5624100 B2 JP 5624100B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- internal state
- value
- distribution
- gaussian distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Feedback Control In General (AREA)
- Artificial Intelligence (AREA)
- Manipulator (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Automation & Control Theory (AREA)
- Robotics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Mechanical Engineering (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
Description
本発明は、人工感情学習装置及び方法に関し、さらに詳細には、学習によりユーザの所望する方式で感情を生成できるロボットの人工感情学習装置及び方法に関する。 The present invention relates to an artificial emotion learning apparatus and method, and more particularly, to an artificial emotion learning apparatus and method for a robot capable of generating an emotion by a method desired by a user through learning.
一般的にロボットの感情は、センサーからの入力により、予め設定された一定数の感情を持つ感情空間の特定位置で生成される感情に限定される。 In general, the emotion of a robot is limited to an emotion generated at a specific position in an emotional space having a predetermined number of emotions by input from a sensor.
図1は、一般的なロボット感情表現方式を示す概略図である。 FIG. 1 is a schematic diagram showing a general robot emotion expression method.
ロボットとして感情を表現させるためには、現在ロボットの感情値を算出しなければならない。感情とは、喜びや悲しみなどの一つの細部感情に定められる場合はほとんどない。人間が現在喜びを感じる場合であっても、驚きの感情と怒りの感情など他の感情が一部反映される。すなわち、感情表現は、複合的な細部感情が反映された結果である。したがって、ロボットを通じて現実的な感情表現を具現化する際には、ロボットに適用する感情値も喜び(happiness)、悲しみ(sadness)、驚き(surprise)、怒り(anger)などの多様な細部感情を反映してベクトルで表すことができる。 In order to express emotions as a robot, the emotion value of the current robot must be calculated. Emotions are rarely defined by a single emotion, such as joy or sadness. Even if humans feel joy now, some other emotions such as surprise emotion and anger emotion are reflected. That is, the emotional expression is a result of reflecting complex detailed emotions. Therefore, when embodying realistic emotional expression through the robot, the emotional value applied to the robot also has various detailed emotions such as happiness, sadness, surprise, anger, etc. It can be reflected and expressed as a vector.
図1のように、一般的にロボットの感情を表現するために2次元または3次元の固定された次元の空間を用い、このような固定された次元の空間上の一定の位置に感情及びその感情に該当する感情表現をマッピングする。感情値は、空間上の一定の位置に該当するベクトル値で表現及び計算できる。 As shown in FIG. 1, generally, a two-dimensional or three-dimensional fixed dimensional space is used to express a robot's emotion, and the emotion and its position are placed at a fixed position on the fixed dimensional space. Map emotional expressions that correspond to emotions. The emotion value can be expressed and calculated as a vector value corresponding to a certain position in space.
すなわち、ベクトル空間上のいろいろな点に対して感情をマッピングしておき、各感情に該当する感情表現を一対一にマッピングした後、特定の感情ベクトルが与えられた場合、前記特定の感情ベクトルと、ベクトル空間上にマッピングされたいろいろな感情のうち距離上最も近い感情の一つを選択して、その感情と一対一にマッピングされた感情を表現する方法を採用してきた。 That is, if emotions are mapped to various points on the vector space, and emotion expressions corresponding to each emotion are mapped one-to-one, then given emotion vectors, A method has been adopted in which one of the emotions mapped in the vector space is selected from the emotions closest in distance, and the emotion mapped one-to-one with the emotion is expressed.
言い換えれば、ベクトル空間上の無数の座標に感情及びその感情に該当する感情表現を手作業でマッピングさせるには限界があるため、従来の図1の方式は、少数の座標を選択して各座標に該当する感情及び感情に該当する感情表現動作をマッピングしておいた後、ロボットの感情状態が反映されて定められた感情ベクトルに最も近い座標の感情を選択し、それによって感情表現を行うものである。 In other words, since there is a limit in manually mapping emotions and emotion expressions corresponding to the emotions to countless coordinates in the vector space, the conventional method of FIG. After mapping the emotions that correspond to the emotions and the emotional expression behaviors that correspond to the emotions, the emotions of the coordinates closest to the emotion vector determined by reflecting the emotional state of the robot are selected, and the emotions are expressed accordingly It is.
例えば、4次元ベクトル空間上の座標1に感情値1{喜び1、悲しみ0、驚き0、怒り0}を表すように設定されており、感情値2{喜び3/4、悲しみ1/4、驚き0、怒り0}と感情値3{喜び3/4、悲しみ0、驚き1/4、怒り0}とが他の感情を表現する座標より座標1に近い場合、感情値1、2、3は、いずれも座標1に設定された感情表現を行うようになる。
For example, it is set to express an emotion value 1 {
このように、従来の方式は、内部的に実際に生成された感情値が相異なるにもかかわらず、選択される感情値は、座標1にマッピングされた感情値のうち最も類似した一つのみ選択され、同じ座標の感情値を基準として感情表現動作を選択するため、一般的に表現機関を通じて表現される形態も同一である。
As described above, in the conventional method, although the emotion value actually generated internally is different, the emotion value to be selected is only one of the most similar emotion values mapped to the
さらに詳細な説明のために、図2を活用する。図2は、従来の感情状態入力値からロボットの感情を生成する過程を説明するための概略図である。図2では、説明の便宜のために1次元感情座標系を使用した。 For more detailed explanation, FIG. 2 is used. FIG. 2 is a schematic diagram for explaining a process of generating a robot emotion from a conventional emotion state input value. In FIG. 2, a one-dimensional emotion coordinate system is used for convenience of explanation.
感情座標系で、座標1に喜びの基本感情を配し、座標−1に悲しみの基本感情を配した場合を仮定する。入力値が0.3ならば、0.3に最も近い基本感情を抽出する。図2の場合、0.3は−1より1に近いので、喜びの基本感情が抽出される。喜びの基本感情は、感情座標系で座標1であるため、最終的にロボットの感情は座標1になる。
In the emotion coordinate system, it is assumed that a basic emotion of joy is arranged at
前記のような感情発生方式によれば、入力値が0.5であるとしても、入力値が0.3である場合と同じく、最終ロボットの感情は、座標1になる。 According to the emotion generation method as described above, even if the input value is 0.5, the emotion of the final robot is coordinate 1 as in the case where the input value is 0.3.
したがって、前述した感情発生方式によって生成されたロボットの感情を入力されて目、口、ジェスチャーなどを表現する感情表現装置の場合では、感情状態入力値が0.3、0.5などと相異なっても同じ座標1をロボットの感情と表現する。したがって、従来のほとんどのロボットでは、入力値が異なっても同じ感情表現がなされる。
Therefore, in the case of an emotion expression device that expresses eyes, mouth, gestures, etc. by inputting the robot emotion generated by the emotion generation method described above, the emotion state input value is different from 0.3, 0.5, etc. However, the
ところが、このように従来によるロボットの感情生成装置は、同じ入力に対して常に同じ感情を生成するので、ユーザの性向によって願わない感情が現われる場合、ロボットと共感できなくなり、ロボットへの興味が半減するという問題点が生じていた。 However, since the conventional robot emotion generation device always generates the same emotion in response to the same input in this way, if an undesired emotion appears depending on the user's tendency, it becomes impossible to sympathize with the robot, and the interest in the robot is halved. There was a problem of doing.
前記のような問題点を解決するために、ユーザによる学習を通じて感情空間上に配置された感情の分布を変更することで、ユーザの所望する感情を生成できるロボットの学習可能な人工感情学習装置及び方法を提供するところにその目的がある。 In order to solve the problems as described above, an artificial emotion learning device capable of learning a robot capable of generating a user's desired emotion by changing the distribution of emotion arranged in the emotion space through learning by the user, and Its purpose is to provide a method.
前記課題を解決するために、本発明による人工感情学習装置は、外部環境情報を感知して内部状態座標系の一点に対応する内部状態ベクトル値を算出する内部状態算出部と、前記内部状態座標系上でロボットの内部状態入力値の座標が示す各感情値群内の感情値を前記ロボットの感情として生成する感情決定処理部と、前記感情決定処理部で定められた前記感情値によって、前記ロボットの動作を定めて感情表現を行う動作生成部と、前記感情決定処理部から定められた感情値と、ユーザ入力部から入力される感情の種類情報とを入力されて、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、前記フィードバック情報を用いて前記内部状態座標系の感情確率分布を変更する感情学習部と、前記感情学習部に感情の種類情報を入力するユーザ入力部とを備える。ここで、前記感情確率分布は、加重値、中央値、分散を持つ一つのガウス分布であるか、または複数の前記ガウス分布が合成されたガウス分布であることが望ましい。 In order to solve the above problems, an artificial emotion learning apparatus according to the present invention includes an internal state calculation unit that detects external environment information and calculates an internal state vector value corresponding to one point of an internal state coordinate system, and the internal state coordinates. The emotion determination processing unit for generating an emotion value in each emotion value group indicated by the coordinates of the internal state input value of the robot on the system as the emotion of the robot, and the emotion value determined by the emotion determination processing unit, The internal state coordinate system is configured to receive an action generation unit that defines an action of the robot and expresses emotion, an emotion value determined from the emotion determination processing unit, and emotion type information input from a user input unit. An emotion learning unit that generates feedback information related to an emotion value corresponding to one point, and changes the emotion probability distribution of the internal state coordinate system using the feedback information; and the emotion learning unit And a user input unit for inputting information about the type of information. Here, it is preferable that the emotion probability distribution is a single Gaussian distribution having a weight value, a median value, and a variance, or a Gaussian distribution obtained by combining a plurality of the Gaussian distributions.
特に、前記感情学習部は、マッチング関数を用いて前記フィードバック情報に対応するガウス分布を検索してガウス分布を変更することを特徴とする。 In particular, the emotion learning unit may search for a Gaussian distribution corresponding to the feedback information using a matching function and change the Gaussian distribution.
一方、前記課題を解決するために、本発明による人工感情学習方法は、内部状態算出部が外部環境情報を感知して、内部状態座標系の一点に対応する内部状態ベクトル値を算出して内部状態を生成するステップと、n次元の内部状態座標系上にj種の感情についての感情確率分布が形成された感情モデルが備えられた感情決定処理部が、前記内部状態算出部の入力値を前記内部状態座標系にマッチングさせてロボットの感情値を定めるステップと、動作生成部が、前記感情決定処理部で定められた感情値によって前記ロボットの動作を定めて感情表現を行うステップと、感情学習部が、前記感情決定処理部から定められた感情値とユーザ入力部から入力される感情の種類情報とを入力されて、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、前記フィードバック情報を用いて前記内部状態座標系の感情確率分布を変更するステップとを含む。 On the other hand, in order to solve the above problem, the artificial emotion learning method according to the present invention is such that the internal state calculation unit senses external environment information and calculates an internal state vector value corresponding to one point of the internal state coordinate system. An emotion determination processing unit including a state generation step and an emotion model in which an emotion probability distribution for j types of emotions is formed on an n-dimensional internal state coordinate system; and an input value of the internal state calculation unit A step of determining an emotion value of the robot by matching with the internal state coordinate system; a step of expressing an emotion by determining an operation of the robot by an emotion value determined by the emotion determination processing unit; The learning unit receives the emotion value determined from the emotion determination processing unit and the emotion type information input from the user input unit, and relates to the emotion value corresponding to one point of the internal state coordinate system. It generates feedback information that includes a step of changing the emotion probability distribution of the internal state coordinate system by using the feedback information.
本発明によれば、ユーザの学習を通じて感情空間上に配置された感情の分布を変更することで、ユーザの所望する感情を生成できる。したがって、ユーザの性向に合わせて共感できる感情を示すようにして、ロボットへの興味を高めることができる。 ADVANTAGE OF THE INVENTION According to this invention, the emotion which a user desires can be produced | generated by changing the distribution of the emotion arrange | positioned on emotion space through a user's learning. Therefore, it is possible to increase the interest in the robot by showing emotions that can be sympathized with the user's tendency.
以下、添付した図面を参照して本発明の実施形態を詳しく説明する。 Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
図3A及び図3Bは、本発明が適用される生成的確率モデル(Generative Probability Model)を用いた人工感情学習装置1000を示す構成図である。
3A and 3B are block diagrams showing an artificial
先ず、図3A及び図3Bを参照して、全体的な人工感情学習装置1000の構成について説明する。
First, the overall configuration of the artificial
図3A及び図3Bに示すように、人工感情学習装置1000は、生成的確率モデル基盤の人工感情を学習するため、4つの空間である外部入力空間910、内部状態空間920、感情空間930、動作空間940と、マッピングプロセスなどを行う4つの構成である内部状態算出部100、感情決定処理部200、動作生成部300、感情学習部400及びユーザ入力部500で構成される。
As shown in FIG. 3A and FIG. 3B, the artificial
先ず、外部入力空間(External Input Space)910は、顔表情、ジェスチャー、口調などの外部で感知された情報を用いたベクトル空間で構成される。 First, an external input space (External Input Space) 910 includes a vector space using information sensed externally such as facial expressions, gestures, and tone.
内部状態空間(Internal State Space)920は、性格の5要因模型(The Five-Factor Model)により構成され、性格の5要因は、開放性(openness to experience)、誠実性(conscientiousness)、外向性(extraversion)、親和性(agreeableness)、神経症的傾向性(neuroticism)で形成される。
The
内部状態空間920は、性格の5要因のうち一つ以上を使った1次元以上の感情空間930としても構成でき、性格の5要因のうち一つ以上と、それ以外の要因とを合わせて感情空間930としても構成できる。また、性格の5要因のうち一つも使わず、他の要因を用いて構成された感情空間930など、いかなる要因で構成された感情空間930であってもよく、いずれも適用できる。
The
内部状態空間920は、人格や感情を持つロボットが特定外部入力に対して反応するための基礎的な内部状態を構成するために導入される概念である。さらに詳細には、同じ外部入力や刺激があったとしても、それぞれの人間は、成長してきた背景や環境によって反応する程度、すなわち、生成される感情が相異なり、かかる相異なる感情に基づいて究極的な自分の感情を外部に表出する。
The
例えば、暴力的な環境に長く露出された人間とそうでない人間とに同じ程度の外部刺激を入力させた場合に、前者は内部状態、すなわち、性格が非常に鋭い状態である可能性が高く、かかる状態に基づいて感情を生成する可能性が高い一方、後者はそうでない可能性が高い。 For example, when the same external stimulus is input to a person who has been exposed to a violent environment for a long time and a person who is not, the former is likely to have an internal state, that is, a very sharp personality, While the likelihood of generating an emotion based on such a state is high, the latter is likely not.
感情空間(Emotion Space)930は、幸せ、驚き、悲しみ、恋、嫌さ、恐れ、怒りなどの感情の大きさ程度に基づいたベクトル空間で構成される。 The emotion space 930 is composed of a vector space based on the magnitude of emotion such as happiness, surprise, sadness, love, dislike, fear, and anger.
動作空間(Behavior Space)940は、口、目、頭などのそれぞれの感情表現機関の微笑む口、口開けなどの最も小さな動作を示す単位動作(Unit Behavior)の量に基づいたベクトル空間で構成される。
The
図3A及び図3Bの内部状態算出部100は、内部プロセス(internal process)として内部状態を計算し、外部入力空間910から内部状態空間920にマッピングし、内部状態空間920及び次元(Dimension)を定義する。内部状態とは、外部入力を使う内部状態空間920内の一点を意味する。
3A and 3B calculates an internal state as an internal process, maps it from the
従来技術による内部状態空間920は、心理学的研究に基づいたものにもかかわらず任意に修正された。また、内部プロセスの結果は、内部状態空間920上の一点であるため、内部プロセスは、状態空間と連結されなければならない。しかし、従来技術は、ユーザの経験によって任意に内部プロセスが内部状態空間920と連結されるという問題点があった。
Prior art
本発明では、心理学の研究である性格の5要因模型(The Five-Factor Model)に基づいて内部状態空間920を構成する。性格の5要因模型は、心理学的に人間の性格を説明するために導入したものであり、当業者には周知であるので、本発明では詳しい説明を略す。
In the present invention, the
内部プロセスは、性格の5要因模型の測定方法であるNEO−PI−R(the Revised NEO Personality Inventory)を使用して構成される。もちろん、前述したように、内部プロセスは、NEO−PI−Rと異なるものを使って構成してもよい。NEO−PI−Rは、下記で後述する。 The internal process is configured using NEO-PI-R (the Revised NEO Personality Inventory), which is a method of measuring a personality five-factor model. Of course, as described above, the internal process may be configured using a different one from NEO-PI-R. NEO-PI-R will be described later.
図3A及び図3Bの感情決定処理部200は、感情決定プロセス(Emotion Decision Process)として、内部状態空間920で感情空間930にマッピングされる感情ベクトルe(k)を選択する。
The emotion
従来技術は、内部状態空間920が、感情を分類する固定された複数の区域に配されたため、年齢や文化的背景の差を反映し難かった。また、心理学研究ごとに、基本感情の定義とその数が異なるという問題点があった。
In the prior art, since the
しかし、本発明は、感情空間930上に混合ガウス分布(GMM、Gaussian Mixture Model)を用いた感情確率方法を設定し、ユーザのフィードバックにより感情確率を更新する。従来技術のように、ただ一つの感情のみ選択するものではなく、本発明では、あらゆる感情上に分布された確率値を通じて感情ベクトルe(k)を選択する。 However, the present invention sets an emotion probability method using a mixed Gaussian distribution (GMM, Gaussian Mixture Model) on the emotion space 930, and updates the emotion probability by user feedback. In the present invention, the emotion vector e (k) is selected through probability values distributed over all emotions.
図3A及び図3Bの動作生成部300は、動作生成プロセス(Behavior Generation Process)として、ロボットの動作を生成するために、感情空間930から動作空間940にマッピングする。
The
従来には、動作および感情間の既定の1:1マッピングを用いてロボットの行動や動作を選択した。したがって、既存のロボットは、同じ外部入力などが与えられる場合に常に同じ動作を表現した。また、生成された一つの動作は一つの感情のみ反映するため、ロボットは、簡単かつ断片的な動作のみ表現するしかなかった。 In the past, robot behavior and actions were selected using a predetermined 1: 1 mapping between actions and emotions. Therefore, the existing robot always expressed the same movement when the same external input or the like is given. Moreover, since one generated motion reflects only one emotion, the robot has to express only simple and fragmented motion.
本発明では、ロボットの最も蓋然性の高い動作を定めるために、単位動作及び確率感情値を考慮した多様な動作を生成するための動作生成プロセスの概念を導入する。 In the present invention, in order to determine the most probable motion of the robot, the concept of a motion generation process for generating various motions in consideration of the unit motion and the probability emotion value is introduced.
以下、生成的確率モデルに基づいた感情決定プロセスのうち内部状態の生成についてそれぞれ分説する。 Hereinafter, the generation of the internal state in the emotion determination process based on the generative probability model will be described.
先ず、内部状態生成に関して図3A及び図3Bに示すように、本発明の生成的確率モデルを用いる人工感情学習装置1000は、内部プロセスと、学習方法(learning scheme)を持つ感情決定プロセスとの2つのプロセスを含む。
First, as shown in FIG. 3A and FIG. 3B regarding the internal state generation, the artificial
内部プロセス(internal process)は、外部入力空間910を内部状態空間920にマッピングさせ、内部状態空間920内に存在する一つの点で内部状態を生成する。内部プロセスは、性格の5要因模型を測定するために開発された方法であるNEO−PI−R(Revised NEO Personality Inventory)を使ってモデリングされる。
The internal process maps the
前述したように、性格の5要因模型は、個人の性格を説明する模型であり、個人の性格を説明するために次の5側面の個性を含む。5要因として、開放性(openness to experience)、誠実性(conscientiousness)、外向性(extraversion)、親和性(agreeableness)、神経症的傾向性(neuroticism)がある。 As described above, the five-factor model of personality is a model for explaining an individual's personality, and includes the following five aspects of personality for explaining the personality of an individual. The five factors are openness to experience, conscientiousness, extraversion, agreeableness, and neuroticism.
また、NEO−PI−Rは、心理学的人格検査方法であり、性格の5要因模型の測定方法として使われる。NEO−PI−R実験は、性格の5要因模型の各要因の面(facet)であると知られている6つの下位要素(面)を含んでおり、これらを測定できる。 NEO-PI-R is a psychological personality test method and is used as a measurement method for a five-factor model of personality. The NEO-PI-R experiment includes six subelements (faces) known to be the facets of each factor in the personality five-factor model, and these can be measured.
NEO−PI−Rでは、下記のように上位要素当たり6個の下位要素で形成される。
・開放性(openness to experience) : 想像(fantasy)、審美性(aesthetics)、感じ(feelings)、行動(actions)、思考(ideas)、価値(values)
・誠実性(conscientiousness) : 有能感(competence)、整然性(order)、充実性(dutifulness)、成就追求(achievement striving)、自己規制(self-discipline)、慎重性(deliberation)
・外向性(extraversion) : 温情(warmth)、社交性(gregariousness)、主張(assertiveness)、活動性(activity)、刺激追求(excitement seeking)、肯定的情緒(positive emotion)
・親和性(agreeableness) : 信頼性(trust)、率直性(straightforwardness)、利他性(altruism)、順応性(compliance)、謙虚(modesty)、同情(tender mindedness)
・神経症的傾向性(neuroticism) : 不安(anxiety)、敵対感(hostility)、憂鬱(depression)、自意識(self-consciousness)、衝動性(impulsiveness)、ストレス脆弱性(vulnerability to stress)
In NEO-PI-R, it is formed of 6 subelements per upper element as follows.
・ Openness to experience: fantasy, aesthetics, feelings, actions, ideas, values
・ Conscientiousness: competence, order, dutifulness, achievement striving, self-discipline, deliberation
・ Extraversion: warmth, sociality, assertiveness, activity, excitement seeking, positive emotion
・ Agreeableness: trust, straightforwardness, altruism, compliance, modesty, tender mindedness
・ Neuroticism: anxiety, hostility, depression, self-consciousness, impulsiveness, stress vulnerability (vulnerability to stress)
図3A及び図3Bのu(k)は、外部入力ベクトル(external input vector)と定義され、外部入力ベクトルu(k)の要素は、顔の表情、ジェスチャー及び口調などの外部入力状態を指示する。また、前記外部入力ベクトルu(k)は、S個の外部入力があるS次元の外部入力空間910に存在する。
In FIG. 3A and FIG. 3B, u (k) is defined as an external input vector, and elements of the external input vector u (k) indicate external input states such as facial expressions, gestures, and tone. . The external input vector u (k) exists in an S-dimensional
x(k)は、内部状態ベクトル(internal state vector)と定義され、内部状態ベクトルx(k)の要素は、性格の5要因模型に基づいて、内部状態空間920上に開放性、誠実性、外向性、親和性、神経症的傾向性の5要因の状態を表す。 x (k) is defined as an internal state vector, and the elements of the internal state vector x (k) are based on a five-factor model of character, and are open, honest, It represents the five factors of extroversion, affinity and neurotic tendency.
外部入力ベクトルu(k)は、内部プロセスの入力となり、内部状態ベクトルx(k)は、内部プロセスの出力となる。もし、所定時間の間に外部入力がない場合、内部状態は、感情状態が中立である0に収まる。 The external input vector u (k) becomes an input of the internal process, and the internal state vector x (k) becomes an output of the internal process. If there is no external input for a predetermined time, the internal state falls within 0 where the emotional state is neutral.
感情決定プロセス(emotion decision process)は、内部状態空間920から感情空間930にマッピングするプロセスであり、感情空間930上に存在する一点である感情ベクトルe(k)を生成する。本発明では、内部状態空間920上に分布する感情確率分布を設定し、学習により感情確率分布を更新する。
The emotion decision process is a process of mapping from the
e(k)は、感情ベクトル(emotion vector)と定義され、感情ベクトルe(k)を構成する要素は、該当要素が示す感情の確率サイズを表す。感情空間930は、J次元であり、前記Jは、感情の数を表す。 e (k) is defined as an emotion vector, and an element constituting the emotion vector e (k) represents the probability size of the emotion indicated by the corresponding element. The emotion space 930 has a J dimension, where J represents the number of emotions.
内部状態ベクトルx(k)は、感情決定プロセスに入力され、感情ベクトルe(k)は、感情決定プロセスから出力される。内部状態ベクトルx(k)が感情決定プロセスに入力されれば、内部状態空間920に分布された感情確率分布を用いてそれぞれの感情確率が定められ、感情ベクトルe(k)は、あらゆる感情に対して確率を持つように定められる。
The internal state vector x (k) is input to the emotion determination process, and the emotion vector e (k) is output from the emotion determination process. When the internal state vector x (k) is input to the emotion determination process, the emotion probability is determined using the emotion probability distribution distributed in the
動作生成部300は、感情決定処理部200で定められた感情ベクトルe(k)によって感情表現を行う。前記動作生成部300は、ロボットの顔表情処理、音声出力処理、ロボットの腕、足、胴などを用いた動作処理などを行える。一方、動作生成部300は、本発明の主な観点ではないので、詳しい説明は略す。
The
感情学習部400は、前記感情決定処理部200から定められた感情ベクトルe(k)と、ユーザ入力部500から入力される感情種類情報ed(k)とを入力されて、前記感情空間930上に存在する一点である感情ベクトルe(k)に対応するフィードバック情報を生成し、前記フィードバック情報を用いて前記感情確率分布を変更する。すなわち、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、前記フィードバック情報を用いて前記内部状態座標系の感情確率分布を変更する。
The
ユーザ入力部500は、前記感情学習部400に感情の種類情報を入力する。
The
図4Aは、本発明の一実施形態に採用可能な感情確率分布を示す概略図である。 FIG. 4A is a schematic diagram showing an emotion probability distribution that can be employed in an embodiment of the present invention.
先ず、図4Aに関して説明すれば、図4Aは、内部状態空間920を示す座標であり、心理学のFFM(Five Factor Model)に基づいて5次元の内部状態(開放性(openness to experience)、誠実性(conscientiousness)、外向性(extraversion)、親和性(agreeableness)、神経症的傾向性(neuroticism))空間を構成したものであり、図4A上に示した同じ質感の円錐形状は、それぞれの感情を示すものである。すなわち、一つの円錐形状は、一つの感情確率分布を示すものである。図4Aに示したように、外向性と親和性というロボットの基本内部状態軸に近いところに、G1という感情を表す確率分布曲線が描かれている。
First, referring to FIG. 4A, FIG. 4A is a coordinate indicating the
ここで、一つの感情分布は、複数のガウス分布G1またはガウスモードを持っている一つの生成的確率モデルとして表現され、感情空間930は、体積空間を形成する複数の生成的確率モデルとして表現される。この時、体積空間は、基本感情の座標で最も大きく、基本感情の座標から遠ざかるほど徐々に減少する複数の感情値で表現される。そして、感情値は感情を表す大きさである。例えば、純粋に喜びの感情のみがある場合を仮定する時、同じ喜びでも喜びの大きさが異なる。このように喜びの大きさを表現するためのものが感情値である。 Here, one emotion distribution is expressed as one generative probability model having a plurality of Gaussian distributions G1 or Gaussian modes, and the emotion space 930 is expressed as a plurality of generative probability models forming a volume space. The At this time, the volume space is represented by a plurality of emotion values that are the largest in the coordinates of the basic emotion and gradually decrease as the distance from the coordinates of the basic emotion increases. The emotion value is a size representing emotion. For example, assuming that there is purely a feeling of joy, the magnitude of joy differs even with the same joy. The emotional value is used to express the magnitude of joy.
基本感情は、ユーザがロボットに付与した感情であり、喜び、悲しみ、怒り、驚き、恐れなどのように定義できる。これらの基本感情は、ロボットの内部状態空間座標系上に設定される。 The basic emotion is an emotion given to the robot by the user and can be defined as joy, sadness, anger, surprise, fear, and the like. These basic emotions are set on the internal state space coordinate system of the robot.
感情値群は多様に設定され、これらの感情値群で生成された体積空間の形状は、ロボットの性格や性向と現れる。例えば、図4Aに示したように、同じ質感の円錐は同じ感情を表し、各円錐の形態はロボットごとに異なるので、すなわち、これはロボットの固有性格になる。また、感情値群の設定時に基本感情の座標における感情値を最も大きくし、基本感情の座標から遠ざかるほど感情値を徐々に低減させるのが自然な感情表現に有利であるが、必ずしもこれに限定される必要はない。 Various emotion value groups are set, and the shape of the volume space generated by these emotion value groups appears as the personality and propensity of the robot. For example, as shown in FIG. 4A, cones with the same texture represent the same emotion, and the form of each cone is different for each robot, that is, this becomes the uniqueness of the robot. In addition, it is advantageous for natural emotional expression to increase the emotion value at the basic emotion coordinates at the time of setting the emotion value group, and gradually reduce the emotion value as it moves away from the basic emotion coordinates. There is no need to be done.
一方、感情値群は、内部状態入力値に基づいて生成される。ロボットが感情表現をするためには、初期に外部の刺激が必要である。かかる刺激は、ロボットに設けられた感情関連センサーにより感知され、センサーの感知結果は、ロボットが持っている内部状態空間920の座標系上で表現できるデータに加工される。このように加工されたデータが内部状態入力値になりうる。また、感情値群を内部状態入力値によって変動させることで、ダイナミックな感情表現が可能になる。
On the other hand, the emotion value group is generated based on the internal state input value. In order for the robot to express emotions, external stimuli are necessary at an early stage. Such a stimulus is detected by an emotion-related sensor provided in the robot, and the detection result of the sensor is processed into data that can be expressed on the coordinate system of the
前記内部状態算出部100が、ロボットに設けられた感情関連センサーによって外部環境情報、すなわち、外部刺激を感知し、座標系上で表現できるデータに加工する役割を行う。ここで、外部刺激は、音声認識(言葉の意味、音の大きさなど)、映像認識(人間の認識、物体の認識、色相の認識など)、各種センサー値(タッチセンサーの位置値、強度、距離移動量、温度、湿度など)など人間が認知できるすべての刺激を使うことができる。
The internal
学習能力が付与されたロボットの場合、学習によって喜びの感情座標が変動、追加、削除される。例えば、図4Bに示すように、喜びの座標1以外に学習によって喜びの座標0.5が追加される。このような場合、同じ感情が2つであるので、これを組み合わせて一つの感情値群に示す。これについては、感情学習部400で詳しく後述する。
In the case of a robot to which learning ability is given, emotion coordinates of pleasure are changed, added, or deleted by learning. For example, as shown in FIG. 4B, in addition to the pleasure coordinate 1, a pleasure coordinate 0.5 is added by learning. In such a case, since there are two same emotions, they are combined and shown in one emotion value group. This will be described in detail later in the
図4Bは、各感情値群が基本感情の座標を中心とするガウス曲線を形成する場合を示し、喜びの座標1のガウス曲線と、学習によって新たに追加された喜び0.5のガウス曲線とが、GMM(Gaussian Mixture Model)によって併合された状態を示す。 FIG. 4B shows a case in which each emotion value group forms a Gaussian curve centered on the coordinates of basic emotions, and a Gaussian curve with pleasure coordinates 1 and a Gaussian curve with pleasure 0.5 newly added by learning. Shows a state of being merged by GMM (Gaussian Mixture Model).
この時、各感情に対して、ガウス分布の加重値は常に1を満たさねばならない。例えば、A感情に対して一つのガウス分布のみ存在するならば、そのガウス分布の加重値は1である。同様に、A感情に対して2個のガウス分布が存在するならば、2つのガウス分布の加重値は相異なるが、その和は常に1を満たさねばならない。 At this time, the weight of the Gaussian distribution must always satisfy 1 for each emotion. For example, if only one Gaussian distribution exists for the A emotion, the weighted value of the Gaussian distribution is 1. Similarly, if there are two Gaussian distributions for the A emotion, the weights of the two Gaussian distributions are different, but the sum must always satisfy 1.
このように、内部状態空間920の座標系上で、ロボットの内部状態入力値の座標が示す各感情値群の感情値の集合をロボットの感情に生成できる。
In this way, on the coordinate system of the
一方、本発明では、ガウス曲線で感情値群を示したが、三角形のように、前述した体積空間の条件を満たす多様な曲線で感情値群を示してもよい。すなわち、さらに他の実施形態として、前記感情確率分布は、ガウス分布ではない多様な形状(例えば、円形分布、方形分布、三角形分布、半円形分布など)の分布に形成される。 On the other hand, in the present invention, the emotion value group is indicated by a Gaussian curve, but the emotion value group may be indicated by various curves that satisfy the above-described volume space conditions, such as a triangle. That is, as yet another embodiment, the emotion probability distribution is formed into a distribution having various shapes (for example, a circular distribution, a square distribution, a triangular distribution, a semicircular distribution, etc.) that is not a Gaussian distribution.
前述したように、ガウス分布以外の他の分布も適用でき、この場合、ガウス分布数式と異なる数式が適用され得るが、その原理は同一である。本明細書では、他の分布に関する数式についての詳しい説明を略す。 As described above, distributions other than the Gaussian distribution can be applied. In this case, a mathematical expression different from the Gaussian distribution mathematical expression can be applied, but the principle is the same. In this specification, a detailed description of mathematical expressions relating to other distributions is omitted.
但し、中央値(基本感情についての感情値など)を中心として散布の同じガウス曲線などを用いれば、ロボットの感情座標系で基準感情を中心とする感情値の散布を均一に形成することで、ロボットの感情を示す感情ベクトルe(k)の計算を容易に行えるが、必ずしもこれに限定されるものではない。 However, by using the same Gaussian curve of dispersion around the median (emotion value for basic emotions, etc.), by creating a uniform distribution of emotion values around the reference emotion in the robot's emotion coordinate system, Although it is possible to easily calculate the emotion vector e (k) indicating the emotion of the robot, the present invention is not necessarily limited to this.
前記感情決定処理部200は、入力値として感情状態入力値を感情モデルに適用し、出力値として感情値を計算する。
The emotion
図4Cは、本発明の一実施形態による1次元感情空間上に、他の感情に対して2個の感情確率分布を持つ感情モデルを示した図面であり、ロボットの感情決定処理部200の動作を説明するための概略図である。説明の便宜のために、図4Cに示したように、1次元内部状態空間920上に位置している感情曲線を用いて感情モデルを説明する。
FIG. 4C is a diagram illustrating an emotion model having two emotion probability distributions with respect to other emotions on a one-dimensional emotion space according to an embodiment of the present invention. It is the schematic for demonstrating. For convenience of explanation, as shown in FIG. 4C, the emotion model is described using an emotion curve located on the one-dimensional
図4Cでは、1次元座標上に基本感情である喜びの座標1と異なる基本感情である悲しみの座標−1が付与されており、各基本感情に対して、ガウス曲線を形成する感情確率分布が付与されている。 In FIG. 4C, a sadness coordinate −1 which is a basic emotion different from the joy coordinate 1 which is a basic emotion is given on a one-dimensional coordinate, and an emotion probability distribution which forms a Gaussian curve for each basic emotion. Has been granted.
もし、内部状態入力値が0.3である場合、既存には喜びの座標1がロボットの感情となったが、本実施形態の感情発生部130によれば、0.3の座標が表す各感情値群の感情値の集合である{4,1}がロボットの感情となる。もちろん、このような表現のためには、集合の元素順序を予め設定しておかねばならない。本実施形態では、{喜びの感情値、悲しみの感情値}のように設定された場合を示す。
If the internal state input value is 0.3, the coordinate 1 of joy is the emotion of the robot, but according to the
本実施形態によれば、単純に喜びを表す座標1でロボットの感情を表現する代わりに、喜びの感情の大きさが4であり、悲しみの感情の大きさが1である複合感情を、信頼性高く生成できる。この時、ガウス曲線の形状によって複合感情が変わるので、ガウス曲線はロボットの性格を形成する。 According to the present embodiment, instead of simply expressing the emotion of the robot with the coordinate 1 representing joy, the emotion of joy is 4 and the emotion of sadness is 1 It can be generated with high efficiency. At this time, since the compound emotion changes depending on the shape of the Gaussian curve, the Gaussian curve forms the character of the robot.
また、次元によって、一つの内部状態入力値が一つの感情確率分布で複数の入力値を表す場合、最も大きい値または最も小さな値または平均に近い値などを選択して一つの感情値を抽出してもよい。結果的に複数次元で内部状態座標系が拡張される場合、内部状態入力値が表す入力値は内部状態当り一つのみ抽出してもよい。一方、ロボットの感情を入力とするロボットの感情表現装置の便宜を考慮して、複合感情の各要素である集合の感情値を確率的に表現できる。確率的な表現は、感情値を百分率または合計が1となる分数で表すことを意味する。例えば、前記の例でロボットの感情が{4,1}である場合、百分率で表せば{80,20}になり、合計が1となる分数で表せば{4/5,1/5}になる。 Also, depending on the dimension, when one internal state input value represents multiple input values in one emotion probability distribution, the largest value, the smallest value, or a value close to the average is selected to extract one emotion value. May be. As a result, when the internal state coordinate system is expanded in multiple dimensions, only one input value represented by the internal state input value may be extracted per internal state. On the other hand, in consideration of the convenience of the robot emotion expression device that receives the robot emotion, the emotion value of the set, which is each element of the complex emotion, can be expressed stochastically. Probabilistic expression means expressing emotion values as a percentage or a fraction with a total of one. For example, in the above example, if the robot's emotion is {4, 1}, it will be {80, 20} when expressed as a percentage, and {4/5, 1/5} when expressed as a fraction where the total is 1. Become.
次いで、感情学習部400は、感情モデルを学習するための構成であり、入力値として、感情決定処理部200の出力値である感情ベクトルe(k)と、ユーザ入力部500を通じて感情種類情報ed(k)とを入力され、出力値として、感情モデル上の各ガウス分布の加重値、中央値及び分散を変更するためのフィードバック情報を出力する。すなわち、学習とは、感情空間930上に分布されたガウス分布を変化させるものであり、ガウス分布の加重値、中央値及び分散の値を変化させるという意味を持つ。特に、前記感情学習部400は、マッチング関数を用いてフィードバック情報に対応するガウス分布を検索し、ガウス分布を変更することを特徴とする。
Next, the
望ましい実施形態として、本発明による人工感情学習装置1000に対して、k時間に「腕を広げて愛していると言う」という入力が入って来た時、これを見たユーザは「幸せ」という教育ができる。ユーザ入力部500を通じて感情の種類として「幸せ」を感情学習部400に入力すれば、設定された方式によって状態ベクトル周辺のガウス分布を学習させる。
As a preferred embodiment, when an input saying “I love you with open arms” comes into the artificial
以下、本発明の人工感情学習装置1000の動作を、数式で説明する。
Hereinafter, the operation of the artificial
(1)内部状態ベクトルx(k)の定義
図5A及び図5Bは、NEO−PI−Rを使用する内部プロセスを図示するものであり、図5A及び図5Bのプロセスは、内部状態空間920で使われる性格の5要因モデルを測定するための方法であるNEO−PI−Rを使用してモデリングされる。
(1) Definition of Internal State Vector x (k) FIGS. 5A and 5B illustrate an internal process using NEO-PI-R, and the process of FIGS. 5A and 5B is performed in the
図5A及び図5Bを参照すれば、内部状態演算は、性格の要因に対する面(Facet)値ベクトルの計算、性格の要因値計算及び内部状態計算の順に行われる。 Referring to FIGS. 5A and 5B, the internal state calculation is performed in the order of face value vector calculation for personality factors, personality factor value calculation, and internal state calculation.
図5A及び図5Bを参照すれば、外部入力ベクトルu(k)∈{0,1}sは、外部入力によって定められ、この時、Sは、外部入力の数を表す。外部入力ベクトルu(k)内のi番目要素の値は、i番目センサーが動作の是非を表すものであり、動作中であれば1、そうでなければ0を表す。ただし、i∈{1,2,…,S}である。 Referring to FIGS. 5A and 5B, the external input vector u (k) ε {0, 1} s is determined by the external input, where S represents the number of external inputs. The value of the i-th element in the external input vector u (k) represents whether the i-th sensor is operating, and represents 1 when it is in operation, and 0 otherwise. However, iε {1, 2,..., S}.
入力ベクトルは、3種の性格パラメータを持つ動的システムにより処理される。 The input vector is processed by a dynamic system with three personality parameters.
・Facetパラメータ151(第1性格) : Γo,Γc,Γe,Γa,Γn∈R6×s
・性格要因パラメータ152(第2性格) : βo,βc,βe,βa,βn∈R
・Durabilityパラメータ153(第3性格) : αo,αc,αe,αa,αn∈[0,1]
各パラメータの下添字であるo,c,e,a,nは、開放性、誠実性、外向性、親和性、神経症的傾向性を表す。
Facet parameter 151 (first character): Γ o , Γ c , Γ e , Γ a , Γ n ∈ R 6 × s
Personality factor parameter 152 (second personality): β o , β c , β e , β a , β n εR
Durability parameter 153 (third character): α o , α c , α e , α a , α n ∈ [0, 1]
The subscripts “o”, “c”, “e”, “a”, and “n” of each parameter represent openness, honesty, extroversion, affinity, and neurotic tendency.
Durability(持続性)パラメータ153(第3性格)は、性格の5要因モデルによるそれぞれの性格要因に対する持続性を表し、性格要因パラメータ152(第2性格)は、各性格要因の敏感程度を表す。 The Durability (persistence) parameter 153 (third personality) represents the sustainability of each personality factor according to the personality five-factor model, and the personality factor parameter 152 (second personality) represents the degree of sensitivity of each personality factor.
Facet(面)パラメータ151(第1性格)は、各性格要因に含まれた6つの下位要素の敏感程度を表す。Facetパラメータ151(第1性格)は、5つの性格要因がそれぞれ6つの下位要素を含むため、合計で30個になり得る。 The Facet parameter 151 (first personality) represents the degree of sensitivity of the six sub-elements included in each personality factor. The Facet parameter 151 (first personality) can be 30 in total because the five personality factors each include six subelements.
例えば、性格要因のうち一つである開放性に対するFacetパラメータ151(第1性格)は、次のように表現できる。 For example, the facet parameter 151 (first personality) for openness, which is one of personality factors, can be expressed as follows.
Γo=[γo1,γo2,γo3,γo4,γo5,γo6]Tであり、γo1,γo2,γo3,γo4,γo5,γo6∈Rsである。 Γ o = [γ o1, γ o2, γ o3, γ o4, γ o5, γ o6] is a T, γ o1, γ o2, γ o3, γ o4, γ o5, a γ o6 ∈R s.
他の4つの要因のFacetパラメータ151(第1性格)は、同じ方式で表現できる。 The Face parameter 151 (first character) of the other four factors can be expressed in the same manner.
次いで、性格の要因に対する面(Facet)値ベクトルの計算と関連して、入力ベクトルは、それに相応するFacetパラメータ151を使用して、開放性、誠実性、外向性、親和性及び神経症的傾向性の5要因のfacet値ベクトルに変換される。
Then, in connection with the calculation of the facet value vector for the personality factor, the input vector is used for the openness, integrity, extroversion, affinity and neurotic tendency using the
例えば、開放性に対するfacet値ベクトルであるfo(k)(但し、fo(k)∈R6)は、下記のように定められる。 For example, f o (k) (where f o (k) εR 6 ), which is a facet value vector for openness, is defined as follows.
fo(k)=Γou(k)であり、fo(k)=[fo1(k),fo2(k),fo3(k),fo4(k),fo5(k),fo6(k)]Tである。 f o (k) = Γ o u (k), and f o (k) = [f o1 (k), f o2 (k), f o3 (k), f o4 (k), f o5 (k) ), F o6 (k)] T.
他の4つの性格要因のfacet値ベクトルであるfc(k)、fe(k)、fa(k)、fn(k)も、同じ方式で定められる。 The face value vectors f c (k), f e (k), f a (k), and f n (k) of the other four personality factors are determined in the same manner.
次いで、性格要因値の計算と関連して、facet値ベクトルは6つのfacet値を合せることで、性格要因値として計算できる。 Then, in connection with the calculation of the personality factor value, the facet value vector can be calculated as a personality factor value by combining the six facet values.
例えば、開放性に対する要因値であるgo(k)(但し、go(k)∈R)は、下記のように定められる。 For example, g o (k) (where g o (k) εR), which is a factor value for openness, is defined as follows.
であり、16は、1で満たされた6×1ベクトルである。 And 16 is a 6 × 1 vector filled with 1.
他の4つの性格要因に対する値であるgc(k)、ge(k)、ga(k)、gn(k)も、同じ方式で定められる。 The values for the other four personality factors, g c (k), g e (k), g a (k), and g n (k), are also determined in the same manner.
最後に内部状態計算と関連して、Durabilityパラメータ153、性格要因パラメータ152及び過去内部状態値を用いて、内部状態値に変換される。
Finally, in relation to the internal state calculation, it is converted into an internal state value using the
例えば、開放性に対するo(k+1)は、下記の状態方程式により定められる。 For example, o (k + 1) for openness is defined by the following equation of state.
o(k+1)=αoo(k)+βo go(k) o (k + 1) = α o o (k) + β o g o (k)
c(k+1)、e(k+1)、a(k+1)、n(k+1)は、同じ方式により定められる。 c (k + 1), e (k + 1), a (k + 1), and n (k + 1) are determined by the same method.
すなわち、計算された現在の性格要因値であるβogo(k)と、内部状態の持続性を表すDurabilityパラメータ153であるαoとを直前の内部状態とかけた値を足して、現在の内部状態値を計算する。
That is, by adding the calculated is beta o g o the current personality factors value (k), a value obtained by multiplying the internal status of the immediately preceding and alpha o is a
全体内部状態値と関連して、全体内部状態力学(dynamics)は、下記の状態方程式で表現できる。 In relation to the overall internal state value, the overall internal state dynamics can be expressed by the following state equation.
x(k+1)=Ax(k)+Bu(k)
x(k)=[o(k)c(k)e(k)a(k)n(k)]T∈R5
x (k + 1) = Ax (k) + Bu (k)
x (k) = [o (k) c (k) e (k) a (k) n (k)] T ∈ R 5
また、NEO−PI−Rによる上位要素5つをすべて使用することに制限されず、必要に応じて1つ以上を使用してもよい。そして、前記上位要素に含まれている下位要素も6つをすべて使用する必要はなく、必要に応じて1つ以上を使用してもよい。この場合、内部状態の次元値が変動する。 Moreover, it is not restricted to using all the five upper elements by NEO-PI-R, You may use 1 or more as needed. Further, it is not necessary to use all six lower elements included in the upper element, and one or more lower elements may be used as necessary. In this case, the dimension value of the internal state varies.
(2)ロボットの感情値である感情ベクトルe(k)の定義
最終感情は、一つの感情値に表現されるものではなく、複数の感情値の確率値が反映された複合感情として生成される。この複合感情は感情ベクトルe(k)になり、J個の感情を使うならば、次のロボットの感情数式3のように示すことができる。
(2) Definition of emotion vector e (k), which is an emotion value of the robot The final emotion is not expressed as one emotion value, but is generated as a composite emotion that reflects the probability values of multiple emotion values . This complex emotion becomes an emotion vector e (k). If J emotions are used, it can be expressed as the following robot emotion equation 3.
(3)感情確率分布P(x(k)|ej)の設定
内部状態座標系上に各基本感情についての確率分布を配置する。各基本感情についての確率分布は、GMM(Gaussian Mixture Model)を使う。これを用いれば、各基本感情の分布をダイナミックにすることができ、各感情値を独立的に計算することができる。n次元の内部状態座標系でj番目の基本感情についての感情確率分布(感情分布、感情値群)P(x(k)|ej)は、以下の数式4のように定められる。
(3) Setting of emotion probability distribution P (x (k) | ej) The probability distribution for each basic emotion is arranged on the internal state coordinate system. The probability distribution for each basic emotion uses GMM (Gaussian Mixture Model). If this is used, the distribution of each basic emotion can be made dynamic, and each emotion value can be calculated independently. An emotion probability distribution (emotion distribution, emotion value group) P (x (k) | ej) for the j-th basic emotion in the n-dimensional internal state coordinate system is determined as shown in Equation 4 below.
(4)感情値の確率的表現であるP(ej|x(k))の計算
各感情値の確率的表現(確率値)は、ベイズの定理(Bayes' rule)を用いて数式5のように計算される。ここでj番目の感情の確率値であるP(ej|x(k))は、事後確率(posterior probability)として使われる。
(4) is a stochastic representation of the emotion value P | probabilistic representation (probability value) for calculating the emotional value (e j x (k)), the equation 5 by using the Bayes theorem (Bayes' rule) Is calculated as follows. Here, P (e j | x (k)), which is the probability value of the j-th emotion, is used as a posterior probability.
以上の数式3ないし5によれば、J個の基本感情が付与された場合、J個のP(ej|x(k))を持っているJ次元の感情ベクトルe(k)が定められる。e(k)は、J個の感情値が確率的表現として反映された複合感情になる。 According to the above formulas 3 to 5, when J basic emotions are given, a J-dimensional emotion vector e (k) having J P (e j | x (k)) is determined. . e (k) is a composite emotion in which J emotion values are reflected as a probabilistic expression.
(5)マッチング関数の計算(Calculate Matching Function)
内部状態座標系の一点xのベクトルポイントを中心としてユーザのフィードバック情報を用いて、学習するための感情のガウスモード(または、ガウス分布)を次のように探す。
(5) Calculate Matching Function
Using the feedback information of the user centering on the vector point of the internal state coordinate system x , the emotional Gaussian mode (or Gaussian distribution) for learning is searched for as follows.
ここで、前記マッチング関数(matchj,m(k+1))は、次の数式6を満たす。 Here, the matching function (match j, m (k + 1)) satisfies the following Expression 6.
参考までに、前記マッチング関数は、ユークリッド距離(Euclidean Distance)計算法によって定義された関数であるが、これ以外にもマハラノビス距離(Mahalanobis Distance)計算法またはミンコフスキー距離(Minkowski Distance)計算法などを用いてマッチング関数を定義してもよい。 For reference, the matching function is a function defined by the Euclidean Distance calculation method. In addition to this, the Mahalanobis distance calculation method or the Minkowski distance calculation method is used. You may define a matching function.
(6)確率分布におけるユーザフィードバック学習(User Feedback Learning on Probability Distribution)
マッチング関数を用いてガウスモードを次のように選別した後、ユーザの意図を反映してガウス分布を学習する。
(6) User Feedback Learning on Probability Distribution
After selecting the Gaussian mode as follows using the matching function, the Gaussian distribution is learned reflecting the user's intention.
学習は、2つの場合に区分し、第1の場合は、マッチング関数を通じて学習するガウスモードを探せた場合(6−1)であり、第2の場合は、探せなかった場合(6−2)である。 Learning is divided into two cases. The first case is a case where a Gaussian mode learned through a matching function is found (6-1), and the second case is a case where a Gaussian mode is not found (6-2). It is.
(6−1)∃m∈{1,2,…,Mj(k)} such that matchj,m(k+1)=1の場合
前記マッチング関数を通じてマッチングされるガウス分布を一つでも探せた場合、ガウス分布を学習するようになるが、この時、選択された、すなわち、マッチングされたガウス分布と、選択されていない、すなわち、マッチングされていないガウス分布とを区分して学習する。
(6-1) ∃m∈ {1, 2,..., Mj (k)} such that matchj, m (k + 1) = 1 If any Gaussian distribution matched through the matching function can be found, Gaussian The distribution is learned. At this time, the selected, that is, matched Gaussian distribution and the non-selected, that is, unmatched Gaussian distribution are learned separately.
(6−1−1)matchj,m(k+1)=1のそれぞれのm
これによって、選択されたj番目の感情分布のm番目ガウスモードが学習される。この場合、ガウス分布の加重値、中央値、分散の3つを学習する。
(6-1-1) m of each of matchj and m (k + 1) = 1
As a result, the mth Gaussian mode of the selected jth emotion distribution is learned. In this case, the three values of weight, median, and variance of the Gaussian distribution are learned.
言い換えれば、前記マッチング関数が1である場合、選択されたj番目の感情分布のうちm番目のガウス分布は、前記フィードバック情報を用いて次の数式7の加重値(ωj,m(k+1))、中央値(μj,m(k+1))及び分散(σ2j,m(k+1))を満たすように、ガウス分布が変更される。 In other words, when the matching function is 1, the m-th Gaussian distribution among the selected j-th emotion distribution is a weighted value (ωj, m (k + 1)) of the following Equation 7 using the feedback information. , The Gaussian distribution is changed to satisfy the median (μj, m (k + 1)) and the variance (σ2j, m (k + 1)).
である。この時、Σj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の帯域幅である。
It is. At this time, Σ j, m (k) is the bandwidth of the mth Gaussian distribution of the jth emotion distribution in k hours.
(6−1−2)matchj,m(k+1)=0のそれぞれのm
また、選択されていないj番目の感情分布のm番目ガウスモードが学習される。この場合、加重値のみ学習する。
(6-1-2) match j, m (k + 1) = 0 for each m
In addition, the mth Gaussian mode of the jth emotion distribution which is not selected is learned. In this case, only the weight value is learned.
言い換えれば、前記マッチング関数が1である場合、選択されていないj番目の感情分布のうちm番目のガウス分布は、前記フィードバック情報を用いて、次の数式8の加重値(ωj,m(k+1))を満たすようにガウス分布が変更される。 In other words, when the matching function is 1, the m-th Gaussian distribution among the unselected j-th emotion distributions uses the feedback information, and the weight value (ω j, m ( The Gaussian distribution is changed to satisfy k + 1)).
次いで、前記感情学習部400は、ガウス分布が変更された後、各感情に該当するすべてのガウス分布の加重値をノーマライズ(Normalize)する。すなわち、加重値の和を1にする。
Next, after the Gaussian distribution is changed, the
(6−2)matchj,m(k+1)=0 for ∀m∈{1,2,…,Mj(k)}の場合
一方、マッチングされるガウスモードを探せなかった場合、フィードバック情報を用いて新たなガウスモードを立てる。したがって、k+1時間でj番目の感情分布が持っているガウスモードの数Mj(k+1)は、Mj(k+1)=Mj(k)+1になる。
(6-2) match j, m ( k + 1) = 0 for ∀m∈ {1,2, ..., M j (k)} On the other hand, when the, if not find a Gaussian mode to be matched, the feedback information Use to set up a new Gaussian mode. Therefore, the number M j (k + 1) of the Gaussian modes possessed by the jth emotion distribution in k + 1 hours is M j (k + 1) = M j (k) +1.
言い換えれば、前記感情学習部400は、マッチング関数が0である場合(マッチングされるガウス分布がない場合)、前記フィードバック情報を用いて、次の数式9の加重値、中央値及び分散を満たすガウス分布を生成する。 Gauss other words, the emotion learning unit 400 (if there is no Gaussian distribution are matched) when the matching function is zero, which satisfies by using the feedback information, the weighted value of the following formula 9, the median and variance Generate a distribution.
次いで、前記感情学習部400は、ガウス分布が生成された後、各感情に該当するすべてのガウス分布の加重値をノーマライズ(Normalize)する。すなわち、加重値の和を1にする。
Then, after the Gaussian distribution is generated, the
ここで、ガウス分布の中央値は、いかなる感情に影響を及ぼすかを示し、分散は、該ガウス分布がどれほど広く影響を及ぼすかを意味し、加重値は、同じ感情に関する色々なガウス分布のうち該当のガウス分布がどれほど影響を及ぼすかを意味する。すなわち、加重値が高ければ、そのガウス分布の該当値が多く反映されることを意味する。 Here, the median of the Gaussian distribution indicates what kind of emotion it affects, the variance means how widely the Gaussian distribution affects, and the weight is the value among the various Gaussian distributions for the same emotion It means how much influence the corresponding Gaussian distribution has. That is, if the weight value is high, it means that many corresponding values of the Gaussian distribution are reflected.
したがって、k時間でのガウス分布と、k+1時間でのガウス分布とが異なるので、同じ入力に対して他の出力値、すなわち、感情値を生成する。かかる過程を通じて、ユーザの所望の通りに感情空間930上に感情分布が学習されるため、この過程を繰り返せば、ユーザが教育した通りにロボットが感情を生成して表現できるようになる。
Accordingly, since the Gaussian distribution at time k is different from the Gaussian distribution at
図6Aは、本発明の一実施形態による感情モデルを示す概略図であり、図6Bは、学習によって変更された感情モデルを示す概略図であり、図6A及び図6Bでは、心理学のFFM(Five Factor Model)に基づいて5次元の感情空間930を構成した。したがって、図6Aのように、学習の前のガウス分布G1が、ユーザの教育によって学習後のガウス分布G2に変更された。したがって、感情決定処理部200は、同じ感情状態入力値が入力されると仮定する時、学習前(図6A)と学習後(図6B)とは相異なる感情値を定める。
6A is a schematic diagram illustrating an emotion model according to an embodiment of the present invention, FIG. 6B is a schematic diagram illustrating an emotion model changed by learning, and FIGS. 6A and 6B illustrate psychological FFM ( A five-dimensional emotion space 930 is constructed based on the Five Factor Model. Therefore, as shown in FIG. 6A, the Gaussian distribution G1 before learning is changed to the Gaussian distribution G2 after learning by the user's education. Therefore, when it is assumed that the same emotion state input value is input, the emotion
一方、図7に示したように、本発明による人工感情学習方法は、(a)内部状態算出部100が外部入力空間910を内部状態空間920にマッピングさせ、外部環境情報を感知して内部状態空間920内に存在する一つの点で内部状態を生成するステップ(S100)を含む。すなわち、本段階では、内部状態座標系の一点に対応する内部状態ベクトル値を算出する。
On the other hand, as shown in FIG. 7, in the artificial emotion learning method according to the present invention, (a) the internal
次いで、(b)内部状態空間920上に多くの種類の感情についての感情確率分布が形成された感情モデルが備えられた感情決定処理部200が、前記内部状態算出部100の入力値を前記内部状態空間920にマッチングさせてロボットの感情値を定めるステップ(S200)を含む。前記(b)ステップでは、n次元の前記内部状態座標系上にJ種の感情についての感情確率分布が形成された感情モデルが備えられる。
Next, (b) an emotion
次いで、(c)動作生成部300が、前記感情決定処理部200で定められた感情値によって感情表現を行うステップ(S300)を含む。
Next, (c) the
最後に、(d)感情学習部400が、前記感情決定処理部200から定められた感情値と、ユーザ入力部500から入力される感情の種類情報とを入力されて、前記感情空間930上に存在する一つのポイントである感情値に対応するフィードバック情報を生成し、前記フィードバック情報を用いて前記感情確率分布を変更するステップ(S400)を含んで構成される。すなわち、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、前記フィードバック情報を用いて、前記内部状態座標系の感情確率分布を変更する。
Finally, (d) the
以上、本発明について図面及び実施形態を挙げて説明したが、本発明は特定の実施形態に限定されず、当業者ならば、本発明の範囲から逸脱せずに多くの修正及び変形が可能であるということを理解できるであろう。また、前記図面は発明の理解を助けるために図示されたものであり、請求範囲を限定すると理解してはならない。 The present invention has been described with reference to the drawings and embodiments. However, the present invention is not limited to the specific embodiments, and those skilled in the art can make many modifications and variations without departing from the scope of the present invention. You will understand that there is. Moreover, the said drawings are shown in order to assist the understanding of the invention, and should not be understood as limiting the scope of the claims.
本発明は、人工感情学習装置関連の技術分野に好適に用いられる。 The present invention is suitably used in a technical field related to an artificial emotion learning apparatus.
1000 人工感情学習装置
100 内部状態算出部
200 感情決定処理部
300 動作生成部
400 感情学習部
500 ユーザ入力部
1000 Artificial
Claims (10)
前記内部状態座標系上に形成された感情確率分布を用いて、前記内部状態算出部で算出された前記内部状態ベクトル値の座標が示す各感情値群内の感情値をロボットの感情として生成する感情決定処理部と、
前記感情決定処理部で定められた前記感情値によって、前記ロボットの動作を定めて感情表現を行う動作生成部と、
前記感情決定処理部から定められた感情値と、ユーザ入力部から入力される感情の種類情報とを入力されて、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、前記フィードバック情報を用いて前記内部状態座標系の感情確率分布を変更する感情学習部と、
前記感情学習部に感情の種類情報を入力するユーザ入力部と、
を備える人工感情学習装置。 An internal state calculation unit that detects external environment information and calculates an internal state vector value corresponding to one point of the internal state coordinate system;
With feelings probability distribution formed on the internal state coordinate system, generating a feeling of the robot emotion value of the internal state calculation section each emotion value in group indicated by the coordinate of the calculated the internal state vector values An emotion decision processing unit,
An action generation unit that determines an action of the robot and expresses an emotion by the emotion value determined by the emotion determination processing unit;
The emotion value determined from the emotion determination processing unit and the emotion type information input from the user input unit are input, and feedback information regarding the emotion value corresponding to one point of the internal state coordinate system is generated, An emotion learning unit that changes the emotion probability distribution of the internal state coordinate system using feedback information;
A user input unit for inputting emotion type information to the emotion learning unit;
Artificial emotion learning device.
ここで、matchj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布のマッチング関数を意味し、δは、マッチング範囲を示し、σj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の標準偏差を示し、xは、前記内部状態座標系の一点を示し、μj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の中央値を示す。 4. The artificial emotion learning apparatus according to claim 3, wherein the matching function (match j, m (k + 1)) satisfies the following expression.
Here, match j, m (k + 1) means a matching function of the mth Gaussian distribution among the jth emotion distributions in k + 1 hours, δ indicates a matching range, and σ j, m (k) is , Indicates the standard deviation of the mth Gaussian distribution among the jth emotion distributions in k hours, x indicates one point of the internal state coordinate system , and μ j, m (k) The median of the mth Gaussian distribution in the emotion distribution is shown.
ここで、ωj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の加重値であり、λは、既定の基本加重値であり、ωj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の加重値であり、μj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の中央値であり、xは、前記内部状態座標系の一点であり、μj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の中央値であり、σ2 j,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の分散であり、σ2 j,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の分散であり、[ ]Tは、転置行列であり、
であり、この時、Σj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の帯域幅である。 When at least one Gaussian distribution is 1 in the matching function, the m-th Gaussian distribution among the j-th emotion distributions for which the matching function is 1 uses the feedback information to calculate the next weight value (ω j , M (k + 1)), median (μ j, m (k + 1)), and variance (σ 2 j, m (k + 1)), the Gaussian distribution is changed. Artificial emotion learning device.
Here, ω j, m (k + 1) is a weight value of the mth Gaussian distribution of the jth emotion distribution in k + 1 hours, λ is a default basic weight value, and ω j, m (k ) Is a weighted value of the mth Gaussian distribution of the jth emotion distribution in k hours, and μ j, m (k + 1) is the center of the mth Gaussian distribution of the jth emotion distribution in k + 1 hours. X is one point of the internal state coordinate system , μ j, m (k) is the median value of the m-th Gaussian distribution of the j-th emotion distribution in k hours, and σ 2 j , M (k + 1) is the variance of the mth Gaussian distribution in the jth emotion distribution at k + 1 time, and σ 2 j, m (k) is the mth of the jth emotion distribution at k time. The variance of the Gaussian distribution, [] T is the transpose matrix,
At this time, Σ j, m (k) is the bandwidth of the m-th Gaussian distribution of the j-th emotion distribution in k hours.
ここで、ωj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の加重値であり、λは、既定の基本加重値であり、ωj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の加重値である。 When at least one Gaussian distribution is 1 in the matching function, the m-th Gaussian distribution among the j-th emotion distributions for which the matching function is 0 uses the feedback information to obtain the following weight value (ω j, The artificial emotion learning apparatus according to claim 4, wherein the Gaussian distribution is changed so as to satisfy m (k + 1)).
Here, ω j, m (k + 1) is a weight value of the mth Gaussian distribution of the jth emotion distribution in k + 1 hours, λ is a default basic weight value, and ω j, m (k ) Is a weighted value of the mth Gaussian distribution of the jth emotion distribution in k hours.
When the matching function is 0 (when there is no matched Gaussian distribution), the emotion learning unit generates a Gaussian distribution that satisfies the following weight value, median, and variance using the feedback information. The artificial emotion learning apparatus according to claim 4.
n次元の内部状態座標系上にj種の感情についての感情確率分布が形成された感情モデルが備えられた感情決定処理部が、前記内部状態算出部で算出された内部状態ベクトル値を前記内部状態座標系にマッチングさせてロボットの感情値を定めるステップと、
動作生成部が、前記感情決定処理部で定められた感情値によって前記ロボットの動作を定めて感情表現を行うステップと、
感情学習部が、前記感情決定処理部から定められた感情値とユーザ入力部から入力される感情の種類情報とを入力されて、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、前記フィードバック情報を用いて前記内部状態座標系の感情確率分布を変更するステップと、
を含む人工感情学習方法。 An internal state calculating unit detecting external environment information, calculating an internal state vector value corresponding to one point of the internal state coordinate system, and generating an internal state;
An emotion determination processing unit provided with an emotion model in which an emotion probability distribution for j types of emotions is formed on an n-dimensional internal state coordinate system, the internal state vector value calculated by the internal state calculation unit as the internal state vector value Matching the state coordinate system to determine the emotional value of the robot;
A step of performing an emotion expression by determining an operation of the robot according to an emotion value determined by the emotion determination processing unit;
The emotion learning unit receives the emotion value determined from the emotion determination processing unit and the emotion type information input from the user input unit, and provides feedback information regarding the emotion value corresponding to one point of the internal state coordinate system. Generating and changing the emotion probability distribution of the internal state coordinate system using the feedback information;
Artificial emotion learning method including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012221460A JP5624100B2 (en) | 2012-10-03 | 2012-10-03 | Artificial emotion learning apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012221460A JP5624100B2 (en) | 2012-10-03 | 2012-10-03 | Artificial emotion learning apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014074997A JP2014074997A (en) | 2014-04-24 |
JP5624100B2 true JP5624100B2 (en) | 2014-11-12 |
Family
ID=50749121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012221460A Active JP5624100B2 (en) | 2012-10-03 | 2012-10-03 | Artificial emotion learning apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5624100B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10733992B2 (en) | 2017-06-14 | 2020-08-04 | Toyota Jidosha Kabushiki Kaisha | Communication device, communication robot and computer-readable storage medium |
US11093734B2 (en) | 2018-01-05 | 2021-08-17 | Samsung Electronics Co., Ltd. | Method and apparatus with emotion recognition |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6273313B2 (en) * | 2016-04-28 | 2018-01-31 | Cocoro Sb株式会社 | Emotion identification system, system and program |
JP2018083269A (en) * | 2016-11-25 | 2018-05-31 | 株式会社Soken | Interaction device and method for disclosing interaction |
CN108510052A (en) * | 2017-02-27 | 2018-09-07 | 顾泽苍 | A kind of construction method of artificial intelligence new neural network |
KR101965372B1 (en) * | 2017-06-12 | 2019-04-03 | 주식회사 아카인텔리전스 | Method for determining emotion of a computer |
JP7152908B2 (en) * | 2018-09-05 | 2022-10-13 | 日本放送協会 | Gesture control device and gesture control program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110002757A (en) * | 2009-07-02 | 2011-01-10 | 삼성전자주식회사 | Emotion model device, apparatus and method for adaptive learning personality of emotion model |
-
2012
- 2012-10-03 JP JP2012221460A patent/JP5624100B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10733992B2 (en) | 2017-06-14 | 2020-08-04 | Toyota Jidosha Kabushiki Kaisha | Communication device, communication robot and computer-readable storage medium |
US11093734B2 (en) | 2018-01-05 | 2021-08-17 | Samsung Electronics Co., Ltd. | Method and apparatus with emotion recognition |
Also Published As
Publication number | Publication date |
---|---|
JP2014074997A (en) | 2014-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5624100B2 (en) | Artificial emotion learning apparatus and method | |
US8972313B2 (en) | Apparatus and method for learning emotion of robot | |
JP4169063B2 (en) | Data processing apparatus, data processing method, and program | |
JP4201012B2 (en) | Data processing apparatus, data processing method, and program | |
KR20130091364A (en) | Apparatus and method for generating emotion of robot | |
Gharavian et al. | Audio-visual emotion recognition using FCBF feature selection method and particle swarm optimization for fuzzy ARTMAP neural networks | |
Harriott et al. | Modeling human performance for human–robot systems | |
Lala et al. | Towards a virtual environment for capturing behavior in cultural crowds | |
US20140170619A1 (en) | Apparatus and method for creating artificial feelings | |
CN111159279A (en) | Model visualization method, device and storage medium | |
US9037526B2 (en) | Apparatus and method for selecting motion signifying artificial feeling | |
He | Robotgpt: From chatgpt to robot intelligence | |
US9117168B2 (en) | Apparatus and method for calculating internal state for artificial emotion | |
JP5521240B1 (en) | Apparatus and method for selecting an artificial emotional expression operation | |
Masuyama et al. | Robotic emotional model with personality factors based on Pleasant-Arousal scaling model | |
Ajili et al. | Expressive motions recognition and analysis with learning and statistical methods | |
CN106845391B (en) | Atmosphere field identification method and system in home environment | |
Wu et al. | An improved vascular model based on mass spring model and parameters optimization by Gaussian processes | |
JP5491599B2 (en) | Internal state calculation device and method for expressing artificial emotion, and recording medium | |
KR20120111453A (en) | Apparatus and method for calculating value of emotion | |
JP2007280057A (en) | Data processor, data processing method, and program | |
Hong | Human-robot interactions for single robots and multi-robot teams | |
Salmeron | Simulating synthetic emotions with fuzzy grey cognitive maps | |
Rajesh et al. | Development of Powered Chatbots for Natural Language Interaction in Metaverse using Deep Learning with Optimization Techniques | |
JP5605661B2 (en) | Artificial emotion generating apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140304 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140603 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140606 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20140702 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20140707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140909 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140925 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5624100 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |