JP5624100B2 - Artificial emotion learning apparatus and method - Google Patents

Artificial emotion learning apparatus and method Download PDF

Info

Publication number
JP5624100B2
JP5624100B2 JP2012221460A JP2012221460A JP5624100B2 JP 5624100 B2 JP5624100 B2 JP 5624100B2 JP 2012221460 A JP2012221460 A JP 2012221460A JP 2012221460 A JP2012221460 A JP 2012221460A JP 5624100 B2 JP5624100 B2 JP 5624100B2
Authority
JP
Japan
Prior art keywords
emotion
internal state
value
distribution
gaussian distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012221460A
Other languages
Japanese (ja)
Other versions
JP2014074997A (en
Inventor
ソク アン、ホ
ソク アン、ホ
ウク イ、ドン
ウク イ、ドン
ヒ ション、ウォン
ヒ ション、ウォン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Korea Academy of Industrial Technology
Original Assignee
Korea Academy of Industrial Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Korea Academy of Industrial Technology filed Critical Korea Academy of Industrial Technology
Priority to JP2012221460A priority Critical patent/JP5624100B2/en
Publication of JP2014074997A publication Critical patent/JP2014074997A/en
Application granted granted Critical
Publication of JP5624100B2 publication Critical patent/JP5624100B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Feedback Control In General (AREA)
  • Artificial Intelligence (AREA)
  • Manipulator (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)

Description

本発明は、人工感情学習装置及び方法に関し、さらに詳細には、学習によりユーザの所望する方式で感情を生成できるロボットの人工感情学習装置及び方法に関する。   The present invention relates to an artificial emotion learning apparatus and method, and more particularly, to an artificial emotion learning apparatus and method for a robot capable of generating an emotion by a method desired by a user through learning.

一般的にロボットの感情は、センサーからの入力により、予め設定された一定数の感情を持つ感情空間の特定位置で生成される感情に限定される。   In general, the emotion of a robot is limited to an emotion generated at a specific position in an emotional space having a predetermined number of emotions by input from a sensor.

図1は、一般的なロボット感情表現方式を示す概略図である。   FIG. 1 is a schematic diagram showing a general robot emotion expression method.

ロボットとして感情を表現させるためには、現在ロボットの感情値を算出しなければならない。感情とは、喜びや悲しみなどの一つの細部感情に定められる場合はほとんどない。人間が現在喜びを感じる場合であっても、驚きの感情と怒りの感情など他の感情が一部反映される。すなわち、感情表現は、複合的な細部感情が反映された結果である。したがって、ロボットを通じて現実的な感情表現を具現化する際には、ロボットに適用する感情値も喜び(happiness)、悲しみ(sadness)、驚き(surprise)、怒り(anger)などの多様な細部感情を反映してベクトルで表すことができる。   In order to express emotions as a robot, the emotion value of the current robot must be calculated. Emotions are rarely defined by a single emotion, such as joy or sadness. Even if humans feel joy now, some other emotions such as surprise emotion and anger emotion are reflected. That is, the emotional expression is a result of reflecting complex detailed emotions. Therefore, when embodying realistic emotional expression through the robot, the emotional value applied to the robot also has various detailed emotions such as happiness, sadness, surprise, anger, etc. It can be reflected and expressed as a vector.

図1のように、一般的にロボットの感情を表現するために2次元または3次元の固定された次元の空間を用い、このような固定された次元の空間上の一定の位置に感情及びその感情に該当する感情表現をマッピングする。感情値は、空間上の一定の位置に該当するベクトル値で表現及び計算できる。   As shown in FIG. 1, generally, a two-dimensional or three-dimensional fixed dimensional space is used to express a robot's emotion, and the emotion and its position are placed at a fixed position on the fixed dimensional space. Map emotional expressions that correspond to emotions. The emotion value can be expressed and calculated as a vector value corresponding to a certain position in space.

すなわち、ベクトル空間上のいろいろな点に対して感情をマッピングしておき、各感情に該当する感情表現を一対一にマッピングした後、特定の感情ベクトルが与えられた場合、前記特定の感情ベクトルと、ベクトル空間上にマッピングされたいろいろな感情のうち距離上最も近い感情の一つを選択して、その感情と一対一にマッピングされた感情を表現する方法を採用してきた。   That is, if emotions are mapped to various points on the vector space, and emotion expressions corresponding to each emotion are mapped one-to-one, then given emotion vectors, A method has been adopted in which one of the emotions mapped in the vector space is selected from the emotions closest in distance, and the emotion mapped one-to-one with the emotion is expressed.

言い換えれば、ベクトル空間上の無数の座標に感情及びその感情に該当する感情表現を手作業でマッピングさせるには限界があるため、従来の図1の方式は、少数の座標を選択して各座標に該当する感情及び感情に該当する感情表現動作をマッピングしておいた後、ロボットの感情状態が反映されて定められた感情ベクトルに最も近い座標の感情を選択し、それによって感情表現を行うものである。   In other words, since there is a limit in manually mapping emotions and emotion expressions corresponding to the emotions to countless coordinates in the vector space, the conventional method of FIG. After mapping the emotions that correspond to the emotions and the emotional expression behaviors that correspond to the emotions, the emotions of the coordinates closest to the emotion vector determined by reflecting the emotional state of the robot are selected, and the emotions are expressed accordingly It is.

例えば、4次元ベクトル空間上の座標1に感情値1{喜び1、悲しみ0、驚き0、怒り0}を表すように設定されており、感情値2{喜び3/4、悲しみ1/4、驚き0、怒り0}と感情値3{喜び3/4、悲しみ0、驚き1/4、怒り0}とが他の感情を表現する座標より座標1に近い場合、感情値1、2、3は、いずれも座標1に設定された感情表現を行うようになる。   For example, it is set to express an emotion value 1 {joy 1, sadness 0, surprise 0, anger 0} at coordinates 1 on a four-dimensional vector space, and emotion value 2 {joy 3/4, sadness 1/4, If surprise 0, anger 0} and emotion value 3 {joy 3/4, sadness 0, surprise 1/4, anger 0} are closer to coordinate 1 than coordinates expressing other emotions, emotion values 1, 2, 3 All perform the emotional expression set at the coordinate 1.

このように、従来の方式は、内部的に実際に生成された感情値が相異なるにもかかわらず、選択される感情値は、座標1にマッピングされた感情値のうち最も類似した一つのみ選択され、同じ座標の感情値を基準として感情表現動作を選択するため、一般的に表現機関を通じて表現される形態も同一である。   As described above, in the conventional method, although the emotion value actually generated internally is different, the emotion value to be selected is only one of the most similar emotion values mapped to the coordinate 1. Since the emotion expression operation is selected based on the emotion value of the same coordinate selected, the form generally expressed through the expression organization is the same.

さらに詳細な説明のために、図2を活用する。図2は、従来の感情状態入力値からロボットの感情を生成する過程を説明するための概略図である。図2では、説明の便宜のために1次元感情座標系を使用した。   For more detailed explanation, FIG. 2 is used. FIG. 2 is a schematic diagram for explaining a process of generating a robot emotion from a conventional emotion state input value. In FIG. 2, a one-dimensional emotion coordinate system is used for convenience of explanation.

感情座標系で、座標1に喜びの基本感情を配し、座標−1に悲しみの基本感情を配した場合を仮定する。入力値が0.3ならば、0.3に最も近い基本感情を抽出する。図2の場合、0.3は−1より1に近いので、喜びの基本感情が抽出される。喜びの基本感情は、感情座標系で座標1であるため、最終的にロボットの感情は座標1になる。   In the emotion coordinate system, it is assumed that a basic emotion of joy is arranged at coordinate 1, and a basic emotion of sadness is arranged at coordinate-1. If the input value is 0.3, the basic emotion closest to 0.3 is extracted. In the case of FIG. 2, since 0.3 is closer to 1 than −1, the basic emotion of joy is extracted. Since the basic emotion of joy is coordinate 1 in the emotion coordinate system, the emotion of the robot eventually becomes coordinate 1.

前記のような感情発生方式によれば、入力値が0.5であるとしても、入力値が0.3である場合と同じく、最終ロボットの感情は、座標1になる。   According to the emotion generation method as described above, even if the input value is 0.5, the emotion of the final robot is coordinate 1 as in the case where the input value is 0.3.

したがって、前述した感情発生方式によって生成されたロボットの感情を入力されて目、口、ジェスチャーなどを表現する感情表現装置の場合では、感情状態入力値が0.3、0.5などと相異なっても同じ座標1をロボットの感情と表現する。したがって、従来のほとんどのロボットでは、入力値が異なっても同じ感情表現がなされる。   Therefore, in the case of an emotion expression device that expresses eyes, mouth, gestures, etc. by inputting the robot emotion generated by the emotion generation method described above, the emotion state input value is different from 0.3, 0.5, etc. However, the same coordinate 1 is expressed as the emotion of the robot. Therefore, most conventional robots express the same emotion even if the input values are different.

ところが、このように従来によるロボットの感情生成装置は、同じ入力に対して常に同じ感情を生成するので、ユーザの性向によって願わない感情が現われる場合、ロボットと共感できなくなり、ロボットへの興味が半減するという問題点が生じていた。   However, since the conventional robot emotion generation device always generates the same emotion in response to the same input in this way, if an undesired emotion appears depending on the user's tendency, it becomes impossible to sympathize with the robot, and the interest in the robot is halved. There was a problem of doing.

Miwa H.,et al.,"Effective emotional expressions with expression humanoid robot WE-4RII:integration of humanoid robot hand RCH-1," In Proceedings of 2004 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS 2004),vol.3,pp.2203-2208,2004.Miwa H., et al., "Effective emotional expressions with expression humanoid robot WE-4RII: integration of humanoid robot hand RCH-1," In Proceedings of 2004 IEEE / RSJ International Conference on Intelligent Robots and Systems (IROS 2004), vol .3, pp. 2203-2208, 2004. C.Breazeal,"Function meets style: insights from emotion theory applied to HRI," IEEE Transactions on Systems, Man and Cybernetics, Part C:Applications and Reviews,Vol.34,no.2,pp.187-194,2004.C. Breazeal, "Function meets style: insights from emotion theory applied to HRI," IEEE Transactions on Systems, Man and Cybernetics, Part C: Applications and Reviews, Vol.34, no.2, pp.187-194, 2004. Park Jeong-Woo,Lee Hui-Sung,Jo Su-Hun,and Chung Myung-Jin,"Dynamic Emotion Model in 3D Affect Space for a Mascot-Type Facial Robot," In Proceedings of the 2nd Korea Robot Society Annual Conference,2007.Park Jeong-Woo, Lee Hui-Sung, Jo Su-Hun, and Chung Myung-Jin, "Dynamic Emotion Model in 3D Affect Space for a Mascot-Type Facial Robot," In Proceedings of the 2nd Korea Robot Society Annual Conference, 2007 . Christian Becker,Stefan Kopp,and Ipke Wachsmuth,"Simulating the Emotion Dynamics of a Multimodal Conversational Agent," In Proceedings Tutorial and Research Workshop on Affective Dialogue Systems,pp.154-165,2004.Christian Becker, Stefan Kopp, and Ipke Wachsmuth, "Simulating the Emotion Dynamics of a Multimodal Conversational Agent," In Proceedings Tutorial and Research Workshop on Affective Dialogue Systems, pp.154-165, 2004.

前記のような問題点を解決するために、ユーザによる学習を通じて感情空間上に配置された感情の分布を変更することで、ユーザの所望する感情を生成できるロボットの学習可能な人工感情学習装置及び方法を提供するところにその目的がある。   In order to solve the problems as described above, an artificial emotion learning device capable of learning a robot capable of generating a user's desired emotion by changing the distribution of emotion arranged in the emotion space through learning by the user, and Its purpose is to provide a method.

前記課題を解決するために、本発明による人工感情学習装置は、外部環境情報を感知して内部状態座標系の一点に対応する内部状態ベクトル値を算出する内部状態算出部と、前記内部状態座標系上でロボットの内部状態入力値の座標が示す各感情値群内の感情値を前記ロボットの感情として生成する感情決定処理部と、前記感情決定処理部で定められた前記感情値によって、前記ロボットの動作を定めて感情表現を行う動作生成部と、前記感情決定処理部から定められた感情値と、ユーザ入力部から入力される感情の種類情報とを入力されて、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、前記フィードバック情報を用いて前記内部状態座標系の感情確率分布を変更する感情学習部と、前記感情学習部に感情の種類情報を入力するユーザ入力部とを備える。ここで、前記感情確率分布は、加重値、中央値、分散を持つ一つのガウス分布であるか、または複数の前記ガウス分布が合成されたガウス分布であることが望ましい。   In order to solve the above problems, an artificial emotion learning apparatus according to the present invention includes an internal state calculation unit that detects external environment information and calculates an internal state vector value corresponding to one point of an internal state coordinate system, and the internal state coordinates. The emotion determination processing unit for generating an emotion value in each emotion value group indicated by the coordinates of the internal state input value of the robot on the system as the emotion of the robot, and the emotion value determined by the emotion determination processing unit, The internal state coordinate system is configured to receive an action generation unit that defines an action of the robot and expresses emotion, an emotion value determined from the emotion determination processing unit, and emotion type information input from a user input unit. An emotion learning unit that generates feedback information related to an emotion value corresponding to one point, and changes the emotion probability distribution of the internal state coordinate system using the feedback information; and the emotion learning unit And a user input unit for inputting information about the type of information. Here, it is preferable that the emotion probability distribution is a single Gaussian distribution having a weight value, a median value, and a variance, or a Gaussian distribution obtained by combining a plurality of the Gaussian distributions.

特に、前記感情学習部は、マッチング関数を用いて前記フィードバック情報に対応するガウス分布を検索してガウス分布を変更することを特徴とする。   In particular, the emotion learning unit may search for a Gaussian distribution corresponding to the feedback information using a matching function and change the Gaussian distribution.

一方、前記課題を解決するために、本発明による人工感情学習方法は、内部状態算出部が外部環境情報を感知して、内部状態座標系の一点に対応する内部状態ベクトル値を算出して内部状態を生成するステップと、n次元の内部状態座標系上にj種の感情についての感情確率分布が形成された感情モデルが備えられた感情決定処理部が、前記内部状態算出部の入力値を前記内部状態座標系にマッチングさせてロボットの感情値を定めるステップと、動作生成部が、前記感情決定処理部で定められた感情値によって前記ロボットの動作を定めて感情表現を行うステップと、感情学習部が、前記感情決定処理部から定められた感情値とユーザ入力部から入力される感情の種類情報とを入力されて、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、前記フィードバック情報を用いて前記内部状態座標系の感情確率分布を変更するステップとを含む。   On the other hand, in order to solve the above problem, the artificial emotion learning method according to the present invention is such that the internal state calculation unit senses external environment information and calculates an internal state vector value corresponding to one point of the internal state coordinate system. An emotion determination processing unit including a state generation step and an emotion model in which an emotion probability distribution for j types of emotions is formed on an n-dimensional internal state coordinate system; and an input value of the internal state calculation unit A step of determining an emotion value of the robot by matching with the internal state coordinate system; a step of expressing an emotion by determining an operation of the robot by an emotion value determined by the emotion determination processing unit; The learning unit receives the emotion value determined from the emotion determination processing unit and the emotion type information input from the user input unit, and relates to the emotion value corresponding to one point of the internal state coordinate system. It generates feedback information that includes a step of changing the emotion probability distribution of the internal state coordinate system by using the feedback information.

本発明によれば、ユーザの学習を通じて感情空間上に配置された感情の分布を変更することで、ユーザの所望する感情を生成できる。したがって、ユーザの性向に合わせて共感できる感情を示すようにして、ロボットへの興味を高めることができる。   ADVANTAGE OF THE INVENTION According to this invention, the emotion which a user desires can be produced | generated by changing the distribution of the emotion arrange | positioned on emotion space through a user's learning. Therefore, it is possible to increase the interest in the robot by showing emotions that can be sympathized with the user's tendency.

一般的なロボットの感情モデルを示す概略図である。It is the schematic which shows the emotion model of a general robot. 従来の技術による感情空間上で、感情状態入力値からロボットの感情を生成する過程を示す一実施形態の図面である。6 is a diagram illustrating an embodiment of a process of generating a robot emotion from an emotion state input value in an emotion space according to a conventional technique. 本発明による人工感情学習装置を示す構成図である。It is a block diagram which shows the artificial emotion learning apparatus by this invention. 本発明による人工感情学習装置の各構成及び各構成間の空間を示す構成図である。It is a block diagram which shows each structure of the artificial emotion learning apparatus by this invention, and the space between each structure. 本発明の一実施形態に採用可能な感情確率分布を示す概略図である。It is the schematic which shows the emotion probability distribution employable for one Embodiment of this invention. 本発明の一実施形態による1次元感情空間上に、同一感情についての2個のガウス分布が合成された感情確率分布を持つ感情モデルを示す図面である。3 is a diagram illustrating an emotion model having an emotion probability distribution in which two Gaussian distributions of the same emotion are combined on a one-dimensional emotion space according to an embodiment of the present invention. 本発明の一実施形態による1次元感情空間上に、他の感情に対して2個の感情確率分布を持つ感情モデルを示す図面である。3 is a diagram illustrating an emotion model having two emotion probability distributions for other emotions on a one-dimensional emotion space according to an embodiment of the present invention. 本発明による内部状態算出装置を示す概念図である。It is a conceptual diagram which shows the internal state calculation apparatus by this invention. 本発明による内部状態算出方法を示す概念図である。It is a conceptual diagram which shows the internal state calculation method by this invention. 本発明の一実施形態による感情モデルを示す概略図である。It is the schematic which shows the emotion model by one Embodiment of this invention. 本発明の一実施形態による、学習によって変更された感情モデルを示す概略図である。It is the schematic which shows the emotion model changed by learning by one Embodiment of this invention. 本発明の一実施形態による人工感情学習方法のフローチャートである。3 is a flowchart of an artificial emotion learning method according to an embodiment of the present invention.

以下、添付した図面を参照して本発明の実施形態を詳しく説明する。   Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図3A及び図3Bは、本発明が適用される生成的確率モデル(Generative Probability Model)を用いた人工感情学習装置1000を示す構成図である。   3A and 3B are block diagrams showing an artificial emotion learning apparatus 1000 using a generative probability model to which the present invention is applied.

先ず、図3A及び図3Bを参照して、全体的な人工感情学習装置1000の構成について説明する。   First, the overall configuration of the artificial emotion learning apparatus 1000 will be described with reference to FIGS. 3A and 3B.

図3A及び図3Bに示すように、人工感情学習装置1000は、生成的確率モデル基盤の人工感情を学習するため、4つの空間である外部入力空間910、内部状態空間920、感情空間930、動作空間940と、マッピングプロセスなどを行う4つの構成である内部状態算出部100、感情決定処理部200、動作生成部300、感情学習部400及びユーザ入力部500で構成される。   As shown in FIG. 3A and FIG. 3B, the artificial emotion learning apparatus 1000 learns artificial emotions based on a generative probability model, so that four spaces are an external input space 910, an internal state space 920, an emotion space 930, and an operation. The space 940 is configured by an internal state calculation unit 100, an emotion determination processing unit 200, an action generation unit 300, an emotion learning unit 400, and a user input unit 500, which are four components that perform a mapping process and the like.

先ず、外部入力空間(External Input Space)910は、顔表情、ジェスチャー、口調などの外部で感知された情報を用いたベクトル空間で構成される。   First, an external input space (External Input Space) 910 includes a vector space using information sensed externally such as facial expressions, gestures, and tone.

内部状態空間(Internal State Space)920は、性格の5要因模型(The Five-Factor Model)により構成され、性格の5要因は、開放性(openness to experience)、誠実性(conscientiousness)、外向性(extraversion)、親和性(agreeableness)、神経症的傾向性(neuroticism)で形成される。   The internal state space 920 is composed of the five-factor model of personality, and the five factors of personality are openness to experience, conscientiousness, extroversion ( It is formed with extraversion, agreeability, and neuroticism.

内部状態空間920は、性格の5要因のうち一つ以上を使った1次元以上の感情空間930としても構成でき、性格の5要因のうち一つ以上と、それ以外の要因とを合わせて感情空間930としても構成できる。また、性格の5要因のうち一つも使わず、他の要因を用いて構成された感情空間930など、いかなる要因で構成された感情空間930であってもよく、いずれも適用できる。   The internal state space 920 can also be configured as a one-dimensional or higher emotion space 930 using one or more of the five personality factors, and the emotional state is obtained by combining one or more of the five personality factors with the other factors. The space 930 can also be configured. Further, the emotion space 930 may be configured by any factor, such as an emotion space 930 configured using other factors without using one of the five factors of personality, and any of them can be applied.

内部状態空間920は、人格や感情を持つロボットが特定外部入力に対して反応するための基礎的な内部状態を構成するために導入される概念である。さらに詳細には、同じ外部入力や刺激があったとしても、それぞれの人間は、成長してきた背景や環境によって反応する程度、すなわち、生成される感情が相異なり、かかる相異なる感情に基づいて究極的な自分の感情を外部に表出する。   The internal state space 920 is a concept introduced to construct a basic internal state for a robot having a personality and emotion to react to a specific external input. More specifically, even if there is the same external input or stimulus, each human being reacts according to the background and environment that has grown, that is, the emotions generated are different, and the ultimate is based on such different emotions. Express your own emotions to the outside.

例えば、暴力的な環境に長く露出された人間とそうでない人間とに同じ程度の外部刺激を入力させた場合に、前者は内部状態、すなわち、性格が非常に鋭い状態である可能性が高く、かかる状態に基づいて感情を生成する可能性が高い一方、後者はそうでない可能性が高い。   For example, when the same external stimulus is input to a person who has been exposed to a violent environment for a long time and a person who is not, the former is likely to have an internal state, that is, a very sharp personality, While the likelihood of generating an emotion based on such a state is high, the latter is likely not.

感情空間(Emotion Space)930は、幸せ、驚き、悲しみ、恋、嫌さ、恐れ、怒りなどの感情の大きさ程度に基づいたベクトル空間で構成される。   The emotion space 930 is composed of a vector space based on the magnitude of emotion such as happiness, surprise, sadness, love, dislike, fear, and anger.

動作空間(Behavior Space)940は、口、目、頭などのそれぞれの感情表現機関の微笑む口、口開けなどの最も小さな動作を示す単位動作(Unit Behavior)の量に基づいたベクトル空間で構成される。   The behavior space 940 is composed of a vector space based on the amount of unit behavior indicating the smallest motion such as a mouth, mouth opening, etc. of each emotion expression organization such as the mouth, eyes, and head. .

図3A及び図3Bの内部状態算出部100は、内部プロセス(internal process)として内部状態を計算し、外部入力空間910から内部状態空間920にマッピングし、内部状態空間920及び次元(Dimension)を定義する。内部状態とは、外部入力を使う内部状態空間920内の一点を意味する。   3A and 3B calculates an internal state as an internal process, maps it from the external input space 910 to the internal state space 920, and defines the internal state space 920 and dimensions (Dimension). To do. The internal state means a point in the internal state space 920 that uses an external input.

従来技術による内部状態空間920は、心理学的研究に基づいたものにもかかわらず任意に修正された。また、内部プロセスの結果は、内部状態空間920上の一点であるため、内部プロセスは、状態空間と連結されなければならない。しかし、従来技術は、ユーザの経験によって任意に内部プロセスが内部状態空間920と連結されるという問題点があった。   Prior art internal state space 920 was arbitrarily modified despite being based on psychological studies. Also, since the result of the internal process is a point on the internal state space 920, the internal process must be connected to the state space. However, the conventional technique has a problem in that an internal process is arbitrarily connected to the internal state space 920 according to a user's experience.

本発明では、心理学の研究である性格の5要因模型(The Five-Factor Model)に基づいて内部状態空間920を構成する。性格の5要因模型は、心理学的に人間の性格を説明するために導入したものであり、当業者には周知であるので、本発明では詳しい説明を略す。   In the present invention, the internal state space 920 is constructed based on the five-factor model of personality, which is a study of psychology. The five-factor model of personality is introduced to explain the human personality psychologically, and is well known to those skilled in the art, so a detailed description is omitted in the present invention.

内部プロセスは、性格の5要因模型の測定方法であるNEO−PI−R(the Revised NEO Personality Inventory)を使用して構成される。もちろん、前述したように、内部プロセスは、NEO−PI−Rと異なるものを使って構成してもよい。NEO−PI−Rは、下記で後述する。   The internal process is configured using NEO-PI-R (the Revised NEO Personality Inventory), which is a method of measuring a personality five-factor model. Of course, as described above, the internal process may be configured using a different one from NEO-PI-R. NEO-PI-R will be described later.

図3A及び図3Bの感情決定処理部200は、感情決定プロセス(Emotion Decision Process)として、内部状態空間920で感情空間930にマッピングされる感情ベクトルe(k)を選択する。   The emotion determination processing unit 200 in FIGS. 3A and 3B selects an emotion vector e (k) mapped to the emotion space 930 in the internal state space 920 as an emotion determination process.

従来技術は、内部状態空間920が、感情を分類する固定された複数の区域に配されたため、年齢や文化的背景の差を反映し難かった。また、心理学研究ごとに、基本感情の定義とその数が異なるという問題点があった。   In the prior art, since the internal state space 920 is arranged in a plurality of fixed areas for classifying emotions, it is difficult to reflect differences in age and cultural background. In addition, there was a problem that the definition and number of basic emotions differed for each psychological study.

しかし、本発明は、感情空間930上に混合ガウス分布(GMM、Gaussian Mixture Model)を用いた感情確率方法を設定し、ユーザのフィードバックにより感情確率を更新する。従来技術のように、ただ一つの感情のみ選択するものではなく、本発明では、あらゆる感情上に分布された確率値を通じて感情ベクトルe(k)を選択する。   However, the present invention sets an emotion probability method using a mixed Gaussian distribution (GMM, Gaussian Mixture Model) on the emotion space 930, and updates the emotion probability by user feedback. In the present invention, the emotion vector e (k) is selected through probability values distributed over all emotions.

図3A及び図3Bの動作生成部300は、動作生成プロセス(Behavior Generation Process)として、ロボットの動作を生成するために、感情空間930から動作空間940にマッピングする。   The motion generation unit 300 in FIGS. 3A and 3B maps the emotion space 930 to the motion space 940 in order to generate a motion of the robot as a behavior generation process.

従来には、動作および感情間の既定の1:1マッピングを用いてロボットの行動や動作を選択した。したがって、既存のロボットは、同じ外部入力などが与えられる場合に常に同じ動作を表現した。また、生成された一つの動作は一つの感情のみ反映するため、ロボットは、簡単かつ断片的な動作のみ表現するしかなかった。   In the past, robot behavior and actions were selected using a predetermined 1: 1 mapping between actions and emotions. Therefore, the existing robot always expressed the same movement when the same external input or the like is given. Moreover, since one generated motion reflects only one emotion, the robot has to express only simple and fragmented motion.

本発明では、ロボットの最も蓋然性の高い動作を定めるために、単位動作及び確率感情値を考慮した多様な動作を生成するための動作生成プロセスの概念を導入する。   In the present invention, in order to determine the most probable motion of the robot, the concept of a motion generation process for generating various motions in consideration of the unit motion and the probability emotion value is introduced.

以下、生成的確率モデルに基づいた感情決定プロセスのうち内部状態の生成についてそれぞれ分説する。   Hereinafter, the generation of the internal state in the emotion determination process based on the generative probability model will be described.

先ず、内部状態生成に関して図3A及び図3Bに示すように、本発明の生成的確率モデルを用いる人工感情学習装置1000は、内部プロセスと、学習方法(learning scheme)を持つ感情決定プロセスとの2つのプロセスを含む。   First, as shown in FIG. 3A and FIG. 3B regarding the internal state generation, the artificial emotion learning apparatus 1000 using the generative probability model of the present invention has two processes: an internal process and an emotion determination process having a learning scheme. Includes one process.

内部プロセス(internal process)は、外部入力空間910を内部状態空間920にマッピングさせ、内部状態空間920内に存在する一つの点で内部状態を生成する。内部プロセスは、性格の5要因模型を測定するために開発された方法であるNEO−PI−R(Revised NEO Personality Inventory)を使ってモデリングされる。   The internal process maps the external input space 910 to the internal state space 920, and generates an internal state at one point existing in the internal state space 920. The internal process is modeled using NEO-PI-R (Revised NEO Personality Inventory), a method developed to measure a five-factor model of personality.

前述したように、性格の5要因模型は、個人の性格を説明する模型であり、個人の性格を説明するために次の5側面の個性を含む。5要因として、開放性(openness to experience)、誠実性(conscientiousness)、外向性(extraversion)、親和性(agreeableness)、神経症的傾向性(neuroticism)がある。   As described above, the five-factor model of personality is a model for explaining an individual's personality, and includes the following five aspects of personality for explaining the personality of an individual. The five factors are openness to experience, conscientiousness, extraversion, agreeableness, and neuroticism.

また、NEO−PI−Rは、心理学的人格検査方法であり、性格の5要因模型の測定方法として使われる。NEO−PI−R実験は、性格の5要因模型の各要因の面(facet)であると知られている6つの下位要素(面)を含んでおり、これらを測定できる。   NEO-PI-R is a psychological personality test method and is used as a measurement method for a five-factor model of personality. The NEO-PI-R experiment includes six subelements (faces) known to be the facets of each factor in the personality five-factor model, and these can be measured.

NEO−PI−Rでは、下記のように上位要素当たり6個の下位要素で形成される。
・開放性(openness to experience) : 想像(fantasy)、審美性(aesthetics)、感じ(feelings)、行動(actions)、思考(ideas)、価値(values)
・誠実性(conscientiousness) : 有能感(competence)、整然性(order)、充実性(dutifulness)、成就追求(achievement striving)、自己規制(self-discipline)、慎重性(deliberation)
・外向性(extraversion) : 温情(warmth)、社交性(gregariousness)、主張(assertiveness)、活動性(activity)、刺激追求(excitement seeking)、肯定的情緒(positive emotion)
・親和性(agreeableness) : 信頼性(trust)、率直性(straightforwardness)、利他性(altruism)、順応性(compliance)、謙虚(modesty)、同情(tender mindedness)
・神経症的傾向性(neuroticism) : 不安(anxiety)、敵対感(hostility)、憂鬱(depression)、自意識(self-consciousness)、衝動性(impulsiveness)、ストレス脆弱性(vulnerability to stress)
In NEO-PI-R, it is formed of 6 subelements per upper element as follows.
・ Openness to experience: fantasy, aesthetics, feelings, actions, ideas, values
・ Conscientiousness: competence, order, dutifulness, achievement striving, self-discipline, deliberation
・ Extraversion: warmth, sociality, assertiveness, activity, excitement seeking, positive emotion
・ Agreeableness: trust, straightforwardness, altruism, compliance, modesty, tender mindedness
・ Neuroticism: anxiety, hostility, depression, self-consciousness, impulsiveness, stress vulnerability (vulnerability to stress)

図3A及び図3Bのu(k)は、外部入力ベクトル(external input vector)と定義され、外部入力ベクトルu(k)の要素は、顔の表情、ジェスチャー及び口調などの外部入力状態を指示する。また、前記外部入力ベクトルu(k)は、S個の外部入力があるS次元の外部入力空間910に存在する。   In FIG. 3A and FIG. 3B, u (k) is defined as an external input vector, and elements of the external input vector u (k) indicate external input states such as facial expressions, gestures, and tone. . The external input vector u (k) exists in an S-dimensional external input space 910 having S external inputs.

x(k)は、内部状態ベクトル(internal state vector)と定義され、内部状態ベクトルx(k)の要素は、性格の5要因模型に基づいて、内部状態空間920上に開放性、誠実性、外向性、親和性、神経症的傾向性の5要因の状態を表す。   x (k) is defined as an internal state vector, and the elements of the internal state vector x (k) are based on a five-factor model of character, and are open, honest, It represents the five factors of extroversion, affinity and neurotic tendency.

外部入力ベクトルu(k)は、内部プロセスの入力となり、内部状態ベクトルx(k)は、内部プロセスの出力となる。もし、所定時間の間に外部入力がない場合、内部状態は、感情状態が中立である0に収まる。   The external input vector u (k) becomes an input of the internal process, and the internal state vector x (k) becomes an output of the internal process. If there is no external input for a predetermined time, the internal state falls within 0 where the emotional state is neutral.

感情決定プロセス(emotion decision process)は、内部状態空間920から感情空間930にマッピングするプロセスであり、感情空間930上に存在する一点である感情ベクトルe(k)を生成する。本発明では、内部状態空間920上に分布する感情確率分布を設定し、学習により感情確率分布を更新する。   The emotion decision process is a process of mapping from the internal state space 920 to the emotion space 930, and generates an emotion vector e (k) that is one point existing on the emotion space 930. In the present invention, an emotion probability distribution distributed on the internal state space 920 is set, and the emotion probability distribution is updated by learning.

e(k)は、感情ベクトル(emotion vector)と定義され、感情ベクトルe(k)を構成する要素は、該当要素が示す感情の確率サイズを表す。感情空間930は、J次元であり、前記Jは、感情の数を表す。   e (k) is defined as an emotion vector, and an element constituting the emotion vector e (k) represents the probability size of the emotion indicated by the corresponding element. The emotion space 930 has a J dimension, where J represents the number of emotions.

内部状態ベクトルx(k)は、感情決定プロセスに入力され、感情ベクトルe(k)は、感情決定プロセスから出力される。内部状態ベクトルx(k)が感情決定プロセスに入力されれば、内部状態空間920に分布された感情確率分布を用いてそれぞれの感情確率が定められ、感情ベクトルe(k)は、あらゆる感情に対して確率を持つように定められる。   The internal state vector x (k) is input to the emotion determination process, and the emotion vector e (k) is output from the emotion determination process. When the internal state vector x (k) is input to the emotion determination process, the emotion probability is determined using the emotion probability distribution distributed in the internal state space 920, and the emotion vector e (k) On the other hand, it is determined to have a probability.

動作生成部300は、感情決定処理部200で定められた感情ベクトルe(k)によって感情表現を行う。前記動作生成部300は、ロボットの顔表情処理、音声出力処理、ロボットの腕、足、胴などを用いた動作処理などを行える。一方、動作生成部300は、本発明の主な観点ではないので、詳しい説明は略す。   The motion generation unit 300 performs emotional expression using the emotion vector e (k) determined by the emotion determination processing unit 200. The motion generation unit 300 can perform robot facial expression processing, voice output processing, motion processing using a robot arm, legs, torso, and the like. On the other hand, since the motion generation unit 300 is not the main aspect of the present invention, detailed description thereof is omitted.

感情学習部400は、前記感情決定処理部200から定められた感情ベクトルe(k)と、ユーザ入力部500から入力される感情種類情報e(k)とを入力されて、前記感情空間930上に存在する一点である感情ベクトルe(k)に対応するフィードバック情報を生成し、前記フィードバック情報を用いて前記感情確率分布を変更する。すなわち、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、前記フィードバック情報を用いて前記内部状態座標系の感情確率分布を変更する。 The emotion learning unit 400 receives the emotion vector e (k) determined from the emotion determination processing unit 200 and the emotion type information e d (k) input from the user input unit 500, and the emotion space 930 Feedback information corresponding to the emotion vector e (k), which is one point existing above, is generated, and the emotion probability distribution is changed using the feedback information. That is, feedback information regarding an emotion value corresponding to one point of the internal state coordinate system is generated, and the emotion probability distribution of the internal state coordinate system is changed using the feedback information.

ユーザ入力部500は、前記感情学習部400に感情の種類情報を入力する。   The user input unit 500 inputs emotion type information to the emotion learning unit 400.

図4Aは、本発明の一実施形態に採用可能な感情確率分布を示す概略図である。   FIG. 4A is a schematic diagram showing an emotion probability distribution that can be employed in an embodiment of the present invention.

先ず、図4Aに関して説明すれば、図4Aは、内部状態空間920を示す座標であり、心理学のFFM(Five Factor Model)に基づいて5次元の内部状態(開放性(openness to experience)、誠実性(conscientiousness)、外向性(extraversion)、親和性(agreeableness)、神経症的傾向性(neuroticism))空間を構成したものであり、図4A上に示した同じ質感の円錐形状は、それぞれの感情を示すものである。すなわち、一つの円錐形状は、一つの感情確率分布を示すものである。図4Aに示したように、外向性と親和性というロボットの基本内部状態軸に近いところに、G1という感情を表す確率分布曲線が描かれている。   First, referring to FIG. 4A, FIG. 4A is a coordinate indicating the internal state space 920, based on a psychological FFM (Five Factor Model), a five-dimensional internal state (openness to experience, sincerity). Conscientiousness, extraversion, agreeableness, neuroticism space, and the conical shape of the same texture shown in FIG. Is shown. That is, one conical shape indicates one emotion probability distribution. As shown in FIG. 4A, a probability distribution curve representing an emotion of G1 is drawn at a position close to the basic internal state axis of the robot of outwardness and affinity.

ここで、一つの感情分布は、複数のガウス分布G1またはガウスモードを持っている一つの生成的確率モデルとして表現され、感情空間930は、体積空間を形成する複数の生成的確率モデルとして表現される。この時、体積空間は、基本感情の座標で最も大きく、基本感情の座標から遠ざかるほど徐々に減少する複数の感情値で表現される。そして、感情値は感情を表す大きさである。例えば、純粋に喜びの感情のみがある場合を仮定する時、同じ喜びでも喜びの大きさが異なる。このように喜びの大きさを表現するためのものが感情値である。   Here, one emotion distribution is expressed as one generative probability model having a plurality of Gaussian distributions G1 or Gaussian modes, and the emotion space 930 is expressed as a plurality of generative probability models forming a volume space. The At this time, the volume space is represented by a plurality of emotion values that are the largest in the coordinates of the basic emotion and gradually decrease as the distance from the coordinates of the basic emotion increases. The emotion value is a size representing emotion. For example, assuming that there is purely a feeling of joy, the magnitude of joy differs even with the same joy. The emotional value is used to express the magnitude of joy.

基本感情は、ユーザがロボットに付与した感情であり、喜び、悲しみ、怒り、驚き、恐れなどのように定義できる。これらの基本感情は、ロボットの内部状態空間座標系上に設定される。   The basic emotion is an emotion given to the robot by the user and can be defined as joy, sadness, anger, surprise, fear, and the like. These basic emotions are set on the internal state space coordinate system of the robot.

感情値群は多様に設定され、これらの感情値群で生成された体積空間の形状は、ロボットの性格や性向と現れる。例えば、図4Aに示したように、同じ質感の円錐は同じ感情を表し、各円錐の形態はロボットごとに異なるので、すなわち、これはロボットの固有性格になる。また、感情値群の設定時に基本感情の座標における感情値を最も大きくし、基本感情の座標から遠ざかるほど感情値を徐々に低減させるのが自然な感情表現に有利であるが、必ずしもこれに限定される必要はない。   Various emotion value groups are set, and the shape of the volume space generated by these emotion value groups appears as the personality and propensity of the robot. For example, as shown in FIG. 4A, cones with the same texture represent the same emotion, and the form of each cone is different for each robot, that is, this becomes the uniqueness of the robot. In addition, it is advantageous for natural emotional expression to increase the emotion value at the basic emotion coordinates at the time of setting the emotion value group, and gradually reduce the emotion value as it moves away from the basic emotion coordinates. There is no need to be done.

一方、感情値群は、内部状態入力値に基づいて生成される。ロボットが感情表現をするためには、初期に外部の刺激が必要である。かかる刺激は、ロボットに設けられた感情関連センサーにより感知され、センサーの感知結果は、ロボットが持っている内部状態空間920の座標系上で表現できるデータに加工される。このように加工されたデータが内部状態入力値になりうる。また、感情値群を内部状態入力値によって変動させることで、ダイナミックな感情表現が可能になる。   On the other hand, the emotion value group is generated based on the internal state input value. In order for the robot to express emotions, external stimuli are necessary at an early stage. Such a stimulus is detected by an emotion-related sensor provided in the robot, and the detection result of the sensor is processed into data that can be expressed on the coordinate system of the internal state space 920 that the robot has. Data processed in this way can be an internal state input value. Also, dynamic emotion expression can be achieved by changing the emotion value group according to the internal state input value.

前記内部状態算出部100が、ロボットに設けられた感情関連センサーによって外部環境情報、すなわち、外部刺激を感知し、座標系上で表現できるデータに加工する役割を行う。ここで、外部刺激は、音声認識(言葉の意味、音の大きさなど)、映像認識(人間の認識、物体の認識、色相の認識など)、各種センサー値(タッチセンサーの位置値、強度、距離移動量、温度、湿度など)など人間が認知できるすべての刺激を使うことができる。   The internal state calculation unit 100 senses external environment information, that is, an external stimulus by an emotion-related sensor provided in the robot, and processes it into data that can be expressed on a coordinate system. Here, external stimuli are voice recognition (meaning of words, loudness, etc.), video recognition (human recognition, object recognition, hue recognition, etc.), various sensor values (touch sensor position value, intensity, All stimuli that humans can recognize, such as distance traveled, temperature, humidity, etc.) can be used.

学習能力が付与されたロボットの場合、学習によって喜びの感情座標が変動、追加、削除される。例えば、図4Bに示すように、喜びの座標1以外に学習によって喜びの座標0.5が追加される。このような場合、同じ感情が2つであるので、これを組み合わせて一つの感情値群に示す。これについては、感情学習部400で詳しく後述する。   In the case of a robot to which learning ability is given, emotion coordinates of pleasure are changed, added, or deleted by learning. For example, as shown in FIG. 4B, in addition to the pleasure coordinate 1, a pleasure coordinate 0.5 is added by learning. In such a case, since there are two same emotions, they are combined and shown in one emotion value group. This will be described in detail later in the emotion learning unit 400.

図4Bは、各感情値群が基本感情の座標を中心とするガウス曲線を形成する場合を示し、喜びの座標1のガウス曲線と、学習によって新たに追加された喜び0.5のガウス曲線とが、GMM(Gaussian Mixture Model)によって併合された状態を示す。   FIG. 4B shows a case in which each emotion value group forms a Gaussian curve centered on the coordinates of basic emotions, and a Gaussian curve with pleasure coordinates 1 and a Gaussian curve with pleasure 0.5 newly added by learning. Shows a state of being merged by GMM (Gaussian Mixture Model).

この時、各感情に対して、ガウス分布の加重値は常に1を満たさねばならない。例えば、A感情に対して一つのガウス分布のみ存在するならば、そのガウス分布の加重値は1である。同様に、A感情に対して2個のガウス分布が存在するならば、2つのガウス分布の加重値は相異なるが、その和は常に1を満たさねばならない。   At this time, the weight of the Gaussian distribution must always satisfy 1 for each emotion. For example, if only one Gaussian distribution exists for the A emotion, the weighted value of the Gaussian distribution is 1. Similarly, if there are two Gaussian distributions for the A emotion, the weights of the two Gaussian distributions are different, but the sum must always satisfy 1.

このように、内部状態空間920の座標系上で、ロボットの内部状態入力値の座標が示す各感情値群の感情値の集合をロボットの感情に生成できる。   In this way, on the coordinate system of the internal state space 920, a set of emotion values of each emotion value group indicated by the coordinates of the internal state input value of the robot can be generated as the emotion of the robot.

一方、本発明では、ガウス曲線で感情値群を示したが、三角形のように、前述した体積空間の条件を満たす多様な曲線で感情値群を示してもよい。すなわち、さらに他の実施形態として、前記感情確率分布は、ガウス分布ではない多様な形状(例えば、円形分布、方形分布、三角形分布、半円形分布など)の分布に形成される。   On the other hand, in the present invention, the emotion value group is indicated by a Gaussian curve, but the emotion value group may be indicated by various curves that satisfy the above-described volume space conditions, such as a triangle. That is, as yet another embodiment, the emotion probability distribution is formed into a distribution having various shapes (for example, a circular distribution, a square distribution, a triangular distribution, a semicircular distribution, etc.) that is not a Gaussian distribution.

前述したように、ガウス分布以外の他の分布も適用でき、この場合、ガウス分布数式と異なる数式が適用され得るが、その原理は同一である。本明細書では、他の分布に関する数式についての詳しい説明を略す。   As described above, distributions other than the Gaussian distribution can be applied. In this case, a mathematical expression different from the Gaussian distribution mathematical expression can be applied, but the principle is the same. In this specification, a detailed description of mathematical expressions relating to other distributions is omitted.

但し、中央値(基本感情についての感情値など)を中心として散布の同じガウス曲線などを用いれば、ロボットの感情座標系で基準感情を中心とする感情値の散布を均一に形成することで、ロボットの感情を示す感情ベクトルe(k)の計算を容易に行えるが、必ずしもこれに限定されるものではない。   However, by using the same Gaussian curve of dispersion around the median (emotion value for basic emotions, etc.), by creating a uniform distribution of emotion values around the reference emotion in the robot's emotion coordinate system, Although it is possible to easily calculate the emotion vector e (k) indicating the emotion of the robot, the present invention is not necessarily limited to this.

前記感情決定処理部200は、入力値として感情状態入力値を感情モデルに適用し、出力値として感情値を計算する。   The emotion determination processing unit 200 applies an emotion state input value as an input value to the emotion model, and calculates an emotion value as an output value.

図4Cは、本発明の一実施形態による1次元感情空間上に、他の感情に対して2個の感情確率分布を持つ感情モデルを示した図面であり、ロボットの感情決定処理部200の動作を説明するための概略図である。説明の便宜のために、図4Cに示したように、1次元内部状態空間920上に位置している感情曲線を用いて感情モデルを説明する。   FIG. 4C is a diagram illustrating an emotion model having two emotion probability distributions with respect to other emotions on a one-dimensional emotion space according to an embodiment of the present invention. It is the schematic for demonstrating. For convenience of explanation, as shown in FIG. 4C, the emotion model is described using an emotion curve located on the one-dimensional internal state space 920.

図4Cでは、1次元座標上に基本感情である喜びの座標1と異なる基本感情である悲しみの座標−1が付与されており、各基本感情に対して、ガウス曲線を形成する感情確率分布が付与されている。   In FIG. 4C, a sadness coordinate −1 which is a basic emotion different from the joy coordinate 1 which is a basic emotion is given on a one-dimensional coordinate, and an emotion probability distribution which forms a Gaussian curve for each basic emotion. Has been granted.

もし、内部状態入力値が0.3である場合、既存には喜びの座標1がロボットの感情となったが、本実施形態の感情発生部130によれば、0.3の座標が表す各感情値群の感情値の集合である{4,1}がロボットの感情となる。もちろん、このような表現のためには、集合の元素順序を予め設定しておかねばならない。本実施形態では、{喜びの感情値、悲しみの感情値}のように設定された場合を示す。   If the internal state input value is 0.3, the coordinate 1 of joy is the emotion of the robot, but according to the emotion generation unit 130 of the present embodiment, each coordinate represented by 0.3 {4, 1}, which is a set of emotion values in the emotion value group, is the robot's emotion. Of course, for such an expression, the element order of the set must be set in advance. In the present embodiment, a case is shown where {emotion value of joy, emotion value of sadness} is set.

本実施形態によれば、単純に喜びを表す座標1でロボットの感情を表現する代わりに、喜びの感情の大きさが4であり、悲しみの感情の大きさが1である複合感情を、信頼性高く生成できる。この時、ガウス曲線の形状によって複合感情が変わるので、ガウス曲線はロボットの性格を形成する。   According to the present embodiment, instead of simply expressing the emotion of the robot with the coordinate 1 representing joy, the emotion of joy is 4 and the emotion of sadness is 1 It can be generated with high efficiency. At this time, since the compound emotion changes depending on the shape of the Gaussian curve, the Gaussian curve forms the character of the robot.

また、次元によって、一つの内部状態入力値が一つの感情確率分布で複数の入力値を表す場合、最も大きい値または最も小さな値または平均に近い値などを選択して一つの感情値を抽出してもよい。結果的に複数次元で内部状態座標系が拡張される場合、内部状態入力値が表す入力値は内部状態当り一つのみ抽出してもよい。一方、ロボットの感情を入力とするロボットの感情表現装置の便宜を考慮して、複合感情の各要素である集合の感情値を確率的に表現できる。確率的な表現は、感情値を百分率または合計が1となる分数で表すことを意味する。例えば、前記の例でロボットの感情が{4,1}である場合、百分率で表せば{80,20}になり、合計が1となる分数で表せば{4/5,1/5}になる。   Also, depending on the dimension, when one internal state input value represents multiple input values in one emotion probability distribution, the largest value, the smallest value, or a value close to the average is selected to extract one emotion value. May be. As a result, when the internal state coordinate system is expanded in multiple dimensions, only one input value represented by the internal state input value may be extracted per internal state. On the other hand, in consideration of the convenience of the robot emotion expression device that receives the robot emotion, the emotion value of the set, which is each element of the complex emotion, can be expressed stochastically. Probabilistic expression means expressing emotion values as a percentage or a fraction with a total of one. For example, in the above example, if the robot's emotion is {4, 1}, it will be {80, 20} when expressed as a percentage, and {4/5, 1/5} when expressed as a fraction where the total is 1. Become.

次いで、感情学習部400は、感情モデルを学習するための構成であり、入力値として、感情決定処理部200の出力値である感情ベクトルe(k)と、ユーザ入力部500を通じて感情種類情報e(k)とを入力され、出力値として、感情モデル上の各ガウス分布の加重値、中央値及び分散を変更するためのフィードバック情報を出力する。すなわち、学習とは、感情空間930上に分布されたガウス分布を変化させるものであり、ガウス分布の加重値、中央値及び分散の値を変化させるという意味を持つ。特に、前記感情学習部400は、マッチング関数を用いてフィードバック情報に対応するガウス分布を検索し、ガウス分布を変更することを特徴とする。 Next, the emotion learning unit 400 is a configuration for learning an emotion model. As an input value, an emotion vector e (k) that is an output value of the emotion determination processing unit 200 and emotion type information e through the user input unit 500 d (k) is input, and feedback information for changing the weighted value, median value, and variance of each Gaussian distribution on the emotion model is output as an output value. That is, learning means changing the Gaussian distribution distributed on the emotion space 930, and means changing the weighted value, median value, and variance value of the Gaussian distribution. In particular, the emotion learning unit 400 searches for a Gaussian distribution corresponding to feedback information using a matching function and changes the Gaussian distribution.

望ましい実施形態として、本発明による人工感情学習装置1000に対して、k時間に「腕を広げて愛していると言う」という入力が入って来た時、これを見たユーザは「幸せ」という教育ができる。ユーザ入力部500を通じて感情の種類として「幸せ」を感情学習部400に入力すれば、設定された方式によって状態ベクトル周辺のガウス分布を学習させる。   As a preferred embodiment, when an input saying “I love you with open arms” comes into the artificial emotion learning apparatus 1000 according to the present invention at k hours, the user who sees this says “happy” Education is possible. If “happiness” is input to the emotion learning unit 400 through the user input unit 500, the Gaussian distribution around the state vector is learned by the set method.

以下、本発明の人工感情学習装置1000の動作を、数式で説明する。   Hereinafter, the operation of the artificial emotion learning apparatus 1000 of the present invention will be described using mathematical expressions.

(1)内部状態ベクトルx(k)の定義
図5A及び図5Bは、NEO−PI−Rを使用する内部プロセスを図示するものであり、図5A及び図5Bのプロセスは、内部状態空間920で使われる性格の5要因モデルを測定するための方法であるNEO−PI−Rを使用してモデリングされる。
(1) Definition of Internal State Vector x (k) FIGS. 5A and 5B illustrate an internal process using NEO-PI-R, and the process of FIGS. 5A and 5B is performed in the internal state space 920. Modeled using NEO-PI-R, a method for measuring a five-factor model of the character used.

図5A及び図5Bを参照すれば、内部状態演算は、性格の要因に対する面(Facet)値ベクトルの計算、性格の要因値計算及び内部状態計算の順に行われる。   Referring to FIGS. 5A and 5B, the internal state calculation is performed in the order of face value vector calculation for personality factors, personality factor value calculation, and internal state calculation.

図5A及び図5Bを参照すれば、外部入力ベクトルu(k)∈{0,1}は、外部入力によって定められ、この時、Sは、外部入力の数を表す。外部入力ベクトルu(k)内のi番目要素の値は、i番目センサーが動作の是非を表すものであり、動作中であれば1、そうでなければ0を表す。ただし、i∈{1,2,…,S}である。 Referring to FIGS. 5A and 5B, the external input vector u (k) ε {0, 1} s is determined by the external input, where S represents the number of external inputs. The value of the i-th element in the external input vector u (k) represents whether the i-th sensor is operating, and represents 1 when it is in operation, and 0 otherwise. However, iε {1, 2,..., S}.

入力ベクトルは、3種の性格パラメータを持つ動的システムにより処理される。   The input vector is processed by a dynamic system with three personality parameters.

・Facetパラメータ151(第1性格) : Γ,Γ,Γ,Γ,Γ∈R6×s
・性格要因パラメータ152(第2性格) : β,β,β,β,β∈R
・Durabilityパラメータ153(第3性格) : α,α,α,α,α∈[0,1]
各パラメータの下添字であるo,c,e,a,nは、開放性、誠実性、外向性、親和性、神経症的傾向性を表す。
Facet parameter 151 (first character): Γ o , Γ c , Γ e , Γ a , Γ n ∈ R 6 × s
Personality factor parameter 152 (second personality): β o , β c , β e , β a , β n εR
Durability parameter 153 (third character): α o , α c , α e , α a , α n ∈ [0, 1]
The subscripts “o”, “c”, “e”, “a”, and “n” of each parameter represent openness, honesty, extroversion, affinity, and neurotic tendency.

Durability(持続性)パラメータ153(第3性格)は、性格の5要因モデルによるそれぞれの性格要因に対する持続性を表し、性格要因パラメータ152(第2性格)は、各性格要因の敏感程度を表す。   The Durability (persistence) parameter 153 (third personality) represents the sustainability of each personality factor according to the personality five-factor model, and the personality factor parameter 152 (second personality) represents the degree of sensitivity of each personality factor.

Facet(面)パラメータ151(第1性格)は、各性格要因に含まれた6つの下位要素の敏感程度を表す。Facetパラメータ151(第1性格)は、5つの性格要因がそれぞれ6つの下位要素を含むため、合計で30個になり得る。   The Facet parameter 151 (first personality) represents the degree of sensitivity of the six sub-elements included in each personality factor. The Facet parameter 151 (first personality) can be 30 in total because the five personality factors each include six subelements.

例えば、性格要因のうち一つである開放性に対するFacetパラメータ151(第1性格)は、次のように表現できる。   For example, the facet parameter 151 (first personality) for openness, which is one of personality factors, can be expressed as follows.

Γ=[γo1,γo2,γo3,γo4,γo5,γo6であり、γo1,γo2,γo3,γo4,γo5,γo6∈Rである。 Γ o = [γ o1, γ o2, γ o3, γ o4, γ o5, γ o6] is a T, γ o1, γ o2, γ o3, γ o4, γ o5, a γ o6 ∈R s.

他の4つの要因のFacetパラメータ151(第1性格)は、同じ方式で表現できる。   The Face parameter 151 (first character) of the other four factors can be expressed in the same manner.

次いで、性格の要因に対する面(Facet)値ベクトルの計算と関連して、入力ベクトルは、それに相応するFacetパラメータ151を使用して、開放性、誠実性、外向性、親和性及び神経症的傾向性の5要因のfacet値ベクトルに変換される。   Then, in connection with the calculation of the facet value vector for the personality factor, the input vector is used for the openness, integrity, extroversion, affinity and neurotic tendency using the corresponding Facet parameter 151. Is converted to a face value vector of five factors of sex.

例えば、開放性に対するfacet値ベクトルであるf(k)(但し、f(k)∈R)は、下記のように定められる。 For example, f o (k) (where f o (k) εR 6 ), which is a facet value vector for openness, is defined as follows.

(k)=Γu(k)であり、f(k)=[fo1(k),fo2(k),fo3(k),fo4(k),fo5(k),fo6(k)]である。 f o (k) = Γ o u (k), and f o (k) = [f o1 (k), f o2 (k), f o3 (k), f o4 (k), f o5 (k) ), F o6 (k)] T.

他の4つの性格要因のfacet値ベクトルであるf(k)、f(k)、f(k)、f(k)も、同じ方式で定められる。 The face value vectors f c (k), f e (k), f a (k), and f n (k) of the other four personality factors are determined in the same manner.

次いで、性格要因値の計算と関連して、facet値ベクトルは6つのfacet値を合せることで、性格要因値として計算できる。   Then, in connection with the calculation of the personality factor value, the facet value vector can be calculated as a personality factor value by combining the six facet values.

例えば、開放性に対する要因値であるg(k)(但し、g(k)∈R)は、下記のように定められる。 For example, g o (k) (where g o (k) εR), which is a factor value for openness, is defined as follows.

Figure 0005624100
であり、1は、1で満たされた6×1ベクトルである。
Figure 0005624100
And 16 is a 6 × 1 vector filled with 1.

他の4つの性格要因に対する値であるg(k)、g(k)、g(k)、g(k)も、同じ方式で定められる。 The values for the other four personality factors, g c (k), g e (k), g a (k), and g n (k), are also determined in the same manner.

最後に内部状態計算と関連して、Durabilityパラメータ153、性格要因パラメータ152及び過去内部状態値を用いて、内部状態値に変換される。   Finally, in relation to the internal state calculation, it is converted into an internal state value using the Durability parameter 153, the personality factor parameter 152, and the past internal state value.

例えば、開放性に対するo(k+1)は、下記の状態方程式により定められる。   For example, o (k + 1) for openness is defined by the following equation of state.

o(k+1)=αo(k)+β(k) o (k + 1) = α o o (k) + β o g o (k)

c(k+1)、e(k+1)、a(k+1)、n(k+1)は、同じ方式により定められる。   c (k + 1), e (k + 1), a (k + 1), and n (k + 1) are determined by the same method.

すなわち、計算された現在の性格要因値であるβ(k)と、内部状態の持続性を表すDurabilityパラメータ153であるαとを直前の内部状態とかけた値を足して、現在の内部状態値を計算する。 That is, by adding the calculated is beta o g o the current personality factors value (k), a value obtained by multiplying the internal status of the immediately preceding and alpha o is a Durability parameter 153 indicating the persistence of the internal state, the current Calculate the internal state value of.

全体内部状態値と関連して、全体内部状態力学(dynamics)は、下記の状態方程式で表現できる。   In relation to the overall internal state value, the overall internal state dynamics can be expressed by the following state equation.

x(k+1)=Ax(k)+Bu(k)
x(k)=[o(k)c(k)e(k)a(k)n(k)]∈R
x (k + 1) = Ax (k) + Bu (k)
x (k) = [o (k) c (k) e (k) a (k) n (k)] T ∈ R 5

Figure 0005624100
Figure 0005624100

Figure 0005624100
Figure 0005624100

また、NEO−PI−Rによる上位要素5つをすべて使用することに制限されず、必要に応じて1つ以上を使用してもよい。そして、前記上位要素に含まれている下位要素も6つをすべて使用する必要はなく、必要に応じて1つ以上を使用してもよい。この場合、内部状態の次元値が変動する。   Moreover, it is not restricted to using all the five upper elements by NEO-PI-R, You may use 1 or more as needed. Further, it is not necessary to use all six lower elements included in the upper element, and one or more lower elements may be used as necessary. In this case, the dimension value of the internal state varies.

(2)ロボットの感情値である感情ベクトルe(k)の定義
最終感情は、一つの感情値に表現されるものではなく、複数の感情値の確率値が反映された複合感情として生成される。この複合感情は感情ベクトルe(k)になり、J個の感情を使うならば、次のロボットの感情数式3のように示すことができる。
(2) Definition of emotion vector e (k), which is an emotion value of the robot The final emotion is not expressed as one emotion value, but is generated as a composite emotion that reflects the probability values of multiple emotion values . This complex emotion becomes an emotion vector e (k). If J emotions are used, it can be expressed as the following robot emotion equation 3.

Figure 0005624100
ここで、Jは、基本感情の数であり、ejは、j番目の基本感情の感情値である。例えば、e1=happiness、e2=surprise、e3=sadness、e4=loveなどである。[ ]Tは、転置行列であって表現方式が一つであるので、削除できる。
Figure 0005624100
Here, J is the number of basic emotions, and ej is the emotion value of the jth basic emotion. For example, e1 = happines, e2 = surprise, e3 = sadness, e4 = love, and the like. [] T is a transposed matrix and has only one expression, and can be deleted.

(3)感情確率分布P(x(k)|ej)の設定
内部状態座標系上に各基本感情についての確率分布を配置する。各基本感情についての確率分布は、GMM(Gaussian Mixture Model)を使う。これを用いれば、各基本感情の分布をダイナミックにすることができ、各感情値を独立的に計算することができる。n次元の内部状態座標系でj番目の基本感情についての感情確率分布(感情分布、感情値群)P(x(k)|ej)は、以下の数式4のように定められる。
(3) Setting of emotion probability distribution P (x (k) | ej) The probability distribution for each basic emotion is arranged on the internal state coordinate system. The probability distribution for each basic emotion uses GMM (Gaussian Mixture Model). If this is used, the distribution of each basic emotion can be made dynamic, and each emotion value can be calculated independently. An emotion probability distribution (emotion distribution, emotion value group) P (x (k) | ej) for the j-th basic emotion in the n-dimensional internal state coordinate system is determined as shown in Equation 4 below.

Figure 0005624100
そして、ωj,m(k)は、k時間でj番目の感情分布のm番目のガウス分布またはガウスモード(Gaussian mode)の加重値であり、M(k)は、k時間でj番目の感情分布が持っているガウスモードの数であり、μj,m(k)は、k時間でj番目の感情分布のm番目ガウスモードの中央値であり、Σj,m(k)は、k時間でj番目の感情分布のm番目ガウスモードの帯域幅であり、x(k)は、k時間における感情状態入力値である。ガウスモードは、一つのガウス曲線を意味する。
Figure 0005624100
Ω j, m (k) is a weight value of the mth Gaussian distribution or Gaussian mode of the jth emotion distribution in k hours, and M j (k) is jth in k hours. Μ j, m (k) is the median of the mth Gaussian mode of the jth emotion distribution in k hours, and Σ j, m (k) is , The bandwidth of the mth Gaussian mode of the jth emotion distribution at k hours, and x (k) is the emotional state input value at k hours. The Gaussian mode means one Gaussian curve.

(4)感情値の確率的表現であるP(e|x(k))の計算
各感情値の確率的表現(確率値)は、ベイズの定理(Bayes' rule)を用いて数式5のように計算される。ここでj番目の感情の確率値であるP(e|x(k))は、事後確率(posterior probability)として使われる。
(4) is a stochastic representation of the emotion value P | probabilistic representation (probability value) for calculating the emotional value (e j x (k)), the equation 5 by using the Bayes theorem (Bayes' rule) Is calculated as follows. Here, P (e j | x (k)), which is the probability value of the j-th emotion, is used as a posterior probability.

Figure 0005624100
ここで、P(x(k)|e)は、尤度関数(likelihood function)として使われ、P(e)は、eの事前確率(prior probability)であって、各感情値が選択される確率(感情値の確率的表現)であり、各感情値の事前確率の和は、1である。
Figure 0005624100
Here, P (x (k) | e j ) is used as a likelihood function, P (e j ) is a prior probability of e j , and each emotion value is The probability of being selected (probabilistic expression of emotion value), and the sum of the prior probabilities of each emotion value is 1.

以上の数式3ないし5によれば、J個の基本感情が付与された場合、J個のP(e|x(k))を持っているJ次元の感情ベクトルe(k)が定められる。e(k)は、J個の感情値が確率的表現として反映された複合感情になる。 According to the above formulas 3 to 5, when J basic emotions are given, a J-dimensional emotion vector e (k) having J P (e j | x (k)) is determined. . e (k) is a composite emotion in which J emotion values are reflected as a probabilistic expression.

(5)マッチング関数の計算(Calculate Matching Function)
内部状態座標系の一点xのベクトルポイントを中心としてユーザのフィードバック情報を用いて、学習するための感情のガウスモード(または、ガウス分布)を次のように探す。
(5) Calculate Matching Function
Using the feedback information of the user centering on the vector point of the internal state coordinate system x , the emotional Gaussian mode (or Gaussian distribution) for learning is searched for as follows.

ここで、前記マッチング関数(matchj,m(k+1))は、次の数式6を満たす。 Here, the matching function (match j, m (k + 1)) satisfies the following Expression 6.

Figure 0005624100
ここで、matchj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布のマッチング関数を意味し、δは、マッチング範囲を示し(この時、δが大きければ、多くのガウスモード(ガウス分布)を学習するため、学習が速くなり得る)、σj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の標準偏差を示し、xは、前記内部状態座標系の一点を示し、μj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の中央値を示す。
Figure 0005624100
Here, matchj, m (k + 1) means a matching function of the mth Gaussian distribution among the jth emotion distributions in k + 1 hours, and δ indicates a matching range (at this time, if δ is large, it is more Σj, m (k) indicates the standard deviation of the mth Gaussian distribution of the jth emotion distribution in k hours, and x is Represents one point of the internal state coordinate system , and μj, m (k) represents the median value of the mth Gaussian distribution of the jth emotion distribution in k hours.

参考までに、前記マッチング関数は、ユークリッド距離(Euclidean Distance)計算法によって定義された関数であるが、これ以外にもマハラノビス距離(Mahalanobis Distance)計算法またはミンコフスキー距離(Minkowski Distance)計算法などを用いてマッチング関数を定義してもよい。   For reference, the matching function is a function defined by the Euclidean Distance calculation method. In addition to this, the Mahalanobis distance calculation method or the Minkowski distance calculation method is used. You may define a matching function.

(6)確率分布におけるユーザフィードバック学習(User Feedback Learning on Probability Distribution)
マッチング関数を用いてガウスモードを次のように選別した後、ユーザの意図を反映してガウス分布を学習する。
(6) User Feedback Learning on Probability Distribution
After selecting the Gaussian mode as follows using the matching function, the Gaussian distribution is learned reflecting the user's intention.

学習は、2つの場合に区分し、第1の場合は、マッチング関数を通じて学習するガウスモードを探せた場合(6−1)であり、第2の場合は、探せなかった場合(6−2)である。   Learning is divided into two cases. The first case is a case where a Gaussian mode learned through a matching function is found (6-1), and the second case is a case where a Gaussian mode is not found (6-2). It is.

(6−1)∃m∈{1,2,…,Mj(k)} such that matchj,m(k+1)=1の場合
前記マッチング関数を通じてマッチングされるガウス分布を一つでも探せた場合、ガウス分布を学習するようになるが、この時、選択された、すなわち、マッチングされたガウス分布と、選択されていない、すなわち、マッチングされていないガウス分布とを区分して学習する。
(6-1) ∃m∈ {1, 2,..., Mj (k)} such that matchj, m (k + 1) = 1 If any Gaussian distribution matched through the matching function can be found, Gaussian The distribution is learned. At this time, the selected, that is, matched Gaussian distribution and the non-selected, that is, unmatched Gaussian distribution are learned separately.

(6−1−1)matchj,m(k+1)=1のそれぞれのm
これによって、選択されたj番目の感情分布のm番目ガウスモードが学習される。この場合、ガウス分布の加重値、中央値、分散の3つを学習する。
(6-1-1) m of each of matchj and m (k + 1) = 1
As a result, the mth Gaussian mode of the selected jth emotion distribution is learned. In this case, the three values of weight, median, and variance of the Gaussian distribution are learned.

言い換えれば、前記マッチング関数が1である場合、選択されたj番目の感情分布のうちm番目のガウス分布は、前記フィードバック情報を用いて次の数式7の加重値(ωj,m(k+1))、中央値(μj,m(k+1))及び分散(σ2j,m(k+1))を満たすように、ガウス分布が変更される。 In other words, when the matching function is 1, the m-th Gaussian distribution among the selected j-th emotion distribution is a weighted value (ωj, m (k + 1)) of the following Equation 7 using the feedback information. , The Gaussian distribution is changed to satisfy the median (μj, m (k + 1)) and the variance (σ2j, m (k + 1)).

Figure 0005624100
ここで、ωj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の加重値であり、λは、既定の基本加重値であり、ωj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の加重値であり、μj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の中央値であり、xは、前記内部状態座標系の一点であり、μj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の中央値であり、σ j,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の分散であり、σ j,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の分散であり、[ ]は、転置行列であり、
Figure 0005624100
である。この時、Σj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の帯域幅である。
Figure 0005624100
Here, ω j, m (k + 1) is a weight value of the mth Gaussian distribution of the jth emotion distribution in k + 1 hours, λ is a default basic weight value, and ω j, m (k ) Is a weighted value of the mth Gaussian distribution of the jth emotion distribution in k hours, and μ j, m (k + 1) is the center of the mth Gaussian distribution of the jth emotion distribution in k + 1 hours. X is one point of the internal state coordinate system , μ j, m (k) is the median value of the m-th Gaussian distribution of the j-th emotion distribution in k hours, and σ 2 j , M (k + 1) is the variance of the mth Gaussian distribution in the jth emotion distribution at k + 1 time, and σ 2 j, m (k) is the mth of the jth emotion distribution at k time. The variance of the Gaussian distribution, [] T is the transpose matrix,
Figure 0005624100
It is. At this time, Σ j, m (k) is the bandwidth of the mth Gaussian distribution of the jth emotion distribution in k hours.

(6−1−2)matchj,m(k+1)=0のそれぞれのm
また、選択されていないj番目の感情分布のm番目ガウスモードが学習される。この場合、加重値のみ学習する。
(6-1-2) match j, m (k + 1) = 0 for each m
In addition, the mth Gaussian mode of the jth emotion distribution which is not selected is learned. In this case, only the weight value is learned.

言い換えれば、前記マッチング関数が1である場合、選択されていないj番目の感情分布のうちm番目のガウス分布は、前記フィードバック情報を用いて、次の数式8の加重値(ωj,m(k+1))を満たすようにガウス分布が変更される。 In other words, when the matching function is 1, the m-th Gaussian distribution among the unselected j-th emotion distributions uses the feedback information, and the weight value (ω j, m ( The Gaussian distribution is changed to satisfy k + 1)).

Figure 0005624100
ここで、ωj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の加重値であり、λは、既定の基本加重値であり、ωj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の加重値である。
Figure 0005624100
Here, ω j, m (k + 1) is a weight value of the mth Gaussian distribution of the jth emotion distribution in k + 1 hours, λ is a default basic weight value, and ω j, m (k ) Is a weighted value of the mth Gaussian distribution of the jth emotion distribution in k hours.

次いで、前記感情学習部400は、ガウス分布が変更された後、各感情に該当するすべてのガウス分布の加重値をノーマライズ(Normalize)する。すなわち、加重値の和を1にする。   Next, after the Gaussian distribution is changed, the emotion learning unit 400 normalizes weights of all Gaussian distributions corresponding to each emotion. That is, the sum of the weight values is set to 1.

(6−2)matchj,m(k+1)=0 for ∀m∈{1,2,…,M(k)}の場合
一方、マッチングされるガウスモードを探せなかった場合、フィードバック情報用いて新たなガウスモードを立てる。したがって、k+1時間でj番目の感情分布が持っているガウスモードの数M(k+1)は、M(k+1)=M(k)+1になる。
(6-2) match j, m ( k + 1) = 0 for ∀m∈ {1,2, ..., M j (k)} On the other hand, when the, if not find a Gaussian mode to be matched, the feedback information Use to set up a new Gaussian mode. Therefore, the number M j (k + 1) of the Gaussian modes possessed by the jth emotion distribution in k + 1 hours is M j (k + 1) = M j (k) +1.

言い換えれば、前記感情学習部400は、マッチング関数が0である場合(マッチングされるガウス分布がない場合)、前記フィードバック情報を用いて、次の数式9の加重値、中央値及び分散を満たすガウス分布を生成する。 Gauss other words, the emotion learning unit 400 (if there is no Gaussian distribution are matched) when the matching function is zero, which satisfies by using the feedback information, the weighted value of the following formula 9, the median and variance Generate a distribution.

Figure 0005624100
Figure 0005624100

次いで、前記感情学習部400は、ガウス分布が生成された後、各感情に該当するすべてのガウス分布の加重値をノーマライズ(Normalize)する。すなわち、加重値の和を1にする。   Then, after the Gaussian distribution is generated, the emotion learning unit 400 normalizes weights of all Gaussian distributions corresponding to each emotion. That is, the sum of the weight values is set to 1.

ここで、ガウス分布の中央値は、いかなる感情に影響を及ぼすかを示し、分散は、該ガウス分布がどれほど広く影響を及ぼすかを意味し、加重値は、同じ感情に関する色々なガウス分布のうち該当のガウス分布がどれほど影響を及ぼすかを意味する。すなわち、加重値が高ければ、そのガウス分布の該当値が多く反映されることを意味する。   Here, the median of the Gaussian distribution indicates what kind of emotion it affects, the variance means how widely the Gaussian distribution affects, and the weight is the value among the various Gaussian distributions for the same emotion It means how much influence the corresponding Gaussian distribution has. That is, if the weight value is high, it means that many corresponding values of the Gaussian distribution are reflected.

したがって、k時間でのガウス分布と、k+1時間でのガウス分布とが異なるので、同じ入力に対して他の出力値、すなわち、感情値を生成する。かかる過程を通じて、ユーザの所望の通りに感情空間930上に感情分布が学習されるため、この過程を繰り返せば、ユーザが教育した通りにロボットが感情を生成して表現できるようになる。   Accordingly, since the Gaussian distribution at time k is different from the Gaussian distribution at time k + 1, another output value, that is, an emotion value is generated for the same input. Through this process, the emotion distribution is learned on the emotion space 930 as desired by the user. If this process is repeated, the robot can generate and express emotions as the user has trained.

図6Aは、本発明の一実施形態による感情モデルを示す概略図であり、図6Bは、学習によって変更された感情モデルを示す概略図であり、図6A及び図6Bでは、心理学のFFM(Five Factor Model)に基づいて5次元の感情空間930を構成した。したがって、図6Aのように、学習の前のガウス分布G1が、ユーザの教育によって学習後のガウス分布G2に変更された。したがって、感情決定処理部200は、同じ感情状態入力値が入力されると仮定する時、学習前(図6A)と学習後(図6B)とは相異なる感情値を定める。   6A is a schematic diagram illustrating an emotion model according to an embodiment of the present invention, FIG. 6B is a schematic diagram illustrating an emotion model changed by learning, and FIGS. 6A and 6B illustrate psychological FFM ( A five-dimensional emotion space 930 is constructed based on the Five Factor Model. Therefore, as shown in FIG. 6A, the Gaussian distribution G1 before learning is changed to the Gaussian distribution G2 after learning by the user's education. Therefore, when it is assumed that the same emotion state input value is input, the emotion determination processing unit 200 determines different emotion values before learning (FIG. 6A) and after learning (FIG. 6B).

一方、図7に示したように、本発明による人工感情学習方法は、(a)内部状態算出部100が外部入力空間910を内部状態空間920にマッピングさせ、外部環境情報を感知して内部状態空間920内に存在する一つの点で内部状態を生成するステップ(S100)を含む。すなわち、本段階では、内部状態座標系の一点に対応する内部状態ベクトル値を算出する。   On the other hand, as shown in FIG. 7, in the artificial emotion learning method according to the present invention, (a) the internal state calculation unit 100 maps the external input space 910 to the internal state space 920 and senses external environment information to detect the internal state. A step (S100) of generating an internal state at one point existing in the space 920 is included. That is, at this stage, an internal state vector value corresponding to one point of the internal state coordinate system is calculated.

次いで、(b)内部状態空間920上に多くの種類の感情についての感情確率分布が形成された感情モデルが備えられた感情決定処理部200が、前記内部状態算出部100の入力値を前記内部状態空間920にマッチングさせてロボットの感情値を定めるステップ(S200)を含む。前記(b)ステップでは、n次元の前記内部状態座標系上にJ種の感情についての感情確率分布が形成された感情モデルが備えられる。   Next, (b) an emotion determination processing unit 200 provided with an emotion model in which emotion probability distributions for many types of emotions are formed on the internal state space 920, the input value of the internal state calculation unit 100 is used as the internal value. A step (S200) of determining an emotion value of the robot by matching with the state space 920 is included. The step (b) includes an emotion model in which an emotion probability distribution for J types of emotions is formed on the n-dimensional internal state coordinate system.

次いで、(c)動作生成部300が、前記感情決定処理部200で定められた感情値によって感情表現を行うステップ(S300)を含む。   Next, (c) the motion generation unit 300 includes a step (S300) of expressing an emotion with the emotion value determined by the emotion determination processing unit 200.

最後に、(d)感情学習部400が、前記感情決定処理部200から定められた感情値と、ユーザ入力部500から入力される感情の種類情報とを入力されて、前記感情空間930上に存在する一つのポイントである感情値に対応するフィードバック情報を生成し、前記フィードバック情報を用いて前記感情確率分布を変更するステップ(S400)を含んで構成される。すなわち、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、前記フィードバック情報を用いて、前記内部状態座標系の感情確率分布を変更する。   Finally, (d) the emotion learning unit 400 receives the emotion value determined from the emotion determination processing unit 200 and the emotion type information input from the user input unit 500, and enters the emotion space 930. It includes a step (S400) of generating feedback information corresponding to an emotion value which is one existing point and changing the emotion probability distribution using the feedback information. That is, feedback information related to an emotion value corresponding to one point of the internal state coordinate system is generated, and the emotion probability distribution of the internal state coordinate system is changed using the feedback information.

以上、本発明について図面及び実施形態を挙げて説明したが、本発明は特定の実施形態に限定されず、当業者ならば、本発明の範囲から逸脱せずに多くの修正及び変形が可能であるということを理解できるであろう。また、前記図面は発明の理解を助けるために図示されたものであり、請求範囲を限定すると理解してはならない。   The present invention has been described with reference to the drawings and embodiments. However, the present invention is not limited to the specific embodiments, and those skilled in the art can make many modifications and variations without departing from the scope of the present invention. You will understand that there is. Moreover, the said drawings are shown in order to assist the understanding of the invention, and should not be understood as limiting the scope of the claims.

本発明は、人工感情学習装置関連の技術分野に好適に用いられる。   The present invention is suitably used in a technical field related to an artificial emotion learning apparatus.

1000 人工感情学習装置
100 内部状態算出部
200 感情決定処理部
300 動作生成部
400 感情学習部
500 ユーザ入力部
1000 Artificial Emotion Learning Device 100 Internal State Calculation Unit 200 Emotion Determination Processing Unit 300 Action Generation Unit 400 Emotion Learning Unit 500 User Input Unit

Claims (10)

外部環境情報を感知して内部状態座標系の一点に対応する内部状態ベクトル値を算出する内部状態算出部と、
前記内部状態座標系上に形成された感情確率分布を用いて、前記内部状態算出部で算出された前記内部状態ベクトル値の座標が示す各感情値群内の感情値をロボットの感情として生成する感情決定処理部と、
前記感情決定処理部で定められた前記感情値によって、前記ロボットの動作を定めて感情表現を行う動作生成部と、
前記感情決定処理部から定められた感情値と、ユーザ入力部から入力される感情の種類情報とを入力されて、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、前記フィードバック情報を用いて前記内部状態座標系の感情確率分布を変更する感情学習部と、
前記感情学習部に感情の種類情報を入力するユーザ入力部と、
を備える人工感情学習装置。
An internal state calculation unit that detects external environment information and calculates an internal state vector value corresponding to one point of the internal state coordinate system;
With feelings probability distribution formed on the internal state coordinate system, generating a feeling of the robot emotion value of the internal state calculation section each emotion value in group indicated by the coordinate of the calculated the internal state vector values An emotion decision processing unit,
An action generation unit that determines an action of the robot and expresses an emotion by the emotion value determined by the emotion determination processing unit;
The emotion value determined from the emotion determination processing unit and the emotion type information input from the user input unit are input, and feedback information regarding the emotion value corresponding to one point of the internal state coordinate system is generated, An emotion learning unit that changes the emotion probability distribution of the internal state coordinate system using feedback information;
A user input unit for inputting emotion type information to the emotion learning unit;
Artificial emotion learning device.
前記感情確率分布は、加重値、中央値、分散を持つ一つのガウス分布であるか、または複数の前記ガウス分布が合成されたガウス分布であることを特徴とする請求項1に記載の人工感情学習装置。   2. The artificial emotion according to claim 1, wherein the emotion probability distribution is a Gaussian distribution having a weighted value, a median value, and a variance, or a Gaussian distribution obtained by combining a plurality of the Gaussian distributions. Learning device. 前記感情学習部は、マッチング関数を用いて前記フィードバック情報に対応するガウス分布を検索してガウス分布を変更することを特徴とする請求項2に記載の人工感情学習装置。   The artificial emotion learning apparatus according to claim 2, wherein the emotion learning unit searches for a Gaussian distribution corresponding to the feedback information using a matching function and changes the Gaussian distribution. 前記マッチング関数(matchj,m(k+1))は、次の式を満たすことを特徴とする請求項3に記載の人工感情学習装置。

Figure 0005624100
ここで、matchj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布のマッチング関数を意味し、δは、マッチング範囲を示し、σj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の標準偏差を示し、xは、前記内部状態座標系の一点を示し、μj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の中央値を示す。
4. The artificial emotion learning apparatus according to claim 3, wherein the matching function (match j, m (k + 1)) satisfies the following expression.

Figure 0005624100
Here, match j, m (k + 1) means a matching function of the mth Gaussian distribution among the jth emotion distributions in k + 1 hours, δ indicates a matching range, and σ j, m (k) is , Indicates the standard deviation of the mth Gaussian distribution among the jth emotion distributions in k hours, x indicates one point of the internal state coordinate system , and μ j, m (k) The median of the mth Gaussian distribution in the emotion distribution is shown.
前記マッチング関数において少なくとも一つのガウス分布が1である場合、前記マッチング関数が1であるj番目の感情分布のうちm番目のガウス分布は、前記フィードバック情報を用いて、次の加重値(ωj,m(k+1))、中央値(μj,m(k+1))及び分散(σ j,m(k+1))を満たすようにガウス分布が変更されることを特徴とする請求項4に記載の人工感情学習装置。

Figure 0005624100
ここで、ωj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の加重値であり、λは、既定の基本加重値であり、ωj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の加重値であり、μj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の中央値であり、xは、前記内部状態座標系の一点であり、μj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の中央値であり、σ j,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の分散であり、σ j,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の分散であり、[ ]は、転置行列であり、
Figure 0005624100
であり、この時、Σj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の帯域幅である。
When at least one Gaussian distribution is 1 in the matching function, the m-th Gaussian distribution among the j-th emotion distributions for which the matching function is 1 uses the feedback information to calculate the next weight value (ω j , M (k + 1)), median (μ j, m (k + 1)), and variance (σ 2 j, m (k + 1)), the Gaussian distribution is changed. Artificial emotion learning device.

Figure 0005624100
Here, ω j, m (k + 1) is a weight value of the mth Gaussian distribution of the jth emotion distribution in k + 1 hours, λ is a default basic weight value, and ω j, m (k ) Is a weighted value of the mth Gaussian distribution of the jth emotion distribution in k hours, and μ j, m (k + 1) is the center of the mth Gaussian distribution of the jth emotion distribution in k + 1 hours. X is one point of the internal state coordinate system , μ j, m (k) is the median value of the m-th Gaussian distribution of the j-th emotion distribution in k hours, and σ 2 j , M (k + 1) is the variance of the mth Gaussian distribution in the jth emotion distribution at k + 1 time, and σ 2 j, m (k) is the mth of the jth emotion distribution at k time. The variance of the Gaussian distribution, [] T is the transpose matrix,
Figure 0005624100
At this time, Σ j, m (k) is the bandwidth of the m-th Gaussian distribution of the j-th emotion distribution in k hours.
前記マッチング関数において少なくとも一つのガウス分布が1である場合、前記マッチング関数が0であるj番目の感情分布のうちm番目のガウス分布は、前記フィードバック情報を用いて次の加重値(ωj,m(k+1))を満たすようにガウス分布が変更されることを特徴とする請求項4に記載の人工感情学習装置。
Figure 0005624100
ここで、ωj,m(k+1)は、k+1時間でj番目の感情分布のうちm番目のガウス分布の加重値であり、λは、既定の基本加重値であり、ωj,m(k)は、k時間でj番目の感情分布のうちm番目のガウス分布の加重値である。
When at least one Gaussian distribution is 1 in the matching function, the m-th Gaussian distribution among the j-th emotion distributions for which the matching function is 0 uses the feedback information to obtain the following weight value (ω j, The artificial emotion learning apparatus according to claim 4, wherein the Gaussian distribution is changed so as to satisfy m (k + 1)).
Figure 0005624100
Here, ω j, m (k + 1) is a weight value of the mth Gaussian distribution of the jth emotion distribution in k + 1 hours, λ is a default basic weight value, and ω j, m (k ) Is a weighted value of the mth Gaussian distribution of the jth emotion distribution in k hours.
前記感情学習部は、前記ガウス分布が変更された後、各感情に該当するすべてのガウス分布の加重値をノーマライズ(Normalize)することを特徴とする請求項5または6に記載の人工感情学習装置。   The artificial emotion learning device according to claim 5 or 6, wherein the emotion learning unit normalizes weights of all Gaussian distributions corresponding to each emotion after the Gaussian distribution is changed. . 前記感情学習部は、マッチング関数が0である場合(マッチングされるガウス分布がない場合)、前記フィードバック情報を用いて次の加重値、中央値及び分散を満たすガウス分布を生成することを特徴とする請求項4に記載の人工感情学習装置。
Figure 0005624100
When the matching function is 0 (when there is no matched Gaussian distribution), the emotion learning unit generates a Gaussian distribution that satisfies the following weight value, median, and variance using the feedback information. The artificial emotion learning apparatus according to claim 4.
Figure 0005624100
前記感情学習部は、前記ガウス分布が生成された後、各感情に該当するすべてのガウス分布の加重値をノーマライズ(Normalize)することを特徴とする請求項8に記載の人工感情学習装置。   9. The artificial emotion learning apparatus according to claim 8, wherein the emotion learning unit normalizes weight values of all Gaussian distributions corresponding to each emotion after the Gaussian distribution is generated. 内部状態算出部が外部環境情報を感知して、内部状態座標系の一点に対応する内部状態ベクトル値を算出して内部状態を生成するステップと、
n次元の内部状態座標系上にj種の感情についての感情確率分布が形成された感情モデルが備えられた感情決定処理部が、前記内部状態算出部で算出された内部状態ベクトル値を前記内部状態座標系にマッチングさせてロボットの感情値を定めるステップと、
動作生成部が、前記感情決定処理部で定められた感情値によって前記ロボットの動作を定めて感情表現を行うステップと、
感情学習部が、前記感情決定処理部から定められた感情値とユーザ入力部から入力される感情の種類情報とを入力されて、前記内部状態座標系の一点に対応する感情値に関するフィードバック情報を生成し、前記フィードバック情報を用いて前記内部状態座標系の感情確率分布を変更するステップと、
を含む人工感情学習方法。
An internal state calculating unit detecting external environment information, calculating an internal state vector value corresponding to one point of the internal state coordinate system, and generating an internal state;
An emotion determination processing unit provided with an emotion model in which an emotion probability distribution for j types of emotions is formed on an n-dimensional internal state coordinate system, the internal state vector value calculated by the internal state calculation unit as the internal state vector value Matching the state coordinate system to determine the emotional value of the robot;
A step of performing an emotion expression by determining an operation of the robot according to an emotion value determined by the emotion determination processing unit;
The emotion learning unit receives the emotion value determined from the emotion determination processing unit and the emotion type information input from the user input unit, and provides feedback information regarding the emotion value corresponding to one point of the internal state coordinate system. Generating and changing the emotion probability distribution of the internal state coordinate system using the feedback information;
Artificial emotion learning method including.
JP2012221460A 2012-10-03 2012-10-03 Artificial emotion learning apparatus and method Active JP5624100B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012221460A JP5624100B2 (en) 2012-10-03 2012-10-03 Artificial emotion learning apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012221460A JP5624100B2 (en) 2012-10-03 2012-10-03 Artificial emotion learning apparatus and method

Publications (2)

Publication Number Publication Date
JP2014074997A JP2014074997A (en) 2014-04-24
JP5624100B2 true JP5624100B2 (en) 2014-11-12

Family

ID=50749121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012221460A Active JP5624100B2 (en) 2012-10-03 2012-10-03 Artificial emotion learning apparatus and method

Country Status (1)

Country Link
JP (1) JP5624100B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10733992B2 (en) 2017-06-14 2020-08-04 Toyota Jidosha Kabushiki Kaisha Communication device, communication robot and computer-readable storage medium
US11093734B2 (en) 2018-01-05 2021-08-17 Samsung Electronics Co., Ltd. Method and apparatus with emotion recognition

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6273313B2 (en) * 2016-04-28 2018-01-31 Cocoro Sb株式会社 Emotion identification system, system and program
JP2018083269A (en) * 2016-11-25 2018-05-31 株式会社Soken Interaction device and method for disclosing interaction
CN108510052A (en) * 2017-02-27 2018-09-07 顾泽苍 A kind of construction method of artificial intelligence new neural network
KR101965372B1 (en) * 2017-06-12 2019-04-03 주식회사 아카인텔리전스 Method for determining emotion of a computer
JP7152908B2 (en) * 2018-09-05 2022-10-13 日本放送協会 Gesture control device and gesture control program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110002757A (en) * 2009-07-02 2011-01-10 삼성전자주식회사 Emotion model device, apparatus and method for adaptive learning personality of emotion model

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10733992B2 (en) 2017-06-14 2020-08-04 Toyota Jidosha Kabushiki Kaisha Communication device, communication robot and computer-readable storage medium
US11093734B2 (en) 2018-01-05 2021-08-17 Samsung Electronics Co., Ltd. Method and apparatus with emotion recognition

Also Published As

Publication number Publication date
JP2014074997A (en) 2014-04-24

Similar Documents

Publication Publication Date Title
JP5624100B2 (en) Artificial emotion learning apparatus and method
US8972313B2 (en) Apparatus and method for learning emotion of robot
JP4169063B2 (en) Data processing apparatus, data processing method, and program
JP4201012B2 (en) Data processing apparatus, data processing method, and program
KR20130091364A (en) Apparatus and method for generating emotion of robot
Gharavian et al. Audio-visual emotion recognition using FCBF feature selection method and particle swarm optimization for fuzzy ARTMAP neural networks
Harriott et al. Modeling human performance for human–robot systems
Lala et al. Towards a virtual environment for capturing behavior in cultural crowds
US20140170619A1 (en) Apparatus and method for creating artificial feelings
CN111159279A (en) Model visualization method, device and storage medium
US9037526B2 (en) Apparatus and method for selecting motion signifying artificial feeling
He Robotgpt: From chatgpt to robot intelligence
US9117168B2 (en) Apparatus and method for calculating internal state for artificial emotion
JP5521240B1 (en) Apparatus and method for selecting an artificial emotional expression operation
Masuyama et al. Robotic emotional model with personality factors based on Pleasant-Arousal scaling model
Ajili et al. Expressive motions recognition and analysis with learning and statistical methods
CN106845391B (en) Atmosphere field identification method and system in home environment
Wu et al. An improved vascular model based on mass spring model and parameters optimization by Gaussian processes
JP5491599B2 (en) Internal state calculation device and method for expressing artificial emotion, and recording medium
KR20120111453A (en) Apparatus and method for calculating value of emotion
JP2007280057A (en) Data processor, data processing method, and program
Hong Human-robot interactions for single robots and multi-robot teams
Salmeron Simulating synthetic emotions with fuzzy grey cognitive maps
Rajesh et al. Development of Powered Chatbots for Natural Language Interaction in Metaverse using Deep Learning with Optimization Techniques
JP5605661B2 (en) Artificial emotion generating apparatus and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140603

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140606

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140702

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140707

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140925

R150 Certificate of patent or registration of utility model

Ref document number: 5624100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250