JP2014126946A - Artificial emotion generator and method - Google Patents
Artificial emotion generator and method Download PDFInfo
- Publication number
- JP2014126946A JP2014126946A JP2012281710A JP2012281710A JP2014126946A JP 2014126946 A JP2014126946 A JP 2014126946A JP 2012281710 A JP2012281710 A JP 2012281710A JP 2012281710 A JP2012281710 A JP 2012281710A JP 2014126946 A JP2014126946 A JP 2014126946A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- value
- internal state
- generating
- distribution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008451 emotion Effects 0.000 title claims abstract description 421
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000007423 decrease Effects 0.000 claims abstract description 8
- 238000009826 distribution Methods 0.000 claims description 50
- 230000002996 emotional effect Effects 0.000 claims description 45
- 230000014509 gene expression Effects 0.000 claims description 36
- 239000011159 matrix material Substances 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims description 2
- 239000002131 composite material Substances 0.000 abstract description 5
- 238000010586 diagram Methods 0.000 description 5
- 241000282412 Homo Species 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、人工感情情緒発生装置及び方法に係り、さらに詳細には、複数の基本情緒を含むいろいろな情緒値群の情緒値の集合でロボットの現在情緒を生成することで、人間の複合情緒のようにロボットなどの機械装置の情緒表現をさらに写実的に具現できる人工情緒発生装置及び方法に関する。 The present invention relates to an artificial emotion emotion generation apparatus and method, and more particularly, to generate a robot's current emotion from a set of emotion values of various emotion value groups including a plurality of basic emotions, thereby generating a human complex emotion. As described above, the present invention relates to an artificial emotion generating apparatus and method that can more realistically realize the emotional expression of a mechanical device such as a robot.
一般的に、ロボットなどの機械装置の情緒は、センサーを通じる入力により予め設定された一定数の情緒を持つ情緒空間の特定位置で生成される情緒に限定される。 In general, the emotion of a mechanical device such as a robot is limited to the emotion generated at a specific position in an emotional space having a certain number of emotions preset by an input through a sensor.
図1は、一般的なロボット情緒表現方式を示す概略図である。 FIG. 1 is a schematic diagram showing a general robot emotion expression method.
ロボットをして情緒を表現させるためには、現在ロボットの情緒値を算出せねばならない。感情、すなわち情緒とは、喜びや悲しみなどの一つの細部情緒に定められる場合はほとんどない。人間が現在喜びを感じる場合であっても、驚きの情緒と怒りの情緒など他の情緒が一部反映される。すなわち、情緒表現は、複合的な細部情緒が反映された結果である。したがって、ロボットを通じて現実的な情緒表現を具現するためには、ロボットに適用する情緒値も喜び(happiness)、悲しみ(sadness)、驚き(surprise)、怒り(anger)などの多様な細部情緒を反映してベクトルで表すことができる。 In order for a robot to express its emotion, the emotional value of the current robot must be calculated. Emotions, or emotions, are rarely defined in one detailed emotion such as joy or sadness. Even if humans are now joyful, some other emotions are reflected, such as the emotions of surprise and anger. That is, the emotional expression is a result of reflecting a complex detailed emotion. Therefore, in order to realize realistic emotional expression through the robot, the emotion value applied to the robot also reflects various detailed emotions such as happiness, sadness, surprise, anger, etc. And can be expressed as a vector.
図1のように、一般的にロボットの情緒を表現するために2次元または3次元の固定された次元の空間を用い、このような固定された次元の空間上の一定の位置に情緒及びその情緒に該当する情緒表現をマッピングする。情緒値は、空間上の一定の位置に該当するベクトル値で表現及び計算できる。 As shown in FIG. 1, generally, a two-dimensional or three-dimensional fixed dimensional space is used to express a robot's emotion, and the emotion and its position are fixed at a fixed position on the fixed dimensional space. Map emotional expressions that correspond to emotions. The emotion value can be expressed and calculated as a vector value corresponding to a certain position in space.
すなわち、ベクトル空間上のいろいろな点に情緒をマッピングしておき、各情緒に該当する情緒表現を一対一にマッピングした後、特定の情緒ベクトルが与えられた場合、前記特定の情緒ベクトルと、ベクトル空間上にマッピングされたいろいろな情緒のうち距離上最も近い情緒の一つを選択して、その情緒と一対一マッピングされた情緒を表現する方法を採用してきた。 That is, if emotions are mapped to various points on the vector space, and emotion expressions corresponding to each emotion are mapped one-to-one, then when a specific emotion vector is given, the specific emotion vector and the vector A method has been adopted in which one of the emotions mapped in space is selected from the emotions that are closest in distance, and the emotion is mapped one to one.
言い換えれば、ベクトル空間上の無数な座標に情緒及びその情緒に該当する情緒表現を手作業でマッピングさせるには限界があるため、従来の図1の方式は、少数の座標を選択して各座標に該当する情緒及び情緒に該当する情緒表現動作をマッピングしておいた後、ロボットの情緒値を分析して最も近い座標の情緒座標を選択し、それにより情緒表現を行うものである。 In other words, since there is a limit in manually mapping emotions and emotional expressions corresponding to the emotions to innumerable coordinates on the vector space, the conventional method of FIG. 1 selects a small number of coordinates and selects each coordinate. After mapping the emotion corresponding to the emotion and the emotion expression corresponding to the emotion, the emotional value of the robot is analyzed and the closest emotion coordinate is selected, thereby performing the emotional expression.
例えば、4次元ベクトル空間上の座標1に情緒値1{喜び1、悲しみ0、驚き0、怒り0)を表すように設定されており、情緒値2{喜び3/4、悲しみ1/4、驚き0、怒り0}と情緒値3{喜び3/4、悲しみ0、驚き1/4、驚き0}とが他の情緒及び情緒を表現する座標より座標1に近い場合、情緒値1、2、3はいずれも座標1に設定された情緒表現を行うようになる。 For example, an emotion value 1 {joy 1, sadness 0, surprise 0, anger 0) is set at coordinates 1 on a four-dimensional vector space, and emotion value 2 {joy 3/4, sadness 1/4, If surprise 0, anger 0} and emotion value 3 {joy 3/4, sadness 0, surprise 1/4, surprise 0} are closer to coordinate 1 than the coordinates expressing other emotions and emotions, emotion values 1, 2 3 is an emotional expression set to coordinate 1.
このように、従来の方式は、内部的に実際に生成された情緒値が相異なるにもかかわらず、選択される情緒値は座標1にマッピングされた情緒値のうち最も類似した一つのみ選択され、同じ座標の情緒値を基準として情緒表現動作を選択するため、一般的に表現機関を通じて表現される形態も同一である。 As described above, the conventional method selects only one of the most similar emotion values mapped to the coordinate 1 even though the emotion value actually generated internally is different. In order to select the emotion expression operation based on the emotion value of the same coordinate, the form generally expressed through the expression organization is the same.
さらに詳細な説明のために、図2を活用する。図2は、従来の情緒及び情緒状態入力値からロボットの情緒を生成する過程を説明するための概略図である。図2では、説明の便宜のために1次元の情緒座標系を使用した。 For more detailed explanation, FIG. 2 is used. FIG. 2 is a schematic view for explaining a conventional process of generating a robot emotion from emotion and emotion state input values. In FIG. 2, a one-dimensional emotional coordinate system is used for convenience of explanation.
情緒座標系で、座標1に喜びの基本情緒を配し、座標−1に悲しみの基本情緒を配した場合を仮定する。入力値が0.3ならば、0.3に最も近い基本情緒を抽出する。図2の場合、0.3は−1より1に近いので、喜びの基本情緒が抽出される。喜びの基本情緒は、情緒座標系で座標1であるため、最終的にロボットの情緒は座標1になる。 In the emotional coordinate system, it is assumed that the basic emotion of joy is arranged at coordinate 1 and the basic emotion of sadness is arranged at coordinate-1. If the input value is 0.3, the basic emotion closest to 0.3 is extracted. In the case of FIG. 2, since 0.3 is closer to 1 than -1, the basic emotion of joy is extracted. Since the basic emotion of joy is coordinate 1 in the emotion coordinate system, the emotion of the robot eventually becomes coordinate 1.
前記のような情緒発生方式によれば、入力値が0.5であるとしても、入力値が0.3である場合と同じく最終ロボットの情緒は座標1になる。 According to the emotion generation method as described above, even if the input value is 0.5, the emotion of the final robot is 1 as in the case where the input value is 0.3.
したがって、前述した情緒発生方式によって生成されたロボットの情緒を入力されて目、口、ジェスチャなどを表現する情緒表現装置の立場では、情緒状態入力値が0.3、0.5などと相異なっても同じ座標1をロボットの情緒と表現する。したがって、従来のほとんどのロボットでは、入力値が異なっても同じ情緒表現がなされる。 Therefore, the emotional state input value is different from 0.3, 0.5, etc. from the standpoint of an emotional expression device that expresses eyes, mouth, gestures, etc. by inputting the emotion of the robot generated by the emotion generation method described above. However, the same coordinate 1 is expressed as the emotion of the robot. Therefore, in most conventional robots, the same emotional expression is made even if input values are different.
しかし、人間の情緒は喜びの情緒であっても、悲しみや驚きなど他の情緒が複合的に反映された複合情緒である。したがって、悲しみや驚きなどの他の情緒がどれほど反映されているかによって喜びの程度が変わる。また喜びの程度によって情緒表現にも差を見せる。 However, even though human emotions are emotions of joy, they are complex emotions that reflect other emotions such as sadness and surprise. Therefore, the degree of joy varies depending on how other emotions such as sadness and surprise are reflected. It also shows a difference in emotional expression depending on the degree of joy.
ロボットの情緒表現で図るところが人間に近接な情緒表現であるため、ロボットが人間に近接な情緒を表現するためには、人間の複合情緒を追従する複合情緒を生成せねばならない。 Since the robot's emotional expression is an emotional expression that is close to humans, in order for the robot to express emotions that are close to humans, it is necessary to generate a complex emotion that follows the human complex emotions.
特許文献1には、1次情緒と2次情緒などの複数の情緒を生成するロボット及び方法について記述されている。しかし、前記の特許文献1に開示される1次情緒は、センサー部からの情報に基づいて外部の評価なしにロボットの情緒で生成した情緒(驚き情緒と恐怖情緒など)を表し、2次情緒は、センサー情報以外にデータベースの目録基準による評価、時間などの影響を評価して生成した情緒(喜び、怒り、拒否、中立、悲しみ、そして一部の恐怖情緒など)を表す。すなわち、前記の特許文献1は、人間の複合情緒を追従する複合情緒を表していない。したがって、特許文献1の技術も図1及び図2で言及した限界を持っている。 Patent Document 1 describes a robot and a method for generating a plurality of emotions such as a primary emotion and a secondary emotion. However, the primary emotion disclosed in Patent Document 1 represents emotion (surprise emotion, fear emotion, etc.) generated from the emotion of the robot without external evaluation based on information from the sensor unit. Represents the emotion (joy, anger, refusal, neutrality, sadness, and some fear emotions, etc.) generated by evaluating the influence of time, etc. in addition to sensor information. That is, Patent Document 1 does not represent a complex emotion that follows a human complex emotion. Therefore, the technique of Patent Document 1 also has the limitations mentioned in FIGS.
本発明の課題は、複数の基本情緒を含むいろいろな情緒値群の情緒値の集合でロボットの現在情緒を生成することで、人間の複合情緒のようにロボットの情緒表現をさらに写実的に具現できる人工情緒発生装置及び方法を提供することである。 The object of the present invention is to create a robot's current emotion from a set of emotion values of various emotion value groups including a plurality of basic emotions, thereby realizing a more realistic expression of the robot's emotion like a human complex emotion. It is an object of the present invention to provide an artificial emotion generating apparatus and method.
本発明が解決しようとする技術的課題は、前記技術的課題に制限されず、言及していないさらに他の技術的課題は、下記の記載から当業者に明らかに理解されうる。 The technical problem to be solved by the present invention is not limited to the above technical problem, and other technical problems not mentioned can be clearly understood by those skilled in the art from the following description.
前記技術的課題を解決するための本発明の一側面による人工情緒発生装置は、ロボットなどの機械装置の内部状態座標系上に、機械装置に付与された基本情緒から遠ざかるほど段々減少する情緒値を持つ情緒値群を生成する情緒値群生成部と、前記内部状態座標系上で、前記機械装置の内部状態入力値の座標が表す各情緒値群の情緒値の集合を前記機械装置の情緒として生成する情緒発生部と、を備える。 An artificial emotion generating device according to one aspect of the present invention for solving the technical problem is an emotion value that gradually decreases as the distance from a basic emotion assigned to a mechanical device on an internal state coordinate system of a mechanical device such as a robot is increased. And an emotion value group generation unit for generating an emotion value group having a set of emotion values of each emotion value group represented by the coordinates of the internal state input value of the mechanical device on the internal state coordinate system. And an emotion generating unit to generate as follows.
一実施形態において、前記情緒値群は、加重値、中央値、分散を持つ一つのガウス分布であるか、または複数のガウス分布が合成されたガウス分布である。 In one embodiment, the emotion value group is a Gaussian distribution having a weight value, a median value, and a variance, or a Gaussian distribution obtained by combining a plurality of Gaussian distributions.
一実施形態において、前記情緒値群生成部は、前記同じ基本情緒の複数の情緒値群を合成して一つの情緒値群を形成する。 In one embodiment, the emotion value group generation unit synthesizes a plurality of emotion value groups of the same basic emotion to form one emotion value group.
一実施形態において、前記情緒値の集合の各情緒値は、確率的に表現される。 In one embodiment, each emotion value in the set of emotion values is represented probabilistically.
一実施形態において、前記機械装置の情緒e(k)は、次の数式1で表現される。
であり、ωj,m(k)は、k時間でj番目の情緒分布のm番目のガウスモードの加重値であり、Mj(k)は、k時間でj番目の情緒分布が持っているガウスモードの数であり、μj,m(k)は、k時間でj番目の情緒分布のm番目のガウスモードの中央値であり、Σj,m(k)は、k時間でj番目の情緒分布のm番目のガウスモードの帯域幅であり、x(k)は、k時間における内部状態入力値であり、[]Tは、転置行列である。
In one embodiment, the emotion e (k) of the mechanical device is expressed by the following Equation 1.
Ω j, m (k) is the weight value of the mth Gaussian mode of the jth emotion distribution at k hours, and M j (k) has the jth emotion distribution at k hours. Μ j, m (k) is the median value of the mth Gaussian mode of the jth emotion distribution at k hours, and Σ j, m (k) is j at k time. Is the bandwidth of the m th Gaussian mode of the th emotion distribution, x (k) is the internal state input value at k hours, and [] T is the transpose matrix.
数式2の情緒確率分布または情緒値群P(x(k)|ej)の各情緒値の確率的表現(確率値)P(ej|x(k))は、ベイスの定理(Bayes'rule)を用いて数式3のように計算され、
本発明の一側面による人工情緒発生方法は、機械装置の内部状態座標系上に、機械装置に付与された基本情緒から遠ざかるほど段々減少する情緒値を持つ情緒値群を生成する段階と、前記内部状態座標系上で、前記機械装置の内部状態入力値の座標が表す各情緒値群の情緒値の集合を前記機械装置の情緒として生成する段階と、を含む。 The artificial emotion generating method according to one aspect of the present invention includes generating an emotion value group having an emotion value that gradually decreases as the distance from the basic emotion assigned to the mechanical device is increased on the internal state coordinate system of the mechanical device, Generating on the internal state coordinate system a set of emotion values of each emotion value group represented by the coordinates of the internal state input values of the mechanical device as emotions of the mechanical device.
一実施形態において、前記情緒値群を生成する段階は、混合ガウス分布(Gaussian Mixture Mode、GMM)を適用して複数の基本情緒の情緒値群を合成し、一つの情緒値群を生成する段階を含む。 In one embodiment, generating the emotion value group includes synthesizing emotion value groups of a plurality of basic emotions by applying a Gaussian Mixture Mode (GMM) to generate one emotion value group. including.
一実施形態において、前記各情緒値群の情緒値の集合を機械装置の情緒として生成する段階は、前記集合の情緒値にベイスの定理を適用して各情緒値が確率的に表現されるように変換する段階を含む。 In one embodiment, the step of generating a set of emotion values of each emotion value group as a machine device emotion is such that each emotion value is represented stochastically by applying a Basis theorem to the emotion value of the set. Including the step of converting to
一実施形態において、前記各情緒値群の情緒値の集合を機械装置の情緒として生成する段階は、次の数式1で表現されるe(k)を、機械装置の情緒として生成する段階を含む。
本発明のさらに他の側面では、プログラムを記録したコンピュータで読み取り可能な記録媒体を提供できる。ここで、プログラムとは、前記機械装置の情緒発生方法をコンピュータで実行させるための手段(ソフトウェアなど)を称する。 In still another aspect of the present invention, a computer-readable recording medium that records a program can be provided. Here, the program refers to means (software or the like) for causing a computer to execute the emotion generating method of the mechanical device.
本発明によれば、基本情緒値だけでロボットの情緒を生成する代わりに、複数の基本情緒を含むいろいろな情緒値群の情緒値の集合でロボットの情緒を生成できる人工情緒発生装置及び方法を提供できる。 According to the present invention, there is provided an artificial emotion generating apparatus and method capable of generating a robot emotion with a set of emotion values of various emotion value groups including a plurality of basic emotions instead of generating a robot emotion with only basic emotion values. Can be provided.
また、本発明によれば、人間の複合情緒のように多様な基本情緒が複合的に反映された複合情緒を生成できる人工情緒発生装置及び方法を提供できる。このように生成された複合情緒は、ロボットの情緒表現をさらに写実的に具現するための用途として使われる。 Further, according to the present invention, it is possible to provide an artificial emotion generating apparatus and method capable of generating a complex emotion in which various basic emotions are reflected in a complex manner, such as a human complex emotion. The composite emotion generated in this way is used as an application for realizing the emotional expression of the robot more realistically.
以下、本発明の人工情緒発生装置及び方法について図面を参照してさらに詳細に説明する。 Hereinafter, the artificial emotion generating apparatus and method of the present invention will be described in more detail with reference to the drawings.
図3は、本発明の一実施形態によるロボットの情緒発生装置を示すブロック図である。図4は、図3のロボットの情緒発生装置に採用可能な情緒確率分布を示す概略図である。 FIG. 3 is a block diagram showing an emotion generating apparatus for a robot according to an embodiment of the present invention. FIG. 4 is a schematic diagram showing an emotion probability distribution that can be employed in the robot emotion generation apparatus of FIG.
まず、図4と関連して説明すれば、図4は、内部状態空間を示す座標であり、心理学のFFM(Five Factor Model)に基づいて5次元の内部状態(開放性(opennesstoexperience)、誠実性(conscientiousness)、外向性(extraversion)、親和性(agreeableness)、神経症的傾向性(neuroticism))空間を構成したものであり、図4上に図示された同じ質感の円錐形状は、それぞれの情緒を示すものである。すなわち、一つの円錐形状は一つの情緒確率分布を示すものである。図4に示したように、外向性と親和性というロボットの基本内部状態軸に近い箇所に、G1という情緒を表す確率分布曲線がかけられている。 First, referring to FIG. 4, FIG. 4 is a coordinate indicating an internal state space. Based on psychological FFM (Five Factor Model), a five-dimensional internal state (openness to experience, integrity) Conscientiousness, extraversion, agileness, neuroticism) spaces, and the conical shapes of the same texture shown in FIG. It shows emotion. That is, one cone shape indicates one emotion probability distribution. As shown in FIG. 4, a probability distribution curve representing the emotion of G1 is applied at a location close to the basic internal state axis of the robot such as outward and affinity.
以下、図3を参照して説明すれば、ロボットの情緒発生装置は、情緒値群生成部110及び情緒発生部130で形成される。情緒発生装置は、ロボットの内部状態空間上にロボットに付与された基本情緒から遠ざかるほど段々減少する情緒値を持つ情緒値群を生成する情緒値群生成部110、及び内部状態空間上でロボットの内部状態入力値の座標が表す各情緒値群の情緒値の集合を、ロボットの情緒として生成する情緒発生部130を備える。 Hereinafter, referring to FIG. 3, the emotion generation apparatus of the robot is formed by an emotion value group generation unit 110 and an emotion generation unit 130. The emotion generation device includes an emotion value group generation unit 110 that generates an emotion value group having an emotion value that gradually decreases as it moves away from the basic emotion assigned to the robot on the internal state space of the robot, and the robot on the internal state space. An emotion generation unit 130 is provided that generates a set of emotion values of each emotion value group represented by the coordinates of the internal state input values as the emotion of the robot.
すなわち、情緒値群生成部110は、前記の図4に示したように、円錐モデルの情緒分布を生成する役割を行い、情緒発生部130は、外部から入力された値及び前記の情緒値群生成部110で生成した情緒分布により情緒値の集合を生成する役割を行う。 That is, as shown in FIG. 4, the emotion value group generation unit 110 plays a role of generating an emotion distribution of a conical model, and the emotion generation unit 130 receives the value inputted from the outside and the emotion value group. It plays a role of generating a set of emotion values based on the emotion distribution generated by the generation unit 110.
情緒値群生成部110は、図2のように情緒座標系上の一座標に一つの情緒を設定することとは異なって、図4に示したように、内部状態の空間上に一つの情緒分布を設定する。 The emotion value group generation unit 110 is different from setting one emotion in one coordinate on the emotion coordinate system as shown in FIG. 2, and as shown in FIG. 4, one emotion is generated on the space of the internal state. Set the distribution.
ここで、一つの情緒分布は、複数のガウス分布G1またはガウスモードを持っている一つの生成的確率モデルとして表現され、情緒空間は、体積空間を形成する複数の生成的確率モデルとして表現される。この時、体積空間は、基本情緒の座標で最も大きく、基本情緒の座標から遠ざかるほど段々減少する複数の情緒値で表現される。そして、情緒値は情緒を表す大きさである。例えば、純粋に喜びの情緒のみある場合を仮定する時、同じ喜びでも喜びの大きさが異なる。このように喜びの大きさを表現するためのものが情緒値である。 Here, one emotion distribution is expressed as one generative probability model having a plurality of Gaussian distributions G1 or Gaussian modes, and the emotion space is expressed as a plurality of generative probability models forming a volume space. . At this time, the volume space is represented by a plurality of emotion values that are the largest in the coordinates of the basic emotion and gradually decrease as the distance from the coordinates of the basic emotion increases. The emotion value is a size representing the emotion. For example, assuming that there is purely the emotion of joy, the magnitude of joy differs even with the same joy. The emotional value is what expresses the magnitude of joy.
基本情緒は、ユーザがロボットに付与した情緒であり、喜び、悲しみ、怒り、驚き、恐れなどのように定義できる。これらの基本情緒は、ロボットの内部状態空間座標系上に設定される。 The basic emotion is the emotion given to the robot by the user, and can be defined as joy, sadness, anger, surprise, fear, etc. These basic emotions are set on the internal state space coordinate system of the robot.
情緒値群は多様に設定され、これらの情緒値群で生成された体積空間の形状は、ロボットの性格や性向と現れる。例えば、図4に示したように、同じ質感の円錐は同じ情緒を表し、各円錐の形態はロボットごとに異なり、これはロボットの固有性格になる。また、情緒値群の設定時に基本情緒の座標における情緒値を最も大きくし、基本情緒の座標から遠ざかるほど情緒値を段々低減させることが自然な情緒表現に有利であるが、必ずしもこれに限定される必要はない。 Various emotion value groups are set, and the shape of the volume space generated by these emotion value groups appears as the personality and propensity of the robot. For example, as shown in FIG. 4, cones with the same texture represent the same emotion, and the form of each cone is different for each robot, which is the unique character of the robot. In addition, it is advantageous for natural emotional expression to increase the emotional value at the basic emotional coordinates when setting the emotional value group, and to gradually reduce the emotional value as it moves away from the basic emotional coordinates. There is no need to
一方、情緒値群は、内部状態入力値に基づいて生成される。ロボットが情緒表現をするためには、初期に外部の刺激が必要である。かかる刺激はロボットに設置された情緒関連センサーにより感知され、センサーの感知結果は、ロボットが持っている内部空間状態の座標系上で表現できるデータに加工される。このように加工されたデータが内部状態入力値になりうる。また、情緒値群を内部状態入力値によって変動させることで、ダイナミックな情緒表現が可能になる。 On the other hand, the emotion value group is generated based on the internal state input value. In order for the robot to express emotions, external stimuli are necessary in the initial stage. Such a stimulus is detected by an emotion-related sensor installed in the robot, and the detection result of the sensor is processed into data that can be expressed on the coordinate system of the internal space state of the robot. Data processed in this way can be an internal state input value. Further, dynamic emotion expression can be achieved by changing the emotion value group according to the internal state input value.
一方、基本情緒は同じ基本情緒を複数持つことができる。この時、情緒値群生成部110は、同じ基本情緒の情緒値群を合成して一つの情緒値群を形成できる。 On the other hand, the basic emotion can have a plurality of the same basic emotions. At this time, the emotion value group generation unit 110 can synthesize emotion value groups of the same basic emotion to form one emotion value group.
学習能力が付与されたロボットの場合学習により、喜びの情緒座標が変動、追加、削除される。例えば、図5のように、喜びの座標1以外に学習により喜びの座標0.5が追加されうるが、情緒値群生成部110は、各喜びに対して情緒値群を生成する。このような場合、同じ情緒が二つであるため、これを取り合わせて一つの情緒値群と表すことができる。 In the case of a robot provided with learning ability, the emotional coordinates of pleasure are changed, added, or deleted by learning. For example, as shown in FIG. 5, a joy coordinate 0.5 can be added by learning in addition to the joy coordinate 1, but the emotion value group generation unit 110 generates an emotion value group for each joy. In such a case, since the same emotion is two, it can be combined and expressed as one emotion value group.
図5は、図3のロボットの情緒発生装置に採用可能な、同じ基本情緒が追加された場合の情緒発生方法を説明するための概略図である。 FIG. 5 is a schematic diagram for explaining an emotion generation method when the same basic emotion is added, which can be employed in the robot emotion generation apparatus of FIG. 3.
図5は、各情緒値群が基本情緒の座標を中心とするガウス曲線を形成する場合を示し、喜びの座標1のガウス曲線と、学習により新たに追加された喜び0.5のガウス曲線とが、混合ガウス分布(Gaussian Mixture Mode、GMM)により取り合わせられた状態を示す。 FIG. 5 shows a case where each emotion value group forms a Gaussian curve centered on the coordinates of the basic emotion, and a Gaussian curve with a joy coordinate of 1 and a Gaussian curve with a joy of 0.5 newly added by learning. Indicates a state of being combined by a Gaussian Mixture Mode (GMM).
このように、情緒発生部130は、内部状態空間の座標系上で、ロボットの内部状態入力値の座標が表す各情緒値群の情緒値の集合をロボットの情緒として生成する。かかる各情緒値群の情緒値の集合をロボットの情緒として生成する過程については、後述される。 As described above, the emotion generating unit 130 generates a set of emotion values of each emotion value group represented by the coordinates of the internal state input value of the robot as the emotion of the robot on the coordinate system of the internal state space. A process of generating a set of emotion values of each emotion value group as a robot emotion will be described later.
一方、本実施形態では、ガウス曲線で情緒値群を表したが、三角形のように、前述した体積空間の条件を満たす多様な曲線で情緒値群を表すことができる。ただし、中央値(基本情緒に対する情緒値など)を中心として散布の同じガウス曲線などを用いれば、ロボットの内部状態座標系で基準情緒を中心とする情緒値の散布を均一に形成することで、ロボットの情緒を表す情緒ベクトルの計算を容易に行えるが、必ずしもこれに限定されるものではない。 On the other hand, in this embodiment, the emotion value group is represented by a Gaussian curve, but the emotion value group can be represented by various curves that satisfy the above-described volume space conditions, such as a triangle. However, if you use the same Gaussian curve of the distribution around the median (emotion value for the basic emotion, etc.) An emotion vector representing the emotion of a robot can be easily calculated, but is not necessarily limited to this.
図6は、本発明の一実施形態による1次元情緒空間上に、他の情緒に対して2個の情緒確率分布(情緒値群)を持つ情緒モデルを示す図面であり、ロボットの情緒発生装置の動作を説明するための概略図である。説明の便宜のために、図6に示したように、1次元内部状態空間上に位置した情緒曲線を用いて情緒モデルを説明する。 FIG. 6 is a drawing showing an emotion model having two emotion probability distributions (emotional value groups) with respect to other emotions on a one-dimensional emotion space according to an embodiment of the present invention. It is the schematic for demonstrating operation | movement of. For convenience of explanation, as shown in FIG. 6, an emotion model is described using an emotion curve located on a one-dimensional internal state space.
図6では、1次元座標上に、基本情緒である喜びの座標1と他の基本情緒である悲しみの座標−1とが付与されており、各基本情緒に対してガウス曲線を形成する情緒確率分布が付与されている。 In FIG. 6, the coordinate 1 of pleasure that is the basic emotion and the coordinate 1 of sadness that is the other basic emotion are given on the one-dimensional coordinate, and the emotion probability that forms a Gaussian curve for each basic emotion. Distribution is given.
もし、内部状態入力値が0.3である場合、既存には喜びの座標1がロボットの情緒となったが、本実施形態の情緒発生部130によれば、0.3の座標が表す各情緒値群の情緒値の集合である{4,1}がロボットの情緒となる。もちろん、このような表現のためには、集合の元素順序を予め設定しておかねばならない。本実施形態では、{喜びの情緒値、悲しみの情緒値}のように設定された場合を示す。 If the internal state input value is 0.3, the coordinate 1 of joy is the emotion of the robot, but according to the emotion generation unit 130 of the present embodiment, each coordinate represented by the coordinate 0.3 {4, 1}, which is a set of emotion values in the emotion value group, is the emotion of the robot. Of course, for such an expression, the element order of the set must be set in advance. In the present embodiment, a case is shown where {emotional value of joy, emotional value of sadness} is set.
本実施形態によれば、単純に喜びを表す座標1でロボットの情緒を表現する代わりに、喜びの情緒の大きさが4であり、悲しみの情緒の大きさが1である複合情緒を信頼性のあるように生成できる。この時、ガウス曲線の形状によって複合情緒が変わるので、ガウス曲線はロボットの性格を形成するわけになる。 According to the present embodiment, instead of simply expressing the emotion of the robot with the coordinate 1 representing pleasure, the composite emotion having the emotion emotion size of 4 and the sadness emotion size of 1 is reliable. Can be generated. At this time, since the complex emotion changes depending on the shape of the Gaussian curve, the Gaussian curve forms the character of the robot.
また、次元によって、一つの内部状態入力値が一つの情緒確率分布で複数の入力値を表す場合、最も大きい値または最も小さな値または平均に近い値などを選択して一つの情緒値を抽出してもよい。結果的に複数次元で内部状態座標系が拡張される場合、内部状態入力値が表す入力値は内部状態当り一つのみ抽出してもよい。 Also, depending on the dimension, when one internal state input value represents multiple input values with one emotion probability distribution, the largest value, the smallest value, or a value close to the average is selected to extract one emotion value. May be. As a result, when the internal state coordinate system is expanded in multiple dimensions, only one input value represented by the internal state input value may be extracted per internal state.
一方、情緒発生部130は、ロボットの情緒を入力とするロボットの情緒表現装置の便宜を考慮して、複合情緒の各要素である集合の情緒値を確率的に表現できる。確率的な表現は、情緒値を百分率または総合1の分数で表すことを意味する。例えば、前記の例でロボットの情緒が{4,1}である場合、百分率で表せば{80,20}になり、総合1の分数で表せば{4/5,1/5}になる。 On the other hand, the emotion generation unit 130 can represent the emotion value of the set, which is each element of the complex emotion, stochastically in consideration of the convenience of the robot emotion expression device that receives the robot emotion as an input. Probabilistic expression means expressing emotional values as a percentage or as a whole fraction. For example, if the robot emotion is {4, 1} in the above example, {80, 20} is expressed as a percentage, and {4/5, 1/5} is expressed as a fraction of the total.
以下、本発明の人工情緒発生装置の動作を数式で説明する。 Hereinafter, the operation of the artificial emotion generating device of the present invention will be described with mathematical formulas.
内部状態座標系上に基本情緒を設定する。内部状態入力値と各基本情緒の情緒確率分布とによって各情緒の情緒値が定められ、これらの集合が複合情緒である。各情緒の確率分布(情緒値群)は、GMMを使用して形成でき、各情緒値の確率的表現は、ベイスの定理(Bayes' rule)を用いて計算される。細部事項は、次の通りである。 Set the basic emotion on the internal state coordinate system. The emotion value of each emotion is determined by the internal state input value and the emotion probability distribution of each basic emotion, and these sets are composite emotions. A probability distribution (a group of emotion values) of each emotion can be formed using GMM, and a probabilistic representation of each emotion value is calculated using a Bayes' rule. Details are as follows.
1)情緒値群生成入力値である内部状態ベクトルx(k)の定義
ロボットの最終情緒は、内部状態座標系上の内部状態入力値(ベクトル)に基づいて生成される。内部状態入力値x(k)は、ロボットの現在状態であり、周辺環境またはセンサー入力により定められる。これは、色々な方法で定められ、一例として、NEO−PI−R(the Revised NEO Personality Inventory)方法により定められる。内部状態入力値x(k)は、内部状態座標系の軸の数と同じ次元を持つ。例えば、FFM(心理学のFive Factor Model)を使用した5次元の内部状態ならば、内部状態入力値x(k)は5次ベクトルであり、Openness to experience、Conscientiousness、Extraversion、Agreeableness、Neuroticismの値を持ち、それぞれの値によってロボットの状態が定められる。
1) Definition of an internal state vector x (k) that is an emotion value group generation input value The final emotion of the robot is generated based on an internal state input value (vector) on the internal state coordinate system. The internal state input value x (k) is the current state of the robot and is determined by the surrounding environment or sensor input. This is determined by various methods. For example, the NEO-PI-R (the Revised NEO Personality Inventory) method is used. The internal state input value x (k) has the same dimension as the number of axes in the internal state coordinate system. For example, in the case of a five-dimensional internal state using FFM (Psychological Five Factor Model), the internal state input value x (k) is a fifth-order vector, and the values of Openness to experience, Conscientiousness, Extraneousness, Neutralis, and Neurotic. The state of the robot is determined by each value.
2)ロボットの情緒である情緒ベクトルe(k)の定義
最終情緒は、単純に一つの情緒値で表現されるものではなく、いろいろな情緒値の確率値が反映された複合情緒で生成される。この複合情緒は、情緒ベクトルe(k)で表すことができ、J個の情緒を使用するならば、ロボットの情緒は、次の数式1のように表すことができる。
3)情緒確率分布P(x(k)|ej)の設定
内部状態座標系上に各基本情緒に対する確率分布を配する。各基本情緒に対する確率分布は、GMMを使用する。これを用いれば、各基本情緒の分布をダイナミックに作ることができ、各情緒値を独立的に計算できる。n次元内部状態座標系で、j番目の基本情緒に対する情緒確率分布(情緒分布、情緒値群)P(x(k)|ej)は、次の数式2のように定められる。
である。そして、ωj,m(k)は、k時間でj番目の情緒分布のm番目のガウス分布またはガウスモードの加重値であり、Mj(k)は、k時間でj番目の情緒分布が持っているガウスモードの数であり、μj,m(k)は、k時間でj番目の情緒分布のm番目のガウスモードの中央値であり、Σj,m(k)は、k時間でj番目の情緒分布のm番目のガウスモードの帯域幅であり、x(k)は、k時間における内部状態入力値である。ガウスモードは、一つのガウス曲線を意味する。
3) Setting of emotion probability distribution P (x (k) | e j ) A probability distribution for each basic emotion is arranged on the internal state coordinate system. The probability distribution for each basic emotion uses GMM. If this is used, the distribution of each basic emotion can be made dynamically, and each emotion value can be calculated independently. In the n-dimensional internal state coordinate system, an emotion probability distribution (emotional distribution, emotion value group) P (x (k) | e j ) for the jth basic emotion is defined as in the following Equation 2.
It is. Ω j, m (k) is the weight of the mth Gaussian distribution or Gaussian mode of the jth emotion distribution at k hours, and M j (k) is the jth emotional distribution at k hours. Μ j, m (k) is the median value of the mth Gaussian mode of the jth emotion distribution in k hours, and Σ j, m (k) is k hours And the bandwidth of the mth Gaussian mode of the jth emotion distribution, and x (k) is the internal state input value at k hours. The Gaussian mode means one Gaussian curve.
4)情緒値の確率的表現であるP(ej|x(k))の計算
各情緒値の確率的表現(確率値)は、ベイスの定理を用いて数式3のように計算できる。ここで、j番目の情緒の確率値であるP(ej|x(k))は、事後確率(posterior probability)として使われる。
以上の数式1ないし3によれば、J個の基本情緒が付与された場合、J個のP(ej|x(k))を持つJ次元の情緒ベクトルe(k)が定められる。e(k)は、J個の情緒値が確率的表現で反映された複合情緒になる。 According to the above formulas 1 to 3, when J basic emotions are given, a J-dimensional emotion vector e (k) having J P (e j | x (k)) is determined. e (k) is a complex emotion in which J emotion values are reflected in a probabilistic expression.
図7は、本発明の一実施形態によるロボットの情緒発生方法を示すフローチャートである。 FIG. 7 is a flowchart showing a robot emotion generation method according to an embodiment of the present invention.
まず、ロボットに付与された基本情緒の座標から遠ざかるほど段々減少する情緒値を持つ情緒値群を、ロボットの内部状態座標系上に複数で生成する(S510)。 First, a plurality of emotion value groups having emotion values that gradually decrease with increasing distance from the basic emotion coordinates assigned to the robot are generated on the internal state coordinate system of the robot (S510).
情緒値群生成部110で行われる動作としてGMMを適用して情緒値群を生成できる。これによれば、数式2が行われた後、情緒値群であるP(x(k)|ej)が出力される。 An emotion value group can be generated by applying GMM as an operation performed by the emotion value group generation unit 110. According to this, after Equation 2 is performed, the emotion value group P (x (k) | e j ) is output.
次いで、内部状態座標系上でロボットの内部状態入力値の座標が表す各情緒値群の情緒値の集合を、ロボットの情緒として生成する(S530)。 Next, a set of emotion values of each emotion value group represented by the coordinates of the internal state input value of the robot on the internal state coordinate system is generated as the emotion of the robot (S530).
ここで、内部状態入力値は、ロボットの所定の入力部(図示せず)から出力される値に対応できる。その場合、入力部は、ロボットの外部環境情報を感知して内部状態座標系の一点または特定座標に対応するように内部状態入力値を出力する手段、またはかかる手段に相応する機能を行う構成部でありうる。 Here, the internal state input value can correspond to a value output from a predetermined input unit (not shown) of the robot. In that case, the input unit senses the external environment information of the robot and outputs a state input value so as to correspond to one point or a specific coordinate of the internal state coordinate system, or a component that performs a function corresponding to such a unit. It can be.
情緒発生部130で行われる動作として集合の情緒値にベイスの定理を適用して、各情緒値が確率的に表現されるようにさらに変換できる。これによれば、数式3が行われた後、情緒値の確率的表現であるP(ej|x(k))が出力される。 As an operation performed in the emotion generating unit 130, the base value theorem is applied to the emotion value of the set, and further conversion can be performed so that each emotion value is expressed stochastically. According to this, after Equation 3 is performed, P (e j | x (k)) that is a stochastic expression of the emotion value is output.
一方、前述した本発明のロボットの情緒発生方法は、コンピュータで読み取り可能な記録媒体にコンピュータで実行させるためのプログラム形態で記録できる。 On the other hand, the robot emotion generation method of the present invention described above can be recorded in the form of a program to be executed by a computer on a computer-readable recording medium.
一方、当業者ならば、本発明がその技術的思想や必須特徴を変更せずに他の具体的な形態で行われうるということを理解できるであろう。したがって、以上で記述した実施形態はあらゆる面で例示的なものであり、限定的なものではないと理解せねばならない。本発明の範囲は、前記詳細な説明よりは特許請求の範囲によって表れ、特許請求の範囲の意味及び範囲、そしてその等価概念から導出されるあらゆる変更または変形された形態が本発明の範囲に含まれていると解釈されねばならない。 On the other hand, those skilled in the art will understand that the present invention can be implemented in other specific forms without changing the technical idea and essential features. Accordingly, it should be understood that the embodiments described above are illustrative in all aspects and not limiting. The scope of the present invention is defined by the scope of the claims rather than the foregoing detailed description, and all modifications or variations derived from the meaning and scope of the claims and their equivalents are included in the scope of the present invention. Must be interpreted.
本発明は、ロボットなどの機械装置の情緒を生成する装置に適用できる。
特に、多様な情緒表現の可能な情緒表現装置の入力値の生成に用いられる。
The present invention can be applied to an apparatus that generates emotion of a mechanical device such as a robot.
In particular, it is used to generate an input value of an emotion expression device capable of various emotion expressions.
110 情緒値群生成部
130 情緒発生部
110 Emotion Value Group Generation Unit 130 Emotion Generation Unit
Claims (9)
機械装置の内部状態座標系上に、機械装置に付与された基本情緒から遠ざかるほど段々減少する情緒値を持つ情緒値群を生成する情緒値群生成部と、
前記内部状態座標系上で、前記機械装置の内部状態入力値の座標が表す各情緒値群の情緒値の集合を前記機械装置の情緒として生成する情緒発生部と、
を備える人工情緒発生装置。 An artificial emotion generator,
On the internal state coordinate system of the machine device, an emotion value group generation unit that generates an emotion value group having an emotion value that gradually decreases as it moves away from the basic emotion assigned to the machine device;
On the internal state coordinate system, an emotion generating unit that generates a set of emotion values of each emotion value group represented by the coordinates of the internal state input values of the mechanical device as emotions of the mechanical device;
An artificial emotion generating device comprising:
前記数式1において、n次元内部状態座標系でj番目の基本情緒に対する情緒確率分布または情緒値群P(x(k)|ej)は、次の数式2のように定められ、
であり、ωj,m(k)は、k時間でj番目の情緒分布のm番目のガウスモードの加重値であり、Mj(k)は、k時間でj番目の情緒分布が持っているガウスモードの数であり、μj,m(k)は、k時間でj番目の情緒分布のm番目のガウスモードの中央値であり、Σj,m(k)は、k時間でj番目の情緒分布のm番目のガウスモードの帯域幅であり、x(k)は、k時間における内部状態入力値であり、[]Tは、転置行列であり、
前記情緒確率分布または情緒値群P(x(k)|ej)の各情緒値の確率的表現(確率値)は、ベイスの定理を用いて数式3のように計算され、
In Equation 1, the emotion probability distribution or emotion value group P (x (k) | e j ) for the jth basic emotion in the n-dimensional internal state coordinate system is defined as Equation 2 below.
Ω j, m (k) is the weight value of the mth Gaussian mode of the jth emotion distribution at k hours, and M j (k) has the jth emotion distribution at k hours. Μ j, m (k) is the median value of the mth Gaussian mode of the jth emotion distribution at k hours, and Σ j, m (k) is j at k time. Is the bandwidth of the m th Gaussian mode of the th emotion distribution, x (k) is the internal state input value at k hours, [] T is the transpose matrix,
A probabilistic expression (probability value) of each emotional value of the emotion probability distribution or emotion value group P (x (k) | e j ) is calculated as shown in Equation 3 using a Bayes' theorem.
前記内部状態座標系上で、前記機械装置の内部状態入力値の座標が表す各情緒値群の情緒値の集合を前記機械装置の情緒として生成する段階と、
を含む人工情緒発生方法。 On the internal state coordinate system of the mechanical device, generating an emotion value group having an emotion value that gradually decreases as the distance from the basic emotion assigned to the mechanical device;
On the internal state coordinate system, generating a set of emotion values of each emotion value group represented by the coordinates of the internal state input values of the mechanical device as emotions of the mechanical device;
Artificial emotion generation method including.
前記数式1において、n次元内部状態座標系でj番目の基本情緒に対する情緒確率分布または情緒値群P(x(k)|ej)は、次の数式2のように定められ、
であり、ωj,m(k)は、k時間でj番目の情緒分布のm番目のガウスモードの加重値であり、Mj(k)は、k時間でj番目の情緒分布が持っているガウスモードの数であり、μj,m(k)は、k時間でj番目の情緒分布のm番目のガウスモードの中央値であり、Σj,m(k)は、k時間でj番目の情緒分布のm番目のガウスモードの帯域幅であり、x(k)は、k時間における内部状態入力値であり、[]Tは、転置行列であり;
前記情緒確率分布または情緒値群P(x(k)|ej)の各情緒値の確率的表現(確率値)は、ベイスの定理を用いて数式3のように計算され、
In Equation 1, the emotion probability distribution or emotion value group P (x (k) | e j ) for the jth basic emotion in the n-dimensional internal state coordinate system is defined as Equation 2 below.
Ω j, m (k) is the weight value of the mth Gaussian mode of the jth emotion distribution at k hours, and M j (k) has the jth emotion distribution at k hours. Μ j, m (k) is the median value of the mth Gaussian mode of the jth emotion distribution at k hours, and Σ j, m (k) is j at k time. The bandwidth of the m th Gaussian mode of the th emotion distribution, x (k) is the internal state input value at k hours, and [] T is the transpose matrix;
A probabilistic expression (probability value) of each emotional value of the emotion probability distribution or emotion value group P (x (k) | e j ) is calculated as shown in Equation 3 using a Bayes' theorem.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012281710A JP5605661B2 (en) | 2012-12-25 | 2012-12-25 | Artificial emotion generating apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012281710A JP5605661B2 (en) | 2012-12-25 | 2012-12-25 | Artificial emotion generating apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014126946A true JP2014126946A (en) | 2014-07-07 |
JP5605661B2 JP5605661B2 (en) | 2014-10-15 |
Family
ID=51406408
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012281710A Active JP5605661B2 (en) | 2012-12-25 | 2012-12-25 | Artificial emotion generating apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5605661B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002099545A1 (en) * | 2001-06-01 | 2002-12-12 | Sony International (Europe) Gmbh | Man-machine interface unit control method, robot apparatus, and its action control method |
JP2005199402A (en) * | 2004-01-16 | 2005-07-28 | Sony Corp | Behavior control system and method of robot device |
WO2007043679A1 (en) * | 2005-10-14 | 2007-04-19 | Sharp Kabushiki Kaisha | Information processing device, and program |
-
2012
- 2012-12-25 JP JP2012281710A patent/JP5605661B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002099545A1 (en) * | 2001-06-01 | 2002-12-12 | Sony International (Europe) Gmbh | Man-machine interface unit control method, robot apparatus, and its action control method |
JP2005199402A (en) * | 2004-01-16 | 2005-07-28 | Sony Corp | Behavior control system and method of robot device |
WO2007043679A1 (en) * | 2005-10-14 | 2007-04-19 | Sharp Kabushiki Kaisha | Information processing device, and program |
Non-Patent Citations (1)
Title |
---|
尾形 哲也 外1名: "情動モデルを有する自律ロボットWAMOEBA−2と人間との情緒交流", 日本機械学会論文集 C編, vol. 65, no. 633, JPN6014003909, 25 May 1999 (1999-05-25), JP, pages 166 - 172, ISSN: 0002862618 * |
Also Published As
Publication number | Publication date |
---|---|
JP5605661B2 (en) | 2014-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101558202B1 (en) | Apparatus and method for generating animation using avatar | |
JP5967838B2 (en) | Synchronizing humanoid robot gestures and voice | |
KR101819535B1 (en) | Method and apparatus for expressing rigid area based on expression control points | |
Jörg et al. | Data-driven finger motion synthesis for gesturing characters | |
US8972313B2 (en) | Apparatus and method for learning emotion of robot | |
KR20130091364A (en) | Apparatus and method for generating emotion of robot | |
JP5624100B2 (en) | Artificial emotion learning apparatus and method | |
US20200110925A1 (en) | System and method for simulating facial expression of virtual facial model | |
Wu et al. | Establishment virtual maintenance environment based on VIRTOOLS to effectively enhance the sense of immersion of teaching equipment | |
EP3872771B1 (en) | Determining a 3d modeled object deformation | |
EP3859610A1 (en) | Deformations basis learning | |
JP6201212B2 (en) | Character generating apparatus and program | |
US9324245B2 (en) | Apparatus and method for creating artificial feelings | |
Magnenat-Thalmann et al. | Context aware human-robot and human-agent interaction | |
KR101284642B1 (en) | Apparatus for generating emotion of robot | |
JP5605661B2 (en) | Artificial emotion generating apparatus and method | |
JP5521240B1 (en) | Apparatus and method for selecting an artificial emotional expression operation | |
JP2014006804A (en) | Sampling device, sampling method, approximation model generation apparatus, approximation model generation method, and program | |
JP2022509916A (en) | Morph target animation | |
CN111739135A (en) | Virtual character model processing method and device and readable storage medium | |
JP2017107310A (en) | Tiling graphic generation system, tiling graphic generation method and program | |
Gandotra et al. | TOOLS AND TECHNIQUES FOR CONCEPTUAL DESIGN IN VIRTUAL REALITY ENVIRONMENT. | |
JP5527747B1 (en) | Apparatus and method for selecting a continuous emotional expression operation of a mechanical device | |
Schiffer | Measuring Emotion Intensity: Evaluating Resemblance in Neural Network Facial Animation Controllers and Facial Emotion Corpora. | |
Kocoń | Influence of facial expressions on the human head movements |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140425 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140729 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140813 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5605661 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |