JP6201212B2 - Character generating apparatus and program - Google Patents
Character generating apparatus and program Download PDFInfo
- Publication number
- JP6201212B2 JP6201212B2 JP2013200422A JP2013200422A JP6201212B2 JP 6201212 B2 JP6201212 B2 JP 6201212B2 JP 2013200422 A JP2013200422 A JP 2013200422A JP 2013200422 A JP2013200422 A JP 2013200422A JP 6201212 B2 JP6201212 B2 JP 6201212B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- emotion
- information indicating
- data
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、感情を表現可能なキャラクタを生成するキャラクタ生成装置およびプログラムに関する。 The present invention relates to a character generation device and a program for generating a character capable of expressing emotion.
従来から、マウスクリックやテキストデータなど、任意の入力情報に基づいて、キャラクタの表情を生成する技術が知られている。例えば、特許文献1に開示されている技術では、入力されたテキストデータを解析してセグメント毎に感情情報を付与し、付与された感情に対応するキャラクタを表情付で表示する。すなわち、この技術は、顔画像を構成する複数の顔部品画像を合成して特定の表情を生成する表情生成方法であり、複数の表情と、各表情に対応して顔部品画像毎に設定される所定の判断基準から構成される表情カテゴリ空間とを関連付けて格納し、表情カテゴリ空間での種々の表情に対応する各顔部品画像についての位置情報を格納する。そして、外部から入力される操作データと、表情カテゴリ空間にて設定される各表情とを関連付ける。
Conventionally, a technique for generating a facial expression of a character based on arbitrary input information such as a mouse click or text data is known. For example, in the technique disclosed in
また、特許文献2に開示されている技術では、利用者との自然な会話を通じて適切なサービス・情報の取捨選択を支援し、当該利用者にとって有益なサービス・情報の提供を支援する。すなわち、この技術は、キャラクタを介したインタフェースを介して利用者と対話を行うことができる。利用者から入力された対話は、対話認識部で認識され、利用者プロファイル情報として格納される。対話認識結果および利用者プロファイル情報がフィードバックされ、知識ベースを基に、対話文を生成し、利用者に対話を出力する。
The technology disclosed in
しかしながら、特許文献1に開示されている技術では、感情情報が付与されたキャラクタの表情は生成できるが、キャタクタの仕草までは生成できない。また、特許文献2に開示されている技術では、利用者との対話の認識結果を利用して利用者プロファイル情報を更新し、対話制御部へのフィードバックを行って、将来の対話分選択に反映させているが、生成するキャラクタは感情を持っておらず、キャラクタの感情生成部へのフィードバックについては考慮されていない。
However, with the technique disclosed in
本発明は、このような事情に鑑みてなされたものであり、利用者との任意の入出力結果を、キャラクタの感情生成部にフィードバックし、将来のキャラクタ生成に反映させることができるキャラクタ生成装置およびプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and a character generation device capable of feeding back an arbitrary input / output result with a user to the emotion generation unit of the character and reflecting it in future character generation. And to provide a program.
(1)上記の目的を達成するために、本発明は、以下のような手段を講じた。すなわち、本発明のキャラクタ生成装置は、感情を表現可能なキャラクタを生成するキャラクタ生成装置であって、入力データに基づいて、前記キャラクタの表情または仕草を含む動作を決定し、前記動作を示す情報を出力する動作決定部と、前記入力データの感情分類を示す情報に基づいて、前記キャラクタの動作を示す情報に感情を示す情報を付与する感情付与部と、前記動作の表示または前記感情の表示に対応するフィードバックデータに基づいて、前記動作を示す情報または前記感情を示す情報を更新する情報反映部と、を備えることを特徴とする。 (1) In order to achieve the above object, the present invention takes the following measures. That is, the character generation device of the present invention is a character generation device that generates a character capable of expressing emotion, and determines an action including the facial expression or gesture of the character based on input data, and indicates the action Based on information indicating emotion classification of the input data, an emotion imparting unit that provides information indicating emotion to information indicating the motion of the character, display of the motion or display of the emotion And an information reflecting unit that updates information indicating the action or information indicating the emotion based on feedback data corresponding to.
このように、入力データに基づいて、キャラクタの表情または仕草を含む動作を決定し、動作を示す情報を出力し、入力データの感情分類を示す情報に基づいて、キャラクタの動作を示す情報に感情を示す情報を付与し、動作の表示または感情の表示に対応するフィードバックデータに基づいて、動作を示す情報または感情を示す情報を更新するので、利用者の反応を将来のキャラクタ生成に反映させることができる。また、感情が付与されたキャラクタの表情だけでなく、感情が付与されたキャタクタの仕草も生成することができる。 As described above, based on the input data, the action including the facial expression or gesture of the character is determined, information indicating the action is output, and the information indicating the character classification of the input data is used as the information indicating the action of the character. The information indicating the motion or the information indicating the emotion is updated based on the feedback data corresponding to the motion display or the emotion display, so that the reaction of the user is reflected in future character generation. Can do. Further, not only the facial expression of the character to which the emotion is given, but also the gesture of the character to which the emotion is given can be generated.
(2)また、本発明のキャラクタ生成装置は、前記フィードバックデータを入力するフィードバック入力部を更に備えることを特徴とする。 (2) The character generation device of the present invention is further characterized by further comprising a feedback input unit for inputting the feedback data.
このように、フィードバックデータを入力するフィードバック入力部を更に備えるので、利用者の反応を将来のキャラクタ生成に反映させることができる。 Thus, since the feedback input part which inputs feedback data is further provided, a user's reaction can be reflected in future character production | generation.
(3)また、本発明のキャラクタ生成装置は、前記入力データの感情分類の強度を示す情報に基づいて、前記感情を示す情報が付与されたキャラクタの動作を示す情報を再生する際の動作の強弱を制御する強弱制御部を更に備えることを特徴とする。 (3) Further, the character generation device according to the present invention is configured to reproduce an action when reproducing the information indicating the action of the character to which the information indicating the emotion is given based on the information indicating the strength of the emotion classification of the input data. It further comprises a strength control section for controlling strength.
このように、入力データの感情分類の強度を示す情報に基づいて、感情を示す情報が付与されたキャラクタの動作を示す情報を再生する際の動作の強弱を制御する強弱制御部を更に備えるので、キャラクタの表現力を向上させることが可能となる。 As described above, the apparatus further includes a strength control unit that controls the strength of the motion when reproducing the information indicating the motion of the character to which the information indicating the emotion is given based on the information indicating the strength of the emotion classification of the input data. The character's expressive power can be improved.
(4)また、本発明のキャラクタ生成装置は、入力された任意のデータの感情分類または前記感情分類の強度を解析する感情解析部を更に備えることを特徴とする。 (4) Moreover, the character generation device of the present invention is further characterized by further comprising an emotion analysis unit for analyzing the emotion classification of arbitrary input data or the intensity of the emotion classification.
このように、入力された任意のデータの感情分類または前記感情分類の強度を解析する感情解析部を更に備えるので、メールや人間の行動等、会話では表現できない複雑な感情が連続的に入力された場合でも、感情が付与されたキャラクタを自動的に生成することができる。 In this way, since it is further provided with an emotion analysis unit that analyzes the emotion classification of arbitrary input data or the strength of the emotion classification, complex emotions that cannot be expressed in conversation, such as e-mail and human behavior, are continuously input. Even in such a case, it is possible to automatically generate a character provided with emotion.
(5)また、本発明のキャラクタ生成装置は、任意のデータを入力するデータ入力部を更に備えることを特徴とする。 (5) In addition, the character generation device of the present invention further includes a data input unit for inputting arbitrary data.
このように、任意のデータを入力するデータ入力部を更に備えるので、任意のデータを用いてキャラクタを生成することが可能となる。 Thus, since the data input part which inputs arbitrary data is further provided, it becomes possible to produce | generate a character using arbitrary data.
(6)また、本発明のキャラクタ生成装置は、前記感情を示す情報が付与されたキャラクタの動作を示す情報を再生するキャラクタ再生部を更に備えることを特徴とする。 (6) In addition, the character generation device of the present invention further includes a character reproduction unit that reproduces information indicating the action of the character to which the information indicating the emotion is given.
このように、感情を示す情報が付与されたキャラクタの動作を示す情報を再生するキャラクタ再生部を更に備えるので、利用者に対して生成したキャラクタを視認させることが可能となる。 Thus, since the character reproducing part which reproduces | regenerates the information which shows the motion of the character to which the information which shows an emotion was provided is further provided, it becomes possible to make a user visually recognize the produced | generated character.
(7)また、本発明のプログラムは、感情を表現可能なキャラクタを生成するプログラムであって、入力データに基づいて、前記キャラクタの表情または仕草を含む動作を決定し、前記動作を示す情報を出力する処理と、前記入力データの感情分類を示す情報に基づいて、前記キャラクタの動作を示す情報に感情を示す情報を付与する処理と、前記動作の表示または前記感情の表示に対応するフィードバックデータに基づいて、前記動作を示す情報または前記感情を示す情報を更新する処理と、の一連の処理を、コンピュータに実行させることを特徴とする。 (7) The program of the present invention is a program for generating a character capable of expressing emotions, and determines an action including the facial expression or gesture of the character based on input data, and includes information indicating the action. A process of outputting, a process of adding information indicating emotion to information indicating the motion of the character based on information indicating the emotion classification of the input data, and feedback data corresponding to the display of the motion or the display of the emotion And a process of updating the information indicating the action or the information indicating the emotion, and a series of processes to be executed by the computer.
このように、入力データに基づいて、キャラクタの表情または仕草を含む動作を決定し、動作を示す情報を出力し、入力データの感情分類を示す情報に基づいて、キャラクタの動作を示す情報に感情を示す情報を付与し、動作の表示または感情の表示に対応するフィードバックデータに基づいて、動作を示す情報または感情を示す情報を更新するので、利用者の反応を将来のキャラクタ生成に反映させることができる。また、感情が付与されたキャラクタの表情だけでなく、感情が付与されたキャタクタの仕草も生成することができる。 As described above, based on the input data, the action including the facial expression or gesture of the character is determined, information indicating the action is output, and the information indicating the character classification of the input data is used as the information indicating the action of the character. The information indicating the motion or the information indicating the emotion is updated based on the feedback data corresponding to the motion display or the emotion display, so that the reaction of the user is reflected in future character generation. Can do. Further, not only the facial expression of the character to which the emotion is given, but also the gesture of the character to which the emotion is given can be generated.
本発明によれば、利用者の反応を将来のキャラクタ生成に反映させることができる。また、感情が付与されたキャラクタの表情だけでなく、感情が付与されたキャタクタの仕草も生成することができる。 According to the present invention, a user's reaction can be reflected in future character generation. Further, not only the facial expression of the character to which the emotion is given, but also the gesture of the character to which the emotion is given can be generated.
本実施形態に係るキャラクタ生成装置は、利用者との任意の入出力結果を、キャラクタの感情生成部にフィードバックし、将来のキャラクタ生成に反映させる。本明細書において、「表情」とは、人物を含む生物または生物を模擬したキャタクタが何か行動を起こしたり感情を表したりする際の顔つきのことを指し、「仕草」とは、体の動作や身のこなしのことを意味する。 The character generation device according to this embodiment feeds back an arbitrary input / output result with the user to the emotion generation unit of the character and reflects it in future character generation. In this specification, “expression” refers to a face when a creature including a person or a character that simulates a creature takes action or expresses emotion, and “gesture” refers to a movement of the body. It means to do things.
本発明の実施形態に係るキャラクタ生成装置は、入力された任意のテキストデータに基づいて、キャラクタの表情または仕草を決定し、入力されたテキストデータにおける感情分類を示す情報に応じて、キャラクタの表情または仕草に感情を付与すると共に、動作決定または感情付与に対するフィードバックデータに基づいて、動作決定または感情付与を更新する。これにより、利用者の反応を将来のキャラクタ生成に反映させることができる。また、感情が付与されたキャラクタの表情だけでなく、感情が付与されたキャタクタの仕草も生成することができる。 A character generation device according to an embodiment of the present invention determines a facial expression or gesture of a character based on input arbitrary text data, and determines the facial expression of the character according to information indicating emotion classification in the input text data. Or while giving an emotion to a gesture, based on the feedback data with respect to action determination or emotion provision, action determination or emotion provision is updated. Thereby, a user's reaction can be reflected in future character generation. Further, not only the facial expression of the character to which the emotion is given, but also the gesture of the character to which the emotion is given can be generated.
本明細書では、一例として、テキストを用いたキャラクタ生成装置を示すが、本発明の技術的思想は、テキスト情報に限定されるわけではない。例えば、「音声」を入力情報とし、音声認識により、テキストデータまたはフィードバックデータを取得しても良い。また、「音響」を入力情報とし、平均テンポ、音色、音圧レベル、音圧レベルの変動により、感情分類およびその強度を抽出しても良い。また、「キー操作」を入力情報として、感情分類及びその強度をキー操作により入力するようにしても良い。 In this specification, a character generation device using text is shown as an example, but the technical idea of the present invention is not limited to text information. For example, text data or feedback data may be acquired by speech recognition using “speech” as input information. In addition, “acoustic” may be input information, and emotion classification and intensity may be extracted based on fluctuations in average tempo, tone color, sound pressure level, and sound pressure level. Further, the emotion classification and its strength may be input by key operation using “key operation” as input information.
また、「タッチ」を入力情報として、感情分類およびその強度をタッチ操作により入力するようにしても良い。また、「画像」を入力情報として、画像における表情認識技術を利用して、感情分類およびその強度を抽出しても良い。この場合、感情認識カメラを用いることも可能である。また、「映像」を入力情報として、「音声」と「画像」における例を併用し、感情分類及びその強度を抽出するようにしても良い。これにより、メールや人間の行動等、会話では表現できない複雑な感情が連続的に入力された場合でも、感情が付与されたキャラクタを自動的に生成することができる。 In addition, “touch” may be used as input information, and emotion classification and intensity may be input by a touch operation. Further, the emotion classification and its intensity may be extracted using “image” as input information using facial expression recognition technology in the image. In this case, an emotion recognition camera can be used. In addition, with “video” as input information, the examples of “voice” and “image” may be used together to extract emotion classification and its intensity. Thereby, even when complicated emotions that cannot be expressed in conversation, such as e-mails and human actions, are continuously input, it is possible to automatically generate a character with emotions.
図1は、本実施形態に係るキャラクタ生成装置の概略構成を示す図である。図1に示すように、キャラクタ生成装置は、ディスプレイ10と、キーボード20と、PC(Personal Computer)30とから構成されている。そして、キーボード20によりPC30にテキストデータ40及びフィードバックデータ50が入力される。なお、図1では、キーボード20が、PC30に接続されているが、本発明の技術的思想は、これに限定されるわけではなく、任意手段によりPCに対してテキストデータが入力されれば十分である。
FIG. 1 is a diagram illustrating a schematic configuration of a character generation device according to the present embodiment. As shown in FIG. 1, the character generation device includes a
PC30は、ケーブル30aを介してキャラクタ再生装置としてのディスプレイ10に接続されている。PC30では、入力されるテキストデータ40における感情分類または感情分類の強度を解析すると共に、テキストデータ40に基づいてキャラクタの表情または仕草を決定する。また、解析分類された感情に基づいて決定されたキャラクタの表情または仕草に感情を付与する。
The
さらに、解析された感情分類の強度に基づいて生成したキャラクタの仕草における強弱を制御する。さらに、PC30は、解析された感情分類に基づいて生成されたキャラクタの表情または仕草、解析された感情分類の強度に基づいて強弱が制御されたキャラクタの表情または仕草の画像を生成して、画像信号を随時ディスプレイ10に発信する。その際、PC30において生成された画像はディスプレイ10にA1として映写される。なお、本発明の実施形態に係るキャラクタ生成装置では、合成されたキャラクタの表情または仕草の画像信号をディスプレイ10に発信しなくても構わない。そして、PC30は、フィードバックデータ50に基づいて動作決定または感情付与を更新する。
Furthermore, the strength of the character gesture generated based on the analyzed emotion classification strength is controlled. Further, the
図2は、実施形態に係るキャラクタ生成装置の機能を示すブロック図である。PC30の感情解析部30−1は、ユーザの入力操作を受け付けて、入力された任意のデータから各データにおける感情分類または感情分類の強度を解析する。すなわち、感情解析部30−1は、キーボード20により入力されたテキストデータ40を認識して、テキストデータ40における感情分類または感情分類の強度を解析する。また、PC30の動作決定部30−2は、キャラクタの動作を決定する。すなわち、動作決定部30−2は、キーボード20により入力されたテキストデータ40を認識し、テキストデータ40に基づいて、キャラクタの表情または仕草を決定する。
FIG. 2 is a block diagram illustrating functions of the character generation device according to the embodiment. The emotion analysis unit 30-1 of the
PC30の感情付与部30−3は、キャラクタの表情または仕草に感情を付与する。すなわち、感情付与部30−3は、感情解析部30−1が解析した感情分類に基づいて、中立的な表情または仕草を変換し、キャラクタの表情または仕草に感情を付与する。また、PC30の強弱制御部30−4は、キャラクタの表情または仕草における強弱を制御する。すなわち、強弱制御部30−4は、感情解析部30−1が解析した感情分類の強度に基づいて、感情付与部30−3が感情を付与したキャラクタの表情または仕草における強弱を制御する。
The emotion imparting unit 30-3 of the
PC30のキャラクタ再生部30−5は、キャラクタの表情または仕草の画像を再生する。すなわち、キャラクタ再生部30−5は、感情付与部30−3が感情を付与したキャラクタの表情または仕草、強弱制御部30−4が強弱を制御したキャラクタの表情または仕草の画像を再生する。
The character reproduction unit 30-5 of the
PC30の情報反映部30−6は、フィードバックデータの結果を将来のキャラクタ生成に反映させる。すなわち、情報反映部30−6は、キーボード20により入力されたフィードバックデータ50を認識し、その結果を動作決定部30−2または感情付与部30−3にフィードバックする。
The information reflecting unit 30-6 of the
図3は、実施形態に係るキャラクタ生成装置の動作を示すフローチャートである。初めに、PC30に、キーボード20によりテキストデータ40が入力される(ステップS1)。次に、PC30において、入力されるテキストデータ40を認識して、テキストデータ40における感情分類及び強度を解析する(ステップS2)。ここでは、入力されるテキストデータ40が単語の場合を説明するが、本発明の技術的思想は、単語に限定されるわけではなく、句であっても文であっても良い。本実施形態では、感情分類とそれぞれの強度から構成される感情語データベースを使用する。
FIG. 3 is a flowchart illustrating the operation of the character generation device according to the embodiment. First, text data 40 is input to the
なお、感情語データベースは、日本語辞書などの大量の単語データベースに存在する全ての単語に対して、人間の表情形成に用いられる感情分類「喜び」「悲しみ」「怒り」「嫌悪」「恐怖」「罪」「恥」「興味」「驚き」の9つがどれくらいの割合で存在するか規定し、それぞれの感情強度を0〜1の範囲で、0.1刻みに10段階で指定して、予め形成されている。また、入力されるテキストデータ40が句または文である場合は、単語の場合と同様に、句または文に全体における感情分類とそれぞれの強度から構成される感情句データベースまたは感情文データベースを使用すれば良い。ここで、「喜び」の強度をS1、「悲しみ」の強度をS2、「怒り」の強度をS3、「嫌悪」の強度をS4、「恐怖」の強度をS5、「罪」の強度をS6、「恥」の強度をS7、「興味」の強度をS8、「驚き」の強度をS9と表す。ただし、Siは、次の数式を満たす。 The emotion word database is the emotion classification "joy", "sadness", "anger", "disgust", "fear" used for human expression formation for all words in a large number of word databases such as Japanese dictionary Specify the ratio of “Sin”, “Shame”, “Interest”, and “Surprise”, and specify the emotional intensity in the range of 0 to 1 in 10 steps in increments of 0.1. Is formed. In addition, when the input text data 40 is a phrase or sentence, as in the case of a word, an emotion phrase database or emotion sentence database composed of the emotion classification and the strength of each is used for the phrase or sentence. It ’s fine. Here, the intensity of “joy” is S 1 , the intensity of “sadness” is S 2 , the intensity of “anger” is S 3 , the intensity of “hate” is S 4 , the intensity of “fear” is S 5 , “sin” Is expressed as S 6 , “Shame” as S 7 , “Interest” as S 8 , and “Surprise” as S 9 . However, S i satisfies the following equation.
なお、ここで言う動きデータは、キャラクタの全ての骨格が任意の時刻において何れの空間位置座標に存在するかが記述されている。テキストデータ40が入力されると、テキストデータ40における類似度パラメータを算出し、動作データベースの中にある全ての動きデータにおける類似度パラメータとのコサイン類似度を求め、最も値の大きい表情または仕草をキャラクタの動作hとして決定すると共に、動作データベースの動作hにおけるキャラクタの動きデータを、本キャラクタ生成装置における動きデータとして生成する。 Note that the motion data described here describes in which spatial position coordinates all skeletons of the character exist at an arbitrary time. When the text data 40 is input, the similarity parameter in the text data 40 is calculated, the cosine similarity with the similarity parameter in all motion data in the motion database is obtained, and the facial expression or gesture having the largest value is obtained. While determining as the character's motion h, the character motion data in the motion database motion h is generated as motion data in the character generation device.
次に、PC30において、ステップS3で決定されたキャラクタの表情または仕草に感情を付与する。(ステップS4)。
Next, in the
まず、ステップS2で解析された感情に基づいて、ステップS3で決定されたキャラクタの表情に感情を付与する方法について述べる。本実施形態では、ステップS3でキャラクタの表情として決定された動作hを、ステップS2で解析された感情に応じて合成変換することで、キャラクタの表情に感情を付与する。まず、人間の表情形成に用いられる感情分類「喜び」「悲しみ」「怒り」「嫌悪」「恐怖」「罪」「恥」「興味」「驚き」の9つの感情における表情において、無感情の表情からの変化量を、キャラクタの表情における全てのポリゴン(polygon)に対してそれぞれ定義しておく。 First, a method for imparting emotion to the facial expression of the character determined in step S3 based on the emotion analyzed in step S2 will be described. In the present embodiment, the motion h determined as the character's facial expression in step S3 is synthesized and converted according to the emotion analyzed in step S2, thereby giving the emotion to the character's facial expression. First of all, the emotional expressions used in the human emotional expression “joy”, “sadness”, “anger”, “disgust”, “fear”, “sin”, “shame”, “interest” and “surprise”. The amount of change from is defined for each polygon in the character's expression.
ここで、キャラクタの表情の中のあるポリゴンPに対して、「喜び」の基本表情における無感情の表情との座標の差分を(X1,Y1,Z1)、「悲しみ」の基本表情における無感情の表情との座標の差分を(X2,Y2,Z2)、「怒り」の基本表情における無感情の表情との座標の差分を(X3,Y3,Z3)、「嫌悪」の基本表情における無感情の表情との座標の差分を(X4,Y4,Z4)、「恐怖」の基本表情における無感情の表情との座標の差分を(X5,Y5,Z5)、「罪」の基本表情における無感情の表情との座標の差分を(X6,Y6,Z6)、「恥」の基本表情における無感情の表情との座標の差分を(X7,Y7,Z7)、「興味」の基本表情における無感情の表情との座標の差分を(X8,Y8,Z8)、「驚き」の基本表情における無感情の表情との座標の差分を(X9,Y9,Z9)、と表す。 Here, for a certain polygon P in the character's facial expression, the difference in coordinates from the emotional expression in the basic expression of “joy” is (X 1 , Y 1 , Z 1 ), and the basic expression of “sadness” (X 2 , Y 2 , Z 2 ), the difference in coordinates from the emotional expression in the basic expression of “anger” (X 3 , Y 3 , Z 3 ), The coordinate difference from the emotional expression in the basic expression of “disgust” is (X 4 , Y 4 , Z 4 ), and the coordinate difference from the emotional expression in the basic expression of “fear” is (X 5 , Y 5 , Z 5 ), the difference in coordinates with the emotional expression in the basic expression of “Sin” (X 6 , Y 6 , Z 6 ), the difference in coordinates with the emotional expression in the basic expression of “shame” the (X 7, Y 7, Z 7), the coordinate difference between the expression of apathy in the basic facial expressions of "interest" (X 8, Y 8, Z 8), "surprise (X 9, Y 9, Z 9) the difference between the coordinates of the facial expression of apathy in the basic facial expression, and it represents.
そして、ステップS3でキャラクタの表情として決定された動作hを、ステップS2で解析された感情に応じて合成変換し、キャラクタの表情に感情を付与する。すなわち、動作hのあるフレームにおけるPの座標を(X0,Y0,Z0)とすると、感情が付与されたキャラクタの表情におけるPの座標(XE,YE,ZE)は、次式で表わされる。 Then, the motion h determined as the facial expression of the character in step S3 is synthesized and converted according to the emotion analyzed in step S2, and the emotion is added to the facial expression of the character. That is, if the coordinates of P in a frame with motion h are (X 0 , Y 0 , Z 0 ), the coordinates of P (X E , Y E , Z E ) in the facial expression of the character to which emotion is given are It is expressed by a formula.
次に、ステップS2で解析された感情に基づいて、ステップS3で決定されたキャラクタの仕草に感情を付与する方法について述べる。本実施形態では、予め収録された全ての仕草における無感情の動きデータ及び各感情分類の動きデータを学習させ、無感情の動きデータから各感情分類の動きデータへの変換を予め定義し、ステップS3で決定した動作hにおける無感情の動きデータを、ステップS2で解析された感情に応じて合成変換することで、キャラクタの仕草に感情を付与する。 Next, a method for imparting emotion to the character's gesture determined in step S3 based on the emotion analyzed in step S2 will be described. In this embodiment, the emotionless motion data and motion data of each emotion classification in all pre-recorded gestures are learned, the conversion from the emotionless motion data to the motion data of each emotion classification is defined in advance, Emotion is given to the character's gesture by synthesizing and converting the emotionless motion data in motion h determined in S3 according to the emotion analyzed in step S2.
本明細書では、一例として、主成分分析を用いてキャラクタの仕草に感情を付与するが、本発明の技術的思想は、主成分分析に限定されるわけでなく、非線形状態空間写像や機械学習等、別の方法を用いてキャラクタの仕草に感情を付与しても良い。まず、無感情及び人間の表情形成に用いられる感情分類「喜び」「悲しみ」「怒り」「嫌悪」「恐怖」「罪」「恥」「興味」「驚き」の9つの感情における仕草を予め複数用意し、学習用データベースに登録しておく。登録された全ての仕草における無感情の動きデータ及び各感情分類の動きデータを学習し、線形回帰手法により、無感情の動きデータから各感情分類の動きデータに変換するためのパラメータを算出する。すなわち、収録された仕草m(m=1,2,…)における無感情の動きデータの第j主成分座標の微分値kj(m)を用いて、次の数式により線形回帰演算を行って、変換パラメータaj i、bj iを算出する。 In this specification, as an example, emotion is imparted to the character's gesture using principal component analysis, but the technical idea of the present invention is not limited to principal component analysis, but nonlinear state space mapping or machine learning. Emotion may be imparted to the character's gesture using another method. First of all, there are several gestures for nine emotions: emotion, joy, sadness, anger, disgust, fear, sin, shame, interest, and surprise. Prepare and register in the learning database. The emotionless motion data and the motion data of each emotion classification in all registered gestures are learned, and parameters for converting the emotionless motion data into motion data of each emotion classification are calculated by a linear regression method. That is, using the differential value k j (m) of the j-th principal component coordinate of emotionless motion data in the recorded gesture m (m = 1, 2,...), Linear regression calculation is performed using the following formula. , Conversion parameters a j i and b j i are calculated.
次に、PC30において、解析された感情分類の強度に基づいて、付与したキャラクタの表情または仕草における感情の強弱を制御する(ステップS5)。本実施形態では、入力されるテキストデータ40における全体強度Wに応じて、ステップS4で感情を付与したキャラクタの動作hにおける動きデータの第j主成分座標の微分値pjを次の数式のように重み付けし、強弱を制御したキャラクタの新たな動作hにおける動きデータの第j主成分座標の微分値ojを算出する。
Next, the
次に、PC30において、解析された感情分類に基づいて感情が付与されたキャラクタの表情または仕草、解析された感情分類の強度に基づいて強弱が制御されたキャタクタの表情または仕草の画像を生成する(ステップS6)。ここで、キーボード20により入力されるテキストデータ40が続行するかどうかを判断し(ステップS6−2)、続行する場合は、キャラクタの表情または仕草の画像を生成した後、ステップS2に戻り、次のテキストデータ40に対しての処理を開始する。一方、ステップS6−2において、テキストデータ40が続行しない場合は、ステップS7に遷移する。
Next, the
最後に、生成されたキャラクタの表情または仕草の画像をディスプレイ10に映写する(ステップS7)。 Finally, the generated facial expression or gesture image is displayed on the display 10 (step S7).
一方、PC30において、動作決定または感情付与に対するフィードバックデータに基づいて、動作決定または感情付与を更新する(ステップS8)。なお、本発明の技術的思想では、テキストデータを入力した利用者と異なる利用者がフィードバックデータを入力しても良く、その場合、ステップS1からステップS7の処理と、ステップS8の処理は並列に行われる。その際に、ステップS2の動作決定処理とステップS8の情報更新処理、または、ステップS3の感情付与処理とステップS8の情報更新処理が同時に実行された場合は、何れの場合もステップS8の情報更新処理を優先して実行することとする。
On the other hand, in the
まず、動作決定に対するフィードバックデータに基づいて、ステップS3を更新する方法について述べる。本実施形態では、キーボード20により入力されたフィードバックデータ50を認識して、動作決定に対する満足度を取得する。ここでは、入力されるフィードバックデータ50が「返事をしてくれて有り難う」等の任意の句の場合を説明するが、本発明の技術的思想は、句に限定されるわけではなく、文であっても良いし、フィードバックデータ50が動作決定に対するフィードバックデータと限定される環境であれば、単語でも良い。すなわち、対話等、利用者とキャラクタ間の自然なやり取りの中でのフィードバックデータ50の取得が可能である。
First, a method for updating step S3 based on feedback data for the operation determination will be described. In the present embodiment, the feedback data 50 input from the
ここで、直前に生成したキャラクタの画像における表情または仕草を動作hとする。フィードバックデータ50が入力されると、ステップS3と同様に、フィードバックデータ50における類似度パラメータを算出し、動作hにおける類似度パラメータとのコサイン類似度を求め、その値が閾値θhよりも大きければ、フィードバックデータ50を動作hに対するフィードバックデータと判定する。また、本実施形態では、日本語辞書などの大量の単語データベースから満足度を表す単語を抽出し、「満足」「不満」の2つ分類にして、満足度単語データベースとして用意する。 Here, the facial expression or gesture in the character image generated immediately before is defined as an action h. If the feedback data 50 is input, as in step S3, and calculates the similarity parameter in the feedback data 50 calculates the cosine similarity between the similarity parameter in operation h, if the value is greater than the threshold theta h The feedback data 50 is determined as feedback data for the operation h. In this embodiment, a word representing satisfaction is extracted from a large number of word databases such as a Japanese dictionary, and classified into two categories of “satisfied” and “unsatisfied”, and prepared as a satisfaction word database.
そして、動作hに対するフィードバックデータと判定されたフィードバックデータ50の中から、満足度単語データベースと一致または類似する単語を検出する。もし、検出された単語が「満足」に分類される単語であった場合、次以降のステップS1でテキストデータ40と一致または類似と判断されるテキストデータが入力された時は、コサイン類似度の値に関わらず、動作hをキャラクタの表情または動作として決定するように、ステップS3を更新する。もし、検出された単語が「不満」に分類される単語であった場合、次以降のステップS1でテキストデータ40と一致または類似と判断されるテキストデータが入力された時は、2番目にコサイン類似度の大きいキャラクタの表情または動作として決定するように、ステップS3を更新する。 Then, a word that matches or is similar to the satisfaction word database is detected from the feedback data 50 determined as the feedback data for the action h. If the detected word is a word classified as “satisfied”, when text data that is determined to be identical or similar to the text data 40 is input in the following step S1, the cosine similarity degree is determined. Regardless of the value, step S3 is updated so that the motion h is determined as the facial expression or motion of the character. If the detected word is a word classified as “dissatisfied”, when text data that is judged to be identical or similar to the text data 40 is input in the following step S1, the cosine is the second. Step S3 is updated so as to determine the facial expression or action of the character having a high degree of similarity.
次に、感情付与に対するフィードバックデータに基づいて、ステップS4を更新する方法について述べる。本実施形態では、キーボード20により入力されたフィードバックデータ50を認識して、感情付与に対する満足度を取得する。ここでは、入力されるフィードバックデータ50が「もう少し喜んでよ!」等の任意の句の場合を説明するが、本発明の技術的思想は、句に限定されるわけではなく、文であっても良いし、フィードバックデータ50が感情付与に対するフィードバックデータと限定される環境であれば、単語でも良い。フィードバックデータ50が入力されると、ステップS2と同様に、フィードバックデータ50における感情分類と強度S’iを求め、S’iが0でなければ、フィードバックデータ50を感情付与に対するフィードバックデータと判定する。そして、感情付与に対するフィードバックデータと判定されたフィードバックデータ50の中から、満足度単語データベースと一致または類似する単語を検出する。
Next, a method of updating step S4 based on feedback data for giving emotion will be described. In the present embodiment, the feedback data 50 input from the
もし、検出された単語が「満足」に分類される単語であった場合、次以降のステップS1でテキストデータ40と一致または類似と判断されるテキストデータが入力された時は、テキストデータ40における感情強度SiにS’iを加えて、キャラクタの感情を付与するように、ステップS4を更新する。もし、検出された単語が「不満」に分類される単語であった場合、次以降のステップS1でテキストデータ40と一致または類似と判断されるテキストデータが入力された時は、テキストデータ40における感情強度SiにS’iを減じて、キャラクタの感情を付与するように、ステップS4を更新する。なお、両者の場合共、S’i=0となった感情分類においては、テキストデータ40における感情強度Siの値を維持する。 If the detected word is a word classified as “satisfied”, text data that is determined to be identical or similar to the text data 40 in the next step S1 is input. Step S4 is updated so that S ′ i is added to the emotion strength S i to add the emotion of the character. If the detected word is a word classified as “dissatisfied”, text data that is determined to be identical or similar to the text data 40 in the next step S1 is input. Step S4 is updated so that the emotion intensity S i is subtracted from S ′ i to give the character's emotion. In both cases, in the emotion classification where S ′ i = 0, the value of the emotion strength S i in the text data 40 is maintained.
以上説明したように、本実施形態によれば、PC30に入力されるテキストデータ40における感情分類または感情分類の強度を解析すると共に、テキストデータ40に基づいてキャラクタの仕草を決定する。また、解析された感情分類に応じてキャラクタの仕草に感情を付与する。さらに、解析された感情分類の強度に基づいて生成したキャラクタの仕草の強弱を制御する。そして、PC30は、感情が付与されたキャラクタの仕草または強弱が制御されたキャタクタの仕草の画像を生成して、画像信号を随時ディスプレイ10に発信する。その際、PC30において生成された画像はディスプレイ10にA1として映写される。加えて、そして、PC30は、フィードバックデータ50に基づいて動作決定または感情付与を更新する。これにより、本実施形態では、利用者の反応を将来のキャラクタ生成に反映させることができる。また、感情が付与されたキャラクタの表情だけでなく、感情が付与されたキャタクタの仕草も生成することができる。さらに、メールやツイッター、人間の行動等、会話では表現できない複雑な感情が連続的に入力された場合でも、感情が付与されたキャラクタを自動的に生成することができる。
As described above, according to the present embodiment, the emotion classification or the strength of emotion classification in the text data 40 input to the
10 ディスプレイ
20 キーボード
30 PC
30−1 感情解析部
30−2 動作決定部
30−3 感情付与部
30−4 強弱制御部
30−5 キャラクタ再生部
30−6 情報反映部
30a ケーブル
40 テキストデータ
50 フィードバックデータ
10
30-1 emotion analysis unit 30-2 motion determination unit 30-3 emotion imparting unit 30-4 strength control unit 30-5 character reproduction unit 30-6
Claims (5)
データを入力する入力部と、
入力されたデータに基づいて、前記キャラクタの表情または仕草を含む動作を決定し、前記動作を示す情報を出力する動作決定部と、
前記入力されたデータの感情分類を示す情報に基づいて、前記キャラクタの動作を示す情報に感情を示す情報を付与する感情付与部と、
前記入力されたデータが直前に生成した前記キャラクタの前記動作の表示または前記感情の表示に対応するフィードバックデータか否か判定するフィードバックデータ判定部と、
前記フィードバックデータに基づいて、前記動作を示す情報または前記感情を示す情報を更新する情報反映部と、を備えることを特徴とするキャラクタ生成装置。 A character generation device that generates a character capable of expressing emotions,
An input section for inputting data;
Based on the input data, to determine the operation including facial expressions or gestures of the character, and the operation determining unit that outputs information indicating the operation,
Based on the information indicating the input data emotion classification, and emotions imparting portion that imparts information indicating the emotion of the information indicating the operation of the character,
A feedback data determination unit that determines whether the input data is feedback data corresponding to the display of the action or the display of the emotion of the character generated immediately before ;
On the basis of the feedback data, and information reflecting unit for updating the information indicating the information or the feelings showing the operation, a character generator, characterized in that it comprises a.
入力されたデータに基づいて、前記キャラクタの表情または仕草を含む動作を決定し、前記動作を示す情報を出力する処理と、
前記入力されたデータの感情分類を示す情報に基づいて、前記キャラクタの動作を示す情報に感情を示す情報を付与する処理と、
前記入力されたデータが直前に生成した前記キャラクタの前記動作の表示または前記感情の表示に対応するフィードバックデータか否か判定する処理と、
前記フィードバックデータに基づいて、前記動作を示す情報または前記感情を示す情報を更新する処理と、の一連の処理を、コンピュータに実行させることを特徴とするプログラム。
A program that generates characters that can express emotions,
Based on the input data, a process of determining the operation including facial expressions or gestures of the character, and outputs information indicating the operation,
A process based on the information indicating the input data emotion classification, imparts information indicating the emotion of the information indicating the operation of the character,
A process for determining whether or not the input data is feedback data corresponding to the display of the action of the character or the display of the emotion generated immediately before ;
On the basis of the feedback data, the process of updating the information indicating the information or the feelings showing the operation, a series of processes, a program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013200422A JP6201212B2 (en) | 2013-09-26 | 2013-09-26 | Character generating apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013200422A JP6201212B2 (en) | 2013-09-26 | 2013-09-26 | Character generating apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015069231A JP2015069231A (en) | 2015-04-13 |
JP6201212B2 true JP6201212B2 (en) | 2017-09-27 |
Family
ID=52835882
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013200422A Active JP6201212B2 (en) | 2013-09-26 | 2013-09-26 | Character generating apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6201212B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2019073559A1 (en) * | 2017-10-11 | 2020-10-22 | サン電子株式会社 | Information processing device |
US20200099634A1 (en) * | 2018-09-20 | 2020-03-26 | XRSpace CO., LTD. | Interactive Responding Method and Computer System Using the Same |
CN110716641B (en) * | 2019-08-28 | 2021-07-23 | 北京市商汤科技开发有限公司 | Interaction method, device, equipment and storage medium |
JP2021039595A (en) * | 2019-09-04 | 2021-03-11 | 本田技研工業株式会社 | Apparatus and method for data processing |
JP6930781B1 (en) * | 2021-04-05 | 2021-09-01 | クリスタルメソッド株式会社 | Learning method and content playback device |
JP7271827B2 (en) * | 2021-09-17 | 2023-05-12 | 大連理工大学 | Voice emotion prediction method and system |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11242751A (en) * | 1998-02-24 | 1999-09-07 | Canon Inc | Animation controller and method therefor and sentence reading device |
-
2013
- 2013-09-26 JP JP2013200422A patent/JP6201212B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015069231A (en) | 2015-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110688911B (en) | Video processing method, device, system, terminal equipment and storage medium | |
WO2022048403A1 (en) | Virtual role-based multimodal interaction method, apparatus and system, storage medium, and terminal | |
JP6201212B2 (en) | Character generating apparatus and program | |
Chiu et al. | How to train your avatar: A data driven approach to gesture generation | |
CN111368609A (en) | Voice interaction method based on emotion engine technology, intelligent terminal and storage medium | |
US8224652B2 (en) | Speech and text driven HMM-based body animation synthesis | |
KR101604593B1 (en) | Method for modifying a representation based upon a user instruction | |
CN110688008A (en) | Virtual image interaction method and device | |
TW201913300A (en) | Human-computer interaction method and human-computer interaction system | |
JP7352115B2 (en) | Non-linguistic information generation device, non-linguistic information generation model learning device, non-linguistic information generation method, non-linguistic information generation model learning method and program | |
CN114995657B (en) | Multimode fusion natural interaction method, system and medium for intelligent robot | |
US11404063B2 (en) | Nonverbal information generation apparatus, nonverbal information generation model learning apparatus, methods, and programs | |
JP7212284B2 (en) | NON-LINGUAL INFORMATION GENERATING DEVICE, METHOD AND PROGRAM | |
Fares et al. | Zero-shot style transfer for gesture animation driven by text and speech using adversarial disentanglement of multimodal style encoding | |
Tao et al. | Emotional Chinese talking head system | |
JP7140984B2 (en) | Nonverbal information generation device, nonverbal information generation model learning device, method, and program | |
Feldman et al. | Engagement with artificial intelligence through natural interaction models | |
JP6222465B2 (en) | Animation generating apparatus, animation generating method and program | |
CN115311731B (en) | Expression generation method and device for sign language digital person | |
JP2017182261A (en) | Information processing apparatus, information processing method, and program | |
JP6562711B2 (en) | Robot motion generation apparatus and program | |
JP2014167737A (en) | Device and program for creating gestures | |
JP2015125613A (en) | Animation generation device, data format, animation generation method and program | |
Nie et al. | A Review of Affective Generation Models | |
JP2014085952A (en) | Expression generation device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161220 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170629 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170808 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6201212 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |