JP6201212B2 - Character generating apparatus and program - Google Patents

Character generating apparatus and program Download PDF

Info

Publication number
JP6201212B2
JP6201212B2 JP2013200422A JP2013200422A JP6201212B2 JP 6201212 B2 JP6201212 B2 JP 6201212B2 JP 2013200422 A JP2013200422 A JP 2013200422A JP 2013200422 A JP2013200422 A JP 2013200422A JP 6201212 B2 JP6201212 B2 JP 6201212B2
Authority
JP
Japan
Prior art keywords
character
emotion
information indicating
data
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013200422A
Other languages
Japanese (ja)
Other versions
JP2015069231A (en
Inventor
伸也 高山
伸也 高山
茂之 酒澤
茂之 酒澤
建鋒 徐
建鋒 徐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2013200422A priority Critical patent/JP6201212B2/en
Publication of JP2015069231A publication Critical patent/JP2015069231A/en
Application granted granted Critical
Publication of JP6201212B2 publication Critical patent/JP6201212B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、感情を表現可能なキャラクタを生成するキャラクタ生成装置およびプログラムに関する。   The present invention relates to a character generation device and a program for generating a character capable of expressing emotion.

従来から、マウスクリックやテキストデータなど、任意の入力情報に基づいて、キャラクタの表情を生成する技術が知られている。例えば、特許文献1に開示されている技術では、入力されたテキストデータを解析してセグメント毎に感情情報を付与し、付与された感情に対応するキャラクタを表情付で表示する。すなわち、この技術は、顔画像を構成する複数の顔部品画像を合成して特定の表情を生成する表情生成方法であり、複数の表情と、各表情に対応して顔部品画像毎に設定される所定の判断基準から構成される表情カテゴリ空間とを関連付けて格納し、表情カテゴリ空間での種々の表情に対応する各顔部品画像についての位置情報を格納する。そして、外部から入力される操作データと、表情カテゴリ空間にて設定される各表情とを関連付ける。   Conventionally, a technique for generating a facial expression of a character based on arbitrary input information such as a mouse click or text data is known. For example, in the technique disclosed in Patent Document 1, input text data is analyzed, emotion information is given for each segment, and a character corresponding to the given emotion is displayed with a facial expression. In other words, this technique is a facial expression generation method that generates a specific facial expression by combining a plurality of facial part images constituting a facial image, and is set for each facial part image corresponding to each facial expression. Are stored in association with an expression category space composed of predetermined determination criteria, and position information about each facial part image corresponding to various expressions in the expression category space is stored. Then, the operation data input from the outside is associated with each facial expression set in the facial expression category space.

また、特許文献2に開示されている技術では、利用者との自然な会話を通じて適切なサービス・情報の取捨選択を支援し、当該利用者にとって有益なサービス・情報の提供を支援する。すなわち、この技術は、キャラクタを介したインタフェースを介して利用者と対話を行うことができる。利用者から入力された対話は、対話認識部で認識され、利用者プロファイル情報として格納される。対話認識結果および利用者プロファイル情報がフィードバックされ、知識ベースを基に、対話文を生成し、利用者に対話を出力する。   The technology disclosed in Patent Document 2 supports appropriate service / information selection through natural conversation with a user, and provides services / information useful to the user. That is, this technique can perform a dialogue with a user via an interface via a character. The dialogue input from the user is recognized by the dialogue recognition unit and stored as user profile information. A dialogue recognition result and user profile information are fed back, a dialogue sentence is generated based on the knowledge base, and the dialogue is output to the user.

特開2002−342769号公報JP 2002-342769 A 特開2006−323875号公報JP 2006-323875 A

しかしながら、特許文献1に開示されている技術では、感情情報が付与されたキャラクタの表情は生成できるが、キャタクタの仕草までは生成できない。また、特許文献2に開示されている技術では、利用者との対話の認識結果を利用して利用者プロファイル情報を更新し、対話制御部へのフィードバックを行って、将来の対話分選択に反映させているが、生成するキャラクタは感情を持っておらず、キャラクタの感情生成部へのフィードバックについては考慮されていない。   However, with the technique disclosed in Patent Document 1, a facial expression of a character to which emotion information is given can be generated, but it cannot be generated until a gesture of a character. In addition, in the technique disclosed in Patent Document 2, the user profile information is updated using the recognition result of the dialog with the user, the feedback to the dialog control unit is performed, and reflected in the selection of the future dialog. However, the character to be generated has no emotion, and feedback to the emotion generation unit of the character is not considered.

本発明は、このような事情に鑑みてなされたものであり、利用者との任意の入出力結果を、キャラクタの感情生成部にフィードバックし、将来のキャラクタ生成に反映させることができるキャラクタ生成装置およびプログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and a character generation device capable of feeding back an arbitrary input / output result with a user to the emotion generation unit of the character and reflecting it in future character generation. And to provide a program.

(1)上記の目的を達成するために、本発明は、以下のような手段を講じた。すなわち、本発明のキャラクタ生成装置は、感情を表現可能なキャラクタを生成するキャラクタ生成装置であって、入力データに基づいて、前記キャラクタの表情または仕草を含む動作を決定し、前記動作を示す情報を出力する動作決定部と、前記入力データの感情分類を示す情報に基づいて、前記キャラクタの動作を示す情報に感情を示す情報を付与する感情付与部と、前記動作の表示または前記感情の表示に対応するフィードバックデータに基づいて、前記動作を示す情報または前記感情を示す情報を更新する情報反映部と、を備えることを特徴とする。   (1) In order to achieve the above object, the present invention takes the following measures. That is, the character generation device of the present invention is a character generation device that generates a character capable of expressing emotion, and determines an action including the facial expression or gesture of the character based on input data, and indicates the action Based on information indicating emotion classification of the input data, an emotion imparting unit that provides information indicating emotion to information indicating the motion of the character, display of the motion or display of the emotion And an information reflecting unit that updates information indicating the action or information indicating the emotion based on feedback data corresponding to.

このように、入力データに基づいて、キャラクタの表情または仕草を含む動作を決定し、動作を示す情報を出力し、入力データの感情分類を示す情報に基づいて、キャラクタの動作を示す情報に感情を示す情報を付与し、動作の表示または感情の表示に対応するフィードバックデータに基づいて、動作を示す情報または感情を示す情報を更新するので、利用者の反応を将来のキャラクタ生成に反映させることができる。また、感情が付与されたキャラクタの表情だけでなく、感情が付与されたキャタクタの仕草も生成することができる。   As described above, based on the input data, the action including the facial expression or gesture of the character is determined, information indicating the action is output, and the information indicating the character classification of the input data is used as the information indicating the action of the character. The information indicating the motion or the information indicating the emotion is updated based on the feedback data corresponding to the motion display or the emotion display, so that the reaction of the user is reflected in future character generation. Can do. Further, not only the facial expression of the character to which the emotion is given, but also the gesture of the character to which the emotion is given can be generated.

(2)また、本発明のキャラクタ生成装置は、前記フィードバックデータを入力するフィードバック入力部を更に備えることを特徴とする。   (2) The character generation device of the present invention is further characterized by further comprising a feedback input unit for inputting the feedback data.

このように、フィードバックデータを入力するフィードバック入力部を更に備えるので、利用者の反応を将来のキャラクタ生成に反映させることができる。   Thus, since the feedback input part which inputs feedback data is further provided, a user's reaction can be reflected in future character production | generation.

(3)また、本発明のキャラクタ生成装置は、前記入力データの感情分類の強度を示す情報に基づいて、前記感情を示す情報が付与されたキャラクタの動作を示す情報を再生する際の動作の強弱を制御する強弱制御部を更に備えることを特徴とする。   (3) Further, the character generation device according to the present invention is configured to reproduce an action when reproducing the information indicating the action of the character to which the information indicating the emotion is given based on the information indicating the strength of the emotion classification of the input data. It further comprises a strength control section for controlling strength.

このように、入力データの感情分類の強度を示す情報に基づいて、感情を示す情報が付与されたキャラクタの動作を示す情報を再生する際の動作の強弱を制御する強弱制御部を更に備えるので、キャラクタの表現力を向上させることが可能となる。   As described above, the apparatus further includes a strength control unit that controls the strength of the motion when reproducing the information indicating the motion of the character to which the information indicating the emotion is given based on the information indicating the strength of the emotion classification of the input data. The character's expressive power can be improved.

(4)また、本発明のキャラクタ生成装置は、入力された任意のデータの感情分類または前記感情分類の強度を解析する感情解析部を更に備えることを特徴とする。   (4) Moreover, the character generation device of the present invention is further characterized by further comprising an emotion analysis unit for analyzing the emotion classification of arbitrary input data or the intensity of the emotion classification.

このように、入力された任意のデータの感情分類または前記感情分類の強度を解析する感情解析部を更に備えるので、メールや人間の行動等、会話では表現できない複雑な感情が連続的に入力された場合でも、感情が付与されたキャラクタを自動的に生成することができる。   In this way, since it is further provided with an emotion analysis unit that analyzes the emotion classification of arbitrary input data or the strength of the emotion classification, complex emotions that cannot be expressed in conversation, such as e-mail and human behavior, are continuously input. Even in such a case, it is possible to automatically generate a character provided with emotion.

(5)また、本発明のキャラクタ生成装置は、任意のデータを入力するデータ入力部を更に備えることを特徴とする。   (5) In addition, the character generation device of the present invention further includes a data input unit for inputting arbitrary data.

このように、任意のデータを入力するデータ入力部を更に備えるので、任意のデータを用いてキャラクタを生成することが可能となる。   Thus, since the data input part which inputs arbitrary data is further provided, it becomes possible to produce | generate a character using arbitrary data.

(6)また、本発明のキャラクタ生成装置は、前記感情を示す情報が付与されたキャラクタの動作を示す情報を再生するキャラクタ再生部を更に備えることを特徴とする。   (6) In addition, the character generation device of the present invention further includes a character reproduction unit that reproduces information indicating the action of the character to which the information indicating the emotion is given.

このように、感情を示す情報が付与されたキャラクタの動作を示す情報を再生するキャラクタ再生部を更に備えるので、利用者に対して生成したキャラクタを視認させることが可能となる。   Thus, since the character reproducing part which reproduces | regenerates the information which shows the motion of the character to which the information which shows an emotion was provided is further provided, it becomes possible to make a user visually recognize the produced | generated character.

(7)また、本発明のプログラムは、感情を表現可能なキャラクタを生成するプログラムであって、入力データに基づいて、前記キャラクタの表情または仕草を含む動作を決定し、前記動作を示す情報を出力する処理と、前記入力データの感情分類を示す情報に基づいて、前記キャラクタの動作を示す情報に感情を示す情報を付与する処理と、前記動作の表示または前記感情の表示に対応するフィードバックデータに基づいて、前記動作を示す情報または前記感情を示す情報を更新する処理と、の一連の処理を、コンピュータに実行させることを特徴とする。   (7) The program of the present invention is a program for generating a character capable of expressing emotions, and determines an action including the facial expression or gesture of the character based on input data, and includes information indicating the action. A process of outputting, a process of adding information indicating emotion to information indicating the motion of the character based on information indicating the emotion classification of the input data, and feedback data corresponding to the display of the motion or the display of the emotion And a process of updating the information indicating the action or the information indicating the emotion, and a series of processes to be executed by the computer.

このように、入力データに基づいて、キャラクタの表情または仕草を含む動作を決定し、動作を示す情報を出力し、入力データの感情分類を示す情報に基づいて、キャラクタの動作を示す情報に感情を示す情報を付与し、動作の表示または感情の表示に対応するフィードバックデータに基づいて、動作を示す情報または感情を示す情報を更新するので、利用者の反応を将来のキャラクタ生成に反映させることができる。また、感情が付与されたキャラクタの表情だけでなく、感情が付与されたキャタクタの仕草も生成することができる。   As described above, based on the input data, the action including the facial expression or gesture of the character is determined, information indicating the action is output, and the information indicating the character classification of the input data is used as the information indicating the action of the character. The information indicating the motion or the information indicating the emotion is updated based on the feedback data corresponding to the motion display or the emotion display, so that the reaction of the user is reflected in future character generation. Can do. Further, not only the facial expression of the character to which the emotion is given, but also the gesture of the character to which the emotion is given can be generated.

本発明によれば、利用者の反応を将来のキャラクタ生成に反映させることができる。また、感情が付与されたキャラクタの表情だけでなく、感情が付与されたキャタクタの仕草も生成することができる。   According to the present invention, a user's reaction can be reflected in future character generation. Further, not only the facial expression of the character to which the emotion is given, but also the gesture of the character to which the emotion is given can be generated.

本実施形態に係るキャラクタ生成装置の概略構成を示す図である。It is a figure which shows schematic structure of the character production | generation apparatus which concerns on this embodiment. 実施形態に係るキャラクタ生成装置の機能を示すブロック図である。It is a block diagram which shows the function of the character production | generation apparatus which concerns on embodiment. 実施形態に係るキャラクタ生成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the character production | generation apparatus which concerns on embodiment.

本実施形態に係るキャラクタ生成装置は、利用者との任意の入出力結果を、キャラクタの感情生成部にフィードバックし、将来のキャラクタ生成に反映させる。本明細書において、「表情」とは、人物を含む生物または生物を模擬したキャタクタが何か行動を起こしたり感情を表したりする際の顔つきのことを指し、「仕草」とは、体の動作や身のこなしのことを意味する。   The character generation device according to this embodiment feeds back an arbitrary input / output result with the user to the emotion generation unit of the character and reflects it in future character generation. In this specification, “expression” refers to a face when a creature including a person or a character that simulates a creature takes action or expresses emotion, and “gesture” refers to a movement of the body. It means to do things.

本発明の実施形態に係るキャラクタ生成装置は、入力された任意のテキストデータに基づいて、キャラクタの表情または仕草を決定し、入力されたテキストデータにおける感情分類を示す情報に応じて、キャラクタの表情または仕草に感情を付与すると共に、動作決定または感情付与に対するフィードバックデータに基づいて、動作決定または感情付与を更新する。これにより、利用者の反応を将来のキャラクタ生成に反映させることができる。また、感情が付与されたキャラクタの表情だけでなく、感情が付与されたキャタクタの仕草も生成することができる。   A character generation device according to an embodiment of the present invention determines a facial expression or gesture of a character based on input arbitrary text data, and determines the facial expression of the character according to information indicating emotion classification in the input text data. Or while giving an emotion to a gesture, based on the feedback data with respect to action determination or emotion provision, action determination or emotion provision is updated. Thereby, a user's reaction can be reflected in future character generation. Further, not only the facial expression of the character to which the emotion is given, but also the gesture of the character to which the emotion is given can be generated.

本明細書では、一例として、テキストを用いたキャラクタ生成装置を示すが、本発明の技術的思想は、テキスト情報に限定されるわけではない。例えば、「音声」を入力情報とし、音声認識により、テキストデータまたはフィードバックデータを取得しても良い。また、「音響」を入力情報とし、平均テンポ、音色、音圧レベル、音圧レベルの変動により、感情分類およびその強度を抽出しても良い。また、「キー操作」を入力情報として、感情分類及びその強度をキー操作により入力するようにしても良い。   In this specification, a character generation device using text is shown as an example, but the technical idea of the present invention is not limited to text information. For example, text data or feedback data may be acquired by speech recognition using “speech” as input information. In addition, “acoustic” may be input information, and emotion classification and intensity may be extracted based on fluctuations in average tempo, tone color, sound pressure level, and sound pressure level. Further, the emotion classification and its strength may be input by key operation using “key operation” as input information.

また、「タッチ」を入力情報として、感情分類およびその強度をタッチ操作により入力するようにしても良い。また、「画像」を入力情報として、画像における表情認識技術を利用して、感情分類およびその強度を抽出しても良い。この場合、感情認識カメラを用いることも可能である。また、「映像」を入力情報として、「音声」と「画像」における例を併用し、感情分類及びその強度を抽出するようにしても良い。これにより、メールや人間の行動等、会話では表現できない複雑な感情が連続的に入力された場合でも、感情が付与されたキャラクタを自動的に生成することができる。   In addition, “touch” may be used as input information, and emotion classification and intensity may be input by a touch operation. Further, the emotion classification and its intensity may be extracted using “image” as input information using facial expression recognition technology in the image. In this case, an emotion recognition camera can be used. In addition, with “video” as input information, the examples of “voice” and “image” may be used together to extract emotion classification and its intensity. Thereby, even when complicated emotions that cannot be expressed in conversation, such as e-mails and human actions, are continuously input, it is possible to automatically generate a character with emotions.

図1は、本実施形態に係るキャラクタ生成装置の概略構成を示す図である。図1に示すように、キャラクタ生成装置は、ディスプレイ10と、キーボード20と、PC(Personal Computer)30とから構成されている。そして、キーボード20によりPC30にテキストデータ40及びフィードバックデータ50が入力される。なお、図1では、キーボード20が、PC30に接続されているが、本発明の技術的思想は、これに限定されるわけではなく、任意手段によりPCに対してテキストデータが入力されれば十分である。   FIG. 1 is a diagram illustrating a schematic configuration of a character generation device according to the present embodiment. As shown in FIG. 1, the character generation device includes a display 10, a keyboard 20, and a PC (Personal Computer) 30. Then, text data 40 and feedback data 50 are input to the PC 30 by the keyboard 20. In FIG. 1, the keyboard 20 is connected to the PC 30, but the technical idea of the present invention is not limited to this, and it is sufficient if text data is input to the PC by any means. It is.

PC30は、ケーブル30aを介してキャラクタ再生装置としてのディスプレイ10に接続されている。PC30では、入力されるテキストデータ40における感情分類または感情分類の強度を解析すると共に、テキストデータ40に基づいてキャラクタの表情または仕草を決定する。また、解析分類された感情に基づいて決定されたキャラクタの表情または仕草に感情を付与する。   The PC 30 is connected to a display 10 as a character reproduction device via a cable 30a. The PC 30 analyzes the emotion classification or the strength of the emotion classification in the input text data 40 and determines the facial expression or gesture of the character based on the text data 40. In addition, an emotion is given to the facial expression or gesture of the character determined based on the analyzed and classified emotion.

さらに、解析された感情分類の強度に基づいて生成したキャラクタの仕草における強弱を制御する。さらに、PC30は、解析された感情分類に基づいて生成されたキャラクタの表情または仕草、解析された感情分類の強度に基づいて強弱が制御されたキャラクタの表情または仕草の画像を生成して、画像信号を随時ディスプレイ10に発信する。その際、PC30において生成された画像はディスプレイ10にA1として映写される。なお、本発明の実施形態に係るキャラクタ生成装置では、合成されたキャラクタの表情または仕草の画像信号をディスプレイ10に発信しなくても構わない。そして、PC30は、フィードバックデータ50に基づいて動作決定または感情付与を更新する。   Furthermore, the strength of the character gesture generated based on the analyzed emotion classification strength is controlled. Further, the PC 30 generates an image of the character's facial expression or gesture that is generated based on the analyzed emotion classification, and a character's facial expression or gesture that is controlled in strength based on the analyzed emotion classification intensity. A signal is transmitted to the display 10 as needed. At that time, the image generated in the PC 30 is projected on the display 10 as A1. In the character generating device according to the embodiment of the present invention, the synthesized facial expression or gesture image signal may not be transmitted to the display 10. Then, the PC 30 updates the action determination or emotion provision based on the feedback data 50.

図2は、実施形態に係るキャラクタ生成装置の機能を示すブロック図である。PC30の感情解析部30−1は、ユーザの入力操作を受け付けて、入力された任意のデータから各データにおける感情分類または感情分類の強度を解析する。すなわち、感情解析部30−1は、キーボード20により入力されたテキストデータ40を認識して、テキストデータ40における感情分類または感情分類の強度を解析する。また、PC30の動作決定部30−2は、キャラクタの動作を決定する。すなわち、動作決定部30−2は、キーボード20により入力されたテキストデータ40を認識し、テキストデータ40に基づいて、キャラクタの表情または仕草を決定する。   FIG. 2 is a block diagram illustrating functions of the character generation device according to the embodiment. The emotion analysis unit 30-1 of the PC 30 receives an input operation of the user and analyzes the emotion classification or the strength of the emotion classification in each data from the input arbitrary data. That is, the emotion analysis unit 30-1 recognizes the text data 40 input from the keyboard 20 and analyzes the emotion classification or the emotion classification strength in the text data 40. Further, the action determining unit 30-2 of the PC 30 determines the action of the character. That is, the action determination unit 30-2 recognizes the text data 40 input from the keyboard 20, and determines the facial expression or gesture of the character based on the text data 40.

PC30の感情付与部30−3は、キャラクタの表情または仕草に感情を付与する。すなわち、感情付与部30−3は、感情解析部30−1が解析した感情分類に基づいて、中立的な表情または仕草を変換し、キャラクタの表情または仕草に感情を付与する。また、PC30の強弱制御部30−4は、キャラクタの表情または仕草における強弱を制御する。すなわち、強弱制御部30−4は、感情解析部30−1が解析した感情分類の強度に基づいて、感情付与部30−3が感情を付与したキャラクタの表情または仕草における強弱を制御する。   The emotion imparting unit 30-3 of the PC 30 imparts emotion to the character's facial expression or gesture. That is, the emotion imparting unit 30-3 converts the neutral facial expression or gesture based on the emotion classification analyzed by the emotion analyzing unit 30-1, and imparts the emotion to the character facial expression or gesture. Further, the strength control unit 30-4 of the PC 30 controls the strength of the character's facial expression or gesture. In other words, the strength control unit 30-4 controls the strength of the facial expression or gesture of the character to which the emotion giving unit 30-3 has given the emotion based on the strength of the emotion classification analyzed by the emotion analyzing unit 30-1.

PC30のキャラクタ再生部30−5は、キャラクタの表情または仕草の画像を再生する。すなわち、キャラクタ再生部30−5は、感情付与部30−3が感情を付与したキャラクタの表情または仕草、強弱制御部30−4が強弱を制御したキャラクタの表情または仕草の画像を再生する。   The character reproduction unit 30-5 of the PC 30 reproduces the facial expression or gesture image of the character. That is, the character reproduction unit 30-5 reproduces the facial expression or gesture of the character to which the emotion imparting unit 30-3 imparts the emotion, and the facial expression or gesture image of the character whose strength is controlled by the strength control unit 30-4.

PC30の情報反映部30−6は、フィードバックデータの結果を将来のキャラクタ生成に反映させる。すなわち、情報反映部30−6は、キーボード20により入力されたフィードバックデータ50を認識し、その結果を動作決定部30−2または感情付与部30−3にフィードバックする。   The information reflecting unit 30-6 of the PC 30 reflects the result of the feedback data in future character generation. That is, the information reflection unit 30-6 recognizes the feedback data 50 input from the keyboard 20, and feeds back the result to the action determination unit 30-2 or the emotion imparting unit 30-3.

図3は、実施形態に係るキャラクタ生成装置の動作を示すフローチャートである。初めに、PC30に、キーボード20によりテキストデータ40が入力される(ステップS1)。次に、PC30において、入力されるテキストデータ40を認識して、テキストデータ40における感情分類及び強度を解析する(ステップS2)。ここでは、入力されるテキストデータ40が単語の場合を説明するが、本発明の技術的思想は、単語に限定されるわけではなく、句であっても文であっても良い。本実施形態では、感情分類とそれぞれの強度から構成される感情語データベースを使用する。   FIG. 3 is a flowchart illustrating the operation of the character generation device according to the embodiment. First, text data 40 is input to the PC 30 using the keyboard 20 (step S1). Next, the PC 30 recognizes the input text data 40 and analyzes the emotion classification and strength in the text data 40 (step S2). Here, a case where the input text data 40 is a word will be described. However, the technical idea of the present invention is not limited to a word, and may be a phrase or a sentence. In this embodiment, an emotion word database composed of emotion classifications and respective intensities is used.

なお、感情語データベースは、日本語辞書などの大量の単語データベースに存在する全ての単語に対して、人間の表情形成に用いられる感情分類「喜び」「悲しみ」「怒り」「嫌悪」「恐怖」「罪」「恥」「興味」「驚き」の9つがどれくらいの割合で存在するか規定し、それぞれの感情強度を0〜1の範囲で、0.1刻みに10段階で指定して、予め形成されている。また、入力されるテキストデータ40が句または文である場合は、単語の場合と同様に、句または文に全体における感情分類とそれぞれの強度から構成される感情句データベースまたは感情文データベースを使用すれば良い。ここで、「喜び」の強度をS1、「悲しみ」の強度をS2、「怒り」の強度をS3、「嫌悪」の強度をS4、「恐怖」の強度をS5、「罪」の強度をS6、「恥」の強度をS7、「興味」の強度をS8、「驚き」の強度をS9と表す。ただし、Siは、次の数式を満たす。 The emotion word database is the emotion classification "joy", "sadness", "anger", "disgust", "fear" used for human expression formation for all words in a large number of word databases such as Japanese dictionary Specify the ratio of “Sin”, “Shame”, “Interest”, and “Surprise”, and specify the emotional intensity in the range of 0 to 1 in 10 steps in increments of 0.1. Is formed. In addition, when the input text data 40 is a phrase or sentence, as in the case of a word, an emotion phrase database or emotion sentence database composed of the emotion classification and the strength of each is used for the phrase or sentence. It ’s fine. Here, the intensity of “joy” is S 1 , the intensity of “sadness” is S 2 , the intensity of “anger” is S 3 , the intensity of “hate” is S 4 , the intensity of “fear” is S 5 , “sin” Is expressed as S 6 , “Shame” as S 7 , “Interest” as S 8 , and “Surprise” as S 9 . However, S i satisfies the following equation.

Figure 0006201212
そして、入力されるテキストデータ40と一致または類似する単語を感情語データベースの中から検索し、その単語における感情分類と強度を抽出する。すなわち、テキストデータ40における感情分類は、次の数式に表わされるように、9次元のベクトルで示される。
Figure 0006201212
Then, a word that matches or is similar to the input text data 40 is searched from the emotion word database, and the emotion classification and strength in the word are extracted. That is, the emotion classification in the text data 40 is represented by a 9-dimensional vector as represented by the following mathematical formula.

Figure 0006201212
また、入力されるテキストデータ40における全体強度Wは、次の数式で表わされる。
Figure 0006201212
Further, the overall intensity W in the input text data 40 is expressed by the following equation.

Figure 0006201212
例えば、テキストデータ40として、「泣き笑い」を入力すると、抽出される感情分類と強度Wは、次のようになる。
Figure 0006201212
For example, when “crying laughter” is input as the text data 40, the emotion classification and intensity W to be extracted are as follows.

Figure 0006201212
次に、PC30において、入力されるテキストデータ40を認識し、テキストデータ40に基づいて、「目を閉じる」「お辞儀する」「手を挙げる」等のキャラクタの表情または仕草を決定する。(ステップS3)。本実施形態では、無感情の表情または仕草における動きデータと、日本語辞書などの代表的な単語データベースに存在する各単語をパラメータとして算出した各動きデータにおける類似度パラメータのペアで構成される動作データベースを用意する。
Figure 0006201212
Next, the PC 30 recognizes the input text data 40, and based on the text data 40, determines the facial expression or gesture of the character such as “close eyes”, “bow”, “raise hands”. (Step S3). In the present embodiment, the motion is composed of a pair of motion data in an emotionless expression or gesture and a similarity parameter in each motion data calculated using each word existing in a typical word database such as a Japanese dictionary as a parameter. Prepare a database.

なお、ここで言う動きデータは、キャラクタの全ての骨格が任意の時刻において何れの空間位置座標に存在するかが記述されている。テキストデータ40が入力されると、テキストデータ40における類似度パラメータを算出し、動作データベースの中にある全ての動きデータにおける類似度パラメータとのコサイン類似度を求め、最も値の大きい表情または仕草をキャラクタの動作hとして決定すると共に、動作データベースの動作hにおけるキャラクタの動きデータを、本キャラクタ生成装置における動きデータとして生成する。   Note that the motion data described here describes in which spatial position coordinates all skeletons of the character exist at an arbitrary time. When the text data 40 is input, the similarity parameter in the text data 40 is calculated, the cosine similarity with the similarity parameter in all motion data in the motion database is obtained, and the facial expression or gesture having the largest value is obtained. While determining as the character's motion h, the character motion data in the motion database motion h is generated as motion data in the character generation device.

次に、PC30において、ステップS3で決定されたキャラクタの表情または仕草に感情を付与する。(ステップS4)。   Next, in the PC 30, an emotion is given to the facial expression or gesture of the character determined in step S3. (Step S4).

まず、ステップS2で解析された感情に基づいて、ステップS3で決定されたキャラクタの表情に感情を付与する方法について述べる。本実施形態では、ステップS3でキャラクタの表情として決定された動作hを、ステップS2で解析された感情に応じて合成変換することで、キャラクタの表情に感情を付与する。まず、人間の表情形成に用いられる感情分類「喜び」「悲しみ」「怒り」「嫌悪」「恐怖」「罪」「恥」「興味」「驚き」の9つの感情における表情において、無感情の表情からの変化量を、キャラクタの表情における全てのポリゴン(polygon)に対してそれぞれ定義しておく。   First, a method for imparting emotion to the facial expression of the character determined in step S3 based on the emotion analyzed in step S2 will be described. In the present embodiment, the motion h determined as the character's facial expression in step S3 is synthesized and converted according to the emotion analyzed in step S2, thereby giving the emotion to the character's facial expression. First of all, the emotional expressions used in the human emotional expression “joy”, “sadness”, “anger”, “disgust”, “fear”, “sin”, “shame”, “interest” and “surprise”. The amount of change from is defined for each polygon in the character's expression.

ここで、キャラクタの表情の中のあるポリゴンPに対して、「喜び」の基本表情における無感情の表情との座標の差分を(X1,Y1,Z1)、「悲しみ」の基本表情における無感情の表情との座標の差分を(X2,Y2,Z2)、「怒り」の基本表情における無感情の表情との座標の差分を(X3,Y3,Z3)、「嫌悪」の基本表情における無感情の表情との座標の差分を(X4,Y4,Z4)、「恐怖」の基本表情における無感情の表情との座標の差分を(X5,Y5,Z5)、「罪」の基本表情における無感情の表情との座標の差分を(X6,Y6,Z6)、「恥」の基本表情における無感情の表情との座標の差分を(X7,Y7,Z7)、「興味」の基本表情における無感情の表情との座標の差分を(X8,Y8,Z8)、「驚き」の基本表情における無感情の表情との座標の差分を(X9,Y9,Z9)、と表す。 Here, for a certain polygon P in the character's facial expression, the difference in coordinates from the emotional expression in the basic expression of “joy” is (X 1 , Y 1 , Z 1 ), and the basic expression of “sadness” (X 2 , Y 2 , Z 2 ), the difference in coordinates from the emotional expression in the basic expression of “anger” (X 3 , Y 3 , Z 3 ), The coordinate difference from the emotional expression in the basic expression of “disgust” is (X 4 , Y 4 , Z 4 ), and the coordinate difference from the emotional expression in the basic expression of “fear” is (X 5 , Y 5 , Z 5 ), the difference in coordinates with the emotional expression in the basic expression of “Sin” (X 6 , Y 6 , Z 6 ), the difference in coordinates with the emotional expression in the basic expression of “shame” the (X 7, Y 7, Z 7), the coordinate difference between the expression of apathy in the basic facial expressions of "interest" (X 8, Y 8, Z 8), "surprise (X 9, Y 9, Z 9) the difference between the coordinates of the facial expression of apathy in the basic facial expression, and it represents.

そして、ステップS3でキャラクタの表情として決定された動作hを、ステップS2で解析された感情に応じて合成変換し、キャラクタの表情に感情を付与する。すなわち、動作hのあるフレームにおけるPの座標を(X0,Y0,Z0)とすると、感情が付与されたキャラクタの表情におけるPの座標(XE,YE,ZE)は、次式で表わされる。 Then, the motion h determined as the facial expression of the character in step S3 is synthesized and converted according to the emotion analyzed in step S2, and the emotion is added to the facial expression of the character. That is, if the coordinates of P in a frame with motion h are (X 0 , Y 0 , Z 0 ), the coordinates of P (X E , Y E , Z E ) in the facial expression of the character to which emotion is given are It is expressed by a formula.

Figure 0006201212
同様の操作をキャラクタの表情における全ポリゴンに対して実行し、さらに動作hにおける全フレームに対して実行し、キャラクタの表情に感情を付与する。
Figure 0006201212
A similar operation is performed on all the polygons in the character's facial expression, and is further performed on all the frames in the motion h to give emotion to the character's facial expression.

次に、ステップS2で解析された感情に基づいて、ステップS3で決定されたキャラクタの仕草に感情を付与する方法について述べる。本実施形態では、予め収録された全ての仕草における無感情の動きデータ及び各感情分類の動きデータを学習させ、無感情の動きデータから各感情分類の動きデータへの変換を予め定義し、ステップS3で決定した動作hにおける無感情の動きデータを、ステップS2で解析された感情に応じて合成変換することで、キャラクタの仕草に感情を付与する。   Next, a method for imparting emotion to the character's gesture determined in step S3 based on the emotion analyzed in step S2 will be described. In this embodiment, the emotionless motion data and motion data of each emotion classification in all pre-recorded gestures are learned, the conversion from the emotionless motion data to the motion data of each emotion classification is defined in advance, Emotion is given to the character's gesture by synthesizing and converting the emotionless motion data in motion h determined in S3 according to the emotion analyzed in step S2.

本明細書では、一例として、主成分分析を用いてキャラクタの仕草に感情を付与するが、本発明の技術的思想は、主成分分析に限定されるわけでなく、非線形状態空間写像や機械学習等、別の方法を用いてキャラクタの仕草に感情を付与しても良い。まず、無感情及び人間の表情形成に用いられる感情分類「喜び」「悲しみ」「怒り」「嫌悪」「恐怖」「罪」「恥」「興味」「驚き」の9つの感情における仕草を予め複数用意し、学習用データベースに登録しておく。登録された全ての仕草における無感情の動きデータ及び各感情分類の動きデータを学習し、線形回帰手法により、無感情の動きデータから各感情分類の動きデータに変換するためのパラメータを算出する。すなわち、収録された仕草m(m=1,2,…)における無感情の動きデータの第j主成分座標の微分値kj(m)を用いて、次の数式により線形回帰演算を行って、変換パラメータaj i、bj iを算出する。 In this specification, as an example, emotion is imparted to the character's gesture using principal component analysis, but the technical idea of the present invention is not limited to principal component analysis, but nonlinear state space mapping or machine learning. Emotion may be imparted to the character's gesture using another method. First of all, there are several gestures for nine emotions: emotion, joy, sadness, anger, disgust, fear, sin, shame, interest, and surprise. Prepare and register in the learning database. The emotionless motion data and the motion data of each emotion classification in all registered gestures are learned, and parameters for converting the emotionless motion data into motion data of each emotion classification are calculated by a linear regression method. That is, using the differential value k j (m) of the j-th principal component coordinate of emotionless motion data in the recorded gesture m (m = 1, 2,...), Linear regression calculation is performed using the following formula. , Conversion parameters a j i and b j i are calculated.

Figure 0006201212
ただし、qj i(m)は仕草mにおける各感情の動きデータの第j主成分座標の微分値を示しており、i=1は感情分類が「喜び」の場合を、i=2は感情分類が「悲しみ」の場合を、i=3は感情分類が「怒り」の場合を、i=4は感情分類が「嫌悪」の場合を、i=5は感情分類が「恐怖」の場合を、i=6は感情分類が「罪」の場合を、i=7は感情分類が「恥」の場合を、i=8は感情分類が「興味」の場合を、i=9は感情分類が「驚き」の場合をそれぞれ表す。次に、テキストデータ40が入力されると、テキストデータ40に基づいて決定した動作hにおける無感情の動きデータを、テキストデータ40から抽出された感情分類に対応する各変換パラメータaj i、bj iを用いて合成変換し、キャラクタの仕草に感情を付与する。すなわち、感情が付与されたキャラクタの動作hにおける動きデータの第j主成分座標の微分値pj(h)は、次の数式で表わされる。
Figure 0006201212
However, q j i (m) indicates the differential value of the j-th principal component coordinate of the motion data of each emotion in the gesture m, i = 1 indicates that the emotion classification is “joy”, and i = 2 indicates the emotion. When the classification is “sadness”, i = 3 is when the emotion classification is “anger”, i = 4 is when the emotion classification is “disgust”, and i = 5 is when the emotion classification is “fear” , I = 6 is when the emotion classification is “Sin”, i = 7 is when the emotion classification is “Shame”, i = 8 is when the emotion classification is “Interest”, and i = 9 is when the emotion classification is Each case represents “surprise”. Next, when the text data 40 is input, the conversion parameters a j i and b corresponding to the emotion classification extracted from the text data 40 are converted from the emotionless motion data in the action h determined based on the text data 40. synthesizes and transforms using j i to add emotion to the character's gesture. That is, the differential value p j (h) of the j-th principal component coordinate of the motion data in the motion h of the character to which the emotion is given is expressed by the following formula.

Figure 0006201212
同様の操作をキャラクタの動作hにおける全フレームに対して実行し、キャラクタの仕草に感情を付与する。
Figure 0006201212
A similar operation is performed on all frames in the character's motion h to add emotion to the character's gesture.

次に、PC30において、解析された感情分類の強度に基づいて、付与したキャラクタの表情または仕草における感情の強弱を制御する(ステップS5)。本実施形態では、入力されるテキストデータ40における全体強度Wに応じて、ステップS4で感情を付与したキャラクタの動作hにおける動きデータの第j主成分座標の微分値pjを次の数式のように重み付けし、強弱を制御したキャラクタの新たな動作hにおける動きデータの第j主成分座標の微分値ojを算出する。 Next, the PC 30 controls the emotional strength of the assigned character's facial expression or gesture based on the analyzed emotion classification strength (step S5). In the present embodiment, the differential value p j of the j-th principal component coordinate of the motion data in the motion h of the character imparted with emotion in step S4 according to the overall strength W in the input text data 40 is expressed by the following equation: The differential value o j of the j-th principal component coordinate of the motion data in the new motion h of the character whose weight is controlled is calculated.

Figure 0006201212
同様の操作をキャラクタの動作hにおける全フレームに対して実行し、強弱を制御したキャラクタの新たな表情または仕草を生成する。
Figure 0006201212
A similar operation is performed on all frames in the character motion h to generate a new facial expression or gesture of the character whose strength is controlled.

次に、PC30において、解析された感情分類に基づいて感情が付与されたキャラクタの表情または仕草、解析された感情分類の強度に基づいて強弱が制御されたキャタクタの表情または仕草の画像を生成する(ステップS6)。ここで、キーボード20により入力されるテキストデータ40が続行するかどうかを判断し(ステップS6−2)、続行する場合は、キャラクタの表情または仕草の画像を生成した後、ステップS2に戻り、次のテキストデータ40に対しての処理を開始する。一方、ステップS6−2において、テキストデータ40が続行しない場合は、ステップS7に遷移する。   Next, the PC 30 generates an image of the expression or gesture of the character to which the emotion is given based on the analyzed emotion classification, and the expression or gesture of the character whose strength is controlled based on the intensity of the analyzed emotion classification. (Step S6). Here, it is determined whether or not the text data 40 input from the keyboard 20 is to be continued (step S6-2). When the text data 40 is to be continued, after generating an image of the character's facial expression or gesture, the process returns to step S2 to The process for the text data 40 is started. On the other hand, if the text data 40 does not continue in step S6-2, the process proceeds to step S7.

最後に、生成されたキャラクタの表情または仕草の画像をディスプレイ10に映写する(ステップS7)。   Finally, the generated facial expression or gesture image is displayed on the display 10 (step S7).

一方、PC30において、動作決定または感情付与に対するフィードバックデータに基づいて、動作決定または感情付与を更新する(ステップS8)。なお、本発明の技術的思想では、テキストデータを入力した利用者と異なる利用者がフィードバックデータを入力しても良く、その場合、ステップS1からステップS7の処理と、ステップS8の処理は並列に行われる。その際に、ステップS2の動作決定処理とステップS8の情報更新処理、または、ステップS3の感情付与処理とステップS8の情報更新処理が同時に実行された場合は、何れの場合もステップS8の情報更新処理を優先して実行することとする。   On the other hand, in the PC 30, the action determination or emotion provision is updated based on the feedback data for the action determination or emotion provision (step S8). According to the technical idea of the present invention, a user different from the user who input the text data may input the feedback data. In this case, the processing from step S1 to step S7 and the processing of step S8 are performed in parallel. Done. At this time, if the action determination process in step S2 and the information update process in step S8, or the emotion imparting process in step S3 and the information update process in step S8 are executed at the same time, the information update in step S8 is performed in any case. Processing is prioritized and executed.

まず、動作決定に対するフィードバックデータに基づいて、ステップS3を更新する方法について述べる。本実施形態では、キーボード20により入力されたフィードバックデータ50を認識して、動作決定に対する満足度を取得する。ここでは、入力されるフィードバックデータ50が「返事をしてくれて有り難う」等の任意の句の場合を説明するが、本発明の技術的思想は、句に限定されるわけではなく、文であっても良いし、フィードバックデータ50が動作決定に対するフィードバックデータと限定される環境であれば、単語でも良い。すなわち、対話等、利用者とキャラクタ間の自然なやり取りの中でのフィードバックデータ50の取得が可能である。   First, a method for updating step S3 based on feedback data for the operation determination will be described. In the present embodiment, the feedback data 50 input from the keyboard 20 is recognized, and the degree of satisfaction with respect to the action determination is acquired. Here, the case where the input feedback data 50 is an arbitrary phrase such as “Thank you for replying” will be described. However, the technical idea of the present invention is not limited to the phrase, It may be a word as long as the feedback data 50 is limited to the feedback data for the operation determination. That is, it is possible to acquire the feedback data 50 in a natural exchange between the user and the character such as a dialogue.

ここで、直前に生成したキャラクタの画像における表情または仕草を動作hとする。フィードバックデータ50が入力されると、ステップS3と同様に、フィードバックデータ50における類似度パラメータを算出し、動作hにおける類似度パラメータとのコサイン類似度を求め、その値が閾値θhよりも大きければ、フィードバックデータ50を動作hに対するフィードバックデータと判定する。また、本実施形態では、日本語辞書などの大量の単語データベースから満足度を表す単語を抽出し、「満足」「不満」の2つ分類にして、満足度単語データベースとして用意する。 Here, the facial expression or gesture in the character image generated immediately before is defined as an action h. If the feedback data 50 is input, as in step S3, and calculates the similarity parameter in the feedback data 50 calculates the cosine similarity between the similarity parameter in operation h, if the value is greater than the threshold theta h The feedback data 50 is determined as feedback data for the operation h. In this embodiment, a word representing satisfaction is extracted from a large number of word databases such as a Japanese dictionary, and classified into two categories of “satisfied” and “unsatisfied”, and prepared as a satisfaction word database.

そして、動作hに対するフィードバックデータと判定されたフィードバックデータ50の中から、満足度単語データベースと一致または類似する単語を検出する。もし、検出された単語が「満足」に分類される単語であった場合、次以降のステップS1でテキストデータ40と一致または類似と判断されるテキストデータが入力された時は、コサイン類似度の値に関わらず、動作hをキャラクタの表情または動作として決定するように、ステップS3を更新する。もし、検出された単語が「不満」に分類される単語であった場合、次以降のステップS1でテキストデータ40と一致または類似と判断されるテキストデータが入力された時は、2番目にコサイン類似度の大きいキャラクタの表情または動作として決定するように、ステップS3を更新する。   Then, a word that matches or is similar to the satisfaction word database is detected from the feedback data 50 determined as the feedback data for the action h. If the detected word is a word classified as “satisfied”, when text data that is determined to be identical or similar to the text data 40 is input in the following step S1, the cosine similarity degree is determined. Regardless of the value, step S3 is updated so that the motion h is determined as the facial expression or motion of the character. If the detected word is a word classified as “dissatisfied”, when text data that is judged to be identical or similar to the text data 40 is input in the following step S1, the cosine is the second. Step S3 is updated so as to determine the facial expression or action of the character having a high degree of similarity.

次に、感情付与に対するフィードバックデータに基づいて、ステップS4を更新する方法について述べる。本実施形態では、キーボード20により入力されたフィードバックデータ50を認識して、感情付与に対する満足度を取得する。ここでは、入力されるフィードバックデータ50が「もう少し喜んでよ!」等の任意の句の場合を説明するが、本発明の技術的思想は、句に限定されるわけではなく、文であっても良いし、フィードバックデータ50が感情付与に対するフィードバックデータと限定される環境であれば、単語でも良い。フィードバックデータ50が入力されると、ステップS2と同様に、フィードバックデータ50における感情分類と強度S’iを求め、S’iが0でなければ、フィードバックデータ50を感情付与に対するフィードバックデータと判定する。そして、感情付与に対するフィードバックデータと判定されたフィードバックデータ50の中から、満足度単語データベースと一致または類似する単語を検出する。 Next, a method of updating step S4 based on feedback data for giving emotion will be described. In the present embodiment, the feedback data 50 input from the keyboard 20 is recognized, and the satisfaction level for giving emotions is acquired. Here, the case where the input feedback data 50 is an arbitrary phrase such as “Please be more pleased!” Is explained. However, the technical idea of the present invention is not limited to the phrase but is a sentence. Alternatively, words may be used as long as the feedback data 50 is limited to the feedback data for giving emotions. When the feedback data 50 is input, the emotion classification and the intensity S ′ i in the feedback data 50 are obtained as in step S2, and if S ′ i is not 0, the feedback data 50 is determined as feedback data for giving emotions. . Then, a word that matches or is similar to the satisfaction word database is detected from the feedback data 50 determined to be feedback data for giving emotions.

もし、検出された単語が「満足」に分類される単語であった場合、次以降のステップS1でテキストデータ40と一致または類似と判断されるテキストデータが入力された時は、テキストデータ40における感情強度SiにS’iを加えて、キャラクタの感情を付与するように、ステップS4を更新する。もし、検出された単語が「不満」に分類される単語であった場合、次以降のステップS1でテキストデータ40と一致または類似と判断されるテキストデータが入力された時は、テキストデータ40における感情強度SiにS’iを減じて、キャラクタの感情を付与するように、ステップS4を更新する。なお、両者の場合共、S’i=0となった感情分類においては、テキストデータ40における感情強度Siの値を維持する。 If the detected word is a word classified as “satisfied”, text data that is determined to be identical or similar to the text data 40 in the next step S1 is input. Step S4 is updated so that S ′ i is added to the emotion strength S i to add the emotion of the character. If the detected word is a word classified as “dissatisfied”, text data that is determined to be identical or similar to the text data 40 in the next step S1 is input. Step S4 is updated so that the emotion intensity S i is subtracted from S ′ i to give the character's emotion. In both cases, in the emotion classification where S ′ i = 0, the value of the emotion strength S i in the text data 40 is maintained.

以上説明したように、本実施形態によれば、PC30に入力されるテキストデータ40における感情分類または感情分類の強度を解析すると共に、テキストデータ40に基づいてキャラクタの仕草を決定する。また、解析された感情分類に応じてキャラクタの仕草に感情を付与する。さらに、解析された感情分類の強度に基づいて生成したキャラクタの仕草の強弱を制御する。そして、PC30は、感情が付与されたキャラクタの仕草または強弱が制御されたキャタクタの仕草の画像を生成して、画像信号を随時ディスプレイ10に発信する。その際、PC30において生成された画像はディスプレイ10にA1として映写される。加えて、そして、PC30は、フィードバックデータ50に基づいて動作決定または感情付与を更新する。これにより、本実施形態では、利用者の反応を将来のキャラクタ生成に反映させることができる。また、感情が付与されたキャラクタの表情だけでなく、感情が付与されたキャタクタの仕草も生成することができる。さらに、メールやツイッター、人間の行動等、会話では表現できない複雑な感情が連続的に入力された場合でも、感情が付与されたキャラクタを自動的に生成することができる。   As described above, according to the present embodiment, the emotion classification or the strength of emotion classification in the text data 40 input to the PC 30 is analyzed, and the character's gesture is determined based on the text data 40. In addition, an emotion is given to the character's gesture according to the analyzed emotion classification. Further, the control unit controls the strength of the character gesture generated based on the analyzed emotion classification strength. Then, the PC 30 generates an image of the character of the character to which the emotion is given or a gesture of the character of the character whose strength is controlled, and transmits an image signal to the display 10 as needed. At that time, the image generated in the PC 30 is projected on the display 10 as A1. In addition, the PC 30 updates the action determination or emotional assignment based on the feedback data 50. Thereby, in this embodiment, a user's reaction can be reflected in future character production | generation. Further, not only the facial expression of the character to which the emotion is given, but also the gesture of the character to which the emotion is given can be generated. Furthermore, even when complex emotions that cannot be expressed in conversation, such as e-mails, Twitter, and human actions, are continuously input, characters with emotions can be automatically generated.

10 ディスプレイ
20 キーボード
30 PC
30−1 感情解析部
30−2 動作決定部
30−3 感情付与部
30−4 強弱制御部
30−5 キャラクタ再生部
30−6 情報反映部
30a ケーブル
40 テキストデータ
50 フィードバックデータ
10 Display 20 Keyboard 30 PC
30-1 emotion analysis unit 30-2 motion determination unit 30-3 emotion imparting unit 30-4 strength control unit 30-5 character reproduction unit 30-6 information reflection unit 30a cable 40 text data 50 feedback data

Claims (5)

感情を表現可能なキャラクタを生成するキャラクタ生成装置であって、
データを入力する入力部と、
入力されたデータに基づいて、前記キャラクタの表情または仕草を含む動作を決定し、前記動作を示す情報を出力する動作決定部と、
前記入力されたデータの感情分類を示す情報に基づいて、前記キャラクタの動作を示す情報に感情を示す情報を付与する感情付与部と、
前記入力されたデータが直前に生成した前記キャラクタの前記動作の表示または前記感情の表示に対応するフィードバックデータか否か判定するフィードバックデータ判定部と、
前記フィードバックデータに基づいて、前記動作を示す情報または前記感情を示す情報を更新する情報反映部と、を備えることを特徴とするキャラクタ生成装置。
A character generation device that generates a character capable of expressing emotions,
An input section for inputting data;
Based on the input data, to determine the operation including facial expressions or gestures of the character, and the operation determining unit that outputs information indicating the operation,
Based on the information indicating the input data emotion classification, and emotions imparting portion that imparts information indicating the emotion of the information indicating the operation of the character,
A feedback data determination unit that determines whether the input data is feedback data corresponding to the display of the action or the display of the emotion of the character generated immediately before ;
On the basis of the feedback data, and information reflecting unit for updating the information indicating the information or the feelings showing the operation, a character generator, characterized in that it comprises a.
前記入力データの感情分類の強度を示す情報に基づいて、前記感情を示す情報が付与されたキャラクタの動作を示す情報を再生する際の動作の強弱を制御する強弱制御部を更に備えることを特徴とする請求項1記載のキャラクタ生成装置。   And a strength control unit for controlling the strength of the motion when reproducing the information indicating the motion of the character to which the information indicating the emotion is given based on the information indicating the strength of the emotion classification of the input data. The character generation device according to claim 1. 入力された任意のデータの感情分類または前記感情分類の強度を解析する感情解析部を更に備えることを特徴とする請求項1または請求項記載のキャラクタ生成装置。 Input any data emotion classification or the character generating apparatus according to claim 1 or claim 2, wherein further comprising an emotion analysis unit for analyzing the intensity of the emotion classification. 前記感情を示す情報が付与されたキャラクタの動作を示す情報を再生するキャラクタ再生部を更に備えることを特徴とする請求項1から請求項のいずれかに記載のキャラクタ生成装置。 The character generation device according to any one of claims 1 to 3 , further comprising a character reproducing unit that reproduces information indicating a motion of the character to which the information indicating the emotion is given. 感情を表現可能なキャラクタを生成するプログラムであって、
入力されたデータに基づいて、前記キャラクタの表情または仕草を含む動作を決定し、前記動作を示す情報を出力する処理と、
前記入力されたデータの感情分類を示す情報に基づいて、前記キャラクタの動作を示す情報に感情を示す情報を付与する処理と、
前記入力されたデータが直前に生成した前記キャラクタの前記動作の表示または前記感情の表示に対応するフィードバックデータか否か判定する処理と、
前記フィードバックデータに基づいて、前記動作を示す情報または前記感情を示す情報を更新する処理と、の一連の処理を、コンピュータに実行させることを特徴とするプログラム。
A program that generates characters that can express emotions,
Based on the input data, a process of determining the operation including facial expressions or gestures of the character, and outputs information indicating the operation,
A process based on the information indicating the input data emotion classification, imparts information indicating the emotion of the information indicating the operation of the character,
A process for determining whether or not the input data is feedback data corresponding to the display of the action of the character or the display of the emotion generated immediately before ;
On the basis of the feedback data, the process of updating the information indicating the information or the feelings showing the operation, a series of processes, a program for causing a computer to execute.
JP2013200422A 2013-09-26 2013-09-26 Character generating apparatus and program Active JP6201212B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013200422A JP6201212B2 (en) 2013-09-26 2013-09-26 Character generating apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013200422A JP6201212B2 (en) 2013-09-26 2013-09-26 Character generating apparatus and program

Publications (2)

Publication Number Publication Date
JP2015069231A JP2015069231A (en) 2015-04-13
JP6201212B2 true JP6201212B2 (en) 2017-09-27

Family

ID=52835882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013200422A Active JP6201212B2 (en) 2013-09-26 2013-09-26 Character generating apparatus and program

Country Status (1)

Country Link
JP (1) JP6201212B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2019073559A1 (en) * 2017-10-11 2020-10-22 サン電子株式会社 Information processing device
US20200099634A1 (en) * 2018-09-20 2020-03-26 XRSpace CO., LTD. Interactive Responding Method and Computer System Using the Same
CN110716641B (en) * 2019-08-28 2021-07-23 北京市商汤科技开发有限公司 Interaction method, device, equipment and storage medium
JP2021039595A (en) * 2019-09-04 2021-03-11 本田技研工業株式会社 Apparatus and method for data processing
JP6930781B1 (en) * 2021-04-05 2021-09-01 クリスタルメソッド株式会社 Learning method and content playback device
JP7271827B2 (en) * 2021-09-17 2023-05-12 大連理工大学 Voice emotion prediction method and system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11242751A (en) * 1998-02-24 1999-09-07 Canon Inc Animation controller and method therefor and sentence reading device

Also Published As

Publication number Publication date
JP2015069231A (en) 2015-04-13

Similar Documents

Publication Publication Date Title
CN110688911B (en) Video processing method, device, system, terminal equipment and storage medium
WO2022048403A1 (en) Virtual role-based multimodal interaction method, apparatus and system, storage medium, and terminal
JP6201212B2 (en) Character generating apparatus and program
Chiu et al. How to train your avatar: A data driven approach to gesture generation
CN111368609A (en) Voice interaction method based on emotion engine technology, intelligent terminal and storage medium
US8224652B2 (en) Speech and text driven HMM-based body animation synthesis
KR101604593B1 (en) Method for modifying a representation based upon a user instruction
CN110688008A (en) Virtual image interaction method and device
TW201913300A (en) Human-computer interaction method and human-computer interaction system
JP7352115B2 (en) Non-linguistic information generation device, non-linguistic information generation model learning device, non-linguistic information generation method, non-linguistic information generation model learning method and program
CN114995657B (en) Multimode fusion natural interaction method, system and medium for intelligent robot
US11404063B2 (en) Nonverbal information generation apparatus, nonverbal information generation model learning apparatus, methods, and programs
JP7212284B2 (en) NON-LINGUAL INFORMATION GENERATING DEVICE, METHOD AND PROGRAM
Fares et al. Zero-shot style transfer for gesture animation driven by text and speech using adversarial disentanglement of multimodal style encoding
Tao et al. Emotional Chinese talking head system
JP7140984B2 (en) Nonverbal information generation device, nonverbal information generation model learning device, method, and program
Feldman et al. Engagement with artificial intelligence through natural interaction models
JP6222465B2 (en) Animation generating apparatus, animation generating method and program
CN115311731B (en) Expression generation method and device for sign language digital person
JP2017182261A (en) Information processing apparatus, information processing method, and program
JP6562711B2 (en) Robot motion generation apparatus and program
JP2014167737A (en) Device and program for creating gestures
JP2015125613A (en) Animation generation device, data format, animation generation method and program
Nie et al. A Review of Affective Generation Models
JP2014085952A (en) Expression generation device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170808

R150 Certificate of patent or registration of utility model

Ref document number: 6201212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150