JP6170834B2 - Emotion expression device, emotion expression method, and computer program - Google Patents

Emotion expression device, emotion expression method, and computer program Download PDF

Info

Publication number
JP6170834B2
JP6170834B2 JP2013270294A JP2013270294A JP6170834B2 JP 6170834 B2 JP6170834 B2 JP 6170834B2 JP 2013270294 A JP2013270294 A JP 2013270294A JP 2013270294 A JP2013270294 A JP 2013270294A JP 6170834 B2 JP6170834 B2 JP 6170834B2
Authority
JP
Japan
Prior art keywords
emotion
change
expression
emotion change
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013270294A
Other languages
Japanese (ja)
Other versions
JP2015125636A (en
Inventor
建鋒 徐
建鋒 徐
茂之 酒澤
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2013270294A priority Critical patent/JP6170834B2/en
Publication of JP2015125636A publication Critical patent/JP2015125636A/en
Application granted granted Critical
Publication of JP6170834B2 publication Critical patent/JP6170834B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、感情表現装置、感情表現方法およびコンピュータプログラムに関する。   The present invention relates to an emotion expression device, an emotion expression method, and a computer program.

近年、スマートフォンやタブレット型のコンピュータ等の携帯端末の性能が向上し、従来は携帯端末での視聴が難しかったアニメーション等の動画コンテンツを携帯端末で視聴することが一般的になってきている。また、学校の授業やチュートリアル、ニュース、オンラインチャットなどにおいて、アニメーションキャラクタが説明者として登場する動画コンテンツが、携帯端末向けに配信されるようになり、携帯端末で視聴されている。   In recent years, the performance of mobile terminals such as smartphones and tablet computers has improved, and it has become common to view video content such as animation, which has been difficult to view on mobile terminals in the past, on mobile terminals. Also, in school classes, tutorials, news, online chat, and the like, moving image content in which animated characters appear as explainers is distributed to mobile terminals and is being viewed on mobile terminals.

従来、アニメーションキャラクタの音声や表情、仕草などによってアニメーションキャラクタの感情表現をリッチなものにすることにより、アニメーションキャラクタによる情報伝達の能力を向上させることが検討されている。しかし、携帯端末では、一般にパーソナルコンピュータやテレビジョン受像機に比較して表示画面サイズが小さいために、表示画面上のアニメーションキャラクタの表情や仕草が分かりにくいという問題がある。このため、表示画面上のアニメーションキャラクタの感情表現を分かりやすくするための従来技術が知られている。   Conventionally, it has been studied to improve the ability of information transmission by an animation character by making the emotional expression of the animation character rich by the voice, facial expression, gesture, etc. of the animation character. However, since the mobile terminal generally has a display screen size smaller than that of a personal computer or television receiver, there is a problem that it is difficult to understand the facial expression and gesture of an animated character on the display screen. For this reason, the prior art for making the emotional expression of the animation character on the display screen easy to understand is known.

非特許文献1に記載の従来技術では、アニメーションキャラクタの元の仕草を変更して、ため、加速、減速などの誇張効果を生成することにより、より分かりやすいアニメーションを生成する。非特許文献2に記載の従来技術では、携帯端末に搭載されるバイブレータ(振動発生装置)で発生された振動が感情と繋がっていることが示されている。特に、振動の周期や強弱によって喚起された感情が異なることが示される。特許文献1に記載の従来技術では、音声と同時に振動から感情を伝えるようにしている。特許文献2に記載の従来技術では、子どもの快、不快、要注意の感情を、母親が働いている職場の情報提示通信装置に伝達し、情報提示通信装置が子どもの感情状態を音、光もしくは振動の機械的な方法により周知する。特許文献3に記載の従来技術では、触覚刺激情報によって複数のアクチュエーターを時間的且つ空間的に制御し、触覚刺激情報をメディアクリップと同期させる。   In the prior art described in Non-Patent Document 1, the original gesture of an animation character is changed, and thus an exaggerated effect such as acceleration or deceleration is generated, thereby generating a more understandable animation. In the prior art described in Non-Patent Document 2, it is shown that vibrations generated by a vibrator (vibration generator) mounted on a portable terminal are connected to emotions. In particular, it shows that the emotions evoked differ depending on the period and strength of vibration. In the prior art described in Patent Document 1, emotion is transmitted from vibration simultaneously with voice. In the prior art described in Patent Document 2, emotions of child's pleasure, discomfort, and caution are transmitted to the information presentation communication device at the workplace where the mother works, and the information presentation communication device transmits the emotional state of the child by sound, light Or it is known by the mechanical method of vibration. In the prior art described in Patent Document 3, a plurality of actuators are temporally and spatially controlled by tactile stimulus information, and the tactile stimulus information is synchronized with the media clip.

特開2006−047640号公報JP 2006-047640 A 特開2006−051317号公報JP 2006-051317 A 特表2011−523364号公報Special table 2011-523364 gazette

桑原明栄子、牧野光則、“CGアニメーション用誇張表現作成補助システムの提案”、芸術科学会論文誌 Vol. 2 No. 1 pp.21-30、2003年Akiko Kuwabara, Mitsunori Makino, “Proposal of an exaggerated expression creation auxiliary system for CG animation”, Journal of the Society of Arts and Sciences Vol. 2 No. 1 pp.21-30, 2003 Katri Salminen, Veikko Surakka, Jani Lylykangas, Jukka Raisamo, Rami Saarinen, Roope Raisamo, Jussi Rantala, and Grigori Evreinov, “Emotional and behavioral responses to haptic stimulation. In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI '08)”, ACM, New York, NY, USA, 1555-1562, 2008年Katri Salminen, Veikko Surakka, Jani Lylykangas, Jukka Raisamo, Rami Saarinen, Roope Raisamo, Jussi Rantala, and Grigori Evreinov, “Emotional and behavioral responses to haptic stimulation.In Proceedings of the SIGCHI Conference on Human Factors in Computing Systems (CHI '08 ) ”, ACM, New York, NY, USA, 1555-1562, 2008 J.A. Russell, “A Circumplex Model of Affect”, Journal of Personality and Social Psychology, 39 (6), 1161-1178, 1980年J.A. Russell, “A Circumplex Model of Affect”, Journal of Personality and Social Psychology, 39 (6), 1161-1178, 1980

しかし、上述した従来技術では、以下に示す課題がある。
非特許文献1に記載の従来技術では、動きデータを修正しているので、精度面の問題からアニメーションキャラクタの動きが不自然になる可能性がある。また、計算量が多いため、計算能力が低く且つ電池の消費量が懸念される携帯端末には適用が困難である。非特許文献2に記載の従来技術では、振動の周期や強弱と喚起される感情との関係を、アニメーションキャラクタの感情の変化に対してどのように適用するのかが課題である。
However, the conventional techniques described above have the following problems.
In the prior art described in Non-Patent Document 1, since the motion data is corrected, the motion of the animation character may become unnatural due to a problem of accuracy. In addition, since the calculation amount is large, it is difficult to apply to a portable terminal that has a low calculation capability and is concerned about battery consumption. In the prior art described in Non-Patent Document 2, the problem is how to apply the relationship between the vibration period and strength and the aroused emotion to changes in the emotion of the animation character.

特許文献1、2に記載の従来技術では、アニメーションと連動しないので、アニメーションキャラクタの感情の変化に対して、どのようにして振動の制御を行うのかが課題である。特許文献3に記載の従来技術では、複数のアクチュエーターによって人体の複数の部位を刺激することを前提にしているので、単一の携帯端末で人体に刺激を与える場合には適用が困難である。さらに、感情の変化を考慮していないので、アニメーションキャラクタの感情表現を豊かにできないという課題がある。   In the prior arts described in Patent Documents 1 and 2, since they are not linked to animation, the issue is how to control vibration in response to changes in the emotion of the animation character. The prior art described in Patent Document 3 is based on the premise that a plurality of parts of the human body are stimulated by a plurality of actuators, and thus is difficult to apply when stimulating the human body with a single portable terminal. Furthermore, since changes in emotion are not taken into account, there is a problem that the emotional expression of animation characters cannot be enriched.

本発明は、このような事情を考慮してなされたもので、アニメーション等のコンテンツデータの再生に合わせて感情の変化を表現できる感情表現装置、感情表現方法およびコンピュータプログラムを提供することを課題とする。   The present invention has been made in consideration of such circumstances, and it is an object of the present invention to provide an emotion expression device, an emotion expression method, and a computer program that can express changes in emotion in accordance with the reproduction of content data such as animation. To do.

(1)本発明に係る感情表現装置は、コンテンツデータから、感情の変化を表す感情変化情報を取得する感情変化情報取得部と、前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成部と、前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御部と、前記出力制御部の制御に従い、前記感情変化表現データに基づく出力動作を行う出力部と、を備えたことを特徴とする。 (1) An emotion expression device according to the present invention includes an emotion change information acquisition unit that acquires emotion change information representing an emotion change from content data, and an emotion change expression corresponding to the emotion change indicated by the emotion change information. An emotion change expression data generation unit that generates data, and an output control unit that controls an output operation based on the emotion change expression data based on the timing of the change of the emotion indicated by the emotion change information when reproducing the content data And an output unit that performs an output operation based on the emotion change expression data in accordance with the control of the output control unit.

(2)本発明に係る感情表現装置は、上記(1)の感情表現装置において、人の感情の変化に対して人の共感を呼ぶ感情変化表現を示す感情変化表現基本情報を記憶する感情変化表現基本情報記憶部を備え、前記感情変化表現データ生成部は、前記感情変化表現基本情報に基づいて、前記感情変化表現データを生成する、ことを特徴とする。 (2) The emotion change device according to the present invention is the emotion change device according to (1), wherein the emotion change device stores basic information of emotion change expressions indicating emotion change expressions that call human empathy for changes in human emotions. An expression basic information storage unit is provided, and the emotion change expression data generation unit generates the emotion change expression data based on the emotion change expression basic information.

(3)本発明に係る感情表現装置は、上記(1)又は(2)のいずれかの感情表現装置において、前記出力制御部は、前記出力動作の開始期間または終了期間に対し、前記感情変化情報で示される感情の変化に応じて、前記出力動作の強度を制御することを特徴とする。 (3) In the emotion expression device according to the present invention, in the emotion expression device according to any one of (1) and (2), the output control unit may change the emotion change with respect to a start period or an end period of the output operation. The intensity of the output operation is controlled according to a change in emotion indicated by the information.

(4)本発明に係る感情表現装置は、上記(3)の感情表現装置において、前記出力制御部は、前記感情変化情報で示される感情の変化が快感情から不快感情である場合に、前記出力動作の終了期間での強さを前記出力動作の開始期間よりも弱くすることを特徴とする。 (4) The emotion expression device according to the present invention is the emotion expression device according to (3), wherein the output control unit is configured to change the emotion change indicated by the emotion change information from a pleasant emotion to an unpleasant emotion. The strength in the end period of the output operation is made weaker than the start period of the output operation.

(5)本発明に係る感情表現装置は、上記(3)の感情表現装置において、前記出力制御部は、前記感情変化情報で示される感情の変化が不快感情から快感情である場合に、前記出力動作の開始期間および終了期間での強さを、該開始期間と該終了期間の間の期間よりも弱くすることを特徴とする。 (5) The emotion expression device according to the present invention is the emotion expression device according to (3), wherein the output control unit is configured such that when the emotion change indicated by the emotion change information is from an unpleasant emotion to a pleasant emotion, The strength in the start period and the end period of the output operation is made weaker than the period between the start period and the end period.

(6)本発明に係る感情表現装置は、上記(3)から(5)のいずれかの感情表現装置において、前記出力制御部は、前記出力動作の開始期間または終了期間において、前記出力動作の強さを変化させることを特徴とする。 (6) The emotion expression device according to the present invention is the emotion expression device according to any one of (3) to (5), wherein the output control unit performs the output operation in a start period or an end period of the output operation. It is characterized by changing strength.

(7)本発明に係る感情表現装置は、上記(1)から(6)のいずれかの感情表現装置において、前記出力制御部は、前記感情変化情報で示される感情の変化の度合いに応じて前記出力動作の強度を制御することを特徴とする。 (7) The emotion expression device according to the present invention is the emotion expression device according to any one of (1) to (6) above, wherein the output control unit is configured according to the degree of change in emotion indicated by the emotion change information. The intensity of the output operation is controlled.

(8)本発明に係る感情表現方法は、感情表現装置の感情表現方法であり、前記感情表現装置が、コンテンツデータから、感情の変化を表す感情変化情報を取得する感情変化情報取得ステップと、前記感情表現装置が、前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成ステップと、前記感情表現装置が、前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御ステップと、前記感情表現装置が、前記出力制御ステップの制御に従い、前記感情変化表現データに基づく出力動作を行う出力ステップと、を含むことを特徴とする。 (8) An emotion expression method according to the present invention is an emotion expression method of an emotion expression device, and the emotion expression device acquires emotion change information representing emotion change from content data; An emotion change expression data generation step in which the emotion expression device generates emotion change expression data corresponding to the emotion change indicated by the emotion change information; and the emotion expression device reproduces the emotion change when the content data is reproduced. An output control step for controlling an output operation based on the emotion change expression data based on the emotion change timing indicated by the information; and the emotion expression device converts the emotion change expression data into the emotion change expression data according to the control of the output control step. And an output step for performing an output operation based on the output step.

(9)本発明に係るコンピュータプログラムは、コンピュータに、コンテンツデータから、感情の変化を表す感情変化情報を取得する感情変化情報取得ステップと、前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成ステップと、前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御ステップと、前記出力制御ステップの制御に従い、前記感情変化表現データに基づく出力動作を行う出力ステップと、を実行させるためのコンピュータプログラムであることを特徴とする。 (9) A computer program according to the present invention includes an emotion change information acquisition step for acquiring, from a content data, emotion change information representing an emotion change, and an emotion corresponding to the emotion change indicated by the emotion change information. An emotion change expression data generation step for generating change expression data, and an output for controlling an output operation based on the emotion change expression data based on the emotion change timing indicated by the emotion change information when the content data is reproduced It is a computer program for executing a control step and an output step for performing an output operation based on the emotion change expression data in accordance with the control of the output control step.

本発明によれば、アニメーション等のコンテンツデータの再生に合わせて感情の変化を表現することができる。これにより、コンテンツデータの視聴者は、コンテンツデータに含まれる感情の変化をより印象深く認識できるという効果が得られる。   According to the present invention, it is possible to express a change in emotion in accordance with the reproduction of content data such as animation. Thereby, the effect that the viewer of content data can recognize the change of the emotion contained in content data more impressively is acquired.

本発明の一実施形態に係る感情表現装置1の構成を示すブロック図である。It is a block diagram which shows the structure of the emotion expression apparatus 1 which concerns on one Embodiment of this invention. 本発明の一実施形態に係る感情表現方法の手順を示すフローチャートである。It is a flowchart which shows the procedure of the emotion expression method which concerns on one Embodiment of this invention. 本発明の一実施形態に係る感情モデルの例を示すグラフ図である。It is a graph which shows the example of the emotion model which concerns on one Embodiment of this invention. 本発明の一実施形態に係る感情変化表現基本情報105の例を示す波形図である。It is a wave form diagram which shows the example of the emotion change expression basic information 105 which concerns on one Embodiment of this invention. 本発明の一実施形態に係る出力制御部14による出力制御動作の例を説明する図である。It is a figure explaining the example of the output control operation | movement by the output control part 14 which concerns on one Embodiment of this invention. 本発明の一実施形態に係る出力制御部14による出力制御動作の例を説明する図である。It is a figure explaining the example of the output control operation | movement by the output control part 14 which concerns on one Embodiment of this invention. 本発明の一実施形態に係る視覚効果画像の画像パターンの例を説明する図である。It is a figure explaining the example of the image pattern of the visual effect image which concerns on one Embodiment of this invention.

以下、図面を参照し、本発明の実施形態について説明する。
図1は、本発明の一実施形態に係る感情表現装置1の構成を示すブロック図である。図1において、感情表現装置1は、感情変化情報取得部11と感情変化表現基本情報記憶部12と感情変化表現データ生成部13と出力制御部14と出力部15を備える。感情表現装置1にはコンテンツデータ100が入力される。該コンテンツデータ100は、コンテンツ再生装置2に入力されて再生される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of an emotion expression device 1 according to an embodiment of the present invention. In FIG. 1, the emotion expression device 1 includes an emotion change information acquisition unit 11, an emotion change expression basic information storage unit 12, an emotion change expression data generation unit 13, an output control unit 14, and an output unit 15. The content data 100 is input to the emotion expression device 1. The content data 100 is input to the content playback device 2 and played back.

コンテンツデータ100としては、感情の変化の情報を有するものであって、例えば、動画コンテンツ、テキストコンテンツ、音声コンテンツなどのデータが挙げられる。動画コンテンツとして、例えば、コンピュータグラフィックス等によるアニメーション、実写による動画像などが挙げられる。テキストコンテンツとして、例えば、小説、雑誌等の書籍、ブログなどが挙げられる。音声コンテンツとして、例えば、楽曲、小説等の朗読などが挙げられる。動画コンテンツおよびテキストコンテンツは、コンテンツ再生装置2の表示画面上で表示再生される。音声コンテンツは、コンテンツ再生装置2により音声再生される。   The content data 100 includes information on emotional changes, and examples thereof include data such as video content, text content, and audio content. Examples of the moving image content include an animation by computer graphics and a moving image by a live action. Examples of text content include novels, books such as magazines, and blogs. Examples of the audio content include reading of music, novels, and the like. The moving image content and the text content are displayed and reproduced on the display screen of the content reproduction device 2. The audio content is played back by the content playback device 2.

感情表現装置1において、感情変化情報取得部11は、コンテンツデータ100から、感情の変化を表す感情変化情報101を取得する。感情変化表現基本情報記憶部12は、人の感情の変化に対して人の共感を呼ぶ感情変化表現を示す感情変化表現基本情報105を記憶する。感情変化表現データ生成部13は、感情変化情報101で示される感情の変化に対応する感情変化表現データ102を生成する。感情変化表現基本情報105は、感情変化表現データ生成部13によって感情変化表現データ102の生成の際に使用される。出力制御部14は、コンテンツデータ100の再生時に、感情変化情報101で示される感情の変化のタイミングに基づいて、感情変化表現データ102に基づく出力動作を制御する。   In the emotion expression device 1, the emotion change information acquisition unit 11 acquires emotion change information 101 representing a change in emotion from the content data 100. The emotion change expression basic information storage unit 12 stores emotion change expression basic information 105 indicating an emotion change expression that calls a person's sympathy for a change in the person's emotion. The emotion change expression data generation unit 13 generates emotion change expression data 102 corresponding to the emotion change indicated by the emotion change information 101. The emotion change expression basic information 105 is used by the emotion change expression data generation unit 13 when the emotion change expression data 102 is generated. The output control unit 14 controls the output operation based on the emotion change expression data 102 based on the emotion change timing indicated by the emotion change information 101 when the content data 100 is reproduced.

出力部15は、出力制御部14からの制御信号103に従い、感情変化表現データ102に基づく出力動作を行う。出力部15として、例えば、感情変化表現データ102に基づく振動を発生する振動発生装置、感情変化表現データ102に基づく音声を発生する音声発生装置、感情変化表現データ102に基づく画像を発生する画像発生装置などが挙げられる。出力部15によって発生された振動、音声、画像は、コンテンツ再生装置2によって再生されるコンテンツデータ100を視聴する利用者に対して、提供される。   The output unit 15 performs an output operation based on the emotion change expression data 102 in accordance with the control signal 103 from the output control unit 14. As the output unit 15, for example, a vibration generator that generates vibration based on the emotion change expression data 102, a sound generator that generates sound based on the emotion change expression data 102, and an image generation that generates an image based on the emotion change expression data 102 Examples thereof include devices. The vibration, sound, and image generated by the output unit 15 are provided to the user who views the content data 100 reproduced by the content reproduction device 2.

また、出力制御部14は、コンテンツ再生装置2に対して、コンテンツデータ100の再生制御信号104を出力する。このコンテンツデータ100の再生制御信号104は、出力部15による感情変化表現データ102に基づく出力動作とコンテンツ再生装置2によるコンテンツデータ100の再生動作とのタイミングを合わせるためのものである。   Further, the output control unit 14 outputs a playback control signal 104 of the content data 100 to the content playback device 2. The reproduction control signal 104 of the content data 100 is for synchronizing the timing of the output operation based on the emotion change expression data 102 by the output unit 15 and the reproduction operation of the content data 100 by the content reproduction apparatus 2.

次に、図2を参照して、本実施形態に係る感情表現装置1の動作を説明する。図2は、本実施形態に係る感情表現方法の手順を示すフローチャートである。以下の説明では、コンテンツデータ100として、アニメーション(以下、アニメーション100と記す)を例に挙げて説明する。   Next, the operation of the emotion expression device 1 according to the present embodiment will be described with reference to FIG. FIG. 2 is a flowchart showing the procedure of the emotion expression method according to the present embodiment. In the following description, an animation (hereinafter referred to as animation 100) is taken as an example of the content data 100.

[ステップS1:感情変化情報取得ステップ]
感情変化情報取得部11は、感情表現装置1に入力されたアニメーション100から感情変化情報101を取得する。感情変化情報101は、感情の変化のタイミング(感情変化タイミング)と、変化前と変化後の各感情などを示す。
[Step S1: Emotion change information acquisition step]
The emotion change information acquisition unit 11 acquires the emotion change information 101 from the animation 100 input to the emotion expression device 1. Emotion change information 101 indicates emotion change timing (emotion change timing), emotions before and after the change, and the like.

アニメーション100は、アニメーションキャラクタ(以下、単にキャラクタと称する)が時間の経過に伴って音声や表情、仕草などを変化させることにより、キャラクタの感情を表現する。感情変化情報取得部11は、アニメーション100から、そのキャラクタの感情の変化を表す感情変化情報101を取得する。この感情変化情報取得方法として、2つの例A−1、A−2を以下に説明する。これら例A−1、A−2では、説明の便宜上、2種類の感情として「快感情」と「不快感情」を使用する。このため、感情の変化として、快感情から不快感情への変化と、不快感情から快感情への変化との2種類が存在する。   The animation 100 expresses the emotion of a character by an animation character (hereinafter simply referred to as a character) changing voices, facial expressions, gestures, etc. over time. The emotion change information acquisition unit 11 acquires emotion change information 101 representing a change in emotion of the character from the animation 100. As examples of the emotion change information acquisition method, two examples A-1 and A-2 will be described below. In these examples A-1 and A-2, for convenience of explanation, “pleasant emotion” and “unpleasant emotion” are used as two types of emotions. For this reason, there are two types of emotion changes: a change from pleasant emotion to unpleasant emotion and a change from unpleasant emotion to pleasant emotion.

(例A−1) 例A−1では、アニメーション100は、3次元のコンピュータグラフィックスにより、キャラクタの顔の各表情に対応するポリゴンやテキスチャーを使用してキャラクタの顔の表情が作成されている。アニメーション100には、基本表情集合「F={F,F,・・・,F}」が定義される。Fは基本表情を示す。「n=0,1,・・・,N」であり、Nは正の整数である。そして、アニメーション100は、メタデータとして、フレーム毎に基本表情集合Fの時間変化情報を有する。基本表情集合Fの時間変化情報によって、アニメーション100の各フレームにおける、キャラクタの表情が示される。 (Example A-1) In Example A-1, in the animation 100, the facial expression of the character is created using three-dimensional computer graphics using polygons and textures corresponding to the facial expression of the character. . In the animation 100, a basic expression set “F = {F 0 , F 1 ,..., F N }” is defined. F n represents a basic facial expression. “N = 0, 1,..., N”, where N is a positive integer. The animation 100 includes time change information of the basic facial expression set F for each frame as metadata. The facial expression of the character in each frame of the animation 100 is indicated by the time change information of the basic facial expression set F.

感情変化情報取得部11は、アニメーション100のキャラクタの表情を、図3に示される感情モデルにマッピングする。感情変化情報取得部11は、表情と感情モデル座標との対応関係を示す表情変換座標情報を予め保持する。感情変化情報取得部11は、表情変換座標情報に基づいて、アニメーション100のフレーム毎に、基本表情集合Fの時間変化情報で示されるキャラクタの表情から、感情モデル座標を取得する。   The emotion change information acquisition unit 11 maps the facial expression of the character in the animation 100 to the emotion model shown in FIG. The emotion change information acquisition unit 11 holds in advance facial expression conversion coordinate information indicating the correspondence between facial expressions and emotion model coordinates. The emotion change information acquisition unit 11 acquires the emotion model coordinates from the facial expression of the character indicated by the time change information of the basic facial expression set F for each frame of the animation 100 based on the facial expression conversion coordinate information.

図3は、本実施形態に係る感情モデルの例を示すグラフ図である。図3において、x軸は快感情と不快感情の度合いを示し、y軸は感情の活性の度合いを示す。図3に示される例では、あるフレームで表情が座標201であったものが、以降の各フレームで表情が座標202から座標206へと変化している。そして、図3の例では、座標203のフレームから座標204のフレームで、キャラクタの感情が不快から快へ変化していることが分かる。   FIG. 3 is a graph showing an example of an emotion model according to the present embodiment. In FIG. 3, the x-axis indicates the degree of pleasant emotion and unpleasant emotion, and the y-axis indicates the degree of emotional activity. In the example shown in FIG. 3, the facial expression is coordinate 201 in a certain frame, but the facial expression changes from coordinate 202 to coordinate 206 in each subsequent frame. In the example of FIG. 3, it can be seen that the emotion of the character changes from unpleasant to pleasant from the frame of the coordinate 203 to the frame of the coordinate 204.

感情変化情報取得部11は、アニメーション100の各フレームにおけるキャラクタの表情を感情モデルへマッピングした結果から、感情変化タイミングを示す情報と、変化前と変化後の各感情を示す情報と、感情モデル座標情報「E(t)={x(t),y(t)}を取得する。tはアニメーション100のフレーム時刻である。図3の例では、感情変化タイミングは、座標203のフレームと座標204のフレームの間であり、変化前は不快感情であり、変化後は快感情である。   The emotion change information acquisition unit 11 obtains information indicating the emotion change timing, information indicating each emotion before and after the change, and emotion model coordinates from the result of mapping the facial expression of the character in each frame of the animation 100 to the emotion model. Information “E (t) = {x (t), y (t)} is acquired. T is the frame time of the animation 100. In the example of FIG. Between the frames, before the change is unpleasant emotion, and after the change is pleasant emotion.

なお、アニメーション100が複数の表情を有する場合、フレーム毎に基本表情集合Fの時間変化情報が複数あり、アニメーション100の各フレームにおけるキャラクタの表情が複数存在する。この場合、感情変化情報取得部11は、基本表情集合Fの時間変化情報ごとに、それぞれキャラクタの表情を感情モデルへマッピングする。これにより、基本表情集合Fの時間変化情報ごとに、感情モデル上に、表情変化ベクトル(図3中の矢印破線に相当)が生成される。感情変化情報取得部11は、それらの表情変化ベクトルの平均を求める。そして、感情変化情報取得部11は、その平均ベクトルから、感情変化タイミングを示す情報と、変化前と変化後の各感情を示す情報と、感情モデル座標情報E(t)を取得する。   When the animation 100 has a plurality of facial expressions, there are a plurality of pieces of time change information of the basic facial expression set F for each frame, and there are a plurality of character facial expressions in each frame of the animation 100. In this case, the emotion change information acquisition unit 11 maps the facial expression of the character to the emotion model for each time change information of the basic facial expression set F. As a result, for each time change information of the basic facial expression set F, a facial expression change vector (corresponding to an arrow broken line in FIG. 3) is generated on the emotion model. The emotion change information acquisition unit 11 obtains an average of the expression change vectors. Then, the emotion change information acquisition unit 11 acquires, from the average vector, information indicating the emotion change timing, information indicating each emotion before and after the change, and emotion model coordinate information E (t).

(例A−2) 例A−2では、アニメーション100は、3次元のコンピュータグラフィックスにより、キャラクタの顔の各パーツの組み合わせを使用してキャラクタの顔の表情が作成されている。感情変化情報取得部11は、アニメーション100から各パーツの時刻(フレーム)情報を取得し、該各パーツの時刻情報に基づいてキャラクタの表情を判定する。ここで、単一の感情の場合には、FACS(Facial Action Coding System:顔面表情記号化システム)を利用して、各パーツと表情の明確な対応関係によって、その表情を推定する。一方、複数の感情が存在する場合には、各パーツの組み合わせが示す複数の表情から一つに絞り切れないときがある。この場合、グリーディ法(Greedy algorithm)を利用して、複数の表情から一つを選択する。 (Example A-2) In Example A-2, the facial expression of the character is created in the animation 100 using a combination of each part of the character's face by three-dimensional computer graphics. The emotion change information acquisition unit 11 acquires time (frame) information of each part from the animation 100, and determines the facial expression of the character based on the time information of each part. Here, in the case of a single emotion, the facial expression is estimated by using a FACS (Facial Action Coding System) using a clear correspondence between each part and the facial expression. On the other hand, when there are a plurality of emotions, it may not be possible to narrow down to a single expression from the plurality of facial expressions indicated by the combination of the parts. In this case, one of a plurality of facial expressions is selected using a Greedy algorithm.

感情変化情報取得部11は、例A−1と同様に、アニメーション100の各フレームにおけるキャラクタの表情を感情モデルへマッピングした結果から、感情変化タイミングを示す情報と、変化前と変化後の各感情を示す情報と、感情モデル座標情報E(t)を取得する。   As in Example A-1, the emotion change information acquisition unit 11 maps the emotional expression of the character in each frame of the animation 100 to the emotion model, information indicating the emotion change timing, and each emotion before and after the change. And emotion model coordinate information E (t) are acquired.

以上が感情変化情報101の取得の方法の例の説明である。感情変化情報取得部11は、感情変化情報101を、感情変化表現データ生成部13と出力制御部14へ出力する。感情変化情報101は、感情変化タイミングを示す情報と、変化前と変化後の各感情を示す情報と、感情モデル座標情報E(t)を有する。   The above is an explanation of an example of a method for acquiring the emotion change information 101. The emotion change information acquisition unit 11 outputs the emotion change information 101 to the emotion change expression data generation unit 13 and the output control unit 14. The emotion change information 101 includes information indicating the emotion change timing, information indicating each emotion before and after the change, and emotion model coordinate information E (t).

なお、アニメーション100がメタデータとして、感情変化タイミングを示す情報、変化前と変化後の各感情を示す情報、感情モデル座標情報E(t)を有する場合には、該情報を取得して感情変化情報101に使用する。   In addition, when the animation 100 has information indicating emotion change timing, information indicating each emotion before and after the change, and emotion model coordinate information E (t) as metadata, the information is acquired to change the emotion. Used for information 101.

[ステップS2:感情変化表現データ生成ステップ]
感情変化表現データ生成部13は、感情変化情報101で示される感情の変化に対応する感情変化表現データ102を生成する。感情変化表現基本情報105は、感情変化表現データ生成部13によって感情変化表現データ102の生成の際に使用される。
[Step S2: Emotion change expression data generation step]
The emotion change expression data generation unit 13 generates emotion change expression data 102 corresponding to the emotion change indicated by the emotion change information 101. The emotion change expression basic information 105 is used by the emotion change expression data generation unit 13 when the emotion change expression data 102 is generated.

図4は、本実施形態に係る感情変化表現基本情報105の例を示す波形図である。図4には、出力部15として振動発生装置を備えた場合の感情変化表現基本情報105の例を示している。図4(1)の波形は、快感情から不快感情へ変化する場合の振動パターン301である。この振動パターン301は、振動強度が比較的大きく振動周期が比較的短い、断続的な振動パターンである。この振動パターン301により、快感情から不快感情への変化に対する人の共感を呼ぶことができる。   FIG. 4 is a waveform diagram showing an example of emotion change expression basic information 105 according to the present embodiment. FIG. 4 shows an example of emotion change expression basic information 105 when a vibration generator is provided as the output unit 15. The waveform in FIG. 4A is a vibration pattern 301 when changing from pleasant emotion to unpleasant emotion. This vibration pattern 301 is an intermittent vibration pattern having a relatively large vibration intensity and a relatively short vibration cycle. With this vibration pattern 301, it is possible to call human empathy for a change from pleasant emotion to unpleasant emotion.

図4(2)の波形は、不快感情から快感情へ変化する場合の振動パターン302である。この振動パターン302は、振動強度が比較的小さく振動周期が比較的長い、継続的な振動パターンである。この振動パターン302により、不快感情から快感情への変化に対する人の共感を呼ぶことができる。   The waveform in FIG. 4B is a vibration pattern 302 when changing from an unpleasant emotion to a pleasant emotion. This vibration pattern 302 is a continuous vibration pattern having a relatively small vibration intensity and a relatively long vibration cycle. This vibration pattern 302 can call human empathy for a change from an unpleasant emotion to a pleasant emotion.

感情変化表現データ生成部13は、感情変化情報101で示される変化前と変化後の各感情に基づいて、感情の変化に対応する感情変化表現基本情報105を選択する。例えば、快感情から不快感情へ変化する場合には振動パターン301を選択する。一方、不快感情から快感情へ変化する場合には振動パターン302を選択する。   The emotion change expression data generation unit 13 selects the emotion change expression basic information 105 corresponding to the emotion change based on the emotion before and after the change indicated by the emotion change information 101. For example, when changing from pleasant emotion to unpleasant emotion, the vibration pattern 301 is selected. On the other hand, when changing from an unpleasant emotion to a pleasant emotion, the vibration pattern 302 is selected.

次いで、感情変化表現データ生成部13は、該選択した感情変化表現基本情報105に対して、感情変化情報101で示される感情変化タイミングを関連付けた、感情変化表現データ102を生成する。この感情変化表現データ102は、感情変化表現基本情報105と、感情変化情報101で示される感情変化タイミングの情報と、感情モデル座標情報E(t)を有する。感情変化表現データ生成部13は、感情変化表現データ102を、出力制御部14と出力部15へ出力する。   Next, the emotion change expression data generation unit 13 generates emotion change expression data 102 in which the selected emotion change expression basic information 105 is associated with the emotion change timing indicated by the emotion change information 101. The emotion change expression data 102 includes emotion change expression basic information 105, information of emotion change timing indicated by the emotion change information 101, and emotion model coordinate information E (t). The emotion change expression data generation unit 13 outputs the emotion change expression data 102 to the output control unit 14 and the output unit 15.

[ステップS3:出力制御ステップ]
出力制御部14は、アニメーション100の再生時に、感情変化情報101で示される感情変化タイミングに基づいて、感情変化表現データ102に基づく出力動作を制御する。出力制御部14は、出力部15に対して、該制御を伝える制御信号103を出力する。感情変化情報101で示される感情変化タイミングは、感情変化表現データ102から取得される。
[Step S3: Output Control Step]
The output control unit 14 controls an output operation based on the emotion change expression data 102 based on the emotion change timing indicated by the emotion change information 101 when the animation 100 is reproduced. The output control unit 14 outputs a control signal 103 that conveys the control to the output unit 15. The emotion change timing indicated by the emotion change information 101 is acquired from the emotion change expression data 102.

以下に、具体例を挙げて出力制御ステップを説明する。ここでは、出力部15として振動発生装置を備え、図4の振動パターン301、302を使用することとする。   The output control step will be described below with a specific example. Here, it is assumed that a vibration generator is provided as the output unit 15 and the vibration patterns 301 and 302 in FIG. 4 are used.

出力制御部14は、感情変化表現データ102で示される振動パターンに対し、感情の変化に応じて、振動開始期間または振動終了期間における振動強度を制御する。図5および図6は、本実施形態に係る出力制御部14による出力制御動作の例を説明する図である。   The output control unit 14 controls the vibration intensity in the vibration start period or the vibration end period for the vibration pattern indicated by the emotion change expression data 102 in accordance with the change in emotion. 5 and 6 are diagrams illustrating an example of an output control operation by the output control unit 14 according to the present embodiment.

図5は快感情から不快感情へ変化する場合である。図5において、出力制御部14は、振動パターン301の開始タイミングを、感情変化タイミングt0の直前(例えば、0.5秒前)に設定する。また、出力制御部14は、振動パターン301の継続期間を、一定時間(例えば、5秒間)と、次の感情変化タイミングまでの時間とのうち、短い方に設定する。   FIG. 5 shows a case where the pleasant emotion changes to the unpleasant emotion. In FIG. 5, the output control unit 14 sets the start timing of the vibration pattern 301 immediately before the emotion change timing t0 (for example, 0.5 seconds before). Further, the output control unit 14 sets the duration of the vibration pattern 301 to a shorter one of a certain time (for example, 5 seconds) and the time until the next emotion change timing.

振動強度の制御については、以下に示す2段階で行う。   The vibration intensity is controlled in the following two stages.

(振動強度の制御の第1段階) 出力制御部14は、感情モデル座標情報E(t)に基づいて、適応的に、振動強度を制御する。具体的には、出力制御部14は、[数1]により、振動強度の制御重みw(t)を算出する。出力制御部14は、制御重みw(t)によって、振動パターン301に対し、継続期間における強度の重み付けを行う。 (First Stage of Vibration Intensity Control) The output control unit 14 adaptively controls the vibration intensity based on the emotion model coordinate information E (t). Specifically, the output control unit 14 calculates the control weight w (t) of the vibration intensity from [Equation 1]. The output control unit 14 weights the vibration pattern 301 with respect to the intensity during the duration with the control weight w (t).

Figure 0006170834
Figure 0006170834

但し、Emaxは振動パターン301の継続期間で最も大きなE(t)である。 However, E max is the largest E (t) in the duration of the vibration pattern 301.

感情モデル座標情報E(t)に基づいた振動強度の制御によって、感情の変化の度合いに応じた振動強度を実現できる。例えば、長く溜めて怒るときには、ゆっくりと振動強度を高めていって、感情の最大と振動強度の最大とを同期させることができる。   By controlling the vibration intensity based on the emotion model coordinate information E (t), it is possible to realize a vibration intensity corresponding to the degree of emotion change. For example, when angry after accumulating for a long time, the vibration intensity is slowly increased, and the maximum of emotion and the maximum of vibration intensity can be synchronized.

(振動強度の制御の第2段階) 出力制御部14は、所定の窓関数401を使用して振動強度を制御する。快感情から不快感情へ変化する場合の窓関数401では、図5に例示されるように、振動開始期間における振動強度を調整なしとし、振動終了期間における振動強度をフェードアウトさせる。したがって、振動終了期間での強さは振動開始期間よりも弱くなる。 (Second stage of vibration intensity control) The output control unit 14 controls the vibration intensity using a predetermined window function 401. In the window function 401 when changing from pleasant emotion to unpleasant emotion, as illustrated in FIG. 5, the vibration intensity in the vibration start period is not adjusted, and the vibration intensity in the vibration end period is faded out. Therefore, the strength in the vibration end period becomes weaker than the vibration start period.

図6は不快感情から快感情へ変化する場合である。図6において、振動パターン302の開始タイミングおよび継続期間の設定方法は、上記図5の振動パターン301の場合と同様である。また、振動強度の制御については、上記図5の振動パターン301の場合と同様に、2段階で行う。振動強度の制御の第1段階については、上記図5の振動パターン301の場合と同様である。   FIG. 6 shows a case where an unpleasant emotion changes to a pleasant emotion. In FIG. 6, the method for setting the start timing and duration of the vibration pattern 302 is the same as that of the vibration pattern 301 in FIG. Further, the control of the vibration intensity is performed in two steps, as in the case of the vibration pattern 301 in FIG. The first stage of vibration intensity control is the same as in the case of the vibration pattern 301 in FIG.

振動強度の制御の第2段階において、出力制御部14は、所定の窓関数402を使用して振動強度を制御する。不快感情から快感情へ変化する場合の窓関数402では、図6に例示されるように、振動開始期間における振動強度をフェードインさせて、振動終了期間における振動強度をフェードアウトさせる。したがって、振動開始期間および振動終了期間での強さは、該振動開始期間と該振動終了期間の間の期間よりも弱くなる。   In the second stage of vibration intensity control, the output control unit 14 controls the vibration intensity using a predetermined window function 402. In the window function 402 when changing from an unpleasant emotion to a pleasant emotion, as illustrated in FIG. 6, the vibration intensity in the vibration start period is faded in, and the vibration intensity in the vibration end period is faded out. Therefore, the strength in the vibration start period and the vibration end period is weaker than the period between the vibration start period and the vibration end period.

なお、感情表現装置1として携帯端末を利用している場合など、電池の消費量が懸念されるときには、電池残量に応じて、振動の頻度、継続時間、強度を一定の割合で少なくするようにしてもよい。例えば、電池残量が2割以下まで低下した場合には、振動の頻度を5割まで減少させたり、継続時間を7割に短縮させたり、強度を8割に低下させたりすることが挙げられる。   When there is a concern about battery consumption, such as when a mobile terminal is used as the emotion expression device 1, the frequency, duration, and intensity of vibration should be reduced at a certain rate according to the remaining battery level. It may be. For example, when the remaining battery level drops to 20% or less, the frequency of vibration can be reduced to 50%, the duration can be shortened to 70%, or the strength can be reduced to 80%. .

[ステップS4:出力ステップ]
出力部15は、出力制御部14からの制御信号103に従い、感情変化表現データ102に基づく出力動作を行う。例えば、出力部15として振動発生装置を備えた場合に、振動発生装置は、図5または図6で示される振動制御に従って振動を発生する。この発生された振動は、アニメーション100の視聴者に対して提供される。このとき、出力制御部14は、コンテンツ再生装置2に対して、アニメーション100の再生制御信号104を出力する。このアニメーション100の再生制御信号104は、出力部15の振動発生装置による振動発生と、コンテンツ再生装置2によるアニメーション100の再生動作とのタイミングを合わせるためのものである。これにより、アニメーション100の再生時において、キャラクタの感情の変化のタイミングで、該感情の変化に対して人の共感を呼ぶ振動がアニメーション100の視聴者に提供される。該視聴者は、該振動によってキャラクタの感情の変化をより印象深く認識できることになる。
[Step S4: Output step]
The output unit 15 performs an output operation based on the emotion change expression data 102 in accordance with the control signal 103 from the output control unit 14. For example, when a vibration generating device is provided as the output unit 15, the vibration generating device generates vibration according to the vibration control shown in FIG. This generated vibration is provided to the viewer of the animation 100. At this time, the output control unit 14 outputs the playback control signal 104 of the animation 100 to the content playback device 2. The reproduction control signal 104 of the animation 100 is used to synchronize the timing of the vibration generation by the vibration generation device of the output unit 15 and the reproduction operation of the animation 100 by the content reproduction device 2. As a result, when the animation 100 is played back, vibrations that call human empathy for the change in the emotion are provided to the viewer of the animation 100 at the timing of the change in the emotion of the character. The viewer can recognize the change in the emotion of the character more impressively by the vibration.

以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。   As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the specific structure is not restricted to this embodiment, The design change etc. of the range which does not deviate from the summary of this invention are included.

例えば、出力部15として、音声発生装置、画像発生装置などを備えてもよい。出力部15として音声発生装置を備えた場合、感情の変化にそれぞれ対応する効果音の音声パターンを用意する。例えば、快感情から不快感情への変化に対して、暗いラッパ音の音声パターンを用意する。一方、不快感情から快感情への変化に対して、音の出だしが強めの明るい電子音の音声パターンを用意する。なお、出力制御部14による音声強度の制御方法は、上述した振動強度の制御方法と同様である。但し、効果音の最大音量は、アニメーション100の音量の半分程度とする。   For example, the output unit 15 may include a sound generation device, an image generation device, and the like. When a sound generation device is provided as the output unit 15, sound effect sound patterns corresponding to emotional changes are prepared. For example, a dark trumpet sound pattern is prepared for a change from pleasant emotion to unpleasant emotion. On the other hand, a bright electronic sound pattern with a strong sound is prepared for a change from unpleasant emotion to pleasant emotion. Note that the sound intensity control method by the output control unit 14 is the same as the vibration intensity control method described above. However, the maximum volume of the sound effect is about half the volume of the animation 100.

また、出力部15として画像発生装置を備えた場合、感情の変化にそれぞれ対応する視覚効果画像の画像パターンを用意する。例えば、快感情から不快感情への変化に対して、図7(1)に例示されるブロークンハート(色は青)501が一定の時間間隔で点滅する画像パターンを用意する。一方、不快感情から快感情への変化に対して、図7(2)に例示されるハート(色はピンク)502が一定の時間間隔で点滅する画像パターンを用意する。なお、出力制御部14による画像強度の制御方法は、上述した振動強度の制御方法と同様である。但し、画像強度として画像の大きさ又は明るさを制御する。   When an image generation device is provided as the output unit 15, image patterns of visual effect images corresponding to emotional changes are prepared. For example, an image pattern is prepared in which a broken heart (color is blue) 501 illustrated in FIG. 7A flashes at regular time intervals in response to a change from pleasant emotion to unpleasant emotion. On the other hand, an image pattern in which a heart (color is pink) 502 illustrated in FIG. 7B flashes at a constant time interval in response to a change from unpleasant emotion to pleasant emotion is prepared. The image intensity control method by the output control unit 14 is the same as the vibration intensity control method described above. However, the size or brightness of the image is controlled as the image intensity.

なお、図1に示される感情表現装置1とコンテンツ再生装置2は、それぞれ独立の装置であってもよく、又は、一つの装置として構成されてもよい。例えば、一携帯端末で、感情表現装置1とコンテンツ再生装置2を実現してもよい。   Note that the emotion expression device 1 and the content reproduction device 2 shown in FIG. 1 may be independent devices or may be configured as one device. For example, the emotion expression device 1 and the content reproduction device 2 may be realized with one mobile terminal.

また、上述した感情表現装置1を実現するためのコンピュータプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。   Further, a computer program for realizing the emotion expression device 1 described above may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read into a computer system and executed. Here, the “computer system” may include an OS and hardware such as peripheral devices.

また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disk)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   “Computer-readable recording medium” refers to a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a DVD (Digital Versatile Disk), and a built-in computer system. A storage device such as a hard disk.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

また、上述した感情表現装置1を実現するためのコンピュータプログラムとして、例えば、ライブラリ、API(Application Programming Interface)、専用アプリケーション、Webアプリケーションなどのプログラム形態が挙げられる。例えば、HTML(HyperText Markup Language)5には、バイブレータを制御するAPIとキャラクタ表示用WebGLなどが揃っており、利用可能である。   Moreover, as a computer program for implement | achieving the emotion expression apparatus 1 mentioned above, program forms, such as a library, API (Application Programming Interface), a dedicated application, a Web application, are mentioned, for example. For example, HTML (HyperText Markup Language) 5 includes an API for controlling a vibrator and WebGL for character display, which can be used.

1…感情表現装置、2…コンテンツ再生装置、11…感情変化情報取得部、12…感情変化表現基本情報記憶部、13…感情変化表現データ生成部、14…出力制御部、15…出力部 DESCRIPTION OF SYMBOLS 1 ... Emotion expression apparatus, 2 ... Content reproduction apparatus, 11 ... Emotion change information acquisition part, 12 ... Emotion change expression basic information storage part, 13 ... Emotion change expression data generation part, 14 ... Output control part, 15 ... Output part

Claims (9)

コンテンツデータから、感情の変化を表す感情変化情報を取得する感情変化情報取得部と、
前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成部と、
前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御部と、
前記出力制御部の制御に従い、前記感情変化表現データに基づく出力動作を行う出力部と、を備え
前記出力制御部は、前記出力動作の開始期間または終了期間に対し、前記感情変化情報で示される感情の変化に応じて、前記出力動作の強度を制御し、
前記出力制御部は、前記感情変化情報で示される感情の変化が快感情から不快感情である場合に、前記出力動作の終了期間での強さを前記出力動作の開始期間よりも弱くする、
ことを特徴とする感情表現装置。
An emotion change information acquisition unit for acquiring emotion change information representing a change in emotion from content data;
An emotion change expression data generation unit for generating emotion change expression data corresponding to the emotion change indicated by the emotion change information;
An output control unit that controls an output operation based on the emotion change expression data based on a timing of a change in emotion indicated by the emotion change information when the content data is reproduced;
An output unit that performs an output operation based on the emotion change expression data according to the control of the output control unit ,
The output control unit controls the intensity of the output operation according to a change in emotion indicated by the emotion change information for a start period or an end period of the output operation,
The output control unit, when the change in emotion indicated by the emotion change information is from a pleasant emotion to an unpleasant emotion, the strength in the end period of the output operation is weaker than the start period of the output operation,
Emotion expression device characterized by that.
コンテンツデータから、感情の変化を表す感情変化情報を取得する感情変化情報取得部と、
前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成部と、
前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御部と、
前記出力制御部の制御に従い、前記感情変化表現データに基づく出力動作を行う出力部と、を備え、
前記出力制御部は、前記出力動作の開始期間または終了期間に対し、前記感情変化情報で示される感情の変化に応じて、前記出力動作の強度を制御し、
前記出力制御部は、前記感情変化情報で示される感情の変化が不快感情から快感情である場合に、前記出力動作の開始期間および終了期間での強さを、該開始期間と該終了期間の間の期間よりも弱くする、
ことを特徴とする感情表現装置。
An emotion change information acquisition unit for acquiring emotion change information representing a change in emotion from content data;
An emotion change expression data generation unit for generating emotion change expression data corresponding to the emotion change indicated by the emotion change information;
An output control unit that controls an output operation based on the emotion change expression data based on a timing of a change in emotion indicated by the emotion change information when the content data is reproduced;
An output unit that performs an output operation based on the emotion change expression data according to the control of the output control unit,
The output control unit controls the intensity of the output operation according to a change in emotion indicated by the emotion change information for a start period or an end period of the output operation,
When the change in emotion indicated by the emotion change information is from an unpleasant emotion to a pleasant emotion, the output control unit determines the strength in the start period and the end period of the output operation between the start period and the end period. Weaker than the period between,
Emotion expression device characterized by that.
人の感情の変化に対して人の共感を呼ぶ感情変化表現を示す感情変化表現基本情報を記憶する感情変化表現基本情報記憶部を備え、
前記感情変化表現データ生成部は、前記感情変化表現基本情報に基づいて、前記感情変化表現データを生成する、
ことを特徴とする請求項1又は2のいずれか1項に記載の感情表現装置。
Emotion change expression basic information storage unit that stores emotion change expression basic information indicating emotion change expression that calls people's sympathy for changes in human emotion,
The emotion change expression data generation unit generates the emotion change expression data based on the emotion change expression basic information.
The emotion expression device according to any one of claims 1 and 2 .
前記出力制御部は、前記出力動作の開始期間または終了期間において、前記出力動作の強さを変化させることを特徴とする請求項からのいずれか1項に記載の感情表現装置。 Wherein the output control section, at the start time or end time of the output operation, emotional expressions device according to any one of claims 1 to 3, characterized by changing the intensity of the output operation. 前記出力制御部は、前記感情変化情報で示される感情の変化の度合いに応じて前記出力動作の強度を制御することを特徴とする請求項1からのいずれか1項に記載の感情表現装置。 The output control unit, emotional apparatus according to any one of claims 1 4, characterized in that to control the intensity of the output operation in accordance with the degree of change of the emotion represented by the emotion change information . 感情表現装置の感情表現方法であり、
前記感情表現装置が、コンテンツデータから、感情の変化を表す感情変化情報を取得する感情変化情報取得ステップと、
前記感情表現装置が、前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成ステップと、
前記感情表現装置が、前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御ステップと、
前記感情表現装置が、前記出力制御ステップの制御に従い、前記感情変化表現データに基づく出力動作を行う出力ステップと、を含み、
前記出力制御ステップは、前記出力動作の開始期間または終了期間に対し、前記感情変化情報で示される感情の変化に応じて、前記出力動作の強度を制御し、
前記出力制御ステップは、前記感情変化情報で示される感情の変化が快感情から不快感情である場合に、前記出力動作の終了期間での強さを前記出力動作の開始期間よりも弱くする、
ことを特徴とする感情表現方法。
Emotion expression method of emotion expression device,
An emotion change information acquisition step in which the emotion expression device acquires emotion change information representing a change in emotion from content data;
An emotion change expression data generation step in which the emotion expression device generates emotion change expression data corresponding to an emotion change indicated by the emotion change information;
An output control step for controlling an output operation based on the emotion change expression data based on the emotion change timing indicated by the emotion change information when the emotion expression device reproduces the content data;
The emotional expression device in accordance with the control of the output control step, see containing and an output step of performing the output operation based on the emotion change expression data,
The output control step controls the intensity of the output operation according to a change in emotion indicated by the emotion change information for a start period or an end period of the output operation,
In the output control step, when the emotion change indicated by the emotion change information is a pleasant emotion to an unpleasant emotion, the strength in the end period of the output operation is weaker than the start period of the output operation.
Emotion expression method characterized by that.
感情表現装置の感情表現方法であり、Emotion expression method of emotion expression device,
前記感情表現装置が、コンテンツデータから、感情の変化を表す感情変化情報を取得する感情変化情報取得ステップと、An emotion change information acquisition step in which the emotion expression device acquires emotion change information representing a change in emotion from content data;
前記感情表現装置が、前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成ステップと、An emotion change expression data generation step in which the emotion expression device generates emotion change expression data corresponding to an emotion change indicated by the emotion change information;
前記感情表現装置が、前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御ステップと、An output control step for controlling an output operation based on the emotion change expression data based on the emotion change timing indicated by the emotion change information when the emotion expression device reproduces the content data;
前記感情表現装置が、前記出力制御ステップの制御に従い、前記感情変化表現データに基づく出力動作を行う出力ステップと、を含み、The emotion expression device includes an output step of performing an output operation based on the emotion change expression data according to the control of the output control step,
前記出力制御ステップは、前記出力動作の開始期間または終了期間に対し、前記感情変化情報で示される感情の変化に応じて、前記出力動作の強度を制御し、The output control step controls the intensity of the output operation according to a change in emotion indicated by the emotion change information for a start period or an end period of the output operation,
前記出力制御ステップは、前記感情変化情報で示される感情の変化が不快感情から快感情である場合に、前記出力動作の開始期間および終了期間での強さを、該開始期間と該終了期間の間の期間よりも弱くする、In the output control step, when the emotion change indicated by the emotion change information is from an unpleasant emotion to a pleasant emotion, the strength of the output operation in the start period and the end period is set to the intensity of the start period and the end period. Weaker than the period between,
ことを特徴とする感情表現方法。Emotion expression method characterized by that.
コンピュータに、
コンテンツデータから、感情の変化を表す感情変化情報を取得する感情変化情報取得ステップと、
前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成ステップと、
前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御ステップと、
前記出力制御ステップの制御に従い、前記感情変化表現データに基づく出力動作を行う出力ステップと、を実行させるためのコンピュータプログラムであり、
前記出力制御ステップは、前記出力動作の開始期間または終了期間に対し、前記感情変化情報で示される感情の変化に応じて、前記出力動作の強度を制御し、
前記出力制御ステップは、前記感情変化情報で示される感情の変化が快感情から不快感情である場合に、前記出力動作の終了期間での強さを前記出力動作の開始期間よりも弱くする、
コンピュータプログラム。
On the computer,
An emotion change information acquisition step of acquiring emotion change information representing a change in emotion from content data;
An emotion change expression data generation step for generating emotion change expression data corresponding to the emotion change indicated by the emotion change information;
An output control step for controlling an output operation based on the emotion change expression data based on a timing of a change in emotion indicated by the emotion change information when the content data is reproduced;
Under the control of the output control step, a computer program for executing an output step of performing the output operation based on the emotion change expression data,
The output control step controls the intensity of the output operation according to a change in emotion indicated by the emotion change information for a start period or an end period of the output operation,
In the output control step, when the emotion change indicated by the emotion change information is a pleasant emotion to an unpleasant emotion, the strength in the end period of the output operation is weaker than the start period of the output operation.
Computer program.
コンピュータに、On the computer,
コンテンツデータから、感情の変化を表す感情変化情報を取得する感情変化情報取得ステップと、An emotion change information acquisition step of acquiring emotion change information representing a change in emotion from content data;
前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成ステップと、An emotion change expression data generation step for generating emotion change expression data corresponding to the emotion change indicated by the emotion change information;
前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御ステップと、An output control step for controlling an output operation based on the emotion change expression data based on a timing of a change in emotion indicated by the emotion change information when the content data is reproduced;
前記出力制御ステップの制御に従い、前記感情変化表現データに基づく出力動作を行う出力ステップと、を実行させるためのコンピュータプログラムであり、An output step of performing an output operation based on the emotion change expression data according to the control of the output control step, and a computer program for executing
前記出力制御ステップは、前記出力動作の開始期間または終了期間に対し、前記感情変化情報で示される感情の変化に応じて、前記出力動作の強度を制御し、The output control step controls the intensity of the output operation according to a change in emotion indicated by the emotion change information for a start period or an end period of the output operation,
前記出力制御ステップは、前記感情変化情報で示される感情の変化が不快感情から快感情である場合に、前記出力動作の開始期間および終了期間での強さを、該開始期間と該終了期間の間の期間よりも弱くする、In the output control step, when the emotion change indicated by the emotion change information is from an unpleasant emotion to a pleasant emotion, the strength of the output operation in the start period and the end period is set to the intensity of the start period and the end period. Weaker than the period between,
コンピュータプログラム。Computer program.
JP2013270294A 2013-12-26 2013-12-26 Emotion expression device, emotion expression method, and computer program Active JP6170834B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013270294A JP6170834B2 (en) 2013-12-26 2013-12-26 Emotion expression device, emotion expression method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013270294A JP6170834B2 (en) 2013-12-26 2013-12-26 Emotion expression device, emotion expression method, and computer program

Publications (2)

Publication Number Publication Date
JP2015125636A JP2015125636A (en) 2015-07-06
JP6170834B2 true JP6170834B2 (en) 2017-07-26

Family

ID=53536290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013270294A Active JP6170834B2 (en) 2013-12-26 2013-12-26 Emotion expression device, emotion expression method, and computer program

Country Status (1)

Country Link
JP (1) JP6170834B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101809601B1 (en) * 2016-08-02 2017-12-15 주식회사 씨투몬스터 Apparatus and method for producing animation
CN106331880B (en) * 2016-09-09 2020-12-04 腾讯科技(深圳)有限公司 Information processing method and system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0612401A (en) * 1992-06-26 1994-01-21 Fuji Xerox Co Ltd Emotion simulating device
JP5441087B2 (en) * 2007-12-26 2014-03-12 株式会社バンダイナムコゲームス Program and image display control device

Also Published As

Publication number Publication date
JP2015125636A (en) 2015-07-06

Similar Documents

Publication Publication Date Title
US9691296B2 (en) Methods and apparatus for conversation coach
Ablart et al. Integrating mid-air haptics into movie experiences
US9681186B2 (en) Method, apparatus and computer program product for gathering and presenting emotional response to an event
US20120276504A1 (en) Talking Teacher Visualization for Language Learning
CN106406522B (en) Virtual reality scene content adjusting method and device
CN115423905A (en) Digital human driving method, system, device and storage medium
TW201233413A (en) Input support device, input support method, and recording medium
Tarvainen et al. The way films feel: Aesthetic features and mood in film.
US20130332859A1 (en) Method and user interface for creating an animated communication
CN106471572A (en) A kind of method of simultaneous voice and virtual acting, system and robot
Bicevskis et al. Visual-tactile integration in speech perception: Evidence for modality neutral speech primitives
JP6170834B2 (en) Emotion expression device, emotion expression method, and computer program
CN113282791B (en) Video generation method and device
US11461948B2 (en) System and method for voice driven lip syncing and head reenactment
JP2023506364A (en) Audio messaging interface on messaging platform
Rincón-Nigro et al. A text-driven conversational avatar interface for instant messaging on mobile devices
McDonnell et al. Talking bodies: Sensitivity to desynchronization of conversations
CN111596761A (en) Method and device for simulating lecture based on face changing technology and virtual reality technology
Bee et al. Interacting with a gaze-aware virtual character
WO2023175704A1 (en) Online conference system, method for controlling online conference system, and program
US8940990B2 (en) Exercise music support apparatus
May et al. Designing Access in Sound Art Exhibitions: Centering Deaf Experiences in Musical Thinking
CN114374867B (en) Method, device and medium for processing multimedia data
Lesteberg et al. Micro and macro-developing new accessible musicking technologies
Klaassen et al. Elckerlyc Goes Mobile Enabling Natural Interaction in Mobile User Interfaces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160721

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170425

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170621

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170703

R150 Certificate of patent or registration of utility model

Ref document number: 6170834

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150