JP6170834B2 - Emotion expression device, emotion expression method, and computer program - Google Patents
Emotion expression device, emotion expression method, and computer program Download PDFInfo
- Publication number
- JP6170834B2 JP6170834B2 JP2013270294A JP2013270294A JP6170834B2 JP 6170834 B2 JP6170834 B2 JP 6170834B2 JP 2013270294 A JP2013270294 A JP 2013270294A JP 2013270294 A JP2013270294 A JP 2013270294A JP 6170834 B2 JP6170834 B2 JP 6170834B2
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- change
- expression
- emotion change
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Description
本発明は、感情表現装置、感情表現方法およびコンピュータプログラムに関する。 The present invention relates to an emotion expression device, an emotion expression method, and a computer program.
近年、スマートフォンやタブレット型のコンピュータ等の携帯端末の性能が向上し、従来は携帯端末での視聴が難しかったアニメーション等の動画コンテンツを携帯端末で視聴することが一般的になってきている。また、学校の授業やチュートリアル、ニュース、オンラインチャットなどにおいて、アニメーションキャラクタが説明者として登場する動画コンテンツが、携帯端末向けに配信されるようになり、携帯端末で視聴されている。 In recent years, the performance of mobile terminals such as smartphones and tablet computers has improved, and it has become common to view video content such as animation, which has been difficult to view on mobile terminals in the past, on mobile terminals. Also, in school classes, tutorials, news, online chat, and the like, moving image content in which animated characters appear as explainers is distributed to mobile terminals and is being viewed on mobile terminals.
従来、アニメーションキャラクタの音声や表情、仕草などによってアニメーションキャラクタの感情表現をリッチなものにすることにより、アニメーションキャラクタによる情報伝達の能力を向上させることが検討されている。しかし、携帯端末では、一般にパーソナルコンピュータやテレビジョン受像機に比較して表示画面サイズが小さいために、表示画面上のアニメーションキャラクタの表情や仕草が分かりにくいという問題がある。このため、表示画面上のアニメーションキャラクタの感情表現を分かりやすくするための従来技術が知られている。 Conventionally, it has been studied to improve the ability of information transmission by an animation character by making the emotional expression of the animation character rich by the voice, facial expression, gesture, etc. of the animation character. However, since the mobile terminal generally has a display screen size smaller than that of a personal computer or television receiver, there is a problem that it is difficult to understand the facial expression and gesture of an animated character on the display screen. For this reason, the prior art for making the emotional expression of the animation character on the display screen easy to understand is known.
非特許文献1に記載の従来技術では、アニメーションキャラクタの元の仕草を変更して、ため、加速、減速などの誇張効果を生成することにより、より分かりやすいアニメーションを生成する。非特許文献2に記載の従来技術では、携帯端末に搭載されるバイブレータ(振動発生装置)で発生された振動が感情と繋がっていることが示されている。特に、振動の周期や強弱によって喚起された感情が異なることが示される。特許文献1に記載の従来技術では、音声と同時に振動から感情を伝えるようにしている。特許文献2に記載の従来技術では、子どもの快、不快、要注意の感情を、母親が働いている職場の情報提示通信装置に伝達し、情報提示通信装置が子どもの感情状態を音、光もしくは振動の機械的な方法により周知する。特許文献3に記載の従来技術では、触覚刺激情報によって複数のアクチュエーターを時間的且つ空間的に制御し、触覚刺激情報をメディアクリップと同期させる。
In the prior art described in Non-Patent
しかし、上述した従来技術では、以下に示す課題がある。
非特許文献1に記載の従来技術では、動きデータを修正しているので、精度面の問題からアニメーションキャラクタの動きが不自然になる可能性がある。また、計算量が多いため、計算能力が低く且つ電池の消費量が懸念される携帯端末には適用が困難である。非特許文献2に記載の従来技術では、振動の周期や強弱と喚起される感情との関係を、アニメーションキャラクタの感情の変化に対してどのように適用するのかが課題である。
However, the conventional techniques described above have the following problems.
In the prior art described in
特許文献1、2に記載の従来技術では、アニメーションと連動しないので、アニメーションキャラクタの感情の変化に対して、どのようにして振動の制御を行うのかが課題である。特許文献3に記載の従来技術では、複数のアクチュエーターによって人体の複数の部位を刺激することを前提にしているので、単一の携帯端末で人体に刺激を与える場合には適用が困難である。さらに、感情の変化を考慮していないので、アニメーションキャラクタの感情表現を豊かにできないという課題がある。
In the prior arts described in
本発明は、このような事情を考慮してなされたもので、アニメーション等のコンテンツデータの再生に合わせて感情の変化を表現できる感情表現装置、感情表現方法およびコンピュータプログラムを提供することを課題とする。 The present invention has been made in consideration of such circumstances, and it is an object of the present invention to provide an emotion expression device, an emotion expression method, and a computer program that can express changes in emotion in accordance with the reproduction of content data such as animation. To do.
(1)本発明に係る感情表現装置は、コンテンツデータから、感情の変化を表す感情変化情報を取得する感情変化情報取得部と、前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成部と、前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御部と、前記出力制御部の制御に従い、前記感情変化表現データに基づく出力動作を行う出力部と、を備えたことを特徴とする。 (1) An emotion expression device according to the present invention includes an emotion change information acquisition unit that acquires emotion change information representing an emotion change from content data, and an emotion change expression corresponding to the emotion change indicated by the emotion change information. An emotion change expression data generation unit that generates data, and an output control unit that controls an output operation based on the emotion change expression data based on the timing of the change of the emotion indicated by the emotion change information when reproducing the content data And an output unit that performs an output operation based on the emotion change expression data in accordance with the control of the output control unit.
(2)本発明に係る感情表現装置は、上記(1)の感情表現装置において、人の感情の変化に対して人の共感を呼ぶ感情変化表現を示す感情変化表現基本情報を記憶する感情変化表現基本情報記憶部を備え、前記感情変化表現データ生成部は、前記感情変化表現基本情報に基づいて、前記感情変化表現データを生成する、ことを特徴とする。 (2) The emotion change device according to the present invention is the emotion change device according to (1), wherein the emotion change device stores basic information of emotion change expressions indicating emotion change expressions that call human empathy for changes in human emotions. An expression basic information storage unit is provided, and the emotion change expression data generation unit generates the emotion change expression data based on the emotion change expression basic information.
(3)本発明に係る感情表現装置は、上記(1)又は(2)のいずれかの感情表現装置において、前記出力制御部は、前記出力動作の開始期間または終了期間に対し、前記感情変化情報で示される感情の変化に応じて、前記出力動作の強度を制御することを特徴とする。 (3) In the emotion expression device according to the present invention, in the emotion expression device according to any one of (1) and (2), the output control unit may change the emotion change with respect to a start period or an end period of the output operation. The intensity of the output operation is controlled according to a change in emotion indicated by the information.
(4)本発明に係る感情表現装置は、上記(3)の感情表現装置において、前記出力制御部は、前記感情変化情報で示される感情の変化が快感情から不快感情である場合に、前記出力動作の終了期間での強さを前記出力動作の開始期間よりも弱くすることを特徴とする。 (4) The emotion expression device according to the present invention is the emotion expression device according to (3), wherein the output control unit is configured to change the emotion change indicated by the emotion change information from a pleasant emotion to an unpleasant emotion. The strength in the end period of the output operation is made weaker than the start period of the output operation.
(5)本発明に係る感情表現装置は、上記(3)の感情表現装置において、前記出力制御部は、前記感情変化情報で示される感情の変化が不快感情から快感情である場合に、前記出力動作の開始期間および終了期間での強さを、該開始期間と該終了期間の間の期間よりも弱くすることを特徴とする。 (5) The emotion expression device according to the present invention is the emotion expression device according to (3), wherein the output control unit is configured such that when the emotion change indicated by the emotion change information is from an unpleasant emotion to a pleasant emotion, The strength in the start period and the end period of the output operation is made weaker than the period between the start period and the end period.
(6)本発明に係る感情表現装置は、上記(3)から(5)のいずれかの感情表現装置において、前記出力制御部は、前記出力動作の開始期間または終了期間において、前記出力動作の強さを変化させることを特徴とする。 (6) The emotion expression device according to the present invention is the emotion expression device according to any one of (3) to (5), wherein the output control unit performs the output operation in a start period or an end period of the output operation. It is characterized by changing strength.
(7)本発明に係る感情表現装置は、上記(1)から(6)のいずれかの感情表現装置において、前記出力制御部は、前記感情変化情報で示される感情の変化の度合いに応じて前記出力動作の強度を制御することを特徴とする。 (7) The emotion expression device according to the present invention is the emotion expression device according to any one of (1) to (6) above, wherein the output control unit is configured according to the degree of change in emotion indicated by the emotion change information. The intensity of the output operation is controlled.
(8)本発明に係る感情表現方法は、感情表現装置の感情表現方法であり、前記感情表現装置が、コンテンツデータから、感情の変化を表す感情変化情報を取得する感情変化情報取得ステップと、前記感情表現装置が、前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成ステップと、前記感情表現装置が、前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御ステップと、前記感情表現装置が、前記出力制御ステップの制御に従い、前記感情変化表現データに基づく出力動作を行う出力ステップと、を含むことを特徴とする。 (8) An emotion expression method according to the present invention is an emotion expression method of an emotion expression device, and the emotion expression device acquires emotion change information representing emotion change from content data; An emotion change expression data generation step in which the emotion expression device generates emotion change expression data corresponding to the emotion change indicated by the emotion change information; and the emotion expression device reproduces the emotion change when the content data is reproduced. An output control step for controlling an output operation based on the emotion change expression data based on the emotion change timing indicated by the information; and the emotion expression device converts the emotion change expression data into the emotion change expression data according to the control of the output control step. And an output step for performing an output operation based on the output step.
(9)本発明に係るコンピュータプログラムは、コンピュータに、コンテンツデータから、感情の変化を表す感情変化情報を取得する感情変化情報取得ステップと、前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成ステップと、前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御ステップと、前記出力制御ステップの制御に従い、前記感情変化表現データに基づく出力動作を行う出力ステップと、を実行させるためのコンピュータプログラムであることを特徴とする。 (9) A computer program according to the present invention includes an emotion change information acquisition step for acquiring, from a content data, emotion change information representing an emotion change, and an emotion corresponding to the emotion change indicated by the emotion change information. An emotion change expression data generation step for generating change expression data, and an output for controlling an output operation based on the emotion change expression data based on the emotion change timing indicated by the emotion change information when the content data is reproduced It is a computer program for executing a control step and an output step for performing an output operation based on the emotion change expression data in accordance with the control of the output control step.
本発明によれば、アニメーション等のコンテンツデータの再生に合わせて感情の変化を表現することができる。これにより、コンテンツデータの視聴者は、コンテンツデータに含まれる感情の変化をより印象深く認識できるという効果が得られる。 According to the present invention, it is possible to express a change in emotion in accordance with the reproduction of content data such as animation. Thereby, the effect that the viewer of content data can recognize the change of the emotion contained in content data more impressively is acquired.
以下、図面を参照し、本発明の実施形態について説明する。
図1は、本発明の一実施形態に係る感情表現装置1の構成を示すブロック図である。図1において、感情表現装置1は、感情変化情報取得部11と感情変化表現基本情報記憶部12と感情変化表現データ生成部13と出力制御部14と出力部15を備える。感情表現装置1にはコンテンツデータ100が入力される。該コンテンツデータ100は、コンテンツ再生装置2に入力されて再生される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of an
コンテンツデータ100としては、感情の変化の情報を有するものであって、例えば、動画コンテンツ、テキストコンテンツ、音声コンテンツなどのデータが挙げられる。動画コンテンツとして、例えば、コンピュータグラフィックス等によるアニメーション、実写による動画像などが挙げられる。テキストコンテンツとして、例えば、小説、雑誌等の書籍、ブログなどが挙げられる。音声コンテンツとして、例えば、楽曲、小説等の朗読などが挙げられる。動画コンテンツおよびテキストコンテンツは、コンテンツ再生装置2の表示画面上で表示再生される。音声コンテンツは、コンテンツ再生装置2により音声再生される。
The content data 100 includes information on emotional changes, and examples thereof include data such as video content, text content, and audio content. Examples of the moving image content include an animation by computer graphics and a moving image by a live action. Examples of text content include novels, books such as magazines, and blogs. Examples of the audio content include reading of music, novels, and the like. The moving image content and the text content are displayed and reproduced on the display screen of the
感情表現装置1において、感情変化情報取得部11は、コンテンツデータ100から、感情の変化を表す感情変化情報101を取得する。感情変化表現基本情報記憶部12は、人の感情の変化に対して人の共感を呼ぶ感情変化表現を示す感情変化表現基本情報105を記憶する。感情変化表現データ生成部13は、感情変化情報101で示される感情の変化に対応する感情変化表現データ102を生成する。感情変化表現基本情報105は、感情変化表現データ生成部13によって感情変化表現データ102の生成の際に使用される。出力制御部14は、コンテンツデータ100の再生時に、感情変化情報101で示される感情の変化のタイミングに基づいて、感情変化表現データ102に基づく出力動作を制御する。
In the
出力部15は、出力制御部14からの制御信号103に従い、感情変化表現データ102に基づく出力動作を行う。出力部15として、例えば、感情変化表現データ102に基づく振動を発生する振動発生装置、感情変化表現データ102に基づく音声を発生する音声発生装置、感情変化表現データ102に基づく画像を発生する画像発生装置などが挙げられる。出力部15によって発生された振動、音声、画像は、コンテンツ再生装置2によって再生されるコンテンツデータ100を視聴する利用者に対して、提供される。
The
また、出力制御部14は、コンテンツ再生装置2に対して、コンテンツデータ100の再生制御信号104を出力する。このコンテンツデータ100の再生制御信号104は、出力部15による感情変化表現データ102に基づく出力動作とコンテンツ再生装置2によるコンテンツデータ100の再生動作とのタイミングを合わせるためのものである。
Further, the
次に、図2を参照して、本実施形態に係る感情表現装置1の動作を説明する。図2は、本実施形態に係る感情表現方法の手順を示すフローチャートである。以下の説明では、コンテンツデータ100として、アニメーション(以下、アニメーション100と記す)を例に挙げて説明する。
Next, the operation of the
[ステップS1:感情変化情報取得ステップ]
感情変化情報取得部11は、感情表現装置1に入力されたアニメーション100から感情変化情報101を取得する。感情変化情報101は、感情の変化のタイミング(感情変化タイミング)と、変化前と変化後の各感情などを示す。
[Step S1: Emotion change information acquisition step]
The emotion change
アニメーション100は、アニメーションキャラクタ(以下、単にキャラクタと称する)が時間の経過に伴って音声や表情、仕草などを変化させることにより、キャラクタの感情を表現する。感情変化情報取得部11は、アニメーション100から、そのキャラクタの感情の変化を表す感情変化情報101を取得する。この感情変化情報取得方法として、2つの例A−1、A−2を以下に説明する。これら例A−1、A−2では、説明の便宜上、2種類の感情として「快感情」と「不快感情」を使用する。このため、感情の変化として、快感情から不快感情への変化と、不快感情から快感情への変化との2種類が存在する。
The animation 100 expresses the emotion of a character by an animation character (hereinafter simply referred to as a character) changing voices, facial expressions, gestures, etc. over time. The emotion change
(例A−1) 例A−1では、アニメーション100は、3次元のコンピュータグラフィックスにより、キャラクタの顔の各表情に対応するポリゴンやテキスチャーを使用してキャラクタの顔の表情が作成されている。アニメーション100には、基本表情集合「F={F0,F1,・・・,FN}」が定義される。Fnは基本表情を示す。「n=0,1,・・・,N」であり、Nは正の整数である。そして、アニメーション100は、メタデータとして、フレーム毎に基本表情集合Fの時間変化情報を有する。基本表情集合Fの時間変化情報によって、アニメーション100の各フレームにおける、キャラクタの表情が示される。 (Example A-1) In Example A-1, in the animation 100, the facial expression of the character is created using three-dimensional computer graphics using polygons and textures corresponding to the facial expression of the character. . In the animation 100, a basic expression set “F = {F 0 , F 1 ,..., F N }” is defined. F n represents a basic facial expression. “N = 0, 1,..., N”, where N is a positive integer. The animation 100 includes time change information of the basic facial expression set F for each frame as metadata. The facial expression of the character in each frame of the animation 100 is indicated by the time change information of the basic facial expression set F.
感情変化情報取得部11は、アニメーション100のキャラクタの表情を、図3に示される感情モデルにマッピングする。感情変化情報取得部11は、表情と感情モデル座標との対応関係を示す表情変換座標情報を予め保持する。感情変化情報取得部11は、表情変換座標情報に基づいて、アニメーション100のフレーム毎に、基本表情集合Fの時間変化情報で示されるキャラクタの表情から、感情モデル座標を取得する。
The emotion change
図3は、本実施形態に係る感情モデルの例を示すグラフ図である。図3において、x軸は快感情と不快感情の度合いを示し、y軸は感情の活性の度合いを示す。図3に示される例では、あるフレームで表情が座標201であったものが、以降の各フレームで表情が座標202から座標206へと変化している。そして、図3の例では、座標203のフレームから座標204のフレームで、キャラクタの感情が不快から快へ変化していることが分かる。 FIG. 3 is a graph showing an example of an emotion model according to the present embodiment. In FIG. 3, the x-axis indicates the degree of pleasant emotion and unpleasant emotion, and the y-axis indicates the degree of emotional activity. In the example shown in FIG. 3, the facial expression is coordinate 201 in a certain frame, but the facial expression changes from coordinate 202 to coordinate 206 in each subsequent frame. In the example of FIG. 3, it can be seen that the emotion of the character changes from unpleasant to pleasant from the frame of the coordinate 203 to the frame of the coordinate 204.
感情変化情報取得部11は、アニメーション100の各フレームにおけるキャラクタの表情を感情モデルへマッピングした結果から、感情変化タイミングを示す情報と、変化前と変化後の各感情を示す情報と、感情モデル座標情報「E(t)={x(t),y(t)}を取得する。tはアニメーション100のフレーム時刻である。図3の例では、感情変化タイミングは、座標203のフレームと座標204のフレームの間であり、変化前は不快感情であり、変化後は快感情である。
The emotion change
なお、アニメーション100が複数の表情を有する場合、フレーム毎に基本表情集合Fの時間変化情報が複数あり、アニメーション100の各フレームにおけるキャラクタの表情が複数存在する。この場合、感情変化情報取得部11は、基本表情集合Fの時間変化情報ごとに、それぞれキャラクタの表情を感情モデルへマッピングする。これにより、基本表情集合Fの時間変化情報ごとに、感情モデル上に、表情変化ベクトル(図3中の矢印破線に相当)が生成される。感情変化情報取得部11は、それらの表情変化ベクトルの平均を求める。そして、感情変化情報取得部11は、その平均ベクトルから、感情変化タイミングを示す情報と、変化前と変化後の各感情を示す情報と、感情モデル座標情報E(t)を取得する。
When the animation 100 has a plurality of facial expressions, there are a plurality of pieces of time change information of the basic facial expression set F for each frame, and there are a plurality of character facial expressions in each frame of the animation 100. In this case, the emotion change
(例A−2) 例A−2では、アニメーション100は、3次元のコンピュータグラフィックスにより、キャラクタの顔の各パーツの組み合わせを使用してキャラクタの顔の表情が作成されている。感情変化情報取得部11は、アニメーション100から各パーツの時刻(フレーム)情報を取得し、該各パーツの時刻情報に基づいてキャラクタの表情を判定する。ここで、単一の感情の場合には、FACS(Facial Action Coding System:顔面表情記号化システム)を利用して、各パーツと表情の明確な対応関係によって、その表情を推定する。一方、複数の感情が存在する場合には、各パーツの組み合わせが示す複数の表情から一つに絞り切れないときがある。この場合、グリーディ法(Greedy algorithm)を利用して、複数の表情から一つを選択する。
(Example A-2) In Example A-2, the facial expression of the character is created in the animation 100 using a combination of each part of the character's face by three-dimensional computer graphics. The emotion change
感情変化情報取得部11は、例A−1と同様に、アニメーション100の各フレームにおけるキャラクタの表情を感情モデルへマッピングした結果から、感情変化タイミングを示す情報と、変化前と変化後の各感情を示す情報と、感情モデル座標情報E(t)を取得する。
As in Example A-1, the emotion change
以上が感情変化情報101の取得の方法の例の説明である。感情変化情報取得部11は、感情変化情報101を、感情変化表現データ生成部13と出力制御部14へ出力する。感情変化情報101は、感情変化タイミングを示す情報と、変化前と変化後の各感情を示す情報と、感情モデル座標情報E(t)を有する。
The above is an explanation of an example of a method for acquiring the
なお、アニメーション100がメタデータとして、感情変化タイミングを示す情報、変化前と変化後の各感情を示す情報、感情モデル座標情報E(t)を有する場合には、該情報を取得して感情変化情報101に使用する。
In addition, when the animation 100 has information indicating emotion change timing, information indicating each emotion before and after the change, and emotion model coordinate information E (t) as metadata, the information is acquired to change the emotion. Used for
[ステップS2:感情変化表現データ生成ステップ]
感情変化表現データ生成部13は、感情変化情報101で示される感情の変化に対応する感情変化表現データ102を生成する。感情変化表現基本情報105は、感情変化表現データ生成部13によって感情変化表現データ102の生成の際に使用される。
[Step S2: Emotion change expression data generation step]
The emotion change expression
図4は、本実施形態に係る感情変化表現基本情報105の例を示す波形図である。図4には、出力部15として振動発生装置を備えた場合の感情変化表現基本情報105の例を示している。図4(1)の波形は、快感情から不快感情へ変化する場合の振動パターン301である。この振動パターン301は、振動強度が比較的大きく振動周期が比較的短い、断続的な振動パターンである。この振動パターン301により、快感情から不快感情への変化に対する人の共感を呼ぶことができる。
FIG. 4 is a waveform diagram showing an example of emotion change expression
図4(2)の波形は、不快感情から快感情へ変化する場合の振動パターン302である。この振動パターン302は、振動強度が比較的小さく振動周期が比較的長い、継続的な振動パターンである。この振動パターン302により、不快感情から快感情への変化に対する人の共感を呼ぶことができる。
The waveform in FIG. 4B is a
感情変化表現データ生成部13は、感情変化情報101で示される変化前と変化後の各感情に基づいて、感情の変化に対応する感情変化表現基本情報105を選択する。例えば、快感情から不快感情へ変化する場合には振動パターン301を選択する。一方、不快感情から快感情へ変化する場合には振動パターン302を選択する。
The emotion change expression
次いで、感情変化表現データ生成部13は、該選択した感情変化表現基本情報105に対して、感情変化情報101で示される感情変化タイミングを関連付けた、感情変化表現データ102を生成する。この感情変化表現データ102は、感情変化表現基本情報105と、感情変化情報101で示される感情変化タイミングの情報と、感情モデル座標情報E(t)を有する。感情変化表現データ生成部13は、感情変化表現データ102を、出力制御部14と出力部15へ出力する。
Next, the emotion change expression
[ステップS3:出力制御ステップ]
出力制御部14は、アニメーション100の再生時に、感情変化情報101で示される感情変化タイミングに基づいて、感情変化表現データ102に基づく出力動作を制御する。出力制御部14は、出力部15に対して、該制御を伝える制御信号103を出力する。感情変化情報101で示される感情変化タイミングは、感情変化表現データ102から取得される。
[Step S3: Output Control Step]
The
以下に、具体例を挙げて出力制御ステップを説明する。ここでは、出力部15として振動発生装置を備え、図4の振動パターン301、302を使用することとする。
The output control step will be described below with a specific example. Here, it is assumed that a vibration generator is provided as the
出力制御部14は、感情変化表現データ102で示される振動パターンに対し、感情の変化に応じて、振動開始期間または振動終了期間における振動強度を制御する。図5および図6は、本実施形態に係る出力制御部14による出力制御動作の例を説明する図である。
The
図5は快感情から不快感情へ変化する場合である。図5において、出力制御部14は、振動パターン301の開始タイミングを、感情変化タイミングt0の直前(例えば、0.5秒前)に設定する。また、出力制御部14は、振動パターン301の継続期間を、一定時間(例えば、5秒間)と、次の感情変化タイミングまでの時間とのうち、短い方に設定する。
FIG. 5 shows a case where the pleasant emotion changes to the unpleasant emotion. In FIG. 5, the
振動強度の制御については、以下に示す2段階で行う。 The vibration intensity is controlled in the following two stages.
(振動強度の制御の第1段階) 出力制御部14は、感情モデル座標情報E(t)に基づいて、適応的に、振動強度を制御する。具体的には、出力制御部14は、[数1]により、振動強度の制御重みw(t)を算出する。出力制御部14は、制御重みw(t)によって、振動パターン301に対し、継続期間における強度の重み付けを行う。
(First Stage of Vibration Intensity Control) The
但し、Emaxは振動パターン301の継続期間で最も大きなE(t)である。
However, E max is the largest E (t) in the duration of the
感情モデル座標情報E(t)に基づいた振動強度の制御によって、感情の変化の度合いに応じた振動強度を実現できる。例えば、長く溜めて怒るときには、ゆっくりと振動強度を高めていって、感情の最大と振動強度の最大とを同期させることができる。 By controlling the vibration intensity based on the emotion model coordinate information E (t), it is possible to realize a vibration intensity corresponding to the degree of emotion change. For example, when angry after accumulating for a long time, the vibration intensity is slowly increased, and the maximum of emotion and the maximum of vibration intensity can be synchronized.
(振動強度の制御の第2段階) 出力制御部14は、所定の窓関数401を使用して振動強度を制御する。快感情から不快感情へ変化する場合の窓関数401では、図5に例示されるように、振動開始期間における振動強度を調整なしとし、振動終了期間における振動強度をフェードアウトさせる。したがって、振動終了期間での強さは振動開始期間よりも弱くなる。
(Second stage of vibration intensity control) The
図6は不快感情から快感情へ変化する場合である。図6において、振動パターン302の開始タイミングおよび継続期間の設定方法は、上記図5の振動パターン301の場合と同様である。また、振動強度の制御については、上記図5の振動パターン301の場合と同様に、2段階で行う。振動強度の制御の第1段階については、上記図5の振動パターン301の場合と同様である。
FIG. 6 shows a case where an unpleasant emotion changes to a pleasant emotion. In FIG. 6, the method for setting the start timing and duration of the
振動強度の制御の第2段階において、出力制御部14は、所定の窓関数402を使用して振動強度を制御する。不快感情から快感情へ変化する場合の窓関数402では、図6に例示されるように、振動開始期間における振動強度をフェードインさせて、振動終了期間における振動強度をフェードアウトさせる。したがって、振動開始期間および振動終了期間での強さは、該振動開始期間と該振動終了期間の間の期間よりも弱くなる。
In the second stage of vibration intensity control, the
なお、感情表現装置1として携帯端末を利用している場合など、電池の消費量が懸念されるときには、電池残量に応じて、振動の頻度、継続時間、強度を一定の割合で少なくするようにしてもよい。例えば、電池残量が2割以下まで低下した場合には、振動の頻度を5割まで減少させたり、継続時間を7割に短縮させたり、強度を8割に低下させたりすることが挙げられる。
When there is a concern about battery consumption, such as when a mobile terminal is used as the
[ステップS4:出力ステップ]
出力部15は、出力制御部14からの制御信号103に従い、感情変化表現データ102に基づく出力動作を行う。例えば、出力部15として振動発生装置を備えた場合に、振動発生装置は、図5または図6で示される振動制御に従って振動を発生する。この発生された振動は、アニメーション100の視聴者に対して提供される。このとき、出力制御部14は、コンテンツ再生装置2に対して、アニメーション100の再生制御信号104を出力する。このアニメーション100の再生制御信号104は、出力部15の振動発生装置による振動発生と、コンテンツ再生装置2によるアニメーション100の再生動作とのタイミングを合わせるためのものである。これにより、アニメーション100の再生時において、キャラクタの感情の変化のタイミングで、該感情の変化に対して人の共感を呼ぶ振動がアニメーション100の視聴者に提供される。該視聴者は、該振動によってキャラクタの感情の変化をより印象深く認識できることになる。
[Step S4: Output step]
The
以上、本発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。 As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the specific structure is not restricted to this embodiment, The design change etc. of the range which does not deviate from the summary of this invention are included.
例えば、出力部15として、音声発生装置、画像発生装置などを備えてもよい。出力部15として音声発生装置を備えた場合、感情の変化にそれぞれ対応する効果音の音声パターンを用意する。例えば、快感情から不快感情への変化に対して、暗いラッパ音の音声パターンを用意する。一方、不快感情から快感情への変化に対して、音の出だしが強めの明るい電子音の音声パターンを用意する。なお、出力制御部14による音声強度の制御方法は、上述した振動強度の制御方法と同様である。但し、効果音の最大音量は、アニメーション100の音量の半分程度とする。
For example, the
また、出力部15として画像発生装置を備えた場合、感情の変化にそれぞれ対応する視覚効果画像の画像パターンを用意する。例えば、快感情から不快感情への変化に対して、図7(1)に例示されるブロークンハート(色は青)501が一定の時間間隔で点滅する画像パターンを用意する。一方、不快感情から快感情への変化に対して、図7(2)に例示されるハート(色はピンク)502が一定の時間間隔で点滅する画像パターンを用意する。なお、出力制御部14による画像強度の制御方法は、上述した振動強度の制御方法と同様である。但し、画像強度として画像の大きさ又は明るさを制御する。
When an image generation device is provided as the
なお、図1に示される感情表現装置1とコンテンツ再生装置2は、それぞれ独立の装置であってもよく、又は、一つの装置として構成されてもよい。例えば、一携帯端末で、感情表現装置1とコンテンツ再生装置2を実現してもよい。
Note that the
また、上述した感情表現装置1を実現するためのコンピュータプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するようにしてもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。
Further, a computer program for realizing the
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、DVD(Digital Versatile Disk)等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。 “Computer-readable recording medium” refers to a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a DVD (Digital Versatile Disk), and a built-in computer system. A storage device such as a hard disk.
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.
また、上述した感情表現装置1を実現するためのコンピュータプログラムとして、例えば、ライブラリ、API(Application Programming Interface)、専用アプリケーション、Webアプリケーションなどのプログラム形態が挙げられる。例えば、HTML(HyperText Markup Language)5には、バイブレータを制御するAPIとキャラクタ表示用WebGLなどが揃っており、利用可能である。
Moreover, as a computer program for implement | achieving the
1…感情表現装置、2…コンテンツ再生装置、11…感情変化情報取得部、12…感情変化表現基本情報記憶部、13…感情変化表現データ生成部、14…出力制御部、15…出力部
DESCRIPTION OF
Claims (9)
前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成部と、
前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御部と、
前記出力制御部の制御に従い、前記感情変化表現データに基づく出力動作を行う出力部と、を備え、
前記出力制御部は、前記出力動作の開始期間または終了期間に対し、前記感情変化情報で示される感情の変化に応じて、前記出力動作の強度を制御し、
前記出力制御部は、前記感情変化情報で示される感情の変化が快感情から不快感情である場合に、前記出力動作の終了期間での強さを前記出力動作の開始期間よりも弱くする、
ことを特徴とする感情表現装置。 An emotion change information acquisition unit for acquiring emotion change information representing a change in emotion from content data;
An emotion change expression data generation unit for generating emotion change expression data corresponding to the emotion change indicated by the emotion change information;
An output control unit that controls an output operation based on the emotion change expression data based on a timing of a change in emotion indicated by the emotion change information when the content data is reproduced;
An output unit that performs an output operation based on the emotion change expression data according to the control of the output control unit ,
The output control unit controls the intensity of the output operation according to a change in emotion indicated by the emotion change information for a start period or an end period of the output operation,
The output control unit, when the change in emotion indicated by the emotion change information is from a pleasant emotion to an unpleasant emotion, the strength in the end period of the output operation is weaker than the start period of the output operation,
Emotion expression device characterized by that.
前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成部と、
前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御部と、
前記出力制御部の制御に従い、前記感情変化表現データに基づく出力動作を行う出力部と、を備え、
前記出力制御部は、前記出力動作の開始期間または終了期間に対し、前記感情変化情報で示される感情の変化に応じて、前記出力動作の強度を制御し、
前記出力制御部は、前記感情変化情報で示される感情の変化が不快感情から快感情である場合に、前記出力動作の開始期間および終了期間での強さを、該開始期間と該終了期間の間の期間よりも弱くする、
ことを特徴とする感情表現装置。 An emotion change information acquisition unit for acquiring emotion change information representing a change in emotion from content data;
An emotion change expression data generation unit for generating emotion change expression data corresponding to the emotion change indicated by the emotion change information;
An output control unit that controls an output operation based on the emotion change expression data based on a timing of a change in emotion indicated by the emotion change information when the content data is reproduced;
An output unit that performs an output operation based on the emotion change expression data according to the control of the output control unit,
The output control unit controls the intensity of the output operation according to a change in emotion indicated by the emotion change information for a start period or an end period of the output operation,
When the change in emotion indicated by the emotion change information is from an unpleasant emotion to a pleasant emotion, the output control unit determines the strength in the start period and the end period of the output operation between the start period and the end period. Weaker than the period between,
Emotion expression device characterized by that.
前記感情変化表現データ生成部は、前記感情変化表現基本情報に基づいて、前記感情変化表現データを生成する、
ことを特徴とする請求項1又は2のいずれか1項に記載の感情表現装置。 Emotion change expression basic information storage unit that stores emotion change expression basic information indicating emotion change expression that calls people's sympathy for changes in human emotion,
The emotion change expression data generation unit generates the emotion change expression data based on the emotion change expression basic information.
The emotion expression device according to any one of claims 1 and 2 .
前記感情表現装置が、コンテンツデータから、感情の変化を表す感情変化情報を取得する感情変化情報取得ステップと、
前記感情表現装置が、前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成ステップと、
前記感情表現装置が、前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御ステップと、
前記感情表現装置が、前記出力制御ステップの制御に従い、前記感情変化表現データに基づく出力動作を行う出力ステップと、を含み、
前記出力制御ステップは、前記出力動作の開始期間または終了期間に対し、前記感情変化情報で示される感情の変化に応じて、前記出力動作の強度を制御し、
前記出力制御ステップは、前記感情変化情報で示される感情の変化が快感情から不快感情である場合に、前記出力動作の終了期間での強さを前記出力動作の開始期間よりも弱くする、
ことを特徴とする感情表現方法。 Emotion expression method of emotion expression device,
An emotion change information acquisition step in which the emotion expression device acquires emotion change information representing a change in emotion from content data;
An emotion change expression data generation step in which the emotion expression device generates emotion change expression data corresponding to an emotion change indicated by the emotion change information;
An output control step for controlling an output operation based on the emotion change expression data based on the emotion change timing indicated by the emotion change information when the emotion expression device reproduces the content data;
The emotional expression device in accordance with the control of the output control step, see containing and an output step of performing the output operation based on the emotion change expression data,
The output control step controls the intensity of the output operation according to a change in emotion indicated by the emotion change information for a start period or an end period of the output operation,
In the output control step, when the emotion change indicated by the emotion change information is a pleasant emotion to an unpleasant emotion, the strength in the end period of the output operation is weaker than the start period of the output operation.
Emotion expression method characterized by that.
前記感情表現装置が、コンテンツデータから、感情の変化を表す感情変化情報を取得する感情変化情報取得ステップと、An emotion change information acquisition step in which the emotion expression device acquires emotion change information representing a change in emotion from content data;
前記感情表現装置が、前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成ステップと、An emotion change expression data generation step in which the emotion expression device generates emotion change expression data corresponding to an emotion change indicated by the emotion change information;
前記感情表現装置が、前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御ステップと、An output control step for controlling an output operation based on the emotion change expression data based on the emotion change timing indicated by the emotion change information when the emotion expression device reproduces the content data;
前記感情表現装置が、前記出力制御ステップの制御に従い、前記感情変化表現データに基づく出力動作を行う出力ステップと、を含み、The emotion expression device includes an output step of performing an output operation based on the emotion change expression data according to the control of the output control step,
前記出力制御ステップは、前記出力動作の開始期間または終了期間に対し、前記感情変化情報で示される感情の変化に応じて、前記出力動作の強度を制御し、The output control step controls the intensity of the output operation according to a change in emotion indicated by the emotion change information for a start period or an end period of the output operation,
前記出力制御ステップは、前記感情変化情報で示される感情の変化が不快感情から快感情である場合に、前記出力動作の開始期間および終了期間での強さを、該開始期間と該終了期間の間の期間よりも弱くする、In the output control step, when the emotion change indicated by the emotion change information is from an unpleasant emotion to a pleasant emotion, the strength of the output operation in the start period and the end period is set to the intensity of the start period and the end period. Weaker than the period between,
ことを特徴とする感情表現方法。Emotion expression method characterized by that.
コンテンツデータから、感情の変化を表す感情変化情報を取得する感情変化情報取得ステップと、
前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成ステップと、
前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御ステップと、
前記出力制御ステップの制御に従い、前記感情変化表現データに基づく出力動作を行う出力ステップと、を実行させるためのコンピュータプログラムであり、
前記出力制御ステップは、前記出力動作の開始期間または終了期間に対し、前記感情変化情報で示される感情の変化に応じて、前記出力動作の強度を制御し、
前記出力制御ステップは、前記感情変化情報で示される感情の変化が快感情から不快感情である場合に、前記出力動作の終了期間での強さを前記出力動作の開始期間よりも弱くする、
コンピュータプログラム。 On the computer,
An emotion change information acquisition step of acquiring emotion change information representing a change in emotion from content data;
An emotion change expression data generation step for generating emotion change expression data corresponding to the emotion change indicated by the emotion change information;
An output control step for controlling an output operation based on the emotion change expression data based on a timing of a change in emotion indicated by the emotion change information when the content data is reproduced;
Under the control of the output control step, a computer program for executing an output step of performing the output operation based on the emotion change expression data,
The output control step controls the intensity of the output operation according to a change in emotion indicated by the emotion change information for a start period or an end period of the output operation,
In the output control step, when the emotion change indicated by the emotion change information is a pleasant emotion to an unpleasant emotion, the strength in the end period of the output operation is weaker than the start period of the output operation.
Computer program.
コンテンツデータから、感情の変化を表す感情変化情報を取得する感情変化情報取得ステップと、An emotion change information acquisition step of acquiring emotion change information representing a change in emotion from content data;
前記感情変化情報で示される感情の変化に対応する感情変化表現データを生成する感情変化表現データ生成ステップと、An emotion change expression data generation step for generating emotion change expression data corresponding to the emotion change indicated by the emotion change information;
前記コンテンツデータの再生時に、前記感情変化情報で示される感情の変化のタイミングに基づいて、前記感情変化表現データに基づく出力動作を制御する出力制御ステップと、An output control step for controlling an output operation based on the emotion change expression data based on a timing of a change in emotion indicated by the emotion change information when the content data is reproduced;
前記出力制御ステップの制御に従い、前記感情変化表現データに基づく出力動作を行う出力ステップと、を実行させるためのコンピュータプログラムであり、An output step of performing an output operation based on the emotion change expression data according to the control of the output control step, and a computer program for executing
前記出力制御ステップは、前記出力動作の開始期間または終了期間に対し、前記感情変化情報で示される感情の変化に応じて、前記出力動作の強度を制御し、The output control step controls the intensity of the output operation according to a change in emotion indicated by the emotion change information for a start period or an end period of the output operation,
前記出力制御ステップは、前記感情変化情報で示される感情の変化が不快感情から快感情である場合に、前記出力動作の開始期間および終了期間での強さを、該開始期間と該終了期間の間の期間よりも弱くする、In the output control step, when the emotion change indicated by the emotion change information is from an unpleasant emotion to a pleasant emotion, the strength of the output operation in the start period and the end period is set to the intensity of the start period and the end period. Weaker than the period between,
コンピュータプログラム。Computer program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013270294A JP6170834B2 (en) | 2013-12-26 | 2013-12-26 | Emotion expression device, emotion expression method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013270294A JP6170834B2 (en) | 2013-12-26 | 2013-12-26 | Emotion expression device, emotion expression method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015125636A JP2015125636A (en) | 2015-07-06 |
JP6170834B2 true JP6170834B2 (en) | 2017-07-26 |
Family
ID=53536290
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013270294A Active JP6170834B2 (en) | 2013-12-26 | 2013-12-26 | Emotion expression device, emotion expression method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6170834B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101809601B1 (en) * | 2016-08-02 | 2017-12-15 | 주식회사 씨투몬스터 | Apparatus and method for producing animation |
CN106331880B (en) * | 2016-09-09 | 2020-12-04 | 腾讯科技(深圳)有限公司 | Information processing method and system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0612401A (en) * | 1992-06-26 | 1994-01-21 | Fuji Xerox Co Ltd | Emotion simulating device |
JP5441087B2 (en) * | 2007-12-26 | 2014-03-12 | 株式会社バンダイナムコゲームス | Program and image display control device |
-
2013
- 2013-12-26 JP JP2013270294A patent/JP6170834B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015125636A (en) | 2015-07-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9691296B2 (en) | Methods and apparatus for conversation coach | |
Ablart et al. | Integrating mid-air haptics into movie experiences | |
US9681186B2 (en) | Method, apparatus and computer program product for gathering and presenting emotional response to an event | |
US20120276504A1 (en) | Talking Teacher Visualization for Language Learning | |
CN106406522B (en) | Virtual reality scene content adjusting method and device | |
CN115423905A (en) | Digital human driving method, system, device and storage medium | |
TW201233413A (en) | Input support device, input support method, and recording medium | |
Tarvainen et al. | The way films feel: Aesthetic features and mood in film. | |
US20130332859A1 (en) | Method and user interface for creating an animated communication | |
CN106471572A (en) | A kind of method of simultaneous voice and virtual acting, system and robot | |
Bicevskis et al. | Visual-tactile integration in speech perception: Evidence for modality neutral speech primitives | |
JP6170834B2 (en) | Emotion expression device, emotion expression method, and computer program | |
CN113282791B (en) | Video generation method and device | |
US11461948B2 (en) | System and method for voice driven lip syncing and head reenactment | |
JP2023506364A (en) | Audio messaging interface on messaging platform | |
Rincón-Nigro et al. | A text-driven conversational avatar interface for instant messaging on mobile devices | |
McDonnell et al. | Talking bodies: Sensitivity to desynchronization of conversations | |
CN111596761A (en) | Method and device for simulating lecture based on face changing technology and virtual reality technology | |
Bee et al. | Interacting with a gaze-aware virtual character | |
WO2023175704A1 (en) | Online conference system, method for controlling online conference system, and program | |
US8940990B2 (en) | Exercise music support apparatus | |
May et al. | Designing Access in Sound Art Exhibitions: Centering Deaf Experiences in Musical Thinking | |
CN114374867B (en) | Method, device and medium for processing multimedia data | |
Lesteberg et al. | Micro and macro-developing new accessible musicking technologies | |
Klaassen et al. | Elckerlyc Goes Mobile Enabling Natural Interaction in Mobile User Interfaces |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160721 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20160722 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170425 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170621 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20170622 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170703 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6170834 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |