JP2009153692A - Program, information storage medium, and image display controller - Google Patents

Program, information storage medium, and image display controller Download PDF

Info

Publication number
JP2009153692A
JP2009153692A JP2007334833A JP2007334833A JP2009153692A JP 2009153692 A JP2009153692 A JP 2009153692A JP 2007334833 A JP2007334833 A JP 2007334833A JP 2007334833 A JP2007334833 A JP 2007334833A JP 2009153692 A JP2009153692 A JP 2009153692A
Authority
JP
Japan
Prior art keywords
emotion
character
image
general
transition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007334833A
Other languages
Japanese (ja)
Other versions
JP5441087B2 (en
Inventor
Kenta Kanayama
健太 金山
Nobuyuki Kobayashi
信行 小林
Koji Kametani
恒治 亀谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GUYZWARE Inc
Bandai Namco Entertainment Inc
Original Assignee
GUYZWARE Inc
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GUYZWARE Inc, Namco Bandai Games Inc filed Critical GUYZWARE Inc
Priority to JP2007334833A priority Critical patent/JP5441087B2/en
Publication of JP2009153692A publication Critical patent/JP2009153692A/en
Application granted granted Critical
Publication of JP5441087B2 publication Critical patent/JP5441087B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide the expression change of characters without giving the feeling of incompatibility to a viewing person even when the sudden change of feelings occurs. <P>SOLUTION: The feeling of the opposite character 6 of a conversation is shifted corresponding to the selection of a subject and a response by a player. When the relation of the feeling of a shift origin and the feeling of a shift destination satisfies a feeling sudden change condition, the image of the opposite character 6 is controlled so as to be temporarily inserted and displayed as a special image W12 on the basis of predetermined control data (special face control texture 30) corresponding to a rising feeling when the feeling of the shift origin rises. Then, the image of the opposite character 6 is displayed and controlled on the basis of control data (face control texture 22) corresponding to the feeing of the shift destination. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、プログラム、情報記憶媒体及び画像表示制御装置に関する。   The present invention relates to a program, an information storage medium, and an image display control device.

近年のビデオゲームでは、プレーヤが操作するプレーヤキャラクタと、他のキャラクタとが対面して会話するといったシーンを含むものが良く見られる。例えば、RPG(ロールプレイングゲーム)では、プレーヤキャラクタが訪れた村で村人NPC(ノンプレーヤキャラクタ)と会話して情報を聞き出すシーンが登場したり、プレーヤキャラクタとパーティを組んでいる味方NPCと会話して意見を交換して味方内での共感を得たり反目し合ったりといったドラマを豊かにする要素として利用されたりもしている。
そういったキャラクタが対面するシーンでは、キャラクタの表情をより感情豊かに表現することが重要となる。例えば、情報を聞き出すシーンであれば、相手のキャラクタの表情から相手の思惑を推測し、会話の話題を適当に切り換えたり、時にブラフの質問をするなどの駆け引きのための重要な材料となる。また、相手キャラクタとの対話では、表情を変えず人形のようなキャラクタが表示されているよりも会話に応じて表情を変えることで、プレーヤが会話中に感じるリアリティが大きく異なり、ゲームの楽しさを増すことができる。
In recent video games, a game including a scene in which a player character operated by a player and another character conversely face each other is often seen. For example, in a role-playing game (RPG), a scene where a player character talks to a villager NPC (non-player character) in a village where the player character visits to hear information, or a player NPC who forms a party with the player character talks. It is also used as an element to enrich the drama by exchanging opinions and gaining sympathy within the allies or countering each other.
In a scene where such characters face each other, it is important to express the expression of the character more emotionally. For example, in a scene where information is heard, it is an important material for bargaining such as guessing the other party's speculation from the other person's character's expression, switching the topic of conversation appropriately, and sometimes asking a bluff question. Also, in the dialogue with the opponent character, the reality felt by the player during the conversation is greatly different by changing the facial expression according to the conversation rather than displaying a doll-like character without changing the facial expression, and the fun of the game Can be increased.

こうしたコンピュータグラフィックスで表現されるキャラクタに表情の変化をつける技術は進歩を続けており、例えばキーフレームを逐一指示しなくとも、当人が意識していなくても自然に変化するまばたきや微妙な首の傾き、視線の変化などと言った無意識な表情の変化を簡単に表現するための技術もある(例えば、特許文献1を参照)。
特開2007−156650号公報
The technology for changing the expression of characters expressed in computer graphics continues to advance. For example, even if you do not give instructions to keyframes one by one, even if you are not conscious, the blinking and subtle changes naturally. There is also a technique for easily expressing unconscious facial expression changes such as neck tilt and line-of-sight changes (see, for example, Patent Document 1).
JP 2007-156650 A

ところで、人間の感情は常になだらかに変化するとは限らず、急激な変化をすることがあるのは良く知られるところである。例えば、不機嫌な人がある会話をきっかけとして突然気をよくしてご機嫌になるといったことは日常よく見られる。
ビデオゲームでの対面シーンにおいても、よりリアリティを高め、対面するキャラクタの人間性を豊かにするためにそうした急激な感情変化も表現したいと考えるのは当然である。しかし、上記従来技術では、顔モデルを無意識動作に基づく変化量と意識表情に基づく変化量とを合成することで、無意識動作の表情変化を含んだ意識表情を形成する。そのため、急激な感情変化を同技術で実現しようとすると顔モデルの変化が不自然になり違和感を生じる場合があった。特に、漫画キャラクタ的記号論で描かれたキャラクタ(例えば、非写実的なアニメキャラクタや漫画キャラクタ)を対象とすると、感情を表す表情が現実の人間のように必ずしも連続性を有しておらず、記号論的に切り換えられるケースが多く、違和感が更に感じられやすい。
By the way, it is well known that human emotions do not always change smoothly, but may change suddenly. For example, it is common for people who are displeased to suddenly be upset and be in a good mood triggered by a conversation.
Even in face-to-face scenes in video games, it is natural to express such sudden emotional changes in order to improve reality and enrich the humanity of the face-to-face character. However, in the above-described conventional technology, a conscious facial expression including a facial expression change of an unconscious action is formed by synthesizing a change amount based on an unconscious action and a change quantity based on a conscious expression in the face model. For this reason, when trying to realize a sudden emotional change with this technology, the change of the face model becomes unnatural and sometimes causes a sense of incongruity. Especially for characters drawn with comic character-like semiotics (for example, non-realistic animated characters and cartoon characters), facial expressions representing emotions do not always have continuity like real people. In many cases, it can be switched semiotically, making it more difficult to feel uncomfortable.

本発明は、こうした事情を鑑みてなされたものであり、その目的とするところは、感情の急激な変化が生じた場合でも、見る者に違和感の少ないキャラクタの表情変化を実現することである。より具体的な例を挙げれば、漫画キャラクタ的記号論で描かれたキャラクタの急激な感情変化に基づく表情変化を違和感なく見せることを可能にすることである。   The present invention has been made in view of such circumstances, and an object of the present invention is to realize a change in the facial expression of a character with less discomfort to the viewer even when a sudden change in emotion occurs. To give a more specific example, it is possible to show a change in facial expression based on a sudden emotional change of a character drawn by cartoon character-like semiotics without a sense of incongruity.

上記の課題を解決する第1の発明は、コンピュータに、操作入力された指示内容に応じて表情が変化するキャラクタの画像を表示制御させるためのプログラムであって、
前記キャラクタが取り得る一般的な感情である一般感情のうち、現在の感情が何れの一般感情であるかを記憶する現感情記憶手段(例えば、図8の処理部200、感情決定部214、現在感情種類データ592、図16のステップS40,S44)、
操作入力された指示内容が予め定められた感情変化条件(例えば、図10の感情遷移設定データ550、選択肢属性554)を満たしたことを検出する感情変化条件成立検出手段(例えば、図8の処理部200、感情決定部214、図15のステップS18)、
現在の一般感情からの遷移先の一般感情を決定する遷移先感情決定手段(例えば、図8の処理部200、感情決定部214、図15のステップS24)、
現在の一般感情から前記決定された遷移先の一般感情への変化が急激な感情変化であるか否かを判定するための所定の感情急変化条件(例えば、図13の遷移時特別出力素材データ560、遷移パターン561)を満たすか否かを判定する感情変化判定手段(例えば、図8の処理部200、急感情変化判定部216、図16のステップS26)、
前記感情急変化条件を満たさない場合に、前記決定された遷移先の一般感情に対応して予め定められた当該一般感情のときに表示する前記キャラクタの画像の制御データ(例えば、図9のキャラクタ初期設定データ520、顔制御テクスチャ524)に基づいて前記キャラクタの画像を表示制御し、前記感情急変化条件を満たす場合には、所与の感情が昂揚したときの昂揚感情に対応して予め定められた制御データ(例えば、図13の遷移時特別出力素材データ560、特別顔制御テクスチャ562)に基づき前記キャラクタの画像を一時的に表示制御した後、前記決定された遷移先の一般感情に対応する制御データに基づき前記キャラクタの画像を表示制御する感情遷移時表示制御手段(例えば、図8の処理部200、感情遷移時表示制御部218、画像生成部260、図16のステップS26〜S28、S46、S36、S38)、として前記コンピュータを機能させるためのプログラムである。
A first invention for solving the above-described problem is a program for causing a computer to display and control an image of a character whose facial expression changes according to an instruction input by operation.
Current emotion storage means (for example, the processing unit 200, the emotion determination unit 214 in FIG. 8, the current emotion) that stores which general emotion is the general emotion among the general emotions that can be taken by the character. Emotion type data 592, steps S40 and S44 in FIG.
Emotion change condition establishment detection means (for example, the process of FIG. 8) that detects that the instruction content input by the operation satisfies a predetermined emotion change condition (for example, the emotion transition setting data 550 and the option attribute 554 in FIG. 10). Part 200, emotion determination part 214, step S18 in FIG.
Transition destination emotion determining means for determining the general emotion of the transition destination from the current general emotion (for example, the processing unit 200, the emotion determining unit 214 in FIG. 8, step S24 in FIG. 15),
A predetermined emotion sudden change condition for determining whether or not the change from the current general emotion to the determined general emotion of the transition destination is a sudden emotion change (for example, special output material data at the time of transition in FIG. 13) 560, transition pattern 561) to determine whether or not the emotion change determination means (for example, processing unit 200 in FIG. 8, sudden emotion change determination unit 216, step S26 in FIG. 16),
If the emotion sudden change condition is not satisfied, control data (for example, the character of FIG. 9) of the character image to be displayed at the time of the general emotion determined in advance corresponding to the determined general emotion of the transition destination When the character image is displayed and controlled based on the initial setting data 520 and the face control texture 524) and the emotion sudden change condition is satisfied, the character is determined in advance corresponding to the lifting emotion when the given emotion is lifted. After temporarily controlling display of the image of the character based on the control data (for example, special output material data 560 at transition and special face control texture 562 in FIG. 13), it corresponds to the determined general emotion of the transition destination Emotion transition display control means for controlling display of the character image based on the control data (for example, the processing unit 200 in FIG. 8, display control during emotion transition) 218, the image generation unit 260, Step S26~S28 in FIG 16, a S46, S36, S38), a program for causing the computer to function as a.

また、第10の発明は、操作入力された指示内容に応じて表情が変化するキャラクタの画像を表示制御する画像表示制御装置であって、
前記キャラクタが取り得る一般的な感情である一般感情のうち、現在の感情が何れの一般感情であるかを記憶する現感情記憶手段と、
操作入力された指示内容が予め定められた感情変化条件を満たしたことを検出する感情変化条件成立検出手段と、
現在の一般感情からの遷移先の一般感情を決定する遷移先感情決定手段と、
現在の一般感情から前記決定された遷移先の一般感情への変化が急激な感情変化であるか否かを判定するための所定の感情急変化条件を満たすか否かを判定する感情変化判定手段と、
前記感情急変化条件を満たさない場合に、前記決定された遷移先の一般感情に対応して予め定められた当該一般感情のときに表示する前記キャラクタの画像の制御データに基づいて前記キャラクタの画像を表示制御し、前記感情急変化条件を満たす場合には、所与の感情が昂揚したときの昂揚感情に対応して予め定められた制御データに基づき前記キャラクタの画像を一時的に表示制御した後、前記決定された遷移先の一般感情に対応する制御データに基づき前記キャラクタの画像を表示制御する感情遷移時表示制御手段と、を備えた画像表示制御装置である。
A tenth aspect of the invention is an image display control device that controls display of an image of a character whose expression changes according to the instruction content input by the operation.
Current emotion storage means for storing which general emotion is a general emotion that is a general emotion that the character can take;
An emotion change condition establishment detection means for detecting that the instruction content input by the operation satisfies a predetermined emotion change condition;
A transition destination emotion determination means for determining a transition destination general emotion from the current general emotion;
Emotion change determination means for determining whether or not a predetermined emotion sudden change condition is satisfied for determining whether or not a change from the current general emotion to the determined general emotion of the transition destination is an abrupt emotion change When,
The image of the character based on the control data of the image of the character displayed at the time of the general emotion determined in advance corresponding to the determined general emotion of the transition destination when the emotion sudden change condition is not satisfied When the emotion sudden change condition is satisfied, the character image is temporarily displayed based on control data determined in advance corresponding to the emotion when the given emotion is lifted. And an emotion transition display control means for controlling display of the character image based on control data corresponding to the determined general emotion of the transition destination.

第1又は第10の発明によれば、キャラクタの感情が急激な変化を起こした場合に、遷移先の感情に対応する制御データでキャラクタを制御する前に、感情が昂揚した時の昂揚感情に対応した特別な制御データに基づいてキャラクタの画像を一時的に制御した画像を表示させることができる。
つまり、表情の時間的な不連続性位置にあえて極端に高まった感情(昂揚感情)による表情を短時間だけ挿入することで、見る者に昂揚感情に基づく表情から受ける印象によって表情の不連続性に感覚的な合理性を与え、表情の不連続性に起因する違和感を払拭させることが可能になる。
According to the first or tenth invention, when the emotion of the character undergoes a sudden change, before the character is controlled with the control data corresponding to the transition destination emotion, An image in which the character image is temporarily controlled based on the corresponding special control data can be displayed.
In other words, the facial discontinuity of the facial expression depends on the impression the viewer receives from the facial expression based on the emotion, by inserting a facial expression with an extremely high emotion (raising emotion) only for a short time at the temporal discontinuity position of the facial expression. It is possible to give a sense of rationality and to dispel the sense of incongruity caused by discontinuity of facial expressions.

第2の発明は、前記感情遷移時表示制御手段が、前記感情急変化条件を満たす場合に、前記決定された遷移先の一般感情が昂揚したときの昂揚感情に対応して予め定められた制御データに基づき前記キャラクタの画像を一時的に表示制御した後、前記決定された遷移先の一般感情に対応する制御データに基づき前記キャラクタの画像を表示制御するように前記コンピュータを機能させるための第1の発明のプログラムである。   According to a second aspect of the present invention, when the emotion transition display control means satisfies the emotion sudden change condition, a predetermined control corresponding to the lifting emotion when the determined general emotion of the transition destination is lifted A first function for causing the computer to function to display-control the character image based on the control data corresponding to the determined general emotion after the character image is temporarily displayed based on the data; It is a program of 1 invention.

第2の発明によれば、第1の発明と同様の効果を奏するとともに、遷移先の感情がオーバーシュートした表情を短時間見せた後に、本来の遷移先の感情に対応する表情を見せることができる。従って、見る者に「これだけ感情が大きく変化するのだから表情の時間的な不連続性があってもおかしくない」といった感覚を与えることができるので、より効果的に表情の不連続性に起因する違和感を払拭させることが可能になる。   According to the second invention, the same effect as that of the first invention can be obtained, and after the facial expression of the transition destination emotion is overshot for a short time, the facial expression corresponding to the original transition destination emotion can be shown. it can. Therefore, it is possible to give the viewer a sense that “there is no change in facial expression even if there is a temporal discontinuity because the emotion has changed so much”, so it is more effectively caused by the discontinuity of the facial expression. It is possible to dispel the sense of incongruity.

第3の発明は、前記キャラクタがプリミティブ面のモデルで構成され、
前記キャラクタのモデルを構成するプリミティブ面の頂点位置を変移させて前記キャラクタの無意識動作を制御する無意識動作制御手段として前記コンピュータを機能させるための第1又は第2の発明のプログラムである。
In a third invention, the character is composed of a model of a primitive surface,
A program according to the first or second aspect of the invention for causing the computer to function as unconscious movement control means for controlling the unconscious movement of the character by changing the vertex position of the primitive surface constituting the character model.

第3の発明によれば、キャラクタの表情に、瞬きや僅かな首の傾け、目線の細かな移動といった人が無意識に起こす動作を加えることができる。よって、キャラクタの表情をより自然に見せることができる。本来であれば感情の急激な変化にともなう表情の時間的不連続性が違和感の元であるから、無意識動作の付加はむしろ逆効果となる印象であるが、感情遷移の前後ではよりリアルで自然に見せておいて、遷移の瞬間に昂揚感情に基づく表情を見せることによる印象をより強調させることで、表情の不連続性に対する感覚的合理性を強く感じさせることができる。   According to the third aspect of the present invention, it is possible to add to the character's facial expression unintentionally caused by a person, such as blinking, slight neck tilt, and fine line of sight movement. Therefore, the expression of the character can be shown more naturally. Originally, the discontinuity of facial expressions accompanying sudden changes in emotions is a source of discomfort, so the addition of unconscious movement is rather the opposite effect, but it is more realistic and natural before and after emotional transition. As shown in Fig. 2, it is possible to make the sensory rationality for the discontinuity of the expression stronger by enhancing the impression of showing the expression based on the lifting feeling at the moment of transition.

第4の発明は、前記感情変化条件成立検出手段が、複数種類の感情変化条件の何れの条件を満たしたかを検出し、前記遷移先感情決定手段が、少なくとも現在の一般感情と、前記感情変化条件成立検出手段により満たすとして検出された感情変化条件の種類とに基づいて、遷移先の一般感情を決定するように前記コンピュータを機能させるための第1〜第3の何れかの発明のプログラムである。   According to a fourth aspect of the present invention, the emotion change condition establishment detection unit detects which of a plurality of types of emotion change conditions is satisfied, and the transition destination emotion determination unit includes at least the current general emotion and the emotion change The program according to any one of the first to third aspects of the invention for causing the computer to function so as to determine the general emotion of the transition destination based on the type of emotion change condition detected as being satisfied by the condition establishment detection means. is there.

第4の発明によれば、第1〜第3の発明の何れかと同様の効果を奏するとともに、例えば同じ刺激があっても感情変化が起こる直前の感情状態が喜んでいれば少々不機嫌に成る程度で済むが、そもそも不機嫌なところに同じ刺激が有った場合には激怒するに至るといった、対象とするキャラクタの感情の遷移パターンをより豊かに、人間のそれらしく実現することができる。   According to the fourth invention, the same effect as any one of the first to third inventions can be achieved, and for example, if the emotional state immediately before the emotional change occurs even if the same stimulus is present, it is a little displeased. However, it is possible to realize a richer emotional transition pattern of the target character, such as when the same stimulus is present in an unpleasant place, leading to rage.

第5の発明は、感情の変化のし易さを表す変化率を設定する感情変化率設定手段(例えば、図8の処理部200、図12の感情変化率設定データ575、図15のステップS22)として前記コンピュータを機能させるとともに、前記遷移先感情決定手段が、前記変化率を更に加味して遷移先の一般感情を決定するように前記コンピュータを機能させるための第4の発明のプログラムである。   The fifth invention is an emotion change rate setting means (for example, the processing unit 200 in FIG. 8, the emotion change rate setting data 575 in FIG. 12, and step S22 in FIG. 15) for setting a change rate representing the ease of change of emotion. ), And the transition destination emotion determination means causes the computer to function so as to determine the general emotion of the transition destination in consideration of the rate of change. .

第5の発明によれば、更に感情の変化のし易さを可変することができるので、対象とするキャラクタの感情の遷移パターンをより豊かに、人間のそれらしく実現することができる。   According to the fifth aspect, since the ease of changing emotions can be further varied, the emotional transition patterns of the target character can be realized in a richer manner like humans.

第6の発明は、前記感情遷移時表示制御手段が、現在の一般感情から前記決定された遷移先の一般感情へ前記キャラクタの画像の表示制御を切り換える際に、前記キャラクタの背景画像を感情遷移時用の特別背景画像(例えば、図13の特別背景データ563の画像)に一時的に切り換えて表示制御する背景画像表示制御手段(例えば、図8の処理部200、感情遷移時表示制御部218、図16のS30〜S32)を有するように前記コンピュータを機能させるための第1〜第5の何れかの発明のプログラムである。   According to a sixth aspect of the present invention, when the display control means at the time of emotion transition switches display control of the image of the character from the current general emotion to the determined general emotion of the transition destination, the background image of the character is subjected to emotion transition Background image display control means (for example, the processing unit 200 in FIG. 8, the emotion transition display control unit 218) that temporarily switches to a special background image for time (for example, the image of the special background data 563 in FIG. 13) and performs display control. FIG. 16 is a program according to any one of the first to fifth inventions for causing the computer to function so as to have S30 to S32).

第6の発明によれば、第1〜第5の発明の何れかと同様の効果を奏するとともに、昂揚感情の表情を表示する際の背景を感情遷移の前後とは異なる特別な背景画像とすることで、遷移の瞬間に昂揚感情に基づく表情を見せることによる印象をより強調して、表情の不連続性に対する感覚的合理性を強く感じさせることができる。   According to the sixth invention, the same effect as any one of the first to fifth inventions is achieved, and the background when displaying the expression of the lifting emotion is made a special background image different from before and after the emotion transition. Thus, it is possible to emphasize the impression of showing a facial expression based on the lifting feeling at the moment of transition, and to strongly feel the sensory rationality for the discontinuity of the facial expression.

第7の発明は、前記背景画像表示制御手段が、遷移元と遷移先の一般感情の対応関係に応じて予め定められた複数の特別背景画像の中から、現在の一般感情及び前記決定された遷移先の一般感情に対応する特別背景画像を用いて前記キャラクタの背景画像を一時的に切り換えるように前記コンピュータを機能させるための第6の発明のプログラムである。   According to a seventh aspect of the invention, the background image display control means is configured to determine the current general emotion and the determined general emotion image from a plurality of special background images previously determined according to the correspondence relationship between the transition source and the general emotion of the transition destination. A program according to a sixth aspect of the invention for causing the computer to function so as to temporarily switch the background image of the character using a special background image corresponding to a general emotion at a transition destination.

第7の発明によれば、第6の発明と同様の効果を奏するとともに、特別背景画像のデザインを介して遷移元と遷移先の一般感情の対応関係をプレーヤに繰り返し示すことで、特別背景画像を急激な感情変化が起こることの記号として認識させることができるようになり、表情の不連続性に対する感覚的合理性をより一層強く感じさせることができる。   According to the seventh invention, the special background image is obtained by providing the same effect as the sixth invention and repeatedly showing the correspondence relationship between the transition source and the general emotion of the transition destination to the player through the design of the special background image. Can be recognized as a symbol of a sudden emotional change, and the sensory rationality for discontinuity of facial expressions can be felt even stronger.

第8の発明は、前記感情遷移時表示制御手段によって、現在の一般感情から前記決定された遷移先の一般感情へ前記キャラクタの画像の表示制御が切り換えられる際に、所定の効果音(例えば、図13の特別効果音データ564による効果音)の出力制御を行う効果音出力制御手段(例えば、図8の処理部200、感情遷移時効果音出力制御部220、図16のステップS34〜S36)として前記コンピュータを機能させるための第1〜第7の何れかの発明のプログラムである。   When the display control of the image of the character is switched from the current general emotion to the determined general emotion of the transition destination by the emotion transition display control means, a predetermined sound effect (for example, Sound effect output control means for controlling the output of the special sound effect data 564 in FIG. 13 (for example, the processing unit 200 in FIG. 8, the sound effect output control unit 220 in emotion transition, steps S34 to S36 in FIG. 16). As a program according to any one of the first to seventh inventions for causing the computer to function.

第8の発明によれば、第1〜第7の発明の何れかと同様の効果を奏するとともに、昂揚感情に対応して予め定められた制御データによる表情をより印象づけ、表情の不連続性に対する感覚的合理性をより一層強く感じさせることができる。   According to the eighth invention, the same effects as any one of the first to seventh inventions can be obtained, the facial expression by the control data determined in advance corresponding to the lifting emotion is more impressed, and the sense of discontinuity of the facial expression The rational reason can be felt even stronger.

第9の発明は、第1〜第8の発明の何れかのプログラムを記憶したコンピュータ読取可能な情報記憶媒体である。ここで言う「情報記憶媒体」とは、例えば磁気ディスクや光学ディスク、ICメモリなどを含む。第9の発明によれば、第1〜第8の発明の何れかのプログラムをコンピュータに読み取らせて実行させることによって、コンピュータに第1〜第8の発明の何れかと同様の効果を発揮させることができる。   A ninth invention is a computer-readable information storage medium storing any one of the programs of the first to eighth inventions. The “information storage medium” mentioned here includes, for example, a magnetic disk, an optical disk, an IC memory, and the like. According to the ninth aspect, by causing the computer to read and execute any one of the programs of the first to eighth inventions, causing the computer to exert the same effect as any of the first to eighth inventions. Can do.

本発明によれば、キャラクタの感情が急激な変化を起こした場合に、遷移先の感情に対応する制御データでキャラクタを制御する前に、感情が昂揚した時の昂揚感情に対応した特別な制御データに基づいてキャラクタの画像を一時的に制御した画像を表示させることができる。
つまり、表情の時間的な不連続性位置にあえて極端に高まった感情(昂揚感情)による表情を短時間だけ挿入することで、見る者に昂揚感情に基づく表情から受ける印象によって表情の不連続性に感覚的な合理性を与え、表情の不連続性に起因する違和感を払拭させることが可能になる。
According to the present invention, when the emotion of the character undergoes a sudden change, the special control corresponding to the lifting emotion when the emotion is lifted before controlling the character with the control data corresponding to the transition destination emotion An image in which the character image is temporarily controlled based on the data can be displayed.
In other words, the facial discontinuity of the facial expression depends on the impression the viewer receives from the facial expression based on the emotion, by inserting a facial expression with an extremely high emotion (raising emotion) only for a short time at the temporal discontinuity position of the facial expression. It is possible to give a sense of rationality and to dispel the sense of incongruity caused by discontinuity of facial expressions.

〔第1実施形態〕
以下、本発明を適用した第1実施形態として、家庭用ゲーム装置でキャラクタと対面する会話シーンを有するゲームを実行する場合を例に挙げて説明する。
[First Embodiment]
Hereinafter, as a first embodiment to which the present invention is applied, a case where a game having a conversation scene facing a character is executed on a consumer game device will be described as an example.

[ゲーム装置の構成]
図1は、本実施形態における家庭用ゲーム装置の構成例を説明するシステム構成図である。同図に示すように、家庭用ゲーム装置1200は、ゲーム装置本体1201と、ゲームコントローラ1230と、ビデオモニタ1220とを備える。
[Configuration of game device]
FIG. 1 is a system configuration diagram illustrating a configuration example of a consumer game device according to the present embodiment. As shown in the figure, the consumer game device 1200 includes a game device main body 1201, a game controller 1230, and a video monitor 1220.

ゲーム装置本体1201は、例えばCPUや画像処理用LSI、ICメモリ等が実装された制御ユニット1210と、光学ディスク1202やメモリカード1204といった情報記憶媒体の読み取り装置1206,1208とを備える。そして、家庭用ゲーム装置1200は、光学ディスク1202やメモリカード1204からゲームプログラム及び各種設定データを読み出し、ゲームコントローラ1230に為される操作入力に基づいて制御ユニット1210が各種のゲーム演算を実行し、所与のビデオゲームを実行する。   The game apparatus main body 1201 includes, for example, a control unit 1210 on which a CPU, an image processing LSI, an IC memory, and the like are mounted, and information storage medium reading devices 1206 and 1208 such as an optical disk 1202 and a memory card 1204. Then, the home game device 1200 reads the game program and various setting data from the optical disk 1202 and the memory card 1204, and the control unit 1210 executes various game operations based on operation inputs made to the game controller 1230. Run a given video game.

制御ユニット1210は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)及びDSP(Digital Signal Processor)などの各種マイクロプロセッサ、ASIC(Application Specific Integrated Circuit)、ICメモリなどの電気電子機器を備え家庭用ゲーム装置1200の各部を制御する。また、制御ユニット1210は、インターネットやLAN(Local Area Network)、WAN(Wide Area Network)と言った通信回線1と接続して外部装置との間でデータ通信を実現する通信装置1212を備える。   The control unit 1210 includes various microprocessors such as a CPU (Central Processing Unit), GPU (Graphics Processing Unit), and DSP (Digital Signal Processor), and electrical and electronic devices such as an ASIC (Application Specific Integrated Circuit) and an IC memory. Each part of the game apparatus 1200 is controlled. The control unit 1210 includes a communication device 1212 that is connected to a communication line 1 such as the Internet, a LAN (Local Area Network), or a WAN (Wide Area Network) to realize data communication with an external device.

ゲームコントローラ1230は、選択の決定やキャンセル、タイミングの入力などに用いられるコントローラ上面に設けられたプッシュボタン1232と、左右の前側面に設けられたプッシュボタン1233R,1233Lと、上下左右の各方向をそれぞれ入力する方向入力キー1234とを備える。   The game controller 1230 includes a push button 1232 provided on the top surface of the controller used for selection decision, cancellation, timing input, and the like, push buttons 1233R and 1233L provided on the left and right front sides, and the vertical and horizontal directions. Each has a direction input key 1234 for inputting.

本実施形態では、プレーヤはゲームコントローラ1230の方向入力キー1234で会話の話題や返答の選択肢を選択操作し、プッシュボタン1232で選択の決定やキャンセル、会話の進行操作などを入力する。   In this embodiment, the player selects a conversation topic or a reply option using the direction input key 1234 of the game controller 1230, and inputs selection decision or cancellation, a conversation progress operation, or the like using the push button 1232.

ゲーム装置本体1201の制御ユニット1210は、ゲームコントローラ1230から受信した検出信号や操作入力信号に基づいて、ゲーム画像やBGMや効果音と言ったゲーム音を生成してビデオゲームを実行する。生成されたゲーム画像を表示させるための画像信号やゲーム音を放音させるための音信号は、信号ケーブル1209で接続されたビデオモニタ1220(ディスプレイモニタ)に出力される。ビデオモニタ1220には、画像を表示するディスプレイ1222と音声を放音するスピーカ1224とが備えられており、ゲーム機本体1201から受信した画像信号に従ってディスプレイ1222にゲーム画面を表示し、受信した音声信号に従ってスピーカ1224から放音する。つまり、プレーヤはディスプレイ1222に映し出されるゲーム画像を見ながら、スピーカ1224から放音されるゲーム音を聞きつつゲームをプレイする。   Based on the detection signal and operation input signal received from the game controller 1230, the control unit 1210 of the game apparatus main body 1201 generates a game sound such as a game image, BGM, or sound effect and executes a video game. An image signal for displaying the generated game image and a sound signal for emitting the game sound are output to a video monitor 1220 (display monitor) connected by a signal cable 1209. The video monitor 1220 includes a display 1222 for displaying an image and a speaker 1224 for emitting sound. The video monitor 1220 displays a game screen on the display 1222 in accordance with the image signal received from the game machine main body 1201 and receives the received audio signal. The sound is emitted from the speaker 1224. That is, the player plays the game while listening to the game sound emitted from the speaker 1224 while watching the game image displayed on the display 1222.

[会話シーンの制御の概要説明]
次に、本実施形態における会話シーンの制御について概要を説明する。
図2及び図3は本実施形態におけるビデオゲームの会話シーンにおけるゲーム画面例を示す図である。図2に示すように、会話シーンの基本となるゲーム画面W2は、仮想空間に背景オブジェクト4と会話相手となる相手キャラクタ6のオブジェクトとが配置された様子を、プレーヤキャラクタの視線となる仮想カメラで撮影した画像をレンダリングして生成される。画面下部には、話者名などの識別情報を表示する話者識別表示部8と、会話内容をテキスト表示するテキスト表示部10とを備える。
[Overview of conversation scene control]
Next, an outline of the conversation scene control in the present embodiment will be described.
2 and 3 are diagrams showing game screen examples in the conversation scene of the video game in the present embodiment. As shown in FIG. 2, the game screen W2 that is the basis of the conversation scene is a virtual camera in which the background object 4 and the object of the opponent character 6 that is the conversation partner are arranged in the virtual space. It is generated by rendering the image taken with. The lower part of the screen includes a speaker identification display unit 8 that displays identification information such as a speaker name, and a text display unit 10 that displays conversation contents in text.

プレーヤが話題や返答の選択肢を入力する場面では、図3のゲーム画面W4に示すように、画面中央に選択肢内容がテキスト表示された選択肢表示部11が表示される。選択肢表示部11の内一つが他と異なる表示形態で表示されており選択状態を示すように表示制御される。プレーヤは方向入力キー1234の上下方向操作で選択肢の何れかを選択操作し、所定のプッシュボタン1232を操作して選択決定を入力する。   In a scene where the player inputs a topic or answer option, as shown in the game screen W4 in FIG. 3, an option display unit 11 in which the option content is displayed in the text is displayed at the center of the screen. One of the option display sections 11 is displayed in a display form different from the other, and the display is controlled so as to indicate the selection state. The player selects one of the options by operating the direction input key 1234 in the up / down direction, and operates the predetermined push button 1232 to input the selection decision.

さて、背景オブジェクト4及び相手キャラクタ6のオブジェクトは、何れもポリゴンモデルに指定のテクスチャが適用されてレンダリングされる。
背景オブジェクトとしては、会話場所となる喫茶店内や学校の教室内を形成するためのモデルが設定される。相手キャラクタ6は、仮想カメラの前方位置に胸部モデルの上に頭部モデルが配置され、頭部モデルには、表情を制御する為の制御データの一つとして漫画キャラクタ的記号論に基づいてデザインされた顔制御テクスチャが適用される。そして、特許文献1に記載の技術と同様にして、頭部モデルの頂点位置を変化させて無意識動作が表現される。
Now, both the background object 4 and the opponent character 6 object are rendered by applying a specified texture to the polygon model.
As a background object, a model for forming a coffee shop or school classroom as a conversation place is set. The opponent character 6 has a head model placed on the chest model in front of the virtual camera. The head model is designed based on comic character-like semiotics as one of the control data for controlling the facial expression. Applied face control texture. Then, in the same manner as the technique described in Patent Document 1, the unconscious movement is expressed by changing the vertex position of the head model.

また、相手キャラクタ6については、内部情報の一つとして「感情」のパラメータを有し、設定される感情の種類は会話の進行、具体的にはプレーヤによる話題や応答の選択操作の結果に応じて変化するように制御される。
例えば、図4は本実施形態における相手キャラクタ6の感情の種類とその遷移パターン例を示す図である。同図に示すように、相手キャラクタ6は大きく分けて「喜」「怒」「哀」「楽」の4つの一般感情の分類12,14,16,10を有し、更に各一般感情分類内に2つずつより詳細に区分された感情が含まれている。同図の例では、「楽」の一般感情分類には「平静」「微笑」の二つ(10a、10b)、「喜」の一般感情分類には「うれしい」「大喜び」の二つ(12a、12b)が含まれる。また、「哀」の一般感情分類には「不安」「哀しい」の二つ(14a,14b)、「怒」の一般感情分類には「不機嫌」「怒り」の各二つ(16a,16b)の感情が含まれている。
The opponent character 6 has an “emotion” parameter as one of the internal information, and the type of emotion to be set depends on the progress of the conversation, specifically, the result of the selection operation of the topic or response by the player. Are controlled to change.
For example, FIG. 4 is a diagram showing an emotion type of the opponent character 6 and an example of its transition pattern in the present embodiment. As shown in the figure, the opponent character 6 is roughly divided into four general emotion classifications 12, 14, 16, and 10 of “joy”, “anger”, “sorrow”, and “easy”, and further, within each general emotion category. Contains emotions divided in more detail by two. In the example shown in the figure, the general emotion classification of “Easy” is two (10a and 10b), and the general emotion classification of “joy” is “joyful” and “great pleasure” ( 12a, 12b). The general emotion classification of “sorrow” is “anxiety” and “sad” (14a, 14b), and the general emotion classification of “anger” is two each of “moody” and “anger” (16a, 16b). Contains emotions.

相手キャラクタ6の取り得る感情種類は「楽」の「平静」を初期状態・基本位置とする。そして、「平静」→「微笑」→「うれしい」→「大喜び」の順に喜びの度合が高くなる。また、「平静」→「不機嫌」→「怒り」の順に怒りの度合が高くなり、「平静」→「不安」→「哀しい」の順に哀しみの度合が高くなる。勿論、感情の遷移はこれらの順にするに限らず、逆順も取り得る。   The emotion type that the partner character 6 can take is “Easy” “Silence” as the initial state / basic position. Then, the degree of joy increases in the order of “serious” → “smile” → “happy” → “great joy”. In addition, the degree of anger increases in the order of “calm” → “moment” → “anger”, and the degree of sadness increases in the order of “calm” → “anxiety” → “sad”. Of course, the transition of emotion is not limited to the above order, but may be reversed.

また、同図黒矢印で示すような、「怒」→「喜」及びその逆順のような急激な感情変化の遷移パターンも取り得る。同様に、「怒」→「哀」及びその逆順、「喜」→「哀」及びその逆順の急激な感情変化の遷移パターンも取り得る。そして、本実施形態では、図5に示すようにこれらの各感情それぞれに対応付けて顔制御テクスチャが設定されているとともに、感情の急激な変化に特別顔制御テクスチャが設定されている。   In addition, as shown by the black arrow in the figure, a transition pattern of sudden emotional changes such as “anger” → “joy” and vice versa can be taken. Similarly, transition patterns of sudden emotional changes of “anger” → “sorrow” and the reverse order thereof, “joy” → “sorrow”, and the reverse order thereof can also be taken. In the present embodiment, as shown in FIG. 5, a face control texture is set in association with each of these emotions, and a special face control texture is set for a sudden change in emotion.

同図では「喜」「怒」「哀」「楽」の各一般感情分類については、各分類を代表する顔制御テクスチャ22,26,24,20のみを示しているが、実際には各一般感情分類に含まれる二つの詳細な感情それぞれについて顔制御テクスチャが設定されており、相手キャラクタ6の感情がゲームの進行に伴って変化すると相手キャラクタ6の頭部モデルに適用される顔制御テクスチャが切り換えられてその表情が変化する。
これら顔制御テクスチャ20,22,24,26は、漫画キャラクタ的記号論に基づいて「平静」→「微笑」→「うれしい」→「大喜び」の順に喜び度合が段階的に高くなるように、「平静」→「不機嫌」→「怒り」の順に怒りの度合が高くなり、「平静」→「不安」→「哀しい」の順に哀しみの度合が高くなるようにデザインされている。これらの顔制御テクスチャは、隣接する間で切り換えられる限りでは違和感が小さい。
In the figure, for the general emotion classifications of “joy”, “anger”, “sorrow”, and “easy”, only the face control textures 22, 26, 24, and 20 representing each classification are shown. Face control textures are set for each of the two detailed emotions included in the emotion classification, and when the emotion of the opponent character 6 changes as the game progresses, the face control texture applied to the head model of the opponent character 6 is The expression changes when switched.
These face control textures 20, 22, 24, and 26 are based on the comic character-like semiotics so that the degree of joy increases stepwise in the order of “seduce” → “smile” → “happy” → “great delight”. It is designed so that the degree of anger increases in the order of “peace” → “moment” → “anger”, and the degree of sadness increases in the order of “peace” → “anxiety” → “sad”. These face control textures are less uncomfortable as long as they are switched between adjacent ones.

そして、本実施形態では特に急激な感情変化の場合にのみ適用される特別顔制御テクスチャ30〜35が急激な感情変化の遷移パターンそれぞれに設定されている。同図の例では、「喜」→「怒」、「怒」→「喜」、「喜」→「哀」、「哀」→「喜」、「哀」→「怒」、「怒」→「哀」の遷移パターンがこれに該当する。
特別顔制御テクスチャ30〜35は、漫画キャラクタ的記号論に基づいて、驚きの表情や遷移先の感情が極端に現れた昂揚感情を表す表情としてデザインされている。例えば、「怒」→「喜」の遷移パターンに対応づけられている特別顔制御テクスチャ30は、驚きの表情、より具体的には喜びで驚いた表情でデザインされている。また、「喜」→「怒」の遷移パターンに対応づけられている特別顔制御テクスチャ31は、「怒」で設定されている顔制御テクスチャが表す怒りよりもより大きい怒りの程度が現れた表情としてデザインされている。勿論、両遷移パターンともに単に驚いた表情の特別顔制御テクスチャを設定することもできる。
In the present embodiment, special face control textures 30 to 35 that are applied only in the case of a sudden emotional change are set for each transition pattern of a sudden emotional change. In the example in the figure, “joy” → “anger”, “anger” → “joy”, “joy” → “sorrow”, “sorrow” → “joy”, “sorrow” → “anger”, “anger” → The transition pattern of “sorrow” corresponds to this.
The special face control textures 30 to 35 are designed as facial expressions that express surprise feelings and emotions that appear extreme transition destinations based on comic character-like semiotics. For example, the special face control texture 30 associated with the transition pattern of “anger” → “joy” is designed with a surprised expression, more specifically, an expression of surprise with joy. In addition, the special face control texture 31 associated with the transition pattern of “joy” → “anger” is an expression in which an anger level greater than the anger represented by the face control texture set in “anger” appears. It is designed as. Of course, a special face control texture with a surprised expression can be set for both transition patterns.

同様にして、「喜」→「哀」の遷移パターンに対応づけられている特別顔制御テクスチャ32は、「哀」で設定されている顔制御テクスチャが表す哀しみよりもより深い哀しみが現れた表情や、哀しみでショックを受けている表情がデザインされている。また、「哀」→「喜」の遷移パターンに対応づけられている特別顔制御テクスチャ33は喜びで驚いた表情でデザインされている。また、「哀」→「怒」の遷移パターンに対応づけられている特別顔制御テクスチャ34は思いっきり怒った表情としてデザインされ、「怒」→「哀」の遷移パターンに対応づけられている特別顔制御テクスチャ35は哀しみでショックを受けている表情がデザインされている。   Similarly, the special face control texture 32 associated with the transition pattern of “joy” → “sorrow” is an expression in which deeper sorrow appears than the sorrow represented by the face control texture set in “sorrow”. And a sad and shocked expression is designed. Further, the special face control texture 33 associated with the transition pattern of “sorrow” → “joy” is designed with a joyful and surprised expression. In addition, the special face control texture 34 associated with the transition pattern of “sorrow” → “anger” is designed as a completely angry facial expression, and the special face associated with the transition pattern of “anger” → “sorrow”. The control texture 35 is designed with a sad and shocked expression.

そして、これら遷移パターンに対応付けられた特別顔制御テクスチャ30〜35は、相手キャラクタ6の感情が急激に変化する場合に、遷移元感情に対応する顔制御テクスチャから遷移先感情に対応する顔制御テクスチャに切り換えられる間に、該当する遷移パターンに対応付けられた特別顔制御テクスチャに一旦切り換えられて、特別顔制御テクスチャが適用された相手キャラクタ6の画像が表示されてから、遷移先感情に対応する顔制御テクスチャに切り換えられることとなる。   Then, the special face control textures 30 to 35 associated with these transition patterns are the face controls corresponding to the transition destination emotion from the face control texture corresponding to the transition source emotion when the emotion of the opponent character 6 changes abruptly. While switching to the texture, it is temporarily switched to the special face control texture associated with the corresponding transition pattern, and after the image of the opponent character 6 to which the special face control texture is applied is displayed, it corresponds to the transition destination emotion Will be switched to the face control texture.

この結果、例えば図6のゲーム画面W10〜W13のように変化する。即ち、ゲーム画面W10では、相手キャラクタ6の感情は「怒:怒り(「怒」一般感情分類中の「怒り」)である。相手キャラクタ6の頭部モデルには、「怒り」を表す眉がつり上がって口が山なりとなった表情がデザインされた顔制御テクスチャ26が適用されている。   As a result, for example, the game screens W10 to W13 in FIG. 6 are changed. That is, on the game screen W10, the emotion of the opponent character 6 is “anger: anger (“ anger ”in the general anger classification). In the head model of the opponent character 6, a face control texture 26 is applied in which an eyebrow representing “angry” is lifted and a mouth has a crested expression.

ここで、ゲーム画面W11のように、会話の選択肢で相手の気分をすこぶる改善するものを選択したとすると、相手キャラクタ6の感情は急激な感情変化を起こして「喜:うれしい(「喜」一般感情分類の「大喜び」)」に遷移するように制御されたとする。
すると、「怒」→「喜」の感情の遷移パターンに対応付けられた特別顔制御テクスチャ30が適用された特別なゲーム画像W12(本明細書では以降「特別画像」とも言う。)が、例えばインサート表示(前後のカットに比べて大幅に短い時間での切り換え表示)される。更にこの時、本実施形態では背景を、背景オブジェクト4をレンダリングしたものではない特別背景画像40とする。
そして、特別画像W12が例えば1〜2秒程度表示された後、遷移先の「大喜び」に対応する顔制御テクスチャを相手キャラクタ6の頭部オブジェクトに適用して、背景オブジェクト4をレンダリングした画像を背景としたゲーム画像W13が表示される。
Here, if an option that greatly improves the other party's mood is selected in the conversation option as in the game screen W11, the emotion of the opponent character 6 undergoes a sudden emotional change, resulting in “joy: happy (“ joy ”in general). It is assumed that the control is made so as to transit to the emotion classification “delight”) ”.
Then, a special game image W12 to which the special face control texture 30 associated with the emotion transition pattern of “anger” → “joy” is applied (hereinafter also referred to as “special image” in this specification), for example. Insert display (switch display in a significantly shorter time than the previous and next cuts). Furthermore, at this time, in the present embodiment, the background is set as a special background image 40 that is not a rendering of the background object 4.
Then, after the special image W12 is displayed for about 1 to 2 seconds, for example, an image obtained by rendering the background object 4 by applying the face control texture corresponding to the transition destination “delight” to the head object of the opponent character 6 A game image W13 with the background is displayed.

この結果、表情の基本デザインが、漫画キャラクタ的記号論にデザインされたとしても、感情が大きく変化する場合に驚きや遷移先感情のオーバーシュートした状態と言った昂揚感情の表情で相手キャラクタ6の様子をインサート表示できる。これによって、「怒り」の表情から「大喜び」の表情への遷移パターンのように、単にテクスチャを切り換えただけでは見るものに突然顔が変わったような違和感を感じるところを、切り換えに伴う違和感を大幅に緩和することができる。
換言すると、その直前まで無意識動作が折り込まれた自然な表情を見ていたところに、特別顔制御テクスチャを用いた画像をインサート表示して、感情の急変が起こったことをプレーヤに視覚的に明示し認識の切り換えを促すことで、切り換えに伴う違和感を大幅に緩和することができる。
As a result, even if the basic design of the facial expression is designed as cartoon character semiotics, when the emotion changes greatly, the expression of the opponent character 6 is expressed by the expression of the uplifting emotion that is said to be a surprise or a transition destination overshoot. The state can be displayed as an insert. As a result, the transition pattern from the expression of “anger” to the expression of “great pleasure” makes the user feel that the face has suddenly changed to what he sees simply by switching the texture. Can be greatly eased.
In other words, the image using the special face control texture is inserted and displayed in the place where the natural expression with the unconscious action is folded until just before that, and it is clearly shown to the player that the sudden change of emotion has occurred. By prompting the switching of recognition, the sense of incongruity associated with the switching can be greatly relieved.

また、本実施形態では前述のような急激な感情変化の遷移パターンでなくとも、感情の一般感情分類が隣接する分類間で変わる程度の遷移パターン(図4の白矢印に相当)でも、背景オブジェクト4に変えて特別画像をインサート表示することで同様の効果を発揮する構成としている。   Further, in the present embodiment, even if the transition pattern of the sudden emotion change as described above is not used, the background object may be a transition pattern (equivalent to the white arrow in FIG. 4) that changes the general emotion classification of the emotion between adjacent classifications. The same effect can be achieved by displaying a special image as an insert instead of 4.

具体的には、例えば図7のゲーム画面W15〜W18に示すように、「怒り」状態の相手キャラクタ6に対して機嫌を良くする話題をプレーヤが選択した場合(ゲーム画面W15〜W18)、相手キャラクタ6の感情は「怒:怒り」から「楽:平静」に変化したとする。この場合、感情の一般感情分類が「怒」から「楽」に変化するので、ゲーム画面W17に示すように、相手キャラクタ6の頭部モデルには遷移先の感情である「平静」に対応づけられた顔制御テクスチャ20が即座に適用されるが、背景は特別背景画像42を用いる。そして、特別背景画像42のインサート表示がされたらならば、ゲーム画面W18のように背景オブジェクト4をレンダリングした画像に戻す。
これによって、先ほどの急激な感情変化ではないが一般感情分類が変化したことをプレーヤに明示するとともに、隣接する一般感情分類間で遷移するケースでも顔制御テクスチャが切り換えられたことへの違和感をより一層少なくすることができる。
Specifically, for example, as shown in the game screens W15 to W18 of FIG. 7, when the player selects a topic that improves the mood for the opponent character 6 in the “anger” state (game screens W15 to W18), It is assumed that the emotion of the character 6 has changed from “anger: anger” to “easy: calm”. In this case, since the general emotion classification of emotion changes from “anger” to “easy”, as shown in the game screen W17, the head model of the opponent character 6 is associated with “tranquility” which is the emotion of the transition destination. The applied face control texture 20 is applied immediately, but the background uses the special background image 42. Then, if the insert display of the special background image 42 is performed, the background object 4 is returned to the rendered image as in the game screen W18.
This clearly indicates to the player that the general emotion classification has changed but not the sudden emotional change, and makes it more uncomfortable that the face control texture has been switched even when transitioning between adjacent general emotion classifications. It can be further reduced.

尚、同じ一般感情分類内での感情変化については、感情の変更に伴って遷移先の感情に対応する顔制御テクスチャが即座に適用され、特別背景画像40,42のインサート表示はされない。   For emotion changes within the same general emotion classification, the face control texture corresponding to the transition destination emotion is immediately applied in accordance with the emotion change, and the special background images 40 and 42 are not inserted and displayed.

[機能ブロックの説明]
次に、本実施形態を実現するための具体的な構成について説明する。
図8は、本実施形態における家庭用ゲーム装置1200の機能構成の一例を示す機能ブロック図である。同図に示すように本実施形態では、操作入力部100と、処理部200と、音出力部350と、画像表示部360と、通信部370と、記憶部500とを備える。
[Description of functional block]
Next, a specific configuration for realizing the present embodiment will be described.
FIG. 8 is a functional block diagram showing an example of the functional configuration of the consumer game device 1200 in the present embodiment. As shown in the figure, the present embodiment includes an operation input unit 100, a processing unit 200, a sound output unit 350, an image display unit 360, a communication unit 370, and a storage unit 500.

操作入力部100は、プッシュボタンや、レバー、タッチパッド、ダイヤル、キーボード、マウス、各種ポインタ、加速度センサ、傾斜センサなどの入力デバイスやセンサ類によって実現され、プレーヤによって為された各種の操作入力に応じて操作入力信号を処理部200に出力する。図1のゲームコントローラ1230が操作入力部100に該当する。   The operation input unit 100 is realized by input devices and sensors such as a push button, a lever, a touch pad, a dial, a keyboard, a mouse, various pointers, an acceleration sensor, and a tilt sensor, and is used for various operation inputs made by a player. In response, an operation input signal is output to the processing unit 200. The game controller 1230 in FIG. 1 corresponds to the operation input unit 100.

処理部200は、例えばマイクロプロセッサやASIC(特定用途向け集積回路)、ICメモリなどの電子部品によって実現され、各機能部との間でデータの入出力を行うとともに所定のプログラムやデータ及び操作入力部100からの操作入力信号に基づいて各種の演算処理を実行して、家庭用ゲーム装置1200の動作を制御する。図1では、ゲーム装置本体1201に内蔵された制御ユニット1210が処理部200に該当する。   The processing unit 200 is realized by electronic components such as a microprocessor, an ASIC (application specific integrated circuit), and an IC memory, for example. The processing unit 200 inputs and outputs data to and from each functional unit, and inputs a predetermined program, data, and operation input. Various arithmetic processes are executed based on the operation input signal from the unit 100 to control the operation of the consumer game device 1200. In FIG. 1, the control unit 1210 built in the game apparatus main body 1201 corresponds to the processing unit 200.

そして、本実施形態における処理部200は、ゲーム演算部210と、音生成部250と、画像生成部260と、通信制御部270とを備える。   The processing unit 200 in the present embodiment includes a game calculation unit 210, a sound generation unit 250, an image generation unit 260, and a communication control unit 270.

ゲーム演算部210は、ゲームの進行に係る処理を実行する。例えば、3次元仮想空間中にゲーム空間を形成する処理や、ゲーム空間中に配置されたキャラクタ等のオブジェクトの配置制御処理、NPCの動作の自動制御処理、会話の進行制御、ゲーム結果の判定処理が実行対象に含まれる。   The game calculation unit 210 executes processing related to the progress of the game. For example, a process for forming a game space in a three-dimensional virtual space, an arrangement control process for an object such as a character arranged in the game space, an automatic control process for NPC movement, a conversation progress control, and a game result determination process Is included in the execution target.

より具体的には、本実施形態のゲーム演算部210は、無意識動作制御部212と、感情決定部214と、急感情変化判定部216と、感情遷移時表示制御部218と、感情遷移時効果音出力制御部220とを含んでいる。   More specifically, the game calculation unit 210 of the present embodiment includes an unconscious movement control unit 212, an emotion determination unit 214, a sudden emotion change determination unit 216, an emotion transition display control unit 218, and an emotion transition effect. And a sound output control unit 220.

無意識動作制御部212は、相手キャラクタ6の頭部モデルを構成するプリミティブ面の頂点位置を変移させて当該キャラクタの無意識動作を制御する。当該制御部は、例えば特許文献1の技術によって実現することができる。   The unconscious movement control unit 212 controls the unconscious movement of the character by changing the vertex position of the primitive surface constituting the head model of the opponent character 6. The said control part is realizable by the technique of patent document 1, for example.

感情決定部214は、相手キャラクタ6との対面シーンにおいてプレーヤによって操作入力された会話の話題や返答の選択などの指示内容が予め定められた感情変化条件を満たしたことを検出し、現在の一般感情からの遷移先の一般感情を決定する。
具体的には、記憶部500に予め記憶されている話題設定データ540を参照して、対面シーンの会話中におけるプレーヤによる選択操作の結果から感情設定ポイント590を増減し、増減された感情設定ポイント590で遷移先の感情を決定する。感情設定ポイント590は、図20に示すように一般感情分類「楽」の詳細な感情「平静」を原点とする「喜」「怒」「哀」の3次元に設定される座標値(ポイント)として扱う。取り得る座標値は本実施形態では最小値「0」の整数とし、例えば:(喜,怒,哀)=(1,3,2)と言った具合に3次元座標値として扱い、座標値のうち最大値をとる次元を現在の一般感情分類とし、最大値を予め設定した範囲設定(後述する遷移先感情判定TBL570)と照合して詳細な感情を決定する。そして、座標の移動を感情の変化と見なす。同図の例では、(喜,怒,哀)=(1,3,2)から(喜,怒,哀)=(4,1,1)に感情が変化しており、白矢印が感情の遷移の大きさと方向を示している。
The emotion determination unit 214 detects that an instruction content such as selection of a conversation topic or a response input by the player in a face-to-face scene with the opponent character 6 satisfies a predetermined emotion change condition. Determine the general emotion of the transition destination from the emotion.
Specifically, referring to the topic setting data 540 stored in advance in the storage unit 500, the emotion setting points 590 are increased or decreased from the result of the selection operation by the player during the conversation of the face-to-face scene, and the increased or decreased emotion setting points are set. At 590, the transition destination emotion is determined. As shown in FIG. 20, the emotion setting points 590 are coordinate values (points) set in three dimensions of “joy”, “anger”, and “sorrow” with the detailed emotion “calm” of the general emotion classification “Raku” as the origin. Treat as. The coordinate value that can be taken is an integer of the minimum value “0” in this embodiment. For example, the coordinate value is treated as a three-dimensional coordinate value such as: (joy, anger, sadness) = (1, 3, 2). Of these, the dimension having the maximum value is set as the current general emotion classification, and a detailed emotion is determined by comparing the maximum value with a preset range setting (transition destination emotion determination TBL 570 described later). The movement of coordinates is regarded as a change in emotion. In the example in the figure, the emotion changes from (joy, anger, sorrow) = (1, 3, 2) to (joy, anger, sorrow) = (4, 1, 1), and the white arrow indicates the emotion. Shows the magnitude and direction of the transition.

また、感情決定部214は、プレーヤによる選択操作の結果からこれらの数値を増減するとともに時間の経過とともに自動的にこれらの数値を「0」に近づける処理を行い、感情設定ポイント590の最大値を示す次元を遷移先の一般感情分類と決定し、その値の大小で当該一般感情分類に含まれる詳細な感情を決定する。
尚、決定に係り現在の一般感情を示す情報を、記憶部500に現在感情種類データ592として一時的に記憶させ、遷移先の一般感情を示す情報を同様に遷移先感情種類データ594として一時的に記憶させる。
In addition, the emotion determination unit 214 increases or decreases these values from the result of the selection operation by the player, and automatically brings these values close to “0” as time elapses, and sets the maximum value of the emotion setting point 590. The dimension shown is determined as the general emotion classification of the transition destination, and the detailed emotion included in the general emotion classification is determined by the magnitude of the value.
It should be noted that, in connection with the determination, information indicating the current general emotion is temporarily stored in the storage unit 500 as current emotion type data 592, and information indicating the general emotion of the transition destination is also temporarily stored as transition destination emotion type data 594. Remember me.

更に本実施形態における感情決定部214は、ゲーム進行に応じて感情の変化のし易さを可変する感情変化率設定部215を含む。
感情変化率設定部215は、感情設定ポイント590の増減量を相手キャラクタ6の状態やゲームの進行状況に応じて可変する。例えば、相手キャラクタ6が「ほろ酔い」状態では、感情設定ポイント590の「喜」次元の値の増加量を加算して感情が好転する方向に調整して酔うと機嫌が良くなりやすい状態とすると言った具合である。勿論、可変する感情設定ポイント590の次元の数や増加量・減少量は適宜設定すると良い。また、可変の方法はポイントの補正値を加算/減算するに限らず、補正割合を定義しておいて補正割合で元の増加量を乗算によって可変するとしても良い。
Furthermore, the emotion determination unit 214 in the present embodiment includes an emotion change rate setting unit 215 that varies the ease of change of emotion according to the progress of the game.
The emotion change rate setting unit 215 varies the increase / decrease amount of the emotion setting point 590 according to the state of the opponent character 6 and the progress of the game. For example, when the partner character 6 is in a “tipy” state, the amount of increase in the value of the “joy” dimension of the emotion setting point 590 is added to adjust the direction to improve the emotion, and it is said that it becomes a state where the mood tends to improve. It is a good condition. Of course, the number of dimensions of the emotion setting point 590 to be changed and the increase / decrease amount may be appropriately set. Further, the variable method is not limited to adding / subtracting the correction value of the point, but the correction rate may be defined and the original increase amount may be changed by multiplication with the correction rate.

急感情変化判定部216は、現在の一般感情から遷移先の一般感情への変化が急激な感情変化であるか否かを判定するための感情急変化条件を満たすか否かを判定する。本実施形態では、遷移元の一般感情分類と遷移先の一般感情分類との相対関係、つまり遷移パターンによって感情急変化条件を定義している。   The sudden emotion change determination unit 216 determines whether or not an emotion sudden change condition for determining whether or not the change from the current general emotion to the transition destination general emotion is an abrupt emotion change. In this embodiment, the sudden change condition of emotion is defined by the relative relationship between the general emotion classification of the transition source and the general emotion classification of the transition destination, that is, the transition pattern.

感情遷移時表示制御部218は、感情急変化条件を満たさない場合に、感情決定部214で決定された遷移先の一般感情に対応して予め定められた当該一般感情のときに表示する相手キャラクタ6の画像の制御データ(本実施形態では顔制御テクスチャ20,22,24,26)に基づいて同キャラクタの画像を表示制御し、感情急変化条件を満たす場合には、所与の感情が昂揚したときの昂揚感情に対応して予め定められた制御データ(本実施形態では特別顔制御テクスチャ30〜35)に基づき相手キャラクタ6の画像を特別画像として一時的にインサート表示するように制御した後、感情決定部214で決定された遷移先の一般感情に対応する制御データに基づいて相手キャラクタ6の画像を表示制御する。また、感情遷移時表示制御部218は、遷移元感情と遷移先感情とで一般感情分類が変化する場合には、特別背景画像を一時的にゲーム画面の背景として用いるように表示制御する。   When the emotion transition display control unit 218 does not satisfy the sudden emotion change condition, the partner character displayed when the general emotion is determined in advance corresponding to the general emotion of the transition destination determined by the emotion determination unit 214. Display control of the image of the same character based on the control data of the image 6 (face control textures 20, 22, 24, and 26 in the present embodiment), and if the emotional sudden change condition is satisfied, the given emotion is raised After controlling to temporarily insert and display the image of the opponent character 6 as a special image based on control data (special face control textures 30 to 35 in the present embodiment) determined in advance corresponding to the feeling of lifting The display of the image of the opponent character 6 is controlled based on the control data corresponding to the general emotion of the transition destination determined by the emotion determination unit 214. Further, the emotion transition display control unit 218 performs display control so that the special background image is temporarily used as the background of the game screen when the general emotion classification changes between the transition source emotion and the transition destination emotion.

感情遷移時効果音出力制御部220は、遷移元感情と遷移先感情とで一般感情分類が変化する場合には、特別な効果音を一時的に出力制御して、一般感情分類が変わるほどの感情変化が有ったことをプレーヤに知らせる。   When the general emotion classification changes between the transition source emotion and the transition destination emotion, the emotion transition sound effect output control unit 220 temporarily outputs a special sound effect so that the general emotion classification changes. Inform the player that there was an emotional change.

音生成部250は、例えばデジタルシグナルプロセッサ(DSP)などのプロセッサやその制御プログラムなどの公知技術によって実現され、ゲーム演算部210による処理結果に基づいてゲームに係る効果音やBGM、各種操作音の音信号を生成し、音出力部350に出力する。   The sound generation unit 250 is realized by a known technique such as a processor such as a digital signal processor (DSP) or a control program thereof, and based on the processing result by the game calculation unit 210, the sound generation unit 250 generates sound effects, BGM, and various operation sounds related to the game. A sound signal is generated and output to the sound output unit 350.

音出力部350は、音生成部250から入力される音信号に基づいて効果音やBGM等を音出力する装置によって実現される。図1ではビデオモニタ1220のスピーカ1224がこれに該当する。   The sound output unit 350 is realized by a device that outputs sound effects, BGM, and the like based on the sound signal input from the sound generation unit 250. In FIG. 1, the speaker 1224 of the video monitor 1220 corresponds to this.

画像生成部260は、例えば、デジタルシグナルプロセッサ(DSP)などのプロセッサ、その制御プログラム、フレームバッファ等の描画フレーム用ICメモリ等の公知技術によって実現される。例えば画像生成部260は、ゲーム演算部210による処理結果に基づいて1フレーム時間(1/60秒)で1枚のゲーム画像を生成し、生成したゲーム画像の画像信号を画像表示部360に出力する。   The image generation unit 260 is realized by a known technique such as a processor such as a digital signal processor (DSP), a control program thereof, a drawing frame IC memory such as a frame buffer, and the like. For example, the image generation unit 260 generates one game image in one frame time (1/60 seconds) based on the processing result by the game calculation unit 210, and outputs an image signal of the generated game image to the image display unit 360. To do.

画像表示部360は、画像生成部260から入力される画像信号に基づいて各種ゲーム画像を表示する。例えば、フラットパネルディスプレイ、ブラウン管(CRT)、プロジェクター、ヘッドマウントディスプレイといった画像表示装置によって実現できる。図1ではビデオモニタ1220のディスプレイ1222が該当する。   The image display unit 360 displays various game images based on the image signal input from the image generation unit 260. For example, it can be realized by an image display device such as a flat panel display, a cathode ray tube (CRT), a projector, or a head mounted display. In FIG. 1, the display 1222 of the video monitor 1220 corresponds.

通信制御部270は、データ通信に係るデータ処理を実行し、通信部370を介して外部装置とのデータのやりとりを実現する。   The communication control unit 270 executes data processing related to data communication, and realizes data exchange with an external device via the communication unit 370.

通信部370は、通信回線1と接続して通信を実現する。例えば、無線通信機、モデム、TA(ターミナルアダプタ)、有線用の通信ケーブルのジャックや制御回路等によって実現され、図1では通信装置1212がこれに該当する。   The communication unit 370 is connected to the communication line 1 to realize communication. For example, it is realized by a wireless communication device, a modem, a TA (terminal adapter), a cable communication cable jack, a control circuit, and the like, and the communication device 1212 corresponds to this in FIG.

記憶部500は、予め定義されたプログラムやデータを記憶するとともに、処理部200の作業領域として用いられて処理部200が各種プログラムに従って実行した演算結果や操作入力部100から入力される入力データ等を一時的に記憶する。この機能は、例えばRAMやROMなどのICメモリ、ハードディスク等の磁気ディスク、CD−ROMやDVDなどの光学ディスクなどによって実現される。   The storage unit 500 stores pre-defined programs and data, and is used as a work area of the processing unit 200. The calculation result executed by the processing unit 200 according to various programs, input data input from the operation input unit 100, and the like. Is temporarily stored. This function is realized by, for example, an IC memory such as a RAM and a ROM, a magnetic disk such as a hard disk, and an optical disk such as a CD-ROM and DVD.

本実施形態における記憶部500は、処理部200にゲーム装置1200を統合的に制御させるための諸機能を実現するためのシステムプログラム501や、ゲームを実行させるために必要なゲームプログラム502、並びに各種データ等を記憶する。
ゲームプログラム502は、相手キャラクタ6の頭部モデルに無意識動作をさせるための無意識動作制御プログラム504を含み、処理部200がゲームプログラム502を読み出して実行することによって処理部200にゲーム演算部210としての機能を実現させることができる。
The storage unit 500 according to the present embodiment includes a system program 501 for realizing various functions for causing the processing unit 200 to control the game apparatus 1200 in an integrated manner, a game program 502 necessary for executing a game, and various types of programs. Store data etc.
The game program 502 includes an unconscious motion control program 504 for causing the head model of the opponent character 6 to unconsciously move, and the processing unit 200 reads out and executes the game program 502 as a game calculation unit 210. This function can be realized.

また記憶部500には、予め用意されるデータとしてゲーム空間初期設定データ510、キャラクタ初期設定データ520、無意識動作設定データ530、話題設定データ540が記憶されている。
更にゲームの進行に伴って生成され、随時書き換えられるデータとして、ステータスデータ580と、感情設定ポイント590と、現在感情種類データ592と、遷移先感情種類データ594とが記憶される。また、ゲームの進行に係る処理を実行するに当たり必要となる情報として、例えば仮想カメラを制御するための画角・視線方向・姿勢情報などのデータ、各種制限時間のカウントデータなどが適宜記憶される。
The storage unit 500 stores game space initial setting data 510, character initial setting data 520, unconscious action setting data 530, and topic setting data 540 as data prepared in advance.
Furthermore, status data 580, emotion setting points 590, current emotion type data 592, and transition destination emotion type data 594 are stored as data that is generated as the game progresses and is rewritten as needed. In addition, as information necessary for executing processing relating to the progress of the game, for example, data such as angle of view, line-of-sight direction, and posture information for controlling the virtual camera, count data of various time limits, and the like are stored as appropriate. .

ゲーム空間初期設定データ510には、3次元仮想空間にゲーム空間を形成するための各種データが格納されている。例えば、空や地表、建物などの配置物に関するモデルデータやテクスチャデータ及びモーションデータが格納されている。対面シーンの背景オブジェクト4を定義するデータもここに含まれる。また、ポーカーゲームの場合には、トランプなどのアイテムを表示するためのデータも含まれる。   The game space initial setting data 510 stores various data for forming the game space in the three-dimensional virtual space. For example, model data, texture data, and motion data relating to an arrangement such as the sky, the ground surface, and a building are stored. Data defining the background object 4 of the face-to-face scene is also included here. In the case of a poker game, data for displaying items such as playing cards is also included.

キャラクタ初期設定データ520は、相手キャラクタ6を含むゲームに登場するキャラクタの動作制御に係る初期設定データを格納する。例えば、ゲーム内容がRPGであれば、戦闘シーンなどでキャラクタにアクションを取らせるために、全身のモデル、適用されるテクスチャ、モーションデータなどを適宜含む。
そして、本実施形態に係るものとしては、例えば図9に示すように頭部モデルデータ521と、顔制御テクスチャTBL(テーブル)522と、胸部モデルデータ525と、胸部テクスチャデータ526と、感情遷移設定データ550と、遷移時特別出力素材データ560とを含んでいる。
The character initial setting data 520 stores initial setting data relating to motion control of characters appearing in a game including the opponent character 6. For example, if the game content is RPG, a whole body model, applied texture, motion data, and the like are included as appropriate in order to cause the character to take an action in a battle scene or the like.
For example, as shown in FIG. 9, the head model data 521, the face control texture TBL (table) 522, the chest model data 525, the chest texture data 526, and the emotion transition setting are related to this embodiment. Data 550 and transition special output material data 560 are included.

顔制御テクスチャTBL522は、感情種類523と対応づけて頭部モデルに表情を形成される為の制御データを対応付けて格納する。本実施形態では、制御データとして頭部モデルに貼り付けられる顔制御テクスチャ524を格納する。つまり、顔制御テクスチャTBL522は当該キャラクタの表情集の一つに相当する。   The face control texture TBL 522 stores control data for forming an expression on the head model in association with the emotion type 523. In the present embodiment, the face control texture 524 to be pasted on the head model is stored as control data. That is, the face control texture TBL 522 corresponds to one of the facial expression collection of the character.

感情遷移設定データ550は、当該キャラクタの感情が変化するための条件や、変化の仕方、変化の度合を定義する人格の設定に相当するデータである。
例えば図10に示すように、適用状況552毎に複数のデータセット551が定義されている。一つのデータセット551には、適用状況552とともに、現在感情種類553と選択肢属性554と感情設定ポイント増減設定555とが対応付けられたTBL(テーブル)が格納されている。つまり、適用状況552で定義された特定の状況下において、相手キャラクタ6の現在の感情種類が現在感情情報553である場合で、プレーヤが会話中に選択した話題や返答の選択肢の属性が選択肢属性554である場合に当該感情変化条件を満たすと判定されて、対応する感情設定ポイント増減設定555に設定されている値だけ感情設定ポイント590が増減されることとなる。
The emotion transition setting data 550 is data corresponding to a personality setting that defines a condition for changing the emotion of the character, how to change, and the degree of change.
For example, as shown in FIG. 10, a plurality of data sets 551 are defined for each application situation 552. One data set 551 stores a TBL (table) in which the current emotion type 553, the option attribute 554, and the emotion setting point increase / decrease setting 555 are associated with the application status 552. That is, in the specific situation defined in the application situation 552, when the current emotion type of the opponent character 6 is the current emotion information 553, the topic or response choice attribute selected by the player during the conversation is the choice attribute. If it is 554, it is determined that the emotion change condition is satisfied, and the emotion setting point 590 is increased or decreased by the value set in the corresponding emotion setting point increase / decrease setting 555.

また、感情遷移設定データ550は、更に遷移先感情判定TBL570と感情変化率設定データ575とを含む。   Emotion transition setting data 550 further includes transition destination emotion determination TBL 570 and emotion change rate setting data 575.

遷移先感情判定TBL570は、感情設定ポイント590から感情を判定するための条件を定義する。例えば、図11に示すように、判定条件571と遷移先感情572とが対応付けて格納されている。
本実施形態では、判定条件571として感情設定ポイント590の喜・怒・哀のポイントの内、最大値をとる次元(喜・怒・哀)とその値の範囲として設定されている。同図の「(喜,怒,哀)=(1,x,x)〜(2,x,x)」の例では、「喜」次元のポイントが最も高く、その値が「1」又は「2」の場合には、一般感情分類「楽」の「微笑」感情が遷移先として設定されていることを示している。
Transition destination emotion determination TBL 570 defines a condition for determining an emotion from emotion setting point 590. For example, as shown in FIG. 11, a determination condition 571 and a transition destination emotion 572 are stored in association with each other.
In the present embodiment, the determination condition 571 is set as a dimension (joy / anger / sorrow) taking the maximum value among the points of pleasure / anger / sorrow of the emotion setting point 590 and a range of the values. In the example of “(joy, anger, sorrow) = (1, x, x) to (2, x, x)” in the same figure, the point of the “joy” dimension is the highest, and the value is “1” or “ In the case of “2”, it indicates that the “smile” emotion of the general emotion classification “Raku” is set as the transition destination.

感情変化率設定データ575は、ゲームの進行状況に応じて感情設定ポイント590の増減の変化度合を可変する為の情報を格納する。
例えば、図12に示すように、ゲーム進行状況を示す情報を格納する適用条件576と、補正値577とを対応付けて格納する。感情決定部214は、適用条件576に合致する補正値577を読み出して、感情遷移設定データ550の感情設定ポイント増減設定555(図10参照)に、読み出した補正値577だけ補正して感情設定ポイント590を変更する。つまり、感情変化率設定データ575は、状況別における感情変化度合のゆらぎを定義する情報である。尚、補正値577に代えて、補正率(感情設定ポイントを増減する際に乗ずる係数)で定義するとしても良いのは勿論である。
The emotion change rate setting data 575 stores information for changing the degree of change in the emotion setting point 590 according to the progress of the game.
For example, as shown in FIG. 12, the application condition 576 for storing information indicating the game progress status and the correction value 577 are stored in association with each other. The emotion determination unit 214 reads out the correction value 577 that matches the application condition 576, and corrects only the read out correction value 577 in the emotion setting point increase / decrease setting 555 (see FIG. 10) of the emotion transition setting data 550. 590 is changed. That is, the emotion change rate setting data 575 is information that defines the fluctuation of the emotion change degree for each situation. Of course, instead of the correction value 577, it may be defined by a correction factor (a coefficient to be multiplied when the emotion setting point is increased or decreased).

遷移時特別出力素材データ560は、遷移元と遷移先の一般感情分類が異なる場合に特別に実行される出力制御のためのデータを格納する。
例えば、図13に示すように、感情急変化条件の検出条件に相当する遷移パターン561と対応づけて、特別顔制御テクスチャ562と、特別背景データ563と、特別画像表示時に一緒に音出力される効果音等の特別効果音データ564とを対応付けて格納する。
The transition special output material data 560 stores data for output control specially executed when the transition source and transition destination general emotion classifications are different.
For example, as shown in FIG. 13, a special face control texture 562, special background data 563, and a sound are output together when displaying a special image in association with a transition pattern 561 corresponding to the detection condition of the sudden emotion change condition. Special sound effects data 564 such as sound effects are stored in association with each other.

遷移パターン561には、遷移元と遷移先の一般感情分類が定義されている。同図の例では矢印の元側が遷移元の一般感情分類、矢印の先側が遷移先の一般感情分類を示している。
特別背景データ563には、遷移先と遷移元の感情の相対的な関係(例えば、感情設定ポイント590の増加される次元と増加量に着目した関係)に基づいてデザインされた特別画像40,42に相当する2次元画像が定義されている。例えば、喜び方向に感情が変化する場合には、星マークが飛来するようなイメージ画像が定義されているので、遷移パターン561が「怒→喜」と「怒→楽」と「楽→喜」とでは同じイメージ画像が設定されると言った具合である。勿論、特別背景データ563は画像データそのものではなく、画像を生成するための制御データ(例えば、シンボルマークとその移動制御データなど)でも良い。
The transition pattern 561 defines general emotion classifications of a transition source and a transition destination. In the example of the figure, the original side of the arrow indicates the general emotion classification of the transition source, and the forward side of the arrow indicates the general emotion classification of the transition destination.
The special background data 563 includes special images 40 and 42 designed based on the relative relationship between the transition destination and the emotion of the transition source (for example, a relationship focusing on the dimension and the increase amount of the emotion setting point 590). A two-dimensional image corresponding to is defined. For example, when the emotion changes in the direction of joy, an image is defined such that a star mark will fly. Therefore, the transition pattern 561 is “anger → joy”, “anger → easy”, and “easy → joy”. In the above, the same image is set. Of course, the special background data 563 may be control data for generating an image (for example, a symbol mark and its movement control data) instead of the image data itself.

また、本実施形態では、特別顔制御テクスチャ562及び特別効果音データ564は、急激な感情変化の遷移パターンにのみ設定されており、遷移元或いは遷移先の一般感情分類を「楽」とする隣接する一般感情分類間の遷移パターン(例えば、怒→楽など)には設定無しを示す「NULL」が対応付けられている。   Further, in the present embodiment, the special face control texture 562 and the special sound effect data 564 are set only for the transition pattern of the sudden emotion change, and the general emotion classification of the transition source or the transition destination is “Easy”. “NULL” indicating no setting is associated with a transition pattern (for example, anger → easy) between general emotion classifications.

話題設定データ540は、対面シーンで用いられる会話内容を設定するためのデータを格納する。
例えば、図14に示すように、発生タイミング541と、状況種別542と、ダイアログデータ543と、選択肢データ544と、選択肢属性545とを対応付けて格納している。発生タイミング541は、ある特定のゲーム進行状況を示す情報、例えばプレーヤキャラクタのゲーム空間内における位置、ゲーム世界内での時間、特定アイテムの取得状況などを適宜設定することができる。そして、発生タイミング541で定義された状況の種別を示す情報が状況種別542に格納されている。発生タイミング541で定義される条件に合致すれば、対面する会話シーンに移行し、対応するダイアログデータ543に従って会話が進行制御される。ダイアログデータ543には、従来のゲームで実行される公知の会話と同様にして、話者とその台詞テキストが表示順に対応づけて格納されており、その一部にはプレーヤによる選択操作入力を要求する箇所が設定さている。そして、プレーヤの入力可能な選択肢は、対応する選択肢データ544に格納されており、それぞれに選択肢属性545が設定されている。
The topic setting data 540 stores data for setting conversation contents used in the face-to-face scene.
For example, as shown in FIG. 14, the generation timing 541, the situation type 542, the dialog data 543, the option data 544, and the option attribute 545 are stored in association with each other. The generation timing 541 can appropriately set information indicating a specific game progress status, for example, the position of the player character in the game space, the time in the game world, the acquisition status of the specific item, and the like. Information indicating the type of situation defined at the occurrence timing 541 is stored in the situation type 542. If the condition defined by the generation timing 541 is met, the conversation scene is faced and the conversation is controlled in accordance with the corresponding dialog data 543. The dialog data 543 stores a speaker and its dialogue text in correspondence with the display order in the same manner as a known conversation executed in a conventional game, and a part of the dialog data 543 requests selection operation input by the player. The location to be set is set. Options that can be input by the player are stored in corresponding option data 544, and an option attribute 545 is set for each of the options.

ステータスデータ580は、ゲーム内に登場するキャラクタの現在状態を示す情報をキャラクタ毎に格納する。例えば、現在のゲーム空間内での位置座標、移動速度、所持するアイテムの状態、「ほろ酔い」「ねぼけ」「ヒステリー」などのステータス情報などを適宜設定できる。   The status data 580 stores information indicating the current state of characters appearing in the game for each character. For example, the position coordinates in the current game space, the moving speed, the state of the possessed item, status information such as “tip tips”, “neboke”, and “hystery” can be set as appropriate.

[処理の流れの説明]
次に、本実施形態における処理の流れについて説明する。尚、ゲームの全体的な処理については公知のビデオゲームと同様にして実現できるので、ここでは対面する会話シーンに係る処理を中心に説明するものとする。
[Description of process flow]
Next, the flow of processing in this embodiment will be described. Note that the overall processing of the game can be realized in the same manner as a known video game, so here, the processing related to the conversation scenes facing each other will be mainly described.

図15〜図17は、本実施形態における会話シーンに係る処理の流れを説明するためのフローチャートである。先ず、図15に示すように、処理部200はゲーム空間初期設定データ510を参照して、仮想3次元空間内で会話が行われる場所の背景オブジェクト4を配置してゲーム空間を生成し(ステップS2)、キャラクタ初期設定データ520の顔制御テクスチャTBL522から、現在感情種類データ592に設定されている感情種類に対応する顔制御テクスチャを読み出し、これを適用した相手キャラクタ6の頭部モデルと、胸部テクスチャデータ526が適用された胸部モデルとを配置する(ステップS4)。   15 to 17 are flowcharts for explaining the flow of processing relating to a conversation scene in the present embodiment. First, as shown in FIG. 15, the processing unit 200 refers to the game space initial setting data 510 and generates a game space by placing the background object 4 where the conversation takes place in the virtual three-dimensional space (step S200). S2) The face control texture corresponding to the emotion type currently set in the emotion type data 592 is read from the face control texture TBL 522 of the character initial setting data 520, the head model of the opponent character 6 to which this is applied, and the chest A chest model to which the texture data 526 is applied is placed (step S4).

次に、処理部200は無意識動作制御を開始して相手キャラクタ6に無意識動作をさせて(ステップS6)、会話シーンのゲーム画面(図2のゲーム画像W2を参照)の生成処理と表示制御処理とを開始する(ステップS8)。そして、話題設定データ540に従って会話を進行制御する(ステップS10)。   Next, the processing unit 200 starts unconscious motion control to cause the opponent character 6 to perform unconscious motion (step S6), and generates a conversation scene game screen (see the game image W2 in FIG. 2) and display control processing. Is started (step S8). Then, the conversation is controlled in accordance with the topic setting data 540 (step S10).

次いで、処理部200は所定の会話終了条件を満たすか否かを判定する(ステップS12)。会話終了条件としては、例えば話題設定データ540のダイアログデータ543が最後まで表示された場合や、制限時間に達した場合、特定感情(例えば、「怒り」)が基準時間以上継続された場合などを適宜設定することができる。   Next, the processing unit 200 determines whether or not a predetermined conversation end condition is satisfied (step S12). As the conversation end condition, for example, when the dialog data 543 of the topic setting data 540 is displayed to the end, when the time limit is reached, or when a specific emotion (for example, “anger”) is continued for a reference time or more. It can be set appropriately.

そして、会話終了条件を満たすと判定した場合には(ステップS12のYES)、処理部200は対面する会話シーンを実現する一連の処理を終了する。
一方、会話終了条件を満たしていないと判定した場合には(ステップS12のNO)、処理部200はプレーヤによる話題や応答の選択肢の入力操作が有ったか否かを判定する(ステップS14)。
When it is determined that the conversation end condition is satisfied (YES in step S12), the processing unit 200 ends a series of processes for realizing the facing conversation scene.
On the other hand, when it is determined that the conversation end condition is not satisfied (NO in step S12), the processing unit 200 determines whether or not there has been an input operation of a topic or a response option by the player (step S14).

プレーヤによる選択肢の入力操作が有ったと判定した場合には(ステップS14のYES)、処理部200は次に、話題設定データ540を参照してプレーヤによって選択された選択肢の選択肢データ544に対応する選択肢属性545を読み出し(ステップS16)、感情遷移設定データ550を参照してステップS16で読み出した選択肢属性545に合致する現在の感情種類553に対応する選択肢属性554の感情設定ポイント増減設定555の設定値を読み出す(ステップS18)。   If it is determined that there has been an option input operation by the player (YES in step S14), the processing unit 200 next corresponds to the option data 544 of the option selected by the player with reference to the topic setting data 540. The choice attribute 545 is read (step S16), the emotion setting point increase / decrease setting 555 of the choice attribute 554 corresponding to the current emotion type 553 that matches the choice attribute 545 read in step S16 with reference to the emotion transition setting data 550 is set. A value is read (step S18).

更に、処理部200は感情変化率設定データ575とステータスデータ580とを参照して、現在の相手キャラクタ6の状況に適合する適用条件576に対応する補正値577を読み出し(ステップS20)、ステップS18で読み出した感情設定ポイント増減設定555の設定値をステップS20で読み出した補正値577で補正した後、補正後の値で感情設定ポイント590を変更・更新する(ステップS22)。   Further, the processing unit 200 refers to the emotion change rate setting data 575 and the status data 580 and reads a correction value 577 corresponding to the application condition 576 that matches the current situation of the opponent character 6 (step S20), and step S18. After correcting the setting value of the emotion setting point increase / decrease setting 555 read out in step S20 with the correction value 577 read out in step S20, the emotion setting point 590 is changed / updated with the corrected value (step S22).

そして、処理部200は遷移先感情判定TBL570を参照し、変更後の感情設定ポイント590に基づいて遷移先の感情を判定し、遷移先感情種類データ594に遷移先感情を示す情報を格納する(ステップS24)。   Then, the processing unit 200 refers to the transition destination emotion determination TBL 570, determines the transition destination emotion based on the changed emotion setting point 590, and stores information indicating the transition destination emotion in the transition destination emotion type data 594 ( Step S24).

次に、図16のフローチャートに移って、処理部200は現在感情種類データ592と遷移先感情種類データ594とを参照するとともに遷移時特別出力素材データ560を参照する。そして、現在感情と遷移先感情との相対関係が満たされる遷移パターン561に対応する特別顔制御テクスチャ562が設定されているか否かを判定する(ステップS26)。設定されていれば(ステップS26のYES)、相手キャラクタ6の頭部モデルに設定されている特別顔制御テクスチャ562に切り換える(ステップS28)。   Next, moving to the flowchart of FIG. 16, the processing unit 200 refers to the current emotion type data 592 and the transition destination emotion type data 594 and also refers to the transition special output material data 560. Then, it is determined whether or not the special face control texture 562 corresponding to the transition pattern 561 that satisfies the relative relationship between the current emotion and the transition destination emotion is set (step S26). If it has been set (YES in step S26), the screen is switched to the special face control texture 562 set in the head model of the opponent character 6 (step S28).

次いで、処理部200は現在感情と遷移先感情とに合致する遷移パターン561に対応する特別背景データ563が設定されているか否かを判定する(ステップS30)。
設定されていなければ(ステップS30のNO)、処理部200はプレーヤが選択した選択肢では、特別表示制御をするほどの感情変化は無かったと判断して、遷移先感情の種類で現在感情種類データ592を更新し(ステップS44)、更新後の現在感情種類データ592に設定されている現在感情に対応する顔制御テクスチャを顔制御テクスチャTBL522より読み出して相手キャラクタ6の頭部モデルに適用を切り換え(ステップS46)、ステップS10に戻る。
Next, the processing unit 200 determines whether or not special background data 563 corresponding to the transition pattern 561 that matches the current emotion and the transition destination emotion is set (step S30).
If not set (NO in step S30), the processing unit 200 determines that there is no emotional change enough to perform special display control in the option selected by the player, and the current emotion type data 592 in terms of the type of transition destination emotion. (Step S44), the face control texture corresponding to the current emotion set in the updated current emotion type data 592 is read from the face control texture TBL 522, and the application is switched to the head model of the opponent character 6 (step S44). S46), the process returns to step S10.

一方、特別背景データ563が設定されている場合(ステップS30のYES)、処理部200は特別背景データ563の画像を相手キャラクタ6の背景とする特別画像を生成する(ステップS32)。具体的には、特別背景データ563を貼ったポリゴンを相手キャラクタ6の後方で且つ背景オブジェクト4より仮想カメラ側に配置しても良い。または、背景オブジェクト4をレンダリング対象外として、特別背景データ563上に相手キャラクタ6のレンダリング結果を合成するとしても良い。ステップS28で相手キャラクタ6の頭部モデルに特別顔制御テクスチャが適用されていれば、図6の特別画像W12のような画像が生成され、特別顔制御テクスチャが適用されていなければ、図7の特別画像W17のような画像が生成されることになる。   On the other hand, when the special background data 563 is set (YES in step S30), the processing unit 200 generates a special image using the image of the special background data 563 as the background of the opponent character 6 (step S32). Specifically, the polygon with the special background data 563 may be arranged behind the opponent character 6 and closer to the virtual camera than the background object 4. Alternatively, the rendering result of the opponent character 6 may be synthesized on the special background data 563 with the background object 4 excluded from the rendering target. If the special face control texture is applied to the head model of the opponent character 6 in step S28, an image like the special image W12 of FIG. 6 is generated. If the special face control texture is not applied, the special face control texture of FIG. An image such as the special image W17 is generated.

次いで、処理部200は現在の感情と遷移先の感情とに合致する遷移パターン561に対応する特別効果音データ564が設定されているか否かを判定する(ステップS34)。設定されていれば(ステップS34のYES)、先に生成された特別画像を画像表示部360に一時的に表示させるとともに特別効果音を音出力部350に放音させるようにして、インサート表示制御する(ステップS36)。
特別効果音564が設定されていなければ(ステップS34のNO)、特別画像のみを画像表示部360に表示させるようにしてインサート表示制御する(ステップS38)。本実施形態では、インサート表示制御によって特別画像は1〜2秒程度表示される。
Next, the processing unit 200 determines whether or not special sound effect data 564 corresponding to the transition pattern 561 that matches the current emotion and the transition destination emotion is set (step S34). If it is set (YES in step S34), the special image generated earlier is temporarily displayed on the image display unit 360, and the special sound effect is emitted to the sound output unit 350, and the insert display control is performed. (Step S36).
If the special sound effect 564 is not set (NO in step S34), only the special image is displayed on the image display unit 360 and the insert display is controlled (step S38). In the present embodiment, the special image is displayed for about 1 to 2 seconds by the insert display control.

そして、処理部200はインサート表示制御を終了したならば、遷移先感情種類データ594を参照して、遷移先感情種類データ594の情報を現在感情種類データ592に格納して現在感情を更新し(ステップS40)、ステップS2に戻る。   When the processing unit 200 ends the insert display control, the processor 200 refers to the transition destination emotion type data 594, stores the information of the transition destination emotion type data 594 in the current emotion type data 592, and updates the current emotion ( Step S40) and return to Step S2.

一方、図15のステップS14において選択肢の入力が無いと判定された場合(ステップS14のNO)、図17のフローチャートに移って、処理部200は公知の内部タイマー処理を利用して感情のクールダウン時間のカウントを実行する(ステップS50)。そして、カウントされたクールダウン時間が所定の基準値(例えば2分)に到達していなければ(ステップS52のNO)、ステップS10に戻る。   On the other hand, if it is determined in step S14 in FIG. 15 that there is no option input (NO in step S14), the processing unit 200 moves to the flowchart in FIG. 17 and cools down the emotion using a known internal timer process. Time counting is executed (step S50). If the counted cool-down time has not reached a predetermined reference value (for example, 2 minutes) (NO in step S52), the process returns to step S10.

一方、クールダウン時間が基準値に達している場合(ステップS52のYES)、処理部200はクールダウン時間のカウンタをリセットして(ステップS54)、感情設定ポイント590の喜・怒・哀の各値を「1」づつ減算する(ステップS56)。但し、本実施形態では感情設定ポイント590の各値の最小値は「0」である。   On the other hand, when the cool-down time has reached the reference value (YES in step S52), the processing unit 200 resets the cool-down time counter (step S54), The value is subtracted by “1” (step S56). However, in this embodiment, the minimum value of each value of the emotion setting point 590 is “0”.

次に、処理部200は変更後の感情設定ポイント590に基づいて、遷移先感情判定TBL570を参照して、喜・怒・哀の各値のうち最大値を示す次元とその値とを判定条件571と照合して、該当する遷移先感情572をクールダウンされた遷移先の感情と決定する(ステップS58)。そして、決定した遷移先の感情を示す情報を現在感情種類データ592に格納し(ステップS60)、現在感情種類データ592に設定されている現在感情に対応する顔制御テクスチャを顔制御テクスチャTBL522より選択して、相手キャラクタ6の頭部モデルに適用して(ステップS62)、ステップS10に戻る。   Next, based on the emotion setting point 590 after the change, the processing unit 200 refers to the transition destination emotion determination TBL 570 and determines the dimension indicating the maximum value among the values of joy, anger, and sadness and its value. In comparison with 571, the corresponding transition destination emotion 572 is determined as the cool-down transition destination emotion (step S58). Then, the information indicating the determined transition destination emotion is stored in the current emotion type data 592 (step S60), and the face control texture corresponding to the current emotion set in the current emotion type data 592 is selected from the face control texture TBL522. Then, it is applied to the head model of the opponent character 6 (step S62), and the process returns to step S10.

よって、ステップS50〜S62の処理によって、プレーヤによる選択肢の操作入力がされなければ、やがて感情設定ポイント590の全次元の値が「0」に至り感情が「平静」になることで、刺激がなければ感情は平静を取り戻すといった人間感情の特性を、相手キャラクタ6の表情制御に表すことができる。しかも、これらの処理過程では遷移時特別出力素材データ560は参照されないので隣接する一般感情分類間で感情が遷移したとしても特別画像は表示されない。このため、自然と感情が穏やかになるにつれて表情が平静なものになって行く。   Therefore, if the player does not input an option for the option through the processes in steps S50 to S62, the value of all dimensions of the emotion setting point 590 will eventually reach “0”, and the emotion will become “calm”, so that there is no stimulation. For example, the characteristics of human emotions such as regaining calmness can be expressed in the facial expression control of the opponent character 6. Moreover, since the transition special output material data 560 is not referred to in these processing steps, no special image is displayed even if an emotion transitions between adjacent general emotion classifications. For this reason, the expression becomes calm as nature and emotions become calmer.

このように、本実施形態によれば、対面する会話シーンに登場する相手キャラクタの表情が感情豊かに表現されるため、従来の対話式ゲームに見られた感情レベルなどのゲージ表示制御を行わなくとも、プレーヤは見た目で感情を判別できるようになる。このことは、ゲージではなく対話相手の表情を見据えて会話をするといった会話本来の姿でゲームを楽しむ助けとなる。そして、相手キャラクタの表情を漫画キャラクタ的記号論に基づいてデザインされた複数の制御データ(本実施形態では顔制御テクスチャ)を切り換えて表現する構成しても、感情が急変化した場合に見られる表情の急激な変化に対する違和感を軽減することができる。   As described above, according to the present embodiment, since the expression of the opponent character appearing in the face-to-face conversation scene is expressed with emotion, the gauge display control such as the emotion level seen in the conventional interactive game is not performed. In both cases, the player can discriminate emotions visually. This will help you enjoy the game in its original form, such as having a conversation looking at the expression of the conversation partner, not the gauge. Even if the expression of the opponent character is expressed by switching a plurality of control data (face control texture in this embodiment) designed based on comic character-like semiotics, it is seen when the emotion changes suddenly. It is possible to reduce the sense of incongruity with sudden changes in facial expressions.

〔変形例〕
以上、本発明を適用した実施形態について説明したが、本発明の適用形態はこれに限るものでは無く、適宜構成要素の追加・省略・変更を行うことができる。
[Modification]
As described above, the embodiment to which the present invention is applied has been described. However, the application form of the present invention is not limited to this, and components can be added, omitted, or changed as appropriate.

例えば、上記実施形態では特別顔制御テクスチャを用いた特別画像(図6の特別画像W12参照)のサイズを全画面サイズとしているがこれに限らず、図18の特別画像W12Bの特別背景画像44に示すように相手キャラクタ6の顔を覆うことができるサイズであれば良い。
また、特別背景画像44に含まれる相手キャラクタ6の顔の大きさは、インサート表示の直前や直後の画像と同じ大きさに限定されるものではなく、同図に示すように、顔中央のアップでも良い。この場合、仮想3次元空間に特別背景画像を背景として、特別顔制御テクスチャを適用した相手キャラクタ6の頭部モデルを別途の仮想3次元空間に配置するとともに、その顔中央を第2の仮想カメラでアップ撮影した画像を別途生成・トリミングする。そして、直前のゲーム画面(図6の例で言えばゲーム画面W11)の上に、相手キャラクタ6の顔を隠す帯状に合成することでインサート表示制御すれば良い。
For example, in the above embodiment, the size of the special image using the special face control texture (see the special image W12 in FIG. 6) is set to the full screen size. However, the size is not limited to this, and the special background image 44 of the special image W12B in FIG. Any size that can cover the face of the opponent character 6 may be used.
Further, the size of the face of the opponent character 6 included in the special background image 44 is not limited to the same size as the image immediately before or after the insert display, and as shown in FIG. But it ’s okay. In this case, the head model of the opponent character 6 to which the special face control texture is applied using the special background image as the background in the virtual three-dimensional space is arranged in a separate virtual three-dimensional space, and the center of the face is placed in the second virtual camera. Separately generate / trim images taken with Then, insert display control may be performed by synthesizing the face of the opponent character 6 in a strip shape on the immediately preceding game screen (game screen W11 in the example of FIG. 6).

また、相手キャラクタ6の表情を制御するデータとして、顔制御テクスチャを使用する例を挙げて説明したがこれに限らない。例えば、頭部モデルに目や眉毛、鼻、口、口から見える歯にいたるまで、成形されたリアルな3次元モデルを使用するといった場合には、それら表情を決定する各部が形成されている部分の頂点位置の移動制御情報を、制御データとしても良い。つまり、図6の例では「怒り」の表情から「驚き」の表情を経てから「大喜び」の表情となるように、目や眉毛、鼻、口といった部分の頂点位置を変移させて、表情を表現するとしても良い。   Moreover, although the example which uses a face control texture was given and demonstrated as data which control the other party's 6 facial expression, it is not restricted to this. For example, when using a realistic three-dimensional model formed from the eyes, eyebrows, nose, mouth, and teeth visible to the head model, the parts where the facial expressions are determined are formed. The vertex position movement control information may be used as control data. That is, in the example of FIG. 6, the apex positions of the eyes, eyebrows, nose and mouth are changed so that the expression of “anger”, the expression of “surprise”, and then the expression of “great pleasure” are changed. May be expressed.

また、上記実施形態では座標値のポイントとして扱う値を整数としているが、小数点以下の数値を扱う構成としても良いのは勿論である。
また更に、上記実施形態のように遷移時特別出力素材データ560の遷移パターン561において遷移元感情の識別情報と遷移先感情の識別情報との組み合わせによって遷移前後の感情の相対関係を条件として定義しても良いが、遷移元感情の3次元座標から遷移先感情の3次元座標へのベクトル(図20の白矢印相当)を条件として定義する構成としても良い。より具体的には、例えばベクトルの方向の範囲毎に特別顔制御テクスチャを設定し、ベクトルの大きさが基準値以上であることを条件にして対応する特別顔制御テクスチャの適用/不適用を判定するとしても良い。
In the above embodiment, the value handled as the point of the coordinate value is an integer. However, it is needless to say that the configuration may handle a numerical value after the decimal point.
Furthermore, as in the above embodiment, in the transition pattern 561 of the transition special output material data 560, the relation between the emotions before and after the transition is defined as a condition by the combination of the identification information of the transition source emotion and the identification information of the transition destination emotion. However, it is also possible to adopt a configuration in which a vector (corresponding to the white arrow in FIG. 20) from the three-dimensional coordinates of the transition source emotion to the three-dimensional coordinates of the transition destination emotion is defined as a condition. More specifically, for example, a special face control texture is set for each range of vector directions, and the application / non-application of the corresponding special face control texture is determined on condition that the vector size is equal to or greater than a reference value. You may do that.

より具体的には、(喜,怒,哀)の直交座標系を極座標系(r,θ,φ)に変換する。一方、例えば偏角θが0〜180度と180度〜360度のどちらであるか、偏角φが0〜180度と180度〜360度のどちらであるかの計4つのベクトル方向範囲の組合せに応じた特別顔制御テクスチャを予め用意する。そして、極座標系に変換した(r,θ,φ)の偏角θ,φが、何れのベクトル方向範囲の組合せであるかによって、特別顔制御テクスチャを選択する。そして、半径r(ベクトルの大きさ)が基準値以上であれば、選択した特別顔制御テクスチャを適用する。
勿論、扱う感情の分類を喜怒哀楽の4分類より増やす場合には、次元をより多次元として同様に扱ってもよい。
More specifically, the orthogonal coordinate system of (joy, anger, sadness) is converted into a polar coordinate system (r, θ, φ). On the other hand, for example, whether the declination θ is 0 to 180 degrees or 180 degrees to 360 degrees, or the declination φ is 0 to 180 degrees or 180 degrees to 360 degrees, a total of four vector direction ranges. A special face control texture corresponding to the combination is prepared in advance. Then, the special face control texture is selected depending on which vector direction range the declination angles θ and φ of (r, θ, φ) converted into the polar coordinate system are. If the radius r (vector magnitude) is equal to or greater than the reference value, the selected special face control texture is applied.
Of course, when the number of emotions to be handled is increased from the four categories of emotions, emotions may be handled in the same way with more dimensions.

また、本実施形態は家庭用ゲーム装置1200で実行されるビデオゲームに限らず、図19に示すような業務用ゲーム装置1300で実行するとしても良い。
業務用ゲーム装置1300は、画像表示部360に相当する画像表示装置1302と、音出力部350に相当するスピーカ1304と、操作入力部100に相当するジョイスティック1306及びボタンスイッチ1308とを備える。また、筐体内には制御ユニット1210に相当する制御基板1320を搭載する。制御基板1320は、ゲーム演算などを実行するCPUや音声生成LSI、GPU等のLSIや、RAMやROMと言ったICメモリを搭載し、業務用ゲーム装置1300全体の動作を制御する手段であり、処理部200及び記憶部500に相当する。システムプログラムやゲームプログラム、及び各種データは予めICメモリに記憶させておく構成としても良いし、第1実施形態と同様に通信部370に相当する無線通信モジュールを搭載して、通信回線を介して外部装置からダウンロードして使用する構成でも良い。
また、同様に上記実施形態は、パソコン、PDF、携帯電話機などで実行されるゲームにも適用できる。
Further, the present embodiment is not limited to the video game executed on the home game device 1200, and may be executed on the arcade game device 1300 as shown in FIG.
The arcade game apparatus 1300 includes an image display device 1302 corresponding to the image display unit 360, a speaker 1304 corresponding to the sound output unit 350, a joystick 1306 and a button switch 1308 corresponding to the operation input unit 100. A control board 1320 corresponding to the control unit 1210 is mounted in the housing. The control board 1320 is a means for controlling the operation of the arcade game apparatus 1300 as a whole, including a CPU for executing game calculations, an LSI such as a sound generation LSI, a GPU, and an IC memory such as a RAM and a ROM. It corresponds to the processing unit 200 and the storage unit 500. A system program, a game program, and various data may be stored in advance in an IC memory, and a wireless communication module corresponding to the communication unit 370 is installed as in the first embodiment, via a communication line. It may be configured to be downloaded from an external device and used.
Similarly, the above embodiment can also be applied to a game executed on a personal computer, PDF, mobile phone, or the like.

また、上記実施形態では例えば恋愛シミュレーションを題材としたテキストアドベンチャーゲームやRPGなどのようにゲーム内に挿入される会話シーンを実行する例を挙げて説明したが会話を伴わなくても、相手の表情変化が見分けられる程度に接近して対面するシチュエーションを含むゲームであれば同様に適用できる。
例えば対戦相手(ゲームキャラクタ)の顔を見ながらプレイする麻雀やポーカーなどのテーブルゲーム、仮想的に動物を飼育する飼育ゲームなどにも適用できる。ポーカーゲームの場合では、会話の話題や返答の選択肢(例えば図10の選択肢属性554、図14の選択肢データ544)の内容を、相手キャラクタ6の引いたカードの種類や引いたカードで現在の手札でつくれる役の種類で定義すれば、相手キャラクタ6がカードを引く毎に感情を変化させ、表情が変わる様に制御できる。勿論、この場合、選択肢となるカードは公知のポーカーゲームと同様にしてランダムに自動選択される。
In the above embodiment, an example of executing a conversation scene inserted in the game, such as a text adventure game or RPG based on a love simulation, has been described. The game can be similarly applied to a game that includes situations that face each other close enough to distinguish changes.
For example, the present invention can be applied to table games such as mahjong and poker that are played while looking at the face of the opponent (game character), and breeding games that virtually raise animals. In the case of a poker game, the contents of conversation topics and response options (for example, option attribute 554 in FIG. 10 and option data 544 in FIG. 14) are used for the current hand with the type of card drawn by the opponent character 6 and the card drawn. If it is defined by the types of roles that can be created, the emotion can be changed each time the opponent character 6 draws a card, and the expression can be controlled to change. Of course, in this case, an optional card is automatically selected at random in the same manner as a known poker game.

家庭用ゲーム装置の構成例を示すシステム構成図。The system block diagram which shows the structural example of a household game device. 会話シーンにおけるゲーム画面例を示す図。The figure which shows the example of a game screen in a conversation scene. 会話シーンにおけるゲーム画面例を示す図。The figure which shows the example of a game screen in a conversation scene. 相手キャラクタに設定される感情の種類と感情の遷移との関係の一例を説明するための図。The figure for demonstrating an example of the relationship between the kind of emotion set to an other party character, and the transition of an emotion. 感情種類に対応づけられた顔制御テクスチャ及び特別顔制御テクスチャの例を説明するための図。The figure for demonstrating the example of the face control texture matched with the emotion kind, and a special face control texture. ゲーム画面の変化例を説明するための図。The figure for demonstrating the example of a change of a game screen. ゲーム画面の変化例を説明するための図。The figure for demonstrating the example of a change of a game screen. ゲーム装置の機能構成例を示す機能ブロック図。The functional block diagram which shows the function structural example of a game device. キャラクタ初期設定データのデータ構成例を示す図。The figure which shows the data structural example of character initial setting data. 感情遷移設定データのデータ構成例を示す図。The figure which shows the data structural example of emotion transition setting data. 遷移先感情判定TBLのデータ構成例を示す図。The figure which shows the data structural example of transition destination emotion determination TBL. 感情変化率設定データのデータ構成例を示す図。The figure which shows the data structural example of emotion change rate setting data. 遷移時特別出力素材データのデータ構成例を示す図。The figure which shows the data structural example of the special output material data at the time of a transition. 話題設定データのデータ構成例を示す図。The figure which shows the data structural example of topic setting data. 会話シーンに係る処理の流れについて説明するためのフローチャート。The flowchart for demonstrating the flow of the process which concerns on a conversation scene. 会話シーンに係る処理の流れについて説明するためのフローチャート。The flowchart for demonstrating the flow of the process which concerns on a conversation scene. 会話シーンに係る処理の流れについて説明するためのフローチャート。The flowchart for demonstrating the flow of the process which concerns on a conversation scene. 特別顔制御テクスチャを適用した特別画像の変形例について説明するための図。The figure for demonstrating the modification of the special image to which the special face control texture is applied. 業務用ゲーム装置の構成例を示す斜視外観図。The perspective external view which shows the structural example of an arcade game device. 感情を多次元座標値として扱う概念を説明するための図。The figure for demonstrating the concept which treats an emotion as a multidimensional coordinate value.

符号の説明Explanation of symbols

4 背景オブジェクト
6 相手キャラクタ
10 テキスト表示部
11 選択肢表示部
20,22,24,26 顔制御テクスチャ
30,31,32,33,34,35 特別顔制御テクスチャ
40,42,44 特別背景画像
200 処理部
210 ゲーム演算部
212 無意識動作制御部
214 感情決定部
215 感情変化率設定部
216 急感情変化判定部
218 感情遷移時表示制御部
220 感情遷移時効果音出力制御部
500 記憶部
502 ゲームプログラム
520 キャラクタ初期設定データ
522 顔制御テクスチャTBL
550 感情遷移設定データ
553 現在感情種類
554 選択肢属性
555 感情設定ポイント増減設定
560 遷移時特別出力素材データ
561 遷移パターン
562 特別顔制御テクスチャ
563 特別背景データ
564 特別効果音データ
570 遷移先感情判定TBL
575 感情変化率設定データ
590 感情設定ポイント
592 現在感情種類データ
594 遷移先感情種類データ
4 background object 6 partner character 10 text display unit 11 option display unit 20, 22, 24, 26 face control texture 30, 31, 32, 33, 34, 35 special face control texture 40, 42, 44 special background image 200 processing unit 210 Game Calculation Unit 212 Unconscious Action Control Unit 214 Emotion Determination Unit 215 Emotion Change Rate Setting Unit 216 Sudden Emotion Change Determination Unit 218 Emotion Transition Display Control Unit 220 Emotion Transition Effect Sound Output Control Unit 500 Storage Unit 502 Game Program 520 Character Initial Setting data 522 Face control texture TBL
550 Emotion transition setting data
553 Current emotion type
554 Choice attribute
555 Emotion setting point increase / decrease setting 560 Transition special output material data
561 Transition pattern
562 Special Face Control Texture
563 Special background data
564 Special sound effect data 570 Transition destination emotion determination TBL
575 Emotion change rate setting data 590 Emotion setting point 592 Current emotion type data 594 Transition destination emotion type data

Claims (10)

コンピュータに、操作入力された指示内容に応じて表情が変化するキャラクタの画像を表示制御させるためのプログラムであって、
前記キャラクタが取り得る一般的な感情である一般感情のうち、現在の感情が何れの一般感情であるかを記憶する現感情記憶手段、
操作入力された指示内容が予め定められた感情変化条件を満たしたことを検出する感情変化条件成立検出手段、
現在の一般感情からの遷移先の一般感情を決定する遷移先感情決定手段、
現在の一般感情から前記決定された遷移先の一般感情への変化が急激な感情変化であるか否かを判定するための所定の感情急変化条件を満たすか否かを判定する感情変化判定手段、
前記感情急変化条件を満たさない場合に、前記決定された遷移先の一般感情に対応して予め定められた当該一般感情のときに表示する前記キャラクタの画像の制御データに基づいて前記キャラクタの画像を表示制御し、前記感情急変化条件を満たす場合には、所与の感情が昂揚したときの昂揚感情に対応して予め定められた制御データに基づき前記キャラクタの画像を一時的に表示制御した後、前記決定された遷移先の一般感情に対応する制御データに基づき前記キャラクタの画像を表示制御する感情遷移時表示制御手段、
として前記コンピュータを機能させるためのプログラム。
A program for causing a computer to display and control an image of a character whose facial expression changes according to an instruction input by an operation,
Current emotion storage means for storing which general emotion is a general emotion that is a general emotion that can be taken by the character,
Emotion change condition establishment detection means for detecting that the instruction content input by the operation satisfies a predetermined emotion change condition;
Transition destination emotion determination means for determining the general emotion of the transition destination from the current general emotion,
Emotion change determination means for determining whether or not a predetermined emotion sudden change condition is satisfied for determining whether or not a change from the current general emotion to the determined general emotion of the transition destination is an abrupt emotion change ,
The image of the character based on the control data of the image of the character displayed at the time of the general emotion determined in advance corresponding to the determined general emotion of the transition destination when the emotion sudden change condition is not satisfied When the emotion sudden change condition is satisfied, the character image is temporarily displayed based on control data determined in advance corresponding to the emotion when the given emotion is lifted. Then, an emotion transition display control means for controlling display of the image of the character based on control data corresponding to the determined general emotion of the transition destination,
A program for causing the computer to function as
前記感情遷移時表示制御手段が、前記感情急変化条件を満たす場合に、前記決定された遷移先の一般感情が昂揚したときの昂揚感情に対応して予め定められた制御データに基づき前記キャラクタの画像を一時的に表示制御した後、前記決定された遷移先の一般感情に対応する制御データに基づき前記キャラクタの画像を表示制御するように前記コンピュータを機能させるための請求項1に記載のプログラム。   When the display control means at the time of emotion transition satisfies the emotion sudden change condition, the character of the character is determined based on control data determined in advance corresponding to the lifting emotion when the determined general emotion of the transition destination is lifted. The program according to claim 1, wherein the computer is caused to function to display-control the image of the character based on control data corresponding to the determined general emotion of the transition destination after temporarily controlling display of the image. . 前記キャラクタは、プリミティブ面のモデルで構成され、
前記キャラクタのモデルを構成するプリミティブ面の頂点位置を変移させて前記キャラクタの無意識動作を制御する無意識動作制御手段として前記コンピュータを機能させるための請求項1又は2に記載のプログラム。
The character is composed of a model of a primitive surface,
The program according to claim 1 or 2 for causing the computer to function as unconscious movement control means for controlling an unconscious movement of the character by shifting a vertex position of a primitive surface constituting the model of the character.
前記感情変化条件成立検出手段が、複数種類の感情変化条件の何れの条件を満たしたかを検出し、
前記遷移先感情決定手段が、少なくとも現在の一般感情と、前記感情変化条件成立検出手段により満たすとして検出された感情変化条件の種類とに基づいて、遷移先の一般感情を決定する、
ように前記コンピュータを機能させるための請求項1〜3の何れか一項に記載のプログラム。
The emotion change condition establishment detection means detects which condition of a plurality of types of emotion change conditions is satisfied,
The transition destination emotion determination means determines the general emotion of the transition destination based on at least the current general emotion and the type of emotion change condition detected as being satisfied by the emotion change condition establishment detection means;
The program according to any one of claims 1 to 3, for causing the computer to function as described above.
感情の変化のし易さを表す変化率を設定する感情変化率設定手段として前記コンピュータを機能させるとともに、
前記遷移先感情決定手段が、前記変化率を更に加味して遷移先の一般感情を決定するように前記コンピュータを機能させるための、
請求項4に記載のプログラム。
Causing the computer to function as an emotion change rate setting means for setting a change rate representing the ease of change of emotion,
The transition destination emotion determining means for causing the computer to function so as to determine the general emotion of the transition destination in consideration of the change rate;
The program according to claim 4.
前記感情遷移時表示制御手段が、現在の一般感情から前記決定された遷移先の一般感情へ前記キャラクタの画像の表示制御を切り換える際に、前記キャラクタの背景画像を感情遷移時用の特別背景画像に一時的に切り換えて表示制御する背景画像表示制御手段を有するように前記コンピュータを機能させるための請求項1〜5の何れか一項に記載のプログラム。   When the emotion transition display control means switches display control of the character image from the current general emotion to the determined general emotion of the transition destination, the character background image is used as a special background image for emotion transition. The program according to any one of claims 1 to 5, which causes the computer to function so as to have background image display control means for temporarily controlling display control. 前記背景画像表示制御手段が、遷移元と遷移先の一般感情の対応関係に応じて予め定められた複数の特別背景画像の中から、現在の一般感情及び前記決定された遷移先の一般感情に対応する特別背景画像を用いて前記キャラクタの背景画像を一時的に切り換えるように前記コンピュータを機能させるための請求項6に記載のプログラム。   The background image display control means converts the current general emotion and the determined general emotion of the transition destination from a plurality of special background images determined in advance according to the correspondence between the general emotion of the transition source and the transition destination. The program according to claim 6 for causing the computer to function to temporarily switch the background image of the character by using a corresponding special background image. 前記感情遷移時表示制御手段によって、現在の一般感情から前記決定された遷移先の一般感情へ前記キャラクタの画像の表示制御が切り換えられる際に、所定の効果音の出力制御を行う効果音出力制御手段として前記コンピュータを機能させるための請求項1〜7の何れか一項に記載のプログラム。   Sound effect output control for performing output control of a predetermined sound effect when the display control of the image of the character is switched from the current general emotion to the determined general emotion of the transition destination by the display control means at the time of emotion transition The program as described in any one of Claims 1-7 for functioning the said computer as a means. 請求項1〜8の何れか一項に記載のプログラムを記憶したコンピュータ読み取り可能な情報記憶媒体。   The computer-readable information storage medium which memorize | stored the program as described in any one of Claims 1-8. 操作入力された指示内容に応じて表情が変化するキャラクタの画像を表示制御する画像表示制御装置であって、
前記キャラクタが取り得る一般的な感情である一般感情のうち、現在の感情が何れの一般感情であるかを記憶する現感情記憶手段と、
操作入力された指示内容が予め定められた感情変化条件を満たしたことを検出する感情変化条件成立検出手段と、
現在の一般感情からの遷移先の一般感情を決定する遷移先感情決定手段と、
現在の一般感情から前記決定された遷移先の一般感情への変化が急激な感情変化であるか否かを判定するための所定の感情急変化条件を満たすか否かを判定する感情変化判定手段と、
前記感情急変化条件を満たさない場合に、前記決定された遷移先の一般感情に対応して予め定められた当該一般感情のときに表示する前記キャラクタの画像の制御データに基づいて前記キャラクタの画像を表示制御し、前記感情急変化条件を満たす場合には、所与の感情が昂揚したときの昂揚感情に対応して予め定められた制御データに基づき前記キャラクタの画像を一時的に表示制御した後、前記決定された遷移先の一般感情に対応する制御データに基づき前記キャラクタの画像を表示制御する感情遷移時表示制御手段と、
を備えた画像表示制御装置。
An image display control device that controls display of an image of a character whose facial expression changes according to an operation input instruction,
Current emotion storage means for storing which general emotion is a general emotion that is a general emotion that the character can take;
An emotion change condition establishment detection means for detecting that the instruction content input by the operation satisfies a predetermined emotion change condition;
A transition destination emotion determination means for determining a transition destination general emotion from the current general emotion;
Emotion change determination means for determining whether or not a predetermined emotion sudden change condition is satisfied for determining whether or not a change from the current general emotion to the determined general emotion of the transition destination is an abrupt emotion change When,
The image of the character based on the control data of the image of the character displayed at the time of the general emotion determined in advance corresponding to the determined general emotion of the transition destination when the emotion sudden change condition is not satisfied When the emotion sudden change condition is satisfied, the character image is temporarily displayed based on control data determined in advance corresponding to the emotion when the given emotion is lifted. Then, the emotion transition display control means for controlling the display of the image of the character based on the control data corresponding to the determined general emotion of the transition destination,
An image display control device.
JP2007334833A 2007-12-26 2007-12-26 Program and image display control device Active JP5441087B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007334833A JP5441087B2 (en) 2007-12-26 2007-12-26 Program and image display control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007334833A JP5441087B2 (en) 2007-12-26 2007-12-26 Program and image display control device

Publications (2)

Publication Number Publication Date
JP2009153692A true JP2009153692A (en) 2009-07-16
JP5441087B2 JP5441087B2 (en) 2014-03-12

Family

ID=40958359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007334833A Active JP5441087B2 (en) 2007-12-26 2007-12-26 Program and image display control device

Country Status (1)

Country Link
JP (1) JP5441087B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015125636A (en) * 2013-12-26 2015-07-06 Kddi株式会社 Emotion expression device, emotion expression method and computer program
JP2016036500A (en) * 2014-08-07 2016-03-22 シャープ株式会社 Voice output device, network system, voice output method, and voice output program
JP2019164451A (en) * 2018-03-19 2019-09-26 Kddi株式会社 Terminal device, server device and program
JP2020069317A (en) * 2018-11-02 2020-05-07 株式会社コーエーテクモゲームス Game program, recording medium, and game processing method
JP2021056818A (en) * 2019-09-30 2021-04-08 株式会社コロプラ Program, method, and terminal device
CN112684881A (en) * 2019-10-17 2021-04-20 未来市股份有限公司 Avatar facial expression generation system and avatar facial expression generation method
JP2021069703A (en) * 2019-10-31 2021-05-06 株式会社Cygames Program, game virtual space provision method, and game virtual space provision device
US11087520B2 (en) 2018-09-19 2021-08-10 XRSpace CO., LTD. Avatar facial expression generating system and method of avatar facial expression generation for facial model
US11127181B2 (en) 2018-09-19 2021-09-21 XRSpace CO., LTD. Avatar facial expression generating system and method of avatar facial expression generation
JPWO2020129959A1 (en) * 2018-12-18 2021-11-04 グリー株式会社 Computer program, server device, terminal device and display method
JP2022022222A (en) * 2018-03-19 2022-02-03 Kddi株式会社 Terminal device, method in the terminal device, server device, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000112711A (en) * 1998-10-08 2000-04-21 Sony Computer Entertainment Inc Portable information terminal, entertainment system and recording medium
JP2000237457A (en) * 1999-02-22 2000-09-05 Sega Enterp Ltd Tv game device
JP2001319242A (en) * 2000-02-29 2001-11-16 Sony Computer Entertainment Inc Character display method and entertainment device
JP2002239243A (en) * 2001-02-16 2002-08-27 Enix Corp Video game apparatus and recording medium in which program is stored
JP2002253787A (en) * 2001-02-28 2002-09-10 Sophia Co Ltd Game machine
JP2007156650A (en) * 2005-12-01 2007-06-21 Sony Corp Image processing unit

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000112711A (en) * 1998-10-08 2000-04-21 Sony Computer Entertainment Inc Portable information terminal, entertainment system and recording medium
JP2000237457A (en) * 1999-02-22 2000-09-05 Sega Enterp Ltd Tv game device
JP2001319242A (en) * 2000-02-29 2001-11-16 Sony Computer Entertainment Inc Character display method and entertainment device
JP2002239243A (en) * 2001-02-16 2002-08-27 Enix Corp Video game apparatus and recording medium in which program is stored
JP2002253787A (en) * 2001-02-28 2002-09-10 Sophia Co Ltd Game machine
JP2007156650A (en) * 2005-12-01 2007-06-21 Sony Corp Image processing unit

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015125636A (en) * 2013-12-26 2015-07-06 Kddi株式会社 Emotion expression device, emotion expression method and computer program
JP2016036500A (en) * 2014-08-07 2016-03-22 シャープ株式会社 Voice output device, network system, voice output method, and voice output program
JP2019164451A (en) * 2018-03-19 2019-09-26 Kddi株式会社 Terminal device, server device and program
JP7144588B2 (en) 2018-03-19 2022-09-29 Kddi株式会社 Terminal device, method in the terminal device, server device and program
JP2022022222A (en) * 2018-03-19 2022-02-03 Kddi株式会社 Terminal device, method in the terminal device, server device, and program
US11087520B2 (en) 2018-09-19 2021-08-10 XRSpace CO., LTD. Avatar facial expression generating system and method of avatar facial expression generation for facial model
US11127181B2 (en) 2018-09-19 2021-09-21 XRSpace CO., LTD. Avatar facial expression generating system and method of avatar facial expression generation
JP2020069317A (en) * 2018-11-02 2020-05-07 株式会社コーエーテクモゲームス Game program, recording medium, and game processing method
JP7232621B2 (en) 2018-11-02 2023-03-03 株式会社コーエーテクモゲームス Game program, recording medium, game processing method
JPWO2020129959A1 (en) * 2018-12-18 2021-11-04 グリー株式会社 Computer program, server device, terminal device and display method
JP7278307B2 (en) 2018-12-18 2023-05-19 グリー株式会社 Computer program, server device, terminal device and display method
JP2021056818A (en) * 2019-09-30 2021-04-08 株式会社コロプラ Program, method, and terminal device
JP2021068404A (en) * 2019-10-17 2021-04-30 未來市股▲ふん▼有限公司 Facial expression generation system for avatar and facial expression generation method for avatar
CN112684881A (en) * 2019-10-17 2021-04-20 未来市股份有限公司 Avatar facial expression generation system and avatar facial expression generation method
CN112684881B (en) * 2019-10-17 2023-12-01 未来市股份有限公司 Avatar facial expression generation system and avatar facial expression generation method
JP2021069703A (en) * 2019-10-31 2021-05-06 株式会社Cygames Program, game virtual space provision method, and game virtual space provision device

Also Published As

Publication number Publication date
JP5441087B2 (en) 2014-03-12

Similar Documents

Publication Publication Date Title
JP5441087B2 (en) Program and image display control device
JP6306442B2 (en) Program and game system
US10183220B2 (en) Image generation device and image generation method
JP7445798B2 (en) Game system, game provision method and program
EP3398666B1 (en) Game apparatus, processing method, and information storage medium
KR101084030B1 (en) Game device, game processing method, and information recording medium
EP0768105B1 (en) Method of assisting a player in entering commands in a video game, video game system and video game storage medium
JP7174800B2 (en) Game system, game providing method and program
US20070270222A1 (en) Program, information storage medium, and image generation system
JP5710187B2 (en) Program and game device
US7084876B1 (en) Method for presenting a virtual reality environment for an interaction
JP7355483B2 (en) Game systems and programs
JP3747050B1 (en) Program, information storage medium, and image generation system
JP2018075260A (en) Game system and program
JP2015008983A (en) Program and game device
JP2020018745A (en) Game system and program
JP6839730B2 (en) Information processing system, information processing method and computer program
JP6622832B2 (en) Program and game system
JP5479686B2 (en) Game program and game system
JP3814661B2 (en) GAME PROGRAM AND GAME DEVICE
US20230166187A1 (en) Program, terminal, and game system
US20220379216A1 (en) Interactions between characters in video games
JP2011086188A (en) Three-dimensional image generation apparatus, three-dimensional image generation method and program
JP2007252796A (en) Program, information storage medium, and game system
JP2021089763A (en) Information processing system, information processing method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131211

R150 Certificate of patent or registration of utility model

Ref document number: 5441087

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250