JP2018094247A - Game system and program - Google Patents

Game system and program Download PDF

Info

Publication number
JP2018094247A
JP2018094247A JP2016243791A JP2016243791A JP2018094247A JP 2018094247 A JP2018094247 A JP 2018094247A JP 2016243791 A JP2016243791 A JP 2016243791A JP 2016243791 A JP2016243791 A JP 2016243791A JP 2018094247 A JP2018094247 A JP 2018094247A
Authority
JP
Japan
Prior art keywords
player
game
character
parameter
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016243791A
Other languages
Japanese (ja)
Other versions
JP7355483B2 (en
Inventor
赳彦 石黒
Takehiko Ishiguro
赳彦 石黒
裕亮 石田
Yusuke Ishida
裕亮 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bandai Namco Entertainment Inc filed Critical Bandai Namco Entertainment Inc
Priority to JP2016243791A priority Critical patent/JP7355483B2/en
Publication of JP2018094247A publication Critical patent/JP2018094247A/en
Application granted granted Critical
Publication of JP7355483B2 publication Critical patent/JP7355483B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a game system or a program capable of improving game taste by causing a player to recognize a playing situation of another player during a game and activating a game.SOLUTION: During an acting period of an acting character, a server device changes, for each player character, a relationship parameter representing relationship of each payer character with the acting character, the relationship changing during the dame, on the basis of behavior of the acting character, and player inputs such as a sight line input and an operational input that the player inputs for improving communication with the acting character. The server device executes player parameter imaging processing of imaging, near each player, the relationship parameter into a mode of a display object such as a heart shape and a change thereof or imaging it into a mode of a player character such as expression and movement of another player character or a change in the mode.SELECTED DRAWING: Figure 9

Description

本発明は、3次元空間を用いたゲームシステム及びプログラムなどに関する。   The present invention relates to a game system and program using a three-dimensional space.

従来から、プレーヤのアバターとしてのプレーヤキャラクタを用いて3次元空間内において恋愛シミュレーション、RPG又は対戦ゲームなどの各種のゲームが知られている。   Conventionally, various games such as a love simulation, RPG, or a battle game are known in a three-dimensional space using a player character as a player's avatar.

また、最近では、ヘッドマウントディスプレイ(以下、「HMD」という。)などのユーザに装着して画像を表示する装着型画像表示装置、ネットワーク及び通信の発達に伴い、より没入感を与えゲームの世界をリアルに体験できるゲームも登場してきている。   In recent years, with the development of a wearable image display device that displays images by wearing it on a user such as a head-mounted display (hereinafter referred to as “HMD”), the world of the game has become more immersive with the development of networks and communications. There are also games that allow you to experience this in real time.

特に、このようなシミュレーションゲームは、プレーヤの視線を検出するとともに、当該検出したプレーヤの視線をゲーム空間に反映させ、ゲーム上の対象キャラクタとゲーム空間上でコミュニケーションを図りつつ、ゲームを進行させる構成を有している(例えば、特許文献1)。   In particular, such a simulation game is configured to detect the player's line of sight, reflect the detected player's line of sight in the game space, and advance the game while communicating with the target character on the game in the game space. (For example, Patent Document 1).

特開2015−231443号公報Japanese Patent Laying-Open No. 2015-231443

しかしながら、特許文献1に記載のゲームシステムにあっては、プレーヤの視線に応じてゲームを進行させることができるものの、他のプレーヤが登場しないため、他のプレーヤの関係性を認識させることで進行させるゲームの場合には、仮想3次元空間におけるプレーヤの没入感を損なうことなく他のプレーヤとの関係を認識させることが難しい。   However, in the game system described in Patent Document 1, although the game can be advanced in accordance with the player's line of sight, other players do not appear, so the progress is made by recognizing the relationship between the other players. In the case of a game to be played, it is difficult to recognize the relationship with other players without impairing the player's immersion in the virtual three-dimensional space.

本発明は、上記課題を解決するためになされたものであり、その目的は、ゲーム中に、他のプレーヤのプレー状況を認識させることが可能であり、かつ、ゲームにおいて競争相手となる他のプレーヤとの競争意識や同一のゲームを実行する他のプレーヤとの協力意識を高めて当該ゲームを活性化し、その結果、ゲームの興趣性を向上させることが可能なゲームシステム及びそのプログラムを提供することにある。   The present invention has been made to solve the above-described problems, and has as its object to make it possible to recognize the play situation of other players during the game and to be another competitor in the game. There is provided a game system and a program thereof that can enhance competition awareness with players and cooperation awareness with other players who execute the same game, thereby activating the game and, as a result, improving the interest of the game. There is.

(1)上記課題を解決するため、本発明は、コンピュータによって、複数のプレーヤが注視する少なくとも1の注視キャラクタを配置させたゲーム空間を、仮想3次元空間として、画像化しつつ、ゲームを進行させるプログラムであって、
前記コンピュータを、
前記ゲーム空間における前記注視キャラクタ及び各プレーヤの操作対象となるプレーヤキャラクタを含む各オブジェクトを制御するオブジェクト制御手段、
前記プレーヤキャラクタ毎に、前記ゲーム中に変動する前記注視キャラクタとの関係性を示す関係性パラメータをそれぞれ管理する管理手段、
前記プレーヤによって入力された少なくとも当該プレーヤの視線方向を含むプレーヤ入力を受け付ける処理を実行する受付手段、
前記プレーヤ毎に、各プレーヤキャラクタが前記ゲーム空間上に配置された位置を当該各プレーヤに対応する仮想カメラの位置として設定し、各仮想カメラを視点として前記各プレーヤの視線方向に見えるゲーム空間の画像をそれぞれ生成する画像生成手段、
前記受け付けられた各プレーヤ入力のそれぞれに基づいて、対応する各仮想カメラを制御する仮想カメラ制御手段、及び、
ゲーム状況に応じて、前記プレーヤ毎に、前記ゲーム空間の画像を生成する際に、前記ゲーム空間に配置された他のプレーヤキャラクタの関連性パラメータを、当該他のプレーヤキャラクタに関連付けて画像化する画像化処理を実行する画像制御手段、
として機能させる、構成を有している。
(1) In order to solve the above-described problem, the present invention advances a game while imaging a game space in which at least one gaze character to be watched by a plurality of players is arranged as a virtual three-dimensional space by a computer. A program,
The computer,
Object control means for controlling each object including the gaze character and the player character to be operated by each player in the game space;
Management means for managing a relationship parameter indicating a relationship with the gaze character that varies during the game for each player character;
Receiving means for executing a process of receiving a player input including at least the line-of-sight direction of the player input by the player;
For each player, the position at which each player character is placed in the game space is set as the position of the virtual camera corresponding to the player, and the game space that can be seen in the line-of-sight direction of each player is viewed from each virtual camera. Image generation means for generating images,
Virtual camera control means for controlling each corresponding virtual camera based on each of the received player inputs, and
When an image of the game space is generated for each player according to the game situation, the relevance parameter of another player character arranged in the game space is imaged in association with the other player character. Image control means for executing imaging processing;
As a function, it has a configuration.

この構成により、本発明は、各プレーヤのプレーヤキャラクタと当該各プレーヤが注視する注視キャラクタとのゲーム内における関係性をパラメータ化し、当該パラメータ化された関係性を、例えば、所定の表示物や各プレーヤキャラクタの様態などによってゲーム空間とともに画像化し、各プレーヤに、仮想3次元空間におけるプレーヤの没入感を損なうことなく他のプレーヤにおける注視キャラクタとの関係性を視認させることができる。   With this configuration, the present invention parameters the relationship in the game between the player character of each player and the gaze character watched by each player, and the parameterized relationship is represented by, for example, a predetermined display object or each An image is formed together with the game space depending on the state of the player character and the like, and each player can visually recognize the relationship with the gaze character in the other player without impairing the player's immersive feeling in the virtual three-dimensional space.

特に、本発明は、注視キャラクタへアピールするためのプレーヤの外観変更を含む各種の操作、又は、課金など、ゲームの進行状況や各プレーヤの操作や視線の入力状況に基づいて、各プレーヤキャラクタの注視キャラクタに対するアピールや各プレーヤキャラクタにおける注視キャラクタとの意思疎通の達成度やその状況などのゲーム中にパラメータとして変動する関係性を他のプレーヤに視認させることができる。   In particular, the present invention is based on various operations including appearance change of the player for appealing to the gaze character, or on the progress of the game, each player's operation, and the input state of the line of sight such as charging. It is possible to allow other players to visually recognize the relationship that varies as parameters during the game, such as the appeal to the gaze character, the degree of communication with the gaze character in each player character, and the situation.

したがって、本発明は、注視キャラクタとの意思疎通体験を利用したゲームという新たなゲームにおいて、例えば、PCを含めた複数のプレーヤにおける対戦ゲームなどの他のプレーヤとの関係性に基づいて実行されるゲームとして用いる場合に、他のプレーヤのプレー状況を認識させることができるので、ゲームにおいて競争相手となる他のプレーヤとの競争意識や同一のゲームを実行する他のプレーヤとの協力意識を高めて当該ゲームを活性化し、その結果、ゲームの興趣性を向上させることができる。   Therefore, the present invention is executed based on the relationship with other players such as a battle game among a plurality of players including a PC in a new game called a game using a communication experience with a gaze character. When used as a game, the player can recognize the play status of other players, so that he can raise the sense of competition with other players who are competitors in the game and the cooperation with other players who run the same game. The game can be activated, and as a result, the fun of the game can be improved.

なお、注視キャラクタには、例えば、アイドルなどのゲーム空間において演技のパフォーマンスなどの動作を行うキャラクタ、又は、予め設定されたシナリオ(RPGや推理ゲーム)に従ってプレーヤと対峙するキャラクタ(動的だけでなく、静的なオブジェクトを含む。)など、プレーヤによって注視されるキャラクタであってコンピュータによって制御されるキャラクタが含まれる。   Note that the gaze character includes, for example, a character that performs an action such as performance performance in a game space such as an idol, or a character that confronts a player according to a preset scenario (RPG or reasoning game) (not only dynamic , Etc.), and characters that are watched by the player and controlled by the computer.

例えば、動作を行うキャラクタとしては、仮想カメラの位置に向けて(すなわち、プレーヤキャラクタに向けて)視線を送る動作又は当該プレーヤキャラクタに対して特別に提供される行動(注視キャラクタとプレーヤがアイドルとファンとの関係性を有する場合にプレーヤに向けたファンサービスの行動)などを実行する注視キャラクタが含まれる。   For example, as a character that performs a motion, a motion that sends a line of sight toward the position of the virtual camera (that is, toward the player character) or an action that is specially provided to the player character (the gaze character and the player are idle) A gaze character that executes a fan service action for a player when there is a relationship with a fan is included.

そして、プレーヤキャラクタとしては、ゲーム空間におけるプレーヤの分身となるキャラクタ(いわゆるアバター)であってもよいし、プレーヤの仲間のキャラクタなどの当該プレーヤの意思に基づいてゲーム空間において行動するキャラクタであってもよい。   The player character may be a character (so-called avatar) that is a substitute for the player in the game space, or a character that acts in the game space based on the player's intention such as a player's fellow character. Also good.

特に、各プレーヤキャラクタは、該当するプレーヤから見えるゲーム空間を画像化する際に画像化されなくてもよいし(すなわち、非表示であってもよいし)、当該ゲーム空間の画像に画像化されていてもよい。   In particular, each player character does not have to be imaged when the game space seen by the corresponding player is imaged (that is, it may not be displayed), or is imaged in the image of the game space. It may be.

そして、各プレーヤキャラクタが画像化される場合には、例えば、プレーヤから見える自分の手足などの部位、又は、ゲーム空間内に設置されたモニターに映し出されたプレーヤキャラクタなど各プレーヤの視点から見えるものについて画像化される。   When each player character is imaged, for example, a part of the player's limb that can be seen by the player, a player character that is displayed on a monitor installed in the game space, or the like that can be seen from the viewpoint of each player Is imaged.

また、プレーヤ入力には、コントローラへの入力などプレーヤの手指、腕、頭部、視線
又まぶたなどのプレーヤの身体の動きに応じて入力又は認識されるプレーヤの操作であってもよいし、カメラなどの画像検出や振動検出(ジャイロ)などの検出手段によって検出された入力(視線方向や操作入力)であってもよい。
Further, the player input may be a player operation that is input or recognized according to the movement of the player's body, such as the player's fingers, arms, head, line of sight, or eyelid, such as an input to the controller. It may be an input (line-of-sight direction or operation input) detected by detection means such as image detection or vibration detection (gyro).

特に、プレーヤ入力は、単一のプレーヤによって入力されたものであってもよいし、複数のプレーヤによって入力されたものであってもよい。そして、対戦ゲームも場合には、マルチプレーヤによる対戦であってもよいし、PCとのコンピュータとの対戦であってもよい。   In particular, the player input may be input by a single player or may be input by a plurality of players. In the case of a battle game, it may be a battle by a multiplayer or a battle between a PC and a computer.

さらに、所与のパラメータとしては、例えば、プレーヤの属性や課金状況などのプレーヤ毎に設定されるパラメータであって、ゲームの戦略的に若しくは簡易に設定することが可能なパラメータ、又は、ゲームの進行に従って注視キャラクタの注視中に変動するパラメータが含まれる。   Further, the given parameter is, for example, a parameter set for each player, such as a player attribute or a charging status, and can be set strategically or simply for the game, or Parameters that vary during the gaze of the gaze character as it progresses are included.

上記に加えて、関連性パラメータの画像化には、例えば、関連性パラメータに応じて変化する所与の表示物を表示すること、又は、他のプレーヤキャラクタの表情や動きなど当該関連性パラメータに応じて変化するプレーヤキャラクタの様態若しくは当該様態の変化を画像化することが含まれる。   In addition to the above, the relevance parameter is imaged by, for example, displaying a given display object that changes according to the relevance parameter, or by displaying the relevance parameter such as the expression or movement of another player character. It includes imaging the player character's aspect that changes in response or changes in the aspect.

特に、「所与の表示物」には、例えば、ハート型などの所定の形状を有するオブジェクトが含まれ、関連性パラメータによって当該表示物の様態が変化される。そして、「表示物の様態」には、例えば、これらのオブジェクトにおける形状、大きさ、色彩、及び、アニメーションパターン(例えば、表情の変化)が含まれ、初期の様態又はゲーム中の様態が含まれる。   In particular, the “given display object” includes, for example, an object having a predetermined shape such as a heart shape, and the state of the display object is changed by the relevance parameter. The “display object state” includes, for example, the shape, size, color, and animation pattern (for example, change in facial expression) of these objects, and includes the initial state or the state during the game. .

一方、「プレーヤキャラクタの様態」には、例えば、頭部の動きや所持したアイテムを振るなどのプレーヤキャラクタの動作、又は、プレーヤキャラクタの表情を構成する表情パーツオブジェクトの様態又は当該様態の変化を含む。   On the other hand, the “player character state” includes, for example, the action of the player character such as the movement of the head and the shaking of the possessed item, the state of the expression part object constituting the expression of the player character, or the change of the state. Including.

例えば、表情パーツオブジェクトしては、例えば、目(瞳を含む)、鼻、口(唇だけでなくその周囲も含む。)、眉毛、まつ毛、眉間、歯、頬、髪の毛、汗、及び、装飾品を含み、様態としては、例えば、動き、大きさ、色彩、形状、光り方、及び、パターンが含まれる。   For example, facial expression part objects include, for example, eyes (including pupils), nose, mouth (including not only lips but also surroundings), eyebrows, eyelashes, between eyebrows, teeth, cheeks, hair, sweat, and decoration. For example, movement, size, color, shape, lighting method, and pattern are included.

また、「ゲーム状況に応じて」とは、例えば、
[1]仮想カメラの撮像範囲に他のプレーヤキャラクタが含まれている場合やゲーム空間において所定の位置に他のプレーヤキャラクタが配置されている場合(各プレーヤから所定の距離内に存在する場合を含む)、
[2]複数の注視キャラクタがゲーム空間に配置されている場合、若しくは、この場合であって複数のプレーヤのプレーヤキャラクタが同一の注視キャラクタを注視している場合、
[3]各プレーヤと同一のゲームレベル(同一や同等と見なされる所定の範囲に属するレベルを含む。)を有している他のプレーヤキャラクタが存在する場合、各プレーヤと所定の親密度を有している他のプレーヤキャラクタが存在する場合、各プレーヤの同一チーム若しくは他のチームに属する他のプレーヤキャラクタが存在する場合、各プレーヤに対して所与の条件を具備した他のプレーヤ若しくは他のプレーヤキャラクタが存在する場合、[4]所定のゲーム履歴(課金履歴を含む。)若しくは特定のアイテムを有している場合など、各プレーヤや各プレーヤキャラクタが所与の条件を具備している場合、
[5]前回の対戦ゲームの勝敗や獲得した得点、若しくは、ゲームの実行ステージなどのゲームの進行状況やゲーム環境、
を含む。
In addition, “according to the game situation” means, for example,
[1] A case where another player character is included in the imaging range of the virtual camera, or a case where another player character is placed at a predetermined position in the game space (a case where the player character exists within a predetermined distance from each player). Including),
[2] When a plurality of gaze characters are arranged in the game space, or in this case, the player characters of a plurality of players gaze at the same gaze character,
[3] When there is another player character having the same game level as each player (including levels belonging to a predetermined range that is considered to be the same or equivalent), each player has a predetermined familiarity with each player. If there are other player characters that belong to the same team or another team of each player, if there are other player characters belonging to the same team or other teams, When there is a player character, [4] When each player or each player character has a given condition, such as when a predetermined game history (including charging history) or a specific item is included ,
[5] Game progress and game environment, such as the previous game win / loss and score, or game execution stage,
including.

特に、所定のゲーム履歴としては、
[A]プレーヤのプレー頻度(実施回数、ログイン回数や前回実施した日時からの経過時間)、プレー時間(ゲーム開始からの総時間)、プレーの成績(過去の最高成績や複数のプレーヤ間における順位)などのゲーム履歴、及び、
[B]ゲーム中の所定のタイミングにおける課金額やゲーム開始からの累積的な課金額を示す課金履歴
が含まれる。
In particular, as a predetermined game history,
[A] Player play frequency (number of times played, number of logins, time elapsed since last time played), play time (total time since game start), play performance (highest record in the past and ranking among multiple players) ) And other game histories, and
[B] A billing history indicating a billing amount at a predetermined timing during the game or a cumulative billing amount since the game is started is included.

そして、「関係性パラメータを他のプレーヤキャラクタに関連付けて画像化する」とは、ゲーム空間に配置された他のプレーヤキャラクタの近傍や当該他のプレーヤキャラクタの表情や動きなどの様態として関連性パラメータを画像化するだけでなく、例えば、表示画面を構成するゲーム空間の画像とは異なる他の画像枠に他のプレーヤキャラクタの名前やIDに対応付けて表示させることが含まれる。   “Images are related to other player characters in relation to an image” means that the relationship parameter is used as an aspect such as the vicinity of another player character placed in the game space or the expression or movement of the other player character. In addition to imaging, for example, display in association with names and IDs of other player characters in other image frames different from the image of the game space constituting the display screen is included.

(2)また、本発明は、
複数の前記注視キャラクタがゲーム空間に配置されている場合に、各プレーヤによって注視されている特定の注視キャラクタを特定する特定手段として前記コンピュータを更に機能させ、
前記画像制御手段が、
前記プレーヤ毎に、前記特定された特定の注視キャラクタに基づいて、他のプレーヤのプレーヤキャラクタの関係性パラメータの画像化の有無を判定し、
当該判定結果に応じて、前記プレーヤ毎に生成されたゲーム空間の画像に、前記他のプレーヤのプレーヤキャラクタにおける関連性パラメータを、当該他のプレーヤのプレーヤキャラクタに関連付けて画像化し、又は、非画像化する前記画像化処理を実行する、構成を有している。
(2) The present invention also provides:
When the plurality of gaze characters are arranged in the game space, the computer is further functioned as a specifying means for specifying a specific gaze character being watched by each player,
The image control means is
For each player, based on the specified specific gaze character, the presence or absence of imaging of the relationship parameter of the player character of another player is determined,
Depending on the determination result, the relevance parameter of the player character of the other player is imaged in association with the player character of the other player in the image of the game space generated for each player, or a non-image The imaging processing to be converted is executed.

この構成により、本発明は、例えば、対戦ゲームなど複数のプレーヤによって参加可能なゲームにおいて、ゲームを有利に進める上で重要な情報となる他のプレーヤにおける関連性パラメータを仮想3次元空間におけるプレーヤの没入感を損なうことなく各プレーヤに認識させること、又は、敢えて認識させないことができる。   With this configuration, for example, in a game that can be participated by a plurality of players, such as a battle game, the present invention can change the relevance parameters in other players, which are important information for advantageous advancement of the game, Each player can be made to recognize without impairing the immersive feeling, or can be made not to recognize it.

したがって、本発明は、ゲームにおいて競争相手となる他のプレーヤとの競争意識を高めて当該ゲームを活性化し、その結果、ゲームの興趣性を向上させることができる。   Therefore, the present invention can enhance competition awareness with other players who are competitors in the game and activate the game, and as a result, improve the interest of the game.

なお、「他のプレーヤのプレーヤキャラクタの関係性パラメータの画像化の有無を判定する」とは、特定の注視キャラクタを注視している他のプレーヤのプレーヤキャラクタの関係性パラメータを画像化すると判定することを含む他に、特定の注視キャラクタ特定の注視キャラクタを注視している他のプレーヤのプレーヤキャラクタの関係性パラメータを画像化しないと判定することも含む。   Note that “determining whether or not the relationship parameter of the player character of the other player is imaged” is determined to image the relationship parameter of the player character of the other player who is gazing at the specific gaze character. In addition to this, it also includes determining that the relationship parameter of the player character of another player who is gazing at the specific gaze character is not imaged.

(3)また、本発明は、
前記画像制御手段が、
前記各プレーヤのゲーム空間の画像に、各プレーヤのゲームレベルと同一レベル又は所定の範囲内に属するレベルを有する、他のプレーヤのプレーヤキャラクタにおける関係性パラメータを画像化する前記画像化処理を実行する、構成を有している。
(3) The present invention also provides:
The image control means is
The imaging process for imaging the relationship parameter in the player character of another player having the same level as the game level of each player or a level belonging to a predetermined range on the image of the game space of each player is executed. Has a configuration.

この構成により、本発明は、例えば、対戦ゲームなどの複数のプレーヤによって参加可能なゲームにおいて、競争相手として意識せざるを得ない他のプレーヤのプレーヤキャラ
クタにおけるパラメータを仮想3次元空間におけるプレーヤの没入感を損なうことなく各プレーヤに認識させることができるとともに、レベル差が大きいプレーヤキャラクタなど無関係なプレーヤキャラクタの関係性パラメータを排除することができる。
With this configuration, for example, in a game that can be participated by a plurality of players, such as a competitive game, the player character in another player's player character that must be aware of as a competitor is immersed in the virtual three-dimensional space. It is possible to make each player recognize without impairing the feeling, and it is possible to eliminate a relationship parameter of an irrelevant player character such as a player character having a large level difference.

したがって、本発明は、乱雑な表示を回避して仮想3次元空間におけるプレーヤの没入感を向上させつつ、ゲームにおいて直接的な競争相手となる他のプレーヤとの競争意識を高めて当該ゲームを活性化させ、ゲームの興趣性を向上させることができる。   Therefore, the present invention improves the player's immersive feeling in the virtual three-dimensional space by avoiding messy display, and increases the sense of competition with other players who are direct competitors in the game and activates the game. To improve the fun of the game.

なお、「ゲームレベル」には、プレーヤに適用されるプレーヤレベルや実行しているゲームのステージのレベルの他に、プレーヤキャラクタに設定されているレベルも含まれる。   The “game level” includes a level set for the player character in addition to the player level applied to the player and the level of the stage of the game being executed.

また、「所定の範囲」には、他のプレーヤと同一と判定されたゲームレベルに隣接するレベルなど同一又は同等と見なされるレベルを示す範囲が含まれる。   Further, the “predetermined range” includes a range indicating a level that is regarded as the same or equivalent, such as a level adjacent to a game level determined to be the same as that of another player.

(4)また、本発明は、
前記画像制御手段が、
前記各プレーヤのゲーム空間の画像に、前記各プレーヤとゲーム空間内における所定の距離内に存在する他のプレーヤのプレーヤキャラクタの関係性パラメータを画像化する前記画像化処理を実行する、構成を有している。
(4) The present invention also provides:
The image control means is
The imaging process for imaging the relationship parameter between each player and the player character of another player existing within a predetermined distance in the game space is performed on the game space image of each player. doing.

この構成により、本発明は、例えば、各プレーヤのプレーヤキャラクタの近傍に存在する他のプレーヤキャラクタにおけるパラメータを仮想3次元空間におけるプレーヤの没入感を損なうことなく他のプレーヤに認識させることができるとともに、遠い位置に配置されているプレーヤキャラクタなど無関係なプレーヤキャラクタの関係性パラメータを排除し、ゲームを活性化させる特定の他のプレーヤのプレーヤキャラクタにおける関係性パラメータを的確に認識させることができる。   With this configuration, for example, the present invention allows other players to recognize parameters of other player characters existing in the vicinity of the player character of each player without impairing the player's immersion in the virtual three-dimensional space. It is possible to eliminate the relationship parameter of an irrelevant player character such as a player character arranged at a distant position, and to accurately recognize the relationship parameter of the player character of a specific other player that activates the game.

したがって、本発明は、乱雑な表示を回避して仮想3次元空間におけるプレーヤの没入感を向上させつつ、ゲームにおいて競争相手となる他のプレーヤとの競争意識を高めて当該ゲームを活性化させて、ゲームの興趣性を向上させることができる。   Therefore, the present invention avoids messy display and improves the player's immersive feeling in the virtual three-dimensional space, while enhancing the competitive consciousness with other players who are competitors in the game and activating the game. Can improve the fun of the game.

(5)また、本発明は、
前記管理手段が、
前記プレーヤ毎に、前記各プレーヤにおける他のプレーヤとの関係性を示す親密度を管理し、
前記画像制御手段が、
前記プレーヤ毎に、前記親密度に基づいて、他のプレーヤのプレーヤキャラクタの関係性パラメータの画像化の有無を判定し、
当該判定結果に応じて、前記プレーヤ毎に生成されたゲーム空間の画像に、他のプレーヤのプレーヤキャラクタにおける関連性パラメータを、当該他のプレーヤキャラクタに関連付けて画像化し、又は、非画像化する前記画像化処理を実行する、構成を有している。
(5) The present invention also provides:
The management means is
For each player, manage intimacy indicating the relationship of each player with other players,
The image control means is
For each player, based on the familiarity, the presence / absence of imaging of the relationship parameter of the player character of another player is determined,
Depending on the determination result, the relevance parameter in the player character of another player is imaged in association with the other player character in the image of the game space generated for each player, or the image is made non-imaged. It has a configuration for executing an imaging process.

この構成により、本発明は、例えば、フレンドリストに登録されている他のプレーヤやゲーム中などに高い頻度でコミュニケーションを図る他のプレーヤなどの親密度の高い他のプレーヤのプレーヤキャラクタにおけるパラメータを仮想3次元空間におけるプレーヤの没入感を損なうことなく各プレーヤに認識させること、又は、敢えて認識させないことができる。   With this configuration, for example, the present invention virtually sets the parameters in the player characters of other players who are highly intimate, such as other players registered in the friend list or other players who communicate with each other at a high frequency during the game. It is possible to cause each player to recognize without damaging the player's immersive feeling in the three-dimensional space, or not to recognize it.

したがって、本発明は、乱雑な表示を回避しつつ、ゲームにおいて競争相手となる他のプレーヤとの競争意識を高めこと、ゲーム中などにコミュニケーションを図るツールとして用いること、又は、これらに基づいてゲームを活性化することができる。   Therefore, the present invention can be used as a tool for improving competition awareness with other players who are competitors in the game while avoiding messy display, as a tool for communication during the game, or based on these Can be activated.

なお、「他のプレーヤのプレーヤキャラクタの関係性パラメータの画像化の有無を判定する」とは、親密度の高い他のプレーヤのプレーヤキャラクタの関係性パラメータを画像化すると判定することを含む他に、親密度の高い他のプレーヤのプレーヤキャラクタの関係性パラメータを画像化しないと判定することも含む。   Note that “determining whether or not the relationship parameter of the player character of the other player is imaged” includes determining that the relationship parameter of the player character of the other player with high familiarity is to be imaged. And determining not to image the relationship parameters of the player characters of other players with high intimacy.

(6)また、本発明は、
前記管理手段が、
前記プレーヤ毎に、前記ゲームを実行する際に同一のチーム又は他のチームに属するかを示すチーム属性を示す属性情報を管理し、
前記画像制御手段が、
前記プレーヤ毎に、前記属性情報に基づいて、他のプレーヤのプレーヤキャラクタの関係性パラメータの画像化の有無を判定し、
当該判定結果に応じて、前記プレーヤ毎に生成されたゲーム空間の画像に、他のプレーヤのプレーヤキャラクタにおける関連性パラメータを、当該他のプレーヤのプレーヤキャラクタに関連付けて画像化し、又は、非画像化する前記画像化処理を実行する、構成を有している。
(6) The present invention also provides:
The management means is
For each player, managing attribute information indicating team attributes indicating whether the player belongs to the same team or another team when executing the game;
The image control means is
For each player, based on the attribute information, the presence / absence of imaging of the relationship parameter of the player character of another player is determined,
Depending on the determination result, the relevance parameter of the player character of the other player is imaged in association with the player character of the other player in the image of the game space generated for each player, or is not imaged. The imaging process is executed.

この構成により、本発明は、例えば、同一チームにおける他のプレーヤにおけるプレーヤキャラクタの関係性パラメータを仮想3次元空間におけるプレーヤの没入感を損なうことなく各プレーヤに認識させること、又は、関係性パラメータを各プレーヤに認識させないことができる。   With this configuration, for example, the present invention allows each player to recognize the relationship parameter of the player character in another player in the same team without impairing the player's immersive feeling in the virtual three-dimensional space. Each player can be prevented from recognizing.

したがって、本発明は、乱雑な表示を回避しつつ、例えば対戦ゲームの実行時や協力プレーの実行時に同一チームや他のチームのプレーヤとの競争意識を高めて当該ゲームを活性化し、その結果、ゲームの興趣性を向上させることができる。   Therefore, the present invention activates the game while avoiding messy display, for example, enhancing the competitive consciousness with players of the same team or other teams when executing a battle game or executing cooperative play, The interest of the game can be improved.

(7)また、本発明は、
前記管理手段が、
前記プレーヤ毎に、ゲーム履歴をゲーム履歴情報として管理し、
前記画像制御手段が、
前記プレーヤ毎に、他のプレーヤにおける前記ゲーム履歴情報に基づいて、当該他のプレーヤのプレーヤキャラクタの関係性パラメータを画像化する前記画像化処理を実行する、構成を有している。
(7) The present invention also provides:
The management means is
For each player, the game history is managed as game history information,
The image control means is
For each player, the imaging processing for imaging the relationship parameter of the player character of the other player is executed based on the game history information of the other player.

この構成により、本発明は、例えば、過去に対戦した(又は未対戦)他のプレーヤ、ゲームの実行頻度の高い(又は低い)他のプレーヤ、または、課金額が高い(又は低い)他のプレーヤなどのゲーム履歴において関係する他のプレーヤのプレーヤキャラクタにおける関係性パラメータを仮想3次元空間におけるプレーヤの没入感を損なうことなく各プレーヤに認識させることができるとともに、未対戦(又は過去に対戦済みの)プレーヤキャラクタなど無関係なプレーヤキャラクタの関係性パラメータを排除し、ゲームを活性化させる特定の他のプレーヤのプレーヤキャラクタにおける関係性パラメータを的確に認識させることができる。   With this configuration, for example, the present invention allows other players who have played in the past (or not played), other players with high (or low) game execution frequency, or other players with high (or low) billing amount. It is possible to allow each player to recognize the relationship parameters of the player characters of other players related in the game history, etc. without impairing the player's immersive feeling in the virtual three-dimensional space. It is possible to eliminate the relationship parameter of an irrelevant player character such as a player character and accurately recognize the relationship parameter in the player character of a specific other player that activates the game.

したがって、本発明は、乱雑な表示を回避して仮想3次元空間におけるプレーヤの没入感を向上させつつ、ゲームにおいて競争相手となる他のプレーヤとの競争意識を高めて当該ゲームを活性化させて、ゲームの興趣性を向上させることができる。   Therefore, the present invention avoids messy display and improves the player's immersive feeling in the virtual three-dimensional space, while enhancing the competitive consciousness with other players who are competitors in the game and activating the game. Can improve the fun of the game.

(8)また、本発明は、
前記画像制御手段が、
前記他のプレーヤのプレーヤキャラクタの関係性パラメータを、前記他のプレーヤキャラクタに関する所与の表示物、又は、当該他のプレーヤキャラクタの様態によって画像化する前記画像化処理を実行する、構成を有している。
(8) The present invention also provides:
The image control means is
A configuration for executing the imaging process for imaging the relationship parameter of the player character of the other player according to a given display object related to the other player character or a mode of the other player character; ing.

この構成により、本発明は、他のプレーヤのプレーヤキャラクタにおける関係性パラメータを仮想3次元空間上で画像化することができるとともに、表示物の形状や大きさなどによって関係性パラメータの変動をも画像化することができるので、仮想3次元空間におけるプレーヤの没入感を損なうことなく、かつ、明確に、当該関係性パラメータを認識させることができる。   With this configuration, the present invention can image the relationship parameter in the player character of another player in the virtual three-dimensional space, and can also display the variation of the relationship parameter depending on the shape and size of the display object. Therefore, the relationship parameter can be clearly recognized without impairing the player's immersion in the virtual three-dimensional space.

なお、「他のプレーヤキャラクタに関する所与の表示物」には、
[A1]仮想3次元空間における他のプレーヤキャラクタの近傍に配置されるハート型のオブジェクトなど所定の形状、大きさ、色彩又はアニメーションパターンなどから構成される表示物、
[A2]仮想3次元空間における仮想カメラによって見える範囲外に当該他のプレーヤキャラクタが配置されている場合に、当該仮想3次元空間において当該配置されている方向を示す位置に配置される所定の形状や大きさから構成されるオブジェクトなどの表示物、及び
[A3]仮想3次元空間における仮想カメラによって見える範囲外に当該他のプレーヤキャラクタが配置されている場合に、他のプレーヤキャラクタを特定する固有情報(識別情報など)に関連付けて仮想3次元空間の画像を表示する際に当該仮想3次元空間が表示される領域とは異なる領域に表示される(異なるウィンドウ(フレーム)によって構成される)パラメータの情報を提示するための表示物、
が含まれる。
In addition, in "a given display thing about other player characters",
[A1] a display object composed of a predetermined shape, size, color, animation pattern, or the like, such as a heart-shaped object arranged in the vicinity of another player character in the virtual three-dimensional space;
[A2] Predetermined shape arranged at a position indicating the arrangement direction in the virtual three-dimensional space when the other player character is arranged outside the range visible by the virtual camera in the virtual three-dimensional space A display object such as an object composed of a size and a size, and [A3] a unique identification of another player character when the other player character is arranged outside the range visible by the virtual camera in the virtual three-dimensional space Parameters that are displayed in a region different from the region in which the virtual three-dimensional space is displayed when an image in the virtual three-dimensional space is displayed in association with information (such as identification information) (configured by different windows (frames)) Display for presenting information on
Is included.

また、「他のプレーヤキャラクタの様態」には、例えば、
[B1]仮想3次元空間に配置された他のプレーヤキャラクタの表情、及び
[B2]仮想3次元空間に配置された他のプレーヤキャラクタの動きや当該他のプレーヤキャラクタが保持するアイテムを用いた動き、
が含まれる。
In addition, “an aspect of other player characters” includes, for example,
[B1] Expressions of other player characters arranged in the virtual three-dimensional space, and [B2] Movements of other player characters arranged in the virtual three-dimensional space and movements using items held by the other player characters ,
Is included.

(9)また、本発明は、
前記画像制御手段が、
前記他のプレーヤキャラクタの前記仮想3次元空間における配置位置の近傍に、又は、前記仮想3次元空間における当該他のプレーヤのプレーヤキャラクタの配置方向を示す位置に、前記表示物を画像化する前記画像化処理を実行する、構成を有している。
(9) The present invention also provides:
The image control means is
The image for imaging the display object in the vicinity of the arrangement position of the other player character in the virtual three-dimensional space or at a position indicating the arrangement direction of the player character of the other player in the virtual three-dimensional space. It has the structure which performs a digitization process.

この構成により、本発明は、仮想3次元空間に配置されて仮想カメラによって画像化された他のプレーヤのプレーヤキャラクタにおける仮想3次元空間の位置に対応付けて所与のパラメータを画像化することができるので、仮想3次元空間上において各プレーヤに的確に他のプレーヤのプレーヤキャラクタの状況を認識させることができる。   With this configuration, the present invention can image a given parameter in association with the position of the virtual three-dimensional space in the player character of another player placed in the virtual three-dimensional space and imaged by the virtual camera. Therefore, it is possible to cause each player to accurately recognize the status of the player characters of other players in the virtual three-dimensional space.

(10)また、本発明は、
前記画像生成手段が、
前記プレーヤ毎に、前記画像化した仮想3次元空間の画像を含むゲーム画面を形成し、当該形成したゲーム画面を各プレーヤに提供し、
前記画像制御手段が、
前記他のプレーヤ又は当該他のプレーヤのプレーヤキャラクタの固有の情報に対応付けつつ、前記仮想3次元空間の画像が形成されるゲーム画面内の第1領域とは異なる第2領域に、前記関係性パラメータを画像化する前記画像化処理を実行する、構成を有している。
(10) The present invention also provides:
The image generating means
Forming a game screen including the imaged virtual three-dimensional space for each player, and providing the formed game screen to each player;
The image control means is
In the second area different from the first area in the game screen on which the image of the virtual three-dimensional space is formed while being associated with the unique information of the other player or the player character of the other player, the relationship The imaging processing for imaging the parameter is executed.

この構成により、本発明は、たとえ、各プレーヤにおける仮想カメラから見える範囲外に他のプレーヤのプレーヤキャラクタが配置された場合であっても、各プレーヤに的確に他のプレーヤのプレーヤキャラクタの状況を認識させることができる。   With this configuration, the present invention accurately shows the status of the player character of the other player to each player even if the player character of the other player is arranged outside the range visible from the virtual camera in each player. Can be recognized.

(11)また、本発明は、
前記他のプレーヤキャラクタの関連性パラメータを、当該他のプレーヤキャラクタに関連付けて画像化する際に、当該画像に関連する音又は振動を提供する提供手段を制御するための制御処理を実行する制御処理手段として前記コンピュータを更に機能させる、構成を有している。
(11) The present invention also provides:
Control processing for executing control processing for controlling providing means for providing sound or vibration related to the image when the relevance parameter of the other player character is imaged in association with the other player character As a means, the computer is further functioned.

この構成により、本発明は、画像化とともに、聴覚又は触覚によっても、他のプレーヤのプレー状況を、各プレーヤに認識させることができるので、複数の感覚機能に働きかけることによって、意思疎通が図れている状況などのゲーム中のプレー状況を盛り上げる効果について、相乗効果を期待することができる。   With this configuration, the present invention allows each player to recognize the play status of other players not only by imaging but also by auditory or tactile sense. Therefore, communication can be achieved by acting on a plurality of sensory functions. A synergistic effect can be expected with respect to the effect of raising the playing situation in the game such as the situation where the player is playing.

したがって、本発明は、仮想空間におけるプレーヤの没入感をさらに高めてゲームの興趣性を向上させることができる。   Therefore, the present invention can further enhance the immersive feeling of the player in the virtual space and improve the interest of the game.

なお、「(関連性パラメータ)の画像に関連する音」とは、例えば、心音などの音や連性パラメータの管理の対象となる注視キャラクタの名称やニックネームなどの呼称の音声が含まれるとともに、これらの音が関連性パラメータに応じて変動してもよいし、変動しなくてもよい。   The “sound related to the image of (relevance parameter)” includes, for example, sounds such as heart sounds and voices of names such as the names and nicknames of gaze characters that are subject to management of connectivity parameters, These sounds may or may not vary depending on the relevance parameter.

また、提供手段としては、例えば、スピーカやヘッドホン出力、プレーヤが操作するコントローラなどの操作手段やゲーム画像を表示するプレーヤに装着型の表示装置を振動させる構造、送風機による風、電熱器による熱、加湿器など水蒸気なども含まれる。   Further, as the providing means, for example, an operating means such as a speaker or headphone output, a controller operated by the player, a structure that vibrates a wearable display device for a player that displays a game image, wind from a blower, heat from an electric heater, Water vapor such as a humidifier is also included.

(12)また、本発明は、
前記画像生成手段が、
前記プレーヤの視界を覆う構造を有し、かつ、前記仮想3次元空間の画像を視認させる装着型画像表示装置から構成された表示手段に、前記生成したゲーム空間の画像を表示させ、
前記受付手段が、
前記プレーヤの入力として前記プレーヤの視線方向を受け付ける、構成を有している。
(12) The present invention also provides:
The image generating means
And displaying the generated image of the game space on display means having a structure that covers the field of view of the player, and configured by a wearable image display device that visually recognizes the image of the virtual three-dimensional space,
The accepting means is
It has a configuration for accepting the player's line-of-sight direction as an input of the player.

この構成により、本発明は、プレーヤの頭部の位置や姿勢に応じて変化する仮想3次元空間をゲーム空間に適用することができるので、プレーヤが実際にゲーム空間内でゲームを体験しているような感覚を提供することができる。   With this configuration, the present invention can apply a virtual three-dimensional space that changes according to the position and orientation of the player's head to the game space, so that the player actually experiences the game in the game space. Such a feeling can be provided.

したがって、本発明は、プレーヤの没入感をさらに高めてゲームの興趣性を向上させることができる。   Therefore, the present invention can further enhance the immersive feeling of the player and improve the interest of the game.

(13)また、上記課題を解決するため、本発明は、複数のプレーヤが注視する少なくとも1の注視キャラクタを配置させたゲーム空間を、仮想3次元空間として、画像化しつつ
、ゲームを進行させるゲームシステムであって、
前記ゲーム空間における前記注視キャラクタ及び各プレーヤの操作対象となるプレーヤキャラクタを含む各オブジェクトを制御するオブジェクト制御手段と、
前記プレーヤキャラクタ毎に、前記ゲーム中に変動する前記注視キャラクタとの関係性を示す関係性パラメータをそれぞれ管理する管理手段と、
前記プレーヤによって入力された少なくとも当該プレーヤの視線方向を含むプレーヤ入力を受け付ける処理を実行する受付手段と、
前記プレーヤ毎に、各プレーヤキャラクタが前記ゲーム空間上に配置された位置を当該各プレーヤに対応する仮想カメラの位置として設定し、各仮想カメラを視点として前記各プレーヤの視線方向に見えるゲーム空間の画像をそれぞれ生成する画像生成手段と、
前記受け付けられた各プレーヤ入力のそれぞれに基づいて、対応する各仮想カメラを制御する仮想カメラ制御手段と、
ゲーム状況に応じて、前記プレーヤ毎に、前記ゲーム空間の画像を生成する際に、前記ゲーム空間に配置された他のプレーヤキャラクタの関連性パラメータを、当該他のプレーヤキャラクタに関連付けて画像化する画像化処理を実行する画像制御手段と、
を備える、構成を有している。
(13) In order to solve the above-described problem, the present invention provides a game in which a game space in which at least one gaze character to be watched by a plurality of players is arranged as a virtual three-dimensional space and the game progresses while being imaged. A system,
Object control means for controlling each object including the gaze character and the player character to be operated by each player in the game space;
Management means for managing a relationship parameter indicating a relationship with the gaze character that fluctuates during the game for each player character;
Receiving means for executing a process for receiving a player input including at least the line-of-sight direction of the player input by the player;
For each player, the position at which each player character is placed in the game space is set as the position of the virtual camera corresponding to the player, and the game space that can be seen in the line-of-sight direction of each player is viewed from each virtual camera. Image generation means for generating images respectively;
Virtual camera control means for controlling each corresponding virtual camera based on each received player input;
When an image of the game space is generated for each player according to the game situation, the relevance parameter of another player character arranged in the game space is imaged in association with the other player character. Image control means for executing imaging processing;
It has the composition provided with.

この構成により、本発明は、各プレーヤのプレーヤキャラクタと当該各プレーヤが注視する注視キャラクタとのゲーム内における関係性をパラメータ化し、当該パラメータ化された関係性を、例えば、所定の表示物や各プレーヤキャラクタの様態などによってゲーム空間とともに画像化し、各プレーヤに、仮想3次元空間におけるプレーヤの没入感を損なうことなく他のプレーヤにおける注視キャラクタとの関係性を視認させることができる。   With this configuration, the present invention parameters the relationship in the game between the player character of each player and the gaze character watched by each player, and the parameterized relationship is represented by, for example, a predetermined display object or each An image is formed together with the game space depending on the state of the player character and the like, and each player can visually recognize the relationship with the gaze character in the other player without impairing the player's immersive feeling in the virtual three-dimensional space.

特に、本発明は、注視キャラクタへアピールするためのプレーヤの外観変更を含む各種の操作、又は、課金など、ゲームの進行状況や各プレーヤの操作や視線の入力状況に基づいて、各プレーヤキャラクタの注視キャラクタに対するアピールや各プレーヤキャラクタにおける注視キャラクタとの意思疎通の達成度やその状況などのゲーム中にパラメータとして変動する関係性を他のプレーヤに視認させることができる。   In particular, the present invention is based on various operations including appearance change of the player for appealing to the gaze character, or on the progress of the game, each player's operation, and the input state of the line of sight such as charging. It is possible to allow other players to visually recognize the relationship that varies as parameters during the game, such as the appeal to the gaze character, the degree of communication with the gaze character in each player character, and the situation.

したがって、本発明は、注視キャラクタとの意思疎通体験を利用したゲームという新たなゲームにおいて、例えば、PCを含めた複数のプレーヤにおける対戦ゲームなどの他のプレーヤとの関係性に基づいて実行されるゲームとして用いる場合に、他のプレーヤのプレー状況を認識させることができるので、ゲームにおいて競争相手となる他のプレーヤとの競争意識や同一のゲームを実行する他のプレーヤとの協力意識を高めて当該ゲームを活性化し、その結果、ゲームの興趣性を向上させることができる。   Therefore, the present invention is executed based on the relationship with other players such as a battle game among a plurality of players including a PC in a new game called a game using a communication experience with a gaze character. When used as a game, the player can recognize the play status of other players, so that he can raise the sense of competition with other players who are competitors in the game and the cooperation with other players who run the same game. The game can be activated, and as a result, the fun of the game can be improved.

本発明に係るゲームシステムの一実施形態における概要構成を示す構成図である。It is a block diagram which shows the schematic structure in one Embodiment of the game system which concerns on this invention. 一実施形態のゲームの概要を説明するための図である。It is a figure for demonstrating the outline | summary of the game of one Embodiment. 一実施形態におけるサーバ装置の構成を示す機能ブロック図の一例である。It is an example of the functional block diagram which shows the structure of the server apparatus in one Embodiment. 一実施形態におけるサーバ装置の記憶部に記憶される表示物オブジェク情報の一例を示す図である。It is a figure which shows an example of the display thing object information memorize | stored in the memory | storage part of the server apparatus in one Embodiment. 一実施形態における端末装置の構成を示す機能ブロック図の一例である。It is an example of the functional block diagram which shows the structure of the terminal device in one Embodiment. 一実施形態における端末装置の外観構成を示す図の一例である。It is an example of the figure which shows the external appearance structure of the terminal device in one Embodiment. 一実施形態の関係性パラメータの画像化処理(表示物オブジェクトの様態制御処理)を説明するための図(その1)である。FIG. 10 is a diagram (No. 1) for describing a relationship parameter imaging process (display object object state control process) according to an embodiment; 一実施形態の関係性パラメータの画像化処理(演技キャラクタ様態制御処理)を説明するための図(その1)である。It is FIG. (1) for demonstrating the imaging process (acting character state control process) of the relationship parameter of one Embodiment. 一実施形態の関係性パラメータの画像化処理(プレーヤパラメータ画像化処理)を説明するための図(その1)である。FIG. 10 is a diagram (part 1) for explaining a relationship parameter imaging process (player parameter imaging process) according to an embodiment; 一実施形態の関係性パラメータの画像化処理(プレーヤパラメータ画像化処理)を説明するための図(その2)である。FIG. 10 is a diagram (part 2) for explaining the relationship parameter imaging process (player parameter imaging process) according to the embodiment; 一実施形態の関係性パラメータの画像化処理(表示物オブジェクトの様態制御処理)を説明するための図(その2)である。FIG. 11 is a diagram (part 2) for explaining the relationship parameter imaging process (display object object state control process) according to the embodiment; 一実施形態の関係性パラメータの画像化処理(表示物オブジェクトの様態制御処理)を説明するための図(その3)である。FIG. 11 is a diagram (No. 3) for explaining the relationship parameter imaging processing (display object object state control processing) according to the embodiment; 一実施形態の関係性パラメータの画像化処理(演技キャラクタ様態制御処理)を説明するための図(その2)である。It is FIG. (2) for demonstrating the imaging process (acting character state control process) of the relationship parameter of one Embodiment. 一実施形態の関係性パラメータの画像化処理(演技キャラクタ様態制御処理)を説明するための図(その3)である。It is FIG. (3) for demonstrating the imaging process (acting character state control process) of the relationship parameter of one Embodiment. 一実施形態の関係性パラメータの画像化処理(プレーヤパラメータ画像化処理)を説明するための図(その3)である。FIG. 11 is a diagram (No. 3) for describing the relationship parameter imaging process (player parameter imaging process) according to the embodiment; 一実施形態の関係性パラメータの画像化処理(プレーヤパラメータ画像化処理)を説明するための図(その4)である。FIG. 14 is a diagram (No. 4) for explaining the relationship parameter imaging process (player parameter imaging process) according to the embodiment; 一実施形態の画像化判定処理及び関係性パラメータの表示と他のプレーヤのアバターとの関係を説明するための図である。It is a figure for demonstrating the relationship between the imaging determination process of one Embodiment, the display of a relationship parameter, and the avatar of another player. 一実施形態のプレーヤパラメータ画像化処理の変形例を説明するための図(その1)である。It is FIG. (1) for demonstrating the modification of the player parameter imaging process of one Embodiment. 一実施形態のプレーヤパラメータ画像化処理の変形例を説明するための図(その2)である。It is FIG. (2) for demonstrating the modification of the player parameter imaging process of one Embodiment. 一実施形態のサーバ装置によって実行されるプレーヤパラメータ画像化処理を含む演技キャラクタの演技におけるゲーム処理の動作を示すフローチャート(その1)である。It is a flowchart (the 1) which shows the operation | movement of the game process in the performance of the acting character including the player parameter imaging process performed by the server apparatus of one Embodiment. 一実施形態のサーバ装置によって実行されるプレーヤパラメータ画像化処理を含む演技キャラクタの演技におけるゲーム処理の動作を示すフローチャート(その2)である。It is a flowchart (the 2) which shows the operation | movement of the game process in the performance of the acting character including the player parameter imaging process performed by the server apparatus of one Embodiment.

以下、実施形態について説明する。なお、以下に説明する実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また、本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。さらに、以下の実施形態は、装着型画像表示装置としてHMD(ヘッドマウントディスプレイ)を用いて仮想3次元空間をシミュレートさせてゲームを提供するゲームシステムに対し、本発明に係るゲームシスステム及びプログラムを適用した場合の実施形態である。   Hereinafter, embodiments will be described. The embodiments described below do not unduly limit the contents of the present invention described in the claims. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention. Furthermore, the following embodiment is directed to a game system and program according to the present invention for a game system that provides a game by simulating a virtual three-dimensional space using an HMD (head mounted display) as a wearable image display device. It is an embodiment in the case of applying.

[1]ゲームシステム
[1.1]概要
まず、図1を用いて本実施形態のゲームシステム1の概要及び概要構成について説明する。なお、図1は、本実施形態のゲームシステム1の構成を示すシステム構成の一例を示す図である。
[1] Game System [1.1] Outline First, the outline and outline structure of the game system 1 of the present embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of a system configuration showing the configuration of the game system 1 of the present embodiment.

本実施形態のゲームシステム1は、バーチャル空間内において、プレーヤキャラクタ(以下、「アバター」という。)を登場させて、かつ、あたかもプレーヤの周囲に存在するかのごとく認知させるVR体験(仮想現実体験)をオンラインゲーム(クライアント・サーバ型のオンラインゲーム)としてユーザに提供するゲームシステムである。   The game system 1 of the present embodiment has a VR experience (virtual reality experience) in which a player character (hereinafter referred to as “avatar”) appears in a virtual space and is recognized as if it exists around the player. ) As an online game (client-server online game).

特に、本実施形態のゲームシステム1は、例えば、プレーヤが複数の仮想3次元アイドル(いわゆる、プレーヤによって注視される注視キャラクタであって、ゲーム空間で動作を行うキャラクタ(以下、「演技キャラクタ」という。))から構成されるグループのフ
ァンの一人として、仮想の演技パフォーマンス(具体的には、歌唱ライブ)を行うライブステージ(以下、「ステージ」ともいう。)を観覧することをテーマとする3次元立体視可能なシミュレーションゲームを提供する構成を有している。
In particular, in the game system 1 of the present embodiment, for example, a player is a plurality of virtual three-dimensional idols (a so-called gaze character watched by the player and a character that performs an action in the game space (hereinafter referred to as “acting character”). .)) The theme is to watch a live stage (hereinafter also referred to as a “stage”) for performing virtual performances (specifically, singing live performances) as one of the fans of the group consisting of It has a configuration for providing a simulation game capable of three-dimensional stereoscopic viewing.

すなわち、本実施形態のゲームシステム1は、演技キャラクタとしては、ゲーム空間のプレーヤに向けて(すなわち、仮想カメラの位置に向けて)視線を送る動作又は当該プレーヤに対して特別に提供される行動(演技キャラクタとプレーヤがアイドルとファンとの関係性を有する場合にプレーヤに向けたファンサービスの行動、以下、「ファンサービス」という。)などを実行する演技キャラクタを注視することを含むゲームを提供する構成を有している。   That is, in the game system 1 of the present embodiment, as the acting character, an action of sending a line of sight toward the player in the game space (that is, toward the position of the virtual camera) or an action provided specifically to the player Provided a game including gazing at an acting character that executes a behavior of a fan service toward the player when the acting character and the player have a relationship between an idol and a fan (hereinafter referred to as “fan service”) It has the composition to do.

そして、本実施形態のゲームシステム1は、複数のプレーヤによって少なくとも1の演技キャラクタを注視し、当該注視する過程で他のプレーヤと得点を競うゲームを実行するシステムである。   The game system 1 according to the present embodiment is a system that executes a game in which a plurality of players gaze at least one acting character and compete with other players for points in the process of gaze.

また、ゲームシステム1は、
(1)プレーヤの視界を覆う構造を有し、かつ、仮想3次元空間の画像を視認させるHMD(装着型画像表示装置)に、生成したゲーム空間の画像を3D表示させ、
(2)当該HMDの姿勢に基づいて仮想カメラを制御し、
(3)当該HMDに設けられた検出手段によって検出された等がHMDを装着したプレーヤの視線方向を含む当該プレーヤの入力を受け付けて
ゲームを進行させる構成を有している。
In addition, the game system 1
(1) The generated game space image is displayed in 3D on an HMD (wearable image display device) that has a structure that covers the player's field of view and visually recognizes the image in the virtual three-dimensional space;
(2) Control the virtual camera based on the attitude of the HMD,
(3) It has a configuration in which the game is progressed by receiving the input of the player including the line-of-sight direction of the player wearing the HMD detected by the detecting means provided in the HMD.

具体的には、ゲームシステム1は、図1に示すように、対戦ゲームやRPGなどのゲームを提供するサーバ装置10と、プレーヤによって装着されるHMDを有し、ネットワークを介してサーバ装置10から送信されてくるゲームをプレーするために用いる端末装置20(例えば、端末装置20A、20B、20C)とが、インターネットなどのネットワークに接続可能に構成されている。   Specifically, as shown in FIG. 1, the game system 1 includes a server device 10 that provides a game such as a battle game or an RPG, and an HMD that is worn by a player. The terminal device 20 (for example, the terminal devices 20A, 20B, and 20C) used for playing the transmitted game is configured to be connectable to a network such as the Internet.

サーバ装置10は、例えば、API(アプリケーションプログラミングインタフェース)や所定のプラットフォーム等を利用して実行されるオンラインゲームを提供することが可能な情報処理装置である。   The server device 10 is an information processing device capable of providing an online game that is executed using, for example, an API (Application Programming Interface) or a predetermined platform.

また、サーバ装置10は、1つの(装置、プロセッサ)で構成されていてもよいし、複数の(装置、プロセッサ)で構成されていてもよい。   Further, the server device 10 may be configured by one (device, processor) or may be configured by a plurality (device, processor).

そして、サーバ装置10の記憶領域(後述する記憶部140)に記憶される課金情報、ゲーム情報等の情報を、ネットワーク(イントラネット又はインターネット)を介して接続されたデータベース(広義には記憶装置、メモリ)に記憶するようにしてもよいし、記憶領域に記憶されるプレーヤ情報146等の情報を、ネットワーク(イントラネット又はインターネット)を介して接続されたデータベース(広義には記憶装置、メモリ)に記憶するようにしてもよい。   Then, information such as billing information and game information stored in a storage area (storage unit 140 described later) of the server device 10 is stored in a database (storage device, memory in a broad sense) connected via a network (intranet or Internet). Or information such as player information 146 stored in the storage area may be stored in a database (storage device or memory in a broad sense) connected via a network (intranet or the Internet). You may do it.

特に、サーバ装置10は、端末装置20のユーザ(すなわち、ゲームを実行するプレーヤ)の操作(プレーヤ入力)に基づく入力情報を受信し、受信した入力情報に基づいてゲーム処理を行うようになっている。   In particular, the server device 10 receives input information based on an operation (player input) of a user of the terminal device 20 (that is, a player who executes a game), and performs game processing based on the received input information. Yes.

そして、サーバ装置10は、ゲーム空間が3次元画像化された画像(当該画像を表示するためのデータを含む。)やゲーム処理結果を端末装置20に送信する。   Then, the server device 10 transmits to the terminal device 20 an image in which the game space is converted into a three-dimensional image (including data for displaying the image) and a game processing result.

端末装置20は、HMDユニット200及び端末制御ユニット300を有し、ゲーム空間が3次元画像化された画像を表示しつつ、対戦ゲーム、シミュレーションゲーム及びRPGなどのゲームを実行する装置である。   The terminal device 20 includes an HMD unit 200 and a terminal control unit 300, and is a device that executes a game such as a battle game, a simulation game, and an RPG while displaying an image in which the game space is converted into a three-dimensional image.

また、端末装置20は、スマートフォン、携帯電話、PHS、コンピュータ、ゲーム装置、PDA、携帯型ゲーム機等、画像生成装置などの情報処理装置によって構成され、インターネット(WAN)、LANなどのネットワークを介してサーバ装置10に接続可能な装置である。なお、端末装置20とサーバ装置10との通信回線は、有線でもよいし無線でもよい。   The terminal device 20 is configured by an information processing device such as an image generation device such as a smartphone, a mobile phone, a PHS, a computer, a game device, a PDA, or a portable game machine, and via a network such as the Internet (WAN) or a LAN. This is a device connectable to the server device 10. The communication line between the terminal device 20 and the server device 10 may be wired or wireless.

また、端末装置20は、サーバ装置10との通信を行うための通信制御機能、及び、サーバ装置10から受信したデータを用いて表示制御を行うとともに、プレーヤによって入力された操作情報をサーバ装置10に送信する機能などを備える構成を有している。   In addition, the terminal device 20 performs display control using a communication control function for performing communication with the server device 10 and data received from the server device 10, and receives operation information input by the player from the server device 10. It has the structure provided with the function etc. to transmit to.

そして、端末装置20は、サーバ装置10から送信されてくる3次元空間で実現するゲームをプレーヤに提供する構成を有している。ただし、端末装置20は、サーバ装置10から提供されたゲーム制御情報を取得して所定のゲーム処理を実行し、ゲーム処理に基づくゲームを実行してもよい。   The terminal device 20 has a configuration for providing a player with a game realized in a three-dimensional space transmitted from the server device 10. However, the terminal device 20 may acquire the game control information provided from the server device 10, execute a predetermined game process, and execute a game based on the game process.

なお、本実施形態のゲームシステム1は、1人のプレーヤのみがプレーできるシングルプレーヤモード専用のシステムにしてもよいし、複数のプレーヤがプレーできるマルチプレーヤモードも備えるシステムにしてもよい。   Note that the game system 1 of the present embodiment may be a system dedicated to the single player mode in which only one player can play, or may be a system having a multiplayer mode in which a plurality of players can play.

また、複数のプレーヤがプレーする場合に、これらの複数のプレーヤに提供するゲーム画像やゲーム音を、1つの端末を用いて生成してもよいし、ネットワーク(伝送ライン、通信回線)などで接続された複数の端末装置(ゲーム機、携帯電話)を用いて分散処理により生成してもよい。   In addition, when a plurality of players play, game images and game sounds to be provided to the plurality of players may be generated using one terminal, or connected via a network (transmission line, communication line), etc. It may be generated by distributed processing using a plurality of terminal devices (game machine, mobile phone).

[1.2]ゲームの説明
次に、図2を用いてVR体験としての本実施形態によって実現するゲームの概要を説明する。なお、図2は、本実施形態のゲームの概要を説明するための図である。
[1.2] Description of Game Next, an outline of a game realized by the present embodiment as a VR experience will be described with reference to FIG. FIG. 2 is a diagram for explaining the outline of the game of the present embodiment.

ゲーム空間11は、例えば、図2(A)に示すように、VR空間(仮想3次元空間)として構築されており、当該ゲーム空間11には、ライブステージの演技場であるステージ4と、アバターとしてのアバター5が配置される複数の観覧席6とが設けられている。   For example, as shown in FIG. 2A, the game space 11 is constructed as a VR space (virtual three-dimensional space). The game space 11 includes a stage 4 which is a live stage performance hall, and an avatar. A plurality of bleachers 6 on which avatars 5 are arranged are provided.

そして、NPC(ノンアバター)であるアイドルキャラクタ8(演技キャラクタ)がステージで演技し、プレーヤは、アバター5を介して、アイドルキャラクタ8の演技を注視することができるようになっている。   Then, an idle character 8 (acting character), which is an NPC (non-avatar), acts on the stage, and the player can watch the performance of the idle character 8 via the avatar 5.

ライブステージの内容は、楽曲の歌唱や、楽器の演奏、ダンス、大道芸などのライブパフォーマンスであり、例えば、本実施形態では、振り付けがある歌唱曲を歌うライブパフォーマンスが実行されるようになっている。   The content of the live stage is a live performance such as song singing, musical instrument performance, dance, street performance, etc. For example, in this embodiment, a live performance is performed to sing a song with choreography. .

ステージ4は、例えば、野外ステージ、コンサートホール、ライブハウスなど適宜設定可能である。また、ゲーム内容によっては、学校の体育館の舞台、教室の教壇、トラックの荷台、甲板などのシチュエーションを設定することが可能である。   The stage 4 can be set as appropriate, for example, an outdoor stage, a concert hall, or a live house. Also, depending on the content of the game, it is possible to set situations such as a school gymnasium stage, classroom platform, truck bed, deck, etc.

観覧席6は、ライブステージを観覧する観覧位置であり、1つのライブステージの会場において、1席1名で多数用意されている。そして、観覧席6の配置レイアウトは、ステ
ージ4のデザインに応じて適宜設定可能となっている。なお、図2(A)は、観覧席6が立ち見席として設定されている例を示す。ただし、着席タイプであってもよい。
The viewing seat 6 is a viewing position for viewing the live stage, and a large number of people are prepared for each seat at one live stage venue. The arrangement layout of the auditorium 6 can be appropriately set according to the design of the stage 4. FIG. 2A shows an example in which the viewing seat 6 is set as a standing seat. However, it may be a seating type.

演技を行うアイドルキャラクタ8の性別・年齢・人数の構成は適宜設定可能である。特に、本実施形態では、アイドルキャラクタ8は、図2(A)に示すように、第1アイドルキャラクタ(第1演技キャラクタ)8Aと第2アイドルキャラクタ(第2演技キャラクタ)8Bとの2人組から構成されている。ただし、1人で構成されていてもよいし、3人以上の複数人によるグループによって構成されていてもよい。   The composition of the sex, age, and number of the idle characters 8 performing the performance can be set as appropriate. In particular, in the present embodiment, as shown in FIG. 2A, the idle character 8 is composed of a pair of a first idle character (first acting character) 8A and a second idle character (second acting character) 8B. It is configured. However, it may be composed of one person or a group of three or more persons.

観覧席6には、アイドルのファンとしての役割を有するアバター5が配置され、プレーヤは、外観、容姿又はアイテムなどが設定された少なくとも何れか1体のアバター5と対応づけてゲームに参加する。   An avatar 5 serving as an idol fan is arranged in the auditorium 6, and the player participates in the game in association with at least one of the avatars 5 set in appearance, appearance, item, or the like.

各アバター5は、例えば、図2(B)に示すように、プレーヤ2に装着されたHMDユニット200によって検出されたプレーヤの動作に同期し、かつ、リンクするように自動制御される。   For example, as shown in FIG. 2B, each avatar 5 is automatically controlled so as to be synchronized with and linked to the operation of the player detected by the HMD unit 200 attached to the player 2.

具体的には、アバター5の頭部の姿勢が、HMDユニット200によって検出されたプレーヤ2の頭部姿勢に同期し、HMDユニット200によって検出されたプレーヤの視線方向に基づいて、アバター5の視線が同期し、これらのプレーヤ入力に基づいて、ゲーム空間11内のアバター5が自動制御される。   Specifically, the posture of the head of the avatar 5 is synchronized with the head posture of the player 2 detected by the HMD unit 200, and the line of sight of the avatar 5 is based on the line of sight of the player detected by the HMD unit 200. Are synchronized, and the avatar 5 in the game space 11 is automatically controlled based on these player inputs.

ゲーム空間11内のアバター5の位置には、撮影画角や被写界深度が人の視野角相当に設定された右眼用及び左眼用の仮想カメラが頭部正面を向くように設定されており、それらで撮影した画像が、HMDユニット200(具体的には、後述する右目用表示パネル261及び左目用表示パネル262)にそれぞれ表示される。したがって、プレーヤ2は、頭の向きや姿勢、及び、視線方向を変えることで、アバター5の目を介してゲーム空間11の画像を3次元画像として視認することができるようになっている。   At the position of the avatar 5 in the game space 11, the virtual camera for the right eye and the left eye in which the shooting angle of view and the depth of field are set to be equivalent to the human viewing angle is set so as to face the front of the head. Images taken with these are displayed on the HMD unit 200 (specifically, the right-eye display panel 261 and the left-eye display panel 262 described later), respectively. Therefore, the player 2 can visually recognize the image of the game space 11 as a three-dimensional image through the eyes of the avatar 5 by changing the head direction, posture, and line-of-sight direction.

なお、本実施形態のゲームは、マルチプレー対応可能となっており、観覧席6には、各席にそれぞれ、各プレーヤに対応付けられたアバター5が配置される。ただし、アバター5が配置されない観覧席6であっても、NPCが自動的に配置され、コンピュータによりアイドルのファンとしての行動をとるように自動制御される。   Note that the game of the present embodiment is capable of multi-play, and the avatar 5 associated with each player is arranged in each seat in the viewing seat 6. However, even in the bleacher seat 6 where the avatar 5 is not arranged, the NPC is automatically arranged and is automatically controlled by the computer so as to act as an idol fan.

また、本実施形態のゲームにおいては、各プレーヤに提供される仮想3次元画像には、各プレーヤに対応付けられたアバター5を表示させてもよいし、表示させて無くてもよく、他のプレーヤのアバター5に対しても、同様に、プレーヤに提供される3次元画像には、表示させてもよいし、表示させて無くてもよい。   In the game of this embodiment, the avatar 5 associated with each player may or may not be displayed in the virtual three-dimensional image provided to each player. Similarly, the 3D image provided to the player may or may not be displayed for the avatar 5 of the player.

[2]サーバ装置
まず、図3及び図4を用いて本実施形態のサーバ装置10の概要及び構成について説明する。なお、図3は、本実施形態のサーバ装置10の機能ブロックを示す図であり、図4は、本実施形態の記憶部140に記憶される表示物オブジェクト情報又は表情パーツオブジェクト情報の一例である。また、本実施形態のサーバ装置10は図3の構成要素(各部)の一部を省略した構成としてもよい。
[2] Server Device First, the outline and configuration of the server device 10 of this embodiment will be described with reference to FIGS. 3 and 4. 3 is a diagram showing functional blocks of the server device 10 of the present embodiment, and FIG. 4 is an example of display object information or facial expression part object information stored in the storage unit 140 of the present embodiment. . Moreover, the server apparatus 10 of this embodiment is good also as a structure which abbreviate | omitted a part of component (each part) of FIG.

サーバ装置10は、主に提供するゲームに関する処理を実行するサーバ処理部100、管理者やその他の入力に用いるための入力部120、所定の表示を行う表示部130、主にゲームに用いる各種のデータを記憶する記憶部140、所定の情報が記憶された情報記憶媒体180、及び、端末装置20やその他と通信を行う通信部196を含む。   The server device 10 includes a server processing unit 100 that mainly performs processing related to a game to be provided, an input unit 120 that is used for an administrator and other inputs, a display unit 130 that performs predetermined display, and various types mainly used for games. A storage unit 140 that stores data, an information storage medium 180 that stores predetermined information, and a communication unit 196 that communicates with the terminal device 20 and others are included.

入力部120は、システム管理者等がゲームに関する設定やその他の必要な設定、データの入力に用いるものである。例えば、本実施形態の入力部120は、マウスやキーボード等によって構成される。   The input unit 120 is used by a system administrator or the like for game settings, other necessary settings, and data input. For example, the input unit 120 of this embodiment is configured with a mouse, a keyboard, and the like.

表示部130は、システム管理者用の操作画面を表示するものである。例えば、本実施形態の表示部130は、液晶ディスプレイ等によって構成される。   The display unit 130 displays an operation screen for the system administrator. For example, the display unit 130 of the present embodiment is configured by a liquid crystal display or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などによって構成される。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Or a memory (ROM) or the like.

通信部196は、外部(例えば、端末、他のサーバや他のネットワークシステム)との間で通信を行うための各種制御を行うデバイスであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどによって構成される。   The communication unit 196 is a device that performs various controls for communicating with the outside (for example, a terminal, another server, or another network system), and functions as hardware such as various processors or a communication ASIC. Hardware and programs.

記憶部140は、サーバ処理部100や通信部196などのワーク領域となるもので、その機能は、RAM(VRAM)などによって構成される。なお、記憶部140に記憶される情報は、データベースで管理してもよい。   The storage unit 140 serves as a work area for the server processing unit 100, the communication unit 196, and the like, and its function is configured by a RAM (VRAM) or the like. Note that information stored in the storage unit 140 may be managed in a database.

また、本実施形態においては、記憶部140には、ワーク領域として使用される主記憶部1142と、提供するゲームに関する情報を示すゲーム情報144、提供するゲームに関しプレーヤとしてのユーザに関する情報を示すプレーヤ情報146、表示物オブジェクト及び表情パーツオブジェクト情報に関する情報を示す表示物・表情パーツオブジェクト情報148、及び、ゲーム中に変化する各プレーヤ(具体的には、プレーヤキャラクタであるアバター)と演技キャラクタとの関係性を示す関係性パラメータ(ゲームパラメータ)の算出に用いるテーブルデータ149が記憶される。ただし、記憶部140には、上述の情報の他に、ゲーム演算に必要な各種の情報が記憶される。   Further, in the present embodiment, the storage unit 140 includes a main storage unit 1422 used as a work area, game information 144 indicating information relating to a game to be provided, and a player indicating information relating to a user as a player relating to the provided game. Information 146, display object / expression part object information 148 indicating information related to display object object and expression part object information, and each player (specifically, avatar as a player character) and acting characters that change during the game Table data 149 used for calculating a relationship parameter (game parameter) indicating the relationship is stored. However, the storage unit 140 stores various types of information necessary for the game calculation in addition to the above information.

プレーヤ情報146には、プレーヤ毎にプレーヤIDに対応付けて、氏名、年齢、性別及び課金決済を行う口座情報などのプレーヤ特定情報、プレーヤのゲーム中のレベルや進行状況を示すゲームプレー情報、課金情報が履歴として登録される課金履歴情報が記憶される。   The player information 146 includes player identification information such as name, age, gender, and account information for billing settlement, game play information indicating the level and progress of the game, billing in association with the player ID for each player. Billing history information in which information is registered as a history is stored.

特に、ゲームプレー情報には、アバター情報を含み、当該アバター情報には、基本形状(人、動物又はロボットなどの基本造形(サイズも含む。)、髪型や化粧などの容姿(色彩も含む。)、髪型)、及び、所有するアイテム(衣装、装飾品、所持品(タオルやサイリウム))などのアバターを設定するための各情報が含まれる。   In particular, the game play information includes avatar information, and the avatar information includes basic shapes (including basic shapes (including sizes) such as people, animals, and robots), and appearances (including colors) such as hairstyles and makeup. , Hairstyle) and items for setting avatars such as items (costumes, decorations, personal belongings (towels and psyllium)).

また、課金履歴情報には、課金が実行された日時を示す課金日時、アイテムの購入やお捻りの購入などの課金要素の種別、課金した額を示す課金額などが含まれる。   Further, the charging history information includes a charging date and time indicating the date and time when charging was performed, a type of charging element such as purchase of an item or purchase of a twist, a charging amount indicating a charged amount, and the like.

表示物・表情パーツオブジェクト情報148には、例えば、図4(A)に示すように、表示物オブジェクトの種別毎に、表示物IDに対応付けられて
(A1)表示物オブジェクトの基本仕様を示す基本仕様情報、
(A2)関係性パラメータ範囲毎に基本仕様から変化した変化仕様が規定された複数の表示物オブジェクトの変化仕様情報、
(A3)変化仕様情報毎に、表示物オブジェクトを表示する際の効果音情報、
が規定される。
In the display object / expression part object information 148, for example, as shown in FIG. 4A, for each type of display object, (A1) the basic specification of the display object is shown in association with the display object ID. Basic specification information,
(A2) Change specification information of a plurality of display object objects in which a change specification changed from the basic specification is defined for each relationship parameter range;
(A3) Sound effect information when displaying the display object for each change specification information,
Is defined.

特に、基本仕様情報には、例えば、基準となる表示物オブジェクトの形状、色彩、大きさ又はアニメーションの表示パターン(すなわち、アニメーションパターン)などの1以上の要素に関する情報であって、座標値(ローカル座標)、ピクセル数、RGBの階調値、又は、フレームスピードなどの表示物オブジェクトをゲーム空間上において表示する上で必要な情報が含まれる。   In particular, the basic specification information includes, for example, information on one or more elements such as the shape, color, size, or animation display pattern (that is, animation pattern) of a reference display object, and includes coordinate values (local Information necessary for displaying a display object such as coordinates), the number of pixels, RGB gradation values, or frame speed on the game space is included.

また、変化仕様情報には、関係性パラメータの最小値から最大値までを複数の範囲(以下、「パラメータ範囲」という。)に分けて、パラメータ範囲毎に、基準仕様からの変化量(基準の形状、色彩、大きさ、又は、アニメーションの各要素の差分値)の情報が規定される。   In addition, the change specification information is divided into a plurality of ranges (hereinafter referred to as “parameter ranges”) from the minimum value to the maximum value of the relationship parameter. Information on the shape, color, size, or difference value of each element of the animation) is defined.

なお、図4(A)には、演技キャラクタ又はアバターに用いる表示物ID「001」のハード型表示物オブジェクト「A」に対して関係性パラメータの値(特定の演技キャラクタについて算出された各プレーヤの関係性パラメータの値や当該プレーヤの関係性パラメータと特定の演技キャラクタの関係性パラメータとの合算値)の範囲が規定された第1レベル範囲から第10レベル範囲が設定されており、レベル範囲毎に仕様情報と効果音が規定されていることが示されている。   FIG. 4A shows the value of the relationship parameter (each player calculated for a specific acting character) for the hardware type display object “A” with the display object ID “001” used for the acting character or avatar. The range of the first level to the tenth level in which the range of the relationship parameter value or the sum of the relationship parameter of the player and the relationship parameter of the specific acting character) is defined. It is shown that specification information and sound effects are defined for each.

一方、表示・表情パーツオブジェクト情報148には、例えば、図4(B)に示すように、各アバター又は演技キャラクタの表情を構成する表情パーツオブジェクト、又は、表情パーツオブジェクト群(以下、特に説明した場合を除き「表情パーツオブジェクト」という。)毎に、表情パーツIDに対応付けられて
(B1)表情パーツオブジェクトの基本仕様を示す基本仕様情報、
(B2)関係性パラメータ範囲毎に基本仕様から変化した変化仕様が規定された表情パーツオブジェクトの複数の変化仕様情報、
(B3)変化仕様情報毎に、表情パーツオブジェクトを表示する際の効果音情報、
が規定される。
On the other hand, in the display / expression part object information 148, for example, as shown in FIG. 4B, an expression part object or an expression part object group constituting the expression of each avatar or acting character (hereinafter specifically described). Except for the case, it is referred to as “expression part object”.) (B1) basic specification information indicating the basic specification of the expression part object associated with the expression part ID,
(B2) A plurality of change specification information of the expression part object in which the change specification changed from the basic specification is defined for each relationship parameter range;
(B3) Sound effect information when displaying the expression part object for each change specification information,
Is defined.

特に、基本仕様情報には、例えば、基準となる目(瞳を含む。)、口、眉毛、などの演技キャラクタの表情を形成するための各表情パーツオブジェクトのそれぞれの形状(向きを含む。)、色彩若しくは大きさ、又は、表情パーツオブジェクト群の表示パターン(すなわち、アニメーションパターン)などの1以上の要素に関する情報であって、例えば、座標値(ローカル座標)、ピクセル数、RGBの階調値、又は、フレームスピードなどの表情パーツオブジェクトをゲーム空間上において表示する上で必要な情報が含まれる。   In particular, the basic specification information includes, for example, each shape (including direction) of each expression part object for forming a facial expression of an acting character such as a reference eye (including pupil), mouth, eyebrows, and the like. Information on one or more elements such as a color or size, or a display pattern (that is, an animation pattern) of an expression part object group, for example, coordinate values (local coordinates), number of pixels, RGB gradation values Alternatively, information necessary for displaying the expression part object such as the frame speed on the game space is included.

また、変化仕様情報には、関係性パラメータの最小値から最大値までを複数の範囲(以下、「パラメータ範囲」という。)に分けて、パラメータ範囲毎に、基準仕様からの変化量(基準の形状、色彩、大きさ、又は、アニメーションの各要素の差分値)の情報が規定される。   In addition, the change specification information is divided into a plurality of ranges (hereinafter referred to as “parameter ranges”) from the minimum value to the maximum value of the relationship parameter. Information on the shape, color, size, or difference value of each element of the animation) is defined.

なお、図4(B)には、演技キャラクタ又はアバターに用いる表情パーツID「101」を有する表情パーツオブジェクト群に対して関係性パラメータの値(特定の演技キャラクタについて算出された各プレーヤの関係性パラメータの値や当該プレーヤの関係性パラメータと特定の演技キャラクタの関係性パラメータとの合算値)の範囲が規定された第1レベル範囲から第10レベル範囲が設定されており、レベル範囲毎に仕様情報と効果音が規定されていることが示されている。そして、図4の笑顔「A」の表情パーツオブジェクト群の第1レベル範囲には、基本仕様情報が仕様情報として規定されている場合を示している。   FIG. 4B shows the relationship parameter value (relationship of each player calculated for a specific acting character) with the expression part object group having the expression part ID “101” used for the acting character or avatar. The first level range to the tenth level range in which the range of the parameter value and the relationship parameter of the player and the relationship parameter of the specific acting character) are defined are set. Information and sound effects are specified. 4 shows a case where basic specification information is defined as specification information in the first level range of the expression part object group of smile “A” in FIG.

また、関係性パラメータとは、ゲームの戦略的に若しくは簡易に設定することが可能なパラメータであって、ゲームの進行に従って演技キャラクタの注視中に変化し、各プレーヤと演技キャラクタとの関係性を示すゲームパラメータである。   The relationship parameter is a parameter that can be set strategically or simply for the game. The relationship parameter changes during the gaze of the acting character as the game progresses, and the relationship between each player and the acting character is determined. It is a game parameter shown.

テーブルデータ149には、
(1)各演技キャラクタ及びプレーヤの属性、アバターに設定された外観やアイテム、感情、及び課金額に関する各項目と、各関係性パラメータの値と、が対応付けて規定された戦略用関係性パラメータテーブルと、
(2)演技キャラクタ及びアバターの各動作、これらの各位置及びプレーヤのゲーム履歴情報に関する各項目と、各関係性パラメータの値と、が対応付けて規定されたゲームに連動する連動性関係性パラメータテーブルと、
を含む。
Table data 149 includes
(1) Strategic relationship parameters defined in association with the attributes of each acting character and player, the items related to the appearance and items set in the avatar, emotions, and the charge amount, and the value of each relationship parameter Table,
(2) Linkage relationship parameter linked to a game in which each action character and avatar action, each position and each item related to the game history information of the player, and each relationship parameter value are defined in association with each other Table,
including.

特に、戦略関係性パラメータテーブル及び連動性関係性パラメータテーブルには、アバターの設定、演技キャラクタの演技中、又は、ゲームの履歴に関する関係性パラメータが設定されている項目に対応付けられて各関係性パラメータのポイントが規定されている。   In particular, in the strategic relationship parameter table and the linkage relationship parameter table, each relationship is associated with an item in which a relationship parameter related to avatar setting, acting character performance, or game history is set. Parameter points are specified.

サーバ処理部100は、記憶部140内の主記憶部142をワーク領域として各種処理を行う。サーバ処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The server processing unit 100 performs various processes using the main storage unit 142 in the storage unit 140 as a work area. The functions of the server processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

サーバ処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The server processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, the information storage medium 180 stores a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

例えば、サーバ処理部100(プロセッサ)は、情報記憶媒体180に記憶されているプログラムに基づいて、サーバ装置10全体の制御を行うとともに、ゲーム制御処理、画像生成処理、或いは音生成処理などの処理を行う。   For example, the server processing unit 100 (processor) controls the entire server device 10 based on a program stored in the information storage medium 180, and performs processing such as game control processing, image generation processing, or sound generation processing. I do.

また、サーバ処理部100は、ゲーム制御処理として、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、キャラクタやマップなどのオブジェクト空間(3次元空間)に各種のオブジェクトを配置する処理、オブジェクトを表示する処理、ゲーム結果を演算する処理、或いはゲーム終了条件が満たされた場合にゲームを終了する処理を実行する。   In addition, as the game control process, the server processing unit 100 performs various types of objects in an object space (three-dimensional space) such as a process for starting a game when a game start condition is satisfied, a process for advancing the game, and a character or a map. , A process for displaying an object, a process for calculating a game result, or a process for ending a game when a game end condition is satisfied.

具体的には、本実施形態のサーバ処理部100は、通信制御部101、ユーザ管理部102、パラメータ制御部118、情報取得部104、課金管理部105、ゲーム制御部110、仮想カメラ制御部106と、音生成部107、画像生成部108及びタイマ部160を少なくとも有している。   Specifically, the server processing unit 100 of this embodiment includes a communication control unit 101, a user management unit 102, a parameter control unit 118, an information acquisition unit 104, a charge management unit 105, a game control unit 110, and a virtual camera control unit 106. And at least a sound generation unit 107, an image generation unit 108, and a timer unit 160.

なお、例えば、本実施形態のゲーム制御部110は、本発明のオブジェクト制御手段、管理手段段及び画像制御手段を構成し、情報取得部104は、本発明の受付手段を構成する。また、例えば、本実施形態の仮想カメラ制御部106は、本発明の仮想カメラ制御手段を構成し、画像生成部108は、本発明の画像生成手段を構成する。   For example, the game control unit 110 of the present embodiment constitutes the object control means, the management means stage, and the image control means of the invention, and the information acquisition unit 104 constitutes the reception means of the invention. Further, for example, the virtual camera control unit 106 of the present embodiment constitutes a virtual camera control unit of the present invention, and the image generation unit 108 constitutes an image generation unit of the present invention.

通信制御部101は、端末装置20とネットワークを介してデータを送受信する処理を行う。すなわち、サーバ装置10は、通信制御部101によって端末装置20等から受信したプレーヤの操作情報を含む各種の情報に基づいて各種処理を行う。   The communication control unit 101 performs processing for transmitting and receiving data to and from the terminal device 20 via the network. That is, the server device 10 performs various processes based on various information including player operation information received from the terminal device 20 or the like by the communication control unit 101.

ユーザ管理部102は、ユーザ登録手続きに係る処理及びアカウント(プレーヤID)に紐付けられるデータの記憶管理を行う。   The user management unit 102 performs processing related to the user registration procedure and storage management of data associated with an account (player ID).

具体的には、ユーザ管理部102は、アカウントの付与制御と、ユーザに関する個人情報を登録管理する登録情報管理、アカウントに紐付けられ課金要素の実行に係る対価の支払い原資として使用される仮想口座の設定と入出金制御、当該アカウントのユーザによる課金要素に係る課金履歴の登録、ゲーム進行状況に関するゲームプレー情報をアカウントと紐付けて記憶及び管理を行う。   Specifically, the user management unit 102 controls account assignment, registration information management for registering and managing personal information related to users, and a virtual account that is used as a payment source for consideration associated with the execution of a billing element associated with an account. Setting and deposit / withdrawal control, registration of billing history related to billing elements by the user of the account, and game play information related to the game progress status are stored and managed in association with the account.

情報取得部104は、サーバ処理部100の処理に必要な種々の情報を取得する。即ち、これらの情報の受け付け処理を行う。例えば情報取得部104は、各端末装置20からプレーヤの操作情報を取得する。   The information acquisition unit 104 acquires various information necessary for the processing of the server processing unit 100. That is, the receiving process of these information is performed. For example, the information acquisition unit 104 acquires player operation information from each terminal device 20.

具体的には、情報取得部104は、ゲーム中に端末装置20におけるHMDユニット200の撮像部210によって撮像された画像情報に基づくプレーヤの視線情報、HMDユニット200のモーションセンサ220によって検出された情報(以下、「モーション検出情報」という。)及びゲームの実行中にゲームと連動して入力されるスイッチ入力の情報(以下、「スイッチ入力情報」という。)を含むプレーヤの操作情報を取得する。   Specifically, the information acquisition unit 104 detects the player's line-of-sight information based on image information captured by the imaging unit 210 of the HMD unit 200 in the terminal device 20 during the game, and information detected by the motion sensor 220 of the HMD unit 200. (Hereinafter referred to as “motion detection information”) and switch input information (hereinafter referred to as “switch input information”) input in conjunction with the game during the execution of the game.

特に、情報取得部104は、モーションセンサ220によりプレーヤの頭部についての各3軸の情報をモーション検出情報として取得し、当該取得したモーション検出情報に基づいて、3軸回りでの回転角度を求めることで、プレーヤの頭部が向く方向の情報を視線情報として取得してもよいし、プレーヤの眼球の向きを撮像した撮像情報を取得し、当該取得した撮像情報に対して所定の画像処理を実行しつつ、モーション検出情報に基づいて算出したプレーヤの頭部の方向用いてプレーヤの視線方向を示す視線情報を取得してもよい。   In particular, the information acquisition unit 104 acquires information about each of the three axes about the player's head as motion detection information using the motion sensor 220, and obtains a rotation angle around the three axes based on the acquired motion detection information. Thus, information on the direction in which the player's head is directed may be acquired as line-of-sight information, or imaging information obtained by imaging the orientation of the player's eyeball is acquired, and predetermined image processing is performed on the acquired imaging information. While executing, the line-of-sight information indicating the line-of-sight direction of the player may be acquired using the direction of the head of the player calculated based on the motion detection information.

なお、情報取得部104は、端末装置20の入力部260(例えば、ゲームコントローラ)からの操作情報に基づいて、視線情報を取得してもよい。例えば、情報取得部104は、入力部260に設けられた方向指示キー、アナログスティック又は操作ボタン等をプレーヤが操作することで得られた操作情報に基づいて、視線情報を取得(特定)してもよい。   Note that the information acquisition unit 104 may acquire line-of-sight information based on operation information from the input unit 260 (for example, a game controller) of the terminal device 20. For example, the information acquisition unit 104 acquires (identifies) line-of-sight information based on operation information obtained by the player operating a direction instruction key, an analog stick, an operation button, or the like provided in the input unit 260. Also good.

また、モーションセンサ220のモーション検出情報に加えて、図示しない発光部の複数の発光素子(LED)を図示しない撮像部により撮像した画像を用いて、プレーヤの視線情報を取得してもよい。   Further, in addition to the motion detection information of the motion sensor 220, the line-of-sight information of the player may be acquired using an image obtained by imaging a plurality of light emitting elements (LEDs) of a light emitting unit (not shown) by an imaging unit (not shown).

さらに、HMDユニット200のモーション検出情報以外の情報を用いてプレーヤの視線情報を検出してもよい。例えば、図示しない撮像部に、3次元空間でのデプス情報(奥行き情報)を検出できるデプスセンサを設け、カラー画像センサからのカラー画像とデプスセンサからのデプス情報を用いて、プレーヤのスケルトン情報を抽出し、抽出されたスケルトン情報を用いてプレーヤの視線情報を取得してもよい。   Further, the line-of-sight information of the player may be detected using information other than the motion detection information of the HMD unit 200. For example, a depth sensor capable of detecting depth information (depth information) in a three-dimensional space is provided in an imaging unit (not shown), and the skeleton information of the player is extracted using the color image from the color image sensor and the depth information from the depth sensor. The line-of-sight information of the player may be acquired using the extracted skeleton information.

課金管理部105は、プレーヤ毎に、対象プレーヤの指示に基づいてゲーム中の課金要素における課金処理を実行し、課金に関する情報(すなわち、課金情報)を課金履歴としてプレーヤ情報146に記憶する処理(以下、「課金処理」という。)を実行する。   The charging management unit 105 executes, for each player, a charging process in a charging element during the game based on an instruction from the target player, and stores charging information (that is, charging information) in the player information 146 as a charging history ( Hereinafter, it is referred to as “charging process”).

特に、本実施形態においては、課金要素としては、アバターの外観などの身支度(例えば、化粧、衣装又はアイテムなど)させるために課金した課金額、演技キャラクタに所定のアイテム(例えば、プレゼントやお捻り)を提供する際に課金した額、及び、コンティ
ニューやガチャなどのゲームを実行する上で課金した額に応じたパラメータが含まれる。
In particular, in the present embodiment, as a billing element, a billing amount charged to make a dressing degree such as the appearance of an avatar (for example, makeup, a costume or an item), a predetermined item (for example, a present or a twist) ) And a parameter corresponding to the amount charged for executing a game such as continue or gacha.

また、課金管理部105は、課金情報が履歴として登録されている課金履歴情報に基づいて、プレーヤ毎にゲーム実行中の累積課金額を算出する。   Further, the charge management unit 105 calculates the accumulated charge amount during the game execution for each player based on the charge history information in which the charge information is registered as a history.

なお、課金管理部105は、課金処理としては、仮想通貨やポイントの使用又はクレジットカードやプリペイドカードを使用することによって課金を要求し、プレーヤの指示にもとづいて、各課金処理を実行する。   The billing management unit 105 requests billing by using virtual currency or points or using a credit card or prepaid card as billing processing, and executes each billing process based on a player instruction.

ゲーム制御部110は、ゲームの実行管理に係る各種処理を行う。本実施形態のゲーム制御部110は、端末装置20と通信を行いつつ、ゲームプレーに必要なデータを提供する制御を行う。   The game control unit 110 performs various processes related to game execution management. The game control unit 110 of the present embodiment performs control to provide data necessary for game play while communicating with the terminal device 20.

具体的には、ゲーム制御部110は、ゲーム実行制御部111、観覧席設定部112、アバター設定部113、オブジェクト制御部114、アバター視線制御部115、視線合わせ検知部116、特別制御実行部117、パラメータ制御部118及び通知画像制御部119を含む。   Specifically, the game control unit 110 includes a game execution control unit 111, a seat setting unit 112, an avatar setting unit 113, an object control unit 114, an avatar line-of-sight control unit 115, a line-of-sight detection unit 116, and a special control execution unit 117. A parameter control unit 118 and a notification image control unit 119.

なお、例えば、本実施形態の通知画像制御部119は、オブジェクト制御部114及び特別制御実行部117と連動して本発明のオブジェクト制御手段、管理手段、画像制御手段及び制御処理手段を構成する。   For example, the notification image control unit 119 of this embodiment constitutes the object control unit, management unit, image control unit, and control processing unit of the present invention in conjunction with the object control unit 114 and the special control execution unit 117.

ゲーム実行制御部111は、演技キャラクタの演技を含む、当該演技の開始処理及び終了処理、並びに、各ゲームの実行する処理を含むゲームの実行に関する各種の処理を実行する。   The game execution control unit 111 executes various processes related to the execution of the game including the performance start process and the end process including the performance of the performance character, and the process executed by each game.

特に、ゲーム実行制御部111は、演技キャラクタの演技を含むゲームを実行する際に、演技キャラクタが演技を行うゲーム空間におけるライブステージをプレーヤの操作入力に基づいて設定するとともに、設定したライブステージにおいて演技キャラクタが演技するためのパフォーマンス中(すなわち、演技中)の楽曲の再生及び照明などの各種の制御を実行する。   In particular, the game execution control unit 111 sets a live stage in a game space in which the acting character performs, based on the operation input of the player, when executing a game including the acting of the acting character. Various controls such as reproduction and lighting of music during performance (that is, during performance) for the acting character to perform are executed.

観覧席設定部112は、プレーヤの操作入力に基づいて、ゲーム実行制御部111により設定されたライブステージにおけるプレーヤのアバターの配置位置、すなわち、ステージの観覧位置を設定し、当該観覧位置に該当するプレーヤの視点となる仮想カメラ(右目用及び左目用)を設定する。   The seat setting unit 112 sets the arrangement position of the player's avatar on the live stage set by the game execution control unit 111 based on the player's operation input, that is, the viewing position of the stage, and corresponds to the viewing position. A virtual camera (for the right eye and for the left eye) that is the viewpoint of the player is set.

本実施形態の観覧席設定部112は、ライブステージの開催に先立って観覧席として予約指定を行うことによって観覧位置を設定する。   The seat setting unit 112 of the present embodiment sets the viewing position by making a reservation designation as a seat before the live stage is held.

アバター設定部113は、プレーヤの操作入力に基づいて、当該プレーヤに対応づけられるアバターを設定し、設定したアバターをプレーヤ情報146に登録する。   The avatar setting unit 113 sets an avatar associated with the player based on the operation input of the player, and registers the set avatar in the player information 146.

具体的には、アバター設定部113は、プレーヤの操作に基づいて、基本形状(人、動物又はロボットなどの基本造形(サイズも含む。)、髪型や化粧などの容姿(色彩も含む。)、髪型)、及び、所有するアイテム(衣装、装飾品、所持品(タオルやサイリウム))などのアバターに身支度させるための設定を行う。   Specifically, the avatar setting unit 113 performs basic shapes (basic shapes (including sizes) of people, animals, robots, etc.), appearances (including colors) of hairstyles and makeup, based on player operations. Hairstyle) and items to be owned (costumes, decorations, personal belongings (towels and psyllium)) are set to prepare for avatars.

また、アバター設定部113は、予め定められたパーツなどを選択させることによってアバターに身支度させるための設定を行う。なお、課金によってアバターを設定する場合
には、アバター設定部113は、課金が生じた部分については課金管理部105と連動してアバターの設定を実行する。
Moreover, the avatar setting part 113 performs the setting for making an avatar be dressed by selecting a predetermined part etc. When avatars are set by billing, the avatar setting unit 113 performs avatar setting in conjunction with the billing management unit 105 for the portion for which billing has occurred.

なお、アバターの外観の構成要素やアイテムにおいては、使用期限が設定されており、アバター設定部113は、プレーヤが既に所有しているものであっても、使用期限が到来しているものについては、たとえプレーヤの設定指示が入力されたとしても設定不能に制御する。   In addition, the expiration date is set in the components and items of the appearance of the avatar, and the avatar setting unit 113 does not have the expiration date even if it is already owned by the player. Even if a player setting instruction is input, control is performed such that setting is impossible.

一方、アバター設定部113は、プレーヤの操作に基づいて、実空間に実在する衣装や装備品(演技キャラクタへのプレゼントやお捻りを含む)などの実在する物品に対応付けたアイテムを、アバターに設定することが可能な構成を有している。   On the other hand, the avatar setting unit 113 assigns items associated with actual articles such as costumes and equipment (including presents and twists to acting characters) that exist in the real space to the avatar based on the player's operation. It has a configuration that can be set.

具体的には、アバター設定部113は、例えば、プレーヤの操作によって端末装置20から送信された物品に付与された商品番号や2次元バーコードのコード情報などの識別情報を取得すると、当該識別情報に対応付けられた、当該物品がデジタル化されているアイテムを、該当するアバターに設定することが可能な構成を有している。   Specifically, for example, when the avatar setting unit 113 acquires identification information such as a product number assigned to an article transmitted from the terminal device 20 by a player's operation or code information of a two-dimensional barcode, the identification information It is possible to set an item associated with the item in which the article is digitized as a corresponding avatar.

なお、アイテムについては、実在する物品に代えて、ゲームカードなどの媒体によって提供されてもよく、お捻りなどの概念的なアイテムについても、同様にゲームカードなどの媒体によって提供される。   Note that items may be provided by a medium such as a game card instead of an actual article, and conceptual items such as twists are similarly provided by a medium such as a game card.

また、お捻りなどの演技キャラクタの演技中などのゲーム中に使用する場合には、アバター設定部113は、プレーヤの操作に基づいて、ゲーム開始前に、予めアイテムとしてプレーヤ情報146に登録することが可能な構成を有している。   In addition, when used during a game such as a performance of an acting character such as twisting, the avatar setting unit 113 registers in advance in the player information 146 as an item before the game starts based on the operation of the player. It has a configuration that can.

オブジェクト制御部114は、複数のオブジェクトが配置されるオブジェクト空間(3次元仮想空間であるゲーム空間)の設定処理を行う。例えば、キャラクタ(人、動物、ロボット等)、マップ(地形)、建物、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   The object control unit 114 performs processing for setting an object space (a game space that is a three-dimensional virtual space) in which a plurality of objects are arranged. For example, various objects representing display objects such as characters (people, animals, robots, etc.), maps (terrain), buildings, courses (roads), trees, walls, water surfaces (primitive surfaces such as polygons, free-form surfaces or subdivision surfaces) The object is arranged and set in the object space. In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Arrange objects.

具体的には、記憶部170には、オブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等のデータであるオブジェクトデータがオブジェクト番号に対応づけて記憶される。また、オブジェクト制御部114は、例えば、フレーム毎にこのオブジェクトデータを更新する処理などを行う。   Specifically, the storage unit 170 stores object data that is data such as the position, rotation angle, moving speed, and moving direction of an object (part object) in association with the object number. Further, the object control unit 114 performs a process of updating the object data for each frame, for example.

また、オブジェクト制御部114は、演技キャラクタを含む各種のオブジェクトの配置及び当該演技キャラクタ及びアバターなどの各種のオブジェクトのゲーム空間内の移動を含めた動きを制御する。   The object control unit 114 also controls the movement of various objects including the acting character and the movement of the various objects such as the acting character and the avatar in the game space.

特に、オブジェクト制御部114は、演技キャラクタ毎に、演技パフォーマンス中を含むゲーム中のステージ上での顔の向き、目の動き、視線方向、体の向き、セリフを含む各部位の動き(振り付け)を制御する。   In particular, the object control unit 114 performs movement (choreography) of each part including the face direction, eye movement, line-of-sight direction, body direction, and lines on the stage in the game including during the performance for each acting character. To control.

また、オブジェクト制御部114は、各プレーヤのプレーヤキャラクタを各プレーヤのゲーム空間における位置に配置するとともに、各プレーヤの視線方向を含むプレーヤ入力に基づいて、又は、ゲーム状況に応じて各プレーヤキャラクタであるアバターの動きを制
御する。
Further, the object control unit 114 arranges the player character of each player at a position in the game space of each player, and uses each player character based on the player input including the viewing direction of each player or according to the game situation. Control the movement of an avatar.

アバター視線制御部115は、端末装置20から出力されたプレーヤの操作入力である視線入力に基づいて、当該プレーヤに対応づけられる仮想カメラの姿勢を制御してアバターの視線を制御する。   The avatar line-of-sight control unit 115 controls the avatar's line of sight by controlling the posture of the virtual camera associated with the player based on the line-of-sight input that is the operation input of the player output from the terminal device 20.

視線合わせ検知部116は、演技キャラクタの視線とアバターのゲーム空間内における視線とが合った状態、すなわち「視線合わせ状態」を検知するための所与の視線対向条件を満たしたことを、アバター毎及び演技キャラクタ毎に検知する。   The line-of-sight detection unit 116 determines that a given line-of-sight facing condition for detecting a state in which the line of sight of the acting character matches the line of sight of the avatar in the game space, that is, the “line-of-sight alignment state” is satisfied. And it detects for every acting character.

特別制御実行部117は、関係性パラメータに基づいて、演技キャラクタの特別制御の実行の可否を判定し、その結果に基づいて当該特別制御の実行を行う。   The special control execution unit 117 determines whether or not to perform the special control of the acting character based on the relationship parameter, and executes the special control based on the result.

特に、演技キャラクタの特別制御としては、
(1)演技キャラクタの視線をアバターに向ける頻度を向上させること、
(2)当該演技キャラクタの視線をアバターに向ける機会を特別に設けること(ウィンク、投げキッス、手振り、両手によるハートの作成など)、
(3)アバターとの接触機会を設けること、
(4)当該演技キャラクタが決めセリフ又は決めポーズをアバターに向かって行うこと、又は、
(5)(1)〜(4)のうち、2以上の制御を行うこと、
が含まれる。
In particular, as a special control of acting characters,
(1) Improving the frequency of directing the acting character's line of sight toward the avatar;
(2) Provide a special opportunity to turn the acting character's line of sight toward the avatar (wink, throwing kiss, hand gesture, creating a heart with both hands, etc.)
(3) Establishing contact opportunities with avatars,
(4) The acting character performs a determined speech or determined pose toward the avatar, or
(5) performing two or more controls among (1) to (4),
Is included.

パラメータ制御部118は、プレーヤの属性や課金状況などのプレーヤ毎に設定されるパラメータであってゲームの戦略的に若しくは簡易に設定することが可能なパラメータを含む、ゲームの進行に従って演技キャラクタの注視中に変動する関係性パラメータを制御する。   The parameter control unit 118 pays attention to the acting character as the game progresses, including parameters that are set for each player, such as player attributes and charging status, and that can be set strategically or simply for the game. Control the relationship parameter that fluctuates in.

特に、パラメータ制御部118は、各プレーヤに設定された各種のゲームパラメータを関係性パラメータの一部として用いるとともに、演技中に演技キャラクタとの関係性によって変動するパラメータを含めて各プレーヤの関係性パラメータとして制御する。   In particular, the parameter control unit 118 uses various game parameters set for each player as a part of the relationship parameter, and includes the parameters that vary depending on the relationship with the acting character during the performance. Control as a parameter.

また、パラメータ制御部118は、演技キャラクタに予め設定されたゲームパラメータを管理するとともに、演技中に当該ゲームパラメータの変動を関係性パラメータの変動として制御する。   In addition, the parameter control unit 118 manages game parameters set in advance for the acting character, and controls the variation of the game parameter as the variation of the relationship parameter during the performance.

そして、パラメータ制御部118は、所定のタイミングにおける各プレーヤの関係性パラメータや演技キャラクタの関係性パラメータを算出し、又は、当該プレーヤの関係性パラメータと演技キャラクタに設定されている関係性パラメータとの合算値を関係性パラメータとして算出する。   Then, the parameter control unit 118 calculates the relationship parameter of each player and the relationship parameter of the acting character at a predetermined timing, or the relationship parameter of the player and the relationship parameter set for the acting character. The total value is calculated as a relationship parameter.

通知画像制御部119は、演技キャラクタの演技中又は所定のタイミングに、演技キャラクタ及びプレーヤ(具体的には、アバター)の少なくともいずれか一方の関係性パラメータに応じて、プレーヤが演技キャラクタと意思疎通が図れているか否かなどの当該演技キャラクタとそれぞれのプレーヤとの関係性を可視化(画像化)するための表示物オブジェクトを、ゲーム画面上であって、演技キャラクタの近傍に表示制御(画像化処理)する表示物オブジェクトの様態制御処理を実行する。   The notification image control unit 119 communicates with the acting character during the performance of the acting character or at a predetermined timing according to the relationship parameter of at least one of the acting character and the player (specifically, the avatar). The display object for visualizing (imaging) the relationship between the acting character and each player, such as whether or not the character is designed, is displayed on the game screen in the vicinity of the acting character (imaged) Process) The state control process of the display object to be executed is executed.

特に、通知画像制御部119は、表示物オブジェクトの様態制御処理としては、ゲーム空間内の演技キャラクタ近傍に配置する表示制御を実行してもよいし、仮想カメラを視点
にして画像化されたゲーム空間の画像上に重畳させて表示する表示制御(画像化処理)を実行してもよい。
In particular, the notification image control unit 119 may execute display control arranged in the vicinity of the acting character in the game space as the state control process of the display object, or a game imaged from the viewpoint of the virtual camera. Display control (imaging processing) may be executed to display the image superimposed on the image of the space.

一方、通知画像制御部119は、演技キャラクタの演技中又は所定のタイミングに、演技キャラクタ及びプレーヤ(具体的には、アバター)の少なくともいずれか一方の関係性パラメータに応じて、プレーヤが演技キャラクタと意思疎通が図れているか否かなどの当該演技キャラクタとそれぞれのプレーヤとの関係性を可視化(画像化)するための表情パーツオブジェクトを制御する表情パーツオブジェクトの様態制御処理を含む演技キャラクタ様態制御処理を実行する。   On the other hand, the notification image control unit 119 determines whether the player and the acting character are in accordance with the relationship parameter of at least one of the acting character and the player (specifically, an avatar) during the acting of the acting character or at a predetermined timing. Acting character modal control processing, including facial expression part object modal control processing for controlling facial expression part objects for visualizing (imaging) the relationship between the acting character and each player, such as whether communication is possible Execute.

他方、通知画像制御部119は、演技キャラクタの演技中又は所定のタイミングに、他のプレーヤにおける当該演技キャラクタと当該他のプレーヤとの関連性を示すパラメータを、当該他のプレーヤキャラクタに関連付けて画像化する画像化処理(以下、「プレーヤパラメータ画像化処理」という。)を実行する。   On the other hand, the notification image control unit 119 associates a parameter indicating the relationship between the acting character and the other player in another player with the other player character while the acting character is performing or at a predetermined timing. Imaging processing (hereinafter referred to as “player parameter imaging processing”) is executed.

例えば、通知画像制御部119は、関連性パラメータに応じて変化する所与の表示物オブジェクトを画像化し、又は、他のプレーヤキャラクタの表情や動きなど当該関連性パラメータに応じて変化するプレーヤキャラクタの様態若しくは当該様態の変化を画像化するプレーヤパラメータ画像化処理を実行する。   For example, the notification image control unit 119 images a given display object that changes according to the relevance parameter, or the player character that changes according to the relevance parameter such as the expression or movement of another player character. A player parameter imaging process for imaging a mode or a change in the mode is executed.

仮想カメラ制御部106は、オブジェクト空間内の所与(任意)の視点(本実施形態においてはプレーヤオブジェクトが配置される位置)から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。   The virtual camera control unit 106 is a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the object space (position where the player object is arranged in the present embodiment). Perform control processing.

具体的には、仮想カメラの位置(X、Y、Z)又は回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。   Specifically, processing for controlling the position (X, Y, Z) or rotation angle (rotation angle about the X, Y, Z axis) of the virtual camera (processing for controlling the viewpoint position, the line-of-sight direction or the angle of view) I do.

画像生成部108は、サーバ処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、生成した画像データを端末装置20に送信する。   The image generation unit 108 performs drawing processing based on the results of various processing (game processing and simulation processing) performed by the server processing unit 100, thereby generating an image, and transmits the generated image data to the terminal device 20. To do.

具体的には、画像生成部108は、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、図示しない描画バッファ(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   Specifically, the image generation unit 108 performs geometry processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing, and draws data ( The position coordinates, texture coordinates, color data, normal vector, α value, etc.) of the vertexes of the primitive surface are created. Based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after the perspective transformation (after the geometry processing) is converted into image information in a pixel unit such as a drawing buffer (frame buffer, work buffer, etc.) not shown. Is drawn in a buffer that can store Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

なお、画像生成部108で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。   Note that the drawing processing performed by the image generation unit 108 can be realized by vertex shader processing, pixel shader processing, or the like.

そして、画像生成部108は、HMDユニット200を装着したプレーヤの両眼に所定量の視差を有するゲーム空間の画像を視認させて立体視を実現するための視差画像(右目用及び左目用)を生成する。   Then, the image generator 108 generates parallax images (for the right eye and for the left eye) for realizing stereoscopic viewing by visually recognizing a game space image having a predetermined amount of parallax with both eyes of the player wearing the HMD unit 200. Generate.

音生成部107は、サーバ処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、通信部196を介してHMDユニット200(具体的には音出力部240)に出力する。   The sound generation unit 107 performs sound processing based on the results of various processes performed by the server processing unit 100, generates game sounds such as BGM, sound effects, and voices, and the HMD unit 200 via the communication unit 196. (Specifically, the sound is output to the sound output unit 240).

振動生成部150は、サーバ処理部100で行われる種々の処理の結果に基づいて、端末装置20に設けられた振動体341を振動させるパターンを制御する制御データを生成し、端末装置20に出力する。   The vibration generation unit 150 generates control data for controlling a pattern for vibrating the vibrating body 341 provided in the terminal device 20 based on the results of various processes performed by the server processing unit 100 and outputs the control data to the terminal device 20. To do.

タイマ部160は、システムクロックを利用して現在日時や制限時間、ゲーム進行制御の時間管理などのタイマ値を計測する処理を実行するための計時を行う。   The timer unit 160 uses the system clock to measure time for executing processing for measuring timer values such as the current date and time, time limit, and time management for game progress control.

[3]端末装置
次に、図5及び図6を用いて本実施形態の端末装置20について説明する。なお、図5は、本実施形態の端末装置20の機能ブロックを示す図であり、図6は、本実施形態における端末装置20の外観構成を示す図の一例である。また、本実施形態の端末装置20は、図5の構成要素(各部)の一部を省略した構成としてもよい。
[3] Terminal Device Next, the terminal device 20 of this embodiment will be described with reference to FIGS. 5 and 6. FIG. 5 is a diagram illustrating functional blocks of the terminal device 20 according to the present embodiment, and FIG. 6 is an example of a diagram illustrating an external configuration of the terminal device 20 according to the present embodiment. Moreover, the terminal device 20 of this embodiment is good also as a structure which abbreviate | omitted a part of component (each part) of FIG.

HMDユニット200は、装着されたプレーヤの視線を検出する撮像部210と、当該プレーヤの頭部位置及び方向を含む姿勢を検出するモーションセンサ220と、インターフェース230と、音出力部240と、スイッチ250と、から構成される。   The HMD unit 200 includes an imaging unit 210 that detects the line of sight of a player that is mounted, a motion sensor 220 that detects a posture including the head position and direction of the player, an interface 230, a sound output unit 240, and a switch 250. And.

HMDユニット200は、装着されたプレーヤの視線を検出する撮像部210と、当該プレーヤの頭部位置及び方向を含む姿勢を検出するモーションセンサ220と、インターフェース230と、音出力部240と、スイッチ250と、から構成される。   The HMD unit 200 includes an imaging unit 210 that detects the line of sight of a player that is mounted, a motion sensor 220 that detects a posture including the head position and direction of the player, an interface 230, a sound output unit 240, and a switch 250. And.

また、HMDユニット200は、図6(A)及び(B)に示すように、端末制御ユニット300を保持し、かつ、プレーヤによって装着される構造を有している。   Further, as shown in FIGS. 6A and 6B, the HMD unit 200 has a structure that holds the terminal control unit 300 and is attached by a player.

そして、HMDユニット200は、HMDである端末装置20を装着したプレーヤの両眼に所定量の視差を有するゲーム空間の画像を視認させて立体視を実現するための表示パネル(右眼用)261及び表示パネル(左眼用)262を有し、端末装置20に表示された右眼用視差画像及び左眼用視差画像を表示させる構造を有している。   The HMD unit 200 displays a game space image having a predetermined amount of parallax with both eyes of the player wearing the terminal device 20 that is an HMD to realize a stereoscopic view (for the right eye) 261. And a display panel (for the left eye) 262, and has a structure for displaying the parallax image for the right eye and the parallax image for the left eye displayed on the terminal device 20.

なお、立体視を実現するための視差画像については、従来の3次元動画像と同様であるため、詳細の説明を省略する。また、図6(B)は、端末装置20から音出力部240を省略した図である。   Note that a parallax image for realizing stereoscopic vision is the same as a conventional three-dimensional moving image, and thus detailed description thereof is omitted. FIG. 6B is a diagram in which the sound output unit 240 is omitted from the terminal device 20.

撮像部210は、HMDユニット200を装着したプレーヤの目(目の動き)を撮像し、その視線方向を検出し、当該検出に応じた信号を出力する。   The imaging unit 210 images the eyes (eye movements) of the player wearing the HMD unit 200, detects the line-of-sight direction, and outputs a signal corresponding to the detection.

また、撮像部210は、CCDなどの所定の撮像素子及びレンズなどの光学系を有する撮像カメラ211と、撮像カメラの出力に基づいて撮像した対象物を画像化して端末制御ユニット300に画像データとして出力する画像生成部212と、から構成される。   In addition, the imaging unit 210 converts the imaging camera 211 having a predetermined imaging element such as a CCD and an optical system such as a lens, and an object captured based on the output of the imaging camera into the terminal control unit 300 as image data. And an image generation unit 212 to output.

モーションセンサ220は、例えば加速度センサやジャイロセンサなどにより実現される。例えば、モーションセンサ220は、加速度センサとジャイロセンサによって、X、Y、Z軸の3軸回りでのプレーヤの頭部(HMD)の回転運動、具体的には、各X、Y、Z軸回りでの回転角度や角速度等を検出する。   The motion sensor 220 is realized by, for example, an acceleration sensor or a gyro sensor. For example, the motion sensor 220 uses the acceleration sensor and the gyro sensor to rotate the player's head (HMD) about the X, Y, and Z axes, specifically, about the X, Y, and Z axes. The rotation angle, angular velocity, etc. are detected.

インターフェース230は、例えば、HDMI(High−Difinition Multimedia Interface/登録商標)、USB(Universal Serial Bus/登録商標)等の有線による入出力インターフェース、又は、Bluetooth(登録商標)、若しくは、IEEE802.11a、g、n、ac等の無線インターフェースであり、端末制御ユニット300(具体的には通信部296)と、有
線又は無線によって通信を実行するための機能を有している。
The interface 230 is, for example, a wired input / output interface such as HDMI (High-Definition Multimedia Interface / registered trademark), USB (Universal Serial Bus / registered trademark), Bluetooth (registered trademark), or IEEE 802.11a, g. , N, ac, and the like, and has a function for executing communication with the terminal control unit 300 (specifically, the communication unit 296) by wire or wirelessly.

また、インターフェース230は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより構成される。   The interface 230 is configured by hardware such as a communication ASIC or a communication processor, or communication firmware.

音出力部240は、サーバ処理部100により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドホンなどのハードウェアにより実現できる。   The sound output unit 240 outputs the sound generated by the server processing unit 100, and its function can be realized by hardware such as a speaker or headphones.

スイッチ250は、端末制御ユニット300のスイッチに連動し、HMDユニット200の装着中に、所定の操作入力を行うために用いられる。   The switch 250 is interlocked with the switch of the terminal control unit 300 and is used for performing a predetermined operation input while the HMD unit 200 is mounted.

端末制御ユニット300は、入力部260、記憶部270、情報記憶媒体280、表示部290、通信部296、振動部340及び端末処理部によって構成されている。   The terminal control unit 300 includes an input unit 260, a storage unit 270, an information storage medium 280, a display unit 290, a communication unit 296, a vibration unit 340, and a terminal processing unit.

入力部260は、ユーザからの入力情報を入力するための機器であり、ユーザの入力情報を端末処理部310に出力する。本実施形態の入力部260は、ユーザの入力情報(入力信号)を検出する構成を有している。例えば、入力部260は、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイ、キーボード、マウスなどによって構成される。   The input unit 260 is a device for inputting input information from the user, and outputs the user input information to the terminal processing unit 310. The input unit 260 of the present embodiment has a configuration for detecting user input information (input signal). For example, the input unit 260 includes a lever, a button, a steering, a microphone, a touch panel display, a keyboard, a mouse, and the like.

なお、本実施形態の入力部260は、表示部290に形成されたタッチパネルによって形成されている。   Note that the input unit 260 of the present embodiment is formed by a touch panel formed on the display unit 290.

一方、入力部260は、入力部260は、プレーヤの音声指示を認識するため当該プレーヤの音声を集音するためのマイクを備えていてもよいし、撮像カメラによって構成されていてよい。   On the other hand, the input unit 260 may include a microphone for collecting the voice of the player in order to recognize the voice instruction of the player, or may be configured by an imaging camera.

特に、撮像カメラは、アバターに設定するアイテムやゲームで使用するアイテムを、実在する物品をデジタル化して用いる場合に、当該物品を特定するための識別情報として2次元バーコードを画像化するために設けられている。   In particular, when an imaging camera uses an item set in an avatar or an item used in a game by digitizing an existing article, the imaging camera images a two-dimensional barcode as identification information for identifying the article. Is provided.

また、入力部260は、上記の他に、加速度センサや視線検出センサなどを備えていてもよい。なお、加速度センサや視線検出センサは、HMDユニット200に設けられた撮像部210やモーションセンサ220の代わりに機能してもよい。   In addition to the above, the input unit 260 may include an acceleration sensor, a line-of-sight detection sensor, and the like. Note that the acceleration sensor and the line-of-sight detection sensor may function instead of the imaging unit 210 and the motion sensor 220 provided in the HMD unit 200.

記憶部270は、端末処理部310や通信部296などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。そして、本実施形態の記憶部270は、ワーク領域として使用される主記憶部271と、最終的な表示画像等が記憶される画像バッファ272とを含む。なお、これらの一部を省略する構成としてもよい。   The storage unit 270 serves as a work area for the terminal processing unit 310, the communication unit 296, and the like, and its function can be realized by a RAM (VRAM) or the like. The storage unit 270 of the present embodiment includes a main storage unit 271 used as a work area, and an image buffer 272 that stores a final display image and the like. Note that some of these may be omitted.

情報記憶媒体280(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。   The information storage medium 280 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM).

端末処理部310は、情報記憶媒体280に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体280には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。   The terminal processing unit 310 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 280. The information storage medium 280 can store a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute the processing of each unit).

なお、本実施形態では、サーバ装置10が有する情報記憶媒体180や記憶部140に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやゲームデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体280に記憶する。サーバ装置10から受信したプログラムやデータを記憶部270に記憶してもよい。このようにプログラムやデータを受信してネットワークシステムを機能させる場合も本発明の範囲内に含む。   In the present embodiment, a program or game data for causing a computer to function as each unit of the present embodiment stored in the information storage medium 180 or the storage unit 140 included in the server device 10 is received via a network. The received program and data are stored in the information storage medium 280. The program and data received from the server device 10 may be stored in the storage unit 270. The case where the network system is functioned by receiving programs and data as described above is also included in the scope of the present invention.

表示部290は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。   The display unit 290 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like.

例えば、表示部290は、サーバ装置10から送信された視差画像をHMDユニット200が装着された際の右目用表示パネル261及び左目用表示パネル262の位置に表示する。なお、本実施形態においては、表示部290は、タッチパネル型ディスプレイによって形成されている。   For example, the display unit 290 displays the parallax image transmitted from the server device 10 at the position of the right-eye display panel 261 and the left-eye display panel 262 when the HMD unit 200 is attached. In the present embodiment, the display unit 290 is formed by a touch panel display.

通信部296は、サーバ装置10などの外部との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 296 performs various controls for communicating with the outside such as the server apparatus 10, and the function can be realized by hardware such as various processors or communication ASICs, programs, and the like.

端末処理部310(プロセッサ)は、入力部260やHMDユニット200から出力された入力情報やプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。   The terminal processing unit 310 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on input information and programs output from the input unit 260 and the HMD unit 200.

具体的には、端末処理部310は、記憶部270内の主記憶部271をワーク領域として各種処理を行う。端末処理部310の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   Specifically, the terminal processing unit 310 performs various processes using the main storage unit 271 in the storage unit 270 as a work area. The functions of the terminal processing unit 310 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

なお、端末処理部310は、通信制御部311、ゲーム処理部312、描画部320、音処理部330を含む。なおこれらの一部を省略する構成としてもよい。   The terminal processing unit 310 includes a communication control unit 311, a game processing unit 312, a drawing unit 320, and a sound processing unit 330. Note that some of these may be omitted.

通信制御部311は、サーバ装置10とデータを送受信する処理を行う。また、通信制御部311は、サーバ装置10から受信したデータを記憶部270に格納する処理、受信したデータを解析する処理、その他のデータの送受信に関する制御処理等を行う。   The communication control unit 311 performs processing for transmitting / receiving data to / from the server device 10. In addition, the communication control unit 311 performs processing for storing data received from the server device 10 in the storage unit 270, processing for analyzing the received data, control processing for other data transmission / reception, and the like.

なお、通信制御部311は、サーバの宛先情報(IPアドレス、ポート番号)を情報記憶媒体280に記憶し、管理する処理を行うようにしてもよい。また、通信制御部311は、ユーザからの通信開始の入力情報を受け付けた場合に、サーバ装置10との通信を行うようにしてもよい。   Note that the communication control unit 311 may store the server destination information (IP address, port number) in the information storage medium 280 and perform a management process. Further, the communication control unit 311 may perform communication with the server device 10 when receiving input information for starting communication from the user.

ゲーム処理部312は、種々のゲーム演算処理を行う。例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The game processing unit 312 performs various game calculation processes. For example, there are a process for starting a game when a game start condition is satisfied, a process for advancing the game, and a process for ending a game when a game end condition is satisfied.

また、ゲーム処理部312は、サーバ装置10におけるゲーム処理の一部を実行してもよいし、当該サーバ装置10と連動して所定のゲーム処理を実行してもよい。   In addition, the game processing unit 312 may execute part of the game processing in the server device 10 or may execute predetermined game processing in conjunction with the server device 10.

描画部320は、端末処理部310で行われる種々の処理(例えば、ゲーム処理)に基づいて描画処理を行い、これにより画像を生成し、表示部290に出力する。特に、描画部320は、サーバ装置10から送信された画像データに基づいて、視差画像を生成し、
生成した視差画像を表示部290に表示する。
The drawing unit 320 performs drawing processing based on various processing (for example, game processing) performed by the terminal processing unit 310, thereby generating an image and outputting the image to the display unit 290. In particular, the drawing unit 320 generates a parallax image based on the image data transmitted from the server device 10,
The generated parallax image is displayed on the display unit 290.

音処理部330は、サーバ装置10から出力された音データや端末処理部310で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部240に出力する。   The sound processing unit 330 performs sound processing based on the sound data output from the server device 10 and the results of various processes performed by the terminal processing unit 310, and generates game sounds such as BGM, sound effects, or sounds. To the sound output unit 240.

振動部340は、振動体341を有し、サーバ装置10から出力された振動パターンデータや端末処理部310で行われる種々の処理の結果に基づいて生成された振動パターンデータに基づいて、当該振動体341を振動させる構成を有している。   The vibration unit 340 includes a vibrating body 341, and based on vibration pattern data output from the server device 10 and vibration pattern data generated based on the results of various processes performed by the terminal processing unit 310, the vibration unit 340 The body 341 is configured to vibrate.

[4]本実施形態の手法
[4.1]関係性パラメータの画像化処理の概要
次に、図7〜図9を用いて本実施形態の関係性パラメータの画像化処理の概要について説明する。なお、図7〜図9は、本実施形態の関係性パラメータの画像化処理(表示物オブジェクトの様態制御処理、演技キャラクタ様態制御処理及びプレーヤパラメータ画像化処理)を説明するための図である。
[4] Method of the Present Embodiment [4.1] Overview of Relationship Parameter Imaging Processing Next, an overview of the relationship parameter imaging processing of the present embodiment will be described with reference to FIGS. 7 to 9 are diagrams for explaining the relationship parameter imaging processing (display object object mode control processing, acting character mode control processing, and player parameter imaging processing) of this embodiment.

本実施形態のサーバ装置10は、演技キャラクタの様態及びその変化を制御する処理(以下、「演技キャラクタ様態制御処理」という。)及び各プレーヤキャラクタの様態及びその変化を制御する処理(以下、「プレーヤキャラクタ様態制御処理」という。)を実行しつつ、演技キャラクタと複数のプレーヤ(すなわち、アバター)のゲーム空間内における視線を合わせるなどによって当該演技キャラクタと各プレーヤの意思疎通を図ってゲームを進行させるゲーム処理を実行する。   The server device 10 of the present embodiment has a process for controlling the state of the acting character and its change (hereinafter referred to as “acting character state control process”) and a process for controlling the state of each player character and its change (hereinafter “ The player character state control process is executed, and the game progresses while the acting character and each player communicate with each other by matching the line of sight of the acting character and a plurality of players (ie, avatars) in the game space. The game process to be executed is executed.

すなわち、本実施形態のサーバ装置10は、ゲームに参加する各プレーヤの端末装置20と連動しつつ、演技キャラクタの演技期間中に、プレーヤキャラクタ毎に、演技キャラクタの行動と、プレーヤが当該演技キャラクタとの意思疎通を図るため入力した視線入力や操作入力のプレーヤ入力と、に基づいて、ゲーム中に変化する各プレーヤキャラクタにおける演技キャラクタとの関係性を示す関係性パラメータを変化させる。   That is, the server device 10 of this embodiment is linked to the terminal device 20 of each player who participates in the game, and for each player character during the performance period of the acting character, Based on the line-of-sight input and the player input for operation input, the relationship parameter indicating the relationship with the acting character in each player character that changes during the game is changed.

そして、サーバ装置10は、端末装置20と連動し、当該パラメータ化した関係性パラメータを、
(A)演技キャラクタの近傍にハート型などの表示物オブジェクトの様態やその変化によって画像化する表示物オブジェクトの様態制御処理、
(B)演技キャラクタの表情を構成する表情パーツオブジェクトの様態制御処理を含む演技キャラクタの様態及びその変化によって画像化する演技キャラクタ様態制御処理、及び、
(C)表示物オブジェクトの様態制御処理と同様に、各プレーヤの近傍にハート型などの表示物オブジェクトの様態やその変化によって画像化し、又は、演技キャラクタ様態制御処理と同様に、他のプレーヤキャラクタの表情や動きなどプレーヤキャラクタの様態若しくは当該様態の変化によって画像化するプレーヤパラメータ画像化処理、
を実行する。
Then, the server device 10 works in conjunction with the terminal device 20 to set the parameterized relationship parameter as
(A) A state control process of a display object such as a heart-shaped display object in the vicinity of the acting character, or a display object imaged by its change,
(B) an acting character aspect control process including an aspect control process of an expression part object constituting an expression of an acting character, and an action character aspect control process imaged by the change, and
(C) In the same manner as the display object state control process, an image is formed in the vicinity of each player by the state of the display object such as a heart shape or its change, or other player characters as in the acting character state control process. A player parameter imaging process for imaging a player character aspect such as facial expression and movement or a change in the aspect,
Execute.

具体的には、本実施形態のサーバ装置10は、ゲームに参加する各プレーヤの端末装置20と連動しつつ、
(1)ゲーム空間における演技キャラクタ及び各プレーヤの操作対象となるプレーヤキャラクタを含む各オブジェクトを制御し、
(2)プレーヤキャラクタ毎に、ゲーム中に変動する演技キャラクタとの関係性を示す関係性パラメータをそれぞれ管理し、
(3)プレーヤによって入力された少なくとも当該プレーヤの視線方向を含むプレーヤ入
力を受け付ける処理を実行し、
(4)プレーヤ毎に、各プレーヤキャラクタがゲーム空間上に配置された位置を当該各プレーヤに対応する仮想カメラの位置として設定し、各仮想カメラを視点として各プレーヤの視線方向に見えるゲーム空間の画像をそれぞれ生成し、
(5)受け付けた各プレーヤ入力のそれぞれに基づいて、対応する各仮想カメラを制御し、
(6)各プレーヤキャラクタにおける関係性パラメータを、演技キャラクタの近傍に表示物オブジェクトとして画像化し、当該演技キャラクタの表情パーツオブジェクトの様態変化として画像化し、又は、各プレーヤキャラクタに関連付けて画像化する画像化処理(すなわち、関係性パラメータの画像化処理)、
を実行する構成を有している。
Specifically, the server device 10 of the present embodiment is linked with the terminal device 20 of each player participating in the game,
(1) controlling each object including the acting character in the game space and the player character to be operated by each player;
(2) For each player character, manage the relationship parameter indicating the relationship with the acting character that fluctuates during the game,
(3) executing a process of accepting player input including at least the line-of-sight direction of the player input by the player;
(4) For each player, the position at which each player character is placed in the game space is set as the position of the virtual camera corresponding to each player, and the game space that can be viewed in the line-of-sight direction of each player with each virtual camera as the viewpoint Generate each image,
(5) Control each corresponding virtual camera based on each received player input,
(6) The relationship parameter in each player character is imaged as a display object in the vicinity of the acting character, imaged as a change in the appearance of the expression part object of the acting character, or an image associated with each player character Processing (i.e., imaging relationship parameters),
It has the structure which performs.

また、本実施形態のサーバ装置10は、関係性パラメータの画像化処理としては、
(6A)関係性パラメータを、演技キャラクタの近傍にハート型などの表示物オブジェクトの様態やその変化によって画像化する表示物オブジェクトの様態制御処理、
(6B)関係性パラメータを、演技キャラクタの表情を構成する表情パーツオブジェクトの様態制御処理を含む演技キャラクタの様態やその変化によって画像化する演技キャラクタ様態制御処理、及び、
(6C)関係性パラメータを、ゲーム状況に応じて、他のプレーヤのプレーヤキャラクタについて、表示物オブジェクトの様態制御処理と同様に、各プレーヤの近傍にハート型などの表示物オブジェクトの様態やその変化によって画像化し、又は、他のプレーヤのプレーヤキャラクタについて、演技キャラクタ様態制御処理と同様に、当該他のプレーヤキャラクタの表情や動きなどプレーヤキャラクタの様態若しくは当該様態の変化によって画像化するプレーヤパラメータ画像化処理、
を実行する。
In addition, the server apparatus 10 of the present embodiment performs the relationship parameter imaging process as follows:
(6A) A state control process of a display object that visualizes the relationship parameter by changing the state of the display object such as a heart shape in the vicinity of the acting character,
(6B) an acting character modal control process that visualizes the relationship parameter by an aspect of the acting character including an aspect control process of an expression part object that constitutes the facial expression of the acting character; and
(6C) As for the relationship parameter, the state of the display object, such as a heart shape, or its change is displayed in the vicinity of each player for the player characters of other players in the same manner as the display object object state control processing in accordance with the game situation. Or, for the player characters of other players, in the same manner as the acting character mode control process, the player parameter imaging is performed by changing the mode of the player character such as the expression and movement of the other player character. processing,
Execute.

特に、本実施形態のサーバ装置10は、(6C)については、
[6C−1]仮想カメラの撮像範囲に他のプレーヤキャラクタが含まれている場合やゲーム空間において所定の位置に他のプレーヤキャラクタが配置されている場合(各プレーヤから所定の距離内に存在する場合を含む)、
[6C−2]複数の注視キャラクタがゲーム空間に配置されている場合、若しくは、この場合であって複数のプレーヤのプレーヤキャラクタが同一の注視キャラクタを注視している場合、
[6C−3]各プレーヤと同一のゲームレベル(同一や同等と見なされる所定の範囲に属するレベルを含む。)を有している他のプレーヤキャラクタが存在する場合、各プレーヤと所定の親密度を有している他のプレーヤキャラクタが存在する場合、各プレーヤの同一チーム若しくは他のチームに属する他のプレーヤキャラクタが存在する場合、各プレーヤに対して所与の条件を具備した他のプレーヤ若しくは他のプレーヤキャラクタが存在する場合、
[6C−4]所定のゲーム履歴(課金履歴を含む。)若しくは特定のアイテムを有している場合など、各プレーヤや各プレーヤキャラクタが所与の条件を具備している場合、
[6C−5]前回の対戦ゲームの勝敗や獲得した得点、若しくは、ゲームの実行ステージなどのゲームの進行状況やゲーム環境、
などのゲーム状況に応じてプレーヤパラメータ画像化処理を実行する。
In particular, the server device 10 of the present embodiment has (6C)
[6C-1] When another player character is included in the imaging range of the virtual camera or when another player character is placed at a predetermined position in the game space (exists within a predetermined distance from each player) Case),
[6C-2] When a plurality of gaze characters are arranged in the game space, or in this case, the player characters of a plurality of players gaze at the same gaze character,
[6C-3] When there are other player characters having the same game level as each player (including levels belonging to a predetermined range that is considered to be the same or equivalent), each player and a predetermined familiarity If there are other player characters having the same team, or if there are other player characters belonging to the same team or other teams of each player, If there are other player characters,
[6C-4] When each player or each player character has a given condition, such as when a predetermined game history (including charging history) or a specific item is included,
[6C-5] Game progress and game environment, such as the previous game win / loss and score, or game execution stage,
The player parameter imaging process is executed in accordance with the game situation.

なお、所定のゲーム履歴としては、
[6C−4A]プレーヤのプレー頻度(実施回数、ログイン回数や前回実施した日時からの経過時間)、プレー時間(ゲーム開始からの総時間)、プレーの成績(過去の最高成績や複数のプレーヤ間における順位)などのゲーム履歴、及び、
[6C−4B]ゲーム中の所定のタイミングにおける課金額やゲーム開始からの累積的な
課金額を示す課金履歴
が含まれる。
In addition, as a predetermined game history,
[6C-4A] Player play frequency (number of executions, number of logins, time elapsed since last execution date), play time (total time since the start of the game), play results (highest record in the past or between multiple players) Game history, etc., and
[6C-4B] A billing history indicating a billing amount at a predetermined timing during the game or a cumulative billing amount from the start of the game is included.

例えば、サーバ装置10は、表示物オブジェクトの様態制御処理としては、図7(A)及び(B)に示すように、演技キャラクタ8の演技開始前又は演技中に、プレーヤの特性、ゲーム環境、ゲーム中の意思疎通の達成度やその状況に基づいて関係性パラメータを算出し、当該算出した関係性パラメータに応じて演技キャラクタ8の近傍に表示物オブジェクト(ハート型表示物オブジェクト)30を画像化する画像処理を実行する。   For example, as shown in FIGS. 7A and 7B, the server device 10 performs the display object object state control process before or during the performance of the acting character 8, during the performance of the player, the game environment, A relationship parameter is calculated based on the degree of communication and the situation during the game, and a display object (heart-shaped display object) 30 is imaged in the vicinity of the acting character 8 according to the calculated relationship parameter. The image processing to be executed is executed.

特に、サーバ装置10は、アバター5の視線方向に演技キャラクタ8が存在する場合に、図7(B)に示すように、ゲーム空間画像として演技キャラクタ8の近傍に画像化された表示物オブジェクト(ハート型表示物オブジェクト)30について該当するプレーヤ2によって視認可能な処理を実行する。   In particular, when the acting character 8 is present in the line-of-sight direction of the avatar 5, the server device 10 displays a display object (in the vicinity of the acting character 8 as a game space image) as shown in FIG. A process that can be visually recognized by the corresponding player 2 is executed for the heart-shaped display object 30).

一方、例えば、サーバ装置10は、演技キャラクタ様態制御処理としては、図8(A)及び(B)に示すように、演技キャラクタ8の演技開始前又は演技中に、プレーヤの特性、ゲーム環境、ゲーム中の意思疎通の達成度やその状況に基づいて関係性パラメータを算出し、当該算出した関係性パラメータに応じて表情パーツオブジェクト(笑顔の表情パーツオブジェクト)40を制御する処理を実行する。   On the other hand, for example, as shown in FIGS. 8 (A) and 8 (B), the server device 10 performs player character characteristics, game environment, A relationship parameter is calculated based on the degree of achievement of the communication during the game and its situation, and a process of controlling the facial expression part object (smiling facial expression part object) 40 is executed according to the calculated relationship parameter.

そして、サーバ装置10は、アバター5の視線方向に演技キャラクタ8が存在する場合には、図8(B)に示すように、ゲーム空間画像として演技キャラクタ8の表情の画像について該当するプレーヤ2によって視認可能な処理を実行する。   Then, when the acting character 8 is present in the line-of-sight direction of the avatar 5, the server device 10 uses the player 2 corresponding to the expression image of the acting character 8 as a game space image, as shown in FIG. 8B. Perform visible processing.

他方、例えば、サーバ装置10は、プレーヤパラメータ画像化処理としては、図9(A)及び(B)に示すように、演技キャラクタ8の演技開始前又は演技中に、プレーヤの特性、ゲーム環境、ゲーム中の意思疎通の達成度やその状況に基づいて関係性パラメータを算出し、当該算出した関係性パラメータに応じて該当する各アバター5の近傍に、表示物オブジェクトの様態制御処理と同様な表示物オブジェクト(ハート型表示物オブジェクト)50を画像化する画像化処理を実行する。   On the other hand, for example, as shown in FIGS. 9A and 9B, the server device 10 performs player parameter imaging processing before the performance of the acting character 8 or during the performance of the player, the game environment, A relationship parameter is calculated based on the degree of communication and the situation during the game, and the display similar to the state control process of the display object is displayed in the vicinity of each avatar 5 corresponding to the calculated relationship parameter. An imaging process for imaging the object object (heart-shaped display object) 50 is executed.

そして、プレーヤ2Aが実行しているゲームにおいて、サーバ装置10は、図9(A)に示すように、当該プレーヤ2Aに対応するアバター5Aの視線方向に他のプレーヤのプレーヤキャラクタであるアバター5B及び5Cが存在する場合には、図9(B)に示すように、ゲーム空間画像として他のプレーヤのプレーヤキャラクタであるアバター5B及び5Cの近傍に画像化された表示物オブジェクト(ハート型表示物オブジェクト)50B及び50Cについてプレーヤ2Aによって視認可能な画像化処理を実行する。   Then, in the game being executed by the player 2A, the server device 10, as shown in FIG. 9 (A), the avatars 5B, which are the player characters of other players, in the line-of-sight direction of the avatar 5A corresponding to the player 2A. When 5C exists, as shown in FIG. 9B, a display object (heart-shaped display object) imaged in the vicinity of avatars 5B and 5C, which are player characters of other players, as a game space image. ) An imaging process that can be visually recognized by the player 2A is executed for 50B and 50C.

さらに、サーバ装置10は、図10(A)及び(B)に示すように、プレーヤパラメータ画像化処理としては、演技キャラクタ様態制御処理における演技キャラクタと同様に、算出した関係性パラメータに応じて他のプレーヤのプレーヤキャラクタであるアバター5の表情パーツオブジェクト(笑顔の表情パーツオブジェクト)70を制御してもよい。   Further, as shown in FIGS. 10A and 10B, the server device 10 performs other player parameter imaging processing according to the calculated relationship parameter in the same manner as the acting character in the acting character mode control processing. The expression part object (smile expression part object) 70 of the avatar 5 that is the player character of the player may be controlled.

なお、図10においては、仮想カメラを視点としたゲーム空間の画像においては、他のプレーヤのアバター5B及び5Cは、顔が正面を向いているため画像化できない。そこで、本実施形態のサーバ装置10は、図10(B)に示すように、当該他のプレーヤのアバター5B又は5Cの背面に表情パーツオブジェクト(笑顔の表情パーツオブジェクト)が制御されたオブジェクトを画像化する構成を有している。   In FIG. 10, in the image of the game space with the virtual camera as the viewpoint, the avatars 5B and 5C of other players cannot be imaged because their faces are facing the front. Therefore, as shown in FIG. 10B, the server device 10 according to the present embodiment images an object in which an expression part object (a smiling expression part object) is controlled on the back of the avatar 5B or 5C of the other player. It has the composition which becomes.

本実施形態においては、このような構成を有することによって、演技キャラクタをプレ
ーヤに意識させつつ、当該演技キャラクタとの意思疎通が図れているか否かなどの当該演技キャラクタとそれぞれのプレーヤとの関係性を示すパラメータを可視化することができるようになっている。
In this embodiment, by having such a configuration, the relationship between the acting character and each player, such as whether or not communication with the acting character is achieved while making the player aware of the acting character. The parameter that indicates can be visualized.

そして、本実施形態においては、ゲームの進行状況や当該演技キャラクタに対するプレーヤの操作や視線などのプレーヤの入力状況を、当該プレーヤに容易にかつ的確に認識させることができるとともに、意思疎通が図れている状況などのゲーム中のプレー状況の表示を、ゲームを盛り上げる演出として用いることができるようになっている。   In this embodiment, the player can easily and accurately recognize the progress of the game and the player's input status such as the player's operation and line of sight with respect to the acting character, and communication can be achieved. The display of the play status during the game, such as the status of the game, can be used as an effect that excites the game.

この結果、本実施形態においては、演技キャラクタを注視するゲームにおいて、プレーヤの操作やゲーム進行に対するプレーヤの不安感を解消させることができるとともに意思疎通体験をわかりやすく実現し、仮想3次元空間におけるプレーヤの没入感を損なうことなくゲームの興趣性を向上させることができるようになっている。   As a result, in the present embodiment, in a game in which the acting character is watched, the player's anxiety about the player's operation and the game progress can be resolved and the communication experience can be easily understood, and the player in the virtual three-dimensional space can be realized. It is possible to improve the fun of the game without impairing the sense of immersion.

また、本実施形態においては、各プレーヤのプレーヤキャラクタと当該各プレーヤが注視する演技キャラクタとのゲーム内における関係性を、例えば、所定の表示物や各プレーヤキャラクタの様態などによってゲーム空間とともに画像化し、各プレーヤに、仮想3次元空間におけるプレーヤの没入感を損なうことなく他のプレーヤにおける注視キャラクタとの関係性を視認させることができるようになっている。   Further, in the present embodiment, the relationship in the game between the player character of each player and the acting character watched by each player is imaged together with the game space by, for example, a predetermined display object or the state of each player character. Each player can visually recognize the relationship with the gaze character in the other player without impairing the player's immersion in the virtual three-dimensional space.

したがって、本実施形態においては、注視キャラクタとの意思疎通体験を利用したゲームという新たなゲームにおいて、例えば、PCを含めた複数のプレーヤにおける対戦ゲームなどの他のプレーヤとの関係性に基づいて実行されるゲームとして用いる場合に、他のプレーヤのプレー状況を認識させることができるので、ゲームにおいて競争相手となる他のプレーヤとの競争意識を高めて当該ゲームを活性化し、その結果、ゲームの興趣性を向上させることができるようになっている。   Therefore, in the present embodiment, in a new game called a game using a communication experience with a gaze character, for example, the game is executed based on the relationship with other players such as a battle game among a plurality of players including a PC. When used as a game to be played, it is possible to recognize the play situation of other players, so that the game is activated by raising the competitive consciousness with other players who are competitors in the game. Can be improved.

なお、本実施形態においては、「表示物オブジェクトの様態の制御」とは、例えば、演技のパフォーマンス動作やアバターとの対峙したときの動作などの演技キャラクタの注視開始時の表示物オブジェクトの様態を制御すること示す。   In the present embodiment, “control of the state of the display object” means, for example, the state of the display object at the start of gaze of the acting character, such as the performance action of the performance or the action when facing the avatar. Indicates to control.

また、本実施形態においては、「表示物オブジェクトの様態変化の制御」とは、例えば、演技キャラクタの演技中の表示物オブジェクトの様態変化を示す。   In the present embodiment, the “control of the change in the state of the display object” indicates, for example, the change in the state of the display object during the performance of the acting character.

そして、本実施形態においては、「表情パーツオブジェクトの様態の制御」とは、例えば、演技のパフォーマンス動作やアバターとの対峙したときの動作などの演技キャラクタの注視開始時の表情パーツオブジェクトの様態を制御すること示す。   In the present embodiment, “control of the appearance of the expression part object” refers to, for example, the appearance of the expression part object at the start of the gaze of the acting character such as the performance action of the acting or the action when facing the avatar. Indicates to control.

さらに、本実施形態においては、「表情パーツオブジェクトの様態変化の制御」とは、例えば、演技キャラクタの演技中の表情パーツオブジェクトの様態変化を示す。   Furthermore, in the present embodiment, “control of the appearance change of the expression part object” indicates, for example, a change in the appearance of the expression part object during the performance of the acting character.

上記に加えて、プレーヤパラメータ画像化処理には、上述のように、ゲーム空間に配置された他のプレーヤキャラクタの近傍や当該他のプレーヤキャラクタの表情や動きなどの様態として関連性パラメータを画像化する処理が含まれるが、これだけでなく、例えば、表示画面を構成するゲーム空間の画像とは異なる他の画像枠に他のプレーヤキャラクタの名前やIDに対応付けて表示させることが含まれる。ただし、以下の説明については、ゲーム空間に配置された他のプレーヤキャラクタの近傍や当該他のプレーヤキャラクタの表情や動きなどの様態として関連性パラメータを画像化する処理を用いて説明し、それ以外の態様については別途説明する。   In addition to the above, in the player parameter imaging process, as described above, the relevance parameters are imaged in the vicinity of other player characters arranged in the game space and the manner of expression and movement of the other player characters. In addition to this, for example, it is included that the image is displayed in association with the name or ID of another player character in another image frame different from the image of the game space constituting the display screen. However, the following description will be described using the process of imaging the relevance parameter as the state of the other player character placed in the game space or the facial expression or movement of the other player character. This aspect will be described separately.

[4.2]関係性パラメータ
次に、本実施形態の関係性パラメータについて説明する。
[4.2] Relationship Parameter Next, the relationship parameter of the present embodiment will be described.

(関係性パラメータの種別)
本実施形態において、関係性パラメータの画像化処理において用いられる関係性パラメータには、例えば、プレーヤの属性や課金状況などのプレーヤ毎に設定されるパラメータであって、ゲームの戦略的に若しくは簡易に設定することが可能なゲームにおける事前準備の意味合いを持つ関係性パラメータ(戦略的関係性パラメータ)、又は、ゲームの進行に従って演技キャラクタの演技中に変動するパラメータ(連動性関係性パラメータ)が含まれる。
(Relationship parameter type)
In the present embodiment, the relationship parameters used in the relationship parameter imaging processing are parameters set for each player, such as player attributes and billing status, and are strategic or simple for the game. A relationship parameter (strategic relationship parameter) having the meaning of advance preparation in the game that can be set, or a parameter that varies during the performance of the acting character according to the progress of the game (linkage relationship parameter) is included. .

具体的には、戦略的関係性パラメータには、
(A)ゲーム中における演技キャラクタ及びアバターの少なくともいずれか一方の特性に関する特性パラメータ、若しくは、当該特性パラメータに基づくパラメータ、
(B)アバターにおける演技キャラクタに対する感情に関する感情パラメータ、若しくは、当該感情パラメータに基づくパラメータ、
(C)アバターに提供されるアイテムに関するアイテムパラメータ、若しくは、当該アイテムパラメータに基づくパラメータ、
(D)プレーヤのゲームに対する課金状況や課金履歴に関する課金パラメータ、若しくは、課金パラメータ、
のうち1以上のパラメータが含まれる。
Specifically, strategic relationship parameters include
(A) a characteristic parameter related to the characteristic of at least one of the acting character and the avatar in the game, or a parameter based on the characteristic parameter;
(B) an emotion parameter related to the emotion for the acting character in the avatar, or a parameter based on the emotion parameter,
(C) Item parameters relating to items provided to the avatar, or parameters based on the item parameters,
(D) a charging parameter relating to a charging status or a charging history for the game of the player, or a charging parameter;
1 or more parameters are included.

特に、特性パラメータには、例えば、演技キャラクタ及び当該プレーヤの属性(演技キャラクタを注視する位置や嗜好)を示す属性情報に関連するパラメータ、外観(人、動物又はロボットなどの基本造形(サイズも含む。)、容姿(色彩も含む。)、髪型)に関連するパラメータが含まれる。   In particular, the characteristic parameters include, for example, parameters related to attribute information indicating the attributes of the acting character and the player (position and preference for watching the acting character), and basic appearance (including size, such as a person, animal, or robot) .), Parameters related to appearance (including color), hairstyle).

また、感情パラメータには、受け付けられたプレーヤ入力及び演技キャラクタのアバターに対する動作のいずれか一方に基づいて定まる当該アバターにおける感情に関連するパラメータが含まれる。   The emotion parameter includes a parameter related to the emotion in the avatar determined based on one of the accepted player input and the action character's action on the avatar.

また、アイテムパラメータには、プレーヤキャラクタに設定されるアイテム(課金アイテムを含み、例えば、衣装、装飾品、所持品(タオルやサイリウム))、演技キャラクタにプレゼントされるなどゲーム内で消費されるアイテム(課金アイテムを含む。)、ゲーム内で使用する魔法のアイテムやステージ変化アイテムなどのキャラクタに依存しないアイテム(課金アイテムを含む。)、及び、演技キャラクタに提供する情報に関するパラメータが含まれる。   The item parameter includes items set in the player character (including chargeable items, such as costumes, ornaments, personal belongings (towels and psyllium)), items consumed in the game, such as gifts to acting characters. (Includes charge items), magic items used in the game, items that do not depend on characters such as stage change items (including charge items), and parameters related to information provided to the acting character.

さらに、課金パラメータには、プレーヤキャラクタを身支度(例えば、化粧、衣装又はアイテムなど)させるために課金した課金額、注視キャラクタに所定のアイテムを提供する際に課金した額、お捻りなどの演技中などの所定のタイミングで実行される課金イベントにおいて課金した額、及び、コンティニューやガチャなどのゲームを実行する上で過去に課金した額に応じたパラメータが含まれる。   In addition, the charging parameters include the amount charged for making the player character dressed (for example, makeup, costumes, items, etc.), the amount charged when providing a predetermined item to the gaze character, and twisting. And a parameter corresponding to the amount charged in the past at the time of executing a game such as continue or gacha.

そして、課金パラメータには、過去に課金した課金額に応じたパラメータも含むとともに、金額だけなく、過去に取得又は消費したポイントなどのゲーム内において金銭と同様に利用可能なパラメータも含む。   The billing parameters include not only the amount of money but also parameters that can be used in the same manner as money in the game, such as points acquired or consumed in the past.

なお、「特性、アイテム又は課金パラメータに基づくパラメータ」とは、当該、特性、アイテム又は課金パラメータに所定の係数が乗算されたパラメータなどのこれらのパラメ
ータによって影響を受けるパラメータを含むことを示す。
Note that “a parameter based on a characteristic, item, or charging parameter” indicates that the parameter, such as a parameter obtained by multiplying the characteristic, item, or charging parameter by a predetermined coefficient, is affected by these parameters.

一方、連動性関係性パラメータには、
(a)演技キャラクタ及びアバターの少なくともいずれか一方における動作に基づいて定まるパラメータ(以下、「動作起因パラメータ」という。)、又は、当該動作起因パラメータに基づくパラメータ
(b)演技キャラクタ及びアバターの少なくともいずれか一方における前記ゲーム空間内における位置に基づいて定まるパラメータ(以下、「位置起因パラメータ」という。)、又は、当該位置気韻パラメータに基づくパラメータ、及び、
(c)プレーヤのゲーム履歴を示すゲーム履歴情報に関連するパラメータ(以下、「ゲーム履歴起因パラメータ」という。)、又は、当該ゲーム履歴起因パラメータに基づくパラメータ
のうち1以上のパラメータが含まれる。
On the other hand, the link relationship parameter
(A) a parameter determined based on the motion of at least one of the acting character and the avatar (hereinafter referred to as “motion-caused parameter”), or a parameter based on the motion-caused parameter (b) at least one of the acting character and the avatar A parameter determined based on the position of the game space in the game space (hereinafter referred to as “position-related parameter”), or a parameter based on the position-phenomenon parameter, and
(C) One or more parameters among parameters related to game history information indicating the game history of the player (hereinafter referred to as “game history-derived parameters”) or parameters based on the game history-derived parameters are included.

特に、動作起因パラメータは、アバターのゲーム空間内における視線制御(視線方向、注視位置や注視時間)、又は、アバターの動きやそれに伴う演技キャラクタの動き(アバターや演技キャラクタの姿勢、若しくは、接触時間や接触位置の接触状況)に基づいて定まるパラメータである。   In particular, the motion-induced parameter may be a gaze control (gaze direction, gaze position or gaze time) in the game space of the avatar, or a motion of the avatar and a motion character accompanying it (a posture of the avatar or the performance character, or a contact time). Or the contact status of the contact position).

また、位置起因パラメータは、演技キャラクタとアバターとのゲーム空間内の距離によって定まるパラメータである。   Further, the position-derived parameter is a parameter determined by the distance in the game space between the acting character and the avatar.

さらに、ゲーム履歴起因パラメータは、プレーヤのプレー頻度(実施回数、ログイン回数や前回実施した日時からの経過時間)、プレー時間(ゲーム開始からの総時間)、プレーの成績(過去の最高成績や複数のプレーヤ間における順位)に基づいて定まるパラメータである。   In addition, the game history attribute parameters include the player's play frequency (number of executions, number of logins and elapsed time since the last execution date), play time (total time since the start of the game), play performance (highest record of past and multiple Is a parameter determined based on the ranking among the players.

なお、「動作起因パラメータ、位置起因パラメータ又はゲーム履歴起因パラメータに基づくパラメータ」とは、動作若しくは位置に基づくパラメータ又はゲーム履歴に関連するパラメータに所定の係数が乗算されたパラメータなどの動作若しくは位置に基づくパラメータ又はゲーム履歴に関連するパラメータによって影響を受けるパラメータを含むことを示す。   Note that the “parameters based on motion-related parameters, position-based parameters, or game history-based parameters” refers to motion or position such as parameters based on motion or position or parameters related to game history multiplied by a predetermined coefficient. It includes inclusion of parameters that are influenced by parameters based on or related to game history.

(演技開始前に算出される関係性パラメータ)
パラメータ制御部118は、演技キャラクタが演技開始前に、アバターの情報に基づいて戦略的関係性パラメータを算出する。
(Relationship parameters calculated before the performance starts)
The parameter control unit 118 calculates a strategic relationship parameter based on the avatar information before the acting character starts acting.

具体的には、パラメータ制御部118は、
(1)アバターの属性(演技キャラクタがグループの場合に好きな演技キャラクタなどの嗜好)、
(2)アバターの外観(人、動物又はロボットなどの基本造形、そのサイズ、容姿(色彩も含む。)、髪型などの身支度したアバターの様態)、
(3)アバターが保持するアイテム(衣装、装飾品、所持品(タオルやサイリウム))、若しくは、ゲームで使用されるアイテム(お捻りを含むプレゼント)、
(4)プレーヤの課金状況(観覧席の確保、身支度の準備、アイテムの購入など)や課金履歴、
に基づいて、戦略用パラメータテーブルを用いて戦略的関係性パラメータを算出する。
Specifically, the parameter control unit 118
(1) Avatar attributes (preferred performance character preference when the performance character is a group),
(2) Appearance of the avatar (basic modeling of humans, animals, robots, etc., its size, appearance (including color), hairstyle, etc.)
(3) Items held by the avatar (costumes, decorations, personal belongings (towels and psyllium)), or items used in the game (presents including twists),
(4) The player's billing status (securing seats, preparing for dressing, purchasing items, etc.), billing history,
Based on the above, the strategic relationship parameter is calculated using the strategy parameter table.

例えば、アバターの属性においては、戦略用パラメータテーブルには、演技キャラクタ毎に演技キャラクタが好みのアバターの属性、外観、アイテム及びこれらの組み合わせに
おけるに対して所定のポイントが設定されている。
For example, in the avatar attributes, predetermined points are set in the strategy parameter table for the avatar attributes, appearances, items, and combinations thereof that the acting character likes for each acting character.

また、例えば、アバターの外観においては、戦略用パラメータテーブルには、基本造形、サイズ、容姿、髪型などのアバターの様態毎に、所定のポイントが設定されている。特に、派手な衣装や髪型、容姿など目立つ外観ほど、戦略用パラメータテーブルには高ポイントが設定されている。   Further, for example, in the appearance of the avatar, a predetermined point is set in the strategy parameter table for each aspect of the avatar such as basic modeling, size, appearance, and hairstyle. In particular, high points are set in the strategy parameter table for the more prominent appearance such as flashy costumes, hairstyles, and appearances.

例えば、アバターのアイテムにおいては、戦略用パラメータテーブルには、衣装、装飾品、所持品(タオルやサイリウム)、及び、演技キャラクタに提供するプレゼント(お捻りを含む。)毎に、所定のポイントが設定されている。   For example, in the case of an avatar item, a predetermined point is included in the strategy parameter table for each costume, decoration, personal belongings (towels and psyllium), and presents (including twists) provided to acting characters. Is set.

特に、派手な衣装や化粧、サイリウムなどの光るアイテムや振り回すことが可能なタオルなどの目立つアイテム、演技キャラクタに関する現物のキャラクタグッズ、又は、プレゼントやお捻りなどのゲーム中に使用すると効果的なアイテムほど、戦略用パラメータテーブルには高ポイントが設定されている。   In particular, items that are effective when used during games such as flashy costumes, makeup, shiny items such as psyllium, prominent items such as towels that can be swung, actual character goods related to acting characters, or gifts and twists As you can see, a high point is set in the strategy parameter table.

なお、上述のように、キャラクタグッズなどの実空間に存在する物品については、購入などによってキャラクタグッズを取得した際に、当該キャラクタグッズの識別番号やバーコードなどの識別情報を取り込むことによって獲得することができるようになっている。ただし、お捻りなどの無体物については予めゲームカードのような記憶媒体によって提供されてもよい。   As described above, an article existing in the real space such as a character goods is acquired by acquiring identification information such as an identification number or a barcode of the character goods when the character goods are acquired by purchase or the like. Be able to. However, intangibles such as twists may be provided in advance by a storage medium such as a game card.

また、お捻りやプレゼントなどのアバターのアイテムについては、演技キャラクタの演技中も設定可能になっている。すなわち、演技中の所定のタイミングにおいて、課金購入するなどによってアバターに設定可能である。   Also, avatar items such as twists and gifts can be set while the acting character is acting. In other words, the avatar can be set by purchasing a charge at a predetermined timing during the performance.

プレーヤ課金状況においては、戦略用パラメータテーブルには、観覧席の確保、ゲームの実施(コンティニュー含む)、アバターの設定やアイテムの購入などの課金要素毎に、又は、課金額(課金範囲)に対応付けて、又は、過去の累積的な課金額に対応付けて、所定のポイントが設定されている。特に、高額な課金額や重要な課金要素派(コンティニューやお捻りなどお演技キャラクタに提供するプレゼントなどのゲームで使用する課金要素)ほど、戦略用パラメータテーブルには高ポイントが設定されている。   In the player billing situation, the strategy parameter table corresponds to the billing amount (billing range) for each billing element such as securing a seat, playing a game (including continuation), avatar setting, item purchase, etc. In addition, a predetermined point is set in association with the past cumulative billing amount. In particular, the higher the amount of billing and the more important billing factor groups (billing factors used in games such as presents provided to acting characters such as continue and twist), the higher the points are set in the strategy parameter table.

このように、パラメータ制御部118は、上記の戦略用パラメータテーブルを用いて、アバターや演技キャラクタの属性、アバターの外観、アバターが保持するアイテム及びプレーヤの課金状況に基づいて関係性パラメータを算出する。   As described above, the parameter control unit 118 calculates the relationship parameter based on the attribute of the avatar or the acting character, the appearance of the avatar, the item held by the avatar, and the charging status of the player using the strategy parameter table. .

(演技中に算出される関係性パラメータ)
パラメータ制御部118は、演技キャラクタが演技中に、プレーヤ入力に基づいて動作起因パラメータ、位置起因パラメータ及びゲーム履歴起因パラメータを含む各連動性関係性パラメータを算出する。
(Relational parameters calculated during the performance)
While the acting character is performing, the parameter control unit 118 calculates each linkage relationship parameter including an action-derived parameter, a position-derived parameter, and a game history-derived parameter based on the player input.

また、パラメータ制御部118は、連動性関係性パラメータにおいては、アバターに対応付けられた関係性パラメータと、演技キャラクタに対応付けられた関係性パラメータと、をそれぞれ算出する。   Moreover, the parameter control part 118 calculates the relationship parameter matched with the avatar and the relationship parameter matched with the acting character, respectively, in the linkability relationship parameter.

具体的には、パラメータ制御部118は、
(A1)アバターのゲーム空間内における視線制御(視線方向、注視位置や注視時間)、又は、
(A2)アバターの動き及びそれに伴う演技キャラクタの動き(アバターや演技キャラク
タの姿勢、若しくは、接触時間、接触位置や接触状況)
に基づいて、連動性関係性パラメータテーブルを用いて動作起因パラメータを算出する。
Specifically, the parameter control unit 118
(A1) Gaze control (gaze direction, gaze position and gaze time) in the avatar game space, or
(A2) Avatar movement and acting character movement (attitude of avatar or acting character, contact time, contact position or contact situation)
Based on the above, the motion-related parameter is calculated using the interlocking relationship parameter table.

例えば、(A1)においては、連動性関係性パラメータテーブルには、アバターの演技キャラクタに対する視点方向(視線方向にある演技キャラクタの種別)、注視位置(演技キャラクタの部位)、注視時間(演技キャラクタの部位を連続して注視している時間)に応じて、所定のポイントが設定されている。   For example, in (A1), the interactivity relationship parameter table includes the viewpoint direction (the type of acting character in the line-of-sight direction) of the avatar acting character, the gaze position (acting character part), and the gaze time (acting character of the acting character). A predetermined point is set according to the time during which the region is continuously watched.

特に、当該戦略パラメータテーブルには、視線方向に好み演技キャラクタ存在している場合に付与されるポイント、好みの演技キャラクタの注視している部位に応じて異なるポイント、注視時間が長いほど高いポイントが設定されている。   In particular, in the strategy parameter table, there are points given when there is a favorite acting character in the line-of-sight direction, different points depending on the part of the favorite acting character gazing, and higher points as the gaze time is longer. Is set.

なお、演技キャラクタは、演技中は振り付けなどによってステージ上を移動し、又は、視線や顔の方向が変化するので、それに合わせてプレーヤの視線方向や注視位置を追従させる必要があるので、プレーヤの操作に応じて関係性パラメータの値が変化することになる。   During the performance, the acting character moves on the stage by choreography or the like, or the direction of the line of sight or the face changes, so it is necessary to follow the direction of the player's line of sight or gaze position accordingly. The value of the relationship parameter changes according to the operation.

また、動作起因パラメータについては、視線制御を行うタイミングに基づく係数によって算出されてもよい。例えば、ゲーム中に演技キャラクタを注視する期間を設定し、当該設定された期間に演技キャラクタの所定の部位(顔)を注視した場合(注視時間も含む)に、戦略パラメータテーブルによって設定されているポイントを数倍する演算が実行されてもよい。   Further, the motion-induced parameter may be calculated by a coefficient based on the timing at which the line-of-sight control is performed. For example, when a period during which the acting character is watched during the game is set and a predetermined part (face) of the acting character is watched during the set period (including the watching time), the time is set by the strategy parameter table. An operation of multiplying the points by several may be performed.

また、例えば、(A2)においては、連動性関係性パラメータテーブルには、アバターの姿勢(プレーヤ入力や関係性パラメータに基づくゲーム空間内での動きを含む姿勢)、演技キャラクタの姿勢(特別制御に基づく動きを含む姿勢)、及び、アバターと演技キャラクタの接触(接触時間、接触位置及び接触状況)に応じて、所定のポイントが設定されている。   Further, for example, in (A2), the linkage relationship parameter table includes the avatar posture (posture including movement in the game space based on the player input and the relationship parameter), and the acting character posture (for special control). A predetermined point is set according to the posture including the movement based on the contact) and the contact between the avatar and the acting character (contact time, contact position, and contact situation).

特に、戦略パラメータテーブルには、例えば、アバターのタオルやサイリウムを振る動きなどの姿勢に応じて、関係性パラメータに応じて演技キャラクタがアバターに対して特別制御(アバターに近づいてくる、ウィンクする、投げキッスするなど)をした場合の各動作に応じて、演技キャラクタがアバターに近づいてきてハイタッチやハグなどの接触時間や接触した行為に応じて、異なるポイントが設定されている。   In particular, in the strategy parameter table, for example, depending on the posture of the avatar's towel or the movement of shaking the silium, the acting character has special control over the avatar according to the relationship parameter (approaching the avatar, winking, Different points are set according to the action time when the acting character approaches the avatar and touches, such as high touch and hugging, and the act of touching, depending on each action when the player kisses and throws.

また、戦略パラメータテーブルには、例えば、アバターと演技キャラクタの視線が合う回数、視線が合った時間、視線があったタイミング、又は、視線が合ったときの演技キャラクタの付随動作(ウィンクや投げキッス)に応じてポイントが設定されている。   The strategy parameter table also includes, for example, the number of times that the line of sight of the avatar and the acting character matches, the time when the line of sight matches, the timing when the line of sight matches, or the accompanying action of the acting character when the line of sight matches (wink or throwing kiss) ) Point is set according to.

特に、戦略パラメータテーブルには、視線が合う回数が多くなるほど、又は、時間が長くなるほど高ポイントが設定される。また、当該戦略パラメータテーブルには、例えば、演技キャラクタがアバターに近づいてきてくれるなどの特別制御時のタイミングで視線が合った場合、又は、演技キャラクタと視線が合った場合に付随動作が実行された場合に、通常の視線があった場合に比べて加算ポイントが設定されている。   In particular, in the strategy parameter table, a higher point is set as the number of times that the line of sight is matched increases or as the time increases. Also, in the strategy parameter table, for example, when the line of sight is matched at the timing of special control such as the acting character approaching the avatar, or when the line of sight matches the acting character, the accompanying action is executed. In this case, an additional point is set as compared with the case where there is a normal line of sight.

また、戦略パラメータテーブルには、アバター用の項目(動きを含む姿勢に関する項目)と、演技キャラクタ用の項目(動きを含む姿勢に関する項目)が設定されており、それぞれの項目に対してポイントが設定されている。   In the strategy parameter table, items for avatars (items related to posture including movement) and items for acting characters (items related to posture including movement) are set, and points are set for each item. Has been.

なお、アバターの動作を含む姿勢は、所定のタイミングに、視線入力やスイッチ入力な
どお操作入力を行うことによって制御されるとともに、関係性パラメータの値によって自動的に発動して制御される。
The posture including the motion of the avatar is controlled by performing an operation input such as a line-of-sight input or a switch input at a predetermined timing, and is automatically activated and controlled by the value of the relationship parameter.

また、演技キャラクタの動作を含む姿勢は、関係性パラメータの値やアバターの視線入力(注視位置やタイミングを含む)によってプログラムに従って自動的に発動して制御される。   In addition, the posture including the action of the acting character is automatically activated and controlled according to the program according to the value of the relationship parameter and the gaze input (including the gaze position and timing) of the avatar.

一方、パラメータ制御部118は、演技キャラクタ、アバター又はその双方のゲーム空間内における位置に基づいて、連動性関係性パラメータテーブルを用いて位置起因パラメータを算出する。   On the other hand, the parameter control unit 118 calculates a position-derived parameter using a linkage relationship parameter table based on the positions of the acting character, the avatar, or both in the game space.

例えば、連動性関係性パラメータテーブルには、アバターの視点位置(すなわち、観客席の位置)、演技キャラクのステージ上の立ち位置、及び、アバターと演技キャラクトの距離に応じて、所定のポイントが設定されている。   For example, in the linkage relationship parameter table, predetermined points are set according to the viewpoint position of the avatar (that is, the position of the audience seat), the standing position of the acting character on the stage, and the distance between the avatar and the acting contract. Has been.

特に、当該戦略パラメータテーブルには、演技キャラクタが演技パフォーマンスを行うステージに近いほど、及び、真ん中に近いほど、演技キャラクタのステージ上の立ち位置(基準位置)がアバターの位置(すなわち、視点位置)に近いほど、又は、演技中の演技キャラクタ演技位置とアバターの距離が近いほど、高ポイントが設定されている。   In particular, in the strategy parameter table, the standing position (reference position) of the acting character on the stage is closer to the stage where the acting character performs the performance and closer to the middle (the position of the avatar (that is, the viewpoint position)). The higher the point is, the closer the acting character acting position during acting and the distance between the avatar and the avatar are closer.

なお、演技キャラクタの立ち位置又は演技位置は、提供する演技パフォーマンスによって、又は、演技する日時(タイミング)によって異なっており、戦略用パラメータテーブルは、それに合わせてポイントが設定されている。   Note that the standing position or the acting position of the acting character differs depending on the acting performance to be provided or the date and time (timing) of acting, and points are set in the strategy parameter table accordingly.

また、アバターの視点位置は、プレーヤ入力、関係性パラメータ又はコンピュータ制御によって演技中に移動させることも可能である。   The avatar's viewpoint position can also be moved during the performance by player input, relationship parameters or computer control.

他方、パラメータ制御部118は、プレーヤのプレー頻度(実施回数、ログイン回数や前回実施した日時からの経過時間)、プレー時間(ゲーム開始からの総時間)、プレーの成績(過去の最高成績や複数のプレーヤ間における順位)に基づいて、連動性関係性パラメータテーブルを用いてゲーム履歴起因パラメータを算出する。   On the other hand, the parameter control unit 118 plays the player's play frequency (the number of executions, the number of logins and the elapsed time from the previous execution date), the play time (the total time since the start of the game), and the play results (the past highest results and multiple Based on the ranking among the players), the game history-derived parameter is calculated using the linkage relationship parameter table.

例えば、連動性関係性パラメータテーブルには、プレー頻度が高いほど、プレー時間が長いほど、又は、プレーの成績が高いほど、高いポイントが設定されている。   For example, in the linkage relationship parameter table, a higher point is set as the play frequency is higher, the play time is longer, or the play result is higher.

また、パラメータ制御部118は、プレー成績においては、複数のプレーヤで演技キャラクタの演技パフォーマンスを注視するマルチプレーの場合には、演技中に算出される関係性パラメータの値に応じてリアルタイムの成績によってゲーム履歴起因パラメータを算出する。   In addition, in the case of multi-play where the performance performance of the acting character is watched by a plurality of players, the parameter control unit 118 uses real-time results according to the value of the relationship parameter calculated during the performance. A game history attribute parameter is calculated.

(演技中の関係性パラメータの変動)
パラメータ制御部118は、戦略的関係性パラメータ及び連動性関係性パラメータのうち、該当するパラメータを、演技キャラクタの演技開始前に算出するとともに、当該演技キャラクタの演技中に、該当する関係性パラメータを算出する。
(Changes in relationship parameters during performance)
The parameter control unit 118 calculates a corresponding parameter among the strategic relationship parameter and the linkage relationship parameter before starting the performance of the acting character, and sets the corresponding relationship parameter during the performance of the acting character. calculate.

特に、パラメータ制御部118は、表示物オブジェクトの様態又は当該様態を変化させるため、プレーヤやアバターに関する関係性パラメータ及び演技キャラクタを用いた関係性パラメータを合算して合算値を算出する。   In particular, the parameter control unit 118 calculates a combined value by adding together the relationship parameter regarding the player and the avatar and the relationship parameter using the acting character in order to change the state of the display object or the state.

なお、本実施形態においては、パラメータ制御部118は、表示物オブジェクトの様態
又は当該様態を変化させるための関係性パラメータとして、プレーヤやアバターに関する関係性パラメータ又は演技キャラクタを用いた関係性パラメータのいずれかを算出し、いずれかの関係性パラメータのみによって表示物オブジェクトの態様制御を実行してもよい。
In the present embodiment, the parameter control unit 118 selects either the relationship parameter for the player or the avatar or the relationship parameter using the acting character as the mode of the display object or the relationship parameter for changing the mode. It is also possible to calculate the above and execute the display object object aspect control only by any one of the relationship parameters.

一方、パラメータ制御部118は、演技中の関係性パラメータとして、上記の各パラメータを、付与されたタイミングから予め定められた時間経過後(10秒後や30後)や所定のタイミング(演技中の曲が終了するまでなどの演技上容易に区切ることが可能なタイミング)に消滅させる。   On the other hand, the parameter control unit 118 sets each of the above parameters as a relationship parameter during the performance after a predetermined time has elapsed from the given timing (after 10 seconds or after 30) or at a predetermined timing (during performance). When the song is finished, it will disappear at a timing where it can be easily separated on the performance).

特に、パラメータ制御部118は、演技中にアバターに設定されたアイテムに基づいて加算されたパラメータ、又は、行動起因パラメータや位置起因パラメータなどの演技キャラクタの演技中に変更された関係性パラメータのうち加算分の値を所定の時間経過後又は所定のタイミングに消滅させる。   In particular, the parameter control unit 118 is a parameter added based on an item set in the avatar during the performance, or a relationship parameter changed during the performance of the performance character such as an action-derived parameter or a position-derived parameter. The added value is eliminated after a predetermined time or at a predetermined timing.

また、アバターの外観やアイテムにおいては、使用期限が設定されており、パラメータ制御部118は、当該使用期限に従ってパラメータの算出を行う。例えば、パラメータ制御部118は、演技中の30秒のみや所定のタイミングのみの使用期限が設定されているアイテムが設定された場合には、該当する使用期限後には、その使用を禁止し、それに基づく関係性パラメータの算出を中止する。   In addition, an expiration date is set for the appearance and items of the avatar, and the parameter control unit 118 calculates parameters according to the expiration date. For example, the parameter control unit 118 prohibits the use after the corresponding expiration date when an item for which the expiration date is set for only 30 seconds during the performance or only for a predetermined timing is set. Cancel the calculation of the relationship parameter based on it.

[4.3]表示物オブジェクトの様態制御処理
次に、図11及び図12を用いて本実施形態における関係性パラメータの画像化処理(表示物オブジェクトの様態制御処理)について説明する。なお、図11及び図12は、本実施形態の関係性パラメータの画像化処理(表示物オブジェクトの様態制御処理)を説明するための図である。
[4.3] Display Object Object State Control Process Next, the relationship parameter imaging process (display object object state control process) in this embodiment will be described with reference to FIGS. 11 and 12. 11 and 12 are diagrams for explaining the relationship parameter imaging process (display object object state control process) according to the present embodiment.

通知画像制御部119は、演技キャラクタの演技開始時に、演技キャラクタ毎、アバター毎、又は、演技パフォーマンスを行う期間(以下、「演技期間」という。)毎に、予め設定された表示物オブジェクトの種別を特定する。   The notification image control unit 119 sets the type of display object set in advance for each acting character, each avatar, or each performance period (hereinafter referred to as “acting period”) at the start of the performance of the acting character. Is identified.

そして、通知画像制御部119は、初期値として算出されている関係性パラメータに応じて、特定した表示物オブジェクトの初期の様態を設定し、演技キャラクタの近傍に、当該設定した表示物オブジェクトを表示するための表示制御の実行を開始する。   Then, the notification image control unit 119 sets the initial state of the identified display object according to the relationship parameter calculated as the initial value, and displays the set display object in the vicinity of the acting character. The display control for starting is started.

具体的には、通知画像制御部119は、ゲーム情報144やプレーヤが予め設定されている場合にはプレーヤ情報146に基づいて、演技キャラクタ毎、アバター毎、又は、演技期間毎に、例えば、ハート型、複数の星プラス楕円型、及び、演技キャラクタの表情型の複数の表示物オブジェクトの種別の中から1の種別を特定する。   Specifically, the notification image control unit 119 performs, for example, a heart for each acting character, each avatar, or each performance period based on the game information 144 or the player information 146 when the player is set in advance. One type is specified from among a plurality of display object types of a type, a plurality of stars plus an ellipse type, and an acting character expression type.

また、通知画像制御部119は、演技キャラクタの演技開始時には、表示物・表情パーツオブジェクト情報148に規定された情報の中から、特定した表示物オブジェクトの種別の基本仕様情報と、上述のように、初期値として算出されている関係性パラメータが含まれるパラメータ範囲に規定された変化仕様情報を読み出す。   Further, the notification image control unit 119, when starting the performance of the acting character, from the information defined in the display object / expression part object information 148, the basic specification information of the type of the specified display object, as described above. The change specification information defined in the parameter range including the relationship parameter calculated as the initial value is read out.

そして、通知画像制御部119は、当該読み出した基本仕様情報と変化仕様情報とに基づいて表示物オブジェクトを形成して、形成した表示物オブジェクトを、アバターの視線方向に応じて対象の演技キャラクタの近傍に表示するための表示制御を実行する。   Then, the notification image control unit 119 forms a display object based on the read basic specification information and change specification information, and displays the formed display object in accordance with the line of sight of the avatar. Display control for displaying in the vicinity is executed.

例えば、表示物オブジェクトの種別が「ハート型」であって、4段階のパラメータ範囲
が設定されており、それぞれの各パラメータ範囲には、関係性パラメータが大きくなるにつれて表示物オブジェクトの「ハート」の形状が大きくなる変化仕様情報が表示物・表情パーツオブジェクト情報148に登録されている状態を想定する。
For example, the type of the display object is “heart-shaped”, and four levels of parameter ranges are set. In each parameter range, the “heart” of the display object increases as the relationship parameter increases. It is assumed that the change specification information whose shape increases is registered in the display object / facial expression part object information 148.

この場合において、初期値としての関係性パラメータが第2段階のパラメータ範囲の場合には、通知画像制御部119は、基本仕様情報と第2段階の変更仕様情報を読み出し、読み出した基本仕様情報と変更仕様情報とに基づいて、例えば、図11(A)及び(B)に示すように、第2段階の形状を有するハートの表示物オブジェクト30を形成して初期の様態を設定し、当該様態制御を開始する。   In this case, when the relationship parameter as the initial value is in the second stage parameter range, the notification image control unit 119 reads the basic specification information and the second stage changed specification information, and the read basic specification information and Based on the change specification information, for example, as shown in FIGS. 11A and 11B, a heart display object 30 having a second-stage shape is formed to set an initial state, and the state Start control.

特に、通知画像制御部119は、表示物オブジェクトの表示制御においては、アバター視線制御部115によって特定されたゲーム空間内における視線方向に演技キャラクタが配置されているか否か適宜判定し、当該視線方向に演技キャラクタが配置されていると判定した場合には、該当する演技キャラクタの近傍に設定された表示物オブジェクトを表示するための表示制御を実行する。   In particular, in the display control of the display object, the notification image control unit 119 appropriately determines whether or not the acting character is arranged in the line-of-sight direction in the game space specified by the avatar line-of-sight control unit 115, and the line-of-sight direction When it is determined that the acting character is arranged, the display control for displaying the display object set near the corresponding acting character is executed.

そして、通知画像制御部119は、視線方向に2以上の演技キャラクタが配置されている場合には、当該アバターに近い演技キャラクタに対して表示物オブジェクトを表示する表示制御を実行する。   And the notification image control part 119 performs the display control which displays a display thing object with respect to the acting character close | similar to the said avatar, when two or more acting characters are arrange | positioned in a gaze direction.

一方、通知画像制御部119は、演技キャラクタの演技中には、パラメータ制御部118によって関係性パラメータが新たに算出される毎に、新たに算出された関係性パラメータが現在のパラメータ範囲外の他のパラメータ範囲に属したか否かを判定する。   On the other hand, the notification image control unit 119 causes the newly calculated relationship parameter to be outside the current parameter range each time a new relationship parameter is calculated by the parameter control unit 118 during the performance of the acting character. It is determined whether it belongs to the parameter range.

そして、通知画像制御部119は、新たに算出された関係性パラメータが他のパラメータ範囲に属した場合には、当該他のパラメータ範囲に対応付けて記憶されている変化仕様情報を読み出し、当該読み出した基本仕様情報と変化仕様情報とに基づいて表示物オブジェクトを形成して、形成した表示物オブジェクトを、アバターの視線方向に応じて対象の演技キャラクタの近傍に表示するための表示制御を実行する。   Then, when the newly calculated relationship parameter belongs to another parameter range, the notification image control unit 119 reads the change specification information stored in association with the other parameter range, and reads the read The display object is formed based on the basic specification information and the change specification information, and display control for displaying the formed display object in the vicinity of the target acting character according to the line of sight of the avatar is executed. .

例えば、表示物オブジェクトの種別が「ハート型」、及び、初期値のパラメータ範囲が第2段階であって、新たに算出された関係性パラメータのパラメータ範囲が第3段階のパラメータ範囲に含まれる場合を想定する。   For example, when the type of the display object is “heart-shaped”, the parameter range of the initial value is the second stage, and the parameter range of the newly calculated relationship parameter is included in the parameter range of the third stage Is assumed.

この場合には、通知画像制御部119は、第3段階の変更仕様情報を読み出し、既に読み出した基本仕様情報と今回読み出した変更仕様情報とに基づいて第3段階の形状を有するハート型の表示物オブジェクトを形成し、その表示制御を開始する。   In this case, the notification image control unit 119 reads the changed specification information of the third stage, and displays a heart-shaped display having the shape of the third stage based on the basic specification information that has already been read and the changed specification information that has been read this time. An object object is formed and its display control is started.

そして、例えば、第3段階の形状を有するハート型の表示物オブジェクト30が第2段階の形状よりサイズが大きい場合には、通知画像制御部119は、図11(A)に示すように、図7に示す表示物オブジェクト30よりサイズが大きいハート型の表示物オブジェクト30を表示するように、その様態の変化を制御する。   For example, when the heart-shaped display object 30 having the shape of the third stage is larger in size than the shape of the second stage, the notification image control unit 119 displays the figure as shown in FIG. The change of the mode is controlled so that the heart-shaped display object 30 having a larger size than the display object 30 shown in FIG.

なお、表示物オブジェクトは、図11(B)に例示するように、丸形や星型(複数を含む)などの他の形状であってもよいし、図12(A)に例示するように、大小の形状を繰り返すアニメーションパターンや演技キャラクタの表情を変化させるアニメーションパターン(徐々に目が大きくなる、又は、笑顔が派手(口だけで笑う表情が、目、口、しわが連動した表情になるなど))であってもよい。   Note that the display object may have another shape such as a round shape or a star shape (including a plurality) as illustrated in FIG. 11B, or as illustrated in FIG. Animated patterns that repeat large and small shapes, and animated patterns that change the facial expression of the acting character (the eyes gradually become larger, or the smile is flashy (the facial expression laughing with just the mouth becomes an expression that links the eyes, mouth, and wrinkles) Etc.))).

特に、図12(A)においては、演技キャラクタにおいて、特別制御として「ウィンク
」の動作が実行されている場合であって、それによって、アバター5及び演技キャラクタ8の関係性パラメータが変動し(大きくなり)、アニメーションパターンによって表示する表示物オブジェクト30の様態の変化制御が実行された場合の例である。
In particular, in FIG. 12A, the acting character is performing a “wink” action as a special control, whereby the relationship parameter between the avatar 5 and the acting character 8 varies (largely). This is an example when the change control of the state of the display object 30 displayed by the animation pattern is executed.

また、表示物オブジェクトは、図12(B)に例示するように、関係性パラメータが大きくなるに従って、形状が大きくなるだけでなく、色彩が変化する(例えば、明度や色度を変化させて艶やかになるなど)、形状が変形する(例えば、一部が大きくなるなど)、又は、これらの組み合わせであてもよい。   In addition, as illustrated in FIG. 12B, the display object not only increases in shape but also changes in color as the relationship parameter increases (for example, the brightness or chromaticity is changed to increase the gloss). The shape may be deformed (for example, a part may be enlarged), or a combination thereof.

さらに、表示物オブジェクトは、2次元表示として形成されてもよいし、ゲーム空間に配置される他のオブジェクト同様に3次元のオブジェクトとして形成されてもよい。   Furthermore, the display object may be formed as a two-dimensional display, or may be formed as a three-dimensional object like other objects arranged in the game space.

[4.4]関係性パラメータの画像化処理(演技キャラクタ様態制御処理)
次に、図13及び図14を用いて本実施形態における関係性パラメータの画像化処理(演技キャラクタ様態制御処理)について説明する。なお、図13及び図14は、本実施形態の関係性パラメータの画像化処理(演技キャラクタ様態制御処理)の様態制御処理を説明するための図である。また、以下の説明においては、演技キャラクタ様態制御処理の1つとして、表情パーツオブジェクトを用いて演技キャラクタ様態を制御する表情パーツオブジェクトの様態制御処理を用いて説明する。
[4.4] Relationship parameter imaging processing (acting character mode control processing)
Next, the relationship parameter imaging processing (acting character mode control processing) in the present embodiment will be described with reference to FIGS. FIG. 13 and FIG. 14 are diagrams for explaining the mode control process of the relationship parameter imaging process (the acting character mode control process) of the present embodiment. In the following description, as one of the acting character state control processes, the expression part object state control process for controlling the acting character state using the expression part object will be described.

通知画像制御部119は、演技キャラクタの演技開始時に、演技キャラクタ毎、アバター毎、又は、演技パフォーマンスを行う期間(以下、「演技期間」という。)毎に、予め設定された表情パーツオブジェクトの種別を特定する。   The notification image control unit 119, for each acting character, each avatar, or each performance performance period (hereinafter referred to as “acting period”) at the start of the performance of the acting character, Is identified.

そして、通知画像制御部119は、初期値として算出されている関係性パラメータに応じて、特定した表情パーツオブジェクトの初期の様態を設定し、かつ、当該設定した表情パーツオブジェクトを含む演技キャラクを設定し、設定した演技キャラクの様態を制御する様態制御の実行を開始する。   Then, the notification image control unit 119 sets the initial state of the identified facial expression part object according to the relationship parameter calculated as the initial value, and sets the acting character including the set facial expression part object Then, the execution of the state control for controlling the state of the set acting character is started.

具体的には、通知画像制御部119は、ゲーム情報144やプレーヤが予め設定されている場合にはプレーヤ情報146に基づいて、演技キャラクタ毎、アバター毎、又は、演技期間毎に、例えば、演技キャラクタの表情を構成する複数の表情パーツオブジェクト群の中から1の種別を特定する。   Specifically, the notification image control unit 119 performs, for example, a performance for each acting character, each avatar, or each performance period based on the game information 144 or the player information 146 when the player is set in advance. One type is specified from a plurality of facial expression part object groups constituting the facial expression of the character.

また、通知画像制御部119は、演技キャラクタの演技開始時には、表示物・表情パーツオブジェクト情報148に規定された情報の中から、特定した表情パーツオブジェクト群の種別の基本仕様情報と、上述のように、初期値として算出されている関係性パラメータが含まれるパラメータ範囲に規定された変化仕様情報を読み出す。   Also, the notification image control unit 119, when starting the performance of the acting character, from the information defined in the display object / expression part object information 148, the basic specification information of the type of the specified expression part object group, as described above Then, the change specification information defined in the parameter range including the relationship parameter calculated as the initial value is read out.

そして、通知画像制御部119は、当該読み出した基本仕様情報と変化仕様情報とに基づいて表情パーツオブジェクト(群)を形成して、形成した表情パーツオブジェクト(群)を含む演技キャラクタの様態を設定(制御)する。   Then, the notification image control unit 119 forms an expression part object (group) based on the read basic specification information and the change specification information, and sets the state of the acting character including the formed expression part object (group). (Control.

なお、表情パーツオブジェクト(群)は、通常複数のパーツのオブジェクトから構成されているので、基本仕様情報や変化仕様情報は、1の表情パーツオブジェクト群に含まれる複数の表情パーツの情報から構成されている。そして、通知画像制御部119は、読み出した基本仕様情報と変化仕様情報とに基づいて複数の表情パーツオブジェクトを形成させる。   Since the expression part object (group) is usually composed of objects of a plurality of parts, basic specification information and change specification information are composed of information of a plurality of expression parts included in one expression part object group. ing. Then, the notification image control unit 119 forms a plurality of facial expression part objects based on the read basic specification information and change specification information.

例えば、表情パーツオブジェクトが「笑顔A」であって、4段階のパラメータ範囲が設
定されており、それぞれの各パラメータ範囲には、関係性パラメータが大きくなるにつれて笑顔の表現が変化する変化仕様情報が表示物・表情パーツオブジェクト情報148に登録されている状態を想定する。
For example, the expression part object is “smile A”, and four parameter ranges are set. Each parameter range includes change specification information in which the expression of smile changes as the relationship parameter increases. The state registered in the display object / expression part object information 148 is assumed.

この場合において、初期値としての関係性パラメータが第2段階のパラメータ範囲の場合には、通知画像制御部119は、基本仕様情報と第2段階の変更仕様情報を読み出し、読み出した基本仕様情報と変更仕様情報とに基づいて、例えば、図8(A)及び(B)に示すように、第2段階の形状を有する笑顔の表情パーツオブジェクト40を形成して初期の様態を設定し、当該様態制御を開始する。   In this case, when the relationship parameter as the initial value is in the second stage parameter range, the notification image control unit 119 reads the basic specification information and the second stage changed specification information, and the read basic specification information and Based on the change specification information, for example, as shown in FIGS. 8A and 8B, a smile facial expression part object 40 having a second stage shape is formed to set an initial state, and the state Start control.

一方、通知画像制御部119は、演技キャラクタの演技中には、パラメータ制御部118によって関係性パラメータが新たに算出される毎に、新たに算出された関係性パラメータが現在のパラメータ範囲外の他のパラメータ範囲に属したか否かを判定する。   On the other hand, the notification image control unit 119 causes the newly calculated relationship parameter to be outside the current parameter range each time a new relationship parameter is calculated by the parameter control unit 118 during the performance of the acting character. It is determined whether it belongs to the parameter range.

そして、通知画像制御部119は、新たに算出された関係性パラメータが他のパラメータ範囲に属した場合には、当該他のパラメータ範囲に対応付けて記憶されている変化仕様情報を読み出し、当該読み出した基本仕様情報と変化仕様情報とに基づいて表情パーツオブジェクト40を形成して、形成した表情パーツオブジェクト40を含む演技キャラクを設定し、設定した演技キャラクの様態変化を制御する様態変化制御の実行を開始する。   Then, when the newly calculated relationship parameter belongs to another parameter range, the notification image control unit 119 reads the change specification information stored in association with the other parameter range, and reads the read The expression part object 40 is formed based on the basic specification information and the change specification information, the acting character including the formed expression part object 40 is set, and the state change control is executed to control the change in the state of the set acting character. To start.

例えば、表情パーツオブジェクトの種別が「笑顔A」であって、初期値のパラメータ範囲が第2段階であって、新たに算出された関係性パラメータのパラメータ範囲が第3段階のパラメータ範囲に含まれる場合を想定する。   For example, the expression part object type is “smile A”, the parameter range of the initial value is the second stage, and the parameter range of the newly calculated relationship parameter is included in the parameter range of the third stage. Assume a case.

この場合には、通知画像制御部119は、第3段階の変更仕様情報を読み出し、既に読み出した基本仕様情報と今回読み出した変更仕様情報とに基づいて第3段階の形状を有する笑顔Aの表情パーツオブジェクトを形成し、形成した表情パーツオブジェクト40を含む演技キャラクを制御(設定)する。   In this case, the notification image control unit 119 reads the changed specification information of the third stage, and the facial expression of the smile A having the shape of the third stage based on the already read basic specification information and the changed specification information read this time. A part object is formed, and an acting character including the formed expression part object 40 is controlled (set).

そして、例えば、第3段階の形状を有する「笑顔A」の表情パーツオブジェクト40が図8に示す表情パーツオブジェクト40より明るく、より楽しい笑顔の場合には、通知画像制御部119は、図13(A)に示すように、図8に示す表情パーツオブジェクト40より明るくより楽しい笑顔を形成する表情パーツオブジェクト40を含む演技キャラク(具体的には左目の表情パーツオブジェクトが変化した演技キャラクタ)を制御(設定)する。   For example, when the expression part object 40 of “smile A” having the shape of the third stage is brighter and more enjoyable than the expression part object 40 shown in FIG. 8, the notification image control unit 119 displays the expression part object 40 in FIG. As shown in FIG. 8A, the acting character including the expression part object 40 that forms a brighter and more enjoyable smile than the expression part object 40 shown in FIG. Setting).

なお、例えば、新たに算出された関係性パラメータのパラメータ範囲が第4段階のパラメータ範囲に含まれる場合であって、第4段階の形状を有する「笑顔A」の表情パーツオブジェクト40が図8及び図13(A)に示す表情パーツオブジェクト40より明るく、より楽しい笑顔の場合には、通知画像制御部119は、図13(B)に示すように、図8及び図13(A)に示す表情パーツオブジェクト40より明るくより楽しい笑顔を形成する表情パーツオブジェクト40を含む演技キャラク(具体的には目及び口の表情パーツオブジェクトが変化した演技キャラクタ)を制御(設定)する。   For example, when the parameter range of the newly calculated relationship parameter is included in the parameter range of the fourth stage, the expression part object 40 of “smile A” having the shape of the fourth stage is shown in FIG. In the case of a brighter and more enjoyable smile than the facial expression part object 40 shown in FIG. 13A, the notification image control unit 119 displays the facial expressions shown in FIGS. 8 and 13A as shown in FIG. The acting character including the expression part object 40 that forms a brighter and more enjoyable smile than the part object 40 (specifically, the acting character in which the expression part objects of the eyes and mouth are changed) is controlled (set).

一方、表情パーツオブジェクトは、演技キャラクタの瞳を構成する瞳パーツオブジェクトであってもよい。すなわち、演技キャラクタの表情を表現する際に重要となる瞳のパーツを用いることによって当該演技キャラクタの表情を制御することができるようになっている。   On the other hand, the facial expression part object may be a pupil part object that constitutes the pupil of the acting character. In other words, the facial expression of the acting character can be controlled by using pupil parts that are important when expressing the facial expression of the acting character.

このため、ゲームの進行状況や当該演技キャラクタに対するプレーヤの入力状況を、当
該プレーヤに容易にかつ的確に認識させることができるとともに、意思疎通が図れている状況などのゲーム中のプレー状況の表示を、ゲームを盛り上げる演出として、用いることができるようになっている。
For this reason, the progress of the game and the input status of the player with respect to the acting character can be easily and accurately recognized by the player, and the display of the play status during the game, such as a situation where communication is achieved, is displayed. It can be used as an effect that excites the game.

具体的には、瞳パーツオブジェクトには、例えば、瞳孔パーツ、虹彩パーツ、及び、当該瞳を装飾するための装飾パーツが含まれる複合体のオブジェクトによって構成され、瞳パーツオブジェクトの様態には、例えば、各パーツの形状、色、及び大きさが含まれる。   Specifically, the pupil part object is composed of a complex object including, for example, a pupil part, an iris part, and a decoration part for decorating the pupil. , The shape, color, and size of each part.

特に、装飾パーツとしては、例えば、瞳に映る星やハートなどの図形、光環、プレーヤキャラクタを含む他のキャラクタのパーツが含まれる。また、瞳パーツオブジェクトの色は、輝度、又は、明度、彩度、及び、色相の要素によって定まり、色の変化としては、これらの要素が変化することを示す。   In particular, the decorative parts include, for example, parts of other characters including a figure such as a star and a heart reflected in the pupil, a light ring, and a player character. Further, the color of the pupil part object is determined by luminance, brightness, saturation, and hue elements, and changes in color indicate that these elements change.

例えば、瞳パーツオブジェクト41としては、図14(A)に例示するように、丸形の瞳孔パーツに星形及び菱形の虹彩パーツを有するオブジェクトの複合体であってもよいし、図14(B)に例示するように、星形の瞳孔パーツに、ハート型の装飾パーツを有するオブジェクトの複合体であってもよい。   For example, as illustrated in FIG. 14A, the pupil part object 41 may be a complex of objects having star-shaped and diamond-shaped iris parts in a round pupil part. ), A composite of an object having a heart-shaped decorative part on a star-shaped pupil part may be used.

特に、図14(A)には、演技キャラクタにおいて、特別制御として「ウィンク(右目)」の動作が実行されている場合の表情パーツオブジェクト40の様態の変化制御が示されている。   In particular, FIG. 14A shows the change control of the appearance of the facial expression part object 40 when the acting character is performing a “wink (right eye)” action as a special control.

なお、上述の実施形態においては、表情パーツオブジェクトとしては、目や口(唇)などの表情パーツの複合体又は瞳などのさらに細部の表情パーツを用いて説明したが、演技キャラクタの鼻、口(唇だけでなく口角や「えくぼ」などのその周囲も含む。)、眉毛、まつ毛、眉間、歯、頬、髪の毛、汗、及び、装飾品を含み、これらの様態としては、例えば、動き、大きさ、色彩、形状、光り方、及び、アニメーションパターン(表情パーツの連続動作に基づく特定のしぐさを示す表情)が含まれてもよい。   In the above-described embodiment, the expression part object has been described using a complex expression part such as eyes and mouth (lips) or a more detailed expression part such as a pupil. (Including not only the lips but also the surroundings such as the corners of the mouth and the “dimple”), eyebrows, eyelashes, eyebrows, teeth, cheeks, hair, sweat, and ornaments, such as movement, The size, color, shape, lighting method, and animation pattern (an expression showing a specific gesture based on the continuous movement of the expression part) may be included.

[4.5]プレーヤパラメータ画像化処理
[4.5.1]画像化処理
次に、図15及び図16を用いて本実施形態におけるプレーヤパラメータ画像化処理について説明する。なお、図15及び図16は、本実施形態のプレーヤパラメータ画像化処理を説明するための図である。
[4.5] Player Parameter Imaging Process [4.5.1] Imaging Process Next, the player parameter imaging process in the present embodiment will be described with reference to FIGS. 15 and 16. 15 and 16 are diagrams for explaining the player parameter imaging processing according to the present embodiment.

通知画像制御部119は、関係性パラメータを、ゲーム空間に配置された他のプレーヤキャラクタ(すなわち、アバター)の近傍に所定の表示物として画像化し、又は、当該他のプレーヤのアバターの表情や動きなどの様態として画像化するなど、他のプレーヤキャラクタであるアバターに関連付けて画像化する。   The notification image control unit 119 images the relationship parameter as a predetermined display object in the vicinity of another player character (ie, avatar) arranged in the game space, or the expression or movement of the avatar of the other player For example, it is imaged as an aspect such as an avatar that is another player character.

特に、通知画像制御部119は、関係性パラメータを、ゲーム空間に配置された他のプレーヤキャラクタ(すなわち、アバター)の近傍に所定の表示物オブジェクトによって画像化する場合には、上述した演技キャラクタに対する表示物オブジェクトの様態制御処理と同様に、演技キャラクタの近傍に、所定の表示物オブジェクトを画像化する表示物オブジェクトによる画像化処理を実行する。   In particular, when the notification image control unit 119 images the relationship parameter with a predetermined display object in the vicinity of another player character (that is, an avatar) arranged in the game space, the notification image control unit 119 Similar to the display object object state control process, an imaging process is performed with a display object object that images a predetermined display object in the vicinity of the acting character.

また、通知画像制御部119は、関係性パラメータを、ゲーム空間に配置された他のプレーヤキャラクタ(すなわち、アバター)の表情によって画像化する場合には、上述した演技キャラクタに対する表情パーツオブジェクトの様態制御処理と同様に、他のプレーヤのアバターの表情パーツを制御して他のプレーヤのキャラクタの様態を制御するアバター
の表情による画像化処理を実行する。
In addition, the notification image control unit 119 controls the appearance part expression for the acting character described above when the relationship parameter is imaged by the expression of another player character (ie, avatar) placed in the game space. Similar to the processing, the avatar facial expression parts of other players are controlled to control the appearance of the characters of the other players, and the imaging processing based on the avatar facial expressions is executed.

(表示物オブジェクトによる画像化処理)
通知画像制御部119は、演技キャラクタの演技開始時に、アバター毎に、予め設定された表示物オブジェクトの種別を特定し、初期値として算出されている関係性パラメータに応じて、特定した表示物オブジェクトの初期の様態を設定し、他のプレーヤのアバターの近傍に、当該設定した表示物オブジェクトを画像化するための制御を開始する。
(Imaging processing with display object)
The notification image control unit 119 specifies a preset type of display object for each avatar at the start of the performance of the acting character, and specifies the specified display object according to the relationship parameter calculated as an initial value. The initial mode is set, and control for imaging the set display object is started near the avatars of other players.

具体的には、通知画像制御部119は、ゲーム情報144やプレーヤが予め設定されている場合にはプレーヤ情報146に基づいて、アバター毎に、例えば、ハート型、複数の星プラス楕円型、及び、演技キャラクタの表情型の複数の表示物オブジェクトの種別の中から1の種別を特定する。   Specifically, the notification image control unit 119, for example, for each avatar based on the game information 144 or the player information 146 when a player is set in advance, for example, a heart shape, a plurality of stars plus an ellipse shape, and Then, one type is specified from among a plurality of display object types of the expression type of the acting character.

また、通知画像制御部119は、演技キャラクタの演技開始時には、表示物・表情パーツオブジェクト情報148に規定された情報の中から、特定した表示物オブジェクトの種別の基本仕様情報と、上述のように、初期値として算出されている関係性パラメータが含まれるパラメータ範囲に規定された変化仕様情報を読み出す。   Further, the notification image control unit 119, when starting the performance of the acting character, from the information defined in the display object / expression part object information 148, the basic specification information of the type of the specified display object, as described above. The change specification information defined in the parameter range including the relationship parameter calculated as the initial value is read out.

そして、通知画像制御部119は、当該読み出した基本仕様情報と変化仕様情報とに基づいて表示物オブジェクトを形成して、形成した表示物オブジェクトを、アバターの視線方向に応じて対象の他のプレーヤのアバターの近傍に画像化するための制御を実行する。   Then, the notification image control unit 119 forms a display object based on the read basic specification information and change specification information, and displays the formed display object in accordance with another player's line-of-sight direction. The control for imaging in the vicinity of the avatar is executed.

特に、通知画像制御部119は、表示物オブジェクトの表示制御においては、アバター視線制御部115によって特定されたゲーム空間内における視線方向に他のプレーヤのアバターが配置されているか否か適宜判定し、当該視線方向に演技キャラクタが配置されていると判定した場合には、該当するアバターの近傍に設定された表示物オブジェクトを画像化するための画像化処理を実行する。   In particular, the notification image control unit 119 appropriately determines whether or not an avatar of another player is arranged in the line-of-sight direction in the game space specified by the avatar line-of-sight control unit 115 in the display control of the display object. When it determines with the acting character being arrange | positioned in the said gaze direction, the imaging process for imaging the display object set in the vicinity of the applicable avatar is performed.

また、通知画像制御部119は、演技キャラクタの演技中には、パラメータ制御部118によって関係性パラメータが新たに算出される毎に、新たに算出された関係性パラメータが現在のパラメータ範囲外の他のパラメータ範囲に属したか否かを判定する。   In addition, the notification image control unit 119 determines that the newly calculated relationship parameter is outside the current parameter range every time the parameter control unit 118 newly calculates the relationship parameter during the performance of the acting character. It is determined whether it belongs to the parameter range.

そして、通知画像制御部119は、新たに算出された関係性パラメータが他のパラメータ範囲に属した場合には、当該他のパラメータ範囲に対応付けて記憶されている変化仕様情報を読み出し、当該読み出した基本仕様情報と変化仕様情報とに基づいて表示物オブジェクトを形成して、形成した表示物オブジェクトを、アバターの視線方向に応じて対象の他のプレーヤのアバターの近傍に画像化するための画像化処理を実行する。   Then, when the newly calculated relationship parameter belongs to another parameter range, the notification image control unit 119 reads the change specification information stored in association with the other parameter range, and reads the read An image for forming a display object based on the basic specification information and the change specification information, and imaging the formed display object in the vicinity of the avatar of another target player according to the line-of-sight direction of the avatar Execute the conversion process.

例えば、通知画像制御部119は、上述の図9(B)に示すように、他のプレーヤBにおけるアバター5Bについては、ハート型の表示物オブジェクト50Bを他のプレーヤBの表示物オブジェクトと設定し、ゲーム中に変動する関係性パラメータに応じて、設定したハート型の表示物オブジェクト50Bを画像化する画像化処理を実行する。   For example, as shown in FIG. 9B described above, the notification image control unit 119 sets the heart-shaped display object 50B as the display object of the other player B for the avatar 5B of the other player B. An imaging process for imaging the set heart-shaped display object 50B is executed in accordance with the relationship parameter that varies during the game.

また、同様に、通知画像制御部119は、図15(A)に示すように、他のプレーヤBにおけるアバター5Bについては、星型の表示物オブジェクト60Bを他のプレーヤBの表示物オブジェクトと設定し、ゲーム中に変動する関係性パラメータに応じて、設定した星型の表示物オブジェクト60Bを画像化する画像化処理を実行する。   Similarly, the notification image control unit 119 sets the star-shaped display object 60B as the display object of another player B for the avatar 5B of the other player B, as shown in FIG. Then, an imaging process for imaging the set star-shaped display object 60B is executed according to the relationship parameter that varies during the game.

さらに、通知画像制御部119は、図15(B)に例示するように、関係性パラメータが大きくなるに従って、形状が大きくし、色彩を変化させ(例えば、明度や色度を変化さ
せて艶やかになるなど)、又は、形状が変形(例えば、一部が大きくなるなど)させる。
Further, as illustrated in FIG. 15B, the notification image control unit 119 increases the shape and changes the color as the relationship parameter increases (for example, the brightness or chromaticity is changed to change the glossiness). Or the shape is deformed (for example, a part is enlarged).

例えば、図15(B)には、図9(B)に示すアバター5Bの関係性パラメータが大きくなるに従って、ハート型の表示物オブジェクト50Bの形状が大きくなった場合を示している。   For example, FIG. 15B shows a case where the shape of the heart-shaped display object 50B increases as the relationship parameter of the avatar 5B shown in FIG. 9B increases.

なお、表示物オブジェクトは、上述した演技キャラクタに対する表示物オブジェクトの様態制御処理と同様に、丸形や複数の星型などの他の形状であってもよいし、大小の形状を繰り返すアニメーションパターンなどの形状や色彩が変化するアニメーションパターンであってもよい。   Note that the display object may be another shape such as a round shape or a plurality of star shapes, or an animation pattern that repeats a large or small shape, in the same manner as the state control process of the display object for the acting character described above. It may be an animation pattern in which the shape or color of the pattern changes.

また、表示物オブジェクトは、上述した演技キャラクタに対する表示物オブジェクトの様態制御処理と同様に、2次元表示として形成されてもよいし、ゲーム空間に配置される他のオブジェクト同様に3次元のオブジェクトとして形成されてもよい。   In addition, the display object may be formed as a two-dimensional display in the same manner as the state control process of the display object for the acting character described above, or as a three-dimensional object like other objects arranged in the game space. It may be formed.

(アバターの表情による画像化処理)
通知画像制御部119は、演技キャラクタの演技開始時に、アバター毎に、予め設定された表情パーツオブジェクトの種別を特定し、初期値として算出されている関係性パラメータに応じて、特定した表情パーツオブジェクトの初期の様態を設定し、かつ、当該設定した表情パーツオブジェクトを含む他のプレーヤのアバターを設定し、設定したアバターの様態を制御する様態制御の実行を開始する。
(Imaging processing using facial expressions of avatars)
The notification image control unit 119 specifies the type of facial expression part object set in advance for each avatar at the start of the performance of the acting character, and specifies the specified facial expression part object according to the relationship parameter calculated as an initial value. Is set, and the avatars of other players including the set expression part object are set, and execution of the mode control for controlling the set avatar mode is started.

具体的には、通知画像制御部119は、ゲーム情報144やプレーヤが予め設定されている場合にはプレーヤ情報146に基づいて、アバター毎に、例えば、笑顔を形成する表情パーツオブジェクトなど、演技キャラクタの表情を構成する複数の表情パーツオブジェクト群の中から1の種別を特定する。   Specifically, the notification image control unit 119 performs, for example, an acting character such as a facial expression part object that forms a smile for each avatar based on the game information 144 or the player information 146 when a player is preset. One type is specified from a plurality of facial expression part object groups constituting the facial expression.

また、通知画像制御部119は、演技キャラクタの演技開始時には、表示物・表情パーツオブジェクト情報148に規定された情報の中から、特定した表情パーツオブジェクト群の種別の基本仕様情報と、上述のように、初期値として算出されている関係性パラメータが含まれるパラメータ範囲に規定された変化仕様情報を読み出す。   Also, the notification image control unit 119, when starting the performance of the acting character, from the information defined in the display object / expression part object information 148, the basic specification information of the type of the specified expression part object group, as described above Then, the change specification information defined in the parameter range including the relationship parameter calculated as the initial value is read out.

そして、通知画像制御部119は、当該読み出した基本仕様情報と変化仕様情報とに基づいて表情パーツオブジェクト(群)を形成して、形成した表情パーツオブジェクト(群)を含む各アバターの様態を設定(制御)する。   Then, the notification image control unit 119 forms a facial expression part object (group) based on the read basic specification information and change specification information, and sets the state of each avatar including the formed facial expression part object (group). (Control.

特に、通知画像制御部119は、図10(A)及び(B)に示すように、各アバターの近傍に、若しくは、ゲーム画面の所定の領域に、他のプレーヤの各アバター又は後述のように対象となる他のプレーヤのアバターの顔を画像化し、又は、他のアバターがプレーヤのアバターに顔を振り返らせて当該他のアバターの顔を画像化することによって、関係性パラメータの画像化処理を実行する。   In particular, as shown in FIGS. 10 (A) and 10 (B), the notification image control unit 119 is provided in the vicinity of each avatar or in a predetermined area on the game screen, as described below, for each avatar of another player. The relationship parameter imaging process is performed by imaging the face of another target avatar or imaging the other avatar's face by the other avatar looking back to the player's avatar. Run.

そして、通知画像制御部119は、演技キャラクタの演技中には、パラメータ制御部118によって関係性パラメータが新たに算出され、新たに算出された関係性パラメータが他のパラメータ範囲に属した場合には、当該他のパラメータ範囲に対応付けて記憶されている変化仕様情報を読み出し、図16に示すように、当該読み出した基本仕様情報と変化仕様情報とに基づいて表情パーツオブジェクト(群)を形成して、形成した表情パーツオブジェクト(群)を含む各アバターの様態を設定(制御)する。   The notification image control unit 119 calculates a new relationship parameter by the parameter control unit 118 during the performance of the acting character, and when the newly calculated relationship parameter belongs to another parameter range. Then, the change specification information stored in association with the other parameter ranges is read, and as shown in FIG. 16, a facial expression part object (group) is formed based on the read basic specification information and change specification information. Then, the aspect of each avatar including the formed expression part object (group) is set (controlled).

例えば、表情パーツオブジェクトの種別が「笑顔A」であって、初期値のパラメータ範
囲が第2段階であって、新たに算出された関係性パラメータのパラメータ範囲が第3段階のパラメータ範囲に含まれる場合を想定する。
For example, the expression part object type is “smile A”, the parameter range of the initial value is the second stage, and the parameter range of the newly calculated relationship parameter is included in the parameter range of the third stage. Assume a case.

この場合には、通知画像制御部119は、第3段階の変更仕様情報を読み出し、既に読み出した基本仕様情報と今回読み出した変更仕様情報とに基づいて第3段階の形状を有する笑顔Aの表情パーツオブジェクトを形成し、形成した表情パーツオブジェクトを含む他のプレーヤのアバターを制御(設定)する。   In this case, the notification image control unit 119 reads the changed specification information of the third stage, and the facial expression of the smile A having the shape of the third stage based on the already read basic specification information and the changed specification information read this time. A part object is formed, and avatars of other players including the formed expression part object are controlled (set).

そして、例えば、第3段階の形状を有する「笑顔A」の表情パーツオブジェクト40が図10に示す表情パーツオブジェクト40より明るく、より楽しい笑顔の場合には、通知画像制御部119は、図16に示すように、図10に示す表情パーツオブジェクト70Bより明るくより楽しい笑顔を形成する表情パーツオブジェクト70Bを含む演技キャラク(具体的には左目の表情パーツオブジェクトが変化した演技キャラクタ)を制御(設定)する。   For example, when the expression part object 40 of “smile A” having the shape of the third stage is brighter and more enjoyable than the expression part object 40 shown in FIG. 10, the notification image control unit 119 displays the expression part object 40 in FIG. As shown, the acting character (specifically, the acting character whose left-eye expression part object has changed) including the expression part object 70B that forms a brighter and more enjoyable smile than the expression part object 70B shown in FIG. 10 is controlled (set). .

なお、表情パーツオブジェクトは、上述した演技キャラクタに対する演技キャラクタ様態制御処理(すなわち、表情パーツオブジェクトの様態制御処理)と同様に、アバターの瞳を構成する瞳パーツオブジェクトであってもよい。   The facial expression part object may be a pupil part object that constitutes the avatar's pupil, similarly to the acting character state control process (that is, the expression part object state control process) for the acting character described above.

[4.5.2]画像化判定処理及び関係性パラメータの表示とアバターとの関係
次に、図17を用いて本実施形態におけるが画像化判定処理及び関係性パラメータの表示と他のプレーヤのアバターとの関係について説明する。なお、図17は、本実施形態の画像化判定処理及び関係性パラメータの表示と他のプレーヤのアバターとの関係を説明するための図である。
[4.5.2] Relationship between Imaging Determination Processing and Relationship Parameter Display and Avatar Next, with reference to FIG. 17, the imaging determination processing and relationship parameter display and other player Explain the relationship with avatars. FIG. 17 is a diagram for explaining the relationship between the imaging determination processing and the relationship parameter display of this embodiment and the avatars of other players.

通常、演技キャラクタを注視するゲームなどの実行させるゲームに多くのプレーヤが参加する場合には、画像化すべき他のプレーヤにおける関係性パラメータが多くなるので、ゲーム画面の画像化が複雑化して処理が高負荷かするだけでなく、画像構成が複雑化してプレーヤによってゲーム空間の画像が見にくくなる場合がある。   Usually, when a large number of players participate in a game to be executed such as a game of gazing at an acting character, the relationship parameters in other players to be imaged increase, so that the imaging of the game screen becomes complicated and processing is performed. In addition to the high load, the image configuration may be complicated and it may be difficult for the player to view the image in the game space.

そこで、本実施形態においては、ゲーム画面を整理して対戦ゲームにおける対象などゲームに関係する他のプレーヤのアバターについて関係性パラメータを画像化し、それ以外の他のプレーヤの関係性パラメータを非画像化する画像処理を実行する構成を有していてもよい。   Therefore, in this embodiment, the game screen is organized to image the relationship parameters for the avatars of other players related to the game such as the target in the battle game, and the relationship parameters of the other players are not imaged. The image processing may be configured to execute.

具体的には、通知画像制御部119は、
(A1)複数の演技キャラクタがゲーム空間に配置されている場合に、各プレーヤ(すなわち、各アバター)によって注視されている特定の演技キャラクタを特定し、
(A2)プレーヤ毎に、特定した特定の演技キャラクタに基づいて、他のプレーヤのアバターの関係性パラメータの画像化の有無(すなわち、画像化すること、又は、画像化しないこと)を判定し、
(A3)該判定結果に応じて、プレーヤ毎に生成する各ゲーム空間の画像に、他のプレーヤのアバターにおける関連性パラメータを、当該他のプレーヤのプレーヤキャラクタに関連付けて画像化し、又は、非画像化する画像化処理を実行する、
構成を有していてもよい。
Specifically, the notification image control unit 119
(A1) When a plurality of acting characters are arranged in the game space, a specific acting character being watched by each player (that is, each avatar) is identified,
(A2) For each player, the presence / absence of imaging of the relationship parameters of other players' avatars (that is, imaging or non-imaging) is determined based on the specified specific acting character,
(A3) According to the determination result, the relevance parameter in the avatar of another player is imaged in association with the player character of the other player in the image of each game space generated for each player, or a non-image Execute the imaging process
You may have a structure.

すなわち、この場合には、通知画像制御部119は、プレーヤ毎に、各プレーヤが注視する演技キャラクタと同一の演技キャラクタを注視している他のプレーヤのアバターについてのみ、関連性パラメータの画像化を実行する。   In other words, in this case, the notification image control unit 119 images the relevance parameter only for the avatars of other players who are gazing at the same acting character as the gazing character that each player is gazing at. Run.

例えば、第1演技キャラクタ8A及び第2演技キャラクタ8Bが登場する演技パフォーマンスを注視するゲームにおいて、ゲーム空間が画像化されているプレーヤ2において特定された特定の演技キャラクタ(すなわち、推している演技キャラクタ)が第1演技キャラクタ8Aの場合であって、アバター5Bにおける他のプレーヤの特定の演技キャラクタが第1演技キャラクタ8A、及び、アバター5Cにおける他のプレーヤの特定の演技キャラクタが第2演技キャラクタ8Bの場合を想定する。   For example, in a game in which the performance performance in which the first acting character 8A and the second acting character 8B appear is watched, the specific acting character (that is, the acting character to be identified) identified in the player 2 in which the game space is imaged. ) Is the first acting character 8A, the specific acting character of the other player in the avatar 5B is the first acting character 8A, and the specific acting character of the other player in the avatar 5C is the second acting character 8B. Assuming that

この場合において、通知画像制御部119は、アバター視線制御部115によって特定されたゲーム空間内における視線方向に他のプレーヤのアバター5B及び5Cが配置されている場合には、図17(A)に示すように、プレーヤ2が注視する第1演技キャラクタ8Aと同一の第1演技キャラクタ8Aを注視している他のプレーヤのアバター5Bについてのみ、ハート型の表示物オブジェクト50Bを画像化し、関連性パラメータの画像化を実行する。   In this case, when the avatars 5B and 5C of the other players are arranged in the line-of-sight direction in the game space specified by the avatar line-of-sight control unit 115, the notification image control unit 119 is shown in FIG. As shown, a heart-shaped display object 50B is imaged only for the avatar 5B of another player who is gazing at the first acting character 8A that is the same as the first acting character 8A that the player 2 is gazing at, and the relevance parameter is set. Perform imaging of.

また、通知画像制御部119は、注視している演技キャラクタの種別に代えて、各プレーヤのゲームレベルと同一レベル又は所定の範囲内に属するレベルを有する他のプレーヤのアバターについてのみ、表示物オブジェクトを画像化し、関連性パラメータの画像化を実行してもよい。   Further, the notification image control unit 119 displays the display object only for the avatars of other players having the same level as the game level of each player or a level belonging to a predetermined range instead of the type of the acting character being watched. And relevance parameters may be imaged.

すなわち、この場合には、通知画像制御部119は、プレーヤ毎に生成する各ゲーム空間の画像に、各プレーヤのゲームレベルと同一レベル又は所定の範囲内に属するレベルを有する他のプレーヤを特定し、当該特定したプレーヤキャラクタにおける関係性パラメータを画像化してもよい。   That is, in this case, the notification image control unit 119 identifies other players having the same level as the game level of each player or a level belonging to a predetermined range in each game space image generated for each player. The relationship parameter in the specified player character may be imaged.

例えば、ゲーム空間が画像化されているプレーヤ2のゲームレベルが「2」の場合であって、アバター5Bにおける他のプレーヤのゲームレベルが「8」及びアバター5Cにおける他のプレーヤのゲームレベルが「2」の場合を想定する。   For example, when the game level of the player 2 in which the game space is imaged is “2”, the game level of the other player in the avatar 5B is “8” and the game level of the other player in the avatar 5C is “ 2) is assumed.

この場合において、通知画像制御部119は、アバター視線制御部115によって特定されたゲーム空間内における視線方向に他のプレーヤのアバター5B及び5Cが配置されている場合には、図17(B)に示すように、プレーヤ2のゲームレベルと同一のゲームレベルを有する他のプレーヤのアバター5Cについてのみ、ハート型の表示物オブジェクト50Cを画像化し、関連性パラメータの画像化を実行する。   In this case, when the avatars 5B and 5C of the other players are arranged in the line-of-sight direction in the game space specified by the avatar line-of-sight control unit 115, the notification image control unit 119 is shown in FIG. As shown, the heart-shaped display object 50C is imaged only for the avatar 5C of another player having the same game level as the game level of the player 2, and the relevance parameter is imaged.

なお、「ゲームレベル」には、プレーヤに適用されるプレーヤレベルや実行しているゲームのステージのレベルの他に、プレーヤキャラクに設定されているレベルも含まれる。また、「所定の範囲」には、他のプレーヤと同一と判定されたゲームレベルに隣接するレベル(ゲームレベル「5」の場合に、「4」と「6」)など同一又は同等と見なされるレベルを示す範囲が含まれる。   The “game level” includes the level set for the player character in addition to the player level applied to the player and the level of the stage of the game being executed. In addition, the “predetermined range” is regarded as the same or equivalent, such as a level adjacent to a game level determined to be the same as that of other players (“4” and “6” in the case of game level “5”). A range indicating the level is included.

さらに、通知画像制御部119は、注視している演技キャラクタの種別に代えて、各プレーヤとゲーム空間内における所定の距離内に存在する他のプレーヤのアバターについてのみ、表示物オブジェクトを画像化し、関連性パラメータの画像化を実行してもよい。   Further, the notification image control unit 119 images the display object only for the avatars of other players that exist within a predetermined distance from each player, instead of the type of the acting character being watched, Relevance parameter imaging may be performed.

すなわち、この場合には、通知画像制御部119は、プレーヤ毎に生成する各ゲーム空間の画像に、各プレーヤとゲーム空間内における所定の距離内に存在する他のプレーヤのアバターの関係性パラメータを画像化してもよい。   In other words, in this case, the notification image control unit 119 adds the relationship parameter between each player and the avatar of another player existing within a predetermined distance in the game space to each game space image generated for each player. It may be imaged.

例えば、この場合には、通知画像制御部119は、各プレーヤにおいて、各観覧位置における隣接する他のプレーヤ、又は、各観覧位置に設定されたブロック(例えば、3列3
席など)同一のブロックに属する他のプレーヤのアバターの関係性パラメータを画像化する。
For example, in this case, the notification image control unit 119 has, in each player, another adjacent player at each viewing position, or a block set at each viewing position (for example, 3 columns 3
The relationship parameter of the avatars of other players belonging to the same block (such as a seat) is imaged.

一方、通知画像制御部119は、
(B1)プレーヤ毎に、前記各プレーヤにおける他のプレーヤとの関係性を示す親密度を管理し、
(B2)プレーヤ毎に、親密度に基づいて、他のプレーヤのアバターにおける関係性パラメータの画像化の有無を判定し、
(B3)当該判定結果に応じて、プレーヤ毎に生成する各ゲーム空間の画像に、他のプレーヤのアバターにおける関連性パラメータを、当該他のプレーヤのアバターに関連付けて画像化し、又は、非画像化する画像化処理を実行する、
構成を有していてもよい。
On the other hand, the notification image control unit 119
(B1) For each player, manage the familiarity indicating the relationship with each other player in each player,
(B2) For each player, based on the familiarity, the presence / absence of imaging of the relationship parameter in the avatar of the other player is determined,
(B3) According to the determination result, the relevance parameter in the avatar of another player is imaged in association with the avatar of the other player in the image of each game space generated for each player, or is not imaged Execute the imaging process to
You may have a structure.

例えば、この場合には、通知画像制御部119は、親密度として、フレンドリストに登録されている他のプレーヤか否か、又は、ゲーム中に一定回数以上のコミュニケーション(メッセージの送受信など)を行っているか否かなどの親密度の高い他のプレーヤを特定し、当該特定したプレーヤのアバターにける関係性パラメータを画像化し、又は、非画像化する。   For example, in this case, the notification image control unit 119 determines whether it is another player registered in the friend list as a closeness, or performs communication (message transmission / reception, etc.) a certain number of times during the game. Other players with high intimacy such as whether or not they are present are identified, and the relationship parameter in the avatar of the identified player is imaged or non-imaged.

また、通知画像制御部119は、
(C1)プレーヤ毎に、ゲームを実行する際に同一のチーム又は他のチームに属するかを示すチーム属性を示す属性情報を管理し、
(C2)プレーヤ毎に、属性情報に基づいて、他のプレーヤのアバターにおける関係性パラメータの画像化の有無を判定し、
(C3)当該判定結果に応じて、プレーヤ毎に生成するゲーム空間の画像に、他のプレーヤのアバターにおける関連性パラメータを、当該他のプレーヤのアバターに関連付けて画像化し、又は、非画像化する画像化処理を実行する、
構成を有していてもよい。
In addition, the notification image control unit 119
(C1) For each player, managing attribute information indicating team attributes indicating whether the player belongs to the same team or another team when executing the game,
(C2) For each player, based on the attribute information, the presence / absence of imaging of the relationship parameter in the avatar of the other player is determined,
(C3) Depending on the determination result, the relevance parameter in the avatar of the other player is imaged in association with the avatar of the other player in the image of the game space generated for each player, or is not imaged. Execute the imaging process,
You may have a structure.

例えば、通知画像制御部119は、チームを組んでゲームを進行させる場合に、又は、対戦ゲームにおいて敵チームと味方チームに分かれてゲームを実行する場合に、同一のチーム又は他のチームに属している他のプレーヤの関連性パラメータを、当該他のプレーヤのアバターに関連付けて画像化し、又は、非画像化する画像化処理を実行する。   For example, the notification image control unit 119 belongs to the same team or another team when the team is formed to advance the game, or when the game is divided into an enemy team and a friendly team in the battle game. An imaging process is executed in which the relevance parameter of another player is imaged in association with the avatar of the other player, or is non-imaged.

さらに、通知画像制御部119は、
(1)プレーヤ毎に、ゲーム履歴をゲーム履歴情報として管理し、
(2)プレーヤ毎に、他のプレーヤにおけるゲーム履歴情報に基づいて、当該他のプレーヤのアバターにおける関係性パラメータを画像化する画像化処理を実行する、
構成を有していてもよい。
Furthermore, the notification image control unit 119
(1) Manage the game history as game history information for each player,
(2) For each player, based on the game history information in the other player, execute an imaging process for imaging the relationship parameter in the avatar of the other player.
You may have a structure.

例えば、通知画像制御部119は、過去に対戦した(又は未対戦)他のプレーヤ、ゲームの実行頻度の高い(又は低い)他のプレーヤ、または、課金額が高い(又は低い)他のプレーヤなどのゲーム履歴において関係する他のプレーヤのプレーヤキャラクタにおける関係性パラメータを、当該他のプレーヤのアバターに関連付けて画像化し、又は、非画像化する画像化処理を実行する。   For example, the notification image control unit 119 may be another player who has played (or has not played) in the past, another player with a high (or low) game execution frequency, or another player with a high (or low) charge amount, etc. An imaging process is executed in which the relationship parameter of the player character of another player related in the game history is imaged or non-imaged in association with the avatar of the other player.

[4.5.3]画像化処理の変形例
次に、図18及び図19を用いて本実施形態におけるがプレーヤパラメータ画像化処理の変形例について説明する。なお、図18及び図19は、本実施形態のプレーヤパラメータ画像化処理の変形例を説明するための図である。
[4.5.3] Modified Example of Imaging Process Next, a modified example of the player parameter imaging process in the present embodiment will be described with reference to FIGS. 18 and 19 are diagrams for explaining a modification of the player parameter imaging process of the present embodiment.

(画像化処理の変形例1)
本実施形態においては、関係性パラメータを、他のプレーヤのアバターの近傍に表示物オブジェクトを表示することによって画像化しているが、通知画像制御部119は、ゲーム空間における当該他のプレーヤのアバターの配置方向を示す位置に当該表示物オブジェクトを画像化してもよい。
(Variation 1 of imaging process)
In the present embodiment, the relationship parameter is imaged by displaying a display object near the avatar of another player, but the notification image control unit 119 displays the avatar of the other player in the game space. The display object may be imaged at a position indicating the arrangement direction.

アバター視線制御部115によって特定されたゲーム空間内における視線方向に他のプレーヤのアバターが配置されていない場合であっても、当該他のプレーヤのアバターにおける関係性パラメータを認識する必要が生ずる場合がある。   Even when an avatar of another player is not arranged in the line-of-sight direction in the game space specified by the avatar line-of-sight control unit 115, it may be necessary to recognize a relationship parameter in the avatar of the other player. is there.

特に、上述のように、全ての他のプレーヤのアバターにおける関係性パラメータを画像化せずに、複数の演技キャラクタのうち同一の演技キャラクタを注視している場合において、同一のゲームレベルや所定の距離内に存在する場合など一部のアバターにおける関係性パラメータの画像化が必要な場合であっても、アバター視線制御部115によって特定されたゲーム空間内における視線方向に他のプレーヤのアバターが配置されていない場合には、これらのアバターにおける関係性パラメータを画像化することができない。   In particular, as described above, in the case where the same acting character among a plurality of acting characters is watched without imaging the relationship parameters in the avatars of all other players, the same game level or predetermined Even if it is necessary to image relationship parameters in some avatars, such as when they are within a distance, avatars of other players are arranged in the line-of-sight direction in the game space specified by the avatar line-of-sight control unit 115 If not, the relationship parameters in these avatars cannot be imaged.

そこで、通知画像制御部119は、プレーヤ毎に生成するゲーム空間の画像において、アバター視線制御部115によって特定されたゲーム空間内における視線方向に該当する他のプレーヤのアバターが配置されていない場合であっても、ゲーム空間における当該他のプレーヤのアバターの配置方向を示す位置に、表示物オブジェクトを画像化する画像化処理を実行する。   Therefore, the notification image control unit 119 is a case where an avatar of another player corresponding to the line-of-sight direction in the game space specified by the avatar line-of-sight control unit 115 is not arranged in the game space image generated for each player. Even if it exists, the imaging process which images a display thing object in the position which shows the arrangement | positioning direction of the said other player's avatar in a game space is performed.

具体的には、通知画像制御部119は、仮想カメラによってゲーム空間が画像化される場合であって、仮想カメラの画角内に関係性パラメータを画像化すべき該当するアバターが存在しない場合には、当該アバターが存在する方向の画角内の端部に当該アバターの表示物オブジェクトを画像化する。   Specifically, the notification image control unit 119 is a case where the game space is imaged by the virtual camera, and there is no corresponding avatar in which the relationship parameter should be imaged within the angle of view of the virtual camera. The display object of the avatar is imaged at the end within the angle of view in the direction in which the avatar exists.

例えば、図18(A)に示すように、アバター5Aにおける仮想カメラの画角と表示物オブジェクトを画像化すべきアバター5Bの位置の関係が想定される場合には、図18(B)に示すように、通知画像制御部119は、プレーヤ2Aに提供されたゲーム空間の画像のゲーム画面において右下の位置(図面に向かって)に、アバター5Bにおける関係性パラメータに応じた表示物オブジェクト50Bを表示するための画像化処理を実行する。   For example, as shown in FIG. 18A, when the relationship between the angle of view of the virtual camera in the avatar 5A and the position of the avatar 5B where the display object is to be imaged is assumed, as shown in FIG. In addition, the notification image control unit 119 displays the display object 50B corresponding to the relationship parameter in the avatar 5B at the lower right position (toward the drawing) on the game screen of the game space image provided to the player 2A. The imaging process for performing is performed.

(画像化処理の変形例2)
本実施形態においては、ゲーム空間内に配置されたアバターの近傍に又はアバター自体の様態によって、関係性パラメータを画像化しているが、画像化されたゲーム空間を含むゲーム画面を端末装置20に提供して表示させる際に、当該ゲーム空間の画像が形成された第1領域とは異なる第2領域に、他のプレーヤ又はそのアバターの固有の情報に対応付けつつ、他のプレーヤのアバターにおける関係性パラメータを、当該他のプレーヤ又はそのアバターの固有の情報に対応付けつつ、画像化してもよい。
(Variation 2 of imaging process)
In the present embodiment, the relationship parameter is imaged in the vicinity of the avatar arranged in the game space or by the manner of the avatar itself, but a game screen including the imaged game space is provided to the terminal device 20. And displaying the game space image, the second area different from the first area in which the image of the game space is formed is associated with the information unique to the other player or the avatar of the other player and the relationship in the avatar of the other player The parameter may be imaged while being associated with the unique information of the other player or the avatar thereof.

例えば、図19(A)及び(B)に示すように、ゲーム空間が画像化された画像を第1領域S10、及び、ゲームに関する情報が画像化された第2領域S20によってゲーム画面が構成されている場合には、通知画像制御部119は、第2領域S20の一部に、プレーヤIDの固有情報に対応付けて他のプレーヤのアバター5B〜5Eにおける関係性パラメータ(Pレベル)を画像化する。   For example, as shown in FIGS. 19A and 19B, a game screen is configured by an image in which a game space is imaged in a first area S10 and a second area S20 in which information about the game is imaged. If it is, the notification image control unit 119 images the relationship parameters (P level) of the other players' avatars 5B to 5E in association with the unique information of the player ID in a part of the second area S20. To do.

なお、この場合に、プレーヤによって、第2領域に画像化された関係性パラメータとの
対応付けを容易に行うことができるので、通知画像制御部119は、仮想カメラの画角内に関係性パラメータを表示する他のプレーヤのアバターが存在する場合には、第1領域に画像化された他のプレーヤのアバターの近傍にプレーヤIDやニックネームなどの固有情報を画像化してもよい。
In this case, since the player can easily associate with the relationship parameter imaged in the second area, the notification image control unit 119 has the relationship parameter within the angle of view of the virtual camera. When there is an avatar of another player that displays, unique information such as a player ID or a nickname may be imaged in the vicinity of the avatar of another player imaged in the first area.

また、この場合にはおいては、通知画像制御部119は、第2領域を第1領域とは別位置に構成することによってゲーム画面を形成しているが、第2領域を第1領域の一部に重畳して形成してもよい。   In this case, the notification image control unit 119 forms the game screen by configuring the second area at a position different from the first area. You may superimpose on a part and form.

[4.6]変形例
次に、本実施形態におけるプレーヤが演技キャラクタと意思疎通が図れているか否かにおける通知を行う処理、又は、演技キャラクタやアバター表示などの変形例について説明する。
[4.6] Modified Example Next, a process for notifying whether or not the player communicates with the acting character in the present embodiment, or modified examples of the acting character and avatar display will be described.

(音又は振動による通知)
通知画像制御部119は、ゲーム中に、関係性パラメータの画像化処理に対応付けて、端末装置20を制御し、プレーヤに対して当該表示物オブジェクト、演技キャラクタ(具体的には、表情や行動)又は他のプレーヤのアバターに関連する音又は振動を提供してもよい。
(Notification by sound or vibration)
The notification image control unit 119 controls the terminal device 20 in association with the relationship parameter imaging processing during the game, and controls the display object, acting character (specifically, facial expression and action) to the player. ) Or other player avatar sounds or vibrations may be provided.

具体的には、通知画像制御部119は、関係性パラメータの画像化処理に対応付けて、心音や演技キャラクタの呼称(名称やニックネーム)などの所定の音(音楽や音声含む。)、又は、所定の振動パターンを有する振動を、該当する端末装置(当該関係性パラメータが画像化されたゲーム空間の画像を表示している端末装置)20に提供するための処理を実行する。   Specifically, the notification image control unit 119 is associated with imaging processing of the relationship parameter, and predetermined sounds (including music and voice) such as heart sounds and acting character names (names and nicknames), or the like. A process for providing a vibration having a predetermined vibration pattern to the corresponding terminal device (terminal device displaying an image of the game space in which the relationship parameter is imaged) 20 is executed.

例えば、通知画像制御部119は、プレーヤ毎に、他のプレーヤのアバターにおける関連性パラメータを、当該他のプレーヤのアバターに関連付けて画像化する際に、当該他のプレーヤのアバターが注視する演技キャラクタの呼称(〇太郎)を該当する端末装置20に提供するための処理を実行する。すなわち、この場合には、該当する端末装置20において、他のプレーヤのアバターが叫んだ「〇太郎!」という音声が出力される。   For example, the notification image control unit 119 performs, for each player, a performance character that the avatar of the other player gazes at when the relevance parameter in the avatar of the other player is imaged in association with the avatar of the other player. Is executed to provide the corresponding terminal device 20 with the name (0 Taro). That is, in this case, the corresponding terminal device 20 outputs the voice “Taro!” Screamed by the avatar of another player.

そして、通知画像制御部119は、所定の音(音楽や音声含む。)が端末装置20から出力される際には、単に所定の音を出力する処理を実行してもよいし、他のプレーヤが位置する方向からの音と認識できるように、当該出力する音について、立体音響における信号処理を実行し、当該信号処理した音データを端末装置20に提供してもよい。   Then, when a predetermined sound (including music and voice) is output from the terminal device 20, the notification image control unit 119 may simply execute a process of outputting the predetermined sound, or other player For the sound to be output, signal processing in stereophonic sound may be executed for the output sound, and the signal processed sound data may be provided to the terminal device 20.

また、通知画像制御部119は、各プレーヤの画像において、他のプレーヤのアバターが各プレーヤの仮想カメラの画角内に存在する場合だけでなく、画角外に存在する場合であっても、上記の音を出力するための処理を実行してもよい。   Further, the notification image control unit 119 is not limited to the case where the avatars of other players are present within the angle of view of each player's virtual camera in the image of each player. You may perform the process for outputting said sound.

特に、この場合には、上記の立体音響における信号処理を施すことによってプレーヤはその方向からの叫び声を聞くことができるので、プレーヤから見えていない他のアバターの状況も認識することができるようになる。   In particular, in this case, the player can hear the scream from the direction by performing the signal processing in the above-described stereophonic sound, so that the situation of other avatars not visible to the player can also be recognized. Become.

一方、例えば、通知画像制御部119は、プレーヤ毎に、他のプレーヤのアバターにおける関連性パラメータを、当該他のプレーヤのアバターに関連付けて画像化する際に、当該他のプレーヤのアバターが注視する演技キャラクタに割り当てられた振動パターン(例えば、1秒間の単振動を2回)を該当する端末装置20に提供するための処理を実行してもよい。   On the other hand, for example, the notification image control unit 119 monitors the relevance parameter of the other player's avatar for each player in association with the avatar of the other player, and the avatar of the other player watches. You may perform the process for providing the corresponding terminal device 20 with the vibration pattern (For example, the single vibration of 1 second twice) allocated to the acting character.

なお、本実施形態においては、通知画像制御部119は、例えば、音や振動に代えて、送風機による風、電熱器による熱、加湿器など水蒸気を提供してもよい。   In the present embodiment, the notification image control unit 119 may provide steam such as wind from a blower, heat from an electric heater, or a humidifier, for example, instead of sound or vibration.

なお、通知画像制御部119は、予め関係性パラメータの閾値を段階的に設定し、閾値が高くなるに従って、端末装置20から出力される音を変更するための制御を実行してもよい。   Note that the notification image control unit 119 may set a threshold value for the relationship parameter in advance, and may execute control for changing the sound output from the terminal device 20 as the threshold value increases.

例えば、通知画像制御部119は、関係性パラメータの閾値を段階的に設定し、閾値が高くなるに従って(低くなるに従って)、音色を多くし(少なくし)、又は、明るい音(暗い音)に変更してもよい。   For example, the notification image control unit 119 sets the threshold value of the relationship parameter in a stepwise manner, and increases the timbre (decreases) as the threshold value increases (decreases), or produces a bright sound (dark sound). It may be changed.

また、通知画像制御部119は、音に代えて又は音とともに、表示物オブジェクトの様態制御処理又は演技キャラクタ様態制御処理に対応付けて、端末装置20に設けられた振動体341振動させる制御を実行してもよい。   Further, the notification image control unit 119 executes control for vibrating the vibrating body 341 provided in the terminal device 20 in association with the state control process of the display object object or the acting character state control process instead of or together with the sound. May be.

この場合には、通知画像制御部119は、例えば、関係性パラメータの閾値を段階的に設定し、閾値が高くなるに従って(低くなるに従って)、振動を大きくし(少なくし)、又は、振動パターンを激しくする(静かにする)切り換え制御を行う。   In this case, for example, the notification image control unit 119 sets a threshold value of the relationship parameter stepwise, and increases (decreases) vibration as the threshold value increases (decreases) or vibration pattern. Performs switching control that makes (smooth) more intense.

さらに、音や振動に代えて、通知画像制御部119は、図示しない送風機、電熱器又は加湿器を制御し、風、熱又は水蒸気を実空間に提供するための制御を実行してもよい。   Furthermore, instead of sound and vibration, the notification image control unit 119 may control a blower, an electric heater, or a humidifier (not shown) to perform control for providing wind, heat, or water vapor to the real space.

(演技キャラクタ)
上記の実施形態においては、演技キャラクタとして、アイドルなどのゲーム空間において演技のパフォーマンスなどの動作を行う演技キャラクタを用いて説明したが、予め設定されたシナリオ(RPGや推理ゲーム)に従ってプレーヤと対峙するキャラクタなど、プレーヤによって注視されるキャラクタであってコンピュータによって制御されるキャラクタであればよい。
(Acting character)
In the above embodiment, description has been made using an acting character that performs an action such as an acting performance in a game space such as an idol as the acting character, but confronts the player according to a preset scenario (RPG or reasoning game). Any character such as a character that is watched by a player and controlled by a computer may be used.

特に、演技キャラクタとしては、ゲーム空間を動く又は身体的(部分的)な動きのある動的なキャラクタだけでなく、木や岩などの静的なオブジェクトやゲーム内に単に出現するだけのキャラクタであってもよい。   In particular, acting characters are not only dynamic characters that move in the game space or have physical (partial) movement, but also static objects such as trees and rocks, or characters that simply appear in the game. There may be.

(アバター表示)
上記の実施形態においては、アバターとしては、ゲーム空間におけるプレーヤの分身となるアバターを用いて説明したが、プレーヤの仲間のキャラクタなどの当該プレーヤの意思に基づいてゲーム空間において行動するキャラクタであってもよい。
(Avatar display)
In the above-described embodiment, the avatar is described using an avatar that is a substitute for the player in the game space. However, the avatar is a character that acts in the game space based on the player's intention, such as a player's fellow character. Also good.

また、上記の実施形態においては、アバターは、ゲーム空間内に設置された大型表示装置に表示されるなど、ゲーム空間を画像化する際に画像化されているが、必ずしも画像化される必要はなく、非表示であってもよい。   In the above embodiment, the avatar is imaged when the game space is imaged, such as being displayed on a large display device installed in the game space. However, the avatar is not necessarily imaged. There may be no display.

(プレーヤ入力)
また、プレーヤ入力には、コントローラへの入力などプレーヤの手指、腕、頭部、視線又まぶたなどのプレーヤの身体の動きに応じて入力又は認識されるプレーヤの操作であってもよいし、カメラなどの画像検出や振動検出(ジャイロ)などの検出手段によって検出された入力(視線方向や操作入力)であってもよい。
(Player input)
Further, the player input may be a player operation that is input or recognized according to the movement of the player's body, such as the player's fingers, arms, head, line of sight, or eyelid, such as an input to the controller. It may be an input (line-of-sight direction or operation input) detected by detection means such as image detection or vibration detection (gyro).

特に、プレーヤ入力は、単一のプレーヤによって入力されたものであってもよいし、複
数のプレーヤによって入力されたものであってもよい。このため、ゲームに参加するプレーヤとしては、一人であってもよいし、複数であってもよい。
In particular, the player input may be input by a single player or may be input by a plurality of players. For this reason, there may be one or more players participating in the game.

(演技キャラクタの操作)
本実施形態においては、演技キャラクタは、所定のプログラム(アルゴリズム)によって自動的に演技などのパフォーマンスを実行しているが、プレーヤやゲーム管理者の操作に従ってパフォーマンス(すなわち、動作)が実行されてもよい。
(Operation character operation)
In the present embodiment, the acting character automatically performs performance such as acting by a predetermined program (algorithm). However, even if the performance (that is, movement) is performed in accordance with the operation of the player or the game manager. Good.

この場合には、ゲーム実行制御部111は、サーバ装置10の入力部120、又は、端末装置20の入力部260によって受け付けられた操作指示に従って、予め定められた期間、演技キャラクタのゲーム空間内の動作を制御する。   In this case, the game execution control unit 111 performs a predetermined period in the game space of the acting character according to the operation instruction received by the input unit 120 of the server device 10 or the input unit 260 of the terminal device 20. Control the behavior.

具体的には、ゲーム実行制御部111は、受け付けられた操作指示に従って、ステージ上の立ち位置や移動、手足や体の動きの全てを制御してもよいし、一部の動作指示、動作開始のタイミング指示、又は、実行する動作の選択指示に基づいて、予め定められたアルゴリズムによって演技キャラクタの動作を制御してもよい。   Specifically, the game execution control unit 111 may control all of the standing position and movement on the stage, the movement of the limbs and the body in accordance with the accepted operation instruction, or a part of the operation instruction and the operation start. The action character's action may be controlled by a predetermined algorithm based on the timing instruction or the action selection instruction to be executed.

[5]本実施形態における動作
次に、図20及び図21を用いて本実施形態のサーバ装置10によって実行されるプレーヤパラメータ画像化処理を含む演技キャラクタの演技におけるゲーム処理の動作について説明する。なお、図20及び図21は、本実施形態のサーバ装置10によって実行されるプレーヤパラメータ画像化処理を含む演技キャラクタの演技におけるゲーム処理の動作を示すフローチャートである。
[5] Operation in the present embodiment Next, the operation of the game process in the performance of the acting character including the player parameter imaging process executed by the server apparatus 10 of the present embodiment will be described using FIG. 20 and FIG. 20 and 21 are flowcharts showing the operation of the game process in the performance of the acting character including the player parameter imaging process executed by the server device 10 of the present embodiment.

本動作においては、観覧席の設定及びアバターに身支度させるための設定が既に終了しているものとし、当該設定された内容を示す各データについてはプレーヤ情報146に記憶されているものとする。   In this operation, it is assumed that the setting of the seating area and the setting for making the avatar prepare for the dress have already been completed, and each piece of data indicating the set contents is stored in the player information 146.

また、本動作においては、プレーヤパラメータ画像化処理を実行するための関係性パラメータとしては、各プレーヤ(アバター)及び演技キャラクタの双方の関係性パラメータを合算したパラメータ(すなわち、合算関係性パラメータ)を用いるものとする。   In this operation, as the relationship parameter for executing the player parameter imaging process, a parameter obtained by adding the relationship parameters of both the player (avatar) and the acting character (that is, the combined relationship parameter) is used. Shall be used.

さらに、本動作においては、表示物オブジェクトによる関係性パラメータの画像化処理の場合について動作として説明する。   Further, in this operation, the case of the relationship parameter imaging processing by the display object will be described as the operation.

一方、本動作においては、演技キャラクタの演技中には、オブジェクト制御部114は、プログラムに沿って演技キャラクタを含む各オブジェクトをゲーム空間に配置させ、移動させ、又は、動作させているものとし、ゲーム実行制御部111は、ゲーム空間の各演出を実行しているものとする。   On the other hand, in this operation, during the performance of the acting character, the object control unit 114 arranges, moves, or moves each object including the acting character in the game space according to the program, It is assumed that the game execution control unit 111 is executing each effect in the game space.

他方、情報取得部104は、予め定められたタイミング(5ms)毎に、各端末装置20から出力された視線情報を取得し、アバター視線制御部115は、プレーヤ毎に、かつ、視線情報を取得する毎に、各アバターのゲーム空間内の視線方向を決定する。   On the other hand, the information acquisition unit 104 acquires the line-of-sight information output from each terminal device 20 at a predetermined timing (5 ms), and the avatar line-of-sight control unit 115 acquires the line-of-sight information for each player. Each time, the line-of-sight direction in the game space of each avatar is determined.

そして、画像生成部108は、プレーヤ毎に、決定された視線方向に基づいて、観覧席に配置された各仮想カメラからみたゲーム空間を画像化してゲーム空間画像を生成し、生成したゲーム空間画像のデータを該当する端末装置20にそれぞれ随時出力している。   Then, the image generation unit 108 generates a game space image by forming an image of the game space viewed from each virtual camera arranged in the auditorium based on the determined line-of-sight direction for each player, and generates the generated game space image. Are output to the corresponding terminal device 20 as needed.

また、各端末装置20は、画像生成部108から出力された画像データに基づいて仮想3次元空間の画像を表示するための画像(視差画像)を生成してHMDユニット200に
表示しているものとする。
Each terminal device 20 generates an image (parallax image) for displaying an image in a virtual three-dimensional space based on the image data output from the image generation unit 108 and displays the image on the HMD unit 200. And

さらに、本動作は、隣接する他のプレーヤ(以下、単に「他のプレーヤ」という。)のアバターの近傍に関係性パラメータを表示物オブジェクトとして表示する際の動作を用いて説明するとともに、単一の演技キャラクタがパフォーマンスするゲームにおいて、任意のプレーヤ(以下、「自プレーヤ」という。)における動作について説明する。   Further, this operation will be described using the operation when displaying the relationship parameter as a display object near the avatar of another adjacent player (hereinafter simply referred to as “other player”). An operation in an arbitrary player (hereinafter referred to as “own player”) in a game in which the acting characters of FIG.

まず、ゲーム実行制御部111は、予め定められたタイミングの検出などの特定の演技キャラクタ(複数の演技キャラクタから構成されるグループ)の演技開始指示を検出すると(ステップS101)、演技キャラクタの演技を開始させつつ、自プレーヤ及び他のプレーヤのプレーヤ情報146から設定されたアバターの各情報(外観やアイテムを含む特性や感情に関する)、プレーヤの観覧席の情報、当該プレーヤの課金情報、及び、各演技キャラクタに設定された各情報(特性や感情に関する情報)を取得する(ステップS102)。   First, when the game execution control unit 111 detects an instruction to start a specific acting character (a group composed of a plurality of acting characters) such as detection of a predetermined timing (step S101), the game execution control unit 111 performs the acting of the acting character. Each information of the avatar (related to characteristics and feelings including appearance and items) set from the player information 146 of the own player and other players, information on the seat of the player, billing information of the player, Each piece of information (information related to characteristics and emotions) set for the acting character is acquired (step S102).

次いで、パラメータ制御部118は、演技キャラクタの演技開始時の自プレーヤ、他のプレーヤ及び各演技キャラクタの関係性パラメータを算出するとともに、演技キャラクタと各アバターの算出した関係性パラメータを合算し、合算関係性パラメータの初期値をそれぞれ算出する(ステップS103)。   Next, the parameter control unit 118 calculates the relationship parameters of the player, other players, and each acting character at the start of the acting character, and adds the calculated relationship parameters of the acting character and each avatar. The initial values of the relationship parameters are calculated (step S103).

次いで、通知画像制御部119は、算出した合算関係性パラメータの初期値に基づいて、他のプレーヤのアバター毎に、色彩及びサイズを含め最初に表示する表示物オブジェクトの初期の様態を特定する(ステップS104)。   Next, the notification image control unit 119 specifies the initial state of the display object to be displayed first, including the color and size, for each avatar of the other player based on the calculated initial value of the summation relationship parameter ( Step S104).

次いで、ゲーム実行制御部111は、演技キャラクタの演技を開始させつつ、通知画像制御部119に、他のプレーヤの各アバターの近傍に、初期の様態に設定された表示物オブジェクトの画像化するための制御を開始させる(ステップS105)。   Next, the game execution control unit 111 causes the notification image control unit 119 to image the display object object set in the initial state in the vicinity of each avatar of the other player while starting the performance of the acting character. Is started (step S105).

なお、ゲーム実行制御部111は、オブジェクト制御部114に、ステージ上の演技パフォーマンスの開始を指示すると、オブジェクト制御部114は、予め設定されたプログラムに従って演技が終了するまで各演技キャラクタの演技パフォーマンスを制御する。   When the game execution control unit 111 instructs the object control unit 114 to start a performance performance on the stage, the object control unit 114 displays the performance performance of each performance character until the performance ends according to a preset program. Control.

また、通知画像制御部119は、演技キャラクタの演技開始後においては、アバター視線制御部115によって特定されたゲーム空間内における視線方向に他のプレーヤのアバターが配置されているか否か適宜判定し、当該視線方向に他のプレーヤのアバターが配置されていると判定した場合には、該当するアバターの近傍に設定された表示物オブジェクトを画像化する処理を実行する。   The notification image control unit 119 appropriately determines whether or not an avatar of another player is arranged in the line-of-sight direction in the game space specified by the avatar line-of-sight control unit 115 after the performance of the acting character is started. When it is determined that an avatar of another player is arranged in the line-of-sight direction, a process of imaging a display object set near the corresponding avatar is executed.

なお、通知画像制御部119は、視線方向に2以上の他のプレーヤのアバターが配置されている場合には、各アバターに該当する表示物オブジェクトを画像化してもよいし、最近傍のアバターに対して表示物オブジェクトを画像化する処理を実行する。   Note that the notification image control unit 119 may image the display object corresponding to each avatar when two or more other avatars are arranged in the line-of-sight direction. On the other hand, processing for imaging the display object is executed.

次いで、パラメータ制御部118は、アバターの外観の変更、アイテムの入手や切り換え、又は、お捻りの投入などの他のプレーヤにおける関係性パラメータの変更要素を検出したか否かを判定する(ステップS106)。   Next, the parameter control unit 118 determines whether or not a change element of the relationship parameter in another player such as a change in the appearance of the avatar, acquisition or switching of an item, or insertion of a twist is detected (step S106). ).

このとき、パラメータ制御部118は、他のプレーヤにおける関係性パラメータの変更要素を検出したと判定した場合には、ステップS111に移行し、他のプレーヤにおける関係性パラメータの変更要素を検出しなかったと判定した場合には、ゲーム実行制御部111は、演技終了の旨を検出したか否かを判定する(ステップS107)。   At this time, if the parameter control unit 118 determines that the relationship parameter change element in the other player has been detected, the parameter control unit 118 proceeds to step S111 and does not detect the relationship parameter change element in the other player. When it determines, the game execution control part 111 determines whether the effect end of a performance was detected (step S107).

なお、例えば、ゲーム実行制御部111は、タイマ部160によって演技開始から所定の時間が経過したか否かを判定する。   For example, the game execution control unit 111 determines whether a predetermined time has elapsed from the start of the performance by the timer unit 160.

そして、ゲーム実行制御部111は、演技終了の旨を検出したと判定した場合には、デモ画像の表示、又は、他のプレーヤを含めて最終の関係性パラメータの表示又はそれに基づく演出など演技終了に関する終了処理を実行して(ステップS108)本動作を終了させ、演技終了の旨を検出していないと判定した場合には、ステップS106の処理にもどる。   When the game execution control unit 111 determines that the end of the performance has been detected, the end of the performance such as the display of the demo image, the display of the final relationship parameter including other players, or the production based thereon The process is terminated (step S108), the operation is terminated, and if it is determined that the end of the performance has not been detected, the process returns to step S106.

一方、パラメータ制御部118は、他のプレーヤの関係性パラメータの変更要素を検出したと判定した場合には、当該検出した関係性パラメータの変更要素に基づいて、該当する他のプレーヤの関係性パラメータを変更するとともに、演技キャラクタにおける関係性パラメータの合算値を変更する(ステップS111)。   On the other hand, if the parameter control unit 118 determines that the change element of the relationship parameter of another player has been detected, the parameter control unit 118 determines the relationship parameter of the corresponding other player based on the detected change parameter of the relationship parameter. And the total value of the relationship parameter in the acting character is changed (step S111).

次いで、パラメータ制御部118は、変更した合算値が予め定められた条件を具備したか否かを判定する(ステップS112)。   Next, the parameter control unit 118 determines whether or not the changed sum value satisfies a predetermined condition (step S112).

なお、予め定められた条件としては、変更した合算値が、現在設定されている表示物オブジェクトと異なる様態が設定されているパラメータ範囲に属するか否かを判定する。   As a predetermined condition, it is determined whether or not the changed sum value belongs to a parameter range in which a mode different from the currently set display object is set.

このとき、パラメータ制御部118は、変更した合算値が予め定められた条件を具備していないと判定された場合には、直接ステップS114の処理に移行し、当該合算値が予め定められた条件を具備したと判定した場合には、表示物オブジェクトの様態を変化させて(ステップS113)、ステップS114の処理に移行する。   At this time, if it is determined that the changed sum value does not have a predetermined condition, the parameter control unit 118 directly proceeds to the process of step S114, and the sum value is a predetermined condition. If it is determined that the display object has been provided, the state of the display object is changed (step S113), and the process proceeds to step S114.

次いで、特別制御実行部117は、変更された合算値又はアバターの変更された関係性パラメータが特別制御の実行の可否を定める条件を具備したか否かを判定する(ステップS114)。   Next, the special control execution unit 117 determines whether or not the changed sum value or the changed relationship parameter of the avatar has a condition for determining whether or not the special control can be executed (step S114).

このとき、特別制御実行部117は、変更された合算値又はアバターの変更された関係性パラメータが特別制御の実行の可否を定める条件を具備したと判定した場合には、対象の演技キャラクタにおける特別制御をアバターに対して実行して(ステップS115)、ステップS106の処理に移行する。   At this time, when the special control execution unit 117 determines that the changed total value or the changed relationship parameter of the avatar has a condition for determining whether or not the special control can be executed, the special control execution unit 117 performs special processing for the target acting character. Control is performed with respect to an avatar (step S115), and it transfers to the process of step S106.

なお、特別制御実行部117は、アバター視線制御部115によって特定されたゲーム空間内における該当するアバターの視線方向に基づいて、演技キャラクタによる特別制御を実行する。   The special control execution unit 117 performs special control by the acting character based on the line-of-sight direction of the corresponding avatar in the game space specified by the avatar line-of-sight control unit 115.

一方、特別制御実行部117は、変更された合算値又はアバターの変更された関係性パラメータが特別制御の実行の可否を定める条件を具備していないと判定した場合には、何もせずに、ステップS106の処理に直接移行する。   On the other hand, if the special control execution unit 117 determines that the changed total value or the changed relationship parameter of the avatar does not have a condition for determining whether or not to execute the special control, do nothing. The process directly proceeds to step S106.

[6]その他
本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。
[6] Others The present invention is not limited to that described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

本実施形態では、演技キャラクタを注視するシミュレーションゲームとして説明しているが、恋愛シミュレーションなどのその他シミュレーションゲーム、対戦ゲーム又はRP
Gなどの他のゲームにおいても用いることがきる。
In this embodiment, it is described as a simulation game in which an acting character is watched, but other simulation games such as a love simulation, a battle game, or an RP
It can also be used in other games such as G.

また、本実施形態は、一のサーバ装置10によって各ゲームを端末装置20に提供してもよいし、複数のサーバ装置10を連動させてサーバシステムを構築し、各ゲームを端末装置20に提供してもよい。   Further, in the present embodiment, each game may be provided to the terminal device 20 by one server device 10, or a server system is constructed by linking a plurality of server devices 10, and each game is provided to the terminal device 20. May be.

さらに、本実施形態においては、サーバ装置10によって各種のゲームに関する処理が実行されているが、上記の端末装置20の端末制御ユニット300に、サーバ処理部100の各機能及びゲームプログラムを実行させ、スタンドアローンとして上記のゲームを実現してもよい。また、複数のプレーヤによってゲームを実行する場合には、さらに、1の端末装置20が上記のサーバとしても機能させてもよい。   Furthermore, in the present embodiment, processing related to various games is executed by the server device 10, but the terminal control unit 300 of the terminal device 20 described above executes each function and game program of the server processing unit 100, You may implement | achieve said game as stand-alone. Further, when a game is executed by a plurality of players, one terminal device 20 may also function as the server.

本発明は、実施形態で説明した構成と実質的に同一の構成(例えば、機能、方法及び結果が同一の構成、あるいは目的及び効果が同一の構成)を含む。また、本発明は、実施形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本発明は、実施形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本発明は、実施形態で説明した構成に公知技術を付加した構成を含む。   The present invention includes configurations that are substantially the same as the configurations described in the embodiments (for example, configurations that have the same functions, methods, and results, or configurations that have the same objects and effects). In addition, the invention includes a configuration in which a non-essential part of the configuration described in the embodiment is replaced. In addition, the present invention includes a configuration that exhibits the same operational effects as the configuration described in the embodiment or a configuration that can achieve the same object. In addition, the invention includes a configuration in which a known technique is added to the configuration described in the embodiment.

上記のように、本発明の実施形態について詳細に説明したが、本発明の新規事項及び効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。したがって、このような変形例はすべて本発明の範囲に含まれるものとする。   As described above, the embodiments of the present invention have been described in detail. However, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. . Accordingly, all such modifications are intended to be included in the scope of the present invention.

1 :ゲームシステム
2 :プレーヤ
4 :ステージ
5 :アバター
6 :観覧席
8 :演技キャラクタ(アイドルキャラクタ)
10 :サーバ装置
20 :端末装置
30 :表示物オブジェクト
100 :サーバ処理部
101 :通信制御部
102 :ユーザ管理部
104 :情報取得部
105 :課金管理部
106 :仮想カメラ制御部
107 :音生成部
108 :画像生成部
110 :ゲーム制御部
111 :ゲーム実行制御部
112 :観覧席設定部
113 :アバター設定部
114 :オブジェクト制御部
115 :アバター視線制御部
116 :視線合わせ検知部
117 :特別制御実行部
118 :パラメータ制御部
119 :通知画像制御部
120 :入力部
130 :表示部
140 :記憶部
142 :主記憶部
144 :ゲーム情報
146 :プレーヤ情報
148 :表示物オブジェクト情報
149 :テーブルデータ
150 :振動生成部
160 :タイマ部
180 :情報記憶媒体
196 :通信部
200 :HMDユニット
210 :撮像部
211 :撮像カメラ
212 :画像生成部
220 :モーションセンサ
230 :インターフェース
240 :音出力部
250 :スイッチ
260 :入力部
261 :右目用表示パネル
262 :左目用表示パネル
270 :記憶部
271 :主記憶部
272 :画像バッファ
280 :情報記憶媒体
290 :表示部
296 :通信部
300 :端末制御ユニット
310 :端末処理部
311 :通信制御部
312 :ゲーム処理部
320 :描画部
330 :音処理部
340 :振動部
341 :振動体
1: Game system 2: Player 4: Stage 5: Avatar 6: Spectator seat 8: Acting character (idol character)
10: Server device 20: Terminal device 30: Display object 100: Server processing unit 101: Communication control unit 102: User management unit 104: Information acquisition unit 105: Charge management unit 106: Virtual camera control unit 107: Sound generation unit 108 : Image generation unit 110: game control unit 111: game execution control unit 112: bleacher setting unit 113: avatar setting unit 114: object control unit 115: avatar line-of-sight control unit 116: line-of-sight detection unit 117: special control execution unit 118 : Parameter control unit 119: notification image control unit 120: input unit 130: display unit 140: storage unit 142: main storage unit 144: game information 146: player information 148: display object information 149: table data 150: vibration generation unit 160: Timer unit 180: Information storage medium 196 Communication unit 200: HMD unit 210: Imaging unit 211: Imaging camera 212: Image generation unit 220: Motion sensor 230: Interface 240: Sound output unit 250: Switch 260: Input unit 261: Display panel for right eye 262: Display panel for left eye 270: Storage unit 271: Main storage unit 272: Image buffer 280: Information storage medium 290: Display unit 296: Communication unit 300: Terminal control unit 310: Terminal processing unit 311: Communication control unit 312: Game processing unit 320: Drawing unit 330: Sound processing unit 340: Vibrating unit 341: Vibrating body

Claims (13)

コンピュータによって、複数のプレーヤが注視する少なくとも1の注視キャラクタを配置させたゲーム空間を、仮想3次元空間として、画像化しつつ、ゲームを進行させるプログラムであって、
前記コンピュータを、
前記ゲーム空間における前記注視キャラクタ及び各プレーヤの操作対象となるプレーヤキャラクタを含む各オブジェクトを制御するオブジェクト制御手段、
前記プレーヤキャラクタ毎に、前記ゲーム中に変動する前記注視キャラクタとの関係性を示す関係性パラメータをそれぞれ管理する管理手段、
前記プレーヤによって入力された少なくとも当該プレーヤの視線方向を含むプレーヤ入力を受け付ける処理を実行する受付手段、
前記プレーヤ毎に、各プレーヤキャラクタが前記ゲーム空間上に配置された位置を当該各プレーヤに対応する仮想カメラの位置として設定し、各仮想カメラを視点として前記各プレーヤの視線方向に見えるゲーム空間の画像をそれぞれ生成する画像生成手段、
前記受け付けられた各プレーヤ入力のそれぞれに基づいて、対応する各仮想カメラを制御する仮想カメラ制御手段、及び、
ゲーム状況に応じて、前記プレーヤ毎に、前記ゲーム空間の画像を生成する際に、前記ゲーム空間に配置された他のプレーヤキャラクタの関連性パラメータを、当該他のプレーヤキャラクタに関連付けて画像化する画像化処理を実行する画像制御手段、
として機能させることを特徴とするプログラム。
A program that advances a game while imaging a game space in which at least one gaze character to be watched by a plurality of players is arranged as a virtual three-dimensional space by a computer,
The computer,
Object control means for controlling each object including the gaze character and the player character to be operated by each player in the game space;
Management means for managing a relationship parameter indicating a relationship with the gaze character that varies during the game for each player character;
Receiving means for executing a process of receiving a player input including at least the line-of-sight direction of the player input by the player;
For each player, the position at which each player character is placed in the game space is set as the position of the virtual camera corresponding to each player, and the game space that can be seen in the line-of-sight direction of each player from each virtual camera as a viewpoint. Image generation means for generating images,
Virtual camera control means for controlling each corresponding virtual camera based on each of the received player inputs, and
When an image of the game space is generated for each player according to the game situation, the relevance parameter of another player character arranged in the game space is imaged in association with the other player character. Image control means for executing imaging processing;
A program characterized by functioning as
請求項1に記載のプログラムにおいて、
複数の前記注視キャラクタがゲーム空間に配置されている場合に、各プレーヤによって注視されている特定の注視キャラクタを特定する特定手段として前記コンピュータを更に機能させ、
前記画像制御手段が、
前記プレーヤ毎に、前記特定された特定の注視キャラクタに基づいて、他のプレーヤのプレーヤキャラクタの関係性パラメータの画像化の有無を判定し、
当該判定結果に応じて、前記プレーヤ毎に生成されたゲーム空間の画像に、前記他のプレーヤのプレーヤキャラクタにおける関連性パラメータを、当該他のプレーヤのプレーヤキャラクタに関連付けて画像化し、又は、非画像化する前記画像化処理を実行する、プログラム。
The program according to claim 1,
When the plurality of gaze characters are arranged in the game space, the computer is further functioned as a specifying means for specifying a specific gaze character being watched by each player,
The image control means is
For each player, based on the specified specific gaze character, the presence or absence of imaging of the relationship parameter of the player character of another player is determined,
Depending on the determination result, the relevance parameter of the player character of the other player is imaged in association with the player character of the other player in the image of the game space generated for each player, or a non-image A program for executing the imaging process.
請求項1に記載のプログラムにおいて、
前記画像制御手段が、
前記各プレーヤのゲーム空間の画像に、各プレーヤのゲームレベルと同一レベル又は所定の範囲内に属するレベルを有する、他のプレーヤのプレーヤキャラクタにおける関係性パラメータを画像化する前記画像化処理を実行する、プログラム。
The program according to claim 1,
The image control means is
The imaging process for imaging the relationship parameter in the player character of another player having the same level as the game level of each player or a level belonging to a predetermined range on the image of the game space of each player is executed. ,program.
請求項1に記載のプログラムにおいて、
前記画像制御手段が、
前記各プレーヤのゲーム空間の画像に、前記各プレーヤとゲーム空間内における所定の距離内に存在する他のプレーヤのプレーヤキャラクタの関係性パラメータを画像化する前記画像化処理を実行する、プログラム。
The program according to claim 1,
The image control means is
A program that executes the imaging process for imaging a relationship parameter between each player and a player character of another player existing within a predetermined distance in the game space on the image of the game space of each player.
請求項1に記載のプログラムにおいて、
前記管理手段が、
前記プレーヤ毎に、前記各プレーヤにおける他のプレーヤとの関係性を示す親密度を管理し、
前記画像制御手段が、
前記プレーヤ毎に、前記親密度に基づいて、他のプレーヤのプレーヤキャラクタの関係性パラメータの画像化の有無を判定し、
当該判定結果に応じて、前記プレーヤ毎に生成されたゲーム空間の画像に、他のプレーヤのプレーヤキャラクタにおける関連性パラメータを、当該他のプレーヤキャラクタに関連付けて画像化し、又は、非画像化する前記画像化処理を実行する、プログラム。
The program according to claim 1,
The management means is
For each player, manage intimacy indicating the relationship of each player with other players,
The image control means is
For each player, based on the familiarity, the presence / absence of imaging of the relationship parameter of the player character of another player is determined,
Depending on the determination result, the relevance parameter in the player character of another player is imaged in association with the other player character in the image of the game space generated for each player, or the image is made non-imaged. A program that executes imaging processing.
請求項1に記載のプログラムにおいて、
前記管理手段が、
前記プレーヤ毎に、前記ゲームを実行する際に同一のチーム又は他のチームに属するかを示すチーム属性を示す属性情報を管理し、
前記画像制御手段が、
前記プレーヤ毎に、前記属性情報に基づいて、他のプレーヤのプレーヤキャラクタの関係性パラメータの画像化の有無を判定し、
当該判定結果に応じて、前記プレーヤ毎に生成されたゲーム空間の画像に、他のプレーヤのプレーヤキャラクタにおける関連性パラメータを、当該他のプレーヤのプレーヤキャラクタに関連付けて画像化し、又は、非画像化する前記画像化処理を実行する、プログラム。
The program according to claim 1,
The management means is
For each player, managing attribute information indicating team attributes indicating whether the player belongs to the same team or another team when executing the game;
The image control means is
For each player, based on the attribute information, the presence / absence of imaging of the relationship parameter of the player character of another player is determined,
Depending on the determination result, the relevance parameter of the player character of the other player is imaged in association with the player character of the other player in the image of the game space generated for each player, or is not imaged. A program for executing the imaging process.
請求項1に記載のプログラムにおいて、
前記管理手段が、
前記プレーヤ毎に、ゲーム履歴をゲーム履歴情報として管理し、
前記画像制御手段が、
前記プレーヤ毎に、他のプレーヤにおける前記ゲーム履歴情報に基づいて、当該他のプレーヤのプレーヤキャラクタの関係性パラメータを画像化する前記画像化処理を実行する、プログラム。
The program according to claim 1,
The management means is
For each player, the game history is managed as game history information,
The image control means is
A program for executing, for each player, the imaging process for imaging a player character relationship parameter of another player based on the game history information of the other player.
請求項1〜7のいずれか1項に記載のプログラムにおいて、
前記画像制御手段が、
前記他のプレーヤのプレーヤキャラクタの関係性パラメータを、前記他のプレーヤキャラクタに関する所与の表示物、又は、当該他のプレーヤキャラクタの様態によって画像化する前記画像化処理を実行する、プログラム。
In the program according to any one of claims 1 to 7,
The image control means is
A program for executing the imaging process for imaging the relationship parameter of the player character of the other player according to a given display object related to the other player character or a state of the other player character.
請求項8に記載のプログラムにおいて、
前記画像制御手段が、
前記他のプレーヤキャラクタの前記仮想3次元空間における配置位置の近傍に、又は、前記仮想3次元空間における当該他のプレーヤのプレーヤキャラクタの配置方向を示す位置に、前記表示物を画像化する前記画像化処理を実行する、プログラム。
The program according to claim 8, wherein
The image control means is
The image for imaging the display object in the vicinity of the arrangement position of the other player character in the virtual three-dimensional space or at a position indicating the arrangement direction of the player character of the other player in the virtual three-dimensional space. A program that executes the conversion process.
請求項8に記載のプログラムにおいて、
前記画像生成手段が、
前記プレーヤ毎に、前記画像化した仮想3次元空間の画像を含むゲーム画面を形成し、当該形成したゲーム画面を各プレーヤに提供し、
前記画像制御手段が、
前記他のプレーヤ又は当該他のプレーヤのプレーヤキャラクタの固有の情報に対応付けつつ、前記仮想3次元空間の画像が形成されるゲーム画面内の第1領域とは異なる第2領域に、前記関係性パラメータを画像化する前記画像化処理を実行する、プログラム。
The program according to claim 8, wherein
The image generating means
Forming a game screen including the imaged virtual three-dimensional space for each player, and providing the formed game screen to each player;
The image control means is
In the second area different from the first area in the game screen on which the image of the virtual three-dimensional space is formed while being associated with the unique information of the other player or the player character of the other player, the relationship A program for executing the imaging process for imaging a parameter.
請求項1〜10のいずれか1項に記載のプログラムにおいて、
前記他のプレーヤキャラクタの関連性パラメータを、当該他のプレーヤキャラクタに関
連付けて画像化する際に、当該画像に関連する音又は振動を提供する提供手段を制御するための制御処理を実行する制御処理手段として前記コンピュータを更に機能させる、プログラム。
In the program according to any one of claims 1 to 10,
Control processing for executing control processing for controlling providing means for providing sound or vibration related to the image when the relevance parameter of the other player character is imaged in association with the other player character A program for causing the computer to further function as a means.
請求項1〜11のいずれか1項に記載のプログラムにおいて、
前記画像生成手段が、
前記プレーヤの視界を覆う構造を有し、かつ、前記仮想3次元空間の画像を視認させる装着型画像表示装置から構成された表示手段に、前記生成したゲーム空間の画像を表示させ、
前記受付手段が、
前記プレーヤの入力として前記プレーヤの視線方向を受け付ける、プログラム。
In the program according to any one of claims 1 to 11,
The image generating means
And displaying the generated image of the game space on display means having a structure that covers the field of view of the player, and configured by a wearable image display device that visually recognizes the image of the virtual three-dimensional space,
The accepting means is
A program for accepting a line-of-sight direction of the player as an input of the player.
複数のプレーヤが注視する少なくとも1の注視キャラクタを配置させたゲーム空間を、仮想3次元空間として、画像化しつつ、ゲームを進行させるゲームシステムであって、
前記ゲーム空間における前記注視キャラクタ及び各プレーヤの操作対象となるプレーヤキャラクタを含む各オブジェクトを制御するオブジェクト制御手段と、
前記プレーヤキャラクタ毎に、前記ゲーム中に変動する前記注視キャラクタとの関係性を示す関係性パラメータをそれぞれ管理する管理手段と、
前記プレーヤによって入力された少なくとも当該プレーヤの視線方向を含むプレーヤ入力を受け付ける処理を実行する受付手段と、
前記プレーヤ毎に、各プレーヤキャラクタが前記ゲーム空間上に配置された位置を当該各プレーヤに対応する仮想カメラの位置として設定し、各仮想カメラを視点として前記各プレーヤの視線方向に見えるゲーム空間の画像をそれぞれ生成する画像生成手段と、
前記受け付けられた各プレーヤ入力のそれぞれに基づいて、対応する各仮想カメラを制御する仮想カメラ制御手段と、
ゲーム状況に応じて、前記プレーヤ毎に、前記ゲーム空間の画像を生成する際に、前記ゲーム空間に配置された他のプレーヤキャラクタの関連性パラメータを、当該他のプレーヤキャラクタに関連付けて画像化する画像化処理を実行する画像制御手段と、
を備えることを特徴とするゲームシステム。
A game system in which a game space in which at least one gaze character to be watched by a plurality of players is arranged is imaged as a virtual three-dimensional space, and the game proceeds.
Object control means for controlling each object including the gaze character and the player character to be operated by each player in the game space;
Management means for managing a relationship parameter indicating a relationship with the gaze character that fluctuates during the game for each player character;
Receiving means for executing a process for receiving a player input including at least the line-of-sight direction of the player input by the player;
For each player, the position at which each player character is placed in the game space is set as the position of the virtual camera corresponding to the player, and the game space that can be seen in the line-of-sight direction of each player is viewed from each virtual camera. Image generation means for generating images respectively;
Virtual camera control means for controlling each corresponding virtual camera based on each received player input;
When an image of the game space is generated for each player according to the game situation, the relevance parameter of another player character arranged in the game space is imaged in association with the other player character. Image control means for executing imaging processing;
A game system comprising:
JP2016243791A 2016-12-15 2016-12-15 Game systems and programs Active JP7355483B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016243791A JP7355483B2 (en) 2016-12-15 2016-12-15 Game systems and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016243791A JP7355483B2 (en) 2016-12-15 2016-12-15 Game systems and programs

Publications (2)

Publication Number Publication Date
JP2018094247A true JP2018094247A (en) 2018-06-21
JP7355483B2 JP7355483B2 (en) 2023-10-03

Family

ID=62631517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016243791A Active JP7355483B2 (en) 2016-12-15 2016-12-15 Game systems and programs

Country Status (1)

Country Link
JP (1) JP7355483B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021002145A (en) * 2019-06-20 2021-01-07 パルス株式会社 Virtual space providing system, virtual space providing method, and program
JP2021196855A (en) * 2020-06-14 2021-12-27 株式会社スクウェア・エニックス Augmented reality display device and program
US11433306B2 (en) 2018-07-26 2022-09-06 Cygames, Inc. Information processing program, server, information processing system, and information processing device for changing character objects between games
JP7321471B1 (en) 2022-06-21 2023-08-07 グリー株式会社 Information processing system, information processing method, and program
JP7462912B2 (en) 2020-03-03 2024-04-08 グリー株式会社 Video distribution system, video distribution method, and video distribution program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000061145A (en) * 1998-08-25 2000-02-29 Namco Ltd Game device and information storage medium
JP2002210235A (en) * 2001-01-24 2002-07-30 Square Co Ltd Video game system and control method thereof, video game program, and computer readable recording medium recording that program
JP2003103054A (en) * 2001-09-28 2003-04-08 Namco Ltd Game apparatus, game processing method, program, recording medium, and network game system
JP2003117248A (en) * 2001-10-17 2003-04-22 Namco Ltd Game information, storage medium and server
JP2013094437A (en) * 2011-11-01 2013-05-20 Konami Digital Entertainment Co Ltd Game device, control method of the same, and program
JP2015231443A (en) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント Program and game system
JP2016104202A (en) * 2016-01-13 2016-06-09 株式会社タイトー Game device and game program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000061145A (en) * 1998-08-25 2000-02-29 Namco Ltd Game device and information storage medium
JP2002210235A (en) * 2001-01-24 2002-07-30 Square Co Ltd Video game system and control method thereof, video game program, and computer readable recording medium recording that program
JP2003103054A (en) * 2001-09-28 2003-04-08 Namco Ltd Game apparatus, game processing method, program, recording medium, and network game system
JP2003117248A (en) * 2001-10-17 2003-04-22 Namco Ltd Game information, storage medium and server
JP2013094437A (en) * 2011-11-01 2013-05-20 Konami Digital Entertainment Co Ltd Game device, control method of the same, and program
JP2015231443A (en) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント Program and game system
JP2016104202A (en) * 2016-01-13 2016-06-09 株式会社タイトー Game device and game program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11433306B2 (en) 2018-07-26 2022-09-06 Cygames, Inc. Information processing program, server, information processing system, and information processing device for changing character objects between games
JP2021002145A (en) * 2019-06-20 2021-01-07 パルス株式会社 Virtual space providing system, virtual space providing method, and program
JP7462912B2 (en) 2020-03-03 2024-04-08 グリー株式会社 Video distribution system, video distribution method, and video distribution program
JP2021196855A (en) * 2020-06-14 2021-12-27 株式会社スクウェア・エニックス Augmented reality display device and program
US11568608B2 (en) 2020-06-14 2023-01-31 Square Enix Co., Ltd. Augmented reality display device and program recording medium
JP7321471B1 (en) 2022-06-21 2023-08-07 グリー株式会社 Information processing system, information processing method, and program
JP2024000573A (en) * 2022-06-21 2024-01-09 グリー株式会社 Information processing system, information processing method and program

Also Published As

Publication number Publication date
JP7355483B2 (en) 2023-10-03

Similar Documents

Publication Publication Date Title
JP7445798B2 (en) Game system, game provision method and program
JP7174800B2 (en) Game system, game providing method and program
JP6955861B2 (en) Event control system and program
JP6809830B2 (en) Programs and electronics
JP2018075260A (en) Game system and program
JP7355483B2 (en) Game systems and programs
WO2020138107A1 (en) Video streaming system, video streaming method, and video streaming program for live streaming of video including animation of character object generated on basis of motion of streaming user
US20220297006A1 (en) Program, method, and terminal device
JP2024036381A (en) Programs, information processing methods, servers and server information processing methods
JP2024003191A (en) Game system, game device, and program
JP7437480B2 (en) Programs, methods, and computers
JP6829364B2 (en) Game system and computer programs used for it
JP7051993B2 (en) Programs and electronic devices
JP6754859B1 (en) Programs, methods, and computers
JP6826645B1 (en) Programs, methods, and terminals
JP2022081469A (en) Program, information processing method, information processing device and server
JP2021053406A (en) Program, method and terminal device
JP7155227B2 (en) Program, electronic device and control method
JP7357865B1 (en) Program, information processing method, and information processing device
WO2022113329A1 (en) Method, computer-readable medium, computer system, and information processing device
WO2022137523A1 (en) Game method, computer-readable medium, and information processing device
JP2024021028A (en) Information processing system, information processing method, and storage medium
JP2024052226A (en) Character management system, program, and character information providing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191011

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210623

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210623

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210702

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210706

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210917

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210928

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220510

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221011

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230921

R150 Certificate of patent or registration of utility model

Ref document number: 7355483

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150