JP7353418B1 - Program, method, image generation device, and game system for generating images - Google Patents

Program, method, image generation device, and game system for generating images Download PDF

Info

Publication number
JP7353418B1
JP7353418B1 JP2022076714A JP2022076714A JP7353418B1 JP 7353418 B1 JP7353418 B1 JP 7353418B1 JP 2022076714 A JP2022076714 A JP 2022076714A JP 2022076714 A JP2022076714 A JP 2022076714A JP 7353418 B1 JP7353418 B1 JP 7353418B1
Authority
JP
Japan
Prior art keywords
data
camera
reference positions
determined
camera reference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022076714A
Other languages
Japanese (ja)
Other versions
JP2023165541A (en
Inventor
萌美 花田
大吾 中村
孝次 芝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cygames Inc
Original Assignee
Cygames Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cygames Inc filed Critical Cygames Inc
Priority to JP2022076714A priority Critical patent/JP7353418B1/en
Application granted granted Critical
Publication of JP7353418B1 publication Critical patent/JP7353418B1/en
Publication of JP2023165541A publication Critical patent/JP2023165541A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

Figure 0007353418000001

【課題】仮想カメラの角度に応じた3Dオブジェクトの画像を生成することが可能なプログラムを提供する。
【解決手段】本発明の一実施形態のプログラムは、仮想空間内の3Dオブジェクトの仮想カメラから見た画像を生成するためのプログラムであって、コンピュータに、カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置とが関連付けて記憶された基準データに含まれる複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定するステップと、決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成するステップと、を実行させる、プログラムである。
【選択図】図1

Figure 0007353418000001

The present invention provides a program capable of generating an image of a 3D object according to the angle of a virtual camera.
A program according to an embodiment of the present invention is a program for generating an image of a 3D object in a virtual space as seen from a virtual camera, and the program is a program for generating an image of a 3D object in a virtual space as seen from a virtual camera. A plurality of camera reference positions are determined according to the position of the virtual camera from a plurality of camera reference positions included in the reference data in which the 3D data and the camera reference position are stored in association with each other, and the determined camera reference position is determining a weight for each; and generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight. It is a program to be executed.
[Selection diagram] Figure 1

Description

本発明は、画像を生成するためのプログラム、方法、画像生成装置、及びゲームシステムに関し、特に仮想空間内の3Dオブジェクトの仮想カメラから見た画像を生成するためのプログラム、方法、画像生成装置、及びゲームシステムに関する。 The present invention relates to a program, a method, an image generation device, and a game system for generating an image, and in particular, a program, a method, an image generation device, and a game system for generating an image of a 3D object in a virtual space as seen from a virtual camera. and game systems.

ゲームなどの様々なコンテンツにおいては、キャラクタなどの仮想オブジェクトの画像が生成される。例えば特許文献1には、3次元空間に配置されたキャラクタの顔画像生成に関する技術が開示されている。 In various contents such as games, images of virtual objects such as characters are generated. For example, Patent Document 1 discloses a technique related to generating a face image of a character placed in a three-dimensional space.

特許第4244352号Patent No. 4244352

キャラクタの3Dモデルの顔画像生成において、キャラクタを斜め横等の正面以外の角度から見たときに違和感なく見えるように口や鼻などの位置を設定すると、正面から見たときに口や鼻などの位置がずれてしまうといった問題があった。例えば特許文献1は、マンガやアニメーションで広く用いられている描法を用いてキャラクタの画像を生成する技術を開示し、当該キャラクタを異なる視点から見たときに口や鼻などの位置がずれてしまうことを防ぐため、キャラクタの頭部に付加的に配置される口や鼻などのオブジェクトの位置を視点に近づくように修正する技術を開示している。しかしながら、特許文献1には、口や鼻などの顔のパーツを含むボーンやメッシュなどにより表される3Dモデル(3Dキャラクタ)を任意の角度の仮想カメラから見たときに、3Dモデルの一部を構成する顔のパーツの位置ずれなどの不具合(不整合)が生じないようにキャラクタの画像を生成する技術は開示されていない。このような中で、例えば顔のパーツを含む3Dキャラクタなどの3Dモデルを任意の角度の仮想カメラから見たときに、不具合が生じないように、仮想カメラの角度に応じた3Dモデル(3Dオブジェクト)の画像を生成することが可能な技術が求められていた。 When generating a face image of a 3D model of a character, if you set the position of the mouth, nose, etc. so that it looks natural when the character is viewed from an angle other than the front, such as diagonally to the side, the mouth, nose, etc. There was a problem that the position of the camera would shift. For example, Patent Document 1 discloses a technology that generates an image of a character using a drawing method widely used in manga and animation, but when the character is viewed from different viewpoints, the positions of the mouth, nose, etc. are misaligned. In order to prevent this, a technique is disclosed in which the position of objects such as a mouth and nose that are additionally placed on the character's head is corrected so that they approach the viewpoint. However, Patent Document 1 discloses that when a 3D model (3D character) represented by bones, meshes, etc. including facial parts such as a mouth and a nose is viewed from a virtual camera at an arbitrary angle, a portion of the 3D model is No technology has been disclosed for generating an image of a character without causing defects (inconsistencies) such as misalignment of facial parts that make up the character. Under these circumstances, in order to prevent problems from occurring when a 3D model such as a 3D character including facial parts is viewed from a virtual camera at an arbitrary angle, the 3D model (3D object) is created according to the angle of the virtual camera. ) was needed.

本発明は、このような課題を解決するためになされたものであり、仮想カメラの角度に応じた3Dオブジェクトの画像を生成することが可能なプログラム等を提供することを目的とする。 The present invention was made to solve such problems, and an object of the present invention is to provide a program and the like that can generate an image of a 3D object according to the angle of a virtual camera.

〔1〕本発明の一実施形態のプログラムは、
仮想空間内の3Dオブジェクトの仮想カメラから見た画像を生成するためのプログラムであって、コンピュータに、
カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置とが関連付けて記憶された基準データに含まれる複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定するステップと、
決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成するステップと、
を実行させる、プログラムである。
[1] A program according to an embodiment of the present invention is
A program for generating an image of a 3D object in a virtual space as seen from a virtual camera, the program comprising:
A plurality of camera reference positions corresponding to the position of the virtual camera are selected from a plurality of camera reference positions included in reference data in which 3D data of a 3D object viewed from the camera reference position and the camera reference position are stored in association with each other. determining a weight for each of the determined camera reference positions;
generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight;
It is a program that executes.

〔2〕本発明の一実施形態では、
3Dデータは、3Dオブジェクトを構成するボーンデータ又はメッシュデータである、〔1〕に記載のプログラムである。
[2] In one embodiment of the present invention,
The 3D data is the program described in [1], which is bone data or mesh data that constitutes a 3D object.

〔3〕本発明の一実施形態では、
前記プログラムは、仮想空間内に3Dオブジェクトを配置して進行するゲームのためのプログラムであり、コンピュータに、
ゲームの進行に応じて仮想カメラの位置を決定するステップを実行させ、
重みを決定するステップは、複数のカメラ基準位置から、決定された仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定する、
〔1〕又は〔2〕に記載のプログラムである。
[3] In one embodiment of the present invention,
The program is a program for a game that is played by placing 3D objects in a virtual space.
Perform a step to determine the position of the virtual camera as the game progresses,
The step of determining weights includes determining a plurality of camera reference positions corresponding to the determined virtual camera position from a plurality of camera reference positions, and determining a weight for each of the determined camera reference positions.
This is the program described in [1] or [2].

〔4〕本発明の一実施形態では、
3Dオブジェクトはローカル座標系により定められ、
カメラ基準位置は、ローカル座標系の一の方向に対応する3Dオブジェクトの正面向きベクトルに対するローカル座標系の基準点から仮想カメラへの方向ベクトルの水平方向における回転角αと水平方向となす角βとにより表されるαβ平面内の位置に対応付けられ、
重みを決定するステップは、取得された仮想カメラの位置に対応するαβ平面内の位置と、複数のカメラ基準位置が対応付けられたαβ平面内の複数の位置とに基づいて、取得された仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定する、
〔1〕から〔3〕のいずれか1つに記載のプログラムである。
[4] In one embodiment of the present invention,
3D objects are defined by a local coordinate system,
The camera reference position is defined as the rotation angle α in the horizontal direction of a direction vector from the reference point of the local coordinate system to the virtual camera with respect to the front-facing vector of the 3D object corresponding to one direction of the local coordinate system, and the angle β formed with the horizontal direction. is associated with the position in the αβ plane represented by
The step of determining the weight is based on a position in the αβ plane corresponding to the position of the acquired virtual camera and a plurality of positions in the αβ plane to which a plurality of camera reference positions are associated. determining a plurality of camera reference positions according to the camera position, and determining a weight for each of the determined camera reference positions;
The program is the program described in any one of [1] to [3].

〔5〕本発明の一実施形態では、
αβ平面は、複数のカメラ基準位置により形成される複数の領域が設定され、
重みを決定するステップは、仮想カメラの位置に対応するαβ平面内の位置が属する領域から複数のカメラ基準位置を決定し、仮想カメラの位置に対応するαβ平面内の位置から決定されたカメラ基準位置が対応付けられた位置までの長さに応じて該カメラ基準位置の各々の重みを決定する、
〔4〕に記載のプログラムである。
[5] In one embodiment of the present invention,
The αβ plane has multiple areas formed by multiple camera reference positions,
In the step of determining the weight, a plurality of camera reference positions are determined from the area to which the position in the αβ plane corresponding to the position of the virtual camera belongs, and the camera reference positions determined from the position in the αβ plane corresponding to the position of the virtual camera are determining the weight of each of the camera reference positions according to the length to the position to which the position is associated;
This is the program described in [4].

〔6〕本発明の一実施形態では、
基準データは、3Dオブジェクトの正面方向ベクトル上のカメラ基準位置と、該カメラ基準位置に関連付けられた3Dオブジェクトの3Dデータである基本3Dデータとを含み、
基準データが含む基本3Dデータ以外の3Dデータは、基本3Dデータからの差分により表されるデータであり、
3Dオブジェクトの画像を生成するステップは、決定されたカメラ基準位置の各々に関連付けられた3Dオブジェクトの3Dデータを、各々決定された重みに基づいて基本3Dデータにブレンドすることにより、仮想カメラから見た3Dオブジェクトの画像を生成することを含む、〔1〕から〔5〕のいずれか1つに記載のプログラムである。
[6] In one embodiment of the present invention,
The reference data includes a camera reference position on the front direction vector of the 3D object, and basic 3D data that is 3D data of the 3D object associated with the camera reference position,
3D data other than the basic 3D data included in the reference data is data expressed by differences from the basic 3D data,
Generating an image of the 3D object as seen from the virtual camera by blending the 3D data of the 3D object associated with each of the determined camera reference positions into the base 3D data based on the respective determined weights. The program according to any one of [1] to [5], which includes generating an image of a 3D object.

〔7〕本発明の一実施形態では、
3Dオブジェクトは、3Dキャラクタの顔を表す顔オブジェクトであり、
基本3Dデータは、無表情のときの顔オブジェクトの3Dデータであり、
基準データは、所定の表情のときの顔オブジェクトの3Dデータの基本3Dデータからの差分を表す表情データを含み、
3Dオブジェクトの画像を生成するステップは、決定されたカメラ基準位置の各々に対応する3Dオブジェクトの3Dデータを、各々決定された重みに基づいて基本3Dデータにブレンドし、更に対応する表情データをブレンドすることにより、仮想カメラから見た3Dオブジェクトの画像を生成することを含む、〔6〕に記載のプログラムである。
[7] In one embodiment of the present invention,
The 3D object is a face object representing the face of a 3D character,
The basic 3D data is 3D data of a face object when it is expressionless,
The reference data includes facial expression data representing a difference between the 3D data of the facial object and the basic 3D data when the facial object has a predetermined facial expression;
The step of generating an image of the 3D object includes blending the 3D data of the 3D object corresponding to each of the determined camera reference positions with the basic 3D data based on each determined weight, and further blending the corresponding facial expression data. The program described in [6] includes generating an image of a 3D object viewed from a virtual camera by doing so.

〔8〕本発明の一実施形態では、
基準データは、右斜め下方向からのカメラ基準位置から見たときの3Dオブジェクトの3Dデータと、左斜め下方向からのカメラ基準位置から見たときの3Dオブジェクトの3Dデータとを含む、〔1〕から〔7〕のいずれか1つに記載のプログラムである。
[8] In one embodiment of the present invention,
The reference data includes 3D data of the 3D object when viewed from the camera reference position from the diagonally lower right direction, and 3D data of the 3D object when viewed from the camera reference position from the diagonally lower left direction, [1 ] to [7].

〔9〕本発明の一実施形態の方法は、
コンピュータにより実行される、3Dオブジェクトの仮想カメラから見た画像を生成するための方法であって、
カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置とが関連付けて記憶された基準データに含まれる複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定するステップと、
決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成するステップと、
を含む、方法である。
[9] The method of one embodiment of the present invention includes:
A computer-implemented method for generating a virtual camera view of a 3D object, the method comprising:
A plurality of camera reference positions corresponding to the position of the virtual camera are selected from a plurality of camera reference positions included in reference data in which 3D data of a 3D object viewed from the camera reference position and the camera reference position are stored in association with each other. determining a weight for each of the determined camera reference positions;
generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight;
A method including:

〔10〕本発明の一実施形態の画像生成装置は、
3Dオブジェクトの仮想カメラから見た画像を生成する画像生成装置であって、
カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置の各々とを関連付けて記憶し、
前記記憶された複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定し、
決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成する、
ように構成される、画像生成装置である。
[10] An image generation device according to an embodiment of the present invention includes:
An image generation device that generates an image of a 3D object viewed from a virtual camera,
storing 3D data of a 3D object when viewed from a camera reference position in association with each of the camera reference positions;
determining a plurality of camera reference positions corresponding to the position of the virtual camera from the plurality of stored camera reference positions, determining a weight for each of the determined camera reference positions;
generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight;
This is an image generation device configured as follows.

〔11〕本発明の一実施形態のゲームシステムは、
3Dオブジェクトの仮想カメラから見た画像を生成するゲームシステムであって、
カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置の各々とを関連付けて記憶し、
前記記憶された複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定し、
決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成する、
ように構成される、ゲームシステムである。
[11] A game system according to an embodiment of the present invention includes:
A game system that generates an image of a 3D object viewed from a virtual camera,
storing 3D data of a 3D object when viewed from a camera reference position in association with each of the camera reference positions;
determining a plurality of camera reference positions corresponding to the position of the virtual camera from the plurality of stored camera reference positions, determining a weight for each of the determined camera reference positions;
generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight;
This is a game system configured as follows.

本発明によれば、仮想カメラの角度に応じた3Dオブジェクトの画像を生成することができる。 According to the present invention, it is possible to generate an image of a 3D object according to the angle of the virtual camera.

本発明の一実施形態のゲーム装置のハードウェア構成を示すブロック図である。FIG. 1 is a block diagram showing the hardware configuration of a game device according to an embodiment of the present invention. 本発明の一実施形態のゲーム装置の機能ブロック図である。FIG. 1 is a functional block diagram of a game device according to an embodiment of the present invention. 予め作成された正面方向から見たときの対象キャラクタの顔画像の一例を示す図である。It is a figure which shows an example of the face image of the target character when seen from the front direction created beforehand. 予め作成された左斜め下方向から見たときの対象キャラクタの顔画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of a face image of a target character created in advance when viewed diagonally from the lower left direction. 図4に示す対象キャラクタの顔画像を正面方向から見たときの対象キャラクタの顔画像の一例を示す図である。5 is a diagram showing an example of a face image of the target character when the face image of the target character shown in FIG. 4 is viewed from the front. FIG. 対象キャラクタの顔に対する仮想カメラの位置を角度αとβを用いて説明した図である。FIG. 3 is a diagram illustrating the position of a virtual camera with respect to the face of a target character using angles α and β. カメラ基準位置の各々が対応付けられたαβ平面内の基準位置の一例を示す図である。FIG. 7 is a diagram illustrating an example of reference positions in the αβ plane that are associated with camera reference positions. αβ平面において複数の基準位置により形成される複数の領域の一例を示す図である。FIG. 7 is a diagram illustrating an example of a plurality of regions formed by a plurality of reference positions in the αβ plane. ゲーム制御部が決定した仮想カメラの位置に対応するαβ平面内の仮想カメラ位置の一例を示す図である。FIG. 7 is a diagram showing an example of a virtual camera position within the αβ plane corresponding to the virtual camera position determined by the game control unit. 3つの基準位置P1、P2、P3内の仮想カメラ位置Qの各基準位置の重みを平面の関数により決定する様子を示す図である。FIG. 6 is a diagram showing how the weight of each reference position of the virtual camera position Q in three reference positions P1, P2, and P3 is determined by a plane function. ゲーム制御部が決定した仮想カメラの位置に対応するαβ平面内の仮想カメラ位置の一例を示す図である。FIG. 7 is a diagram showing an example of a virtual camera position within the αβ plane corresponding to the virtual camera position determined by the game control unit. ゲーム制御部が決定した仮想カメラの位置に対応するαβ平面内の仮想カメラ位置の一例を示す図である。FIG. 7 is a diagram showing an example of a virtual camera position within the αβ plane corresponding to the virtual camera position determined by the game control unit. 本発明の一実施形態のゲーム装置の処理を示すフローチャートである。It is a flow chart showing processing of a game device of one embodiment of the present invention. αβ平面において複数の基準位置により形成される複数の領域の一例を示す図である。FIG. 7 is a diagram illustrating an example of a plurality of regions formed by a plurality of reference positions in the αβ plane. 所定の関数F1の一例を示す図である。It is a figure which shows an example of the predetermined function F1.

以下、図面を参照して、本発明のゲーム装置10の実施形態について説明する。ゲーム装置10は、1又は複数の装置を含んで構成されるゲームシステムの1つの例である。本発明の実施形態のゲーム装置10は、仮想空間内に仮想キャラクタなどの仮想オブジェクトを配置して進行するゲーム(以下、ゲームA)を提供する。例えばゲームAでは、ユーザはコントローラを操作することで、仮想キャラクタを操作する。本実施形態では、仮想空間は3次元空間であり、仮想オブジェクトは仮想キャラクタの顔部分の3Dオブジェクト(3Dモデル)である。仮想キャラクタなどの仮想オブジェクトは、例えば既知のボーンとジョイントを含むボーンデータから構成される。本実施形態では、説明の便宜上、仮想空間内に配置される1つの3Dキャラクタ(以下、「対象キャラクタ」という。)の仮想カメラから見たときの顔画像の生成について説明する。 Hereinafter, an embodiment of the game device 10 of the present invention will be described with reference to the drawings. The game device 10 is an example of a game system that includes one or more devices. The game device 10 according to the embodiment of the present invention provides a game (hereinafter referred to as game A) in which a virtual object such as a virtual character is placed in a virtual space. For example, in game A, a user operates a virtual character by operating a controller. In this embodiment, the virtual space is a three-dimensional space, and the virtual object is a 3D object (3D model) of a face portion of a virtual character. A virtual object such as a virtual character is composed of bone data including known bones and joints, for example. In this embodiment, for convenience of explanation, generation of a face image of one 3D character (hereinafter referred to as "target character") placed in a virtual space as viewed from a virtual camera will be described.

図3は、予め作成された正面方向から見たときの対象キャラクタの顔画像の一例を示す図であり、図4は、予め作成された左斜め下方向から見たときの対象キャラクタの顔画像の一例を示す図である。図5は、図4に示す対象キャラクタの顔画像を正面方向から見たときの対象キャラクタの顔画像の一例を示す図である。換言すると、図5は、図4に示す対象キャラクタの顔を構成するボーンデータから生成される顔を、正面方向から見たときの顔を示す画像である。図5に示す対象キャラクタの顔画像は、図3に示すような所望の対象キャラクタの顔画像から口や鼻などの部分がずれたものとなっている。図3に示す対象キャラクタの顔画像を左斜め下方向などから見たときの対象キャラクタの顔画像なども同様に口や鼻などの部分がずれたものとなる。ゲーム装置10は、このような課題を解決するための画像生成処理を行うことができる。 FIG. 3 is a diagram showing an example of a face image of the target character created in advance when viewed from the front direction, and FIG. 4 is a diagram showing an example of a face image of the target character created in advance when viewed from the diagonally lower left direction. It is a figure showing an example. FIG. 5 is a diagram showing an example of the face image of the target character when the face image of the target character shown in FIG. 4 is viewed from the front. In other words, FIG. 5 is an image showing the face generated from the bone data forming the face of the target character shown in FIG. 4 when viewed from the front. In the face image of the target character shown in FIG. 5, parts such as the mouth and nose are shifted from the face image of the desired target character as shown in FIG. Similarly, in the face image of the target character when the face image of the target character shown in FIG. 3 is viewed from diagonally downward to the left, parts such as the mouth and nose are also shifted. The game device 10 can perform image generation processing to solve such problems.

図1は本発明の一実施形態のゲーム装置10のハードウェア構成を示すブロック図である。ゲーム装置10は、プロセッサ11、入力装置12、表示装置13、記憶装置14、及び通信装置15を備える。これらの各構成装置はバス16によって接続される。なお、バス16と各構成装置との間には必要に応じてインタフェースが介在しているものとする。本実施形態では、ゲーム装置10は、家庭用ゲーム機及びゲームAを実現可能なゲームアプリケーション(ゲームソフト)を含んで構成される。ゲーム装置10は、一般的なPC等と同様の構成を含むことができる。 FIG. 1 is a block diagram showing the hardware configuration of a game device 10 according to an embodiment of the present invention. Game device 10 includes a processor 11 , an input device 12 , a display device 13 , a storage device 14 , and a communication device 15 . Each of these components is connected by a bus 16. It is assumed that an interface is provided between the bus 16 and each component device as necessary. In this embodiment, the game device 10 includes a home game machine and a game application (game software) that can realize the game A. The game device 10 can include a configuration similar to a general PC or the like.

プロセッサ11は、ゲーム装置10全体の動作を制御する。例えばプロセッサ11は、CPUである。プロセッサ11は、記憶装置14に格納されているプログラムやデータを読み込んで実行することにより、様々な処理を実行する。プロセッサ11は、複数のプロセッサから構成されてもよい。 Processor 11 controls the overall operation of game device 10 . For example, the processor 11 is a CPU. The processor 11 executes various processes by reading and executing programs and data stored in the storage device 14. Processor 11 may be composed of multiple processors.

入力装置12は、ゲーム装置10に対するユーザからの入力を受け付けるユーザインタフェースであり、本実施形態では、家庭用ゲーム機に接続されたコントローラである。入力装置12は、例えば、タッチパネル、タッチパッド、キーボード、マウス、又はボタンであってもよい。表示装置13は、プロセッサ11の制御に従って、アプリケーション画面などをゲーム装置10のユーザに表示するディスプレイである。 The input device 12 is a user interface that accepts input from a user to the game device 10, and in this embodiment is a controller connected to a home game machine. Input device 12 may be, for example, a touch panel, touch pad, keyboard, mouse, or button. The display device 13 is a display that displays application screens and the like to the user of the game device 10 under the control of the processor 11 .

記憶装置14は、主記憶装置及び補助記憶装置を含む。主記憶装置は、例えば情報の高速な読み書きが可能な揮発性メモリであり、プロセッサ11が情報を処理する際の記憶領域及び作業領域として用いられる。補助記憶装置は、様々なプログラムや、各プログラムの実行に際してプロセッサ11が使用するデータを格納する。補助記憶装置は、不揮発性ストレージ又は不揮発性メモリであり、例えばeMMC、UFS、SSDのようなフラッシュメモリであり、着脱可能なものであってもよい。 The storage device 14 includes a main storage device and an auxiliary storage device. The main memory is, for example, a volatile memory capable of reading and writing information at high speed, and is used as a storage area and a work area when the processor 11 processes information. The auxiliary storage device stores various programs and data used by the processor 11 when executing each program. The auxiliary storage device is nonvolatile storage or nonvolatile memory, for example, a flash memory such as eMMC, UFS, or SSD, and may be removable.

通信装置15は、ネットワークを介してユーザ端末又はサーバなどの他のコンピュータとの間でデータの授受を行うことが可能なモジュール、デバイス、又は装置である。通信装置15は、無線通信用のデバイスやモジュールなどとすることもできるし、有線通信用のデバイスやモジュールなどとすることもできる。ゲーム装置10が他の装置と通信を行わない場合、ゲーム装置10は通信装置15を備えなくてもよい。 The communication device 15 is a module, device, or apparatus that can exchange data with a user terminal or another computer such as a server via a network. The communication device 15 can be a wireless communication device or module, or a wired communication device or module. When the game device 10 does not communicate with other devices, the game device 10 does not need to include the communication device 15.

図2は本発明の一実施形態のゲーム装置10の機能ブロック図である。ゲーム装置10は、ゲーム制御部21を備え、ゲーム制御部21は、重み付け決定部23と、3Dモデル画像生成部24とを備える。本実施形態においては、記憶装置14に記憶されている又は通信装置15を介して受信したプログラムがプロセッサ11により実行されることによりこれらの機能が実現される。このように、各種機能がプログラム読み込みにより実現されるため、1つのパート(機能)の一部又は全部を他のパートが有していてもよい。ただし、各機能の一部又は全部を実現するための電子回路等を構成することによりハードウェアによってもこれらの機能は実現してもよい。 FIG. 2 is a functional block diagram of the game device 10 according to an embodiment of the present invention. The game device 10 includes a game control section 21, and the game control section 21 includes a weighting determination section 23 and a 3D model image generation section 24. In this embodiment, these functions are realized by the processor 11 executing a program stored in the storage device 14 or received via the communication device 15. In this way, various functions are realized by reading a program, so that another part may have part or all of one part (function). However, these functions may also be realized by hardware by configuring an electronic circuit or the like to realize some or all of the functions.

ゲーム制御部21は、ゲームAを実現するにあたっての基本制御を行い、既知のゲームプログラムやゲームサーバが備える機能を備えることができる。ゲーム制御部21は、ゲームの進行に応じて(例えば元々ゲームに組み込まれたゲームの進行に応じて又はユーザからの入力に応じて)仮想空間内の仮想カメラの位置を決定する。1つの例では、ゲーム制御部21は、コントローラを介したユーザからの入力に応じて、仮想空間内に配置される仮想カメラの位置を変更したり、仮想空間内の3Dキャラクタを動作させたりすることができる。 The game control unit 21 performs basic control in realizing the game A, and can include functions provided by known game programs and game servers. The game control unit 21 determines the position of the virtual camera in the virtual space according to the progress of the game (for example, according to the progress of the game originally incorporated in the game or according to input from the user). In one example, the game control unit 21 changes the position of a virtual camera placed in the virtual space or causes a 3D character in the virtual space to move in response to input from a user via a controller. be able to.

記憶装置14は、対象キャラクタの顔(顔オブジェクト)を構成するボーンデータを記憶する。対象キャラクタの顔を構成するボーンデータは、複数のボーンに関するデータである。対象キャラクタにはローカル座標系が設定され、各ボーンの位置はローカル座標系で表される。顔を構成するボーン(ボーンデータ)が定められると、顔を構成するメッシュ(ポリゴンメッシュ)も一意に定められる。メッシュは、スキンに対応するものである。1つの例では、対象キャラクタの顔を構成するボーンデータに含まれる各ボーンのデータは、既知のTranslation(位置)、Rotation(回転)、及びScale(スケール)により定められる。例えばこの場合、Translation(位置)は、ボーンの座標を表し、XとYとZの平行移動値で表され、Rotation(回転)は、ボーンの捻じれを表し、X軸とY軸とZ軸それぞれの回転角度で表され、Scale(スケール)は、ボーンの大きさを表し、X方向の倍率、Y方向の倍率、Z方向の倍率で表される。1つの例では、記憶装置14は、仮想空間を構成する仮想オブジェクトに関するデータや対象キャラクタのローカル座標系又は各ボーンデータが配置されるワールド座標の位置を含むゲーム関連データを記憶する。例えば、対象キャラクタの顔を構成するボーンデータは、ゲーム関連データに含まれる。 The storage device 14 stores bone data that constitutes the face (face object) of the target character. The bone data that constitutes the face of the target character is data related to a plurality of bones. A local coordinate system is set for the target character, and the position of each bone is expressed in the local coordinate system. When the bones (bone data) that make up the face are determined, the mesh (polygon mesh) that makes up the face is also uniquely determined. Mesh corresponds to skin. In one example, the data of each bone included in the bone data constituting the face of the target character is determined by known Translation (position), Rotation (rotation), and Scale (scale). For example, in this case, Translation (position) represents the coordinates of the bone and is represented by the translation values of X, Y, and Z, and Rotation (rotation) represents the twist of the bone and is expressed by the X, Y, and Z axes. Each rotation angle is represented, and Scale represents the size of the bone, and is represented by a magnification in the X direction, a magnification in the Y direction, and a magnification in the Z direction. In one example, the storage device 14 stores game-related data including data regarding virtual objects constituting the virtual space, the local coordinate system of the target character, or the world coordinate position where each bone data is placed. For example, bone data forming the face of the target character is included in the game-related data.

ゲームAでは、対象キャラクタの顔31(顔オブジェクト31)に対する仮想カメラ32の位置が角度αとβを用いて定められる。図6は、対象キャラクタの顔31に対する仮想カメラ32の位置を角度αとβを用いて説明した図である。本実施形態では、ローカル座標系の基準点が対象キャラクタの顔31の中心位置(例えば顔を構成する複数のボーンデータの中心位置)に定められ、この基準点がローカル座標系の原点41である。図6に示すように、ローカル座標系は、z軸方向が対象キャラクタの正面方向となるように、xz平面が水平面(水平方向)となるように、かつy軸方向が垂直方向となるように設定される。正面向きベクトル42は、対象キャラクタの顔の正面方向(z軸方向)のベクトルであり、仮想カメラ位置ベクトル43は、基準点から仮想カメラ32の位置へのベクトルである。角度αは、正面向きベクトル42に対する仮想カメラ位置ベクトル43をxz平面に射影した射影ベクトル44のy軸周りの角度(回転角)であり、+z軸方向から+x軸方向への角度をプラスの角度、-x軸方向への角度をマイナスの角度として定めたものである。角度βは、仮想カメラ位置ベクトル43のxz平面(水平方向)とのなす角であり、基準点から+y軸方向への角度をプラスの角度、-y軸方向への角度をマイナスの角度として定めたものである。 In game A, the position of the virtual camera 32 with respect to the target character's face 31 (face object 31) is determined using angles α and β. FIG. 6 is a diagram illustrating the position of the virtual camera 32 with respect to the face 31 of the target character using angles α and β. In this embodiment, the reference point of the local coordinate system is set at the center position of the target character's face 31 (for example, the center position of a plurality of bone data forming the face), and this reference point is the origin 41 of the local coordinate system. . As shown in Figure 6, the local coordinate system is arranged so that the z-axis direction is the front direction of the target character, the xz plane is the horizontal plane (horizontal direction), and the y-axis direction is the vertical direction. Set. The front vector 42 is a vector in the front direction (z-axis direction) of the target character's face, and the virtual camera position vector 43 is a vector from the reference point to the position of the virtual camera 32. The angle α is the angle (rotation angle) around the y-axis of the projection vector 44 obtained by projecting the virtual camera position vector 43 with respect to the front-facing vector 42 onto the xz plane, and the angle from the +z-axis direction to the +x-axis direction is a positive angle. , the angle toward the −x-axis direction is defined as a negative angle. The angle β is the angle formed by the virtual camera position vector 43 with the xz plane (horizontal direction), and the angle from the reference point in the +y-axis direction is defined as a positive angle, and the angle in the -y-axis direction is defined as a negative angle. It is something that

記憶装置14は、複数のカメラ基準位置の各々と、これらのカメラ基準位置の各々から見たときの対象キャラクタの顔を構成するボーンデータ(又は対象キャラクタの顔画像)の各々とを関連付けて記憶する。本実施形態では、上記の複数のカメラ基準位置の各々とボーンデータの各々とが関連付けて記憶されたデータを基準データと呼び、例えばゲーム開発者などにより予め作成される。例えば基準データは、ゲーム関連データに含まれる。基準データは、データベース形式で記憶されてもよい。対象キャラクタの顔を構成するボーンデータの各々が作成されると、顔を構成するメッシュが一意に定められるため、対象キャラクタの顔を構成するボーンデータは対象キャラクタの顔画像という形式で記憶することができる。カメラ基準位置は、予め設定された仮想カメラの位置であり、カメラ基準位置に関連付けて記憶される対象キャラクタの顔画像(ボーンデータ)は、当該カメラ基準位置に配置された仮想カメラから見た対象キャラクタの顔画像(ボーンデータ)である。例えばカメラ基準位置は、ゲーム開発者などにより設定される。カメラ基準位置は、基準点から所定距離離れた方向(角度)が異なる複数の位置に設定される。したがって、複数のカメラ基準位置は、基準点からの距離が同一の位置に設定される。 The storage device 14 stores each of the plurality of camera reference positions in association with each piece of bone data (or face image of the target character) that constitutes the face of the target character when viewed from each of these camera reference positions. do. In this embodiment, data in which each of the plurality of camera reference positions and each piece of bone data are stored in association with each other is called reference data, and is created in advance by, for example, a game developer. For example, the reference data is included in the game-related data. The reference data may be stored in a database format. When each piece of bone data that makes up the face of the target character is created, the mesh that makes up the face is uniquely determined, so the bone data that makes up the face of the target character must be stored in the form of a face image of the target character. I can do it. The camera reference position is the position of a virtual camera set in advance, and the face image (bone data) of the target character stored in association with the camera reference position is the target character's face image (bone data) as seen from the virtual camera placed at the camera reference position. This is a character's face image (bone data). For example, the camera reference position is set by a game developer or the like. The camera reference position is set at a plurality of positions separated by a predetermined distance from the reference point and having different directions (angles). Therefore, the plurality of camera reference positions are set to positions having the same distance from the reference point.

本実施形態では、カメラ基準位置CRは、対象キャラクタの正面方向の位置CR1、右方向の位置CR2、左方向の位置CR3、正面斜め上方向(俯瞰方向)の位置CR4、正面斜め下方向(あおり方向)の位置CR5、右斜め下方向の位置CR6、及び左斜め下方向の位置CR7である。1つの例では、対象キャラクタの正面方向の位置CR1は、α=0°、β=0°の位置であり、右方向の位置CR2は、α=-90°、β=0°の位置であり、左方向の位置CR3は、α=90°、β=0°の位置であり、正面斜め上方向の位置CR4は、α=0°、β=60°の位置であり、正面斜め下方向の位置CR5は、α=0°、β=-60°の位置であり、右斜め下方向の位置CR6は、α=-70°、β=-55°の位置であり、左斜め下方向の位置CR7は、α=70°、β=-55°の位置である。例えばカメラ基準位置の各々から見たときの対象キャラクタの顔を構成するボーンデータの各々は、ゲーム開発者などにより予め作成される。 In the present embodiment, the camera reference positions CR include a position CR1 in the front direction of the target character, a position CR2 in the right direction, a position CR3 in the left direction, a position CR4 in the front diagonally upward direction (overhead direction), and a front diagonally downward direction (overhead direction). position CR5 in the diagonal direction), position CR6 in the diagonally lower right direction, and position CR7 in the diagonally lower left direction. In one example, the position CR1 of the target character in the front direction is a position where α=0° and β=0°, and the position CR2 in the right direction is a position where α=−90° and β=0°. , the position CR3 in the left direction is the position where α=90° and β=0°, the position CR4 in the diagonally upward direction from the front is the position where α=0° and β=60°, and the position CR3 in the diagonally downward direction from the front is the position where α=0° and β=60°. Position CR5 is a position where α=0° and β=-60°, and position CR6 diagonally downward to the right is a position where α=-70° and β=-55°, and a position diagonally downward to the left. CR7 is at the position α=70° and β=−55°. For example, each piece of bone data that constitutes the face of the target character when viewed from each of the camera reference positions is created in advance by a game developer or the like.

基準データにおいて、対象キャラクタの正面方向のカメラ基準位置CR1に関連付けて記憶された対象キャラクタの顔を構成するボーンデータは、基本ボーンデータとして記憶される。基準データに含まれる、対象キャラクタの正面方向のカメラ基準位置CR1以外の位置に関連付けて記憶された対象キャラクタを構成するボーンデータは、基本ボーンデータからの差分により表されるデータである。 In the reference data, bone data constituting the face of the target character stored in association with the camera reference position CR1 in the front direction of the target character is stored as basic bone data. Bone data constituting the target character, which is included in the reference data and is stored in association with a position other than the camera reference position CR1 in the front direction of the target character, is data expressed by a difference from the basic bone data.

重み付け決定部23は、基準データに含まれる複数のカメラ基準位置から、ゲーム制御部21が決定した仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定する。3Dモデル画像生成部24は、決定されたカメラ基準位置の各々に関連付けられたボーンデータと、決定された重みとに基づいて、仮想カメラから見た対象キャラクタの顔画像を生成する。なお、重み付け決定部23は、仮想カメラの位置に応じた複数のカメラ基準位置とそれらの各々の重みを同時に決定してもよい。 The weighting determination unit 23 determines a plurality of camera reference positions corresponding to the position of the virtual camera determined by the game control unit 21 from the plurality of camera reference positions included in the reference data, and calculates each of the determined camera reference positions. Determine the weight. The 3D model image generation unit 24 generates a face image of the target character viewed from the virtual camera based on the bone data associated with each of the determined camera reference positions and the determined weight. Note that the weighting determining unit 23 may simultaneously determine a plurality of camera reference positions according to the position of the virtual camera and their respective weights.

前述のように、カメラ基準位置は、仮想空間内の位置であるが、αとβの角度で一意に決定されるため、カメラ基準位置の各々は、αβ平面上の位置で表現することができる。記憶装置14は、基準データに含まれるカメラ基準位置の各々をαβ平面内の位置に対応付けて記憶する。図7は、カメラ基準位置CR1~CR7の各々が対応付けられたαβ平面内の基準位置51~57の一例を示す図である。図7において、基準位置51は、対象キャラクタの正面方向のカメラ基準位置CR1に対応し、基準位置52は、対象キャラクタの右方向のカメラ基準位置CR2に対応し、基準位置53は、対象キャラクタの左方向のカメラ基準位置に対応し、基準位置54は、対象キャラクタの正面斜め上方向のカメラ基準位置に対応し、基準位置55は、対象キャラクタの正面斜め下方向のカメラ基準位置に対応し、基準位置56は、対象キャラクタの右斜め下方向のカメラ基準位置に対応し、基準位置57は、対象キャラクタの左斜め下方向のカメラ基準位置に対応する。 As mentioned above, the camera reference position is a position in virtual space, but since it is uniquely determined by the angle α and β, each camera reference position can be expressed as a position on the αβ plane. . The storage device 14 stores each of the camera reference positions included in the reference data in association with a position within the αβ plane. FIG. 7 is a diagram showing an example of reference positions 51 to 57 in the αβ plane to which camera reference positions CR1 to CR7 are associated. In FIG. 7, the reference position 51 corresponds to the camera reference position CR1 in the front direction of the target character, the reference position 52 corresponds to the camera reference position CR2 in the right direction of the target character, and the reference position 53 corresponds to the camera reference position CR1 in the front direction of the target character. The reference position 54 corresponds to a camera reference position in the left direction, the reference position 54 corresponds to a camera reference position diagonally above the front of the target character, and the reference position 55 corresponds to a camera reference position diagonally below the front of the target character. The reference position 56 corresponds to the camera reference position in the diagonally lower right direction of the target character, and the reference position 57 corresponds to the camera reference position in the diagonally lower left direction of the target character.

αβ平面は、複数の基準位置51~57に基づいて、複数の領域61~72が設定される。記憶装置14は、αβ平面において複数の基準位置51~57により形成される複数の領域61~72を記憶する。図8は、αβ平面において複数の基準位置により形成される複数の領域の一例を示す図である。図8は、複数の基準位置51~57により形成される複数の領域61~72を示している。複数の領域61~72は、複数の基準位置51~57の内側に形成される内側領域61~66と、外側に形成される外側領域67~72とを含む。内側領域61~66は、複数の基準位置51~57のうちの3つの頂点から形成される三角形の領域を含み、外側領域67~72は、複数の基準位置51~57のうちの2つの頂点を含む多角形の領域を含む。 On the αβ plane, a plurality of regions 61 to 72 are set based on a plurality of reference positions 51 to 57. The storage device 14 stores a plurality of regions 61 to 72 formed by a plurality of reference positions 51 to 57 on the αβ plane. FIG. 8 is a diagram showing an example of a plurality of regions formed by a plurality of reference positions on the αβ plane. FIG. 8 shows a plurality of regions 61-72 formed by a plurality of reference positions 51-57. The plurality of regions 61-72 include inner regions 61-66 formed inside the plurality of reference positions 51-57 and outer regions 67-72 formed outside. The inner regions 61 to 66 include triangular regions formed by three vertices of the plurality of reference positions 51 to 57, and the outer regions 67 to 72 include two vertices of the plurality of reference positions 51 to 57. Contains a polygonal region containing .

本実施形態では、重み付け決定部23は、仮想カメラの位置に対応するαβ平面内の仮想カメラ位置と、複数の基準位置51~57とに基づいて、仮想カメラの位置に応じた複数のカメラ基準位置を決定する。 In the present embodiment, the weighting determination unit 23 determines a plurality of camera standards according to the position of the virtual camera based on the virtual camera position in the αβ plane corresponding to the position of the virtual camera and the plurality of reference positions 51 to 57. Determine the position.

図9は、ゲーム制御部21が決定した仮想カメラの位置に対応するαβ平面内の仮想カメラ位置81の一例を示す図である。図9が示すαβ平面内の仮想カメラ位置81は、内側領域61~66にある。重み付け決定部23は、ゲーム制御部21が決定した仮想カメラの位置に対応するαβ平面内の仮想カメラ位置81が属する領域61から複数の基準位置51、53、54を決定する。この場合、重み付け決定部23は、仮想カメラ位置81が属する領域を構成する3つの頂点である3つの基準位置51、53、54を決定している。重み付け決定部23は、αβ平面内の仮想カメラ位置81から基準位置51、53、54までの長さに応じて、基準位置51、53、54の各々の重み、すなわちカメラ基準位置CR1、CR3、CR4の各々の重みを決定する。 FIG. 9 is a diagram showing an example of a virtual camera position 81 in the αβ plane corresponding to the position of the virtual camera determined by the game control unit 21. The virtual camera position 81 in the αβ plane shown in FIG. 9 is located in the inner regions 61 to 66. The weighting determination unit 23 determines a plurality of reference positions 51, 53, and 54 from the area 61 to which the virtual camera position 81 in the αβ plane corresponding to the position of the virtual camera determined by the game control unit 21 belongs. In this case, the weighting determination unit 23 determines three reference positions 51, 53, and 54, which are three vertices constituting the area to which the virtual camera position 81 belongs. The weight determination unit 23 determines the weight of each of the reference positions 51, 53, and 54, that is, the camera reference positions CR1, CR3, and Determine the weight for each of CR4.

なお、説明の便宜上、仮想空間内のカメラ基準位置とαβ平面内の基準位置とを分けて表現しているが、αβ平面内の基準位置は、カメラ基準位置を表すものであるから、同じものとして扱うことができる。例えば、複数の基準位置51、53、54を決定することは、複数のカメラ基準位置CR1、CR3、CR4を決定することを意味することができ、複数のカメラ基準位置CR1、CR3、CR4を決定することは、複数の基準位置51、53、54を決定することを意味することができる。また例えば、複数の基準位置51、53、54の各々の重みを決定することは、複数のカメラ基準位置CR1、CR3、CR4の各々の重みを決定することを意味することでき、複数のカメラ基準位置CR1、CR3、CR4の各々の重みを決定することは、複数の基準位置51、53、54の各々の重みを決定することを意味することができる。 For convenience of explanation, the camera reference position in the virtual space and the reference position in the αβ plane are expressed separately, but since the reference position in the αβ plane represents the camera reference position, they are the same. It can be treated as For example, determining the plurality of reference positions 51, 53, 54 can mean determining the plurality of camera reference positions CR1, CR3, CR4, and determining the plurality of camera reference positions CR1, CR3, CR4. Doing can mean determining a plurality of reference positions 51, 53, 54. Also, for example, determining the weight of each of the plurality of reference positions 51, 53, 54 can mean determining the weight of each of the plurality of camera reference positions CR1, CR3, CR4. Determining the weight of each of the positions CR1, CR3, CR4 can mean determining the weight of each of the plurality of reference positions 51, 53, 54.

本実施形態では、重み付け決定部23は、3つの基準位置を決定した場合、αβ平面内の仮想カメラ位置から基準位置までの長さに応じた重みとなるように、かつ基準位置の重みの合計が1(100%)となるように、3つの基準位置(カメラ基準位置)の各々の重みを決定する。例えば重み付け決定部23は、αβ平面に垂直な重みw軸を追加したαβw座標を用いて、3つの基準位置P1(α1、β1)、P2(α2、β2)、P3(α3、β3)における基準位置P1の重みw1を、P1でw=1となり、P2とP3でw=0となる平面の関数の仮想カメラ位置Qにおける重みwの値により決定する。この場合、同様にして、基準位置P2の重みw2を、P2でw=1となり、P1とP3でw=0となる平面の関数の仮想カメラ位置Qにおける重みwの値により決定し、基準位置P3の重みw3を、P3でw=1となり、P1とP2でw=0となる平面の関数の仮想カメラ位置Qにおける重みwの値により決定する。図10は、3つの基準位置P1、P2、P3内の仮想カメラ位置Qの各基準位置の重みを平面の関数により決定する様子を示す図である。 In the present embodiment, when determining three reference positions, the weighting determining unit 23 determines that the weight is determined according to the length from the virtual camera position to the reference position in the αβ plane, and the sum of the weights of the reference positions is The weight of each of the three reference positions (camera reference positions) is determined so that 1 (100%). For example, the weighting determining unit 23 uses the αβw coordinate obtained by adding a weight w axis perpendicular to the αβ plane to determine the standard at three reference positions P1 (α1, β1), P2 (α2, β2), and P3 (α3, β3). The weight w1 at the position P1 is determined by the value of the weight w at the virtual camera position Q of a plane function where w=1 at P1 and w=0 at P2 and P3. In this case, similarly, the weight w2 of the reference position P2 is determined by the value of the weight w at the virtual camera position Q of the plane function where w=1 at P2 and w=0 at P1 and P3, and The weight w3 of P3 is determined by the value of the weight w at the virtual camera position Q of the plane function where w=1 at P3 and w=0 at P1 and P2. FIG. 10 is a diagram showing how the weight of each reference position of the virtual camera position Q in the three reference positions P1, P2, and P3 is determined by a plane function.

図11は、ゲーム制御部21が決定した仮想カメラの位置に対応するαβ平面内の仮想カメラ位置82の一例を示す図である。図11が示すαβ平面内の仮想カメラ位置82は、外側領域67~72にある。重み付け決定部23は、ゲーム制御部21が決定した仮想カメラの位置に対応するαβ平面内の仮想カメラ位置82が属する領域67から複数の基準位置53、54を決定する。この場合、重み付け決定部23は、仮想カメラ位置82が属する領域を構成する頂点の一部である2つの基準位置53、54を決定している。重み付け決定部23は、αβ平面内の仮想カメラ位置82の基準位置53、54を通る直線に対する垂線の交点から基準位置53、54の各々までの長さに応じて、基準位置53、54の各々の重み、すなわちカメラ基準位置CR3、CR4の各々の重みを決定する。 FIG. 11 is a diagram showing an example of a virtual camera position 82 in the αβ plane corresponding to the position of the virtual camera determined by the game control unit 21. The virtual camera position 82 in the αβ plane shown in FIG. 11 is located in the outer regions 67-72. The weighting determination unit 23 determines a plurality of reference positions 53 and 54 from the area 67 to which the virtual camera position 82 in the αβ plane corresponding to the position of the virtual camera determined by the game control unit 21 belongs. In this case, the weighting determining unit 23 determines two reference positions 53 and 54 that are part of the vertices forming the area to which the virtual camera position 82 belongs. The weight determination unit 23 determines each of the reference positions 53 and 54 according to the length from the intersection of the perpendicular line to the straight line passing through the reference positions 53 and 54 of the virtual camera position 82 in the αβ plane to each of the reference positions 53 and 54. , that is, the weight of each of the camera reference positions CR3 and CR4.

図12は、ゲーム制御部21が決定した仮想カメラの位置に対応するαβ平面内の仮想カメラ位置83の一例を示す図である。重み付け決定部23は、仮想カメラ位置82の場合と同様に、ゲーム制御部21が決定した仮想カメラの位置に対応するαβ平面内の仮想カメラ位置83が属する領域67から複数の基準位置53、54を決定する。この場合、αβ平面内の仮想カメラ位置83の基準位置53、54を通る直線に対する垂線の交点は、基準位置53、54間ではなく基準位置53の外側であるため、重み付け決定部23は、基準位置53の重みを1、基準位置54の重みを0と決定する。 FIG. 12 is a diagram showing an example of a virtual camera position 83 in the αβ plane corresponding to the position of the virtual camera determined by the game control unit 21. As in the case of the virtual camera position 82, the weighting determination unit 23 selects a plurality of reference positions 53, 54 from the area 67 to which the virtual camera position 83 in the αβ plane corresponding to the virtual camera position determined by the game control unit 21 belongs. Determine. In this case, the intersection of the perpendicular to the straight line passing through the reference positions 53 and 54 of the virtual camera position 83 in the αβ plane is not between the reference positions 53 and 54 but outside the reference position 53, so the weighting determination unit 23 The weight of the position 53 is determined to be 1, and the weight of the reference position 54 is determined to be 0.

本実施形態では、3Dモデル画像生成部24は、決定されたカメラ基準位置の各々に関連付けられた対象キャラクタの顔を構成するボーンデータを、各々決定された重みに基づいて基本ボーンデータにブレンドすることにより、仮想カメラから見た対象キャラクタの顔画像を生成する。例えば、カメラ基準位置CR1、CR3、CR4の各々の重みw1、w3、w4がそれぞれ0.7、0.2、0.1である場合、3Dモデル画像生成部24は、カメラ基準位置CR3に関連付けられたボーンデータにより表される差分の0.2倍の差分、及びカメラ基準位置CR4に関連付けられたボーンデータにより表される差分の0.1倍の差分を基本ボーンデータにブレンドする(例えば各差分を足す)ことによりボーンデータを生成し、該ボーンデータにより構成される対象キャラクタの顔画像を生成する。 In the present embodiment, the 3D model image generation unit 24 blends bone data forming the face of the target character associated with each of the determined camera reference positions with basic bone data based on each determined weight. By doing so, a face image of the target character as seen from the virtual camera is generated. For example, if the weights w1, w3, and w4 of the camera reference positions CR1, CR3, and CR4 are 0.7, 0.2, and 0.1, respectively, the 3D model image generation unit 24 associates the weights with the camera reference position CR3. A difference of 0.2 times the difference represented by the bone data associated with the camera reference position CR4 and a difference of 0.1 times the difference represented by the bone data associated with the camera reference position CR4 are blended into the basic bone data (for example, each Bone data is generated by adding the differences), and a face image of the target character is generated using the bone data.

次に、本発明の一実施形態のゲーム装置10の処理について図13に示したフローチャートを用いて説明する。 Next, the processing of the game device 10 according to an embodiment of the present invention will be described using the flowchart shown in FIG. 13.

ステップ101において、重み付け決定部23は、複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定する。 In step 101, the weight determination unit 23 determines a plurality of camera reference positions and determines a weight for each of the determined camera reference positions.

ステップ102において、3Dモデル画像生成部24は、決定された重みと、決定されたカメラ基準位置の各々に関連付けられたボーンデータとに基づいて、仮想カメラから見た対象キャラクタの顔画像を生成する。 In step 102, the 3D model image generation unit 24 generates a face image of the target character as seen from the virtual camera based on the determined weights and bone data associated with each of the determined camera reference positions. .

次に、本発明の実施形態のゲーム装置10の主な作用効果について説明する。本実施形態では、ゲーム装置10は、ゲーム開発者などにより作成された基準データを記憶する。重み付け決定部23は、基準データが含む複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定するとともに該決定したカメラ基準位置の各々の重みを決定する。3Dモデル画像生成部24は、決定されたカメラ基準位置の各々に関連付けられたボーンデータと、決定された重みとに基づいて、仮想カメラから見た対象キャラクタの顔画像を生成する。 Next, the main effects of the game device 10 according to the embodiment of the present invention will be explained. In this embodiment, the game device 10 stores reference data created by a game developer or the like. The weight determination unit 23 determines a plurality of camera reference positions corresponding to the position of the virtual camera from a plurality of camera reference positions included in the reference data, and determines a weight for each of the determined camera reference positions. The 3D model image generation unit 24 generates a face image of the target character viewed from the virtual camera based on the bone data associated with each of the determined camera reference positions and the determined weight.

従来、3Dモデルのキャラクタの顔を任意の角度の仮想カメラから見たときに生じうる口や鼻などの位置ずれの不具合(不整合)を解消することが難しいという問題があった。本実施形態のような構成とすることにより、仮想カメラが任意の角度(位置)に変更された場合であっても、口や鼻の部分がずれるなどの不具合を発生させないように、仮想カメラの角度に応じた対象キャラクタの顔画像を生成することができる。また、このような構成とすることにより、例えばリアルタイムで仮想カメラの位置が動くようなゲームにおいて、仮想カメラの角度に応じた3Dオブジェクトの画像を動的に生成することが可能となる。なお、本発明の実施形態では、カメラ基準位置及び関連付けて記憶するボーンデータを増やすと画像の精度は上がるが、重み付け決定部23などの処理速度は下がるため、図8に占めす7つのカメラ基準位置のように、適切な数のカメラ基準位置が設定される。 Conventionally, there has been a problem in that it is difficult to eliminate problems (inconsistencies) caused by misalignment of the mouth, nose, etc. that may occur when the face of a 3D model character is viewed from a virtual camera at an arbitrary angle. With the configuration of this embodiment, even if the virtual camera is changed to an arbitrary angle (position), the virtual camera can be adjusted to prevent problems such as the mouth and nose being misaligned. It is possible to generate a face image of the target character according to the angle. Further, with such a configuration, for example, in a game where the position of the virtual camera moves in real time, it becomes possible to dynamically generate an image of a 3D object according to the angle of the virtual camera. Note that in the embodiment of the present invention, increasing the camera reference position and the number of bone data stored in association with each other will improve the accuracy of the image, but the processing speed of the weighting determination unit 23 etc. will decrease, so the seven camera standards in FIG. Like the position, an appropriate number of camera reference positions are set.

また本実施形態では、基本ボーンデータ以外のボーンデータを基本ボーンデータとの差分のデータとして記憶し、3Dモデル画像生成部24が重みに応じた差分を基本ボーンデータにブレンドするように構成とすることにより、動的な処理を実現するために、より演算量を低減することが可能となる。 Furthermore, in this embodiment, bone data other than the basic bone data is stored as difference data from the basic bone data, and the 3D model image generation unit 24 is configured to blend the difference according to the weight with the basic bone data. By doing so, it becomes possible to further reduce the amount of calculation in order to realize dynamic processing.

上記の作用効果は、特に言及が無い限り、他の実施形態や変形例においても同様である。 The above-mentioned effects are the same in other embodiments and modifications unless otherwise specified.

本発明の実施形態において説明した、対象キャラクタの顔を構成するボーンデータは、対象キャラクタの顔を表す3Dデータ(3Dモデルデータ)の一例である。例えば基本ボーンデータは基本3Dデータの一例である。本発明の1又は複数の実施形態では、対象キャラクタの顔を表す3Dデータは、対象キャラクタの顔を構成するメッシュデータ(例えばポリゴンメッシュデータ)であってもよい。この場合、記憶装置14は、対象キャラクタの顔を表すメッシュデータを記憶する。 The bone data configuring the face of the target character described in the embodiment of the present invention is an example of 3D data (3D model data) representing the face of the target character. For example, basic bone data is an example of basic 3D data. In one or more embodiments of the present invention, the 3D data representing the face of the target character may be mesh data (for example, polygon mesh data) that constitutes the face of the target character. In this case, the storage device 14 stores mesh data representing the face of the target character.

本発明の実施形態において説明した、ゲーム装置10(重み付け決定部23及び3Dモデル画像生成部24)による仮想空間内の3Dキャラクタの顔画像の生成は、ゲーム装置10による3Dオブジェクトの画像生成の一例である。本発明の1又は複数の実施形態では、ゲーム装置10は、任意の3Dオブジェクトに対して、上記の実施形態で説明した対象キャラクタの顔と同様にして仮想カメラから見た3Dオブジェクトの画像を生成することができる。例えばこの場合、記憶装置14は、基準データとして、複数のカメラ基準位置の各々と、当該カメラ基準位置の各々から見たときの3Dオブジェクトの3Dデータの各々とを関連付けて記憶する。3Dオブジェクトは、顔を含む3Dキャラクタの一部又は全部であってもよいし、仮想キャラクタ以外の任意の仮想オブジェクトであってもよい。本発明の1又は複数の実施形態では、ゲーム装置10(重み付け決定部23及び3Dモデル画像生成部24)は、操作対象ではない仮想キャラクタを含む任意の3Dオブジェクトの画像を生成することができ、また例えば、複数の仮想キャラクタの画像を同時に又は順次生成することができる。ゲーム装置10は、当該3Dオブジェクトを含む仮想空間の画像を生成することもできる。 The generation of a face image of a 3D character in a virtual space by the game device 10 (the weighting determination unit 23 and the 3D model image generation unit 24) described in the embodiment of the present invention is an example of image generation of a 3D object by the game device 10. It is. In one or more embodiments of the present invention, the game device 10 generates, for any 3D object, an image of the 3D object viewed from the virtual camera in the same manner as the face of the target character described in the above embodiments. can do. For example, in this case, the storage device 14 stores, as reference data, each of the plurality of camera reference positions and each piece of 3D data of the 3D object when viewed from each of the camera reference positions in association with each other. The 3D object may be part or all of a 3D character including a face, or may be any virtual object other than a virtual character. In one or more embodiments of the present invention, the game device 10 (weighting determination unit 23 and 3D model image generation unit 24) can generate an image of any 3D object including a virtual character that is not an operation target, Furthermore, for example, images of a plurality of virtual characters can be generated simultaneously or sequentially. The game device 10 can also generate an image of a virtual space including the 3D object.

本発明の実施形態では、ゲーム装置10は、ゲームAにおいて、仮想空間内に配置される3Dオブジェクトの画像を生成するものとして説明するが、これに限定されない。ゲーム装置10は、ゲームA以外の任意のシステムにおいて、例えば任意のシミュレーションシステムにおいて、ゲームAにおける対象キャラクタと同様にして、仮想空間内に配置される3Dオブジェクトの画像を生成することができる。 In the embodiment of the present invention, the game device 10 will be described as generating an image of a 3D object placed in a virtual space in game A, but the game device 10 is not limited to this. The game device 10 can generate an image of a 3D object placed in a virtual space in the same way as the target character in game A in any system other than game A, for example in any simulation system.

本発明の実施形態では、ゲーム制御部21は、ゲームプログラム全体が実現する機能部であり、重み付け決定部23及び3Dモデル画像生成部24は、ゲームプログラムのうちのメインプログラムが参照するゲームプログラムの一部を実現する機能部(ソフトウェアモジュール)であるものとして考えることができるが、これに限定されない。重み付け決定部23及び3Dモデル画像生成部24の機能は、メインプログラム内に組み込まれるものであってもよい。例えばゲーム制御部21は、ゲームの進行に応じて仮想カメラの位置を決定し、重み付け決定部23は決定された仮想カメラの位置を取得し、取得した仮想カメラの位置に応じた複数のカメラ基準位置を決定し、該決定されたカメラ基準位置の各々の重みを決定することができる。或いは、例えばゲーム制御部21は、ゲームの進行に応じて仮想カメラの位置を決定するとともに決定した仮想カメラの位置に応じた複数のカメラ基準位置を決定し、該決定されたカメラ基準位置の各々の重みを決定することができる。 In the embodiment of the present invention, the game control unit 21 is a functional unit realized by the entire game program, and the weighting determination unit 23 and the 3D model image generation unit 24 are functions of the game program referenced by the main program among the game programs. Although it can be considered as a functional unit (software module) that realizes a part of the system, it is not limited thereto. The functions of the weighting determination section 23 and the 3D model image generation section 24 may be incorporated into the main program. For example, the game control unit 21 determines the position of the virtual camera according to the progress of the game, the weighting determination unit 23 acquires the determined position of the virtual camera, and sets a plurality of camera standards according to the acquired position of the virtual camera. The positions may be determined and a weight for each of the determined camera reference positions may be determined. Alternatively, for example, the game control unit 21 determines the position of the virtual camera according to the progress of the game, and determines a plurality of camera reference positions according to the determined virtual camera position, and each of the determined camera reference positions weight can be determined.

本発明の実施形態において説明した、図6に示すローカル座標系は対象キャラクタの顔31に設定されるローカル座標系の一例である。本発明の1又は複数の実施形態では、3Dオブジェクト(対象キャラクタの顔31)には任意のローカル座標系を設定することができる。例えばローカル座標系の原点41は、対象キャラクタの顔31の中心位置以外の任意の位置とすることができる。例えばローカル座標系の座標軸は、対象キャラクタの顔31に対して異なるように設定されてもよく、xy平面が水平方向でz方向が垂直方向であってもよく、又はyz平面が水平方向でx方向が垂直方向であってもよい。例えば、正面向きベクトル42がz軸と同一方向となるようにローカル座標系は設定されなくてもよい。また例えば、基準点と原点41は同じ位置でなくてもよい。また例えば、基準点は、顔31の中央あたりの位置であることが好ましいが、他の位置に設定されてもよい。 The local coordinate system shown in FIG. 6 described in the embodiment of the present invention is an example of a local coordinate system set to the face 31 of the target character. In one or more embodiments of the present invention, any local coordinate system can be set for the 3D object (face 31 of the target character). For example, the origin 41 of the local coordinate system can be any position other than the center position of the face 31 of the target character. For example, the coordinate axes of the local coordinate system may be set differently with respect to the face 31 of the target character, the xy plane may be horizontal and the z direction may be vertical, or the yz plane may be horizontal and x The direction may be vertical. For example, the local coordinate system does not need to be set so that the front vector 42 is in the same direction as the z-axis. Further, for example, the reference point and the origin 41 may not be at the same position. Further, for example, the reference point is preferably set at a position around the center of the face 31, but may be set at another position.

本発明の1又は複数の実施形態では、本発明の実施形態の重み付け決定部23及び3Dモデル画像生成部24と同様の機能を備える場合、角度αや角度βを図6に示すものとは異なるように設定されてもよい。 In one or more embodiments of the present invention, when having the same functions as the weighting determination unit 23 and the 3D model image generation unit 24 of the embodiment of the present invention, the angle α and the angle β are different from those shown in FIG. It may be set as follows.

本発明の実施形態において説明した、図8に示す複数の基準位置に基づく複数の領域は、αβ平面において設定される領域の一例である。例えば、ゲーム開発者等は、基準データに含まれる複数のカメラ基準位置に対応する基準位置に基づいて、αβ平面において、図8に示す領域とは異なる領域を設定することができる。例えばαβ平面では、4つの基準位置を頂点とする領域が設定されてもよい。この場合において、この領域内に仮想カメラの位置に対応するαβ平面内の仮想カメラ位置がある場合、重み付け決定部23は、この領域を構成する4つの基準位置を決定し、4つの基準位置の各々の重みを決定し、3Dモデル画像生成部24は、4つの基準位置の各々に関連付けられた3Dデータ(ボーンデータ)と、決定された重みの各々とに基づいて、仮想カメラから見た3Dオブジェクトの画像(対象キャラクタの顔画像)を生成することができる。 The plurality of regions based on the plurality of reference positions shown in FIG. 8 and described in the embodiment of the present invention are examples of regions set on the αβ plane. For example, a game developer or the like can set an area different from the area shown in FIG. 8 on the αβ plane based on reference positions corresponding to a plurality of camera reference positions included in the reference data. For example, in the αβ plane, areas having four reference positions as vertices may be set. In this case, if there is a virtual camera position in the αβ plane corresponding to the virtual camera position within this area, the weighting determining unit 23 determines four reference positions constituting this area, and determines the four reference positions of the four reference positions. After determining each weight, the 3D model image generation unit 24 generates a 3D image as seen from the virtual camera based on the 3D data (bone data) associated with each of the four reference positions and each of the determined weights. An image of the object (face image of the target character) can be generated.

本発明の実施形態において説明した、基準データが含むカメラ基準位置CR1~CR7は、カメラ基準位置の一例である。ゲーム開発者等は、任意の複数のカメラ基準位置を選択し、これらのカメラ基準位置の各々と、カメラ基準位置の各々から見たときの対象キャラクタの顔を構成するボーンデータの各々とを関連付けて基準データとして記憶することができる。ただし、カメラ基準位置は、対象キャラクタの正面方向の位置CR1を含む。1つの好適な例では、基準データが含むカメラ基準位置CRは、対象キャラクタの正面方向の位置CR1、右方向の位置CR2、左方向の位置CR3、正面斜め上方向の位置CR4、正面斜め下方向の位置CR5、右斜め下方向の位置CR6、及び右斜め下方向の位置CR7を含む。本発明の実施形態においては、対象キャラクタの斜め下方向に配置された仮想カメラから見たときの対象キャラクタの顔と対象キャラクタの正面方向に配置された仮想カメラから見たときの対象キャラクタの顔は、特に口や鼻の部分がずれるなどの不具合が発生しやすいため、カメラ基準位置として、右斜め下方向の位置CR6及び左斜め下方向の位置CR7を含むように構成することにより、このような不具合の発生をより抑えることが可能となる。 The camera reference positions CR1 to CR7 included in the reference data described in the embodiment of the present invention are examples of camera reference positions. A game developer, etc. selects a plurality of arbitrary camera reference positions, and associates each of these camera reference positions with each piece of bone data that constitutes the target character's face when viewed from each of the camera reference positions. can be stored as reference data. However, the camera reference position includes the position CR1 in the front direction of the target character. In one preferred example, the camera reference positions CR included in the reference data are a position CR1 in the front direction of the target character, a position CR2 in the right direction, a position CR3 in the left direction, a position CR4 in the front diagonal upper direction, and a front diagonal lower direction. , a position CR6 in the diagonally lower right direction, and a position CR7 in the diagonally lower right direction. In the embodiment of the present invention, the face of the target character when viewed from a virtual camera placed diagonally below the target character, and the face of the target character when viewed from a virtual camera placed in front of the target character. In this case, problems such as misalignment of the mouth and nose are particularly likely to occur, so by configuring the camera reference position to include position CR6 in the diagonally lower right direction and position CR7 in the diagonally lower left direction, it is possible to This makes it possible to further suppress the occurrence of such problems.

本発明の実施形態では、上で述べるように、カメラ基準位置の設定に応じて、カメラ基準位置に対応付けられたαβ平面内の基準位置が設定され、αβ平面において形成される複数の領域が設定される。したがって、異なるカメラ基準位置が設定されると、αβ平面内の基準位置は異なるものとなり、複数の基準位置に基づく複数の領域も異なるものとなる。図14は、αβ平面において複数の基準位置により形成される複数の領域の一例を示す図である。図14は、複数のカメラ基準位置の各々に対応付けられた複数の基準位置O、V、VO、D、DO、RF、R、RO、LF、L、LO、DR、DL、DRO、DLOにより形成される複数の領域a1~a26を示している。 In the embodiment of the present invention, as described above, a reference position in the αβ plane that is associated with the camera reference position is set according to the setting of the camera reference position, and a plurality of regions formed in the αβ plane are Set. Therefore, when different camera reference positions are set, the reference positions in the αβ plane become different, and the plurality of regions based on the plurality of reference positions also become different. FIG. 14 is a diagram showing an example of a plurality of regions formed by a plurality of reference positions on the αβ plane. FIG. 14 shows a plurality of reference positions O, V, VO, D, DO, RF, R, RO, LF, L, LO, DR, DL, DRO, and DLO associated with each of the plurality of camera reference positions. A plurality of regions a1 to a26 are shown.

本発明の1又は複数の実施形態では、ゲーム制御部21は、αβ平面内の仮想カメラ位置が複数の基準位置の内側領域となるように、仮想カメラの位置を決定することができる又はカメラ基準位置を選択することができる。 In one or more embodiments of the present invention, the game control unit 21 may determine the position of the virtual camera such that the virtual camera position in the αβ plane is an area inside the plurality of reference positions. You can choose the location.

本発明の1又は複数の実施形態では、重み付け決定部23は、3つの基準位置を決定した場合、所定の関数を用いて、基準位置の重みの合計が1(100%)となるように、3つの基準位置(カメラ基準位置)の各々の重みを決定することができる。例えば重み付け決定部23は、αβ平面に垂直な重みw軸を追加したαβw座標を用いて、3つの基準位置P1(α1、β1)、P2(α2、β2)、P3(α3、β3)における基準位置P1の重みw1を、P1でw=1となり、P2とP3でw=0となる所定の関数F1の仮想カメラ位置Qにおける重みwの値により決定する。この場合、同様にして、基準位置P2の重みw2を、P2でw=1となり、P1とP3でw=0となる所定の関数F2の仮想カメラ位置Qにおける重みwの値により決定し、基準位置P3の重みw3を、P3でw=1となり、P1とP2でw=0となる所定の関数F3の仮想カメラ位置Qにおける重みwの値により決定する。図15は、所定の関数F1の一例を示す図である。所定の関数F1、F2、F3は、少なくとも3つの基準位置P1、P2、P3内の領域において、任意の位置Qに対して、F1(Q)+F2(Q)+F3(Q)=1となるような関数が設定される。なお、重み付け決定部23は、2つの基準位置又は4つ以上の基準位置を決定した場合においても、所定の関数を用いて、基準位置の重みの合計が1(100%)となるように、基準位置(カメラ基準位置)の各々の重みを決定することができる。 In one or more embodiments of the present invention, when three reference positions are determined, the weighting determination unit 23 uses a predetermined function so that the total weight of the reference positions becomes 1 (100%). The weight of each of the three reference positions (camera reference positions) can be determined. For example, the weighting determining unit 23 uses the αβw coordinate obtained by adding a weight w axis perpendicular to the αβ plane to determine the standard at three reference positions P1 (α1, β1), P2 (α2, β2), and P3 (α3, β3). The weight w1 at the position P1 is determined by the value of the weight w at the virtual camera position Q of a predetermined function F1, where w=1 at P1 and w=0 at P2 and P3. In this case, similarly, the weight w2 of the reference position P2 is determined by the value of the weight w at the virtual camera position Q of the predetermined function F2, where w=1 at P2 and w=0 at P1 and P3, and The weight w3 at the position P3 is determined by the value of the weight w at the virtual camera position Q of a predetermined function F3 where w=1 at P3 and w=0 at P1 and P2. FIG. 15 is a diagram showing an example of the predetermined function F1. The predetermined functions F1, F2, and F3 are set such that F1(Q)+F2(Q)+F3(Q)=1 for any position Q in a region within at least three reference positions P1, P2, and P3. A function is set. Note that even when two reference positions or four or more reference positions are determined, the weighting determination unit 23 uses a predetermined function so that the total weight of the reference positions becomes 1 (100%). The weight of each reference position (camera reference position) can be determined.

本発明の1又は複数の実施形態では、重み付け決定部23は、αβ平面内の仮想カメラ位置が複数の領域間にある場合、予め設定されたルールに従って、いずれか一方の領域内に属するものとして複数のカメラ基準位置を決定することができる。本発明の1又は複数の実施形態では、重み付け決定部23が、αβ平面内の仮想カメラ位置が複数の領域間にある場合に、当該複数の領域のいずれの領域内に属するものとして重みを決定しても同じ値となるように、重みを決定する際の領域ごとに用いる関数を設定することができる。 In one or more embodiments of the present invention, when the virtual camera position in the αβ plane is between a plurality of regions, the weighting determination unit 23 determines that the virtual camera position in the αβ plane belongs to one of the regions according to a preset rule. Multiple camera reference positions can be determined. In one or more embodiments of the present invention, when the virtual camera position in the αβ plane is between a plurality of regions, the weight determination unit 23 determines the weight as belonging to which of the plurality of regions. It is possible to set a function to be used for each region when determining the weight so that the same value is obtained even when the weight is determined.

本発明の実施形態では、記憶装置14は、基準データとして、対象キャラクタの正面方向のカメラ基準位置CR1に関連付けて対象キャラクタの無表情の顔又は普通の表情の顔を構成するボーンデータを記憶する。 In the embodiment of the present invention, the storage device 14 stores, as reference data, bone data constituting an expressionless face or a face with a normal expression of the target character in association with the camera reference position CR1 in the front direction of the target character. .

本発明の1又は複数の実施形態では、記憶装置14は、基準データとして、対象キャラクタの正面方向のカメラ基準位置CR1に関連付けて対象キャラクタの無表情の顔を構成するボーンデータ及び1以上の所定の表情の顔に関する表情データを記憶することができる。この実施形態では、1以上の所定の表情の顔は、笑顔、怒った顔、悲しい顔などを含み、表情データは、対象キャラクタの所定の表情の顔を構成するボーンデータの対象キャラクタの無表情の顔を構成するボーンデータからの差分により表されるデータである。この実施形態では、例えばゲーム制御部21は、ゲームの進行に応じて、対象キャラクタの表情を決定する。この場合、3Dモデル画像生成部24は、決定されたカメラ基準位置の各々に関連付けられた対象キャラクタの顔を構成するボーンデータを、各々決定された重みに基づいて基本ボーンデータにブレンドし、更にゲーム制御部21が決定した対象キャラクタの表情に対応する表情データをブレンドする(例えば対応する表情データの差分を足す)ことにより、仮想カメラから見た対象キャラクタの顔画像を生成することができる。このように本実施形態のゲーム装置10の画像生成処理は、対象キャラクタの顔が複数の表情を有する場合であっても、適用することが可能である。 In one or more embodiments of the present invention, the storage device 14 includes, as reference data, bone data that constitutes an expressionless face of the target character in association with the camera reference position CR1 in the front direction of the target character, and one or more predetermined It is possible to store facial expression data related to facial expressions. In this embodiment, the face with one or more predetermined expressions includes a smiling face, an angry face, a sad face, etc., and the facial expression data includes the target character's neutral expression of bone data that constitutes the target character's face with the predetermined expression. This data is expressed by the difference from the bone data that makes up the face. In this embodiment, for example, the game control unit 21 determines the facial expression of the target character according to the progress of the game. In this case, the 3D model image generation unit 24 blends the bone data constituting the face of the target character associated with each of the determined camera reference positions with the basic bone data based on the respective determined weights, and further By blending the facial expression data corresponding to the facial expression of the target character determined by the game control unit 21 (for example, by adding the difference between the corresponding facial expression data), it is possible to generate a facial image of the target character as seen from the virtual camera. In this way, the image generation process of the game device 10 of this embodiment can be applied even when the face of the target character has multiple expressions.

本発明の1又は複数の実施形態では、基準データにおいて、対象キャラクタの正面方向のカメラ基準位置CR1に関連付けて記憶された対象キャラクタの顔を構成するボーンデータを基本ボーンデータとして記憶しなくてもよい。すなわち、基準データは、基本ボーンデータを含まなくてもよい。この場合、基準データに記憶される、対象キャラクタの正面方向のカメラ基準位置CR1以外のカメラ基準位置に関連付けて記憶された対象キャラクタを構成するボーンデータは、基本ボーンデータからの差分ではなく、それぞれのカメラ基準位置から見たときの対象キャラクタを構成するボーンデータそのものである。或いは、基準データにおいて、対象キャラクタの正面方向のカメラ基準位置CR1以外のカメラ基準位置に関連付けて記憶された対象キャラクタを構成するボーンデータが、基本ボーンデータとして記憶されてもよい。 In one or more embodiments of the present invention, in the reference data, the bone data constituting the face of the target character stored in association with the camera reference position CR1 in the front direction of the target character may not be stored as basic bone data. good. That is, the reference data does not need to include basic bone data. In this case, the bone data constituting the target character stored in the reference data in association with the camera reference position other than the camera reference position CR1 in the front direction of the target character is not a difference from the basic bone data, but each This is the bone data itself that constitutes the target character when viewed from the camera reference position. Alternatively, in the reference data, bone data constituting the target character stored in association with a camera reference position other than the camera reference position CR1 in the front direction of the target character may be stored as basic bone data.

本発明の1又は複数の実施形態では、αβ平面内の仮想カメラ位置がカメラ基準位置と同一である場合、重み付け決定部23は、1つのカメラ基準位置を決定する。この場合、3Dモデル画像生成部24は、決定されたカメラ基準位置に関連付けられた3Dデータを用いて3Dオブジェクトの画像を生成する。 In one or more embodiments of the present invention, when the virtual camera position in the αβ plane is the same as the camera reference position, the weighting determining unit 23 determines one camera reference position. In this case, the 3D model image generation unit 24 generates an image of the 3D object using 3D data associated with the determined camera reference position.

本発明の1又は複数の実施形態では、カメラ基準位置は、基準点からの距離が同一でなくてもよい。この場合、3Dモデル画像生成部24は、仮想カメラの距離を考慮して、3Dオブジェクトの画像を生成する。 In one or more embodiments of the invention, the camera reference positions may not be at the same distance from the reference point. In this case, the 3D model image generation unit 24 generates an image of the 3D object in consideration of the distance of the virtual camera.

本発明の実施形態では、ゲーム装置10は、1又は複数の装置を含んで構成されるゲームシステムの一例であるが、該ゲームシステムは、ユーザが操作するクライアント端末とゲームを提供するサーバとを備えるクライアントサーバシステムであってもよい。 In the embodiment of the present invention, the game device 10 is an example of a game system that includes one or more devices, and the game system includes a client terminal operated by a user and a server that provides a game. It may also be a client server system with a

本発明の他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現するプログラムや該プログラムを格納したコンピュータ読み取り可能な記憶媒体とすることもできる。また他の実施形態では、ゲームなどのメインプログラムとは独立した重み付け決定部23及び3Dモデル画像生成部24の機能を備えるプログラム、該機能を備える画像生成装置又は画像生成システムとすることもできる。 In other embodiments of the present invention, a program that implements the functions of the embodiment of the present invention described above and the information processing shown in the flowchart, and a computer-readable storage medium storing the program may be used. In other embodiments, a program having the functions of the weighting determining section 23 and the 3D model image generating section 24, which are independent of a main program such as a game, or an image generating device or an image generating system having the functions may be provided.

また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現する方法とすることもできる。また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現するプログラムをコンピュータに供給することができるサーバとすることもできる。また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現するゲームシステムや画像生成システムは、仮想マシン又はクラウドシステムであってもよい。 In other embodiments, a method may be used to implement the functions of the embodiments of the present invention described above and the information processing shown in the flowcharts. In other embodiments, a server can be used that can supply a computer with a program that implements the functions of the embodiments of the present invention described above and the information processing shown in the flowcharts. In other embodiments, the game system or image generation system that implements the functions of the embodiments of the present invention described above and the information processing shown in the flowcharts may be a virtual machine or a cloud system.

以上に説明した処理又は動作において、処理又は動作上の矛盾が生じない限りにおいて、処理又は動作を自由に変更することができる。また以上に説明してきた各実施例は、本発明を説明するための例示であり、本発明はこれらの実施例に限定されるものではない。本発明は、その要旨を逸脱しない限り、種々の形態で実施することができる。 In the processing or operation described above, the processing or operation can be freely changed as long as there is no contradiction in processing or operation. Further, each of the embodiments described above is an illustration for explaining the present invention, and the present invention is not limited to these embodiments. The present invention can be implemented in various forms without departing from the gist thereof.

10 ゲーム装置
11 プロセッサ
12 入力装置
13 表示装置
14 記憶装置
15 通信装置
16 バス
21 ゲーム制御部
23 重み付け決定部
24 3Dモデル画像生成部
31 顔
32 仮想カメラ
41 原点
42 正面向きベクトル
43 仮想カメラ位置ベクトル
44 射影ベクトル
51~57 基準位置
61~72 領域
81~83 仮想カメラ位置
10 Game device 11 Processor 12 Input device 13 Display device 14 Storage device 15 Communication device 16 Bus 21 Game control section 23 Weighting determination section 24 3D model image generation section 31 Face 32 Virtual camera 41 Origin 42 Front vector 43 Virtual camera position vector 44 Projection vectors 51-57 Reference positions 61-72 Areas 81-83 Virtual camera positions

Claims (10)

仮想空間内の3Dオブジェクトの仮想カメラから見た画像を生成するためのプログラムであって、コンピュータに、
カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置とが関連付けて記憶された基準データに含まれる複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定するステップと、
決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成するステップと、
を実行させ
基準データは、3Dオブジェクトの正面方向ベクトル上のカメラ基準位置と、該カメラ基準位置に関連付けられた3Dオブジェクトの3Dデータである基本3Dデータとを含み、
基準データが含む基本3Dデータ以外の3Dデータは、基本3Dデータからの差分により表されるデータであり、
3Dオブジェクトの画像を生成するステップは、決定されたカメラ基準位置の各々に関連付けられた3Dオブジェクトの3Dデータを、各々決定された重みに基づいて基本3Dデータにブレンドすることにより、仮想カメラから見た3Dオブジェクトの画像を生成することを含む、
プログラム。
A program for generating an image of a 3D object in a virtual space as seen from a virtual camera, the program comprising:
A plurality of camera reference positions corresponding to the position of the virtual camera are selected from a plurality of camera reference positions included in reference data in which 3D data of a 3D object viewed from the camera reference position and the camera reference position are stored in association with each other. determining a weight for each of the determined camera reference positions;
generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight;
run the
The reference data includes a camera reference position on the front direction vector of the 3D object, and basic 3D data that is 3D data of the 3D object associated with the camera reference position,
3D data other than the basic 3D data included in the reference data is data expressed by differences from the basic 3D data,
Generating an image of the 3D object as seen from the virtual camera by blending the 3D data of the 3D object associated with each of the determined camera reference positions into the base 3D data based on the respective determined weights. generating an image of the 3D object;
program.
3Dデータは、3Dオブジェクトを構成するボーンデータ又はメッシュデータである、請求項1に記載のプログラム。 The program according to claim 1, wherein the 3D data is bone data or mesh data constituting a 3D object. 前記プログラムは、仮想空間内に3Dオブジェクトを配置して進行するゲームのためのプログラムであり、コンピュータに、
ゲームの進行に応じて仮想カメラの位置を決定するステップを実行させ、
重みを決定するステップは、複数のカメラ基準位置から、決定された仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定する、
請求項1に記載のプログラム。
The program is a program for a game that is played by placing 3D objects in a virtual space.
Perform a step to determine the position of the virtual camera as the game progresses,
The step of determining weights includes determining a plurality of camera reference positions corresponding to the determined virtual camera position from a plurality of camera reference positions, and determining a weight for each of the determined camera reference positions.
The program according to claim 1.
3Dオブジェクトはローカル座標系により定められ、
カメラ基準位置は、ローカル座標系の一の方向に対応する3Dオブジェクトの正面向きベクトルに対するローカル座標系の基準点から仮想カメラへの方向ベクトルの水平方向における回転角αと水平方向となす角βとにより表されるαβ平面内の位置に対応付けられ、
重みを決定するステップは、取得された仮想カメラの位置に対応するαβ平面内の位置と、複数のカメラ基準位置が対応付けられたαβ平面内の複数の位置とに基づいて、取得された仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定する、
請求項1に記載のプログラム。
3D objects are defined by a local coordinate system,
The camera reference position is defined as the rotation angle α in the horizontal direction of a direction vector from the reference point of the local coordinate system to the virtual camera with respect to the front-facing vector of the 3D object corresponding to one direction of the local coordinate system, and the angle β formed with the horizontal direction. is associated with the position in the αβ plane represented by
The step of determining the weight is based on a position in the αβ plane corresponding to the position of the acquired virtual camera and a plurality of positions in the αβ plane to which a plurality of camera reference positions are associated. determining a plurality of camera reference positions according to the camera position, and determining a weight for each of the determined camera reference positions;
The program according to claim 1.
αβ平面は、複数のカメラ基準位置により形成される複数の領域が設定され、
重みを決定するステップは、仮想カメラの位置に対応するαβ平面内の位置が属する領域から複数のカメラ基準位置を決定し、仮想カメラの位置に対応するαβ平面内の位置から決定されたカメラ基準位置が対応付けられた位置までの長さに応じて該カメラ基準位置の各々の重みを決定する、
請求項4に記載のプログラム。
The αβ plane has multiple areas formed by multiple camera reference positions,
The step of determining weights includes determining a plurality of camera reference positions from the area to which the position in the αβ plane corresponding to the position of the virtual camera belongs, and determining the camera reference positions determined from the position in the αβ plane corresponding to the position of the virtual camera. determining the weight of each of the camera reference positions according to the length to the position to which the position is associated;
The program according to claim 4.
3Dオブジェクトは、3Dキャラクタの顔を表す顔オブジェクトであり、
基本3Dデータは、無表情のときの顔オブジェクトの3Dデータであり、
基準データは、所定の表情のときの顔オブジェクトの3Dデータの基本3Dデータからの差分を表す表情データを含み、
3Dオブジェクトの画像を生成するステップは、決定されたカメラ基準位置の各々に対応する3Dオブジェクトの3Dデータを、各々決定された重みに基づいて基本3Dデータにブレンドし、更に対応する表情データをブレンドすることにより、仮想カメラから見た3Dオブジェクトの画像を生成することを含む、請求項1から5のいずれか1つに記載のプログラム。
The 3D object is a face object representing the face of a 3D character,
The basic 3D data is 3D data of a face object when it is expressionless,
The reference data includes facial expression data representing a difference between the 3D data of the facial object and the basic 3D data when the facial object has a predetermined facial expression;
The step of generating an image of the 3D object includes blending the 3D data of the 3D object corresponding to each of the determined camera reference positions with the basic 3D data based on each determined weight, and further blending the corresponding facial expression data. 6. The program according to any one of claims 1 to 5 , comprising: generating an image of the 3D object as seen from a virtual camera.
基準データは、右斜め下方向からのカメラ基準位置から見たときの3Dオブジェクトの3Dデータと、左斜め下方向からのカメラ基準位置から見たときの3Dオブジェクトの3Dデータとを含む、請求項1に記載のプログラム。 The reference data includes 3D data of the 3D object when viewed from the camera reference position from the diagonally lower right direction, and 3D data of the 3D object when viewed from the camera reference position from the diagonally lower left direction. The program described in 1. コンピュータにより実行される、3Dオブジェクトの仮想カメラから見た画像を生成するための方法であって、
カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置とが関連付けて記憶された基準データに含まれる複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定するステップと、
決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成するステップと、
を含
基準データは、3Dオブジェクトの正面方向ベクトル上のカメラ基準位置と、該カメラ基準位置に関連付けられた3Dオブジェクトの3Dデータである基本3Dデータとを含み、
基準データが含む基本3Dデータ以外の3Dデータは、基本3Dデータからの差分により表されるデータであり、
3Dオブジェクトの画像を生成することは、決定されたカメラ基準位置の各々に関連付けられた3Dオブジェクトの3Dデータを、各々決定された重みに基づいて基本3Dデータにブレンドすることにより、仮想カメラから見た3Dオブジェクトの画像を生成することを含む、
方法。
A computer-implemented method for generating a virtual camera view of a 3D object, the method comprising:
A plurality of camera reference positions corresponding to the position of the virtual camera are selected from a plurality of camera reference positions included in reference data in which 3D data of a 3D object viewed from the camera reference position and the camera reference position are stored in association with each other. determining a weight for each of the determined camera reference positions;
generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight;
including ;
The reference data includes a camera reference position on the front direction vector of the 3D object, and basic 3D data that is 3D data of the 3D object associated with the camera reference position,
3D data other than the basic 3D data included in the reference data is data expressed by differences from the basic 3D data,
Generating an image of a 3D object as seen from a virtual camera by blending the 3D data of the 3D object associated with each of the determined camera reference positions into the base 3D data based on each determined weight. generating an image of the 3D object;
Method.
3Dオブジェクトの仮想カメラから見た画像を生成する画像生成装置であって、
カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置の各々とを関連付けて記憶し、
前記記憶された複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定し、
決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成する、
ように構成される、
基準データは、3Dオブジェクトの正面方向ベクトル上のカメラ基準位置と、該カメラ基準位置に関連付けられた3Dオブジェクトの3Dデータである基本3Dデータとを含み、
基準データが含む基本3Dデータ以外の3Dデータは、基本3Dデータからの差分により表されるデータであり、
3Dオブジェクトの画像を生成することは、決定されたカメラ基準位置の各々に関連付けられた3Dオブジェクトの3Dデータを、各々決定された重みに基づいて基本3Dデータにブレンドすることにより、仮想カメラから見た3Dオブジェクトの画像を生成することを含む、
画像生成装置。
An image generation device that generates an image of a 3D object viewed from a virtual camera,
storing 3D data of a 3D object when viewed from a camera reference position in association with each of the camera reference positions;
determining a plurality of camera reference positions corresponding to the position of the virtual camera from the plurality of stored camera reference positions, determining a weight for each of the determined camera reference positions;
generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight;
configured as,
The reference data includes a camera reference position on the front direction vector of the 3D object, and basic 3D data that is 3D data of the 3D object associated with the camera reference position,
3D data other than the basic 3D data included in the reference data is data expressed by differences from the basic 3D data,
Generating an image of a 3D object as seen from a virtual camera by blending the 3D data of the 3D object associated with each of the determined camera reference positions into the base 3D data based on each determined weight. generating an image of the 3D object;
Image generation device.
3Dオブジェクトの仮想カメラから見た画像を生成するゲームシステムであって、
カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置の各々とを関連付けて記憶し、
前記記憶された複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定し、
決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成する、
ように構成され
基準データは、3Dオブジェクトの正面方向ベクトル上のカメラ基準位置と、該カメラ基準位置に関連付けられた3Dオブジェクトの3Dデータである基本3Dデータとを含み、
基準データが含む基本3Dデータ以外の3Dデータは、基本3Dデータからの差分により表されるデータであり、
3Dオブジェクトの画像を生成することは、決定されたカメラ基準位置の各々に関連付けられた3Dオブジェクトの3Dデータを、各々決定された重みに基づいて基本3Dデータにブレンドすることにより、仮想カメラから見た3Dオブジェクトの画像を生成することを含む、
ゲームシステム。
A game system that generates an image of a 3D object viewed from a virtual camera,
storing 3D data of a 3D object when viewed from a camera reference position in association with each of the camera reference positions;
determining a plurality of camera reference positions corresponding to the position of the virtual camera from the plurality of stored camera reference positions, determining a weight for each of the determined camera reference positions;
generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight;
It is configured as follows ,
The reference data includes a camera reference position on the front direction vector of the 3D object, and basic 3D data that is 3D data of the 3D object associated with the camera reference position,
3D data other than the basic 3D data included in the reference data is data expressed by differences from the basic 3D data,
Generating an image of a 3D object as seen from a virtual camera by blending the 3D data of the 3D object associated with each of the determined camera reference positions into the base 3D data based on each determined weight. generating an image of the 3D object;
game system.
JP2022076714A 2022-05-06 2022-05-06 Program, method, image generation device, and game system for generating images Active JP7353418B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022076714A JP7353418B1 (en) 2022-05-06 2022-05-06 Program, method, image generation device, and game system for generating images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022076714A JP7353418B1 (en) 2022-05-06 2022-05-06 Program, method, image generation device, and game system for generating images

Publications (2)

Publication Number Publication Date
JP7353418B1 true JP7353418B1 (en) 2023-09-29
JP2023165541A JP2023165541A (en) 2023-11-16

Family

ID=88143959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022076714A Active JP7353418B1 (en) 2022-05-06 2022-05-06 Program, method, image generation device, and game system for generating images

Country Status (1)

Country Link
JP (1) JP7353418B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084402A (en) 1999-09-09 2001-03-30 Namco Ltd Picture generation system and information storage medium
JP2009104570A (en) 2007-10-23 2009-05-14 Cybernoids Co Ltd Data structure for image formation and method of forming image
JP2011039828A (en) 2009-08-12 2011-02-24 Konami Digital Entertainment Co Ltd System and method for processing image
JP2022509916A (en) 2018-10-31 2022-01-25 ソウル マシーンズ リミティド Morph target animation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084402A (en) 1999-09-09 2001-03-30 Namco Ltd Picture generation system and information storage medium
JP2009104570A (en) 2007-10-23 2009-05-14 Cybernoids Co Ltd Data structure for image formation and method of forming image
JP2011039828A (en) 2009-08-12 2011-02-24 Konami Digital Entertainment Co Ltd System and method for processing image
JP2022509916A (en) 2018-10-31 2022-01-25 ソウル マシーンズ リミティド Morph target animation

Also Published As

Publication number Publication date
JP2023165541A (en) 2023-11-16

Similar Documents

Publication Publication Date Title
US11645801B2 (en) Method for synthesizing figure of virtual object, electronic device, and storage medium
CN107219916B (en) Multi-platform based experience generation
KR20200139240A (en) Virtual object transformation processing method, device, device and storage medium
KR20200135491A (en) Method, apparatus and apparatus for generating 3D local human body model
EP1505546B1 (en) Method for drawing a three-dimensional image by modeling a second object connected to a first object
US9214036B1 (en) Animation engine for blending computer animation data
US8576248B2 (en) Image processing method and image processing apparatus
WO2023077972A1 (en) Image data processing method and apparatus, virtual digital human construction method and apparatus, device, storage medium, and computer program product
JP7353418B1 (en) Program, method, image generation device, and game system for generating images
US10297036B2 (en) Recording medium, information processing apparatus, and depth definition method
JP2005228110A (en) Information processing method and apparatus
US20230120883A1 (en) Inferred skeletal structure for practical 3d assets
CN108830928A (en) Mapping method, device, terminal device and the readable storage medium storing program for executing of threedimensional model
CN112169331B (en) Object control method and device
CN112090076B (en) Game character action control method, device, equipment and medium
JP6248445B2 (en) LSI design equipment
US8890889B1 (en) System and method for generating a pose of an object
JP5004183B2 (en) Image creation apparatus, image creation program, and image creation support program
JP2020013390A (en) Information processing apparatus, information processing program, and information processing method
US12106436B2 (en) Transforming three-dimensional model by using correlation to template model with template skeleton
JPH0816826A (en) Solid graphic arrangement input method and graphic system
JP5097636B2 (en) Image processing apparatus, image processing method, and program
KR102449987B1 (en) Method for automatically setup joints to create facial animation of 3d face model and computer program thereof
CN116958338A (en) Object posture adjusting method, device, equipment, medium and product
US20230196678A1 (en) Transforming three-dimensional model by using correlation to template model with template skeleton

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221014

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230118

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230919

R150 Certificate of patent or registration of utility model

Ref document number: 7353418

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150