JP7353418B1 - Program, method, image generation device, and game system for generating images - Google Patents
Program, method, image generation device, and game system for generating images Download PDFInfo
- Publication number
- JP7353418B1 JP7353418B1 JP2022076714A JP2022076714A JP7353418B1 JP 7353418 B1 JP7353418 B1 JP 7353418B1 JP 2022076714 A JP2022076714 A JP 2022076714A JP 2022076714 A JP2022076714 A JP 2022076714A JP 7353418 B1 JP7353418 B1 JP 7353418B1
- Authority
- JP
- Japan
- Prior art keywords
- data
- camera
- reference positions
- determined
- camera reference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 17
- 210000000988 bone and bone Anatomy 0.000 claims description 65
- 239000013598 vector Substances 0.000 claims description 21
- 230000008921 facial expression Effects 0.000 claims description 13
- 238000002156 mixing Methods 0.000 claims description 10
- 230000001815 facial effect Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 abstract description 27
- 230000006870 function Effects 0.000 description 30
- 238000004891 communication Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000014509 gene expression Effects 0.000 description 5
- 230000010365 information processing Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 241000556720 Manga Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】仮想カメラの角度に応じた3Dオブジェクトの画像を生成することが可能なプログラムを提供する。
【解決手段】本発明の一実施形態のプログラムは、仮想空間内の3Dオブジェクトの仮想カメラから見た画像を生成するためのプログラムであって、コンピュータに、カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置とが関連付けて記憶された基準データに含まれる複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定するステップと、決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成するステップと、を実行させる、プログラムである。
【選択図】図1
The present invention provides a program capable of generating an image of a 3D object according to the angle of a virtual camera.
A program according to an embodiment of the present invention is a program for generating an image of a 3D object in a virtual space as seen from a virtual camera, and the program is a program for generating an image of a 3D object in a virtual space as seen from a virtual camera. A plurality of camera reference positions are determined according to the position of the virtual camera from a plurality of camera reference positions included in the reference data in which the 3D data and the camera reference position are stored in association with each other, and the determined camera reference position is determining a weight for each; and generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight. It is a program to be executed.
[Selection diagram] Figure 1
Description
本発明は、画像を生成するためのプログラム、方法、画像生成装置、及びゲームシステムに関し、特に仮想空間内の3Dオブジェクトの仮想カメラから見た画像を生成するためのプログラム、方法、画像生成装置、及びゲームシステムに関する。 The present invention relates to a program, a method, an image generation device, and a game system for generating an image, and in particular, a program, a method, an image generation device, and a game system for generating an image of a 3D object in a virtual space as seen from a virtual camera. and game systems.
ゲームなどの様々なコンテンツにおいては、キャラクタなどの仮想オブジェクトの画像が生成される。例えば特許文献1には、3次元空間に配置されたキャラクタの顔画像生成に関する技術が開示されている。
In various contents such as games, images of virtual objects such as characters are generated. For example,
キャラクタの3Dモデルの顔画像生成において、キャラクタを斜め横等の正面以外の角度から見たときに違和感なく見えるように口や鼻などの位置を設定すると、正面から見たときに口や鼻などの位置がずれてしまうといった問題があった。例えば特許文献1は、マンガやアニメーションで広く用いられている描法を用いてキャラクタの画像を生成する技術を開示し、当該キャラクタを異なる視点から見たときに口や鼻などの位置がずれてしまうことを防ぐため、キャラクタの頭部に付加的に配置される口や鼻などのオブジェクトの位置を視点に近づくように修正する技術を開示している。しかしながら、特許文献1には、口や鼻などの顔のパーツを含むボーンやメッシュなどにより表される3Dモデル(3Dキャラクタ)を任意の角度の仮想カメラから見たときに、3Dモデルの一部を構成する顔のパーツの位置ずれなどの不具合(不整合)が生じないようにキャラクタの画像を生成する技術は開示されていない。このような中で、例えば顔のパーツを含む3Dキャラクタなどの3Dモデルを任意の角度の仮想カメラから見たときに、不具合が生じないように、仮想カメラの角度に応じた3Dモデル(3Dオブジェクト)の画像を生成することが可能な技術が求められていた。
When generating a face image of a 3D model of a character, if you set the position of the mouth, nose, etc. so that it looks natural when the character is viewed from an angle other than the front, such as diagonally to the side, the mouth, nose, etc. There was a problem that the position of the camera would shift. For example,
本発明は、このような課題を解決するためになされたものであり、仮想カメラの角度に応じた3Dオブジェクトの画像を生成することが可能なプログラム等を提供することを目的とする。 The present invention was made to solve such problems, and an object of the present invention is to provide a program and the like that can generate an image of a 3D object according to the angle of a virtual camera.
〔1〕本発明の一実施形態のプログラムは、
仮想空間内の3Dオブジェクトの仮想カメラから見た画像を生成するためのプログラムであって、コンピュータに、
カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置とが関連付けて記憶された基準データに含まれる複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定するステップと、
決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成するステップと、
を実行させる、プログラムである。
[1] A program according to an embodiment of the present invention is
A program for generating an image of a 3D object in a virtual space as seen from a virtual camera, the program comprising:
A plurality of camera reference positions corresponding to the position of the virtual camera are selected from a plurality of camera reference positions included in reference data in which 3D data of a 3D object viewed from the camera reference position and the camera reference position are stored in association with each other. determining a weight for each of the determined camera reference positions;
generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight;
It is a program that executes.
〔2〕本発明の一実施形態では、
3Dデータは、3Dオブジェクトを構成するボーンデータ又はメッシュデータである、〔1〕に記載のプログラムである。
[2] In one embodiment of the present invention,
The 3D data is the program described in [1], which is bone data or mesh data that constitutes a 3D object.
〔3〕本発明の一実施形態では、
前記プログラムは、仮想空間内に3Dオブジェクトを配置して進行するゲームのためのプログラムであり、コンピュータに、
ゲームの進行に応じて仮想カメラの位置を決定するステップを実行させ、
重みを決定するステップは、複数のカメラ基準位置から、決定された仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定する、
〔1〕又は〔2〕に記載のプログラムである。
[3] In one embodiment of the present invention,
The program is a program for a game that is played by placing 3D objects in a virtual space.
Perform a step to determine the position of the virtual camera as the game progresses,
The step of determining weights includes determining a plurality of camera reference positions corresponding to the determined virtual camera position from a plurality of camera reference positions, and determining a weight for each of the determined camera reference positions.
This is the program described in [1] or [2].
〔4〕本発明の一実施形態では、
3Dオブジェクトはローカル座標系により定められ、
カメラ基準位置は、ローカル座標系の一の方向に対応する3Dオブジェクトの正面向きベクトルに対するローカル座標系の基準点から仮想カメラへの方向ベクトルの水平方向における回転角αと水平方向となす角βとにより表されるαβ平面内の位置に対応付けられ、
重みを決定するステップは、取得された仮想カメラの位置に対応するαβ平面内の位置と、複数のカメラ基準位置が対応付けられたαβ平面内の複数の位置とに基づいて、取得された仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定する、
〔1〕から〔3〕のいずれか1つに記載のプログラムである。
[4] In one embodiment of the present invention,
3D objects are defined by a local coordinate system,
The camera reference position is defined as the rotation angle α in the horizontal direction of a direction vector from the reference point of the local coordinate system to the virtual camera with respect to the front-facing vector of the 3D object corresponding to one direction of the local coordinate system, and the angle β formed with the horizontal direction. is associated with the position in the αβ plane represented by
The step of determining the weight is based on a position in the αβ plane corresponding to the position of the acquired virtual camera and a plurality of positions in the αβ plane to which a plurality of camera reference positions are associated. determining a plurality of camera reference positions according to the camera position, and determining a weight for each of the determined camera reference positions;
The program is the program described in any one of [1] to [3].
〔5〕本発明の一実施形態では、
αβ平面は、複数のカメラ基準位置により形成される複数の領域が設定され、
重みを決定するステップは、仮想カメラの位置に対応するαβ平面内の位置が属する領域から複数のカメラ基準位置を決定し、仮想カメラの位置に対応するαβ平面内の位置から決定されたカメラ基準位置が対応付けられた位置までの長さに応じて該カメラ基準位置の各々の重みを決定する、
〔4〕に記載のプログラムである。
[5] In one embodiment of the present invention,
The αβ plane has multiple areas formed by multiple camera reference positions,
In the step of determining the weight, a plurality of camera reference positions are determined from the area to which the position in the αβ plane corresponding to the position of the virtual camera belongs, and the camera reference positions determined from the position in the αβ plane corresponding to the position of the virtual camera are determining the weight of each of the camera reference positions according to the length to the position to which the position is associated;
This is the program described in [4].
〔6〕本発明の一実施形態では、
基準データは、3Dオブジェクトの正面方向ベクトル上のカメラ基準位置と、該カメラ基準位置に関連付けられた3Dオブジェクトの3Dデータである基本3Dデータとを含み、
基準データが含む基本3Dデータ以外の3Dデータは、基本3Dデータからの差分により表されるデータであり、
3Dオブジェクトの画像を生成するステップは、決定されたカメラ基準位置の各々に関連付けられた3Dオブジェクトの3Dデータを、各々決定された重みに基づいて基本3Dデータにブレンドすることにより、仮想カメラから見た3Dオブジェクトの画像を生成することを含む、〔1〕から〔5〕のいずれか1つに記載のプログラムである。
[6] In one embodiment of the present invention,
The reference data includes a camera reference position on the front direction vector of the 3D object, and basic 3D data that is 3D data of the 3D object associated with the camera reference position,
3D data other than the basic 3D data included in the reference data is data expressed by differences from the basic 3D data,
Generating an image of the 3D object as seen from the virtual camera by blending the 3D data of the 3D object associated with each of the determined camera reference positions into the base 3D data based on the respective determined weights. The program according to any one of [1] to [5], which includes generating an image of a 3D object.
〔7〕本発明の一実施形態では、
3Dオブジェクトは、3Dキャラクタの顔を表す顔オブジェクトであり、
基本3Dデータは、無表情のときの顔オブジェクトの3Dデータであり、
基準データは、所定の表情のときの顔オブジェクトの3Dデータの基本3Dデータからの差分を表す表情データを含み、
3Dオブジェクトの画像を生成するステップは、決定されたカメラ基準位置の各々に対応する3Dオブジェクトの3Dデータを、各々決定された重みに基づいて基本3Dデータにブレンドし、更に対応する表情データをブレンドすることにより、仮想カメラから見た3Dオブジェクトの画像を生成することを含む、〔6〕に記載のプログラムである。
[7] In one embodiment of the present invention,
The 3D object is a face object representing the face of a 3D character,
The basic 3D data is 3D data of a face object when it is expressionless,
The reference data includes facial expression data representing a difference between the 3D data of the facial object and the basic 3D data when the facial object has a predetermined facial expression;
The step of generating an image of the 3D object includes blending the 3D data of the 3D object corresponding to each of the determined camera reference positions with the basic 3D data based on each determined weight, and further blending the corresponding facial expression data. The program described in [6] includes generating an image of a 3D object viewed from a virtual camera by doing so.
〔8〕本発明の一実施形態では、
基準データは、右斜め下方向からのカメラ基準位置から見たときの3Dオブジェクトの3Dデータと、左斜め下方向からのカメラ基準位置から見たときの3Dオブジェクトの3Dデータとを含む、〔1〕から〔7〕のいずれか1つに記載のプログラムである。
[8] In one embodiment of the present invention,
The reference data includes 3D data of the 3D object when viewed from the camera reference position from the diagonally lower right direction, and 3D data of the 3D object when viewed from the camera reference position from the diagonally lower left direction, [1 ] to [7].
〔9〕本発明の一実施形態の方法は、
コンピュータにより実行される、3Dオブジェクトの仮想カメラから見た画像を生成するための方法であって、
カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置とが関連付けて記憶された基準データに含まれる複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定するステップと、
決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成するステップと、
を含む、方法である。
[9] The method of one embodiment of the present invention includes:
A computer-implemented method for generating a virtual camera view of a 3D object, the method comprising:
A plurality of camera reference positions corresponding to the position of the virtual camera are selected from a plurality of camera reference positions included in reference data in which 3D data of a 3D object viewed from the camera reference position and the camera reference position are stored in association with each other. determining a weight for each of the determined camera reference positions;
generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight;
A method including:
〔10〕本発明の一実施形態の画像生成装置は、
3Dオブジェクトの仮想カメラから見た画像を生成する画像生成装置であって、
カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置の各々とを関連付けて記憶し、
前記記憶された複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定し、
決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成する、
ように構成される、画像生成装置である。
[10] An image generation device according to an embodiment of the present invention includes:
An image generation device that generates an image of a 3D object viewed from a virtual camera,
storing 3D data of a 3D object when viewed from a camera reference position in association with each of the camera reference positions;
determining a plurality of camera reference positions corresponding to the position of the virtual camera from the plurality of stored camera reference positions, determining a weight for each of the determined camera reference positions;
generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight;
This is an image generation device configured as follows.
〔11〕本発明の一実施形態のゲームシステムは、
3Dオブジェクトの仮想カメラから見た画像を生成するゲームシステムであって、
カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置の各々とを関連付けて記憶し、
前記記憶された複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定し、
決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成する、
ように構成される、ゲームシステムである。
[11] A game system according to an embodiment of the present invention includes:
A game system that generates an image of a 3D object viewed from a virtual camera,
storing 3D data of a 3D object when viewed from a camera reference position in association with each of the camera reference positions;
determining a plurality of camera reference positions corresponding to the position of the virtual camera from the plurality of stored camera reference positions, determining a weight for each of the determined camera reference positions;
generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight;
This is a game system configured as follows.
本発明によれば、仮想カメラの角度に応じた3Dオブジェクトの画像を生成することができる。 According to the present invention, it is possible to generate an image of a 3D object according to the angle of the virtual camera.
以下、図面を参照して、本発明のゲーム装置10の実施形態について説明する。ゲーム装置10は、1又は複数の装置を含んで構成されるゲームシステムの1つの例である。本発明の実施形態のゲーム装置10は、仮想空間内に仮想キャラクタなどの仮想オブジェクトを配置して進行するゲーム(以下、ゲームA)を提供する。例えばゲームAでは、ユーザはコントローラを操作することで、仮想キャラクタを操作する。本実施形態では、仮想空間は3次元空間であり、仮想オブジェクトは仮想キャラクタの顔部分の3Dオブジェクト(3Dモデル)である。仮想キャラクタなどの仮想オブジェクトは、例えば既知のボーンとジョイントを含むボーンデータから構成される。本実施形態では、説明の便宜上、仮想空間内に配置される1つの3Dキャラクタ(以下、「対象キャラクタ」という。)の仮想カメラから見たときの顔画像の生成について説明する。
Hereinafter, an embodiment of the
図3は、予め作成された正面方向から見たときの対象キャラクタの顔画像の一例を示す図であり、図4は、予め作成された左斜め下方向から見たときの対象キャラクタの顔画像の一例を示す図である。図5は、図4に示す対象キャラクタの顔画像を正面方向から見たときの対象キャラクタの顔画像の一例を示す図である。換言すると、図5は、図4に示す対象キャラクタの顔を構成するボーンデータから生成される顔を、正面方向から見たときの顔を示す画像である。図5に示す対象キャラクタの顔画像は、図3に示すような所望の対象キャラクタの顔画像から口や鼻などの部分がずれたものとなっている。図3に示す対象キャラクタの顔画像を左斜め下方向などから見たときの対象キャラクタの顔画像なども同様に口や鼻などの部分がずれたものとなる。ゲーム装置10は、このような課題を解決するための画像生成処理を行うことができる。
FIG. 3 is a diagram showing an example of a face image of the target character created in advance when viewed from the front direction, and FIG. 4 is a diagram showing an example of a face image of the target character created in advance when viewed from the diagonally lower left direction. It is a figure showing an example. FIG. 5 is a diagram showing an example of the face image of the target character when the face image of the target character shown in FIG. 4 is viewed from the front. In other words, FIG. 5 is an image showing the face generated from the bone data forming the face of the target character shown in FIG. 4 when viewed from the front. In the face image of the target character shown in FIG. 5, parts such as the mouth and nose are shifted from the face image of the desired target character as shown in FIG. Similarly, in the face image of the target character when the face image of the target character shown in FIG. 3 is viewed from diagonally downward to the left, parts such as the mouth and nose are also shifted. The
図1は本発明の一実施形態のゲーム装置10のハードウェア構成を示すブロック図である。ゲーム装置10は、プロセッサ11、入力装置12、表示装置13、記憶装置14、及び通信装置15を備える。これらの各構成装置はバス16によって接続される。なお、バス16と各構成装置との間には必要に応じてインタフェースが介在しているものとする。本実施形態では、ゲーム装置10は、家庭用ゲーム機及びゲームAを実現可能なゲームアプリケーション(ゲームソフト)を含んで構成される。ゲーム装置10は、一般的なPC等と同様の構成を含むことができる。
FIG. 1 is a block diagram showing the hardware configuration of a
プロセッサ11は、ゲーム装置10全体の動作を制御する。例えばプロセッサ11は、CPUである。プロセッサ11は、記憶装置14に格納されているプログラムやデータを読み込んで実行することにより、様々な処理を実行する。プロセッサ11は、複数のプロセッサから構成されてもよい。
入力装置12は、ゲーム装置10に対するユーザからの入力を受け付けるユーザインタフェースであり、本実施形態では、家庭用ゲーム機に接続されたコントローラである。入力装置12は、例えば、タッチパネル、タッチパッド、キーボード、マウス、又はボタンであってもよい。表示装置13は、プロセッサ11の制御に従って、アプリケーション画面などをゲーム装置10のユーザに表示するディスプレイである。
The
記憶装置14は、主記憶装置及び補助記憶装置を含む。主記憶装置は、例えば情報の高速な読み書きが可能な揮発性メモリであり、プロセッサ11が情報を処理する際の記憶領域及び作業領域として用いられる。補助記憶装置は、様々なプログラムや、各プログラムの実行に際してプロセッサ11が使用するデータを格納する。補助記憶装置は、不揮発性ストレージ又は不揮発性メモリであり、例えばeMMC、UFS、SSDのようなフラッシュメモリであり、着脱可能なものであってもよい。
The
通信装置15は、ネットワークを介してユーザ端末又はサーバなどの他のコンピュータとの間でデータの授受を行うことが可能なモジュール、デバイス、又は装置である。通信装置15は、無線通信用のデバイスやモジュールなどとすることもできるし、有線通信用のデバイスやモジュールなどとすることもできる。ゲーム装置10が他の装置と通信を行わない場合、ゲーム装置10は通信装置15を備えなくてもよい。
The
図2は本発明の一実施形態のゲーム装置10の機能ブロック図である。ゲーム装置10は、ゲーム制御部21を備え、ゲーム制御部21は、重み付け決定部23と、3Dモデル画像生成部24とを備える。本実施形態においては、記憶装置14に記憶されている又は通信装置15を介して受信したプログラムがプロセッサ11により実行されることによりこれらの機能が実現される。このように、各種機能がプログラム読み込みにより実現されるため、1つのパート(機能)の一部又は全部を他のパートが有していてもよい。ただし、各機能の一部又は全部を実現するための電子回路等を構成することによりハードウェアによってもこれらの機能は実現してもよい。
FIG. 2 is a functional block diagram of the
ゲーム制御部21は、ゲームAを実現するにあたっての基本制御を行い、既知のゲームプログラムやゲームサーバが備える機能を備えることができる。ゲーム制御部21は、ゲームの進行に応じて(例えば元々ゲームに組み込まれたゲームの進行に応じて又はユーザからの入力に応じて)仮想空間内の仮想カメラの位置を決定する。1つの例では、ゲーム制御部21は、コントローラを介したユーザからの入力に応じて、仮想空間内に配置される仮想カメラの位置を変更したり、仮想空間内の3Dキャラクタを動作させたりすることができる。
The
記憶装置14は、対象キャラクタの顔(顔オブジェクト)を構成するボーンデータを記憶する。対象キャラクタの顔を構成するボーンデータは、複数のボーンに関するデータである。対象キャラクタにはローカル座標系が設定され、各ボーンの位置はローカル座標系で表される。顔を構成するボーン(ボーンデータ)が定められると、顔を構成するメッシュ(ポリゴンメッシュ)も一意に定められる。メッシュは、スキンに対応するものである。1つの例では、対象キャラクタの顔を構成するボーンデータに含まれる各ボーンのデータは、既知のTranslation(位置)、Rotation(回転)、及びScale(スケール)により定められる。例えばこの場合、Translation(位置)は、ボーンの座標を表し、XとYとZの平行移動値で表され、Rotation(回転)は、ボーンの捻じれを表し、X軸とY軸とZ軸それぞれの回転角度で表され、Scale(スケール)は、ボーンの大きさを表し、X方向の倍率、Y方向の倍率、Z方向の倍率で表される。1つの例では、記憶装置14は、仮想空間を構成する仮想オブジェクトに関するデータや対象キャラクタのローカル座標系又は各ボーンデータが配置されるワールド座標の位置を含むゲーム関連データを記憶する。例えば、対象キャラクタの顔を構成するボーンデータは、ゲーム関連データに含まれる。
The
ゲームAでは、対象キャラクタの顔31(顔オブジェクト31)に対する仮想カメラ32の位置が角度αとβを用いて定められる。図6は、対象キャラクタの顔31に対する仮想カメラ32の位置を角度αとβを用いて説明した図である。本実施形態では、ローカル座標系の基準点が対象キャラクタの顔31の中心位置(例えば顔を構成する複数のボーンデータの中心位置)に定められ、この基準点がローカル座標系の原点41である。図6に示すように、ローカル座標系は、z軸方向が対象キャラクタの正面方向となるように、xz平面が水平面(水平方向)となるように、かつy軸方向が垂直方向となるように設定される。正面向きベクトル42は、対象キャラクタの顔の正面方向(z軸方向)のベクトルであり、仮想カメラ位置ベクトル43は、基準点から仮想カメラ32の位置へのベクトルである。角度αは、正面向きベクトル42に対する仮想カメラ位置ベクトル43をxz平面に射影した射影ベクトル44のy軸周りの角度(回転角)であり、+z軸方向から+x軸方向への角度をプラスの角度、-x軸方向への角度をマイナスの角度として定めたものである。角度βは、仮想カメラ位置ベクトル43のxz平面(水平方向)とのなす角であり、基準点から+y軸方向への角度をプラスの角度、-y軸方向への角度をマイナスの角度として定めたものである。 In game A, the position of the virtual camera 32 with respect to the target character's face 31 (face object 31) is determined using angles α and β. FIG. 6 is a diagram illustrating the position of the virtual camera 32 with respect to the face 31 of the target character using angles α and β. In this embodiment, the reference point of the local coordinate system is set at the center position of the target character's face 31 (for example, the center position of a plurality of bone data forming the face), and this reference point is the origin 41 of the local coordinate system. . As shown in Figure 6, the local coordinate system is arranged so that the z-axis direction is the front direction of the target character, the xz plane is the horizontal plane (horizontal direction), and the y-axis direction is the vertical direction. Set. The front vector 42 is a vector in the front direction (z-axis direction) of the target character's face, and the virtual camera position vector 43 is a vector from the reference point to the position of the virtual camera 32. The angle α is the angle (rotation angle) around the y-axis of the projection vector 44 obtained by projecting the virtual camera position vector 43 with respect to the front-facing vector 42 onto the xz plane, and the angle from the +z-axis direction to the +x-axis direction is a positive angle. , the angle toward the −x-axis direction is defined as a negative angle. The angle β is the angle formed by the virtual camera position vector 43 with the xz plane (horizontal direction), and the angle from the reference point in the +y-axis direction is defined as a positive angle, and the angle in the -y-axis direction is defined as a negative angle. It is something that
記憶装置14は、複数のカメラ基準位置の各々と、これらのカメラ基準位置の各々から見たときの対象キャラクタの顔を構成するボーンデータ(又は対象キャラクタの顔画像)の各々とを関連付けて記憶する。本実施形態では、上記の複数のカメラ基準位置の各々とボーンデータの各々とが関連付けて記憶されたデータを基準データと呼び、例えばゲーム開発者などにより予め作成される。例えば基準データは、ゲーム関連データに含まれる。基準データは、データベース形式で記憶されてもよい。対象キャラクタの顔を構成するボーンデータの各々が作成されると、顔を構成するメッシュが一意に定められるため、対象キャラクタの顔を構成するボーンデータは対象キャラクタの顔画像という形式で記憶することができる。カメラ基準位置は、予め設定された仮想カメラの位置であり、カメラ基準位置に関連付けて記憶される対象キャラクタの顔画像(ボーンデータ)は、当該カメラ基準位置に配置された仮想カメラから見た対象キャラクタの顔画像(ボーンデータ)である。例えばカメラ基準位置は、ゲーム開発者などにより設定される。カメラ基準位置は、基準点から所定距離離れた方向(角度)が異なる複数の位置に設定される。したがって、複数のカメラ基準位置は、基準点からの距離が同一の位置に設定される。
The
本実施形態では、カメラ基準位置CRは、対象キャラクタの正面方向の位置CR1、右方向の位置CR2、左方向の位置CR3、正面斜め上方向(俯瞰方向)の位置CR4、正面斜め下方向(あおり方向)の位置CR5、右斜め下方向の位置CR6、及び左斜め下方向の位置CR7である。1つの例では、対象キャラクタの正面方向の位置CR1は、α=0°、β=0°の位置であり、右方向の位置CR2は、α=-90°、β=0°の位置であり、左方向の位置CR3は、α=90°、β=0°の位置であり、正面斜め上方向の位置CR4は、α=0°、β=60°の位置であり、正面斜め下方向の位置CR5は、α=0°、β=-60°の位置であり、右斜め下方向の位置CR6は、α=-70°、β=-55°の位置であり、左斜め下方向の位置CR7は、α=70°、β=-55°の位置である。例えばカメラ基準位置の各々から見たときの対象キャラクタの顔を構成するボーンデータの各々は、ゲーム開発者などにより予め作成される。 In the present embodiment, the camera reference positions CR include a position CR1 in the front direction of the target character, a position CR2 in the right direction, a position CR3 in the left direction, a position CR4 in the front diagonally upward direction (overhead direction), and a front diagonally downward direction (overhead direction). position CR5 in the diagonal direction), position CR6 in the diagonally lower right direction, and position CR7 in the diagonally lower left direction. In one example, the position CR1 of the target character in the front direction is a position where α=0° and β=0°, and the position CR2 in the right direction is a position where α=−90° and β=0°. , the position CR3 in the left direction is the position where α=90° and β=0°, the position CR4 in the diagonally upward direction from the front is the position where α=0° and β=60°, and the position CR3 in the diagonally downward direction from the front is the position where α=0° and β=60°. Position CR5 is a position where α=0° and β=-60°, and position CR6 diagonally downward to the right is a position where α=-70° and β=-55°, and a position diagonally downward to the left. CR7 is at the position α=70° and β=−55°. For example, each piece of bone data that constitutes the face of the target character when viewed from each of the camera reference positions is created in advance by a game developer or the like.
基準データにおいて、対象キャラクタの正面方向のカメラ基準位置CR1に関連付けて記憶された対象キャラクタの顔を構成するボーンデータは、基本ボーンデータとして記憶される。基準データに含まれる、対象キャラクタの正面方向のカメラ基準位置CR1以外の位置に関連付けて記憶された対象キャラクタを構成するボーンデータは、基本ボーンデータからの差分により表されるデータである。 In the reference data, bone data constituting the face of the target character stored in association with the camera reference position CR1 in the front direction of the target character is stored as basic bone data. Bone data constituting the target character, which is included in the reference data and is stored in association with a position other than the camera reference position CR1 in the front direction of the target character, is data expressed by a difference from the basic bone data.
重み付け決定部23は、基準データに含まれる複数のカメラ基準位置から、ゲーム制御部21が決定した仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定する。3Dモデル画像生成部24は、決定されたカメラ基準位置の各々に関連付けられたボーンデータと、決定された重みとに基づいて、仮想カメラから見た対象キャラクタの顔画像を生成する。なお、重み付け決定部23は、仮想カメラの位置に応じた複数のカメラ基準位置とそれらの各々の重みを同時に決定してもよい。
The
前述のように、カメラ基準位置は、仮想空間内の位置であるが、αとβの角度で一意に決定されるため、カメラ基準位置の各々は、αβ平面上の位置で表現することができる。記憶装置14は、基準データに含まれるカメラ基準位置の各々をαβ平面内の位置に対応付けて記憶する。図7は、カメラ基準位置CR1~CR7の各々が対応付けられたαβ平面内の基準位置51~57の一例を示す図である。図7において、基準位置51は、対象キャラクタの正面方向のカメラ基準位置CR1に対応し、基準位置52は、対象キャラクタの右方向のカメラ基準位置CR2に対応し、基準位置53は、対象キャラクタの左方向のカメラ基準位置に対応し、基準位置54は、対象キャラクタの正面斜め上方向のカメラ基準位置に対応し、基準位置55は、対象キャラクタの正面斜め下方向のカメラ基準位置に対応し、基準位置56は、対象キャラクタの右斜め下方向のカメラ基準位置に対応し、基準位置57は、対象キャラクタの左斜め下方向のカメラ基準位置に対応する。
As mentioned above, the camera reference position is a position in virtual space, but since it is uniquely determined by the angle α and β, each camera reference position can be expressed as a position on the αβ plane. . The
αβ平面は、複数の基準位置51~57に基づいて、複数の領域61~72が設定される。記憶装置14は、αβ平面において複数の基準位置51~57により形成される複数の領域61~72を記憶する。図8は、αβ平面において複数の基準位置により形成される複数の領域の一例を示す図である。図8は、複数の基準位置51~57により形成される複数の領域61~72を示している。複数の領域61~72は、複数の基準位置51~57の内側に形成される内側領域61~66と、外側に形成される外側領域67~72とを含む。内側領域61~66は、複数の基準位置51~57のうちの3つの頂点から形成される三角形の領域を含み、外側領域67~72は、複数の基準位置51~57のうちの2つの頂点を含む多角形の領域を含む。
On the αβ plane, a plurality of
本実施形態では、重み付け決定部23は、仮想カメラの位置に対応するαβ平面内の仮想カメラ位置と、複数の基準位置51~57とに基づいて、仮想カメラの位置に応じた複数のカメラ基準位置を決定する。
In the present embodiment, the
図9は、ゲーム制御部21が決定した仮想カメラの位置に対応するαβ平面内の仮想カメラ位置81の一例を示す図である。図9が示すαβ平面内の仮想カメラ位置81は、内側領域61~66にある。重み付け決定部23は、ゲーム制御部21が決定した仮想カメラの位置に対応するαβ平面内の仮想カメラ位置81が属する領域61から複数の基準位置51、53、54を決定する。この場合、重み付け決定部23は、仮想カメラ位置81が属する領域を構成する3つの頂点である3つの基準位置51、53、54を決定している。重み付け決定部23は、αβ平面内の仮想カメラ位置81から基準位置51、53、54までの長さに応じて、基準位置51、53、54の各々の重み、すなわちカメラ基準位置CR1、CR3、CR4の各々の重みを決定する。
FIG. 9 is a diagram showing an example of a
なお、説明の便宜上、仮想空間内のカメラ基準位置とαβ平面内の基準位置とを分けて表現しているが、αβ平面内の基準位置は、カメラ基準位置を表すものであるから、同じものとして扱うことができる。例えば、複数の基準位置51、53、54を決定することは、複数のカメラ基準位置CR1、CR3、CR4を決定することを意味することができ、複数のカメラ基準位置CR1、CR3、CR4を決定することは、複数の基準位置51、53、54を決定することを意味することができる。また例えば、複数の基準位置51、53、54の各々の重みを決定することは、複数のカメラ基準位置CR1、CR3、CR4の各々の重みを決定することを意味することでき、複数のカメラ基準位置CR1、CR3、CR4の各々の重みを決定することは、複数の基準位置51、53、54の各々の重みを決定することを意味することができる。
For convenience of explanation, the camera reference position in the virtual space and the reference position in the αβ plane are expressed separately, but since the reference position in the αβ plane represents the camera reference position, they are the same. It can be treated as For example, determining the plurality of
本実施形態では、重み付け決定部23は、3つの基準位置を決定した場合、αβ平面内の仮想カメラ位置から基準位置までの長さに応じた重みとなるように、かつ基準位置の重みの合計が1(100%)となるように、3つの基準位置(カメラ基準位置)の各々の重みを決定する。例えば重み付け決定部23は、αβ平面に垂直な重みw軸を追加したαβw座標を用いて、3つの基準位置P1(α1、β1)、P2(α2、β2)、P3(α3、β3)における基準位置P1の重みw1を、P1でw=1となり、P2とP3でw=0となる平面の関数の仮想カメラ位置Qにおける重みwの値により決定する。この場合、同様にして、基準位置P2の重みw2を、P2でw=1となり、P1とP3でw=0となる平面の関数の仮想カメラ位置Qにおける重みwの値により決定し、基準位置P3の重みw3を、P3でw=1となり、P1とP2でw=0となる平面の関数の仮想カメラ位置Qにおける重みwの値により決定する。図10は、3つの基準位置P1、P2、P3内の仮想カメラ位置Qの各基準位置の重みを平面の関数により決定する様子を示す図である。
In the present embodiment, when determining three reference positions, the
図11は、ゲーム制御部21が決定した仮想カメラの位置に対応するαβ平面内の仮想カメラ位置82の一例を示す図である。図11が示すαβ平面内の仮想カメラ位置82は、外側領域67~72にある。重み付け決定部23は、ゲーム制御部21が決定した仮想カメラの位置に対応するαβ平面内の仮想カメラ位置82が属する領域67から複数の基準位置53、54を決定する。この場合、重み付け決定部23は、仮想カメラ位置82が属する領域を構成する頂点の一部である2つの基準位置53、54を決定している。重み付け決定部23は、αβ平面内の仮想カメラ位置82の基準位置53、54を通る直線に対する垂線の交点から基準位置53、54の各々までの長さに応じて、基準位置53、54の各々の重み、すなわちカメラ基準位置CR3、CR4の各々の重みを決定する。
FIG. 11 is a diagram showing an example of a
図12は、ゲーム制御部21が決定した仮想カメラの位置に対応するαβ平面内の仮想カメラ位置83の一例を示す図である。重み付け決定部23は、仮想カメラ位置82の場合と同様に、ゲーム制御部21が決定した仮想カメラの位置に対応するαβ平面内の仮想カメラ位置83が属する領域67から複数の基準位置53、54を決定する。この場合、αβ平面内の仮想カメラ位置83の基準位置53、54を通る直線に対する垂線の交点は、基準位置53、54間ではなく基準位置53の外側であるため、重み付け決定部23は、基準位置53の重みを1、基準位置54の重みを0と決定する。
FIG. 12 is a diagram showing an example of a
本実施形態では、3Dモデル画像生成部24は、決定されたカメラ基準位置の各々に関連付けられた対象キャラクタの顔を構成するボーンデータを、各々決定された重みに基づいて基本ボーンデータにブレンドすることにより、仮想カメラから見た対象キャラクタの顔画像を生成する。例えば、カメラ基準位置CR1、CR3、CR4の各々の重みw1、w3、w4がそれぞれ0.7、0.2、0.1である場合、3Dモデル画像生成部24は、カメラ基準位置CR3に関連付けられたボーンデータにより表される差分の0.2倍の差分、及びカメラ基準位置CR4に関連付けられたボーンデータにより表される差分の0.1倍の差分を基本ボーンデータにブレンドする(例えば各差分を足す)ことによりボーンデータを生成し、該ボーンデータにより構成される対象キャラクタの顔画像を生成する。
In the present embodiment, the 3D model
次に、本発明の一実施形態のゲーム装置10の処理について図13に示したフローチャートを用いて説明する。
Next, the processing of the
ステップ101において、重み付け決定部23は、複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定する。
In step 101, the
ステップ102において、3Dモデル画像生成部24は、決定された重みと、決定されたカメラ基準位置の各々に関連付けられたボーンデータとに基づいて、仮想カメラから見た対象キャラクタの顔画像を生成する。
In step 102, the 3D model
次に、本発明の実施形態のゲーム装置10の主な作用効果について説明する。本実施形態では、ゲーム装置10は、ゲーム開発者などにより作成された基準データを記憶する。重み付け決定部23は、基準データが含む複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定するとともに該決定したカメラ基準位置の各々の重みを決定する。3Dモデル画像生成部24は、決定されたカメラ基準位置の各々に関連付けられたボーンデータと、決定された重みとに基づいて、仮想カメラから見た対象キャラクタの顔画像を生成する。
Next, the main effects of the
従来、3Dモデルのキャラクタの顔を任意の角度の仮想カメラから見たときに生じうる口や鼻などの位置ずれの不具合(不整合)を解消することが難しいという問題があった。本実施形態のような構成とすることにより、仮想カメラが任意の角度(位置)に変更された場合であっても、口や鼻の部分がずれるなどの不具合を発生させないように、仮想カメラの角度に応じた対象キャラクタの顔画像を生成することができる。また、このような構成とすることにより、例えばリアルタイムで仮想カメラの位置が動くようなゲームにおいて、仮想カメラの角度に応じた3Dオブジェクトの画像を動的に生成することが可能となる。なお、本発明の実施形態では、カメラ基準位置及び関連付けて記憶するボーンデータを増やすと画像の精度は上がるが、重み付け決定部23などの処理速度は下がるため、図8に占めす7つのカメラ基準位置のように、適切な数のカメラ基準位置が設定される。
Conventionally, there has been a problem in that it is difficult to eliminate problems (inconsistencies) caused by misalignment of the mouth, nose, etc. that may occur when the face of a 3D model character is viewed from a virtual camera at an arbitrary angle. With the configuration of this embodiment, even if the virtual camera is changed to an arbitrary angle (position), the virtual camera can be adjusted to prevent problems such as the mouth and nose being misaligned. It is possible to generate a face image of the target character according to the angle. Further, with such a configuration, for example, in a game where the position of the virtual camera moves in real time, it becomes possible to dynamically generate an image of a 3D object according to the angle of the virtual camera. Note that in the embodiment of the present invention, increasing the camera reference position and the number of bone data stored in association with each other will improve the accuracy of the image, but the processing speed of the
また本実施形態では、基本ボーンデータ以外のボーンデータを基本ボーンデータとの差分のデータとして記憶し、3Dモデル画像生成部24が重みに応じた差分を基本ボーンデータにブレンドするように構成とすることにより、動的な処理を実現するために、より演算量を低減することが可能となる。
Furthermore, in this embodiment, bone data other than the basic bone data is stored as difference data from the basic bone data, and the 3D model
上記の作用効果は、特に言及が無い限り、他の実施形態や変形例においても同様である。 The above-mentioned effects are the same in other embodiments and modifications unless otherwise specified.
本発明の実施形態において説明した、対象キャラクタの顔を構成するボーンデータは、対象キャラクタの顔を表す3Dデータ(3Dモデルデータ)の一例である。例えば基本ボーンデータは基本3Dデータの一例である。本発明の1又は複数の実施形態では、対象キャラクタの顔を表す3Dデータは、対象キャラクタの顔を構成するメッシュデータ(例えばポリゴンメッシュデータ)であってもよい。この場合、記憶装置14は、対象キャラクタの顔を表すメッシュデータを記憶する。
The bone data configuring the face of the target character described in the embodiment of the present invention is an example of 3D data (3D model data) representing the face of the target character. For example, basic bone data is an example of basic 3D data. In one or more embodiments of the present invention, the 3D data representing the face of the target character may be mesh data (for example, polygon mesh data) that constitutes the face of the target character. In this case, the
本発明の実施形態において説明した、ゲーム装置10(重み付け決定部23及び3Dモデル画像生成部24)による仮想空間内の3Dキャラクタの顔画像の生成は、ゲーム装置10による3Dオブジェクトの画像生成の一例である。本発明の1又は複数の実施形態では、ゲーム装置10は、任意の3Dオブジェクトに対して、上記の実施形態で説明した対象キャラクタの顔と同様にして仮想カメラから見た3Dオブジェクトの画像を生成することができる。例えばこの場合、記憶装置14は、基準データとして、複数のカメラ基準位置の各々と、当該カメラ基準位置の各々から見たときの3Dオブジェクトの3Dデータの各々とを関連付けて記憶する。3Dオブジェクトは、顔を含む3Dキャラクタの一部又は全部であってもよいし、仮想キャラクタ以外の任意の仮想オブジェクトであってもよい。本発明の1又は複数の実施形態では、ゲーム装置10(重み付け決定部23及び3Dモデル画像生成部24)は、操作対象ではない仮想キャラクタを含む任意の3Dオブジェクトの画像を生成することができ、また例えば、複数の仮想キャラクタの画像を同時に又は順次生成することができる。ゲーム装置10は、当該3Dオブジェクトを含む仮想空間の画像を生成することもできる。
The generation of a face image of a 3D character in a virtual space by the game device 10 (the
本発明の実施形態では、ゲーム装置10は、ゲームAにおいて、仮想空間内に配置される3Dオブジェクトの画像を生成するものとして説明するが、これに限定されない。ゲーム装置10は、ゲームA以外の任意のシステムにおいて、例えば任意のシミュレーションシステムにおいて、ゲームAにおける対象キャラクタと同様にして、仮想空間内に配置される3Dオブジェクトの画像を生成することができる。
In the embodiment of the present invention, the
本発明の実施形態では、ゲーム制御部21は、ゲームプログラム全体が実現する機能部であり、重み付け決定部23及び3Dモデル画像生成部24は、ゲームプログラムのうちのメインプログラムが参照するゲームプログラムの一部を実現する機能部(ソフトウェアモジュール)であるものとして考えることができるが、これに限定されない。重み付け決定部23及び3Dモデル画像生成部24の機能は、メインプログラム内に組み込まれるものであってもよい。例えばゲーム制御部21は、ゲームの進行に応じて仮想カメラの位置を決定し、重み付け決定部23は決定された仮想カメラの位置を取得し、取得した仮想カメラの位置に応じた複数のカメラ基準位置を決定し、該決定されたカメラ基準位置の各々の重みを決定することができる。或いは、例えばゲーム制御部21は、ゲームの進行に応じて仮想カメラの位置を決定するとともに決定した仮想カメラの位置に応じた複数のカメラ基準位置を決定し、該決定されたカメラ基準位置の各々の重みを決定することができる。
In the embodiment of the present invention, the
本発明の実施形態において説明した、図6に示すローカル座標系は対象キャラクタの顔31に設定されるローカル座標系の一例である。本発明の1又は複数の実施形態では、3Dオブジェクト(対象キャラクタの顔31)には任意のローカル座標系を設定することができる。例えばローカル座標系の原点41は、対象キャラクタの顔31の中心位置以外の任意の位置とすることができる。例えばローカル座標系の座標軸は、対象キャラクタの顔31に対して異なるように設定されてもよく、xy平面が水平方向でz方向が垂直方向であってもよく、又はyz平面が水平方向でx方向が垂直方向であってもよい。例えば、正面向きベクトル42がz軸と同一方向となるようにローカル座標系は設定されなくてもよい。また例えば、基準点と原点41は同じ位置でなくてもよい。また例えば、基準点は、顔31の中央あたりの位置であることが好ましいが、他の位置に設定されてもよい。 The local coordinate system shown in FIG. 6 described in the embodiment of the present invention is an example of a local coordinate system set to the face 31 of the target character. In one or more embodiments of the present invention, any local coordinate system can be set for the 3D object (face 31 of the target character). For example, the origin 41 of the local coordinate system can be any position other than the center position of the face 31 of the target character. For example, the coordinate axes of the local coordinate system may be set differently with respect to the face 31 of the target character, the xy plane may be horizontal and the z direction may be vertical, or the yz plane may be horizontal and x The direction may be vertical. For example, the local coordinate system does not need to be set so that the front vector 42 is in the same direction as the z-axis. Further, for example, the reference point and the origin 41 may not be at the same position. Further, for example, the reference point is preferably set at a position around the center of the face 31, but may be set at another position.
本発明の1又は複数の実施形態では、本発明の実施形態の重み付け決定部23及び3Dモデル画像生成部24と同様の機能を備える場合、角度αや角度βを図6に示すものとは異なるように設定されてもよい。
In one or more embodiments of the present invention, when having the same functions as the
本発明の実施形態において説明した、図8に示す複数の基準位置に基づく複数の領域は、αβ平面において設定される領域の一例である。例えば、ゲーム開発者等は、基準データに含まれる複数のカメラ基準位置に対応する基準位置に基づいて、αβ平面において、図8に示す領域とは異なる領域を設定することができる。例えばαβ平面では、4つの基準位置を頂点とする領域が設定されてもよい。この場合において、この領域内に仮想カメラの位置に対応するαβ平面内の仮想カメラ位置がある場合、重み付け決定部23は、この領域を構成する4つの基準位置を決定し、4つの基準位置の各々の重みを決定し、3Dモデル画像生成部24は、4つの基準位置の各々に関連付けられた3Dデータ(ボーンデータ)と、決定された重みの各々とに基づいて、仮想カメラから見た3Dオブジェクトの画像(対象キャラクタの顔画像)を生成することができる。
The plurality of regions based on the plurality of reference positions shown in FIG. 8 and described in the embodiment of the present invention are examples of regions set on the αβ plane. For example, a game developer or the like can set an area different from the area shown in FIG. 8 on the αβ plane based on reference positions corresponding to a plurality of camera reference positions included in the reference data. For example, in the αβ plane, areas having four reference positions as vertices may be set. In this case, if there is a virtual camera position in the αβ plane corresponding to the virtual camera position within this area, the
本発明の実施形態において説明した、基準データが含むカメラ基準位置CR1~CR7は、カメラ基準位置の一例である。ゲーム開発者等は、任意の複数のカメラ基準位置を選択し、これらのカメラ基準位置の各々と、カメラ基準位置の各々から見たときの対象キャラクタの顔を構成するボーンデータの各々とを関連付けて基準データとして記憶することができる。ただし、カメラ基準位置は、対象キャラクタの正面方向の位置CR1を含む。1つの好適な例では、基準データが含むカメラ基準位置CRは、対象キャラクタの正面方向の位置CR1、右方向の位置CR2、左方向の位置CR3、正面斜め上方向の位置CR4、正面斜め下方向の位置CR5、右斜め下方向の位置CR6、及び右斜め下方向の位置CR7を含む。本発明の実施形態においては、対象キャラクタの斜め下方向に配置された仮想カメラから見たときの対象キャラクタの顔と対象キャラクタの正面方向に配置された仮想カメラから見たときの対象キャラクタの顔は、特に口や鼻の部分がずれるなどの不具合が発生しやすいため、カメラ基準位置として、右斜め下方向の位置CR6及び左斜め下方向の位置CR7を含むように構成することにより、このような不具合の発生をより抑えることが可能となる。 The camera reference positions CR1 to CR7 included in the reference data described in the embodiment of the present invention are examples of camera reference positions. A game developer, etc. selects a plurality of arbitrary camera reference positions, and associates each of these camera reference positions with each piece of bone data that constitutes the target character's face when viewed from each of the camera reference positions. can be stored as reference data. However, the camera reference position includes the position CR1 in the front direction of the target character. In one preferred example, the camera reference positions CR included in the reference data are a position CR1 in the front direction of the target character, a position CR2 in the right direction, a position CR3 in the left direction, a position CR4 in the front diagonal upper direction, and a front diagonal lower direction. , a position CR6 in the diagonally lower right direction, and a position CR7 in the diagonally lower right direction. In the embodiment of the present invention, the face of the target character when viewed from a virtual camera placed diagonally below the target character, and the face of the target character when viewed from a virtual camera placed in front of the target character. In this case, problems such as misalignment of the mouth and nose are particularly likely to occur, so by configuring the camera reference position to include position CR6 in the diagonally lower right direction and position CR7 in the diagonally lower left direction, it is possible to This makes it possible to further suppress the occurrence of such problems.
本発明の実施形態では、上で述べるように、カメラ基準位置の設定に応じて、カメラ基準位置に対応付けられたαβ平面内の基準位置が設定され、αβ平面において形成される複数の領域が設定される。したがって、異なるカメラ基準位置が設定されると、αβ平面内の基準位置は異なるものとなり、複数の基準位置に基づく複数の領域も異なるものとなる。図14は、αβ平面において複数の基準位置により形成される複数の領域の一例を示す図である。図14は、複数のカメラ基準位置の各々に対応付けられた複数の基準位置O、V、VO、D、DO、RF、R、RO、LF、L、LO、DR、DL、DRO、DLOにより形成される複数の領域a1~a26を示している。 In the embodiment of the present invention, as described above, a reference position in the αβ plane that is associated with the camera reference position is set according to the setting of the camera reference position, and a plurality of regions formed in the αβ plane are Set. Therefore, when different camera reference positions are set, the reference positions in the αβ plane become different, and the plurality of regions based on the plurality of reference positions also become different. FIG. 14 is a diagram showing an example of a plurality of regions formed by a plurality of reference positions on the αβ plane. FIG. 14 shows a plurality of reference positions O, V, VO, D, DO, RF, R, RO, LF, L, LO, DR, DL, DRO, and DLO associated with each of the plurality of camera reference positions. A plurality of regions a1 to a26 are shown.
本発明の1又は複数の実施形態では、ゲーム制御部21は、αβ平面内の仮想カメラ位置が複数の基準位置の内側領域となるように、仮想カメラの位置を決定することができる又はカメラ基準位置を選択することができる。
In one or more embodiments of the present invention, the
本発明の1又は複数の実施形態では、重み付け決定部23は、3つの基準位置を決定した場合、所定の関数を用いて、基準位置の重みの合計が1(100%)となるように、3つの基準位置(カメラ基準位置)の各々の重みを決定することができる。例えば重み付け決定部23は、αβ平面に垂直な重みw軸を追加したαβw座標を用いて、3つの基準位置P1(α1、β1)、P2(α2、β2)、P3(α3、β3)における基準位置P1の重みw1を、P1でw=1となり、P2とP3でw=0となる所定の関数F1の仮想カメラ位置Qにおける重みwの値により決定する。この場合、同様にして、基準位置P2の重みw2を、P2でw=1となり、P1とP3でw=0となる所定の関数F2の仮想カメラ位置Qにおける重みwの値により決定し、基準位置P3の重みw3を、P3でw=1となり、P1とP2でw=0となる所定の関数F3の仮想カメラ位置Qにおける重みwの値により決定する。図15は、所定の関数F1の一例を示す図である。所定の関数F1、F2、F3は、少なくとも3つの基準位置P1、P2、P3内の領域において、任意の位置Qに対して、F1(Q)+F2(Q)+F3(Q)=1となるような関数が設定される。なお、重み付け決定部23は、2つの基準位置又は4つ以上の基準位置を決定した場合においても、所定の関数を用いて、基準位置の重みの合計が1(100%)となるように、基準位置(カメラ基準位置)の各々の重みを決定することができる。
In one or more embodiments of the present invention, when three reference positions are determined, the
本発明の1又は複数の実施形態では、重み付け決定部23は、αβ平面内の仮想カメラ位置が複数の領域間にある場合、予め設定されたルールに従って、いずれか一方の領域内に属するものとして複数のカメラ基準位置を決定することができる。本発明の1又は複数の実施形態では、重み付け決定部23が、αβ平面内の仮想カメラ位置が複数の領域間にある場合に、当該複数の領域のいずれの領域内に属するものとして重みを決定しても同じ値となるように、重みを決定する際の領域ごとに用いる関数を設定することができる。
In one or more embodiments of the present invention, when the virtual camera position in the αβ plane is between a plurality of regions, the
本発明の実施形態では、記憶装置14は、基準データとして、対象キャラクタの正面方向のカメラ基準位置CR1に関連付けて対象キャラクタの無表情の顔又は普通の表情の顔を構成するボーンデータを記憶する。
In the embodiment of the present invention, the
本発明の1又は複数の実施形態では、記憶装置14は、基準データとして、対象キャラクタの正面方向のカメラ基準位置CR1に関連付けて対象キャラクタの無表情の顔を構成するボーンデータ及び1以上の所定の表情の顔に関する表情データを記憶することができる。この実施形態では、1以上の所定の表情の顔は、笑顔、怒った顔、悲しい顔などを含み、表情データは、対象キャラクタの所定の表情の顔を構成するボーンデータの対象キャラクタの無表情の顔を構成するボーンデータからの差分により表されるデータである。この実施形態では、例えばゲーム制御部21は、ゲームの進行に応じて、対象キャラクタの表情を決定する。この場合、3Dモデル画像生成部24は、決定されたカメラ基準位置の各々に関連付けられた対象キャラクタの顔を構成するボーンデータを、各々決定された重みに基づいて基本ボーンデータにブレンドし、更にゲーム制御部21が決定した対象キャラクタの表情に対応する表情データをブレンドする(例えば対応する表情データの差分を足す)ことにより、仮想カメラから見た対象キャラクタの顔画像を生成することができる。このように本実施形態のゲーム装置10の画像生成処理は、対象キャラクタの顔が複数の表情を有する場合であっても、適用することが可能である。
In one or more embodiments of the present invention, the
本発明の1又は複数の実施形態では、基準データにおいて、対象キャラクタの正面方向のカメラ基準位置CR1に関連付けて記憶された対象キャラクタの顔を構成するボーンデータを基本ボーンデータとして記憶しなくてもよい。すなわち、基準データは、基本ボーンデータを含まなくてもよい。この場合、基準データに記憶される、対象キャラクタの正面方向のカメラ基準位置CR1以外のカメラ基準位置に関連付けて記憶された対象キャラクタを構成するボーンデータは、基本ボーンデータからの差分ではなく、それぞれのカメラ基準位置から見たときの対象キャラクタを構成するボーンデータそのものである。或いは、基準データにおいて、対象キャラクタの正面方向のカメラ基準位置CR1以外のカメラ基準位置に関連付けて記憶された対象キャラクタを構成するボーンデータが、基本ボーンデータとして記憶されてもよい。 In one or more embodiments of the present invention, in the reference data, the bone data constituting the face of the target character stored in association with the camera reference position CR1 in the front direction of the target character may not be stored as basic bone data. good. That is, the reference data does not need to include basic bone data. In this case, the bone data constituting the target character stored in the reference data in association with the camera reference position other than the camera reference position CR1 in the front direction of the target character is not a difference from the basic bone data, but each This is the bone data itself that constitutes the target character when viewed from the camera reference position. Alternatively, in the reference data, bone data constituting the target character stored in association with a camera reference position other than the camera reference position CR1 in the front direction of the target character may be stored as basic bone data.
本発明の1又は複数の実施形態では、αβ平面内の仮想カメラ位置がカメラ基準位置と同一である場合、重み付け決定部23は、1つのカメラ基準位置を決定する。この場合、3Dモデル画像生成部24は、決定されたカメラ基準位置に関連付けられた3Dデータを用いて3Dオブジェクトの画像を生成する。
In one or more embodiments of the present invention, when the virtual camera position in the αβ plane is the same as the camera reference position, the
本発明の1又は複数の実施形態では、カメラ基準位置は、基準点からの距離が同一でなくてもよい。この場合、3Dモデル画像生成部24は、仮想カメラの距離を考慮して、3Dオブジェクトの画像を生成する。
In one or more embodiments of the invention, the camera reference positions may not be at the same distance from the reference point. In this case, the 3D model
本発明の実施形態では、ゲーム装置10は、1又は複数の装置を含んで構成されるゲームシステムの一例であるが、該ゲームシステムは、ユーザが操作するクライアント端末とゲームを提供するサーバとを備えるクライアントサーバシステムであってもよい。
In the embodiment of the present invention, the
本発明の他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現するプログラムや該プログラムを格納したコンピュータ読み取り可能な記憶媒体とすることもできる。また他の実施形態では、ゲームなどのメインプログラムとは独立した重み付け決定部23及び3Dモデル画像生成部24の機能を備えるプログラム、該機能を備える画像生成装置又は画像生成システムとすることもできる。
In other embodiments of the present invention, a program that implements the functions of the embodiment of the present invention described above and the information processing shown in the flowchart, and a computer-readable storage medium storing the program may be used. In other embodiments, a program having the functions of the
また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現する方法とすることもできる。また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現するプログラムをコンピュータに供給することができるサーバとすることもできる。また他の実施形態では、上記で説明した本発明の実施形態の機能やフローチャートに示す情報処理を実現するゲームシステムや画像生成システムは、仮想マシン又はクラウドシステムであってもよい。 In other embodiments, a method may be used to implement the functions of the embodiments of the present invention described above and the information processing shown in the flowcharts. In other embodiments, a server can be used that can supply a computer with a program that implements the functions of the embodiments of the present invention described above and the information processing shown in the flowcharts. In other embodiments, the game system or image generation system that implements the functions of the embodiments of the present invention described above and the information processing shown in the flowcharts may be a virtual machine or a cloud system.
以上に説明した処理又は動作において、処理又は動作上の矛盾が生じない限りにおいて、処理又は動作を自由に変更することができる。また以上に説明してきた各実施例は、本発明を説明するための例示であり、本発明はこれらの実施例に限定されるものではない。本発明は、その要旨を逸脱しない限り、種々の形態で実施することができる。 In the processing or operation described above, the processing or operation can be freely changed as long as there is no contradiction in processing or operation. Further, each of the embodiments described above is an illustration for explaining the present invention, and the present invention is not limited to these embodiments. The present invention can be implemented in various forms without departing from the gist thereof.
10 ゲーム装置
11 プロセッサ
12 入力装置
13 表示装置
14 記憶装置
15 通信装置
16 バス
21 ゲーム制御部
23 重み付け決定部
24 3Dモデル画像生成部
31 顔
32 仮想カメラ
41 原点
42 正面向きベクトル
43 仮想カメラ位置ベクトル
44 射影ベクトル
51~57 基準位置
61~72 領域
81~83 仮想カメラ位置
10
Claims (10)
カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置とが関連付けて記憶された基準データに含まれる複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定するステップと、
決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成するステップと、
を実行させ、
基準データは、3Dオブジェクトの正面方向ベクトル上のカメラ基準位置と、該カメラ基準位置に関連付けられた3Dオブジェクトの3Dデータである基本3Dデータとを含み、
基準データが含む基本3Dデータ以外の3Dデータは、基本3Dデータからの差分により表されるデータであり、
3Dオブジェクトの画像を生成するステップは、決定されたカメラ基準位置の各々に関連付けられた3Dオブジェクトの3Dデータを、各々決定された重みに基づいて基本3Dデータにブレンドすることにより、仮想カメラから見た3Dオブジェクトの画像を生成することを含む、
プログラム。 A program for generating an image of a 3D object in a virtual space as seen from a virtual camera, the program comprising:
A plurality of camera reference positions corresponding to the position of the virtual camera are selected from a plurality of camera reference positions included in reference data in which 3D data of a 3D object viewed from the camera reference position and the camera reference position are stored in association with each other. determining a weight for each of the determined camera reference positions;
generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight;
run the
The reference data includes a camera reference position on the front direction vector of the 3D object, and basic 3D data that is 3D data of the 3D object associated with the camera reference position,
3D data other than the basic 3D data included in the reference data is data expressed by differences from the basic 3D data,
Generating an image of the 3D object as seen from the virtual camera by blending the 3D data of the 3D object associated with each of the determined camera reference positions into the base 3D data based on the respective determined weights. generating an image of the 3D object;
program.
ゲームの進行に応じて仮想カメラの位置を決定するステップを実行させ、
重みを決定するステップは、複数のカメラ基準位置から、決定された仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定する、
請求項1に記載のプログラム。 The program is a program for a game that is played by placing 3D objects in a virtual space.
Perform a step to determine the position of the virtual camera as the game progresses,
The step of determining weights includes determining a plurality of camera reference positions corresponding to the determined virtual camera position from a plurality of camera reference positions, and determining a weight for each of the determined camera reference positions.
The program according to claim 1.
カメラ基準位置は、ローカル座標系の一の方向に対応する3Dオブジェクトの正面向きベクトルに対するローカル座標系の基準点から仮想カメラへの方向ベクトルの水平方向における回転角αと水平方向となす角βとにより表されるαβ平面内の位置に対応付けられ、
重みを決定するステップは、取得された仮想カメラの位置に対応するαβ平面内の位置と、複数のカメラ基準位置が対応付けられたαβ平面内の複数の位置とに基づいて、取得された仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定する、
請求項1に記載のプログラム。 3D objects are defined by a local coordinate system,
The camera reference position is defined as the rotation angle α in the horizontal direction of a direction vector from the reference point of the local coordinate system to the virtual camera with respect to the front-facing vector of the 3D object corresponding to one direction of the local coordinate system, and the angle β formed with the horizontal direction. is associated with the position in the αβ plane represented by
The step of determining the weight is based on a position in the αβ plane corresponding to the position of the acquired virtual camera and a plurality of positions in the αβ plane to which a plurality of camera reference positions are associated. determining a plurality of camera reference positions according to the camera position, and determining a weight for each of the determined camera reference positions;
The program according to claim 1.
重みを決定するステップは、仮想カメラの位置に対応するαβ平面内の位置が属する領域から複数のカメラ基準位置を決定し、仮想カメラの位置に対応するαβ平面内の位置から決定されたカメラ基準位置が対応付けられた位置までの長さに応じて該カメラ基準位置の各々の重みを決定する、
請求項4に記載のプログラム。 The αβ plane has multiple areas formed by multiple camera reference positions,
The step of determining weights includes determining a plurality of camera reference positions from the area to which the position in the αβ plane corresponding to the position of the virtual camera belongs, and determining the camera reference positions determined from the position in the αβ plane corresponding to the position of the virtual camera. determining the weight of each of the camera reference positions according to the length to the position to which the position is associated;
The program according to claim 4.
基本3Dデータは、無表情のときの顔オブジェクトの3Dデータであり、
基準データは、所定の表情のときの顔オブジェクトの3Dデータの基本3Dデータからの差分を表す表情データを含み、
3Dオブジェクトの画像を生成するステップは、決定されたカメラ基準位置の各々に対応する3Dオブジェクトの3Dデータを、各々決定された重みに基づいて基本3Dデータにブレンドし、更に対応する表情データをブレンドすることにより、仮想カメラから見た3Dオブジェクトの画像を生成することを含む、請求項1から5のいずれか1つに記載のプログラム。 The 3D object is a face object representing the face of a 3D character,
The basic 3D data is 3D data of a face object when it is expressionless,
The reference data includes facial expression data representing a difference between the 3D data of the facial object and the basic 3D data when the facial object has a predetermined facial expression;
The step of generating an image of the 3D object includes blending the 3D data of the 3D object corresponding to each of the determined camera reference positions with the basic 3D data based on each determined weight, and further blending the corresponding facial expression data. 6. The program according to any one of claims 1 to 5 , comprising: generating an image of the 3D object as seen from a virtual camera.
カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置とが関連付けて記憶された基準データに含まれる複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定するステップと、
決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成するステップと、
を含み、
基準データは、3Dオブジェクトの正面方向ベクトル上のカメラ基準位置と、該カメラ基準位置に関連付けられた3Dオブジェクトの3Dデータである基本3Dデータとを含み、
基準データが含む基本3Dデータ以外の3Dデータは、基本3Dデータからの差分により表されるデータであり、
3Dオブジェクトの画像を生成することは、決定されたカメラ基準位置の各々に関連付けられた3Dオブジェクトの3Dデータを、各々決定された重みに基づいて基本3Dデータにブレンドすることにより、仮想カメラから見た3Dオブジェクトの画像を生成することを含む、
方法。 A computer-implemented method for generating a virtual camera view of a 3D object, the method comprising:
A plurality of camera reference positions corresponding to the position of the virtual camera are selected from a plurality of camera reference positions included in reference data in which 3D data of a 3D object viewed from the camera reference position and the camera reference position are stored in association with each other. determining a weight for each of the determined camera reference positions;
generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight;
including ;
The reference data includes a camera reference position on the front direction vector of the 3D object, and basic 3D data that is 3D data of the 3D object associated with the camera reference position,
3D data other than the basic 3D data included in the reference data is data expressed by differences from the basic 3D data,
Generating an image of a 3D object as seen from a virtual camera by blending the 3D data of the 3D object associated with each of the determined camera reference positions into the base 3D data based on each determined weight. generating an image of the 3D object;
Method.
カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置の各々とを関連付けて記憶し、
前記記憶された複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定し、
決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成する、
ように構成される、
基準データは、3Dオブジェクトの正面方向ベクトル上のカメラ基準位置と、該カメラ基準位置に関連付けられた3Dオブジェクトの3Dデータである基本3Dデータとを含み、
基準データが含む基本3Dデータ以外の3Dデータは、基本3Dデータからの差分により表されるデータであり、
3Dオブジェクトの画像を生成することは、決定されたカメラ基準位置の各々に関連付けられた3Dオブジェクトの3Dデータを、各々決定された重みに基づいて基本3Dデータにブレンドすることにより、仮想カメラから見た3Dオブジェクトの画像を生成することを含む、
画像生成装置。 An image generation device that generates an image of a 3D object viewed from a virtual camera,
storing 3D data of a 3D object when viewed from a camera reference position in association with each of the camera reference positions;
determining a plurality of camera reference positions corresponding to the position of the virtual camera from the plurality of stored camera reference positions, determining a weight for each of the determined camera reference positions;
generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight;
configured as,
The reference data includes a camera reference position on the front direction vector of the 3D object, and basic 3D data that is 3D data of the 3D object associated with the camera reference position,
3D data other than the basic 3D data included in the reference data is data expressed by differences from the basic 3D data,
Generating an image of a 3D object as seen from a virtual camera by blending the 3D data of the 3D object associated with each of the determined camera reference positions into the base 3D data based on each determined weight. generating an image of the 3D object;
Image generation device.
カメラ基準位置から見たときの3Dオブジェクトの3Dデータと該カメラ基準位置の各々とを関連付けて記憶し、
前記記憶された複数のカメラ基準位置から、仮想カメラの位置に応じた複数のカメラ基準位置を決定し、決定されたカメラ基準位置の各々の重みを決定し、
決定されたカメラ基準位置の各々に関連付けられた3Dデータと、決定された重みとに基づいて、仮想カメラから見た3Dオブジェクトの画像を生成する、
ように構成され、
基準データは、3Dオブジェクトの正面方向ベクトル上のカメラ基準位置と、該カメラ基準位置に関連付けられた3Dオブジェクトの3Dデータである基本3Dデータとを含み、
基準データが含む基本3Dデータ以外の3Dデータは、基本3Dデータからの差分により表されるデータであり、
3Dオブジェクトの画像を生成することは、決定されたカメラ基準位置の各々に関連付けられた3Dオブジェクトの3Dデータを、各々決定された重みに基づいて基本3Dデータにブレンドすることにより、仮想カメラから見た3Dオブジェクトの画像を生成することを含む、
ゲームシステム。 A game system that generates an image of a 3D object viewed from a virtual camera,
storing 3D data of a 3D object when viewed from a camera reference position in association with each of the camera reference positions;
determining a plurality of camera reference positions corresponding to the position of the virtual camera from the plurality of stored camera reference positions, determining a weight for each of the determined camera reference positions;
generating an image of the 3D object as seen from the virtual camera based on the 3D data associated with each of the determined camera reference positions and the determined weight;
It is configured as follows ,
The reference data includes a camera reference position on the front direction vector of the 3D object, and basic 3D data that is 3D data of the 3D object associated with the camera reference position,
3D data other than the basic 3D data included in the reference data is data expressed by differences from the basic 3D data,
Generating an image of a 3D object as seen from a virtual camera by blending the 3D data of the 3D object associated with each of the determined camera reference positions into the base 3D data based on each determined weight. generating an image of the 3D object;
game system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022076714A JP7353418B1 (en) | 2022-05-06 | 2022-05-06 | Program, method, image generation device, and game system for generating images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022076714A JP7353418B1 (en) | 2022-05-06 | 2022-05-06 | Program, method, image generation device, and game system for generating images |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7353418B1 true JP7353418B1 (en) | 2023-09-29 |
JP2023165541A JP2023165541A (en) | 2023-11-16 |
Family
ID=88143959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022076714A Active JP7353418B1 (en) | 2022-05-06 | 2022-05-06 | Program, method, image generation device, and game system for generating images |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7353418B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001084402A (en) | 1999-09-09 | 2001-03-30 | Namco Ltd | Picture generation system and information storage medium |
JP2009104570A (en) | 2007-10-23 | 2009-05-14 | Cybernoids Co Ltd | Data structure for image formation and method of forming image |
JP2011039828A (en) | 2009-08-12 | 2011-02-24 | Konami Digital Entertainment Co Ltd | System and method for processing image |
JP2022509916A (en) | 2018-10-31 | 2022-01-25 | ソウル マシーンズ リミティド | Morph target animation |
-
2022
- 2022-05-06 JP JP2022076714A patent/JP7353418B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001084402A (en) | 1999-09-09 | 2001-03-30 | Namco Ltd | Picture generation system and information storage medium |
JP2009104570A (en) | 2007-10-23 | 2009-05-14 | Cybernoids Co Ltd | Data structure for image formation and method of forming image |
JP2011039828A (en) | 2009-08-12 | 2011-02-24 | Konami Digital Entertainment Co Ltd | System and method for processing image |
JP2022509916A (en) | 2018-10-31 | 2022-01-25 | ソウル マシーンズ リミティド | Morph target animation |
Also Published As
Publication number | Publication date |
---|---|
JP2023165541A (en) | 2023-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11645801B2 (en) | Method for synthesizing figure of virtual object, electronic device, and storage medium | |
CN107219916B (en) | Multi-platform based experience generation | |
KR20200139240A (en) | Virtual object transformation processing method, device, device and storage medium | |
KR20200135491A (en) | Method, apparatus and apparatus for generating 3D local human body model | |
EP1505546B1 (en) | Method for drawing a three-dimensional image by modeling a second object connected to a first object | |
US9214036B1 (en) | Animation engine for blending computer animation data | |
US8576248B2 (en) | Image processing method and image processing apparatus | |
WO2023077972A1 (en) | Image data processing method and apparatus, virtual digital human construction method and apparatus, device, storage medium, and computer program product | |
JP7353418B1 (en) | Program, method, image generation device, and game system for generating images | |
US10297036B2 (en) | Recording medium, information processing apparatus, and depth definition method | |
JP2005228110A (en) | Information processing method and apparatus | |
US20230120883A1 (en) | Inferred skeletal structure for practical 3d assets | |
CN108830928A (en) | Mapping method, device, terminal device and the readable storage medium storing program for executing of threedimensional model | |
CN112169331B (en) | Object control method and device | |
CN112090076B (en) | Game character action control method, device, equipment and medium | |
JP6248445B2 (en) | LSI design equipment | |
US8890889B1 (en) | System and method for generating a pose of an object | |
JP5004183B2 (en) | Image creation apparatus, image creation program, and image creation support program | |
JP2020013390A (en) | Information processing apparatus, information processing program, and information processing method | |
US12106436B2 (en) | Transforming three-dimensional model by using correlation to template model with template skeleton | |
JPH0816826A (en) | Solid graphic arrangement input method and graphic system | |
JP5097636B2 (en) | Image processing apparatus, image processing method, and program | |
KR102449987B1 (en) | Method for automatically setup joints to create facial animation of 3d face model and computer program thereof | |
CN116958338A (en) | Object posture adjusting method, device, equipment, medium and product | |
US20230196678A1 (en) | Transforming three-dimensional model by using correlation to template model with template skeleton |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221014 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230118 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230919 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7353418 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |