JP2012024437A - Image generating device, image generating method and program - Google Patents

Image generating device, image generating method and program Download PDF

Info

Publication number
JP2012024437A
JP2012024437A JP2010167826A JP2010167826A JP2012024437A JP 2012024437 A JP2012024437 A JP 2012024437A JP 2010167826 A JP2010167826 A JP 2010167826A JP 2010167826 A JP2010167826 A JP 2010167826A JP 2012024437 A JP2012024437 A JP 2012024437A
Authority
JP
Japan
Prior art keywords
character
sub
unit
displacement
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010167826A
Other languages
Japanese (ja)
Inventor
Yuichi Asami
祐一 浅見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2010167826A priority Critical patent/JP2012024437A/en
Publication of JP2012024437A publication Critical patent/JP2012024437A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image generating device and the like suitable for making it easier for a user to visually recognize the state of a character disposed in a virtual space.SOLUTION: As the following, the image generating device 200 includes: a generation unit 201 for generating an image which represents a virtual space in which a main character that changes its posture as time goes on and a sub character that takes the same posture as the main character are disposed, and which is seen from a viewpoint disposed in the virtual space; a detection unit 202 for detecting the amount of displacement caused by a change of the posture of each of a plurality of parts of the main character; an assigning unit 203 for assigning a higher amount of displacement of the detected displacements to the sub character; and a change unit 204 for changing orientation of the sub character based on the displacement assigned to the sub character and a viewpoint position.

Description

本発明は、仮想空間に配置されるキャラクタの様子を、ユーザにとって視認しやすくするのに好適な画像生成装置、画像生成方法、ならびに、プログラムに関する。   The present invention relates to an image generation apparatus, an image generation method, and a program suitable for making it easier for a user to visually recognize the state of a character placed in a virtual space.

プレイヤが体を動かしてプレイするゲームが遊技場等で広く普及している。例えば、特許文献1には、ステップを踏むタイミング等をガイドし、プレイヤが音楽に合わせて踏み台を踏むことで、ダンス感覚を体感できるダンスゲーム装置が開示されている。近年では、ステップだけでなく、手や体全体を使った動きが求められるダンスゲームもある。このようなゲームでは、画面に表示されたキャラクタがダンスを行い、プレイヤは同じような動作を求められる。   A game in which a player moves his / her body and plays is widespread in amusement halls and the like. For example, Patent Document 1 discloses a dance game device that guides the timing of stepping and the like, and allows a player to experience a dance sensation by stepping on a step in time with music. In recent years, there are dance games that require not only steps but also movements using the whole hand and body. In such a game, the character displayed on the screen dances and the player is required to perform the same action.

特許第3003851号公報Japanese Patent No. 3003851

しかしながら、上記のように、ステップ以外にも様々な動きが求められるダンスゲームの場合、プレイヤはキャラクタのどの部分の動きに注目してよいか、わからないことがある。特に、ゲームの初心者においては、振り付けの主だった部分をわかりやすく提示してほしいという要望もある。   However, as described above, in the case of a dance game that requires various movements other than the steps, the player may not know which part of the character should be focused on. Especially for beginners of the game, there is a demand for showing the main part of the choreography in an easy-to-understand manner.

本発明は、上記のような課題を解決するもので、仮想空間に配置されるキャラクタの様子を、ユーザにとって視認しやすくするのに好適な画像生成装置、画像生成方法、ならびに、プログラムを提供することを目的とする。   The present invention solves the problems as described above, and provides an image generation apparatus, an image generation method, and a program suitable for making it easy for a user to visually recognize the state of a character placed in a virtual space. For the purpose.

本発明の第1の観点に係る画像生成装置は、生成部と、検出部と、割当部と、変更部と、を備え、以下のように構成する。なお、以下では、画面内を移動するオブジェクトが示す方向に従って、ステップを踏むダンスゲームを例に、説明する。   An image generation apparatus according to a first aspect of the present invention includes a generation unit, a detection unit, an allocation unit, and a change unit, and is configured as follows. In the following, a dance game in which steps are taken according to the direction indicated by the object moving in the screen will be described as an example.

生成部は、時間の経過にともなって姿勢を変化させる主キャラクタと、当該主キャラクタと同じ姿勢をとる副キャラクタと、が配置される仮想空間を、当該仮想空間内に配置された視点から見た様子を表す画像を生成する。   The generation unit viewed a virtual space in which a main character that changes posture with time and a sub-character that has the same posture as the main character from a viewpoint arranged in the virtual space. An image representing the state is generated.

例えば、主キャラクタとは、仮想空間に配置されるオブジェクトであり、ダンスゲームにおいて、ユーザが求められるダンスを踊って見せるものである。副キャラクタとは、主キャラクタと共に仮想空間に配置されるオブジェクトであり、主キャラクタと同様の動きを行うものである。また、視点とは、仮想空間に配置された仮想カメラの位置である。すなわち、生成部は、主キャラクタと副キャラクタがダンスを踊る様子を、仮想カメラから撮影した画像を生成する。   For example, the main character is an object arranged in a virtual space, and shows a dance required by the user in a dance game. The sub character is an object arranged in the virtual space together with the main character, and performs the same movement as the main character. The viewpoint is the position of the virtual camera arranged in the virtual space. That is, a production | generation part produces | generates the image which image | photographed the mode that a main character and a subcharacter dance a dance from the virtual camera.

検出部は、主キャラクタの複数の部位のそれぞれの、姿勢の変化にともなう変位の大きさを検出する。   The detection unit detects the magnitude of displacement of each of the plurality of parts of the main character accompanying the change in posture.

ここで、部位とは、主キャラクタの腕、脚、及び胴体などの身体の部位を示す。また、変位は、各部位に設定される基準点が動いた距離により求まるとする。例えば、腕には、手首や肘の部分に基準点が設定されているとし、腕の変位は、仮想空間上で肘や手首が移動した距離とする。   Here, the part refers to a part of the body such as the arm, leg, and trunk of the main character. Further, it is assumed that the displacement is obtained from the distance moved by the reference point set in each part. For example, it is assumed that a reference point is set at the wrist or elbow portion of the arm, and the displacement of the arm is a distance traveled by the elbow or wrist in the virtual space.

例えば、主キャラクタが、腕を伸ばして、体の側面において上から下へ移動させる動作を行ったとする。検出部は、当該動作の始点となる位置から終点となる位置まで、腕の基準点に設定されている手首が移動した距離を求める。   For example, it is assumed that the main character performs an action of extending the arm and moving from the top to the bottom on the side of the body. The detection unit obtains a distance by which the wrist set as the arm reference point has moved from the position serving as the start point of the operation to the position serving as the end point.

割当部は、検出された変位のうち、大きさが上位の変位を副キャラクタに割り当てる。   The assigning unit assigns a displacement having a higher magnitude among the detected displacements to the sub character.

例えば、主キャラクタが、楽曲に合わせて両腕、両脚を動かしたとする。検出部が各部位の変位を求めると、割当部は、それらの中から最も大きい変位を副キャラクタに割り当てる。   For example, it is assumed that the main character moves both arms and both legs according to the music. When the detection unit calculates the displacement of each part, the allocation unit allocates the largest displacement among them to the sub character.

変更部は、副キャラクタに割り当てられた変位と視点の位置とに基づいて、当該副キャラクタの向きを変更する。   The changing unit changes the direction of the sub character based on the displacement assigned to the sub character and the position of the viewpoint.

例えば、変更部は、副キャラクタに割り当てられた変位に対応する動作が、仮想カメラから最も見やすいように、副キャラクタの向きを変える。   For example, the changing unit changes the direction of the sub character so that the movement corresponding to the displacement assigned to the sub character is most easily seen from the virtual camera.

本発明によれば、2つのキャラクタに同じ動作をさせ、一方のキャラクタには、最も動きの大きな動作が視認しやすいように、向きを変えさせることにより、注目すべき動作をわかりやすく提示することができる。   According to the present invention, two characters perform the same action, and one character is presented with a noticeable action in an easy-to-understand manner by changing the orientation so that the action with the largest movement is easily visible. Can do.

また、変更部は、副キャラクタの向きを、当該変位を視点から見込む角度が大きくなるように、変更するようにしてもよい。   Further, the changing unit may change the direction of the sub character so that the angle at which the displacement is viewed from the viewpoint becomes large.

ここで、見込む角度とは、キャラクタの部位の変位の始点及び終点と視点との3点を頂点とする三角形において、当該視点における三角形の内角である。例えば、主キャラクタが、腕を伸ばして、体の側面において上(始点)から下(終点)へ移動させる動作を行った場合、変更部は、見込む角度を当該動作の始点、終点、及び仮想カメラの位置から求め、動作の見込む角度が最も大きくなるように、副キャラクタの向きを変更する。   Here, the angle to be viewed is an interior angle of the triangle at the viewpoint in a triangle having apexes of the start point, end point, and viewpoint of the displacement of the character part. For example, when the main character performs an action of extending the arm and moving from the upper side (start point) to the lower side (end point) on the side of the body, the changing unit sets the expected angle to the start point, end point, and virtual camera of the action. The direction of the sub character is changed so that the angle at which the motion is expected is maximized.

本発明によれば、最も動作の大きい部位が見やすいように、自動的に向きを設定することができる。   According to the present invention, it is possible to automatically set the orientation so that the portion with the largest motion is easy to see.

仮想空間内には、副キャラクタが2つ配置され、変更部は、2つの副キャラクタの向きを、互いに直交するように、変更するようにしてもよい。   Two sub characters may be arranged in the virtual space, and the changing unit may change the directions of the two sub characters so as to be orthogonal to each other.

2つの副キャラクタは、主キャラクタと共に仮想空間に配置され、主キャラクタと同様の動きを行う仮想空間上のオブジェクトである。すなわち、変更部は、一方の副キャラクタの向きを変更し、当該一方の副キャラクタの向きと90度をなす向きに、他方の副キャラクタの向きを変更する。   The two sub characters are objects in the virtual space that are arranged in the virtual space together with the main character and perform the same movement as the main character. That is, the changing unit changes the direction of one of the sub-characters, and changes the direction of the other sub-character so that the direction of the one sub-character is 90 degrees.

本発明によれば、最も動作の大きい部位の動きを、最も見やすい向きからだけでなく、他の方向からも確認することができる。   According to the present invention, it is possible to confirm the movement of the portion with the largest movement not only from the direction that is most easily seen but also from other directions.

あるいは、仮想空間内には、副キャラクタが2つ配置され、変更部は、2つの副キャラクタの向きを、互いに対称になるように、変更するようにしてもよい。   Alternatively, two sub characters may be arranged in the virtual space, and the changing unit may change the directions of the two sub characters so as to be symmetrical with each other.

例えば、仮想空間において、画面正面から見て右から、第1の副キャラクタ、主キャラクタ、第2の副キャラクタの順に横一列に配置され、仮想カメラが主キャラクタの正面中央から一定の距離に配置され、仮想カメラの撮影方向は主キャラクタの方向を向いているとする。変更部は、第1の副キャラクタの向きと仮想カメラの撮影方向がなす角度を求め、当該角度を、第2の副キャラクタの向きと撮影方向とがなす角度となるように、第2の副キャラクタの向きを変更する。   For example, in the virtual space, the first sub character, the main character, and the second sub character are arranged in a horizontal row in this order from the right when viewed from the front of the screen, and the virtual camera is arranged at a certain distance from the front center of the main character. In addition, it is assumed that the shooting direction of the virtual camera faces the direction of the main character. The changing unit obtains an angle formed by the direction of the first sub character and the shooting direction of the virtual camera, and the second sub character is set to be an angle formed by the direction of the second sub character and the shooting direction. Change the direction of the character.

本発明によれば、最も動作の大きい部位の動きを、最も見やすい向きからだけでなく、他の方向からも確認することができる。   According to the present invention, it is possible to confirm the movement of the portion with the largest movement not only from the direction that is most easily seen but also from other directions.

また、仮想空間内には、副キャラクタが複数配置され、割当部は、検出された変位のうち、大きさが上位の変位を、互いに重複しないように割り当てるようにしてもよい。   In addition, a plurality of sub characters may be arranged in the virtual space, and the allocating unit may allocate displacements having higher magnitudes among the detected displacements so as not to overlap each other.

例えば、主キャラクタのほかに、副キャラクタが2つ仮想空間に配置されているとする。検出部が主キャラクタの各部位の変位を求めた後、割当部は、最も大きい変位を一方の副キャラクタに割り当て、2番目に大きい変位を他方の副キャラクタに割り当てる。そして、変更部は、一方の副キャラクタの向きを、最も変位の大きな動作が見やすいように変更し、他方の副キャラクタの向きを、2番目に変位の大きな動作が見やすいように変更する。   For example, it is assumed that, in addition to the main character, two sub characters are arranged in the virtual space. After the detection unit obtains the displacement of each part of the main character, the assigning unit assigns the largest displacement to one sub character and assigns the second largest displacement to the other sub character. Then, the changing unit changes the direction of one of the sub characters so that the motion with the largest displacement is easy to see, and changes the direction of the other sub character so that the motion with the second largest displacement is easy to see.

本発明によれば、注目すべき複数の動作のそれぞれを、見やすい方向から確認することができる。   According to the present invention, each of a plurality of notable operations can be confirmed from an easy-to-see direction.

本発明の第2の観点に係る画像生成方法は、生成部と、検出部と、割当部と、変更部と、を備える画像生成装置が実行する画像生成方法であって、以下のように構成する。   An image generation method according to a second aspect of the present invention is an image generation method executed by an image generation apparatus including a generation unit, a detection unit, an allocation unit, and a change unit, and is configured as follows. To do.

生成工程において、生成部が、時間の経過にともなって姿勢を変化させる主キャラクタと、当該主キャラクタと同じ姿勢をとる副キャラクタと、が配置される仮想空間を、当該仮想空間内に配置された視点から見た様子を表す画像を生成する。   In the generation step, the generation unit has arranged a virtual space in which the main character whose posture is changed with time and a sub character having the same posture as the main character are arranged in the virtual space. An image representing a state viewed from the viewpoint is generated.

検出工程において、検出部が、主キャラクタの複数の部位のそれぞれの、姿勢の変化にともなう変位の大きさを検出する。   In the detection step, the detection unit detects the magnitude of displacement associated with the change in posture of each of the plurality of parts of the main character.

割当工程おいて、割当部が、検出された変位のうち、大きさが上位の変位を副キャラクタに割り当てる。   In the allocation step, the allocation unit allocates a displacement having a higher magnitude among the detected displacements to the sub character.

変更工程において、変更部が、副キャラクタに割り当てられた変位と視点の位置とに基づいて、当該副キャラクタの向きを変更する。   In the changing step, the changing unit changes the direction of the sub character based on the displacement assigned to the sub character and the position of the viewpoint.

本発明のその他の観点に係るプログラムは、コンピュータを上記画像生成装置として機能させ、コンピュータに上記画像生成方法を実行させるように構成する。   A program according to another aspect of the present invention is configured to cause a computer to function as the image generation apparatus and to cause the computer to execute the image generation method.

また、本発明のプログラムは、コンパクトディスク、フレキシブルディスク、ハードディスク、光磁気ディスク、ディジタルビデオディスク、磁気テープ、半導体メモリ等のコンピュータ読取可能な情報記録媒体に記録することができる。   The program of the present invention can be recorded on a computer-readable information recording medium such as a compact disk, flexible disk, hard disk, magneto-optical disk, digital video disk, magnetic tape, and semiconductor memory.

上記プログラムは、プログラムが実行されるコンピュータとは独立して、コンピュータ通信網を介して配布・販売することができる。また、上記情報記録媒体は、コンピュータとは独立して配布・販売することができる。   The above program can be distributed and sold via a computer communication network independently of the computer on which the program is executed. The information recording medium can be distributed and sold independently of the computer.

本発明によれば、仮想空間に配置されるキャラクタの様子を、ユーザにとって視認しやすくするのに好適な画像生成装置、画像生成方法、ならびに、プログラムを提供することができる。   According to the present invention, it is possible to provide an image generation apparatus, an image generation method, and a program suitable for making it easier for a user to visually recognize the state of a character placed in a virtual space.

本発明の実施形態に係る画像生成装置が実現される典型的な情報処理装置の概要構成を示す模式図である。It is a mimetic diagram showing the outline composition of the typical information processor with which the image generating device concerning the embodiment of the present invention is realized. 情報処理装置に接続可能なマット型コントローラの概要構成を示す模式図である。It is a mimetic diagram showing the outline composition of the mat type controller which can be connected to an information processor. 実施形態1のゲーム画像の一例を示す模式図である。FIG. 3 is a schematic diagram illustrating an example of a game image according to the first embodiment. 実施形態1に係る画像生成装置の概要構成を示す図である。1 is a diagram illustrating a schematic configuration of an image generation apparatus according to Embodiment 1. FIG. 主キャラクタ及び副キャラクタと仮想カメラとの位置関係を説明するための図である。It is a figure for demonstrating the positional relationship of a main character, a subcharacter, and a virtual camera. 主キャラクタの各部位の変位を説明するための図である。It is a figure for demonstrating the displacement of each site | part of a main character. 見込む角度を説明するための図である。It is a figure for demonstrating the angle to look at. 見込む角度を説明するための図である。It is a figure for demonstrating the angle to look at. 見込む角度を説明するための図である。It is a figure for demonstrating the angle to look at. 実施形態1のゲーム画像の一例を示す模式図である。FIG. 3 is a schematic diagram illustrating an example of a game image according to the first embodiment. 実施形態1の画像生成装置の各部が行う画像生成処理を説明するためのフローチャートである。3 is a flowchart for explaining image generation processing performed by each unit of the image generation apparatus according to the first embodiment. 見込む角度を説明するための図である。It is a figure for demonstrating the angle to look at. 回転可能な方向を説明するための図である。It is a figure for demonstrating the direction which can rotate. 実施形態2のゲーム画像の一例を示す模式図である。It is a schematic diagram which shows an example of the game image of Embodiment 2. 実施形態2の画像生成装置の各部が行う画像生成処理を説明するためのフローチャートである。10 is a flowchart for explaining image generation processing performed by each unit of the image generation apparatus according to the second embodiment. 主キャラクタ、第1の副キャラクタ、及び第2の副キャラクタと仮想カメラとの位置関係を説明するための図である。It is a figure for demonstrating the positional relationship of a main character, a 1st subcharacter, a 2nd subcharacter, and a virtual camera. 実施形態3のゲーム画像の一例を示す模式図である。It is a schematic diagram which shows an example of the game image of Embodiment 3. 実施形態3の第2の副キャラクタの向きを説明するための図である。It is a figure for demonstrating the direction of the 2nd sub character of Embodiment 3. FIG. 実施形態3の第2の副キャラクタの向きを説明するための図である。It is a figure for demonstrating the direction of the 2nd sub character of Embodiment 3. FIG. 実施形態3のゲーム画像の一例を示す模式図である。It is a schematic diagram which shows an example of the game image of Embodiment 3. 実施形態3の画像生成装置の各部が行う画像生成処理を説明するためのフローチャートである。10 is a flowchart for explaining image generation processing performed by each unit of the image generation apparatus according to the third embodiment. 実施形態4の第2の副キャラクタの向きを説明するための図である。It is a figure for demonstrating the direction of the 2nd sub character of Embodiment 4. FIG. 実施形態4のゲーム画像の一例を示す模式図である。It is a schematic diagram which shows an example of the game image of Embodiment 4. 実施形態4の画像生成装置の各部が行う画像生成処理を説明するためのフローチャートである。15 is a flowchart for explaining image generation processing performed by each unit of the image generation apparatus according to the fourth embodiment. 実施形態5の複数の副キャラクタの向きを説明するための図である。FIG. 10 is a diagram for explaining directions of a plurality of sub characters according to a fifth embodiment. 実施形態5のゲーム画像の一例を示す模式図である。FIG. 10 is a schematic diagram illustrating an example of a game image according to a fifth embodiment. 実施形態5の画像生成装置の各部が行う画像生成処理を説明するためのフローチャートである。16 is a flowchart for explaining image generation processing performed by each unit of the image generation apparatus according to the fifth embodiment.

本発明の画像生成装置は、仮想空間に配置される主キャラクタの動作を、ユーザにとって視認しやすくするために、主キャラクタと同じ動作をする他のキャラクタ(以下、「副キャラクタ」という)の向きを制御した画像を生成するものである。副キャラクタの向きを制御する手法は複数あり、各手法を採用した画像生成装置を実施形態1乃至5として説明する。   The image generating apparatus according to the present invention is directed to the direction of another character (hereinafter referred to as “sub character”) that performs the same action as the main character so that the user can easily recognize the action of the main character placed in the virtual space. An image in which is controlled is generated. There are a plurality of methods for controlling the orientation of the sub-character, and image generating apparatuses employing each method will be described as Embodiments 1 to 5.

実施形態1の画像生成装置は、副キャラクタの向きを見込む角度が最大になるように制御する。
実施形態2の画像生成装置は、実施形態1において、副キャラクタの向きを連続的に変更させるように制御する。
実施形態3の画像生成装置は、2つの副キャラクタの向きを制御するものであって、一方の副キャラクタの向きを見込む角度が最大になるように制御し、他方の副キャラクタの向きを当該一方副キャラクタの向きと直交するように制御する。
実施形態4の画像生成装置は、2つの副キャラクタの向きを制御するものであって、一方の副キャラクタの向きを見込む角度が最大になるように制御し、他方の副キャラクタの向きを当該一方の副キャラクタの向きと対称となるように制御する。
実施形態5の画像生成装置は、複数の副キャラクタに動作の変位の大きさが上位のものから割り当て、各副キャラクタの向きを、割り当てられた変位に対応する動作が見やすいように制御する。
The image generation apparatus according to the first embodiment performs control so that the angle at which the direction of the sub character is expected is maximized.
In the first embodiment, the image generation apparatus according to the second embodiment performs control so that the orientation of the sub character is continuously changed.
The image generation apparatus according to the third embodiment controls the orientations of two subcharacters, and controls so as to maximize the angle at which one of the subcharacters is expected. Control is performed so as to be orthogonal to the direction of the sub character.
The image generation apparatus according to the fourth embodiment controls the orientations of two subcharacters, and controls so as to maximize the angle at which one of the subcharacters is expected. It controls to be symmetrical with the direction of the sub character.
The image generation apparatus according to the fifth embodiment assigns a plurality of sub-characters from the top with the magnitude of motion displacement, and controls the orientation of each sub-character so that the motion corresponding to the assigned displacement is easy to see.

(情報処理装置の概要構成)
まず、これらの実施形態の画像生成装置が実現される典型的な情報処理装置について説明する。なお、以下では、理解を容易にするため、ゲーム用の情報処理装置を利用して本発明が実現される実施形態を説明するが、以下に説明する実施形態は説明のためのものであり、本願発明の範囲を制限するものではない。したがって、当業者であればこれらの各要素もしくは全要素をこれと均等なものに置換した実施形態を採用することが可能であるが、これらの実施形態も本発明の範囲に含まれる。
(Outline configuration of information processing device)
First, a typical information processing apparatus that realizes the image generation apparatus of these embodiments will be described. In the following, in order to facilitate understanding, an embodiment in which the present invention is realized using an information processing device for games will be described, but the embodiment described below is for explanation, It is not intended to limit the scope of the present invention. Therefore, those skilled in the art can employ embodiments in which each or all of these elements are replaced with equivalent ones, and these embodiments are also included in the scope of the present invention.

図1は、プログラムを実行することにより、本発明の実施形態に係る画像生成装置の機能を果たす典型的な情報処理装置100の概要構成を示す模式図である。以下、本図を参照して説明する。   FIG. 1 is a schematic diagram illustrating a schematic configuration of a typical information processing apparatus 100 that performs functions of an image generation apparatus according to an embodiment of the present invention by executing a program. Hereinafter, a description will be given with reference to FIG.

情報処理装置100は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、インターフェース104と、コントローラ105と、外部メモリ106と、画像処理部107と、DVD−ROM(Digital Versatile Disc ROM)ドライブ108と、NIC(Network Interface Card)109と、音声処理部110と、マット型コントローラ111と、を備える。   The information processing apparatus 100 includes a central processing unit (CPU) 101, a read only memory (ROM) 102, a random access memory (RAM) 103, an interface 104, a controller 105, an external memory 106, and an image processing unit 107. A DVD-ROM (Digital Versatile Disc ROM) drive 108, a NIC (Network Interface Card) 109, an audio processing unit 110, and a mat type controller 111.

CPU 101は、情報処理装置100全体の動作を制御し、各構成要素と接続され、制御信号やデータをやりとりする。また、CPU 101は、レジスタ(図示せず)という高速アクセスが可能な記憶域に対してALU(Arithmetic Logic Unit)(図示せず)を用いて加減乗除等の算術演算や、論理和、論理積、論理否定等の論理演算、ビット和、ビット積、ビット反転、ビットシフト、ビット回転等のビット演算などを行うことができる。さらに、マルチメディア処理対応のための加減乗除等の飽和演算や、三角関数等、ベクトル演算などを高速に行えるように、CPU 101自身が構成されているものや、コプロセッサを備えて実現するものがある。   The CPU 101 controls the overall operation of the information processing apparatus 100, is connected to each component, and exchanges control signals and data. Further, the CPU 101 uses arithmetic operations such as addition / subtraction / multiplication / division, logical sum, logical product, etc. using an ALU (Arithmetic Logic Unit) (not shown) for a storage area called a register (not shown) that can be accessed at high speed. , Logic operations such as logical negation, bit operations such as bit sum, bit product, bit inversion, bit shift, and bit rotation can be performed. In addition, the CPU 101 itself is configured so that saturation operations such as addition / subtraction / multiplication / division for multimedia processing, vector operations such as trigonometric functions, etc. can be performed at a high speed, and those provided with a coprocessor. There is.

ROM 102には、電源投入直後に実行されるIPL(Initial Program Loader)が記憶され、これが実行されることにより、DVD−ROMに記憶されたプログラムをRAM 103に読み出してCPU 101による実行が開始される。また、ROM 102には、情報処理装置100全体の動作制御に必要なオペレーティングシステムのプログラムや各種のデータが記憶される。   The ROM 102 stores an IPL (Initial Program Loader) that is executed immediately after the power is turned on, and when this is executed, the program stored in the DVD-ROM is read to the RAM 103 and the CPU 101 starts execution. The The ROM 102 stores an operating system program and various data necessary for operation control of the entire information processing apparatus 100.

RAM 103は、データやプログラムを一時的に記憶するためのもので、DVD−ROMから読み出したプログラムやデータ、その他ゲームの進行やチャット通信に必要なデータが保持される。また、CPU 101は、RAM 103に変数領域を設け、当該変数に格納された値に対して直接ALUを作用させて演算を行ったり、RAM 103に格納された値を一旦レジスタに格納してからレジスタに対して演算を行い、演算結果をメモリに書き戻す、等の処理を行う。   The RAM 103 is for temporarily storing data and programs, and holds programs and data read from the DVD-ROM and other data necessary for game progress and chat communication. Further, the CPU 101 provides a variable area in the RAM 103 and performs an operation by directly operating the ALU on the value stored in the variable, or temporarily stores the value stored in the RAM 103 in the register. Processing is performed on the register, and the result of the operation is written back to the memory.

コントローラ105は、インターフェース104を介して接続される。コントローラ105は、プレイヤがゲーム実行の際に行う操作入力を受け付ける。   The controller 105 is connected via the interface 104. The controller 105 receives an operation input performed when the player executes the game.

外部メモリ106は、インターフェース104を介して着脱自在に接続される。外部メモリ106には、ゲーム等のプレイ状況(過去の成績等)を示すデータ、ゲームの進行状態を示すデータ、ネットワーク対戦の場合のチャット通信のログ(記録)のデータなどが書き換え可能に記憶される。プレイヤは、コントローラ105を介して指示入力を行うことにより、これらのデータを適宜外部メモリ106に記憶させることができる。   The external memory 106 is detachably connected via the interface 104. The external memory 106 stores rewritable data indicating game play status (past results, etc.), game progress data, chat communication log (record) data in the case of a network match, and the like. The The player can store these data in the external memory 106 as appropriate by inputting an instruction via the controller 105.

画像処理部107は、DVD−ROMから読み出されたデータをCPU 101や画像処理部107が備える画像演算プロセッサ(図示せず)によって加工処理した後、これを画像処理部107が備えるフレームメモリ(図示せず)に記憶させる。フレームメモリに記憶された画像情報は、所定の同期タイミングでビデオ信号に変換され画像処理部107に接続されるモニタへ出力される。これにより、各種の画像表示が可能となる。   The image processing unit 107 processes the data read from the DVD-ROM by an image arithmetic processor (not shown) included in the CPU 101 or the image processing unit 107, and then processes the processed data on a frame memory ( (Not shown). The image information stored in the frame memory is converted into a video signal at a predetermined synchronization timing and output to a monitor connected to the image processing unit 107. Thereby, various image displays are possible.

DVD−ROMドライブ108に装着されるDVD−ROMには、ゲームを実現するためのプログラムとゲームに付随する画像データや音声データが記憶される。CPU 101の制御によって、DVD−ROMドライブ108は、これに装着されたDVD−ROMに対する読み出し処理を行って、必要なプログラムやデータを読み出し、これらはRAM 103等に一時的に記憶される。   The DVD-ROM mounted on the DVD-ROM drive 108 stores a program for realizing the game and image data and sound data associated with the game. Under the control of the CPU 101, the DVD-ROM drive 108 performs a reading process on the DVD-ROM loaded therein, reads out necessary programs and data, and these are temporarily stored in the RAM 103 or the like.

また、画像演算プロセッサは、2次元の画像の重ね合わせ演算やαブレンディング等の透過演算、各種の飽和演算を高速に実行できる。   Further, the image calculation processor can execute a two-dimensional image overlay calculation, a transmission calculation such as α blending, and various saturation calculations at high speed.

また、仮想空間が3次元にて構成される場合には、当該3次元空間内に配置され、各種のテクスチャ情報が付加されたポリゴン情報を、Zバッファ法によりレンダリングして、所定の視点位置から仮想空間に配置されたポリゴンを所定の視線の方向へ俯瞰したレンダリング画像を得る演算の高速実行も可能である。   In addition, when the virtual space is configured in three dimensions, polygon information that is arranged in the three-dimensional space and to which various texture information is added is rendered by the Z buffer method, and a predetermined viewpoint position is used. It is also possible to perform a high-speed execution of a calculation that obtains a rendering image obtained by looking down at a polygon arranged in the virtual space in the direction of a predetermined line of sight.

さらに、CPU 101と画像演算プロセッサが協調動作することにより、文字の形状を定義するフォント情報に従って、文字列を2次元画像としてフレームメモリへ描画したり、各ポリゴン表面へ描画したりすることが可能である。   Further, the CPU 101 and the image arithmetic processor cooperate to draw a character string as a two-dimensional image in the frame memory or draw it on the surface of each polygon according to the font information that defines the character shape. It is.

NIC 109は、情報処理装置100をインターネット等のコンピュータ通信網(図示せず)に接続するためのものであり、LAN(Local Area Network)を構成する際に用いられる10BASE−T/100BASE−T規格に従うものや、電話回線を用いてインターネットに接続するためのアナログモデム、ISDN(Integrated Services Digital Network)モデム、ADSL(Asymmetric Digital Subscriber Line)モデム、ケーブルテレビジョン回線を用いてインターネットに接続するためのケーブルモデム等と、これらとCPU 101との仲立ちを行うインターフェース(図示せず)により構成される。   The NIC 109 is used to connect the information processing apparatus 100 to a computer communication network (not shown) such as the Internet, and is based on the 10BASE-T / 100BASE-T standard used when configuring a LAN (Local Area Network). Or modems that connect to the Internet using telephone lines, ISDN (Integrated Services Digital Network) modems, ADSL (Asymmetric Digital Subscriber Line) modems, and cables that connect to the Internet using cable television lines A modem or the like, and an interface (not shown) that mediates between them and the CPU 101 are configured.

音声処理部110は、DVD−ROMから読み出した音声データをアナログ音声信号に変換し、これに接続されたスピーカ(図示せず)から出力させる。また、CPU 101の制御の下、ゲームの進行の中で発生させるべき効果音や楽曲データを生成し、これに対応した音声をスピーカから出力させる。   The audio processing unit 110 converts audio data read from the DVD-ROM into an analog audio signal and outputs the analog audio signal from a speaker (not shown) connected thereto. Further, under the control of the CPU 101, sound effects and music data to be generated during the progress of the game are generated, and sound corresponding to this is output from the speaker.

DVD−ROMに記録された音声データがMIDI(Musical Instrument Digital Interface)データである場合には、音声処理部110は、これが有する音源データを参照して、MIDIデータをPCM(Pulse Code Modulation)データに変換する。また、ADPCM(Adaptive Differential PCM)形式やOgg Vorbis形式等の圧縮済音声データである場合には、これを展開してPCMデータに変換する。PCMデータは、そのサンプリング周波数に応じたタイミングでD/A(Digital/Analog)変換を行って、スピーカに出力することにより、音声出力が可能となる。   When the sound data recorded on the DVD-ROM is MIDI (Musical Instrument Digital Interface) data, the sound processing unit 110 refers to the sound source data included in the sound data and converts the MIDI data into PCM (Pulse Code Modulation) data. Convert. If the compressed audio data is in ADPCM (Adaptive Differential PCM) format or Ogg Vorbis format, it is expanded and converted to PCM data. The PCM data can be output by performing D / A (Digital / Analog) conversion at a timing corresponding to the sampling frequency and outputting it to a speaker.

マット型コントローラ111は、インターフェース104を介して接続される。本発明において、情報処理装置100に複数のマット型コントローラ111を接続することも可能である。マット型コントローラ111は、プレイヤがゲームプレイの際に行う操作入力を受け付ける。図2は、マット型コントローラ111の外観を示す説明図である。以下、本図を参照してマット型コントローラ111を説明する。   The mat type controller 111 is connected via the interface 104. In the present invention, it is also possible to connect a plurality of mat type controllers 111 to the information processing apparatus 100. The mat-type controller 111 receives an operation input performed by the player when playing the game. FIG. 2 is an explanatory diagram showing the appearance of the mat type controller 111. Hereinafter, the mat type controller 111 will be described with reference to FIG.

図2は、床面に設置されたマット型コントローラ111を真上から眺めたときのマット型コントローラ111の概略図である。マット型コントローラ111の所定領域には、“左”を指示する入力をプレイヤから受け付けるボタン111L、“右”を指示する入力をプレイヤから受け付けるボタン111R、“上”を指示する入力をプレイヤから受け付けるボタン111U、“下”を指示する入力をプレイヤから受け付けるボタン111D、がそれぞれ配置されている。プレイヤは、ボタン111L、111R、111U、111Dを任意のタイミングで押圧することができる。CPU 101は、ボタン111L、111R、111U、111Dのそれぞれについて、ボタンが押圧されている状態であるか否かを判別する。   FIG. 2 is a schematic view of the mat-type controller 111 when the mat-type controller 111 installed on the floor is viewed from directly above. In a predetermined area of the mat-type controller 111, a button 111L for receiving an input for instructing “left” from the player, a button 111R for receiving an input for instructing “right” from the player, and a button for receiving an input instructing “up” from the player 111U and a button 111D for receiving an input for instructing “down” from the player are arranged. The player can press the buttons 111L, 111R, 111U, and 111D at an arbitrary timing. The CPU 101 determines whether the button is pressed for each of the buttons 111L, 111R, 111U, and 111D.

本実施形態では、マット型コントローラ111は4個のボタン111L、111R、111U、111Dを備えているが、ボタンの数は4個に限定されず、3個以下あるいは5個以上でもよい。   In this embodiment, the mat-type controller 111 includes four buttons 111L, 111R, 111U, and 111D, but the number of buttons is not limited to four, and may be three or less or five or more.

また、マット型コントローラ111に代えて、赤外線カメラ等を使用することによりプレイヤの体全体の動きを捉えることで、ゲームプレイの操作入力としてもよい。   Moreover, it is good also as operation input of a game play by catching the motion of the whole body of a player by using an infrared camera etc. instead of the mat type | mold controller 111. FIG.

このほか、情報処理装置100は、ハードディスク等の大容量外部記憶装置を用いて、ROM 102、RAM 103、外部メモリ106、DVD−ROMドライブ108に装着されるDVD−ROM等と同じ機能を果たすように構成してもよい。   In addition, the information processing apparatus 100 uses a large-capacity external storage device such as a hard disk so as to perform the same function as the ROM 102, the RAM 103, the external memory 106, the DVD-ROM mounted on the DVD-ROM drive 108, and the like. You may comprise.

以上で説明した情報処理装置100は、いわゆる「コンシューマ向けテレビゲーム装置」に相当するものであるが、仮想空間を表示するような画像処理を行うものであれば本発明を実現することができる。したがって、携帯電話、携帯ゲーム機器、カラオケ装置、一般的なビジネス用コンピュータなど、種々の計算機上で本発明を実現することが可能である。   The information processing apparatus 100 described above corresponds to a so-called “consumer video game apparatus”, but the present invention can be realized as long as it performs image processing to display a virtual space. Therefore, the present invention can be realized on various computers such as a mobile phone, a portable game device, a karaoke apparatus, and a general business computer.

例えば、一般的なコンピュータは、上記情報処理装置100と同様に、CPU、RAM、ROM、DVD−ROMドライブ、及び、NICを備え、情報処理装置100よりも簡易な機能を備えた画像処理部を備え、外部記憶装置としてハードディスクを有する他、フレキシブルディスク、光磁気ディスク、磁気テープ等が利用できるようになっている。また、コントローラ105ではなく、キーボードやマウスなどを入力装置として利用する。   For example, a general computer includes an CPU, a RAM, a ROM, a DVD-ROM drive, and an NIC as in the information processing apparatus 100, and an image processing unit having a simpler function than the information processing apparatus 100. In addition to having a hard disk as an external storage device, a flexible disk, a magneto-optical disk, a magnetic tape, and the like can be used. Further, not the controller 105 but a keyboard or a mouse is used as an input device.

以下、上記情報処理装置100において実現される実施形態1乃至5に係る画像生成装置の概要構成について、図1乃至27を参照して説明する。ゲーム用のプログラム及びデータが記憶されたDVD−ROMをDVD−ROMドライブ108に装着して、情報処理装置100の電源を投入することにより、当該プログラムが実行され、実施形態1乃至5に係る画像生成装置が以下に示すダンスゲームの画像を生成する。   Hereinafter, a schematic configuration of the image generation apparatuses according to the first to fifth embodiments realized in the information processing apparatus 100 will be described with reference to FIGS. The DVD-ROM storing the game program and data is loaded into the DVD-ROM drive 108 and the information processing apparatus 100 is turned on to execute the program, and the images according to the first to fifth embodiments. The generation device generates an image of a dance game shown below.

(ゲームの概要)
まず、各実施形態の画像生成装置が生成するゲーム画像にかかるダンスゲームについて説明する。
(Outline of the game)
First, the dance game concerning the game image which the image generation apparatus of each embodiment produces | generates is demonstrated.

図3のダンスゲームのゲーム画像は、複数種類の目標オブジェクトMO1〜MO4が、演奏される楽曲のリズム等に同調して、移動レーンLa(オブジェクトの種類に応じたレーン)に沿って、下方から順次現れてそれぞれ上方まで移動し、消えて行く様子を示している。目標オブジェクトMO1〜MO4は、異なる向きの矢印シンボルを表している。右向きの矢印シンボルである目標オブジェクトMO1は、プレイヤに右方向にステップを踏むように指示するものである。同様に、下向きの矢印シンボルである目標オブジェクトMO2は後方に、上向きの矢印のシンボルである目標オブジェクトMO3は前方に、左向きの矢印シンボルである目標オブジェクトMO4は左方向に、ステップを踏むことを指示するものである。これらの目標オブジェクトMO1〜MO4は、移動レーンLaの下端(起点)から出現して、移動レーンLaを上方向に移動し、移動レーンLaの上端(終点)にて消滅する。   In the game image of the dance game of FIG. 3, a plurality of types of target objects MO1 to MO4 are synchronized with the rhythm of the musical piece to be played, along the moving lane La (lane corresponding to the type of object) from below. It shows how they appear sequentially, move upwards, and then disappear. The target objects MO1 to MO4 represent arrow symbols in different directions. The target object MO1, which is a right-pointing arrow symbol, instructs the player to take a step in the right direction. Similarly, the target object MO2 that is a downward arrow symbol indicates a step backward, the target object MO3 that is an upward arrow symbol is forward, and the target object MO4 that is a left arrow symbol indicates a left step. To do. These target objects MO1 to MO4 appear from the lower end (starting point) of the moving lane La, move upward in the moving lane La, and disappear at the upper end (ending point) of the moving lane La.

また、ダンスゲームのゲーム画像には、各目標オブジェクトMO1〜MO4と同じ形状の判定オブジェクトHO1〜HO4が所定の領域(判定エリアHA1)に固定されて表示される。プレイヤは、目標オブジェクトMO1〜MO4が判定オブジェクトHO1〜HO4に完全に重なったタイミング(以下、「重複タイミング」という)で、目標オブジェクトMO1〜MO4が示す方向にステップを踏むことが求められる。すなわち、目標オブジェクトMO1が判定オブジェクトHO1に完全に重なったタイミングで、ボタン111Rを押圧することが求められる。同様に、目標オブジェクトMO2が判定オブジェクトHO2に完全に重なったタイミングで、ボタン111Dを押圧することが求められ、目標オブジェクトMO3が判定オブジェクトHO3に完全に重なったタイミングで、ボタン111Uを押圧することが求められ、目標オブジェクトMO4が判定オブジェクトHO4に完全に重なったタイミングで、ボタン111Lを押圧することが求められる。   In addition, in the game image of the dance game, determination objects HO1 to HO4 having the same shape as the target objects MO1 to MO4 are fixed and displayed in a predetermined area (determination area HA1). The player is required to take a step in the direction indicated by the target objects MO1 to MO4 at the timing when the target objects MO1 to MO4 completely overlap the determination objects HO1 to HO4 (hereinafter referred to as “overlap timing”). That is, it is required to press the button 111R at the timing when the target object MO1 completely overlaps the determination object HO1. Similarly, pressing the button 111D is required when the target object MO2 completely overlaps the determination object HO2, and pressing the button 111U when the target object MO3 completely overlaps the determination object HO3. It is required to press the button 111L at the timing when the target object MO4 is completely overlapped with the determination object HO4.

プレイヤは、重複タイミングで、目標オブジェクトMO1〜MO4が示す方向にステップを踏む(ボタン111L、111R、111U、111Dの押圧する)と、得点が加算され、例えば、図3の“123400”のように画面にそれぞれの得点が表示される。一方、重複タイミングで、プレイヤによる入力が無かった場合や、目標オブジェクトMO1〜MO4が示す方向にステップが踏まれなかった場合、得点は得られず、又は得点が減算される。なお、ステップを踏むタイミングと重複タイミングとの誤差が小さいほど、高得点を得られるようにしてもよい。   When the player steps in the direction indicated by the target objects MO1 to MO4 at the overlapping timing (the buttons 111L, 111R, 111U, and 111D are pressed), the score is added. For example, as shown in “123400” in FIG. Each score is displayed on the screen. On the other hand, if there is no input by the player at the overlapping timing, or if the step is not taken in the direction indicated by the target objects MO1 to MO4, no score is obtained or the score is subtracted. Note that a higher score may be obtained as the error between the timing of stepping and the overlapping timing is smaller.

また、ゲーム画像には、主キャラクタ300及び第1の副キャラクタ400が表示される。主キャラクタ300及び第1の副キャラクタ400は、目標オブジェクトMO1〜MO4が示す方向に重複タイミングでステップを踏みながら、模範的なダンスを踊るものである。   In addition, the main character 300 and the first sub character 400 are displayed in the game image. The main character 300 and the first sub character 400 dance an exemplary dance while taking steps at overlapping timing in the direction indicated by the target objects MO1 to MO4.

(実施形態1)
実施形態1の画像生成装置は、副キャラクタの向きを見込む角度が最大になるように制御する。
実施形態1の画像生成装置200は、図4に示すように、生成部201と、検出部202と、割当部203と、変更部204と、を備える。
また、以下の実施形態では、上記副キャラクタを「第1の副キャラクタ400」として説明する。
(Embodiment 1)
The image generation apparatus according to the first embodiment performs control so that the angle at which the direction of the sub character is expected is maximized.
As illustrated in FIG. 4, the image generation apparatus 200 according to the first embodiment includes a generation unit 201, a detection unit 202, an allocation unit 203, and a change unit 204.
Further, in the following embodiment, the sub character is described as “first sub character 400”.

生成部201は、時間の経過にともなって姿勢を変化させる主キャラクタ300と、主キャラクタ300と同じ姿勢をとる第1の副キャラクタ400と、が配置される仮想空間を、当該仮想空間内に配置された視点から見た様子を表す画像を生成する。ここで、視点は仮想空間に配置された仮想カメラの位置であるとする。主キャラクタ300及び第1の副キャラクタ400と仮想カメラ900との位置関係を図5に示す。仮想カメラ900は、主キャラクタ300の正面の方向1001に一定の距離をおいて配置される。また、第1の副キャラクタ400は、主キャラクタ300の横方向に一定の距離をおいて配置され、ゲーム開始時は、主キャラクタ300の方向1001と同じ方向1002を向いて配置される。この主キャラクタ300と同じ方向1002を、第1の副キャラクタ400の基準方向とする。生成部201は、図3に示すような、仮想カメラ900から見た様子の画像を生成する。
したがって、CPU 101及び画像処理部107が協働して、生成部201として機能する。
The generation unit 201 arranges a virtual space in which the main character 300 whose posture is changed over time and the first sub character 400 having the same posture as the main character 300 are arranged in the virtual space. An image representing the state viewed from the viewpoint is generated. Here, it is assumed that the viewpoint is the position of the virtual camera arranged in the virtual space. FIG. 5 shows the positional relationship between the main character 300 and the first sub character 400 and the virtual camera 900. The virtual camera 900 is arranged at a certain distance in the front direction 1001 of the main character 300. The first sub-character 400 is arranged at a certain distance in the horizontal direction of the main character 300, and is arranged in the same direction 1002 as the direction 1001 of the main character 300 at the start of the game. The same direction 1002 as the main character 300 is set as the reference direction of the first sub character 400. The generation unit 201 generates an image as seen from the virtual camera 900 as shown in FIG.
Therefore, the CPU 101 and the image processing unit 107 cooperate to function as the generation unit 201.

検出部202は、主キャラクタ300の複数の部位のそれぞれの、姿勢の変化にともなう変位の大きさを検出する。例えば、変位は、予め各部位に設定される基準点が動いた距離により求まるとする。図6に示すように、主キャラクタ300の左腕301が画面上方に移動し、右脚302が、画面正面から見て右方向に移動したとする。左腕301の基準点が左腕301の端部711に、右脚302の基準点が右脚302の端部712に設定されているとすると、検出部202は、左腕301の端部711が移動した距離(変位701)、及び、右脚302の端部712が移動した距離(変位702)を検出する。
したがって、CPU 101及び画像処理部107が協働して、検出部201として機能する。
The detection unit 202 detects the magnitude of displacement of each of the plurality of parts of the main character 300 accompanying the change in posture. For example, it is assumed that the displacement is obtained from the distance moved by the reference point set in advance in each part. As shown in FIG. 6, it is assumed that the left arm 301 of the main character 300 has moved upward and the right leg 302 has moved to the right as viewed from the front of the screen. Assuming that the reference point of the left arm 301 is set to the end 711 of the left arm 301 and the reference point of the right leg 302 is set to the end 712 of the right leg 302, the detecting unit 202 moves the end 711 of the left arm 301. The distance (displacement 701) and the distance (displacement 702) that the end 712 of the right leg 302 has moved are detected.
Therefore, the CPU 101 and the image processing unit 107 cooperate to function as the detection unit 201.

割当部203は、検出された変位のうち、最も大きい変位を第1の副キャラクタ400に割り当てる。例えば、図6のように、主キャラクタ300の各部位が動かされたとする。この場合、変位701は変位702より大きいので、割当部203は、変位701を第1の副キャラクタ400に割り当てる。
したがって、CPU 101が割当部203として機能する。
The allocation unit 203 allocates the largest displacement among the detected displacements to the first sub character 400. For example, assume that each part of the main character 300 is moved as shown in FIG. In this case, since the displacement 701 is larger than the displacement 702, the assigning unit 203 assigns the displacement 701 to the first sub character 400.
Therefore, the CPU 101 functions as the assignment unit 203.

変更部204は、第1の副キャラクタ400に割り当てられた変位と視点の位置とに基づいて、第1の副キャラクタ400の向きを変更する。例えば、図7に示すように、主キャラクタ300の左腕301が動く場合であって、変位703が最も大きな変位として、第1の副キャラクタ400に割り当てられたとする。変更部204は、主キャラクタ300の左腕301の変位703に対応する動作(変位704)が、仮想カメラ900から最も見やすいように、第1の副キャラクタ400の向きを変更する。
したがって、CPU 101が変更部204として機能する。
The changing unit 204 changes the orientation of the first sub character 400 based on the displacement assigned to the first sub character 400 and the position of the viewpoint. For example, as shown in FIG. 7, it is assumed that the left arm 301 of the main character 300 moves and the displacement 703 is assigned to the first sub character 400 as the largest displacement. The changing unit 204 changes the orientation of the first sub character 400 so that the movement (displacement 704) corresponding to the displacement 703 of the left arm 301 of the main character 300 is most easily seen from the virtual camera 900.
Therefore, the CPU 101 functions as the changing unit 204.

具体的には、変更部204は、第1の副キャラクタ400の向きを、基準方向1002から、当該変位を仮想カメラから見込む角度が大きくなるような方向に変更する。ここで、「見込む角度」とは、変位の始点及び終点と視点との3点を頂点とする三角形において、当該視点における三角形の内角である。図7に示す方向1003に第1の副キャラクタ400が向いている場合、見込む角度は、変位704の始点及び終点と、仮想カメラ900との三角形において、仮想カメラ900における内角(角度901)である。変更部204は、この内角が最も大きくなる向きを、第1の副キャラクタ400の向きとする。例えば、図7に示す方向1003から図8に示す方向1004に第1の副キャラクタ400の方向を変更したとすると、見込む角度(角度902)は図7の見込む角度(角度901)より大きくなる。一方、図9に示す方向1005に第1の副キャラクタ400の方向を変更すると、見込む角度(角度903)は図7の見込む角度(角度901)より大きくなるが、図8の見込む角度(角度902)より小さくなる。したがって、変更部204は、方向1004が見込む角度が最大になる向きとして、第1の副キャラクタ400の向きを基準方向1002から方向1004に変更する。   Specifically, the changing unit 204 changes the direction of the first sub character 400 from the reference direction 1002 to a direction in which the angle at which the displacement is viewed from the virtual camera is increased. Here, the “viewing angle” is an internal angle of a triangle at the viewpoint in a triangle having apexes at three points of the start point and end point of the displacement and the viewpoint. When the first sub character 400 is oriented in the direction 1003 shown in FIG. 7, the angle to be viewed is the interior angle (angle 901) in the virtual camera 900 in the triangle between the start point and end point of the displacement 704 and the virtual camera 900. . The changing unit 204 sets the direction in which the interior angle is the largest as the direction of the first sub character 400. For example, if the direction of the first sub-character 400 is changed from the direction 1003 shown in FIG. 7 to the direction 1004 shown in FIG. 8, the expected angle (angle 902) is larger than the expected angle (angle 901) in FIG. On the other hand, when the direction of the first sub character 400 is changed to the direction 1005 shown in FIG. 9, the expected angle (angle 903) becomes larger than the expected angle (angle 901) in FIG. 7, but the expected angle (angle 902) in FIG. ) Smaller. Therefore, the changing unit 204 changes the direction of the first sub-character 400 from the reference direction 1002 to the direction 1004 as the direction in which the angle expected by the direction 1004 is maximized.

変更部204により第1の副キャラクタ400の方向が方向1004に変更された場合に、生成部201が生成する画像を図10に示す。主キャラクタ300の左腕301の変位703は、主キャラクタ300の正面から見ると実際の変位よりも小さく見えてしまう。しかし、同じ動作を行う第1の副キャラクタ400の向きを上記の手法により変えることにより、プレイヤに求められる左腕の動作をわかりやすく提示することができる。   FIG. 10 shows an image generated by the generation unit 201 when the direction of the first sub character 400 is changed to the direction 1004 by the change unit 204. The displacement 703 of the left arm 301 of the main character 300 looks smaller than the actual displacement when viewed from the front of the main character 300. However, by changing the direction of the first sub character 400 performing the same action by the above method, the action of the left arm required by the player can be presented in an easily understandable manner.

(画像生成装置の動作)
以下、本実施形態の画像生成装置200の各部が行う動作について説明する。画像生成装置200に電源が投入されると、CPU 101は、図11のフローチャートに示す画像生成処理を開始する。
(Operation of image generation device)
Hereinafter, operations performed by each unit of the image generation apparatus 200 according to the present embodiment will be described. When the image generation apparatus 200 is powered on, the CPU 101 starts an image generation process shown in the flowchart of FIG.

生成部201は、主キャラクタ300及び第1の副キャラクタ400を含む仮想空間の画像を生成する(ステップS101)。例えば、生成部201は、図3に示すような画像を生成する。   The generation unit 201 generates an image of the virtual space including the main character 300 and the first sub character 400 (step S101). For example, the generation unit 201 generates an image as illustrated in FIG.

生成部201が生成した画像は、画像処理部107が備えるフレームメモリ等に記憶される。そして、画像処理部107は、垂直同期割り込みが生じるまでキューのクリアや、別のプロセスの処理などを行って待機する(ステップS102)。そして、垂直同期割り込みが生じると、画像処理部107は、フレームメモリに記憶された画像情報を表示信号に変換し、画像処理部107に接続されるモニタに表示する(ステップS103)。例えば、図3の画像がモニタに表示される。   The image generated by the generation unit 201 is stored in a frame memory or the like provided in the image processing unit 107. Then, the image processing unit 107 waits for a queue to be cleared or another process to be performed until a vertical synchronization interrupt occurs (step S102). When a vertical synchronization interrupt occurs, the image processing unit 107 converts the image information stored in the frame memory into a display signal and displays it on a monitor connected to the image processing unit 107 (step S103). For example, the image of FIG. 3 is displayed on the monitor.

検出部202は、主キャラクタ300の各部位の変位を検出する(ステップS104)。例えば、検出部202は、図7に示すような、主キャラクタ300の左腕301の変位703を検出する。   The detection unit 202 detects the displacement of each part of the main character 300 (step S104). For example, the detection unit 202 detects a displacement 703 of the left arm 301 of the main character 300 as shown in FIG.

割当部203は、検出部202が検出した変位のうち、最も大きい変位を第1の副キャラクタ400に割り当てる(ステップS105)。例えば、検出部202が検出した最も大きい変位が、図7の変位703であるとする。割当部203は、第1の副キャラクタ400に、変位703を割り当てる。   The allocating unit 203 allocates the largest displacement among the displacements detected by the detecting unit 202 to the first sub character 400 (step S105). For example, it is assumed that the largest displacement detected by the detection unit 202 is the displacement 703 in FIG. The assigning unit 203 assigns the displacement 703 to the first sub character 400.

変更部204は、第1の副キャラクタ400の向きを、割り当てられた変位についての見込む角度が最大となる向きに変更する(ステップS106)。例えば、第1の副キャラクタ400に変位703が割り当てられた場合、変更部204は、第1の副キャラクタ400の向きを、見込む角度が最大(角度902)となる方向1004に変更する。そして、ステップS101に戻り、生成部201は、変更部204により変更された向き(方向1004)を向いた第1の副キャラクタ400を含む仮想空間の画像(図10)を生成する。   The changing unit 204 changes the direction of the first sub character 400 to a direction that maximizes the expected angle for the assigned displacement (step S106). For example, when the displacement 703 is assigned to the first sub-character 400, the changing unit 204 changes the direction of the first sub-character 400 to a direction 1004 in which the expected angle is the maximum (angle 902). Then, returning to step S101, the generation unit 201 generates an image (FIG. 10) of the virtual space including the first sub character 400 facing the direction (direction 1004) changed by the changing unit 204.

本実施形態によれば、2つのキャラクタに同じ動作をさせ、一方のキャラクタには、最も動きの大きな動作が視認しやすいように、向きを変えさせることにより、注目すべき動作をわかりやすく提示することができる。さらに、最も動作の大きい部位が見やすいように、自動的に向きを設定することができる。   According to this embodiment, two characters perform the same action, and one character is presented with a noticeable action in an easy-to-understand manner by changing the orientation so that the action with the largest movement is easily visible. be able to. Furthermore, the direction can be automatically set so that the part with the largest motion is easy to see.

(実施形態2)
実施形態2の画像生成装置は、実施形態1において、副キャラクタの向きを連続的に変更させるように制御する。実施形態1の場合では、変更部204により方向が求められると、第1の副キャラクタ400の向きを当該求められた方向に変更した画像が直ちに表示されるが、いきなり向きが変更されると不自然な場合がある。そこで本実施形態では、連続的に第1の副キャラクタ400の向きを変更する手法について説明する。
実施形態2の画像生成装置200は、図4に示すように、生成部201と、検出部202と、割当部203と、変更部204と、を備える。本実施形態の生成部201、検出部202、及び、割当部203は、実施形態1のものと同様の機能を有する。以下、異なる機能を有する変更部204について説明する。
また、以下の実施形態では、上記副キャラクタを「第1の副キャラクタ400」として説明する。
(Embodiment 2)
In the first embodiment, the image generation apparatus according to the second embodiment performs control so that the orientation of the sub character is continuously changed. In the case of the first embodiment, when the direction is obtained by the changing unit 204, an image in which the orientation of the first sub-character 400 is changed to the obtained direction is immediately displayed. May be natural. Therefore, in this embodiment, a method for continuously changing the orientation of the first sub character 400 will be described.
As illustrated in FIG. 4, the image generation apparatus 200 according to the second embodiment includes a generation unit 201, a detection unit 202, an allocation unit 203, and a change unit 204. The generation unit 201, the detection unit 202, and the allocation unit 203 of the present embodiment have the same functions as those of the first embodiment. Hereinafter, the changing unit 204 having different functions will be described.
Further, in the following embodiment, the sub character is described as “first sub character 400”.

変更部204は、第1の副キャラクタ400に割り当てられた変位と視点の位置とに基づいて、第1の副キャラクタ400の向きを連続的に変更する。具体的には、まず、第1の副キャラクタ400の向きを変更させる角速度の上限ωを設ける。すなわち、第1の副キャラクタ400の向きを角速度ωより速く変更することはできない。したがって、垂直同期割り込み周期tの間に変更することができる第1の副キャラクタ400の向きの角度は、ω・tである。そして、現在の向きから、±ω・tだけ向きを変更した場合に、割り当てられた変位についての見込む角度が大きくなる方向を選択し、当該方向に第1の副キャラクタ400の向きを変更する。
したがって、CPU 101が変更部204として機能する。
The changing unit 204 continuously changes the orientation of the first sub character 400 based on the displacement assigned to the first sub character 400 and the position of the viewpoint. Specifically, first, an upper limit ω of the angular velocity that changes the direction of the first sub character 400 is provided. That is, the direction of the first sub character 400 cannot be changed faster than the angular velocity ω. Therefore, the angle of the orientation of the first sub character 400 that can be changed during the vertical synchronization interruption period t is ω · t. Then, when the direction is changed by ± ω · t from the current direction, a direction in which an expected angle with respect to the allocated displacement is increased is selected, and the direction of the first sub character 400 is changed in the direction.
Therefore, the CPU 101 functions as the changing unit 204.

例えば、現時点で、主キャラクタ300及び第1の副キャラクタ400が、図9に示すように配置されているとする。また、図9の方向1005と図8の方向1004がなす角度をω・tとし、図9の方向1005と図12の方向1006がなす角度もω・tであるとする。すなわち、図13に示すように、現時点で第1の副キャラクタ400が方向1005を向いている場合、次の垂直同期割り込み周期t後に、第1の副キャラクタ400が向くことができる方向は方向1004又は方向1006である。   For example, it is assumed that the main character 300 and the first sub character 400 are currently arranged as shown in FIG. Further, an angle formed by the direction 1005 in FIG. 9 and the direction 1004 in FIG. 8 is ω · t, and an angle formed by the direction 1005 in FIG. 9 and the direction 1006 in FIG. 12 is also ω · t. That is, as shown in FIG. 13, when the first sub character 400 is currently facing the direction 1005, the direction in which the first sub character 400 can be directed after the next vertical synchronization interruption period t is the direction 1004. Or the direction 1006.

変更部204は、第1の副キャラクタ400が方向1004又は方向1006を向いたときの見込む角度(角度902、904)を比較し、より大きな見込む角度(角度902)が得られる方向1004を、第1の副キャラクタ400の方向とする。なお、現時点の第1の副キャラクタ400の方向で最も見込む角度が大きい場合は、第1の副キャラクタ400の方向を変更しなくてもよい。   The changing unit 204 compares the angles (angles 902 and 904) that are expected when the first sub-character 400 faces the direction 1004 or the direction 1006, and determines the direction 1004 in which a larger angle (angle 902) is obtained. The direction of one sub-character 400 is assumed. Note that when the angle that is most likely to be viewed in the direction of the first sub character 400 at the present time is the largest, the direction of the first sub character 400 may not be changed.

例えば、第1の副キャラクタ400が、現在、基準方向1002に向いており、変更部204が、上記のように、垂直同期割り込み周期t後の向くことができる方向についての見込む角度を比較することにより、第1の副キャラクタ400の向きを最終的に方向1004に変更すると決定したとする。この場合、生成部201は、図14のような画像を生成し、第1の副キャラクタ400が方向1002から方向1004を向くまで(図10)、回転方向801に徐々に回転する様子が画面に表示されることになる。このように、向きを変更させることができる範囲でより大きな見込む角度が得られる向きを選択し、当該選択した向きに変更することにより、徐々に最も大きな見込む角度が得られる方向に変更することができる。   For example, the first sub-character 400 is currently oriented in the reference direction 1002, and the changing unit 204 compares the expected angle in the direction that can be directed after the vertical synchronization interrupt period t as described above. Thus, it is assumed that the direction of the first sub character 400 is finally changed to the direction 1004. In this case, the generation unit 201 generates an image as shown in FIG. 14, and the screen shows that the first sub character 400 gradually rotates in the rotation direction 801 until the first sub-character 400 faces the direction 1004 from the direction 1002 (FIG. 10). Will be displayed. In this way, by selecting a direction that provides a larger expected angle within a range in which the direction can be changed, and changing to the selected direction, it is possible to gradually change the direction to obtain the largest expected angle. it can.

(画像生成装置の動作)
以下、本実施形態の画像生成装置200の各部が行う動作について説明する。画像生成装置200に電源が投入されると、CPU 101は、図15のフローチャートに示す画像処理を開始する。なお、図15のフローチャートにおいて、図11と同じステップ番号が付されているステップは、図11のフローチャートにおける処理と同様の処理を行う。
(Operation of image generation device)
Hereinafter, operations performed by each unit of the image generation apparatus 200 according to the present embodiment will be described. When the image generating apparatus 200 is turned on, the CPU 101 starts image processing shown in the flowchart of FIG. In the flowchart of FIG. 15, steps having the same step numbers as in FIG. 11 perform the same processing as the processing in the flowchart of FIG.

割当部203が副キャラクタに最も大きな変位を割り当てると(ステップS105)、変更部204は、垂直同期割り込み周期後に向くことができる方向を求める(ステップS206)。例えば、変位703が第1の副キャラクタ400に割り当てられ、現在、方向1005を向いているとすると、変更部204は、垂直同期割り込み周期t後に向くことができる方向1004、1006を求める。   When the allocating unit 203 allocates the largest displacement to the sub character (step S105), the changing unit 204 obtains a direction that can be directed after the vertical synchronization interruption cycle (step S206). For example, if the displacement 703 is assigned to the first sub character 400 and is currently facing the direction 1005, the changing unit 204 obtains directions 1004 and 1006 that can be directed after the vertical synchronization interruption period t.

変更部204は、第1の副キャラクタ400が求めた方向を向いた場合に、割り当てられた変位に対応する変位の見込む角度を求める(ステップS207)。例えば、変更部204は、第1の副キャラクタ400が、図8に示すように、方向1004に向いた場合の変位704に対する見込む角度(角度902)を求める。同様に、変更部204は、第1の副キャラクタ400が、図12に示すように、方向1006に向いた場合の変位704に対する見込む角度(角度904)を求める。   When the first sub character 400 faces the direction obtained, the changing unit 204 obtains an angle at which a displacement corresponding to the assigned displacement is expected (step S207). For example, the changing unit 204 obtains an expected angle (angle 902) with respect to the displacement 704 when the first sub character 400 faces the direction 1004 as shown in FIG. Similarly, the changing unit 204 obtains an expected angle (angle 904) with respect to the displacement 704 when the first sub character 400 faces the direction 1006 as shown in FIG.

変更部204は、求めた見込む角度のうち、より大きい見込む角度が得られる方向を、第1の副キャラクタ400の方向とする(ステップS208)。すなわち、角度902は角度904よりも大きいので、変更部204は、第1の副キャラクタ400の方向を、より大きな見込む角度が得られる方向1004とする。そして、ステップS101に戻り、生成部201は、変更部204により変更された向き(方向1004)を向いた第1の副キャラクタ400を含む仮想空間の画像(図10)を生成する。   The changing unit 204 sets the direction in which the larger angle is obtained among the obtained angles to be expected as the direction of the first sub character 400 (step S208). That is, since the angle 902 is larger than the angle 904, the changing unit 204 sets the direction of the first sub character 400 as the direction 1004 in which a larger expected angle is obtained. Then, returning to step S101, the generation unit 201 generates an image (FIG. 10) of the virtual space including the first sub character 400 facing the direction (direction 1004) changed by the changing unit 204.

本実施形態によれば、最も動作の大きい部位が見やすいように、キャラクタの向きを連続的に変更することができる。   According to the present embodiment, the direction of the character can be continuously changed so that the portion with the largest motion is easy to see.

(実施形態3)
実施形態3の画像生成装置は、2つの副キャラクタの向きを制御するものであって、一方の副キャラクタの向きを見込む角度が最大になるように制御し、他方の副キャラクタの向きを当該一方副キャラクタの向きと直交するように制御する。
実施形態3の画像生成装置200は、図4に示すように、生成部201と、検出部202と、割当部203と、変更部204と、を備える。本実施形態の検出部202、及び、割当部203は、実施形態1のものと同様の機能を有する。以下、異なる機能を有する生成部201、及び、変更部204について説明する。
また、以下では、上記一方の副キャラクタを「第1の副キャラクタ400」、上記他方の副キャラクタを「第2の副キャラクタ500」として説明する。
(Embodiment 3)
The image generation apparatus according to the third embodiment controls the orientations of two subcharacters, and controls so as to maximize the angle at which one of the subcharacters is expected. Control is performed so as to be orthogonal to the direction of the sub character.
As illustrated in FIG. 4, the image generation apparatus 200 according to the third embodiment includes a generation unit 201, a detection unit 202, an allocation unit 203, and a change unit 204. The detection unit 202 and the allocation unit 203 of the present embodiment have the same functions as those of the first embodiment. Hereinafter, the generation unit 201 and the change unit 204 having different functions will be described.
In the following description, the one sub character is referred to as a “first sub character 400”, and the other sub character is referred to as a “second sub character 500”.

生成部201は、時間の経過にともなって姿勢を変化させる主キャラクタ300と、主キャラクタ300と同じ姿勢をとる第1の副キャラクタ400及び第2の副キャラクタ500と、が配置される仮想空間を、当該仮想空間内に配置された視点から見た様子を表す画像を生成する。ここで、主キャラクタ300、第1の副キャラクタ400及び第2の副キャラクタ500は、目標オブジェクトMO1〜MO4が示す方向に重複タイミングでステップを踏みながら模範的なダンスを踊るものとし、視点は仮想空間に配置された仮想カメラの位置である。主キャラクタ300、第1の副キャラクタ400、及び第2の副キャラクタ500と仮想カメラ900との位置関係を図16に示す。仮想カメラ900は、主キャラクタ300の正面の方向1001に一定の距離をおいて配置される。また、第1の副キャラクタ400は、主キャラクタ300の横に一定の距離をおいて配置され、第2の副キャラクタ500は、主キャラクタ300の横に一定の距離をおいて、第1の副キャラクタ400の反対側に配置される。ゲーム開始時は、第1の副キャラクタ400及び第2の副キャラクタ500は、主キャラクタ300の方向1001と同じ方向1002、1007を向いて配置される。この主キャラクタ300と同じ方向1002、1007を、第1の副キャラクタ400、第2の副キャラクタ500の基準方向とする。生成部201は、図17に示すような、仮想カメラ900から見た様子の画像を生成する。
したがって、CPU 101及び画像処理部107が協働して、生成部201として機能する。
The generation unit 201 creates a virtual space in which the main character 300 whose posture changes with time and the first sub character 400 and the second sub character 500 that take the same posture as the main character 300 are arranged. Then, an image representing a state viewed from the viewpoint arranged in the virtual space is generated. Here, it is assumed that the main character 300, the first sub character 400, and the second sub character 500 dance an exemplary dance while taking steps at overlapping timing in the direction indicated by the target objects MO1 to MO4. This is the position of the virtual camera arranged in the space. The positional relationship between the main character 300, the first sub character 400, the second sub character 500, and the virtual camera 900 is shown in FIG. The virtual camera 900 is arranged at a certain distance in the front direction 1001 of the main character 300. The first sub character 400 is arranged at a certain distance beside the main character 300, and the second sub character 500 is arranged at a certain distance beside the main character 300. It is arranged on the opposite side of the character 400. At the start of the game, the first sub character 400 and the second sub character 500 are arranged facing the same direction 1002 and 1007 as the direction 1001 of the main character 300. The same directions 1002 and 1007 as the main character 300 are set as the reference directions of the first sub character 400 and the second sub character 500. The generation unit 201 generates an image as seen from the virtual camera 900 as shown in FIG.
Therefore, the CPU 101 and the image processing unit 107 cooperate to function as the generation unit 201.

変更部204は、第1の副キャラクタ400に割り当てられた変位と視点の位置とに基づいて、第1の副キャラクタ400の向きを変更し、第2の副キャラクタ500の向きを、副キャラクタの向きと直交するように、変更する。例えば、図18に示すように主キャラクタの左腕301が動く場合であって、変位703が最も大きな変位として、第1の副キャラクタ400に割当られたとする。変更部204は、第1の副キャラクタ400の方向を、基準方向(方向1002)から見込む角度(角度902)が最大になる方向1004に変更する。次に、変更部204は、第1の副キャラクタ400の方向1004と90度をなす方向(方向1008’、1008”)を求める。変更部204は、第2の副キャラクタ500が、方向1008’と同じ方向1008を向いた場合(図18)、及び、方向1008”と同じ方向1011を向いた場合(図19)、の変位705と仮想カメラ900との距離を比較する。そして、変更部204は、2つの方向のうち、割り当てられた変位703に対応する変位705が視点により近くなる方向を、第2の副キャラクタ500の方向として選択する。すなわち、変更部204は、第2の副キャラクタ500の向きを、基準方向(方向1007)から、変位705が仮想カメラ900に近くなる方向(方向1008)に変更する。
したがって、CPU 101が変更部204として機能する。
The changing unit 204 changes the direction of the first sub character 400 based on the displacement assigned to the first sub character 400 and the position of the viewpoint, and changes the direction of the second sub character 500 to the direction of the sub character. Change to be orthogonal to the direction. For example, as shown in FIG. 18, it is assumed that the left arm 301 of the main character moves and the displacement 703 is assigned to the first sub character 400 as the largest displacement. The changing unit 204 changes the direction of the first sub character 400 to the direction 1004 in which the angle (angle 902) seen from the reference direction (direction 1002) is maximized. Next, the changing unit 204 obtains a direction (direction 1008 ′, 1008 ″) that is 90 degrees with the direction 1004 of the first sub character 400. The changing unit 204 determines that the second sub character 500 is in the direction 1008 ′. The distance between the displacement 705 and the virtual camera 900 in the same direction 1008 (FIG. 18) and in the same direction 1011 as the direction 1008 ″ (FIG. 19) is compared. Then, the changing unit 204 selects a direction in which the displacement 705 corresponding to the allocated displacement 703 is closer to the viewpoint from the two directions as the direction of the second sub character 500. That is, the changing unit 204 changes the orientation of the second sub character 500 from the reference direction (direction 1007) to a direction in which the displacement 705 is close to the virtual camera 900 (direction 1008).
Therefore, the CPU 101 functions as the changing unit 204.

変更部204により、第1の副キャラクタ400の方向が方向1004に変更され、第2の副キャラクタ500の方向が方向1008に変更された場合に、生成部201が生成する画像を図20に示す。このように、主キャラクタ300と同じ動作をおこなう第1の副キャラクタ400及び第2の副キャラクタ500の向きを変更すると、プレイヤは、主キャラクタ300の左腕301の動作を複数の方向から確認することができる。   FIG. 20 shows an image generated by the generating unit 201 when the direction of the first sub character 400 is changed to the direction 1004 and the direction of the second sub character 500 is changed to the direction 1008 by the changing unit 204. . As described above, when the orientations of the first sub character 400 and the second sub character 500 performing the same action as the main character 300 are changed, the player confirms the action of the left arm 301 of the main character 300 from a plurality of directions. Can do.

(画像生成装置の動作)
以下、本実施形態の画像生成装置200の各部が行う動作について説明する。画像生成装置200に電源が投入されると、CPU 101は、図21のフローチャートに示す画像処理を開始する。なお、図21のフローチャートにおいて、図11と同じステップ番号が付されているステップは、図11のフローチャートにおける処理と同様の処理を行う。
(Operation of image generation device)
Hereinafter, operations performed by each unit of the image generation apparatus 200 according to the present embodiment will be described. When the image generating apparatus 200 is powered on, the CPU 101 starts image processing shown in the flowchart of FIG. In the flowchart of FIG. 21, steps with the same step numbers as in FIG. 11 perform the same processing as the processing in the flowchart of FIG.

生成部201は、主キャラクタ300、第1の副キャラクタ400、及び第2の副キャラクタ500を含む仮想空間の画像を生成する(ステップS301)。例えば、生成部201は、図17に示すような画像を生成する。以下、ステップS102乃至ステップS106の処理を行う。   The generation unit 201 generates an image of a virtual space including the main character 300, the first sub character 400, and the second sub character 500 (step S301). For example, the generation unit 201 generates an image as illustrated in FIG. Thereafter, the processing from step S102 to step S106 is performed.

変更部204は、第1の副キャラクタ400の向きを見込む角度が最大となる方向に変更すると(ステップS106)、次に、第1の副キャラクタ400の方向と90度をなす方向を求める(ステップS307)。例えば、第1の副キャラクタ400の向きを、方向1002から方向1004に変更する場合、方向1004と90度をなす方向1008’、1008”を求める。   If the changing unit 204 changes the direction so that the angle at which the direction of the first sub character 400 is expected is maximized (step S106), then the changing unit 204 obtains a direction that is 90 degrees with the direction of the first sub character 400 (step S106). S307). For example, when the direction of the first sub character 400 is changed from the direction 1002 to the direction 1004, directions 1008 ′ and 1008 ″ that form 90 degrees with the direction 1004 are obtained.

次に、変更部204は、求められた方向のうち、割り当てられた変位に対応する変位が視点に近くなる方向に第2の副キャラクタ500の方向を変更する(ステップS308)。例えば、変更部204は、第2の副キャラクタ500が方向1008’と同じ方向1008を向いた時(図18)の変位705と仮想カメラ900との距離と、第2の副キャラクタ500が方向1008”と同じ方向1011を向いた時(図19)の変位705と仮想カメラ900との距離を比較する。変位705は、第2の副キャラクタ500が方向1008を向いた場合の方が方向1011を向いた場合より、仮想カメラ900までの距離が近いので、変更部204は、第2の副キャラクタ500の方向を、方向1007から方向1008に変更する。そして、ステップS301に戻り、生成部201は、方向1004を向いた第1の副キャラクタ400及び方向1008を向いた第2の副キャラクタ500を含む仮想空間の画像(図20)を生成する。   Next, the changing unit 204 changes the direction of the second sub character 500 so that the displacement corresponding to the assigned displacement is closer to the viewpoint among the obtained directions (step S308). For example, the changing unit 204 determines the distance between the displacement 705 and the virtual camera 900 when the second sub character 500 faces in the same direction 1008 as the direction 1008 ′ (FIG. 18), and the second sub character 500 has the direction 1008. The distance between the displacement 705 when facing in the same direction 1011 (FIG. 19) and the virtual camera 900 is compared. The displacement 705 indicates the direction 1011 when the second sub character 500 faces in the direction 1008. Since the distance to the virtual camera 900 is shorter than when facing, the changing unit 204 changes the direction of the second sub character 500 from the direction 1007 to the direction 1008. Then, the process returns to step S301, and the generating unit 201 returns to step S301. , An image of the virtual space including the first sub character 400 facing the direction 1004 and the second sub character 500 facing the direction 1008 (FIG. 2). ) To generate.

本実施形態によれば、最も動作の大きい部位の動きを、最も見やすい向きからだけでなく、他の方向からも確認することができる。   According to the present embodiment, it is possible to confirm the movement of the part with the largest movement not only from the direction in which it is most easily seen but also from other directions.

(実施形態4)
実施形態4の画像生成装置は、2つの副キャラクタの向きを制御するものであって、一方の副キャラクタの向きを見込む角度が最大になるように制御し、他方の副キャラクタの向きを当該一方の副キャラクタの向きと対称となるように制御する。
実施形態4の画像生成装置200は、図4に示すように、生成部201と、検出部202と、割当部203と、変更部204と、を備える。本実施形態の検出部202及び割当部203は、実施形態1のものと同様の機能を有し、生成部201は、実施形態3のものと同様の機能を有する。以下、異なる機能を有する変更部204について説明する。
また、以下では、上記一方の副キャラクタを「第1の副キャラクタ400」、上記他方の副キャラクタを「第2の副キャラクタ500」として説明する。
(Embodiment 4)
The image generation apparatus according to the fourth embodiment controls the orientations of two subcharacters, and controls so as to maximize the angle at which one of the subcharacters is expected. It controls to be symmetrical with the direction of the sub character.
As illustrated in FIG. 4, the image generation apparatus 200 according to the fourth embodiment includes a generation unit 201, a detection unit 202, an allocation unit 203, and a change unit 204. The detection unit 202 and the allocation unit 203 of the present embodiment have the same functions as those of the first embodiment, and the generation unit 201 has the same functions as those of the third embodiment. Hereinafter, the changing unit 204 having different functions will be described.
In the following description, the one sub character is referred to as a “first sub character 400”, and the other sub character is referred to as a “second sub character 500”.

変更部204は、第1の副キャラクタ400に割り当てられた変位と視点の位置とに基づいて、第1の副キャラクタ400の向きを変更し、第2の副キャラクタ500の向きを、副キャラクタの向きと対称となるように、変更する。例えば、図22に示すように主キャラクタの左腕301が動く場合であって、変位703が最も大きな変位として、第1の副キャラクタ400に割当られたとする。変更部204は、第1の副キャラクタ400の方向を、基準方向(方向1002)から見込む角度が最大になる方向1004に変更する。次に、変更部204は、第1の副キャラクタ400の方向1004が方向1001となす角度(角度905)を求める。そして、方向1001と、角度905と等しい角度906をなす方向(方向1009)を求め、第2の副キャラクタ500の方向を、基準方向(方向1007)から方向1009に変更する。
したがって、CPU 101が変更部204として機能する。
The changing unit 204 changes the direction of the first sub character 400 based on the displacement assigned to the first sub character 400 and the position of the viewpoint, and changes the direction of the second sub character 500 to the direction of the sub character. Change it so that it is symmetrical with the orientation. For example, as shown in FIG. 22, it is assumed that the left arm 301 of the main character moves, and the displacement 703 is assigned to the first sub character 400 as the largest displacement. The changing unit 204 changes the direction of the first sub character 400 to the direction 1004 in which the angle viewed from the reference direction (direction 1002) is maximized. Next, the changing unit 204 obtains an angle (angle 905) formed by the direction 1004 of the first sub character 400 and the direction 1001. Then, the direction (direction 1009) that forms the direction 1001 and an angle 906 equal to the angle 905 is obtained, and the direction of the second sub-character 500 is changed from the reference direction (direction 1007) to the direction 1009.
Therefore, the CPU 101 functions as the changing unit 204.

変更部204により、第1の副キャラクタ400の方向が方向1004に変更され、第2の副キャラクタ500の方向が方向1009に変更された場合に、生成部201が生成する画像を図23に示す。このように、主キャラクタ300と同じ動作をおこなう第1の副キャラクタ400及び第2の副キャラクタ500の向きを変更すると、プレイヤは、主キャラクタ300の左腕301の動作を複数の方向から確認することができる。   FIG. 23 shows an image generated by the generation unit 201 when the direction of the first sub character 400 is changed to the direction 1004 and the direction of the second sub character 500 is changed to the direction 1009 by the changing unit 204. . As described above, when the orientations of the first sub character 400 and the second sub character 500 performing the same action as the main character 300 are changed, the player confirms the action of the left arm 301 of the main character 300 from a plurality of directions. Can do.

(画像生成装置の動作)
以下、本実施形態の画像生成装置200の各部が行う動作について説明する。画像生成装置200に電源が投入されると、CPU 101は、図24のフローチャートに示す画像処理を開始する。なお、図24のフローチャートにおいて、図11及び図21と同じステップ番号が付されているステップは、図11及び図21のフローチャートにおける処理と同様の処理を行う。
(Operation of image generation device)
Hereinafter, operations performed by each unit of the image generation apparatus 200 according to the present embodiment will be described. When the image generating apparatus 200 is powered on, the CPU 101 starts image processing shown in the flowchart of FIG. In the flowchart of FIG. 24, steps having the same step numbers as those in FIGS. 11 and 21 perform the same processes as those in the flowcharts of FIGS.

変更部204は、第1の副キャラクタ400の向きを見込む角度が最大となる向きに変更すると(ステップS106)、変更部204は、第1の副キャラクタ400の方向と対称となる方向を求める(ステップS407)。例えば、第1の副キャラクタ400の方向を方向1004に変更する場合、変更部204は、方向1004と方向1001となす角度(角度905)を求め、方向1001と、角度905と等しい角度906をなす方向1009を求める。   When the changing unit 204 changes the direction so that the angle at which the direction of the first sub character 400 is expected is maximized (step S106), the changing unit 204 obtains a direction that is symmetric to the direction of the first sub character 400 ( Step S407). For example, when changing the direction of the first sub character 400 to the direction 1004, the changing unit 204 obtains an angle (angle 905) between the direction 1004 and the direction 1001, and forms an angle 906 that is equal to the direction 1001 and the angle 905. A direction 1009 is obtained.

次に、変更部204は、第2の副キャラクタ500の方向を求めた方向に変更する(ステップS408)。すなわち、変更部204は、第1の副キャラクタ400の方向を、方向1002から方向1004に変更する場合、第2の副キャラクタ500の方向を、方向1007から方向1009に変更する。そして、ステップS301に戻り、生成部201は、方向1004を向いた第1の副キャラクタ400及び方向1009を向いた第2の副キャラクタ500を含む仮想空間の画像(図23)を生成する。   Next, the changing unit 204 changes the direction of the second sub character 500 to the obtained direction (step S408). That is, the changing unit 204 changes the direction of the second sub character 500 from the direction 1007 to the direction 1009 when the direction of the first sub character 400 is changed from the direction 1002 to the direction 1004. Then, returning to step S301, the generation unit 201 generates a virtual space image (FIG. 23) including the first sub character 400 facing the direction 1004 and the second sub character 500 facing the direction 1009.

本実施形態によれば、最も動作の大きい部位の動きを、最も見やすい向きからだけでなく、他の方向からも確認することができる。   According to the present embodiment, it is possible to confirm the movement of the part with the largest movement not only from the direction in which it is most easily seen but also from other directions.

(実施形態5)
実施形態5の画像生成装置は、複数の副キャラクタに動作の変位の大きさが上位のものから割り当て、各副キャラクタの向きを、割り当てられた変位に対応する動作が見やすいように制御する。
実施形態5の画像生成装置200は、図4に示すように、生成部201と、検出部202と、割当部203と、変更部204と、を備える。本実施形態の検出部202は、実施形態1のものと同様の機能を有し、生成部201は、実施形態3のものと同様の機能を有する。以下、異なる機能を有する割当部203、及び、変更部204について説明する。
なお、本実施形態では、副キャラクタは2つあるとし、上位の変位が割り当てられる副キャラクタを「第1の副キャラクタ400」、下位の変位が割り当てられる副キャラクタを「第2の副キャラクタ500」として説明する。
(Embodiment 5)
The image generation apparatus according to the fifth embodiment assigns a plurality of sub-characters from the top with the magnitude of motion displacement, and controls the orientation of each sub-character so that the motion corresponding to the assigned displacement is easy to see.
As illustrated in FIG. 4, the image generation apparatus 200 according to the fifth embodiment includes a generation unit 201, a detection unit 202, an allocation unit 203, and a change unit 204. The detection unit 202 of the present embodiment has the same function as that of the first embodiment, and the generation unit 201 has the same function as that of the third embodiment. Hereinafter, the assignment unit 203 and the change unit 204 having different functions will be described.
In this embodiment, it is assumed that there are two sub-characters, the sub-character to which the upper displacement is assigned is “first sub-character 400”, and the sub-character to which lower displacement is assigned is “second sub-character 500”. Will be described.

割当部203は、検出された変位のうち、大きさが上位のものから第1の副キャラクタ400及び第2の副キャラクタ500に割り当てる。例えば、図25のように、主キャラクタ300の左腕301及び右腕303が動いたとする。この場合、変位703は変位706より大きいので、割当部203は、変位703を第1の副キャラクタ400に割り当て、変位706を第2の副キャラクタ500に割り当てる。
したがって、CPU 101が割当部203として機能する。
The allocation unit 203 allocates the detected displacement to the first sub character 400 and the second sub character 500 in descending order of magnitude. For example, assume that the left arm 301 and the right arm 303 of the main character 300 have moved as shown in FIG. In this case, since the displacement 703 is larger than the displacement 706, the assigning unit 203 assigns the displacement 703 to the first sub character 400 and assigns the displacement 706 to the second sub character 500.
Therefore, the CPU 101 functions as the assignment unit 203.

変更部204は、第1の副キャラクタ400に割り当てられた変位と視点とに基づいて第1の副キャラクタ400の向きを変更し、第2の副キャラクタ500に割り当てられた変位と視点とに基づいて第2の副キャラクタ500の向きを変更する。具体的には、変更部204は、第1の副キャラクタ400に割り当てられた変位703に対応する変位704の見込む角度が最大になるように、基準方向(方向1002)から向きを変更する。また、第2の副キャラクタ500に割り当てられた変位706に対応する変位708の見込む角度が最大になるように、基準方向(方向1007)から向きを変更する。すなわち、変更部204は、第1の副キャラクタ400の方向を、変位704の見込む角度が最大(角度902)となる方向1004に、第2の副キャラクタ500の方向を、変位708の見込む角度が最大(角度907)となる方向1010に変更する。
したがって、CPU 101が変更部204として機能する。
The changing unit 204 changes the orientation of the first sub character 400 based on the displacement and viewpoint assigned to the first sub character 400, and based on the displacement and viewpoint assigned to the second sub character 500. The direction of the second sub character 500 is changed. Specifically, the changing unit 204 changes the direction from the reference direction (direction 1002) so that the angle at which the displacement 704 corresponding to the displacement 703 assigned to the first sub character 400 is expected is maximized. Further, the direction is changed from the reference direction (direction 1007) so that the angle at which the displacement 708 corresponding to the displacement 706 assigned to the second sub-character 500 is expected is maximized. That is, the changing unit 204 sets the direction of the first sub-character 400 to the direction 1004 in which the angle at which the displacement 704 is expected to be maximized (angle 902), and the direction of the second sub-character 500 to the angle at which the displacement 708 is expected to be viewed. The direction is changed to the maximum 1010 (angle 907).
Therefore, the CPU 101 functions as the changing unit 204.

変更部204により、第1の副キャラクタ400の方向が方向1004に変更され、第2の副キャラクタ500の方向が方向1010変更された場合に、生成部201が生成する画像を図26に示す。主キャラクタ300を正面から見ると、左腕301の動作(変位703)は実際よりも小さく、また、右腕303の動作(変位706)はほとんど見ることができない。しかし、同じ動作を行う第1の副キャラクタ400及び第2の副キャラクタ500の向きを上記の手法により変えることにより、プレイヤは、それぞれの動作を最も見やすい方向から確認することができる。   FIG. 26 shows an image generated by the generating unit 201 when the direction of the first sub character 400 is changed to the direction 1004 and the direction of the second sub character 500 is changed to the direction 1010 by the changing unit 204. When the main character 300 is viewed from the front, the movement (displacement 703) of the left arm 301 is smaller than the actual one, and the movement (displacement 706) of the right arm 303 is hardly visible. However, by changing the orientation of the first sub character 400 and the second sub character 500 that perform the same action by the above-described method, the player can check each action from the direction in which it is most easily seen.

以下、本実施形態の画像生成装置200の各部が行う動作について説明する。画像生成装置200に電源が投入されると、CPU 101は、図27のフローチャートに示す画像処理を開始する。なお、図27のフローチャートにおいて、図11及び図21と同じステップ番号が付されているステップは、図11及び図21のフローチャートにおける処理と同様の処理を行う。   Hereinafter, operations performed by each unit of the image generation apparatus 200 according to the present embodiment will be described. When the image generating apparatus 200 is turned on, the CPU 101 starts image processing shown in the flowchart of FIG. In the flowchart of FIG. 27, steps having the same step numbers as those in FIGS. 11 and 21 perform the same processes as those in the flowcharts of FIGS.

検出部202が、主キャラクタ300の各部位の変位を検出すると(ステップS104)、割当部203は、検出部202が検出した変位のうち、最も大きい変位を第1の副キャラクタ400に割り当て、2番目に大きい変位を第2の副キャラクタ500に割り当てる(ステップS505)。例えば、主キャラクタ300が図25に示すように動き、検出部202が変位703及び変位706を検出したとすると、割当部203は、第1の副キャラクタ400に変位703を割り当て、第2の副キャラクタ500に変位706を割り当てる。   When the detection unit 202 detects the displacement of each part of the main character 300 (step S104), the allocation unit 203 allocates the largest displacement among the displacements detected by the detection unit 202 to the first sub character 400. The second largest displacement is assigned to the second sub character 500 (step S505). For example, if the main character 300 moves as shown in FIG. 25 and the detecting unit 202 detects the displacement 703 and the displacement 706, the assigning unit 203 assigns the displacement 703 to the first sub character 400, and the second sub character 400 A displacement 706 is assigned to the character 500.

変更部204は、第1の副キャラクタ400の向きを、割り当てられた変位についての見込む角度が最大となる向きに変更する(ステップS506)。例えば、第1の副キャラクタ400に変位703が割り当てられたとすると、変更部204は、第1の副キャラクタの方向1002を、変位704についての見込む角度が最大(角度902)となる方向1004に変更する。   The changing unit 204 changes the direction of the first sub-character 400 to the direction in which the expected angle for the assigned displacement is maximized (step S506). For example, if the displacement 703 is assigned to the first sub character 400, the changing unit 204 changes the direction 1002 of the first sub character to the direction 1004 in which the expected angle with respect to the displacement 704 is the maximum (angle 902). To do.

また、変更部204は、第2の副キャラクタ500の向きを、割り当てられた変位についての見込む角度が最大となる向きに変更する(ステップS507)。例えば、第2の副キャラクタ500に変位706が割り当てられたとすると、変更部204は、第2の副キャラクタの方向1007を、変位708についての見込む角度が最大(角度907)となる方向1010に変更する。そして、ステップS301に戻り、生成部201は、方向1004を向いた第1の副キャラクタ400及び方向1010を向いた第2の副キャラクタ500を含む仮想空間の画像(図26)を生成する。   In addition, the changing unit 204 changes the direction of the second sub-character 500 to a direction in which the expected angle for the assigned displacement is maximized (step S507). For example, if the displacement 706 is assigned to the second sub character 500, the changing unit 204 changes the direction 1007 of the second sub character to the direction 1010 where the expected angle with respect to the displacement 708 is the maximum (angle 907). To do. Then, returning to step S301, the generation unit 201 generates a virtual space image (FIG. 26) including the first sub character 400 facing the direction 1004 and the second sub character 500 facing the direction 1010.

本実施形態によれば、注目すべき複数の動作のそれぞれを、見やすい方向から確認することができる。   According to this embodiment, it is possible to confirm each of a plurality of notable operations from an easy-to-see direction.

本発明によれば、仮想空間に配置されるキャラクタの様子を、ユーザにとって視認しやすくするのに好適な画像生成装置、画像生成方法、ならびに、プログラムを提供することができる。   According to the present invention, it is possible to provide an image generation apparatus, an image generation method, and a program suitable for making it easier for a user to visually recognize the state of a character placed in a virtual space.

100 情報処理装置
101 CPU
102 ROM
103 RAM
104 インターフェース
105 コントローラ
106 外部メモリ
107 画像処理部
108 DVD−ROMドライブ
109 NIC
110 音声処理部
111 マット型コントローラ
111L、111R、111U、111D ボタン
200 画像生成装置
201 生成部
202 検出部
203 割当部
204 変更部
MO1〜MO4 目標オブジェクト
HO1〜HO4 判定オブジェクト
HA1 判定エリア
300 主キャラクタ
301 左腕
302 右脚
303 右腕
400 第1の副キャラクタ
500 第2の副キャラクタ
701、702、703、704、705、706、707、708 変位
711、712 端部
801 回転方向
900 仮想カメラ
901、902、903、904、905、906、907 角度
1001、1002、1003、1004、1005、1006、1007、1008、1008’、1008”、1009、1010、1011 方向
100 Information processing apparatus 101 CPU
102 ROM
103 RAM
104 Interface 105 Controller 106 External Memory 107 Image Processing Unit 108 DVD-ROM Drive 109 NIC
DESCRIPTION OF SYMBOLS 110 Audio | voice processing part 111 Mat type | mold controllers 111L, 111R, 111U, 111D Button 200 Image generation apparatus 201 Generation part 202 Detection part 203 Assignment part 204 Change part MO1-MO4 Target object HO1-HO4 Determination object HA1 Determination area 300 Main character 301 Left arm 302 Right leg 303 Right arm 400 First sub character 500 Second sub character 701, 702, 703, 704, 705, 706, 707, 708 Displacement 711, 712 End 801 Rotation direction 900 Virtual camera 901, 902, 903, 904, 905, 906, 907 Angle 1001, 1002, 1003, 1004, 1005, 1006, 1007, 1008, 1008 ', 1008 ", 1009, 1010, 1011 directions

Claims (7)

時間の経過にともなって姿勢を変化させる主キャラクタと、当該主キャラクタと同じ姿勢をとる副キャラクタと、が配置される仮想空間を、当該仮想空間内に配置された視点から見た様子を表す画像を生成する生成部と、
前記主キャラクタの複数の部位のそれぞれの、姿勢の変化にともなう変位の大きさを検出する検出部と、
前記検出された変位のうち、大きさが上位の変位を前記副キャラクタに割り当てる割当部と、
前記副キャラクタに割り当てられた変位と前記視点の位置とに基づいて、当該副キャラクタの向きを変更する変更部と、
を備えることを特徴とする画像生成装置。
An image showing a state in which a virtual space in which a main character whose posture changes with time and a sub-character having the same posture as the main character are arranged is viewed from a viewpoint arranged in the virtual space. A generating unit for generating
A detection unit for detecting a magnitude of displacement associated with a change in posture of each of the plurality of parts of the main character;
Of the detected displacements, an assigning unit that assigns a displacement having a higher magnitude to the sub character;
A changing unit that changes the direction of the sub character based on the displacement assigned to the sub character and the position of the viewpoint;
An image generation apparatus comprising:
請求項1に記載の画像生成装置であって、
前記変更部は、前記副キャラクタの向きを、当該変位を前記視点から見込む角度が大きくなるように、変更する
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 1,
The image generating apparatus, wherein the changing unit changes the orientation of the sub character so that an angle at which the displacement is viewed from the viewpoint is increased.
請求項2に記載の画像生成装置であって、
前記仮想空間内には、副キャラクタが2つ配置され、
前記変更部は、前記2つの副キャラクタの向きを、互いに直交するように、変更する
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 2,
Two sub characters are arranged in the virtual space,
The image generation apparatus, wherein the changing unit changes the directions of the two sub-characters so as to be orthogonal to each other.
請求項2に記載の画像生成装置であって、
前記仮想空間内には、副キャラクタが2つ配置され、
前記変更部は、前記2つの副キャラクタの向きを、互いに対称になるように、変更する
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 2,
Two sub characters are arranged in the virtual space,
The image generating apparatus, wherein the changing unit changes the directions of the two sub-characters so that they are symmetrical with each other.
請求項1に記載の画像生成装置であって、
前記仮想空間内には、副キャラクタが複数配置され、
前記割当部は、前記検出された変位のうち、大きさが上位の変位を、互いに重複しないように割り当てる
ことを特徴とする画像生成装置。
The image generation apparatus according to claim 1,
A plurality of sub characters are arranged in the virtual space,
The allocating unit allocates displacements having higher magnitudes among the detected displacements so as not to overlap each other.
生成部と、検出部と、割当部と、変更部と、を備える画像生成装置が実行する画像生成方法であって、
前記生成部が、時間の経過にともなって姿勢を変化させる主キャラクタと、当該主キャラクタと同じ姿勢をとる副キャラクタと、が配置される仮想空間を、当該仮想空間内に配置された視点から見た様子を表す画像を生成する生成工程と、
前記検出部が、前記主キャラクタの複数の部位のそれぞれの、姿勢の変化にともなう変位の大きさを検出する検出工程と、
前記割当部が、前記検出された変位のうち、大きさが上位の変位を前記副キャラクタに割り当てる割当工程と、
前記変更部が、前記副キャラクタに割り当てられた変位と前記視点の位置とに基づいて、当該副キャラクタの向きを変更する変更工程と、
を備えることを特徴とする画像生成方法。
An image generation method executed by an image generation apparatus including a generation unit, a detection unit, an allocation unit, and a change unit,
The generation unit looks at a virtual space in which a main character whose posture changes with time and a sub character that takes the same posture as the main character from a viewpoint arranged in the virtual space. A generation process for generating an image representing the appearance of
A detecting step in which the detecting unit detects a magnitude of displacement accompanying a change in posture of each of the plurality of parts of the main character;
An assigning step in which the assigning unit assigns a displacement having a higher magnitude to the sub-character among the detected displacements;
A changing step in which the changing unit changes the orientation of the sub character based on the displacement assigned to the sub character and the position of the viewpoint;
An image generation method comprising:
コンピュータを、
時間の経過にともなって姿勢を変化させる主キャラクタと、当該主キャラクタと同じ姿勢をとる副キャラクタと、が配置される仮想空間を、当該仮想空間内に配置された視点から見た様子を表す画像を生成する生成部、
前記主キャラクタの複数の部位のそれぞれの、姿勢の変化にともなう変位の大きさを検出する検出部、
前記検出された変位のうち、大きさが上位の変位を前記副キャラクタに割り当てる割当部、
前記副キャラクタに割り当てられた変位と前記視点の位置とに基づいて、当該副キャラクタの向きを変更する変更部、
として機能させることを特徴とするプログラム。
Computer
An image showing a state in which a virtual space in which a main character whose posture changes with time and a sub-character having the same posture as the main character are arranged is viewed from a viewpoint arranged in the virtual space. A generating unit for generating
A detection unit for detecting the magnitude of displacement associated with a change in posture of each of the plurality of parts of the main character;
Of the detected displacements, an assigning unit that assigns a displacement having a higher magnitude to the sub character,
A changing unit that changes the orientation of the sub character based on the displacement assigned to the sub character and the position of the viewpoint;
A program characterized by functioning as
JP2010167826A 2010-07-27 2010-07-27 Image generating device, image generating method and program Pending JP2012024437A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010167826A JP2012024437A (en) 2010-07-27 2010-07-27 Image generating device, image generating method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010167826A JP2012024437A (en) 2010-07-27 2010-07-27 Image generating device, image generating method and program

Publications (1)

Publication Number Publication Date
JP2012024437A true JP2012024437A (en) 2012-02-09

Family

ID=45778115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010167826A Pending JP2012024437A (en) 2010-07-27 2010-07-27 Image generating device, image generating method and program

Country Status (1)

Country Link
JP (1) JP2012024437A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000516371A (en) * 1996-08-02 2000-12-05 マイクロソフト コーポレイション Methods and systems for virtual cinematography

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000516371A (en) * 1996-08-02 2000-12-05 マイクロソフト コーポレイション Methods and systems for virtual cinematography

Similar Documents

Publication Publication Date Title
JP5436912B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP5462828B2 (en) Selection device, selection method, and program
US8319777B2 (en) Character display, character displaying method, information recording medium, and program
JP2006122241A (en) Game device and game program
JP4881981B2 (en) Virtual space display device, viewpoint setting method, and program
JP3974135B2 (en) Program, automatic arrangement method, and image generation apparatus
JP5255723B2 (en) SELECTION DEVICE, SELECTION SYSTEM, SELECTION DEVICE CONTROL METHOD, AND PROGRAM
JP2013066613A (en) Game device, display method and program
JP2011239937A (en) Game device, game processing method, and program
JP5124545B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
JP4815521B2 (en) Image processing apparatus, image processing method, and program
JP2012024437A (en) Image generating device, image generating method and program
JP5431412B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2012055637A (en) Game device, game processing method, and program
JP2012183192A (en) Game device, image generating method, and program
JP5100862B1 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP5279744B2 (en) GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
KR20100051746A (en) Audio processing device, audio processing method, information recording medium, and program
JP2012029763A (en) Game device, game system, game control method, and program
JP5431274B2 (en) Game device and program
JP5143805B2 (en) Image processing apparatus, processing method, and program
JP5535127B2 (en) Game device and program
JP2011239936A (en) Game device, game processing method, and program
JP2012120565A (en) Game device, method for controlling game device, and program
JP5406604B2 (en) GAME DEVICE, GAME CONTROL METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130827

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140107