JP2011065552A - Drawing program, recording medium, drawing method and drawing device - Google Patents

Drawing program, recording medium, drawing method and drawing device Download PDF

Info

Publication number
JP2011065552A
JP2011065552A JP2009217447A JP2009217447A JP2011065552A JP 2011065552 A JP2011065552 A JP 2011065552A JP 2009217447 A JP2009217447 A JP 2009217447A JP 2009217447 A JP2009217447 A JP 2009217447A JP 2011065552 A JP2011065552 A JP 2011065552A
Authority
JP
Japan
Prior art keywords
image
viewpoint
dimensional object
dimensional
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009217447A
Other languages
Japanese (ja)
Other versions
JP4913189B2 (en
Inventor
Takamitsu Iijima
貴光 飯島
Futoshi Yamaguchi
太 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2009217447A priority Critical patent/JP4913189B2/en
Publication of JP2011065552A publication Critical patent/JP2011065552A/en
Application granted granted Critical
Publication of JP4913189B2 publication Critical patent/JP4913189B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a drawing program, a recording medium, a drawing method, and a drawing device for facilitating recognition of characteristics of a three-dimensional object. <P>SOLUTION: The drawing program is executed by the drawing device to draw three-dimensional graphics based on the three-dimensional object disposed within a virtual three-dimensional space. The program causes the drawing device to perform a view point setting step S3 of setting a first view point and a second view point at different positions so that the three-dimensional object is contained within respective view screens; a drawing step S4 of drawing a first image in which the three-dimensional object is rendered based on the first view point and a second image in which the three-dimensional object is rendered based on the second view point; and an image generation step S5 of generating an output image by setting the first image and second image which are mutually synchronized within one frame. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、描画プログラム、記録媒体、描画方法及び描画装置に関する。   The present invention relates to a drawing program, a recording medium, a drawing method, and a drawing apparatus.

従来、仮想の3次元空間内に配置された複数のポリゴンからなる3次元オブジェクトをレンダリングして3次元グラフィックスを描画する手法が知られている。このような3次元グラフィックスは、例えば、CAD(Computer Aided Design)において利用されているほか、ゲームの分野においても利用されている。そして、このような3次元グラフィックスを表示可能なゲーム機が知られている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a technique for rendering a three-dimensional graphic by rendering a three-dimensional object composed of a plurality of polygons arranged in a virtual three-dimensional space is known. Such 3D graphics are used, for example, in CAD (Computer Aided Design) as well as in the field of games. A game machine capable of displaying such three-dimensional graphics is known (see, for example, Patent Document 1).

この特許文献1に記載のゲーム機では、仮想の3次元空間(仮想空間)内に、コントローラーにより操作可能な主人公のゲームキャラクター、及び、建物等のオブジェクトが配置され、設定された視点に基づいて、これらを描画した画像が生成される。そして、当該生成された画像は表示装置(テレビジョンモニター装置)により表示する。   In the game machine described in Patent Document 1, a hero game character operable by a controller and an object such as a building are arranged in a virtual three-dimensional space (virtual space), and based on a set viewpoint. Then, an image in which these are drawn is generated. The generated image is displayed by a display device (television monitor device).

米国特許第7094153号明細書US Pat. No. 7,094,153

しかしながら、前述の特許文献1に記載のゲーム装置では、移動する1つの視点(カメラ視点)に基づいて、キャラクターを含む仮想空間内のオブジェクトを描画しているので、例えば、キャラクターの特定の部位が変化した場合でも、描画される画像中に当該特定の部位が必ずしも含まれず、当該変化を観察しづらい。このため、キャラクターの構成、形状及び状態等の特徴を把握しづらいという問題がある。   However, since the game device described in Patent Document 1 draws an object in a virtual space including a character based on one moving viewpoint (camera viewpoint), for example, a specific part of the character is Even if it changes, the specific part is not necessarily included in the rendered image, and it is difficult to observe the change. For this reason, there is a problem that it is difficult to grasp the characteristics such as the character configuration, shape, and state.

本発明の目的は、3次元オブジェクトの特徴を把握しやすくすることができる描画プログラム、当該描画プログラムを記録した記録媒体、描画方法及び描画装置を提供することである。   The objective of this invention is providing the drawing program which can make it easy to grasp | ascertain the characteristic of a three-dimensional object, the recording medium which recorded the said drawing program, the drawing method, and a drawing apparatus.

前記した目的を達成するために、本発明の描画プログラムは、描画装置により実行され、仮想の3次元空間に配置された3次元オブジェクトに基づく3次元グラフィックスを描画する描画プログラムであって、それぞれのビュースクリーン内に前記3次元オブジェクトが含まれる第1視点及び第2視点を、それぞれ異なる位置に設定する視点設定ステップと、前記第1視点に基づいて前記3次元オブジェクトをレンダリングした第1画像、及び、前記第2視点に基づいて前記3次元オブジェクトをレンダリングした第2画像をそれぞれ描画する描画ステップと、互いに同期した前記第1画像及び前記第2画像を1フレーム内に設定した出力画像を生成する画像生成ステップと、を実行させることを特徴とする。   In order to achieve the above object, a drawing program of the present invention is a drawing program that is executed by a drawing device and draws three-dimensional graphics based on a three-dimensional object arranged in a virtual three-dimensional space, A viewpoint setting step for setting the first viewpoint and the second viewpoint including the three-dimensional object in different view screens at different positions, a first image obtained by rendering the three-dimensional object based on the first viewpoint, And a drawing step for drawing a second image obtained by rendering the three-dimensional object based on the second viewpoint, and an output image in which the first image and the second image synchronized with each other are set in one frame. And an image generation step to be executed.

本発明によれば、当該描画プログラムが描画装置により実行されることにより、それぞれ異なる位置に設定された第1視点及び第2視点に基づいて3次元オブジェクトをレンダリングした第1画像及び第2画像がそれぞれ描画され、当該第1画像及び第2画像が1フレーム内に設定された出力画像が生成される。これによれば、複数の視点から1つの3次元オブジェクトを同時に観察できる。従って、3次元オブジェクトの特徴を把握しやすくすることができる。   According to the present invention, when the drawing program is executed by the drawing apparatus, the first image and the second image obtained by rendering the three-dimensional object based on the first viewpoint and the second viewpoint respectively set at different positions are obtained. Each is drawn, and an output image in which the first image and the second image are set in one frame is generated. According to this, one three-dimensional object can be observed simultaneously from a plurality of viewpoints. Therefore, it is possible to easily grasp the characteristics of the three-dimensional object.

また、これら第1画像及び第2画像は、仮想の3次元空間に配置された同じ3次元オブジェクトをレンダリングした画像である。これによれば、個別に3次元空間を定義し、当該各3次元空間にモデリングされたそれぞれ別の3次元オブジェクトから第1画像及び第2画像を描画する場合に比べ、第1画像及び第2画像の同期を取り易くすることができるほか、処理の簡略化、及び、描画に利用されるメモリーの容量を低減することができる。
更に、これら第1画像及び第2画像が同期しているので、3次元オブジェクト全体を一方の画像により把握しつつ、当該3次元オブジェクトの特定の部位を他方の画像により把握することにより、3次元オブジェクトが動的に変化した場合に、当該3次元オブジェクトの特徴を一層把握しやすくすることができる。
The first image and the second image are images obtained by rendering the same three-dimensional object arranged in a virtual three-dimensional space. According to this, compared to the case where the three-dimensional space is individually defined and the first image and the second image are drawn from different three-dimensional objects modeled in the three-dimensional space, the first image and the second image are drawn. In addition to facilitating image synchronization, the processing can be simplified and the memory capacity used for drawing can be reduced.
Further, since the first image and the second image are synchronized, the three-dimensional object is grasped by one image while grasping the specific part of the three-dimensional object by the other image. When the object changes dynamically, it is possible to make it easier to grasp the characteristics of the three-dimensional object.

本発明では、前記視点設定ステップでは、前記第1視点を、当該第1視点のビュースクリーン内に前記3次元オブジェクトの略全体が含まれるように設定させ、前記第2視点を、当該第2視点のビュースクリーン内に前記3次元オブジェクトの所定の部位が含まれるように、当該3次元オブジェクトの動きに応じて位置が変動する前記所定の部位に追随して設定させることが好ましい。   In the present invention, in the viewpoint setting step, the first viewpoint is set so that substantially the entire three-dimensional object is included in the view screen of the first viewpoint, and the second viewpoint is set to the second viewpoint. It is preferable that the predetermined part whose position varies according to the movement of the three-dimensional object is set to follow the predetermined part of the three-dimensional object so that the predetermined part of the three-dimensional object is included in the view screen.

本発明によれば、第1視点に基づいて描画される第1画像には、3次元オブジェクトの略全体が含まれるので、仮想の3次元空間における3次元オブジェクトの位置、向き及び姿勢等を把握しやすくすることができる。
また、第2視点は、3次元オブジェクトの動きに応じて位置(ワールド座標系での位置)が移動する所定の部位に追随して設定される。これによれば、第2視点に基づいて描画される第2画像には、当該所定の部位が常に含まれるので、当該所定の部位を常に観察することができ、当該所定の部位に現れる変化を把握しやすくすることができる。
例えば、3次元オブジェクトが人等を模したキャラクターであり、当該キャラクターの動きに応じて表情が変化したり、筋肉の動きが再現されたりする場合に、顔や筋肉の部位を前述の所定の部位として第2視点を設定することにより、第2画像を観察することで、当該表情及び筋肉の変化を把握することができる。
従って、3次元オブジェクトの特徴をより一層把握しやすくすることができる。
According to the present invention, since the first image drawn based on the first viewpoint includes almost the entire three-dimensional object, the position, orientation, orientation, and the like of the three-dimensional object in the virtual three-dimensional space are grasped. Can be easier.
Further, the second viewpoint is set to follow a predetermined part whose position (position in the world coordinate system) moves in accordance with the movement of the three-dimensional object. According to this, since the predetermined part is always included in the second image drawn based on the second viewpoint, the predetermined part can always be observed, and changes appearing in the predetermined part can be observed. It can make it easier to grasp.
For example, when a three-dimensional object is a character imitating a person or the like, and the facial expression changes according to the movement of the character or the movement of muscle is reproduced, the face or muscle part is changed to the predetermined part described above. By observing the second image by setting the second viewpoint, it is possible to grasp the facial expression and muscle changes.
Therefore, it is possible to make it easier to grasp the characteristics of the three-dimensional object.

本発明では、前記視点設定ステップでは、前記第1視点を、前記3次元オブジェクトの一方の側に設定させ、前記第2視点を、前記3次元オブジェクトの前記一方の側とは反対側に設定させることが好ましい。
ここで、第1視点が3次元オブジェクトにおける一方の側(例えば、背面側)に設定された場合、第1画像には、当該3次元オブジェクトにおける一方の側とは反対側(例えば、正面側)は必ずしも含まれない。このため、第1画像のみからでは、3次元オブジェクトの特徴をより正確には把握できない。
これに対し、3次元オブジェクトにおける当該反対側に第2視点を設定することにより、出力画像中に含まれる第1画像及び第2画像により、それぞれ反対側から3次元オブジェクトを観察することができる。
従って、3次元オブジェクトの特徴をより正確に把握しやすくすることができる。
In the present invention, in the viewpoint setting step, the first viewpoint is set on one side of the three-dimensional object, and the second viewpoint is set on the side opposite to the one side of the three-dimensional object. It is preferable.
Here, when the first viewpoint is set on one side (for example, the back side) of the three-dimensional object, the first image has a side opposite to the one side (for example, the front side) of the three-dimensional object. Is not necessarily included. For this reason, the feature of the three-dimensional object cannot be grasped more accurately only from the first image.
On the other hand, by setting the second viewpoint on the opposite side of the three-dimensional object, the three-dimensional object can be observed from the opposite side by the first image and the second image included in the output image.
Therefore, it is possible to easily grasp the characteristics of the three-dimensional object more accurately.

本発明では、前記描画ステップでは、前記第2視点のビュースクリーン内の前記3次元オブジェクトをレンダリングした画像を所定の背景画像に重ねた前記第2画像を描画させることが好ましい。
ここで、ビュースクリーン内のオブジェクトの数は多ければ多いほど、レンダリングされるオブジェクトの数が増えることとなり、描画装置にかかる負担が大きくなる。
これに対し、本発明では、第2視点のビュースクリーン内の3次元オブジェクトの部位のみをレンダリングした画像と、所定の背景画像とを重ねることで、第2画像を描画する。これによれば、レンダリングされるオブジェクトの数を少なくすることができる。従って、描画装置の負担を軽減することができる。
また、第2画像には、背景画像を除いて、第2視点のビュースクリーン内の3次元オブジェクトの部位のみが含まれることとなるので、当該3次元オブジェクトの特徴をより一層把握しやすくすることができる。
In the present invention, it is preferable that in the drawing step, the second image in which an image obtained by rendering the three-dimensional object in the view screen at the second viewpoint is superimposed on a predetermined background image is drawn.
Here, as the number of objects in the view screen increases, the number of objects to be rendered increases and the burden on the drawing apparatus increases.
On the other hand, in the present invention, the second image is rendered by superimposing an image obtained by rendering only a part of the three-dimensional object in the view screen of the second viewpoint and a predetermined background image. According to this, the number of objects to be rendered can be reduced. Therefore, the burden on the drawing apparatus can be reduced.
In addition, since the second image includes only the part of the three-dimensional object in the view screen of the second viewpoint, excluding the background image, it is easier to grasp the characteristics of the three-dimensional object. Can do.

本発明では、前記描画ステップの前に、前記3次元空間に対して有効な空間用光源と、前記第2視点のビュースクリーン内の前記3次元オブジェクトの部位に対して有効なオブジェクト用光源とを設定する光源設定ステップを実行させ、前記描画ステップでは、前記第1視点及び前記空間用光源に基づいてシェーディングされた前記第1画像を描画し、前記第2視点及び前記オブジェクト用光源に基づいてシェーディングされた前記第2画像を描画させることが好ましい。   In the present invention, before the drawing step, a spatial light source effective for the three-dimensional space and an object light source effective for the part of the three-dimensional object in the view screen of the second viewpoint are provided. A light source setting step for setting is executed, and in the drawing step, the first image shaded based on the first viewpoint and the spatial light source is drawn, and shading is performed based on the second viewpoint and the object light source. It is preferable to draw the second image.

本発明によれば、3次元オブジェクトが配置される3次元空間に対して有効な空間用光源が設定され、当該空間用光源及び前述の第1視点に基づいて、当該3次元オブジェクトがシェーディングされて第1画像が描画される。これによれば、第1画像から、3次元空間での3次元オブジェクトの位置、向き及び姿勢等を把握しやすくすることができる。また、3次元オブジェクトに対して有効なオブジェクト用光源が設定され、当該オブジェクト用光源及び前述の第2視点に基づいて、当該3次元オブジェクトがシェーディングされて第2画像が描画される。これによれば、3次元オブジェクトが個別の光源に基づいてシェーディングされるので、第2視点側の3次元オブジェクトの形状及び変化を把握しやすくすることができる。従って、3次元オブジェクトの特徴を一層把握しやすくすることができる。   According to the present invention, an effective spatial light source is set for a three-dimensional space in which a three-dimensional object is arranged, and the three-dimensional object is shaded based on the spatial light source and the first viewpoint. A first image is drawn. According to this, it is possible to easily grasp the position, orientation, posture, and the like of the three-dimensional object in the three-dimensional space from the first image. An effective object light source is set for the three-dimensional object, and the second image is drawn by shading the three-dimensional object based on the object light source and the second viewpoint. According to this, since the three-dimensional object is shaded based on the individual light sources, it is possible to easily grasp the shape and change of the three-dimensional object on the second viewpoint side. Therefore, it is possible to make it easier to grasp the characteristics of the three-dimensional object.

本発明では、前記描画ステップでは、前記第1画像の明度に応じて、前記第2画像の明度を設定させることが好ましい。
本発明によれば、3次元オブジェクトが空間用光源の影に移動するなどして、第1画像の明度が下がった場合に、第2視点及びオブジェクト用光源に基づいて3次元オブジェクトがシェーディングされた第2画像の明度が下がる。これによれば、第1画像と第2画像とがそれぞれ同期していることを、観察者に把握しやすくすることができる。従って、3次元空間における3次元オブジェクトの状態を把握しやすくすることができる。
In the present invention, it is preferable that in the drawing step, the brightness of the second image is set according to the brightness of the first image.
According to the present invention, the 3D object is shaded based on the second viewpoint and the object light source when the brightness of the first image is lowered, for example, when the 3D object moves to the shadow of the spatial light source. The brightness of the second image decreases. According to this, it is possible to make it easier for the observer to know that the first image and the second image are synchronized with each other. Therefore, it is possible to easily grasp the state of the three-dimensional object in the three-dimensional space.

本発明では、前記3次元オブジェクトは、目を有する顔を備えたキャラクターをモデリングしたオブジェクトであり、前記視点設定ステップでは、前記顔をビュースクリーンの中心とし、かつ、当該顔に対向する位置に前記第2視点を設定させ、前記描画ステップでは、前記目に反射領域を設定させることが好ましい。
本発明によれば、3次元オブジェクトの顔に応じて第2視点が設定されるので、3次元オブジェクトが移動したり、姿勢を変えたりした場合でも、当該顔に追随する第2視点に基づく第2画像により、キャラクターの顔を観察し続けることができる。従って、当該顔の変化、すなわち、表情を正確に把握しやすくすることができる。
また、目に反射領域が設定されるので、モデリングされたキャラクターの生命感及び躍動感を表現することができる。なお、設定される反射領域としては、鏡面反射領域とすることができ、この場合には、光沢度合いを大きくすることが好ましい。これにより、ハイライト部が小さくなるので、当該生命感及び躍動感を強めることができる。
In the present invention, the three-dimensional object is an object modeling a character having a face having eyes, and in the viewpoint setting step, the face is set at a position opposite to the face with the face being the center of the view screen. It is preferable that a second viewpoint is set and a reflection region is set in the eye in the drawing step.
According to the present invention, since the second viewpoint is set according to the face of the three-dimensional object, the second viewpoint based on the second viewpoint that follows the face even when the three-dimensional object moves or changes its posture. Two images can keep observing the character's face. Therefore, it is possible to easily grasp the change of the face, that is, the facial expression.
In addition, since a reflection area is set in the eye, it is possible to express the life and dynamism of the modeled character. Note that the reflection area to be set can be a specular reflection area. In this case, it is preferable to increase the degree of gloss. Thereby, since a highlight part becomes small, the said life feeling and a dynamic feeling can be strengthened.

本発明では、前記画像生成ステップでは、前記1フレーム内に第1領域と、前記第1領域内に当該第1領域より小さい第2領域とを設定し、前記第1領域及び前記第2領域に、それぞれ前記第1画像及び前記第2画像を設定して、前記出力画像を生成させることが好ましい。
本発明によれば、第1画像をメイン画像とし、第2画像をサブ画像とすることができ、注視する視点に応じて第1画像及び第2画像の大きさを調整した出力画像を生成することができる。
In the present invention, in the image generation step, a first area in the one frame and a second area smaller than the first area are set in the first area, and the first area and the second area are set in the first area. It is preferable that the first image and the second image are respectively set to generate the output image.
According to the present invention, the first image can be a main image and the second image can be a sub-image, and an output image in which the sizes of the first image and the second image are adjusted according to the gaze point of view is generated. be able to.

また、本発明の記録媒体は、前述の描画プログラムをコンピューター読取可能に記録したことを特徴とする。
本発明によれば、記録媒体にコンピューター読取可能に記録された描画プログラムをコンピューターが読み取って実行することで、前述の描画プログラムと同様の効果を奏することが可能となる。また、記録媒体として、DAT(Digital Audio Tape)等の磁気テープ、FD(Flexible Disc)等の磁気ディスク、CD(Compact Disc)及びDVD(Digital Versatile Disc)等の光ディスク、光磁気ディスク、HDD(Hard Disc Drive)、並びに、半導体メモリー等を用いることができ、これらを利用して、前述の描画プログラムをコンピューターにてインストール及び実行することができるほか、当該描画プログラムの配布を容易に行うことができる。
The recording medium of the present invention is characterized in that the above-described drawing program is recorded so as to be readable by a computer.
According to the present invention, the computer can read and execute a drawing program recorded on a recording medium in a computer-readable manner, thereby achieving the same effects as the above-described drawing program. As recording media, magnetic tapes such as DAT (Digital Audio Tape), magnetic disks such as FD (Flexible Disc), optical disks such as CD (Compact Disc) and DVD (Digital Versatile Disc), magneto-optical disks, HDDs (Hard) Disc Drive) and semiconductor memory can be used, and by using these, the above-mentioned drawing program can be installed and executed by a computer, and the drawing program can be easily distributed. .

また、本発明の描画方法は、仮想の3次元空間内に配置された3次元オブジェクトに基づく3次元グラフィックスを描画する描画方法であって、それぞれのビュースクリーン内に前記3次元オブジェクトが含まれる第1視点及び第2視点を、それぞれ異なる位置に設定する視点設定ステップと、前記第1視点に基づいて前記3次元オブジェクトをレンダリングした第1画像、及び、前記第2視点に基づいて前記3次元オブジェクトをレンダリングした第2画像をそれぞれ描画する描画ステップと、互いに同期した前記第1画像及び前記第2画像を1フレーム内に設定した出力画像を生成する画像生成ステップと、を有することを特徴とする。
本発明によれば、前述の描画方法と同様の効果を奏することができる。
The drawing method of the present invention is a drawing method for drawing three-dimensional graphics based on a three-dimensional object arranged in a virtual three-dimensional space, and the three-dimensional object is included in each view screen. A viewpoint setting step for setting the first viewpoint and the second viewpoint at different positions, a first image obtained by rendering the three-dimensional object based on the first viewpoint, and the three-dimensional based on the second viewpoint. A drawing step for drawing each second image obtained by rendering an object; and an image generation step for generating an output image in which the first image and the second image synchronized with each other are set in one frame. To do.
According to the present invention, it is possible to achieve the same effect as the above drawing method.

また、本発明の描画装置は、仮想の3次元空間内に配置された3次元オブジェクトに基づく3次元グラフィックスを描画する描画装置であって、それぞれのビュースクリーン内に前記3次元オブジェクトが含まれる第1視点及び第2視点を、それぞれ異なる位置に設定する視点設定部と、前記第1視点に基づいて前記3次元オブジェクトをレンダリングした第1画像、及び、前記第2視点に基づいて前記3次元オブジェクトをレンダリングした第2画像をそれぞれ描画する描画部と、互いに同期した前記第1画像及び前記第2画像を1フレーム内に設定した出力画像を生成する画像生成部と、を有することを特徴とする。
本発明によれば、前述の描画方法と同様の効果を奏することができる。そして、このような描画装置は、前述の記録媒体に記録された描画プログラムをインストール及び実行するコンピューターにより構成することができる。
The drawing apparatus of the present invention is a drawing apparatus that draws three-dimensional graphics based on a three-dimensional object arranged in a virtual three-dimensional space, and each view screen includes the three-dimensional object. A viewpoint setting unit for setting the first viewpoint and the second viewpoint at different positions, a first image obtained by rendering the three-dimensional object based on the first viewpoint, and the three-dimensional based on the second viewpoint A drawing unit that draws each second image obtained by rendering an object; and an image generation unit that generates an output image in which the first image and the second image synchronized with each other are set in one frame. To do.
According to the present invention, it is possible to achieve the same effect as the above drawing method. Such a drawing apparatus can be configured by a computer that installs and executes the drawing program recorded in the recording medium.

本発明によれば、仮想の3次元空間(1つのワールド座標系)に配置された同じ3次元オブジェクトを複数の視点から同時に観察できるので、当該3次元オブジェクトの特徴を把握しやすくすることができる。   According to the present invention, since the same three-dimensional object placed in a virtual three-dimensional space (one world coordinate system) can be observed simultaneously from a plurality of viewpoints, the characteristics of the three-dimensional object can be easily understood. .

本発明の一実施形態に係る情報処理装置の構成を示すブロック図。The block diagram which shows the structure of the information processing apparatus which concerns on one Embodiment of this invention. 前記実施形態における出力画像の一例を示す図。The figure which shows an example of the output image in the said embodiment. 前記実施形態における出力画像の一例を示す図。The figure which shows an example of the output image in the said embodiment. 前記実施形態における出力画像の一例を示す図。The figure which shows an example of the output image in the said embodiment. 前記実施形態における出力画像の一例を示す図。The figure which shows an example of the output image in the said embodiment. 前記実施形態における出力画像の一例を示す図。The figure which shows an example of the output image in the said embodiment. 前記実施形態におけるメインボードの機能的構成を示すブロック図。The block diagram which shows the functional structure of the main board in the said embodiment. 前記実施形態におけるキャラクター用光源、第1視点及び第2視点を示す側面図。The side view which shows the light source for characters in the said embodiment, a 1st viewpoint, and a 2nd viewpoint. 前記実施形態における第1視点及び第2視点を示す平面図。The top view which shows the 1st viewpoint and 2nd viewpoint in the said embodiment. 前記実施形態におけるキャラクター用光源、第1視点及び第2視点を示す側面図。The side view which shows the light source for characters in the said embodiment, a 1st viewpoint, and a 2nd viewpoint. 前記実施形態における第2画像を示す図。The figure which shows the 2nd image in the said embodiment. 前記実施形態における第2画像の一部を拡大して示す図。The figure which expands and shows a part of 2nd image in the said embodiment. 前記実施形態における第2画像を示す図。The figure which shows the 2nd image in the said embodiment. 前記実施形態における描画処理を示すフローチャート。The flowchart which shows the drawing process in the said embodiment.

〔情報処理装置の構成〕
以下、本発明の一実施形態について図面に基づいて説明する。
図1は、本実施形態に係る情報処理装置1の構成を示すブロック図である。
本実施形態の情報処理装置1は、ネットワークを介して取得された情報、並びに、半導体メモリーカード、光ディスク及びHDD(Hard Disk Drive)等に記録された情報を処理する電子機器である。具体的に、情報処理装置1は、当該情報に含まれる画像及び音声を出力するほか、当該情報に含まれるプログラム(例えば、ゲームプログラム)を実行する。この情報処理装置1において、ゲームプログラムを実行する際には、詳しくは後述するが、ゲームの進行状況に応じた画像を生成し、接続された表示装置(図示省略)に当該画像を出力する。すなわち、情報処理装置1は、本発明の描画装置に相当する。
このような情報処理装置1は、図1に示すように、操作装置2、ネットワークインターフェース(以下「ネットワークIF」と略す場合がある)3、カードリーダー4、USBモジュール5、ディスク装置6及びHDD7と、これらを制御するメインボード8とを備える。
[Configuration of information processing device]
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram showing the configuration of the information processing apparatus 1 according to the present embodiment.
The information processing apparatus 1 according to the present embodiment is an electronic device that processes information acquired via a network and information recorded on a semiconductor memory card, an optical disk, an HDD (Hard Disk Drive), and the like. Specifically, the information processing device 1 outputs an image and sound included in the information, and executes a program (for example, a game program) included in the information. In the information processing apparatus 1, when a game program is executed, an image according to the progress of the game is generated and output to a connected display device (not shown), as will be described in detail later. That is, the information processing apparatus 1 corresponds to the drawing apparatus of the present invention.
As shown in FIG. 1, the information processing apparatus 1 includes an operating device 2, a network interface (hereinafter sometimes abbreviated as “network IF”) 3, a card reader 4, a USB module 5, a disk device 6, and an HDD 7. And a main board 8 for controlling them.

操作装置2は、情報処理装置1を操作するための複数のキーを有する。そして、操作装置2は、入力されたキーに応じた操作信号を、メインボード8に出力する。このような操作装置2としては、コントローラーの他、キーボード及びポインティングデバイスを挙げることができる。
ネットワークIF3は、インターネット等のネットワーク上の他の機器(例えば、サーバー)と通信接続する。そして、ネットワークIF3は、メインボード8から入力される情報を、当該他の機器に送信するほか、当該他の機器から受信される情報を、メインボード8に出力する。このネットワークIF3は、図示を省略するが、LAN(Local Area Network)ケーブルが接続可能なソケットの他、IEEE802.11規格及びIEEE802.15規格等に準拠した無線通信手段を備え、当該無線通信手段を介して、他の機器と無線で通信することも可能である。
The operating device 2 has a plurality of keys for operating the information processing device 1. Then, the controller device 2 outputs an operation signal corresponding to the input key to the main board 8. Examples of the operation device 2 include a keyboard and a pointing device in addition to a controller.
The network IF 3 is connected for communication with other devices (for example, a server) on a network such as the Internet. The network IF 3 transmits information input from the main board 8 to the other device and outputs information received from the other device to the main board 8. Although not shown, the network IF 3 includes a wireless communication unit compliant with the IEEE 802.11 standard and the IEEE 802.15 standard in addition to a socket to which a LAN (Local Area Network) cable can be connected. It is also possible to communicate with other devices wirelessly.

カードリーダー4は、各種半導体メモリーカードを接続可能に構成され、当該メモリーカードに対して情報の読取及び記録を行う。
USBモジュール5は、USB(Universal Serial Bus)規格に準拠した機器に接続されるUSB−A端子を接続可能なソケットを有する。そして、USBモジュール5は、当該ソケットを介して他の機器と通信接続する。
The card reader 4 is configured to be connectable with various semiconductor memory cards, and reads and records information on the memory card.
The USB module 5 has a socket to which a USB-A terminal connected to a device compliant with the USB (Universal Serial Bus) standard can be connected. The USB module 5 is connected for communication with other devices via the socket.

ディスク装置6は、メインボード8から入力される情報を光ディスクに記録するほか、光ディスクから読み出した情報をメインボード8に出力する。
HDD7は、各種情報を読出及び記録可能に構成されており、当該HDD7は、ネットワークIF3、カードリーダー4、USBモジュール5及びディスク装置6からメインボード8により取得された情報を記録する。このHDD7は、例えば、シリアルATA(SATA:Serial Advanced Technology Attachment)規格に準拠した接続形式で、メインボード8に接続される。
The disk device 6 records information input from the main board 8 on the optical disk and outputs information read from the optical disk to the main board 8.
The HDD 7 is configured to be able to read and record various types of information. The HDD 7 records information acquired from the network IF 3, the card reader 4, the USB module 5, and the disk device 6 by the main board 8. The HDD 7 is connected to the main board 8 in a connection format conforming to, for example, serial ATA (SATA: Serial Advanced Technology Attachment) standard.

〔メインボードの構成〕
メインボード8は、各種回路が実装された回路基板として構成されている。具体的に、メインボード8には、チップセット81、プログラムメモリー82、ワークメモリー83、CPU(Central Processing Unit)84、ビデオメモリー85及びGPU(Graphics Processing Unit)86等が実装されている。
チップセット81は、メインボード8に対する情報の入出力を制御する入出力制御回路である。このチップセット81は、いわゆるノースブリッジ及びサウスブリッジの機能を有し、後述するCPU84及びGPU86と、各メモリー82,83,85と、メインボード8外の機器(例えば、前述のHDD7等)との間で送受信される情報を仲介する。
[Configuration of main board]
The main board 8 is configured as a circuit board on which various circuits are mounted. Specifically, a chip set 81, a program memory 82, a work memory 83, a CPU (Central Processing Unit) 84, a video memory 85, a GPU (Graphics Processing Unit) 86, and the like are mounted on the main board 8.
The chip set 81 is an input / output control circuit that controls input / output of information to / from the main board 8. The chip set 81 has a so-called north bridge and south bridge function, and includes a CPU 84 and a GPU 86, which will be described later, memories 82, 83, and 85, and devices outside the main board 8 (for example, the HDD 7 described above). Mediates information sent and received between them.

プログラムメモリー82は、情報処理装置1の制御及び処理に必要な各種プログラム及びデータが記憶されたメモリーである。これらプログラム及びデータは、CPU84により読み出され、ワークメモリー83に展開される。
ワークメモリー83は、CPU84の作業領域として使用されるメモリーである。このワークメモリー83には、前述のプログラム及びデータの一部が展開されるほか、CPU84による演算処理結果等が記憶される。
The program memory 82 is a memory in which various programs and data necessary for control and processing of the information processing apparatus 1 are stored. These programs and data are read by the CPU 84 and developed in the work memory 83.
The work memory 83 is a memory used as a work area for the CPU 84. In the work memory 83, a part of the above-described program and data is expanded, and the calculation processing result by the CPU 84 is stored.

CPU84は、操作装置2から入力される操作信号に応じて、プログラムメモリー82に記憶されたプログラムに沿って動作し、情報処理装置1全体を制御する制御回路である。また、CPU84は、前述のネットワークIF3、カードリーダー4及びUSBモジュール5を介して取得されたゲームプログラム、或いは、ディスク装置6及びHDD7から取得されたゲームプログラムを実行し、当該ゲームプログラムに沿ったゲームの画像を描画させるためのコマンドを、GPU86に出力する。   The CPU 84 is a control circuit that operates in accordance with a program stored in the program memory 82 in accordance with an operation signal input from the operation device 2 and controls the entire information processing device 1. The CPU 84 executes a game program acquired via the network IF 3, the card reader 4, and the USB module 5, or a game program acquired from the disk device 6 and the HDD 7, and a game according to the game program. A command for drawing the image is output to the GPU 86.

ビデオメモリー85は、CPU84及びGPU86による描画処理が行われるメモリーである。このビデオメモリー85は、詳しい図示を省略するが、表示(出力)される画像が描画されるフレームバッファー領域を有する。
GPU86は、前述のCPU74から入力されるコマンドに応じて動作する。具体的に、GPU86は、当該コマンドに応じた3次元グラフィックスをビデオメモリー85上に描画し、描画された3次元グラフィックスを、図示しない表示装置に出力する。
The video memory 85 is a memory in which drawing processing by the CPU 84 and the GPU 86 is performed. Although not shown in detail, the video memory 85 has a frame buffer area in which an image to be displayed (output) is drawn.
The GPU 86 operates in accordance with the command input from the CPU 74 described above. Specifically, the GPU 86 draws 3D graphics corresponding to the command on the video memory 85, and outputs the drawn 3D graphics to a display device (not shown).

〔出力画像の構成〕
ここで、メインボード8により描画されるゲーム中の画像(出力画像G)について説明する。なお、以下に説明するゲームは、CPU84によって操作される敵であるノンプレイヤーキャラクターNPChを避けながら、プレイヤーの操作に応じて、椅子及び当該椅子に座った人間を模したプレイヤーキャラクターPChが仮想の3次元空間(以下、「仮想空間」と略す場合がある)を自由に移動して、所定の目的地に制限時間内に到達することを目的とするゲームである。そして、当該ゲームでは、プレイヤーキャラクターPChが、敵であるノンプレイヤーキャラクターNPChの攻撃によりダメージを受けた場合には、当該ダメージを受けたプレイヤーキャラクターPChの様子を示すムービーがスローモーションで表示される。
[Configuration of output image]
Here, an image during game (output image G) drawn by the main board 8 will be described. In the game described below, a virtual player character PCh that imitates a chair and a person sitting on the chair in accordance with the player's operation while avoiding the non-player character NPCh that is an enemy operated by the CPU 84 is a virtual 3 It is a game that aims to reach a predetermined destination within a time limit by freely moving in a dimensional space (hereinafter sometimes abbreviated as “virtual space”). In the game, when the player character PCh is damaged by the attack of the enemy non-player character NPCh, a movie showing the state of the damaged player character PCh is displayed in slow motion.

図2〜図6は、描画された3次元グラフィックスである出力画像G(G1〜G5)の一例をそれぞれ示す図である。これらのうち、図2〜図4は、プレイ中の出力画像G1〜G3を示す図であり、図5及び図6は、ムービー表示中の出力画像G4,G5を示す図である。なお、「プレイ中」とは、プレイヤーによりプレイヤーキャラクターPChを操作可能な状態をいい、「ムービー表示中」とは、前述のムービーが表示される状態をいう。
3次元グラフィックスである出力画像G(G1〜G5)は、図2〜図6に示すように、複数の視点及び複数の光源に基づいて、仮想空間に配置されたプレイヤーキャラクターPChを含む複数の3次元オブジェクトをレンダリングした複数の画像が合成されたものである。
2 to 6 are diagrams illustrating examples of output images G (G1 to G5) that are rendered three-dimensional graphics. Among these, FIGS. 2 to 4 are diagrams showing output images G1 to G3 during play, and FIGS. 5 and 6 are diagrams showing output images G4 and G5 during movie display. “Playing” means a state in which the player character PCh can be operated by the player, and “movie being displayed” means a state in which the above-mentioned movie is displayed.
As shown in FIGS. 2 to 6, the output images G (G1 to G5) that are three-dimensional graphics include a plurality of player characters PCh arranged in a virtual space based on a plurality of viewpoints and a plurality of light sources. A plurality of images obtained by rendering a three-dimensional object are combined.

具体的に、出力画像G1〜G5は、1フレーム分の寸法に応じて設定された第1領域A1を有する。この第1領域A1には、プレイヤーキャラクターPChの背面側に設定された第1視点(メイン視点)に基づいて、当該第1視点のビュースクリーン内のプレイヤーキャラクターPCh及び他のオブジェクトが透視変換された第1画像P1(メイン画像)が設定される。また、当該第1領域A1には、第2領域A2、ゲージ表示領域A3、速度表示領域A4、残余時間表示領域A5、スコア表示領域A6、メッセージ表示領域A7及び目的地指示領域A8が設定される。   Specifically, the output images G1 to G5 have a first area A1 set according to the size of one frame. In the first area A1, the player character PCh and other objects in the view screen of the first viewpoint are perspective-transformed based on the first viewpoint (main viewpoint) set on the back side of the player character PCh. A first image P1 (main image) is set. In the first area A1, a second area A2, a gauge display area A3, a speed display area A4, a remaining time display area A5, a score display area A6, a message display area A7, and a destination indication area A8 are set. .

第2領域A2は、詳しくは後述するが、プレイヤーキャラクターPChの顔Fの正面に設定された第2視点に基づいて、当該第2視点のビュースクリーン内の顔Fが透視変換された第2画像P2(サブ画像)が設定される。すなわち、第2領域A2には、当該プレイヤーキャラクターPChの顔Fを描画した第2画像P2が設定される。
ゲージ表示領域A3には、プレイヤーキャラクターPChのエネルギーを示すゲージの画像が設定される。
速度表示領域A4は、仮想空間におけるプレイヤーキャラクターPChの速度を示す画像が設定される。
残余時間表示領域A5は、ゲーム中の制限時間の残余時間を示す画像が設定される。
スコア表示領域A6は、プレイヤーが獲得したスコアを示す画像が設定される。
メッセージ表示領域A7は、プレイヤーに対するメッセージを示す画像が設定される。
目的地指示領域A8は、仮想空間における現在のプレイヤーキャラクターPChからのゴールの方向を示す画像が設定される。
As will be described in detail later, the second area A2 is a second image obtained by perspective-transforming the face F in the view screen of the second viewpoint based on the second viewpoint set in front of the face F of the player character PCh. P2 (sub image) is set. That is, a second image P2 in which the face F of the player character PCh is drawn is set in the second area A2.
A gauge image indicating the energy of the player character PCh is set in the gauge display area A3.
In the speed display area A4, an image indicating the speed of the player character PCh in the virtual space is set.
In the remaining time display area A5, an image indicating the remaining time of the time limit during the game is set.
In the score display area A6, an image indicating the score acquired by the player is set.
In the message display area A7, an image indicating a message to the player is set.
In the destination instruction area A8, an image indicating the direction of the goal from the current player character PCh in the virtual space is set.

〔メインボードの機能部〕
図7は、前述のメインボード8の機能的構成を示す機能ブロック図である。
このような出力画像G1〜G5を生成するメインボード8は、図7に示すように、それぞれ前述の構成81〜86により実現されるモデリング部91、光源設定部92、視点設定部93、描画部94、画像生成部95及び画像出力部96を機能的に有する。
[Function part of main board]
FIG. 7 is a functional block diagram showing a functional configuration of the main board 8 described above.
As shown in FIG. 7, the main board 8 that generates the output images G1 to G5 includes a modeling unit 91, a light source setting unit 92, a viewpoint setting unit 93, and a drawing unit that are realized by the above-described configurations 81 to 86, respectively. 94, an image generation unit 95 and an image output unit 96 are functionally provided.

〔モデリング部の構成〕
モデリング部91は、ワールド座標系に仮想空間を定義し、複数のポリゴンによりモデリングした各種オブジェクトを当該仮想空間に配置する。このようなオブジェクトとして、前述のプレイヤーキャラクターPChのほか、ノンプレイヤーキャラクターNPCh、建物、ガードレールGR(図4)、並びに、ドラム缶及びダンボール(それぞれ図2)等の障害物が挙げられる。このようなオブジェクトのうち、移動可能に設定されたオブジェクト(オブジェクトに付加される小さなオブジェクトも含み、例えば、プレイヤーキャラクターPChがかけている眼鏡)には、それぞれ固有の物理特性が設定されている。そして、モデリング部91は、当該物理特性及びプレイヤーによる操作に基づいて、各オブジェクトが有するポリゴンを操作し、当該各オブジェクトの動作及び移動を表現する。
[Configuration of the modeling unit]
The modeling unit 91 defines a virtual space in the world coordinate system and arranges various objects modeled by a plurality of polygons in the virtual space. Examples of such objects include non-player characters NPCh, buildings, guardrails GR (FIG. 4), and obstacles such as drums and cardboard (respectively FIG. 2) in addition to the aforementioned player character PCh. Among such objects, each of the objects set to be movable (including small objects added to the object, for example, glasses worn by the player character PCh) has its own physical characteristics. And the modeling part 91 operates the polygon which each object has based on the said physical characteristic and operation by a player, and represents the motion and movement of each said object.

詳述すると、モデリング部91は、プレイヤーの入力操作に応じて、仮想空間に配置されたプレイヤーキャラクターPChの位置、向き及び姿勢等を変化させるほか、ノンプレイヤーキャラクターNPCh及び他のオブジェクトの位置、向き及び姿勢等を自律的に変化させる。また、モデリング部91は、プレイヤーキャラクターPChの状態や、他のオブジェクトの位置及び動作等に応じて、当該プレイヤーキャラクターPChの表情を動的に変化させる。
例えば、プレイヤーキャラクターPChがのけぞる場合には、モデリング部91は、図3において示したように、当該プレイヤーキャラクターPChがかけている眼鏡をずらし、口を開けて怯えたような表情に変化させる。また、仮想空間内を移動するプレイヤーキャラクターPChの速度が速くなった場合には、モデリング部91は、図4において示したように、プレイヤーキャラクターPChの表情を気合の入った表情に変化させる。更に、プレイヤーキャラクターPChがダメージを受けた場合には、モデリング部91は、図5及び図6において示したように、悲しい表情や、痛がっている表情に変化させる。
More specifically, the modeling unit 91 changes the position, orientation, posture, and the like of the player character PCh arranged in the virtual space according to the player's input operation, and also positions, orientations of the non-player character NPCh and other objects. And autonomously change the posture. Further, the modeling unit 91 dynamically changes the expression of the player character PCh according to the state of the player character PCh, the position and movement of other objects, and the like.
For example, when the player character PCh is dragged, the modeling unit 91 shifts the glasses worn by the player character PCh and changes the expression to a frightened expression as shown in FIG. When the speed of the player character PCh moving in the virtual space is increased, the modeling unit 91 changes the expression of the player character PCh into a spiritual expression as shown in FIG. Further, when the player character PCh receives damage, the modeling unit 91 changes the expression to a sad expression or a painful expression as shown in FIGS.

〔光源設定部の構成〕
図8〜図10は、プレイヤーキャラクターPChに対して設定される光源及び視点を示す図である。詳述すると、図8及び図10は、当該キャラクター用光源CL、第1視点V1及び第2視点V2を示す側面図であり、図9は、第1視点V1及び第2視点V2を示す平面図である。
光源設定部92は、後述する描画部94による描画に供される光源を設定する。この光源設定部92は、第1光源設定部921及び第2光源設定部922を有する。
第1光源設定部921は、仮想空間に対して有効な空間用光源をワールド座標系の所定の位置に設定する。なお、本実施形態では、当該空間用光源として無限遠光源が設定される。
[Configuration of light source setting section]
8 to 10 are diagrams showing light sources and viewpoints set for the player character PCh. Specifically, FIGS. 8 and 10 are side views showing the character light source CL, the first viewpoint V1 and the second viewpoint V2, and FIG. 9 is a plan view showing the first viewpoint V1 and the second viewpoint V2. It is.
The light source setting unit 92 sets a light source used for drawing by a drawing unit 94 described later. The light source setting unit 92 includes a first light source setting unit 921 and a second light source setting unit 922.
The first light source setting unit 921 sets a spatial light source effective for the virtual space at a predetermined position in the world coordinate system. In the present embodiment, an infinite light source is set as the spatial light source.

第2光源設定部922は、図8及び図10に示すように、プレイヤーキャラクターPChの顔Fにのみ有効なキャラクター用光源CL(本発明のオブジェクト用光源)を設定する。この際、第2光源設定部922は、顔Fの正面に当該光源CLを設定するが、プレイヤーキャラクターPChの動きに追随して、常に当該顔Fの正面に位置するようにキャラクター用光源CLを設定する。すなわち、キャラクター用光源CLは、仮想空間内での位置及び向きが変更される顔Fに対して相対的に同じ位置及び同じ向きに常に設定される。換言すると、キャラクター用光源CLは、仮想空間におけるモデルとしての顔Fの位置及び向きから一義的に決定される位置に設定される。なお、本実施形態では、当該光源CLとして、スポットライトが設定される。   As shown in FIGS. 8 and 10, the second light source setting unit 922 sets a character light source CL (object light source of the present invention) that is effective only for the face F of the player character PCh. At this time, the second light source setting unit 922 sets the light source CL in front of the face F, but follows the movement of the player character PCh so that the character light source CL is always positioned in front of the face F. Set. That is, the character light source CL is always set at the same position and the same direction relative to the face F whose position and orientation in the virtual space are changed. In other words, the character light source CL is set to a position uniquely determined from the position and orientation of the face F as a model in the virtual space. In the present embodiment, a spotlight is set as the light source CL.

〔視点設定部の構成〕
視点設定部93は、前述の仮想空間に、所定範囲のビュースクリーンをそれぞれ有する複数の視点を設定する。この視点設定部93は、第1視点設定部931及び第2視点設定部932を有する。
第1視点設定部931は、前述の第1画像P1を生成するための第1視点V1を設定する。この際、第1視点設定部931は、ゲームのプレイ中では、仮想空間内で移動するプレイヤーキャラクターPChの略全体がビュースクリーン内に含まれるように、当該プレイヤーキャラクターPChの背面側に追随させて第1視点V1を設定する。このため、当該第1視点V1に基づく第1画像P1は、図2〜図4において示したように、背面側からプレイヤーキャラクターPChを見た画像となる。
[Configuration of viewpoint setting section]
The viewpoint setting unit 93 sets a plurality of viewpoints each having a predetermined range of view screens in the virtual space. The viewpoint setting unit 93 includes a first viewpoint setting unit 931 and a second viewpoint setting unit 932.
The first viewpoint setting unit 931 sets the first viewpoint V1 for generating the first image P1 described above. At this time, during the game play, the first viewpoint setting unit 931 follows the back side of the player character PCh so that substantially the entire player character PCh moving in the virtual space is included in the view screen. A first viewpoint V1 is set. Therefore, the first image P1 based on the first viewpoint V1 is an image in which the player character PCh is viewed from the back side, as shown in FIGS.

このような第1視点設定部931は、ゲームのプレイ中では、プレイヤーキャラクターPChの動作に応じて、第1視点V1の位置を変化させる。
例えば、図3において示した第1画像P1のように、プレイヤーキャラクターPChがのけぞった場合には、第1視点設定部931は、図8に示すように、第1視点V1を下方に設定する。これにより、当該第1画像P1では、プレイヤーキャラクターPChの下方(足元)がビュースクリーン内に入る。
Such a 1st viewpoint setting part 931 changes the position of the 1st viewpoint V1 according to operation | movement of player character PCh during the play of a game.
For example, when the player character PCh moves like the first image P1 shown in FIG. 3, the first viewpoint setting unit 931 sets the first viewpoint V1 downward as shown in FIG. Thereby, in the first image P1, the lower part (foot) of the player character PCh enters the view screen.

また、図4において示した第1画像P1のように、仮想空間に配置されたオブジェクトであるガードレールGRにプレイヤーキャラクターPChが乗った場合など、当該プレイヤーキャラクターPChの位置が出力画像G1での位置より高くなった場合には、図8に示すように、第1視点V1を高く設定し、より高い位置からプレイヤーキャラクターPChを見下ろすアングルとする。これにより、出力画像G3では、出力画像G1に比べて、プレイヤーキャラクターPChの下方(足元)を含む広い範囲がビュースクリーン内に入る。
なお、ムービー表示中には、図8及び図9に示すように、プレイヤーキャラクターPChの背面側だけでなく正面側にも第1視点V1が設定される。これにより、図5及び図6において示したように、プレイヤーキャラクターPChの動き及び表情が観察し易くなる。
Further, as in the first image P1 shown in FIG. 4, when the player character PCh is on the guard rail GR that is an object arranged in the virtual space, the position of the player character PCh is more than the position in the output image G1. When it becomes higher, as shown in FIG. 8, the first viewpoint V1 is set higher, and the angle is such that the player character PCh is looked down from a higher position. Thereby, in the output image G3, compared with the output image G1, a wide range including the lower part (foot) of the player character PCh enters the view screen.
During movie display, as shown in FIGS. 8 and 9, the first viewpoint V1 is set not only on the back side but also on the front side of the player character PCh. As a result, as shown in FIGS. 5 and 6, the movement and expression of the player character PCh can be easily observed.

第2視点設定部932は、前述の第2領域A2に設定される第2画像P2を生成するための第2視点V2を設定する。
この際、第2視点設定部932は、図8〜図10に示すように、仮想空間内で移動するプレイヤーキャラクターPChの所定の部位(本実施形態では、顔F)の正面が常にビュースクリーンの中心に位置するように第2視点V2を設定する。すなわち、第2視点V2は、仮想空間内での位置及び向きが変更される顔Fに対して相対的に同じ位置及び同じ向きに常に設定される。換言すると、第2視点V2は、仮想空間における顔Fの位置及び向きから一義的に決定される位置に設定される。
The 2nd viewpoint setting part 932 sets the 2nd viewpoint V2 for producing | generating the 2nd image P2 set to the above-mentioned 2nd area | region A2.
At this time, as shown in FIGS. 8 to 10, the second viewpoint setting unit 932 always displays the front of the predetermined part (in this embodiment, the face F) of the player character PCh moving in the virtual space on the view screen. The second viewpoint V2 is set so as to be located at the center. That is, the second viewpoint V2 is always set at the same position and the same direction relative to the face F whose position and direction in the virtual space are changed. In other words, the second viewpoint V2 is set to a position that is uniquely determined from the position and orientation of the face F in the virtual space.

例えば、プレイヤーキャラクターPChの顔が左右を向く場合には、第2視点設定部932は、図9に示すように、当該顔Fの正面に位置するように第2視点V2を設定する。同様に、図10に示すように、プレイヤーキャラクターPChがのけぞった場合でも、第2視点設定部932は、当該プレイヤーキャラクターPChの顔Fの正面に位置するように、第2視点V2を設定する。
このため、第2視点V2に基づく第2画像P2、すなわち、第2領域A2に設定される第2画像P2は、図2〜図6において示したように、プレイヤーキャラクターPChの動きに依らずに、同一方向(顔Fの正面)から見た顔Fの画像となる。
なお、本実施形態では、第2視点V2の画角は、第1視点V1の画角より狭く、また、第2視点V2の焦点深度は、第1視点V1の焦点深度より短く設定されている。具体的に、第2視点V2の焦点深度は、2mに設定されている。
For example, when the face of the player character PCh faces left and right, the second viewpoint setting unit 932 sets the second viewpoint V2 so as to be positioned in front of the face F as shown in FIG. Similarly, as shown in FIG. 10, even when the player character PCh is drawn, the second viewpoint setting unit 932 sets the second viewpoint V2 so as to be positioned in front of the face F of the player character PCh.
Therefore, the second image P2 based on the second viewpoint V2, that is, the second image P2 set in the second area A2, does not depend on the movement of the player character PCh, as shown in FIGS. , The image of the face F viewed from the same direction (front of the face F).
In the present embodiment, the angle of view of the second viewpoint V2 is set to be narrower than the angle of view of the first viewpoint V1, and the focal depth of the second viewpoint V2 is set to be shorter than the focal depth of the first viewpoint V1. . Specifically, the focal depth of the second viewpoint V2 is set to 2 m.

〔描画部の構成〕
図7に戻り、描画部94は、光源設定部92及び視点設定部93により設定された各光源及び各視点に基づいて、当該視点のビュースクリーン内のオブジェクトに対して、マッピング及びシェーディング等のレンダリング処理を施して、第1画像P1及び第2画像P2を生成する。このレンダリング処理には、各種レンダリング手法を採用することができ、例えば、レイトレーシング法(光線追跡法)を採用することができる。このような描画部94は、第1画像描画部941及び第2画像描画部942を有する。
[Configuration of the drawing unit]
Returning to FIG. 7, the rendering unit 94 performs rendering such as mapping and shading on an object in the view screen of the viewpoint based on each light source and each viewpoint set by the light source setting unit 92 and the viewpoint setting unit 93. Processing is performed to generate the first image P1 and the second image P2. Various rendering methods can be employed for the rendering process, and for example, a ray tracing method (ray tracing method) can be employed. Such a drawing unit 94 includes a first image drawing unit 941 and a second image drawing unit 942.

第1画像描画部941は、第1光源設定部921により設定された空間用光源と、第1視点設定部931により設定された第1視点V1とに基づいて、当該第1視点V1のビュースクリーン内のオブジェクト(プレイヤーキャラクターPChを含む)をレンダリングして、第1画像P1を描画する。この際、第1画像描画部941は、空間用光源だけでなく、環境光も考慮する。このような第1画像P1は、前述のように、プレイヤーキャラクターPChの動きに追随して、当該プレイヤーキャラクターPChの背面側に設定された第1視点V1に基づく画像である。このため、第1画像P1には、背面側から見たプレイヤーキャラクターPChの略全体が含まれることとなるが、当該プレイヤーキャラクターPChの顔が必ずしも含まれるとは限らない。   The first image drawing unit 941 is based on the spatial light source set by the first light source setting unit 921 and the first viewpoint V1 set by the first viewpoint setting unit 931, and the view screen of the first viewpoint V1. The inside object (including the player character PCh) is rendered to draw the first image P1. At this time, the first image drawing unit 941 considers not only the spatial light source but also ambient light. As described above, such a first image P1 is an image based on the first viewpoint V1 set on the back side of the player character PCh following the movement of the player character PCh. For this reason, the first image P1 includes substantially the entire player character PCh as viewed from the back side, but does not necessarily include the face of the player character PCh.

図11は、第2画像P2の一例を示す図である。
第2画像描画部942は、第1画像描画部941による第1画像P1の描画と同期して、前述のキャラクター用光源CL及び第2視点V2に基づいて、当該第2視点V2のビュースクリーン内のプレイヤーキャラクターPChの顔Fをレンダリングする。
この際、第2画像描画部942は、ビュースクリーン内のプレイヤーキャラクターPChを描画対象に設定し、当該ビュースクリーン内の他のオブジェクトを描画対象から外す。そして、第2画像描画部942は、レンダリングされて生成された顔Fの画像を、所定の背景画像BPに重ねることで、図11(A)に示すような第2画像P2を描画する
FIG. 11 is a diagram illustrating an example of the second image P2.
The second image drawing unit 942 synchronizes with the drawing of the first image P1 by the first image drawing unit 941, and based on the character light source CL and the second viewpoint V2 in the view screen of the second viewpoint V2. Render the face F of the player character PCh.
At this time, the second image drawing unit 942 sets the player character PCh in the view screen as a drawing target, and removes other objects in the view screen from the drawing target. Then, the second image drawing unit 942 draws the second image P2 as shown in FIG. 11A by superimposing the rendered image of the face F on the predetermined background image BP.

ここで、プレイヤーキャラクターPChが空間用光源の影に入った場合など、第1画像P1の明度が下がった場合には、第2画像描画部942は、図11(B)に示すように、当該メイン画像の明度に応じて、顔Fをレンダリングした画像の明度を下げる。また、第2画像描画部942は、当該顔Fの画像が重ね合わされる背景画像BPとして、通常の背景画像BP、すなわち、プレイヤーキャラクターPChが空間用光源の影に入っていない場合に用いられる背景画像BP(図11(A)の背景画像BP)より明度が低い背景画像BPを選択する。そして、第2画像描画部942は、選択された背景画像BPに、顔Fをレンダリングした画像を重ねることで、第2画像P2を描画する。   Here, when the brightness of the first image P1 is lowered, such as when the player character PCh enters the shadow of the light source for space, the second image drawing unit 942 displays the relevant image as shown in FIG. The brightness of the image in which the face F is rendered is lowered according to the brightness of the main image. Further, the second image drawing unit 942 uses the normal background image BP, that is, the background used when the player character PCh is not in the shadow of the space light source as the background image BP on which the image of the face F is superimposed. A background image BP having a lower brightness than the image BP (background image BP in FIG. 11A) is selected. Then, the second image drawing unit 942 draws the second image P2 by superimposing the image obtained by rendering the face F on the selected background image BP.

図12は、第2画像P2の一部を拡大して示す図である。
また、第2画像描画部942は、顔Fをレンダリングする際に、キャラクター用光源CLの光を反射させる反射領域(鏡面反射領域)を両目Eに設定する。このようにして描画された第2画像P2(図12(A)に示す第2画像P2)では、両目Eにハイライト部HLが形成されるので、当該反射領域が設定されずに描画された第2画像P2(図12(B)に示す第2画像P2)に比べて、プレイヤーキャラクターPChに生命感及び躍動感を与えることができる。
FIG. 12 is an enlarged view showing a part of the second image P2.
In addition, when rendering the face F, the second image drawing unit 942 sets a reflection area (specular reflection area) for reflecting the light of the character light source CL to both eyes E. In the second image P2 drawn in this way (the second image P2 shown in FIG. 12A), the highlight portion HL is formed on both eyes E, so the drawing is performed without setting the reflection area. Compared with the second image P2 (second image P2 shown in FIG. 12B), it is possible to give the player character PCh a sense of life and a sense of vigor.

図13は、第2画像P2の他の例を示す図である。
更に、第2画像描画部942は、ゲームの進行状況に応じて、描画した第2画像P2にヒットポイント(或いは、プレイヤーストック)を示す加工を行う。例えば、プレイヤーキャラクターPChのヒットポイントが「5」に設定され、当該プレイヤーキャラクターPChがノンプレイヤーキャラクターNPCh等からダメージを負うごとにヒットポイントが「1」減算される場合には、第2画像描画部942は、ダメージを負うごとに、図13(A)に示す第2画像P2に対して、図13(B)〜(F)に示す加工を行う。なお、プレイヤーキャラクターPChがダメージを負ったか否かは、CPU84の演算処理によって判定される。
FIG. 13 is a diagram illustrating another example of the second image P2.
Further, the second image drawing unit 942 performs a process indicating a hit point (or player stock) on the drawn second image P2 in accordance with the progress of the game. For example, when the hit point of the player character PCh is set to “5” and the hit point is subtracted “1” every time the player character PCh takes damage from the non-player character NPCh or the like, the second image drawing unit 942 performs the process shown in FIGS. 13B to 13F on the second image P2 shown in FIG. Whether or not the player character PCh has been damaged is determined by a calculation process of the CPU 84.

すなわち、プレイヤーキャラクターPChが1回ダメージを負うと、図13(A)に示す第2画像P2に、1回目のダメージを示すレイヤーL1(左下領域の透過度が下がるレイヤーL1)が重ね合わされ、図13(B)に示す第2画像P2が生成される。
更にプレイヤーキャラクターPChがダメージを負うと、図13(C)に示すように、2回目のダメージを示すレイヤーL2(右上領域の透過度が下がるレイヤーL2)が更に重ね合わされる。この後、プレイヤーキャラクターPChがダメージを負うごとに、図13(D)〜(F)に示すように、3〜5回目のダメージを示すレイヤーL3〜L5(左上領域、右下領域及び中央領域の透過度がそれぞれ下がるレイヤーL3〜L5)が順に重ね合わされる。そして、最終的には、図13(F)に示すように、第2画像P2の全領域の透過度が当該レイヤーL1〜L5により下げられる。これにより、プレイヤーキャラクターPChのヒットポイントを視覚的に把握できる。
なお、ダメージの回数に応じたレイヤーをそれぞれ保持し、プレイヤーキャラクターPChが負ったダメージの回数に応じたレイヤーを重ねるようにしてもよい。
That is, when the player character PCh takes damage once, the second image P2 shown in FIG. 13A is overlaid with the layer L1 showing the first damage (the layer L1 in which the transparency of the lower left region is lowered). A second image P2 shown in FIG. 13 (B) is generated.
Further, when the player character PCh takes damage, as shown in FIG. 13C, the layer L2 indicating the second damage (the layer L2 in which the transparency in the upper right region is lowered) is further superimposed. Thereafter, each time the player character PCh takes damage, as shown in FIGS. 13D to 13F, the layers L3 to L5 (upper left area, lower right area, and central area) indicating the third to fifth damages are displayed. Layers L3 to L5), each of which has a lower transparency, are overlaid in order. Finally, as shown in FIG. 13F, the transparency of the entire region of the second image P2 is lowered by the layers L1 to L5. Thereby, the hit point of player character PCh can be grasped visually.
It should be noted that layers corresponding to the number of damages may be held respectively, and layers corresponding to the number of damages that the player character PCh has suffered may be overlaid.

このような第2画像P2は、前述のように、プレイヤーキャラクターPChの顔Fの動きに追随して、当該顔Fの正面に設定された第2視点V2に基づく画像である。このため、第2画像P2に、プレイヤーキャラクターPChの略全身が含まれることはない。しかしながら、当該第2画像P2には、第1画像P1には必ずしも含まれない顔F、すなわち、プレイヤーキャラクターPChの状態等に応じてモデリング部91により表情が変化される顔Fが、常に含まれる。   As described above, the second image P2 is an image based on the second viewpoint V2 set in front of the face F following the movement of the face F of the player character PCh. For this reason, the second image P2 does not include the substantially whole body of the player character PCh. However, the second image P2 always includes the face F that is not necessarily included in the first image P1, that is, the face F whose expression is changed by the modeling unit 91 in accordance with the state of the player character PCh. .

〔画像生成部及び画像出力部の構成〕
図7に戻り、画像生成部95は、描画部94により描画された第1画像P1及び第2画像P2を、前述の第1領域A1及び第2領域A2に配置するとともに、各領域A3〜A8に前述の画像を配置して、表示装置(図示省略)に表示させる出力画像Gを、1フレームごとに生成する。
画像出力部96は、描画された出力画像Gを1フレームごとに定期的に出力する。
これにより、前述の出力画像Gが表示装置(図示省略)により表示される。
[Configuration of image generation unit and image output unit]
Returning to FIG. 7, the image generation unit 95 arranges the first image P1 and the second image P2 drawn by the drawing unit 94 in the first region A1 and the second region A2 and also includes the regions A3 to A8. An output image G to be displayed on a display device (not shown) is generated for each frame.
The image output unit 96 periodically outputs the rendered output image G for each frame.
Thereby, the aforementioned output image G is displayed by a display device (not shown).

〔描画処理〕
以下、前述の情報処理装置1にて実行される描画処理について説明する。
図14は、当該描画処理を示すフローチャートである。
情報処理装置1は、前述のように、ネットワークIF3、カードリーダー4及びUSBモジュール5を介して取得されるゲームプログラム、ディスク装置6によりディスクから読み出されるゲームプログラム、並びに、HDD7に記憶に記憶されたゲームプログラムを実行する。これらゲームプログラムには、描画プログラムが含まれており、情報処理装置1は、当該描画プログラムに沿って以下に示す描画処理を実行し、出力画像Gを生成及び出力する。
[Drawing process]
Hereinafter, the drawing process executed by the information processing apparatus 1 will be described.
FIG. 14 is a flowchart showing the drawing process.
As described above, the information processing apparatus 1 stores the game program acquired via the network IF 3, the card reader 4, and the USB module 5, the game program read from the disk by the disk device 6, and the memory stored in the HDD 7. Run the game program. These game programs include a drawing program, and the information processing apparatus 1 executes a drawing process described below along with the drawing program to generate and output an output image G.

この描画処理は、前述のように、CPU84及びGPU86等を有するメインボード8により実行される。
この描画処理では、図14に示すように、まず、モデリング部91が、前述の仮想空間を定義し、当該仮想空間のワールド座標系に各種オブジェクトをモデリングする(ステップS1)。
この後、光源設定部92が、空間用光源及びキャラクター用光源CLを設定する(ステップS2)。この際、第1光源設定部921が、空間用光源(本実施形態では無限遠光源)をワールド座標系の所定の位置(座標)に設定し、第2光源設定部922が、キャラクター用光源CLを、常にプレイヤーキャラクターPChの顔Fに対して相対的に同じ位置から同じ向きで当該顔Fに向くように設定する。
As described above, this drawing processing is executed by the main board 8 having the CPU 84, the GPU 86, and the like.
In this drawing process, as shown in FIG. 14, the modeling unit 91 first defines the virtual space described above, and models various objects in the world coordinate system of the virtual space (step S1).
Thereafter, the light source setting unit 92 sets the space light source and the character light source CL (step S2). At this time, the first light source setting unit 921 sets the spatial light source (infinite light source in the present embodiment) at a predetermined position (coordinates) in the world coordinate system, and the second light source setting unit 922 performs the character light source CL. Is always set to face the face F in the same direction from the same position relative to the face F of the player character PCh.

次に、視点設定部93が、視点を設定する(ステップS3)。この際、第1視点設定部931が、プレイヤーキャラクターPChがビュースクリーンの幅方向の中心に位置するように、当該プレイヤーキャラクターPChに常に向くように第1視点V1を設定する。また、第2視点設定部932が、プレイヤーキャラクターPChの顔Fがビュースクリーンの中心に位置し、常に当該顔Fに対して相対的に同じ位置から同じ向きで顔Fに向くように第2視点V2を設定する。
なお、これらステップS2,S3の順序は逆でもよい。
Next, the viewpoint setting unit 93 sets a viewpoint (step S3). At this time, the first viewpoint setting unit 931 sets the first viewpoint V1 so as to always face the player character PCh so that the player character PCh is positioned at the center in the width direction of the view screen. Further, the second viewpoint setting unit 932 has the second viewpoint so that the face F of the player character PCh is located at the center of the view screen and always faces the face F in the same direction from the same position relative to the face F. Set V2.
Note that the order of these steps S2 and S3 may be reversed.

そして、描画部94が、設定された各光源及び各視点に基づいて、当該視点のビュースクリーン内のオブジェクトを描画する(ステップS4)。
具体的に、第1画像描画部941が、空間用光源及び第1視点V1に基づいて、前述の第1画像P1を描画する。また、第2画像描画部942が、キャラクター用光源CL及び第2視点V2に基づいて、前述の第2画像P2を描画する。この際、前述のように、目に反射領域を設定した上で、当該顔Fをレンダリングするほか、必要に応じて、顔F及び背景画像の明度を低くする。更に、第2画像描画部942は、描画した第2画像P2に、プレイヤーキャラクターPChのヒットポイントに応じた前述のレイヤーL1〜L5を重ね合わせる。このような第1画像描画部941による第1画像P1の描画、及び、第2画像描画部942による第2画像P2の描画は、それぞれ同期している。このため、各画像P1,P2の描画においては、各視点V1,V2のビュースクリーン内のオブジェクト(プレイヤーキャラクターPChを含む)が同じタイミングで透視変換される。
Then, the drawing unit 94 draws an object in the view screen of the viewpoint based on each set light source and each viewpoint (step S4).
Specifically, the first image drawing unit 941 draws the first image P1 described above based on the spatial light source and the first viewpoint V1. Further, the second image drawing unit 942 draws the above-described second image P2 based on the character light source CL and the second viewpoint V2. At this time, as described above, the reflection area is set for the eyes, the face F is rendered, and the brightness of the face F and the background image is lowered as necessary. Further, the second image drawing unit 942 superimposes the aforementioned layers L1 to L5 corresponding to the hit points of the player character PCh on the drawn second image P2. The drawing of the first image P1 by the first image drawing unit 941 and the drawing of the second image P2 by the second image drawing unit 942 are synchronized with each other. For this reason, in the drawing of the images P1 and P2, the objects (including the player character PCh) in the view screen of the viewpoints V1 and V2 are perspective-transformed at the same timing.

この後、画像生成部95が、出力画像Gを生成する(ステップS5)。この際、画像生成部95は、生成された第1画像P1及び第2画像P2を、第1領域A1及び第2領域A2に配置した後、各領域A3〜A8に対応する画像をそれぞれ配置して、出力画像Gを生成する。これにより、空間用光源及び第1視点V1に基づいて描画された第1画像P1と、当該第1画像P1の描画と同期し、キャラクター用光源CL及び第2視点V2に基づいて描画された第2画像P2とが配置された出力画像Gが生成される。
そして、画像出力部96が、生成された出力画像Gを、表示装置(図示省略)に出力する(ステップS6)。
Thereafter, the image generation unit 95 generates an output image G (step S5). At this time, the image generation unit 95 arranges the generated first image P1 and second image P2 in the first area A1 and the second area A2, and then arranges images corresponding to the areas A3 to A8. Thus, the output image G is generated. Accordingly, the first image P1 drawn based on the light source for space and the first viewpoint V1, and the first image P1 drawn based on the character light source CL and the second viewpoint V2 are synchronized with the drawing of the first image P1. An output image G in which the two images P2 are arranged is generated.
Then, the image output unit 96 outputs the generated output image G to a display device (not shown) (step S6).

以上説明した本実施形態に係る情報処理装置1によれば、以下の効果がある。
すなわち、出力画像Gの1フレーム内に、第1視点V1のビュースクリーン内のプレイヤーキャラクターPCh及び他のオブジェクトをレンダリングした第1画像P1と、当該第1視点V1とは異なる位置に設定された第2視点V2のビュースクリーン内のプレイヤーキャラクターPChの顔Fをレンダリングした第2画像P2とが設定される。これによれば、同じプレイヤーキャラクターPChをそれぞれ異なる視点から同時に観察できる。
The information processing apparatus 1 according to the present embodiment described above has the following effects.
That is, in one frame of the output image G, the first image P1 in which the player character PCh and other objects in the view screen of the first viewpoint V1 are rendered, and the first viewpoint V1 is set at a position different from the first viewpoint V1. A second image P2 obtained by rendering the face F of the player character PCh in the view screen of the two viewpoints V2 is set. According to this, the same player character PCh can be observed simultaneously from different viewpoints.

具体的に、第1画像P1は、プレイヤーキャラクターPChの背面側に常に設定され、かつ、視角内に当該プレイヤーキャラクターPChの略全体が含まれる第1視点V1に基づく画像である。このため、当該第1画像P1を観察することにより、仮想空間内でのプレイヤーキャラクターPChの位置、向き及び姿勢等を把握できる。
しかしながら、第1画像P1には、プレイヤーキャラクターPChの正面側が必ずしも含まれないため、当該第1画像P1から、プレイヤーキャラクターPChの正面側部位の変化(具体的には、顔Fの表情)を正確に把握することは困難である。
これに対し、第2画像P2は、ビュースクリーン内にプレイヤーキャラクターPChの顔Fの略全てが含まれるように、当該顔Fの正面に対して常に設定される第2視点V2に基づく画像である。そして、当該顔Fの表情は、モデリング部91により、プレイヤーキャラクターPChの状態等に応じて動的に変化される。このため、当該第2画像P2を観察することにより、動的に変化され、かつ、第1画像P1では観察することが難しい顔Fの表情を把握しやすくすることができる。
従って、プレイヤーキャラクターPChの特徴を把握しやすくすることができるほか、ゲームの演出効果及び興趣を高めることができる。
Specifically, the first image P1 is an image based on the first viewpoint V1, which is always set on the back side of the player character PCh and includes substantially the entire player character PCh within the viewing angle. For this reason, by observing the first image P1, the position, orientation, posture, and the like of the player character PCh in the virtual space can be grasped.
However, since the front side of the player character PCh is not necessarily included in the first image P1, the change in the front side portion of the player character PCh (specifically, the facial expression of the face F) is accurately determined from the first image P1. It is difficult to grasp.
On the other hand, the second image P2 is an image based on the second viewpoint V2 that is always set with respect to the front of the face F so that substantially all of the face F of the player character PCh is included in the view screen. . The facial expression of the face F is dynamically changed by the modeling unit 91 according to the state of the player character PCh. Therefore, by observing the second image P2, it is possible to easily grasp the facial expression of the face F that is dynamically changed and difficult to observe in the first image P1.
Therefore, it is possible to easily grasp the characteristics of the player character PCh, and to enhance the effect and interest of the game.

また、第1画像P1及び第2画像P2は、仮想空間に配置された同じプレイヤーキャラクターを各視点V1,V2に基づいてそれぞれレンダリングした画像である。これによれば、個別にモデリングされたプレイヤーキャラクターPChから第1画像及び第2画像を描画する場合に比べ、各画像P1,P2の同期を取り易くすることができるほか、処理の簡略化、及び、描画に利用されるビデオメモリー85の容量を低減することができる。更に、各画像P1,P2が同期しているので、プレイヤーキャラクターPChの全体を第1画像P1により把握しつつ、特定の部位(顔F)を第2画像P2により把握することにより、動的に変化されるプレイヤーキャラクターPChの表情等の特徴を一層把握しやすくすることができる。   The first image P1 and the second image P2 are images obtained by rendering the same player character arranged in the virtual space based on the viewpoints V1 and V2, respectively. According to this, compared with the case where the first image and the second image are drawn from the individually modeled player character PCh, it is possible to easily synchronize the images P1 and P2, and simplification of processing, and The capacity of the video memory 85 used for drawing can be reduced. Furthermore, since the images P1 and P2 are synchronized, it is possible to dynamically grasp the specific part (face F) from the second image P2 while grasping the entire player character PCh from the first image P1. It is possible to make it easier to grasp characteristics such as the facial expression of the player character PCh to be changed.

ここで、ビュースクリーン内のオブジェクトの数が多ければ多いほど、情報処理装置1にかかる負担が大きくなる。これに対し、第2画像描画部942は、第2視点V2のビュースクリーン内のプレイヤーキャラクターPChの部位(主に顔F)のみをレンダリングした画像と、所定の背景画像BPとを重ねることで、第2画像P2を描画する。これによれば、レンダリングされるオブジェクトの数を少なくすることができる。従って、情報処理装置1(メインボード8)の負担を軽減することができる。
また、第2画像P2には、背景画像を除いて、第2視点のビュースクリーン内のプレイヤーキャラクターPChの部位のみが含まれることとなるので、当該プレイヤーキャラクターPChの特徴をより一層把握しやすくすることができる。
Here, the greater the number of objects in the view screen, the greater the burden on the information processing apparatus 1. On the other hand, the second image drawing unit 942 superimposes an image obtained by rendering only the part (mainly the face F) of the player character PCh in the view screen of the second viewpoint V2 and a predetermined background image BP. The second image P2 is drawn. According to this, the number of objects to be rendered can be reduced. Therefore, the burden on the information processing apparatus 1 (main board 8) can be reduced.
In addition, since the second image P2 includes only the part of the player character PCh in the view screen of the second viewpoint except for the background image, it becomes easier to grasp the characteristics of the player character PCh. be able to.

第1画像P1は、設定された空間用光源及び第1視点V1に基づいて、当該第1視点V1のビュースクリーン内のプレイヤーキャラクターPCh及び他のオブジェクトがシェーディングされて描画される。これに対し、第2画像P2は、プレイヤーキャラクターPChのみに有効なキャラクター用光源CL及び第2視点V2に基づいて、当該第2視点V2のビュースクリーン内の顔Fがシェーディングされて描画される。これによれば、第2視点V2側のプレイヤーキャラクターPChの形状(顔Fの表情)を把握しやすくすることができる。
従って、プレイヤーキャラクターPChの特徴を一層把握しやすくすることができる。
Based on the set spatial light source and the first viewpoint V1, the first image P1 is drawn by shading the player character PCh and other objects in the view screen of the first viewpoint V1. On the other hand, the second image P2 is drawn by shading the face F in the view screen of the second viewpoint V2 based on the character light source CL effective only for the player character PCh and the second viewpoint V2. According to this, it is possible to easily grasp the shape (expression of the face F) of the player character PCh on the second viewpoint V2.
Therefore, it is possible to make it easier to grasp the characteristics of the player character PCh.

プレイヤーキャラクターPChが空間用光源の影に移動するなどして、第1画像P1の明度が下がった場合には、第2画像描画部942は、描画した第2画像P2の明度を下げる。これによれば、第1画像P1と第2画像P2とがそれぞれ同期していることを、観察者に把握しやすくすることができる。従って、プレイヤーキャラクターPChの状態を把握しやすくすることができる。
なお、本実施形態では、第2画像P2における背景画像BPも明度を下げた画像が選択されるので、第2画像P2に含まれる顔Fが浮いて見えることを防止できる。
When the brightness of the first image P1 decreases due to, for example, the player character PCh moving to the shadow of the light source for space, the second image drawing unit 942 decreases the brightness of the drawn second image P2. According to this, it is possible to make it easy for an observer to know that the first image P1 and the second image P2 are synchronized. Therefore, it is possible to easily grasp the state of the player character PCh.
In the present embodiment, since the background image BP in the second image P2 is selected as an image with reduced brightness, it is possible to prevent the face F included in the second image P2 from appearing floating.

第2視点設定部932により、目Eに反射領域(鏡面反射領域)が設定されるので、当該目Eには、キャラクター用光源CLによりハイライト部HLが形成される。これによれば、プレイヤーキャラクターPChに生命感及び躍動感を付与することができる。
また、プレイヤーキャラクターPChと、その周囲のオブジェクトとがレンダリングされた第1画像P1が第1領域A1に設定され、当該プレイヤーキャラクターPChの顔Fがレンダリングされた第2画像P2が、第1領域A1より小さな第2領域A2に設定された出力画像Gが生成される。これによれば、描画範囲の大きな第1画像P1をメイン画像とし、描画範囲の小さな第2画像P2をサブ画像として観察することができる。従って、プレイヤーキャラクターPChの特徴及び状態をより一層把握しやすくすることができるほか、注視する視点に応じて第1画像P1及び第2画像P2の大きさを調整した出力画像Gを生成することができる。
Since the second viewpoint setting unit 932 sets a reflection region (specular reflection region) for the eye E, a highlight portion HL is formed on the eye E by the character light source CL. According to this, it is possible to give the player character PCh a feeling of life and a feeling of dynamism.
The first image P1 in which the player character PCh and surrounding objects are rendered is set in the first area A1, and the second image P2 in which the face F of the player character PCh is rendered is in the first area A1. An output image G set in a smaller second area A2 is generated. According to this, it is possible to observe the first image P1 having a large drawing range as a main image and the second image P2 having a small drawing range as a sub image. Therefore, it is possible to make it easier to grasp the characteristics and state of the player character PCh, and to generate the output image G in which the sizes of the first image P1 and the second image P2 are adjusted according to the point of view. it can.

〔実施形態の変形〕
本発明は前述の実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
前記実施形態では、ゲームのプレイ中は、第1視点V1及び第2視点V2は、これらのビュースクリーン内に、プレイヤーキャラクターPChの背面側及び顔Fが含まれるように設定されるとしたが、本発明はこれに限らない。例えば、3次元オブジェクトの左右の一方側を写すように第1視点を設定し、当該3次元オブジェクトの左右の他方側を写すように第2視点を設定してもよい。すなわち、各視点がそれぞれ異なる位置に設定されればよく、各視点が移動してもよい。
また、視点の数も3つ以上でもよく、各視点に基づく画像が1フレームに設定されればよい。更に、これら視点は、情報処理装置1の使用者が設定してもよい。
[Modification of Embodiment]
The present invention is not limited to the above-described embodiment, and modifications, improvements, and the like within the scope that can achieve the object of the present invention are included in the present invention.
In the embodiment, during the game play, the first viewpoint V1 and the second viewpoint V2 are set so that the back side of the player character PCh and the face F are included in these view screens. The present invention is not limited to this. For example, the first viewpoint may be set so as to capture the left and right sides of the three-dimensional object, and the second viewpoint may be set so as to capture the left and right sides of the three-dimensional object. That is, each viewpoint may be set at a different position, and each viewpoint may move.
Also, the number of viewpoints may be three or more, and an image based on each viewpoint may be set to one frame. Further, these viewpoints may be set by the user of the information processing apparatus 1.

前記実施形態では、第1視点V1は、3次元オブジェクトとしてのプレイヤーキャラクターPChの略全体を写すように設定され、第2視点V2は、顔Fを写すように設定されるとしたが、本発明はこれに限らない。例えば、それぞれ位置が異なる第1視点及び第2視点が、3次元オブジェクトの略全体をそれぞれ写すように設定されてもよい。逆に、第1視点及び第2視点が、それぞれ異なる3次元オブジェクトの所定の部位のみを写すように設定されてもよい。   In the embodiment, the first viewpoint V1 is set so as to capture substantially the entire player character PCh as a three-dimensional object, and the second viewpoint V2 is set so as to capture the face F. Is not limited to this. For example, the first viewpoint and the second viewpoint, each of which has a different position, may be set so as to capture substantially the entire three-dimensional object. Conversely, the first viewpoint and the second viewpoint may be set so as to capture only predetermined portions of different three-dimensional objects.

前記実施形態では、第1光源設定部921が空間用光源をワールド座標系の所定の位置に設定し、第2光源設定部922がオブジェクト用光源としてのキャラクター用光源CLを、常に顔Fに対して相対的に同じ位置から同じ向きで当該顔Fに向くように設定したが、本発明はこれに限らない。例えば、オブジェクト用光源はなくてもよく、また、第1画像P1の描画に供される第1光源は、前述のキャラクター用光源CLのように、常にプレイヤーキャラクターPChに対して同じ位置から同じ向きで当該プレイヤーキャラクターPChに向くように設定されてもよい。更に、描画対象の3次元オブジェクトが自己発光体である場合には、空間用光源及びオブジェクト用光源を設定しなくてもよい。
また、前記実施形態では、空間用光源として無限遠光源が設定され、キャラクター用光源CLとしてスポットライトが設定されたが、これに限らず、点光源、線光源及び面光源等でもよい。また、当該光源は、情報処理装置1の使用者が設定してもよい。
In the embodiment, the first light source setting unit 921 sets the spatial light source at a predetermined position in the world coordinate system, and the second light source setting unit 922 always sets the character light source CL as the object light source to the face F. However, the present invention is not limited to this. For example, the light source for the object may not be provided, and the first light source used for drawing the first image P1 is always in the same direction from the same position with respect to the player character PCh as in the character light source CL described above. May be set to face the player character PCh. Further, when the three-dimensional object to be drawn is a self-luminous body, the spatial light source and the object light source need not be set.
In the above embodiment, an infinite light source is set as the spatial light source and a spotlight is set as the character light source CL. However, the present invention is not limited to this, and a point light source, a line light source, a surface light source, or the like may be used. The light source may be set by the user of the information processing apparatus 1.

前記実施形態では、第2画像描画部942は、第1画像P1の明度の変化に伴って、第2画像P2の明度を変化させ、明度が異なる背景画像BPを選択するとしたが、本発明はこれに限らない。すなわち、第2画像P2の明度は、第1画像P1の明度から独立して設定されてもよい。   In the embodiment, the second image drawing unit 942 changes the brightness of the second image P2 and changes the brightness of the first image P1, and selects a background image BP having a different brightness. Not limited to this. That is, the brightness of the second image P2 may be set independently of the brightness of the first image P1.

前記実施形態では、第2画像描画部942は、第2視点V2のビュースクリーン内のプレイヤーキャラクターPChの部位を描画対象に設定し、当該ビュースクリーン内の他のオブジェクトを描画対象から外すとしたが、本発明はこれに限らない。すなわち、当該他のオブジェクトも描画対象に設定してもよい。   In the embodiment, the second image drawing unit 942 sets the part of the player character PCh in the view screen at the second viewpoint V2 as a drawing target, and excludes other objects in the view screen from the drawing target. The present invention is not limited to this. That is, the other object may be set as a drawing target.

前記実施形態では、プレイヤーキャラクターPChの目Eに、鏡面反射する反射領域を設定するとしたが、本発明はこれに限らない。すなわち、当該反射領域は設定されなくてもよい。また、鏡面反射に限らず、拡散反射領域としてもよい。この場合、例えば、プレイヤーキャラクターPChがダメージを負うごとに、当該反射領域を鏡面反射領域から拡散反射領域に変化させることで、当該ダメージを表現してもよい。また、鏡面反射領域の光沢度合いを調整して、ハイライト部HLの大きさを変化させることで、ダメージを表現してもよい。   In the above embodiment, the reflection area for specular reflection is set on the eyes E of the player character PCh, but the present invention is not limited to this. That is, the reflection area may not be set. Moreover, not only specular reflection but a diffuse reflection region may be used. In this case, for example, each time the player character PCh takes damage, the damage may be expressed by changing the reflection area from the specular reflection area to the diffuse reflection area. Further, the damage may be expressed by adjusting the gloss level of the specular reflection region and changing the size of the highlight portion HL.

前記実施形態では、プレイヤーキャラクターPChは、椅子及び当該椅子に座った人を模してモデリングされた3次元オブジェクトであるとしたが、本発明はこれに限らない。例えば、人以外の動物でもよく、生命体でないキャラクターを模したオブジェクトでもよい。また、プレイヤーキャラクターは、必ずしも椅子に座っている必要はない。更に、描画対象は、プレイヤーキャラクターでなくてもよい。   In the above embodiment, the player character PCh is a three-dimensional object modeled after a chair and a person sitting on the chair, but the present invention is not limited to this. For example, it may be an animal other than a human or an object imitating a non-life character. Also, the player character does not necessarily have to sit on the chair. Furthermore, the drawing target need not be a player character.

前記実施形態では、出力画像Gにおいて、第1画像P1が設定される第1領域A1内に、第2画像P2が設定される第2領域A2を配置したが、本発明はこれに限らない。すなわち、第1画像P1と第2画像P2とを1つのフレーム内に配置した出力画像が生成されればよく、各画像P1,P2の大きさも問わない。例えば、第1画像P1と第2画像P2とをそれぞれ分けて配置した出力画像を生成するようにしてもよく、第1画像P1が設定される第1領域A1と、第2画像P2が設定される第2領域A2とを入れ替えてもよい。   In the embodiment, in the output image G, the second area A2 in which the second image P2 is set is arranged in the first area A1 in which the first image P1 is set. However, the present invention is not limited to this. That is, an output image in which the first image P1 and the second image P2 are arranged in one frame may be generated, and the sizes of the images P1 and P2 are not questioned. For example, an output image in which the first image P1 and the second image P2 are separately arranged may be generated. The first area A1 in which the first image P1 is set and the second image P2 are set. The second area A2 may be interchanged.

前記実施形態では、描画プログラムがゲームプログラムに組み込まれた形態を例示したが、本発明はこれに限らない。例えば、CAD(Computer Aided Design)等の3次元グラフィックスを生成するアプリケーションプログラムに、本発明の描画プログラムを組み込んでもよく、前述のゲームとは異なるゲームプログラムに組み込んでもよい。   In the above embodiment, the drawing program is incorporated into the game program, but the present invention is not limited to this. For example, the drawing program of the present invention may be incorporated into an application program for generating three-dimensional graphics such as CAD (Computer Aided Design), or may be incorporated into a game program different from the above-described game.

本発明は、3次元グラフィックスを描画する描画プログラムに利用でき、特にゲームやCADに利用される描画プログラムに好適に利用することができる。   The present invention can be used for a drawing program for drawing three-dimensional graphics, and can be preferably used particularly for a drawing program used for a game or CAD.

1…情報処理装置(描画装置)、93…視点設定部、94…描画部、95…画像生成部、A1…第1領域、A2…第2領域、BP…背景画像、CL…キャラクター用光源(オブジェクト用光源)、E…目、F…顔(所定の部位)、G(G1〜G5)…出力画像、P1…第1画像、P2…第2画像、PCh…プレイヤーキャラクター(3次元オブジェクト)、S2…ステップ(光源設定ステップ)、S3…ステップ(視点設定ステップ)、S4…ステップ(描画ステップ)、S5…ステップ(画像生成ステップ)、V1…第1視点、V2…第2視点。   DESCRIPTION OF SYMBOLS 1 ... Information processing apparatus (drawing apparatus) 93 ... Viewpoint setting part, 94 ... Drawing part, 95 ... Image generation part, A1 ... 1st area | region, A2 ... 2nd area | region, BP ... Background image, CL ... Light source for characters ( Object light source), E ... eyes, F ... face (predetermined part), G (G1-G5) ... output image, P1 ... first image, P2 ... second image, PCh ... player character (three-dimensional object), S2 ... Step (light source setting step), S3 ... Step (viewpoint setting step), S4 ... Step (drawing step), S5 ... Step (image generation step), V1 ... First viewpoint, V2 ... Second viewpoint.

Claims (11)

描画装置により実行され、仮想の3次元空間に配置された3次元オブジェクトに基づく3次元グラフィックスを描画する描画プログラムであって、
それぞれのビュースクリーン内に前記3次元オブジェクトが含まれる第1視点及び第2視点を、それぞれ異なる位置に設定する視点設定ステップと、
前記第1視点に基づいて前記3次元オブジェクトをレンダリングした第1画像、及び、前記第2視点に基づいて前記3次元オブジェクトをレンダリングした第2画像をそれぞれ描画する描画ステップと、
互いに同期した前記第1画像及び前記第2画像を1フレーム内に設定した出力画像を生成する画像生成ステップと、を実行させることを特徴とする描画プログラム。
A drawing program that is executed by a drawing apparatus and draws three-dimensional graphics based on a three-dimensional object arranged in a virtual three-dimensional space,
A viewpoint setting step of setting the first viewpoint and the second viewpoint in which the three-dimensional object is included in each view screen at different positions;
A drawing step of drawing a first image obtained by rendering the three-dimensional object based on the first viewpoint and a second image obtained by rendering the three-dimensional object based on the second viewpoint;
An image generation step of generating an output image in which the first image and the second image synchronized with each other are set within one frame.
請求項1に記載の描画プログラムにおいて、
前記視点設定ステップでは、
前記第1視点を、当該第1視点のビュースクリーン内に前記3次元オブジェクトの略全体が含まれるように設定させ、
前記第2視点を、当該第2視点のビュースクリーン内に前記3次元オブジェクトの所定の部位が含まれるように、当該3次元オブジェクトの動きに応じて位置が変動する前記所定の部位に追随して設定させることを特徴とする描画プログラム。
The drawing program according to claim 1,
In the viewpoint setting step,
The first viewpoint is set so that substantially the entire three-dimensional object is included in the view screen of the first viewpoint;
The second viewpoint follows the predetermined part whose position varies according to the movement of the three-dimensional object so that the predetermined part of the three-dimensional object is included in the view screen of the second viewpoint. A drawing program characterized by being set.
請求項1又は請求項2に記載の描画プログラムにおいて、
前記視点設定ステップでは、
前記第1視点を、前記3次元オブジェクトの一方の側に設定させ、
前記第2視点を、前記3次元オブジェクトの前記一方の側とは反対側に設定させることを特徴とする描画プログラム。
In the drawing program according to claim 1 or 2,
In the viewpoint setting step,
The first viewpoint is set on one side of the three-dimensional object;
A drawing program for causing the second viewpoint to be set on a side opposite to the one side of the three-dimensional object.
請求項1から請求項3のいずれかに記載の描画プログラムにおいて、
前記描画ステップでは、前記第2視点のビュースクリーン内の前記3次元オブジェクトをレンダリングした画像を所定の背景画像に重ねた前記第2画像を描画させることを特徴とする描画プログラム。
In the drawing program according to any one of claims 1 to 3,
In the drawing step, a drawing program for drawing the second image obtained by superimposing an image obtained by rendering the three-dimensional object in the view screen of the second viewpoint on a predetermined background image.
請求項1から請求項4のいずれかに記載の描画プログラムにおいて、
前記描画ステップの前に、前記3次元空間に対して有効な空間用光源と、前記第2視点のビュースクリーン内の前記3次元オブジェクトの部位に対して有効なオブジェクト用光源とを設定する光源設定ステップを実行させ、
前記描画ステップでは、前記第1視点及び前記空間用光源に基づいてシェーディングされた前記第1画像を描画し、前記第2視点及び前記オブジェクト用光源に基づいてシェーディングされた前記第2画像を描画させることを特徴とする描画プログラム。
In the drawing program according to any one of claims 1 to 4,
Light source setting for setting a space light source effective for the three-dimensional space and an object light source effective for the part of the three-dimensional object in the view screen of the second viewpoint before the drawing step. Let the steps run,
In the drawing step, the first image shaded based on the first viewpoint and the light source for space is drawn, and the second image shaded based on the second viewpoint and the light source for object is drawn. A drawing program characterized by that.
請求項5に記載の描画プログラムにおいて、
前記描画ステップでは、前記第1画像の明度に応じて、前記第2画像の明度を設定させることを特徴とする描画プログラム。
The drawing program according to claim 5,
In the drawing step, the lightness of the second image is set according to the lightness of the first image.
請求項5又は請求項6に記載の描画プログラムにおいて、
前記3次元オブジェクトは、目を有する顔を備えたキャラクターをモデリングしたオブジェクトであり、
前記視点設定ステップでは、前記顔をビュースクリーンの中心とし、かつ、当該顔に対向する位置に前記第2視点を設定させ、
前記描画ステップでは、前記目に反射領域を設定させることを特徴とする描画プログラム。
In the drawing program according to claim 5 or 6,
The three-dimensional object is an object modeling a character with a face having eyes,
In the viewpoint setting step, the second viewpoint is set at a position facing the face centered on the face and the face;
In the drawing step, a drawing program causing the eye to set a reflection region.
請求項1から請求項7のいずれかに記載の描画プログラムにおいて、
前記画像生成ステップでは、前記1フレーム内に第1領域と、前記第1領域内に当該第1領域より小さい第2領域とを設定し、前記第1領域及び前記第2領域に、それぞれ前記第1画像及び前記第2画像を設定して、前記出力画像を生成させることを特徴とする描画プログラム。
In the drawing program according to any one of claims 1 to 7,
In the image generation step, a first area in the one frame and a second area smaller than the first area in the first area are set, and the first area and the second area are respectively in the first area and the second area. A drawing program that sets one image and the second image to generate the output image.
請求項1から請求項8のいずれかに記載の描画プログラムをコンピューター読取可能に記録したことを特徴とする記録媒体。   A recording medium in which the drawing program according to any one of claims 1 to 8 is recorded so as to be readable by a computer. 仮想の3次元空間内に配置された3次元オブジェクトに基づく3次元グラフィックスを描画する描画方法であって、
それぞれのビュースクリーン内に前記3次元オブジェクトが含まれる第1視点及び第2視点を、それぞれ異なる位置に設定する視点設定ステップと、
前記第1視点に基づいて前記3次元オブジェクトをレンダリングした第1画像、及び、前記第2視点に基づいて前記3次元オブジェクトをレンダリングした第2画像をそれぞれ描画する描画ステップと、
互いに同期した前記第1画像及び前記第2画像を1フレーム内に設定した出力画像を生成する画像生成ステップと、を有することを特徴とする描画方法。
A drawing method for drawing three-dimensional graphics based on a three-dimensional object arranged in a virtual three-dimensional space,
A viewpoint setting step of setting the first viewpoint and the second viewpoint in which the three-dimensional object is included in each view screen at different positions;
A drawing step of drawing a first image obtained by rendering the three-dimensional object based on the first viewpoint and a second image obtained by rendering the three-dimensional object based on the second viewpoint;
An image generation step of generating an output image in which the first image and the second image synchronized with each other are set in one frame.
仮想の3次元空間内に配置された3次元オブジェクトに基づく3次元グラフィックスを描画する描画装置であって、
それぞれのビュースクリーン内に前記3次元オブジェクトが含まれる第1視点及び第2視点を、それぞれ異なる位置に設定する視点設定部と、
前記第1視点に基づいて前記3次元オブジェクトをレンダリングした第1画像、及び、前記第2視点に基づいて前記3次元オブジェクトをレンダリングした第2画像をそれぞれ描画する描画部と、
互いに同期した前記第1画像及び前記第2画像を1フレーム内に設定した出力画像を生成する画像生成部と、を有することを特徴とする描画装置。
A drawing device for drawing three-dimensional graphics based on a three-dimensional object arranged in a virtual three-dimensional space,
A viewpoint setting unit that sets the first viewpoint and the second viewpoint in which the three-dimensional object is included in each view screen at different positions;
A drawing unit for drawing a first image obtained by rendering the three-dimensional object based on the first viewpoint, and a second image obtained by rendering the three-dimensional object based on the second viewpoint;
An image generation unit, comprising: an image generation unit configured to generate an output image in which the first image and the second image synchronized with each other are set in one frame.
JP2009217447A 2009-09-18 2009-09-18 Drawing program, recording medium, drawing method and drawing apparatus Active JP4913189B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009217447A JP4913189B2 (en) 2009-09-18 2009-09-18 Drawing program, recording medium, drawing method and drawing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009217447A JP4913189B2 (en) 2009-09-18 2009-09-18 Drawing program, recording medium, drawing method and drawing apparatus

Publications (2)

Publication Number Publication Date
JP2011065552A true JP2011065552A (en) 2011-03-31
JP4913189B2 JP4913189B2 (en) 2012-04-11

Family

ID=43951701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009217447A Active JP4913189B2 (en) 2009-09-18 2009-09-18 Drawing program, recording medium, drawing method and drawing apparatus

Country Status (1)

Country Link
JP (1) JP4913189B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216529A (en) * 1994-06-28 2001-08-10 Sega Corp Method and device for game with object display
JP2002334349A (en) * 2001-03-09 2002-11-22 Sony Computer Entertainment Inc Virtual space control program, recording medium with recorded virtual space control program, program executing device and virtual space control method
JP2004334850A (en) * 2003-04-30 2004-11-25 Nintendo Co Ltd Method and device for dynamically controlling parameters of camera based on status of game playing
JP2006263122A (en) * 2005-03-24 2006-10-05 Sega Corp Game apparatus, game system, game data processing method, program for game data processing method and storage medium
JP2009140237A (en) * 2007-12-06 2009-06-25 Konami Digital Entertainment Co Ltd Image processor, image processing method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001216529A (en) * 1994-06-28 2001-08-10 Sega Corp Method and device for game with object display
JP2002334349A (en) * 2001-03-09 2002-11-22 Sony Computer Entertainment Inc Virtual space control program, recording medium with recorded virtual space control program, program executing device and virtual space control method
JP2004334850A (en) * 2003-04-30 2004-11-25 Nintendo Co Ltd Method and device for dynamically controlling parameters of camera based on status of game playing
JP2006263122A (en) * 2005-03-24 2006-10-05 Sega Corp Game apparatus, game system, game data processing method, program for game data processing method and storage medium
JP2009140237A (en) * 2007-12-06 2009-06-25 Konami Digital Entertainment Co Ltd Image processor, image processing method and program

Also Published As

Publication number Publication date
JP4913189B2 (en) 2012-04-11

Similar Documents

Publication Publication Date Title
US8411092B2 (en) 2D imposters for simplifying processing of plural animation objects in computer graphics generation
EP3398666B1 (en) Game apparatus, processing method, and information storage medium
JP5822655B2 (en) GAME PROCESSING SYSTEM, GAME PROCESSING METHOD, GAME PROCESSING DEVICE, AND GAME PROCESSING PROGRAM
JP6761340B2 (en) Simulation system and program
TWI469813B (en) Tracking groups of users in motion capture system
JP4180065B2 (en) Image generation method, image generation apparatus, and image generation program
KR100463906B1 (en) Image processing apparatus, game machine and image processing method and medium using the processing apparatus
JP4177381B2 (en) Image generation method, image generation apparatus, and image generation program
JP4704622B2 (en) Image generation system, program, and information storage medium
US20170352188A1 (en) Support Based 3D Navigation
JP2017119032A (en) Game device and program
JP5960409B2 (en) GAME PROCESSING SYSTEM, GAME PROCESSING METHOD, GAME PROCESSING DEVICE, AND GAME PROCESSING PROGRAM
US9225968B2 (en) Image producing apparatus, system and method for producing planar and stereoscopic images
JP2004234253A (en) Method for presenting composite sense of reality
JP7104539B2 (en) Simulation system and program
JP4714763B2 (en) Image processing program, image processing apparatus, and image control method
JP4913189B2 (en) Drawing program, recording medium, drawing method and drawing apparatus
JP3951246B2 (en) Game device
JP2006011564A (en) Image processing
JP2000268193A (en) Image creating device, image creating method, readable recording medium in which image creation program is recorded and video game device
JP4425589B2 (en) Image generation program, image generation method, and image generation apparatus
JPH10230075A (en) Game device
JP2002092635A (en) Image processor
JP3763220B2 (en) Game device
JP3583994B2 (en) Entertainment device, storage medium, and object display method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111018

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120118

R150 Certificate of patent or registration of utility model

Ref document number: 4913189

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250