JP4967064B2 - Three-dimensional animation display device and program for realizing the display device - Google Patents

Three-dimensional animation display device and program for realizing the display device Download PDF

Info

Publication number
JP4967064B2
JP4967064B2 JP2011030320A JP2011030320A JP4967064B2 JP 4967064 B2 JP4967064 B2 JP 4967064B2 JP 2011030320 A JP2011030320 A JP 2011030320A JP 2011030320 A JP2011030320 A JP 2011030320A JP 4967064 B2 JP4967064 B2 JP 4967064B2
Authority
JP
Japan
Prior art keywords
main character
image
dimensional
program
monitor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011030320A
Other languages
Japanese (ja)
Other versions
JP2011103142A (en
Inventor
宗治 瀬田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Capcom Co Ltd
Original Assignee
Capcom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Capcom Co Ltd filed Critical Capcom Co Ltd
Priority to JP2011030320A priority Critical patent/JP4967064B2/en
Publication of JP2011103142A publication Critical patent/JP2011103142A/en
Application granted granted Critical
Publication of JP4967064B2 publication Critical patent/JP4967064B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、三次元の仮想空間内に定義された物体を、透視投影法によりスクリーンに投影される二次元画像に変換してモニタに表示させる三次元アニメーションの表示装置及びその表示装置をコンピュータで実現するためのプログラムに関するものである。 The present invention relates to a three-dimensional animation display device for converting an object defined in a three-dimensional virtual space into a two-dimensional image projected on a screen by a perspective projection method and displaying the same on a monitor. it relates to the program to realize.

従来、三次元コンピュータグラフィクス(Computer Graphics 以下、「CG」という。)を用いたアニメーションによってゲーム展開を表示するゲーム装置が知られている。そして、この種のゲーム装置に用いられる三次元CGアニメーションでは、一般に透視投影のカメラモデルを用いて各コマの二次元画像が作成される。   2. Description of the Related Art Conventionally, a game apparatus that displays a game development by animation using three-dimensional computer graphics (hereinafter referred to as “CG”) is known. In the three-dimensional CG animation used in this type of game device, a two-dimensional image of each frame is generally created using a perspective projection camera model.

例えば三次元の仮想空間内に2つの物体を存在させ、一方の物体を主たる遊技者の操作によって動作させる一方、他方の物体を従たる遊技者の操作若しくはコンピュータによって動作させて両物体を対戦させる対戦型ゲームにおいては、図9に示すように、一方の物体A(以下、「メインキャラクタ」という。)に対して後方の所定の位置(メインキャラクタAから距離Dだけ後方で高さHの位置)に仮想カメラCを配置し、この仮想カメラCでメインキャラクタA側を撮影して得られる二次元画像G(図10参照)が三次元CGの各コマの画像として生成され、モニタに表示される。   For example, two objects exist in a three-dimensional virtual space, and one object is operated by a main player's operation, while the other object is operated by a subordinate player's operation or a computer and the two objects are played against each other. In the competitive game, as shown in FIG. 9, a predetermined position behind the one object A (hereinafter referred to as “main character”) (a position with a height H behind the main character A by a distance D). ), A two-dimensional image G (see FIG. 10) obtained by photographing the main character A side with the virtual camera C is generated as an image of each frame of the three-dimensional CG and displayed on the monitor. The

なお、図10に示す画像Gは、実際に仮想カメラCでメインキャラクタA側を撮影したときに得られる撮影画像をシミュレーションしたものではなく、仮想カメラCの位置からメインキャラクタA側に視線を伸ばし、その視線が仮想カメラCとメインキャラクタAとの間に仮想的に配置されたスクリーンSと交差する位置にメインキャラクタAや対戦相手の物体B(以下、「敵キャラクタ」という。)やビルE1,E2や背景の山Mなどの他の物体を描画したもの(透視投影法による二次元画像)である。   Note that the image G shown in FIG. 10 is not a simulation of a captured image obtained when the main character A side is actually captured by the virtual camera C, and the line of sight extends from the position of the virtual camera C to the main character A side. The main character A, the opponent's object B (hereinafter referred to as “enemy character”), and the building E1 at a position where the line of sight intersects the screen S virtually disposed between the virtual camera C and the main character A. , E2, and other objects such as the background mountain M are drawn (two-dimensional image by perspective projection method).

そして、三次元CGアニメーションでは、操作者が操作コントローラの移動ボタンを操作すると、その操作に応じて仮想空間内でメインキャラクタAを移動させるとともに、仮想カメラCもメインキャラクタAに従って移動させ、コマ毎に透視投影法による二次元画像が生成されて仮想空間内で移動するメインキャラクタAの画像がモニタに表示される。   In the three-dimensional CG animation, when the operator operates the movement button of the operation controller, the main character A is moved in the virtual space in accordance with the operation, and the virtual camera C is also moved according to the main character A, for each frame. A two-dimensional image is generated by the perspective projection method, and the image of the main character A moving in the virtual space is displayed on the monitor.

対戦型ゲームおいては、遊技者の操作に応じてメインキャラクタAや敵キャラクタBは仮想空間(すなわち、対戦場となる空間。以下、「対戦空間」という。)内を自由に移動することができるが、例えば対戦空間内に設けられたビルE1,E2のうち、内部の画像が作成されていないものについては、ビル内に入ることはできない。このようなビルは、仮想空間内に恰も存在するかのように描画されるが、描画処理においては、ビル内は空洞になっており、外部から見たビル表面の画像が存在するだけだからである。このため、遊技者がメインキャラクタAをビル内に移動させるような操作を行ってもメインキャラクタAはビルの壁の部分までしか移動できず、メインキャラクタAの移動がビルの壁の部分で制限された状態の描画処理が行われる。 Oite to competitive game, the main character A and enemy character B in accordance with the operation of the player is the virtual space (ie, space becomes a battle field. Hereinafter referred to as the "battle space".) Be free to move within the However, for example, of the buildings E1 and E2 provided in the battle space, those for which an internal image is not created cannot enter the building. Such a building is drawn as if there is a trap in the virtual space, but in the drawing process, the inside of the building is hollow and there is only an image of the building surface seen from the outside. is there. For this reason, even if the player performs an operation to move the main character A into the building, the main character A can move only to the wall portion of the building, and the movement of the main character A is restricted at the wall portion of the building. The drawing process in the performed state is performed.

同様のことが仮想カメラCの移動位置についても生じる。すなわち、図11に示すように、P1に存在するメインキャラクタAに対してP3の位置に仮想カメラCを配置し、メインキャラクタA側を透視投影している状態から、操作者がメインキャラクタAをビルE1の前のP2に移動させた場合、仮想カメラCの位置がビルE1内のP4となり、仮想カメラCを移動させることができなくなる。   The same thing occurs for the movement position of the virtual camera C. That is, as shown in FIG. 11, the virtual camera C is arranged at the position P3 with respect to the main character A existing in P1, and the operator moves the main character A from the perspective of the main character A side. When moved to P2 in front of the building E1, the position of the virtual camera C becomes P4 in the building E1, and the virtual camera C cannot be moved.

ビルE1内のP4に仮想カメラCを移動させてメインキャラクタA側を見た透視投影法による二次元画像を作成すると、仮想カメラCとメインキャラクタAとの間に存在するビルE1の壁によって画面全体が覆われ、実質的にメインキャラクタAや仮想カメラCに対してメインキャラクタAの後方の敵キャラクタBなどをモニタに表示させることができないので、プログラムによって仮想カメラCをビルE1内に移動させないようにしているからである。   When the virtual camera C is moved to P4 in the building E1 to create a two-dimensional image by the perspective projection method when the main character A side is viewed, the screen is displayed by the wall of the building E1 existing between the virtual camera C and the main character A. Since the whole is covered and the main character A and the virtual camera C cannot display the enemy character B behind the main character A on the monitor, the virtual camera C is not moved into the building E1 by the program. It is because it is doing.

従って、このような場合は、P2とP4とを結ぶ線とビルE1の壁との交点P5に仮想カメラCを移動させ、このP5の位置からメインキャラクタA側を透視投影した二次元画像からなる三次元アニメーションが作成されることになる。   Accordingly, in such a case, the virtual camera C is moved to the intersection P5 between the line connecting P2 and P4 and the wall of the building E1, and the main character A side is perspectively projected from the position of P5. A 3D animation will be created.

この場合、メインキャラクタAと仮想カメラCとの間の距離D’が通常の透視投影の場合の距離Dよりも短くなり、モニタに表示される画像は、図12に示すように、二次元画像Gの画面内におけるメインキャラクタAの占める面積が大きくなりすぎ、仮想カメラCに対してメインキャラクタAの後方の敵キャラクタBやビルE3や背景Fの画像が殆ど隠れてしまうことになる。このような場合、通常の描画処理を行ったのではメインキャラクタAの描画によって、後方の敵キャラクタBやビルE3や背景Fの状態が完全に隠れてしまい、操作者が戦況状態を見失うことになるので、例えば特許文献1〜3に示される透過処理技術を用いてメインキャラクタAの画像に対して透過処理を行い、メインキャラクタAによって隠れる部分を見える状態にすることが行われている。   In this case, the distance D ′ between the main character A and the virtual camera C is shorter than the distance D in the case of normal perspective projection, and the image displayed on the monitor is a two-dimensional image as shown in FIG. The area occupied by the main character A in the screen of G becomes too large, and the image of the enemy character B, the building E3, and the background F behind the main character A is almost hidden from the virtual camera C. In such a case, if the normal drawing process is performed, the drawing of the main character A completely hides the state of the enemy character B, the building E3, and the background F behind, and the operator loses sight of the battle state. Therefore, for example, the transparency process is performed on the image of the main character A by using the transparency process technique disclosed in Patent Documents 1 to 3 so that the portion hidden by the main character A is visible.

図13は、メインキャラクタAの画像を透過画像にする従来の透過処理の処理手順の一例を示すフローチャートである。   FIG. 13 is a flowchart illustrating an example of a processing procedure of a conventional transmission process in which an image of the main character A is converted into a transmission image.

ここで、図14に示す透視投影の構成を例に、図13に示すフローチャートに従って従来の透過処理について説明する。   Here, the conventional transmission process will be described with reference to the flowchart shown in FIG. 13, taking the configuration of the perspective projection shown in FIG. 14 as an example.

図14(a)に示す透視投影の構成においては、仮想カメラCに対して球OJ1、直方体OJ2及び山OJ3の順に物体が配置され、仮想カメラCの位置から視線Lの方向を見た三次元CGの画像G(二次元画像G)は同図(b)のようになる。画面内には3個の物体OJ1,OJ2,OJ3のほかに、背景OJ4が存在するが、二次元画像Gにおいては、山OJ3が背景OJ4に含まれ、山OJ3は背景OJ4と一緒に描かれることになる。従って、二次元画像G内には、球OJ1の部分の領域と、直方体OJ2の部分の領域と、山OJ3及び背景OJ4の部分の領域の3つの領域とが存在することになる。   In the configuration of perspective projection shown in FIG. 14A, a three-dimensional view in which objects are arranged in the order of a sphere OJ1, a rectangular parallelepiped OJ2, and a mountain OJ3 with respect to the virtual camera C, and the direction of the line of sight L is viewed from the position of the virtual camera C. The CG image G (two-dimensional image G) is as shown in FIG. In addition to the three objects OJ1, OJ2, and OJ3, the background OJ4 exists in the screen, but in the two-dimensional image G, the mountain OJ3 is included in the background OJ4, and the mountain OJ3 is drawn together with the background OJ4. It will be. Therefore, in the two-dimensional image G, there are three areas, that is, the area of the sphere OJ1, the area of the rectangular parallelepiped OJ2, and the area of the mountain OJ3 and the background OJ4.

各領域は、多数の三角形のポリゴンによって構成され、二次元画像Gを作成する場合は、仮想カメラCから最も遠い物体を構成するポリゴンに対して描画処理を行った後、次に遠い物体を構成するポリゴンに対して描画処理を行い、最後に最も近い物体を構成するポリゴンに対して描画処理が行われる。球OJ1の部分の領域に含まれるポリゴンをg(k)、直方体OJ2の部分の領域に含まれるポリゴンをg(j)、山OJ3及び背景OJ4を含む部分の領域に含まれるポリゴンをg(i)とすると、ポリゴンg(i)について描画処理が行われた後、ポリゴンg(j)について描画処理が行われ、最後にポリゴンg(k)について描画処理が行われる。そして、最後のポリゴンg(k)についての描画処理において透過処理が行われる。   Each region is composed of a large number of triangular polygons, and when creating a two-dimensional image G, after drawing processing is performed on the polygons that form the object farthest from the virtual camera C, the next distant object is formed. The drawing process is performed on the polygon to be processed, and the drawing process is performed on the polygon constituting the object closest to the end. The polygon included in the region of the sphere OJ1 is g (k), the polygon included in the region of the cuboid OJ2 is g (j), and the polygon included in the region of the portion including the mountain OJ3 and the background OJ4 is g (i). ), After drawing processing is performed on the polygon g (i), drawing processing is performed on the polygon g (j), and finally drawing processing is performed on the polygon g (k). Then, a transparency process is performed in the drawing process for the last polygon g (k).

以上の処理内容を図13のフローチャートにより説明すると、まず、仮想カメラCより奥側の物体からポリゴン単位で描画順が決定される(S30)。すなわち、山OJ3及び背景OJ4の部分の領域に含まれるポリゴンg(i)(i=1,2,…N1)について描画順が決定され、次に、直方体OJ2の部分の領域に含まれるポリゴンg(j)(j=1,2,…N2)について描画順が決定され、最後に球OJ1の部分の領域に含まれるポリゴンg(k)(k=1,2,…N3)について描画順が決定される。   The contents of the above processing will be described with reference to the flowchart of FIG. That is, the drawing order is determined for the polygon g (i) (i = 1, 2,... N1) included in the area of the mountain OJ3 and the background OJ4, and then the polygon g included in the area of the rectangular parallelepiped OJ2 (j) The drawing order is determined for (j = 1, 2,... N2), and finally the drawing order for the polygon g (k) (k = 1, 2,... N3) included in the region of the sphere OJ1. It is determined.

従って、描画順の決定された全てのポリゴンg(i),g(j),g(k)をg(h)(hは描画順。h=1,2,…(N1+N2+N3))とすると、続いて、ポリゴンの描画順をカウントするカウンタ値hが「1」に設定され(S31)、最初のポリゴンg(h)に対して光源処理が行われる(S32)。光源処理とは、ポリゴンを構成する頂点について光源及び光源から入射光の反射特性に関する情報を付与する処理である。   Accordingly, if all the polygons g (i), g (j), and g (k) for which the drawing order is determined are g (h) (h is the drawing order, h = 1, 2,... (N1 + N2 + N3)), Subsequently, the counter value h for counting the drawing order of the polygons is set to “1” (S31), and the light source process is performed on the first polygon g (h) (S32). The light source process is a process of giving information on the reflection characteristics of incident light from the light source and the light source with respect to the vertices constituting the polygon.

続いて、ポリゴンg(h)に対してテクスチャ処理が行われる(S33)。テクスチャ処理は、ポリゴンg(h)に、対応するテクスチャ(二次元画像)を貼り付ける処理である。続いて、ポリゴンg(h)に対して透過処理の要否が判定される(S34)。この判定は、ポリゴンg(h)が球OJ1の部分の領域に含まれるポリゴンであるか否かを判定することによって行われる。ポリゴンg(h)に対して透過処理が必要であれば(S34:YES)、アルファブレンディング処理が行われる(S35)。アルファブレンディング処理は、例えばポリゴンg(h)とこれに重なるポリゴンg(h’)のテクスチャの色を混合したり、掛け合わしたりしてポリゴンg(h)の色を透過色とするものである。ポリゴンg(h)に対して透過処理が不要であれば(S34:NO)、ステップS35の処理はスキップされる。最初のポリゴンg(1)では、透過処理は不要となるから、ステップS35はスキップされ、ステップS36に移行する。   Subsequently, texture processing is performed on the polygon g (h) (S33). The texture processing is processing for pasting a corresponding texture (two-dimensional image) on the polygon g (h). Subsequently, it is determined whether or not the transmission process is necessary for the polygon g (h) (S34). This determination is performed by determining whether or not the polygon g (h) is a polygon included in the region of the sphere OJ1. If transmission processing is necessary for the polygon g (h) (S34: YES), alpha blending processing is performed (S35). In the alpha blending process, for example, the texture color of the polygon g (h) and the overlapping polygon g (h ′) are mixed or multiplied to make the color of the polygon g (h) a transparent color. . If the transmission process is not required for the polygon g (h) (S34: NO), the process of step S35 is skipped. For the first polygon g (1), the transmission process is unnecessary, so step S35 is skipped and the process proceeds to step S36.

続いて、カウンタ値hが「1」だけ増加された後(S36)、そのカウンタ値hが全てのポリゴン数(N1+N2+N3)を超えたか否かが判別され(S37)、h≦(N1+N2+N3)であれば(S37:NO)、ステップS32に戻り、次のポリゴンg(h+1)についてステップS32〜S35の処理が行われ、以下、同様にして全てのポリゴンg(h)に対してステップS32〜S35の処理が行われる。そして、h>(N1+N2+N3)になると(S37:YES)、透過処理を終了する。   Subsequently, after the counter value h is incremented by “1” (S36), it is determined whether or not the counter value h exceeds the number of all polygons (N1 + N2 + N3) (S37), and h ≦ (N1 + N2 + N3). If this is the case (S37: NO), the process returns to step S32, and the processing of steps S32 to S35 is performed for the next polygon g (h + 1). The process of S35 is performed. When h> (N1 + N2 + N3) is satisfied (S37: YES), the transmission process is terminated.

特開平09−50541号公報Japanese Patent Laid-Open No. 09-50541 特許第2902352号公報Japanese Patent No. 2902352 特開2002−45566号公報JP 2002-45566 A

ところで、例えば図12のような状態になるときに、従来の透過処理を適用すれば、メインキャラクタAの部分には透過処理が施されるので、遊技者はメインキャラクタAに重なって見えなくなる敵キャラクタBや背景Fの部分を視認することができるようになるが、この透過処理においてもメインキャラクタAのポリゴンに対して光源処理やテクスチャ処理が行われるので、メインキャラクタAの透過像にも光沢や色、柄の情報が残り、これによって敵キャラクタBやビルE3や背景Fの部分が見え辛くなるという不都合がある。   By the way, for example, when the conventional transparent process is applied in the state as shown in FIG. 12, the transparent process is performed on the main character A, so that the player cannot see the enemy overlapping the main character A. Although the character B and the background F can be visually recognized, since the light source process and the texture process are performed on the polygon of the main character A in this transmission process, the transmission image of the main character A is also glossy. There is an inconvenience that information on the color, pattern, and the like remains, which makes it difficult to see the enemy character B, the building E3, and the background F.

なお、図12において、メインキャラクタAに施した斜線部分は透過像に色や模様が付されていることを示し、透明部分は透過像の反射が大きく、色や柄や模様が他の部分より明るいことを示している。   In FIG. 12, the shaded portion applied to the main character A indicates that the transmitted image has a color or pattern, the transparent portion has a larger reflection of the transmitted image, and the color, pattern, or pattern is more than the other portion. It is bright.

この問題を解決するために、メインキャラクタAを透過像で表示することを止め、メインキャラクタAを表示しないという方法も考えられる。しかし、対戦型ゲームの場合、遊技者がメインキャラクタAの攻撃又は防御の動作を制御する際、メインキャラクタAと敵キャラクタBとの位置関係や敵キャラクタBの動作状態が認識できることが重要であり、これらの情報がモニタの画面から明瞭に得られなかった場合は、敵キャラクタBの攻撃を受けたのか否かも分からぬままメインキャラクタAがダメージを負ったり、メインキャラクタAの攻撃動作に入る挙動が見えないため、遊技者は攻撃ボタンを操作するタイミングが分からなくなったりする等して、戦闘意欲が阻害されることになるので、メインキャラクタAを表示しないという方法を採用することは好ましくない。   In order to solve this problem, a method of stopping displaying the main character A as a transmission image and not displaying the main character A is also conceivable. However, in the case of a competitive game, it is important that the player can recognize the positional relationship between the main character A and the enemy character B and the action state of the enemy character B when controlling the attack or defense action of the main character A. If this information is not clearly obtained from the monitor screen, the main character A takes damage or enters the attack action of the main character A without knowing whether the enemy character B has been attacked or not. Therefore, it is not preferable to adopt a method in which the main character A is not displayed.

対戦型ゲームにおいては、遊技者が戦況に応じて、メインキャラクタAを図11や図12の状態になる位置に移動させることは多々あり、その度にメインキャラクタAがモニタに表示されないようになると、遊技者はメインキャラクタAの位置が分からなくなり、操作性が著しく低下することになる。   In a competitive game, the player often moves the main character A to a position where the state shown in FIG. 11 or FIG. 12 is reached in accordance with the situation of the game, and the main character A is not displayed on the monitor each time. The player cannot know the position of the main character A, and the operability is significantly reduced.

その一方、従来の透過処理によりメインキャラクタAを表示させるようにした場合は、メインキャラクタAが透過表示された状態で遊技者がメインキャラクタAに攻撃若しくは防御の動作をさせると、メインキャラクタAと敵キャラクタBとが重なった状態で両キャラクタA,Bが動作する画像が透過像で表示されることになるので、透過表示におけるメインキャラクタAの色、柄、模様などの情報が却って敵キャラクタBの動作を見辛くし、遊技者にとって戦況の把握が困難になる。   On the other hand, when the main character A is displayed by the conventional transparent processing, if the player causes the main character A to perform an attack or defense action while the main character A is displayed transparently, Since the image in which both characters A and B move in a state where the enemy character B overlaps is displayed as a transparent image, information such as the color, pattern, and pattern of the main character A in the transparent display is rejected and the enemy character B is displayed. This makes it difficult for players to understand the battle situation.

本発明は、上記課題に鑑みてなされたものであり、仮想カメラの位置がメインキャラクタに近接した場合、メインキャラクタをシルエット表示することにより当該メインキャラクタで隠れる部分を従来よりも見易くすることのできる三次元アニメーションの表示装置及びその表示装置を実現するためのプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and when the position of the virtual camera is close to the main character, the main character can be displayed in silhouette to make it easier to see the portion hidden by the main character than before. and to provide a program for implementing the display device and a display device of a three-dimensional animation.

本願発明の第1の側面によって提供されるプログラムは、コンピュータを、三次元の仮想空間内に配置された所定の物体を当該仮想空間内に設定された所定の視点から透視投影して得られる二次元画像からなる三次元アニメーションを作成し、その三次元アニメーションをモニタに表示させる三次元アニメーション表示装置として機能させるプログラムであって、前記コンピュータを、前記物体の移動に応じて前記視点と当該物体との距離が所定の距離以下に近接したか否かを判別する判別手段と、前記判別手段により前記視点と前記物体との距離が所定の距離以下に近接したと判別されると、前記物体が存在しないとした場合に透視投影して得られる背景その他の部分の二次元画像を、前記物体によって隠れる前記背景その他の部分の濃度が当該物体が存在しないとした場合の濃度と異なるように描画することにより、当該物体をシルエットで表示した二次元画像からなる三次元アニメーションを作成する動画像作成手段と、前記動画像作成手段で作成された三次元アニメーションを前記モニタに表示させる表示制御手段と、して機能させることを特徴としている(請求項1)。 The program provided by the first aspect of the present invention is obtained by perspectively projecting a predetermined object placed in a three-dimensional virtual space from a predetermined viewpoint set in the virtual space. create a three-dimensional animation consisting dimensional image, a program to function as a three-dimensional animation display device for displaying the three-dimensional animation on the monitor, the computer, the viewpoint and the person in accordance with the movement of the front SL product body a determination unit that the distance between said object is determined whether proximate to or less than a predetermined distance, the distance between the viewpoint and the front Symbol object body is judged to have approached less than a predetermined distance by said determining means when the two-dimensional image of the background other portions obtained by perspective projection when said object is not present, the concentration of the background other parts hidden by the object By drawing in so that different from the concentration in the case of the the object does not exist, the moving image creating means for creating a three-dimensional animation of a two-dimensional image displaying the person said object silhouette, front Stories moving picture It is characterized by functioning as display control means for displaying the three-dimensional animation created by the creation means on the monitor (claim 1).

なお、前記物体によって隠れる部分の濃度の前記物体が存在しないとした場合の濃度に対する異ならせ方は、画面全体の明るさによって異なるとよい(請求項2)。また、前記所定の距離は、前記視点から仮想カメラによって前記第1の物体を撮影した場合に撮影画面内における前記第1の物体のサイズが所定のサイズ以上となる距離にするとよい(請求項)。 It should be noted that the method of making the density of the portion hidden by the object different from the density when the object does not exist may be different depending on the brightness of the entire screen. The predetermined distance is the size of the first object in the photographing screen when taken with the first object by a virtual camera from the viewpoint may be a distance equal to or greater than a predetermined size (claim 3 ).

また、前記動画像作成手段は、前記物体を除いた透視投影法による各コマの二次元画像を作成する画像作成手段と、前記モニタの表示画面上における前記物体の表示位置を算出する算出手段と、前記画像作成手段によって作成された二次元画像の、前記算出手段で算出された前記モニタの表示画面内の前記物体の表示位置に含まれる画素に対して、各画素の濃度を所定の割合で変化させる濃度変更手段と、を含むとよい(請求項)。 Also, the moving image creating means includes a pre-Symbol product image producing means by the body excluding the perspective projection method to create a two-dimensional image of each frame, calculates the display position before the SL material body in the monitor of the display screen calculation means for, in the two-dimensional image created by the image creation means, with respect to pixels included in the display position before SL product of the display screen of the monitor that is calculated by said calculation means, for each pixel a density changing means for changing the density at a predetermined rate, may include a (claim 4).

また、前記動画像作成手段は、前記画像作成手段で作成された各コマの二次元画像の色数を低減して保存する記憶手段と、前記算出手段で算出された前記物体の表示位置を前記記憶手段に保存された各コマの二次元画像における表示位置に変換する変換手段と、を更に備え、前記濃度変更手段は、前記記憶手段に保存された各コマの二次元画像を用いて、濃度変更処理を行うとよい(請求項)。 Also, the moving image creating means includes a storage means for storing by reducing the number of colors in the two-dimensional image of each frame that is created by the image creation unit, the display position of the previous SL product body calculated by the calculating means Conversion means for converting the frame into a display position in the two-dimensional image of each frame stored in the storage means, the density changing means using the two-dimensional image of each frame stored in the storage means The density changing process may be performed (claim 5 ).

また、本願発明の第の側面によって提供される三次元アニメーション表示装置は、請求項1乃至5のいずれかに記載のプログラムを記録したプログラム記憶部と、前記プログラム記憶部に記憶されたプログラムを実行するコンピュータと、を備えたことを特徴とする(請求項)。 The display device of three-dimensional animation is provided by the second aspect of the present invention includes a program storage unit which records a program according to any one of claims 1 to 5, wherein the program storage unit a program stored in And a computer that executes the above (claim 6 ).

本発明によれば、透視投影法により作成した三次元アニメーションをモニタに表示する際、視点(仮想カメラの位置)と所定の物体との距離が、例えば仮想カメラの撮影画面内の所定の物体のサイズが所定のサイズ以上となるような所定の距離以下に近接したときは、物体が存在しないとした場合に透視投影して得られる背景その他の部分の二次元画像を、物体によって隠れる背景及びその他の部分の濃度が当該物体が存在しないとした場合の濃度と異なるように描画することにより、当該物体をシルエットで表示した二次元画像からなる三次元アニメーションが作成されてモニタに表示されるので、物体の操作者は当該物体の位置や状態を見失うことがなく、しかも当該物体によって隠れる背景及びその他の部分も明瞭に視認することができるので、物体に対する操作性を損なうことがない。 According to the present invention, when the three-dimensional animation created by the perspective projection method is displayed on the monitor, the distance between the viewpoint (the position of the virtual camera) and the predetermined object is, for example, the predetermined object in the shooting screen of the virtual camera. 2D images of background and other parts obtained by perspective projection when the object does not exist when the object is close to a predetermined distance that is larger than the predetermined size by concentration of the portion is drawn in so that different from the concentration in the case of that there is no such object, three-dimensional animation of a two-dimensional image displaying the person said object silhouette is displayed on the monitor is created Runode, objects of operator without losing the position and status of the person said object, yet also be clearly visible background and other parts hidden by those said object Runode, without impairment of operability for the object body.

特に、本発明に係る透過処理方法を対戦型ゲームに適用した場合には、操作者が操作するメインキャラクタに仮想カメラが近接しすぎた場合にも戦況把握に必要な情報(メインキャラクタと敵キャラクタとの位置関係や両キャラクタの態勢などの情報)の取得が困難になることがなく、メインキャラクタに対する操作性の低下やこれに基づく遊技者の遊技意欲の喪失を防止することができる。従って、遊技者は対戦型ゲームを快適に楽しむことができる。   In particular, when the transparent processing method according to the present invention is applied to a battle-type game, information (main character and enemy character) necessary for grasping the battle situation even when the virtual camera is too close to the main character operated by the operator. Acquisition of information such as the positional relationship between the two characters and the attitudes of both characters) can be prevented, and deterioration of the operability of the main character and loss of the player's willingness to play based on this can be prevented. Therefore, the player can enjoy the competitive game comfortably.

また、物体(メインキャラクタ)によって隠れる部分の濃度を低下若しくは上昇させるだけの処理であるので、従来の透過処理に比べて、描画のための演算負荷を低減することができる。 Further, since only the process reduces or increases the concentration of the portion hidden by the object body (main character), as compared to the conventional transmission process, to reduce the computational load for drawing.

本発明に係る三次元アニメーションの表示方法を適用したゲーム装置の一例を示すブロック構成図である。It is a block block diagram which shows an example of the game device to which the display method of the three-dimensional animation which concerns on this invention is applied. 本発明に係るシルエット透過表示方法に関係した描画制御を示す基本的な処理手順を示すフローチャートである。It is a flowchart which shows the basic process sequence which shows the drawing control relevant to the silhouette transparent display method concerning this invention. メインキャラクタをシルエット表示するシルエット透過処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the silhouette permeation | transmission process which displays a main character in silhouette. 仮想カメラがメインキャラクタに近接した場合にモニタに表示される透視投影法による二次元画像の描画順を説明するための図である。It is a figure for demonstrating the drawing order of the two-dimensional image by the perspective projection method displayed on a monitor when a virtual camera adjoins to the main character. スクリーンバッファにメインキャラクタよりも後方にある敵キャラクタとビル及び背景とが描画された状態を示す図である。It is a figure which shows the state by which the enemy character, building, and background which are behind the main character were drawn on the screen buffer. スクリーンバッファからテクスチャバッファに色数を低減して画像を取り込む際の色数の低減例を示す図である。It is a figure which shows the reduction example of the number of colors at the time of reducing the number of colors from a screen buffer to a texture buffer, and taking in an image. スクリーンバッファにおけるメインキャラクタの描画位置を示す図である。It is a figure which shows the drawing position of the main character in a screen buffer. スクリーンバッファに描かれた敵キャラクタ及び背景のメインキャラクタによって隠れる部分の濃度を低下させることにより当該メインキャラクタがシルエット表示される三次元アニメーション画像の一例を示す図である。It is a figure which shows an example of the three-dimensional animation image by which the said main character is silhouette-displayed by reducing the density of the part hidden by the enemy character drawn in the screen buffer, and the main character of the background. 透視投影法による三次元CG画像を説明するための図である。It is a figure for demonstrating the three-dimensional CG image by a perspective projection method. 図9の構成によってモニタに表示される三次元CG画像を示す図である。It is a figure which shows the three-dimensional CG image displayed on a monitor by the structure of FIG. メインキャラクタの移動により内部が定義されていないビル内にカメラ位置が移動することになる場合のカメラ位置の修正を説明するための図である。It is a figure for demonstrating correction of a camera position when a camera position will move in the building where the inside is not defined by the movement of a main character. メインキャラクタに仮想カメラが近接した場合にモニタに表示される3次元CG画像の一例を示す図である。It is a figure which shows an example of the three-dimensional CG image displayed on a monitor when a virtual camera adjoins to the main character. 従来の透過処理の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the conventional transparent process. 従来の透過処理の内容を説明するための図である。It is a figure for demonstrating the content of the conventional transparent process.

以下、本発明の好ましい実施の形態を、添付図面を参照して具体的に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、本発明に係るアニメーション表示方法を適用したゲーム装置の一例を示すブロック構成図である。ゲーム装置1は、家庭用として用いられるテレビゲーム機であり、ゲームプログラム及びゲームデータが記録されたCD−ROM(Compact Disc−ROM)から当該ゲームプログラム及びゲームデータを装置内のメモリ(RAM)に読み込み、CPU(Central Processing Unit)によってゲームプログラムを実行させることにより遊技者がゲーム内容を楽しむことができるものである。   FIG. 1 is a block diagram showing an example of a game apparatus to which the animation display method according to the present invention is applied. The game apparatus 1 is a television game machine used for home use, and the game program and game data are stored in a memory (RAM) in the apparatus from a CD-ROM (Compact Disc-ROM) on which the game program and game data are recorded. By reading and executing a game program by a CPU (Central Processing Unit), the player can enjoy the game contents.

本実施形態は、家庭用のテレビゲーム機であるが、本発明に係る三次元アニメーション表示方法は家庭用のテレビゲーム機に限らず、アーケードゲーム機などの他の種類のゲーム機やゲーム機以外の透視投影法による三次元アニメーションを用いた装置にも適用することができる。なお、以下の説明では、ゲーム内容として対戦型ゲーム(メインキャラクタと敵キャラクタとが格闘したり、戦闘したりするゲーム)を例に説明する。   The present embodiment is a home video game machine, but the 3D animation display method according to the present invention is not limited to a home video game machine, but other types of game machines such as arcade game machines and game machines. It can also be applied to an apparatus using three-dimensional animation by the perspective projection method. In the following description, a battle type game (a game in which a main character and an enemy character fight or fight) will be described as an example of game content.

ゲーム装置1は、CPU2、描画データ生成プロセッサ3、RAM(Random Access Memory)4、ROM(Read Only Memory)5、描画処理プロセッサ6、VRAM(Video-RAM)7、D/A(Digital-Analog)コンバータ8、音声処理プロセッサ9、アンプ10、インターフェース(I/F)11、CD−ROMドライバ12及びバス13を含んでいる。   The game apparatus 1 includes a CPU 2, a drawing data generation processor 3, a RAM (Random Access Memory) 4, a ROM (Read Only Memory) 5, a drawing processor 6, a VRAM (Video-RAM) 7, and a D / A (Digital-Analog). A converter 8, an audio processor 9, an amplifier 10, an interface (I / F) 11, a CD-ROM driver 12 and a bus 13 are included.

ゲーム装置1にはテレビジョンが接続され、当該テレビジョンのブラウン管や液晶ディスプレイなどの表示装置がD/Aコンバータ8に外部接続されるモニタ14として利用され、当該テレビジョンに内蔵のスピーカがアンプ10に外部接続されるスピーカ15として利用される。ゲーム装置1では、ゲームプログラム及びゲームデータ(キャラクタや背景の画像データ、ステータスなどの情報表示用の画像データ、効果音やBGMなどの音声データ、文字や記号によるメッセージデータなど)が記録されたCD−ROM17をCD−ROMドライバ12に装着し、CD−ROMドライバ12によってCD−ROM17内のゲームプログラム及びゲームデータをRAM4に読み込み、CPU2によってゲームプログラムを実行することによりゲーム内容を楽しむことができる。   A television is connected to the game apparatus 1, and a display device such as a cathode ray tube or a liquid crystal display of the television is used as a monitor 14 externally connected to the D / A converter 8, and a speaker built in the television is an amplifier 10. It is used as a speaker 15 connected externally. In the game apparatus 1, a CD on which a game program and game data (character and background image data, image data for displaying information such as status, sound data such as sound effects and BGM, message data using characters and symbols, etc.) are recorded. The ROM 17 is mounted on the CD-ROM driver 12, the game program and game data in the CD-ROM 17 are read into the RAM 4 by the CD-ROM driver 12, and the game program is executed by the CPU 2 so that the game contents can be enjoyed.

ゲーム装置1にはインターフェース(I/F)11を介して操作コントローラ16が接続され、遊技者はこの操作コントローラ16の操作部材を操作することによりゲームを進行させることができる。   An operation controller 16 is connected to the game apparatus 1 via an interface (I / F) 11, and the player can advance the game by operating an operation member of the operation controller 16.

CPU2、描画データ生成プロセッサ3、RAM4、ROM5、描画処理プロセッサ6、音声処理プロセッサ9、インターフェース(I/F)11及びCD−ROMドライバ12はバス13によって相互にデータ伝送可能に接続されている。   The CPU 2, the drawing data generation processor 3, the RAM 4, the ROM 5, the drawing processing processor 6, the sound processing processor 9, the interface (I / F) 11, and the CD-ROM driver 12 are connected to each other via a bus 13 so that data transmission is possible.

CPU2は、上記のようにCD−ROMドライバ12によってCD−ROM17からRAM4に読み込まれるゲームプログラムを実行することより、ゲーム進行を統括的に制御する。より具体的には、操作コントローラ16から遊技者の操作信号が入力されると、CPU2は、ゲームプログラムに従ってその操作信号に対する所定のゲーム進行処理を行い、その処理結果をモニタ14に三次元アニメーションによって表示するとともに、スピーカ15から効果音によって出力する。   The CPU 2 comprehensively controls the game progress by executing the game program read from the CD-ROM 17 into the RAM 4 by the CD-ROM driver 12 as described above. More specifically, when a player's operation signal is input from the operation controller 16, the CPU 2 performs a predetermined game progress process for the operation signal in accordance with the game program, and the processing result is displayed on the monitor 14 by three-dimensional animation. While being displayed, the sound is output from the speaker 15 by sound effects.

モニタ14に表示するための三次元アニメーションの描画処理は、主として描画処理プロセッサ6によって行われる。CPU2は、操作コントローラ16からの遊技者の操作信号に基づき、モニタ14に表示すべき三次元アニメーションの内容を決定し、その内容に対して必要な描画データを描画データ生成プロセッサ3に生成させ、その描画データを描画処理プロセッサ6に転送して描画処理を行わせる。また、CPU2は、スピーカ15から出力すべき効果音若しくはBGMの音響内容を決定し、音声処理プロセッサ9にその音響内容に対した音声データを生成させ、その音声データをスピーカ15から出力させる。   The drawing process of the three-dimensional animation to be displayed on the monitor 14 is mainly performed by the drawing processor 6. The CPU 2 determines the content of the three-dimensional animation to be displayed on the monitor 14 based on the player's operation signal from the operation controller 16, and causes the drawing data generation processor 3 to generate the necessary drawing data for the content, The drawing data is transferred to the drawing processor 6 to perform drawing processing. Further, the CPU 2 determines the sound effect or BGM sound content to be output from the speaker 15, causes the sound processing processor 9 to generate sound data corresponding to the sound content, and outputs the sound data from the speaker 15.

描画データ生成プロセッサ3は、描画処理に必要な各種の演算処理を行うものである。CPU2は、モニタ14に表示すべき画像を決定し、その画像の描画に必要な画像データ(背景、メインキャラクタ及び敵キャラクタのポリゴンデータ、テクスチャデータ、光源データなど)をRAM4から読み出して描画データ生成プロセッサ3に供給する。また、CPU2は、操作コントローラ16から入力される操作情報を描画データ生成プロセッサ3に供給する。描画データ生成プロセッサ3は、CPU2から供給される画像データと操作情報に基づいて、描画に必要なデータ(透視投影における仮想カメラ、メインキャラクタ、敵キャラクタ及び背景の位置関係、スクリーン画面(モニタの画面に相当)上におけるメインキャラクタ、敵キャラクタ及び背景を構成するポリゴンの座標、各ポリゴンに対応するテクスチャ、各ポリゴンの反射特性などのデータ)を演算し、その演算結果を描画処理プロセッサ6に供給する。   The drawing data generation processor 3 performs various arithmetic processes necessary for the drawing process. The CPU 2 determines an image to be displayed on the monitor 14, reads out image data (background, main character and enemy character polygon data, texture data, light source data, etc.) necessary for drawing the image from the RAM 4 and generates drawing data. This is supplied to the processor 3. Further, the CPU 2 supplies operation information input from the operation controller 16 to the drawing data generation processor 3. Based on the image data and operation information supplied from the CPU 2, the drawing data generation processor 3 generates data necessary for drawing (virtual camera, main character, enemy character and background positional relationship in perspective projection, screen screen (monitor screen (E.g., coordinates of polygons constituting the main character, enemy character, and background, texture corresponding to each polygon, reflection characteristics of each polygon, etc.) and supplying the calculation result to the drawing processor 6. .

RAM4は、CD−ROMドライバ12によってCD−ROM17から読み込まれたゲームプログラム及びゲームデータを格納するエリアと、CPU2がゲームプログラムを処理するためのワークエリアを提供するものである。RAM4には、ゲームの進行に応じて必要なゲームプログラムとゲームデータとがCD−ROM17から読み込まれて記憶される。   The RAM 4 provides an area for storing the game program and game data read from the CD-ROM 17 by the CD-ROM driver 12 and a work area for the CPU 2 to process the game program. In the RAM 4, a game program and game data necessary for the progress of the game are read from the CD-ROM 17 and stored.

ゲームプログラムには、CPU2に実行させるための処理手順や各種命令等が記述されており、その中には、操作コントローラ16からの操作信号に応じてゲーム画面や音声等を制御するための内容が含まれている。ゲームデータには、例えばメインキャラクタ、敵キャラクタ及び背景や他の物体を構成するポリゴンデータとテクスチャデータが含まれ、BGMや各種の効果音として用いられる音声データも含まれている。   The game program describes processing procedures and various instructions to be executed by the CPU 2, and includes contents for controlling the game screen, sound, and the like according to operation signals from the operation controller 16. include. The game data includes, for example, polygon data and texture data constituting the main character, enemy character, background and other objects, and also includes sound data used as BGM and various sound effects.

本実施形態では、CD−ROM17に記憶されたゲームプログラムは、例えば遊技者が操作コントローラ16を操作することによって動作が制御されるメインキャラクタと他の遊技者若しくはコンピュータによって動作が制御される複数の敵キャラクタとを対戦させるアクションゲームである。より具体的には、このアクションゲームは、市街地、砂漠、海上、空、宇宙空間などの各種のシチュエーションを対戦場とし、メインキャラクタが銃やミサイルなどの各種の武器を用いて複数の敵キャラクタと戦闘し、より強い敵キャラクタを倒していくことを目的としたものである。   In the present embodiment, the game program stored in the CD-ROM 17 includes, for example, a main character whose operation is controlled by a player operating the operation controller 16 and a plurality of operations whose operations are controlled by another player or a computer. It is an action game that battles enemy characters. More specifically, in this action game, various situations such as urban area, desert, sea, sky, outer space, etc. are used as battlefields, and the main character uses a variety of weapons such as guns and missiles to fight multiple enemy characters. The purpose is to fight and defeat stronger enemy characters.

ROM5は、ディスクローディング機能などのゲーム装置1の基本的機能やCD−ROM17に記憶されたゲームプログラム及びゲームデータを読み出す手順などを示す基本プログラムが記憶されている。CPU2は、CD−ROMドライバ12にCD−ROM17が装着されると、ROM5の基本プログラムに従ってCD−ROMドライバ12を動作させ、CD−ROM17からゲームプログラム及びゲームデータをRAM4に読み込み、ゲーム開始状態に設定する。   The ROM 5 stores a basic program indicating a basic function of the game apparatus 1 such as a disk loading function, a game program stored in the CD-ROM 17 and a procedure for reading game data, and the like. When the CD-ROM 17 is mounted on the CD-ROM driver 12, the CPU 2 operates the CD-ROM driver 12 according to the basic program in the ROM 5, reads the game program and game data from the CD-ROM 17 into the RAM 4, and enters the game start state. Set.

描画処理プロセッサ6は、三次元アニメーションの各コマの画像(透視投影法による二次元画像)を生成し、モニタ14に表示させるものである。描画処理プロセッサ6は、CPU2からの描画指令に基づき、描画データ生成プロセッサ3から供給されるデータを用いてモニタ14に表示させる各コマの二次元画像を作成する。描画処理プロセッサ6には各コマの二次元画像の作成作業をするためのVRAM7が接続されている。描画処理プロセッサ6は、VRAM7を用いて1/30秒毎に各コマの二次元画像のデータを生成する。   The drawing processor 6 generates an image of each frame of the three-dimensional animation (two-dimensional image by a perspective projection method) and displays it on the monitor 14. The drawing processor 6 creates a two-dimensional image of each frame to be displayed on the monitor 14 using data supplied from the drawing data generation processor 3 based on a drawing command from the CPU 2. Connected to the drawing processor 6 is a VRAM 7 for creating a two-dimensional image of each frame. The drawing processor 6 uses the VRAM 7 to generate 2D image data of each frame every 1/30 seconds.

VRAM7には、モニタ14に表示される各コマの二次元画像のデータを格納するバッファメモリ72(以下、「スクリーンバッファ」という。)と、スクリーンバッファ72に格納すべき画像データを作成するためのバッファメモリ71(以下、「テクスチャバッファ」という。)が設けられている。スクリーンバッファ72は同一のメモリ構造及びメモリ容量を有する2枚のスクリーンバッファ72A,72Bで構成されている。   In the VRAM 7, a buffer memory 72 (hereinafter referred to as “screen buffer”) for storing two-dimensional image data of each frame displayed on the monitor 14 and image data to be stored in the screen buffer 72 are created. A buffer memory 71 (hereinafter referred to as “texture buffer”) is provided. The screen buffer 72 comprises two screen buffers 72A and 72B having the same memory structure and memory capacity.

スクリーンバッファ72を2枚構成とするのは、モニタ14への表示速度に対してスクリーンバッファ72への描画速度に余裕を持たせるためである。すなわち、一方のスクリーンバッファ72Aを用いてモニタ14への表示処理を行っている間に、他方のスクリーンバッファ72Bで次のコマの画像データを生成し、この処理をスクリーンバッファ72Aとスクリーンバッファ72Bとの間で交互に行うことにより、モニタ14への1/30秒毎の各コマの表示処理をスムーズに行うようにしている。   The reason why the two screen buffers 72 are configured is that the drawing speed on the screen buffer 72 is more than the display speed on the monitor 14. That is, while performing display processing on the monitor 14 using one screen buffer 72A, image data of the next frame is generated by the other screen buffer 72B, and this processing is performed by the screen buffer 72A and the screen buffer 72B. By alternately performing between the frames, display processing of each frame on the monitor 14 every 1/30 seconds is performed smoothly.

テクスチャバッファ71は、スクリーンバッファ72にモニタ14に表示すべき二次元画像のデータを作成するための前処理を行うためのバッファである。テクスチャバッファ71はスクリーンバッファ72よりも少ないメモリ容量を有している。スクリーンバッファ72ではR(赤),G(緑),B(青)の各色成分が、例えば256階調(8ビット)で描画されるが、テクスチャバッファ71ではR,G,Bの各色成分の階調数を少なくすることにより、テクスチャバッファ71のメモリ容量をスクリーンバッファ72よりも少なくしている。   The texture buffer 71 is a buffer for performing preprocessing for creating data of a two-dimensional image to be displayed on the monitor 14 in the screen buffer 72. The texture buffer 71 has a smaller memory capacity than the screen buffer 72. In the screen buffer 72, R (red), G (green), and B (blue) color components are drawn with, for example, 256 gradations (8 bits). In the texture buffer 71, R, G, and B color components are drawn. By reducing the number of gradations, the memory capacity of the texture buffer 71 is made smaller than that of the screen buffer 72.

D/Aコンバータ8は、スクリーンバッファ72から出力される画像データをアナログ信号に変換してモニタ14に出力するものである。D/Aコンバータ8にはスクリーンバッファ72Aからの画像データとスクリーンバッファ72Bからの画像データを切り換えるスイッチ回路が設けられ、このスイッチ回路の切り換えは描画処理プロセッサ6によって制御される。   The D / A converter 8 converts the image data output from the screen buffer 72 into an analog signal and outputs the analog signal to the monitor 14. The D / A converter 8 is provided with a switch circuit for switching the image data from the screen buffer 72A and the image data from the screen buffer 72B. Switching of the switch circuit is controlled by the drawing processor 6.

すなわち、描画処理プロセッサ6は、スクリーンバッファ72Aをモニタ14のバッファとするときは、スクリーンバッファ72Aの画像データがモニタ14に出力されるようにスイッチ回路を切り換え、スクリーンバッファ72Bをモニタ14のバッファとするときは、スクリーンバッファ72Bの画像データがモニタ14に出力されるようにスイッチ回路を切り換える。   That is, when the drawing processor 6 uses the screen buffer 72A as the buffer of the monitor 14, the switching circuit is switched so that the image data of the screen buffer 72A is output to the monitor 14, and the screen buffer 72B is used as the buffer of the monitor 14. When switching, the switch circuit is switched so that the image data of the screen buffer 72B is output to the monitor 14.

音声処理プロセッサ9は、CPU1からの音声指令に基づき、RAM4から効果音もしくはBGMの音声データを読み出し、所要の加工処理とD/A変換処理をした後、アンプ10に出力する。アンプ10は、音声処理プロセッサ9から入力される音声信号を所定の増幅度で増幅した後、スピーカ15に出力する。   The sound processor 9 reads out sound effects or BGM sound data from the RAM 4 based on a sound command from the CPU 1, performs necessary processing and D / A conversion processing, and outputs the processed sound to the amplifier 10. The amplifier 10 amplifies the audio signal input from the audio processor 9 with a predetermined amplification degree, and then outputs it to the speaker 15.

インターフェース(I/F)11は、操作コントローラ16をゲーム装置1に接続するためのインターフェースである。操作コントローラ16は、ゲーム装置1に各種の操作情報を入力するものである。操作コントローラ16には、十字キー、左ボタン、右ボタン、セレクトボタン、スタートボタン、ジョイステックなどの複数の操作部材が設けられている。スタートボタンは、ゲーム開始を入力するためのボタンであり、セレクトボタンはメニュー内容を選択するためのボタンである。また、ジョイステックや十字キーは、主としてメインキャラクタに移動、攻撃、防御などの種々の動作を指令するための操作部材として使用され、左ボタン及び右ボタンは、例えばモニタに表示される三次元アニメーション画像の視線方向を左方向や右方向に回転したりするのに使用される。   The interface (I / F) 11 is an interface for connecting the operation controller 16 to the game apparatus 1. The operation controller 16 is for inputting various types of operation information to the game apparatus 1. The operation controller 16 is provided with a plurality of operation members such as a cross key, a left button, a right button, a select button, a start button, and a joystick. The start button is a button for inputting a game start, and the select button is a button for selecting menu contents. The joystick and the cross key are mainly used as operation members for instructing the main character to perform various actions such as movement, attack and defense, and the left button and the right button are, for example, three-dimensional animations displayed on the monitor. This is used to rotate the line-of-sight direction of the image to the left or right.

次に、図2〜図9を用いて、本発明に係る三次元アニメーションの表示方法について説明する。   Next, the 3D animation display method according to the present invention will be described with reference to FIGS.

本発明は、三次元の仮想空間内に定義されたメインキャラクタ、敵キャラクタ及び背景その他の物体を、透視投影法によりスクリーンに投影される二次元画像に変換してモニタに表示させる際に、視点(仮想カメラの位置)とメインキャラクタとの距離が、スクリーン内のメインキャラクタのサイズが大きくなり過ぎて遠方の敵キャラクタや背景その他の物体が見えなくなるような近接距離になった場合に、メインキャラクタの部分を透過させ、当該メインキャラクタをシルエットによって表示する(以下、この表示方法を「シルエット透過表示方法」という。)点に特徴を有するものである。従って、以下の説明では、そのシルエット透過表示方法について説明する。   The present invention provides a viewpoint when a main character, an enemy character, a background and other objects defined in a three-dimensional virtual space are converted into a two-dimensional image projected on a screen by a perspective projection method and displayed on a monitor. When the distance between the (virtual camera position) and the main character is close enough that the size of the main character on the screen becomes too large to see distant enemy characters, backgrounds and other objects, the main character And the main character is displayed as a silhouette (hereinafter, this display method is referred to as “silhouette transparent display method”). Therefore, in the following description, the silhouette transparent display method will be described.

図2は、本発明に係るシルエット透過表示方法に関係した描画制御を示す基本的な処理手順を示すフローチャートである。また、図3は、メインキャラクタをシルエット表示するシルエット透過処理の処理手順を示すフローチャートである。   FIG. 2 is a flowchart showing a basic processing procedure showing drawing control related to the silhouette transparent display method according to the present invention. FIG. 3 is a flowchart showing a processing procedure of silhouette transmission processing for silhouette display of the main character.

CPU2は、対戦型ゲームの進行を制御しているとき、操作コントローラ16から操作信号の割り込みを監視している(S1)。操作コントローラ16から操作信号の割り込みがなければ(S1:NO)、ステップS6に移行し、描画処理プロセッサ6によって通常の描画処理が行われる。操作コントローラ16から操作信号の割り込みがあると(S1:YES)、更にその操作信号がメインキャラクタの移動操作であるか否かが判別され(S2)、メインキャラクタの移動操作でなければ(S2:NO)、ステップS6に移行し、描画処理プロセッサ6によって通常の描画処理が行われる。   The CPU 2 monitors the interruption of the operation signal from the operation controller 16 when controlling the progress of the competitive game (S1). If there is no operation signal interruption from the operation controller 16 (S1: NO), the process proceeds to step S6, and the drawing processor 6 performs normal drawing processing. If there is an operation signal interruption from the operation controller 16 (S1: YES), it is further determined whether or not the operation signal is a main character moving operation (S2), and if it is not a main character moving operation (S2: NO), the process proceeds to step S6, where the drawing processor 6 performs normal drawing processing.

通常の描画処理は、三次元の対戦空間内に存在するメインキャラクタ、敵キャラクタ及び背景その他の物体の三次元画像のデータを、透視投影法によりスクリーンに投影した各コマの二次元画像のデータに変換し、モニタ14に表示させる処理である。この描画処理では、仮想カメラCとメインキャラクタAとの距離が、図9に示したように、所定の距離Dに保持されているので、モニタ14には、例えば図10に示したように、メインキャラクタAや、敵キャラクタBやビルE1,E2や山Mなどが適度な大きさで表示される。   The normal drawing process is to convert the 3D image data of the main character, enemy character, background and other objects existing in the 3D battle space into 2D image data of each frame projected on the screen by the perspective projection method. This is a process of converting and displaying on the monitor 14. In this drawing process, since the distance between the virtual camera C and the main character A is maintained at a predetermined distance D as shown in FIG. 9, the monitor 14 has, for example, as shown in FIG. The main character A, the enemy character B, the buildings E1, E2, the mountain M, etc. are displayed in an appropriate size.

従って、モニタ14に、例えば図10に示される状態の三次元アニメーションが表示されている状態で、遊技者によりメインキャラクタAに攻撃若しくは防御を行わせる操作が行われた場合は、図10の画角を保持した状態でメインキャラクタAが遊技者の操作に応じた攻撃若しくは防御の動作を行う三次元アニメーションを表示させる。また、例えば図10に示される状態の三次元アニメーションが表示されている状態で、遊技者が操作コントローラ16を操作しなければ、その表示状態が保持される。   Therefore, when the player performs an operation to attack or defend the main character A while the three-dimensional animation shown in FIG. 10 is displayed on the monitor 14, for example, the image shown in FIG. A three-dimensional animation in which the main character A performs an attack or defense action according to the player's operation while holding the corner is displayed. Further, for example, if the player does not operate the operation controller 16 in a state where the three-dimensional animation shown in FIG. 10 is displayed, the display state is maintained.

操作コントローラ16からメインキャラクタAを移動させる操作信号の割り込みがあると(S2:YES)、CPU2により仮想空間の対戦場におけるメインキャラクタAの移動位置が算出されるとともに、メインキャラクタAの移動に伴う仮想カメラCの移動位置が算出される(S3)。続いて、仮想カメラCとメインキャラクタAとの距離が、メインキャラクタAの画面内におけるサイズが所定サイズ(例えば画面の70%以上を占めるサイズ)以上となる所定の距離まで近接しているか否かが判別される(S4)。この判別は、例えば図9において、距離Dを予め設定された閾値Drと比較することにより行われる。   When there is an interrupt of an operation signal for moving the main character A from the operation controller 16 (S2: YES), the CPU 2 calculates the moving position of the main character A on the battlefield in the virtual space and accompanies the movement of the main character A. The movement position of the virtual camera C is calculated (S3). Subsequently, whether or not the distance between the virtual camera C and the main character A is close to a predetermined distance in which the size of the main character A in the screen is a predetermined size (for example, a size that occupies 70% or more of the screen). Is discriminated (S4). This determination is performed, for example, by comparing the distance D with a preset threshold Dr in FIG.

仮想カメラCとメインキャラクタAとの距離Dが所定の距離Dr以下に近接していなければ(S4:NO)、ステップS6に移行し、通常の描画処理が行われ、仮想カメラCとメインキャラクタAとの距離Dが所定の距離Dr以下に近接していれば(S4:YES)、メインキャラクタAの部分をシルエットで表示する透過処理(以下、「シルエット透過処理」という。)を施した描画処理が行われる(S5)。   If the distance D between the virtual camera C and the main character A is not close to the predetermined distance Dr or less (S4: NO), the process proceeds to step S6, where normal drawing processing is performed, and the virtual camera C and the main character A are performed. If the distance D is close to the predetermined distance Dr or less (S4: YES), a rendering process that performs a transparency process (hereinafter referred to as a “silhouette transparency process”) for displaying the main character A portion as a silhouette. Is performed (S5).

例えば図11において、P1に位置するメインキャラクタAをP2に移動させる操作が行われた場合、仮想カメラCの位置がP5に移動し、仮想カメラCとメインキャラクタAの距離D’が閾値Drよりも短くなり、モニタ14に表示される三次元アニメーションは、図12に示すような状態となるので、この場合は、メインキャラクタAの部分をシルエットで表示するような透過処理が行われる。   For example, in FIG. 11, when the operation of moving the main character A located at P1 to P2 is performed, the position of the virtual camera C moves to P5, and the distance D ′ between the virtual camera C and the main character A is greater than the threshold Dr. Since the three-dimensional animation displayed on the monitor 14 is in a state as shown in FIG. 12, in this case, a transparent process for displaying the main character A portion as a silhouette is performed.

次に、シルエット透過処理について、上述した図9〜図12に示す透視投影例を用いて、図3に示すフローチャートに従い説明する。   Next, the silhouette transmission process will be described with reference to the flowchart shown in FIG. 3 using the perspective projection examples shown in FIGS.

なお、通常の描画処理が行われて、モニタ14に、図10に示す二次元画像が表示されている状態で(ステップS1,S6のループ)、遊技者によりメインキャラクタAを移動させる操作が行われた結果(ステップS1,S2,S4:YES)、ステップS5で、図12に示す二次元画像に対してシルエット透過処理を行うことになった場合を例に説明する。   It should be noted that an operation of moving the main character A by the player is performed in a state where the normal drawing process is performed and the two-dimensional image shown in FIG. 10 is displayed on the monitor 14 (loop of steps S1 and S6). As a result (steps S1, S2, S4: YES), a case where the silhouette transmission process is performed on the two-dimensional image shown in FIG. 12 in step S5 will be described as an example.

ステップS5に移行する直前のコマでは、図10に示す二次元画像が、例えばスクリーンバッファ72Aに描画され、モニタ14に表示されている。そして、スクリーンバッファ72Bでは、次のコマの画像として図12に示す二次元画像の描画処理が行われている。このとき、図12に示す二次元画像は、図4に示すように、後方のビルE3及び背景Fや敵キャラクタBを構成するポリゴンg(i),g(j),g(m)から順番に描画されるので、スクリーンバッファ72BにビルE3及び背景Fと敵キャラクタBとが描画された時点で(S11)、スクリーンバッファ72Bの画像データがテクスチャバッファ71に取り込まれる(S12)。すなわち、テクスチャバッファ71には、図5に示す画像(メインキャラクタAが描かれていない画像)が格納される。   In the frame immediately before shifting to step S5, the two-dimensional image shown in FIG. 10 is drawn on, for example, the screen buffer 72A and displayed on the monitor 14. In the screen buffer 72B, a two-dimensional image drawing process shown in FIG. 12 is performed as an image of the next frame. At this time, as shown in FIG. 4, the two-dimensional image shown in FIG. 12 is in order from polygons g (i), g (j), and g (m) constituting the building E3 and the background F and the enemy character B behind. Therefore, when the building E3, the background F, and the enemy character B are drawn in the screen buffer 72B (S11), the image data in the screen buffer 72B is taken into the texture buffer 71 (S12). That is, the texture buffer 71 stores an image shown in FIG. 5 (an image in which the main character A is not drawn).

このとき、テクスチャバッファ71には、R,G,Bの各色成分の階調数を少なくして、すなわち、色数を低減してデータ数を少なくした画像データが取り込まれる。例えばR,G,Bの各色成分の階調数を1/2にする場合は、図6に示すように、元の画像の色成分のデータ(R,G,B)=(11/16,14/16,7/16)が(R',G',B')=(5/8,7/8,3/8)に変換されてテクスチャバッファ71に格納される。なお、図6において、白抜きの棒グラフは元の画像の色成分の濃度レベルを示し、斜線入りの棒グラフはテクスチャバッファ71に格納される色成分の濃度レベルを示している。   At this time, the texture buffer 71 captures image data in which the number of gradations of each of the R, G, and B color components is reduced, that is, the number of data is reduced by reducing the number of colors. For example, when the number of gradations of each color component of R, G, B is halved, as shown in FIG. 6, the color component data (R, G, B) of the original image = (11/16, 14/16, 7/16) is converted into (R ′, G ′, B ′) = (5/8, 7/8, 3/8) and stored in the texture buffer 71. In FIG. 6, the white bar graph indicates the density level of the color component of the original image, and the shaded bar graph indicates the density level of the color component stored in the texture buffer 71.

このように色数を低減するのは、テクスチャバッファ71では、主としてメインキャラクタAを構成するポリゴンに対して、透過して見える敵キャラクタBやビルE3や背景Fの部分の画像の濃度を変更する処理を行い、メインキャラクタAをシルエットで表示させる処理を行うだけであるので、正確な色情報を必要としないため、色数を低減することによりテクスチャバッファ71のメモリ容量を低減するとともに、処理の迅速化を図るものである。   In this way, the number of colors is reduced in the texture buffer 71 by changing the density of the image of the enemy character B, the building E3, and the background F that appears to be transparent mainly with respect to the polygons constituting the main character A. Since only the process of displaying the main character A as a silhouette is performed, accurate color information is not required. Therefore, the memory capacity of the texture buffer 71 is reduced by reducing the number of colors, and the process It is intended to speed up.

続いて、スクリーンバッファ72BにおけるメインキャラクタAの描画位置、すなわち、メインキャラクタAを構成する複数のポリゴンg(k)の各座標(以下、「スクリーン座標」という。)が算出される(S13)。すなわち、図7に示すように、スクリーンバッファ72Bが480×640ピクセルで構成されているとすると、各ポリゴンg(k)の頂点位置に対応するピクセルのアドレスが算出される。続いて、更に各ポリゴンg(k)のスクリーン座標がテクスチャバッファ71における座標(以下、「テクスチャ座標」という。)に変換される(S14)。   Subsequently, the drawing position of the main character A in the screen buffer 72B, that is, the coordinates of the plurality of polygons g (k) constituting the main character A (hereinafter referred to as “screen coordinates”) are calculated (S13). That is, as shown in FIG. 7, if the screen buffer 72B is composed of 480 × 640 pixels, the address of the pixel corresponding to the vertex position of each polygon g (k) is calculated. Subsequently, the screen coordinates of each polygon g (k) are further converted into coordinates in the texture buffer 71 (hereinafter referred to as “texture coordinates”) (S14).

続いて、テクスチャバッファ71において、メインキャラクタAを構成する各ポリゴンg(k)単位で、当該ポリゴンg(k)に含まれるピクセルのR,G,Bの色成分の濃度レベルが所定の割合で変更される(S15)。   Subsequently, in the texture buffer 71, for each polygon g (k) constituting the main character A, the density levels of the R, G, B color components of the pixels included in the polygon g (k) are set at a predetermined ratio. It is changed (S15).

テクスチャバッファ71においては、三角形の各ポリゴンg(k)の位置は3個の頂点のテクスチャ座標によって決定されるので、これらのテクスチャ座標によって囲まれる三角形の領域に含まれるピクセルを抽出することができる。テクスチャバッファ71には、メインキャラクタAが描かれる位置に当該メインキャラクタAを透過した敵キャラクタB、ビルE3若しくは背景Fの画像のデータが格納されているので、メインキャラクタAを構成する各ポリゴンg(k)に含まれるピクセルのR,G,Bの色成分は、各ポリゴンg(k)の位置に対応する敵キャラクタB、ビルE3若しくは背景Fの部分のR,G,Bの色成分となっている。   In the texture buffer 71, since the position of each polygon g (k) of the triangle is determined by the texture coordinates of the three vertices, pixels included in the triangular region surrounded by these texture coordinates can be extracted. . Since the texture buffer 71 stores the image data of the enemy character B, the building E3, or the background F that has passed through the main character A at the position where the main character A is drawn, each polygon g constituting the main character A is stored. The color components of R, G, B of the pixels included in (k) are the color components of R, G, B of the enemy character B, building E3 or background F corresponding to the position of each polygon g (k). It has become.

従って、メインキャラクタAを構成する各ポリゴンg(k)単位で、当該ポリゴンg(k)に含まれるピクセルのR,G,Bの各色成分の濃度データを抽出し、その濃度データのレベルを所定の割合で低下もしくは上昇させることにより、敵キャラクタB、ビルE3若しくは背景FのメインキャラクタAによって隠れる部分の色が黒っぽく、もしくは白っぽくなる。   Therefore, the density data of each color component of R, G, B of the pixel included in the polygon g (k) is extracted for each polygon g (k) constituting the main character A, and the density data level is set to a predetermined level. The color of the part hidden by the main character A of the enemy character B, the building E3 or the background F becomes blackish or whitish.

なお、濃度レベルを低下させるか、上昇させるかは、画面全体の明るさによって決定される。例えば対戦空間が夜景や宇宙空間のように全体的に暗い場合は、濃度レベルは上昇され、対戦空間が昼間の市街地や空のように全体的に明るい場合は、濃度レベルは低下される。濃度レベルをどのように変更させるかを制御するためのデータ(例えばフラグデータ)は、例えば対戦空間毎や同一の対戦空間内でもメインキャラクタAの移動に基づく対戦シーン毎に設定され、このデータに基づいてステップS15の濃度変更処理が行われる。   Whether the density level is lowered or raised is determined by the brightness of the entire screen. For example, when the battle space is totally dark such as a night view or outer space, the concentration level is increased, and when the battle space is generally bright such as a city area or the sky in the daytime, the concentration level is decreased. Data for controlling how the density level is changed (for example, flag data) is set for each battle scene based on the movement of the main character A, for example, for each battle space or in the same battle space. Based on this, the density changing process in step S15 is performed.

続いて、テクスチャバッファ71で作成したメインキャラクタAを構成する各ポリゴンg(k)に含まれるピクセルのR,G,Bの色成分の濃度データに基づいて、スクリーンバッファ72Bに描画されている敵キャラクタB、ビルE3及び背景Fの画像のメインキャラクタAによって隠れる部分のピクセルのR,G,Bの色成分の濃度データが変更される(S16)。これにより、スクリーンバッファ72Bには、図8に示すように、メインキャラクタAをシルエットで表示するとともに、当該メインキャラクタAの部分を透過した二次元画像が作成される。   Subsequently, the enemy drawn in the screen buffer 72B based on the density data of the R, G, B color components of the pixels included in each polygon g (k) included in the main character A created by the texture buffer 71. The density data of the color components R, G, and B of the pixels hidden by the main character A in the image of the character B, the building E3, and the background F are changed (S16). As a result, as shown in FIG. 8, the main character A is displayed as a silhouette in the screen buffer 72 </ b> B, and a two-dimensional image that transmits the portion of the main character A is created.

なお、図8は、メインキャラクタAによって隠れる敵キャラクタB、ビルE3及び背景Fの部分の濃度を低下させた場合の例を示している。図8では、敵キャラクタBに点描を付し、ビルE3に右斜線を付し、これらの背景Fに左斜線を付しているが、これらは敵キャラクタB、ビルE3及び背景Fに貼り付けられたテクスチャの色の濃度を表している。敵キャラクタBのメインキャラクタAによって隠れる部分の点描の各点を大きくすることにより敵キャラクタBに貼り付けられたテクスチャの色の濃度がメインキャラクタAによって隠れていない部分の濃度よりも暗くなっていることを示している。また、ビルE3及び背景FのメインキャラクタAによって隠れる部分の右斜線と左斜線の密度を上げることによってビルE3及び背景Fに貼り付けられたテクスチャの色の濃度がメインキャラクタAによって隠れていない部分の濃度よりも暗くなっていることを示している。   FIG. 8 shows an example in which the density of the enemy character B, the building E3, and the background F that are hidden by the main character A is lowered. In FIG. 8, the enemy character B is dotted, the building E3 is right-slanted, and the background F is left-slanted, but these are pasted on the enemy character B, the building E3, and the background F. It represents the color density of the texture. By enlarging each point of the stipple of the part hidden by the main character A of the enemy character B, the density of the color of the texture pasted on the enemy character B is darker than the density of the part not hidden by the main character A. It is shown that. Further, the density of the texture color pasted on the building E3 and the background F is not hidden by the main character A by increasing the density of the right oblique line and the left oblique line of the part hidden by the main character A of the building E3 and the background F. It is darker than the density.

上記のように、シルエット透過処理によれば、メインキャラクタAの部分は、当該メインキャラクタAがなければ見えることになる後方の敵キャラクタB、ビルE3及び背景Fが黒っぽく表示されたり、白っぽく表示されたりするので、これによりメインキャラクタAの輪郭がシルエットとして表示されることになる。   As described above, according to the silhouette transparent process, the enemy character B, the building E3, and the background F that are to be seen without the main character A are displayed in black or white in the main character A portion. As a result, the outline of the main character A is displayed as a silhouette.

従って、シルエット透過処理では、メインキャラクタAによって隠れる部分に当該メインキャラクタAの形状や色、模様が半透明で表示されることがないので、従来の透過処理に比して、メインキャラクタAによって隠れる部分が見易くなる利点がある。また、メインキャラクタAの存在はシルエットによって表示されるので、遊技者がどのようにメインキャラクタAを移動させても当該メインキャラクタAを見失うことがない。   Therefore, in the silhouette transmission process, the shape, color, and pattern of the main character A are not displayed in a semi-transparent manner in the portion hidden by the main character A, so that it is hidden by the main character A compared to the conventional transmission process. There is an advantage that the portion is easy to see. Further, since the presence of the main character A is displayed by a silhouette, the main character A will not be lost regardless of how the player moves the main character A.

また、従来の透過処理では、メインキャラクタAに対してポリゴン単位のソート処理、光源処理、テクスチャ処理及びアルファブレンディング処理を必要とするが、本発明に係るシルエット透過処理では、ポリゴン単位のソート処理、光源処理及びテクスチャ処理は不要となり、メインキャラクタAによって隠れる部分の濃度を変更するだけであるので、描画処理の演算負荷を低減することができる。   Further, in the conventional transparency process, the main character A requires a polygon-by-polygon sort process, a light source process, a texture process, and an alpha blending process. In the silhouette transparency process according to the present invention, a polygon-by-polygon sort process, Since the light source process and the texture process are not required and only the density of the portion hidden by the main character A is changed, the calculation load of the drawing process can be reduced.

なお、上記実施形態では、本発明に係るシルエット透過表示方法を適用したゲーム装置について説明したが、本発明に係るシルエット透過表示方法はゲーム装置以外の透視投影法を用いた三次元アニメーションの表示装置にも適用することができる。この場合は、図3に示すシルエット透過処理のフローチャートを実行するプログラムをコンピュータ読み取り可能に記録したCD−ROMなどの記録媒体から当該プログラムをコンピュータに読み込んだり、電気通信回線を通じて当該プログラムをコンピュータに転送したりした後、そのプログラムを実行させることにより容易に本発明に係るシルエット透過表示装置を実現することができる。   In the above embodiment, the game apparatus to which the silhouette transparent display method according to the present invention is applied has been described. However, the silhouette transparent display method according to the present invention is a three-dimensional animation display apparatus using a perspective projection method other than the game apparatus. It can also be applied to. In this case, the program for executing the flowchart of the silhouette transparent process shown in FIG. 3 is read into a computer from a recording medium such as a CD-ROM in which the program is recorded so as to be readable by the computer, or the program is transferred to the computer through an electric communication line. Then, the silhouette transmission display device according to the present invention can be easily realized by executing the program.

また、ゲーム内容も対戦型ゲームに限られるものではなく、透視投影法を用いた三次元アニメーションによる表示方法を用いたゲーム全般に適用することができる。   In addition, the game content is not limited to a competitive game, and can be applied to all games using a display method using three-dimensional animation using a perspective projection method.

また、上記実施形態では、仮想カメラCとメインキャラクタAとの距離Dが所定の距離Dr以下に近接した場合は、メインキャラクタAに対してシルエット透過処理のみを行うようにしたが、上述した従来の透過処理と本発明に係るシルエット透過処理とを使い分けるようにしてもよい。   In the above embodiment, when the distance D between the virtual camera C and the main character A is close to the predetermined distance Dr or less, only the silhouette transparent process is performed on the main character A. You may make it use separately the transparent process of this, and the silhouette transparent process which concerns on this invention.

例えば仮想カメラCのスクリーン内におけるメインキャラクタAのサイズを特大、大、標準の3段階に分類し、「特大」の場合はシルエット透過処理を行い、「大」の場合は従来の透過処理を行い、「標準」の場合は通常の描画処理を行うようにしてもよい。仮想カメラCとメインキャラクタAとの距離Dで言えば、仮想カメラCが標準の視点位置(距離Dが第1の閾値Dr1以上)であれば、通常の描画処理を行い、仮想カメラCとメインキャラクタAとの距離Dが第1の閾値Dr1と第2の閾値Dr2(<Dr1)との間であれば、従来の透過処理を行い、仮想カメラCとメインキャラクタAとの距離Dが第2の閾値Dr2以下であれば、シルエット透過処理を行うようにしてもよい。   For example, the size of the main character A in the screen of the virtual camera C is classified into three levels: extra large, large, and standard. If “extra large”, silhouette transparent processing is performed, and if “large”, conventional transparent processing is performed In the case of “standard”, normal drawing processing may be performed. In terms of the distance D between the virtual camera C and the main character A, if the virtual camera C is a standard viewpoint position (distance D is greater than or equal to the first threshold Dr1), normal drawing processing is performed, and the virtual camera C and the main character A If the distance D to the character A is between the first threshold Dr1 and the second threshold Dr2 (<Dr1), conventional transmission processing is performed, and the distance D between the virtual camera C and the main character A is the second. If it is equal to or less than the threshold Dr2, the silhouette transmission process may be performed.

1 ゲーム装置
2 CPU
3 描画データ生成プロセッサ
4 RAM
5 ROM
6 描画処理プロセッサ
7 VRAM
71 テクスチャバッファ
72,72A,72B スクリーンバッファ
8 D/Aコンバータ
9 音声処理プロセッサ
10 アンプ
11 I/F
12 CD−ROMドライバ
13 バス
14 モニタ
15 スピーカ
16 操作コントローラ
17 CD−ROM
A メインキャラクタ
B 敵キャラクタ
C 仮想カメラ
E1,E2,E3,M 他の物体
F 背景
G 二次元画像
1 game machine 2 CPU
3 drawing data generation processor 4 RAM
5 ROM
6 Drawing processor 7 VRAM
71 Texture buffer 72, 72A, 72B Screen buffer 8 D / A converter 9 Audio processor 10 Amplifier 11 I / F
12 CD-ROM driver 13 Bus 14 Monitor 15 Speaker 16 Operation controller 17 CD-ROM
A Main character B Enemy character C Virtual camera E1, E2, E3, M Other objects F Background G Two-dimensional image

Claims (6)

コンピュータを、三次元の仮想空間内に配置された所定の物体を当該仮想空間内に設定された所定の視点から透視投影して得られる二次元画像からなる三次元アニメーションを作成し、その三次元アニメーションをモニタに表示させる三次元アニメーション表示装置として機能させるプログラムであって、
前記コンピュータを、
記物体の移動に応じて前記視点と当該物体との距離が所定の距離以下に近接したか否かを判別する判別手段と、
前記判別手段により前記視点と前記物体との距離が前記所定の距離以下に近接したと判別されると、前記物体が存在しないとした場合に透視投影して得られる背景その他の部分の二次元画像を、前記物体によって隠れる前記背景その他の部分の濃度が当該物体が存在しないとした場合の濃度と異なるように描画することにより、当該物体をシルエットで表示した二次元画像からなる三次元アニメーションを作成する動画像作成手段と
記動画像作成手段で作成された三次元アニメーションを前記モニタに表示させる表示制御手段と、
して機能させるためのプログラム。
Create a three-dimensional animation consisting of a two-dimensional image obtained by perspectively projecting a predetermined object placed in a three-dimensional virtual space from a predetermined viewpoint set in the virtual space. A program that functions as a three-dimensional animation display device for displaying an animation on a monitor,
The computer,
A determination unit that the distance between the viewpoint and the person said object in response to movement of the front Symbol object body is determined whether or not close to or less than a predetermined distance,
Wherein the distance between the viewpoint and the front SL was member by determining means is determined to have approached to or less than the predetermined distance, the background other parts obtained by perspective projection when said object is not present two dimension image, by the concentration of the background other parts hidden by the object is drawn in so that different from the concentration in the case of that there is no such object, a two-dimensional image displaying the person said object silhouette A moving image creation means for creating a three-dimensional animation ;
Display control means for displaying a three-dimensional animation created in the previous SL moving image creating means on the monitor,
Program to make it function.
前記物体によって隠れる部分の濃度の前記物体が存在しないとした場合の濃度に対する異ならせ方は、画面全体の明るさによって異なる、請求項1に記載のプログラム。 The program according to claim 1, wherein a method of making the density of the portion hidden by the object different from the density when the object does not exist varies depending on the brightness of the entire screen . 前記所定の距離は、前記視点から仮想カメラによって前記物体を撮影した場合に撮影画面内における前記物体のサイズが所定のサイズ以上となる距離である、請求項1又は2に記載のプログラム。 3. The program according to claim 1, wherein the predetermined distance is a distance at which a size of the object in a shooting screen is equal to or larger than a predetermined size when the object is photographed by the virtual camera from the viewpoint . 前記動画像作成手段は、
前記物体を除いた透視投影法による各コマの二次元画像を作成する画像作成手段と、
前記モニタの表示画面上における前記物体の表示位置を算出する算出手段と、
前記画像作成手段によって作成された二次元画像の、前記算出手段で算出された前記モニタの表示画面内の前記物体の表示位置に含まれる画素に対して、各画素の濃度を所定の割合で変化させる濃度変更手段と、
を含むことを特徴とする請求項1乃至3のいずれかに記載のプログラム。
The moving image creating means includes
Image creating means for creating a two-dimensional image of each frame by a perspective projection method excluding the object;
Calculating means for calculating a display position of the object on the display screen of the monitor;
The density of each pixel is changed at a predetermined ratio with respect to the pixels included in the display position of the object in the display screen of the monitor calculated by the calculating unit of the two-dimensional image generated by the image generating unit. Concentration changing means for causing
4. The program according to claim 1 , comprising:
前記動画像作成手段は、The moving image creating means includes
前記画像作成手段で作成された各コマの二次元画像の色数を低減して保存する記憶手段と、Storage means for reducing and storing the number of colors of the two-dimensional image of each frame created by the image creation means;
前記算出手段で算出された前記物体の表示位置を前記記憶手段に保存された各コマの二次元画像における表示位置に変換する変換手段と、を更に備え、Conversion means for converting the display position of the object calculated by the calculation means into a display position in a two-dimensional image of each frame stored in the storage means,
前記濃度変更手段は、前記記憶手段に保存された各コマの二次元画像を用いて、濃度変更処理を行うことを特徴とする請求項4に記載のプログラム。The program according to claim 4, wherein the density changing unit performs a density changing process using a two-dimensional image of each frame stored in the storage unit.
請求項1乃至5のいずれかに記載のプログラムを記録したプログラム記憶部と、A program storage unit that records the program according to claim 1;
前記プログラム記憶部に記憶されたプログラムを実行するコンピュータと、A computer for executing the program stored in the program storage unit;
を備えた、三次元アニメーションの表示装置。3D animation display device with
JP2011030320A 2011-02-16 2011-02-16 Three-dimensional animation display device and program for realizing the display device Active JP4967064B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011030320A JP4967064B2 (en) 2011-02-16 2011-02-16 Three-dimensional animation display device and program for realizing the display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011030320A JP4967064B2 (en) 2011-02-16 2011-02-16 Three-dimensional animation display device and program for realizing the display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005095508A Division JP4955929B2 (en) 2005-03-29 2005-03-29 Three-dimensional animation display device and program for realizing the display device

Publications (2)

Publication Number Publication Date
JP2011103142A JP2011103142A (en) 2011-05-26
JP4967064B2 true JP4967064B2 (en) 2012-07-04

Family

ID=44193424

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011030320A Active JP4967064B2 (en) 2011-02-16 2011-02-16 Three-dimensional animation display device and program for realizing the display device

Country Status (1)

Country Link
JP (1) JP4967064B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5960409B2 (en) * 2011-10-28 2016-08-02 任天堂株式会社 GAME PROCESSING SYSTEM, GAME PROCESSING METHOD, GAME PROCESSING DEVICE, AND GAME PROCESSING PROGRAM
CN112843730A (en) * 2020-12-31 2021-05-28 上海米哈游天命科技有限公司 Shooting method, device, equipment and storage medium
JP7371199B1 (en) * 2022-10-11 2023-10-30 任天堂株式会社 Game program, game system, game device, and game control method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4589517B2 (en) * 2000-11-08 2010-12-01 株式会社バンダイナムコゲームス Information storage medium and image generation apparatus
JP4110364B2 (en) * 2001-01-05 2008-07-02 セイコーエプソン株式会社 Logo data creation method, recording medium recording the method, and logo data creation device
JP2002360920A (en) * 2001-06-05 2002-12-17 Atlus Co Ltd Game image control device
JP2004073241A (en) * 2002-08-09 2004-03-11 Namco Ltd Game system, program, and information storage medium

Also Published As

Publication number Publication date
JP2011103142A (en) 2011-05-26

Similar Documents

Publication Publication Date Title
US8593456B2 (en) Image generating apparatus, method of generating image, program, and recording medium
EP1795245B1 (en) Storage medium having game program stored therein and game apparatus
EP1642625A2 (en) Video game device and image processing program
US8237707B2 (en) Image generating apparatus, method of generating image, program, and recording medium
EP1808207B1 (en) Storage medium having game program stored thereon and game apparatus
JP2007229204A (en) Image generating method, image generator, and image generating program
EP1699017A2 (en) Game system and computer readable storage medium storing game program
JP2008071260A5 (en)
JP2008071260A (en) Three-dimensional image display device, game device equipped with the display device, program for achieving the display device, and recording medium
JP2006268676A (en) Program, information storage medium and image generation system
JP2006346507A (en) Game apparatus and image processing program
JP4967064B2 (en) Three-dimensional animation display device and program for realizing the display device
JP2006195882A (en) Program, information storage medium and image generation system
EP0948979A2 (en) Image creating apparatus, image creating method, and computer-readable recording medium containing image creating program
JP4749064B2 (en) Program, information storage medium, and image generation system
JP2006268511A (en) Program, information storage medium and image generation system
JP4955929B2 (en) Three-dimensional animation display device and program for realizing the display device
EP0992945A2 (en) Video game apparatus, model display and readable recording medium therefor
JP2009129167A (en) Program, information storage medium, and image generation system
JP4387511B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP2006277329A5 (en)
JP2009140135A5 (en)
JP2009140135A (en) Game program, recording medium with the game program recorded thereon, and computer
EP1151771B1 (en) Game system, imaging method in the game system, and computer readable storage medium having game program stored therein
JP2009205522A (en) Program, information storage medium, and information conversion system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120313

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120402

R150 Certificate of patent or registration of utility model

Ref document number: 4967064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150406

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S802 Written request for registration of partial abandonment of right

Free format text: JAPANESE INTERMEDIATE CODE: R311802

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250