JP3415416B2 - GAME DEVICE, IMAGE DATA FORMING METHOD, AND MEDIUM - Google Patents

GAME DEVICE, IMAGE DATA FORMING METHOD, AND MEDIUM

Info

Publication number
JP3415416B2
JP3415416B2 JP32172097A JP32172097A JP3415416B2 JP 3415416 B2 JP3415416 B2 JP 3415416B2 JP 32172097 A JP32172097 A JP 32172097A JP 32172097 A JP32172097 A JP 32172097A JP 3415416 B2 JP3415416 B2 JP 3415416B2
Authority
JP
Japan
Prior art keywords
flare
mark
data
inner product
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP32172097A
Other languages
Japanese (ja)
Other versions
JPH10201947A (en
Inventor
功基 小岩
俊弘 名越
拓二 増田
隆行 風間
亮 猪川
隆史 藤村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp, Sega Games Co Ltd filed Critical Sega Corp
Priority to JP32172097A priority Critical patent/JP3415416B2/en
Publication of JPH10201947A publication Critical patent/JPH10201947A/en
Application granted granted Critical
Publication of JP3415416B2 publication Critical patent/JP3415416B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、ビデオゲーム装置
に関する。特に、アミューズメントセンターや家庭に設
置されたゲーム装置でよりリアルな画像表現を行い得る
ようにしたゲーム装置に関する。
TECHNICAL FIELD The present invention relates to a video game device. In particular, the present invention relates to a game device that enables more realistic image expression with a game device installed in an amusement center or a home.

【0002】[0002]

【従来の技術】コンピュータ技術の進歩に伴い、コンピ
ュータグラフィックス技術を用いたビデオゲーム装置が
広く利用されるようになってきた。この種のビデオゲー
ム装置はユーザに広く受け入れられている。そして、多
種多様なゲーム装置が数多く案出され、それ等に対応し
た様々なゲームソフトが供給されている。
2. Description of the Related Art With the advance of computer technology, video game devices using computer graphics technology have come into wide use. This type of video game device is widely accepted by users. A large variety of game devices have been devised, and various game software corresponding to them have been supplied.

【0003】[0003]

【発明が解決しようとする課題】ユーザがビデオゲーム
をより楽しむことができるようにするために、画像がよ
りリアルな表現で画面に表示されることが望まれる。例
えば、カーレースのような車両競走においては、車両や
背景の動きが自然に表現され、運転中に起こり得るこ
と、例えば、フロントガラスでの光の反射等が特殊効果
として画面に表現されることが望ましい。また、車両の
タイヤスリップの痕跡等が現れれば面白い。しかも、そ
の痕跡などはゲーム再開時に前回のゲームで生じた痕跡
などが路面に残っていると、なお一層迫力のある画面に
なり、臨場感を高めることは容易に想像できる。
In order for the user to enjoy the video game more, it is desired that the image is displayed on the screen in a more realistic expression. For example, in a vehicle race such as a car race, the movements of the vehicle and the background are naturally expressed, and things that can occur during driving, for example, the reflection of light on the windshield is displayed as a special effect on the screen. Is desirable. Also, it is interesting if traces of vehicle tire slip appear. Moreover, if the traces and the like generated in the previous game when the game is restarted remain on the road surface, the screen becomes even more powerful, and it can be easily imagined that the sense of presence is enhanced.

【0004】他方、三次元画面(3D)表示は、座標変
換等の複雑な演算を繰返すため、CPUが負担する演算
量が膨大になる。このため、画像表現の特殊効果等を行
うと、これに使用される演算量の分だけ画面に表示する
ポリゴンの数を減らなければならない。
On the other hand, in the three-dimensional screen (3D) display, since complicated calculations such as coordinate conversion are repeated, the amount of calculation that the CPU bears becomes enormous. For this reason, if a special effect such as image expression is performed, the number of polygons displayed on the screen must be reduced by the amount of calculation used for this.

【0005】よって、本発明は、遊技者が光源によるま
ぶしさを体感できる画面を表現できるビデオゲーム装置
を提供することを第1の目的とする。
[0005] Accordingly, the present invention, the player is the first object to provide a video game apparatus that can be represented screens to experience glare due to the light source.

【0006】また、本発明は、ビデオゲームにおいて移
動するオブジェクト(object)の痕跡を画面に表現できる
ゲーム装置を提供することを第2の目的とする。
A second object of the present invention is to provide a game device capable of expressing traces of a moving object in a video game on a screen.

【0007】また、本発明は、ビデオゲームにおいて移
動するオブジェクトの痕跡を画面に表現でき、かつ、そ
の痕跡がゲーム実行中のみならず、次回のゲームにも反
映させることができるビデオゲーム装置を提供すること
を第3の目的とする。
Further, the present invention provides a video game device capable of expressing a trace of a moving object in a video game on a screen and reflecting the trace not only during the execution of the game but also in the next game. The third purpose is to do so.

【0008】また、本発明は、三次元仮想空間における
ゲーム展開を二次元の画面に立体的に見えるように表示
するに際し、描画ルーチンにおける演算量を減らすこと
のできる方法を提供することを第4の目的とする。
Further, the present invention provides a method capable of reducing the amount of calculation in a drawing routine when a game development in a three-dimensional virtual space is displayed on a two-dimensional screen so as to be viewed stereoscopically. The purpose of.

【0009】[0009]

【課題を解決するための手段】上記目的を達成するた
め、本発明のゲーム装置は、三次元仮想空間で仮想カメ
ラの視点(a visual point)を移動して、視野に入った場
面(the scene came intothe view)の画像を表示する(di
splay)ゲーム装置において、視野内に光源が存在すると
きに、画像(picture)にフレア(flare)を形成するフレア
処理手段(S102〜S118)を含む。上記フレア処
理手段は、上記視点の視線方向を表す視線ベクトルを得
る視線ベクトル生成手段(S106)と、上記視点から
光源の方向を表す光線ベクトルを得る手段(S104)
と、上記視線ベクトルと上記光線ベクトルとの内積(the
inner product) を計算する内積計算手段(S108)
と、上記画像に上記内積に応じた強度のフレアを形成す
るフレア形成手段(S112〜S118)と、を備える
ことを特徴とする。また、本発明のの画像形成方法は、
前記視点の視野内に光源が存在するときに、前記画像に
フレアを形成するためのフレア処理を含み、前記フレア
処理は、前記視点の視線方向を表す視線ベクトルを得る
視線ベクトル生成と、前記視点から光源の方向を表す光
線ベクトルの取得と、前記視線ベクトルと前記光線ベク
トルとの内積を計算する内積計算と、前記画像に前記内
積に応じた強度のフレアを形成するフレア形成と、を含
むことを特徴する。このようにすることによって、光源
の視点からの位置及び/又は光源の強度に対応したフレ
アの形成が可能となる。そして、より実際のシーンに近
い表現となり、映像効果の強化されたゲーム画像を形成
することが可能となって、ゲームが面白くなる。
In order to achieve the above object, the game device of the present invention moves a visual point of a virtual camera in a three-dimensional virtual space to enter the scene. Display an image of came into the view (di
The splay game device includes flare processing means (S102 to S118) for forming flare in a picture when a light source is present within the field of view. The flare processing unit obtains a line-of-sight vector that represents the line-of-sight direction of the viewpoint (S106), and a unit that obtains a ray vector that represents the direction of the light source from the viewpoint (S104).
And the dot product of the line-of-sight vector and the ray vector (the
Inner product calculating means for calculating inner product) (S108)
And flare forming means (S112 to S118) for forming a flare having an intensity corresponding to the inner product on the image. Further, the image forming method of the present invention,
When there is a light source in the visual field of the viewpoint,
Including a flare treatment to form a flare, said flare
The process obtains a line-of-sight vector representing the line-of-sight direction of the viewpoint.
Generation of line-of-sight vector and light that represents the direction of the light source from the viewpoint
Acquisition of line vector, line-of-sight vector and ray vector
The inner product calculation for calculating the inner product with
Flare formation that forms a flare with a strength corresponding to the product.
It is characterized by By doing so, it becomes possible to form flare corresponding to the position of the light source from the viewpoint and / or the intensity of the light source. Then, the expression becomes closer to the actual scene, and it becomes possible to form a game image with enhanced video effects, which makes the game interesting.

【0010】また、上記内積と基準値との比較結果に基
づいて、上記フレア形成手段を活性化させる判別手段
(S110)、を更に備えることを特徴とする。これに
より、敢えてフレアを発生させる程の強さでない光源で
ある場合に、フレア形成を回避してフレア処理を行うこ
とによる画質の低下を防止することが可能となる。
Further, the present invention is characterized by further comprising a discriminating means (S110) for activating the flare forming means based on the comparison result of the inner product and the reference value. As a result, when the light source is not strong enough to generate flare, it is possible to avoid the flare formation and prevent the image quality from being degraded by performing the flare process.

【0011】また、上記フレア形成手段は、上記内積に
応じて画像の白味の度合を増す(S112)、ことを特
徴とする。これにより、フレアによる画像への影響(フ
レア効果)が表現される。
Further, the flare forming means increases the degree of whiteness of the image according to the inner product (S112). As a result, the effect of flare on the image (flare effect) is expressed.

【0012】また、上記フレア形成手段は、上記内積に
応じた透明度のフレアポリゴンの画像を形成する(S1
14、S118)、ことを特徴とする。これにより、カ
メラレンズのフレアを表現することが可能となる。
Further, the flare forming means forms an image of a flare polygon having transparency corresponding to the inner product (S1).
14, S118). This makes it possible to express the flare of the camera lens.

【0013】また、上記フレア形成手段は、予め定めら
れた内積の上限値と下限値との間において、上記内積に
応じた画像への白味の付加処理及び上記内積に応じた透
明度のフレアポリゴンの形成処理の少なくともいずれか
を行う、ことを特徴とする。これにより、強度の弱い光
源によるフレア発生の回避と強度の強い光源よる過度の
フレア処理の回避とが可能となる。
Further, the flare forming means adds whiteness to an image according to the inner product and a flare polygon having a transparency according to the inner product between an upper limit value and a lower limit value of a predetermined inner product. At least one of the forming treatments is performed. This makes it possible to avoid flare generation due to a light source with low intensity and avoid excessive flare processing due to a light source with high intensity.

【0014】また、上記フレア形成手段は、上記視点と
上記光源とを結ぶ直線上に上記フレアを形成する(S1
16,S118)、ことを特徴とする。これにより、仮
想カメラへの光線の入射が表現される。
Further, the flare forming means forms the flare on a straight line connecting the viewpoint and the light source (S1).
16, S118). This represents the incidence of light rays on the virtual camera.

【0015】本発明のゲーム装置は、三次元仮想空間で
視点を移動して視野に入った場面を画像として表示する
ゲーム装置において、上記視点の視野内に光源が存在す
るときに、上記画像にフレアを形成するフレア処理手段
を含み、上記フレア処理手段は、上記光源の視野内の位
置や光源の強度等に応じて上記フレアの程度を決定す
る、ことを特徴とする。この際に、テーブルや関数を用
いてフレアの程度を上述した上限値や下限値等を考慮し
た適当な値に決定することができる。
The game apparatus of the present invention is a game apparatus for displaying a scene in the visual field by moving the visual point in a three-dimensional virtual space, and when a light source is present in the visual field of the visual point, the image is displayed on the image. A flare processing means for forming flare is included, and the flare processing means determines the degree of the flare according to the position in the field of view of the light source, the intensity of the light source, and the like. At this time, the degree of flare can be determined to an appropriate value in consideration of the upper limit value and the lower limit value described above using a table or a function.

【0016】フレアは、例えば、画面上に周囲よりも比
較的に白味の度合いの高い平面形状若しくは中空の平面
形状を表示することによって表現される。このフレアの
表示、非表示を短時間内に繰り返す(フラッシング)こ
とにより、より実際のフレア発生の状態に似せることが
可能となる。また、フレア(特に、中空でないフレア画
像)によって背景の画像が継続的に遮られることを回避
して、ゲーム操作に支障のないようにすることが可能と
なる。
The flare is expressed, for example, by displaying a plane shape having a relatively high degree of whitishness or a hollow plane shape on the screen. By repeating the display and non-display of the flare within a short period of time (flushing), it becomes possible to more closely resemble the actual flare generation state. In addition, it is possible to avoid continuous obstruction of the background image by flare (particularly, a flare image that is not hollow) so that the game operation is not hindered.

【0017】フレアを入射光線に相当する直線上に複数
表示する、ことによってよりフレアらしく見せることが
可能となる。この際に、複数表示されるフレアを相似形
によって形成することにより、演算の負担をより軽減す
ることが可能となる。
By displaying a plurality of flares on a straight line corresponding to an incident ray, it is possible to make the flare look more like. At this time, it is possible to further reduce the calculation load by forming a plurality of flares to be displayed in a similar shape.

【0018】また、上記光源は上記三次元仮想空間内に
配置された仮想太陽であり、この仮想太陽が、所定の場
面において上記画像にフレアを生ぜしめるために、上記
三次元仮想空間内における上記仮想太陽の正規の配置位
置から上記所定の場面の視野内に再配置される、ことを
特徴とする。このようにすると、ゲーム場面中に光源を
意図的に存在せしめてフレアを発生させて、ゲーム場面
を演出することが可能となる。
Further, the light source is a virtual sun arranged in the three-dimensional virtual space, and in order for the virtual sun to cause flare in the image in a predetermined scene, the virtual sun in the three-dimensional virtual space is used. The virtual sun is rearranged within the visual field of the predetermined scene from the regular arrangement position. By doing so, it becomes possible to intentionally cause the light source to exist in the game scene to generate flare and to produce the game scene.

【0019】本発明のゲーム装置は、ゲームの展開に従
って移動するオブジェクトを画像として表示するゲーム
装置において、上記オブジェクトの現在位置を読取る手
段(S132)と、上記現在位置から所定範囲内の長さ
で痕跡マーク(trace mark)を描画すると共に、上記痕跡
マークの後端側を時間経過と共に徐々に薄くして消滅さ
せる痕跡マーク描画手段(S132〜S158)と、を
備えることを特徴とする。これにより、タイヤ等の痕跡
ポリゴンを減少して画像処理の演算量を減らすことが可
能となる。
The game device of the present invention is a game device for displaying an object which moves according to the development of the game as an image, and means for reading the current position of the object (S132) and a length within a predetermined range from the current position. A trace mark drawing means (S132 to S158) is provided for drawing a trace mark and gradually thinning the trailing end side of the trace mark so as to disappear over time. As a result, it is possible to reduce the number of trace polygons such as tires and reduce the amount of calculation for image processing.

【0020】上記痕跡マークは、好ましくは、複数部分
からなり、各部分は上記痕跡マークの先端部分から後端
部分に向かって薄くなるパターンを分担する。各部分が
分担する痕跡のパターンは予め形成されたパターンを使
用することができる。また、基本となる痕跡のパターン
の透明度を変えて各部分のパターンとして使用すること
が可能である。
The trace mark preferably comprises a plurality of portions, and each portion shares a pattern that becomes thinner from the leading end portion to the trailing end portion of the trace mark. A preformed pattern can be used as the trace pattern shared by each portion. Further, it is possible to change the transparency of the basic trace pattern and use it as the pattern of each portion.

【0021】また、上記痕跡マーク描画手段は、上記オ
ブジェクトの現在位置が、描画された痕跡マークの先端
位置(top position)から所定値以上離れる(spaced)まで
は(S134)、上記痕跡マークの先端部分のみを延長
し(S142〜S152)、所定値以上離れたときは上
記痕跡マーク全体を上記所定値だけ上記オブジェクトの
現在位置に向って移動する(S136〜S158)、こ
とを特徴とする。これにより、遊技者に違和感のない痕
跡マークを描画すると共に、痕跡マーク全体の長さを一
定長に制限して、画像処理の演算量の増加を抑制するこ
とが可能となる。
The trace mark drawing means continues until the current position of the object is separated from the top position of the trace mark drawn (top position) by a predetermined value or more (spaced) (S134). Only the part is extended (S142 to S152), and when it is separated by a predetermined value or more, the entire trace mark is moved toward the current position of the object by the predetermined value (S136 to S158). As a result, it is possible to draw a trace mark that does not make the player feel uncomfortable and limit the length of the entire trace mark to a fixed length, thereby suppressing an increase in the amount of image processing calculations.

【0022】また、上記痕跡マーク描画手段は、上記オ
ブジェクトの移動速度に応じて描画された痕跡の消滅タ
イミングを加減する(S132〜S158)、ことを特
徴とする。
Further, the trace mark drawing means adjusts the disappearance timing of the trace drawn according to the moving speed of the object (S132 to S158).

【0023】また、上記痕跡マーク描画手段は、上記オ
ブジェクトが停止しているときは描画された痕跡マーク
を消滅させず、上記オブジェクトが移動しているときは
描画された痕跡マークをオブジェクトの移動速度に応じ
て早く消滅させる(S132〜S158)、ことを特徴
とする。これにより、痕跡マークがオブジェクトの移動
に追従する。
Further, the trace mark drawing means does not erase the drawn trace mark when the object is stopped and moves the drawn trace mark when the object is moving. It is characterized by rapidly erasing according to (S132 to S158). As a result, the trace mark follows the movement of the object.

【0024】また、上記痕跡マーク描画手段は、好まし
くは、上記オブジェクトが停止して所定時間を経過した
ときには、描画した痕跡マークを消去する。これによ
り、表示ポリゴン(スリップ痕跡)の数を減らしてCP
Uの演算の負担を軽減することが可能となる。
The trace mark drawing means preferably erases the drawn trace mark when a predetermined time has elapsed after the object stopped. As a result, the number of display polygons (slip marks) is reduced and CP
It is possible to reduce the calculation load of U.

【0025】上記痕跡マーク描画手段は、上記複数部分
からなるマーク(図9)の各部分にそれぞれ対応する複
数の記憶領域に上記マークの各部の位置を保持する巡回
レジスタ(図10)と、マークの先頭に対応する巡回レ
ジスタの記憶領域を示すマーク先頭位置指示手段(図
6、図8)と、を有することを特徴とする。
The trace mark drawing means includes a cyclic register (FIG. 10) for holding the position of each part of the mark in a plurality of storage areas corresponding to each part of the mark (FIG. 9) consisting of the plurality of parts, and the mark. And a mark head position indicating means (FIGS. 6 and 8) indicating the storage area of the cyclic register corresponding to the head of the.

【0026】これに加えて、本発明の痕跡マークに関す
る別の特徴を得る構成は、ゲームの展開に伴って仮想空
間を移動するオブジェクトを画像として表示するゲーム
装置であって、前記ゲームの実行中の前記オブジェクト
の移動に伴う痕跡マークおよび過去の痕跡マークを処理
して表示させる処理表示手段(図28〜図31)と、前
記ゲームの終了後に前記痕跡マークを記憶する第1の記
憶手段(図32)と、前記ゲームの開始前に前記第1の
記憶手段から当該第1の記憶手段が記憶している前記痕
跡マークを読み出して前記処理表示手段に前記過去の痕
跡マークとして与える読出し手段(図27)と、を備え
る。
In addition to this, a structure for obtaining another characteristic of the trace mark of the present invention is a game apparatus for displaying an object moving in a virtual space as an image as a game develops, while the game is being executed. Processing display means (FIGS. 28 to 31) for processing and displaying the trace mark associated with the movement of the object and the past trace mark, and a first storage means (FIG. 28) for storing the trace mark after the end of the game. 32) and read means for reading the trace mark stored in the first storage means from the first storage means before starting the game and giving it to the processing display means as the past trace mark (FIG. 27) and.

【0027】例えば、前記処理表示手段(図28〜図3
1)は、前記オブジェクトの移動に伴う新規の前記痕跡
マークを処理して表示させる第1の表示手段(S300
1〜S3004)と、前記過去の痕跡マークを含む現在
までに発生した痕跡マークを記憶する第2の記憶手段
(S3001、S3005〜S3008、S3011〜
S3017)と、この第2の記憶手段に記憶した痕跡マ
ークをソートするソート手段(S3021)と、このソ
ート手段のソート結果に応じて前記痕跡マークを処理し
て表示させる第2の表示手段(S3022〜S302
5)とを備える。
For example, the processing display means (FIGS. 28 to 3)
1) is a first display unit (S300) for processing and displaying the new trace mark associated with the movement of the object.
1 to S3004) and second storage means (S3001, S3005 to S3008, S3011) for storing the trace marks generated up to the present time including the past trace marks.
S3017), sorting means (S3021) for sorting the trace marks stored in the second storage means, and second display means (S3022) for processing and displaying the trace marks according to the sorting result of the sorting means. ~ S302
5) and.

【0028】好適には、前記第2の記憶手段は、前記痕
跡マークをその大きさに応じてソートする手段(S30
11〜S3017)と、このソート結果による優先度の
低い痕跡マークを消去して新規に発生した痕跡マークを
記憶するメモリ手段(102)を備える。
Preferably, the second storage means sorts the trace marks according to their size (S30).
11 to S3017) and a memory means (102) for erasing a trace mark having a low priority due to the sorting result and storing a newly generated trace mark.

【0029】また好適には、前記ソート手段(S302
1)は、前記仮想空間内で仮想カメラから前記痕跡マー
クまでの距離に応じてソートする手段である。
Also preferably, the sorting means (S302
1) is means for sorting according to the distance from the virtual camera to the trace mark in the virtual space.

【0030】さらに好適には、前記第2の表示手段(S
3022〜S3025)は、前記痕跡マークのポリゴン
を表示可能な最大数を加味して当該痕跡マークを表示さ
せる手段である。
More preferably, the second display means (S
3022 to S3025) are means for displaying the trace mark in consideration of the maximum number of polygons of the trace mark that can be displayed.

【0031】一方、前記第1の記憶手段(図32)は、
前記痕跡マークの表示価値を判断する判断手段(S32
1)と、この判断手段の判断結果に応じて前記痕跡マー
クをソートするソート手段(S322)と、このソート
手段のソート結果による優先順位の高い痕跡マークから
その所定数のみを保存するメモリ手段(S323〜S3
25、190)とを備えることができる。前記表示価値
の判断条件には、前記痕跡マークの長さおよび位置の条
件が含まれる。
On the other hand, the first storage means (FIG. 32) is
Judgment means (S32) for judging the display value of the trace mark
1), a sorting means (S322) for sorting the trace marks according to the determination result of the determination means, and a memory means (storing only a predetermined number of trace marks having a high priority from the sorting result of the sorting means). S323 ~ S3
25, 190). The condition for determining the display value includes conditions for the length and position of the trace mark.

【0032】前記処理表示手段(図28〜図31)は、
前記オブジェクトの現在位置を読み取る手段と、前記現
在位置から所定範囲内の長さで痕跡マークを描画すると
共に、前記痕跡マークの後端側を時間経過と共に徐々に
薄くして消滅させる痕跡マーク描画手段と、を備えるこ
とを特徴とする。
The processing display means (FIGS. 28 to 31) is
Means for reading the current position of the object, and trace mark drawing means for drawing a trace mark with a length within a predetermined range from the current position and gradually thinning the trailing end side of the trace mark to disappear over time. And are provided.

【0033】この構成により、ゲームが終了すると直ち
に、ゲーム実行中のタイヤマークデータなどの痕跡マー
クデータの価値が判断され、メモリ(SRAM)に表示
価値の高い順に選択的に保存され、次回のゲームにそれ
が表示される。このため、次回のゲーム時に前回のゲー
ム時のスリップ痕などのタイヤマークが残った状態で画
面表示され、非常にリアル感があり、かつゲームの臨場
感を高い。また、このタイヤマークデータはゲーム実行
中は過去データの一部として扱われ、ソートされて、表
示最大数やカメラ視野などに依る表示条件の元で極力そ
の多くが表示される。
With this configuration, the value of the trace mark data such as the tire mark data during the execution of the game is determined immediately after the game ends, and the values are selectively stored in the memory (SRAM) in descending order of display value. Is displayed in. Therefore, at the time of the next game, the tire mark such as the slip mark at the time of the previous game is displayed on the screen, which is very realistic and highly realistic. Further, this tire mark data is treated as a part of past data during game execution, sorted, and most of it is displayed under display conditions depending on the maximum number of displays, camera field of view, and the like.

【0034】一方、ゲーム終了時に保存するタイヤマー
クデータ量はマークの表示価値に応じてソートされ、優
先順位の高いデータから保存されるので、その記憶容量
も少なくて済む。また、このソート及びデータ保存はゲ
ーム実行中には行わずに、ゲームが終了した時点で行う
ようにしているから、CPUを中心とする演算要素に掛
かる演算負荷を軽減できる。
On the other hand, since the tire mark data amount to be saved at the end of the game is sorted according to the display value of the mark, and the data with the highest priority is saved, the storage capacity thereof can be small. Further, since the sorting and the data storage are not performed during the game execution but are performed at the time when the game is finished, it is possible to reduce the calculation load on the calculation elements centered on the CPU.

【0035】本発明の媒体は、コンピュータシステムを
上述したゲーム装置として機能させるプログラムを記録
している。
The medium of the present invention stores a program that causes a computer system to function as the above-mentioned game device.

【0036】本発明の画像データの形成方法は、ポリゴ
ンによって構成されるオブジェクトを三次元仮想空間に
配置する過程(S202)と、三次元仮想空間内に視点
を設定し、この視点から見た表示領域内のポリゴンを投
影面に投影して投影画像を形成する過程(S254)
と、上記投影面に形成された投影画像から上記視点にお
ける各ポリゴンの可視又は不可視の識別を行う過程(S
256)と、各ポリゴンの可視又は不可視を表すデータ
によってオブジェクトデータを形成する過程(S21
2)と、上記視点とオブジェクトデータとを関連付ける
過程(S216)と、を含む。
The image data forming method of the present invention is a process of arranging an object composed of polygons in a three-dimensional virtual space (S202) and setting a viewpoint in the three-dimensional virtual space, and displaying from this viewpoint. A process of projecting polygons in the area onto a projection surface to form a projection image (S254)
And a step of identifying whether each polygon at the viewpoint is visible or invisible from the projection image formed on the projection surface (S
256) and the process of forming the object data by the data representing the visible or invisible of each polygon (S21).
2) and the step of associating the viewpoint with the object data (S216).

【0037】本発明の画像データの形成方法は、ポリゴ
ンによって構成される全てのオブジェクトを三次元仮想
空間に配置する過程(S202)と、三次元仮想空間内
に複数の視点を設定する過程(S204)と、各視点か
ら見た表示領域内のポリゴンをそれぞれの投影面に投影
して各視点毎に投影画像を形成する過程(S252、S
254)と、上記投影面に形成された投影画像から各視
点における各ポリゴンの可視又は不可視の識別を行う過
程(S256)と、上記識別結果に基づいて、各視点に
おける各ポリゴンの可視又は不可視を表すデータを形成
する過程(S258)と、各視点における可視又は不可
視を表す各ポリゴンのデータパターンによって同一又は
類似のパターンをグループ化して複数のオブジェクトデ
ータを形成する過程(S212)と、各視点から見える
オブジェクトデータを表すオブジェクトテーブルを形成
する過程(S216)と、を含む。
In the image data forming method of the present invention, a process of arranging all objects constituted by polygons in a three-dimensional virtual space (S202) and a process of setting a plurality of viewpoints in the three-dimensional virtual space (S204). ), And a process of projecting polygons in the display area viewed from each viewpoint onto the respective projection surfaces to form a projected image for each viewpoint (S252, S).
254), a process of identifying whether each polygon is visible or invisible at each viewpoint from the projection image formed on the projection surface (S256), and determining whether each polygon is visible or invisible at each viewpoint based on the identification result. From the viewpoints, the process of forming the data (S258), the process of forming a plurality of object data by grouping the same or similar patterns by the data pattern of each polygon representing the visible or invisible at each viewpoint (S212), Forming an object table representing visible object data (S216).

【0038】本発明の媒体は、コンピュータシステム
に、上述した画像データの形成方法の各過程を実行させ
るためのプログラムを記録している。
The medium of the present invention stores a program for causing a computer system to execute each step of the above-described image data forming method.

【0039】[0039]

【発明の実施の形態】以下、本発明の実施形態を図面を
参照しながら説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0040】(第1の実施形態)第1の実施形態に係る
ビデオゲーム装置を説明する。このビデオゲーム装置
は、本発明の特殊効果画像のアルゴリズムを実行し得る
構成を備えている。
(First Embodiment) A video game device according to the first embodiment will be described. This video game device has a configuration capable of executing the special effect image algorithm of the present invention.

【0041】図1は、ビデオゲーム装置の概要を表すブ
ロック図である。この装置は、装置全体の制御を行うC
PUブロック10、ゲーム画面の表示制御を行うビデオ
ブロック11、効果音等を生成するサウンドブロック1
2、CD−ROMの読み出しを行うサブシステム13等
により構成されている。
FIG. 1 is a block diagram showing an outline of a video game device. This device is C which controls the whole device.
PU block 10, video block 11 for controlling the display of the game screen, sound block 1 for generating sound effects, etc.
2. The subsystem 13 for reading the CD-ROM and the like.

【0042】CPUブロック10は、SCU(System C
ontrol Unit)100、メインCPU101、RAM1
02、ROM103、カートリッジI/F1a、サブC
PU104、CPUバス103等により構成されてい
る。メインCPU101は、装置全体の制御を行うもの
である。このメインCPU101は、内部にDSP(Di
gital Signal Processor)と同様の演算機能を備え、ア
プリケーションソフトを高速に実行可能である。
The CPU block 10 is an SCU (System C
ontrol Unit) 100, main CPU 101, RAM 1
02, ROM 103, cartridge I / F 1a, sub C
The PU 104 and the CPU bus 103 are included. The main CPU 101 controls the entire apparatus. The main CPU 101 has a DSP (Di
(Gital Signal Processor) has the same calculation function, and can execute application software at high speed.

【0043】RAM102は、メインCPU101のワ
ークエリアとして使用されるものである。ROM103
には、初期化処理用のイニシャルプログラム等が書き込
まれている。SCU100は、バス105、106、1
07を制御することにより、メインCPU101、VD
P120、130、DSP140、CPU141等の間
におけるデータ入出力を円滑に行うものである。また、
SCU100は、内部にDMAコントローラを備え、ゲ
ーム中のオブジェクト(あるいはスプライト)データを
ビデオブロック11内のVRAMに転送することができ
る。これにより、ゲーム等のアプリケーションソフトを
高速に実行することが可能である。カートリッジI/F
1aは、ROMカートリッジの形態で供給されるアプリ
ケーションソフトを入力するためのものである。
The RAM 102 is used as a work area for the main CPU 101. ROM103
An initial program for initialization processing and the like are written in. SCU100 has buses 105, 106 and 1
07 by controlling the main CPU 101, VD
Data is smoothly input and output between the P120, 130, the DSP 140, the CPU 141, and the like. Also,
The SCU 100 has a DMA controller inside and can transfer the object (or sprite) data in the game to the VRAM in the video block 11. As a result, application software such as a game can be executed at high speed. Cartridge I / F
1a is for inputting application software supplied in the form of a ROM cartridge.

【0044】サブCPU104は、SMPC(System M
anager & Peripheral Control)と呼ばれるもので、メ
インCPU101からの要求に応じて、入力装置2bか
らペリフェラルデータをコネクタ2aを介して収集する
機能等を備えている。メインCPU101はサブCPU
104から受け取ったペリフェラルデータに基づき、例
えばゲーム画面中の車両(オブジェクト)を移動させる
等の処理を行うものである。コネクタ2aには、ハンド
ル、アクセル及びブレーキ等からなる操縦装置が接続さ
れる。また、PAD、ジョイスティック、キーボード等
のうちの任意のペリフェラルも接続可能である。コネク
タ2aに2台の操縦装置2bを接続することによってカ
ーレースの対戦を行うことが可能となる。サブCPU1
04は、コネクタ2a(本体側端子)に接続されたペリ
フェラルの種類を自動的に認識し、ペリフェラルの種類
に応じた通信方式に従いペリフェラルデータ等を収集す
る機能を備えている。
The sub CPU 104 is an SMPC (System M
This is called an anager & Peripheral Control) and has a function of collecting peripheral data from the input device 2b via the connector 2a in response to a request from the main CPU 101. Main CPU 101 is sub CPU
Based on the peripheral data received from 104, processing such as moving a vehicle (object) in the game screen is performed. A steering device including a steering wheel, an accelerator, a brake and the like is connected to the connector 2a. Also, any peripherals such as PAD, joystick, keyboard, etc. can be connected. By connecting two control devices 2b to the connector 2a, it becomes possible to compete in a car race. Sub CPU1
Reference numeral 04 has a function of automatically recognizing the type of peripheral connected to the connector 2a (terminal on the main body side) and collecting peripheral data and the like according to a communication method corresponding to the type of peripheral.

【0045】ビデオブロック11は、主に、ビデオゲー
ムのポリゴンデータから成るオブジェクト等の描画を行
うVDP(Video Display Processor)120、主に、
背景画面の描画、ポリゴン画像データ(オブジェクト)
および背景画像の合成、クリッピング処理等を行うVD
P130とを備えている。
The video block 11 is mainly a VDP (Video Display Processor) 120 for drawing an object or the like made up of polygon data of a video game.
Background screen drawing, polygon image data (object)
And VD that performs background image synthesis, clipping processing, etc.
P130 and.

【0046】VDP120には、VRAM121、複数
のフレームバッファ(図示の例では、122、123の
2つ)に接続される。ビデオゲーム装置のオブジェクト
を表すポリゴンの描画コマンドはメインCPU101か
らSCU100を介してVDP120に送られ、VRA
M121に書き込まれる。VDP120は、VRAMか
ら描画コマンドを内部のシステムレジスタに読込み、フ
レームバッファに描画データを書込む。描画されたフレ
ームバッファ122または123のデータはVDP13
0に送られる。VDP120は定形オブジェクト、拡縮
オブジェクト、変形オブジェクト等を表示するテクスチ
ャパーツ表示、四角形ポリゴン、ポリライン、ライン等
を表示する非定形オブジェクト表示、パーツ同士の半透
明演算、半輝度演算、シャドウ演算、ぼかし演算、メッ
シュ演算、シェーディング演算等の色演算、メッシュ処
理、設定した表示領域以外の描画をしないようにするク
リッピングを行う演算機能、等を備えている。また、行
列演算を行うジオメタライザを備えており、拡大、縮
小、回転、変形、座標変換等の演算をを素早く行うこと
ができる。
The VDP 120 is connected to a VRAM 121 and a plurality of frame buffers (two 122 and 123 in the illustrated example). A drawing command of a polygon representing an object of the video game device is sent from the main CPU 101 to the VDP 120 via the SCU 100, and the VRA 120
Written to M121. The VDP 120 reads the drawing command from the VRAM into the internal system register and writes the drawing data in the frame buffer. The drawn data in the frame buffer 122 or 123 is VDP13.
Sent to 0. The VDP 120 is a texture part display that displays a fixed object, a scaled object, a deformed object, etc., a non-standard object display that displays a quadrilateral polygon, polyline, line, etc. It is provided with a color calculation such as mesh calculation and shading calculation, mesh processing, a calculation function for performing clipping so as to prevent drawing other than a set display area, and the like. In addition, it is equipped with a geometallizer that performs matrix operations, and operations such as enlargement, reduction, rotation, transformation, and coordinate conversion can be performed quickly.

【0047】VDP130はVRAM131に接続さ
れ、VDP130から出力された画像データはメモリ1
32を介してエンコーダ160に出力される構成となっ
ている。VDP130は、VDP120の持つ機能に加
えて、スクロール画面表示を制御するスクロール機能
と、オブジェクト及び画面の表示優先順位を決めるプラ
イオリティ機能等を備える。
The VDP 130 is connected to the VRAM 131, and the image data output from the VDP 130 is stored in the memory 1
It is configured to be output to the encoder 160 via 32. The VDP 130 has, in addition to the functions of the VDP 120, a scroll function for controlling scroll screen display, a priority function for determining display priority of objects and screens, and the like.

【0048】エンコーダ160は、この画像データに同
期信号等を付加することにより映像信号を生成し、TV
受像機5(あるいはプロジェクタ)に出力する。これに
より、TV受像機5に各種ゲームの画面が表示される。
The encoder 160 generates a video signal by adding a synchronizing signal or the like to this image data, and
Output to the image receiver 5 (or projector). As a result, the screens of various games are displayed on the TV receiver 5.

【0049】サウンドブロック12は、PCM方式ある
いはFM方式に従い音声合成を行うDSP140と、こ
のDSP140の制御等を行うCPU141とにより構
成されている。DSP140により生成された音声デー
タは、D/Aコンバータ170により2チャンネルの信
号に変換された後にスピーカ5bに出力される。
The sound block 12 is composed of a DSP 140 that synthesizes voice according to the PCM system or the FM system, and a CPU 141 that controls the DSP 140 and the like. The audio data generated by the DSP 140 is converted into a 2-channel signal by the D / A converter 170 and then output to the speaker 5b.

【0050】サブシステム13は、CD−ROMドライ
ブ1b、CD I/F180、CPU181、MPEG
AUDIO182、MPEG VIDEO183等に
より構成されている。このサブシステム13は、CD−
ROMの形態で供給されるアプリケーションソフトの読
み込み、動画の再生等を行う機能を備えている。CD−
ROMドライブ1bはCD−ROMからデータを読み取
るものである。CPU181は、CD−ROMドライブ
1bの制御、読み取られたデータの誤り訂正等の処理を
行うものである。CD−ROMから読み取られたデータ
は、CD I/F180、バス106、SCU100を
介してメインCPU101に供給され、アプリケーショ
ンソフトとして利用される。また、MPEG AUDI
O182、MPEG VIDEO183は、MPEG規
格(Motion Picture Expert Group)により圧縮された
データを復元するデバイスである。これらのMPEG
AUDIO182、MPEG VIDEO183を用い
てCD−ROMに書き込まれたMPEG圧縮データの復
元を行うことにより、動画の再生を行うことが可能とな
る。
The subsystem 13 includes a CD-ROM drive 1b, a CD I / F 180, a CPU 181, and an MPEG.
It is composed of AUDIO 182, MPEG VIDEO 183 and the like. This subsystem 13 is a CD-
It is provided with a function of reading application software supplied in the form of a ROM and reproducing a moving image. CD-
The ROM drive 1b reads data from a CD-ROM. The CPU 181 performs processing such as control of the CD-ROM drive 1b and error correction of read data. The data read from the CD-ROM is supplied to the main CPU 101 via the CD I / F 180, the bus 106, and the SCU 100, and is used as application software. In addition, MPEG AUDI
The O182 and MPEG VIDEO 183 are devices that restore data compressed according to the MPEG standard (Motion Picture Expert Group). These MPEG
By reproducing the MPEG compressed data written in the CD-ROM using the AUDIO 182 and the MPEG VIDEO 183, it becomes possible to reproduce the moving image.

【0051】次に、本発明に係る画像の第1の特殊効果
の例について図2、図3及び図4を参照して説明する。
Next, an example of the first special effect of the image according to the present invention will be described with reference to FIGS. 2, 3 and 4.

【0052】本実施形態では、ゲームの展開中に光源か
らいわゆる仮想カメラに光線が入射したときに、画像中
に光線によるフレアを発生させて、よりリアリティのあ
る画像を提供するものである。図2は、フレア形成のア
ルゴリズムを説明するフローチャート、図3は、フレア
発生の条件判断を説明する説明図、図4は、フレアを生
ぜしめた画像の例を示す説明図である。
In this embodiment, when a light ray is incident on a so-called virtual camera from a light source during the development of a game, flare due to the light ray is generated in the image to provide a more realistic image. FIG. 2 is a flowchart for explaining a flare forming algorithm, FIG. 3 is an explanatory view for explaining conditions for flare occurrence, and FIG. 4 is an explanatory diagram showing an example of an image in which flare has occurred.

【0053】まず、CPU101は、図示しない主ゲー
ムプログラム及び運転操作のデータに従って三次元仮想
空間でカーレースゲームを展開する。主ゲームプログラ
ムやデータはROMカートリッジやCD−ROM、フロ
ッピーディスク等の情報記録媒体によって供給され、予
めメモリ内にロードされる。また、プログラムやデータ
は、インターネット、パソコン通信、衛星通信等の通信
網や放送等の媒体を媒介としてダウンロードしても良
い。CPU101は、三次元仮想空間に車両や背景のオ
ブジェクトを配置し、TV受像機のフレーム周期に同期
してオブジェクトの位置・移動等を制御する。
First, the CPU 101 develops a car race game in a three-dimensional virtual space in accordance with a main game program and driving operation data (not shown). The main game program and data are supplied by an information recording medium such as a ROM cartridge, a CD-ROM, a floppy disk, etc., and loaded in advance in the memory. Further, the programs and data may be downloaded through a medium such as a communication network such as the Internet, personal computer communication and satellite communication, or broadcasting. The CPU 101 arranges vehicles and background objects in the three-dimensional virtual space, and controls the position and movement of the objects in synchronization with the frame period of the TV receiver.

【0054】図3は、三次元仮想空間を遊技者あるいは
運転者等の視点に相当する仮想カメラで観察する様子を
示すものであり、同図において、21は仮想カメラ(視
点)、22はテレビモニタの画面に相当する投影面、2
3はゲームが展開される三次元仮想空間、24は三次元
仮想空間に配置された仮想光源、25は仮想カメラの視
野範囲、Aはカメラ位置と光源とを結ぶ線上にある単位
ベクトル、Bは仮想カメラの向き方向に存在する単位ベ
クトル、θはベクトルAとBとのなす角度である。な
お、後述するように、ベクトルは単位ベクトルに限定さ
れない。
FIG. 3 shows a state of observing a three-dimensional virtual space with a virtual camera corresponding to a viewpoint of a player or a driver. In FIG. 3, 21 is a virtual camera (viewpoint) and 22 is a television. Projection plane corresponding to monitor screen, 2
3 is a three-dimensional virtual space in which the game is developed, 24 is a virtual light source arranged in the three-dimensional virtual space, 25 is a visual field range of the virtual camera, A is a unit vector on a line connecting the camera position and the light source, and B is A unit vector existing in the direction of the virtual camera, θ is an angle formed by the vectors A and B. Note that the vector is not limited to the unit vector, as will be described later.

【0055】CPU101は、主ゲームプログラムの実
行中に、仮想カメラの視野(あるいは画面)25内に、
太陽、街路灯等の光源ポリゴン24が入っているかどう
かを判断する(S102)。これは、各シーン毎に仮想
空間に配置されるオブジェクトが予めデータベース化さ
れ、該当シーンにリストアップされたオブジェクトの個
別番号によって光源のオブジェクトの存在を知ることが
可能である。
The CPU 101 keeps the visual field (or screen) 25 of the virtual camera within the visual field 25 while the main game program is being executed.
It is determined whether or not the light source polygons 24 such as the sun and street lights are included (S102). This is because the objects arranged in the virtual space for each scene are stored in a database in advance, and it is possible to know the existence of the light source object by the individual number of the object listed in the corresponding scene.

【0056】視野内に光源オブジェクトが存在しない場
合は、フレアは発生しないので本画像処理は終了する。
If the light source object does not exist in the field of view, flare does not occur, and the main image processing ends.

【0057】視野内に光源オブジェクトが存在すると、
CPU101は、光源からの光線がカメラレンズに入射
するかどうか、その影響の程度等を判断するべく、カメ
ラが光源方向にどの程度向いているか、あるいは光源の
視野内の位置関係等を判断する。このため、三次元仮想
空間におけるカメラ位置と、光源オブジェクトとを結ぶ
線分を求め、単位長のベクトルAを得る(S104)。
このシーンにおける三次元仮想空間でのカメラ21の向
きをデータベースから求め、カメラの向きを表す単位ベ
クトルBを得る(S106)。単位ベクトルA及びBの
内積C、すなわち、C=│A│・│B│cosθを計算
する。両ベクトルの方向が一致すればθは0度となり、
内積は1となる。逆に、両ベクトルの向きが離れるほ
ど、内積は0に近づく(S108)。なお、光源の強度
を内積Cに反映させる場合には、ベクトルAの値を単位
長「1」ではなく、光源の強度に対応した値とする。こ
の場合のベクトルAは、方向及び大きさ(光の強さ)を
持つ入射光線に相当する。
When a light source object exists in the field of view,
The CPU 101 determines how much the camera faces in the direction of the light source, the positional relationship in the visual field of the light source, and the like in order to determine whether the light beam from the light source is incident on the camera lens, the degree of the influence, and the like. Therefore, a line segment connecting the camera position in the three-dimensional virtual space and the light source object is obtained, and the unit length vector A is obtained (S104).
The orientation of the camera 21 in the three-dimensional virtual space in this scene is obtained from the database, and the unit vector B representing the orientation of the camera is obtained (S106). An inner product C of the unit vectors A and B, that is, C = | A | · | B | cos θ is calculated. If the directions of both vectors match, θ becomes 0 degree,
The inner product is 1. On the contrary, the inner product approaches 0 as the directions of both vectors are further apart (S108). When the intensity of the light source is reflected on the inner product C, the value of the vector A is not the unit length “1” but the value corresponding to the intensity of the light source. The vector A in this case corresponds to an incident light ray having a direction and a magnitude (light intensity).

【0058】CPU101は、内積とフレアの発生条件
として予め定められた基準値とを比較する。内積Cが、
基準値(閾値)を越えるかどうかを判断する(S11
0)。越えない場合は、フレアは生じない、あるいはフ
レアを生じさせる程のものではないので、本画像処理を
終了してメインプログラムに戻る。フレア処理は、光源
によって画像が影響を受けたと遊技者が認識できる程度
に行うべきである。さもなければ、フレア処理(例え
ば、後述のフォグ効果)が一種の画質の低下の原因とな
得る。これを上記判断(S110)によって、回避可能
である。
The CPU 101 compares the inner product with a reference value preset as a flare generation condition. The inner product C is
It is determined whether or not the reference value (threshold value) is exceeded (S11).
0). If it does not exceed the limit, flare does not occur or is not enough to cause flare, so this image processing is terminated and the process returns to the main program. The flare process should be performed to the extent that the player can recognize that the image is affected by the light source. Otherwise, flare processing (e.g., fog effect, described below) can cause a type of image quality degradation. This can be avoided by the above determination (S110).

【0059】内積Cが基準値を越える場合、CPU10
1はフレア処理を行う。まず、内積の値Cが大きいほど
真っ直ぐに光源から光線がカメラレンズに入射すること
になるので、より強くフレアが発生する。そこで、値C
に比例して画像に白味をかけ、いわゆる「フォグ効果」
を生ぜしめる。これは、VDP120、130の色演算
の輝度・色度パラメータを変えることによって実現可能
である(S112)。次に、Cの値に比例した透明度D
を求める(S114)。カメラ位置と光源オブジェクト
の位置とを結ぶ直線を2次元画面上の直線Eに変換し、
スクリーン画像における光線のルートを特定する(S1
16)。直線Eに沿って、適当な位置に透明度Dのフレ
アポリゴンを描画する。例えば、透明度Dが半透明の場
合には、下地の画像の輝度を半分にしたものとフレアポ
リゴンの輝度を半分にしたものを加算し、その結果をフ
レームバッファに描画する。それによって、フレア画像
が得られる(S118)。視野内に光量の大なる複数の
光源ポリゴンが存在する場合には、各ポリゴンに対して
上述したフレア発生処理を行う。
When the inner product C exceeds the reference value, the CPU 10
1 performs flare processing. First, the larger the value C of the inner product, the more straightly the light rays are incident on the camera lens from the light source, so more intense flare occurs. So the value C
Adds white to the image in proportion to the so-called "fog effect"
Give rise to. This can be realized by changing the luminance / chromaticity parameters of the color calculation of the VDPs 120 and 130 (S112). Next, the transparency D proportional to the value of C
Is calculated (S114). Convert the straight line connecting the camera position and the position of the light source object to the straight line E on the two-dimensional screen,
The light ray route in the screen image is specified (S1
16). A flare polygon with transparency D is drawn at an appropriate position along the straight line E. For example, when the transparency D is semi-transparent, the luminance of the background image is halved and the luminance of the flare polygon is halved, and the result is drawn in the frame buffer. Thereby, a flare image is obtained (S118). When there are a plurality of light source polygons having a large amount of light in the field of view, the flare generation processing described above is performed on each polygon.

【0060】なお、フォグ効果とフレアポリゴンの処理
のうちいずれか一方のみを実施しても良い。また、視野
内に光源が存在する場合(S102;Yes)、光源に
よる影響をそれなりに受ける。影響の程度は内積Cによ
り制御される。従って、閾値を設定する(S110)こ
とは必須ではない。また、例えば、視野内に光源が存在
する場合に、内積Cによってフレアポリゴンの透明度を
調整し、内積C がしきい値を越えたときから、これに
追加してフォグの効果を内積Cに比例して生ぜしめるこ
ととしても良い。更に、太陽、街灯等の光源の種類、光
源の強度を加味して上記画像の白味や透明度を調整する
ことが可能である。
It should be noted that only one of the fog effect and the flare polygon processing may be performed. If a light source exists in the field of view (S102; Yes), the light source is affected to some extent. The degree of influence is controlled by the dot product C. Therefore, it is not essential to set the threshold value (S110). Also, for example, when a light source is present in the field of view, the transparency of the flare polygon is adjusted by the inner product C, and when the inner product C exceeds a threshold value, the effect of fog is proportional to the inner product C in addition to this. It is also good to give birth. Furthermore, it is possible to adjust the whiteness and transparency of the image by taking into consideration the types of light sources such as the sun and street lights and the intensity of the light sources.

【0061】図4は、レース中の画像にフレアが発生し
た様子を示している。この例では、光源オブジェクトは
画面右上に存在し、表示しない直線Eに沿って環状のフ
レアポリゴン、円状のフレアポリゴンが表示されてい
る。フレアポリゴンの形状は図示の輪郭が略円形状等の
ものに限定されない。例えば、輪郭が多角形のものであ
っても良い。フレアポリゴンは、半透明処理の他、予め
形成されたフレアポリゴンを半透明処理することなくそ
のまま表示することとしても良い。このようなフレアポ
リゴンの表示と消滅とを繰り返して点滅(フラッシン
グ)するような表現形態で表示すると、フレアポリゴン
の後ろが間欠的に見えるので、中抜き(中空、あるいは
環状)でない形状を中抜きとするのと同様の効果、ある
いはフレアポリゴンを半透明としたのと同様の効果が得
られ、背景が見えてゲーム操作の邪魔にならない。ま
た、よりフレアらしく見せることができる。
FIG. 4 shows how flare occurs in the image during the race. In this example, the light source object exists in the upper right corner of the screen, and an annular flare polygon and a circular flare polygon are displayed along a straight line E that is not displayed. The shape of the flare polygon is not limited to the one in which the illustrated contour is substantially circular. For example, the contour may be polygonal. The flare polygon may be displayed as it is without performing the semi-transparency processing, or the flare polygon formed in advance without performing the semi-transparency processing. If the flare polygons are displayed and disappeared repeatedly and displayed in a blinking (flushing) form, the flare polygons appear to appear intermittently, so shapes that are not hollow (hollow or annular) are hollowed out. The same effect as the above or the same effect as making the flare polygon semitransparent is obtained, and the background is visible and does not interfere with the game operation. You can also make it look more flared.

【0062】フレアはフレアポリゴンによる表示に限ら
れない。フレアを表す平面図形を用いて画像合成するこ
ととしても良い。上述のようにフレアを点滅表示する場
合にも、周囲よりもフォグ効果を帯びた白味の度合いの
高い色合いの平面形状(好ましくは中空形状、あるいは
レンズフレアに対応した略円形や多角形の形状)により
形成されたフレアを使用して画面合成を行い、その相似
形を、入射光に相当する視点と光源を結ぶ直線上に複数
並べて表示することができる。こうした場合には、比較
的に演算の負担が少ない。
The flare is not limited to the flare polygon display. Image composition may be performed using a plane figure representing flare. Even when the flare is displayed in a blinking manner as described above, the plane shape of a hue with a high degree of whiteness that is more foggy than the surroundings (preferably a hollow shape or a substantially circular or polygonal shape corresponding to lens flare) The flare formed by (1) is used to perform screen synthesis, and a plurality of similar shapes can be displayed side by side on a straight line connecting the viewpoint and the light source corresponding to the incident light. In such a case, the calculation load is relatively small.

【0063】図5及び図6は、フレア処理の他の実施の
形態を示している。この例では、図2に示されるフロー
チャートのステップ110を変更している。すなわち、
内積の値Cを用いるに際し、図6に示すように、上限値
CUと下限値CLとを設けている。内積Cが上限値CUを
超える場合(S110a;CU<C)、内積を値CUに設
定する(S110d)。これにより、フレアによって画
像が白っぽくなりすぎるのを防止可能である。また、内
積Cが下限値以下の場合(S110a;C<CL)、一
定のフレア効果を生ぜしめるべく、内積値をCLに設定
する(S110b)。更に、内積Cが上限値CUと下限
値CLとの間である場合(S110a;CL≦C≦CU)、
修正関数f(C)を用いて、修正値C’=f(C)を得
る。このように、内積を適宜に修正して、用いてフレア
処理をより効果的に行うことが可能となる。
5 and 6 show another embodiment of flare processing. In this example, step 110 of the flowchart shown in FIG. 2 is modified. That is,
When using the value C of the inner product, as shown in FIG. 6, an upper limit value CU and a lower limit value CL are provided. When the inner product C exceeds the upper limit value CU (S110a; CU <C), the inner product is set to the value CU (S110d). This can prevent the image from becoming too whitish due to flare. If the inner product C is less than or equal to the lower limit value (S110a; C <CL), the inner product value is set to CL (S110b) in order to produce a constant flare effect. Further, when the inner product C is between the upper limit value CU and the lower limit value CL (S110a; CL≤C≤CU),
Using the correction function f (C), a correction value C ′ = f (C) is obtained. In this way, the inner product can be appropriately modified and used to perform the flare processing more effectively.

【0064】図2に示した例では、フレアの程度を内積
Cを利用して定めている。しかしながら、必ずしも内積
Cを計算しなくとも類似の処理を行うことは可能であ
る。
In the example shown in FIG. 2, the degree of flare is determined using the inner product C. However, it is possible to perform similar processing without necessarily calculating the inner product C.

【0065】図7は、テーブルを参照してフレアの程度
を決定する2つの例を示している。ここでは、便宜上、
フレアの程度もCで表す。
FIG. 7 shows two examples of determining the degree of flare by referring to the table. Here, for convenience,
The degree of flare is also represented by C.

【0066】既述ステップS102において、画面内に
仮想光源が入っている場合(S102;Yes)、仮想
光源の位置(例えば、ベクトルA及びBのなす角度θ)
に対応したフレア値Cを図7(a)に示すテーブルを参
照して決定することができる。仮想光源の位置は、画面
上あるいは視野25内の(x,y)座標値であっても良
い。このようなテーブルは予めCD−ROM1bにデー
タベースとして記録しておき、ゲーム起動の際に読み込
んでRAM102に保持することが可能である。
When the virtual light source is included in the screen in step S102 (S102; Yes), the position of the virtual light source (for example, the angle θ formed by the vectors A and B)
The flare value C corresponding to can be determined with reference to the table shown in FIG. The position of the virtual light source may be a (x, y) coordinate value on the screen or in the visual field 25. Such a table can be recorded in advance in the CD-ROM 1b as a database, read when the game is started, and held in the RAM 102.

【0067】また、図7(b)に示す、光源の視野内の
位置(例えば、ベクトルA及びBのなす角度θ)と、光
源の強度とに対応したフレア強度を得るテーブルを参照
して、光源の位置θn及び強度Pnに対応したフレア値C
nnを得ることができる。また、特に図示しないが、光源
の強度によってフレアの程度を定めることとした場合に
は、光源の強度のみに対応したフレア値Cを保持するテ
ーブルを使用することとしても良い。このようにして得
られたフレア値Cを前述した、ステップ110以降の内
積Cと同様に使用することが可能である。そして、同様
のフレア処理を実行することが可能である。テーブルを
参照してフレアの程度を定める場合には、上述した光源
の位置やその強度の他、適当なもの(朝方・夕方、雨、
霧、曇の存在等)をパラメータとして含めることが可能
であり、テーブルの内容は図示のものに限定されない。
Further, referring to the table shown in FIG. 7B, which obtains the flare intensity corresponding to the intensity of the light source and the position (for example, the angle θ formed by the vectors A and B) in the visual field of the light source, Flare value C corresponding to light source position θn and intensity Pn
You can get nn. Further, although not particularly shown, when the degree of flare is determined by the intensity of the light source, a table holding the flare value C corresponding to only the intensity of the light source may be used. The flare value C thus obtained can be used in the same manner as the inner product C after step 110 described above. Then, it is possible to execute the same flare processing. When referring to the table to determine the degree of flare, in addition to the position and intensity of the light source described above, appropriate things (morning / evening, rain,
The presence of fog, cloudiness, etc.) can be included as a parameter, and the contents of the table are not limited to those shown in the figure.

【0068】なお、上述したテーブルに変えてテーブル
と同様に機能する関数C=g(θ,P)、C=h
(θ)、C=i(P)あるいはC=j(x,y)を使用
しても良い。
The functions C = g (θ, P) and C = h which function in the same manner as the table instead of the above-mentioned table.
(Θ), C = i (P) or C = j (x, y) may be used.

【0069】次に、フレアを活用する場合について説明
する。いわゆるワールド座標系での仮想太陽の位置は本
来定っている。しかしながら、レースゲームをやり易く
するために、逆光が発生しないように適宜仮想太陽の位
置を移動させることができる。逆に、ゲームの演出効果
を高めるために、本来仮想太陽が存在しない場所に仮想
太陽をおいて意図的に逆光状態とし、フレアを発生させ
ることができる。
Next, the case of utilizing flare will be described. The position of the virtual sun in the so-called world coordinate system is originally fixed. However, in order to facilitate playing the race game, the position of the virtual sun can be appropriately moved so as not to generate backlight. On the contrary, in order to enhance the effect of the game, it is possible to intentionally set the virtual sun in a place where the virtual sun does not originally exist so as to be in a backlit state and generate flare.

【0070】例えば、図8に示すように、仮想太陽を本
来の仮想太陽の正規位置からゴール後に視界に入る位置
に意図的に移動し、ゴール後に画像にフレアを発生させ
てゲームのクライマックスを演出することが可能であ
る。
For example, as shown in FIG. 8, the virtual sun is intentionally moved from the original normal position of the virtual sun to a position within the field of vision after the goal, and flare is generated in the image after the goal to produce the climax of the game. It is possible to

【0071】さらに、画像の第2の特殊効果の例に関す
るアルゴリズムについて図9乃至図14を参照して説明
する。これは、道路にタイヤの痕跡を残すことによっ
て、車両のスピン、タイヤスリップ、悪路走行等をより
リアルに表現するものである。また、ある時間を経過し
た後にタイヤの痕跡を消すことによって、画面中のポリ
ゴン(タイヤの痕跡)を減らして画像処理の演算量を減
らす。また、タイヤの痕跡自体はゲームの運転情報とし
ては不要であるので、違和感のないように、痕跡の後端
より徐々に消して情報が過多にならないようにする。
Further, the algorithm regarding the example of the second special effect of the image will be described with reference to FIGS. 9 to 14. This is a more realistic representation of a vehicle's spin, tire slip, running on a bad road, etc., by leaving marks of tires on the road. Further, by deleting the traces of the tire after a certain period of time, polygons (traces of the tire) in the screen are reduced and the amount of calculation of image processing is reduced. Further, since the tire trace itself is unnecessary as game driving information, it is gradually erased from the trailing end of the trace so that the information does not become excessive so that there is no discomfort.

【0072】図9は、タイヤの痕跡(タイヤマーク)を
表示するアルゴリズムを説明するフローチャート、図1
0乃至図13は、データの読出し、タイヤマークの表示
等を説明する説明図、図14は、タイヤマークを描画し
た例を示す説明図である。
FIG. 9 is a flow chart for explaining an algorithm for displaying a tire mark (tire mark), FIG.
0 to 13 are explanatory views for explaining reading of data, display of tire marks, and the like, and FIG. 14 is an explanatory view showing an example in which tire marks are drawn.

【0073】この実施の形態では、例えば、徐々に濃度
が濃くなる5つの種類のタイヤマーク、すなわちパター
ン0〜パターン4がタイヤの痕跡をリアルに表現するた
めに用いられる。各パターンはデータベース(ROM)
に記憶されている。また、車両のタイヤの移動にタイヤ
の痕跡を追従させると共に、痕跡を徐々に消すために、
図10に示すRAMあるいはレジスタの5つの記憶領域
が使用される。
In this embodiment, for example, five types of tire marks whose density is gradually increased, that is, pattern 0 to pattern 4, are used to realistically represent the traces of the tire. Each pattern is a database (ROM)
Remembered in. Also, in order to make the traces of the tires follow the movement of the tires of the vehicle and gradually erase the traces,
Five storage areas of the RAM or the register shown in FIG. 10 are used.

【0074】まず、主プログラムにおいて、タイヤマー
クの表示条件が満たされているかどうかが判別される。
すなわち、車両のスピンや急なアクセルの踏込みによる
タイヤのスリップの発生、悪路の走行等を該当関数や走
行条件を示すフラグを参照して判別することによってタ
イヤマークの表示ルーチンが行われる。
First, in the main program, it is judged whether or not the tire mark display conditions are satisfied.
That is, the tire mark display routine is performed by determining the occurrence of tire slip due to the spin of the vehicle, sudden depression of the accelerator, traveling on a bad road, etc. by referring to the function or the flag indicating the traveling condition.

【0075】タイヤのスリップ等が始ると、CPU10
1は、5つのRAMのうちタイヤマークの先端位置を示
す「先頭マークのフラグが設定された先頭マークのRA
Mからタイヤの前回位置Xn-1を読出し、画面に表示さ
れている現在のタイヤ位置Txnとの距離L(=Txn−X
n-1)を計算し、新たなマーク長さLとする(S13
2)。ここで、位置Xn-1、位置Txnは、三次元仮想空
間における座標値を表している。タイヤマークの長さL
がタイヤマークの基本パターンの最大長さlを越えるか
どうか、を判別する(S134)。
When the tire slip or the like starts, the CPU 10
Reference numeral 1 indicates “RA of the top mark in which the flag of the top mark is set, which indicates the tip position of the tire mark among the five RAMs.
The previous position X n-1 of the tire is read from M, and the distance L (= T xn −X) from the current tire position T xn displayed on the screen.
n-1 ) is calculated and set as a new mark length L (S13).
2). Here, the position X n-1 and the position T xn represent coordinate values in the three-dimensional virtual space. Tire mark length L
Determines whether exceeds the maximum length l of the tire mark basic pattern (S134).

【0076】タイヤマークの長さLが最大長さlを越え
ない場合(S134;No)、CPU101は、現在の
タイヤ位置Txnをタイヤマークの終了位置として先頭マ
ークのRAMに記憶する(S144)。タイヤマークの
長さLを先頭マークのRAMに記憶する(S146)。
CPU101は先頭マークのフラグが設定されるべきR
AMの番号を記憶するフラグレジスタの内容を更新する
ことなく、そのまま上記先頭マークのRAMの番号を保
持させる(S148)。
When the length L of the tire mark does not exceed the maximum length l (S134; No), the CPU 101 stores the current tire position T xn in the RAM of the leading mark as the end position of the tire mark (S144). . The length L of the tire mark is stored in the RAM of the head mark (S146).
CPU 101 should set the flag of the head mark to R
Without updating the contents of the flag register that stores the AM number, the RAM number of the head mark is held as it is (S148).

【0077】RAM番号とパターンとは、図13に示す
ように対応付けられており、先頭マークのRAMから巡
回するようにデータが読出されて、タイヤマークが描画
される。すなわち、先頭マークのRAM No−0はパ
ターン4に、先頭マークのRAM No-1はパターン3
に、先頭マークのRAM No-2はパターン2に、先頭マ
ークのRAM No-3はパターン1に、先頭マークのRA
No-4はパターン0に、それぞれ対応付けられる。パ
ターン0からパターン4になるにつれてタイヤマークの
濃さは薄い状態から濃い状態になっていく。先頭マーク
のRAM番号は時間的に最も新しいタイヤの痕跡を表
す。
The RAM number and the pattern are associated with each other as shown in FIG. 13. The data is read from the RAM of the head mark so as to circulate, and the tire mark is drawn. That is, the head mark RAM No-0 has the pattern 4, and the head mark RAM No-1 has the pattern 3.
The first mark RAM No-2 is for pattern 2, the first mark RAM No-3 is for pattern 1, and the first mark RA is
M No-4 is associated with pattern 0, respectively. The darkness of the tire mark changes from light to dark as the pattern changes from pattern 0 to pattern 4. The RAM number at the top mark represents the latest tire trace in time.

【0078】CPU101は、最も濃いパターン(パタ
ーン4)を読出す(S150)。RAMからタイヤマー
クの出始め位置Xn-1、出終り位置Txn、長さLを読出
し、パターンを画面に表示する(S152)。RAMの
個数分のパターン表示が終ったかを判別する(S15
4)。
The CPU 101 reads the darkest pattern (pattern 4) (S150). The tire mark start position Xn-1, the end position Txn, and the length L are read from the RAM and the pattern is displayed on the screen (S152). It is determined whether the pattern display for the number of RAMs has been completed (S15).
4).

【0079】先行するタイヤマーク処理によって、複数
のRAMにタイヤマークの出始め、出終り、長さが記憶
されている場合(S154;No)、CPU101は、
RAM番号を降順方向に巡回するように指定し(S15
6)、RAM番号に対応付けられて、降順方向に段階的
にあるいは徐々に薄くなるタイヤマークのパターンを読
出す(S158)。RAMの個数分のパターン表示が終
ると(S154;Yes)、CPU101は一旦メイン
プログラムに戻る。
When the tire mark start, end, and length are stored in a plurality of RAMs by the preceding tire mark processing (S154; No), the CPU 101
Designate that the RAM number be cycled in the descending direction (S15
6) The tire mark pattern which is associated with the RAM number and is gradually or gradually lightened in the descending direction is read (S158). When the pattern display for the number of RAMs is completed (S154; Yes), the CPU 101 once returns to the main program.

【0080】そして、タイヤマークの表示条件が満たさ
れている間、タイヤマークの長さLがタイヤマークの最
大長lを越えるまで、ステップ132、134、144
〜154を繰返して最も濃いパターンをタイヤに追従す
るように伸長して描画する。
Then, while the tire mark display conditions are satisfied, steps 132, 134, 144 are performed until the length L of the tire mark exceeds the maximum length l of the tire mark.
˜154 are repeated and the darkest pattern is extended and drawn so as to follow the tire.

【0081】次に、マーク長さLがマーク最大長さlを
越える場合(S134;Yes)、マーク最大長さlに
相当するマークの場所Pe(=Xn-1+l)をマーク終了
位置として記憶する(S136)。先頭マークのRAM
番号を1増加する。RAM番号が最大値(この例の場合
4)をオーバーしたときは、RAM番号を0に戻す(S
138)。マークの出始めの位置Peを新たな先頭マー
クのRAMに記憶する(S140)。現在のタイヤ位置
xnと、タイヤマーク出始めの位置Peから、タイヤマ
ークの長さL(=Txn−Pe)を計算して求める(S1
42)。現在のタイヤ位置Txnをマーク終了位置として
先頭マークのRAMに記憶する(S144)。タイヤマ
ークの長さLを先頭マークのRAMに記憶する(S14
6)。フラグレジスタに記憶すべきRAM番号をS13
8で更新された先頭マークのRAMの番号とする(S1
48)。最も濃いパターン(パターン4)を読出す(S
150)。RAMからタイヤマークの出始め位置Pe、
出終り位置Txn、長さLを読出し、パターンを画面に表
示する(S152)。RAMの個数分のパターン表示が
終ったかを判別する(S154)。
Next, when the mark length L exceeds the maximum mark length l (S134; Yes), the mark position Pe (= X n-1 + l) corresponding to the maximum mark length l is set as the mark end position. It is stored (S136). RAM of the first mark
Increase the number by 1. When the RAM number exceeds the maximum value (4 in this example), the RAM number is returned to 0 (S
138). The position Pe at which the mark starts to appear is stored in the RAM of the new head mark (S140). The tire mark length L (= T xn -Pe) is calculated and calculated from the current tire position T xn and the position Pe at which the tire mark begins to appear (S1).
42). The current tire position T xn is stored in the RAM of the head mark as the mark end position (S144). The length L of the tire mark is stored in the RAM of the head mark (S14).
6). The RAM number to be stored in the flag register is S13.
The RAM number of the head mark updated in 8 is set (S1).
48). The darkest pattern (pattern 4) is read (S
150). The start position Pe of the tire mark from RAM,
The exit end position T xn and the length L are read out and the pattern is displayed on the screen (S152). It is determined whether the pattern display for the number of RAMs is completed (S154).

【0082】先行するタイヤマーク処理によって、複数
のRAMにタイヤマークの出始め、出終り、長さが記憶
されている場合(S154;No)、RAM番号を降順
方向に巡回するように指定し(S156)、RAM番号
に対応付けられて、降順方向に段階的にあるいは徐々に
薄くなるタイヤマークのパターンを読出す(S15
8)。
If the tire mark processing starts, ends, and the length is stored in a plurality of RAMs by the preceding tire mark processing (S154; No), the RAM number is designated to cycle in the descending direction ( S156), the tire mark pattern which is associated with the RAM number and is gradually or gradually thinned in the descending direction is read (S15).
8).

【0083】上述したタイヤマーク描画処理は、メイン
プログラムの実行において、タイヤマークの表示条件が
満たされている間中実行され、画面にタイヤマークが描
かれる。
The above-described tire mark drawing process is executed during execution of the main program while the tire mark display conditions are satisfied, and the tire mark is drawn on the screen.

【0084】上記アルゴリズムによる、RAM0〜RA
M4内の保持データとフラグレジスタ内の保持データの
更新の様子を図10(a)〜同(e)を参照して説明す
る。
RAM0 to RA according to the above algorithm
The state of updating the held data in M4 and the held data in the flag register will be described with reference to FIGS. 10 (a) to 10 (e).

【0085】図10(a)は、スリップによるタイヤマ
ークの長さLがマークの基準値lに満たないΔlである
場合(S134;No)を説明するものである。
FIG. 10A illustrates the case where the length L of the tire mark due to slip is Δl which is less than the reference value 1 of the mark (S134; No).

【0086】まず、先頭マークがRAM0を示している
とする。ステップ132において、タイヤマークの出始
め位置X0、現在位置Tx1が読込まれ、距離L=Δl
(=Tx1−X0)が計算される。当初のタイヤマークの
出始め位置X0は、スリップ開始時のタイヤ位置が該当
する。これ等の値がRAM0に記憶される(S144〜
S146)。RAM0をフラグレジスタが保持すべき先
頭マークのRAM番号とする(S148)。図13に示
すように、先頭マークのRAM番号は最も濃いパターン
4に対応する。RAM0からタイヤマークの出始め、出
終り、長さが読出され、パターン4によるタイヤマーク
の描画が行われる(S152)。この場合、データが書
込まれているRAMは1個であるので(S154;Ye
s)、本ルーチンを終了して、メインプログラムに戻
る。タイヤマークの表示条件が満たされていると、マー
クの長さLが最大長lを越えるまで、上記処理を繰返し
てパターン4のタイヤマークを延長する。
First, it is assumed that the head mark indicates RAM0. In step 132, the starting position X 0 of the tire mark and the current position T x1 are read, and the distance L = Δl
(= T x1 −X 0 ) is calculated. The initial tire mark start position X 0 corresponds to the tire position at the start of slipping. These values are stored in RAM0 (S144-
S146). RAM0 is set as the RAM number of the head mark to be held by the flag register (S148). As shown in FIG. 13, the RAM number of the leading mark corresponds to the darkest pattern 4. From the RAM0, the tire mark is read out, the tire mark is output, and the length is read out, and the tire mark is drawn by the pattern 4 (S152). In this case, there is only one RAM in which data is written (S154; Ye
s), this routine is terminated and the process returns to the main program. When the tire mark display conditions are satisfied, the tire mark of the pattern 4 is extended by repeating the above process until the mark length L exceeds the maximum length l.

【0087】図10(b)に示すように、現在のタイヤ
の位置がTx2となり、距離L(=Tx2−X0=l+Δ
l)が、マーク最大長lを越える(S134;Ye
s)。RAM0に、X1=X0+l(=Pe)を求め、位
置X1をマーク終了位置として記憶する(S136)。
先頭マークのRAMをRAM1とする(S138)。現
在のタイヤ位置Tx2とマーク出始めの位置X1からマー
クの長さL(=Δl=Tx2−X1)を計算する(S14
2)。現在のタイヤ位置Tx2をマーク終了位置として、
RAM1に記憶する(S144)。マークの長さL(=
Δl=Tx2−X1)をRAM1に記憶する(S14
6)。フラグレジスタに保持される、サイクリック(巡
回)に読出す際の先頭のRAMの番号をRAM1に設定
する(S148)。RAM1にパターン4のデータを対
応させ(S150)、RAM1のデータでパターン4の
濃いタイヤマークを描く(S152)、更に、RAM0
に記憶されたデータでパターン3のタイヤマークを描画
する(S154、S156、S158、S152)。メ
インプログラムに戻る。
As shown in FIG. 10B, the current tire position is T x2 and the distance L (= T x2 −X 0 = l + Δ
l) exceeds the maximum mark length l (S134; Ye
s). X 1 = X 0 +1 (= Pe) is obtained in the RAM 0 , and the position X 1 is stored as the mark end position (S136).
The RAM of the first mark is set to RAM1 (S138). The mark length L (= Δl = T x2 −X 1 ) is calculated from the current tire position T x2 and the mark start position X 1 (S14).
2). With the current tire position T x2 as the mark end position,
It is stored in the RAM 1 (S144). Mark length L (=
Δl = T x2 −X 1 ) is stored in the RAM 1 (S14)
6). The number of the leading RAM for cyclic (cyclic) reading, which is held in the flag register, is set in RAM1 (S148). The pattern 4 data is associated with the RAM 1 (S150), and the dark tire mark of the pattern 4 is drawn with the RAM 1 data (S152).
A tire mark of pattern 3 is drawn with the data stored in (S154, S156, S158, S152). Return to main program.

【0088】以下、同様に繰返すことによって、図10
(c)〜同(e)に示すように、RAM0〜RAM4に
タイヤマークの描画データ(タイヤマークの出始め、出
終り、距離)が保持される。
The same procedure is repeated thereafter to obtain the data shown in FIG.
As shown in (c) to (e), drawing data of tire marks (starting, ending, distance of tire marks) are held in RAM0 to RAM4.

【0089】図11は、RAM0〜RAM4へのデータ
の保存が一巡した状態の例を示している。RAMは、実
施例では5個であるので、順次書換えが行われる。図1
1(a)では、書換えが一巡し、RAM2にタイヤマー
クの先頭位置が対応している。図11(b)では、書換
えが一巡し、RAM3に先頭位置がある状態を示してい
る。書換えられた元のタイヤマークのデータ部分は表示
されないので、画面に描画された該当パターンは消滅す
る。なお、位置の座標Xnが仮想カメラの視野外にある
場合、いわゆるクリッピング(clipping)によって画像処
理の対象外となり、画面に表示されない。
FIG. 11 shows an example of a state in which data has been stored in RAM0 to RAM4 once. Since there are five RAMs in the embodiment, rewriting is sequentially performed. Figure 1
In 1 (a), the rewriting has been completed, and the head position of the tire mark corresponds to the RAM2. FIG. 11B shows a state in which rewriting has been completed and the RAM 3 has the head position. Since the data portion of the rewritten original tire mark is not displayed, the corresponding pattern drawn on the screen disappears. If the position coordinate X n is outside the field of view of the virtual camera, it is excluded from image processing due to so-called clipping and is not displayed on the screen.

【0090】図12(a)は、図11(a)に示すデー
タがタイヤマークとして描画された場合を説明するもの
である。パターン4はΔlのパターン長さで描かれ、パ
ターン3〜同0の各々はlのパターン長で描かれてい
る。パターン4からパターン0に向って描画濃度が薄く
なっていく。図12(b)は、図11(b)に示すデー
タによって描かれたタイヤマークを示すものである。タ
イヤマークの描画範囲が車両のタイヤオブジェクトに追
従して図12(a)の位置X3〜Tx8から位置X4〜Tx9
にシフトしている。そして、位置X3〜X4の範囲のタイ
ヤマークは消滅している。これにより、タイヤの痕跡を
所定長に限定してタイヤマークの表示に要する演算量が
あまり増えないようにしている。
FIG. 12A illustrates the case where the data shown in FIG. 11A is drawn as a tire mark. The pattern 4 is drawn with a pattern length of Δl, and each of the patterns 3 to 0 is drawn with a pattern length of l. The drawing density decreases from the pattern 4 to the pattern 0. FIG. 12 (b) shows the tire mark drawn by the data shown in FIG. 11 (b). The drawing range of the tire mark follows the tire object of the vehicle, from position X 3 to T x8 to position X 4 to T x9 in FIG.
Have shifted to. The tire marks of range of the position X 3 to X 4 are disappeared. This limits the tire trace to a predetermined length so that the amount of calculation required to display the tire mark does not increase so much.

【0091】図9のフローチャートを参照して説明した
アルゴリズムによれば、車両が停止している場合にはR
AM0〜RAM4内の位置情報は保持されるのでタイヤ
マークは画面に表示された状態にある。一方、車両が移
動している場合にはタイヤに追従してタイヤマークが描
画される。このタイヤマークは後端の方が薄くなってい
る。車両の移動速度が速いと、タイヤの前回サンプリン
グした位置からの移動量Lは短時間でマークの最大長さ
lを越える。これにより、RAM0〜RAM4内の位置
情報はシフトし、タイヤマークの後端も早く消滅する。
その結果として、車両の移動速度に応じて描画されたタ
イヤの痕跡の消滅タイミングが加減されることになる。
このような、画像の描画の仕方はタイヤの痕跡を描いた
種々の画面を予め用意して(メモリ量を多大に要す
る)、その中から適当な画面を選択する従来法に比べて
メモリ消費を節約することが可能である。また、レース
車両は高速で移動するが、その際にコース上のタイヤマ
ークがすぐ消滅するようにすると、自車や対戦相手の車
両の視野内のポリゴンを減らし、画像を描画する演算処
理の負担を軽減し得る。また、タイヤマークがいつまで
も表示されていると、ゲームの邪魔になる場合がある
が、本願では適当に消去されるので具合がよい。
According to the algorithm described with reference to the flowchart of FIG. 9, when the vehicle is stopped, R
Since the position information in AM0 to RAM4 is retained, the tire mark is displayed on the screen. On the other hand, when the vehicle is moving, the tire mark is drawn following the tire. This tire mark is thinner at the rear end. When the moving speed of the vehicle is high, the moving amount L of the tire from the previously sampled position exceeds the maximum mark length l in a short time. As a result, the position information in RAM0 to RAM4 is shifted, and the rear end of the tire mark disappears quickly.
As a result, the disappearance timing of the tire trace drawn according to the moving speed of the vehicle is adjusted.
Such an image drawing method prepares various screens in which tire traces are drawn in advance (requires a large amount of memory), and consumes less memory than the conventional method of selecting an appropriate screen from them. It is possible to save. Also, racing cars move at high speed, but if the tire marks on the course are immediately erased at that time, the polygons in the field of view of the own car or the car of the opponent will be reduced, and the burden of calculation processing to draw the image will be reduced. Can be reduced. Further, if the tire mark is displayed forever, it may interfere with the game, but in the present application, it is appropriately deleted, which is good.

【0092】上述した例では、予め濃度の異なるタイヤ
の痕跡パターン(痕跡のポリゴン)を複数用意して(図
13)、これ等から適宜に選択して全体の痕跡を描画し
ているが、他の方法を採用することもできる。例えば、
徐々に薄くなるタイヤマークを描画するステップ(ステ
ップS158)において、最も濃いタイヤの痕跡マーク
(基本パターン)を半透明化する処理を行って所要の濃
度の痕跡マークを得ることとしても良い。より具体的に
は、当該ステップにおける透明化処理の透明度を、ルー
チンの(S152〜S158)の実行回数に対応して段
階的に設定された複数の透明度から該当するものを選択
する。この異なる透明度によって半透明化処理された各
痕跡マークを組み合わせて全体の痕跡を形成する。そう
すると、上述した、濃度の異なるタイヤの痕跡パターン
を複数用意して濃度が先端から後端に向かって徐々に変
わる全体の痕跡を形成する場合と同様の結果を得る。更
に述べれば、図9に示すルーチンに従って表示された複
数のポリゴンからなる痕跡マークを、半透明処理で最初
に表示したポリゴンから徐々に薄くして消していき(薄
くする過程ではポリゴンのサイズは変わらない)、最終
的に見えなくなったらそのポリゴンそのそのものを処理
対象から外す(ステップS154、図12(b))、よ
うにする。
In the above example, a plurality of tire trace patterns (trace polygons) of different densities are prepared in advance (FIG. 13), and the entire trace is drawn by appropriately selecting from these patterns. The method of can also be adopted. For example,
In the step of drawing the tire mark which becomes gradually thinner (step S158), the trace mark (basic pattern) of the darkest tire may be made semi-transparent to obtain the trace mark of a required density. More specifically, the transparency of the transparency process in the step is selected from a plurality of transparency set in stages corresponding to the number of times of execution of the routine (S152 to S158). The respective trace marks that have been made semi-transparent by the different transparency are combined to form the entire trace. Then, the same result as in the case where a plurality of trace patterns of tires having different densities are prepared and the entire trace in which the density gradually changes from the front end to the rear end is formed is obtained. More specifically, the trace mark composed of a plurality of polygons displayed according to the routine shown in FIG. 9 is gradually thinned and erased from the polygon first displayed by the semi-transparent processing (the size of the polygon is changed in the thinning process. If not, the polygon itself is removed from the processing target (step S154, FIG. 12B).

【0093】図14に、画面中に車両がスピンしてタイ
ヤマーク(スリップの痕跡)が描画された例を示す。タ
イヤ近傍のマークは濃く描かれ、タイヤマークの初めの
位置は薄く描かれる。
FIG. 14 shows an example in which a vehicle is spinning and a tire mark (slip mark) is drawn on the screen. The mark near the tire is drawn darkly, and the initial position of the tire mark is drawn lightly.

【0094】なお、車両(オブジェクト)のスピン等に
よってタイヤスリップが発生した場合、スリップ直後に
タイヤのスリップ痕跡が画像表示されれば、遊技者はリ
アルな表現を体感する。しかし、それから一定時間を経
過すれば、遊技者のスリップ痕跡への注目度も低下す
る。そこで、車両が移動を停止した後、所定時間を経過
した場合には、積極的にスリップ痕跡を消滅させること
としても良い。これにより、表示ポリゴン(スリップ痕
跡)の数を減らしてCPUの演算の負担を軽減すること
が可能となる。
When a tire slip occurs due to a spin of a vehicle (object) or the like, the player will experience a realistic expression if the tire slip trace is displayed as an image immediately after the slip. However, if a certain period of time elapses thereafter, the player's attention to the slip traces also decreases. Therefore, the slip trace may be positively eliminated when a predetermined time has elapsed after the vehicle stops moving. This makes it possible to reduce the number of display polygons (slip marks) and reduce the calculation load on the CPU.

【0095】上述した発明の実施の形態では、タイヤマ
ークについて説明したが、悪路を走行するラリーにおけ
る走行痕跡、スキーの走行痕跡(シュプール)、ジェッ
トスキーの痕跡、船舶の航跡等にも適用できるものであ
る。
In the embodiments of the invention described above, the tire mark has been described, but the invention can also be applied to a running trace in a rally traveling on a bad road, a running trace of skis (spur), a trace of jet ski, a wake of a ship, and the like. It is a thing.

【0096】次に、本発明の第3の特徴に係るビデオゲ
ーム装置における演算量の低減について説明する。いわ
ゆる3Dグラフィックスによってモニタに映し出される
オブジェクトは、三次元仮想空間内へのオブジェクトの
配置、オブジェクトを投影面に描画する投影変換、モデ
リング変換、ビューイング変換等の演算処理が行われ
て、モニタ画像となる。透視変換に際しては、視野ピラ
ミッドを形成し、実際に投影面に投影される表示領域か
らはみ出した部分を取り去り、非表示とするクリッピン
グを行っている。このクリッピングは、演算量の減少に
寄与している。
Next, the reduction of the amount of calculation in the video game device according to the third feature of the present invention will be described. An object displayed on a monitor by so-called 3D graphics is subjected to arithmetic processing such as arrangement of the object in a three-dimensional virtual space, projection conversion for drawing the object on a projection surface, modeling conversion, viewing conversion, etc. Becomes In the perspective transformation, a field pyramid is formed, and a portion protruding from the display area that is actually projected on the projection surface is removed to perform non-display clipping. This clipping contributes to a reduction in the amount of calculation.

【0097】したがって、この実施形態において実現す
る本発明の第3の特徴は、表示領域内においてもクリッ
ピングを行い、更に、演算量を低減せんとするものであ
る。
Therefore, the third feature of the present invention realized in this embodiment is that clipping is performed even in the display area and further the amount of calculation is reduced.

【0098】まず、図15乃至図17を参照してその概
略を説明する。図15は、三次元仮想空間に配置された
オブジェクトA及びBを示している。オブジェクトA及
びBは、それぞれ複数のポリゴンによって構成される。
従来、表示領域内のオブジェクトはデータベースから読
出して、該当位置にそのままの形状で配置される。ポリ
ゴンの表面にはテクスチュア(模様)が張付けられる。
First, the outline will be described with reference to FIGS. FIG. 15 shows objects A and B arranged in a three-dimensional virtual space. The objects A and B are each composed of a plurality of polygons.
Conventionally, the object in the display area is read from the database and placed in the corresponding position in its original shape. Texture (pattern) is attached to the surface of the polygon.

【0099】図16は、投影変換のカメラ位置(視点)
を後方左においた場合に、オブジェクトBがオブジェク
トAの陰になる例を説明するものである。この場合、オ
ブジェクトBの一部(オブジェクトAの陰になっている
部分)はカメラ位置からは見えない。そこで、見えない
部分のポリゴンを省略して、オブジェクトのデータベー
スを構築すれば、3Dグラフィックス表示における演算
量は減少する。
FIG. 16 shows the camera position (viewpoint) for projection conversion.
An example in which the object B is a shadow of the object A when is placed rearward and leftward will be described. In this case, a part of the object B (a part behind the object A) cannot be seen from the camera position. Therefore, if the polygon of the invisible part is omitted and the database of the objects is constructed, the calculation amount in the 3D graphics display is reduced.

【0100】図17は、オブジェクトBの一部のポリゴ
ンを省略した例を示している。このようにしても、カメ
ラから見える投影面の画像は、図16と同様である。
FIG. 17 shows an example in which some polygons of the object B are omitted. Even in this case, the image of the projection surface seen from the camera is the same as that in FIG.

【0101】例えば、カーレースにおいては、車両は予
め定められたコースに沿って走る。コースを単位長に区
切って、各単位毎にカメラから見える場面は背景画、オ
ブジェクトの集合等の形式で予めデータベース化され、
車両位置に応じて該当場面のデータが読出されて背景等
として画面表示される。従って、実際にカメラから見え
ないポリゴンを減らせばゲーム装置において演算量のよ
り少なくて済むデータベースを提供することが可能とな
る。
For example, in a car race, a vehicle runs along a predetermined course. Divide the course into unit lengths, and the scenes seen from the camera for each unit are stored in a database in the form of background images, a set of objects, etc.
The data of the relevant scene is read according to the vehicle position and displayed on the screen as a background or the like. Therefore, it is possible to provide a database that requires less calculation amount in the game device by actually reducing the polygons that cannot be seen from the camera.

【0102】以下に、表示領域内においてカメラ位置か
ら見えないポリゴンを削ったオブジェクトデータベース
を構築する方法について図面を参照して説明する。
A method of constructing an object database in which polygons that cannot be seen from the camera position in the display area are cut will be described below with reference to the drawings.

【0103】まず、後述するアルゴリズムを実行する画
像データ処理装置の概略を図18を参照して説明する。
画像データ処理装置は、コンピュータシステムによって
構成され、大別して、データ処理部200、操作部20
1、オブジェクトテーブルやポリゴンデータ等のデータ
ベースを保持する記憶部202、画像を表示するCRT
表示部203等によって構成される。データ処理部20
0は、メモリ212に保持されるプログラムに従って各
部を制御する演算処理制御部211、三次元仮想空間に
おけるカメラ(視点)位置の座標を、車両の移動やゲー
ムプログラム等に従って設定するカメラ位置制御部21
3、カメラ位置を参照して、カメラ位置に対応するオブ
ジェクトテーブルを決定するオブジェクトテーブル決定
部214、カメラ位置に対応した座標変換の行列を生成
する座標変換行列生成部215、オブジェクトテーブル
を参照して該当するポリゴンを指定するポリゴンメモリ
制御部216、指定されたポリゴンデータを出力するポ
リゴンメモリ217、ポリゴンに張付ける模様を保持す
るテクスチャメモリ218、三次元仮想空間に、ポリゴ
ンを配置し、テクスチャを張付け、上記変換行列によっ
て投影変換等を行って二次元のスクリーン面上の像に変
換する座標変換部219、スクリーン画像を画像メモリ
221に出力する描画部220、画像メモリ221に保
持される画像データをCRT表示器に画像信号として出
力する画像表示制御回路222、等によって構成され
る。
First, an outline of an image data processing apparatus for executing the algorithm described later will be described with reference to FIG.
The image data processing device is composed of a computer system and is roughly classified into a data processing unit 200 and an operation unit 20.
1. A storage unit 202 that holds an object table, a database such as polygon data, and a CRT that displays images
It is configured by the display unit 203 and the like. Data processing unit 20
Reference numeral 0 denotes an arithmetic processing control unit 211 that controls each unit according to a program stored in the memory 212, and a camera position control unit 21 that sets the coordinates of the camera (viewpoint) position in the three-dimensional virtual space according to the movement of the vehicle, the game program, or the like.
3. Referring to the camera position, refer to the object table determination unit 214 that determines the object table corresponding to the camera position, the coordinate conversion matrix generation unit 215 that generates the matrix of coordinate conversion corresponding to the camera position, and the object table. A polygon memory control unit 216 that designates a corresponding polygon, a polygon memory 217 that outputs designated polygon data, a texture memory 218 that holds a pattern to be attached to the polygon, a polygon is arranged in a three-dimensional virtual space, and a texture is attached. , A coordinate conversion unit 219 that performs projection conversion or the like by the conversion matrix to convert the image into a two-dimensional image on the screen surface, a drawing unit 220 that outputs a screen image to the image memory 221, and image data held in the image memory 221. Image display system to output as image signal to CRT display Constituted by the circuit 222, and the like.

【0104】図19は、従来のオブジェクトデータベー
スから見えないポリゴンを削ったオブジェクトデータベ
ースを構築するアルゴリズムを説明するフローチャート
である。
FIG. 19 is a flow chart for explaining an algorithm for constructing an object database in which invisible polygons have been removed from the conventional object database.

【0105】まず、従来手法によって3Dグラフィック
スのデータベースが構成され、あるいは既に構成された
3Dグラフィックスのデータベースが用意される。CP
Uのメモリのワークエリアにデータベースから全ポリゴ
ンのデータをロードする。ポリゴンのデータには座標デ
ータ等が含まれる(S202)。各ポリゴンに識別のた
めの番号(ポリゴンID)を付ける。例えば、ロードし
た順番に番号付を行う(S204)。
First, a database of 3D graphics is constructed by the conventional method, or a database of 3D graphics which has already been constructed is prepared. CP
Load the data of all polygons from the database into the work area of U memory. The polygon data includes coordinate data and the like (S202). A number (polygon ID) for identification is attached to each polygon. For example, the numbers are assigned in the order of loading (S204).

【0106】カメラ位置のデータをワークエリアにロー
ドする。カメラ位置のデータには、カメラの座標及び向
き(ベクトル)が含まれる(S206)。カメラ位置の
データに識別のための番号(カメラID)を付ける。例
えば、ロードした順番に番号付を行う(S208)。
Load the camera position data into the work area. The camera position data includes camera coordinates and orientation (vector) (S206). A number (camera ID) for identification is attached to the camera position data. For example, the numbers are assigned in the order of loading (S208).

【0107】次に、全てのカメラ位置で、カメラ位置か
ら各ポリゴンが見えるかどうかの可視判別処理(S21
0)を行う。
Next, at every camera position, a visual discrimination process is performed to determine whether or not each polygon is visible from the camera position (S21).
0) is performed.

【0108】図20は、可視判別処理のアルゴリズムを
示すフローチャートである。この処理では、コンピュー
タシステム内に形成される三次元仮想空間に全オブジェ
クトを配置し、全てのポリゴンを描画する。この際、各
ポリゴンの画素に当該ポリゴンのID番号を付加する
(S252)。各カメラ位置(カメラID)において座
標変換等を行ってカメラから見える投影画像を描画す
る。この際、いわゆるZバッファ法等を用いて、表示領
域内で重なるポリゴンのうち手前のものを見えるポリゴ
ンとして描画し、陰になるポリゴンは描画しない(S2
54)。各カメラ位置で、描画された画素に付されたポ
リゴンのIDから、画面に描かれるポリゴンと、描かれ
ないポリゴンとを判別する(S256)。全カメラ位置
(カメラID)において、どのポリゴンが見え、どのポ
リゴンが見えないかを表す可視不可視のテーブル(VISI
BLE FLAG TABLE)を作成する(S258)。その後、元
のルーチンに戻る。
FIG. 20 is a flow chart showing the algorithm of the visual discrimination processing. In this processing, all objects are arranged in a three-dimensional virtual space formed in the computer system and all polygons are drawn. At this time, the ID number of the polygon is added to the pixel of each polygon (S252). Coordinate conversion is performed at each camera position (camera ID) to draw a projected image viewed from the camera. At this time, by using the so-called Z-buffer method or the like, the polygon in front of the overlapping polygons in the display area is drawn as a visible polygon, and the shadow polygon is not drawn (S2).
54). At each camera position, a polygon drawn on the screen and a polygon not drawn are discriminated from the IDs of the polygons attached to the drawn pixels (S256). A visible / invisible table showing which polygons are visible and which are not visible at all camera positions (camera IDs).
BLE FLAG TABLE) is created (S258). Then, it returns to the original routine.

【0109】図21は、可視不可視テーブルの一例を示
している。全カメラ位置(カメラID)において、全て
のポリゴンについて当該カメラ位置から見えるかどうか
が示される。見える場合は「1」で、見えない場合は
「0」でフラグ表示されている。
FIG. 21 shows an example of the visible / invisible table. At all camera positions (camera ID), it is indicated whether all polygons can be seen from the camera position. The flag is displayed as "1" when it is visible, and as "0" when it is not visible.

【0110】次に、各カメラ位置において描画されるオ
ブジェクトを表すデータベースを得るべく、可視不可視
テーブルでフラグ(VISIBLE FLAG)のパターンが同一・
類似のポリゴンをグループ化し、各グループをオブジェ
クトデータとする(S212)。各オブジェクトデータ
に識別番号(オブジェクトID)を付す(S214)。
Next, in order to obtain a database representing the objects drawn at each camera position, the pattern of flags (VISIBLE FLAG) is the same in the visible / invisible table.
Similar polygons are grouped and each group is used as object data (S212). An identification number (object ID) is attached to each object data (S214).

【0111】この手順を説明する。第1に、全て「0」
のフラグパターンであるポリゴン(例えば、POLY
4)は画面から見えないので、描画の対象とする必要は
ない。このようなポリゴンは除去する。第2に、図22
(a)に示すように、最初のポリゴンPOLY0を最初
のオブジェクトデータOBJ0に含める。第3に、ポリ
ゴンPOLY0のフラグパターンと一致するフラグパタ
ーンのポリゴンを全て抽出し、これをオブジェクトデー
タOBJ0に追加する(図22(b))。残りのポリゴ
ンについて、手順2、3を繰返して、同じフラグパター
ンを持つポリゴンを集めてグループ化し、各グループを
オブジェクトデータOBJ1,OBJ2,…とする。
This procedure will be described. First, all "0"
Which is a flag pattern of the polygon (for example, POLY
Since 4) cannot be seen from the screen, it does not need to be a drawing target. Such polygons are removed. Second, FIG.
As shown in (a), the first polygon POLY0 is included in the first object data OBJ0. Thirdly, all polygons having a flag pattern that matches the flag pattern of the polygon POLY0 are extracted and added to the object data OBJ0 (FIG. 22 (b)). With respect to the remaining polygons, steps 2 and 3 are repeated to collect and group polygons having the same flag pattern, and set each group as object data OBJ1, OBJ2, ....

【0112】次に、オブジェクトデータに類似するフラ
グパターンを持つポリゴンを抽出し、該当するオブジェ
クトデータに組入れる(図22(c))。例えば、オブ
ジェクトデータ内の各ポリゴンのフラグパターンを論理
和したパターンと1ビット違いのフラグパターンを持つ
ポリゴンを抽出し、オブジェクトデータに組入れる。同
様の手順を繰返して、所定ビット値違いのフラグパター
ンまでグループ分け(オブジェクトデータ化)する。
Next, a polygon having a flag pattern similar to the object data is extracted and incorporated into the corresponding object data (FIG. 22 (c)). For example, a polygon having a flag pattern having a bit difference from the pattern obtained by logically adding the flag patterns of the respective polygons in the object data is extracted and incorporated into the object data. By repeating the same procedure, the flag patterns having different predetermined bit values are grouped (formed into object data).

【0113】次に、各カメラ位置において描画される
(見える)オブジェクトデータを表す変換テーブルをつ
くる(S216)。この例を、図23に示す。このテー
ブルを参照することによって各カメラ位置(カメラI
D)で三次元仮想空間に配置すべきオブジェクトが直ち
に判る。
Next, a conversion table representing the object data drawn (visible) at each camera position is created (S216). This example is shown in FIG. By referring to this table, each camera position (camera I
In D), the object to be placed in the three-dimensional virtual space is immediately known.

【0114】例えば、カメラ位置0では、オブジェクト
データOBJ0,OBJ1,OBJ3,…が配置され
る。カメラ位置1では、オブジェクトデータOBJ0,
OBJ3,…画配置される。ゲーム装置では、ゲーム展
開に応じてカメラ位置を選択し、変換テーブルから該当
するオブジェクトデータ群を読出し、各オブジェクトを
構成するポリゴンを描画することによって各場面が描画
される。
For example, at the camera position 0, object data OBJ0, OBJ1, OBJ3, ... Are arranged. At camera position 1, object data OBJ0,
OBJ3, ... Image is arranged. In the game device, each scene is drawn by selecting the camera position according to the game development, reading the corresponding object data group from the conversion table, and drawing the polygons forming each object.

【0115】更に、オブジェクトデータをデータベース
に保存する(S218)。オブジェクトの変換テーブル
をデータベースに保存する(S220)。
Further, the object data is saved in the database (S218). The conversion table of the object is stored in the database (S220).

【0116】なお、上述したアルゴリズムをビデオゲー
ム装置とは別途の画像処理専用コンピュータシステムに
よって高速に実行し、その結果得られたオブジェクトデ
ータのデータベースをゲームソフトウェアとして情報記
録媒体にプログラムと共に記憶することができる。
The above-described algorithm may be executed at high speed by an image processing dedicated computer system separate from the video game device, and the resulting object data database may be stored as game software in the information recording medium together with the program. it can.

【0117】図24及び図25は、本発明による、表示
領域内において見えないポリゴンを除いたオブジェクト
データによって描画した画面例を説明するものである。
図24は、仮想三次元空間に形成されたゲームフィール
ドにおいて、カーレースの走行中の通常のカメラ位置に
よる一場面の例を示している。図25は、この場面を上
方から見た状態を示している。同図に斜線で示す領域に
はポリゴンは描画されておらず、画像が存在しない。従
って、その分の仮想空間の組立や画像を変換等するに要
する演算量が低減されている。
24 and 25 are diagrams for explaining an example of a screen drawn by object data excluding invisible polygons in the display area according to the present invention.
FIG. 24 shows an example of a scene at a normal camera position during running of a car race in a game field formed in a virtual three-dimensional space. FIG. 25 shows a state where this scene is viewed from above. No polygon is drawn in the shaded area in the figure, and no image exists. Therefore, the amount of calculation required for assembling the virtual space and converting the image is reduced.

【0118】このような、視野領域内におけるオブジェ
クトのクリッピングの適用例は、実施例のようなビデオ
ゲームに限られるものではない。例えば、仮想三次元空
間の様子を二次元画像に変換して表示するもの、例え
ば、種々の仮想体験用のシミュレーション等にも適用で
きる。
The application example of the clipping of the object within the visual field is not limited to the video game as in the embodiment. For example, the present invention can be applied to a device that converts the appearance of a virtual three-dimensional space into a two-dimensional image and displays it, such as a simulation for various virtual experiences.

【0119】(第2の実施形態)本発明の第2の実施形
態に係るビデオゲーム装置を図面に基づき説明する。本
実施形態は、第1の実施形態で説明した画像の第2の特
殊効果処理であるタイヤマークをさらに発展させたもの
で、今回のゲーム実行時にタイヤマークを処理・表示す
ることは勿論、そのタイヤマークを次回のゲームにも反
映させるようにしたものである。
(Second Embodiment) A video game device according to a second embodiment of the present invention will be described with reference to the drawings. The present embodiment is a further development of the tire mark which is the second special effect processing of the image described in the first embodiment. Of course, the tire mark is processed and displayed at the time of executing this game. The tire mark is reflected in the next game.

【0120】これを実現するため、ビデオゲーム装置は
図26に示すように、CPUブロック10にSRAM1
90を備え、このSRAM190を、バス105を介し
てSCU100、メインCPU101、RAM102、
ROM103、およびサブCPU104に接続してい
る。このSRAM(不揮発性メモリ)190は主にゲー
ム終了時にそのゲームで発生したタイヤマークのデータ
を保存するために設けられている。
In order to realize this, the video game device has the SRAM 1 in the CPU block 10 as shown in FIG.
90, and the SRAM 190 is connected to the SCU 100, the main CPU 101, the RAM 102, via the bus 105.
It is connected to the ROM 103 and the sub CPU 104. The SRAM (nonvolatile memory) 190 is provided mainly for storing tire mark data generated in the game at the end of the game.

【0121】また、本実施形態のビデオゲーム装置が備
えているRAM(揮発性メモリ)102は、ゲーム中の
タイヤマークのデータを含む各種のデータを保存するメ
モリとして搭載されている。このタイヤマークデータは
2種類用意される。1つは、現在のゲームで発生中のタ
イヤマークデータであり、これは常に表示されるデータ
である。もう1つは、過去に発生したタイヤマークデー
タであり、ここではリザーブデータと呼んでいる。
A RAM (volatile memory) 102 provided in the video game apparatus of this embodiment is mounted as a memory for storing various data including tire mark data during a game. Two types of tire mark data are prepared. One is tire mark data being generated in the current game, which is data that is always displayed. The other is tire mark data generated in the past, and is called reserve data here.

【0122】そのほかの構成は前述した第1の実施形態
のものと同一または同等である。
The other configurations are the same as or equivalent to those of the first embodiment described above.

【0123】メインCPU101は、ゲームの展開に必
要なゲーム処理を含むデータ全体をコントロールするた
めのメインプログラムを実行すると同時に、その処理と
並行して図27〜図33の処理を行うように予めROM
103にプログラムされている。これらの処理は全てタ
イヤマークデータに関するものである。この内、図27
に示す処理は各回のゲーム開始直前にメインCPU10
1により実行され、図28〜図31に示す処理はゲーム
実行中にメインCPU101により実行され、さらに図
32に示す処理はゲーム終了後に各回毎にメインCPU
101により実行される。
The main CPU 101 executes the main program for controlling the entire data including the game processing necessary for developing the game, and at the same time, executes the main processing in advance so that the processing of FIGS. 27 to 33 is performed in advance in the ROM.
It is programmed in 103. All of these processes relate to tire mark data. Of these, Figure 27
The process shown in the main CPU 10 is performed immediately before the start of each game.
28. The processing shown in FIGS. 28 to 31 is executed by the main CPU 101 during the execution of the game, and the processing shown in FIG.
Executed by 101.

【0124】まず、図27に示す処理を説明する。この
処理はゲーム開始直前に実施される。メインCPU10
1はメインプログラムを実行している中で、入力装置2
bから操作情報を確認しながらゲーム開始直前のタイミ
ングを判定し、そのタイミングが判定できたときに図2
7の処理を実行する。最初に、メインCPU101は、
SRAM190に前回のゲームでタイヤマークのデータ
が保存されているか否かを、例えばフラグが立っている
か否かで判断する(ステップS301)。この判断でN
O(データが保存されていない)のときは、そのままメ
インプログラムに戻る。反対にYES(データが保存さ
れている)のときは、そのデータをSRAM190から
読み出し、RAM102に展開してゲーム実行中に使用
可能なデータに変換(解凍処理など)する(ステップS
302)。これにより、RAM102には過去に発生し
たタイヤマークのデータ(リザーブデータ)として保存
される。
First, the processing shown in FIG. 27 will be described. This process is performed immediately before the game starts. Main CPU 10
1 is an input device 2 while executing the main program
While confirming the operation information from b, the timing immediately before the start of the game is determined, and when the timing can be determined, the timing shown in FIG.
The process of 7 is executed. First, the main CPU 101
It is determined whether or not the tire mark data is stored in the SRAM 190 in the previous game by, for example, whether or not a flag is set (step S301). N in this judgment
When it is O (data is not stored), the process directly returns to the main program. On the other hand, if YES (data is stored), the data is read from the SRAM 190, expanded in the RAM 102, and converted into data usable during the game execution (decompression process, etc.) (step S
302). As a result, the data (reserve data) of the tire mark generated in the past is stored in the RAM 102.

【0125】また、メインCPU101はメインプログ
ラムを実行する中で、ゲーム実行中の表示インターラプ
ト毎に図28〜図31の処理を実行する。このゲーム実
行中の処理は、図28に示すように、STEP1のルー
チンと呼ぶことにする、新規タイヤマークデータの処理
ルーチン(ステップS311)、STEP2のルーチン
と呼ぶことにする、リザーブデータのソート(ステップ
S312)、およびSTEP3のルーチンと呼ぶことに
する、RAMの保存データの表示(ステップS313)
からなり、これらSTEP1〜3のルーチンがこの順に
順次実行される。
Further, the main CPU 101 executes the processes of FIGS. 28 to 31 for each display interrupt during the execution of the game while executing the main program. As shown in FIG. 28, the process during the execution of the game is called a routine of STEP 1 which is a routine for processing new tire mark data (step S311), and a routine which is called of STEP 2 is a sort of reserve data ( Display of stored data in RAM, which will be referred to as the routine of step S312) and STEP3 (step S313)
The routines of STEP1 to STEP3 are sequentially executed in this order.

【0126】最初のSTEP1のルーチンでは、メイン
CPU101によって、現在、タイヤマークの発生状態
にあるか否かが、車の走行状態や遊戯者からの操作情報
に基づいて判断される(ステップS3001)。
In the first STEP 1 routine, the main CPU 101 determines whether or not the tire mark is currently generated based on the running state of the vehicle and operation information from the player (step S3001).

【0127】この判断がYES(発生状態にある)のと
きは、次いで、車のタイヤの現在位置から新たなタイヤ
マークを形成する各マークの座標位置(x,y,z)、
角度(x-角度、y-角度、z-角度)、長さ、および濃
さのデータが算出される(ステップS3002)。次い
で、この算出データが現在発生中のタイヤマークデータ
としてRAM102の所定記憶領域に一時保存される
(ステップS3003)。次いで、この保存されたタイ
ヤマークデータをリアルタイムに表示させて(ステップ
S3004)、メインプログラムに戻る。上述のステッ
プS3001〜S3004の処理の詳細は、前述した第
1の実施形態のものと同様または同等である。
If this determination is YES (in the generation state), then the coordinate position (x, y, z) of each mark forming a new tire mark from the current position of the car tire,
Data of angle (x-angle, y-angle, z-angle), length, and density is calculated (step S3002). Next, this calculated data is temporarily stored in a predetermined storage area of the RAM 102 as the tire mark data currently being generated (step S3003). Next, the stored tire mark data is displayed in real time (step S3004), and the process returns to the main program. The details of the processing in steps S3001 to S3004 described above are the same as or equivalent to those in the above-described first embodiment.

【0128】しかし、ステップS3001の処理判断を
表示フレーム毎に繰り返している中でタイヤマークの発
生状態ではないと認識できたときは、ステップS300
5〜S3008の処理を経てメインプログラムに戻る。
すなわち、前回フレームから今までに発生したタイヤマ
ークデータが在るか否かが判断され(ステップS300
5)、NOの場合はメインプログラムに戻る。
However, when it is recognized that the tire mark is not generated while the processing determination of step S3001 is being repeated for each display frame, step S300
The process returns to the main program through the processes of 5 to S3008.
That is, it is determined whether or not there is tire mark data generated from the previous frame to the present (step S300
5) If NO, return to the main program.

【0129】タイヤマークデータが在るときは(YE
S)、次いで、RAM102のリザーブデータの格納
(保存)領域に新たなデータを格納すべき空き領域が在
るか否かを判断する(ステップS3006)。この判断
がYES(空き領域在り)となるときは、そのままメイ
ンプログラムに戻る。反対にNO(空き領域無し)の判
断となるときは、リザーブデータの最後に位置するデー
タを消去する(ステップS3007)。リザーブデータ
の最後尾のデータは後述するように、STEP2のルー
チンによって常に、最も不要なデータになっているの
で、記憶領域に空き領域が無い場合、消去して構わない
ことになっている。
If there is tire mark data (YE
S) Next, it is determined whether or not there is an empty area in the RAM 102 for storing (storing) reserved data for storing new data (step S3006). If this determination is YES (there is a free area), the process directly returns to the main program. On the other hand, when the determination is NO (no free space), the data located at the end of the reserve data is erased (step S3007). As will be described later, the data at the end of the reserve data is always the most unnecessary data by the routine of STEP2. Therefore, if there is no free area in the storage area, it may be erased.

【0130】この消去によって空いた領域に、次いで、
現在までに発生していたタイヤマークデータがリザーブ
データとしてRAM102のリザーブデータ格納領域に
保存される。この後、メインプログラムに戻る。
In the area vacated by this deletion,
The tire mark data that has been generated up to now is saved as reserve data in the reserve data storage area of the RAM 102. After this, return to the main program.

【0131】続いてSTEP2に係るリザーブデータの
ソート処理を図30に沿って説明する。メインCPU1
01は、リザーブデータがRAM102に格納されてい
るか否かを判断する(ステップS3011)。格納され
ていない(NO)の場合にはそのままメインプログラム
に戻るが、格納されている(YES)の場合にはステッ
プS3012〜S3017のソート処理をサイクリック
に行う。
Next, the reserve data sorting process in STEP 2 will be described with reference to FIG. Main CPU1
01 determines whether or not the reserve data is stored in the RAM 102 (step S3011). If it is not stored (NO), the process directly returns to the main program, but if it is stored (YES), the sort process of steps S3012 to S3017 is cyclically performed.

【0132】このソート処理は以下ようである。リザー
ブデータの先頭データをデータAとして設定する(S3
012)。次いで、データAの次の位置に当たるデータ
が在るか否かを判断する(S3013)。この判断がN
Oの場合はソートを行う必要が無いからメインプログラ
ムに戻る。これに対して、YESの判断、すなわちデー
タAに次に該当するデータが在るときは、その該当デー
タをデータBとして設定する(S3014)。
The sorting process is as follows. The head data of the reserve data is set as data A (S3
012). Next, it is determined whether or not there is data corresponding to the next position of the data A (S3013). This judgment is N
If it is O, there is no need to sort, and the process returns to the main program. On the other hand, if YES is determined, that is, if the data A has the next corresponding data, the corresponding data is set as the data B (S3014).

【0133】次いで、データAのタイヤマークの構成枚
数はデータBのそれよりも少ないかどうかを判断する
(S3015)。データAの方が少ない(YES)場
合、データAとBの内容を入れ替え(S3016)、デ
ータBをデータAとして扱うようにする(S301
7)。しかし、データAの方が多い(NO)場合、ステ
ップS3016の処理をスキップする。ステップS30
17の後、その処理はステップS3013に戻される。
これにより、ステップS3013でNOの判断になっ
て、リザーブデータ全部のソートが終わるまで上述した
一連のソート処理が周期的に続けられる。
Next, it is judged whether the number of tire marks of the data A is smaller than that of the data B (S3015). If the data A is less (YES), the contents of the data A and B are exchanged (S3016), and the data B is treated as the data A (S301).
7). However, if there is more data A (NO), the process of step S3016 is skipped. Step S30
After 17, the process is returned to step S3013.
As a result, a negative determination is made in step S3013, and the series of sort processes described above is periodically continued until the sorting of all the reserve data is completed.

【0134】これにより、RAM102に格納されてい
るリザーブデータは表示フレーム毎に自動的にソートさ
れて整列し、その最後尾のマークデータは常に最も重要
度の低い(構成枚数の少ない)データであることが保証
される。このソートは一番外側のループが毎フレーム・
ループになっているバブルソートである。
As a result, the reserve data stored in the RAM 102 is automatically sorted and aligned for each display frame, and the mark data at the end of the reserve data is always the least important data (the number of constituents is the smallest). Is guaranteed. In this sort, the outermost loop is every frame
It is a bubble sort that is in a loop.

【0135】さらに、STEP3に係るRAM保存デー
タの表示処理を図31に沿って説明する。メインCPU
101は、RAM102に格納しているリザーブデータ
に仮想カメラ(視点)からの距離に応じてソートを掛け
る(ステップS3021)。このときカメラ後方は距離
=無限大と見做してソートされる。実際には「1/カメ
ラからのZ距離」をパラメータとしてヒープソートが実
施される。この結果、「1/カメラからのZ距離」の値
が最大になるものが表示フレーム毎に得られる。
Further, the display processing of the RAM storage data according to STEP3 will be described with reference to FIG. Main CPU
101 sorts the reserve data stored in the RAM 102 according to the distance from the virtual camera (viewpoint) (step S3021). At this time, the rear of the camera is sorted by considering distance = infinity. Actually, the heap sort is executed with "1 / Z distance from camera" as a parameter. As a result, the maximum value of "1 / Z distance from camera" is obtained for each display frame.

【0136】次いで、表示していないタイヤマークの中
から、カメラからの距離に近いマークのデータを抽出
し、表示する(ステップS3022、S3023)。こ
こでの表示も前述した第1の実施形態のものと同様に実
施される。
Next, from the tire marks which are not displayed, the data of the marks close to the distance from the camera are extracted and displayed (steps S3022 and S3023). The display here is also performed in the same manner as in the first embodiment described above.

【0137】次いで、全ての保存データに対し、表示処
理が終わったかどうかを判断する(ステップS302
4)。NOの場合、予め設定してある表示可能最大数を
表示タイヤマークが超えたかどうかを判断し(ステップ
S3025)、YESの判断ならばそのまま現在フレー
ムに対する表示処理を終わる。NOの判断のときは、ス
テップS3022の処理に戻って、上述した処理を表示
タイヤマーク数が表示可能最大数に達するまで続ける。
Then, it is judged whether or not the display processing has been completed for all the saved data (step S302).
4). In the case of NO, it is determined whether or not the display tire mark exceeds the preset maximum displayable number (step S3025), and if the determination is YES, the display process for the current frame is ended. If NO is determined, the process returns to step S3022 and the above-described process is continued until the number of display tire marks reaches the maximum displayable number.

【0138】これにより、現在発生中のタイヤマークデ
ータに加えて、それまでに発生したタイヤマークのその
後の経時的な変化状態を表すリザーブデータも許容され
る限り、画面上でカメラ視点に近い方から優先して極力
多数のものがフレーム毎に表示される。この表示処理の
際、リザーブデータの位置座標値如何によっては、カメ
ラ視野に入らない場合など、実際には表示されないでク
リッピングされるデータもある。また、この非表示のも
う1つの条件として表示可能最大数が設定されているの
で、これを超えた数のリザーブデータも実際には表示さ
れない。この表示可能最大数は、ゲームボードの性能
上、それ以上表示すると、いわゆるポリゴン欠けの現象
が発生する可能性があるという状況を回避するために設
定してある、タイヤマークポリゴンの最大表示数であ
る。この設定により、リザーブデータについても画面の
リアル感を演出する上で重要度の高いタイヤマークを安
定して表示できる。
As a result, in addition to the tire mark data currently being generated, as long as the reserve data representing the time-dependent change state of the tire mark generated so far is allowed, the one closer to the camera viewpoint is displayed on the screen. From the top, priority is given to displaying as many items as possible for each frame. At the time of this display processing, depending on the position coordinate value of the reserve data, some data may not actually be displayed and may be clipped, such as when it does not fall within the camera field of view. Further, since the maximum displayable number is set as another condition of this non-display, the reserve data exceeding the number is not actually displayed. The maximum number that can be displayed is the maximum number of tire mark polygons that is set to avoid a situation in which the phenomenon of so-called polygon missing may occur if it is displayed more than that due to the performance of the game board. is there. With this setting, it is possible to stably display the tire mark, which has a high degree of importance in order to create a realistic image of the reserve data.

【0139】さらに、ゲーム終了後のデータ保存処理を
図32、33を参照して説明する。メインCPU101
は、ゲーム終了時点でこの処理に入り、同図に示すよう
に、RAM102にゲーム終了時点で保存されているゲ
ーム実行中のタイヤマークデータ全てについて、そのタ
イヤマークとして次回のゲーム時に表示するほどのもの
であるかどうか、その価値を判断(計算)する(ステッ
プS321)。
Further, the data saving process after the game is finished will be described with reference to FIGS. Main CPU 101
Enters this process at the end of the game, and as shown in the figure, all tire mark data during the game stored in the RAM 102 at the end of the game is displayed as the tire mark at the next game. Whether or not it is a thing, its value is determined (calculated) (step S321).

【0140】この価値判断の一例を図33(a),
(b)に示す。いま、タイヤマークを構成しているポリ
ゴン1枚につき3点、車走行コースのコーナ内側から車
の中心位置までの距離がxのとき「4/x」点のように
点数付けすると、図33(a)の場合はポリゴン枚数に
よる点数=5枚×3点、距離による点数=(4/3)点
×5枚となり、同図(b)の方はそれぞれ5枚×3点、
(4/5)点×3枚+(4/7)点+(4/8)点とな
る。この両者を比較すると、明らかに同図(a)のタイ
ヤマークの方が同図(b)よりも点数が高い。すなわ
ち、ここでの点数付けの条件に関する限り、同図(a)
の方が価値が高いと見做すことができる。
An example of this value judgment is shown in FIG.
It shows in (b). Now, if three points are set for each polygon constituting the tire mark, and if the distance from the inside of the corner of the vehicle running course to the center position of the vehicle is x, the points are scored as "4 / x" points. In the case of a), the score according to the number of polygons = 5 × 3 points, the score according to the distance = (4/3) points × 5 sheets, and the figure (b) has 5 sheets × 3 points, respectively.
(4/5) points × 3 sheets + (4/7) points + (4/8) points. Comparing the two, the tire mark in FIG. 9A clearly has a higher score than that in FIG. That is, as far as the condition for scoring here is concerned, the same figure (a)
Can be considered to be more valuable.

【0141】次いで、メインCPU101は上述した価
値判断結果に応じて、その高い方からソートを実行す
る。このソートそのものはヒープソートとして実行され
るが、そのソーティング判断基準が上述したタイヤマー
クとしての表示価値である点に特徴がある。つまり、こ
のソートは、どのタイヤマークを残すかを決めるための
ソートである。そのための条件は、上述の例に一部示し
た如く、マークの全長(マークの構成ポリゴン枚数)、
マークの色の濃さ、マークの密度(1個所に集中してい
るかどうか)、マークの位置(コースのベストラインに
近いかどうか)、見栄えのするタイヤマーク(クリッピ
ング・ポイントに近いなど)などである。これらの条件
それぞれに数値を設定し、その合計値をソートの判断基
準とすることで、複数の条件(パラメータ)を満足させ
る価値判断によるソートを掛けることができる。上述し
た図33の場合、このソートによって、より長く、か
つ、よりコーナー内側に位置するタイヤマークが選択さ
れ続ける。
Next, the main CPU 101 executes sorting from the highest value according to the above-mentioned value judgment result. This sort itself is executed as a heap sort, and is characterized in that the sorting criterion is the display value as the tire mark described above. That is, this sort is a sort for deciding which tire mark to leave. The conditions therefor are, as partially shown in the above example, the total length of the mark (the number of polygons constituting the mark),
Mark color density, mark density (whether they are concentrated in one place), mark position (whether it is close to the best line of the course), good-looking tire marks (close to clipping points, etc.) is there. By setting a numerical value for each of these conditions and using the total value as a criterion for sorting, it is possible to perform sorting by value determination that satisfies a plurality of conditions (parameters). In the case of FIG. 33 described above, this sort continues to select tire marks that are longer and located inside the corner.

【0142】このようにソートが掛けられた後、SRA
M190に未だ格納していないタイヤマークデータの中
から最も価値の高いデータを抽出する(ステップS32
3)。次いで、この抽出データをSRAM190に格納
保存するだけの記憶領域が残っているかどうかを判断し
(ステップS324)、YESの判断のときにそのデー
タをSRAM190に圧縮して格納する(ステップS3
25)。この保存情報は、タイヤマークポリゴンの表示
位置座標(X,Y,Z)、その表示方向(X,Y,
Z)、およびそのスケール(長さ)、さらに濃さの8種
類の値である。SRAM190の記憶領域が一杯になる
と、格納を停止して処理をメインプログラムに戻す。
After sorting is performed in this way, SRA
The most valuable data is extracted from the tire mark data not yet stored in M190 (step S32).
3). Next, it is determined whether or not there is a storage area for storing and saving the extracted data in the SRAM 190 (step S324), and when YES is determined, the data is compressed and stored in the SRAM 190 (step S3).
25). This stored information includes the display position coordinates (X, Y, Z) of the tire mark polygon and the display direction (X, Y, Z).
Z), its scale (length), and eight kinds of darkness. When the storage area of the SRAM 190 is full, the storage is stopped and the process is returned to the main program.

【0143】この結果、遊戯者がゲームを終了すると直
ちに、それまでのゲーム実行中に発生したタイヤマーク
データの中から、次回のゲーム実行における表示価値が
判断され、その価値が高いデータから順に所定数のデー
タがSRAM190に保存される。このため、ゲーム装
置の電源をオフ状態にしても、このSRAM190のデ
ータは保存され、ゲームを再び実行したときに前述した
図27の処理を介してRAM102に戻される。そし
て、図29、30、31の処理を経て新たなゲーム画面
に表示または反映される。
As a result, immediately after the player finishes the game, the display value in the next game execution is judged from the tire mark data generated during the game execution till then, and the data having the higher value is determined in order from the highest value. A number of data are stored in SRAM 190. Therefore, even when the power of the game apparatus is turned off, the data in the SRAM 190 is saved and returned to the RAM 102 through the processing in FIG. 27 described above when the game is executed again. Then, it is displayed or reflected on a new game screen through the processing of FIGS.

【0144】本実施形態では以上ように、ゲームが終了
すると直ちに、ゲーム実行中のタイヤマークデータの価
値を判断し、バックアップメモリ(SRAM)に表示価
値の面から選択的に保存し、次回のゲームまたはパワー
オンリセット後のゲームにそれを表示できる。このた
め、次回のゲームを行ったり、ゲームを再開したときに
前回のゲーム時のスリップ痕などのタイヤマークが残っ
た状態で画面表示され、従来には無かった非常にリアル
感があり、かつゲームの臨場感を高揚させる演出を行う
ことができる。
As described above, in the present embodiment, as soon as the game ends, the value of the tire mark data during execution of the game is judged, and the value of the tire mark data is selectively saved in the backup memory (SRAM) in terms of display value, and the next game is played. Or you can show it in the game after a power-on reset. For this reason, when the next game is played or the game is restarted, the tire marks such as the slip marks from the previous game are displayed on the screen, which is very realistic and unprecedented. It is possible to perform an effect that enhances the sense of presence.

【0145】そして、このタイヤマークデータはゲーム
実行中はリザーブデータの一部として扱い、ソートし
て、表示数やカメラ視野などに依る表示条件の元で極力
その多くが表示される。このため、現在発生中のタイヤ
マークのみならず、それまでに発生したタイヤマークの
表示も加わって、タイヤマークに関して非常に豊かで迫
力のある画面を提供できる。なお、第1の実施形態で説
明したタイヤマークに関する作用効果も当然に合わせて
享受することができる。
Then, this tire mark data is treated as a part of the reserve data during the game execution, sorted, and most of it is displayed as much as possible under the display conditions depending on the number of displays and the camera field of view. For this reason, not only the tire mark that is currently being generated but also the display of the tire mark that has been generated so far is added, and a very rich and powerful screen regarding the tire mark can be provided. It should be noted that it is of course possible to enjoy the operational effects related to the tire mark described in the first embodiment.

【0146】また、バックアップメモリ(SRAM)の
記憶容量は通常、例えば64KBと少ないため、これに
保存するタイヤマークデータ量は制限される。これにつ
いても、表示価値に応じてソートして優先順位の高いデ
ータから保存するようにしているので、かかる少ない記
憶容量で間に合うことになる。しかも、このソート及び
データ保存はゲーム実行中には行わずに、ゲームが終了
した時点で行うようにしているから、メインCPUを中
心とする演算要素に掛かる演算負荷を軽減できる。ま
た、ゲーム実行中にもソートを行っても良い。このと
き、ゲーム処理中のCPUの処理負担を削減する観点か
ら、ゲーム実行中のソートをゲーム終了後のソートに比
較して、CPUの処理負担が軽い比較的簡単な内容のソ
ートにとどめることもできる。
Since the backup memory (SRAM) usually has a small storage capacity of, for example, 64 KB, the amount of tire mark data stored therein is limited. Also for this, since the data is sorted according to the display value and the data with the highest priority is stored, the storage capacity can be made with such a small storage capacity. Moreover, since the sorting and the data storage are not performed during the game execution but are performed at the time when the game is finished, it is possible to reduce the calculation load on the calculation elements centering on the main CPU. Also, sorting may be performed during the game execution. At this time, from the viewpoint of reducing the processing load on the CPU during the game processing, the sorting during the game execution may be compared with the sorting after the game is finished, and the sorting may be limited to relatively simple contents with a light processing load on the CPU. it can.

【0147】[0147]

【発明の効果】以上述べたように、本発明によれば、画
面に光源からの入射光線によるフレアが表現されるの
で、まぶしい場面や演出された場面を楽しむことが可能
となる。
As described above, according to the present invention, the flare caused by the incident light beam from the light source is displayed on the screen, so that it is possible to enjoy a dazzling scene or a directed scene.

【0148】また、本発明によれば、車両やスキー等の
移動するオブジェクトの痕跡をポリゴン数を比較的増や
さずに描画することが可能となって好ましい。加えて、
一度ゲームを終了させても、演算負荷やメモリ容量の増
大を抑えた状態で、オブジェクトの痕跡を次回のゲーム
画面に的確に反映させることができ、臨場感やリアル感
を一層高めることができる。
Further, according to the present invention, it is possible to draw traces of a moving object such as a vehicle or a ski without relatively increasing the number of polygons, which is preferable. in addition,
Even if the game is ended once, the trace of the object can be accurately reflected on the next game screen while suppressing the increase of the calculation load and the memory capacity, and the realism and the realism can be further enhanced.

【0149】また、本発明の画像形成方法は、表示領域
内において不可視のポリゴンをクリップしてオブジェク
トデータベースを形成するので、従来よりも少ない演算
量で従来と同様の画面を描画することが可能となる。
Further, since the image forming method of the present invention forms an object database by clipping invisible polygons in the display area, it is possible to draw a screen similar to the conventional one with a smaller amount of calculation than the conventional one. Become.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施形態のゲーム装置の機能ブ
ロック図である。
FIG. 1 is a functional block diagram of a game device according to a first embodiment of the present invention.

【図2】フレア形成のアルゴリズムを説明するフローチ
ャートである。
FIG. 2 is a flowchart illustrating an algorithm for flare formation.

【図3】フレアの発生条件を説明する説明図である。FIG. 3 is an explanatory diagram illustrating a flare generation condition.

【図4】フレア発生画面の例を示す説明図である。FIG. 4 is an explanatory diagram showing an example of a flare generation screen.

【図5】フレア形成の他のアルゴリズムを説明するフロ
ーチャートである。
FIG. 5 is a flowchart illustrating another algorithm for flare formation.

【図6】図5に示すアルゴリズムを説明するグラフであ
る。
FIG. 6 is a graph illustrating the algorithm shown in FIG.

【図7】フレアの程度をテーブルによって求める例を説
明する説明図である。
FIG. 7 is an explanatory diagram illustrating an example in which a degree of flare is obtained by a table.

【図8】光源の移動によってフレアを意図的に生ぜしめ
る例を説明する説明図である。
FIG. 8 is an explanatory diagram illustrating an example in which flare is intentionally generated by moving a light source.

【図9】タイヤマークを表示するアルゴリズムを説明す
るフローチャートである。
FIG. 9 is a flowchart illustrating an algorithm for displaying a tire mark.

【図10】RAMの内容を説明する説明図である。FIG. 10 is an explanatory diagram illustrating contents of RAM.

【図11】書込みが一巡したRAMの状態を説明する説
明図である。
FIG. 11 is an explanatory diagram illustrating a state of a RAM in which writing has been completed.

【図12】図11のRAMによって描画されるタイヤマ
ークを説明する説明図である。
12 is an explanatory diagram illustrating a tire mark drawn by the RAM of FIG.

【図13】RAM番号とタイヤマークのパターンの対応
関係を説明する説明図である。
FIG. 13 is an explanatory diagram illustrating a correspondence relationship between a RAM number and a tire mark pattern.

【図14】スリップ痕が描かれた画面を説明する説明図
である。
FIG. 14 is an explanatory diagram illustrating a screen on which slip marks are drawn.

【図15】三次元仮想空間に配置されたオブジェクトの
例を説明する説明図である。
FIG. 15 is an explanatory diagram illustrating an example of objects arranged in a three-dimensional virtual space.

【図16】表示領域内においてオブジェクトに見えない
部分がある例を説明する説明図である。
FIG. 16 is an explanatory diagram illustrating an example in which there is a portion that cannot be seen as an object in the display area.

【図17】オブジェクトの見えない部分(ポリゴン)を
削除した例を説明する説明図である。
FIG. 17 is an explanatory diagram illustrating an example in which an invisible portion (polygon) of an object is deleted.

【図18】画像データ処理装置の概略を説明するブロッ
ク図である。
FIG. 18 is a block diagram illustrating an outline of an image data processing device.

【図19】表示領域でカメラから見えないポリゴンを削
除してオブジェクトデータベースを形成する例を説明す
るフローチャートである。
FIG. 19 is a flowchart illustrating an example of deleting an invisible polygon from a camera in a display area to form an object database.

【図20】ポリゴンの可視、不可視を判別する例を説明
するフローチャートである。
FIG. 20 is a flowchart illustrating an example of determining whether a polygon is visible or invisible.

【図21】ポリゴンの可視、不可視を表すテーブルを説
明する説明図である。
FIG. 21 is an explanatory diagram illustrating a table representing visible and invisible polygons.

【図22】ポリゴンデータのオブジェクトグループ化を
説明する説明図である。
FIG. 22 is an explanatory diagram illustrating object grouping of polygon data.

【図23】カメラIDによって描画するオブジェクトを
選択する変換テーブルを説明する説明図である。
FIG. 23 is an explanatory diagram illustrating a conversion table for selecting an object to be drawn by a camera ID.

【図24】通常の視点で3D描画した画面を説明する説
明図である。
FIG. 24 is an explanatory diagram illustrating a screen rendered in 3D from a normal viewpoint.

【図25】図24と同じ三次元仮想空間で視点を上方に
移動した場合の画像を説明する説明図である。
FIG. 25 is an explanatory diagram illustrating an image when the viewpoint is moved upward in the same three-dimensional virtual space as in FIG. 24.

【図26】本発明の第2の実施形態に係るゲーム装置を
示す機能ブロック図である。
FIG. 26 is a functional block diagram showing a game device according to the second embodiment of the present invention.

【図27】ゲーム開始直前のタイヤマークデータの読出
し処理を示す概略フローチャートである。
FIG. 27 is a schematic flowchart showing a process of reading tire mark data immediately before the game starts.

【図28】ゲーム実行中のタイヤマークデータの処理を
示す概略フローチャートである。
FIG. 28 is a schematic flowchart showing processing of tire mark data during execution of a game.

【図29】図28に示す処理のSTEP1の処理ルーチ
ンをより詳細に示す概略フローチャートである。
FIG. 29 is a schematic flowchart showing the processing routine of STEP1 of the processing shown in FIG. 28 in more detail.

【図30】図28に示す処理のSTEP2の処理ルーチ
ンをより詳細に示す概略フローチャートである。
FIG. 30 is a schematic flowchart showing the processing routine of STEP 2 of the processing shown in FIG. 28 in more detail.

【図31】図28に示す処理のSTEP3の処理ルーチ
ンをより詳細に示す概略フローチャートである。
FIG. 31 is a schematic flowchart showing the processing routine of STEP3 of the processing shown in FIG. 28 in more detail.

【図32】ゲーム終了後のタイヤマークデータの保存処
理を示す概略フローチャートである。
FIG. 32 is a schematic flowchart showing a process of storing tire mark data after the game is finished.

【図33】ゲーム終了後のタイヤマークデータの保存処
理に伴う価値判断の一例を説明する図である。
FIG. 33 is a diagram illustrating an example of value judgment associated with the processing of storing tire mark data after the game is finished.

【符号の説明】[Explanation of symbols]

1 ビデオゲーム装置本体 1a カートリッジI/F 1b CD−ROMドライブ 2a コネクタ 2b ゲーム操作用のパッド 2c ケーブル 3a コネクタ 3b フロッピーディスクドライブ(FDD) 3c ケーブル 4a、4b ケーブル 5 TV受像機 10 CPUブロック 11 ビデオブロック 12 サウンドブロック 13 サブシステム 100 SCU(System Control Unit) 101 メインCPU 102 RAM 103 ROM 104 サブCPU 105 CPUバス 106、107 バス 120、130 VDP 121 VRAM 122、123 フレームバッファ 131 VRAM 132 メモリ 140 DSP 141 CPU 160 エンコーダ 180 CD I/F 181 CPU 182 MPEG AUDIO 183 MPEG VIDEO 190 SRAM 1 Video game device body 1a Cartridge I / F 1b CD-ROM drive 2a connector 2b Pad for game operation 2c cable 3a connector 3b Floppy disk drive (FDD) 3c cable 4a, 4b cable 5 TV receiver 10 CPU blocks 11 video blocks 12 sound blocks 13 subsystems 100 SCU (System Control Unit) 101 Main CPU 102 RAM 103 ROM 104 sub CPU 105 CPU bus 106, 107 bus 120, 130 VDP 121 VRAM 122, 123 frame buffer 131 VRAM 132 memory 140 DSP 141 CPU 160 encoder 180 CD I / F 181 CPU 182 MPEG AUDIO 183 MPEG VIDEO 190 SRAM

フロントページの続き (72)発明者 風間 隆行 東京都大田区羽田1丁目2番12号 株式 会社 セガ・エンタープライゼス内 (72)発明者 猪川 亮 東京都大田区羽田1丁目2番12号 株式 会社 セガ・エンタープライゼス内 (72)発明者 藤村 隆史 東京都大田区羽田1丁目2番12号 株式 会社 セガ・エンタープライゼス内 (56)参考文献 特開 平9−161094(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 15/00 - 17/50 A63F 13/00 Front page continuation (72) Inventor Takayuki Kazama 1-22-1 Haneda, Ota-ku, Tokyo Within SEGA Enterprises Co., Ltd. (72) Inventor Ryo Inagawa 1-2-12 Haneda, Ota-ku, Tokyo SEGA Co., Ltd.・ Inside Enterprises (72) Inventor Takashi Fujimura 1-22-1 Haneda, Ota-ku, Tokyo Within SEGA Enterprises Co., Ltd. (56) References JP-A-9-161094 (JP, A) (58) Field (Int.Cl. 7 , DB name) G06T 15/00-17/50 A63F 13/00

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 三次元仮想空間で視点を移動して視野に
入った場面を画像として表示するゲーム装置であって、
前記視点の視野内に光源が存在するときに前記画像にフ
レアを形成するフレア処理手段を含み、前記フレア処
理手段は、前記視点の視線方向を表す視線ベクトルを得
る視線ベクトル生成手段と、前記視点から光源の方向を
表す光線ベクトルを得る手段と、前記視線ベクトルと前
記光線ベクトルとの内積を計算する内積計算手段と、前
記画像に前記内積に応じた強度のフレアを形成するフレ
ア形成手段と、を含むゲーム装置。
1. A game device for displaying a scene in a visual field by moving the visual point in a three-dimensional virtual space as an image,
Forming a flare before Symbol image when the light source is present in the field of view of said view point, comprises a flare unit, said flared section has a line-of-sight vector generation means for obtaining a line of sight vector representing the viewing direction of the viewpoint, A means for obtaining a light ray vector representing the direction of the light source from the viewpoint, an inner product calculating means for calculating an inner product of the line-of-sight vector and the light ray vector, and a flare forming means for forming a flare having an intensity corresponding to the inner product in the image. And a game device including.
【請求項2】 前記フレア処理手段は、前記内積と基準
値のとの比較結果に基づいて、前記フレア形成手段を活
性化させる判別手段、を更に含むことを特徴とする請求
項1に記載のゲーム装置。
2. The flare processing means further includes a discrimination means for activating the flare forming means based on a comparison result between the inner product and a reference value. Game device.
【請求項3】 前記フレア形成手段は、前記内積に応じ
て前記画像の白味の度合を増す、ことを特徴とする請求
項1又は2に記載のゲーム装置。
3. The game device according to claim 1, wherein the flare forming means increases the degree of whiteness of the image according to the inner product.
【請求項4】 前記フレア形成手段は、前記内積に応じ
た透明度のフレアポリゴンの画像を形成する、ことを特
徴とする請求項1又は2に記載のゲーム装置。
4. The game device according to claim 1, wherein the flare forming means forms an image of a flare polygon having a transparency according to the inner product.
【請求項5】 前記フレア形成手段は、予め定められた
内積の上限値と下限値との間において、前記内積に応じ
た画像への白味の付加処理及び前記内積に応じた透明度
のフレアポリゴンの形成処理の少なくともいずれかを行
う、ことを特徴とする請求項1記載のゲーム装置。
5. The flare forming means adds whiteness to an image according to the inner product and a flare polygon having transparency according to the inner product between an upper limit value and a lower limit value of a predetermined inner product. The game apparatus according to claim 1, wherein at least one of the formation processing of (1) is performed.
【請求項6】 前記フレア形成手段は、前記視点と前記
光源とを結ぶ直線上に前記フレアを形成する、ことを特
徴とする請求項1乃至5のいずれか一項に記載のゲーム
装置。
6. The game device according to claim 1, wherein the flare forming means forms the flare on a straight line connecting the viewpoint and the light source.
【請求項7】 前記フレア処理手段は、前記フレアの程
度を、前記光源の視野内の位置及び前記光源の強度のう
ち少なくともいずれかに対応付けられたフレア値群を含
むテーブルを参照して前記フレアの程度を決定前記
光源は前記三次元仮想空間内に配置された仮想太陽であ
り、この仮想太陽が、所定の場面において前記画像にフ
レアを生ぜしめるために、前記三次元仮想空間内におけ
る前記仮想太陽の正規の配置位置から前記所定の場面の
視野内に再配置される、ことを特徴とする請求項1に記
載のゲーム装置。
7. The flare processing unit refers to a table including a flare value group in which the degree of flare is associated with at least one of a position within a field of view of the light source and an intensity of the light source. to determine the extent of the flare, the
The light source is a virtual sun arranged in the three-dimensional virtual space.
This virtual sun is reflected in the image in a given scene.
In order to create a rare, place it in the three-dimensional virtual space
Of the predetermined scene from the regular arrangement position of the virtual sun
The game device according to claim 1, wherein the game device is rearranged within a visual field .
【請求項8】 視点の視野内に光源が存在するときに前
記画像にフレアを形成するフレア処理と、前記視点の
視線方向を表す視線ベクトルを得る視線ベクトル生成処
理と、前記視点から光源の方向を表す光線ベクトルを得
る処理と、前記視線ベクトルと前記光線ベクトルとの内
積を計算する内積計算処理と、前記画像に前記内積に応
じた強度のフレアを形成するフレア形成処理と、上記フ
レア処理処理、視線ベクトル生成処理、内積計算処理、
フレア形成処理を制御する制御処理と、を備えたゲーム
装置の画像形成方法であって、前記制御処理が、仮想カ
メラの視野内に仮想光源ポリゴンが入っているか否かを
判断する過程と、前記仮想光源ポリゴンが入っていると
判断したときに、三次元仮想空間内における前記カメラ
の位置と光源位置とを結ぶ単位長のベクトルを求める過
程と、カメラの向きを表す単位ベクトルを求める過程
と、前記カメラ位置と光源位置とを結ぶ単位ベクトルと
前記カメラの向きの単位ベクトルとの内積を求める過程
と、前記内積が予め定められた基準値を超えるか否かを
判断する過程と、前記内積が前記基準値を超えると判断
したときに、前記内積に比例して画面に白味をかける過
程と、前記内積に比例した透明度を求める過程と、前記
カメラ位置と光源位置とを結ぶ直線を2次元画面上の直
線に変換する過程と、前記直線に沿って、所定の位置に
前記透明度のフレアポリゴンを描画する過程と、を実行
するゲーム装置の画像形成方法。
Light source 8. A within the field of view of the viewpoint to form a flare before <br/> Symbol image when present, the flared, and a line-of-sight vector generation process of obtaining the sight line vector representing a viewing direction of the viewpoint, A process of obtaining a light ray vector representing the direction of the light source from the viewpoint, an inner product calculation process of calculating an inner product of the line-of-sight vector and the light ray vector, and a flare forming process of forming a flare having an intensity according to the inner product in the image. And the flare processing processing, line-of-sight vector generation processing, inner product calculation processing,
An image forming method for a game device, comprising: a control process for controlling a flare forming process, wherein the control process determines whether or not a virtual light source polygon is included in a visual field of a virtual camera; When it is determined that the virtual light source polygon is included, a step of obtaining a vector of a unit length connecting the position of the camera and the light source position in the three-dimensional virtual space, and a step of obtaining a unit vector representing the orientation of the camera, A step of obtaining an inner product of a unit vector connecting the camera position and the light source position and a unit vector of the camera direction, a step of judging whether the inner product exceeds a predetermined reference value, and the inner product When it is determined that the value exceeds the reference value, a process of adding a whiteness to the screen in proportion to the inner product, a process of obtaining transparency in proportion to the inner product, the camera position and the light source position Doo and the process of converting linearly in a straight line on a two-dimensional screen connecting, along the straight line, the image forming method of a game apparatus which executes a process of drawing the flaring polygons of the transparency in position.
JP32172097A 1996-11-22 1997-11-21 GAME DEVICE, IMAGE DATA FORMING METHOD, AND MEDIUM Expired - Fee Related JP3415416B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32172097A JP3415416B2 (en) 1996-11-22 1997-11-21 GAME DEVICE, IMAGE DATA FORMING METHOD, AND MEDIUM

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP31245996 1996-11-22
JP8-312459 1996-11-22
JP32172097A JP3415416B2 (en) 1996-11-22 1997-11-21 GAME DEVICE, IMAGE DATA FORMING METHOD, AND MEDIUM

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2000078128A Division JP3379702B2 (en) 1996-11-22 2000-03-21 GAME DEVICE, IMAGE DATA FORMING METHOD, AND MEDIUM

Publications (2)

Publication Number Publication Date
JPH10201947A JPH10201947A (en) 1998-08-04
JP3415416B2 true JP3415416B2 (en) 2003-06-09

Family

ID=26567177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32172097A Expired - Fee Related JP3415416B2 (en) 1996-11-22 1997-11-21 GAME DEVICE, IMAGE DATA FORMING METHOD, AND MEDIUM

Country Status (1)

Country Link
JP (1) JP3415416B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4028113B2 (en) * 1998-12-02 2007-12-26 株式会社バンダイナムコゲームス GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP4019240B2 (en) * 1999-05-07 2007-12-12 株式会社セガ Image processing method, recording medium, and image processing apparatus
US6573896B1 (en) * 1999-07-08 2003-06-03 Dassault Systemes Three-dimensional arrow
US6955606B2 (en) 2000-03-30 2005-10-18 Nintendo Co., Ltd. Game information storage medium and game system using the same
JP4527853B2 (en) * 2000-07-28 2010-08-18 株式会社バンダイナムコゲームス GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP3417917B2 (en) * 2000-10-31 2003-06-16 コナミ株式会社 3D image processing method, apparatus thereof, computer-readable recording medium recording 3D image processing program, and video game apparatus
JP2002202770A (en) * 2000-12-28 2002-07-19 Genki Kk Sequential read method for computer game, and recording medium using the sequential read method
JP4728510B2 (en) * 2001-06-14 2011-07-20 株式会社バンダイナムコゲームス Image generation system, program, and information storage medium
JP3647790B2 (en) * 2001-10-11 2005-05-18 コナミ株式会社 Image display program, image display method, and video game apparatus
JP3733948B2 (en) * 2002-12-26 2006-01-11 株式会社三洋物産 Image display device
WO2006073131A1 (en) * 2005-01-04 2006-07-13 Ssd Company Limited Plotting device and plotting method
JP2006314349A (en) 2005-05-10 2006-11-24 Nintendo Co Ltd Game program and game device
JP4845195B2 (en) * 2006-08-14 2011-12-28 サミー株式会社 Image generating apparatus, game machine, and program
JP2010509992A (en) 2006-11-17 2010-04-02 任天堂株式会社 Video game program download system and download method
JP2009018199A (en) * 2008-10-27 2009-01-29 Sega Corp Game information processor and its computer program
JP4932927B2 (en) * 2010-05-07 2012-05-16 株式会社バンダイナムコゲームス GAME DEVICE AND INFORMATION STORAGE MEDIUM
KR101465658B1 (en) * 2013-09-10 2014-11-28 성균관대학교산학협력단 Methods and apparatuses of lens flare rendering using linear paraxial approximation
JP6676294B2 (en) 2015-06-30 2020-04-08 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP6983939B2 (en) * 2015-06-30 2021-12-17 キヤノン株式会社 Information processing equipment, information processing methods, programs
CN112717411B (en) * 2021-01-21 2023-04-18 腾讯科技(深圳)有限公司 Track recording method, device, equipment and storage medium of virtual vehicle

Also Published As

Publication number Publication date
JPH10201947A (en) 1998-08-04

Similar Documents

Publication Publication Date Title
JP3379702B2 (en) GAME DEVICE, IMAGE DATA FORMING METHOD, AND MEDIUM
JP3415416B2 (en) GAME DEVICE, IMAGE DATA FORMING METHOD, AND MEDIUM
EP0844587B1 (en) Image processor, image processing method, game machine and recording medium
US8602888B2 (en) Video game device and image processing program
US5577960A (en) Image synthesizing system and game playing apparatus using the same
JP4177381B2 (en) Image generation method, image generation apparatus, and image generation program
US7338373B2 (en) Method and apparatus for generating sounds in a video game
US6738061B2 (en) Method, apparatus, storage medium, program, and program product for generating image data of virtual three-dimensional space
US6749503B1 (en) Game device and program including game processing after reproducing historical performance
US6646640B2 (en) System and method for creating real-time shadows of complex transparent objects
JP2001273517A (en) Game system and computer-readable recording medium with recording program for game recorded thereon
US8133117B2 (en) Game apparatus, game message displaying method and storage medium storing game program
US20140002456A1 (en) Image processing apparatus and storing medium that stores image processing program
KR100816622B1 (en) Image generating device and image generating method
JP4343207B2 (en) Game device and image processing program
US6767286B1 (en) Game device, picture data forming method and medium
JP2001307126A (en) Method and device for plotting image, recording medium and program
US6717575B2 (en) Image drawing method, image drawing apparatus, recording medium, and program
JP2009129167A (en) Program, information storage medium, and image generation system
JP3841210B2 (en) GAME DEVICE, IMAGE DATA FORMING METHOD, AND MEDIUM
JP2898578B2 (en) Simulation apparatus and image composition method
JP3727098B2 (en) Image composition method and apparatus
JP2002251629A (en) Method for expressing image and program used for the same
JP2004033703A (en) Memory medium stored with game program, game control method, and game apparatus capable of reading data from the memory dedium
JPH11197358A (en) Game device

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030307

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090404

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100404

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 11

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees