JP2003340150A - Electronic game apparatus - Google Patents

Electronic game apparatus

Info

Publication number
JP2003340150A
JP2003340150A JP2003147718A JP2003147718A JP2003340150A JP 2003340150 A JP2003340150 A JP 2003340150A JP 2003147718 A JP2003147718 A JP 2003147718A JP 2003147718 A JP2003147718 A JP 2003147718A JP 2003340150 A JP2003340150 A JP 2003340150A
Authority
JP
Japan
Prior art keywords
viewpoint
player
moving body
moving
movement information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003147718A
Other languages
Japanese (ja)
Other versions
JP3606383B2 (en
Inventor
Toshihiro Nagoshi
俊弘 名越
Hirotomo Katagiri
大智 片桐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Priority to JP2003147718A priority Critical patent/JP3606383B2/en
Publication of JP2003340150A publication Critical patent/JP2003340150A/en
Application granted granted Critical
Publication of JP3606383B2 publication Critical patent/JP3606383B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To allow a player to enjoy by displaying a crush state as a three- dimensional image even when becoming unoperable by crushing in a game. <P>SOLUTION: This image processing method executes a moving step for moving a player moving body in response to input operation of the player, a determining step for determining whether or not the player moving body becomes an unoperable state in the game, a reading-out step for reading out view point moving information from a data memory for displaying the unoperable state of the player moving body as an image in a view point from a third person together with the surrounding environment, and an image display step for three- dimensionally displaying the player moving body and the surrounding unoperable environment as an animation for a prescribed period while automatically moving the view point according to the view point moving information read out of the data memory. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、電子遊戯機器に
関し、特に、遊戯者(以下、プレイヤと称す)が車や飛
行機等の移動体を操縦して遊戯している最中に、操縦ミ
ス等で移動体が操縦不能となった場合に有用な、事故状
況を表示画面に三次元動画表示するようにしたクラッシ
ュシナリオ表示機能付きの電子遊戯機器に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic game machine, and in particular, a player (hereinafter referred to as a player) controls a moving body such as a car or an airplane while playing, and makes a mistake in operation. The present invention relates to an electronic amusement machine with a crash scenario display function that displays a three-dimensional moving image of the accident situation on the display screen, which is useful when the moving body becomes uncontrollable.

【0002】[0002]

【従来の技術】従来、プレイヤが移動体を操縦して他の
移動体とゲーム等の遊戯をする場合、遊戯の主の動画画
面を三次元立体データより三次元演算処理して、より立
体感,現実感のある表示画像をプレイヤに提供するよう
にした電子遊戯機器が本出願人により提案されている
(特願平4−179040号公報)。かかる従来の電子
遊戯機器で、特に、移動遊戯を楽しむものの一つにドラ
イブゲームがあるが、このゲームではプレイヤが眺める
ことのできる視点位置が複数箇所切替えて選択できるよ
うになっており、プレイヤが選択した視点からの視点映
像がドライブコース環境画像や他車の画像と共に三次元
立体像として生成され、プレイヤは異なった視点からよ
り現実感のある遊戯画像を楽しむことができるようにな
っている。
2. Description of the Related Art Conventionally, when a player controls a moving body to play a game with another moving body, the main moving picture screen of the game is subjected to three-dimensional calculation processing from three-dimensional stereoscopic data to obtain a more stereoscopic effect. The applicant of the present invention has proposed an electronic game machine which provides a player with a realistic display image (Japanese Patent Application No. 4-179040). Among such conventional electronic play devices, one of those that particularly enjoy mobile play is a drive game. In this game, the viewpoint position that the player can view can be selected by switching a plurality of positions. The viewpoint video from the selected viewpoint is generated as a three-dimensional stereoscopic image together with the drive course environment image and the image of another vehicle, and the player can enjoy a more realistic game image from different viewpoints.

【0003】[0003]

【発明が解決しようとする課題】しかして、上述したよ
うな従来の電子遊戯機器においては、プレイヤが乗って
いる車(以下、自車と称す)を正常に運転している場合
には、上述の三次元立体動画像を楽しむことができる
が、操縦ミスでコースと衝突したり、他の移動体(以
下、他車と称す)に追突されて自車の運転が不可能とな
った場合(以下、この状態をクラッシュと称す)には、
プレイヤが選択した視点からのクラッシュ直後の三次元
静止立体画像が警報音と共に表示手段に所定の期間出力
され続けたので、プレイヤは自車の運転を諦め、警報音
が鳴り止む迄同一の静止した三次元立体画像を見つめる
しかなかった。従って、プレイヤは自分がクラッシュを
起したことは分かっても、クラッシュ直前迄選択してい
た視点位置によっては視界が狭くなり過ぎて、どの様な
クラッシュに出会ったのかよく理解できないという問題
点があった。また、クラッシュによるゲーム中断中は三
次元立体画像が変らず運転操作もできないので、ゲーム
の楽しさを著しく低減させるという問題点もあった。こ
の発明は上述のような事情から成されたものであり、こ
の発明の目的は、プレイヤがゲーム中にクラッシュを引
起した場合、予め設定されているクラッシュシナリオに
従ってゲーム中断中クラッシュ状況を表示画面に三次元
動画表示するようにした電子遊戯機器を提供することに
ある。
However, in the above-mentioned conventional electronic game machine, when the vehicle on which the player is riding (hereinafter referred to as the own vehicle) is normally driven, You can enjoy the 3D stereoscopic image of the vehicle, but if you cannot drive your own vehicle due to a collision with the course or a collision with another moving body (hereinafter referred to as another vehicle), ( Hereinafter, this state is called a crash),
Since the three-dimensional still stereoscopic image immediately after the crash from the viewpoint selected by the player continues to be output to the display means together with the alarm sound for a predetermined period, the player gives up the driving of the own vehicle and stays at the same stationary until the alarm sound stops. I had no choice but to look at the three-dimensional image. Therefore, even though the player knows that he / she has caused a crash, there is a problem in that the field of view becomes too narrow depending on the viewpoint position selected until immediately before the crash, and it is difficult to understand what kind of crash he / she encountered. It was In addition, since the three-dimensional stereoscopic image does not change and the driving operation is not possible during the game interruption due to the crash, there is a problem that the enjoyment of the game is significantly reduced. The present invention has been made under the circumstances as described above, and an object of the present invention is to display a crash status during a game interruption on a display screen according to a preset crash scenario when a player causes a crash during the game. An object is to provide an electronic game device capable of displaying a three-dimensional moving image.

【0004】[0004]

【課題を解決するための手段】上記の課題を解決するた
め、本発明の電子遊戯機器は、プレイヤの操作に応じて
移動するプレイヤ用移動体と、一つ又は複数のその他の
移動体と、前記移動体が移動する環境とを画像表示する
ための三次元立体データを記憶する第一データメモリ
と、前記プレイヤ用移動体が操作不能状態になったとき
に、前記プレイヤ用移動体の操作不能状態をその周囲の
環境とともに第三者からの視点で画像表示するための視
点移動情報を操作不能状態に対応して複数記憶する第二
データメモリと、遊戯中に前記プレイヤ用移動体が操作
不能状態になったか否かを判定する判定手段と、前記判
定手段によって、前記プレイヤ用移動体が操作不能状態
になったと判定されたときに、前記操作不能状態に対応
した視点移動情報を前記第二データメモリから選択する
選択手段と、前記選択手段によって選択された視点移動
情報に従って視点を移動させながら、前記第一データメ
モリに記憶された三次元立体データを読み取って、前記
プレイヤ用移動体及びその周囲の操作不能環境を三次元
的に所定の期間動画表示する画像表示手段を備える。
In order to solve the above-mentioned problems, an electronic play apparatus according to the present invention comprises a player moving body that moves in response to a player operation, and one or more other moving bodies. A first data memory that stores three-dimensional stereoscopic data for displaying an image of the environment in which the moving body moves, and inoperability of the player moving body when the player moving body becomes inoperable A second data memory that stores a plurality of viewpoint movement information corresponding to the inoperable state for displaying the state together with the surrounding environment from the viewpoint of a third party, and the player moving body is inoperable during play. Determining means for determining whether or not the state has been reached, and when the determining means determines that the player moving body is in an inoperable state, the viewpoint movement information corresponding to the inoperable state is displayed. The three-dimensional stereoscopic data stored in the first data memory is read while moving the viewpoint according to the selecting means for selecting from the second data memory and the viewpoint moving information selected by the selecting means, and the movement for the player is performed. An image display unit is provided for three-dimensionally displaying a moving image of the inoperable environment around the body and its surroundings for a predetermined period.

【0005】好ましくは、前記画像表示手段は、前記操
作不能状態直後の前記プレイヤ用移動体の位置を始点と
して、前記視点移動情報に従って前記視点を移動させ
る。
Preferably, the image display means moves the viewpoint according to the viewpoint movement information, starting from the position of the player moving body immediately after the inoperable state.

【0006】好ましくは、前記画像表示手段は、前記視
点移動情報に従って前記視点を移動させる際に、視点間
を線形補完して画像表示する。
Preferably, the image display means linearly complements the viewpoints to display an image when the viewpoints are moved in accordance with the viewpoint movement information.

【0007】好ましくは、前記選択手段は、前記プレイ
ヤ用移動体の環境状態、衝突対象物、衝突の相対速度、
衝突角度に応じて前記操作不能状態に対応する視点移動
情報を選択する。
Preferably, the selection means is an environmental condition of the player moving body, a collision target object, a relative speed of collision,
Viewpoint movement information corresponding to the inoperable state is selected according to the collision angle.

【0008】好ましくは、前記画像表示手段は、操作不
能状態表示の開始/終了視点と遊戯中断開始/終了視点
との間の視点移動を所定の期間で線形補間して三次元的
に動画像表示する。
Preferably, the image display means three-dimensionally displays a moving image by linearly interpolating the viewpoint movement between the start / end viewpoint of the inoperable state display and the game interruption start / end viewpoint in a predetermined period. To do.

【0009】[0009]

【発明の実施の形態】以下、図面に基づいてこの発明の
実施例を詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below in detail with reference to the drawings.

【0010】ドライブゲームを実施例として説明する
と、この発明においては、通常のゲーム中は従来と同じ
く自車の運転操作に応じて主の三次元立体動画像が生成
され、この動画画像に重ねてコースマップ及びレーダマ
ップがそれぞれ別の表示位置に固定して表示されるよう
になっている。従って、プレイヤがゲームを進めていく
と、三次元コース画像が変化し、コースマップを眺める
と競技コース全体の中でどの場所を自車が走行している
か分かると共に、レーダマップを眺めると自車周辺の前
後及び左右の空間に競争相手の他車が何台、どちらの方
向に走っているか死角なしに感知することができるよう
になっている。
Explaining the drive game as an embodiment, in the present invention, during the normal game, the main three-dimensional stereoscopic moving image is generated in accordance with the driving operation of the own vehicle as in the conventional case, and is superimposed on this moving image. The course map and the radar map are fixed and displayed at different display positions. Therefore, as the player progresses through the game, the three-dimensional course image changes, and when looking at the course map, it is possible to know where in the entire competition course the vehicle is traveling, and when looking at the radar map, the vehicle is traveling. It is possible to detect how many other competitors' vehicles are running in the surrounding front, rear, left and right spaces and in which direction without blind spots.

【0011】図1はこの発明の電子遊戯機器におけるハ
ードウェア構成の一実施例を示すブロック図である。同
図において、MPU102はゲームプログラムやデータ
が書込まれたROM106から遊戯プログラムを読出し
実行すると共に、その途中経過や得点等の各種データが
RAM106に読み書きされるようになっている。コプ
ロセッサ104はMPU102と同期して動作し、特に
数値計算の補助として働き、座標変換等の演算を高速に
行なう。押ボタン式レーダ探知範囲/視点等の切替手
段,アクセル及びハンドル等から成る操作部12は、入
力インタフェース110を入口としてデータ処理部10
0に接続されており、プレイヤの運転操作が操作部12
及び入力インタフェース110を介してMPU102に
入力されるようになっている。サウンド装置108は、
MPU102の指示に基づいて所定の効果音や警報音,
人工音声指令等を生成し、そこで生成されたオーディオ
信号は図示しないオーディオアンプで増幅され、データ
処理部100に接続されたスピーカ20を介してオーデ
ィオ出力されるようになっている。
FIG. 1 is a block diagram showing an embodiment of the hardware configuration of the electronic game machine of the present invention. In the figure, the MPU 102 reads out and executes the game program from the ROM 106 in which the game program and data are written, and at the same time, various data such as the progress and score are read from and written to the RAM 106. The coprocessor 104 operates in synchronism with the MPU 102, and particularly functions as an aid for numerical calculation, and performs calculations such as coordinate conversion at high speed. The operation unit 12 including a push button type radar detection range / viewpoint switching means, an accelerator, a handle, and the like, uses the input interface 110 as an entrance to the data processing unit 10.
0, and the driving operation of the player is performed by the operation unit 12
And input to the MPU 102 via the input interface 110. The sound device 108
Based on the instruction from the MPU 102, a predetermined sound effect or alarm sound,
An artificial voice command or the like is generated, and the audio signal generated there is amplified by an audio amplifier (not shown) and output as audio through the speaker 20 connected to the data processing unit 100.

【0012】しかして、データ処理部100に内蔵され
たメモリには、ドライブコース等の三次元遊戯環境を多
面体のカラー三次元立体として表現するための環境ポリ
ゴンデータメモリ120と、自車表示用三次元立体デー
タや自車の移動中の現在位置,進行方向,速度等を記憶
するプレイヤ用データメモリ122と、通常複数台の他
車表示用三次元立体データやこれら他車の現在位置,速
度等を記憶する他車用データメモリ124とが、RAM
/ROM106とは別に設けられている。
In the memory built in the data processing unit 100, therefore, an environment polygon data memory 120 for expressing a three-dimensional play environment such as a drive course as a color three-dimensional solid of a polyhedron, and a cubic for displaying the own vehicle. A player data memory 122 that stores the original stereoscopic data and the current position, traveling direction, speed, etc. of the vehicle while moving, and usually three-dimensional stereoscopic data for displaying a plurality of other vehicles and the current position, speed, etc. of these other vehicles. Other vehicle data memory 124 for storing
/ ROM 106 is provided separately.

【0013】更に、切替手段12により選択された視点
位置を特定する視点位置データメモリ130と、同じく
切替手段12により切替選択されるレーダ探知範囲を特
定するためのレーダ探知範囲データメモリ130もデー
タ処理部100に内蔵されており、切替手段12により
視点/レーダ探知範囲等が切替えられたり、クラッシュ
を起した場合、これらの切替位置への視点移行がスムー
ズに表示画面に表現されるように、視点移動用データメ
モリ130及びクラッシュシナリオデータメモリ162
の出力は補間移動部132を介して動画生成用パラメー
タメモリ140,レーダマップ用パラメータメモリ14
4,コースマップ用パラメータメモリ142及びクラッ
シュ表示用パラメータメモリ164へ書込まれるように
なっている。
Further, the viewpoint position data memory 130 for specifying the viewpoint position selected by the switching means 12 and the radar detection range data memory 130 for specifying the radar detection range which is also switched and selected by the switching means 12 also perform data processing. When the viewpoint / radar detection range or the like is switched by the switching unit 12 or a crash occurs, it is incorporated in the unit 100, so that the viewpoint shift to these switching positions is smoothly expressed on the display screen. Data memory for movement 130 and crash scenario data memory 162
Of the moving image generation parameter memory 140 and the radar map parameter memory 14 via the interpolation moving unit 132.
4, it is written in the course map parameter memory 142 and the crash display parameter memory 164.

【0014】一方、環境ポリゴンデータメモリ120、
自車用データメモリ122及び他車用データメモリ12
4の内容がクラッシュ判定回路160に入力され、自車
がクラッシュを引き起こしたと判定されると、クラッシ
ュの種類及び程度に応じてクラッシュシナリオデータメ
モリ162に格納されているクラッシュシナリオが選択
され、カメラ位置のシナリオ軌跡が補間移動部132に
出力されるようになっている。また、三次元立体データ
がデータメモリ120,122及び124から適宜抽出
されて、動画生成用パラメータメモリ140及びクラッ
シュ表示用パラメータメモリ164に書込まれると共
に、自車及び他車の現在位置データ及び進行方向データ
等がデータメモリ122及び124から抽出されて、レ
ーダマップ用パラメータメモリ144及びクラッシュ表
示用パラメータメモリ164に書込まれ、更に、コース
地図データや自車の現在位置データ等がコースマップ用
パラメータメモリ142にMPU102により書込まれ
るようになっている。
On the other hand, the environment polygon data memory 120,
Data memory 122 for own vehicle and data memory 12 for other vehicle
When the content of 4 is input to the crash determination circuit 160 and it is determined that the vehicle has crashed, the crash scenario stored in the crash scenario data memory 162 is selected according to the type and degree of the crash, and the camera position is selected. The scenario locus is output to the interpolation moving unit 132. Also, the three-dimensional stereoscopic data is appropriately extracted from the data memories 120, 122 and 124 and written in the moving image generation parameter memory 140 and the crash display parameter memory 164, and the current position data and the progress of the own vehicle and other vehicles are also written. Direction data and the like are extracted from the data memories 122 and 124 and written in the radar map parameter memory 144 and the crash display parameter memory 164. Further, the course map data, the current position data of the own vehicle, etc. are set as the course map parameters. It is adapted to be written in the memory 142 by the MPU 102.

【0015】かくして、視点位置データ,三次元環境ポ
リゴンデータ,移動体の現在位置データ及びレーダ探知
範囲データ等がパラメータメモリ140,142,14
4及び164に格納されると、座標変換装置150によ
り三次元ポリゴンデータ等が表示座標系に射影されると
共に、各ポリゴンの深さデータが求められ、深さデータ
でソートされた表示用二次元ポリゴンデータがポリゴン
ペイント装置152に出力される。更に、ポリゴンペイ
ント装置152では二次元ポリゴン内の色塗り処理等が
行なわれて、その結果がフレームメモリ154に書込ま
れ、フレームメモリ154の内容はテレビレートで順次
読出され、図示しないDA変換手段等によりビデオ信号
に変換されて表示手段であるモニタTV30に表示され
るようになっている。
Thus, the viewpoint position data, the three-dimensional environment polygon data, the current position data of the moving body, the radar detection range data and the like are stored in the parameter memories 140, 142 and 14.
4 and 164, the coordinate transformation device 150 projects the three-dimensional polygon data and the like onto the display coordinate system, the depth data of each polygon is obtained, and the two-dimensional display data is sorted by the depth data. The polygon data is output to the polygon paint device 152. Further, in the polygon paint device 152, a color painting process or the like in the two-dimensional polygon is performed, the result is written in the frame memory 154, the contents of the frame memory 154 are sequentially read at the television rate, and DA conversion means (not shown) is provided. The video signal is converted into a video signal and displayed on the monitor TV 30, which is a display means.

【0016】次に、切替手段12による視点切替/設定
操作及びレーダ探知範囲切替/設定操作について説明す
る。先ず、押ボタンスイッチ等の切替手段12を利用し
た視点切替操作では、プレイヤの意思に基づいて表示画
像の視点が変更され、切替手段12はゲームスタートス
イッチに並列させて設けたり、ゲームスタートスイッチ
と兼用させたり、又はハンドルに備えるようにしてもよ
い。しかして、切替変更できる視点位置は図6に示すよ
うに自車の操縦席を基点として予め複数箇所選択して設
定しておく。同図は一例として視点を4点設定した例を
示しており、視点は"自車のやや後方"、視点は"プ
レイヤの視点"、視点は"自車の後ろ低空"、視点は"
自車の後ろ高空"である。視点位置データメモリ130
には、自車の操縦席を原点としたこれら各視点迄の具体
的な三次元座標が相対位置ベクトル値として書込まれ
る。そして、切替手段12として押ボタンスイッチを視
点の数だけ並列に設けて、各スイッチをそれぞれ視点
〜に対応させても良いし、切替スイッチを1ケ設け、
このスイッチを押すごとに視点がシーケンシャルに切替
わっていく(例えば視点→視点→視点→視点→
視点)ようにしても良い。
Next, the viewpoint switching / setting operation and the radar detection range switching / setting operation by the switching means 12 will be described. First, in the viewpoint switching operation using the switching means 12 such as a push button switch, the viewpoint of the display image is changed based on the intention of the player, and the switching means 12 is provided in parallel with the game start switch, or as a game start switch. You may make it serve also and it may be made to equip with a handle. Therefore, as shown in FIG. 6, a plurality of viewpoint positions that can be switched and changed are set in advance by selecting a plurality of positions from the cockpit of the own vehicle as a base point. This figure shows an example in which four viewpoints are set. The viewpoint is "slightly behind the vehicle", the viewpoint is "player's viewpoint", the viewpoint is "low behind the vehicle", and the viewpoint is "
It is "high behind the vehicle". Viewpoint position data memory 130
In the table, concrete three-dimensional coordinates from the driver's seat of the own vehicle to each of these viewpoints are written as relative position vector values. As the changeover means 12, pushbutton switches may be provided in parallel by the number of viewpoints, and each switch may correspond to the viewpoints 1 to, or one changeover switch may be provided.
Each time you press this switch, the viewpoint changes sequentially (for example, viewpoint → viewpoint → viewpoint → viewpoint →
Point of view).

【0017】一方、押ボタンスイッチ等の切替手段12
を利用したレーダ探知範囲切替操作では、プレイヤの意
思に基づいてレーダ探知範囲が変更され、この切替手段
12はゲームスタートスイッチに並列させて設けたり、
ゲームスタートスイッチ又は視点切替スイッチと兼用さ
せたり、又はハンドルに備えるようにしても良い。そし
て、切替変更できるレーダ探知範囲は図7に示すように
自車の操縦席を基点として予め複数範囲を選択して設定
しておく。同図は一例としてレーダ探知範囲を4区画設
定した例を示しており、区画からに向けて順次探知
範囲が空間的に拡大するように設定した例である。レー
ダ探知範囲データメモリ130には、自車の操縦席を原
点としてこれら各探知区画迄の具体的な三次元座標が相
対位置ベクトル値として書込まれる。そして、切替手段
12として押ボタンスイッチをレーダ探知範囲の数だけ
並列に設けて、各スイッチをそれぞれ視点〜に対応
させても良いし、切替スイッチを1ケ設け、このスイッ
チを押すごとに探知範囲がシーケンシャルに切替わって
いく(例えば区画→区画→区画→区画→区画
)ようにしても良い。
On the other hand, switching means 12 such as a push button switch
In the radar detection range switching operation using, the radar detection range is changed based on the player's intention, and the switching means 12 is provided in parallel with the game start switch.
It may be used also as a game start switch or a viewpoint changeover switch, or may be provided on a steering wheel. Then, as shown in FIG. 7, the radar detection range that can be switched and changed is set by selecting a plurality of ranges in advance with the cockpit of the own vehicle as a base point. The figure shows an example in which the radar detection range is set as four sections, and the radar detection range is set so as to sequentially expand spatially from the section. In the radar detection range data memory 130, specific three-dimensional coordinates up to each detection section with the cockpit of the own vehicle as the origin are written as relative position vector values. As the switching means 12, pushbutton switches may be provided in parallel as many as the radar detection range, and each switch may correspond to each of the viewpoints to, or one changeover switch may be provided and the detection range may be provided each time the switch is pressed. May be switched sequentially (for example, partition → partition → partition → partition → partition).

【0018】このような構成において、その動作を図面
を参照して説明する。先ず、クラッシュシナリオデータ
メモリ162に予め格納しておくクラッシュシナリオ登
録方法を説明する。通常、クラッシュはクラッシュした
対象物、クラッシュ時の速度差,衝突角度等に応じて分
類される。すなわち、速度差の大きいクラッシュでは操
作不能時間が長いので、クラッシュシナリオの表示時間
が長く設定され、様々なカメラ位置(又は視点)からク
ラッシュ状況を写し出すようにシナリオ設定する。一
方、速度差の小さいクラッシュでは操作不能時間が短い
ので、クラッシュシナリオの表示時間も短く設定され、
クラッシュのポイントを重点的に写し出すようにシナリ
オ設定する。
The operation of such a structure will be described with reference to the drawings. First, a crash scenario registration method that is stored in advance in the crash scenario data memory 162 will be described. Usually, the crash is classified according to the crashed object, the speed difference at the time of the crash, the collision angle, and the like. That is, since the inoperable time is long in a crash with a large speed difference, the display time of the crash scenario is set to be long, and the scenario is set to project the crash situation from various camera positions (or viewpoints). On the other hand, in a crash with a small speed difference, the inoperable time is short, so the display time of the crash scenario is also set short,
Set the scenario so that the points of the crash are emphasized.

【0019】具体的には、図4に示すようなクラッシュ
シナリオデータメモリ162に、シナリオ番号iのシナ
リオを登録する場合、カメラ総視点数をkとすると以下
の如くである。先ず、図3(A)及び(B)に示すよう
に、クラッシュした自車の上空を360°ぐるっと回る
軌跡を考えると、総視点数k=4+1となり、カメラ位
置の(x,y,z)座標(xi1,yi1,zi1)
が、i行カメラ位置1列のデータセルに登録されると共
に、カメラ位置迄の移動時間ti1も同一データセル
内に登録される。更に、カメラ位置の移動と同時に、ク
ラッシュした自車の回転角θsi1や他車の回転角θo
i1等も同時に登録しておくと、クラッシュ状況の表示
内容をよりダイナミックに表現することができる。
Specifically, when the scenario of the scenario number i is registered in the crash scenario data memory 162 as shown in FIG. 4, the total number of camera viewpoints is k as follows. First, as shown in FIGS. 3 (A) and 3 (B), when considering a trajectory that makes a 360 degree turn around the crashed vehicle, the total number of viewpoints is k = 4 + 1, and the camera position is (x, y, z). Coordinates (xi1, yi1, zi1)
Is registered in the data cell in the i-th row and the camera position in the first column, and the moving time ti1 to the camera position is also registered in the same data cell. Furthermore, at the same time as the movement of the camera position, the rotation angle θsi1 of the own vehicle and the rotation angle θo of the other vehicle that crashed
If i1 and the like are also registered at the same time, the display contents of the crash situation can be expressed more dynamically.

【0020】次にj=2,3,4の各カメラ位置に対し
ては、それぞれカメラ座標(xij,yij,zi
j),移動時間tij及び自車の回転角θsij等を登
録するようにする。最後にj=4+1のカメラ位置は3
60°回ったカメラ位置で、上述のカメラ座標(xi
1,yi1,zi1)を登録すると共に、移動時間ti
5はこの位置迄の移動時間を設定するようにする。
Next, for each of the camera positions of j = 2, 3, and 4, the camera coordinates (xij, yij, zi) are set.
j), the traveling time tij, the rotation angle θsij of the own vehicle, etc. are registered. Finally, the camera position for j = 4 + 1 is 3
At the camera position rotated by 60 °, the above-mentioned camera coordinates (xi
1, yi1, zi1) is registered and the travel time ti is
5 sets the moving time to this position.

【0021】かくして、自車の上空を360°ぐるっと
回る軌跡のクラッシュシナリオは設定できたが、この他
クラッシュシナリオの軌跡としては、地上でクラッシュ
した自車の周囲を歩いて回る軌跡や、遠くの上空からク
ラッシュした自車に漸次接近していく軌跡等がある。
又、クラッシュした自車の回転運動としては回転方向が
前後方向への回転、左右のドア方向への回転、スピンし
ながら水平方向への回転等の種々のシナリオが考えら
れ、これらのシナリオを適宜組合せてデータメモリ16
2にクラッシュ速度差及び対象物別に登録するようにす
る。
Thus, although the crash scenario of the locus of 360 degrees around the own vehicle could be set, other loci of the crash scenario include a locus of walking around the own vehicle that crashed on the ground, and a distant place. There is a track that gradually approaches the vehicle that crashed from the sky.
In addition, as the rotational movement of the crashed vehicle, various scenarios such as rotation in the front-rear direction, rotation in the left and right door directions, and rotation in the horizontal direction while spinning can be considered. Combined data memory 16
The crash speed difference and the object should be registered in 2.

【0022】上述したクラッシュシナリオの登録が完了
している状態で、プレイヤによりアクセルが踏まれ、ド
ライブゲームが開始されると、先ず、所定の周期(例え
ば1/60秒単位)毎にアクセル及びハンドルの方向が
操作部12及び入力インタフェース110を介してMP
U102によりチェックされ、自車のコース移動中の現
在位置及び進行方向データが変更されてプレイヤ用デー
タメモリ122の内容が更新される。一方、このドライ
ブゲームに参加している複数の他車の現在位置及び進行
方向データもこのタイミングでそれぞれ変更され他車用
データメモリ124の内容が更新される。
When the player steps on the accelerator and the drive game is started in a state where the registration of the above-mentioned crash scenario is completed, first, the accelerator and the steering wheel are set at predetermined intervals (for example, in units of 1/60 seconds). Direction is MP via the operation unit 12 and the input interface 110.
It is checked by U102, the current position and the traveling direction data of the vehicle being moved on the course are changed, and the content of the player data memory 122 is updated. On the other hand, the current position and traveling direction data of a plurality of other vehicles participating in this drive game are also changed at this timing, and the contents of the other vehicle data memory 124 are updated.

【0023】次に、上述の更新された現在位置及び進行
方向データに基づいてクラッシュ判定回路160により
クラッシュが発生したか否かが判定される。先ず、自車
と全ての他車との間でクラッシュが発生したかそれぞれ
の現在位置データに基づいてチェックされ、クラッシュ
が発生した場合には速度差に応じて数1によりクラッシ
ュシナリオiが選択される。
Next, the crash determination circuit 160 determines whether or not a crash has occurred based on the updated current position and traveling direction data. First, it is checked whether or not a crash has occurred between the own vehicle and all other vehicles based on the current position data of each, and if a crash has occurred, the crash scenario i is selected by Equation 1 according to the speed difference. It

【0024】[0024]

【数1】if(|Psel−Pothj|<Thp)t
hen select cinario(i) acco
rding to(Thli<|Vsel−Vothj
|<Thhi) 但し、Psel:自車の現在位置 Pothj:他車jの現在位置 Thp:クラッシュ判定用車間距離 Vsel:自車の現在速度 Vothj:他車jの現在速度 Thli,Thhi:シナリオiを選択するための速度
差レベル判定値 一方、自車がコース壁等の環境ポリゴンと衝突してクラ
ッシュしたか判定する場合には、環境ポリゴンと自車と
の距離がチェックされ、クラッシュ発生の場合には、数
2に示すように衝突角度及びその時の自車速度に応じて
クラッシュシナリオiが選択される。
## EQU1 ## if (| Psel-Pothj | <Thp) t
hen select cinario (i) acco
rding to (Thli <| Vsel-Vothj
| <Thhi) where Psel: current position of own vehicle Pothj: current position of other vehicle j Thp: inter-crash distance Vsel: current speed of own vehicle Vothj: current speed of other vehicle j Thli, Thhi: scenario i On the other hand, the speed difference level judgment value to select On the other hand, when judging whether the own vehicle has collided with an environment polygon such as a course wall and crashed, the distance between the environment polygon and the own vehicle is checked, and if a crash occurs, As shown in Equation 2, the crash scenario i is selected according to the collision angle and the vehicle speed at that time.

【0025】[0025]

【数2】if(|Psel−Ppolj|<Thg)t
hen select cinario(i) acco
rding to((Thli<Vsel<Thhi)
and(Thθli<|θsel−θpolj|<Th
θhi)) 但し、Psel:自車の現在位置 Ppolj:環境ポリゴンjの三次元位置 Thg:クラッシュ判定用距離 Vsel:自車の現在速度 Thli,Thhi:シナリオiを選択するための速度
レベル判定値 θsel:自車の進行方向 θpolj:環境ポリゴンjの法線方向 Thθli,Thθhi:シナリオiを選択するための
衝突角度レベル判定値 しかして、クラッシュが発生しない通常の動作を最初に
説明し、次にクラッシュが発生した場合のクラッシュシ
ナリオ実行動作を以下に説明する。クラッシュがない通
常の動作ではこの後、切替手段12の出力がMPU10
2に入力され、視点位置及びレーダ探知範囲の切替操作
が行なわれたか否かチェックされる。どちらの切替操作
も行なわれていなければ、前回の視点位置及びレーダ探
知区画が選択され、視点位置データがデータメモリ13
0から読出されて動画生成用パラメータメモリ140に
書込まれると共に、レーダ探知区画データがデータメモ
リ130から読出されてレーダマップ用パラメータメモ
リ144に書込まれる。次に、MPU102により三次
元動画生成処理,コースマップ生成処理及びレーダマッ
プ生成処理が行なわれて、合成画像がフレームメモリ1
54から読出され、モニタTV30に表示される。以
下、三次元動画生成処理,コースマップ生成処理及びレ
ーダマップ生成処理の概略を説明すると、先ず三次元動
画生成処理では、データメモリ120乃至124に格納
されている動画表示用三次元ポリゴンデータのチェック
が行なわれ、現時点で自車を基準とした視点位置から眺
めることの可能な三次元ポリゴンが全て抽出され、動画
生成用パラメータメモリ140に書込まれる。その後、
これらの三次元ポリゴンと視点位置との間の距離(又は
深さデータ)がMPU102により計算され、各視界方
向に対してそれぞれ現在の視点に最も近いポリゴンだけ
が残るように、深さデータに基づいて上述の三次元ポリ
ゴンがソートされ、動画生成用パラメータメモリ140
に再記憶される。
## EQU00002 ## if (| Psel-Ppolj | <Thg) t
hen select cinario (i) acco
rding to ((Thli <Vsel <Thhi)
and (Thθli <| θsel-θpolj | <Th
θhi)) where Psel: current position of the vehicle Ppolj: three-dimensional position of environment polygon j Thg: distance for crash determination Vsel: current velocity of the vehicle Thli, Thhi: speed level determination value θsel for selecting the scenario i : Traveling direction of own vehicle θpolj: normal direction Thθli, Thθhi of environment polygon j: collision angle level judgment value for selecting scenario i However, normal operation that does not cause a crash is explained first, then crash The crash scenario execution operation in the case of occurrence will be described below. In a normal operation without a crash, thereafter, the output of the switching means 12 is MPU10.
2 is input, and it is checked whether or not the switching operation of the viewpoint position and the radar detection range is performed. If neither switching operation is performed, the previous viewpoint position and radar detection section are selected, and the viewpoint position data is stored in the data memory 13
The data is read from 0 and written in the moving image generation parameter memory 140, and the radar detection section data is read from the data memory 130 and written in the radar map parameter memory 144. Next, the MPU 102 performs a three-dimensional moving image generation process, a course map generation process, and a radar map generation process, and the combined image is a frame memory 1
It is read from 54 and displayed on the monitor TV 30. The outline of the three-dimensional moving image generation processing, the course map generation processing, and the radar map generation processing will be described below. First, in the three-dimensional moving image generation processing, checking of the three-dimensional polygon data for moving picture display stored in the data memories 120 to 124 is performed. Is performed, all three-dimensional polygons that can be viewed from the viewpoint position with respect to the own vehicle at present are extracted and written in the moving image generation parameter memory 140. afterwards,
The distance (or depth data) between these three-dimensional polygons and the viewpoint position is calculated by the MPU 102, and based on the depth data, only the polygon closest to the current viewpoint remains for each view direction. The above-mentioned three-dimensional polygons are sorted, and the moving image generation parameter memory 140
Will be remembered again.

【0026】しかる後、座標変換装置150により視点
位置ベクトルと上述のソートされた三次元ポリゴンデー
タとがパラメータメモリ140から読出されて動画生成
演算が行なわれ、生成された表示用二次元ポリゴンデー
タがポリゴンペイント装置152に伝送される。次に、
ポリゴンペイント装置152では二次元ポリゴンデータ
を受取ると、その内部を指定された色相、彩度、明度等
のカラー情報で塗りつぶし、カラー着色した二次元ポリ
ゴンをフレームメモリ154に書込む。かくして、現在
の視点位置における環境及び移動体の動画像生成処理が
終了する。
Thereafter, the coordinate transformation device 150 reads the viewpoint position vector and the above-mentioned sorted three-dimensional polygon data from the parameter memory 140 and performs a moving image generation operation to generate the generated two-dimensional polygon data for display. It is transmitted to the polygon paint device 152. next,
When the polygon paint device 152 receives the two-dimensional polygon data, the interior of the polygon paint device 152 is filled with color information such as specified hue, saturation, and lightness, and the color-colored two-dimensional polygon is written in the frame memory 154. In this way, the moving image generation processing of the environment and the moving body at the current viewpoint position is completed.

【0027】一方、コースマップ生成処理では、環境ポ
リゴンデータメモリ120から二次元コース地図データ
が抽出されパラメータメモリ142に書込まれると共
に、プレイヤ用データメモリ122から自車の現在位置
データ及びコースマップ用シンボルデータが取出されて
パラメータメモリ142に書込まれる。その後座標変換
装置150により上述の二次元コース地図データ及び自
車位置が表示画面の所定の位置へ変換され、ポリゴンペ
イント装置152により着色処理されてフレームメモリ
154に書込まれる。更に、レーダマップ生成処理では
レーダ探知区画がパラメータメモリ144から読出さ
れ、自車を基準としたレーダ探知区画が設定された後、
他車用データメモリ124から順次他車の現在位置が読
出され、この位置が上述のレーダ探知区画内に入ってい
れば、順次その位置及び進行方向が座標変換装置150
により座標変換されて、ポリゴンペイント装置152に
より着色処理され、フレームメモリ154に書込まれる
ようになっている。かくして、上述の動画生成処理,コ
ースマップ生成処理及びレーダマップ生成処理が終了す
ると、以後、所定の時間(例えば1/60秒)毎にこれ
らの処理が現在位置の最新処理から再び繰り返される。
On the other hand, in the course map generation process, the two-dimensional course map data is extracted from the environment polygon data memory 120 and written in the parameter memory 142, and the current position data of the own vehicle and the course map data are stored in the player data memory 122. The symbol data is taken out and written in the parameter memory 142. After that, the coordinate transformation device 150 transforms the above-mentioned two-dimensional course map data and the position of the own vehicle into a predetermined position on the display screen, and the polygon painting device 152 performs coloring processing and writes them in the frame memory 154. Further, in the radar map generation process, after the radar detection section is read from the parameter memory 144 and the radar detection section based on the own vehicle is set,
If the current position of the other vehicle is sequentially read from the other vehicle data memory 124 and this position is within the radar detection section, the position and the traveling direction are sequentially determined by the coordinate conversion device 150.
Then, the coordinates are converted by the polygon paint device 152, and the polygon paint device 152 color-processes them and writes them in the frame memory 154. Thus, when the moving image generation processing, the course map generation processing, and the radar map generation processing described above are completed, thereafter, these processings are repeated again from the latest processing of the current position every predetermined time (for example, 1/60 seconds).

【0028】しかして、クラッシュ判定回路160によ
りクラッシュの発生が検出された場合には、上述の数1
又は数2に応じてクラッシュシナリオiが選択され、以
下の如くクラッシュシナリオiがMPU102により実
行される。すなわち、図5(A)に示すようなゲーム実
行中、同図(B)に示す時点でコース壁等にぶつかりク
ラッシュが発生し、例えば数2の条件が成立してクラッ
シュ判定回路160によりクラッシュシナリオiが選択
されたとする(ステップS2)。すると、図4に示すよ
うなクラッシュシナリオデータメモリ162からシナリ
オ番号iのシナリオデータが順次読出され、先ず、カメ
ラ位置1のカメラ軌跡データ(xi1,yi1,zi
1)及び初期表示時間ti1,自車の回転角θi1等が
補間移動部132に書込まれる(ステップS4)。次
に、補間移動部132では指定されたti1の期間を例
えば1/60秒単位で線形補間して、クラッシュ直後の
視点からシナリオiの最初のカメラ位置迄、漸次視点
移動させながら三次元動画表示を行なう(ステップS
6)。この動画生成処理は、上述のクラッシュがない場
合の動画生成処理と基本的には同一であるが、三次元ポ
リゴンデータは、環境ポリゴンデータメモリ120及び
他車用データメモリ124からのみ抽出され、移動する
視点から見えるポリゴンだけがクラッシュ表示用パラメ
ータメモリ164に書込まれるようになっている。ま
た、自車の三次元データはクラッシュして動かないの
で、自車回転角θsel1に従って回転され、三次元表
示される。しかして、クラッシュ表示用パラメータメモ
リ164に可視可能な三次元ポリゴンデータが書込まれ
ると、座標変換装置150により二次元ポリゴンデータ
に変換され、ポリゴンペイント装置152により着色処
理されて、フレームメモリ154に書込まれる(図5
(B))と共に、サウンド装置108を介してスピーカ
20から警報音が出力される。
However, when the occurrence of a crash is detected by the crash determination circuit 160, the above-mentioned equation 1
Alternatively, the crash scenario i is selected according to the equation 2, and the crash scenario i is executed by the MPU 102 as follows. That is, during the game execution as shown in FIG. 5A, a crash occurs by hitting the course wall or the like at the time shown in FIG. 5B, and the crash determination circuit 160 causes the crash scenario to occur, for example. It is assumed that i is selected (step S2). Then, the scenario data of the scenario number i is sequentially read from the crash scenario data memory 162 as shown in FIG. 4, and first, the camera locus data (xi1, yi1, zi) of the camera position 1 is read.
1) and the initial display time ti1, the rotation angle θi1 of the own vehicle, etc. are written in the interpolation moving unit 132 (step S4). Next, the interpolation moving unit 132 linearly interpolates the specified period of ti1 in units of 1/60 seconds, for example, and gradually moves the viewpoint from the viewpoint immediately after the crash to the first camera position of the scenario i while displaying the three-dimensional moving image. (Step S
6). This moving image generation processing is basically the same as the above-described moving image generation processing when there is no crash, but the three-dimensional polygon data is extracted only from the environment polygon data memory 120 and the other vehicle data memory 124 and moved. Only the polygons visible from the viewpoint to be written are written in the crash display parameter memory 164. Also, since the three-dimensional data of the own vehicle crashes and does not move, the three-dimensional data is rotated according to the own vehicle rotation angle θsel1 and displayed three-dimensionally. Then, when the visible three-dimensional polygon data is written in the crash display parameter memory 164, it is converted into two-dimensional polygon data by the coordinate conversion device 150, colored by the polygon paint device 152, and processed in the frame memory 154. Written (Fig. 5
Along with (B)), an alarm sound is output from the speaker 20 via the sound device 108.

【0029】かくして、カメラ位置1まで期間ti1の
補間表示が終了すると、次に、シナリオiのカメラ位置
2までの期間ti2の線形補間表示が開始される(ステ
ップS8)。この処理も上述と同様にしてMPU102
によりカメラ位置2のカメラ軌跡データ(xi2,yi
2,zi2),カメラ移動時間ti2,自車の回転角θ
seli2等が補間移動部132に書込まれると、カメ
ラ位置1からカメラ位置2へti2秒で移動するように
補間データがクラッシュ表示用パラメータメモリ164
へ順次書込まれ、クラッシュした自車の周囲の三次元環
境が動画表示されると共に、自車も回転角θseli2
に応答して回転変換表示される(図5(C))。以下、
同様にして、順次カメラ位置が移動され(ステップS1
0,S12)、図5(D)乃至(F)の表示後、選択し
た最後のカメラ位置での表示を終了すると、この最後の
カメラ位置からクラッシュ直後の視点へ再び線形補間し
ながら視点移動させてゆき、ゲームが再開できる状態ま
で0.2秒〜数秒間補間表示する(ステップS14)。
かくして、クラッシュシナリオiの表示動作は終了す
る。尚、上述の説明ではクラッシュシナリオへ表示画面
が切り替わる前後でステップS6及びS14において共
に補間表示するようにしたが、これらの補間表示はそれ
ぞれ省略することも可能である。又、レーダマップ,コ
ースマップをそれぞれクラッシュ画面に重ねて表示する
ことも可能である。
Thus, when the interpolation display for the period ti1 up to the camera position 1 is completed, next, the linear interpolation display for the period ti2 up to the camera position 2 of the scenario i is started (step S8). This processing is also similar to the above-mentioned MPU102.
Camera locus data of camera position 2 (xi2, yi
2, zi2), camera movement time ti2, rotation angle θ of the vehicle
When seri2 or the like is written in the interpolation moving unit 132, interpolation data is moved from the camera position 1 to the camera position 2 in ti2 seconds so that the crash display parameter memory 164 is displayed.
The three-dimensional environment around the crashed car is displayed as a movie and the car's rotation angle θseli2
In response to, the rotation conversion display is performed (FIG. 5 (C)). Less than,
Similarly, the camera position is sequentially moved (step S1).
0, S12), and when the display at the last selected camera position is completed after the display of FIGS. 5D to 5F, the viewpoint is moved again from this last camera position to the viewpoint immediately after the crash while performing linear interpolation. Then, the display is interpolated for 0.2 seconds to several seconds until the game can be restarted (step S14).
Thus, the display operation of the crash scenario i ends. In the above description, the interpolation display is performed both in steps S6 and S14 before and after the display screen is switched to the crash scenario, but the interpolation display can be omitted. Further, it is possible to display the radar map and the course map on the crash screen respectively.

【0030】[0030]

【発明の効果】以上のようにこの発明の電子遊戯機器に
よれば、プレイヤがクラッシュを引き起こして操縦不能
の期間であってもクラッシュシナリオに従ってその場面
が三次元動画表示されるので、プレイヤはどの様な場所
で何が原因となってクラッシュを引き起したか良く理解
できると共に、操縦不能でもゲームの流れを楽しむこと
ができる。
As described above, according to the electronic play apparatus of the present invention, even if the player causes a crash and cannot control, the scene is displayed in a three-dimensional moving image according to the crash scenario. You can understand well what caused the crash in such places, and you can enjoy the flow of the game even if you are out of control.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明の電子遊戯機器のハードウェア構成の
一例を示すブロック図である。
FIG. 1 is a block diagram showing an example of a hardware configuration of an electronic game device of the present invention.

【図2】この動作を説明するためのフローチャートであ
る。
FIG. 2 is a flow chart for explaining this operation.

【図3】この発明のクラッシュシナリオ軌跡の一例を示
す図である。
FIG. 3 is a diagram showing an example of a crash scenario trajectory of the present invention.

【図4】この発明のクラッシュシナリオデータメモリの
一例を示す図である。
FIG. 4 is a diagram showing an example of a crash scenario data memory of the present invention.

【図5】この発明のクラッシュシナリオ表示画面の一例
を示す図である。
FIG. 5 is a diagram showing an example of a crash scenario display screen of the present invention.

【図6】この発明で使用する視点位置設定箇所の一例を
説明するための図である。
FIG. 6 is a diagram for explaining an example of a viewpoint position setting location used in the present invention.

【図7】この発明で使用するレーダ探知範囲の一例を示
す図である。
FIG. 7 is a diagram showing an example of a radar detection range used in the present invention.

【符号の説明】[Explanation of symbols]

12 操作部 20 スピーカ 30 モニタTV 100 データ処理部 102 MPU 106 ROM/RAM 110 入出力インタフェース 120,122,124 データメモリ 130 レーダ探知範囲/視点位置データメモリ 140、42,144 パラメータメモリ 150 座標変換装置 152 ポリゴンペイント装置 154 フレームメモリ 160 クラッシュ判定回路 162 クラッシュシナリオデータメモリ 164 クラッシュ表示用パラメータメモリ 12 Operation part 20 speakers 30 monitor TV 100 Data processing unit 102 MPU 106 ROM / RAM 110 I / O interface 120,122,124 data memory 130 Radar detection range / viewpoint position data memory 140, 42, 144 Parameter memory 150 coordinate converter 152 Polygon paint device 154 frame memory 160 Crash judgment circuit 162 Crash scenario data memory 164 Crash display parameter memory

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成15年6月25日(2003.6.2
5)
[Submission date] June 25, 2003 (2003.6.2
5)

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】特許請求の範囲[Name of item to be amended] Claims

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【特許請求の範囲】[Claims]

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C001 AA09 BA02 BA05 BB07 BB08 BC01 BC03 BC07 CB01 CC02 CC08    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 2C001 AA09 BA02 BA05 BB07 BB08                       BC01 BC03 BC07 CB01 CC02                       CC08

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 プレイヤの操作に応じて移動するプレイ
ヤ用移動体と、一つ又は複数のその他の移動体と、前記
移動体が移動する環境とを画像表示するための三次元立
体データを記憶する第一データメモリと、 前記プレイヤ用移動体が操作不能状態になったときに、
前記プレイヤ用移動体の操作不能状態をその周囲の環境
とともに第三者からの視点で画像表示するための視点移
動情報を操作不能状態に対応して複数記憶する第二デー
タメモリと、 遊戯中に前記プレイヤ用移動体が操作不能状態になった
か否かを判定する判定手段と、 前記判定手段によって、前記プレイヤ用移動体が操作不
能状態になったと判定されたときに、前記操作不能状態
に対応した視点移動情報を前記第二データメモリから選
択する選択手段と、 前記選択手段によって選択された視点移動情報に従って
自動的に視点を移動させながら、前記第一データメモリ
に記憶された三次元立体データを読み取って、前記プレ
イヤ用移動体及びその周囲の操作不能環境を三次元的に
所定の期間動画表示する画像表示手段を備える、電子遊
戯機器。
1. Three-dimensional stereoscopic data for displaying an image of a player moving body that moves according to a player's operation, one or a plurality of other moving bodies, and an environment in which the moving body moves. And a first data memory, and when the player moving body becomes inoperable,
A second data memory that stores a plurality of viewpoint movement information corresponding to the inoperable state for displaying the inoperable state of the player moving body together with the surrounding environment from the viewpoint of a third party. Determining means for determining whether or not the player moving body is in an inoperable state, and responding to the inoperable state when the determining means determines that the player moving body is in an inoperable state Selecting means for selecting the viewpoint movement information from the second data memory, and three-dimensional stereoscopic data stored in the first data memory while automatically moving the viewpoint according to the viewpoint movement information selected by the selecting means. And an image display means for three-dimensionally displaying a moving image of the moving body for the player and the inoperable environment around the moving body for a predetermined period of time.
【請求項2】 請求項1に記載の電子遊戯機器であっ
て、前記画像表示手段は、操作不能状態直前の視点位置
を始点として、前記視点移動情報に従って前記視点を移
動させる、電子遊戯機器。
2. The electronic amusement device according to claim 1, wherein the image display means moves the viewpoint according to the viewpoint movement information starting from a viewpoint position immediately before an inoperable state.
【請求項3】 請求項1又は請求項2に記載の電子遊戯
機器であって、前記画像表示手段は、前記視点移動情報
に従って前記視点を移動させる際に、視点間を線形補完
して画像表示する、電子遊戯機器
3. The electronic game device according to claim 1, wherein the image display means linearly complements the viewpoints when the viewpoints are moved in accordance with the viewpoint movement information. Electronic play equipment
【請求項4】 請求項1乃至請求項3のうち何れか1項
に記載の電子遊戯機器であって、前記選択手段は、前記
プレイヤ用移動体の環境状態、衝突対象物、衝突の相対
速度、衝突角度に応じて前記操作不能状態に対応する視
点移動情報を選択する、電子遊戯機器。
4. The electronic game device according to claim 1, wherein the selection means includes an environmental condition of the player moving body, a collision target, and a relative speed of the collision. An electronic game device that selects viewpoint movement information corresponding to the inoperable state according to a collision angle.
【請求項5】 請求項1乃至請求項4のうち何れか1項
に記載の電子遊戯機器であって、前記画像表示手段は、
操作不能状態表示の開始/終了視点と遊戯中断開始/終
了視点との間の視点移動を所定の期間で線形補間して三
次元的に動画像表示する、電子遊戯機器。
5. The electronic game device according to claim 1, wherein the image display means comprises:
An electronic amusement machine that linearly interpolates a viewpoint movement between a start / end viewpoint of an inoperable state display and a game interruption start / end viewpoint in a predetermined period to display a moving image three-dimensionally.
【請求項6】 プレイヤの入力操作に対応してプレイヤ
用移動体を移動させる移動ステップと、 遊戯中に前記プレイヤ用移動体が操作不能状態になった
か否かを判定する判定ステップと、 前記プレイヤ用移動体が操作不能状態になったときに、
前記プレイヤ用移動体の操作不能状態をその周囲の環境
とともに第三者からの視点で画像表示するための視点移
動情報をデータメモリから読み出す読み出しステップ
と、 前記データメモリから読み出した視点移動情報に従って
自動的に視点を移動させながら、前記プレイヤ用移動体
及びその周囲の操作不能環境を三次元的に所定の期間動
画表示する画像表示ステップと、 を含む、画像処理方法。
6. A moving step of moving a player moving body in response to a player's input operation, a determining step of judging whether or not the player moving body is in an inoperable state during playing, the player When the mobile unit becomes inoperable,
A step of reading from the data memory viewpoint movement information for displaying the inoperable state of the player moving body together with the surrounding environment from the viewpoint of a third party, and automatically reading the viewpoint movement information read from the data memory. An image processing step of displaying a moving image of the player moving body and the surrounding inoperable environment around the player moving object three-dimensionally for a predetermined period while moving the visual point.
【請求項7】 請求項6に記載の画像処理方法であっ
て、前記画像表示ステップは、操作不能状態直前の視点
位置を始点として、前記視点移動情報に従って前記視点
を移動させる、画像処理方法。
7. The image processing method according to claim 6, wherein, in the image display step, the viewpoint is moved in accordance with the viewpoint movement information, starting from a viewpoint position immediately before an inoperable state.
【請求項8】 請求項6又は請求項7に記載の画像処理
方法であって、前記画像表示ステップは、前記視点移動
情報に従って前記視点を移動させる際に、視点間を線形
補完して画像表示する、画像処理方法。
8. The image processing method according to claim 6 or 7, wherein in the image display step, when the viewpoints are moved in accordance with the viewpoint movement information, images are linearly complemented between the viewpoints. Image processing method.
【請求項9】 請求項6乃至請求項8のうち何れか1項
に記載の画像処理方法であって、前記読み出しステップ
は、前記プレイヤ用移動体の環境状態、衝突対象物、衝
突の相対速度、衝突角度に応じて前記操作不能状態に対
応する視点移動情報を選択して前記データメモリから読
み出す、画像処理方法。
9. The image processing method according to claim 6, wherein the reading step includes an environmental condition of the player moving body, a collision target, and a relative speed of collision. An image processing method, wherein viewpoint movement information corresponding to the inoperable state is selected according to a collision angle and is read from the data memory.
【請求項10】 請求項6乃至請求項9のうち何れか1
項に記載の画像処理方法であって、前記画像表示ステッ
プは、操作不能状態表示の開始/終了視点と遊戯中断開
始/終了視点との間の視点移動を所定の期間で線形補間
して三次元的に動画像表示する、画像処理方法。
10. Any one of claims 6 to 9.
The image processing method according to the item, wherein the image display step is a three-dimensional operation by linearly interpolating a viewpoint movement between a start / end viewpoint of an inoperable state display and a game interruption start / end viewpoint in a predetermined period. An image processing method that dynamically displays moving images.
JP2003147718A 2003-05-26 2003-05-26 Electronic play equipment Expired - Fee Related JP3606383B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003147718A JP3606383B2 (en) 2003-05-26 2003-05-26 Electronic play equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003147718A JP3606383B2 (en) 2003-05-26 2003-05-26 Electronic play equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP34037093A Division JPH07155472A (en) 1993-12-09 1993-12-09 Electronic game apparatus

Publications (2)

Publication Number Publication Date
JP2003340150A true JP2003340150A (en) 2003-12-02
JP3606383B2 JP3606383B2 (en) 2005-01-05

Family

ID=29774812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003147718A Expired - Fee Related JP3606383B2 (en) 2003-05-26 2003-05-26 Electronic play equipment

Country Status (1)

Country Link
JP (1) JP3606383B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006243248A (en) * 2005-03-02 2006-09-14 Denso Corp Device for driving evaluation and server
JP2007068874A (en) * 2005-09-09 2007-03-22 Sega Corp Game machine, display control program performed therein and storage medium
JP2012141753A (en) * 2010-12-28 2012-07-26 Nintendo Co Ltd Image processing device, image processing program, image processing method and image processing system
JP2015231539A (en) * 2013-07-09 2015-12-24 エヌエイチエヌ エンターテインメント コーポレーションNHN Entertainment Corporation Simulation method and system
JP2021524076A (en) * 2018-05-21 2021-09-09 マイクロソフト テクノロジー ライセンシング,エルエルシー Virtual camera placement system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006243248A (en) * 2005-03-02 2006-09-14 Denso Corp Device for driving evaluation and server
JP4650028B2 (en) * 2005-03-02 2011-03-16 株式会社デンソー Driving evaluation device and driving evaluation system
US8010283B2 (en) 2005-03-02 2011-08-30 Denso Corporation Driving evaluation system and server
JP2007068874A (en) * 2005-09-09 2007-03-22 Sega Corp Game machine, display control program performed therein and storage medium
JP2012141753A (en) * 2010-12-28 2012-07-26 Nintendo Co Ltd Image processing device, image processing program, image processing method and image processing system
JP2015231539A (en) * 2013-07-09 2015-12-24 エヌエイチエヌ エンターテインメント コーポレーションNHN Entertainment Corporation Simulation method and system
US10445440B2 (en) 2013-07-09 2019-10-15 Nhn Corporation Simulation method and system for real-time broadcasting
US11361128B2 (en) 2013-07-09 2022-06-14 Nhn Entertainment Corporation Simulation method and system for real-time broadcasting
JP2021524076A (en) * 2018-05-21 2021-09-09 マイクロソフト テクノロジー ライセンシング,エルエルシー Virtual camera placement system
JP7317857B2 (en) 2018-05-21 2023-07-31 マイクロソフト テクノロジー ライセンシング,エルエルシー Virtual camera positioning system

Also Published As

Publication number Publication date
JP3606383B2 (en) 2005-01-05

Similar Documents

Publication Publication Date Title
JP4818816B2 (en) Parking assistance program and parking assistance device
JP4395902B2 (en) Image processing method and image processing apparatus using the same
US20110210868A1 (en) Parking assistance apparatus
US6749503B1 (en) Game device and program including game processing after reproducing historical performance
WO2006106765A1 (en) Display control program executed in game machine
JP3138423B2 (en) Simulation equipment
JPH07178242A (en) Viewpoint change method for ball game in game machine
JP4566221B2 (en) Video game processing apparatus and video game processing program
JP3797608B2 (en) GAME DEVICE AND GAME PROGRAM
JP3475470B2 (en) Electronic play equipment
JP2003340150A (en) Electronic game apparatus
JPH07155472A (en) Electronic game apparatus
EP1437689A1 (en) Image creation apparatus and method, electronic device, and computer program
JP4145512B2 (en) Image processing system and program thereof
JPH11146979A (en) Game device
JP4035652B2 (en) Method for executing a game and game device for implementing the same
CN113946259A (en) Vehicle information processing method and device, electronic equipment and readable medium
JP2001137539A (en) Method for displaying object on monitor of game machine
JP2990190B2 (en) Three-dimensional simulator device and image synthesizing method
JP3084410B2 (en) How to start a drive game on an electronic game machine
JP3254091B2 (en) Three-dimensional simulator device and image synthesizing method
JPH10113467A (en) Electronic game device using three-dimensional image displaying
JP4062446B2 (en) Electronic play equipment
JPH0691054A (en) Electronic game equipment
JP2002269590A (en) Image producing device and method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040916

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040929

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081015

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081015

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091015

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091015

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101015

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101015

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111015

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111015

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121015

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121015

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121015

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121015

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121015

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131015

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees