JP2001148035A - Image processing - Google Patents

Image processing

Info

Publication number
JP2001148035A
JP2001148035A JP36183899A JP36183899A JP2001148035A JP 2001148035 A JP2001148035 A JP 2001148035A JP 36183899 A JP36183899 A JP 36183899A JP 36183899 A JP36183899 A JP 36183899A JP 2001148035 A JP2001148035 A JP 2001148035A
Authority
JP
Japan
Prior art keywords
data
image
image processing
display
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP36183899A
Other languages
Japanese (ja)
Inventor
Takumi Yoshinaga
匠 吉永
Souka Kitamura
操佳 北村
Takashi Yuda
高志 湯田
Hitoshi Nakanishi
仁 中西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Priority to JP36183899A priority Critical patent/JP2001148035A/en
Publication of JP2001148035A publication Critical patent/JP2001148035A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce the plotting processing, to make the representation of an image multicolored and also to smoothly represent the movement of a character. SOLUTION: An image processing means 2 composites background image data 3d composed of a movie image and character data 4d composed of a stereoscopic image by polygon data and gives the composited data to a display 6. An image 60 obtained by compositing a background image 3 and a character 4 is shown on the display 6. A simple model 5d composed of three-dimensional data for judging a priority in hidden surface elimination with the data 4d is set in a part of the data 3d. The means 2 judges a part where the character 4 is hidden by the background 3 on the basis of the simple model and performs image elimination. According to the elimination, it is possible to represent an image in a three-dimensional manner. It is further possible to generate a display an image obtained by combining music reproduction and object movement with a smaller amount of operation without depending on complicated control.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、アミューズメント
センターや家庭で使用可能なゲーム装置などに好適な画
像処理装置、画像処理方法、及び記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, an image processing method, and a recording medium suitable for an amusement center or a game machine that can be used at home.

【0002】[0002]

【従来の技術】近年のコンピュータ技術の進歩に伴い、
コンピュータグラフィックス技術を用いたビデオゲーム
装置が広く利用されるようになってきた。このビデオゲ
ーム装置はユーザーに広く受け入れられていて、多種多
様なゲーム装置が数多く案出されるとともに、様々なゲ
ームソフトも供給されている。
2. Description of the Related Art With the recent advance in computer technology,
Video game devices using computer graphics technology have been widely used. This video game device has been widely accepted by users, and a large number of various game devices have been devised, and various game software have been supplied.

【0003】このような画像処理機能を備えたゲーム装
置は、一般に、操作装置を有するゲーム装置本体と、ス
ピーカ等の音響発生手段と、映像を提供するディスプレ
イとで構成されている。このゲーム装置においては、ゲ
ームの展開に伴ってディスプレイに表示されている背景
画面を変化させるとともに、遊戯者の指示に従って背景
画面内でキャラクタを移動させることができる。遊技者
は、ディスプレイに表示されているゲーム展開に伴う背
景画面の変化を見ながら、ジョイパッド等の操作装置を
操作し、その背景画面内においてキャラクタを移動させ
て、ゲームを楽しむことができる。
A game device having such an image processing function generally includes a game device main body having an operation device, a sound generating means such as a speaker, and a display for providing an image. In this game device, the background screen displayed on the display is changed with the development of the game, and the character can be moved within the background screen in accordance with a player's instruction. The player operates the operation device such as the joypad while watching the change in the background screen accompanying the game progress displayed on the display, and can enjoy the game by moving the character in the background screen.

【0004】かかるゲーム装置のゲーム画面の生成には
各種の方法が在る。その1つとして、ディスプレイ上に
表示される画面の全てをポリゴンデータで作成すれば、
3次元的な、すなわち立体的表現が可能になる。このと
き、ゲーム空間の画像データは3次元データであるた
め、ゲーム空間における仮想カメラの角度(カメラの視
点)を変化させることにより、あらゆる角度から見た画
像を得ることができ、画面の表現の自由度が非常に高く
なる。
There are various methods for generating a game screen of such a game device. As one of them, if all screens displayed on the display are created with polygon data,
Three-dimensional, that is, three-dimensional expression becomes possible. At this time, since the image data in the game space is three-dimensional data, an image viewed from any angle can be obtained by changing the angle of the virtual camera (camera viewpoint) in the game space, and the representation of the screen is represented. The degree of freedom is very high.

【0005】また、ゲーム画面の生成法として、コンピ
ュータグラフィックスに拠るムービー画面を用いる方法
も知られている。ここで、コンピュータグラフィックス
に拠るムービー画面とは、ある位置から他の位置へ移動
することが決められている一連の2次元の絵からなる画
像データであって、その画面を見るカメラ角度が決めら
れている画像データのことである。このムービー画面を
使用した場合、きめが細かく綺麗な画面を提供でき、し
かも、ゲーム装置による画像処理の負担が少ないという
利点がある。
As a method for generating a game screen, a method using a movie screen based on computer graphics is also known. Here, a movie screen based on computer graphics is image data composed of a series of two-dimensional pictures determined to move from a certain position to another position, and a camera angle for viewing the screen is determined. Image data. When this movie screen is used, there is an advantage that a fine and fine screen can be provided, and the burden of image processing on the game device is small.

【0006】このような状況下で、さらに別の画像処理
機能を搭載したゲーム装置も既に使用に供されている。
それは、画面に表示させたオブジェクト(キャラクタ)
を音楽に合わせて躍らせる音楽ゲームの装置である。こ
のゲーム装置の場合、音楽のテンポとオブジェクトの動
き(モーション)との合致が強く望まれる。従来、この
音楽に合わせた動きをキャラクタにさせるために、コン
ピュータシステムは音楽の再生と動き制御とを実時間ベ
ースに制御している。
[0006] Under such circumstances, game apparatuses equipped with still another image processing function have already been used.
It is an object (character) displayed on the screen
This is a music game device that lets you dance to music. In the case of this game device, it is strongly desired that the tempo of the music matches the motion of the object. Conventionally, a computer system controls music reproduction and motion control on a real-time basis in order to make a character move in accordance with the music.

【0007】[0007]

【発明が解決しようとする課題】このように従来のゲー
ム装置において、背景やキャラクタを含む画像の全てを
ポリゴンデータで表現する場合、多量のポリゴンデータ
を備えないと、画面が粗く表現されることになり、ま
た、ポリゴンデータ同士の接続部分が表現されて全体に
角張った画面となってしまう。さらに、多量のポリゴン
データをもって背景やキャラクタなどの画像を構成する
と、画面はきめ細かくなってある程度多彩の表現が可能
になるものの、画像処理に多大な負担がかかってしま
う。
As described above, in the conventional game device, when all the images including the background and the character are represented by polygon data, the screen is coarsely represented unless a large amount of polygon data is provided. , And the connected portion between the polygon data is expressed, resulting in a screen that is square overall. Further, when an image of a background, a character, or the like is configured with a large amount of polygon data, the screen becomes fine and various expressions can be performed to some extent, but a great load is imposed on image processing.

【0008】また、コンピュータグラフィックスに拠る
ムービー画面を用いるゲーム画面生成法の場合、表示画
面は2次元データであるため、平面的な表現となってし
まい、3次元表現は不可能である。さらに、前記ムービ
ー画面ではカメラ角度が固定されているため、画面表現
の自由度が著しく低い。
In the case of a game screen generation method using a movie screen based on computer graphics, since the display screen is two-dimensional data, it has a two-dimensional representation and cannot be three-dimensionally represented. Further, since the camera angle is fixed in the movie screen, the degree of freedom in screen expression is extremely low.

【0009】一方、前述した音楽ゲームを行なう画像処
理の場合、実時間をベースにして音楽の再生及びオブジ
ェクトの動きを制御するので、演算量が多くなり、制御
も複雑であった。
On the other hand, in the case of the image processing for playing the music game described above, since the reproduction of the music and the movement of the object are controlled on the basis of real time, the amount of calculation increases and the control is complicated.

【0010】本発明は、このような従来のゲーム装置が
有する問題を解決する画像処理機能を備えた画像処理装
置、画像処理方法、及び記録媒体を提供する。
[0010] The present invention provides an image processing apparatus, an image processing method, and a recording medium having an image processing function for solving the problems of the conventional game apparatus.

【0011】具体的には、本発明は、ゲーム画面の表現
を多彩化でき、ゲーム画面上で移動する表示体の動作を
より円滑に表現でき、且つ描画処理量を著しく軽減でき
る画像処理を実現することを第1の目的とする。
More specifically, the present invention realizes image processing capable of diversifying the expression of a game screen, more smoothly expressing the operation of a display body moving on the game screen, and remarkably reducing the amount of drawing processing. The first purpose is to do so.

【0012】また、本発明は、より少ない演算量で、複
雑な制御に依存することなく、融通性良く簡単に、音楽
の再生とオブジェクトの動きとを合わせた(リンクさせ
た)画像を表示することができる画像処理を実現するこ
とを第2の目的とする。
Also, the present invention displays an image in which music playback and object movement are combined (linked) with a small amount of calculation, without depending on complicated control, and with flexibility. A second object is to realize image processing that can be performed.

【0013】[0013]

【課題を解決するための手段】上述した第1の目的を達
成するため、本発明に係る画像処理装置は、その1つの
態様として、ムービー画像からなる第1の表示体と、ポ
リゴンデータによる立体画像とからなる第2の表示体を
表示手段に表示してなる画像処理装置であって、前記第
1の表示体の一部に前記第2の表示体との陰面消去にお
ける優先度を判定するための三次元データからなる簡易
モデルを設定して画像処理を行なう画像処理手段を備え
たことを特徴とする。
In order to achieve the first object, the image processing apparatus according to the present invention comprises, as one mode, a first display body composed of a movie image and a three-dimensional object composed of polygon data. An image processing apparatus configured to display a second display body including an image on a display unit, wherein a priority of a part of the first display body in erasing a hidden surface with the second display body is determined. Image processing means for setting a simple model composed of three-dimensional data for performing image processing.

【0014】好適には、前記第1の表示体がゲーム画面
の背景を構成し、前記第2の表示体がこの背景上に表示
されるキャラクタを構成する。また、前記第1の表示体
の内、前記ポリゴンデータの優先度を判定する必要があ
る部分のみを前記簡易モデルから構成してもよい。
Preferably, the first display forms a background of a game screen, and the second display forms a character displayed on the background. In addition, only the portion of the first display body for which the priority of the polygon data needs to be determined may be configured from the simple model.

【0015】例えば、前記簡易モデルは、粗く設定され
たポリゴンデータからなる3次元データであることが好
ましい。
For example, the simple model is preferably three-dimensional data composed of roughly set polygon data.

【0016】また、本発明に係る画像処理装置は、別の
態様として、画像からなる第1の表示体と、ポリゴンデ
ータによる立体画像からなる第2の表示体とを表示手段
に表示してなる画像処理装置であって、前記第2の表示
体に対する仮想カメラを設定し、この第2の表示体が第
1の表示体上を移動する際に、前記第1の表示体に対す
るカメラ角度に前記仮想カメラの位置をほぼ一致させる
ようにこの仮想カメラの動きを制御し、この第2の表示
体が前記第1の表示体を逆に動く場合には、前記第1の
表示体を逆モーションに再生し、逆モーションの第1の
表示体に対するカメラ角度に前記仮想カメラの位置をほ
ぼ一致させる画像処理手段を有することを特徴とする。
In another aspect of the image processing apparatus according to the present invention, a first display body composed of an image and a second display body composed of a three-dimensional image based on polygon data are displayed on display means. An image processing apparatus, wherein a virtual camera for the second display is set, and when the second display moves on the first display, the camera angle is set to a camera angle with respect to the first display. The movement of the virtual camera is controlled so that the positions of the virtual cameras substantially coincide with each other, and when the second display moves in the opposite direction to the first display, the first display is changed to the reverse motion. It is characterized by having image processing means for reproducing and making the position of the virtual camera substantially coincide with the camera angle with respect to the first display body in reverse motion.

【0017】好ましくは、前記画像処理手段は、前記第
1の表示体の内の前記第2の表示体が移動すべき領域を
複数の区画に分けてある中の、一つの区画から他の区画
に前記第2の表示体が移動する際に仮想カメラの位置を
各区画についてのカメラの角度にほぼ一致させる手段で
ある。
[0017] Preferably, the image processing means is configured to divide an area of the first display body to be moved by the second display body into a plurality of sections from one section to another section. Means for making the position of the virtual camera substantially coincide with the angle of the camera for each section when the second display body moves.

【0018】一方、第1の目的を達成するため、本発明
に係る画像処理方法の1つの態様によれば、ムービー画
像からなる第1の表示体と、ポリゴンデータによる立体
画像とからなる第2の表示体を表示手段に表示する画像
処理方法であって、前記第1の表示体の一部に3次元デ
ータからなる簡易モデルを設定し、この簡易モデルを用
いて前記第2の表示体の陰面消去における優先度を判定
することを特徴とする。
On the other hand, in order to achieve the first object, according to one aspect of the image processing method according to the present invention, a first display body composed of a movie image and a second display body composed of a three-dimensional image composed of polygon data are provided. An image processing method for displaying a display body of the first display body on a display means, wherein a simple model including three-dimensional data is set in a part of the first display body, and the second display body is displayed using the simple model. It is characterized in that the priority in hidden surface removal is determined.

【0019】また、本発明に係る画像処理方法の別の態
様によれば、画像からなる第1の表示体と、ポリゴンデ
ータによる立体画像からなる第2の表示体とを表示手段
に表示する画像処理方法であって、前記第2の表示体に
対する仮想カメラを設定し、この第2の表示体が第1の
表示体上を移動する際に、前記第1の表示体に対するカ
メラ角度に前記仮想カメラの位置をほぼ一致させるよう
にこの仮想カメラの動きを制御するとともに、この第2
の表示体が前記第1の表示体を逆に動く場合には、前記
第1の表示体を逆モーションに再生して、逆モーション
の第1の表示体に対するカメラ角度に前記仮想カメラの
位置をほぼ一致させることを特徴とする。
According to another aspect of the image processing method according to the present invention, an image for displaying on a display means a first display composed of an image and a second display composed of a three-dimensional image based on polygon data. A processing method, wherein a virtual camera for the second display is set, and when the second display moves on the first display, the virtual camera is set at a camera angle with respect to the first display. The movement of the virtual camera is controlled so that the positions of the cameras substantially coincide with each other.
When the display body moves in the reverse direction of the first display body, the first display body is reproduced in the reverse motion, and the position of the virtual camera is set to the camera angle with respect to the first display body in the reverse motion. It is characterized in that they almost match.

【0020】さらに、上述の構成のいずれかに記載の画
像処理手段や画像処理方法として機能させるためのプロ
グラムを記載した記録媒体が提供される。
[0020] Further, a recording medium in which a program for functioning as the image processing means or the image processing method according to any one of the above-described configurations is provided.

【0021】以上のように、表示手段に表示させる背景
等の画面の一部にムービー画面を使用することにより。
画面の表現法を多彩化して表現の自由度を高めることが
できると同時に、描画処理を著しく軽減し、かつ、この
ムービー画面上のキャラクタ等からなる表示体の移動状
態を円滑に表現することができる。
As described above, by using the movie screen as a part of the screen such as the background displayed on the display means.
It is possible to increase the degree of freedom of expression by diversifying the expression method of the screen, and at the same time, significantly reduce the drawing process and smoothly express the moving state of the display body consisting of characters and the like on this movie screen. it can.

【0022】さらに、前述した第2の目的を達成するた
め、本発明に係る画像処理装置は、仮想空間に存在させ
たオブジェクトのモーションの画像をサウンドデータに
合わせて表示手段の画面上に表示するようにしたことを
特徴とする。好適には、前記オブジェクトのモーション
を前記サウンドデータの拍にリンクさせて表示する表示
制御手段が備えられる。
Furthermore, in order to achieve the above-mentioned second object, the image processing apparatus according to the present invention displays an image of a motion of an object existing in a virtual space on a screen of a display unit in accordance with sound data. It is characterized by doing so. Preferably, there is provided display control means for displaying the motion of the object linked to the beat of the sound data.

【0023】また、前記サウンドデータに基づくサウン
ドを再生する再生手段を備える一方で、前記表示制御手
段は、前記再生手段によるサウンドデータの再生情報を
取得する第1の取得手段と、この取得手段により取得さ
れたサウンドデータの再生情報を参照してゲームの再生
位置を演算する演算手段と、この演算手段の演算結果と
モーション進行データとに基づき仮想カメラのデータと
前記オブジェクトのモーションを取得する第2の取得手
段と、この第2の取得手段の取得結果に基づき前記オブ
ジェクトのモーションをモニタ画面上に表示するための
画像データを生成する生成手段とを備えるようにしても
よい。
[0023] Further, while a reproducing means for reproducing a sound based on the sound data is provided, the display control means includes a first obtaining means for obtaining reproduction information of the sound data by the reproducing means, A calculating means for calculating a play position of the game by referring to the obtained reproduction information of the sound data; and a second means for obtaining the data of the virtual camera and the motion of the object based on the calculation result of the calculating means and the motion progress data. And generating means for generating image data for displaying the motion of the object on a monitor screen based on the result obtained by the second obtaining means.

【0024】また好適には、前記第1の取得手段は、前
記再生手段によるサウンドデータの再生サンプル数(n
count)及びサンプリング周波数(freq)を取
得する手段であり、且つ、前記演算手段は前記再生サン
プル数(ncount)及びサンプリング周波数(fr
eq)を参照して現在のフレーム数(frame)及び
拍数(beat)を演算する手段である。
[0024] Preferably, the first obtaining means includes a sound data reproduction sample number (n) by the reproduction means.
count) and a sampling frequency (freq), and the calculating means calculates the reproduction sample number (ncount) and the sampling frequency (fr).
eq) to calculate the current number of frames (frame) and the number of beats (beat).

【0025】このとき、例えば、前記演算手段は、現在
のフレーム数(frame)及び拍数(beat)を frame=ncount*FPS/freq beat=frame/fpb (ただし、FPSは1秒当たりのフレーム数、fpbは
1拍数当たりのフレーム数である)により演算する手段
である。
At this time, for example, the calculating means calculates the current number of frames (frame) and the number of beats (beat) as follows: frame = ncount * FPS / freq beat = frame / fpb (where FPS is the number of frames per second) , Fpb is the number of frames per beat).

【0026】また、前記モーション進行データは、前記
サウンドデータの拍数に応じてモーションを時系列で割
り当てるためのデータであってもよい。
Further, the motion progress data may be data for allocating a motion in a time series according to the number of beats of the sound data.

【0027】また好適には、前記仮想カメラのデータは
前記仮想空間における仮想カメラの視点情報であり、前
記生成手段は、前記仮想カメラの視点情報に合致した視
点情報を有するムービー画像を背景画像とした前記オブ
ジェクトの画像データを生成する手段を有することであ
る。
Preferably, the data of the virtual camera is viewpoint information of the virtual camera in the virtual space, and the generating means converts a movie image having viewpoint information matching the viewpoint information of the virtual camera into a background image. Means for generating image data of the object.

【0028】また、前記生成手段は、前記オブジェクト
のモーションを自動的に設定する第1の生成モード及び
遊戯者からの操作情報を前記オブジェクトのモーション
に反映させる第2の生成モードの何れか一方のモードの
元に前記画像データを生成する手段であってもよい。
Further, the generation means may be one of a first generation mode for automatically setting the motion of the object and a second generation mode for reflecting operation information from a player on the motion of the object. The image data may be generated based on a mode.

【0029】さらに、前記表示制御手段は、前記オブジ
ェクトにあてがう背景の画像を当該オブジェクトの画像
とは別個に形成する手段と、前記オブジェクトの画像と
前記背景の画像とに対するカメラ視点及び光源の内の少
なくとも一方の配置条件をほぼ同一に設定した状態で当
該オブジェクトの画像と背景の画像とを合成させる手段
とを備えていてもよい。例えば、その背景の画像はムー
ビー画像である。
Further, the display control means includes means for forming a background image corresponding to the object separately from the image of the object, and a camera viewpoint and a light source for the object image and the background image. Means may be provided for synthesizing the image of the object and the background image in a state where at least one of the arrangement conditions is set to be substantially the same. For example, the background image is a movie image.

【0030】さらに、前記サウンドデータはADX圧縮
されたADXデータとして提供されることが好ましい。
Further, it is preferable that the sound data is provided as ADX compressed ADX data.

【0031】さらに、この第2の目的を達成する画像処
理装置の前記各手段をコンピュータに実行させるための
プログラムを記録した記憶媒体が提供される。
Further, there is provided a storage medium in which a program for causing a computer to execute each of the above means of the image processing apparatus which achieves the second object is recorded.

【0032】これにより、画面上のオブジェクトのモー
ション(動き)が音楽に合わせて躍らせる、いわゆる音
楽ゲームを提供することができる。このゲームは、より
少ない演算量で済み、複雑な制御に依存することなく、
融通性良く簡単に処理できる。
Thus, it is possible to provide a so-called music game in which the motion of the object on the screen is excited in accordance with the music. This game requires less computation, does not rely on complicated controls,
Easy to process with good flexibility.

【0033】なお、前述した記録媒体には、例えば、フ
ロッピーディスク、ハードディスク、磁気テープ、CD
−ROM、CD−R、DVD、ROMカートリッジ、バ
ッテリバックアップ付きのRAMメモリカートリッジ、
フラッシュメモリ、不揮発性RAMカード等が挙げられ
る。また、記録媒体は、電話回線等の優先通信媒体、マ
イクロ波回線等の無線通信媒体等通信媒体も含む。イン
ターネットもここでいう通信媒体に含まれる。要する
に、何らかの手段で、コンピュータにプログラムをダウ
ンロードさせて、所定の機能を備えるものであれば、本
発明に係る記録媒体に含まれる。
The above-mentioned recording medium includes, for example, a floppy disk, a hard disk, a magnetic tape, and a CD.
-ROM, CD-R, DVD, ROM cartridge, RAM memory cartridge with battery backup,
A flash memory, a nonvolatile RAM card, and the like can be given. The recording medium also includes a communication medium such as a priority communication medium such as a telephone line and a wireless communication medium such as a microwave line. The Internet is also included in the communication medium mentioned here. In short, if the program is downloaded to the computer by any means and has a predetermined function, the program is included in the recording medium according to the present invention.

【0034】[0034]

【発明の実施の形態】以下、本発明の実施の形態を添付
図面に基づき説明する。
Embodiments of the present invention will be described below with reference to the accompanying drawings.

【0035】(第1の実施形態)図1〜図9を参照し
て、第1の実施形態を説明する。
(First Embodiment) A first embodiment will be described with reference to FIGS.

【0036】〔概要〕図1は、第1の実施形態の概要を
説明するための説明図である。
[Outline] FIG. 1 is an explanatory diagram for explaining the outline of the first embodiment.

【0037】この図1において、符号1は、本発明の画
像処理装置を実施したTVゲーム装置等のゲーム装置で
ある。このゲーム装置1はゲームソフトを実行すること
ができる。このTVゲーム装置1がゲームソフトを実行
することにより、TVゲーム装置1内には画像処理手段
2が実現される。
In FIG. 1, reference numeral 1 denotes a game device such as a TV game device that implements the image processing device of the present invention. The game device 1 can execute game software. When the TV game device 1 executes the game software, the image processing means 2 is realized in the TV game device 1.

【0038】この画像処理手段2は、図1に示すよう
に、コンピュータグラフィックスに基づくムービー画像
で構成される背景画像(第1の表示体)のデータ3d
と、ポリゴンデータによる立体画像で構成されるゲーム
のキャラクタ(第2の表示体)のデータ4dとを画像処
理するとともに、表示すべき背景等の一部に、前記キャ
ラクタデータ4dとの陰面消去における優先度を判定す
るための3次元データからなる簡易モデル5ad,5bdを
設定してなる。 この簡易モデル5adは、図1に示すよ
うに、デスクデータ3adの輪郭に沿って点線で示してい
る。同様に、簡易モデル5bdは、図1に示すように、壁
面3bdの輪郭に沿って点線で示している。これら簡易モ
デル5ad,5bdを示す点線は、図面の作成上の都合で止
む無く輪郭の内側に表示しているが、実際には実線と点
線は同一位置にある。
As shown in FIG. 1, the image processing means 2 includes data 3d of a background image (first display body) composed of a movie image based on computer graphics.
And data 4d of a game character (second display body) composed of a three-dimensional image based on polygon data, image processing is performed, and a part of the background or the like to be displayed is erased with the character data 4d. Simple models 5ad and 5bd composed of three-dimensional data for determining the priority are set. As shown in FIG. 1, the simplified model 5ad is indicated by a dotted line along the contour of the desk data 3ad. Similarly, the simplified model 5bd is indicated by a dotted line along the contour of the wall surface 3bd, as shown in FIG. The dotted lines indicating the simplified models 5ad and 5bd are displayed inside the outline without stopping for the convenience of drawing creation, but the solid line and the dotted line are actually at the same position.

【0039】この画像処理手段2は、キャラクタデータ
4dと簡易モデル5adとの優先度を判定するとともに、
キャラクタデータ4dと簡易モデル5bdとの優先度を判
定する。いまの場合、キャラクタデータ4dは簡易モデ
ル5adより後ろ側にあるので、画像処理手段は、簡易モ
デル5adの方を優先して、キャラクタデータ4dの簡易
モデル5adに隠れる部分を陰面消去する処理を実行す
る。また、キャラクタデータ4dは簡易モデル5bdの前
側にあるので、画像処理手段2はキャラクタデータ4d
の方を優先して、キャラクタデータ4dの後ろ側に相当
する部分を陰面消去する処理を実行する。
This image processing means 2 determines the priority of the character data 4d and the simple model 5ad,
The priority between the character data 4d and the simple model 5bd is determined. In this case, since the character data 4d is behind the simple model 5ad, the image processing means executes a process of erasing hidden portions of the character data 4d hidden by the simple model 5ad by giving priority to the simple model 5ad. I do. Further, since the character data 4d is located in front of the simple model 5bd, the image processing means 2 outputs the character data 4d.
The process of deleting the hidden surface of the portion corresponding to the rear side of the character data 4d is executed with priority given to the character data 4d.

【0040】画像処理手段2は、上述の画像処理を実行
し、かつ、キャラクタデータ4dと背景画面データ3d
とを合成した後、この合成データを映像信号に変換して
ディスプレイ6に与える。これにより、ディスプレイ6
には、図1に示すような、デスク3aの後であって、壁
面3bの前に、キャラクタ4が立った状態の画像60が
表示される。以下、このゲーム装置の具体的な説明を行
う。
The image processing means 2 executes the above-described image processing, and executes the character data 4d and the background screen data 3d.
Are combined, and the combined data is converted into a video signal and provided to the display 6. Thereby, the display 6
As shown in FIG. 1, an image 60 in a state where the character 4 stands up behind the desk 3a and in front of the wall surface 3b is displayed. Hereinafter, a specific description of this game device will be given.

【0041】〔ゲーム装置の構成〕図2は、このゲーム
装置の概要を表すブロック図である。このゲーム装置1
は、装置全体の制御を行うCPUブロック10、ゲーム
画面の表示制御を行うビデオブロック11、効果音等を
生成するサウンドブロック12、CD−ROM9の読み
出しを行うサブシステム13等により構成されている。
[Configuration of Game Apparatus] FIG. 2 is a block diagram showing an outline of the game apparatus. This game device 1
Is composed of a CPU block 10 for controlling the entire apparatus, a video block 11 for controlling display of a game screen, a sound block 12 for generating sound effects and the like, a subsystem 13 for reading out the CD-ROM 9, and the like.

【0042】CPUブロック10は、SCU(System C
ontrol Unit )100、メインCPU101、RAM1
02、ROM103、サブCPU104、CPUバス1
05等により構成されている。
The CPU block 10 has an SCU (System C
ontrol Unit) 100, main CPU 101, RAM1
02, ROM 103, sub CPU 104, CPU bus 1
05 and the like.

【0043】メインCPU101は、装置全体の制御を
行うものである。このメインCPU101は、内部にD
SP(Digital Signal Processor)と同様の演算機能を
備え、アプリケーションソフトを高速に実行可能であ
る。RAM102は、メインCPU101のワークエリ
アとして使用されるものである。ROM103には、初
期化処理用のイニシャルプログラム等が書き込まれてい
る。SCU100は、バス105、106、107を制
御することにより、メインCPU101、VDP12
0、130、DSP140、CPU141等の間におけ
るデータ入出力を円滑に行うものである。また、SCU
100は、内部にDMAコントローラを備え、ゲーム中
のスプライトデータをビデオブロック11内のVRAM
に転送することができる。これにより、ゲーム等のアプ
リケーションソフトを高速に実行することが可能であ
る。
The main CPU 101 controls the entire apparatus. The main CPU 101 has a D
It has the same calculation function as an SP (Digital Signal Processor) and can execute application software at high speed. The RAM 102 is used as a work area of the main CPU 101. In the ROM 103, an initial program for initialization processing and the like are written. The SCU 100 controls the buses 105, 106, and 107 so that the main CPU 101, the VDP 12
0, 130, the DSP 140, the CPU 141, and the like. Also, SCU
A VRAM 100 in the video block 11 includes a DMA controller therein and stores sprite data during a game.
Can be forwarded to This makes it possible to execute application software such as a game at high speed.

【0044】サブCPU104は、SMPC(System M
anager & Peripheral Control )と呼ばれるもので、メ
インCPU101からの要求に応じて、操作装置(ペリ
フェラル)としてのPAD7bからのペリフェラルデー
タをケーブル7c、コネクタ7aを介して収集する機能
等を備えている。メインCPU101はサブCPU10
4から受け取ったペリフェラルデータに基づき、例えば
ゲーム画面中のキャラクタを移動させる等の処理を行う
ものである。なお、コネクタ7aには、PAD、ジョイ
スティック、キーボード等のうちの任意のペリフェラル
が接続可能である。サブCPU104は、コネクタ7a
(本体側端子)に接続されたペリフェラルの種類を自動
的に認識し、ペリフェラルの種類に応じた通信方式に従
いペリフェラルデータ等を収集する機能を備えている。
The sub CPU 104 is an SMPC (System M
This is called an anager & peripheral control, and has a function of collecting peripheral data from a PAD 7b as an operation device (peripheral) via a cable 7c and a connector 7a in response to a request from the main CPU 101. The main CPU 101 is the sub CPU 10
Based on the peripheral data received from 4, processing such as moving a character in the game screen is performed. It should be noted that an arbitrary peripheral such as a PAD, a joystick, and a keyboard can be connected to the connector 7a. The sub CPU 104 includes the connector 7a
It has a function of automatically recognizing the type of peripheral connected to the (main body side terminal) and collecting peripheral data and the like according to a communication method according to the type of peripheral.

【0045】ビデオブロック11は、ビデオゲームのポ
リゴンデータから成るキャラクタ等の描画を行うVDP
(Video Display Processor )120、背景画面の描
画、ポリゴン画像データおよび背景画像の合成、クリッ
ピング処理等を行うVDP130とを備えている。
The video block 11 is a VDP for drawing a character or the like composed of polygon data of a video game.
(Video Display Processor) 120, and a VDP 130 that performs drawing of a background screen, synthesis of polygon image data and a background image, clipping processing, and the like.

【0046】VDP120はVRAM121およびフレ
ームバッファ122、123に接続されている。ビデオ
ゲーム機のキャラクタを表すポリゴンの描画データはメ
インCPU101からSCU100を介してVDP12
0に送られ、VRAM121に書き込まれる。VRAM
121に書き込まれた描画データは、例えば、16また
は8ビット/pixel の形式で描画用のフレームバッファ
122または123に描画される。描画されたフレーム
バッファ122または123のデータはVDP130に
送られる。描画を制御する情報は、メインCPU101
からSCU100を介してVDP120に与えられる。
そして、VDP120は、この指示に従い描画処理を実
行する。
The VDP 120 is connected to the VRAM 121 and the frame buffers 122 and 123. The rendering data of the polygon representing the character of the video game machine is transmitted from the main CPU 101 to the VDP 12 via the SCU 100.
0 and written to the VRAM 121. VRAM
The drawing data written in 121 is drawn in the drawing frame buffer 122 or 123 in the format of 16 or 8 bits / pixel, for example. The drawn data of the frame buffer 122 or 123 is sent to the VDP 130. Information for controlling the drawing includes the main CPU 101.
Through the SCU 100 to the VDP 120.
Then, the VDP 120 executes the drawing process according to the instruction.

【0047】VDP130はVRAM131に接続さ
れ、VDP130から出力された画像データはメモリ1
32を介してエンコーダ160に出力される構成となっ
ている。エンコーダ160は、この画像データに同期信
号等を付加することにより映像信号を生成し、TV受像
機6に出力する。これにより、TV受像機6にゲームの
画面が表示される。
The VDP 130 is connected to the VRAM 131, and the image data output from the VDP 130 is stored in the memory 1
It is configured to be output to the encoder 160 via the P. 32. The encoder 160 generates a video signal by adding a synchronization signal or the like to the image data, and outputs the video signal to the TV receiver 6. Thereby, a game screen is displayed on the TV receiver 6.

【0048】サウンドブロック12は、PCM方式ある
いはFM方式に従い音声合成を行うDSP140と、こ
のDSP140の制御等を行うCPU141とにより構
成されている。DSP140により生成された音声デー
タは、D/Aコンバータ170により2チャンネルの信
号に変換された後にスピーカ6a,6bに出力される。
The sound block 12 includes a DSP 140 that performs voice synthesis according to the PCM system or the FM system, and a CPU 141 that controls the DSP 140 and the like. The audio data generated by the DSP 140 is converted to a two-channel signal by the D / A converter 170 and then output to the speakers 6a and 6b.

【0049】このサブシステム13は、CD−ROM8
の形態で供給されるアプリケーションソフトの読み込
み、動画の再生等を行う機能を備えている。
The subsystem 13 includes a CD-ROM 8
It has a function of reading application software supplied in the form described above, playing a moving image, and the like.

【0050】〔ゲーム装置の動作〕次に、上記ゲーム装
置の動作を、図1を基にするとともに、図2〜9を参照
して説明する。まず、装置全体の動作の流れを図3に基
づき参照して説明する。
[Operation of Game Apparatus] Next, the operation of the above-described game apparatus will be described with reference to FIG. 1 and with reference to FIGS. First, the operation flow of the entire apparatus will be described with reference to FIG.

【0051】このゲーム装置1において、メインCPU
101は、一定時間毎に、図3の全体フローチャートに
入り、データ処理周期でないときには(S11;N
O)、この処理を抜ける。また、データ処理周期のとき
には(S11;YES)、以下の処理に移行する。
In this game apparatus 1, a main CPU
101 enters the entire flowchart of FIG. 3 at regular intervals, and when the data processing cycle is not reached (S11; N
O), exit this process. In the data processing cycle (S11; YES), the processing shifts to the following processing.

【0052】まず、メインCPU101はゲーム処理を
実行する(S12)。つまり、このステップ12におい
て、メインCPU101は、ゲームの処理を行わなけれ
ばならない事項について、例えばゲームソフト、ゲーム
の展開に対応して記憶しておいたデータ及びPAD7b
からのペリフェラルデータ等を基にゲームを展開させ
る。
First, the main CPU 101 executes a game process (S12). That is, in step 12, the main CPU 101 determines, for example, the game software, the data stored in association with the development of the game, and the PAD 7b
The game is developed based on peripheral data etc.

【0053】次に、メインCPU101は画像処理手段
2を実現させる。画像処理手段2は、前のステップにて
得られたゲーム展開に伴うデータを基に、コンピュータ
グラフィクスによるムービー画面で構成された背景画面
データを取り込むとともに、当該背景内において配置さ
せるべきキャラクタデータを取り込み、これらを画像処
理に付す(S13)。
Next, the main CPU 101 implements the image processing means 2. The image processing means 2 captures background screen data composed of a movie screen by computer graphics based on the data associated with the game development obtained in the previous step, and captures character data to be arranged in the background. Are subjected to image processing (S13).

【0054】この第1の実施形態では、ムービー画面で
構成した背景画面データには、例えば当該背景画面内の
各種部品等の輪郭に沿ってポリゴンで構成した簡易モデ
ル(マスクモデル)が予め設定されている。画像処理手
段2は、このポリゴンで構成された簡易モデルと、同様
にポリゴンで構成されるキャラクタデータとの優先度を
判定する。そして、簡易モデルの方がキャラクタデータ
より優先度が高いと判定された場合には、画像処理手段
2はその簡易モデルがキャラクタデータと重なり合う部
分についてキャラクタデータの上に当該モデルを配置し
て、そのモデル部分に背景画面データが表示されるよう
に処理する。
In the first embodiment, a simple model (mask model) composed of polygons along the contours of various parts and the like in the background screen is preset in the background screen data composed of the movie screen. ing. The image processing means 2 determines the priority of the simple model constituted by the polygon and the character data similarly constituted by the polygon. When it is determined that the priority of the simple model is higher than that of the character data, the image processing unit 2 places the model on the character data for a portion where the simple model overlaps the character data, and Process so that background screen data is displayed in the model part.

【0055】一方、画像処理手段2は、キャラクタデー
タの方が簡易モデルより優先度が高いと判定した場合に
は、その簡易モデルがキャラクタと重なり合う部分につ
いてキャラクタデータが優先されるように処理する。
On the other hand, if the image processing means 2 determines that the priority of the character data is higher than that of the simple model, the image processing means 2 performs processing such that the character data is prioritized in a portion where the simple model overlaps the character.

【0056】そして、このような条件に応じて、画像処
理手段2の一部を構成するビデオブロック11において
作成された映像信号は、ディスプレイ6に供給される
(S14)。これにより、ディスプレイ6には、ムービ
ー画面に拠るきめ細か且つ綺麗な背景画面内にポリゴン
で構成されたキャラクタが配置された画像が表示され
る。これは、あたかも立体的に表現された背景画面内を
キャラクタが移動しているような状態として表示される
ことになる。 〔画像及び画像データの例〕まず、デ
ィスプレイ上に表示される画面の例(図5参照)につい
て説明する。
Then, in accordance with such a condition, the video signal created in the video block 11 constituting a part of the image processing means 2 is supplied to the display 6 (S14). As a result, the display 6 displays an image in which characters composed of polygons are arranged in a fine and beautiful background screen based on the movie screen. This is displayed as if the character is moving in a three-dimensionally represented background screen. [Example of Image and Image Data] First, an example of a screen displayed on the display (see FIG. 5) will be described.

【0057】その後、画像データの構成について以下の
順序で説明する。すなわち、最初に画像データを全てポ
リゴンデータで構成した例(図6参照)について説明
し、次に、画像データのうちの例えば背景画像データに
ついて、コンピュータグラフィックスによるムービー画
面データで形成し、この背景内の一部に陰面消去すべき
位置にポリゴンデータで簡易モデルを設定した例(図7
参照)について説明する。また、この簡易モデルとポリ
ゴンデータで構成したキャラクタとの優先度を判定でき
るようにした画像データの例(図8参照)について説明
することにする。
Thereafter, the structure of the image data will be described in the following order. That is, an example in which all image data is composed of polygon data (see FIG. 6) will be described first. Next, for example, background image data of the image data will be formed by movie screen data by computer graphics, and Example of setting a simple model with polygon data at a position where hidden surface should be removed in a part of FIG.
Reference) will be described. Further, an example of image data (see FIG. 8) in which the priority between the simple model and a character constituted by polygon data can be determined will be described.

【0058】A.ディスプレイに表示される画像の例 図5はディスプレイに表示される画面の説明図である。
この図5に示すように、ディスプレイ6には、例えば画
面60aに示すような内容が表示されているものとす
る。この画面60aには、一番手前に第1のエネミー3
0aが配置されていて、その奥側に、デスク30b、キ
ャラクタ40、及び格子状の仕切30cと順次配置され
る。この仕切30cの後ろに、第2のエネミー30d,
30d、椅子30e,30e,…と配置される。さら
に、椅子30e,30e,…の後ろにカウンター30
f、このカウンタ30fの内側に第3のエネミー30g
という順序で配置されている。なお、デスク30bの上
には、シャンデリア30hが配置されている。
A. Example of Image Displayed on Display FIG. 5 is an explanatory diagram of a screen displayed on the display.
As shown in FIG. 5, it is assumed that the display 6 displays, for example, the content shown on the screen 60a. On this screen 60a, the first enemy 3
0a is arranged, and a desk 30b, a character 40, and a grid-like partition 30c are sequentially arranged on the back side. Behind this partition 30c, a second enemy 30d,
30d, chairs 30e, 30e,... In addition, the counter 30 behind the chairs 30e, 30e, ...
f, the third enemy 30g inside this counter 30f
Are arranged in that order. Note that a chandelier 30h is arranged on the desk 30b.

【0059】B.画像データの全てをポリゴンデータで
構成した例 図6は、上記図5に示した画面60aを全てポリゴンで
作成した場合の説明図である。この図6において、前述
した画面60aの全てをポリゴンデータで作成する場合
には、次のように画像データ60d1を作成する必要があ
る。すなわち、画面データ60d1において、一番手前に
ポリゴンデータで構成した第1のエネミーデータ30ad
が配置されるようにする。次に、第1のエネミーデータ
30adの後ろ側となる位置に、ポリゴンデータで構成し
たデスクデータ30bd、シャンデリアデータ30hdが配
置されるようにする。
B. Example in which all of image data is composed of polygon data FIG. 6 is an explanatory diagram in the case where the screen 60a shown in FIG. 5 is entirely composed of polygons. In FIG. 6, when the entire screen 60a described above is created by polygon data, it is necessary to create image data 60d1 as follows. That is, in the screen data 60d1, the first enemy data 30ad composed of polygon data
To be placed. Next, desk data 30bd and chandelier data 30hd composed of polygon data are arranged at positions behind the first enemy data 30ad.

【0060】このデスクデータ30bdの後ろ側に、ボリ
ゴンデータで構成したキャラクタデータ40dが配置さ
れるようにする。以下、キャラクタデータ40dの後ろ
側に、格子状の仕切データ30cd、次いで第2のエネミ
ーデータ30dd,30dd、次いで椅子データ30ed,3
0ed,…と配置され、さらに、椅子データ30ed,30
ed,…の後ろにカウンターデータ30fd、そのカウンタ
データ30fdの内側にさらに第3のエネミーデータ30
gd,30gd,…という順序で配置する必要がある。この
場合、表示される画像60をきめ細かに表現するために
は、ポリゴンデータの数を多量にする必要がある。この
ようにすると、ゲーム装置1のメインCPU101やビ
デオブロック11の処理負担が増大し、他の処理ができ
なくなる恐れがある。
The character data 40d composed of polygon data is arranged behind the desk data 30bd. Hereinafter, behind the character data 40d, grid-like partition data 30cd, second enemy data 30dd, 30dd, and chair data 30ed, 3
0ed, ... and chair data 30ed, 30
After the ed,..., the counter data 30fd, and the third enemy data 30 inside the counter data 30fd.
gd, 30gd,... must be arranged in this order. In this case, in order to express the displayed image 60 finely, it is necessary to increase the number of polygon data. In this case, the processing load on the main CPU 101 and the video block 11 of the game device 1 increases, and there is a possibility that other processing cannot be performed.

【0061】C.画像データ(背景)の一部を簡易ポリ
ゴンデータで構成した例 図7は、ポリゴンデータで構成する部分は背景の一部の
みに限定し、その他の背景部分をコンピュータグラフィ
ックスによるムービー画面で構成した場合の説明図であ
る。
C. Example in which part of image data (background) is composed of simple polygon data. FIG. 7 shows that the part composed of polygon data is limited to only a part of the background, and the other background part is composed of a movie screen by computer graphics. It is an explanatory view of a case.

【0062】この図7からも分かるように、この第1の
実施形態では、ムービー画面で構成される背景画面デー
タ30の内、キャラクタデータ40dとの優先度を判定
する部分に、僅かなポリゴンデータで構成した簡易モデ
ル50bd,50cd,50fdを配置する。ムービー画面
は、(a):コードアドレスに対応した呼出アドレス
と、(b):フレーム画像データ、(c):フレーム内
オブジェクト(簡易モデル)データ、(d):ムービー
のコースデータ(カメラの移動情報)を持っている。
As can be seen from FIG. 7, in the first embodiment, a part of the background screen data 30 composed of a movie screen is determined by a small polygon data in a portion for determining the priority with respect to the character data 40d. The simple models 50bd, 50cd, and 50fd constituted by are arranged. The movie screen includes (a): a call address corresponding to a code address, (b): frame image data, (c): object (simple model) data in a frame, and (d): course data of a movie (movement of a camera). Information).

【0063】ここで、簡易モデル50bdは、ムービー画
面で構成されている背景画面のデスク部分の例えば輪郭
部に配置されている。また、簡易モデル50cdは、ムー
ビー画面で構成されている背景の格子部分の例えば輪郭
部に配置されている。また、簡易モデル50fdは、ムー
ビー画面で構成されている背景のカウンタ部分の例えば
輪郭部に配置されている。この図からも理解できるよう
に、各簡易モデル50bd,50cd,50fdは、少ないポ
リゴンデータ数にて構成されているデータ60d2として
提供されている。
Here, the simple model 50bd is arranged at, for example, an outline of a desk portion of a background screen composed of a movie screen. Further, the simple model 50cd is arranged, for example, at an outline of a lattice portion of a background constituted by a movie screen. Further, the simple model 50fd is arranged, for example, at the outline of the counter portion of the background constituted by the movie screen. As can be understood from this figure, each simple model 50bd, 50cd, 50fd is provided as data 60d2 composed of a small number of polygon data.

【0064】D.画像データ(背景)の一部を簡易ポリ
ゴンデータで構成し、これにキャラクタ等を配置した画
像データの例 図8は、背景の一部のみに僅かなポリゴンデータで構成
した簡易モデルとキャラクタ等の関係を示す説明図であ
る。この第1の実施形態では、図8に示すように、キャ
ラクタデータ40dは多数のポリゴンデータから構成さ
れている。また、第1〜第3のエネミーデータ30ad、
30bd、及び30cdも、多数のポリゴンデータで構成さ
れている。
D. Example of image data in which a part of image data (background) is composed of simple polygon data, and characters and the like are arranged in this part. FIG. It is explanatory drawing which shows a relationship. In the first embodiment, as shown in FIG. 8, the character data 40d is composed of a large number of polygon data. In addition, the first to third enemy data 30ad,
30bd and 30cd are also composed of a large number of polygon data.

【0065】この内、第1のエネミーデータ30adはデ
スクに配置した簡易モデル50bdの前に、キャラクタ4
0dはデスクに配置した簡易モデル50bdの後ろ側で、
かつ格子に配置した簡易モデル50edの前に、第2のエ
ネミー30bdは格子に配置した簡易モデル簡易モデル5
0edの後ろで、カウンタに配置した簡易モデル50fdの
前に、第3のエネミー30gdはカウンタに配置した簡易
モデル50fdの後ろに、それぞれ配置されるようになっ
ている。
The first enemy data 30ad includes the character 4 before the simplified model 50bd placed on the desk.
0d is behind the simple model 50bd placed on the desk,
In addition, before the simplified model 50ed placed on the grid, the second enemy 30bd is the simplified model 5d placed on the grid.
After 0ed, before the simplified model 50fd arranged on the counter, the third enemy 30gd is arranged after the simplified model 50fd arranged on the counter, respectively.

【0066】E.データの構成例 図9は、この第1の実施形態におけるムービー画面が持
つデータの構成例を示す説明図である。
E. Data Configuration Example FIG. 9 is an explanatory diagram showing a data configuration example of the movie screen according to the first embodiment.

【0067】このコンピュータグラフィックスによるム
ービー画像は、ムービーデータD1,D2,…,Dnを
持っている。このムービーデータD1,D2,…,Dn
の各々は、フレーム画像データFD1a,FD1b,…,F
D1mを有している。また、このムービーデータD1,D
2,…,Dnに対して、カメラの移動データCD1,C
D2,…,CDnと、フレーム内の簡易モデルデータ6
d1,6d2,…,6dnとを備えている。
The movie image by computer graphics has movie data D1, D2,..., Dn. The movie data D1, D2,..., Dn
Are frame image data FD1a, FD1b,.
D1m. Also, the movie data D1, D
2,..., Dn, camera movement data CD1, C
D2,..., CDn and simple model data 6 in the frame
, 6dn,..., 6dn.

【0068】また、画像処理では、フレーム画像データ
FD1a,FD1b,…,FD1mを基準フレームとし、例え
ばこのフレーム画像データFD1aとフレーム画像データ
FD1bとの間、フレーム画像データFD1bとフレーム画
像データFD1cの間、フレーム画像データFD1cとフレ
ーム画像データFD1dの間、…を補間することにより、
連続した映像を作成することもできる。
In the image processing, the frame image data FD1a, FD1b,..., FD1m is used as a reference frame, for example, between the frame image data FD1a and the frame image data FD1b and between the frame image data FD1b and the frame image data FD1c. , Between the frame image data FD1c and the frame image data FD1d,.
You can also create a continuous video.

【0069】〔画像処理の具体的動作〕次に、図3のス
テップS13において処理される画像処理について説明
する。図4は、画像処理の具体的な動作について説明す
るためのフローチャートである。
[Specific Operation of Image Processing] Next, the image processing performed in step S13 of FIG. 3 will be described. FIG. 4 is a flowchart for explaining a specific operation of the image processing.

【0070】この図4において、画像処理手段2は、ゲ
ームソフトを実行することにより得られる場面データを
読み込む(S131)。次に、画像処理手段2は、前の
ステップで得た当該場面データを基に例えば図9に示す
ムービーデータD1に対する該当する場面のフレームデ
ータFD1aを読み込む(S132)。このムービー画面
は、(a):コードアドレスに対応した呼出アドレス
と、(b):フレーム画像データ、(c):フレーム内
オブジェクト(簡易モデル)データ、(d):ムービー
のコースデータ(カメラの移動情報)に関するデータを
有している。
In FIG. 4, the image processing means 2 reads scene data obtained by executing the game software (S131). Next, the image processing means 2 reads, for example, frame data FD1a of the scene corresponding to the movie data D1 shown in FIG. 9 based on the scene data obtained in the previous step (S132). The movie screen includes (a): a call address corresponding to a code address, (b): frame image data, (c): object (simple model) data in a frame, and (d): course data of a movie (camera data). Movement information).

【0071】そして、画像処理手段2は、当該場面の簡
易モデルデータ(例えば、図7のようなマスクモデル)
を読み出す(S133)。この場合の簡易モデル(マス
クモデル)は、無色のオブジェクトである。
Then, the image processing means 2 outputs simple model data of the scene (for example, a mask model as shown in FIG. 7).
Is read (S133). The simple model (mask model) in this case is a colorless object.

【0072】次いで、画像処理手段2は、例えば図8に
示すように前記簡易モデルを仮想空間に配置する(S1
34)。そして、画像処理手段2は、図8に示すような
画像データを基に、Zソート法やZバッファ法を使用し
て、ゲームキャラクタデータと簡易モデルとのコリジョ
ン判定を行う(S135)。
Next, the image processing means 2 places the simple model in a virtual space as shown in FIG. 8, for example (S1).
34). Then, based on the image data as shown in FIG. 8, the image processing means 2 makes a collision determination between the game character data and the simple model by using the Z sort method or the Z buffer method (S135).

【0073】このような判定を行った結果を基に、画像
処理手段2は、ゲームキャラクタの修正表示する(S1
36)。しかる後に、画像処理手段2は、上記ムービー
画面に関するデータに基づき視点変換処理を行なって
(S137)、その処理結果のデータをフレームバッフ
ァ122、123に出力する(S138)。
Based on the result of such determination, the image processing means 2 corrects and displays the game character (S1).
36). Thereafter, the image processing means 2 performs a viewpoint conversion process based on the data regarding the movie screen (S137), and outputs the processing result data to the frame buffers 122 and 123 (S138).

【0074】このような画像処理したことにより、ディ
スプレイ6には、図5に示すような画面60aが表示さ
れることになる。
As a result of such image processing, a screen 60 a as shown in FIG. 5 is displayed on the display 6.

【0075】このような実施形態によれば、コンピュー
タグラフィックスによるムービー画面を使用したことに
より、きめが細かく且つ綺麗な画面を表示でき、しか
も、ゲーム装置による画像処理の負担が少ないという利
点がある。
According to such an embodiment, the use of a movie screen by computer graphics enables display of a fine-grained and beautiful screen, and also has the advantage of reducing the burden of image processing on the game device. .

【0076】また、この実施形態によれば、背景の一部
にマスクさせるために少ないポリゴンデータからなる簡
易モデルを配置し、これにより背景とゲームキャラクタ
とのコリジョン判定を行うことにより、等価的な3次元
的表示を行なうことができる。すなわち、この第1の実
施形態によれば、画面の一部にムービー画面を使用する
ことにより、画面の表現を多彩化するとともに描画処理
を著しく軽減し、かつ、このムービー画面上において移
動する表示体の動作をより円滑に表現できる。
Further, according to this embodiment, a simple model composed of a small amount of polygon data is arranged to mask a part of the background, and a collision between the background and the game character is determined. Three-dimensional display can be performed. That is, according to the first embodiment, by using a movie screen as a part of the screen, the expression of the screen is diversified, the drawing process is remarkably reduced, and the moving image is displayed on the movie screen. Body movement can be expressed more smoothly.

【0077】(第2の実施の形態)図10〜14に基づ
き、本発明の第2の実施形態を説明する。
(Second Embodiment) A second embodiment of the present invention will be described with reference to FIGS.

【0078】図10は、本発明に係る第2の実施形態に
おける画像処理の概要を説明するための図である。
FIG. 10 is a diagram for explaining an outline of image processing according to the second embodiment of the present invention.

【0079】この図10において、このTVゲーム装置
などのゲーム装置1内には、上述したように、画像処理
手段2が実現されている。
In FIG. 10, the image processing means 2 is realized in the game device 1 such as the TV game device as described above.

【0080】この画像処理手段2は、図10に示すよう
に、コンピュータグラフィックスによるムービー画像で
構成される背景画像(第1の表示体)データ3dと、ポ
リゴンデータによる立体画像で構成されるゲームキャラ
クタ(第2の表示体)データ4dとを画像処理して、デ
ィスプレイ6に与える。ディスプレイ6には、図10に
示すような、デスク3aの後であって、壁面3bの前
に、キャラクタ4が立った状態の画像60が表示されて
いる。
As shown in FIG. 10, the image processing means 2 is a game composed of background image (first display body) data 3d composed of a movie image by computer graphics and a stereoscopic image composed of polygon data. Image processing is performed on the character (second display body) data 4 d and the result is given to the display 6. The display 6 displays an image 60 in a state where the character 4 is standing after the desk 3a and in front of the wall surface 3b, as shown in FIG.

【0081】この画像処理手段2は、背景画像データ3
dに対する仮想カメラ15を設定し、ゲームキャラクタ
データ4dが背景画像データ3d上を移動する際に、背
景画像データ3dに対するカメラ16の角度に前記仮想
カメラ15の位置をほぼ一致させるように仮想カメラ1
5の動きを制御し、一方、このゲームキャラクタデータ
4dが前記背景画像データ3dを逆に動く場合には、前
記背景画像データ3dを逆モーションに再生し、逆モー
ションの背景画像データ3dに対するカメラ16の角度
に前記仮想カメラ15の位置をほぼ一致させるように制
御させるようにしたものである。
The image processing means 2 converts the background image data 3
The virtual camera 15 is set so that the position of the virtual camera 15 substantially matches the angle of the camera 16 with respect to the background image data 3d when the game character data 4d moves on the background image data 3d.
When the game character data 4d moves the background image data 3d in the reverse direction, the background image data 3d is reproduced in the reverse motion, and the camera 16 for the reverse motion background image data 3d is controlled. Is controlled so that the position of the virtual camera 15 substantially matches the angle.

【0082】この際、画像処理手段2は、背景画面デー
タ3dのうちゲームキャラクタデータ4dが移動すべき
領域を複数の区画に分け、一つの区画から他の区画に前
記キャラクタデータ4dが移動するときに仮想カメラ1
5を当該移動に伴った画像を仮想的に撮影しながら、他
の区画の最初の位置についてのカメラ16の角度にほぼ
一致させる制御するようにしたものである。
At this time, the image processing means 2 divides the area of the background screen data 3d where the game character data 4d should move into a plurality of sections, and when the character data 4d moves from one section to another section. Virtual camera 1
5 is controlled so as to virtually match the angle of the camera 16 with respect to the initial position of another section while virtually capturing an image accompanying the movement.

【0083】この第2の実施の形態においても、第1の
実施の形態で使用したゲーム装置1と同等のハードウエ
ア構成のゲーム装置が使用される。このため、同一又は
同様の構成要素には同一符号を用い、その説明を省略又
は簡略化する。
Also in the second embodiment, a game device having the same hardware configuration as the game device 1 used in the first embodiment is used. Therefore, the same or similar components are denoted by the same reference numerals, and description thereof will be omitted or simplified.

【0084】本実施形態のゲーム装置1にあっては、C
PUブロック10を中心として以下の如く、各種の画像
処理が実行されている。この画像処理を、図11〜14
の図面を参照して説明する。
In the game device 1 of the present embodiment, C
Various image processes are executed with the PU block 10 as the center as described below. This image processing is performed as shown in FIGS.
This will be described with reference to the drawings.

【0085】図11は、第2の実施形態の動作例を説明
するための図である。図12は、その動作を説明するた
めのフローチャートである。図13は図12のサブルー
チンである。図14は、その動作の表示例を示す図であ
る。
FIG. 11 is a diagram for explaining an operation example of the second embodiment. FIG. 12 is a flowchart for explaining the operation. FIG. 13 is a subroutine of FIG. FIG. 14 is a diagram showing a display example of the operation.

【0086】この図11において、領域 sp.A, sp.
B, sp.C, sp.D, sp.E,…、及び重なり領域 sp.
A−B, sp.B−C, sp.B−D, sp.D−E,…は、
キャラクタが移動できる範囲である。丸で囲ったA,
B,C,D,E,…は、カメラの位置である。
In FIG. 11, regions sp.A and sp.
B, sp.C, sp.D, sp.E,...
AB, sp.BC, sp.BD, sp.DE, ...
The range in which the character can move. A circled,
.., B, C, D, E,... Are camera positions.

【0087】移動画像データcam.A−Bはカメラ位置A
からカメラ位置Bへ移動する際のカメラワーク及びムー
ビーを示す。移動画像データcam.B−Aはカメラ位置B
からカメラ位置Aへ移動する際のカメラワーク及びムー
ビーを示す。この実施の形態では、カメラ位置Aからカ
メラ位置Bへ移動するカメラワークの画像データと、カ
メラ位置Bからカメラ位置Aへ移動するカメラワークの
画像データとを独立にもっている。以下、同様である。
The moving image data cam.AB is the camera position A.
4 shows a camera work and a movie when moving from a camera position to a camera position B. The moving image data cam.BA is the camera position B.
2 shows a camera work and a movie when moving from the camera position to the camera position A. In this embodiment, the image data of the camerawork moving from the camera position A to the camera position B and the image data of the camerawork moving from the camera position B to the camera position A are made independent. Hereinafter, the same applies.

【0088】同様に、移動画像データcam.B−Cはカメ
ラ位置Bからカメラ位置Cへ移動する際のカメワーク及
びムービーを示す。移動画像データcam.C−Bはカメラ
位置Cからカメラ位置Bへ移動する際のカメワーク及び
ムービーを示す。
Similarly, moving image data cam.BC shows a turtle work and a movie when moving from camera position B to camera position C. The moving image data cam.CB indicates a turtle work and a movie when moving from the camera position C to the camera position B.

【0089】同様に、移動画像データcam.B−Dはカメ
ラ位置Bからカメラ位置Dへ移動する際のカメワーク及
びムービーを示す。移動画像データcam.D−Bはカメラ
位置Dからカメラ位置Bへ移動する際のカメワーク及び
ムービーを示す。
Similarly, moving image data cam.BD indicates a turtle work and a movie when moving from camera position B to camera position D. The moving image data cam.DB indicates a turtle work and a movie when moving from the camera position D to the camera position B.

【0090】同様に、移動画像データcam.D−Eはカメ
ラ位置Dからカメラ位置Eへ移動する際のカメワーク及
びムービーを示す。移動画像データcam.E−Dはカメラ
位置Eからカメラ位置Dへ移動する際のカメワーク及び
ムービーを示す。
Similarly, the moving image data cam.DE indicates a turtle work and a movie when moving from the camera position D to the camera position E. The moving image data cam.ED indicates a turtle work and a movie when moving from the camera position E to the camera position D.

【0091】キャラクタ4は領域 sp.Aから移動を開始
するものとすると、画像処理手段2は、キャラクタ4が
領域 sp.A及び重なり領域 sp.A−B内にいると判定し
たときには、カメラ位置Aにおいてカメラ15Aで写し
たフレーム(背景画像(画像データcam.A))を表示す
るように処理する。
Assuming that the character 4 starts moving from the area sp.A, the image processing means 2 determines that the character 4 is within the area sp.A and the overlapping area sp. In A, processing is performed to display a frame (background image (image data cam.A)) captured by the camera 15A.

【0092】キャラクタ4が重なり領域 sp.A−Bから
領域 sp.Bに移動したときには、カメラワーク及びムー
ビー(移動画像データcam.A−B)を再生し、最終フレ
ームで止める。
When the character 4 moves from the overlapping area sp. AB to the area sp. B, the camera work and the movie (moving image data cam. AB) are reproduced and stopped at the last frame.

【0093】領域 sp.Bからは、図11からも分かるよ
うに、3方向に移動できる。もちろん、分岐数はこれに
限ることなく、いくつに分岐してもよい。
From the area sp.B, as can be seen from FIG. 11, it can be moved in three directions. Of course, the number of branches is not limited to this, and any number of branches may be used.

【0094】キャラクタ4が重なり領域 sp.A−Bから
領域 SP.Aに移動するときに、重なり領域sp.A−Bに
居るときには移動画像データcam.A−Bの最終フレーム
のままにしておき、キャラクタ4が領域 sp.Aに移った
時点で移動画像データcam.B−Aを再生し始め、カメラ
15をカメラ位置Aに移して画面cam.A(移動画像デー
タcam.B−Aの最終フレーム)を表示させるような処理
を行う。
When the character 4 moves from the overlapping area sp.AB to the area SP.A and remains in the overlapping area sp.AB, the last frame of the moving image data cam.AB is left as it is. When the character 4 moves to the area sp.A, the moving image data cam.BA starts to be reproduced, the camera 15 is moved to the camera position A, and the screen cam.A (the final moving image data cam.BA) ends. Frame) is displayed.

【0095】また、領域 sp.Bから領域 sp.Cに進む場
合は、重なり領域 sp.B−Cから領域 sp.Cに移った時
点で再生し始め、領域 sp.C及び重なり領域 sp.B−C
にキャラクタ4がある間は、最終フレームを表示するよ
うにする。
When the operation proceeds from the area sp.B to the area sp.C, the reproduction is started when the area sp.BC is shifted to the area sp.C, and the reproduction is started at the area sp.C and the overlapping area sp.B. -C
The last frame is displayed while the character 4 is present.

【0096】さらに、領域 sp.Bから領域 sp.Dに進む
場合は、重なり領域 sp.B−Dから領域 sp.Dに移った
時点で再生し始め、領域 sp.D及び重なり領域 sp.D−
Eにキャラクタ4がある間は、最終フレームを表示する
ようにする。
Further, when proceeding from the area sp.B to the area sp.D, reproduction is started at the time when the area sp.BD is shifted to the area sp.D, and the area sp.D and the overlapping area sp.D are reproduced. −
As long as the character 4 is in E, the last frame is displayed.

【0097】なお、重なり領域 sp.A−B等の中立地帯
の幅は任意に設定でき、もちろん幅=0であってもよ
い。
Note that the width of the neutral zone such as the overlapping area sp. AB can be set arbitrarily, and of course, the width may be zero.

【0098】図14において、画像処理手段2は、コン
ピュータグラフィックスにより構成した所定の長さの通
路30jと階段30kとを連続させて、ある背景画像デ
ータ3dを生成しているものとし、この背景画像データ
3dはそれぞれ矢印X、Y方向から見た背景画像データ
として作成されているものとする。また、この背景画像
データ3dは、矢印Xや矢印Y方向から見て作成してい
る。すなわち、背景画面のデータを撮影したカメラ16
の角度と、キャラクタ4を撮影する仮想カメラ15の角
度とを、ほぼ一致させている。
In FIG. 14, it is assumed that the image processing means 2 generates a certain background image data 3d by connecting a path 30j of a predetermined length formed by computer graphics and a staircase 30k continuously. It is assumed that the image data 3d is created as background image data viewed from the directions of the arrows X and Y, respectively. The background image data 3d is created when viewed from the arrow X and arrow Y directions. That is, the camera 16 that captured the data of the background screen
And the angle of the virtual camera 15 for photographing the character 4 are substantially matched.

【0099】ここで、両カメラ15,16の角度をほぼ
一致させるとは、画面での見え方に不自然さがないよう
な程度のことをいう。このムービーに対するカメラ16
の角度と、仮想カメラ15の角度との範囲は、適宜決定
される。
Here, "to make the angles of the cameras 15 and 16 substantially coincide with each other" means that there is no unnatural appearance in the screen. Camera 16 for this movie
And the range of the angle of the virtual camera 15 are appropriately determined.

【0100】このような背景画像データ3dの元にキャ
ラクタデータ4dが移動してゆく状態を仮想カメラ15
で撮影しているものとする。まず、仮想カメラ15Aが
丸で囲ったA点から背景画像データ3dとキャラクタデ
ータ4dとを写しているものとする。キャラクタデータ
4dの移動に伴って、ディスプレイ6には、画像60
b,60c、60dと移動してゆく画像が表示されるこ
とになる。
The state in which the character data 4d moves under such background image data 3d is indicated by the virtual camera 15
It is assumed that you are shooting with. First, it is assumed that the virtual camera 15A captures the background image data 3d and the character data 4d from point A surrounded by a circle. With the movement of the character data 4d, an image 60 is displayed on the display 6.
Images moving in b, 60c and 60d are displayed.

【0101】そして、重なり領域 sp.A−Bから領域 s
p.Bに移動すると、カメラ位置Aに在ったカメラ15A
からカメラ位置Bのカメラ15Bに移動する。カメラ位
置Aからカメラ位置Bに移動する際のカメラ15のカメ
ラワーク及びムービーを出力できるようになっている。
このようにキャラクタが移動する場合の処理を、図11
〜14を参照しながら以下に説明する。。
Then, the overlapping area sp.
When moving to p.B, camera 15A at camera position A
To the camera 15B at the camera position B. The camera work and the movie of the camera 15 when moving from the camera position A to the camera position B can be output.
The processing when the character moves in this manner is described in FIG.
This will be described below with reference to FIGS. .

【0102】キャラクタが図11の領域 sp.Aを移動し
ているときには、画像処理手段によって図12のステッ
プS21〜S24の動作を繰り返している。なお、この
ステップS21〜24の処理は、第1の実施形態で説明
した動作に相当する処理である。
When the character is moving in the area sp. A in FIG. 11, the operations of steps S21 to S24 in FIG. 12 are repeated by the image processing means. The processing in steps S21 to S24 is processing corresponding to the operation described in the first embodiment.

【0103】この移動状態のとき、画像処理手段2は、
背景画像データ3dとして、図11に示すカメラ位置A
からカメラ15Aで写した背景画像データ3j(cam.
A)を得ている。
In this moving state, the image processing means 2
The camera position A shown in FIG.
Image data 3j (cam.
A).

【0104】ステップS21〜S24の処理により実現
される動作の概要は、第1の実施形態のときと同様に、
以下のようになる。
The outline of the operation realized by the processing of steps S21 to S24 is the same as in the first embodiment.
It looks like this:

【0105】まず、該当する場面のフレームデータFD
1aが読み込まれるとともに、当該場面の簡易モデルデー
タ5dが読み込まれ、前記簡易モデルデータ5dが仮想
空間に配置される。そして、ゲームキャラクタデータ4
dと簡易モデル5dとのコリジョン判定が行なわれ、ム
ービー画像中においてキャラクタを隠す必要があるか否
かが判定され、その判定結果に対する処理が行われる
(S21:図13)。
First, the frame data FD of the corresponding scene
1a is read, the simple model data 5d of the scene is read, and the simple model data 5d is arranged in the virtual space. Then, the game character data 4
The collision determination between d and the simple model 5d is performed, and it is determined whether or not it is necessary to hide the character in the movie image, and a process is performed on the determination result (S21: FIG. 13).

【0106】すなわち、図13のサブルーチンに示す如
く、該当する場面のフレームデータFD1a及び簡易モデ
ルデータ5dが読み込み、及び、簡易モデルデータ5d
の仮想空間への配置(ステップS201)の後、ゲーム
キャラクタデータ4dと簡易モデルデータ5dとのコリ
ジョン判定が行なわれ、ムービー画像中のキャラクタを
隠す必要があるか否かが判定される(S202)。
That is, as shown in the subroutine of FIG. 13, the frame data FD1a and the simple model data 5d of the corresponding scene are read and the simple model data 5d
Is placed in the virtual space (step S201), collision determination is performed between the game character data 4d and the simple model data 5d, and it is determined whether it is necessary to hide a character in the movie image (S202). .

【0107】まず、隠す必要がないときには(S20
2;NO)、何もしないでこの処理を通過する。また、
隠す必要があるときには(S202;YES)、簡易モ
デルデータ5dがカメラ15Aのカメラ角度に合わせて
配置される(S203)。この簡易モデルデータ5dと
キャラクタデータ4dとの重なりあった部分には、ムー
ビー画面が表示される。
First, when there is no need to hide (S20)
2; NO), this process is passed without doing anything. Also,
When it is necessary to hide (S202; YES), the simple model data 5d is arranged according to the camera angle of the camera 15A (S203). A movie screen is displayed in a portion where the simple model data 5d and the character data 4d overlap.

【0108】次に、画像処理手段2は、遊戯者がPAD
7bを操作することによって得られるペリフェラルデー
タを基にキャラクタデータをムービー画面データ中で移
動させる(S22)。
Next, the image processing means 2 determines that the player
The character data is moved in the movie screen data based on the peripheral data obtained by operating 7b (S22).

【0109】このステップS21を終了すると、再び、
前述のサブルーチン(図13のステップS201〜S2
03)を実行する(S22)。
When this step S21 is completed, again
The aforementioned subroutine (steps S201 to S2 in FIG. 13)
03) is executed (S22).

【0110】そして、画像処理手段2は、ムービー画面
データで構成した背景画面データのカメラ15の位置を
変更する必要があるかを判定する(S24)。キャラク
タデータ4dが領域sp.A及び重なり領域 sp.A−Bの
内部にあるときには、このカメラ15の位置の変更する
必要がないと判定し(S24;NO)、再び、ステップ
S22以降の処理に移す。
Then, the image processing means 2 determines whether it is necessary to change the position of the camera 15 in the background screen data composed of the movie screen data (S24). When the character data 4d is inside the area sp.A and the overlapping area sp.AB, it is determined that the position of the camera 15 does not need to be changed (S24; NO), and the process is repeated again from step S22. Move.

【0111】ここで、画像処理手段2は、キャラクタが
重なり領域 sp.A−Bから領域 sp.Bに移動すると(図
11参照)、カメラ15の位置を変更する必要があると
判定され(S24;YES)、図11及び図14に示す
ように、カメラ位置Aに合ったカメラ15Aをカメラ位
置Bに移動させてカメラ15Bとする(S25)。この
カメラ移動に合わせて、移動画像データcam.A−Bを再
生する(S25)。この際にも、キャラクタデータ4d
と背景画像データ3dとの間で、重なり画像処理(図1
3のサブルーチンのステップS201,S202)を処
理する(S26)。そして、画像処理手段2は、カメラ
15Aで写したカメラ位置Aからカメラ位置Bまでのフ
レーム及びこれに同期してムービーも表示させてゆき、
最終フレームを表示して処理を終了する(S27)。
When the character moves from the overlapping area sp. AB to the area sp. B (see FIG. 11), the image processing means 2 determines that the position of the camera 15 needs to be changed (S24). ; YES), as shown in FIGS. 11 and 14, the camera 15A that matches the camera position A is moved to the camera position B to be a camera 15B (S25). The moving image data cam.AB is reproduced in accordance with the movement of the camera (S25). Also at this time, the character data 4d
Image processing between the image and the background image data 3d (FIG. 1)
Steps S201 and S202 of the third subroutine are processed (S26). Then, the image processing means 2 displays the frame from the camera position A to the camera position B captured by the camera 15A and the movie in synchronization with the frame,
The last frame is displayed and the process ends (S27).

【0112】このようにすることにより、ムービー画面
で構成した階段3kの背景画像データ3dの上にキャラ
クタデータ4dが配置された映像信号となり、これがデ
ィスプレイ6に与えられて、図14(c)のような画像
として表示される。
Thus, a video signal in which the character data 4d is arranged on the background image data 3d of the stairs 3k composed of the movie screen is given to the display 6, and is given to the display 6 in FIG. It is displayed as such an image.

【0113】このような第2の実施形態によれば、ポリ
ゴンで構成されたキャラクタの動きにリンクする形で、
ムービーで表現された背景が移動するため、画面が著し
く綺麗な状態の表現が可能のほかに、自由度の高い画像
表現が可能になる。
According to the second embodiment, a link to the movement of a character composed of polygons is provided.
Since the background represented by the movie moves, not only can the screen be displayed in an extremely beautiful state, but also an image can be expressed with a high degree of freedom.

【0114】上記各実施の形態における動作をコンピュ
ータに実行させるためのプログラムを記録した媒体を設
けることが好ましい。この媒体には、例えば、フロッピ
ーディスク、ハードディスク、磁気テープ、CD−RO
M、CD−R、DVD、ROMカートリッジ、バッテリ
バックアップつきのRAMメモリカートリッジ、フラッ
シュメモリ、不揮発性RAMカード等が挙げられる。
It is preferable to provide a medium on which a program for causing a computer to execute the operations in the above embodiments is recorded. This medium includes, for example, floppy disk, hard disk, magnetic tape, CD-RO
M, CD-R, DVD, ROM cartridge, RAM memory cartridge with battery backup, flash memory, nonvolatile RAM card, and the like.

【0115】また、媒体は、電話回線等の優先通信媒
体、マイクロ波回線等の無線通信媒体等通信媒体も含
む。インターネットも、この通信媒体に含まれる。要す
るに、何らかの手段で、コンピュータにプログラムをダ
ウンロードさせて、所定の機能を備えるものであれば、
この媒体に含まれる。
The medium includes a communication medium such as a priority communication medium such as a telephone line and a wireless communication medium such as a microwave line. The Internet is also included in this communication medium. In short, as long as it has a predetermined function by downloading the program to the computer by some means,
Included in this medium.

【0116】(第3の実施形態)図15〜20を参照し
て、本発明の第3の実施形態を説明する。
(Third Embodiment) A third embodiment of the present invention will be described with reference to FIGS.

【0117】この第3の実施形態に係るゲーム装置は、
いわゆる音楽ゲームを行うもので、画面上に表示された
オブジェクトとしてのキャラクタは音楽に合わせてダン
スをするゲームを行う。このダンスは、装置側でキャラ
クタを自動的に動かす動作(以下、「自動モーショ
ン」)と、音楽中に再生される台詞に相当した指令に反
応して遊戯者が操作部を操作することによる動作(以
下、「手動モーション」)とに分かれる。
The game device according to the third embodiment is
In a so-called music game, a character as an object displayed on the screen performs a game of dancing to music. In this dance, the device automatically moves the character (hereinafter referred to as "auto motion"), and the player operates the operation unit in response to a command corresponding to a line played during music. (Hereinafter referred to as “manual motion”).

【0118】例えば、ダンス音楽がBGMとして流され
ながら、キャラクタは歩く、跳ねる、膝を左右に振るな
どの所定の基本的な動きを自動モーションで行う。これ
に並行して、音楽の中で、例えば「アップ、アップ、ラ
イト」という指令が発生された場合、遊戯者はこのコマ
ンドに合うように操作部の方向キーを操作することによ
って、コマンドに対応した手動モーションを再生させよ
うとする。このとき、遊戯者は操作部の例えば方向キー
の上向きキーを2回、右向きキーを1回、それぞれ短い
期間に押すことによって適切な動きをキャラクタに与え
ることができる。この操作の仕方が不適切であると、キ
ャラクタの動きも適切なものにならない。また、このダ
ンスの合間に敵のキャラクタを例えばガンで攻撃してこ
れを倒す、例えば「シュート」といった指令も音楽に含
まれるので、このときは遊戯者は所定のボタン操作を行
う必要がある。これらの操作がゲーム要素を構成するも
ので、操作の正確や迅速さがゲーム結果として判定され
る。
For example, while dance music is played as BGM, the character performs predetermined basic movements such as walking, bouncing, and waving his knees in an automatic motion. In parallel with this, if a command such as “up, up, right” is issued in the music, the player operates the direction keys of the operation unit to match the command, and responds to the command. Attempt to play the manual motion that was performed. At this time, the player can give an appropriate movement to the character by pressing, for example, the up key of the direction key twice and the right key of the operation unit once in a short period. If the manner of this operation is inappropriate, the movement of the character will not be appropriate. Also, during the dance, an instruction such as attacking an enemy character with a gun and defeating it, for example, a "shoot" is also included in the music. In this case, the player needs to perform a predetermined button operation. These operations constitute a game element, and the accuracy and speed of the operation are determined as a game result.

【0119】自動モーションデータも手動モーションデ
ータも音声データのシーケンスに従って、モーションの
開始タイミング、モーションを再生するための時間が事
前にプログラムされている。後述のように、シーケンス
とは、音声データの拍(ビート)の特性に対応し、1分
間に再生されるビート数を含む。この制御の概要は、特
定のモーションデータに応じた特定のモーションをキャ
ラクタに何ビート目から何ビート間で再生するかという
ことである。
In both the automatic motion data and the manual motion data, the start timing of the motion and the time for reproducing the motion are programmed in advance according to the sequence of the audio data. As described later, the sequence corresponds to the characteristic of the beat of the audio data and includes the number of beats reproduced in one minute. The outline of this control is how to reproduce a specific motion corresponding to specific motion data from a beat to a beat.

【0120】既述の指令も音楽データの特定のビートの
ところにおいて存在し、指令が開始されると初期モーシ
ョンがキャラクタに開始される。例えば、数フレーム間
に適切なキー操作があった時、対応するモーションデー
タに基づいて適切なモーションが再生されるが、適切な
キー操作が無かったときでは、キー操作に対応するモー
ションデータに基づいて不適切なモーションが再生され
る。これら手動モーションは、既述のように音声データ
のシーケンスによって制御されている。シーケンス制御
の具体的な内容は後述する。
The above-mentioned command also exists at a specific beat of the music data, and when the command is started, the initial motion is started for the character. For example, when there is an appropriate key operation during several frames, an appropriate motion is played based on the corresponding motion data, but when there is no appropriate key operation, based on the motion data corresponding to the key operation, Improper motion is played. These manual motions are controlled by the sequence of audio data as described above. Specific contents of the sequence control will be described later.

【0121】以下、この音楽ゲームにおいて、自動モー
ションについての制御について説明する。自動モーショ
ンを音楽に合わせ(同期、又はリンクさせる)、この制
御を簡単に、演算量少なく、且つ、時間的に長短のある
各種のモーションに容易に対処可能にすることができ
る。手動モーションの場合でも、同じである。このよう
なゲーム装置は以下のように構成される。図15に本発
明に係るゲーム装置の概観図を、図16にその電気的な
ハードウェアブロック図を示す。また、音声の再生とキ
ャラクタの動きとの同期のほか、背景映像であるムービ
ー映像の再生もキャラクタの動きと動作させることも可
能である。これにより、ムービー映像の再生と、キャラ
クタの動き、音声の再生が同期している。
Hereinafter, control of automatic motion in the music game will be described. By adjusting the automatic motion to the music (synchronizing or linking), it is possible to easily cope with various types of motion having a short and long time in a simple manner, with a small amount of calculation. The same is true for manual motion. Such a game device is configured as follows. FIG. 15 shows an overview of a game device according to the present invention, and FIG. 16 shows an electrical hardware block diagram thereof. In addition to the synchronization between the reproduction of the sound and the movement of the character, the reproduction of the movie video as the background video can be caused to operate with the movement of the character. Thereby, the reproduction of the movie video is synchronized with the reproduction of the movement of the character and the sound.

【0122】本ゲーム装置は、図15に示すように、ゲ
ーム装置本体201、コントローラ202およびサブユ
ニットとしてのバックアップメモリ203を相互に接続
して構成される。
As shown in FIG. 15, the present game device is constituted by mutually connecting a game device main body 201, a controller 202 and a backup memory 203 as a subunit.

【0123】ゲーム装置本体201はゲーム進行を司る
制御装置本体である。ゲーム装置本体201は、複数の
コントローラ202がコネクタCを介して接続可能にな
っている。またゲーム装置本体201はCD−ROM用
ドライブ211を備え、CD−ROM等の記録媒体を着
脱自在に装着できるようになっている。
The game apparatus main body 201 is a control apparatus main body for controlling the progress of a game. The game apparatus main body 201 is configured such that a plurality of controllers 202 can be connected via a connector C. The game apparatus main body 201 includes a CD-ROM drive 211 so that a recording medium such as a CD-ROM can be detachably mounted.

【0124】コントローラ202は、各遊戯者が操作す
る操作部としての構成を備えており、操作ボタン群22
1や十字キー222等を備え、コネクタPを備えた接続
コード204でゲーム装置本体201と接続可能になっ
ている。コントローラ202は、バックアップメモリ2
03を着脱自在に備えている。
The controller 202 has a structure as an operation section operated by each player, and is provided with an operation button group 22.
1 and a cross key 222 and the like, and can be connected to the game apparatus main body 201 by a connection cord 204 having a connector P. The controller 202 includes the backup memory 2
03 is provided detachably.

【0125】ゲーム装置本体201はコンピュータ装置
類似の構成を備え、図16に示すように、CPUブロッ
ク230,ビデオブロック231、サウンドブロック2
32および通信装置233などを備えている。
The game device main body 201 has a configuration similar to a computer device, and as shown in FIG. 16, a CPU block 230, a video block 231 and a sound block 2 as shown in FIG.
32 and a communication device 233.

【0126】CPUブロック230は、バスアビータ3
00、CPU301、メインメモリ302、ROM30
3およびCD−ROMドライブ211を備えている。バ
スアビータ300は、バスを介して相互に接続されるデ
バイスにバス占有時間を割り振ることにより、データの
送受信を制御可能に構成されている。CPU301は、
メインメモリ302、ROM303、CD−ROMドラ
イブ211、ビデオブロック231およびサウンドブロ
ック232、コントローラ202を介してバックアップ
メモリ203にアクセス可能に構成されている。
The CPU block 230 includes a bus arbiter 3
00, CPU 301, main memory 302, ROM 30
3 and a CD-ROM drive 211. The bus arbiter 300 is configured to control transmission and reception of data by allocating a bus occupation time to devices connected to each other via a bus. The CPU 301
The backup memory 203 can be accessed via the main memory 302, the ROM 303, the CD-ROM drive 211, the video block 231 and the sound block 232, and the controller 202.

【0127】CPU301は、ゲームの遂行するのに必
要な各種の処理及び制御を行い、画像データをグラフィ
ックメモリ311に転送し、また音声データをサウンド
メモリ321に転送可能になっている。ROM303
は、イニシャルプログラムローダの格納領域である。R
OM303は、本発明の記録媒体を構成する要素であ
り、CPU301の処理に必要なプログラムが予め記録
されている。なお、この記録媒体としては他ほCD−R
OMなどを用いてもよい。
The CPU 301 performs various processes and controls necessary for performing the game, and can transfer image data to the graphic memory 311 and voice data to the sound memory 321. ROM303
Is a storage area of the initial program loader. R
The OM 303 is an element constituting the recording medium of the present invention, and a program necessary for the processing of the CPU 301 is recorded in advance. The recording medium is a CD-R.
OM or the like may be used.

【0128】CD−ROM用ドライブ211は、外部か
ら供給されるデータの記録媒体としてCD−ROMを用
いているが、これに限ることなく他の各種記録媒体を読
取可能に構成してもよい。また通信装置233を経由し
て、プログラムをメモリに転送するように構成してもよ
い。このように設定すれば遠隔地のサーバの固定ディス
クなどからデータの転送が可能である。
Although the CD-ROM drive 211 uses a CD-ROM as a recording medium for data supplied from the outside, the CD-ROM drive 211 is not limited to this and may be configured to be able to read various other recording media. Alternatively, the program may be transferred to the memory via the communication device 233. With this setting, data can be transferred from a fixed disk of a remote server.

【0129】ビデオブロック231は、VDP(Vid
eo Display Processor)310、
グラフィックメモリ311およびビデオエンコーダ31
2を備えている。
The video block 231 is composed of VDP (Vid
eo Display Processor) 310,
Graphic memory 311 and video encoder 31
2 is provided.

【0130】これらの構成によりビデオブロック31
は、3D画像データ及びムービー画像を生成可能に構成
されている。ビデオエンコーダ312は、VDP310
が生成した画像データをNTSC方式等の所定のテレビ
ジョン信号に変換し外部に接続されるメインモニタ23
5(テレビ受像機のブラウン管等)に出力可能に構成さ
れている。
With these configurations, the video block 31
Is configured to be able to generate 3D image data and a movie image. The video encoder 312 includes the VDP 310
Converts the image data generated by the main monitor into a predetermined television signal of the NTSC system or the like, and connects the main monitor 23 to the outside.
5 (such as a cathode ray tube of a television receiver).

【0131】サウンドブロック232は、サウンドプロ
セッサ320、サウンドメモリ321及びD/Aコンバ
ータ322を備えている。これらの構成によりサウンド
ブロック232は、波形データに基づく音声合成を行っ
て音響信号を出力可能に構成されている。D/Aコンバ
ータ322は、サウンドプロセッサ320により生成さ
れた音声データをアナログ信号に変換し、外部に接続さ
れるスピーカ234(テレビ受像機のスピーカまたは音
響装置のスピーカ)に出力可能に構成されている。
The sound block 232 includes a sound processor 320, a sound memory 321 and a D / A converter 322. With these configurations, the sound block 232 is configured to perform voice synthesis based on the waveform data and output an acoustic signal. The D / A converter 322 is configured to convert audio data generated by the sound processor 320 into an analog signal and output the analog signal to a speaker 234 (a speaker of a television receiver or a speaker of an audio device) connected to the outside. .

【0132】通信装置233は、例えばモデムやターミ
ナルアダプタであり、本ゲーム装置201に接続可能に
構成され、本ゲーム装置本体201と外部回線とを接続
するアダプターとして機能可能になっている。通信装置
233は、公衆回線網に接続されるインターネットサー
バ等のゲーム供給用サーバから送信されたデータを受信
し、CPUブロック230のバスに供給可能になってい
る。公衆回線網としては、加入者回線、専用線、有線無
線の別を問わない。
The communication device 233 is, for example, a modem or a terminal adapter, is configured to be connectable to the game device 201, and can function as an adapter for connecting the game device main body 201 to an external line. The communication device 233 can receive data transmitted from a game supply server such as an Internet server connected to a public line network, and supply the data to the CPU block 230 bus. The public line network may be a subscriber line, a dedicated line, or a wired / wireless network.

【0133】次に、本ゲーム装置で扱われるデータ群を
説明する。このデータ群には、ADXデータ、ゲーム進
行データ、カメラデータ、モーションデータ群、モーシ
ョン進行データ、ムービーデータ、及び操作情報に応じ
て演算されるキャラクタデータ等がある。
Next, a data group handled by the game device will be described. This data group includes ADX data, game progress data, camera data, motion data group, motion progress data, movie data, character data calculated according to operation information, and the like.

【0134】この内、ADXデータはここではADX圧
縮された音声データとして与えられる。音声データ(サ
ウンドデータ)としては、MIDI(Musical Instrume
nt Digital Interface)データ、PCM、CDDA、
ADPCM(Adaptive Differential Pulse Code Modu
lation)などが含まれる。このADXデータは時間管理
のためのマスタデータとして使用されるが、時間管理の
マスタは既述のようにADXデータに限定されるもので
はない。ADXデータを使用しないときには、ムービー
データがマスタデータとなってもよいし、それがMID
Iシーケンスであってもよい。
Among them, the ADX data is given here as ADX-compressed audio data. As audio data (sound data), MIDI (Musical Instrume)
nt Digital Interface) data, PCM, CDDA,
ADPCM (Adaptive Differential Pulse Code Modu)
lation). The ADX data is used as master data for time management, but the time management master is not limited to the ADX data as described above. When the ADX data is not used, the movie data may be the master data,
It may be an I sequence.

【0135】ここで使用されるADXライブラリは、既
述のADX圧縮された音声データを再生されるライブラ
リである。このライブラリの関数を使用することによっ
て、ADX圧縮された音声を簡単に再生することができ
る。再生位置関数により、現在再生されているサンプル
数が取得できる。このサンプル数から現在のフレーム数
が取得できる。メインメモリ上のカメラデータから、現
フレームのデータを取得し、仮想カメラを設定する。同
様に現フレームのゲームデータを取得し、データ処理を
実行してゲーム処理を行う。
The ADX library used here is a library for reproducing the above-described ADX-compressed audio data. ADX-compressed audio can be easily reproduced by using the functions of this library. The number of currently reproduced samples can be obtained by the reproduction position function. The current frame number can be obtained from this sample number. The data of the current frame is acquired from the camera data on the main memory, and a virtual camera is set. Similarly, game data of the current frame is acquired, and data processing is executed to perform game processing.

【0136】ゲーム進行データは、音楽1曲の拍数(n
beat)、及び、フレーム数/拍数(fpb)から成
る。このため、fpb×nbeat=トータルのフレー
ム数となる。1拍は標準で15フレーム分の長さに設定
されるが、音楽のBPM(拍数/分)に応じて変わる量
である。各モーションデータの処理のタイミングはこの
拍数の1又は複数分に対応させて設定される。このた
め、BPM値が高ければ、同じモーションであってもテ
ンポの早い動きを表現できるし、BPM値が低ければそ
の反対に、同じモーションを遅く表現できる。 カメラ
データとしては総フレーム数分の仮想カメラの視点デー
タ(位置、方向及び回転角度)が予め準備されている。
The game progress data includes the number of beats of one music (n
beat) and the number of frames / beats (fpb). Therefore, fpb × nbeat = total number of frames. One beat is set to a length of 15 frames as standard, but is an amount that changes according to the BPM (beats / minute) of the music. The processing timing of each motion data is set corresponding to one or more of the number of beats. For this reason, if the BPM value is high, a fast-tempo movement can be expressed even with the same motion, and conversely, if the BPM value is low, the same motion can be expressed late. As camera data, viewpoint data (position, direction, and rotation angle) of virtual cameras for the total number of frames are prepared in advance.

【0137】モーションデータ群は、キャラクタの動作
に関する複数のモーションのデータから成る。複数のモ
ーションは、モーション1、モーション2、モーション
3、…、モーション(m−1)といった具合に分割さ
れ、各モーションを例えば右足を一歩進める、左足を一
歩進める、飛び上がるといった各動作に割り当ててい
る。各モーションは、実際には、1拍又はn拍(nは整
数)に対応するフレーム数から成る複数枚の画像フレー
ムで表現される。
The motion data group includes a plurality of motion data relating to the motion of the character. The plurality of motions are divided into conditions such as motion 1, motion 2, motion 3,..., Motion (m-1), and each motion is assigned to each motion such as, for example, moving right foot one step, left foot one step, and jumping up. . Each motion is actually represented by a plurality of image frames composed of the number of frames corresponding to one beat or n beats (n is an integer).

【0138】さらにモーション進行データは、図17に
示す如く、どのモーションをどのタイミングの拍数分で
再生したらよいかを表すシーケンス情報を拍数列(時系
列)として羅列したものである。
Further, as shown in FIG. 17, the motion progress data is a sequence of beats (time series) indicating sequence information indicating which motion should be reproduced at which beats.

【0139】上述したカメラデータとムービーデータに
ついては、同一フレーム間で1対1に対応したデータが
作られている。ムービーデータ及びADXデータはCD
−ROMに格納され、カメラデータ、モーションデータ
群、モーション進行データなどはROMから呼び出され
てメインメモリ上に置かれる。
As for the above-described camera data and movie data, data corresponding to one-to-one is created between the same frames. Movie data and ADX data are CD
-Stored in ROM, camera data, motion data group, motion progress data, etc. are called from ROM and placed on main memory.

【0140】次に、CPU301によって実行される図
18の処理を説明する。
Next, the processing of FIG. 18 executed by the CPU 301 will be described.

【0141】CPU301は、そのステップS101で
所定のデータ処理周期か否かを判断し、YESの判断と
なるときにステップS102以降の処理に入る。
The CPU 301 determines in step S101 whether or not a predetermined data processing cycle has been reached, and when the determination is YES, the processing enters the processing in step S102 and subsequent steps.

【0142】すなわち、CPU301は、操作部として
のコントローラ2から出力される、遊戯者の操作情報を
読み込む(ステップS102)。
That is, the CPU 301 reads the player's operation information output from the controller 2 as the operation section (step S102).

【0143】次いで、CPU301はADXデータであ
る音声データの再生を指令する(ステップS103)。
この指令によりADX再生ライブラリが呼び出され、C
D−ROMからメインメモリ302にADXデータが転
送され、そこで音声データにデコードされる。デコード
された音声データはサウンドメモリ321に転送され、
サウンドプロセッサ320により処理されて、スピーカ
234から音声として再生される。
Next, the CPU 301 instructs reproduction of the audio data which is ADX data (step S103).
This command calls the ADX playback library,
ADX data is transferred from the D-ROM to the main memory 302, where it is decoded into audio data. The decoded audio data is transferred to the sound memory 321.
The sound is processed by the sound processor 320 and reproduced from the speaker 234 as sound.

【0144】次いで、CPU301はADXデータ再生
情報を取得する(ステップS104)。この取得する情
報は、ADXデータの再生サンプル数(ncount)
及びサンプリング周波数(freq)であり、ADX再
生ライブラリから取得される。
Next, the CPU 301 obtains the ADX data reproduction information (step S104). The information to be obtained is the number of playback samples of the ADX data (ncount).
And the sampling frequency (freq), which are obtained from the ADX playback library.

【0145】次いで、ゲーム進行データから「フレーム
数/拍」(=fpb)が読み出され、ゲーム再生位置と
して、現在のフレーム数(frame)及び拍数(be
at)が演算される(ステップS105)。現在のフレ
ーム数(つまりフレーム位置)は、 frame=ncount×FPS/freq の演算式に基づき演算され、現在の拍数は、 beat=frame/fpb の演算式に基づき演算される。ただし、FPSはアプリ
ケーション内の固定値(frame/sec)である。
Next, “number of frames / beat” (= fpb) is read from the game progress data, and the current number of frames (frame) and the number of beats (be) are set as the game playback position.
at) is calculated (step S105). The current number of frames (that is, the frame position) is calculated based on the equation of frame = ncount × FPS / freq, and the current number of beats is calculated based on the equation of beat = frame / fpb. However, FPS is a fixed value (frame / sec) in the application.

【0146】次いで、このように演算されたフレーム数
に対応した、3次元仮想空間内の仮想カメラ(仮想視
点)の位置、方向及び回転角度、予め記憶しているカメ
ラデータから読み出される(ステップS106)。
Next, the position, direction and rotation angle of the virtual camera (virtual viewpoint) in the three-dimensional virtual space corresponding to the number of frames calculated in this manner are read out from the camera data stored in advance (step S106). ).

【0147】さらに、CPU301により、ステップS
104で演算した拍数に対応したモーションのデータ
が、予め記憶しているモーション進行データを参照して
決められ、この決められたモーションのデータがモーシ
ョンデータ群から読み出される(ステップS107)。
なお、このモーションのデータは、遊戯者が手動モーシ
ョンを指令したときの動きも加味されて設定される。
Further, the CPU 301 executes step S
The data of the motion corresponding to the number of beats calculated in 104 is determined with reference to the motion progress data stored in advance, and the data of the determined motion is read from the motion data group (step S107).
It should be noted that the motion data is set in consideration of the motion when the player instructs the manual motion.

【0148】次いで、ゲーム処理を行う(ステップS1
08)。このゲーム処理には、3次元仮想空間内のカメ
ラ(仮想視点)からポリゴンデータで成るキャラクタを
2次元表示画像に投影する投影変換処理、仮想カメラの
位置、方向、及び回転角度に合致したムービー画像(2
次元の背景画像)の選択処理、遊戯者の操作状況、すな
わち音声に含まれる手動モーション指令に対する操作状
況に応じたゲーム成績の判定などが含まれる。なお、投
影変換処理は、投影変換時の光源の位置及び方向をムー
ビー画像作成時のそれに合わせて行われる。 このよう
に作成されたキャラクタの画像データとムービー画像は
ビデオブロック31に送られ、ムービー画像にキャラク
タの画像が重ねられ、例えば図19、20に示す如く表
示される(ステップS109)。
Next, a game process is performed (step S1).
08). The game process includes a projection conversion process of projecting a character composed of polygon data from a camera (virtual viewpoint) in a three-dimensional virtual space onto a two-dimensional display image, and a movie image matching the position, direction, and rotation angle of the virtual camera. (2
(A two-dimensional background image) selection processing, and the player's operation status, that is, determination of a game score according to the operation status in response to a manual motion command included in the voice, and the like. Note that the projection conversion processing is performed in accordance with the position and direction of the light source at the time of projection conversion according to those at the time of movie image creation. The image data of the character and the movie image created in this way are sent to the video block 31, and the image of the character is superimposed on the movie image and displayed, for example, as shown in FIGS. 19 and 20 (step S109).

【0149】ムービー画像は、前述した実施形態で説明
した如く、コンピュータグラフィックスによる2次元の
画像であって、この画像を観察するカメラ(視点)の位
置、角度、及び回転角度に応じて変わって見えることが
自然であるので、それらの位置、角度、及び回転角度の
各種の値に応じて予め作成されている。
As described in the above embodiment, the movie image is a two-dimensional image by computer graphics, and changes depending on the position, angle, and rotation angle of a camera (viewpoint) for observing the image. Since it is natural to see, it is created in advance according to various values of the position, angle, and rotation angle.

【0150】このように仮想カメラの位置に合致し、背
景が不自然に見えない程度の角度のムービー画像を選択
することで、自然でリアル感のある画像を表示可能にな
る。
As described above, by selecting a movie image that matches the position of the virtual camera and has an angle at which the background does not look unnatural, a natural and realistic image can be displayed.

【0151】すなわち、ゲーム画面において既述の自動
モーションが再生される際には、ムービーを作成したと
きのカメラ及び光源の位置に合わせて、3Dデータから
成るキャラクタに対する仮想カメラ及び仮想光源の位置
が設定されるようにプログラムされている。この自動モ
ーション再生時は操作部への遊戯者の操作は無視される
ので、ムービーを作成したときのカメラ視点及び光源の
位置とキャラクタに対する仮想カメラ視点及び仮想光源
の位置とを一致させることで済むのである。
That is, when the above-described automatic motion is reproduced on the game screen, the positions of the virtual camera and the virtual light source with respect to the character composed of 3D data are adjusted according to the positions of the camera and the light source when the movie is created. It is programmed to be set. At the time of this automatic motion reproduction, the operation of the player on the operation unit is ignored, so that the positions of the camera viewpoint and the light source when the movie is created and the positions of the virtual camera viewpoint and the virtual light source with respect to the character need only be matched. It is.

【0152】手動モーションの場合には、3Dキャラク
タに対する仮想カメラの位置を多彩化する必要から、3
次元仮想空間に配置され得る仮想カメラの各位置に対応
したカメラ(視点)からのムービー画像が多数、予め用
意される。そして、3Dキャラクタに対して指定(操
作)される仮想カメラの位置にあわせたムービー画像が
選択され、これが背景画として描画される。
In the case of manual motion, since the position of the virtual camera with respect to the 3D character needs to be diversified,
A large number of movie images are prepared in advance from cameras (viewpoints) corresponding to each position of the virtual camera that can be arranged in the three-dimensional virtual space. Then, a movie image corresponding to the position of the virtual camera designated (operated) for the 3D character is selected, and this is drawn as a background image.

【0153】例えば、遊戯者がそれまではキャラクタを
正面から見る視点を指令していた状態から、キャラクタ
の横顔を見るカメラ視点に切り換えたとする。すなわ
ち、キャラクタに対して仮想カメラが正面にある状態か
ら、同カメラが側面にある状態に切り換えられたとする
と、モニタ235に表示されるムービー画像(背景画
像)もキャラクタの画像と同時に変更される。つまり、
上述したようにカメラ位置(カメラ視点)に応じてムー
ビー画像も変えられ、リアル感のある画像となる。手動
モーションによる再生のときには、仮想カメラの位置が
キー操作の仕方に応じて変わる必要があるので、異なる
仮想カメラの位置に対応した、異なる視点からのムービ
ー画像が予め用意されるのである。
For example, suppose that the player switches from a state in which the player has previously commanded a viewpoint for viewing the character from the front to a camera viewpoint for viewing the profile of the character. That is, if the virtual camera is switched from a state in which the virtual camera is in front of the character to a state in which the virtual camera is on the side, the movie image (background image) displayed on the monitor 235 is changed simultaneously with the image of the character. That is,
As described above, the movie image can be changed according to the camera position (camera viewpoint), and the image has a realistic feeling. At the time of reproduction by manual motion, since the position of the virtual camera needs to be changed according to the key operation method, movie images from different viewpoints corresponding to different virtual camera positions are prepared in advance.

【0154】また、この手動モーションの再生時の上述
した投影変換処理において、3次元仮想空間で使用する
光源の位置及び方向を、ムービー画像を予め作成すると
きに用いたそれらに一致又は略一致させていることであ
る。これにより、投影される画像の陰影がモニタ画面上
で自然に見えるものとなる。
Further, in the above-described projection conversion process at the time of reproducing the manual motion, the position and the direction of the light source used in the three-dimensional virtual space are made to match or substantially match those used when the movie image was created in advance. That is. As a result, the shadow of the projected image looks natural on the monitor screen.

【0155】なお、ムービー画像を背景として併用する
ことで、画面全部をポリゴンで表示する場合に比べて、
画像の質を維持しながら、演算量を大幅に減らすことが
できる。
By using a movie image as a background, compared with a case where the entire screen is displayed by polygons,
The amount of calculation can be greatly reduced while maintaining the image quality.

【0156】図19は、ADXデータからデコードした
音楽(BGM)にのってキャラクタCHがフロア上でダ
ンスを踊る画像の1シーンである。キャラクタCHはポ
リゴンデータで構成され、背景となるムービー画像BK
をバックにして表示される。このキャラクタCHは踊り
に必要な歩く、跳ねるなどの自動モーションを音楽に合
わせて行う。この途中で、音楽には「アップ」「ダウ
ン」などの指示が含まれているので、遊戯者はこれに合
わせてコントローラ202を操作すればよい。タイミン
グ良くリズムに乗ってコントローラ202を操作できた
ときは、バランスのとれたダンスをキャラクタCHにさ
せることできる。
FIG. 19 shows one scene of an image in which the character CH dances on the floor on music (BGM) decoded from ADX data. The character CH is composed of polygon data, and a movie image BK serving as a background
Is displayed with the back. The character CH performs an automatic motion, such as walking or bouncing, necessary for the dance in accordance with the music. On the way, since the music includes instructions such as “up” and “down”, the player may operate the controller 202 in accordance with the instructions. When the controller 202 can be operated on the rhythm in a timely manner, the character CH can perform a balanced dance.

【0157】また、このゲームの途中では図20に示す
如く敵キャラクタAMが表示され、この敵キャラクタA
Mも所定時間一緒に踊る。そして、音楽から所定の指
令、例えば「シュート」という言葉が聞こえたときに
は、遊戯者はコントローラ202の所定ボタンを押せば
よい。これにより、キャラクタCHはガンで敵キャラク
タAMを攻撃する。
During the game, the enemy character AM is displayed as shown in FIG.
M also dances for a predetermined time. Then, when a predetermined command, for example, the word “shoot” is heard from the music, the player may press a predetermined button of the controller 202. Thereby, the character CH attacks the enemy character AM with the gun.

【0158】このような遊戯者のコントローラ操作状
況、すなわちタイミングや正確さがゲーム結果に反映さ
れ、音楽ゲームを楽しむことができる。
[0158] Such a controller operation state of the player, that is, the timing and accuracy are reflected in the game result, and the user can enjoy the music game.

【0159】このときに、キャラクタCH、AMのモー
ションは音楽にリンクして表示される。この表示は、予
めゲーム進行データ及びモーション進行データを用いて
行うので、モーションの音楽へのリンクを実時間で制御
する場合に比べて、処理が簡単で、演算量も少なくな
る。とくに、モーション進行データによって音楽の長
さ、すなわちゲーム時間全てをカバーする拍数それぞれ
にモーションを割り当てているから、時間管理となるマ
スターの時間進行上の自由度が高いという利点ある。す
なわち、ゲーム速度を様々に変更でき、融通性が効くと
いう利点がある。スローモーション、早回しなど、フレ
ーム速度(フレーム/秒)が異なる(例えばPALな
ど)場合であっても、プログラムを殆ど変更することな
く、容易に対処できるという利点がある。
At this time, the motions of the characters CH and AM are displayed linked to the music. Since this display is performed using the game progress data and the motion progress data in advance, the processing is simpler and the amount of calculation is smaller than in the case where the link of the motion to the music is controlled in real time. In particular, since the motion is assigned to the length of music, that is, the number of beats covering the entire game time, according to the motion progress data, there is an advantage that the time management master has a high degree of freedom in time progress. That is, there is an advantage that the game speed can be variously changed and flexibility is improved. Even when the frame speed (frame / second) is different (for example, PAL) such as slow motion or fast turning, there is an advantage that the program can be easily dealt with with little change in the program.

【0160】さらに、本実施形態にあっては、カメラ視
点が変更された場合でも、その視点の向きと背景の向き
とが殆ど一致した状態で表示されるので、演算量が少な
い状態を維持しながらも、方向性に関して違和感の無い
自然な画像を提供できる。加えて、ポリゴンで表すキャ
ラクタに対する投影変換時の光源位置とムービー画像に
対する光源位置も殆ど一致しているので、陰影に関して
も違和感の無い自然な画像を提供できる。
Further, in the present embodiment, even when the camera viewpoint is changed, the display is performed in a state where the direction of the viewpoint and the direction of the background almost coincide with each other. However, it is possible to provide a natural image with no sense of incongruity in directionality. In addition, since the light source position of the character represented by the polygon at the time of projection conversion almost coincides with the light source position of the movie image, it is possible to provide a natural image with no discomfort regarding the shadow.

【0161】なお、図20において、図面左下の「ギュ
ー・ターン」とは、キャラクタのシンボルであり、これ
が表示されることがキャラクタ側、すなわち遊戯者側に
操作を促していることを意味している。このシンボルが
既述の敵キャラクタAMのシンボルからこのキャラクタ
CHのシンボルに切り替えられることにより、遊戯者は
自身の入力を必要とする順番であることを認識する。敵
キャラクタの場合には、敵キャラクタから遊戯者へ攻撃
などの画像処理がコンピュータの処理によって実行され
る。
In FIG. 20, "Gu-turn" at the lower left of the drawing is a symbol of the character, and the display of this symbol means that the character side, that is, the player side, is urged to perform an operation. I have. By switching this symbol from the above-mentioned symbol of the enemy character AM to the symbol of this character CH, the player recognizes that it is the order that requires his / her own input. In the case of an enemy character, image processing such as attacking the player from the enemy character is executed by computer processing.

【0162】本発明は上述した実施形態記載の構成に限
定されるものではなく、当業者であれば、特許請求の範
囲の要旨を逸脱しない範囲でさらに適宜な態様で実施可
能なものである。
The present invention is not limited to the configuration described in the above embodiment, and those skilled in the art can implement the present invention in a more appropriate manner without departing from the scope of the claims.

【0163】[0163]

【発明の効果】以上説明したように、本発明の1つの態
様によれば、コンピュータグラフィックスによるムービ
ー画像からなる第1の表示体と、ポリゴンデータによる
立体画像とからなる第2の表示体とを備え、第1の表示
体の一部に前記第2の表示体との陰面消去における優先
度を判定するための三次元データからなる簡易モデルを
設定したので、画面の表現を多彩化するとともに描画処
理を著しく軽減し、かつ、このムービー画面上において
移動する表示体の動作をより円滑に表現できる。
As described above, according to one aspect of the present invention, a first display body composed of a movie image by computer graphics and a second display body composed of a three-dimensional image by polygon data are provided. And a simple model consisting of three-dimensional data for determining the priority in erasing the hidden surface with the second display body is set in a part of the first display body. Drawing processing can be remarkably reduced, and the movement of the display moving on the movie screen can be more smoothly expressed.

【0164】本発明の別の態様によれば、ポリゴンで構
成されたキャラクタの動きにリンクする形で、ムービー
で表現された背景が移動するため、画面が著しく綺麗な
状態の表現が可能であり、また自由度の高い画像表現が
可能になる。
According to another aspect of the present invention, the background represented by a movie moves in a form linked to the movement of a character composed of polygons, so that a very beautiful screen can be represented. In addition, image expression with a high degree of freedom becomes possible.

【0165】さらに、本発明の別の態様によれば、ゲー
ムに必要なデータ群の一部に、ゲーム進行データやモー
ション進行データを持たせることで、より少ない演算量
で、複雑な制御を行うことなく、音楽の再生とオブジェ
クトの動きとを合わせた(リンクさせた)画像を表示す
ることができ、しかも、プログラムを殆ど変更すること
無く、ゲーム速度を種々の値に変更可能な融通性の高い
画像処理を提供できる。
Further, according to another aspect of the present invention, by providing game progress data and motion progress data in a part of the data group necessary for the game, complicated control is performed with a smaller amount of calculation. It is possible to display an image in which the reproduction of music and the movement of an object are combined (linked) without any change, and the game speed can be changed to various values without changing the program. High image processing can be provided.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る第1の実施形態の概要を説明する
ための説明図である。
FIG. 1 is an explanatory diagram for describing an outline of a first embodiment according to the present invention.

【図2】第1の実施形態に係る画像処理装置を適用した
ゲーム装置の概要を表すブロック図である。
FIG. 2 is a block diagram illustrating an outline of a game device to which the image processing device according to the first embodiment is applied.

【図3】第1の実施形態の全体動作を説明するためのフ
ローチャートである。
FIG. 3 is a flowchart for explaining the overall operation of the first embodiment.

【図4】第1の実施形態における画像処理の具体的な動
作を説明するためのフローチャートである。
FIG. 4 is a flowchart illustrating a specific operation of image processing according to the first embodiment.

【図5】第1の実施形態のディスプレイに表示される画
面の説明図である。
FIG. 5 is an explanatory diagram of a screen displayed on a display according to the first embodiment.

【図6】画面を全てポリゴンで作成した場合の説明図で
ある。
FIG. 6 is an explanatory diagram in the case where all screens are created by polygons.

【図7】第1の実施形態の背景の一部のみをポリゴンデ
ータで構成し、背景部分にコンピュータグラフィックス
によるムービー画面で構成した場合の説明図である。
FIG. 7 is an explanatory diagram of a case where only a part of the background is configured by polygon data and a background is configured by a movie screen by computer graphics according to the first embodiment;

【図8】第1の実施形態の背景の一部のみを僅かなポリ
ゴンデータで構成した簡易モデルとキャラクタ等の関係
を示す説明図である。
FIG. 8 is an explanatory diagram showing the relationship between a simple model in which only a part of the background of the first embodiment is composed of a small amount of polygon data, a character, and the like.

【図9】第1の実施形態におけるムービー画面が持つデ
ータの例を示す説明図である。
FIG. 9 is an explanatory diagram illustrating an example of data of a movie screen according to the first embodiment.

【図10】本発明に係る第2の実施形態の概要を説明す
るための図である。
FIG. 10 is a diagram for explaining an outline of a second embodiment according to the present invention.

【図11】第2の実施形態の動作例を説明するための図
である。
FIG. 11 is a diagram for describing an operation example of the second embodiment.

【図12】第2の実施形態の動作を説明するためのフロ
ーチャートである。
FIG. 12 is a flowchart for explaining the operation of the second embodiment.

【図13】図12で採用されたサブルーチンの図であ
る。
FIG. 13 is a diagram of a subroutine adopted in FIG.

【図14】第2の実施形態における動作の表示例を示す
図である。
FIG. 14 is a diagram illustrating a display example of an operation according to the second embodiment.

【図15】本発明に係る第3の実施形態に係るゲーム装
置の概観図である。
FIG. 15 is an outline view of a game device according to a third embodiment of the present invention.

【図16】このゲーム装置の電気的な構成を表すブロッ
ク図である。
FIG. 16 is a block diagram illustrating an electrical configuration of the game device.

【図17】モーション進行データを説明する図である。FIG. 17 is a diagram illustrating motion progress data.

【図18】第3の実施形態においてCPUにより実行さ
れるゲームに関わる処理の概要を説明するフローチャー
トである。
FIG. 18 is a flowchart illustrating an outline of a process related to a game executed by a CPU in a third embodiment.

【図19】表示される画像の一例を示す図である。FIG. 19 is a diagram illustrating an example of an image to be displayed.

【図20】表示される画像の別の例を示す図である。FIG. 20 is a diagram illustrating another example of a displayed image.

【符号の説明】[Explanation of symbols]

1 TVゲーム装置 2 画像処理手段 3d 背景画像データ 4d キャラクタデータ 5d 簡易モデルデータ 6 TV受像機 7a コネクタ 7b ゲーム操作用のパッド 7c ケーブル 7a、7b ケーブル 10 CPUブロック 11 ビデオブロック 12 サウンドブロック 13 サブシステム 100 SCU(System Control Unit ) 101 メインCPU 102 RAM 103 ROM 104 サブCPU 105 CPUバス 106、107 バス 120、130 VDP 121 VRAM 122、123 フレームバッファ 131 VRAM 132 メモリ 140 DSP 141 CPU 160 エンコーダ 1 ゲーム装置本体 201 コントローラ 211 CD−ROMドライバ 230 CPUブロック 231 ビデオブロック 232 サウンドブロック 234 スピーカ 235 モニタ 301 CPU 302 メインメモリ 303 ROM(記録媒体) 310 VDM 311 グラフィックメモリ 320 サウンドプロセッサ 321 サウンドメモリ 312 ビデオエンコーダ 322 D/Aコンバータ DESCRIPTION OF SYMBOLS 1 TV game apparatus 2 Image processing means 3d Background image data 4d Character data 5d Simple model data 6 TV receiver 7a Connector 7b Game operation pad 7c Cable 7a, 7b cable 10 CPU block 11 Video block 12 Sound block 13 Subsystem 100 SCU (System Control Unit) 101 Main CPU 102 RAM 103 ROM 104 Sub CPU 105 CPU bus 106, 107 Bus 120, 130 VDP 121 VRAM 122, 123 Frame buffer 131 VRAM 132 Memory 140 DSP 141 CPU 160 Encoder 1 Game device main unit 201 Controller 211 CD-ROM driver 230 CPU block 231 Video block 232 Sound block 234 Speaker 235 Monitor 301 CPU 302 Main memory 303 ROM (recording medium) 310 VDM 311 Graphic memory 320 Sound processor 321 Sound memory 312 Video encoder 322 D / A converter

───────────────────────────────────────────────────── フロントページの続き (72)発明者 湯田 高志 東京都大田区羽田1丁目2番12号 株式会 社セガ・エンタープライゼス内 (72)発明者 中西 仁 東京都大田区羽田1丁目2番12号 株式会 社セガ・エンタープライゼス内 Fターム(参考) 2C001 AA17 BA00 BA01 BA05 BA07 BC00 BC10 CB01 CB06 CC02 CC08 5B050 AA10 BA08 BA09 EA19 EA24 EA27 EA28 EA29 FA02 5B080 AA13 FA08 GA01  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Takashi Yuda, Inventor 1-2-1-12, Haneda, Ota-ku, Tokyo (72) Inventor Jin Nakanishi Jin 1-2-12, Haneda, Ota-ku, Tokyo No. F-term in SEGA Enterprises (reference) 2C001 AA17 BA00 BA01 BA05 BA07 BC00 BC10 CB01 CB06 CC02 CC08 5B050 AA10 BA08 BA09 EA19 EA24 EA27 EA28 EA29 FA02 5B080 AA13 FA08 GA01

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 ムービー画像を含む第1の表示体と、ポ
リゴンデータによる立体画像とからなる第2の表示体を
表示手段に表示してなる画像処理装置であって、前記第
1の表示体に前記第2の表示体との陰面消去における優
先度を判定するための三次元データからなる簡易モデル
を設定して画像処理を行なう画像処理手段を備える画像
処理装置。
1. An image processing apparatus comprising: a first display body including a movie image; and a second display body including a three-dimensional image based on polygon data. And an image processing means for performing image processing by setting a simple model consisting of three-dimensional data for determining a priority in erasing a hidden surface with the second display body.
【請求項2】 前記第1の表示体がゲーム画面の背景を
構成し、前記第2の表示体がこの背景上に表示されるキ
ャラクタを構成する請求項1記載の画像処理装置。
2. The image processing device according to claim 1, wherein the first display forms a background of a game screen, and the second display forms a character displayed on the background.
【請求項3】 前記第1の表示体の内、前記ポリゴンデ
ータの優先度を判定する必要がある部分のみを前記簡易
モデルから構成した請求項1記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein only a portion of the first display body for which the priority of the polygon data needs to be determined is configured from the simplified model.
【請求項4】 前記簡易モデルは、粗く設定されたポリ
ゴンデータからなる3次元データである請求項1記載の
画像処理装置。
4. The image processing apparatus according to claim 1, wherein the simple model is three-dimensional data composed of roughly set polygon data.
【請求項5】 画像からなる第1の表示体と、ポリゴン
データによる立体画像からなる第2の表示体とを表示手
段に表示してなる画像処理装置であって、前記第2の表
示体に対する仮想カメラを設定し、この第2の表示体が
第1の表示体上を移動する際に、前記第1の表示体に対
するカメラ角度に前記仮想カメラの位置をほぼ一致させ
るようにこの仮想カメラの動きを制御し、この第2の表
示体が前記第1の表示体を逆に動く場合には、前記第1
の表示体を逆モーションに再生し、逆モーションの第1
の表示体に対するカメラ角度に前記仮想カメラの位置を
ほぼ一致させる画像処理手段を有する画像処理装置。
5. An image processing apparatus for displaying, on a display means, a first display body composed of an image and a second display body composed of a three-dimensional image based on polygon data, the image processing apparatus comprising: A virtual camera is set, and when the second display body moves on the first display body, the position of the virtual camera is substantially matched with the camera angle with respect to the first display body. Controlling the movement, and if the second display moves in the opposite direction to the first display, the first display
Play back the display object of the reverse motion, the first of the reverse motion
An image processing apparatus having image processing means for making the position of the virtual camera substantially coincide with the camera angle with respect to the display body.
【請求項6】 前記画像処理手段は、前記第1の表示体
の内の前記第2の表示体が移動すべき領域を複数の区画
に分けてある中の、一つの区画から他の区画に前記第2
の表示体が移動する際に仮想カメラの位置を各区画につ
いてのカメラの角度にほぼ一致させる請求項5記載の画
像処理装置。
6. The image processing means according to claim 1, wherein the area to which the second display body of the first display body is to be moved is divided into a plurality of sections, and from one section to another section. The second
6. The image processing apparatus according to claim 5, wherein the position of the virtual camera substantially coincides with the angle of the camera for each section when the display body moves.
【請求項7】 ムービー画像からなる第1の表示体と、
ポリゴンデータによる立体画像とからなる第2の表示体
を表示手段に表示する画像処理方法であって、 前記第
1の表示体の一部に3次元データからなる簡易モデルを
設定し、この簡易モデルを用いて前記第2の表示体の陰
面消去における優先度を判定することを特徴とする画像
処理方法。
7. A first display body comprising a movie image,
An image processing method for displaying, on a display means, a second display body composed of a stereoscopic image based on polygon data, wherein a simple model composed of three-dimensional data is set in a part of the first display body. An image processing method for determining a priority in erasing a hidden surface of the second display body using the image processing method.
【請求項8】 画像からなる第1の表示体と、ポリゴン
データによる立体画像からなる第2の表示体とを表示手
段に表示する画像処理方法であって、前記第2の表示体
に対する仮想カメラを設定し、この第2の表示体が第1
の表示体上を移動する際に、前記第1の表示体に対する
カメラ位置・角度に前記仮想カメラの位置・角度をほぼ
一致させるようにこの仮想カメラの動きを制御するとと
もに、この第2の表示体が前記第1の表示体を逆に動く
場合には、前記第1の表示体を逆モーションに再生し
て、逆モーションの第1の表示体に対するカメラ角度に
前記仮想カメラの位置をほぼ一致させることを特徴とす
る画像処理方法。
8. An image processing method for displaying, on a display means, a first display body composed of an image and a second display body composed of a three-dimensional image based on polygon data, wherein a virtual camera for the second display body is provided. Is set, and the second display is
When moving on the display body, the movement of the virtual camera is controlled so that the position and angle of the virtual camera substantially match the camera position and angle with respect to the first display body. If the body moves the first display in reverse, the first display is played in reverse motion, and the position of the virtual camera substantially matches the camera angle of the reverse motion with respect to the first display. An image processing method comprising:
【請求項9】 コンピュータを請求項1乃至請求項8の
いずれかに記載の画像処理手段や画像処理方法として機
能させるためのプログラムを記載した記録媒体。
9. A recording medium in which a program for causing a computer to function as the image processing means or the image processing method according to claim 1 is described.
【請求項10】 仮想空間に存在させたオブジェクトの
モーションの画像をサウンドデータに合わせて表示手段
の画面上に表示するようにしたことを特徴とする画像処
理装置。
10. An image processing apparatus, wherein an image of a motion of an object existing in a virtual space is displayed on a screen of a display unit in accordance with sound data.
【請求項11】 前記オブジェクトのモーションを前記
サウンドデータの拍にリンクさせて表示する表示制御手
段を備えたことを特徴とする請求項10記載の画像処理
装置。
11. An image processing apparatus according to claim 10, further comprising display control means for displaying a motion of said object linked to a beat of said sound data.
【請求項12】 前記サウンドデータに基づくサウンド
を再生する再生手段を備える一方で、前記表示制御手段
は、前記再生手段によるサウンドデータの再生情報を取
得する第1の取得手段と、この取得手段により取得され
たサウンドデータの再生情報を参照してゲームの再生位
置を演算する演算手段と、この演算手段の演算結果とモ
ーション進行データとに基づき仮想カメラのデータと前
記オブジェクトのモーションを取得する第2の取得手段
と、この第2の取得手段の取得結果に基づき前記オブジ
ェクトのモーションをモニタ画面上に表示するための画
像データを生成する生成手段とを備える請求項11記載
の画像処理装置。
12. A display device, comprising: a reproducing unit that reproduces a sound based on the sound data, wherein the display control unit acquires a reproduction information of the sound data by the reproducing unit; A calculating means for calculating a play position of the game by referring to the obtained reproduction information of the sound data; and a second means for obtaining the data of the virtual camera and the motion of the object based on the calculation result of the calculating means and the motion progress data. The image processing apparatus according to claim 11, further comprising: an obtaining unit configured to generate image data for displaying a motion of the object on a monitor screen based on a result obtained by the second obtaining unit.
【請求項13】 前記第1の取得手段は前記再生手段に
よるサウンドデータの再生サンプル数(ncount)
及びサンプリング周波数(freq)を取得する手段で
あり、且つ、前記演算手段は前記再生サンプル数(nc
ount)及びサンプリング周波数(freq)を参照
して現在のフレーム数(frame)及び拍数(bea
t)を演算する手段である請求項12記載の画像処理装
置。
13. The sound data reproduction sample number (ncount) of the sound data by the reproduction means.
And a sampling frequency (freq), and the calculating means calculates the number of reproduced samples (nc)
out) and the sampling frequency (freq) with reference to the current frame number (frame) and beat number (bea).
13. The image processing apparatus according to claim 12, which is means for calculating t).
【請求項14】 前記演算手段は、現在のフレーム数
(frame)及び拍数(beat)を frame=ncount*FPS/freq beat=frame/fpb (ただし、FPSは1秒当たりのフレーム数、fpbは
1拍数当たりのフレーム数である)により演算する手段
である請求項13記載の画像処理装置。
14. The arithmetic means calculates the current number of frames (frame) and the number of beats (beat) as follows: frame = ncount * FPS / freq beat = frame / fpb (where FPS is the number of frames per second, fpb is 14. The image processing apparatus according to claim 13, wherein the calculation is performed by using a number of frames per beat.
【請求項15】 前記モーション進行データは、前記サ
ウンドデータの拍数に応じてモーションを時系列で割り
当てるためのデータである請求項12記載の画像処理装
置。
15. The image processing apparatus according to claim 12, wherein the motion progress data is data for assigning a motion in a time series according to the number of beats of the sound data.
【請求項16】 前記仮想カメラのデータは前記仮想空
間における仮想カメラの視点情報であり、前記生成手段
は、前記仮想カメラの視点情報に合致した視点情報を有
するムービー画像を背景画像とした前記オブジェクトの
画像データを生成する手段を有する請求項12記載の画
像処理装置。
16. The data of the virtual camera is viewpoint information of the virtual camera in the virtual space, and the generating unit is configured to generate the object using a movie image having viewpoint information matching the viewpoint information of the virtual camera as a background image. 13. The image processing apparatus according to claim 12, further comprising means for generating image data.
【請求項17】 前記生成手段は、前記オブジェクトの
モーションを自動的に設定する第1の生成モード及び遊
戯者からの操作情報を前記オブジェクトのモーションに
反映させる第2の生成モードの何れか一方のモードの元
に前記画像データを生成する手段である請求項12記載
の画像処理装置。
17. The method according to claim 1, wherein the generating unit is configured to set one of a first generation mode for automatically setting a motion of the object and a second generation mode for reflecting operation information from a player on the motion of the object. 13. The image processing apparatus according to claim 12, wherein the image data is generated based on a mode.
【請求項18】 前記表示制御手段は、前記オブジェク
トにあてがう背景の画像を当該オブジェクトの画像とは
別個に形成する手段と、前記オブジェクトの画像と前記
背景の画像とに対するカメラ視点及び光源の内の少なく
とも一方の配置条件をほぼ同一に設定した状態で当該オ
ブジェクトの画像と背景の画像とを合成させる手段とを
備える請求項11記載の画像処理装置。
18. The image processing apparatus according to claim 18, wherein the display control unit is configured to form a background image applied to the object separately from the image of the object, and a camera viewpoint and a light source for the object image and the background image. 12. The image processing apparatus according to claim 11, further comprising: means for combining an image of the object and a background image with at least one of the arrangement conditions set to be substantially the same.
【請求項19】 前記背景の画像はムービー画像である
請求項18記載の画像処理装置。
19. The image processing apparatus according to claim 18, wherein the background image is a movie image.
【請求項20】 請求項10乃至19の何れか一項に記
載の画像処理装置において、前記サウンドデータはAD
X圧縮されたADXデータとして提供される画像処理装
置。
20. The image processing apparatus according to claim 10, wherein the sound data is an A / D signal.
An image processing device provided as X-compressed ADX data.
【請求項21】 請求項10乃至20の何れかに記載の
画像処理装置の前記各手段をコンピュータに実行させる
ためのプログラムを記録した記憶媒体。
21. A storage medium in which a program for causing a computer to execute each unit of the image processing apparatus according to claim 10 is recorded.
JP36183899A 1998-12-18 1999-12-20 Image processing Withdrawn JP2001148035A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36183899A JP2001148035A (en) 1998-12-18 1999-12-20 Image processing

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP36133698 1998-12-18
JP10-361336 1998-12-18
JP11-253933 1999-09-08
JP25393399 1999-09-08
JP36183899A JP2001148035A (en) 1998-12-18 1999-12-20 Image processing

Publications (1)

Publication Number Publication Date
JP2001148035A true JP2001148035A (en) 2001-05-29

Family

ID=27334278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36183899A Withdrawn JP2001148035A (en) 1998-12-18 1999-12-20 Image processing

Country Status (1)

Country Link
JP (1) JP2001148035A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU772753B2 (en) * 2000-12-22 2004-05-06 Canon Kabushiki Kaisha Incremental update of computer graphics
US7522166B2 (en) 2001-11-29 2009-04-21 Kabushiki Kaisha Square Enix Video game processing method, video game processing apparatus and computer readable recording medium storing video game program
WO2009122602A1 (en) * 2008-04-04 2009-10-08 株式会社コナミデジタルエンタテインメント Image processing program, image processing device, and image processing method
JP2012128630A (en) * 2010-12-15 2012-07-05 Irem Software Engineering Inc Moving image generation apparatus
US10099132B2 (en) 2014-05-16 2018-10-16 Sega Sammy Creation Inc. Game image generation device and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU772753B2 (en) * 2000-12-22 2004-05-06 Canon Kabushiki Kaisha Incremental update of computer graphics
US7522166B2 (en) 2001-11-29 2009-04-21 Kabushiki Kaisha Square Enix Video game processing method, video game processing apparatus and computer readable recording medium storing video game program
WO2009122602A1 (en) * 2008-04-04 2009-10-08 株式会社コナミデジタルエンタテインメント Image processing program, image processing device, and image processing method
JP2012128630A (en) * 2010-12-15 2012-07-05 Irem Software Engineering Inc Moving image generation apparatus
US10099132B2 (en) 2014-05-16 2018-10-16 Sega Sammy Creation Inc. Game image generation device and program

Similar Documents

Publication Publication Date Title
US6738059B1 (en) Apparatus and methods for image processing using mixed display objects
JP3068205B2 (en) Image processing apparatus, game machine using this processing apparatus, image processing method, and medium
US6958751B2 (en) Image processing device, image processing method and recording medium
US6572475B1 (en) Device for synchronizing audio and video outputs in computerized games
US6256047B1 (en) Method of judging hits and computer-readable storage medium storing game data
KR100418173B1 (en) Image generation apparatus, its method, game machine and recording medium
JP2001351126A (en) Computer-readable recording medium with program of game recorded thereon, program of game and method/ device for processing game
JP3417918B2 (en) Computer-readable recording medium recording display control program, and display control apparatus and method
JP3534345B1 (en) GAME PROGRAM AND GAME DEVICE
JP3895014B2 (en) Video playback device and karaoke device
JP2001148035A (en) Image processing
JP2992499B2 (en) Image processing method and apparatus, recording medium
US6585594B2 (en) Storage medium storing display control program, entertainment apparatus, and display control program
US6208358B1 (en) Image processing device, image processing method and storage medium
JP3219697B2 (en) Image generation apparatus and image generation method
JP2007087425A (en) Image generation system, program and information storage medium
JP4372571B2 (en) GAME DEVICE AND GAME PROGRAM
JPH10323455A (en) Picture processor and character form design device
JP2001149639A (en) Picture image processing device, picture image formation method, and storage medium
JP2000078430A (en) Virtual space generator
US20020082078A1 (en) Storage medium storing display control program, entertainment apparatus, and display control program
JP3227860B2 (en) Electronic play equipment and image processing method thereof
JP4233065B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP7487158B2 (en) GAME PROGRAM, GAME DEVICE, GAME SYSTEM, AND GAME PROCESSING METHOD
JP4054708B2 (en) GAME DEVICE AND GAME PROGRAM

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070306