JP2003036450A - Image processing method - Google Patents

Image processing method

Info

Publication number
JP2003036450A
JP2003036450A JP2002142068A JP2002142068A JP2003036450A JP 2003036450 A JP2003036450 A JP 2003036450A JP 2002142068 A JP2002142068 A JP 2002142068A JP 2002142068 A JP2002142068 A JP 2002142068A JP 2003036450 A JP2003036450 A JP 2003036450A
Authority
JP
Japan
Prior art keywords
image processing
processing method
moving
vertex
moving direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002142068A
Other languages
Japanese (ja)
Other versions
JP4161613B2 (en
Inventor
Ryuta Ueda
隆太 植田
Kazuhisa Hasuoka
和久 蓮岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Priority to JP2002142068A priority Critical patent/JP4161613B2/en
Publication of JP2003036450A publication Critical patent/JP2003036450A/en
Application granted granted Critical
Publication of JP4161613B2 publication Critical patent/JP4161613B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing method for effectively displaying movement of an object composed of a plurality of polygons. SOLUTION: The object is displayed while given an afterglow having a tail in the direction opposite to movement of the object by displacing backward predetermined vertexes of polygons constituting the object with respect to the moving object. This can emphasize the movement of the object when displayed and can also display the moving object with more abundant powers of expression.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、三次元コンピュー
タグラフィックス(CG)を利用した画像処理方法に関
し、特に、ポリゴンにより構成されるオブジェクトの移
動をより効果的に表示する画像処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing method using three-dimensional computer graphics (CG), and more particularly to an image processing method for more effectively displaying movement of an object composed of polygons.

【0002】[0002]

【従来の技術】三次元コンピュータグラフィックス(C
G)を利用するコンピュータゲームでは、仮想三次元空
間に配置された人や動物などのキャラクタを含むオブジ
ェクトを、所定の二次元平面に投影した画像がコンピュ
ータゲーム装置の画面に表示される。オブジェクトは、
例えば複数のポリゴンを用いて構成される。
2. Description of the Related Art Three-dimensional computer graphics (C
In the computer game utilizing G), an image obtained by projecting an object including a character such as a person or an animal arranged in a virtual three-dimensional space onto a predetermined two-dimensional plane is displayed on the screen of the computer game device. The object is
For example, it is configured by using a plurality of polygons.

【0003】このオブジェクトは、プレイヤの操作など
により、仮想三次元空間内において移動可能であって、
それに応じて、コンピュータ画面でも、オブジェクトが
移動するのが表示される。
This object is movable in the virtual three-dimensional space by the operation of the player,
In response, the computer screen will also show the object moving.

【0004】[0004]

【発明が解決しようとする課題】本発明の目的は、オブ
ジェクトの移動をより効果的に表示することができる画
像処理方法を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide an image processing method capable of more effectively displaying the movement of an object.

【0005】上記目的を達成するための本発明の画像処
理方法では、移動するオブジェクトに対して、オブジェ
クトを構成するポリゴンの所定の頂点を後方に変位させ
ることで、オブジェクトにその移動方向と反対方向に尾
を引くような残像表現を与えて、そのオブジェクトを表
示する。これにより、オブジェクトの移動をより強調し
て表示することができ、また、移動するオブジェクトを
より豊かな表現力で表示することができる。
According to the image processing method of the present invention for achieving the above object, a predetermined vertex of a polygon forming an object is displaced backward with respect to a moving object so that the object is moved in a direction opposite to its moving direction. Give a tail-like afterimage to and display the object. As a result, the movement of the object can be displayed more emphasized, and the moving object can be displayed with richer expressive power.

【0006】[0006]

【課題を解決するための手段】例えば、上記目的を達成
するための本発明の第1の画像処理方法は、仮想三次元
空間内を移動する複数のポリゴンから構成されるオブジ
ェクトを表示するための画像処理方法において、前記オ
ブジェクトを構成するポリゴンの頂点のうち、その法線
ベクトルが前記オブジェクトの移動方向ベクトルと反対
方向の成分を含む少なくとも一つの頂点の座標を、所定
のサンプリングタイミングごとに取得するステップと、
当該頂点の座標が、前記移動方向と反対の成分を含む方
向に所定長さ分変位させた位置にあるものとして、前記
頂点を有するポリゴンを表示するステップとを備えるこ
とを特徴とする。
For example, a first image processing method of the present invention for achieving the above object is for displaying an object composed of a plurality of polygons moving in a virtual three-dimensional space. In the image processing method, of the vertices of polygons forming the object, the coordinates of at least one vertex whose normal vector includes a component in the direction opposite to the moving direction vector of the object are acquired at predetermined sampling timings. Steps,
A step of displaying a polygon having the apex, assuming that the coordinates of the apex are located at a position displaced by a predetermined length in a direction including a component opposite to the moving direction.

【0007】本発明の第2の画像処理方法は、上記第1
の方法において、各頂点の法線ベクトルと前記オブジェ
クトの移動方向ベクトルとの内積に基づいて、各頂点の
法線ベクトルが、前記移動方向ベクトルと反対方向の成
分を有するかどうかを判別するステップを備えることを
特徴とする。
A second image processing method of the present invention is based on the above first method.
In the method, the step of determining whether the normal vector of each vertex has a component in the opposite direction to the moving direction vector based on the inner product of the normal vector of each vertex and the moving direction vector of the object. It is characterized by being provided.

【0008】本発明の第3の画像処理方法は、前記所定
長さが、前記オブジェクトの移動量、移動速度、移動加
速度、移動方向の少なくともいずれか一つに基づいて決
定されることを特徴とする。
A third image processing method of the present invention is characterized in that the predetermined length is determined based on at least one of a moving amount, a moving speed, a moving acceleration, and a moving direction of the object. To do.

【0009】本発明の第4の画像処理方法は、上記第1
又は第2の方法において、前記所定長さが、今回のサン
プリングタイミングにおける座標と前回のサンプリング
タイミングにおける座標とに基づいて決定されることを
特徴とする画像処理方法。
A fourth image processing method of the present invention is based on the above first method.
Alternatively, in the second method, the predetermined length is determined based on the coordinates at the current sampling timing and the coordinates at the previous sampling timing.

【0010】本発明の第5の画像処理方法は、上記第1
又は第2の方法において、前記所定長さは、前記移動方
向ベクトルの大きさに基づいて決定されることを特徴と
する。本発明の第6の画像処理方法は、上記第4又は第
5の方法において、前記所定長さが、さらに、各頂点の
法線ベクトルと前記オブジェクトの移動方向ベクトルと
の内積を考慮して決定されることを特徴とする。
A fifth image processing method of the present invention is the first image processing method described above.
Alternatively, in the second method, the predetermined length is determined based on the magnitude of the movement direction vector. A sixth image processing method according to the present invention is the method according to the fourth or fifth method, wherein the predetermined length is determined in consideration of an inner product of a normal vector of each vertex and a moving direction vector of the object. It is characterized by being done.

【0011】本発明の第7の画像処理方法は、上記第4
乃至第6のいずれかの方法において、前記所定長さが、
さらに、各頂点に与えられる変位比率を考慮して決定さ
れることを特徴とする。
A seventh image processing method of the present invention is the fourth image processing method described above.
To the sixth method, the predetermined length is
Further, it is characterized in that it is determined in consideration of the displacement ratio given to each vertex.

【0012】本発明の第8の画像処理方法は、上記第7
の方法において、前記変位比率が、各頂点に対して異な
る値が設定されることを特徴とする。
An eighth image processing method of the present invention is based on the above seventh aspect.
In the above method, the displacement ratio is set to a different value for each vertex.

【0013】本発明の第9の画像処理方法は、上記第7
又は第8の方法において、前記頂点に設定された透明度
を、あらかじめ設定された値から各頂点の前記変位比率
を減算した値に設定するステップを備えることを特徴と
する。
A ninth image processing method according to the present invention is the seventh image processing method.
Alternatively, in the eighth method, there is provided a step of setting the transparency set to the apex to a value obtained by subtracting the displacement ratio of each apex from a preset value.

【0014】本発明の第10の画像処理方法は、上記第
1の方法において、前記頂点に設定された透明度を、あ
らかじめ設定された値より低い値に設定するステップを
備えることを特徴とする。
A tenth image processing method of the present invention is characterized in that, in the first method, there is provided a step of setting the transparency set at the vertex to a value lower than a preset value.

【0015】本発明の第11の画像処理方法は、上記第
10の方法において、前記頂点に設定された透明度は、
あらかじめ設定された透明度から、各頂点の法線ベクト
ルと前記オブジェクトの移動方向ベクトルとの内積の絶
対値を減算した値に設定されることを特徴とする。
According to an eleventh image processing method of the present invention, in the above tenth method, the transparency set at the vertex is
It is characterized in that it is set to a value obtained by subtracting the absolute value of the inner product of the normal vector of each vertex and the moving direction vector of the object from the preset transparency.

【0016】本発明の第12の画像処理方法は、上記第
1の方法において、前記表示されるポリゴンが、前記頂
点に向かって、透明度、彩度、明度、色相の少なくとも
いずれか一つが変化するように表示されることを特徴と
する。
In a twelfth image processing method of the present invention, in the first method, at least one of transparency, saturation, brightness and hue of the displayed polygon changes toward the apex. Is displayed as follows.

【0017】本発明の第13の画像処理方法は、上記第
12の方法において、前記変化の度合いが、前記オブジ
ェクトの移動量、移動速度、移動加速度、移動方向の少
なくともいずれか一つに基づいて決定されることを特徴
とする。
A thirteenth image processing method of the present invention is the twelfth method, wherein the degree of change is based on at least one of a moving amount, a moving speed, a moving acceleration, and a moving direction of the object. It is characterized by being decided.

【0018】また、上記第1乃至第13のいずれかの画
像処理方法における各ステップをコンピュータ装置に実
行させるためのプログラムが提供される。
Further, there is provided a program for causing a computer device to execute each step in any one of the first to thirteenth image processing methods.

【0019】さらに、上記第1乃至第13のいずれかの
画像処理方法を実行する画像処理装置が提供される。
Further, there is provided an image processing apparatus for executing any one of the first to thirteenth image processing methods.

【0020】本発明の更なる特徴は、以下の図面に従い
説明される発明の実施の形態例から明らかになる。
Further features of the present invention will be apparent from the embodiments of the invention described below with reference to the drawings.

【0021】[0021]

【発明の実施の形態の説明】以下、本発明の実施の形態
について説明する。しかしながら、本発明の技術的範囲
が、本実施の形態に限定されるものではない。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The embodiments of the present invention will be described below. However, the technical scope of the present invention is not limited to this embodiment.

【0022】図1は、本発明の実施の形態における画像
処理装置であるコンピュータゲーム装置(ゲームユニッ
ト)の外観図である。図1は、同一のゲームユニットが
2台連結されている場合を示す。図1によれば、遊戯者
がシート1に着座し、図示しないコイン投入口から所定
料金を投入するとゲームが開始される。ディスプレイ2
には、図2(a)及び(b)に示すようにキャラクタC
1及びC2が配置される仮想三次元空間が表示される。
そして、遊戯者はディスプレイ2に表示されるゲーム画
面を見ながらボタンを備えたレバーである操作部3によ
って、例えば、一方のキャラクタC1を操作すること
で、キャラクタC1を移動させ、例えば、もう一方のキ
ャラクタC2との対戦を行ったりする。
FIG. 1 is an external view of a computer game device (game unit) which is an image processing device according to an embodiment of the present invention. FIG. 1 shows a case where two identical game units are connected. According to FIG. 1, a game is started when a player sits on the seat 1 and inserts a predetermined fee from a coin slot (not shown). Display 2
In addition, as shown in FIGS. 2 (a) and 2 (b), the character C
A virtual three-dimensional space in which 1 and C2 are arranged is displayed.
Then, the player moves the character C1 by operating, for example, one character C1 with the operation unit 3 which is a lever having a button while looking at the game screen displayed on the display 2. Battle with the character C2.

【0023】図3は、上記ゲーム装置に内蔵される本発
明に従うゲームユニットの構成例ブロック図である。図
3において、点線で囲まれた領域10は、ゲ−ムユニッ
ト本体に収納される部分である。図3によれば、バス1
00を介して、CPUなど以下に述べる各種構成要素が
接続されている。
FIG. 3 is a block diagram showing an example of the structure of a game unit according to the present invention which is built in the above game device. In FIG. 3, a region 10 surrounded by a dotted line is a portion housed in the game unit body. According to FIG. 3, bus 1
Various constituent elements described below, such as a CPU, are connected via 00.

【0024】CPU101は、ROM102に格納され
たゲームプログラムに基づいてプログラムの実行を制御
する。ROM2は、プログラム記憶装置の総称として使
用され、例えば、ハードディスクドライブや、プログラ
ムが記録された光ディスクを読み取る光ディスクドライ
ブなども含む。RAM103は、ゲーム進行に伴って更
新されるキャラクタの仮想空間における座標など所定の
ゲームパラメータが記憶される。
The CPU 101 controls the execution of the program based on the game program stored in the ROM 102. The ROM 2 is used as a general term for program storage devices, and includes, for example, a hard disk drive, an optical disk drive that reads an optical disk in which a program is recorded, and the like. The RAM 103 stores predetermined game parameters such as the coordinates of the character in the virtual space updated as the game progresses.

【0025】そして、RAM103に一旦記憶されたこ
れらのパラメータは、ジオメトリ処理部104に送られ
る。ジオメトリ処理部104は、所定のサンプリングタ
イミング(1/60秒)ごとに、ゲーム上の三次元仮想
空間におけるキャラクタや背景を構成するポリゴンの頂
点データ(座標を含む)を取得し、当該頂点データに基
づいて、後に詳述するような所定の座標変換処理を行
う。簡単に述べると、三次元の仮想空間に設定されたワ
ールド座標系におけるポリゴンの座標を、そのワールド
座標系におけるある一点の座標を視点として視線方向の
仮想空間を見たときの視点座標系に変換する。
Then, these parameters once stored in the RAM 103 are sent to the geometry processing section 104. The geometry processing unit 104 acquires the vertex data (including coordinates) of the polygons forming the character and the background in the three-dimensional virtual space in the game at every predetermined sampling timing (1/60 seconds), and uses them as the vertex data. Based on this, a predetermined coordinate conversion process, which will be described in detail later, is performed. Briefly, the coordinates of a polygon in the world coordinate system set in the three-dimensional virtual space are converted into the viewpoint coordinate system when the virtual space in the line-of-sight direction is viewed with the coordinates of one point in the world coordinate system as the viewpoint. To do.

【0026】さらに、ジオメトリ処理104には、レン
ダリング処理部105が接続されている。レンダリング
処理部105には、ROM(プログラム記憶装置)10
4から上記ポリゴンの頂点データやそのポリゴンにマッ
ピングされるテクスチュアのデータなどが読み出され、
一旦記憶されるテクスチュアバッファ106が接続され
ている。そして、レンダリング処理部105は、テクス
チュアバッファ106に記憶されたポリゴンのテクスチ
ュアデータに基づいて各ポリゴンに着色、シェーディン
グ、テクスチュアの貼り付けなどを行う。
Further, a rendering processing unit 105 is connected to the geometry processing 104. The rendering processing unit 105 includes a ROM (program storage device) 10
The vertex data of the polygon and the texture data mapped to the polygon are read from 4,
A texture buffer 106 to be stored once is connected. Then, the rendering processing unit 105 performs coloring, shading, pasting of texture, etc. on each polygon based on the texture data of the polygon stored in the texture buffer 106.

【0027】さらに、レンダリング処理部105には、
三次元仮想空間における視点座標系に変換されたポリゴ
ンの座標を、ディスプレイ2に表示するための二次元座
標系に変換する。また、レンダリング処理部105に接
続されるZバッファ107には、上述のポリゴンの座標
を三次元座標系から二次元座標系に変換する際の奥行き
方向(Z方向)に関するデータ情報(例えば、どのポリ
ゴンを手前に表示するかなどのデータ)が記憶されてい
る。
Further, the rendering processing unit 105 includes
The coordinates of the polygon converted into the viewpoint coordinate system in the three-dimensional virtual space are converted into the two-dimensional coordinate system to be displayed on the display 2. Further, in the Z buffer 107 connected to the rendering processing unit 105, data information regarding the depth direction (Z direction) when converting the above-mentioned polygon coordinates from a three-dimensional coordinate system to a two-dimensional coordinate system (for example, which polygon Is stored).

【0028】そして、レンダリング処理部105の出力
側には、フレームバッファ108が接続される。フレー
ムバッファ108には、ディスプレイ2に表示される一
画面分のデータが格納される。フレームバッファ108
から読み出される一画面分の画像データは、ビデオ処理
部109によってビデオ信号に変換されて、順次ディス
プレイ2に表示される。
A frame buffer 108 is connected to the output side of the rendering processing unit 105. The frame buffer 108 stores data for one screen displayed on the display 2. Frame buffer 108
The image data for one screen read from is converted into a video signal by the video processing unit 109 and is sequentially displayed on the display 2.

【0029】また、I/O処理部110を通して、遊戯
者によって操作されるレバー及びスイッチ類の操作部3
が接続される。操作部3から入力される操作信号に基づ
き、CPU101により仮想空間におけるキャラクタな
どの座標の演算が行われ、その結果はジオメトリ処理部
104に送られる。
Further, through the I / O processing section 110, an operating section 3 for levers and switches operated by a player.
Are connected. Based on the operation signal input from the operation unit 3, the CPU 101 calculates the coordinates of the character or the like in the virtual space, and the result is sent to the geometry processing unit 104.

【0030】また、バス100には、更にサウンド処理
部111が接続され、PCM/FM音源の発音を制御す
る。このサウンド処理部111には、音声データを記憶
するサウンドメモリ112が接続されている。
A sound processor 111 is further connected to the bus 100 to control the sound generation of the PCM / FM sound source. A sound memory 112 that stores audio data is connected to the sound processing unit 111.

【0031】さらに、サウンド処理部111によって制
御された音声データは、図示されないD/A変換回路に
よってディジタル音源からアナログ音源に変換され、ス
ピーカ113にオーディオ信号を送る。
Further, the voice data controlled by the sound processor 111 is converted from a digital sound source to an analog sound source by a D / A conversion circuit (not shown), and an audio signal is sent to the speaker 113.

【0032】次に、上述したキャラクタの座標を求める
方法について説明する。まず、キャラクタの上記ゲーム
上の仮想空間における位置は、仮想空間における三次元
座標(ワールド座標系)における位置座標(Xw 、Yw
、Zw )として与えられる。
Next, a method for obtaining the coordinates of the above character will be described. First, the position of the character in the virtual space in the game is the position coordinates (Xw, Yw) in the three-dimensional coordinates (world coordinate system) in the virtual space.
, Zw).

【0033】また、仮想空間におけるキャラクタ以外の
固定オブジェクトなどの背景の位置もワールド座標系に
おける位置座標として与えられる。そして、キャラクタ
の仮想空間内の移動は、ワールド座標系の位置座標の変
更として処理される。具体的には、キャラクタの位置座
標Wは、上記操作部3などからの操作信号に含まれる移
動量及び移動方向の情報に基づいて上記CPU101の
演算によって演算される。
The position of the background such as a fixed object other than the character in the virtual space is also given as the position coordinate in the world coordinate system. Then, the movement of the character in the virtual space is processed as a change in the position coordinate of the world coordinate system. Specifically, the position coordinate W of the character is calculated by the calculation of the CPU 101 based on the information on the movement amount and the movement direction included in the operation signal from the operation unit 3 or the like.

【0034】一方、ディスプレイ2に表示される画像
は、三次元仮想空間にワールド座標系のある一点の座標
(視点座標)から所定方向を見た二次元画像として表示
される。これは、あたかも仮想空間の所定位置にビデオ
カメラが設置され、そのビデオカメラによって撮影され
た画像がディスプレイに表示されるような感覚を遊技者
に与える。
On the other hand, the image displayed on the display 2 is displayed as a two-dimensional image in which a predetermined direction is viewed from the coordinates (viewpoint coordinates) of one point in the world coordinate system in the three-dimensional virtual space. This gives the player the sensation that a video camera is installed at a predetermined position in the virtual space and the image captured by the video camera is displayed on the display.

【0035】例えば、図4に示すような三次元仮想空間
にキャラクタC1及びC2が配置されているとき、キャ
ラクタの位置座標は、ワールド座標系の位置座標(Xw
、Yw 、Zw )により決定される。そして、上記視点
座標P(XwP、YwP、ZwP)は、図4に示されるよう
に、例えば、ワールド座標系におけるキャラクタC1の
後方斜め上の視点座標Pに設定され、その視点座標Pか
らの視線方向Rは、例えば、キャラクタC1の上部付近
(例えば、キャラクタC1の頭部より若干高い位置)の
注視点座標Q(XwQ、YwQ、ZwQ)の方向に設定され
る。なお、視点座標Pの位置に仮想のビデオカメラVの
マークが記される。
For example, when the characters C1 and C2 are arranged in a three-dimensional virtual space as shown in FIG. 4, the position coordinate of the character is the position coordinate (Xw) of the world coordinate system.
, Yw, Zw). Then, the viewpoint coordinates P (XwP, YwP, ZwP) are set, for example, to the viewpoint coordinates P diagonally rearward and upward of the character C1 in the world coordinate system as shown in FIG. 4, and the line of sight from the viewpoint coordinates P is set. The direction R is set to the direction of the gazing point coordinates Q (XwQ, YwQ, ZwQ) near the upper part of the character C1 (for example, a position slightly higher than the head of the character C1). The mark of the virtual video camera V is written at the position of the viewpoint coordinates P.

【0036】そして、ワールド座標系における各キャラ
クタなどの座標は、上記図3におけるジオメトリ処理部
104によって、上記視点座標P及び上記視線方向Rに
基づいた視点座標系(Xv 、Yv 、Zv )に変換され、
さらに、ディスプレイ画面に表示するために、上記図3
におけるレンダリング処理部105によって、所定の投
影変換処理による二次元のスクリーン座標系(Xs、Ys
)に変換され、その二次元画像がディスプレイ2に表
示される。
The coordinates of each character in the world coordinate system are converted by the geometry processing unit 104 in FIG. 3 into a viewpoint coordinate system (Xv, Yv, Zv) based on the viewpoint coordinates P and the line-of-sight direction R. Is
In addition, in order to display on the display screen, as shown in FIG.
By the rendering processing unit 105 in the two-dimensional screen coordinate system (Xs, Ys
) And the two-dimensional image is displayed on the display 2.

【0037】本発明の実施の形態では、上述のようにし
て表示されるキャラクタを含むオブジェクトが三次元仮
想空間を移動するとき、その移動をより効果的にディス
プレイに表示する画像処理方法を提供する。具体的に
は、移動しているオブジェクトにおけるその移動してい
る状態をより強調して表示するために、移動しているオ
ブジェクトが、その移動方向と反対方向に尾を引いてい
るような残像表示処理を行う。
In the embodiment of the present invention, when an object including a character displayed as described above moves in a three-dimensional virtual space, an image processing method for displaying the movement more effectively on the display is provided. . Specifically, in order to display the moving state of the moving object more emphasized, an afterimage is displayed such that the moving object has a tail in the opposite direction to the moving direction. Perform processing.

【0038】図5は、本発明の実施の形態における画像
処理方法により表示されるオブジェクトの例である。図
5(a)に示される球のオブジェクトが移動すると、図
5(b)に示されるように、その移動方向と反対方向に
尾を引いているように残像表示することで、球が移動し
ていることがより強調される。
FIG. 5 is an example of an object displayed by the image processing method according to the embodiment of the present invention. When the sphere object shown in FIG. 5A moves, the sphere moves by displaying an afterimage as if a tail is drawn in the direction opposite to the moving direction as shown in FIG. 5B. Is emphasized more.

【0039】また、図6、図7は、本発明の実施の形態
における画像処理方法を利用したコンピュータゲーム画
面の例である。図6(a)、図7(a)は、画面内で移
動しているキャラクタCそれぞれを残像表示処理してい
ない画面例であって、図6(b)、図7(b)は、各キ
ャラクタCに対して残像表示処理を与えた画面例であ
る。
6 and 7 show examples of computer game screens using the image processing method according to the embodiment of the present invention. FIGS. 6A and 7A are screen examples in which the afterimage display processing is not performed on each of the characters C moving in the screen, and FIG. 6B and FIG. It is an example of a screen in which afterimage display processing is applied to the character C.

【0040】このようにオブジェクトを残像表示させる
ために、本発明の実施の形態では、オブジェクトを構成
する所定のポリゴンを引き延ばす処理を行う。
In order to display the afterimage of the object in this way, in the embodiment of the present invention, a process of extending a predetermined polygon forming the object is performed.

【0041】図8は、本発明の実施の形態における画像
処理方法の概略を説明する図である。図8では、球を構
成する複数のポリゴンの一部が示されている。例えば、
図8に示されるポリゴンAの頂点P1のように、その法
線ベクトルN1がオブジェクトの移動方向Dと反対であ
るとき、レンダリング処理において、所定のサンプリン
グタイミングごとに取得される頂点P1の座標を、今回
のタイミングにおける座標V1ではなく、前回のタイミ
ングにおける座標VB1とする。これにより、ポリゴン
Aは、今回のタイミングにおける表示画像について、頂
点P1の座標が、前回のタイミングの座標VB1にある
ものとして処理され、ポリゴンAは、今回のタイミング
における他の頂点P2とP3と、前回のタイミングにお
ける頂点P1を有する形状(図の斜線部)となり、図示
されるように、後方に引き延ばされて表示される。
FIG. 8 is a diagram for explaining the outline of the image processing method according to the embodiment of the present invention. In FIG. 8, a part of a plurality of polygons forming a sphere is shown. For example,
When the normal vector N1 is opposite to the moving direction D of the object like the vertex P1 of the polygon A shown in FIG. 8, the coordinates of the vertex P1 acquired at every predetermined sampling timing in the rendering process are The coordinate VB1 at the previous timing is used instead of the coordinate V1 at the current timing. As a result, the polygon A is processed as if the coordinates of the vertex P1 of the display image at this timing are at the coordinates VB1 of the previous timing, and the polygon A is at the other vertices P2 and P3 at this timing. The shape has the apex P1 at the previous timing (hatched portion in the figure), and as shown in the figure, it is stretched backward and displayed.

【0042】以下、本発明の実施の形態における画像処
理方法を更に詳しく説明する。なお、以下に説明する画
像処理方法における座標は、上記におけるワールド座標
系又は視点座標系のいずれであってもよい。
The image processing method according to the embodiment of the present invention will be described in more detail below. The coordinates in the image processing method described below may be either the world coordinate system or the viewpoint coordinate system described above.

【0043】[引き延ばす頂点の判別処理]オブジェク
トが尾を引いて移動しているように残像表示するため
に、オブジェクトの移動方向と反対方向のポリゴンの頂
点を後方に変位させる処理を行う。まず、すべてのポリ
ゴンの頂点から、変位させる頂点を、次のような処理に
より選択する。
[Discrimination processing of apexes to be stretched] In order to display an afterimage as if the object is trailing and moving, a processing of displacing the apexes of polygons in the direction opposite to the moving direction of the object is performed. First, the vertices to be displaced are selected from the vertices of all polygons by the following processing.

【0044】(1)オブジェクトの移動方向ベクトル
(MV)を求める。
(1) The moving direction vector (MV) of the object is obtained.

【0045】移動方向ベクトルはMV、オブジェクトを
構成する(一つ又は複数の)所定のポリゴンの頂点の座
標の変化から求められる。好ましくは、オブジェクトが
人間型キャラクタである場合、回転しない部位、例え
ば、胴体部分の所定ポリゴンの頂点が選ばれる。移動方
向ベクトルMVは単位ベクトルであってもよい。
The movement direction vector is obtained from the change in the coordinates of the vertices of a predetermined polygon (one or more) forming the MV and the object. Preferably, when the object is a human character, a non-rotating part, for example, a vertex of a predetermined polygon of the body part is selected. The moving direction vector MV may be a unit vector.

【0046】(2)オブジェクトを構成するポリゴンの
各頂点の法線ベクトル(NVn)を移動方向ベクトル
(MV)に基づいて補正する。
(2) The normal vector (NVn) of each apex of the polygon forming the object is corrected based on the moving direction vector (MV).

【0047】人間型キャラクタにおける頭、腕、足のよ
うに回転可能な部位がある場合、例えば、その直立状態
と姿勢が直立状態から変化している状態とでは、姿勢が
変化している部位のポリゴンに関して、その頂点の法線
ベクトルの方向も変化する。移動方向ベクトルMVが、
キャラクタの直立状態に基づいて決定されている場合、
各ポリゴンの法線ベクトルNVnを、それぞれの姿勢変
化分(回転の場合、回転角)に基づいて、キャラクタが
直立している基準状態における頂点の法線ベクトルNV
nに補正することで、移動方向ベクトルMVに対応した
各頂点の法線ベクトルNVnを求める。法線ベクトルN
Vnは、単位ベクトルであってもよい。
When there are rotatable parts such as the head, arms, and legs in a humanoid character, for example, in the upright state and the state in which the posture is changed from the upright state, the parts in which the posture is changed are Regarding the polygon, the direction of the normal vector of its vertex also changes. The moving direction vector MV is
If determined based on the upright state of the character,
The normal vector NVn of each polygon is the normal vector NV of the apex in the reference state in which the character is upright, based on the amount of change in posture (rotation angle in the case of rotation).
By correcting to n, the normal vector NVn of each vertex corresponding to the moving direction vector MV is obtained. Normal vector N
Vn may be a unit vector.

【0048】(3)移動方向ベクトルMVと法線ベクト
ルNVnの内積IPnを求める。
(3) The inner product IPn of the moving direction vector MV and the normal vector NVn is obtained.

【0049】内積IPnを求めることで、移動方向ベク
トルMVと各法線ベクトルNVnそれぞれとの角度差が
求められる。具体的には、内積IPnが1であれば、角
度差0(ゼロ)度であって、すなわち、移動方向ベクト
ルMVと法線ベクトルNVnとは同一方向である。内積
IPnが−1であれば、角度差180度であって、すな
わち、移動方向ベクトルMVと法線ベクトルNVnとは
正反対を向いている。内積IPnが0(ゼロ)であれ
ば、角度差90度であって、すなわち、移動方向ベクト
ルMVと法線ベクトルNVnとは直角である。
By obtaining the inner product IPn, the angular difference between the moving direction vector MV and each normal vector NVn can be obtained. Specifically, if the inner product IPn is 1, the angle difference is 0 (zero) degree, that is, the moving direction vector MV and the normal vector NVn are in the same direction. If the inner product IPn is -1, the angle difference is 180 degrees, that is, the moving direction vector MV and the normal vector NVn are in direct opposite directions. If the inner product IPn is 0 (zero), the angle difference is 90 degrees, that is, the moving direction vector MV and the normal vector NVn are at right angles.

【0050】従って、内積IPnが0(ゼロ)以上の頂
点については、移動方向と同じ方向成分を有するので、
後方変位処理の対象とはせず、サンプリングタイミング
における現在のタイミングにおける座標がそのまま用い
られて表示される。
Therefore, for the vertices whose inner product IPn is 0 (zero) or more, since they have the same direction component as the moving direction,
The coordinate at the current timing at the sampling timing is used as it is and displayed without being subjected to the backward displacement processing.

【0051】一方、内積IPnが0(ゼロ)未満の頂点
については、移動方向と反対方向の方向成分を有するの
で、後方変位処理の対象の頂点として選択される。従っ
て、概略的には、移動しているオブジェクトにおける移
動方向に対して後ろ半分の頂点が後方変位処理され、そ
の頂点を含むポリゴンが引き延ばされることとなる。
On the other hand, the vertices whose inner product IPn is less than 0 (zero) have a direction component in the direction opposite to the moving direction, and are therefore selected as the vertices for the backward displacement processing. Therefore, roughly, the rear half apex of the moving object in the moving direction is subjected to the backward displacement processing, and the polygon including the apex is extended.

【0052】[引き延ばし処理]上述で後方変位処理の
対象として選択された頂点は、次の(1)〜(4)のい
ずれかの演算式に従って座標が求められる。なお、演算
式は、一例であって、本発明の画像処理方法を行うため
の演算式は、これらに限られない。
[Stretching Process] The coordinates of the vertex selected as the target of the backward displacement process are calculated according to any one of the following equations (1) to (4). Note that the arithmetic expressions are examples, and the arithmetic expressions for performing the image processing method of the present invention are not limited to these.

【0053】所定のサンプリングタイミングにおける今
回のタイミングにおける頂点座標をVn、前回のタイミ
ングにおける頂点座標をVBnとする。
The vertex coordinates at the current timing at the predetermined sampling timing are Vn, and the vertex coordinates at the previous timing are VBn.

【0054】また、以下の演算式で利用する変位比率R
nが定義されてもよい。各ポリゴンの頂点には、各ポリ
ゴンを引き延ばすための所定の変位比率Rnが与えられ
る。変位比率Rnは、0(ゼロ)から1の範囲で設定可
能であって、各頂点について同じ値が与えられてもよい
し、異なる値が与えられてもよい。異なる値を与える場
合、プログラムによりランダムに与えられてもよいし、
プログラム作成時にプログラマーにより指定された値が
与えられてもよい。
Further, the displacement ratio R used in the following arithmetic expression
n may be defined. A predetermined displacement ratio Rn for extending each polygon is given to the vertex of each polygon. The displacement ratio Rn can be set in the range of 0 (zero) to 1, and the same value or different values may be given to each vertex. If different values are given, they may be given randomly by the program,
The value specified by the programmer when creating the program may be given.

【0055】各頂点について与えられる変位比率Rnが
異なる場合、オブジェクトの移動量が同じであって、各
ポリゴンの引き延ばされる長さがそれぞれ異なることと
なり、変位比率Rnが同じ場合、同じ長さとなる。な
お、変位比率Rnにゼロを与えることによって、そのポ
リゴンが引き延ばされないようにしてもよい。
When the displacement ratios Rn given to the respective vertices are different, the amount of movement of the object is the same, and the lengths of the extended polygons are different. When the displacement ratios Rn are the same, the lengths are the same. . The polygon may not be stretched by giving zero to the displacement ratio Rn.

【0056】(1)今回の座標と前回の座標から変位さ
せる頂点の座標を求める。
(1) The coordinates of the vertex to be displaced are obtained from the current coordinates and the previous coordinates.

【0057】 頂点座標=(VBn−Vn)×Rn+Vn …[1] [1]式において、例えば比率Rn=1の場合は、頂点
座標=VBnとなり、図8に示したように、頂点座標
は、今回のタイミングにおける座標から前回のタイミン
グにおける座標まで変位する。同様に、例えば比率Rn
=0.5であれば、今回の頂点座標と前回の頂点座標の
中間位置座標まで変位する。このように、各頂点の今回
の座標と前回の座標に応じて、各頂点の変位する長さを
求める。
Vertex coordinate = (VBn−Vn) × Rn + Vn [1] In the equation [1], for example, when the ratio Rn = 1, the vertex coordinate = VBn, and as shown in FIG. Displace from the coordinate at this timing to the coordinate at the previous timing. Similarly, for example, the ratio Rn
= 0.5, it is displaced to an intermediate position coordinate between the current vertex coordinate and the previous vertex coordinate. In this way, the displacement length of each vertex is obtained according to the current coordinates and the previous coordinates of each vertex.

【0058】図9は、後方変位された頂点座標に基づい
て表示されるオブジェクトの例である。図9(a)は、
上記[1]式によるオブジェクトの概略表示例であっ
て、各頂点についての比率Rnが同じである場合、頂点
の変位長さ、すなわち、ポリゴンが引き延ばされる長さ
は同じである。例えば、図9(a)では、各頂点P1、
P2、P3、P4の法線ベクトル(各矢印)の方向は異
なるが、変位する長さは同じLである。
FIG. 9 is an example of an object displayed based on the rearward displaced vertex coordinates. FIG. 9A shows
In the schematic display example of the object by the above formula [1], when the ratio Rn for each vertex is the same, the displacement length of the vertex, that is, the length to which the polygon is stretched is the same. For example, in FIG. 9A, each vertex P1,
The direction of the normal vector (each arrow) of P2, P3, and P4 is different, but the displacement length is the same L.

【0059】(2)上記(1)に加えて、移動方向との
角度が大きい頂点ほど長く移動するように頂点の座標を
求める。
(2) In addition to the above (1), the coordinates of the vertices are determined so that the vertices having a larger angle with the moving direction move longer.

【0060】 頂点座標=(VBn−Vn)×Rn×(−IPn)+Vn …[2] 各頂点の法線ベクトルNVnと移動方向ベクトルMVと
角度差が大きいほど、その内積IPnの絶対値は大きく
なる。従って、上記[2]式のように、内積IPnを掛
け合わせることで、各頂点の移動距離比率Rnが同じで
あっても、移動方向ベクトルMVとの角度差に応じて、
各頂点の移動距離が異なってくる。すなわち、角度差が
大きい(最大角度差は、正反対の場合の180度であ
る)ほど、頂点の後方向変位長さは大きくなる。
Vertex coordinates = (VBn−Vn) × Rn × (−IPn) + Vn [2] The larger the angular difference between the normal vector NVn of each vertex and the movement direction vector MV, the greater the absolute value of the inner product IPn. Become. Therefore, by multiplying the inner product IPn as in the above formula [2], even if the moving distance ratio Rn of each vertex is the same, according to the angular difference from the moving direction vector MV,
The moving distance of each vertex is different. That is, the larger the angular difference (the maximum angular difference is 180 degrees in the opposite case), the greater the rearward displacement length of the apex.

【0061】図9(b)は、上記[2]式によるオブジ
ェクトの表示例であって、各頂点の法線ベクトルNVn
と移動方向ベクトルMVとの角度差に応じて、頂点の後
方向変位長さが異なり、より自然な残像表示となる。例
えば、図9(b)では、各頂点P1、P2、P3、P4
の法線ベクトル(各矢印)の方向は異なり、移動方向と
の角度差が比較的小さい頂点P1、P4は、角度差が比
較的大きい頂点P2、P3より変位する長さは短くなる
(L1<L2)。
FIG. 9B is a display example of the object by the above equation [2], in which the normal vector NVn of each vertex is shown.
And the moving direction vector MV, the rearward displacement length of the apex differs, resulting in a more natural afterimage display. For example, in FIG. 9B, each vertex P1, P2, P3, P4
The directions of the normal vectors (arrows) are different, and the vertices P1 and P4 having a relatively small angle difference from the moving direction have a shorter displacement length than the vertices P2 and P3 having a relatively large angle difference (L1 < L2).

【0062】(3)移動方向と逆方向に変位する。(3) It is displaced in the direction opposite to the moving direction.

【0063】 頂点座標=(−MV)×Rn+Vn …[3] 上記[1]、[2]式では、各頂点ごとの今回のタイミ
ングにおける座標Vnと前回のタイミングにおける座標
VBnとに基づいて、頂点座標を決定したが、上記
[3]式及び次の[4]式は、各頂点一律に同一の移動
方向ベクトルMVの大きさ、すなわち、オブジェクトの
移動量又は移動速度(移動方向ベクトルが単位ベクトル
である場合を除く)を使う。これにより、演算量を低減
させることができる。各頂点において、各サンプリング
タイミング間の移動距離が同じで、その距離が移動方向
ベクトルMVの大きさと同じ場合は、上記[1]式と同
じ結果となる。
Vertex coordinates = (− MV) × Rn + Vn [3] In the above formulas [1] and [2], the vertices are calculated based on the coordinates Vn at the current timing and the coordinates VBn at the previous timing for each vertex. Although the coordinates are determined, the above equation [3] and the following equation [4] have the same magnitude of the moving direction vector MV for each vertex, that is, the moving amount or the moving speed of the object (the moving direction vector is a unit vector). Except when) is used. As a result, the amount of calculation can be reduced. When the moving distance between the respective sampling timings is the same at each vertex and the moving distance is the same as the magnitude of the moving direction vector MV, the same result as the above-mentioned expression [1] is obtained.

【0064】(4)上記(3)に内積IPnを加える。(4) The inner product IPn is added to the above (3).

【0065】 頂点座標=(−MV)×Rn×(−IPn)+Vn …(4) 上記[2]式の場合と同様に、内積IPnを考慮するこ
とで、移動方向ベクトルとの角度差に応じた後方向変位
長さが求められる。各頂点において、各サンプリングタ
イミング間の移動距離が同じで、その移動距離が移動方
向ベクトルMVの大きさと場合は、上記[2]式と同じ
結果となる。
Vertex coordinates = (− MV) × Rn × (−IPn) + Vn (4) As in the case of the above formula [2], by considering the inner product IPn, the angular difference from the moving direction vector is determined. The rearward displacement length is required. When the moving distance between the sampling timings is the same at each vertex and the moving distance is the magnitude of the moving direction vector MV, the same result as the above expression [2] is obtained.

【0066】変位長さは、上述の場合に加えて、例え
ば、オブジェクトの移動加速度、移動方向に基づいて決
定されてもよい。
The displacement length may be determined based on, for example, the moving acceleration and the moving direction of the object in addition to the above case.

【0067】[透明度の指定]上述のように、レンダリ
ング処理において、ポリゴンの頂点を後方向に変位させ
ることで、オブジェクトの後方部分が尾を引いているよ
うに表示することができ、オブジェクトが移動している
ことをより効果的に表示することができる。そして、本
実施の形態では、後方に引き延ばされたポリゴンについ
て、より後方の部分ほど、透明になるようにすること
で、尾を引いている部分をより自然に表示する。
[Designation of Transparency] As described above, in the rendering process, by displacing the vertices of the polygon backward, it is possible to display the rear part of the object as if it were trailing, and the object moves. What you are doing can be displayed more effectively. Then, in the present embodiment, with respect to the polygon stretched rearward, the rearward portion is made transparent so that the trailing portion is displayed more naturally.

【0068】そのために、後方に変位した頂点の透明度
αを調節する。透明度αは、1で完全不透明であり、0
(ゼロ)で完全透明である。オブジェクトを構成するポ
リゴンの頂点について、あらかじめ設定されている透明
度αは1(完全不透明)であって、本実施の形態では、
後方への変位長さに応じて、透明度αを決定する。但
し、あらかじめ設定されている透明度αは、必ずしも1
でなくともよい。
For that purpose, the transparency α of the vertex displaced rearward is adjusted. Transparency α is 1 and is completely opaque, and 0
(Zero) is completely transparent. The preset transparency α for the vertices of the polygons forming the object is 1 (completely opaque), and in the present embodiment,
The transparency α is determined according to the rearward displacement length. However, the preset transparency α is not always 1
It doesn't have to be.

【0069】(1)(1−Rn)を透明度αとする。(1) Let (1-Rn) be the transparency α.

【0070】比率Rnは、0(ゼロ)から1の値であ
り、比率Rn=1において、変位長さが最大である。従
って、透明度α=1−Rnにおいて、比率Rn=最大値
1の場合、後方に変位した頂点の透明度α=0(ゼロ)
となる。従って、引き延ばされるポリゴンの、最後方部
分(変位する頂点)は、完全透明となり、そこからオブ
ジェクトに近くなる部分は、透明度が下がり、徐々に不
透明となっていき、ポリゴンにグラデーションを与える
ことができる。ポリゴンの透明度は、ポリゴンの各頂点
の透明度αの混合率で決まるので、透明度αが1又はそ
れに近い値である他の頂点により近くなるポリゴン部分
は、透明度が下がるからである。
The ratio Rn is a value from 0 (zero) to 1, and the displacement length is maximum when the ratio Rn = 1. Therefore, in the transparency α = 1-Rn, when the ratio Rn = maximum value 1, the transparency α of the apex displaced rearward is α = 0 (zero).
Becomes Therefore, the rearmost part (displaced apex) of the stretched polygon becomes completely transparent, and the part close to the object becomes less transparent and gradually becomes opaque, giving a gradation to the polygon. it can. This is because the transparency of the polygon is determined by the mixture ratio of the transparency α of each vertex of the polygon, and the transparency of the polygon portion near the other vertex having the transparency α of 1 or a value close to the transparency α decreases.

【0071】図10は、オブジェクトからその後方に引
き延ばされたポリゴンの透明度が徐々に変化する状態を
示す図である。図10に示すように、オブジェクトから
離れるに従って、引き延ばされるポリゴンAの透明度α
が高くなるようにすることで、オブジェクトの移動状態
をより自然に且つ効果的に表示することができる。な
お、図10では、斜線の間隔により透明度αを表してお
り、都合により、段階的に透明度αが変化しているが、
実際は、連続的に変化する。
FIG. 10 is a diagram showing a state in which the transparency of a polygon extended from an object to the rear thereof gradually changes. As shown in FIG. 10, as the distance from the object increases, the transparency α of the polygon A is extended.
By setting the height to be higher, the moving state of the object can be displayed more naturally and effectively. Note that, in FIG. 10, the transparency α is represented by the intervals of the diagonal lines, and the transparency α changes stepwise for convenience,
In reality, it changes continuously.

【0072】(2)(1−(−IPn))を透明度αと
する。
(2) Let (1-(-IPn)) be the transparency α.

【0073】頂点座標を決定する際に、上記[2]式又
は[4]式を利用する場合、頂点の法線ベクトルNVと
移動方向ベクトルMVとの角度差が大きい頂点ほど(両
者の内積IPnの絶対値が大きいほど)、後方変位長さ
が大きくなる。従って、透明度αとして、(1−(−I
Pn))を設定することで、移動方向と法線ベクトルと
の角度差に応じて、上記(1)の場合と同様に、オブジ
ェクトから後方に引き延ばされたポリゴンにおける、よ
りオブジェクトからより離れた部分の透明度を上げ、オ
ブジェクトに近づくに従って、透明度が下がるグラデー
ション効果を与えることができる。
When the above equation [2] or [4] is used to determine the vertex coordinates, the greater the angular difference between the vertex normal vector NV and the moving direction vector MV, the greater the inner product IPn The greater the absolute value of), the greater the backward displacement length. Therefore, as the transparency α, (1-(-I
Pn)) is set, depending on the angular difference between the moving direction and the normal vector, as in the case of (1) above, in the polygon stretched rearward from the object, it is further separated from the object. It is possible to give a gradation effect in which the transparency becomes lower as it gets closer to the object, by increasing the transparency of the part.

【0074】上述の実施の形態において、オブジェクト
の残像を表示する方向は、オブジェクトの移動方向と反
対の方向に限られず、移動方向と反対側の斜め方向のよ
うに、移動方向と反対方向の成分を含む方向であればよ
い。
In the above-described embodiment, the direction in which the afterimage of the object is displayed is not limited to the direction opposite to the moving direction of the object, and the component in the opposite direction to the moving direction, such as the diagonal direction opposite to the moving direction. Any direction may be included.

【0075】また、引き延ばされるポリゴンのグラデー
ションの変更に関して、上述の実施形態のように、変位
した頂点に設定された透明度の変更に限られず、変位し
た頂点に設定される彩度、明度、輝度、色相を変更して
もよい。その変更度合いは、上述のように、変位比率や
法線ベクトルの方向(内積)に応じて決定されてもよい
し、また、オブジェクトの移動量、移動速度、移動加速
度、移動方向によって決定されてもよい。
Further, the modification of the gradation of the extended polygon is not limited to the modification of the transparency set at the displaced vertex as in the above-described embodiment, but the saturation, the brightness, and the brightness set at the displaced vertex. The hue may be changed. The degree of change may be determined according to the displacement ratio or the direction (inner product) of the normal vector as described above, or may be determined according to the moving amount, moving speed, moving acceleration, or moving direction of the object. Good.

【0076】また、本実施の形態におけるポリゴンの引
き延ばし処理(残像表示処理)は、オブジェクトを構成
するすべてのポリゴンを対象としなくてもよい。例え
ば、オブジェクトを構成する一部のポリゴンに適用して
もよい。例えば、対戦格闘ゲームにおいて、人型キャラ
クタの「攻撃している腕部分」や「最も動きが激しい部
分」など、あるいは、自動車レースゲームにおける自動
車キャラクタの「テールライト部分」のポリゴンに対し
てのみ、本実施の形態における画像処理方法を適用して
もよい。
Further, the polygon extension processing (afterimage display processing) in the present embodiment does not have to be applied to all polygons forming the object. For example, it may be applied to a part of polygons forming an object. For example, in a competitive fighting game, only for the "attacking arm part" and "the part with the most movement" of a humanoid character, or only for the polygon of the "taillight part" of a car character in a car racing game, The image processing method according to this embodiment may be applied.

【0077】また、前記変形されるポリゴンを前記オブ
ジェクトに重ねて表示するようにしてもよい。これによ
り、元のオブジェクトそのものを変形させるのではな
く、変形させて、オブジェクトを残像オブジェクトとし
て、元のオブジェクトに重ね合わせて表示する個とも可
能である。
Further, the deformed polygon may be displayed so as to be superimposed on the object. As a result, the original object itself may not be deformed, but may be deformed and the object may be displayed as an afterimage object so as to be superimposed on the original object.

【0078】さらに、上記の実施の形態においては、ポ
リゴンの引き延ばしにより残像を表現する構成であった
が、本発明の適用は、かかる方法に限定されるものでは
ない。
Further, in the above-described embodiment, the afterimage is represented by extending the polygon, but the application of the present invention is not limited to such a method.

【0079】すなわち、ポリゴンの引き延ばしにより残
像を表現する構成とは異なり、オブジェクトを構成する
画素をオブジェクトの移動方向と反対方向に移動若しく
は引き延ばす(複写する)処理を行うことも可能であ
る。
That is, unlike the structure in which the afterimage is expressed by extending the polygon, it is also possible to perform the processing of moving or extending (copying) the pixels forming the object in the direction opposite to the moving direction of the object.

【0080】図11〜図17は、かかるオブジェクトを
構成する画素をオブジェクトの移動方向と反対方向に移
動若しくは引き延ばす処理を行う実施の形態例を説明す
る図である。
FIG. 11 to FIG. 17 are diagrams for explaining an embodiment in which processing for moving or extending the pixels forming such an object in the direction opposite to the moving direction of the object is performed.

【0081】図11は、オブジェクトが静止若しくは、
遅い移動時の状態を示す図であり、画素の集合で形成さ
れた2次元の車輌を表示する画像である。
FIG. 11 shows that the object is stationary or
It is a figure showing a state at the time of slow movement, and is an image which displays a two-dimensional vehicle formed of a set of pixels.

【0082】図12は、本発明により、オブジェクト
(移動体として車輌を表している)の任意の基準点(実
施例としてオブジェクトのほぼ中央CP)より移動方向
MDと反対方向のベクトルを含む方向に画素を引き延ば
している。
FIG. 12 shows that, according to the present invention, an object (representing a vehicle as a moving body) is moved in a direction including a vector in the direction opposite to the moving direction MD from an arbitrary reference point (approximately the center CP of the object as an example). The pixel is stretched.

【0083】この実施の形態例では、オブジェクトの形
状は変えないで、画素を引き延ばして残像を表現し、オ
ブジェクトの移動を効果的に表現している。なお、画素
を引き延ばす方法として、図12に示す様に、単にオブ
ジェクトの移動と反対方向に画素を付加若しくは、複写
して行くのみでなく、付加された領域に対応するオブジ
ェクトの部分を構成する画素を非表示とすることによ
り、よりオブジェクトの移動にスピード感を与えること
ができる。
In this embodiment, the shape of the object is not changed, but the pixels are stretched to express the afterimage, and the movement of the object is effectively expressed. As a method of extending the pixels, as shown in FIG. 12, not only the pixels are simply added or copied in the direction opposite to the movement of the object, but also the pixels forming the portion of the object corresponding to the added area are added. By not displaying, it is possible to give more sense of speed to the movement of the object.

【0084】この方法は、図11に示す2次元画像のみ
でなく3次元画像に対しても、即ち、ポリゴンを構成す
る画素を引き延ばすことにより同様に3次元画像に対し
ても、適用することが可能である。
This method can be applied not only to the two-dimensional image shown in FIG. 11 but also to a three-dimensional image, that is, similarly to a three-dimensional image by extending the pixels forming a polygon. It is possible.

【0085】上記図12においては、オブジェクトのほ
ぼ中央CPを基準にオブジェクトの移動方向と反対方向
にベクトルを含む方向に画素を引き延ばしているが、図
13、図14は、任意の基準点をオブジェクトの前半部
に置いた時の実施例の図である。
In FIG. 12, the pixels are extended in the direction including the vector in the direction opposite to the moving direction of the object with reference to the substantially center CP of the object. However, in FIGS. 13 and 14, an arbitrary reference point is set as the object. It is a figure of an example when it puts in the first half part of.

【0086】なお、図14の実施例では、画素を引き延
ばす方向を移動方向に対し、斜め方向に設定している。
In the embodiment shown in FIG. 14, the pixel extending direction is set to be an oblique direction with respect to the moving direction.

【0087】図15は、任意の基準点をオブジェクトの
後半部に置いた時の実施例の図である。
FIG. 15 is a diagram of an embodiment when an arbitrary reference point is placed in the latter half of the object.

【0088】また、図16に実施例では、残像を発生さ
せたい部分の輪郭を抽出して、輪郭のみに残像処理を行
った例を示す図である。
Further, FIG. 16 is a diagram showing an example in which the contour of a portion where an afterimage is to be generated is extracted and the afterimage processing is performed only on the contour in the embodiment.

【0089】さらに、図17に示す実施例では、本体は
変形させずに、残像を半透明で重ねてオブジェクトの高
速の移動間を表現することも可能である。なお、図17
では、理解容易のように残像を少しずらせて表示してい
る。
Furthermore, in the embodiment shown in FIG. 17, it is also possible to represent the high speed movement of the object by superimposing the afterimages semitransparently without deforming the main body. Note that FIG.
For the sake of easy understanding, the afterimage is displayed with a slight shift.

【0090】従来は、残像のオブジェクトを重ねたり、
移動の動画パターンに残像を引いたりしていたが、かか
る図11〜図17に示すように、本発明により残像用の
画像を用意することが必要でなくなる。これによりデザ
イン作業の省力化が可能である。
Conventionally, afterimage objects are overlapped,
Although an afterimage is drawn on the moving image pattern of movement, it is not necessary to prepare an image for afterimage according to the present invention as shown in FIGS. 11 to 17. This can save labor in design work.

【0091】なお、上記した本発明の実施の形態におけ
る画像処理方法を実行する画像処理装置は、図1に示し
たようなアミューズメント施設に配置されるコンピュー
タゲーム装置に限らず、例えば、家庭用のコンピュータ
ゲーム装置であってもよい。
The image processing apparatus that executes the image processing method according to the above-described embodiment of the present invention is not limited to the computer game apparatus arranged in the amusement facility as shown in FIG. It may be a computer game device.

【0092】本発明の保護範囲は、上記の実施の形態に
限定されず、特許請求の範囲に記載された発明とその均
等物に及ぶものである。
The scope of protection of the present invention is not limited to the above-mentioned embodiments, but covers the inventions described in the claims and their equivalents.

【0093】[0093]

【発明の効果】以上、本発明によれば、移動するオブジ
ェクトに対して、オブジェクトを構成するポリゴンの所
定の頂点を後方に変位させることで、オブジェクトに残
像表現を与えて表示することができる。また、これによ
り、移動するオブジェクトをより豊かな表現力で表示す
ることができる。
As described above, according to the present invention, by displacing predetermined vertices of polygons forming an object backward with respect to a moving object, the object can be displayed with an afterimage representation. In addition, this makes it possible to display a moving object with richer expressive power.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態における画像処理装置であ
るコンピュータゲーム装置の外観図である。
FIG. 1 is an external view of a computer game device that is an image processing device according to an embodiment of the present invention.

【図2】ディスプレイ2に表示される三次元仮想空間の
画像例である。
FIG. 2 is an example of an image of a three-dimensional virtual space displayed on the display 2.

【図3】コンピュータゲーム装置に内蔵されるゲームユ
ニットの構成例ブロック図である。
FIG. 3 is a block diagram of a configuration example of a game unit incorporated in a computer game device.

【図4】キャラクタが配置される三次元仮想空間の例で
ある。
FIG. 4 is an example of a three-dimensional virtual space in which a character is placed.

【図5】本発明の実施の形態における画像処理方法によ
り表示されるオブジェクトの例である。
FIG. 5 is an example of an object displayed by the image processing method according to the embodiment of the present invention.

【図6】本発明の実施の形態における画像処理方法を利
用したコンピュータゲーム画面の例である(その1)。
FIG. 6 is an example of a computer game screen using the image processing method according to the embodiment of the present invention (No. 1).

【図7】本発明の実施の形態における画像処理方法を利
用したコンピュータゲーム画面の例である(その2)。
FIG. 7 is an example of a computer game screen using the image processing method according to the embodiment of the present invention (No. 2).

【図8】本発明の実施の形態における画像処理方法の概
略を説明する図である。
FIG. 8 is a diagram illustrating an outline of an image processing method according to an embodiment of the present invention.

【図9】後方変位された頂点座標に基づいて表示される
オブジェクトの例である。
FIG. 9 is an example of an object displayed based on rearward displaced vertex coordinates.

【図10】オブジェクトからその後方に引き延ばされた
ポリゴンの透明度が徐々に変化する状態を示す図であ
る。
FIG. 10 is a diagram showing a state in which the transparency of a polygon stretched behind an object is gradually changed.

【図11】本発明の更なる実施の形態例を説明する図
(その1)である。
FIG. 11 is a diagram (No. 1) for explaining a further embodiment of the present invention.

【図12】本発明の更なる実施の形態例を説明する図
(その2)である。
FIG. 12 is a diagram (No. 2) for explaining a further embodiment example of the present invention.

【図13】本発明の更なる実施の形態例を説明する図
(その3)である。
FIG. 13 is a diagram (No. 3) for explaining a further embodiment of the present invention.

【図14】本発明の更なる実施の形態例を説明する図
(その4)である。
FIG. 14 is a diagram (No. 4) for explaining a further embodiment of the present invention.

【図15】本発明の更なる実施の形態例を説明する図
(その5)である。
FIG. 15 is a diagram (No. 5) for explaining a further embodiment example of the present invention.

【図16】本発明の更なる実施の形態例を説明する図
(その6)である。
FIG. 16 is a diagram (No. 6) explaining a further embodiment example of the present invention.

【図17】本発明の更なる実施の形態例を説明する図
(その7)である。
FIG. 17 is a diagram (No. 7) explaining a further embodiment example of the present invention.

【符号の説明】[Explanation of symbols]

2 ディスプレイ 3 操作部 101 CPU 102 RAM 103 ROM(プログラム記憶装置) 104 ジオメトリ処理部 105 レンダリング処理部 108 フレームバッファ 109 ビデオ処理部 2 display 3 operation part 101 CPU 102 RAM 103 ROM (program storage device) 104 Geometry processing unit 105 Rendering processing unit 108 frame buffer 109 Video processing unit

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C001 BA01 BC00 BC06 BC08 CB01 CB04 5B050 AA08 BA08 BA09 BA18 CA07 EA09 EA13 EA24 EA27 EA28 FA02 FA05 FA10 FA17 5B080 AA13 CA01 FA02 FA03 FA17 GA00    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 2C001 BA01 BC00 BC06 BC08 CB01                       CB04                 5B050 AA08 BA08 BA09 BA18 CA07                       EA09 EA13 EA24 EA27 EA28                       FA02 FA05 FA10 FA17                 5B080 AA13 CA01 FA02 FA03 FA17                       GA00

Claims (36)

【特許請求の範囲】[Claims] 【請求項1】仮想三次元空間内を移動する複数のポリゴ
ンから構成されるオブジェクトを表示するための画像処
理方法において、 前記オブジェクトを構成するポリゴンの頂点のうち、そ
の法線ベクトルが前記オブジェクトの移動方向ベクトル
と反対方向の成分を含む少なくとも一つの頂点の座標
を、所定のサンプリングタイミングごとに取得するステ
ップと、 当該頂点の座標が、前記移動方向と反対の成分を含む方
向に所定長さ分変位させた位置にあるものとして、前記
頂点を有するポリゴンを表示するステップとを備えるこ
とを特徴とする画像処理方法。
1. An image processing method for displaying an object composed of a plurality of polygons moving in a virtual three-dimensional space, wherein a normal vector of the vertices of polygons forming the object is the object. Obtaining at least one vertex coordinate containing a component in the opposite direction to the moving direction vector at every predetermined sampling timing, and the vertex coordinate has a predetermined length in a direction including a component opposite to the moving direction. And a step of displaying a polygon having the apex at the displaced position.
【請求項2】請求項1において、 各頂点の法線ベクトルと前記オブジェクトの移動方向ベ
クトルとの内積に基づいて、各頂点の法線ベクトルが、
前記移動方向ベクトルと反対方向の成分を有するかどう
かを判別するステップを備えることを特徴とする画像処
理方法。
2. The normal vector of each vertex according to claim 1, based on the inner product of the normal vector of each vertex and the moving direction vector of the object,
An image processing method comprising the step of determining whether or not the moving direction vector has a component in the opposite direction.
【請求項3】請求項1又は2において、 前記所定長さは、前記オブジェクトの移動量、移動速
度、移動加速度、移動方向の少なくともいずれか一つに
基づいて決定されることを特徴とする画像処理方法。
3. The image according to claim 1, wherein the predetermined length is determined based on at least one of a moving amount, a moving speed, a moving acceleration, and a moving direction of the object. Processing method.
【請求項4】請求項1又は2において、 前記所定長さは、今回のサンプリングタイミングにおけ
る座標と前回のサンプリングタイミングにおける座標と
に基づいて決定されることを特徴とする画像処理方法。
4. The image processing method according to claim 1, wherein the predetermined length is determined based on the coordinates at the current sampling timing and the coordinates at the previous sampling timing.
【請求項5】請求項1又は2において、 前記所定長さは、前記移動方向ベクトルの大きさに基づ
いて決定されることを特徴とする画像処理方法。
5. The image processing method according to claim 1, wherein the predetermined length is determined based on the magnitude of the moving direction vector.
【請求項6】請求項4又は5において、 前記所定長さは、さらに、各頂点の法線ベクトルと前記
オブジェクトの移動方向ベクトルとの内積を考慮して決
定されることを特徴とする画像処理方法。
6. The image processing according to claim 4, wherein the predetermined length is further determined in consideration of an inner product of a normal vector of each vertex and a moving direction vector of the object. Method.
【請求項7】請求項4乃至6のいずれかにおいて、 前記所定長さは、さらに、各頂点に与えられる変位比率
を考慮して決定されることを特徴とする画像処理方法。
7. The image processing method according to claim 4, wherein the predetermined length is further determined in consideration of a displacement ratio given to each vertex.
【請求項8】請求項7において、 前記変位比率は、各頂点に対して異なる値が設定される
ことを特徴とする画像処理方法。
8. The image processing method according to claim 7, wherein the displacement ratio is set to a different value for each vertex.
【請求項9】請求項7又は8において、 前記頂点に設定された透明度を、あらかじめ設定された
値から各頂点の前記変位比率を減算した値に設定するス
テップを備えることを特徴とする画像処理方法。
9. The image processing according to claim 7, further comprising the step of setting the transparency set for the vertex to a value obtained by subtracting the displacement ratio of each vertex from a preset value. Method.
【請求項10】請求項1において、 前記頂点に設定された透明度を、あらかじめ設定された
値より低い値に設定するステップを備えることを特徴と
する画像処理方法。
10. The image processing method according to claim 1, further comprising the step of setting the transparency set at the vertex to a value lower than a preset value.
【請求項11】請求項10において、 前記頂点に設定された透明度は、あらかじめ設定された
透明度から、各頂点の法線ベクトルと前記オブジェクト
の移動方向ベクトルとの内積の絶対値を減算した値に設
定されることを特徴とする画像処理方法。
11. The transparency set to the apex according to claim 10, wherein the transparency set to a value obtained by subtracting the absolute value of the inner product of the normal vector of each vertex and the moving direction vector of the object from the preset transparency. An image processing method characterized by being set.
【請求項12】請求項1において、 前記表示されるポリゴンは、前記頂点に向かって、透明
度、彩度、明度、色相の少なくともいずれか一つが変化
するように表示されることを特徴とする画像処理方法。
12. The image according to claim 1, wherein the displayed polygon is displayed so that at least one of transparency, saturation, brightness, and hue changes toward the vertex. Processing method.
【請求項13】請求項12において、 前記変化の度合いは、前記オブジェクトの移動量、移動
速度、移動加速度、移動方向の少なくともいずれか一つ
に基づいて決定されることを特徴とする画像処理方法。
13. The image processing method according to claim 12, wherein the degree of change is determined based on at least one of a moving amount, a moving speed, a moving acceleration, and a moving direction of the object. .
【請求項14】請求項1乃至13のいずれかに記載の画
像処理方法における各ステップをコンピュータ装置に実
行させるためのプログラム。
14. A program for causing a computer device to execute each step in the image processing method according to claim 1. Description:
【請求項15】仮想三次元空間内を移動する複数のポリ
ゴンから構成されるオブジェクトを表示するための画像
処理装置において、 前記オブジェクトを構成するポリゴンの頂点のうち、そ
の法線ベクトルが前記オブジェクトの移動方向ベクトル
と反対方向の成分を含む少なくとも一つの頂点の座標
を、所定のサンプリングタイミングごとに取得する取得
手段と、 当該頂点の座標が、前記移動方向と反対の成分を含む方
向に所定長さ分変位させた位置にあるものとして、前記
頂点を有するポリゴンを表示する表示手段とを備えるこ
とを特徴とする画像処理装置。
15. An image processing apparatus for displaying an object composed of a plurality of polygons moving in a virtual three-dimensional space, wherein among the vertices of polygons forming the object, a normal vector of which is the object. An acquisition unit that acquires the coordinates of at least one apex including a component in the direction opposite to the movement direction vector at every predetermined sampling timing, and the coordinates of the apex have a predetermined length in a direction including a component opposite to the movement direction. An image processing apparatus comprising: a display unit that displays a polygon having the apex at a position displaced by an amount.
【請求項16】画面上を移動するように表示されるオブ
ジェクトを表示するための画像表示方法において、 前記オブジェクトを複数の画素の集合で構成し、 前記オブジェクトを構成する少なくとも一部の領域を構
成する複数の画素を、前記オブジェクトの移動方向と反
対の成分を含む方向に所定長さ分複写するステップを備
えることを特徴とする画像処理方法。
16. An image display method for displaying an object displayed so as to move on a screen, wherein the object is composed of a set of a plurality of pixels, and at least a part of the area composing the object is composed. An image processing method, comprising: copying a plurality of pixels for a predetermined length in a direction including a component opposite to the moving direction of the object.
【請求項17】請求項16において、 前記一部の領域を構成する複数の画素の少なくとも一部
の画素を非表示とすることを特徴とする画像処理方法。
17. The image processing method according to claim 16, wherein at least a part of the plurality of pixels forming the part of the region is made non-display.
【請求項18】仮想三次元空間内を移動する複数のポリ
ゴンから構成されるオブジェクトが仮想三次元空間内を
移動する状態を表示するための画像処理方法において、 前記オブジェクトを構成する前記複数のポリゴンの頂点
のうち少なくとも1つを選択するステップと、 前記選択される頂点の座標が、前記オブジェクトの移動
する方向と反対の成分を含む方向に所定長さ分変位させ
た位置にあるものとして、前記選択された頂点を有する
ポリゴンを変形させて表示するステップとを有すること
を特徴とする画像処理方法。
18. An image processing method for displaying a state of an object composed of a plurality of polygons moving in a virtual three-dimensional space moving in the virtual three-dimensional space, wherein the plurality of polygons forming the object are provided. A step of selecting at least one of the vertices of, the coordinates of the selected vertices, as a position displaced by a predetermined length in a direction including a component opposite to the moving direction of the object, And a step of deforming and displaying a polygon having the selected apex.
【請求項19】請求項18において、 前記選択される頂点は、前記オブジェクトに所定の基準
点を定め、前記オブジェクトを構成する複数のポリゴン
のうち、前記基準点に対して前記移動方向と反対方向に
ある複数の頂点から選択されることを特徴とする画像処
理方法。
19. The apex according to claim 18, wherein the selected vertex defines a predetermined reference point on the object, and of a plurality of polygons forming the object, a direction opposite to the moving direction with respect to the reference point. An image processing method characterized by being selected from a plurality of vertices in.
【請求項20】請求項19において、 前記選択される頂点は、前記基準点に対して前記移動方
向と反対方向にある複数の頂点の総数より少ない数の頂
点であることを特徴とする画像処理方法。
20. The image processing according to claim 19, wherein the selected vertices are a number of vertices less than a total number of a plurality of vertices in a direction opposite to the moving direction with respect to the reference point. Method.
【請求項21】請求項18において、 前記選択される頂点の座標が隣接する場合、前記オブジ
ェクトの移動する方向と反対の成分を含む方向に変位さ
れる所定長さを相互に異なるように設定することを特徴
とする画像処理方法。
21. When the coordinates of the selected vertices are adjacent to each other, the predetermined lengths displaced in a direction including a component opposite to the moving direction of the object are set to be different from each other. An image processing method characterized by the above.
【請求項22】請求項21において、 前記変形されるポリゴンは、前記所定長さ分変位させた
位置にある選択された頂点に向かって、少なくとも透明
度、彩度、明度、色相のいずれかが変化するように表示
されることを特徴とする画像処理方法。
22. The polygon to be deformed according to claim 21, wherein at least one of transparency, saturation, brightness, and hue changes toward a selected vertex located at a position displaced by the predetermined length. An image processing method characterized by being displayed as follows.
【請求項23】請求項22において、 前記変形されるポリゴンの前記変位される所定長さ及
び、または前記変化する透明度、彩度、明度、色相のい
ずれかが、前記オブジェクトの移動量、移動速度、また
は移動加速度に応じて設定されることを特徴とする画像
処理方法。
23. The moving amount and moving speed of the object according to claim 22, wherein one of the displaced predetermined length of the deformed polygon and the changing transparency, saturation, lightness, or hue is , Or an image processing method which is set according to the moving acceleration.
【請求項24】請求項23において、 前記変形されるポリゴンを前記オブジェクトに重ねて表
示することを特徴とする画像処理方法。
24. The image processing method according to claim 23, wherein the deformed polygon is displayed in an overlapping manner on the object.
【請求項25】請求項24において、 前記変形されるポリゴンが前記オブジェクトに透過表示
されることを特徴とする画像処理方法。
25. The image processing method according to claim 24, wherein the deformed polygon is transparently displayed on the object.
【請求項26】請求項24又は25において、 前記変形されるポリゴンが前記オブジェクトの移動方向
と反対方向にずれた位置に重ねて表示されることを特徴
とする画像処理方法。
26. The image processing method according to claim 24, wherein the deformed polygon is displayed in an overlapping manner at a position displaced in a direction opposite to a moving direction of the object.
【請求項27】複数の画素により構成されるオブジェク
トが仮想三次元空間内を移動する状態を表示するための
画像処理方法において、 前記オブジェクトを構成する前記複数の画素のうち少な
くとも1つを選択するステップと、 前記選択される画素を、前記オブジェクトの移動する方
向と反対の成分を含む方向に所定長さ分変位させた位置
に移動もしくは複写して表示するステップとを有するこ
とを特徴とする画像処理方法。
27. An image processing method for displaying a state in which an object constituted by a plurality of pixels moves in a virtual three-dimensional space, wherein at least one of the plurality of pixels constituting the object is selected. An image including: a step of moving or copying the selected pixel to a position displaced by a predetermined length in a direction including a component opposite to a direction in which the object moves, and displaying the image. Processing method.
【請求項28】請求項27において、 前記選択される画素は、前記オブジェクトに輪郭を表示
する部分の画素から選択されることを特徴とする画像処
理方法。
28. The image processing method according to claim 27, wherein the selected pixel is selected from pixels of a portion displaying an outline on the object.
【請求項29】請求項27において、 前記選択される画素は、前記オブジェクトに所定の基準
点を定め、前記オブジェクトを構成する複数の画素のう
ち、前記基準点に対して前記移動方向と反対方向にある
複数の画素から選択されることを特徴とする画像処理方
法。
29. The selected pixel defines a predetermined reference point on the object, and in a plurality of pixels forming the object, a direction opposite to the moving direction with respect to the reference point. An image processing method characterized by being selected from a plurality of pixels in.
【請求項30】請求項27において、 前記選択される画素は、前記基準点に対して前記移動方
向と反対方向にある複数の画素の総数より少ない数の画
素であることを特徴とする画像処理方法。
30. The image processing according to claim 27, wherein the selected pixels are less than the total number of a plurality of pixels in the direction opposite to the moving direction with respect to the reference point. Method.
【請求項31】請求項30において、 前記選択される画素が隣接する場合、前記オブジェクト
の移動する方向と反対の成分を含む方向に移動される所
定長さを相互に異なるように設定することを特徴とする
画像処理方法。
31. When the selected pixels are adjacent to each other, the predetermined lengths to be moved in a direction including a component opposite to the moving direction of the object are set to be different from each other. Characterized image processing method.
【請求項32】請求項31において、 前記移動される画素は、前記所定長さ分移動させた位置
にある選択された画素に向かって、少なくとも透明度、
彩度、明度、色相のいずれかが変化するように表示され
ることを特徴とする画像処理方法。
32. The pixel to be moved according to claim 31, wherein the pixel to be moved has at least transparency toward the selected pixel at a position moved by the predetermined length.
An image processing method characterized by displaying such that any one of saturation, brightness, and hue changes.
【請求項33】請求項32において、 前記移動される画素の前記移動される所定長さ及び、ま
たは前記変化する透明度、彩度、明度、色相のいずれか
が、前記オブジェクトの移動量、移動速度、または移動
加速度に応じて設定されることを特徴とする画像処理方
法。
33. The movement amount and movement speed of the object according to claim 32, wherein any one of the moved predetermined length of the moved pixel and / or the changing transparency, saturation, lightness or hue. , Or an image processing method which is set according to the moving acceleration.
【請求項34】請求項32において、 前記移動される画素を前記オブジェクトに重ねて表示す
ることを特徴とする画像処理方法。
34. The image processing method according to claim 32, wherein the moved pixel is displayed in an overlapping manner on the object.
【請求項35】請求項34において、 前記移動されるが画素が前記オブジェクトに対して透過
表示されることを特徴とする画像処理方法。
35. The image processing method according to claim 34, wherein the moved pixels are transparently displayed with respect to the object.
【請求項36】請求項34又は35において、 前記移動されるが画素が前記オブジェクトの移動方向と
反対方向にずれた位置に重ねて表示されることを特徴と
する画像処理方法。
36. The image processing method according to claim 34, wherein the moved pixels are overlapped and displayed at positions displaced in a direction opposite to a moving direction of the object.
JP2002142068A 2001-05-16 2002-05-16 Image processing method Expired - Lifetime JP4161613B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002142068A JP4161613B2 (en) 2001-05-16 2002-05-16 Image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001146309 2001-05-16
JP2001-146309 2001-05-16
JP2002142068A JP4161613B2 (en) 2001-05-16 2002-05-16 Image processing method

Publications (2)

Publication Number Publication Date
JP2003036450A true JP2003036450A (en) 2003-02-07
JP4161613B2 JP4161613B2 (en) 2008-10-08

Family

ID=26615177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002142068A Expired - Lifetime JP4161613B2 (en) 2001-05-16 2002-05-16 Image processing method

Country Status (1)

Country Link
JP (1) JP4161613B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009419A (en) * 2008-06-27 2010-01-14 Canon Inc Information processor, control method therefor, and program
JP2010033293A (en) * 2008-07-28 2010-02-12 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2011154701A (en) * 2011-02-25 2011-08-11 Nintendo Co Ltd Game device and game program
JP2013126597A (en) * 2013-03-27 2013-06-27 Sanyo Product Co Ltd Game machine
JP2014516188A (en) * 2011-06-06 2014-07-07 マイクロソフト コーポレーション Adding attributes to the virtual representation of real-world objects
JP2015097926A (en) * 2015-03-04 2015-05-28 株式会社三洋物産 Game machine
CN113244612A (en) * 2021-05-26 2021-08-13 网易(杭州)网络有限公司 Locking mark display method and device, storage medium and electronic equipment

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010009419A (en) * 2008-06-27 2010-01-14 Canon Inc Information processor, control method therefor, and program
JP2010033293A (en) * 2008-07-28 2010-02-12 Namco Bandai Games Inc Program, information storage medium, and image generation system
JP2011154701A (en) * 2011-02-25 2011-08-11 Nintendo Co Ltd Game device and game program
JP2014516188A (en) * 2011-06-06 2014-07-07 マイクロソフト コーポレーション Adding attributes to the virtual representation of real-world objects
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
JP2013126597A (en) * 2013-03-27 2013-06-27 Sanyo Product Co Ltd Game machine
JP2015097926A (en) * 2015-03-04 2015-05-28 株式会社三洋物産 Game machine
CN113244612A (en) * 2021-05-26 2021-08-13 网易(杭州)网络有限公司 Locking mark display method and device, storage medium and electronic equipment
CN113244612B (en) * 2021-05-26 2024-02-23 网易(杭州)网络有限公司 Lock mark display method, device, storage medium and electronic equipment

Also Published As

Publication number Publication date
JP4161613B2 (en) 2008-10-08

Similar Documents

Publication Publication Date Title
EP1391846B1 (en) Image processing method, image processing apparatus, and program for emphasizing object movement
JP2010033298A (en) Program, information storage medium, and image generation system
JP4804122B2 (en) Program, texture data structure, information storage medium, and image generation system
JP4305903B2 (en) Image generation system, program, and information storage medium
JP3748451B1 (en) Program, information storage medium, and image generation system
JP4053078B2 (en) 3D game device and information storage medium
JP3760341B2 (en) Program, recording medium, image generation apparatus, and image generation method
JP2007164557A (en) Program, information recording medium and image generation system
JP4161613B2 (en) Image processing method
JP2008027064A (en) Program, information recording medium, and image forming system
JP4749198B2 (en) Program, information storage medium, and image generation system
JP2006252426A (en) Program, information storage medium, and image generation system
JP3957363B2 (en) 3D game device and information storage medium
JPH1139502A (en) Device and method for displaying image and recording medium
JP4073031B2 (en) Program, information storage medium, and image generation system
JP2011215724A (en) Program, information storage medium, and image generation system
JP4786389B2 (en) Program, information storage medium, and image generation system
JP3586460B2 (en) 3D game device and image composition method
JP5146054B2 (en) Generation control program of sound generated from sound source in virtual space
US7724255B2 (en) Program, information storage medium, and image generation system
JP2006252423A (en) Program, information storage medium and image generation system
JP2010033253A (en) Program, information storage medium, and image generation system
JP2006277488A (en) Program, information storage medium and image generation system
JP2008077406A (en) Image generation system, program, and information storage medium
JP4641831B2 (en) Program, information storage medium, and image generation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080701

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080714

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110801

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4161613

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110801

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120801

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120801

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120801

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120801

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130801

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130801

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term