JP2003030685A - Image processor and image processing method - Google Patents

Image processor and image processing method

Info

Publication number
JP2003030685A
JP2003030685A JP2002137674A JP2002137674A JP2003030685A JP 2003030685 A JP2003030685 A JP 2003030685A JP 2002137674 A JP2002137674 A JP 2002137674A JP 2002137674 A JP2002137674 A JP 2002137674A JP 2003030685 A JP2003030685 A JP 2003030685A
Authority
JP
Japan
Prior art keywords
image
ball
fielder
polygon
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002137674A
Other languages
Japanese (ja)
Inventor
Masaru Sugawara
優 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp filed Critical Sega Corp
Priority to JP2002137674A priority Critical patent/JP2003030685A/en
Publication of JP2003030685A publication Critical patent/JP2003030685A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To smoothly perform the movement of a character to a ball. SOLUTION: An image processor is provided with a virtual area generation means generating a collision area 43 for collision judgment at a position a prescribed distance away from the image of the ball and a judgment means judging at which position on the collision area 43 the character, a fielder for instance, is present. Corresponding to the relative position to the collision area 43 of the character, an image change means smoothly changes a character posture from a standby state to a ball catching state. Also, the processing for not displaying a plurality of polygons in contact with each other is accurately performed.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像処理装置および画
像処理方法に関し、詳しくは野球、サッカー等の球技を
模したビデオゲーム等においてボールに対するキャラク
タの動作を円滑に行うことのできる画像処理装置および
画像処理方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus capable of smoothly moving a character with respect to a ball in a video game or the like simulating a ball game such as baseball or soccer. And an image processing method.

【0002】[0002]

【従来の技術】コンピュータ技術の進歩に伴い、コンピ
ュータグラフィックス技術を用いたビデオゲーム機(画
像処理装置)が広く利用されるようになってきた。中で
も、野球、サッカー等の球技を模したビデオゲーム機に
対する人気は根強いものがあり、この種のビデオゲーム
機が数多く案出されている。
2. Description of the Related Art With the progress of computer technology, video game machines (image processing devices) using computer graphics technology have come into wide use. Above all, the popularity of video game machines imitating ball games such as baseball and soccer has been strong, and many video game machines of this type have been devised.

【0003】しかしながら、従来のビデオゲーム機は、
以下のように多くの問題を抱えていた。
However, conventional video game machines
I had many problems as follows.

【0004】第1に、野手の捕球動作を円滑に表示する
のが困難であった。
First, it was difficult to smoothly display the fielder's ball catching motion.

【0005】従来のビデオゲーム機は一般に、打者、野
手等を表示するディスプレイと、画面上の打者あるいは
野手等を操作する操作スティックと、操作スティックの
操作に応じて画面上に所望の映像を表示する画像処理回
路とを備えて構成されていた。このようなビデオゲーム
機においては、各野手の動作姿勢毎にスプライトと呼ば
れる平面画像が用意され、ゲーム進行に応じたスプライ
トが画面上に表示される。また、野手の近傍にはコリジ
ョンエリアと呼ばれる衝突判定用の仮想領域が設けら
れ、ボールがコリジョンエリアに入った場合に野手の捕
球動作が行われていた。
In the conventional video game machine, generally, a display for displaying a batter, a fielder, etc., an operation stick for operating the batter, a fielder, etc. on the screen, and a desired image is displayed on the screen according to the operation of the operation stick. And an image processing circuit for performing the same. In such a video game machine, a plane image called a sprite is prepared for each motion posture of each fielder, and the sprite according to the progress of the game is displayed on the screen. In addition, a virtual area for collision determination called a collision area is provided near the fielder, and when the ball enters the collision area, the fielder catches the ball.

【0006】例えば、遊戯者がスティックを操作する
と、画面上の野手はスティック操作に応じて打球を追い
かける。このとき、野手に伴いコリジョンエリアも移動
する。そして、野手がボールに追い付き、ボールが野手
の近傍のコリジョンエリアに入った場合には、野手は捕
球動作を行う。すなわち、ビデオゲーム機は、画面上に
おけるボールが野手の近傍に達しことを判断し、捕球動
作を表すスプライトを表示していた。このため、画面上
においてボールがコリジョンエリアに入らない限り、野
手は捕球動作を開始することはない。
For example, when the player operates the stick, the fielder on the screen follows the ball according to the stick operation. At this time, the collision area also moves with the fielder. When the fielder catches up with the ball and enters the collision area near the fielder, the fielder performs a ball catching operation. That is, the video game machine judges that the ball on the screen has reached the vicinity of the fielder, and displays the sprite indicating the catching motion. Therefore, the fielder does not start the catching motion unless the ball enters the collision area on the screen.

【0007】ところが、ボールがコリジョンエリアに入
ってから野手が捕球するまでの時間は極めて短く、ボー
ルがコリジョンエリアに入ってから極めて短時間に野手
に捕球動作を行わせなければならない。このため、野手
の捕球動作はぎこちないものとなり、臨場感のあるゲー
ムを提供するのが困難となっていた。かかる問題を解決
する方法として、野手の近傍のコリジョンエリアを大き
くする方法が考えられる。すなわち、ボールがコリジョ
ンエリアに入ってから野手が捕球するまでの時間を長く
する方法が考えられる。ところが、コリジョンエリアを
大きくしたのでは、野手から遠く離れたボールに対して
も野手が捕球動作を開始してしまい、捕球不可能なボー
ルに対してまで野手の捕球動作が行われるという不都合
が新たに生じる。
However, the time from the ball entering the collision area to the fielder catching the ball is extremely short, and the fielder must be allowed to perform the ball catching operation in an extremely short time after the ball enters the collision area. Therefore, the fielder's ball-catching motion becomes awkward and it is difficult to provide a realistic game. As a method of solving such a problem, a method of enlarging the collision area in the vicinity of the fielder can be considered. That is, a method of increasing the time from when the ball enters the collision area to when the fielder catches the ball can be considered. However, if the collision area is increased, the fielder will start catching the ball far away from the fielder, and the fielder will catch the ball even if it cannot be caught. Inconvenience newly occurs.

【0008】第2に、打球とフェンスとの衝突判定処理
のために多くの演算を要し、高速処理の妨げとなってい
た。
Secondly, many calculations are required for the collision determination process between the hit ball and the fence, which hinders high-speed processing.

【0009】ビデオゲーム機において、打球が外野手を
超えて飛んだ場合には、打球とフェンスとの衝突判定が
行われる。例えば、フェンスが複数のポリゴン(多角
形)で表示されている場合には、ボールの座標がポリゴ
ン上にあるか否かが判断されていた。そして、ボールが
フェンスを構成するポリゴンに衝突したと判断された場
合には、ボールをフェンスから跳ね返す処理が行われ
る。
In the video game machine, when a hit ball flies over an outfielder, a collision judgment between the hit ball and the fence is made. For example, when the fence is displayed with a plurality of polygons (polygons), it has been determined whether the coordinates of the ball are on the polygons. When it is determined that the ball has collided with the polygon forming the fence, the ball is rebounded from the fence.

【0010】すなわち、従来の野球ゲームにおいては、
ボールの座標値が、フェンスを構成するポリゴン上に位
置するか否かによって、ボールとフェンスとの衝突判定
を行っていた。しかしながら、ボールおよびポリゴンの
座標値は、3次元データによって表現されているため、
両者の位置関係を判断するためには多くの演算処理を費
やさなければならなかった。したがって、ゲーム全体の
処理速度の低下等の問題が生じていた。
That is, in the conventional baseball game,
The collision determination between the ball and the fence is performed depending on whether or not the coordinate value of the ball is located on the polygon forming the fence. However, since the coordinate values of the ball and polygon are expressed by three-dimensional data,
A lot of arithmetic processing has to be spent in order to determine the positional relationship between the two. Therefore, there is a problem such as a decrease in processing speed of the entire game.

【0011】第3に、背番号とユニフォームのように、
互いに密着したポリゴン同士の隠面処理を正確に行うの
は困難であった。
Third, like a uniform number and uniform,
It was difficult to accurately perform hidden surface processing on polygons that are in close contact with each other.

【0012】野球、サッカー等のビデオゲームにおいて
は、ゲームの臨場感を増すためには、各選手にそれぞれ
異なった背番号を付することが望ましい。ところが、、
各選手のユニフォーム毎に異なった画像を用意したので
は表示データは膨大なものとなってしまう。このため、
ユニフォームの画像と背番号の画像を別に用意し、背番
号の画像をユニフォームの画像上に重ねる手法が採られ
ている。
In a video game such as baseball or soccer, it is desirable to give each player a different jersey number in order to increase the realism of the game. However,,
If different images are prepared for each player's uniform, the display data will be enormous. For this reason,
The uniform image and the uniform image are prepared separately, and the uniform image is superimposed on the uniform image.

【0013】しかしながら、背番号およびユニフォーム
をポリゴンによって表示する場合には、以下の問題が生
じる。ポリゴンが重なり合った場合には、画面の奥側に
あるポリゴンのうち重なり合った部分を表示しない処理
(隠面処理)が行われる。このような隠面処理の方法と
して、ポリゴンの奥行き方向の座標(z座標値)の大小
により各ポリゴンの優先順位を決定し、優先順位に従い
ポリゴンを表示する方法(Zソート法)が案出されてい
る。すなわち、Zソート法においては、ポリゴン毎に代
表点が決定され、代表点同士のz座標値の大小に従いポ
リゴンの優先順位が定められる。
However, when the uniform number and the uniform are displayed by polygons, the following problems occur. When the polygons overlap each other, a process (a hidden surface process) of not displaying the overlapped portion of the polygons on the far side of the screen is performed. As a method of such hidden surface processing, a method (Z sort method) has been devised in which the priority order of each polygon is determined by the size of the coordinate (z coordinate value) in the depth direction of the polygon and the polygons are displayed according to the priority order. ing. That is, in the Z sort method, the representative point is determined for each polygon, and the priority order of the polygons is determined according to the magnitude of the z coordinate value between the representative points.

【0014】このように、Zソート法においては、各ポ
リゴン毎に一つの代表点を決定しなければならない。代
表点の決定方法としては、ポリゴンの頂点のうち、最も
手前側にある頂点を代表点とする方法、ポリゴンの頂点
のうち、最も奥側にある頂点を代表点とする方法、ある
いは、ポリゴンの重心を代表点とする方法がある。しか
しながら、いずれの方法をとるにしても、背番号とユニ
フォームのように2つのポリゴンが互いに密着(2つの
z座標値の値が近似)している場合には、ポリゴンの優
先順位を正確に決定するのが困難である。すなわち、背
番号がユニフォームの下に隠れて表示される等、誤った
隠面処理がなされることがあった。
As described above, in the Z sort method, one representative point must be determined for each polygon. The representative point can be determined by setting the frontmost vertex of the polygon vertices as the representative point, the polygon innermost vertex as the representative point, or the polygon vertices. There is a method of using the center of gravity as the representative point. However, whichever method is used, when two polygons are in close contact with each other like a uniform number and a uniform (two z coordinate values are close to each other), the priority order of the polygons is accurately determined. Difficult to do. That is, the hidden number may be hidden and displayed under the uniform, and the hidden surface may be erroneously processed.

【0015】かかる問題を回避する方法として、背番号
の優先順位をユニフォームの優先順位よりも高くし、背
番号を常にユニフォーム上に重ねる方法が考えられる。
しかしながら、この方法によっては、野手が正面を向い
た場合(背中が表示されない場合)に背番号が表示され
るという問題が新たに生じ得る。したがって、従来は、
互いに密着したポリゴン同士の隠面処理を正確に行うの
が極めて困難であった。
As a method of avoiding such a problem, a method of giving the uniform number a higher priority than that of the uniform so that the uniform number is always superimposed on the uniform is conceivable.
However, this method may cause a new problem that the uniform number is displayed when the fielder faces the front (when the back is not displayed). Therefore, conventionally,
It was extremely difficult to accurately perform the hidden surface treatment of polygons that are in close contact with each other.

【0016】本発明は、上記課題に鑑みてなされたもの
であって、本発明の第1の目的は、捕球動作を円滑に行
うことの可能な画像処理装置および画像処理方法を提供
することにある。
The present invention has been made in view of the above problems, and a first object of the present invention is to provide an image processing apparatus and an image processing method capable of smoothly performing a ball catching operation. It is in.

【0017】本発明の第2の目的は、打球とフェンスと
の衝突判定を簡易な演算により実行可能な画像処理装置
および画像処理方法を提供することにある。
It is a second object of the present invention to provide an image processing apparatus and an image processing method capable of executing collision determination between a hit ball and a fence by a simple calculation.

【0018】本発明の第3の目的は、背番号とユニフォ
ームのように互いに密着したポリゴンにおける隠面処理
を正確に行うことのできる画像処理装置および画像処理
方法を提供することにある。
A third object of the present invention is to provide an image processing apparatus and an image processing method capable of accurately performing hidden surface processing on polygons that are in close contact with each other such as a uniform number and a uniform.

【0019】[0019]

【課題を解決するための手段】請求項1記載の発明は、
上記第1の目的を達成するためのものであって、第1画
像および第2画像が衝突することを判定した場合に、第
2画像の形状を変更する画像処理装置において、第1画
像から、所定時間内に第1画像が移動し得る距離だけ離
れた位置に、仮想領域を生成する仮想領域生成手段と、
仮想領域に第2画像が位置するか否かを判定する判定手
段と、第2画像が仮想領域に位置すると判定された場合
には、第2画像の形状を変更する画像変更手段とを備え
た画像処理装置である。
The invention according to claim 1 is
In order to achieve the above-mentioned first object, when it is determined that the first image and the second image collide, in the image processing device that changes the shape of the second image, from the first image, A virtual region generating unit that generates a virtual region at a position separated by a distance that allows the first image to move within a predetermined time;
And a determining unit that determines whether the second image is located in the virtual region, and an image changing unit that changes the shape of the second image when it is determined that the second image is located in the virtual region. The image processing device.

【0020】請求項2記載の発明は、上記第1の目的を
達成するためのものであって、第1画像の移動速度およ
び位置を判断する位置判断手段を備え、上記仮想領域生
成手段は、位置判断手段による判断結果に基づき上記仮
想領域の形状を変更する請求項1記載の画像処理装置で
ある。
According to a second aspect of the present invention, there is provided the first object, including position determining means for determining the moving speed and position of the first image, and the virtual area generating means, The image processing apparatus according to claim 1, wherein the shape of the virtual area is changed based on the determination result by the position determination means.

【0021】請求項3記載の発明は、上記第1の目的を
達成するためのものであって、上記仮想領域生成手段
は、上記第1の目的を達成するためのものであって、上
記第1画像の速度の低下に伴い、上記仮想領域の面積を
減少させる請求項2記載の画像処理装置である。
The invention according to claim 3 is to achieve the first object, wherein the virtual area generating means is to achieve the first object. The image processing apparatus according to claim 2, wherein the area of the virtual region is reduced as the speed of one image decreases.

【0022】請求項4記載の発明は、上記第1の目的を
達成するためのものでって、上記仮想領域は、上記第1
画像の移動方向に対して直角方向に延出した形状をなす
請求項1乃至請求項3のいずれか一項記載の画像処理装
置である。
The invention according to claim 4 is to achieve the first object, wherein the virtual area is the first area.
The image processing apparatus according to any one of claims 1 to 3, wherein the image processing apparatus has a shape extending in a direction perpendicular to a moving direction of an image.

【0023】請求項5記載の発明は、上記第1の目的を
達成するためのものであって、上記画像変更手段は、上
記仮想領域上における第1画像の位置に対応した形状の
第2画像を生成する請求項1記載の画像処理装置であ
る。
The invention according to claim 5 is to achieve the first object, wherein the image changing means has a second image having a shape corresponding to the position of the first image on the virtual region. The image processing apparatus according to claim 1, which generates

【0024】請求項6記載の発明は、上記第1の目的を
達成するためのものであって、上記画像変更手段は、基
準平面画像に対する上記第1画像の高さに対応した形状
の第2画像を生成する請求項1記載の画像処理装置であ
る。
The invention according to claim 6 is to achieve the first object, wherein the image changing means has a second shape having a shape corresponding to a height of the first image with respect to a reference plane image. The image processing apparatus according to claim 1, which generates an image.

【0025】請求項7記載の発明は、上記第1の目的を
達成するためのものであって、上記第1画像は野球のボ
ールを表し、上記第2画像は野球の野手を表すととも
に、上記画像変更手段は捕球動作に応じて野手の姿勢を
除々に変更する請求項1乃至請求項6のいずれか一項記
載の画像処理装置である。
The invention according to claim 7 is to achieve the first object, wherein the first image represents a baseball and the second image represents a baseball fielder. The image processing device according to any one of claims 1 to 6, wherein the image changing unit gradually changes the posture of the fielder in accordance with the catching operation.

【0026】請求項8記載の発明は、上記第3の目的を
達成するためのものであって、3次元座標系で表された
複数のポリゴンを2次元座標系に投影する座標変換手段
と、2次元座標系に投影された上記複数のポリゴン同士
の表示順位を、表示画面に対して奥行き方向の座標値の
大小に基づき決定するとともに、この表示順位に従いポ
リゴンを優先的に表示する隠面処理手段とを備えた画像
処理装置において、上記隠面処理手段は、記述順位が予
め定められた複数のポリゴンよりなるポリゴングループ
の表示順位を当該ポリゴングループを構成する一のポリ
ゴンの奥行き方向の座標値に基づき決定するとともに、
当該ポリゴングループを表示すると決定した場合に限
り、当該ポリゴングループを構成するそれぞれのポリゴ
ンを上記記述順位に基づき優先的に表示する画像処理装
置である。
The invention according to claim 8 is for achieving the third object, and is a coordinate conversion means for projecting a plurality of polygons represented by a three-dimensional coordinate system onto a two-dimensional coordinate system. The hidden surface processing for determining the display order of the plurality of polygons projected on the two-dimensional coordinate system based on the magnitude of the coordinate value in the depth direction with respect to the display screen, and preferentially displaying the polygons according to this display order. In the image processing device including means, the hidden surface processing means sets the display order of a polygon group consisting of a plurality of polygons whose description order is predetermined to the coordinate value in the depth direction of one polygon forming the polygon group. Based on
Only when it is determined to display the polygon group, the image processing apparatus preferentially displays each polygon forming the polygon group based on the description order.

【0027】請求項9記載の発明は、上記第3の目的を
達成するためのものであって、上記隠面処理手段は、上
記記述順位の最も高いポリゴンの奥行き方向座標値に基
づき上記ポリゴングループの表示順位を決定する請求項
8記載の画像処理装置である。
The invention according to claim 9 is to achieve the third object, wherein the hidden surface processing means is based on the coordinate value in the depth direction of the polygon having the highest description order. 9. The image processing apparatus according to claim 8, wherein the display order of is determined.

【0028】請求項10記載の発明は、上記第3の目的
を達成するためのものであって、上記一のポリゴンは背
番号を表し、上記他のポリゴンはユニフォームを表す請
求項8記載の画像処理装置である。
The invention according to claim 10 is to achieve the third object, wherein the one polygon represents a uniform number and the other polygon represents a uniform. It is a processing device.

【0029】請求項11記載の発明は、上記第2の目的
を達成するためのものであって、中心点から半径Rの曲
面画像と第1画像との衝突判定を行う画像処理装置にお
いて、上記中心点から第1画像までの距離rを算出し、
距離rが距離Rに達した場合には、第1画像が曲面画像
に衝突したと判定する画像処理装置である。
The invention as set forth in claim 11 is for achieving the second object, in the image processing device for judging the collision between the curved surface image having the radius R from the center point and the first image. Calculate the distance r from the center point to the first image,
The image processing apparatus determines that the first image collides with the curved surface image when the distance r reaches the distance R.

【0030】請求項12記載の発明は、上記第2の目的
を達成するためのものであって、上記曲面画像は野球の
フェンスを表し、上記第1画像はボールを表す請求項1
1記載の画像処理装置である。
The invention according to claim 12 is to achieve the second object, wherein the curved surface image represents a baseball fence and the first image represents a ball.
The image processing device according to item 1.

【0031】請求項13記載の発明は、上記第1の目的
を達成するためのものであっって、第1画像および第2
画像が衝突することを判定した場合に、第2画像の形状
を変更する画像処理方法において、第1画像から、所定
時間内に第1画像が移動し得る距離だけ離れた位置に、
仮想領域を生成し、仮想領域に第2画像が位置するか否
かを判定し、第2画像が仮想領域に位置すると判定され
た場合には、第2画像の形状を変更する画像処理方法で
ある。
The invention as set forth in claim 13 is for achieving the above-mentioned first object and comprises the first image and the second image.
In the image processing method of changing the shape of the second image when it is determined that the images collide with each other, at a position away from the first image by a distance that allows the first image to move within a predetermined time,
A virtual region is generated, it is determined whether the second image is located in the virtual region, and if it is determined that the second image is located in the virtual region, an image processing method that changes the shape of the second image is performed. is there.

【0032】請求項14記載の発明は、上記第1の目的
を達成するためのものであって、上記第1画像の移動速
度および位置を判断し、この移動速度および位置に基づ
き上記仮想領域の形状を変更する請求項11記載の画像
処理方法である。
According to a fourteenth aspect of the present invention, which is to achieve the first object, the moving speed and position of the first image are determined, and the virtual area of the virtual region is determined based on the moving speed and position. The image processing method according to claim 11, wherein the shape is changed.

【0033】請求項15記載の発明は、上記第3の目的
を達成するためのものであって、次元座標系で表された
複数のポリゴンを2次元座標系に投影し、2次元座標系
に投影された上記複数のポリゴン同士の表示順位を、表
示画面に対して奥行き方向の座標値の大小に基づき決定
するとともに、この表示順位に従いポリゴンを優先的に
表示する画像処理方法において、記述順位が予め定めら
れた複数のポリゴンよりなるポリゴングループの表示順
位を当該ポリゴングループを構成する一のポリゴンの奥
行き方向の座標値に基づき決定するとともに、当該ポリ
ゴングループを表示すると決定した場合に限り、当該ポ
リゴングループを構成するそれぞれのポリゴンを上記記
述順位に基づき優先的に表示する画像処理方法である。
The invention as set forth in claim 15 is for achieving the third object, wherein a plurality of polygons represented by a dimensional coordinate system are projected onto a two-dimensional coordinate system to form a two-dimensional coordinate system. The display order of the plurality of projected polygons is determined based on the size of the coordinate value in the depth direction with respect to the display screen, and in the image processing method that preferentially displays polygons according to this display order, the description order is Only when it is determined that the display order of a predetermined polygon group including a plurality of polygons is to be displayed based on the coordinate values in the depth direction of one of the polygons that make up the polygon group, This is an image processing method for preferentially displaying each polygon forming a group based on the above described order of description.

【0034】請求項16記載の発明は、上記第2の目的
を達成するためのものであって、中心点から半径Rの曲
面画像と第1画像との衝突判定を行う画像処理方法にお
いて、上記中心点から第1画像までの距離rを算出し、
距離rが距離Rに達した場合には、第1画像が曲面画像
に衝突したと判定する画像処理方法である。
The invention as set forth in claim 16 is for achieving the second object, and in the image processing method for determining the collision between the curved surface image having the radius R from the center point and the first image, Calculate the distance r from the center point to the first image,
When the distance r reaches the distance R, the image processing method determines that the first image has collided with the curved surface image.

【0035】[0035]

【作用】請求項1記載の発明において、仮想領域生成手
段は、第1画像から、所定時間内に第1画像が移動し得
る距離だけ離れた位置に、仮想領域を生成する。すなわ
ち、第1画像の移動方向に対して、所定距離だけ離れた
位置に仮想領域が生成される。そして、判定手段は、仮
想領域に第2画像が位置するか否かを判定し、第2画像
が仮想領域に位置すると判定された場合には、画像変更
手段は第2画像の形状を変更する。
According to the first aspect of the invention, the virtual area generation means generates the virtual area at a position separated from the first image by a distance that allows the first image to move within a predetermined time. That is, the virtual area is generated at a position separated by a predetermined distance with respect to the moving direction of the first image. Then, the determining unit determines whether or not the second image is located in the virtual region, and when it is determined that the second image is located in the virtual region, the image changing unit changes the shape of the second image. .

【0036】例えば、野手を表す第2画像が仮想領域に
入ると、野手の姿勢は待機時の姿勢から捕球時の姿勢へ
と除々に変化する。この後、ボールを表す第1画像が野
手に到達した際には、野手の姿勢は捕球時の姿勢になっ
ている。本発明によれば、衝突判定用の仮想領域は第1
画像から離れた位置にあるため、第2画像が仮想領域に
入ってから第1画像および第2画像が衝突するまでの時
間を長くすることができる。したがって、本発明を野球
ゲームに適用した場合には、捕球時における野手の姿勢
変化のための時間を十分に確保することができ、円滑な
捕球動作を実現することが可能となる。
For example, when the second image representing the fielder enters the virtual area, the posture of the fielder gradually changes from the standby posture to the catching posture. After this, when the first image representing the ball reaches the fielder, the posture of the fielder is the posture at the time of catching the ball. According to the present invention, the virtual area for collision determination is the first
Since it is located away from the image, it is possible to lengthen the time from when the second image enters the virtual area to when the first image and the second image collide. Therefore, when the present invention is applied to a baseball game, it is possible to secure a sufficient time for changing the posture of the fielder at the time of catching a ball, and to realize a smooth ball catching operation.

【0037】請求項2記載の発明において、位置判断手
段は第1画像の移動速度および位置を判断し、仮想領域
生成手段は、位置判断手段による判断結果に基づき仮想
領域の形状を変更する。例えば、請求項3記載の発明に
おいて、第1画像の速度が低い場合には、仮想領域生成
手段は仮想領域の面積を減少させる。ボール(第1画
像)の速度が遅い場合には、野手(第2画像)がボール
から離れた位置において捕球動作を開始するという不都
合を回避することができる。すなわち、いまにも止まり
そうなボールに対して野手が飛びつきながら捕球をする
というような問題を解消することができる。
According to the second aspect of the invention, the position judging means judges the moving speed and the position of the first image, and the virtual area generating means changes the shape of the virtual area based on the judgment result by the position judging means. For example, in the third aspect of the present invention, when the speed of the first image is low, the virtual area generation means reduces the area of the virtual area. When the speed of the ball (first image) is slow, it is possible to avoid the inconvenience that the fielder (second image) starts the catching operation at a position away from the ball. That is, it is possible to solve the problem that a fielder jumps at a ball that is about to stop and catches the ball.

【0038】請求項4記載の発明において、仮想領域
は、第1画像の移動方向に対して直角方向にに延出した
形状をなしている。したがって、野手(第2画像)は、
野手の位置から左右方向に飛来したボール(第1画像)
を捕球することができる。
According to the fourth aspect of the invention, the virtual area has a shape extending in a direction perpendicular to the moving direction of the first image. Therefore, the fielder (second image)
Ball that flew from the position of the fielder to the left and right (first image)
Can catch.

【0039】請求項5記載の発明において、画像変更手
段は、仮想領域上における第1画像の位置に対応した形
状の第2画像を生成する。例えば、野手(第2画像)が
仮想領域の中央に位置する場合には、野手の正面にボー
ル(第1画像)が飛来するため、前向きの姿勢で捕球を
行う野手が表示される。一方、野手が仮想領域の端部に
位置する場合には、野手の側方にボールが飛来するた
め、横向きの姿勢で捕球を行う野手が表示される。この
ように、仮想領域上における野手の位置に応じて野手の
姿勢を変更することにより、本物に近い捕球動作を再現
することができる。
In the fifth aspect of the invention, the image changing means generates a second image having a shape corresponding to the position of the first image on the virtual area. For example, when the fielder (second image) is located in the center of the virtual area, the ball (first image) flies in front of the fielder, so that the fielder who catches the ball in a forward posture is displayed. On the other hand, when the fielder is located at the end of the virtual area, the ball flies to the side of the fielder, so that the fielder who catches the ball in a sideways posture is displayed. In this way, by changing the posture of the fielder according to the position of the fielder in the virtual area, it is possible to reproduce a ball-catching motion close to the real thing.

【0040】請求項6記載の発明において、画像変更手
段は、基準平面画像に対する上記第1画像の高さに対応
した形状の第2画像を生成する。例えば、ボール(第1
画像)の位置がグランド(基準平面画像)に対して高い
場合には,フライを捕球する野手が表示され、ボールの
位置が低い場合には、ゴロを捕球する野手が表示され
る。このように、ボールの高さに応じて野手の捕球姿勢
を変更することにより、本物に近い野手の捕球姿勢を再
現することが可能となる。
In the invention described in claim 6, the image changing means generates a second image having a shape corresponding to the height of the first image with respect to the reference plane image. For example, the ball (first
When the position of (image) is higher than the ground (reference plane image), the fielder who catches the fly is displayed, and when the position of the ball is low, the fielder who catches Goro is displayed. As described above, by changing the catching attitude of the fielder according to the height of the ball, it is possible to reproduce the catching attitude of the fielder close to the real thing.

【0041】請求項7記載の発明において、第1画像は
野球のボールを表し、上記第2画像は野球の野手を表す
とともに、画像変更手段は捕球動作に応じて野手の姿勢
を除々に変更する。これにより、円滑な捕球動作を実現
することが可能となる。
In the invention according to claim 7, the first image represents a baseball, the second image represents a baseball fielder, and the image changing means gradually changes the posture of the fielder according to the catching motion. To do. This makes it possible to realize a smooth ball catching operation.

【0042】請求項8記載の発明において、座標変換手
段は、3次元座標系で表された複数のポリゴンを2次元
座標系に投影する。そして、隠面処理手段は2次元座標
系に投影された上記複数のポリゴン同士の表示順位を、
表示画面に対して奥行き方向の座標値の大小に基づき決
定するとともに、この表示順位に従いポリゴンを優先的
に表示する。また、隠面処理手段は、記述順位が予め定
められた複数のポリゴンよりなるポリゴングループの表
示順位をポリゴングループを構成する一のポリゴンの奥
行き方向の座標値に基づき決定する。そして、隠面処理
手段は、ポリゴングループを表示すると決定した場合に
限り、ポリゴングループを構成するそれぞれのポリゴン
を記述順位に基づき優先的に表示する。
In the invention described in claim 8, the coordinate conversion means projects a plurality of polygons represented by a three-dimensional coordinate system onto a two-dimensional coordinate system. Then, the hidden surface processing means determines the display order of the plurality of polygons projected on the two-dimensional coordinate system,
The determination is made based on the size of the coordinate value in the depth direction on the display screen, and the polygons are preferentially displayed according to this display order. Further, the hidden surface processing means determines the display order of the polygon group including a plurality of polygons whose description order is predetermined, based on the coordinate value in the depth direction of one polygon forming the polygon group. Then, the hidden surface processing means preferentially displays each polygon forming the polygon group based on the description order only when it is determined to display the polygon group.

【0043】すなわち、同一ポリゴングループ内におい
ては、各ポリゴンの奥行き方向の座標値の比較(例えば
Zソート)は行われず、予め定められた記述順位に従っ
てポリゴンが表示される。したがって、2つのポリゴン
が密着しているような場合であっても、正確な隠面処理
を行うことが可能となる。例えば、請求項10記載の発
明に示されるように、ユニフォームを表すポリゴンおよ
び背番号を表すポリゴンを正確に表示することができ
る。
That is, in the same polygon group, the coordinate values of the polygons in the depth direction are not compared (for example, Z sort), and the polygons are displayed according to a predetermined description order. Therefore, even when two polygons are in close contact with each other, it is possible to accurately perform the hidden surface processing. For example, the polygon representing the uniform and the polygon representing the uniform number can be accurately displayed as shown in the invention of claim 10.

【0044】請求項9記載の発明において、隠面処理手
段は、記述順位の最も高いポリゴンの奥行き方向座標値
に基づきポリゴングループの表示順位を決定している。
したがって、本発明によれば、ポリゴングループ同士の
表示順位を、他のポリゴンと同様に決定することができ
るため、例えばZソート法を用いた従来の隠面処理およ
び本発明に係る隠面処理の互換性を確保することが可能
となる。
In the ninth aspect of the invention, the hidden surface processing means determines the display order of the polygon group based on the coordinate values in the depth direction of the polygon having the highest description order.
Therefore, according to the present invention, the display order of polygon groups can be determined in the same manner as other polygons. Therefore, for example, the conventional hidden surface processing using the Z sort method and the hidden surface processing according to the present invention can be performed. It is possible to ensure compatibility.

【0045】請求項11記載の発明において、中心点か
ら半径Rの曲面画像を想定し、第1が贈から中心点まで
の距離rを算出する。そして、画像処理装置は、距離r
が距離Rに達した場合には、第1画像が曲面画像に衝突
したと判定する。例えば、請求項11記載の発明におい
て、曲面画像は野球のフェンスを表し、第1画像はボー
ルを表している場合には、距離Rおよび距離rの比較を
することによって、容易にボールとフェンスとの衝突判
定を行うことができる。
In the eleventh aspect of the present invention, assuming a curved surface image having a radius R from the center point, the first calculates the distance r from the gift to the center point. Then, the image processing apparatus uses the distance r
When reaches the distance R, it is determined that the first image collides with the curved surface image. For example, in the invention of claim 11, when the curved surface image represents a baseball fence and the first image represents a ball, by comparing the distance R and the distance r, the ball and the fence can be easily separated. Collision determination can be performed.

【0046】請求項13記載の発明において、第1画像
から、所定時間内に第1画像が移動し得る距離だけ離れ
た位置に仮想領域を生成する。そして、仮想領域に第2
画像が位置するか否かを判定し、第2画像が仮想領域に
位置すると判定された場合には、第2画像の形状を変更
する。例えば、本発明によれば、衝突判定用の仮想領域
は第1画像から離れた位置にあるため、第2画像が仮想
領域に入ってから第1画像および第2画像が衝突するま
での時間を長くすることができる。したがって、本発明
を野球ゲームに適用した場合には、捕球時における野手
の姿勢変化のための時間を十分に確保することができ、
円滑な捕球動作を実現することが可能となる。
In the thirteenth aspect of the present invention, a virtual area is generated at a position away from the first image by a distance that allows the first image to move within a predetermined time. Then, in the virtual area, the second
It is determined whether or not the image is located, and when it is determined that the second image is located in the virtual area, the shape of the second image is changed. For example, according to the present invention, since the virtual area for collision determination is located away from the first image, the time from when the second image enters the virtual area until when the first image and the second image collide is reduced. Can be long. Therefore, when the present invention is applied to a baseball game, it is possible to secure a sufficient time for changing the posture of a fielder when catching a ball.
It is possible to realize a smooth ball catching operation.

【0047】請求項14記載の発明において、第1画像
の移動速度および位置を判断し、この移動速度および位
置に基づき上記仮想領域の形状を変更する。
In the fourteenth aspect of the present invention, the moving speed and position of the first image are determined, and the shape of the virtual area is changed based on this moving speed and position.

【0048】請求項15記載の発明において、2次元座
標系に投影された上記複数のポリゴン同士の表示順位
を、表示画面に対して奥行き方向の座標値の大小に基づ
き決定するとともに、この表示順位に従いポリゴンを優
先的に表示する。また、記述順位が予め定められた複数
のポリゴンよりなるポリゴングループの表示順位をポリ
ゴングループを構成する一のポリゴンの奥行き方向の座
標値に基づき決定する。そして、ポリゴングループを表
示すると決定した場合に限り、ポリゴングループを構成
するそれぞれのポリゴンを記述順位に基づき優先的に表
示する。
According to the fifteenth aspect of the present invention, the display order of the plurality of polygons projected on the two-dimensional coordinate system is determined based on the size of the coordinate value in the depth direction with respect to the display screen, and the display order is determined. The polygon is displayed preferentially according to. Further, the display order of a polygon group including a plurality of polygons whose description order is predetermined is determined based on the coordinate values of one polygon forming the polygon group in the depth direction. Then, only when it is decided to display the polygon group, each polygon forming the polygon group is preferentially displayed based on the description order.

【0049】すなわち、同一ポリゴングループ内におい
ては、各ポリゴンの奥行き方向の座標値の比較(例えば
Zソート)は行われず、予め定められた記述順位に従っ
てポリゴンが表示される。したがって、2つのポリゴン
が密着しているような場合であっても、正確な隠面処理
を行うことが可能となる。
That is, in the same polygon group, the comparison of the coordinate values of the respective polygons in the depth direction (for example, Z sort) is not performed, and the polygons are displayed according to a predetermined description order. Therefore, even when two polygons are in close contact with each other, it is possible to accurately perform the hidden surface processing.

【0050】請求項16記載の発明において、中心点か
ら半径Rの曲面画像を想定し、第1が贈から中心点まで
の距離rを算出する。そして、距離rが距離Rに達した
場合には、第1画像が曲面画像に衝突したと判定する。
例えば、曲面画像は野球のフェンスを表し、第1画像は
ボールを表している場合には、距離Rおよび距離rの比
較をすることによって、容易にボールとフェンスとの衝
突判定を行うことができる。
In the sixteenth aspect of the present invention, assuming a curved surface image having a radius R from the center point, the first calculates the distance r from the gift to the center point. Then, when the distance r reaches the distance R, it is determined that the first image has collided with the curved surface image.
For example, when the curved surface image represents a baseball fence and the first image represents a ball, the collision determination between the ball and the fence can be easily performed by comparing the distance R and the distance r. .

【0051】[0051]

【実施例】(第1実施例) I.構成 図1は本発明の第1実施例に係る画像処理装置を用いた
ビデオゲーム機の外観図である。この図において、ビデ
オゲーム機本体1は略箱型をなし、その内部にはゲーム
処理用の基板等が設けられている。また、ビデオゲーム
機本体1の前面には、2つのコネクタ2aが設けられて
おり、これらのコネクタ2aにはゲーム操作用のPAD
2bがケーブル2cを介して接続されている。2人の遊
戯者が野球ゲーム等を楽しむ場合には、2つのPAD2
bが使用される。
EXAMPLES (First Example) I. Example Configuration FIG. 1 is an external view of a video game machine using the image processing apparatus according to the first embodiment of the present invention. In this figure, the main body 1 of the video game machine has a substantially box shape, and a board for game processing and the like are provided therein. Further, two connectors 2a are provided on the front surface of the video game machine main body 1, and these connectors 2a are provided with a PAD for game operation.
2b is connected via a cable 2c. When two players enjoy a baseball game etc., two PAD2
b is used.

【0052】ビデオゲーム機本体1の上部には、ROM
カートリッジ接続用のカートリッジI/F1a、CD−
ROM読み取り用のCD−ROMドライブ1bが設けら
れている。ビデオゲーム機本体1の背面には、図示され
ていないが、ビデオ出力端子およびオーディオ出力端子
が設けられている。このビデオ出力端子はケーブル4a
を介してTV受像機5のビデオ入力端子に接続されると
ともに、オーディオ出力端子はケーブル4bを介してT
V受像機5のオーディオ入力端子に接続されている。こ
のようなビデオゲーム機において、ユーザがPAD2b
を操作することにより、TV受像機5に映し出された画
面を見ながらゲームを行うことができる。
A ROM is provided on the upper part of the video game machine body 1.
Cartridge I / F1a for connecting cartridge, CD-
A CD-ROM drive 1b for reading ROM is provided. Although not shown, a video output terminal and an audio output terminal are provided on the back surface of the video game machine body 1. This video output terminal is cable 4a
Is connected to the video input terminal of the TV receiver 5 via an audio output terminal, and the audio output terminal is connected via a cable 4b to a T
It is connected to the audio input terminal of the V receiver 5. In such a video game machine, the user can
By operating the, the game can be played while watching the screen displayed on the TV receiver 5.

【0053】図2は本実施例に係るTVゲーム機の概要
を表すブロック図である。この画像処理装置は、装置全
体の制御を行うCPUブロック10、ゲーム画面の表示
制御を行うビデオブロック11、効果音等を生成するサ
ウンドブロック12、CD−ROMの読み出しを行うサ
ブシステム13等により構成されている。
FIG. 2 is a block diagram showing an outline of the TV game machine according to this embodiment. This image processing apparatus includes a CPU block 10 that controls the entire apparatus, a video block 11 that controls display of a game screen, a sound block 12 that produces sound effects, a subsystem 13 that reads a CD-ROM, and the like. Has been done.

【0054】CPUブロック10は、SCU(System C
ontrol Unit)100、メインCPU101、RAM1
02、ROM103、カートリッジI/F1a、サブC
PU104、CPUバス103等により構成されてい
る。メインCPU101は、装置全体の制御を行うもの
である。このメインCPU101は、内部にDSP(Di
gital Signal Processor)と同様の演算機能を備え、ア
プリケーションソフトを高速に実行可能である。RAM
102は、メインCPU101のワークエリアとして使
用されるものである。ROM103には、初期化処理用
のイニシャルプログラム等が書き込まれている。SCU
100は、バス105、106、107を制御すること
により、メインCPU101、VDP120、130、
DSP140、CPU141等の間におけるデータ入出
力を円滑に行うものである。また、SCU100は、内
部にDMAコントローラを備え、ゲーム中のスプライト
データをビデオブロック11内のVRAMに転送するこ
とができる。これにより、ゲーム等のアプリケーション
ソフトを高速に実行することが可能である。カートリッ
ジI/F1aは、ROMカートリッジの形態で供給され
るアプリケーションソフトを入力するためのものであ
る。
The CPU block 10 is an SCU (System C
ontrol Unit) 100, main CPU 101, RAM 1
02, ROM 103, cartridge I / F 1a, sub C
The PU 104 and the CPU bus 103 are included. The main CPU 101 controls the entire apparatus. The main CPU 101 has a DSP (Di
(Gital Signal Processor) has the same calculation function, and can execute application software at high speed. RAM
Reference numeral 102 is used as a work area of the main CPU 101. An initial program for initialization processing and the like are written in the ROM 103. SCU
100 controls the buses 105, 106, and 107 so that the main CPU 101, VDPs 120 and 130,
Data is smoothly input and output between the DSP 140, the CPU 141, and the like. In addition, the SCU 100 has a DMA controller inside and can transfer sprite data during a game to the VRAM in the video block 11. As a result, application software such as a game can be executed at high speed. The cartridge I / F 1a is for inputting application software supplied in the form of a ROM cartridge.

【0055】サブCPU104は、SMPC(System M
anager & Peripheral Control)と呼ばれるもので、メ
インCPU101からの要求に応じて、PAD2bから
ペリフェラルデータをコネクタ2aを介して収集する機
能等を備えている。メインCPU101はサブCPU1
04から受け取ったペリフェラルデータに基づき、例え
ばゲーム画面中の野手を移動させる等の処理を行うもの
である。コネクタ2aには、PAD、ジョイスティッ
ク、キーボード等のうちの任意のペリフェラルが接続可
能である。サブCPU104は、コネクタ2a(本体側
端子)に接続されたペリフェラルの種類を自動的に認識
し、ペリフェラルの種類に応じた通信方式に従いペリフ
ェラルデータ等を収集する機能を備えている。
The sub CPU 104 is an SMPC (System M
This is called an anager & Peripheral Control) and has a function of collecting peripheral data from the PAD 2b via the connector 2a in response to a request from the main CPU 101. Main CPU 101 is sub CPU 1
Based on the peripheral data received from 04, processing such as moving outfielders in the game screen is performed. Any peripherals such as PAD, joystick, keyboard, etc. can be connected to the connector 2a. The sub CPU 104 has a function of automatically recognizing the type of peripheral connected to the connector 2a (terminal on the main body side) and collecting peripheral data and the like according to a communication method corresponding to the type of peripheral.

【0056】ビデオブロック11は、ビデオゲームのポ
リゴンデータから成るキャラクタ等の描画を行うVDP
(Video Display Processor)120、背景画面の描
画、ポリゴン画像データおよび背景画像の合成、クリッ
ピング処理等を行うVDP130とを備えている。VD
P120はVRAM121およびフレームバッファ12
2、123に接続されている。ビデオゲーム機のキャラ
クタを表すポリゴンの描画データはメインCPU101
からSCU100を介してVDP120に送られ、VR
AM121に書き込まれる。VRAM121に書き込ま
れた描画データは、例えば、16または8ビット/pixe
lの形式で描画用のフレームバッファ122または12
3に描画される。描画されたフレームバッファ122ま
たは123のデータはVDP130に送られる。描画を
制御する情報は、メインCPU101からSCU100
を介してVDP120に与えられる。そして、VDP1
20は、この指示に従い描画処理を実行する。
The video block 11 is a VDP for drawing a character or the like composed of polygon data of a video game.
A (Video Display Processor) 120, a VDP 130 that performs drawing of a background screen, synthesis of polygon image data and a background image, clipping processing, and the like. VD
P120 is VRAM 121 and frame buffer 12
2, 123 are connected. The drawing data of the polygon representing the character of the video game machine is the main CPU 101.
From the SCU100 to the VDP120, VR
Written to AM121. The drawing data written in the VRAM 121 is, for example, 16 or 8 bits / pixe.
Frame buffer 122 or 12 for drawing in l format
3 is drawn. The drawn data in the frame buffer 122 or 123 is sent to the VDP 130. Information for controlling drawing is sent from the main CPU 101 to the SCU 100.
To the VDP 120 via. And VDP1
20 executes the drawing process according to this instruction.

【0057】VDP130はVRAM131に接続さ
れ、VDP130から出力された画像データはメモリ1
32を介してエンコーダ160に出力される構成となっ
ている。エンコーダ160は、この画像データに同期信
号等を付加することにより映像信号を生成し、TV受像
機5に出力する。これにより、TV受像機5に野球ゲー
ムの画面が表示される。
The VDP 130 is connected to the VRAM 131, and the image data output from the VDP 130 is stored in the memory 1
It is configured to be output to the encoder 160 via 32. The encoder 160 generates a video signal by adding a synchronization signal or the like to this image data and outputs it to the TV receiver 5. As a result, the screen of the baseball game is displayed on the TV receiver 5.

【0058】サウンドブロック12は、PCM方式ある
いはFM方式に従い音声合成を行うDSP140と、こ
のDSP140の制御等を行うCPU141とにより構
成されている。DSP140により生成された音声デー
タは、D/Aコンバータ170により2チャンネルの信
号に変換された後にスピーカ5bに出力される。
The sound block 12 is composed of a DSP 140 that synthesizes voice according to the PCM system or the FM system, and a CPU 141 that controls the DSP 140 and the like. The audio data generated by the DSP 140 is converted into a 2-channel signal by the D / A converter 170 and then output to the speaker 5b.

【0059】サブシステム13は、CD−ROMドライ
ブ1b、CD I/F180、CPU181、MPEG
AUDIO182、MPEG VIDEO183等によ
り構成されている。このサブシステム13は、CD−R
OMの形態で供給されるアプリケーションソフトの読み
込み、動画の再生等を行う機能を備えている。CD−R
OMドライブ1bはCD−ROMからデータを読み取る
ものである。CPU181は、CD−ROMドライブ1
bの制御、読み取られたデータの誤り訂正等の処理を行
うものである。CD−ROMから読み取られたデータ
は、CD I/F180、バス106、SCU100を
介してメインCPU101に供給され、アプリケーショ
ンソフトとして利用される。また、MPEG AUDI
O182、MPEG VIDEO183は、MPEG規
格(Motion Picture Expert Groug)により圧縮された
データを復元するデバイスである。これらのMPEG
AUDIO182、MPEG VIDEO183を用い
てCD−ROMに書き込まれたMPEG圧縮データの復
元を行うことにより、動画の再生を行うことが可能とな
る。
The subsystem 13 includes a CD-ROM drive 1b, a CD I / F 180, a CPU 181, and an MPEG.
It is composed of AUDIO 182, MPEG VIDEO 183 and the like. This subsystem 13 is a CD-R
It has the functions of reading application software supplied in the form of OM and playing moving images. CD-R
The OM drive 1b reads data from a CD-ROM. The CPU 181 is a CD-ROM drive 1
The control of b, the error correction of the read data, and the like are performed. The data read from the CD-ROM is supplied to the main CPU 101 via the CD I / F 180, the bus 106, and the SCU 100, and is used as application software. In addition, MPEG AUDI
The O182 and MPEG VIDEO 183 are devices for restoring data compressed according to the MPEG standard (Motion Picture Expert Groug). These MPEG
By reproducing the MPEG compressed data written in the CD-ROM using the AUDIO 182 and the MPEG VIDEO 183, it becomes possible to reproduce the moving image.

【0060】続いて、本実施例に係る画像処理装置の構
成を説明する。図3は、メインCPU101、RAM1
02、ROM103等により構成される画像処理装置の
機能ブロック図である。この図において、仮想領域生成
手段31は、ボール(第1画像)の移動方向に対して前
方位置にコリジョンエリア(仮想領域)を生成する機能
を備えたものである。位置判断手段34はボールの速度
および高さ(位置)を判断し、判断結果を仮想領域生成
手段31に与えるものである。判定手段32はコリジョ
ンエリアと野手との位置関係を判定し、判定結果を画像
変更手段33に与える構成となっている。画像変更手段
33は、判定手段32による判定結果(コリジョンエリ
アおよび野手の位置関係)に基づき野手(第2画像)の
姿勢を変更するものである。すなわち、コリジョンエリ
ア内に野手が入ると、野手は捕球動作を行う。
Next, the configuration of the image processing apparatus according to this embodiment will be described. FIG. 3 shows the main CPU 101 and the RAM 1.
2 is a functional block diagram of an image processing apparatus configured by 02, a ROM 103, and the like. In this figure, the virtual area generation means 31 has a function of generating a collision area (virtual area) at a front position in the moving direction of the ball (first image). The position determination means 34 determines the speed and height (position) of the ball, and gives the determination result to the virtual area generation means 31. The determination unit 32 is configured to determine the positional relationship between the collision area and the fielder, and give the determination result to the image changing unit 33. The image changing unit 33 changes the posture of the fielder (second image) based on the determination result (positional relationship between the collision area and the fielder) by the determination unit 32. That is, when a fielder enters the collision area, the fielder catches a ball.

【0061】図4は、本実施例に係るビデオゲーム機に
よって表示される野球ゲームの画面の一例を示してい
る。この野球ゲームは、1人または2人で実行可能なも
のである。すなわち、遊戯者が2人いる場合には2人の
遊戯者が守備および攻撃を交互に行い、遊戯者が1人の
みの場合には遊戯者はコンピュータ(ビデオゲーム機)
を対戦相手として守備および攻撃を交互に行う。ディス
プレイ5上には、ゲーム進行に合わせた場面が3次元グ
ラフィックスとして表示される。投球持においてはバッ
ターの背後から見た場面が表示されるが、打撃直後は同
図に示されるように野手を中心とした場面が表示され
る。
FIG. 4 shows an example of a baseball game screen displayed by the video game machine according to this embodiment. This baseball game can be executed by one or two people. That is, when there are two players, the two players perform defense and attack alternately, and when there is only one player, the players are computers (video game machines).
Alternately defend and attack with your opponent. On the display 5, a scene according to the progress of the game is displayed as three-dimensional graphics. In pitching, the scene seen from behind the batter is displayed, but immediately after the hit, the scene centered on the fielder is displayed as shown in the figure.

【0062】野手J,Kは、PAD2bの操作によって
移動させることが可能である。すなわち、遊戯者がPA
D2bを操作すると、メインCPU101はボール42
の飛行方向に位置する野手J、Kのうち、先ず内野側に
位置する野手Jを移動させる。そして、野手Jがボール
を取り損ねた場合には、メインCPU101はPAD2
bの操作に応じて次に外野側の野手Kを移動させる。こ
のようにして、簡単な操作によって複数の野手を移動さ
せることが可能となる。
The fielders J and K can be moved by operating the PAD 2b. That is, if the player is a PA
When the D2b is operated, the main CPU 101 causes the ball 42
Of the fielders J and K located in the flight direction, the fielder J located on the infield side is moved first. When the fielder J misses the ball, the main CPU 101 causes the PAD2
Then, the outfielder K on the outfield side is moved according to the operation of b. In this way, it is possible to move a plurality of fielders by a simple operation.

【0063】打者41がボールを打つと同時に、メイン
CPU101はボール42の速度および方向を算出し、
これらの算出結果からボール42の落下予想地点44を
算出する。なお、この落下予想地点44は、実際に画面
上に表示される。ボール42の落下持までに、野手Jま
たはKを落下予想地点44の近傍に移動した場合には、
野手JまたはKはフライを捕ることができる。
At the same time when the batter 41 hits the ball, the main CPU 101 calculates the speed and direction of the ball 42,
An expected drop point 44 of the ball 42 is calculated from these calculation results. The expected drop point 44 is actually displayed on the screen. If the fielder J or K is moved to the vicinity of the expected drop point 44 before the ball 42 falls,
Fielder J or K can catch a fly.

【0064】ボール42の飛行方向(前方)におけるグ
ランド(基準平面画像)上には仮想的なコリジョンエリ
ア43が位置している。このコリジョンエリア43は、
ボール42と野手との衝突(コリジョン)判定に際して
使用されるものであり、実際に表示されるものではな
い。野手JまたはKがコリジョンエリア43内に移動し
た場合には、野手JまたはKはボール42を捕球するこ
とが可能である。一方、野手JまたはKがコリジョンエ
リア43の範囲外に位置する限り、野手JまたはKは捕
球動作を行わない。
A virtual collision area 43 is located on the ground (reference plane image) in the flight direction (forward) of the ball 42. This collision area 43
It is used when determining the collision between the ball 42 and the fielder, and is not actually displayed. When the fielder J or K moves into the collision area 43, the fielder J or K can catch the ball 42. On the other hand, as long as the fielder J or K is located outside the collision area 43, the fielder J or K does not catch the ball.

【0065】このコリジョンエリアを図5〜図9を参照
しながら詳述する。図5は、コリジョンエリア、ボー
ル、野手のそれぞれの位置関係を説明するための図であ
る。この図に示されるように、コリジョンエリア43
は、ボール42から所定距離だけ前方に離れたグランド
上に位置している。すなわち、コリジョンエリア43
は、ボール42の飛行に従い、ボール43の前方のグラ
ンド上を移動する。コリジョンエリア43とボール42
との距離は、12インタラプトの時間にボール42が進
む距離に相当する。
This collision area will be described in detail with reference to FIGS. FIG. 5: is a figure for demonstrating each positional relationship of a collision area, a ball, and a fielder. As shown in this figure, the collision area 43
Is located on the ground, which is separated from the ball 42 by a predetermined distance. That is, the collision area 43
Follows the flight of the ball 42 and moves on the ground in front of the ball 43. Collision area 43 and ball 42
The distance between and corresponds to the distance traveled by the ball 42 during a time of 12 interrupts.

【0066】なお、本実施例にあっては、1フレーム
(垂直帰線周期期間1/60msec×2=33.3msec)毎にイン
タラプトが発生することから、12インタラプトの時間
は約0.4secとなる。また、野手J、Kの姿勢は、1イ
ンタラプト(1フレーム)毎に変化するため、12イン
タラプトの時間に野手は12コマ分の動作を行うことが
可能である。例えば、図6に示されるように、コリジョ
ンエリア43内に入った野手Jが捕球動作を開始してか
ら捕球を完了するまでに、野手Jは体の向きをボールに
向けながら12コマ分の動作を実行することができる。
したがって、野手の捕球動作を滑らかに表示することが
可能となる。
In this embodiment, since an interrupt occurs every frame (vertical blanking cycle period 1/60 msec × 2 = 33.3 msec), 12 interrupt times are about 0.4 sec. . Further, since the postures of the fielders J and K change every interrupt (one frame), the fielder can perform the movement for 12 frames in the time of 12 interrupts. For example, as shown in FIG. 6, after the fielder J who has entered the collision area 43 starts catching the ball and finishes catching the ball, the fielder J turns his body toward the ball for 12 frames. The operation of can be performed.
Therefore, the fielder's ball catching operation can be displayed smoothly.

【0067】図7は、コリジョンエリア43および捕球
姿勢を説明するための図である。この図に示されるよう
に、コリジョンエリア43は、エリアA,B1,B2,C
1,C2により構成されており、各エリアA,B1,B2
1,C2には野手の捕球姿勢71〜75が対応付けられ
ている。例えば、野手がエリアAに入った場合には、ボ
ールは野手の正面に来るので、野手の捕球時の姿勢は捕
球姿勢73のようになる。野手がエリアC1に入った場
合には、ボールは野手の左側に来る(ボールはエリアA
を通過する)ので、野手の捕球姿勢は捕球姿勢71のよ
うになる。なお、同図に示された捕球姿勢71〜75
は、ボールの高さが低い場合におけるものであり、ボー
ルの高さに応じた捕球姿勢が選択される。
FIG. 7 is a diagram for explaining the collision area 43 and the catching posture. As shown in this figure, the collision area 43 includes areas A, B 1 , B 2 , and C.
1 and C 2 , each area A, B 1 , B 2 ,
Field catching postures 71 to 75 are associated with C 1 and C 2 . For example, when the fielder enters the area A, the ball comes to the front of the fielder, and the attitude of the fielder when catching the ball becomes a catching attitude 73. If the fielder enters area C 1 , the ball is to the left of the fielder (the ball is in area A).
Therefore, the fielder's catching attitude becomes like catching attitude 71. In addition, the catching postures 71 to 75 shown in FIG.
In the case where the height of the ball is low, the catching posture is selected according to the height of the ball.

【0068】図8は、コリジョンエリアの上面図であ
る。上述したように、コリジョンエリア43は、エリア
A,B1,B2,C1,C2により構成されている。最も中
心のエリアAはボールの飛行経路下に位置し、円形をな
している。そして、エリアAの外側には、それぞれ扇型
をなすエリアB1,B2,C1,C2が順に設けられてい
る。エリアB1,B2,C1,C2は、ボールの速度が遅く
なるに従い、順に消滅するものである。例えば、ボール
がグラウンドにバウンドし、ボールの速度が低下したよ
うな場合には、エリアC1,C2が先ず消滅する。
FIG. 8 is a top view of the collision area. As described above, the collision area 43 is composed of the areas A, B 1 , B 2 , C 1 and C 2 . The most central area A is located below the flight path of the ball and has a circular shape. Outside the area A, fan-shaped areas B 1 , B 2 , C 1 and C 2 are sequentially provided. Areas B 1 , B 2 , C 1 and C 2 disappear in order as the speed of the ball decreases. For example, when the ball bounces to the ground and the speed of the ball decreases, the areas C 1 and C 2 first disappear.

【0069】さらに、ボールの速度が低下すると、エリ
アB1,B2が消滅し、エリアAのみが残存する。現実の
野球において、ボールが止まりそうな場合に野手がボー
ルに飛びつく(図7の捕球姿勢71、75を参照)こと
は通常あり得ない。したがって、ボールの速度に応じて
コリジョンエリア43の大きさを適宜変更することによ
り、画面上の野手の動作を現実の野手の動作に近づける
ことが可能となる。
Further, when the speed of the ball decreases, the areas B 1 and B 2 disappear and only the area A remains. In real-life baseball, it is usually impossible for a fielder to jump on the ball (see catching postures 71 and 75 in FIG. 7) when the ball is about to stop. Therefore, by appropriately changing the size of the collision area 43 according to the speed of the ball, it is possible to make the action of the fielder on the screen closer to the action of the actual fielder.

【0070】また、エリアB1,B2の有効角度θb、エ
リアC1,C2の有効角度θcも同様にボールの速度等に
よって変化する。例えば、ボールの速度が速い場合に
は、ボールの通過位置に野手を素早く移動させなければ
ならない。このとき、コリジョンエリア43の面積が狭
い場合には、ボールを捕球するのが極めて困難となって
しまう。そこで、このような場合には、有効角度θb
θcを大きくし、コリジョンエリア43の面積を広げる
ことによって、ボールが高速である場合における捕球の
困難さを軽減している。
[0070] In addition, it varies with the area B 1, B 2 of the effective angle theta b, area C 1, the effective angle of C 2 theta c likewise speed of the ball or the like. For example, when the speed of the ball is high, it is necessary to quickly move the fielder to the passing position of the ball. At this time, when the area of the collision area 43 is small, it becomes extremely difficult to catch the ball. Therefore, in such a case, the effective angle θ b ,
By increasing θ c and widening the area of the collision area 43, it is possible to reduce the difficulty of catching a ball at a high speed.

【0071】図9は、ボールの移動に伴うコリジョンエ
リア43の形状の変化の様子を表している。ボールが打
たれた後、停止するまでに、コリジョンエリア43は位
置(a)〜(d)を順に通過する。位置(a)は、打撃
直後のコリジョンエリアの位置を示している。上述した
ように、ボールが高速である場合においては、捕球の困
難さを軽減するために有効角度θb、θcを大きくしてい
る。そして、ボールの速度が低下すると、有効角度
θb、θcは小さくなり、コリジョンエリア43の面積は
減少する(位置(b))。
FIG. 9 shows how the shape of the collision area 43 changes with the movement of the ball. After the ball is hit, the collision area 43 passes through the positions (a) to (d) in order until it stops. The position (a) shows the position of the collision area immediately after the impact. As described above, when the ball is at a high speed, the effective angles θ b and θ c are increased in order to reduce the difficulty of catching the ball. Then, when the speed of the ball decreases, the effective angles θ b and θ c decrease, and the area of the collision area 43 decreases (position (b)).

【0072】さらに、ボールがその速度を減少させなが
ら位置(c)に到達すると、コリジョンエリア43のエ
リアC1,C2は消滅する。ボールが停止する直前(位置
(d))には、コリジョンエリア43のエリアB1,B2
は消滅する。このとこのコリジョンエリア43は円形の
エリアAのみとなるため、野手はボールに対して全方向
から捕球を行うことができる。このように、ボールの速
度に伴いコリジョンエリア43の形状を変化させること
により、本物らしい野手の捕球動作を再現することが可
能となる。
Further, when the ball reaches the position (c) while reducing its velocity, the areas C 1 and C 2 of the collision area 43 disappear. Immediately before the ball stops (position (d)), areas B 1 and B 2 of the collision area 43 are
Disappears. Since this collision area 43 is only the circular area A, the fielder can catch the ball from all directions. In this way, by changing the shape of the collision area 43 in accordance with the speed of the ball, it is possible to reproduce a real fielder's catching motion.

【0073】図10は、コリジョンエリア上の野手の位
置およびボールの高さに応じた野手の捕球姿勢を表す図
である。この図において、縦軸はボールの高さを示し、
横軸はコリジョンエリア上の野手の位置を示している。
捕球姿勢111〜113はジャンプしながら捕球を行う
野手を表し、捕球姿勢114はフライを捕る野手を表し
ている。さらに、捕球姿勢115〜119は野手の胸の
高さにおいて捕球する野手を表し、捕球姿勢120〜1
24はゴロを捕る野手を表している。また、捕球姿勢1
25は、正面に飛びつきながら捕球する野手を表してい
る。これらの捕球姿勢のうち、捕球姿勢115、11
9、120、124は移動しながら捕球を行うものであ
る。
FIG. 10 is a diagram showing the fielder's catching posture according to the position of the fielder on the collision area and the height of the ball. In this figure, the vertical axis shows the height of the ball,
The horizontal axis represents the position of the fielder on the collision area.
Ball catching attitudes 111 to 113 represent fielders who catch balls while jumping, and ball catching attitudes 114 represent fielders who catch a fly. Further, the catching postures 115 to 119 represent the fielders who catch the ball at the chest height of the fielder, and the catching postures 120 to 1
Reference numeral 24 represents a fielder who catches Goro. Also, catching posture 1
25 represents a fielder who catches a ball while jumping to the front. Among these catching attitudes, catching attitudes 115 and 11
9, 120 and 124 are for catching a ball while moving.

【0074】また、コリジョンエリア上の野手の位置に
応じた捕球姿勢が選択される。例えば、野手がエリアA
に位置し、かつ、ボールが高い位置にある場合(フラ
イ)には、グラブを上に揚げた捕球姿勢114が表示さ
れる。また、野手がエリアC1に位置し、かつ、ボール
が野手の胸の高さに位置する場合には、グラブを左側に
差し出した捕球姿勢115が表示される。このように、
コリジョンエリア上の野手の位置、および、ボールの高
さに応じて野手の捕球姿勢を変更することにより、現実
感溢れる野球ゲームを提供することができる。
Further, the catching posture is selected according to the position of the fielder on the collision area. For example, the fielder is area A
When the ball is located at the position (1) and the ball is at a high position (fly), the catching posture 114 with the grab raised is displayed. Further, when the fielder is located in the area C 1 and the ball is located at the chest level of the fielder, the catching posture 115 with the glove extended to the left is displayed. in this way,
By changing the catching posture of the fielder according to the position of the fielder on the collision area and the height of the ball, a realistic baseball game can be provided.

【0075】II.作用 続いて、図11、図12に示されたフローチャートを参
照しながら、本実施例に係る画像位置判定装置の作用を
説明する。
II. Operation Next, the operation of the image position determination device according to the present embodiment will be described with reference to the flowcharts shown in FIGS.

【0076】図11は画像処理を用いたビデオゲーム機
の作用を表すフローチャートである。このフローチャー
トは、ボールがバッターによって打たれたことを条件と
して、1インタラプト(1フレーム)毎に実行されるも
のである。先ず、位置判断手段34は、打撃直後のボー
ルの移動方向、角度、速度を判断する(S1)。そし
て、仮想領域生成手段31は、ボールの速度に基づき、
コリジョンエリア43の形状(大きさ、有効角度)を決
定する。例えば、打撃直後において、ボールの速度が速
い場合には、コリジョンエリア43のエリアB1,B2
有効角度θb、エリアC1,C2の有効角度θcを大きくす
る(図8、図9)。このようにして、決定されたコリジ
ョンエリア43は、ボールから所定距離だけ前方に離れ
たグランド上に位置している。コリジョンエリア43と
ボールとの距離は、12インタラプトの時間にボール4
2が進む距離に相当する。なお、コリジョンエリア43
は、実際は画面上に表示されない。
FIG. 11 is a flowchart showing the operation of the video game machine using image processing. This flowchart is executed for each interrupt (one frame) on condition that the ball is hit by the batter. First, the position determination means 34 determines the moving direction, angle, and speed of the ball immediately after hitting (S1). Then, the virtual area generation means 31 determines, based on the speed of the ball,
The shape (size, effective angle) of the collision area 43 is determined. For example, immediately after hitting, when the speed of the ball is high, effectively the angle theta b of areas B 1, B 2 of the collision area 43, the area C 1, C 2 the effective angle theta c increases (FIG. 8, FIG. 9). The collision area 43 thus determined is located on the ground, which is separated from the ball by a predetermined distance in the forward direction. The distance between the collision area 43 and the ball is 4 at the time of 12 interrupts.
It corresponds to the distance that 2 goes. The collision area 43
Is not actually displayed on the screen.

【0077】仮想領域生成手段31は、コリジョンエリ
ア43のエリアA,B1,B2,C1,C2に野手の捕球姿
勢を対応付ける(S2)。例えば、図10に示されるよ
うに、エリアAに対しては、野手の正面で捕球を行う捕
球姿勢が対応付けられ、エリアB1,B2,C1,C2のそ
れぞれに対しては、野手の側方で捕球を行う捕球姿勢が
対応付けられる。
The virtual area generating means 31 associates the fielder's ball catching posture with the areas A, B 1 , B 2 , C 1 , C 2 of the collision area 43 (S2). For example, as shown in FIG. 10, a catching posture for catching a ball in front of a fielder is associated with the area A, and the areas B 1 , B 2 , C 1 , and C 2 are respectively associated with the catching posture. Is associated with a catching attitude of catching a ball on the side of a fielder.

【0078】続いて、判定手段32は、全員の野手の中
からボールを捕球する可能性のある(ボールに近い位置
にある)野手を選び出し、この野手とコリジョンエリア
43の中心位置との距離Dを算出する(S3)。例え
ば、図1において、野手Jが選択された場合には、野手
Jとコリジョンエリア43の中心位置との距離Dが算出
される。そして、距離Dがコリジョンエリア43の最大
半径よりも大きい場合、ずなわち、野手Jがコリジョン
エリア43の外側に位置している場合(S4でYES)
には、判定手段32はS10の処理を実行する。
Subsequently, the judging means 32 selects a fielder who is likely to catch the ball (at a position close to the ball) from all the fielders, and the distance between the fielder and the center position of the collision area 43. D is calculated (S3). For example, in FIG. 1, when the fielder J is selected, the distance D between the fielder J and the center position of the collision area 43 is calculated. If the distance D is larger than the maximum radius of the collision area 43, that is, if the fielder J is located outside the collision area 43 (YES in S4).
Then, the determination means 32 executes the process of S10.

【0079】S10において、判定手段32は、野手J
以外にボールを捕球する可能性のある野手が存在するか
否かを判断する。野手J以外にボールを捕球する可能性
のある野手Kが存在する場合(S10でNO)には、野
手Kに処理対象を移行する(S9)。そして、野手Kに
ついて、上述したS3,S4の処理を実行する。この結
果、野手Kとコリジョンエリア43の中心位置との距離
Dが、コリジョンエリア43の最大サイズよりも大きい
と判断された場合には、さらにS10が実行される。S
10において、野手J,K以外にボールを捕球する可能
性のある野手が存在しないと、判定手段32が判断した
場合(S10でYES)には、本フローチャートの処理
を終了し、図示されていないメインフローチャートに戻
る。
In S10, the judgment means 32 determines that the fielder J
Other than that, it is judged whether there is a fielder who may catch the ball. When there is a fielder K other than the fielder J who may catch the ball (NO in S10), the processing target is transferred to the fielder K (S9). Then, with respect to the fielder K, the processes of S3 and S4 described above are executed. As a result, if it is determined that the distance D between the fielder K and the center position of the collision area 43 is larger than the maximum size of the collision area 43, S10 is further executed. S
In the case where the determination means 32 determines that there is no fielder who may catch the ball other than the fielders J and K in 10 (YES in S10), the processing of this flowchart is ended, and it is illustrated. No return to the main flow chart.

【0080】この後、1フレーム毎にインタラプトが発
生し、上述した図10のフローチャートが繰り返し実行
される。ボールが打たれてから所定時間経過することに
よって、ボールは移動し、ボールの速度および高さ等も
変化する。ボール位置判断手段34は、このときのボー
ルの移動方向、角度、速度を判断し(S1)、仮想領域
生成手段31は、ボールの速度に基づき、コリジョンエ
リア43の形状(大きさ、有効角度)を改めて決定す
る。例えば、ボールの速度が遅くなった場合には、コリ
ジョンエリア43の有効角度θb、有効角度θcは小さく
なる。
After that, an interrupt occurs for each frame, and the above-mentioned flowchart of FIG. 10 is repeatedly executed. The ball moves and the speed and height of the ball also change when a predetermined time has elapsed after the ball was hit. The ball position determination means 34 determines the moving direction, angle, and speed of the ball at this time (S1), and the virtual area generation means 31 determines the shape (size, effective angle) of the collision area 43 based on the speed of the ball. Will be decided again. For example, when the speed of the ball becomes slow, the effective angle θ b and the effective angle θ c of the collision area 43 become small.

【0081】遊戯者がPAD2bを操作し、遊戯者Jが
コリジョンエリア43の中に入ったとする。すると、ス
テップS4の判断結果はNOとなり、S5以降の処理が
実行される。判定手段32は、距離DがエリアAの半径
Arよりも小さいか否か、すなわち、野手JがエリアA
内に位置するか否かを判断する(S5)。判断の結果が
NOである場合には、判定手段32は、距離Dがエリア
1,B2の半径Brよりも小さいか否かを判断する(S
6)。さらに、判断の結果がNOである場合には、距離
DがエリアC1,C2の半径Crよりも小さいか否かを判
断する(S7)。すなわち、判定手段32は、S5〜S
7において野手Jがコリジョンエリア43のいずれのエ
リアに位置するかを判断する。
It is assumed that the player operates the PAD 2b and the player J enters the collision area 43. Then, the determination result of step S4 is NO, and the processing of S5 and thereafter is executed. The determining means 32 determines whether or not the distance D is smaller than the radius Ar of the area A, that is, the fielder J is in the area A.
It is determined whether or not it is located inside (S5). If the result of the determination is NO, the determining means 32 determines whether or not the distance D is smaller than the radius Br of the areas B 1 and B 2 (S).
6). Further, when the result of the determination is NO, it is determined whether the distance D is smaller than the radius Cr of the areas C 1 and C 2 (S7). That is, the determination means 32 uses S5 to S
At 7, it is determined in which area of the collision area 43 the fielder J is located.

【0082】例えば、野手JがエリアB1に位置すると
判定手段32が判断した場合(S6でYES)には、S
8のサブルーチンが実行される。
For example, when the determination means 32 determines that the fielder J is located in the area B 1 (YES in S6), S
8 subroutine is executed.

【0083】S8のサブルーチンを図12に示す。ステ
ップS81において、画像変更手段33は、コリジョン
エリア43の中心点と野手Jとのなす角度を算出する。
そして、画像変更手段33は、算出された角度に対応す
る捕球姿勢が定義されているか否かを判断する(S8
2)。捕球姿勢が定義されていない場合(S82でN
O)には、処理が次の野手に移行された後(S86)、
図11のメインフローチャートに戻る。例えば、野手J
がコリジョンエリア43の左側(エリアB1側)に入っ
た場合には、図10中の捕球姿勢115が定義されてい
るので(S82でYES)、S83以降の処理が実行さ
れる。
FIG. 12 shows the subroutine of S8. In step S81, the image changing unit 33 calculates the angle formed by the center point of the collision area 43 and the fielder J.
Then, the image changing unit 33 determines whether or not the catching attitude corresponding to the calculated angle is defined (S8).
2). When the catching attitude is not defined (N in S82)
O), after the process is transferred to the next fielder (S86),
Returning to the main flowchart of FIG. For example, fielder J
In the case of entering the left side of the collision area 43 (the area B 1 side), the catching posture 115 in FIG. 10 is defined (YES in S82), and therefore the processes of S83 and subsequent steps are executed.

【0084】画像変更手段33は、PAD(またはステ
ィック)2bの情報、野手の向き、ボールの高さ等に基
づき、正確な捕球姿勢を決定する(S83)。そして、
このようにして決定された捕球姿勢が存在しない場合
(S84でNO)には、処理を次の野手、例えば野手K
に移した後(S86)、図11のメインフローチャート
に戻る。一方、S83において決定された捕球姿勢が存
在する場合(S84でYES)には、画面上の野手Jの
姿勢を捕球姿勢に変更し(S85)、図11のメインフ
ローチャートに戻った後に処理を終了する。このように
して、捕球を行う野手が決定された後は、図12のサブ
ルーチンは実行されず、図示されていない姿勢変更処理
が1インタラプト毎に実行される。この姿勢変更処理に
よって野手Jの姿勢は1フレーム毎に除々に変化する。
そして、野手Jが捕球動作を開始してから12インタラ
プト後に、野手Jのグラブにボールが入る。
The image changing means 33 determines the correct catching posture based on the information of the PAD (or stick) 2b, the orientation of the fielder, the height of the ball, etc. (S83). And
When the catching attitude determined in this way does not exist (NO in S84), the process is performed to the next fielder, for example, fielder K.
(S86), the process returns to the main flowchart of FIG. On the other hand, when the catching attitude determined in S83 exists (YES in S84), the attitude of the fielder J on the screen is changed to the catching attitude (S85), and the process is performed after returning to the main flowchart of FIG. To finish. In this way, after the fielder to catch the ball is determined, the subroutine of FIG. 12 is not executed, and the posture changing process (not shown) is executed for each interrupt. By this posture changing process, the posture of the fielder J gradually changes for each frame.
Then, 12 interrupts after the fielder J starts the catching motion, the ball enters the glove of the fielder J.

【0085】したがって、本実施例によれば、野手がコ
リジョンエリア43に入ってから、12インタラプト
(12フレーム)分の動作を野手に行わせることができ
るため、本物に近い捕球動作を再現することが可能とな
る。また、コリジョンエリア43上における野手の位置
に応じて捕球姿勢を変更することにより、現実感溢れる
捕球動作を実現することができる。
Therefore, according to the present embodiment, since the fielder can perform the action of 12 interrupts (12 frames) after the fielder enters the collision area 43, the ball-catching action close to the real thing is reproduced. It becomes possible. Further, by changing the ball catching posture according to the position of the fielder on the collision area 43, it is possible to realize a realistic ball catching operation.

【0086】(第2実施例)第2実施例に係るビデオゲ
ーム機は、上述した第1実施例に係るビデオゲーム機に
対して背番号の表示に関する機能が付加されたものであ
る。以下、この機能を、図13、図14を参照しながら
説明する。
(Second Embodiment) A video game machine according to the second embodiment is a video game machine according to the above-mentioned first embodiment to which a function for displaying a uniform number is added. Hereinafter, this function will be described with reference to FIGS. 13 and 14.

【0087】図14は、選手の上半身を表すポリゴンの
データ構造を説明するための図である。この図におい
て、ユニフォームは4つポリゴングループ14A、14
B、14C、14Dによって構成されている。各ポリゴ
ングループは、ユニフォームの一部を表すポリゴンおよ
び背番号の一部を表すポリゴンによって構成されてい
る。すなわち、ポリゴン14Aは、4分割されたユニフ
ォームの一部を表すポリゴン1401、および、4分割
された背番号の一部を表すポリゴン1411によって構
成されている。同様に、ポリゴングループ14Bはポリ
ゴン1402、1412によって構成され、ポリゴング
ループ14Cはポリゴン1403、1413によって構
成されている。また、ポリゴングループ14Dはポリゴ
ン1404、1414によって構成されている。
FIG. 14 is a diagram for explaining the data structure of a polygon representing the upper body of the player. In this figure, the uniforms are four polygon groups 14A, 14
B, 14C, 14D. Each polygon group is composed of a polygon representing a part of the uniform and a polygon representing a part of the uniform number. That is, the polygon 14A is composed of a polygon 1401 representing a part of a uniform divided into four parts, and a polygon 1411 representing a part of a uniform number divided into four parts. Similarly, the polygon group 14B is composed of polygons 1402 and 1412, and the polygon group 14C is composed of polygons 1403 and 1413. The polygon group 14D is composed of polygons 1404 and 1414.

【0088】ポリゴングループ14A、14B、14
C、14Dのそれぞれについて、ポリゴンの記述順位
(優先順位)が設定されている。例えば、ポリゴングル
ープ14Aにおいては、ユニフォームのポリゴン140
1、背番号のポリゴン1411の順に記述順位が定めら
れている。また、ポリゴングループ14A、14B、1
4C、14Dのそれぞれの中で最も記述順位の高いポリ
ゴンが各ポリゴングループを代表するポリゴンとして選
ばれている。すなわち、ユニフォームを表示するポリゴ
ン1401、1402、1403、1404がポリゴン
グループ14A、14B、14C、14Dを代表するポ
リゴンとしてそれぞれ選択される。
Polygon groups 14A, 14B, 14
The polygon description order (priority order) is set for each of C and 14D. For example, in the polygon group 14A, the uniform polygon 140
The description rank is set in the order of 1 and the polygon number 1411 of the uniform number. Also, polygon groups 14A, 14B, 1
The polygon having the highest description rank in each of 4C and 14D is selected as a polygon representing each polygon group. That is, the polygons 1401, 1402, 1403, and 1404 that display uniforms are selected as the polygons representing the polygon groups 14A, 14B, 14C, and 14D, respectively.

【0089】このように構成されたポリゴンデータの表
示手順を図13を参照しながら説明する。同図の(A)
に示されるように、ユニフォームを表すポリゴン140
1〜1404、背番号を表すポリゴン1411〜141
4は3次元座標系における座標によって表されている。
メインCPU101(図2)は、この3次元座標系に対
する座標変換を行ない、同図の(B)に示す2次元座標
系を生成する。座標変換は、ポリゴン1401〜140
4、1411〜1414の各頂点の座標を2次元座標系
に投影することによって行われる。
The procedure for displaying the polygon data thus configured will be described with reference to FIG. (A) in the figure
As shown in FIG.
1 to 1404, polygons 1411 to 141 representing uniform numbers
4 is represented by coordinates in a three-dimensional coordinate system.
The main CPU 101 (FIG. 2) performs coordinate conversion on this three-dimensional coordinate system to generate the two-dimensional coordinate system shown in FIG. Coordinate conversion is performed by polygons 1401 to 140.
This is performed by projecting the coordinates of the vertices of 4, 1411 to 1414 onto a two-dimensional coordinate system.

【0090】そして、メインCPU101は、ポリゴン
グループ14A、14B、14C、14Dのそれぞれを
代表するポリゴン1401、1402、1403、14
04、および、他のポリゴン(野手の胸、腕等を表すポ
リゴン)についての優先順位を判断する。例えば、野手
が正面を向いている(胸が画面側を向いている)場合に
は、背中は胸の裏側に位置する。すなわち、ポリゴング
ループ14A、14B、14C、14Dのそれぞれを代
表するポリゴン1401、1402、1403、140
4のZ座標値は胸を表すポリゴンのZ座標値よりも大き
くなる。したがって、この場合にはポリゴングループ1
4A、14B、14C、14D全体が表示されなくなる
(背中は胸の裏側に隠れる)。
Then, the main CPU 101 causes the polygons 1401, 1402, 1403, 14 representing each of the polygon groups 14A, 14B, 14C, 14D.
04 and other polygons (polygons representing fielder's chest, arms, etc.) are determined. For example, when the fielder faces the front (the chest faces the screen), the back is located behind the chest. That is, the polygons 1401, 1402, 1403, 140 representing the polygon groups 14A, 14B, 14C, 14D, respectively.
The Z coordinate value of 4 is larger than the Z coordinate value of the polygon representing the chest. Therefore, in this case, polygon group 1
The entire 4A, 14B, 14C, 14D disappears (the back is hidden behind the chest).

【0091】一方、野手が画面に対して後ろ向きである
場合には、ポリゴングループ14A、14B、14C、
14Dのそれぞれを代表するポリゴン1401、140
2、1403、1404のZ座標値は胸を表すポリゴン
のZ座標値よりも小さくなる。この場合にはポリゴング
ループ14A、14B、14C、14Dは胸のポリゴン
に優先して表示される。ポリゴングループ14A、14
B、14C、14Dのそれぞれにおいては、予め定めら
れた記述順位に従ってポリゴンが表示される。例えば、
ポリゴングループ14Aにおいては、ユニフォームを表
すポリゴン1401に重ねて背番号を表すポリゴン14
11が上書きされる。すなわち、同一ポリゴングループ
内においては、各ポリゴンのZ座標値の比較(Zソー
ト)は行われず、予め定められた記述順位に従ってポリ
ゴンが表示される。
On the other hand, when the fielder is facing backward with respect to the screen, the polygon groups 14A, 14B, 14C,
Polygons 1401 and 140 representing each of 14D
The Z coordinate values of 2, 1403, and 1404 are smaller than the Z coordinate value of the polygon representing the chest. In this case, the polygon groups 14A, 14B, 14C, 14D are displayed with priority over the chest polygons. Polygon group 14A, 14
In each of B, 14C and 14D, polygons are displayed according to a predetermined description order. For example,
In the polygon group 14A, the polygon 14 representing the uniform number is superimposed on the polygon 1401 representing the uniform.
11 is overwritten. That is, in the same polygon group, the Z coordinate values of the polygons are not compared (Z sort), and the polygons are displayed according to a predetermined description order.

【0092】上述したように、同一のポリゴングループ
内においては、各ポリゴンのZ座標値同士の比較は行わ
れず、予め定められた記述順位に従ってポリゴンが表示
される。したがって、ユニフォームおよびポリゴンのよ
うに、2つのポリゴンが密着しているような場合であっ
ても、正確な隠面処理を行うことが可能となる。例え
ば、請求項10記載の発明に示されるように、ユニフォ
ームを表すポリゴンおよび背番号を表すポリゴンを正確
に表示することができる。また、ポリゴングループの表
示順位は、最も記述順位の高いポリゴンのZ座標値に基
づき決定されるため、本実施例に係る隠面処理とZソー
ト法との互換性を確保することが可能となる。
As described above, in the same polygon group, the Z coordinate values of the polygons are not compared with each other, and the polygons are displayed according to a predetermined description order. Therefore, even when two polygons are in close contact with each other, such as a uniform and a polygon, it is possible to perform an accurate hidden surface treatment. For example, the polygon representing the uniform and the polygon representing the uniform number can be accurately displayed as shown in the invention of claim 10. Further, since the display order of the polygon group is determined based on the Z coordinate value of the polygon having the highest description order, compatibility between the hidden surface processing and the Z sort method according to this embodiment can be ensured. .

【0093】なお、本実施例はユニフォーム上の背番号
の表示に限定されることなく、競技用自動車上の番号等
に適用することも可能である。
The present embodiment is not limited to displaying the uniform number on the uniform, but can be applied to the number on the competition vehicle.

【0094】(第3実施例)本実施例に係るビデオゲー
ム機は上述した第1実施例に係るビデオゲーム機に以下
の機能が付加されたものである。図15を参照しながら
本発明の第3実施例に係るビデオゲーム機を説明する。
(Third Embodiment) The video game machine according to the present embodiment is the video game machine according to the above-mentioned first embodiment to which the following functions are added. A video game machine according to a third embodiment of the present invention will be described with reference to FIG.

【0095】図15は、画面上における球場1500の
外観図である。セカンドベースの後方には仮想的な中心
点1502が設定され、この中心点1502に対して半
径R、角度θの円弧が外野フェンス1501として表示
されている。また、この図において、符号1503はバ
ッターによって打たれたボールを示している。メインC
PU101は、中心点1502からボール1503まで
の距離rを算出するとともに、図中の角度φが角度θの
範囲にあるか否かを判断する。これら2つの条件に加え
て、ボール1503の高さが外野フェンス1501の高
さ以下である条件が満たされた場合には、メインCPU
101は、ボール1503が外野フェンス1501に衝
突したと判断する。そして、メインCPU101は、ボ
ール1503を外野フェンス1501から跳ね返す処理
を行い、ディスプレイ5上に跳ね返されたボールが映し
出される。
FIG. 15 is an external view of the stadium 1500 on the screen. A virtual center point 1502 is set behind the second base, and an arc having a radius R and an angle θ with respect to the center point 1502 is displayed as an outfield fence 1501. Further, in this figure, reference numeral 1503 indicates a ball hit by a batter. Main C
The PU 101 calculates the distance r from the center point 1502 to the ball 1503, and determines whether the angle φ in the figure is within the range of the angle θ. In addition to these two conditions, if the condition that the height of the ball 1503 is less than or equal to the height of the outfield fence 1501 is satisfied, the main CPU
101 determines that the ball 1503 has collided with the outfield fence 1501. Then, the main CPU 101 performs a process of bouncing the ball 1503 from the outfield fence 1501, and the bouncing ball is displayed on the display 5.

【0096】本実施例によれば、距離r等の演算のみに
よってボールと外野フェンスとの衝突判定を行うことが
でき、ポリゴン同士の複雑な衝突判定処理を行う必要が
ない。このため、ボールと外野フェンスとの衝突を容易
に判定することが可能となる。
According to this embodiment, it is possible to determine the collision between the ball and the outfield fence only by calculating the distance r and the like, and there is no need to perform the complicated collision determination processing between polygons. Therefore, it is possible to easily determine the collision between the ball and the outfield fence.

【0097】(他の実施例)本発明は以上の実施例に限
定されることなく、本発明の趣旨を逸脱しない範囲にお
いて変形実施可能である。例えば、野球ゲームのみなら
ずサッカーゲーム、テニスゲーム等に本発明を適用して
もよい。
(Other Embodiments) The present invention is not limited to the above embodiments, but can be modified and implemented without departing from the spirit of the present invention. For example, the present invention may be applied to not only baseball games but also soccer games, tennis games, and the like.

【0098】[0098]

【発明の効果】以上説明してきたように、本発明によれ
ば以下の効果を得ることが可能である。
As described above, according to the present invention, the following effects can be obtained.

【0099】第1に、円滑な捕球動作を表示することが
可能となる。本発明においては、ボール(第1画像)か
ら所定距離だけ離れた位置に、コリジョンエリア(仮想
領域)が生成される。そして、判定手段は、コリジョン
エリアに野手(第2画像)が位置するか否かを判定し、
野手が仮想領域に位置すると判定された場合には、画像
変更手段は野手の姿勢(形状)を変更する。例えば、野
手がコリジョンエリアに入ると、野手の姿勢は待機時の
状態から捕球時の状態へと除々に変化する。この後、ボ
ールが野手に到達した際には、野手の姿勢は捕球時の状
態になっている。本発明によれば、衝突判定用のコリジ
ョンエリアはボールから離れた位置にあるため、野手が
コリジョンエリアに入ってからボールが野手に到達する
までの時間を長くすることができる。したがって、野手
が捕球動作を開始してから捕球を完了するまでの時間
(野手の姿勢変化のための時間)を十分に確保すること
ができ、円滑な捕球動作を実現することが可能となる。
First, it becomes possible to display a smooth ball catching operation. In the present invention, a collision area (virtual area) is generated at a position separated from the ball (first image) by a predetermined distance. Then, the determination means determines whether or not the fielder (second image) is located in the collision area,
When it is determined that the fielder is located in the virtual area, the image changing unit changes the posture (shape) of the fielder. For example, when the fielder enters the collision area, the posture of the fielder gradually changes from the standby state to the ball catching state. After that, when the ball reaches the fielder, the posture of the fielder is in the state of catching the ball. According to the present invention, since the collision determination collision area is located away from the ball, it is possible to lengthen the time from when the fielder enters the collision area until the ball reaches the fielder. Therefore, it is possible to secure a sufficient time (time for changing the posture of the fielder) from the start of the fielder's ball catching operation to the completion of the ball catching operation, and a smooth ball catching operation can be realized. Becomes

【0100】また、野手の捕球姿勢は、コリジョンエリ
ア上における野手の位置に応じて変更される。例えば、
野手がコリジョンエリアの中央に位置する場合には、野
手が前向きで捕球する動作を表示し、野手がコリジョン
エリアの端部に位置する場合には、野手が横向きで捕球
する動作を表示することができる。これによって、現実
感溢れる捕球動作を表示することが可能となる。
Further, the fielder's catching posture is changed according to the position of the fielder on the collision area. For example,
When the fielder is located in the center of the collision area, the fielder shows the action of catching the ball in the forward direction, and when the fielder is at the end of the collision area, the action of the fielder in the sideways direction is displayed. be able to. This makes it possible to display a realistic catching motion.

【0101】さらに、ボールの速度および位置(高さ)
に応じてコリジョンエリアの形状を変更することによっ
ても、本物に近い捕球動作を再現することができる。例
えば、ボールの位置がグランド(基準平面画像)に対し
て高い場合には,フライを捕球する野手が表示され、ボ
ールの位置が低い場合には、ゴロを捕球する野手が表示
される。
Further, the velocity and position (height) of the ball
By changing the shape of the collision area in accordance with the above, it is possible to reproduce the ball catching operation close to the real thing. For example, when the position of the ball is higher than the ground (reference plane image), the fielder who catches the fly is displayed, and when the position of the ball is low, the fielder who catches the ground ball is displayed.

【0102】第2に、打球とフェンスとの衝突判定を簡
易な演算により行うことが可能となるる。本発明におい
ては、中心点から半径Rのフェンス(曲面画像)が想定
され、ボールから中心点までの距離rが適宜算出され
る。そして、距離rが距離Rに達した場合には、ボール
がフェンスに衝突したと判定することによって、衝突判
定処理を容易に行うことが可能である。
Secondly, it becomes possible to judge the collision between the hit ball and the fence by a simple calculation. In the present invention, a fence (curved surface image) having a radius R from the center point is assumed, and the distance r from the ball to the center point is appropriately calculated. Then, when the distance r reaches the distance R, it is possible to easily perform the collision determination process by determining that the ball has collided with the fence.

【0103】第3に、互いに密着したポリゴンの隠面処
理を正確に行うことが可能となる。本発明によれば、同
一のポリゴングループ内においては、各ポリゴンのZ座
標値同士の比較は行われず、予め定められた記述順位に
従ってポリゴンが表示される。したがって、ユニフォー
ムおよびポリゴンのように、2つのポリゴンが密着して
いるような場合であっても、正確な隠面処理を行うこと
が可能となる。また、ポリゴングループの表示順位は、
他のポリゴンの表示順位と同様に、Zソート法等のアル
ゴリズムによって決定されるため、本発明に係る隠面処
理と従来の隠面処理(例えばZソート法)との互換性を
確保することが可能となる。
Thirdly, it becomes possible to accurately perform the hidden surface processing of polygons that are in close contact with each other. According to the present invention, in the same polygon group, the Z coordinate values of the polygons are not compared with each other, and the polygons are displayed according to a predetermined description order. Therefore, even when two polygons are in close contact with each other, such as a uniform and a polygon, it is possible to perform an accurate hidden surface treatment. Also, the display order of polygon groups is
Similar to the display order of other polygons, it is determined by an algorithm such as the Z sort method, so that compatibility between the hidden surface processing according to the present invention and the conventional hidden surface processing (for example, the Z sort method) can be ensured. It will be possible.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1実施例に係るビデオゲーム機の外
観図である。
FIG. 1 is an external view of a video game machine according to a first embodiment of the present invention.

【図2】本発明の第1実施例に係るビデオゲーム機の概
略構成図である。
FIG. 2 is a schematic configuration diagram of a video game machine according to the first embodiment of the present invention.

【図3】本発明の第1実施例に係る画像処理装置の機能
ブロック図である。
FIG. 3 is a functional block diagram of the image processing apparatus according to the first embodiment of the present invention.

【図4】本発明の第1実施例に係る野球ゲームの画面を
表す図である。
FIG. 4 is a diagram showing a screen of a baseball game according to the first embodiment of the present invention.

【図5】本発明の第1実施例に係るコリジョンエリア、
ボール、および、野手の位置関係を表す図である。
FIG. 5 is a collision area according to the first embodiment of the present invention,
It is a figure showing a ball and a fielder's physical relationship.

【図6】本発明の第1実施例に係るコリジョンエリアに
野手が入った状態を表す図である。
FIG. 6 is a diagram showing a state in which a fielder has entered the collision area according to the first embodiment of the present invention.

【図7】本発明の第1実施例に係るコリジョンエリアの
各エリアと捕球姿勢との対応を示す図である。
FIG. 7 is a diagram showing a correspondence between each area of the collision areas and the catching attitude according to the first embodiment of the present invention.

【図8】本発明の第1実施例に係るコリジョンエリアの
詳細を説明するための図である。
FIG. 8 is a diagram for explaining details of a collision area according to the first embodiment of the present invention.

【図9】本発明の第1実施例に係るコリジョンエリアの
形状の変化を説明するための図である。
FIG. 9 is a diagram for explaining changes in the shape of the collision area according to the first embodiment of the present invention.

【図10】本発明の第1実施例に係る野手の捕球姿勢を
説明するための図である。
FIG. 10 is a diagram for explaining a ball catching posture of a fielder according to the first embodiment of the present invention.

【図11】本発明の第1実施例に係るビデオゲーム機の
作用を表すフローチャートである。
FIG. 11 is a flowchart showing the operation of the video game machine according to the first embodiment of the present invention.

【図12】本発明の第1実施例に係るビデオゲーム機の
作用を表すフローチャートである。
FIG. 12 is a flowchart showing the operation of the video game machine according to the first embodiment of the present invention.

【図13】本発明の第2実施例に係るビデオゲーム機を
説明するための図である。
FIG. 13 is a view for explaining the video game machine according to the second embodiment of the present invention.

【図14】本発明の第2実施例に係るビデオゲーム機の
作用を表すフローチャートである。
FIG. 14 is a flowchart showing the operation of the video game machine according to the second embodiment of the present invention.

【図15】本発明の第3実施例に係るビデオゲーム機を
説明するための図である。
FIG. 15 is a diagram for explaining a video game machine according to a third embodiment of the present invention.

【符号の説明】[Explanation of symbols]

31 仮想領域生成手段 32 判定手段 33 画像変更手段 34 位置判断手段 42 ボール(第1画像) 43 コリジョンエリア(仮想領域) 71〜75、111〜125、J、K 野手(第2画
像) 101 メインCPU(座標変換手段、隠面処理手段) 14A、14B、14C、14D ポリゴングループ 1501 外野フェンス(曲面画像)
31 virtual area generation means 32 determination means 33 image change means 34 position determination means 42 ball (first image) 43 collision area (virtual area) 71-75, 111-125, J, K fielder (second image) 101 main CPU (Coordinate conversion means, hidden surface processing means) 14A, 14B, 14C, 14D Polygon group 1501 Outfield fence (curved surface image)

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成14年6月12日(2002.6.1
2)
[Submission date] June 12, 2002 (2002.6.1)
2)

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】特許請求の範囲[Name of item to be amended] Claims

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【特許請求の範囲】[Claims]

【請求項】 中心点から半径Rの曲面画像と第1画像
との衝突判定を行う画像処理装置において、上記中心点
から第1画像までの距離rを算出し、距離rが距離Rに
達した場合には、第1画像が曲面画像に衝突したと判定
する画像処理装置。
1. An image processing apparatus that determines a collision between a curved surface image having a radius R from a center point and a first image, calculates a distance r from the center point to the first image, and the distance r reaches the distance R. If so, the image processing apparatus that determines that the first image has collided with the curved image.

【請求項】 上記曲面画像は野球のフェンスを表し、
上記第1画像はボールを表す請求項記載の画像処理装
置。
2. The curved surface image represents a baseball fence,
The first image is an image processing apparatus according to claim 1, wherein represents a ball.

【請求項】 中心点から半径Rの曲面画像と第1画像
との衝突判定を行う画像処理方法において、上記中心点
から第1画像までの距離rを算出し、距離rが距離Rに
達した場合には、第1画像が曲面画像に衝突したと判定
する画像処理方法。
4. An image processing method for determining a collision between a curved surface image having a radius R from a center point and a first image, wherein a distance r from the center point to the first image is calculated, and the distance r reaches the distance R. If so, an image processing method for determining that the first image has collided with the curved image.

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2C001 AA04 AA05 BA02 BA05 BA06 BC05 BC08 CA01 CB01 CB04 CB06 CC02 5B050 AA10 BA07 BA08 BA09 BA12 CA07 EA04 EA07 EA13 EA24 EA29 FA02 5B080 AA13 CA01 GA02    ─────────────────────────────────────────────────── ─── Continued front page    F-term (reference) 2C001 AA04 AA05 BA02 BA05 BA06                       BC05 BC08 CA01 CB01 CB04                       CB06 CC02                 5B050 AA10 BA07 BA08 BA09 BA12                       CA07 EA04 EA07 EA13 EA24                       EA29 FA02                 5B080 AA13 CA01 GA02

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 第1画像および第2画像が衝突すること
を判定した場合に、第2画像の形状を変更する画像処理
装置において、第1画像から、所定時間内に第1画像が
移動し得る距離だけ離れた位置に、仮想領域を生成する
仮想領域生成手段と、仮想領域に第2画像が位置するか
否かを判定する判定手段と、第2画像が仮想領域に位置
すると判定された場合には、第2画像の形状を変更する
画像変更手段とを備えた画像処理装置。
1. In an image processing apparatus that changes the shape of a second image when it is determined that the first image and the second image collide with each other, the first image moves within a predetermined time from the first image. It is determined that the virtual area generation unit that generates the virtual area is located at a position that is distant by the obtained distance, the determination unit that determines whether the second image is located in the virtual area, and the second image is located in the virtual area. In this case, the image processing apparatus includes an image changing unit that changes the shape of the second image.
【請求項2】 第1画像の移動速度および位置を判断す
る位置判断手段を備え、上記仮想領域生成手段は、位置
判断手段による判断結果に基づき上記仮想領域の形状を
変更する請求項1記載の画像処理装置。
2. The position determining means for determining the moving speed and the position of the first image, wherein the virtual area generating means changes the shape of the virtual area based on the result of the determination by the position determining means. Image processing device.
【請求項3】 上記仮想領域生成手段は、上記第1画像
の速度の低下に伴い、上記仮想領域の面積を減少させる
請求項2記載の画像処理装置。
3. The image processing apparatus according to claim 2, wherein the virtual area generation means reduces the area of the virtual area as the speed of the first image decreases.
【請求項4】 上記仮想領域は、上記第1画像の移動方
向に対して直角方向に延出した形状をなす請求項1乃至
請求項3のいずれか一項記載の画像処理装置。
4. The image processing apparatus according to claim 1, wherein the virtual region has a shape extending in a direction perpendicular to a moving direction of the first image.
【請求項5】 上記画像変更手段は、上記仮想領域上に
おける第1画像の位置に対応した形状の第2画像を生成
する請求項1記載の画像処理装置。
5. The image processing apparatus according to claim 1, wherein the image changing unit generates a second image having a shape corresponding to the position of the first image on the virtual area.
【請求項6】 上記画像変更手段は、基準平面画像に対
する上記第1画像の高さに対応した形状の第2画像を生
成する請求項1記載の画像処理装置。
6. The image processing apparatus according to claim 1, wherein the image changing unit generates a second image having a shape corresponding to a height of the first image with respect to a reference plane image.
【請求項7】 上記第1画像は野球のボールを表し、上
記第2画像は野球の野手を表すとともに、上記画像変更
手段は捕球動作に応じて野手の姿勢を除々に変更する請
求項1乃至請求項6のいずれか一項記載の画像処理装
置。
7. The first image represents a baseball ball, the second image represents a baseball fielder, and the image changing means gradually changes the posture of the fielder according to a catching operation. The image processing device according to claim 6.
【請求項8】 3次元座標系で表された複数のポリゴン
を2次元座標系に投影する座標変換手段と、2次元座標
系に投影された上記複数のポリゴン同士の表示順位を、
表示画面に対して奥行き方向の座標値の大小に基づき決
定するとともに、この表示順位に従いポリゴンを優先的
に表示する隠面処理手段とを備えた画像処理装置におい
て、上記隠面処理手段は、記述順位が予め定められた複
数のポリゴンよりなるポリゴングループの表示順位を当
該ポリゴングループを構成する一のポリゴンの奥行き方
向の座標値に基づき決定するとともに、当該ポリゴング
ループを表示すると決定した場合に限り、当該ポリゴン
グループを構成するそれぞれのポリゴンを上記記述順位
に基づき優先的に表示する画像処理装置。
8. A coordinate conversion means for projecting a plurality of polygons represented by a three-dimensional coordinate system onto a two-dimensional coordinate system and a display order of the plurality of polygons projected on the two-dimensional coordinate system.
In the image processing device, which is determined based on the magnitude of coordinate values in the depth direction with respect to the display screen, and which has a hidden surface processing unit that preferentially displays polygons according to this display order, the hidden surface processing unit is Only when it is determined that the display order of a polygon group including a plurality of polygons whose order is predetermined is determined based on the coordinate values in the depth direction of one polygon that constitutes the polygon group, and the polygon group is displayed. An image processing apparatus for preferentially displaying each polygon constituting the polygon group based on the above described order of description.
【請求項9】 上記隠面処理手段は、上記記述順位の最
も高いポリゴンの奥行き方向座標値に基づき上記ポリゴ
ングループの表示順位を決定する請求項8記載の画像処
理装置。
9. The image processing apparatus according to claim 8, wherein the hidden surface processing means determines the display order of the polygon group based on the coordinate values in the depth direction of the polygon having the highest description order.
【請求項10】 上記一のポリゴンは背番号を表し、上
記他のポリゴンはユニフォームを表す請求項8記載の画
像処理装置。
10. The image processing apparatus according to claim 8, wherein the one polygon represents a uniform number, and the other polygon represents a uniform.
【請求項11】 中心点から半径Rの曲面画像と第1画
像との衝突判定を行う画像処理装置において、上記中心
点から第1画像までの距離rを算出し、距離rが距離R
に達した場合には、第1画像が曲面画像に衝突したと判
定する画像処理装置。
11. An image processing apparatus that determines a collision between a curved surface image having a radius R from a center point and a first image, calculates a distance r from the center point to the first image, and the distance r is the distance R.
The image processing apparatus that determines that the first image has collided with the curved surface image when the first image has reached.
【請求項12】 上記曲面画像は野球のフェンスを表
し、上記第1画像はボールを表す請求項11記載の画像
処理装置。
12. The image processing apparatus according to claim 11, wherein the curved surface image represents a baseball fence, and the first image represents a ball.
【請求項13】 第1画像および第2画像が衝突するこ
とを判定した場合に、第2画像の形状を変更する画像処
理方法において、第1画像から、所定時間内に第1画像
が移動し得る距離だけ離れた位置に、仮想領域を生成
し、仮想領域に第2画像が位置するか否かを判定し、第
2画像が仮想領域に位置すると判定された場合には、第
2画像の形状を変更する画像処理方法。
13. In an image processing method for changing the shape of a second image when it is determined that the first image and the second image collide with each other, the first image moves within a predetermined time from the first image. A virtual area is generated at a position distant by the distance to be obtained, and it is determined whether or not the second image is located in the virtual area. If it is determined that the second image is located in the virtual area, Image processing method to change the shape.
【請求項14】 上記第1画像の移動速度および位置を
判断し、この移動速度および位置に基づき上記仮想領域
の形状を変更する請求項12記載の画像処理方法。
14. The image processing method according to claim 12, wherein the moving speed and the position of the first image are determined, and the shape of the virtual region is changed based on the moving speed and the position.
【請求項15】 3次元座標系で表された複数のポリゴ
ンを2次元座標系に投影し、2次元座標系に投影された
上記複数のポリゴン同士の表示順位を、表示画面に対し
て奥行き方向の座標値の大小に基づき決定するととも
に、この表示順位に従いポリゴンを優先的に表示する画
像処理方法において、記述順位が予め定められた複数の
ポリゴンよりなるポリゴングループの表示順位を当該ポ
リゴングループを構成する一のポリゴンの奥行き方向の
座標値に基づき決定するとともに、当該ポリゴングルー
プを表示すると決定した場合に限り、当該ポリゴングル
ープを構成するそれぞれのポリゴンを上記記述順位に基
づき優先的に表示する画像処理方法。
15. A plurality of polygons represented by a three-dimensional coordinate system are projected on a two-dimensional coordinate system, and the display order of the plurality of polygons projected on the two-dimensional coordinate system is the depth direction with respect to the display screen. In the image processing method of determining the size of the coordinate values of the polygons, and displaying the polygons preferentially according to the display order, the display order of the polygon group including a plurality of polygons whose description order is predetermined is configured as the polygon group. The image processing that preferentially displays the respective polygons forming the polygon group based on the above description order, when the polygon group is determined based on the coordinate value of the polygon in the depth direction and only when the polygon group is displayed. Method.
【請求項16】 中心点から半径Rの曲面画像と第1画
像との衝突判定を行う画像処理方法において、上記中心
点から第1画像までの距離rを算出し、距離rが距離R
に達した場合には、第1画像が曲面画像に衝突したと判
定する画像処理方法。
16. An image processing method for determining a collision between a curved surface image having a radius R from a center point and a first image, wherein a distance r from the center point to the first image is calculated, and the distance r is the distance R.
Image processing method that determines that the first image has collided with the curved surface image when the first image has reached.
JP2002137674A 2002-05-13 2002-05-13 Image processor and image processing method Pending JP2003030685A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002137674A JP2003030685A (en) 2002-05-13 2002-05-13 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002137674A JP2003030685A (en) 2002-05-13 2002-05-13 Image processor and image processing method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001103937A Division JP3687558B2 (en) 2001-04-02 2001-04-02 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2003030685A true JP2003030685A (en) 2003-01-31

Family

ID=19194516

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002137674A Pending JP2003030685A (en) 2002-05-13 2002-05-13 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2003030685A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013135880A (en) * 2013-02-25 2013-07-11 Konami Digital Entertainment Co Ltd Game device, method for controlling the same, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013135880A (en) * 2013-02-25 2013-07-11 Konami Digital Entertainment Co Ltd Game device, method for controlling the same, and program

Similar Documents

Publication Publication Date Title
JP3239683B2 (en) Image processing apparatus and image processing method
EP0842682B1 (en) Image processor for games
JP4794343B2 (en) Image generation system, program, and information storage medium
JP3927821B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP4883759B2 (en) Program, information storage medium, and image generation system
JP3747050B1 (en) Program, information storage medium, and image generation system
JP2009000383A (en) Program, information recording medium and image generating system
KR100281837B1 (en) Image processing apparatus and game device having same
WO2008016064A1 (en) Game device, object display method in game device, and display program
JP2003071134A (en) Game information, information storage medium, and game device
JP2003047766A (en) Game information, information storage medium and game device
JP3786671B1 (en) Program, information storage medium, and image generation system
JP3594181B2 (en) GAME DEVICE, GAME CONTROL METHOD, RECORDING MEDIUM
JP2010233752A (en) Program, information storage medium, and image generation system
JP3533393B1 (en) GAME PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP3687558B2 (en) Image processing apparatus and image processing method
JP2003030685A (en) Image processor and image processing method
JP3686069B2 (en) Program, information storage medium, and image generation system
JP5117474B2 (en) GAME DEVICE, GAME CONTROL PROGRAM, AND GAME CONTROL METHOD
JP4097235B2 (en) Image generating apparatus and information storage medium
JP3920902B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2003275462A (en) Computer-readable recording medium recording program for processing cursor display of ball game type video game, computer program, ball game type video game processor and ball game type video game processing method
JP4159101B2 (en) Image generating apparatus and information storage medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050707

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051216