JP3912658B2 - Image processing apparatus, image processing method, game apparatus using the same, and storage medium - Google Patents

Image processing apparatus, image processing method, game apparatus using the same, and storage medium Download PDF

Info

Publication number
JP3912658B2
JP3912658B2 JP2001401404A JP2001401404A JP3912658B2 JP 3912658 B2 JP3912658 B2 JP 3912658B2 JP 2001401404 A JP2001401404 A JP 2001401404A JP 2001401404 A JP2001401404 A JP 2001401404A JP 3912658 B2 JP3912658 B2 JP 3912658B2
Authority
JP
Japan
Prior art keywords
player
display object
display
virtual
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001401404A
Other languages
Japanese (ja)
Other versions
JP2002260015A (en
Inventor
敏 三船
昌紀 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sega Corp
Original Assignee
Sega Corp
Sega Games Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sega Corp, Sega Games Co Ltd filed Critical Sega Corp
Priority to JP2001401404A priority Critical patent/JP3912658B2/en
Publication of JP2002260015A publication Critical patent/JP2002260015A/en
Application granted granted Critical
Publication of JP3912658B2 publication Critical patent/JP3912658B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

【0001】
画像処理装置、画像処理方法及びこれを用いたゲーム装置並びに記憶媒体技術分野 本発明は、表示対象体を複数の要素(例えばポリゴン)から構成して表示する画像処理装置、画像処理方法及びこれを用いたゲーム機並びに記憶媒体に関する。
【0002】
背景技術
近年のコンピュータグラフィックス技術の発達に伴い、3次元表示可能なゲーム装置やシミュレーンョン装置などの画像処理装置が提供されている。このため、表示手段上の表示対象体(キャラクタ)をポリゴンで構成している。ここで、ポリゴンとは、複数の頂点の集合からなる多角形(主として3角形又は4角形)のことをいっている。
【0003】
ところで、従来の画像処理装置にあっては、その中央演算処理装置(CPU)で取り扱えるポリゴン数に制限があった。そのため、視点より遠くのキャラクタは少ないポリゴンで構成し、近くのキャラクタは微細な模様や形状を実現させる必要から多くのポリゴンで構成していた(第1の従来例)。
【0004】
また、例えば、サッカーゲームにおいて、テクスチャマッピングを施したポリゴンデータでキャラクタを表現することがあるが、この場合、チームのユニフォームごとに背番号を書き込んだテクスチャーを人数分だけ用意していた(第2の従来例)。
【0005】
さらにまた、従来の画像処理装置の場合、表示手段のスクリーン上に表示するキャラクタは、ある視点からの遠近に関係なく一様の明度で表示されていた(第3の従来例)。
【0006】
加えて、従来の画像処理装置においてポリゴンで構成したキャラクタを表示する場合、3次元座標系に仮想の視点(カメラ)を用意し、これからキャラクタを見た映像を表示手段に表示するようにしている。また、キャラクタを3次元的に表示するに当たり、その多様化を図るために例えば、前述の「バーチャファイター(TM)」のように複数のカメラを用意し、これらを切り換えて表示手段に表示していた(第4の従来例)。
【0007】
また、サッカーゲームのゲーム装置(画像処理装置)の場合、特定表示対象体であるボールを、関連表示対象体である選手がターンしながら防御して次の動作に移行させるときに、これらの位置が一致するように操作端末を操作する必要があった(第5の従来例)。
【0008】
さらにまた、従来のゲーム装置の場合、操作端末の一般的な操作内容を、事前に筐体に表示していた(第6の従来例)。
【0009】
ところで、上記第1の従来例の場合には、既に説明したように、視点から遠く離れているキャラクタは、近くのキャラクタに比べて常に少ないポリゴンで構成されている。したがって、例えばサッカーゲームにおいてパスを受けた選手(キャラクタ)に対し遊技者の注目が向いた場合、この選手が遠く離れたポリゴン数が少ないキャラクタだと、この選手は単調な形状、模様でしか表現されない。このようなゲーム装置では遊技者の注目度が落ち、いわゆるゲームとして微妙な味付けに欠け、このようなケーム装置は顧客吸引力にとぼしいものとなる。
【0010】
また、上記第2の従来例の場合、全ての選手について、このようなテクスチャーマッピングがされたデータを用意しなければならない。一般にポリゴンの優先順位はどちらがより奥にいるか(Z軸方向)によってつけられるが、この場合は、ユニフォームと背番号のどちらも奥行きとしては同じ位置にいるので、単純な重ねあわせでは、確実に背番号がユニフォームの上にくるようにすることができない。背番号がいつも上にくるようにフラグコントロールすると、例えば選手が正面を向いて背番号が見えないときも、背番号が一番上にきてしまう。したがって、データ量が増えるのを覚悟して、背番号を書き込んだユニフォームのテクスチャーを用意せざるを得なかった。このことはCPUに大きな計算負荷を与えることになり、CPUの処理が遅れてゲームの臨場感が薄れる虞れがある。一方、 大きな計算負荷を処理可能なCPUを採用するとコスト高となる。
【0011】
さらに、上記第3の従来例にあっては、キャラクタの遠近に係わらず一様の明度で表示しているため、遠近感を遊技者に持たせる上で不十分であった。
【0012】
加えて、上記第4の従来例にあっては、複数のカメラがあるとしても、それらの位置が固定されているために、映像表現の多様化が十分達成されていなかった。特にサッカーゲームのようにボールを支配する選手が刻々かわり、これにより、競技の優劣が一瞬にして変わってしまうようなものでは、視点が固定化されると競技の全容を効果的に表示することができないという欠点があった。
【0013】
また、上記第5の従来例の場合、選手がボールを効果的に支配するためには高度な操作を必要とする。このため遊技者は、ゲームの操作手段を十分に習熟する必要がある。未熟な遊技者はゲーム上で選手が旨くボールを支配できるように制御することが困難であった。
【0014】
さらにまた、上記第6の従来例にあっては、全ての操作内容を筐体に記載することは内容によっては無理であるし、仮に全ての操作内容を筐体に表示したとしても遊技側がこれを事前に読んで記憶することは困難であった。
【0015】
要するに、上記各従来例はいずれも、キャラクタの表現上で興味に乏しく、しかも操作性との関連でキャラクタの表現が不十分であった。
【0016】
そこで、本発明の目的は、上記各従来例の表示対象体(キャラクタ、背景など)を含む表示画面を豊かに表現し、かつ操作に関連して表示対象体を多様に制御できる画像処理装置を提供することにある。
【0017】
また、本発明の第2の目的は、視点から遠く離れたところにある表示対象体であっても、遊技者の注目が注がれるものについては微細な形状及び模様を実現できるようにした画像処理装置を提供することにある。
【0018】
さらに、本発明の第3の目的は、少ない計算負荷で多くの表示対象体を表示できる画像処理装置を提供することにある。
加えて、本発明の第4の目的は、表示画面の遠近感表現を効果的に実現できる画像処理装置を提供することにある。
【0019】
また、本発明の第5の目的は、画像処理の結果の全容を効果的に表示することが可能な画像処理装置を提供することにある。
【0020】
さらにまた、本発明の第6の目的は、特定表示対象体に対して特別の習熟を要することなく関連表示対象体を円滑に移動表示及び制御可能な画像処理装置を提供することにある。
【0021】
加えて、本発明の第7の目的は、筐体に必要最小限な説明のみを付し、なおかつその他の操作端末の操作方法を理解しやすいように表示できるゲーム装置を提供することにある。
発明の開示
この発明は、表示対象体を複数の要素から構成して表現する画像処理装置において、 視点との距離に応じて前記要素の数を変えつつ、3次元空間にある表示対象体を前記視点に基づいて平面上に投影する画像処理手段と、前記視点と離れている表示対象体の属性が変化したときに、前記表示対象体を構成する要素の数を変化させる要素数変化手段とを備えるものである。
【0022】
この発明は、前記画像処理手段は、前記視点と前記表示対象体とが離れるにつれ前記要素の数を減らすものである。この発明は、前記要素数変化手段は、前記表示対象体が操作の対象になったときに属性が変化したと判断して処理するものである。
【0023】
この発明は、前記要素数変化手段は、前記表示対象体の要素数を増加させるかどうか判定する要素数増加必要判定手段と、前記表示対象体が操作の対象になったかどうか判定する属性判定手段と、前記属性判定手段の判定結果に基づき必要な要素の数を算出する要素数算出手段とを備えるものである。
【0024】
この発明は、前記表示対象体は、3次元空間において複数の第1の表示対象体と前記複数の第1の表示対象体により扱われる第2の表示対象体とを含み、前記複数の第1の表示対象体が前記第2の表示対象体の支配権を競う場合において、前記属性判定手段は、前記複数の第1の表示対象体のうちで、前記第2の表示対象体の支配権を得たものを、操作の対象になったと判定するものである。
【0025】
この発明は、前記属性判定手段は、前記複数の第1の表示対象体と前記第2の表示対象体との距離に基づき順位をそれぞれ決める順位決定手段と、前記複数の第1の表示対象体のうちで最も順位の高いものの移動方向を求め、この第1の表示対象体が前記第2の表示対象体に向かって移動しているときに前記第1の表示対象体に支配権を与える第1の支配権付与手段と、前記第1の表示対象体が前記第2の表示対象体に向かって移動していないときに、前記複数の第1の表示対象体のうちで次の順位のものに支配権を付与する第2の支配権付与手段とを備えるものである。
【0026】
この発明は、さらに、支配権をもつ表示対象体に印を付す属性表示手段を備えるものである。この発明は、前記表示対象体に対する操作信号を出力する操作手段と、前記表示対象体を表示する表示手段とを備えるものである。
【0027】
この発明は、表示対象体を複数の要素から構成して表現する画像処理方法において、 視点との距離に応じて前記要素の数を変えつつ、3次元空間にある表示対象体を前記視点に基づいて平面上に投影する画像処理を実行する画像処理ステップと、前記視点と離れている表示対象体の属性が変化したときに、前記表示対象体を構成する要素の数を変化させる要素数変化ステップとを備えるものである。
【0028】
この発明では、例えば、ある視点から遠くにあるように表示手段に表示されている表示対象体であっても、操作手段からの操作信号を基に操作対象になったときに、当該表示対象体の要素(例えばポリゴン)の数を増加させる。これにより、遊技者の注目が向かう表示対象体はその時点より微細に表現される。また、このように注目されている表示対象体のポリゴン数を増加させているので、表示対象体を含む表示画面を表現豊かなものとなり、かつ操作に関連して表示対象体を多様な状況で制御することが可能となる。
【0029】
この発明は、表示対象体に互いに異なる複数の要素を付して表現する画像処理装置において、 前記表示対象体が複数あるときに、これら複数の表示対象体の一部又は全部を共通の要素で表現する共通要素適用手段と、前記共通要素適用手段により表現された複数の表示対象体に対して互いに異なる複数の個別的要素をそれぞれ適用して前記表示対象体を表現する個別要素適用手段と、前記共通要素適用手段及び前記個別要素適用手段により表現された表示対象体を視点に基づいて平面上に投影する画像処理手段とを備えるものである。
【0030】
この発明は、前記共通要素適用手段により表現された表示対象体は一部が欠けており、この欠けている部分に前記個別的要素がはめ込まれるものである。
【0031】
この発明は、複数の前記個別的要素は、互いに異なる模様をもつものである。この発明は、複数の前記個別的要素は、互いに異なる形状をもつものである。この発明は、前記個別要素適用手段は、複数の種類の個別的要素を重ねて適用するものである。この発明は、前記個別的要素の種類を、下地要素、模様要素、及び、番号要素とするものである。
【0032】
この発明は、前記表示対象体に対する操作信号を出力する操作手段と、前記表示対象体を表示する表示手段とを備えるものである。
【0033】
この発明は、表示対象体に互いに異なる複数の要素を付して表現する画像処理方法において、 前記表示対象体が複数あるときに、これら複数の表示対象体の一部又は全部を共通の要素で表現する共通要素適用ステップと、前記共通要素適用ステップにより表現された複数の表示対象体に対して互いに異なる複数の個別的要素をそれぞれ適用して前記表示対象体を表現する個別要素適用ステップと、前記共通要素適用ステップ及び前記個別要素適用ステップにより表現された表示対象体を視点に基づいて平面上に投影する画像処理を実行する画像処理ステップとを備えるものである。
【0034】
この発明によれば、表示対象体間で異なる模様を有している場合において、その異なる模様の部分について、それぞれの模様が付された要素(例えはポリゴン)を複数用意しておく。さらに、この模様の部分以外の表示対象体部分の要素の少なくとも一部を共通化しておく。両者を組み合わせて、模様の異なる表示対象体を完成させることにより、少ないポリゴンデータで異なる模様を有する複数の表示対象体の画像を作ることができる。したがって、この発明によれば、少ない計算負荷で多くの表示対象体を表示できる。
【0035】
この発明は、表示対象体を複数の要素から構成して表現する画像処理装置において、 3次元空間にある表示対象体を視点に基づいて平面上に投影する画像処理手段と、前記表示対象体の状況に応じた色彩を付与する色彩付与手段とを備えるものである。
【0036】
この発明は、前記色彩付与手段は、前記表示対象体を構成する要素の数に応じて色彩を変化させるものである。この発明は、前記色彩付与手段は、前記表示対象体と前記視点との距離に応じて色彩を変化させるものである。この発明は、前記色彩付与手段は、前記表示対象体の背景の色彩に応じて色彩を変化させるものである。この発明は、前記色彩付与手段は、色彩の明度を変化させるものである。この発明は、前記表示対象体に対する操作信号を出力する操作手段と、前記表示対象体を表示する表示手段とを備えるものである。
【0037】
この発明は、表示対象体を複数の要素から構成して表現する画像処理方法において、 3次元空間にある表示対象体を視点に基づいて平面上に投影する画像処理ステップと、前記表示対象体の状況に応じた色彩を付与する色彩付与ステップとを備えるものである。
【0038】
この発明によれば、3次元座標系にある表示対象体をある視点に基づいて表示手段上に表示する。このとき、この表示対象体の状況に応じて付与する色彩を変化させる。例えば、この表示手段における視点に近接した位置にある表示対象体を、遠くにある表示対象体より明度をもって表示する。このため、遊技者に強く遠近感を持たせることができ、表示対象体を含む表示画面を表現豊かなものとすることができ、加えて、表現豊な表示画面となるため操作に関連して表示対象体を多様な状況で制御することが容易となる。
【0039】
この発明は、表示対象体を複数の要素から構成して表現する画像処理装置において、 3次元空間にある表示対象体を視点に基づいて平面上に投影する画像処理手段と、前記視点の位置を移動する視点位置変更手段とを備えるものである。
【0040】
この発明は、前記視点位置変更手段は、前記表示対象体が注目されるときに、前記視点を前記表示対象体に近づけるものである。
【0041】
この発明は、前記視点位置変更手段は、前記視点を3次元座標系の少なくとも2つの座標軸に対して移動するものである。
【0042】
この発明は、前記表示対象体に対する操作信号を出力する操作手段と、前記表示対象体を表示する表示手段とを備えるものである。
【0043】
この発明は、表示対象体を複数の要素から構成して表現する画像処理方法において、 3次元空間にある表示対象体を視点に基づいて平面上に投影する画像処理ステップと、前記視点の位置を移動する視点位置変更ステップとを備えるものである。
【0044】
この発明によれば、画像処理手段には視点位置変更手段が設けられていて、この視点位置変更手段により、例えば、3次元座標のうち少なくとも2つの座標軸に沿って視点を移動でき、ある表示対象体に対して視点に角度を与えることができる。例えば、ある表示対象体をサッカーゲームにおけるグラウンド(背景)だとすると、2方向への視点の移動により、グランドに対して進退する位置とグラウンドに対して角度を変える位置の実現が可能となる。これにより、競技の全容を競技の内容に応じて臨機応変に表示することができ、遊技者により高い程度の臨場感を提供することができる。また、これにより、表示対象体を含む表示画面を表現豊かなものとすることができ、加えて、表現豊な表示画面となるため操作に関連して表示対象体を多様な状況で制御することが容易となる。
【0045】
この発明は、表示対象体を複数の要素から構成して表現するとともに、前記表示対象体に関連する関連表示対象体を表現する画像処理装置において、 前記表示対象体に対して与えられる複数の形態を記憶する記憶手段と、前記記憶手段の複数の形態を前記表示対象体に次々に表現する形態処理手段と、前記表示対象体の形態を前記関連表示対象体との関係に基づき補正する補正手段と、前記補正手段により形態が補正された表示対象体を視点に基づいて平面上に投影する画像処理手段とを備えるものである。
【0046】
この発明は、前記補正手段は、前記表示対象体及び前記関連表示対象体の移動先位置を演算する第1の手段と、前記関連表示対象体の移動先位置と前記表示対象体の移動先位置とが適合するように、前記記憶手段から読み出された形態を制御する第2の手段とを備えるものである。
【0047】
この発明は、前記補正手段は、前記表示対象体の位置あるいは移動方向を補正するものである。
【0048】
この発明は、前記表示対象体に対する操作信号を出力する操作手段と、前記表示対象体を表示する表示手段とを備えるものである。
【0049】
この発明は、表示対象体を複数の要素から構成して表現するとともに、前記表示対象体に関連する関連表示対象体を表現する画像処理方法において、 前記表示対象体に対してあらかじめ与えられる複数の形態を前記表示対象体に次々に表現する形態処理ステップと、前記表示対象体の形態を前記関連表示対象体との関係に基づき補正する補正ステップと、前記補正ステップにより形態が補正された表示対象体を視点に基づいて平面上に投影する画像処理ステップとを備えるものである。
【0050】
この発明によれば、特定表示対象体の移動先を演算し、この演算結果に関連表示対象体を適合させるようにし、好適には一致するように関連表示体の一連の動きが再現するようにこの関連表示体の動き、例えば動きの中の各場面の画面上における移動量を調整する。これにより、特定表示体の移動先位置と関連表示体の移動先位置とが一致する。したがって、関連表示体が特定表示体に対して円滑に動くような制御が実現できる。したがって、このように操作に関連して表示対象体を多様な状況で制御することが容易となる。
【0051】
この発明は、表示対象体を操作するための操作手段と、この操作手段からの操作信号に応じて画像処理を実行する画像処理手段と、この画像処理手段による画像処理結果を表示する表示手段とを備えるゲーム装置において、上記いずれかの画像処理装置を備えるものである。
【0052】
この発明は、表示対象体を操作するための操作手段と、この操作手段からの操作信号に応じて画像処理を実行する画像処理手段と、この画像処理手段による画像処理結果を表示する表示手段とを備え、前記操作手段の操作の一部の説明が予め示されているゲーム装置において、 前記画像処理手段において実行される画像処理が前記説明が示されている操作以外の操作を要する場合、この操作内容を前記表示手段に表示する操作内容出力手段を備えるものである。この発明は、前記操作内容出力手段は、操作対象である前記表示対象体と重ならない位置に前記操作内容を表示するものである。
【0053】
この発明によれば、画像処理手段において実行されるべき画像処理が説明が付されている操作以外の操作を必要とするときに、この操作内容を表示手段の一部に表示している。例えば、サッカーゲームにおけるスローイングのような特別な場合、スローイング用の内容操作を表示手段に表示し、このときに使用できる操作端末や、その操作内容を表示している。したがって、遊技者はゲームを行う前に全ての説明文を読む必要がなく、かつ操作が必要となる毎に説明文が表示されから、操作方法を理解しやすい。また、このように操作に関連して表示対象体を多様な状況で表示することができるので、表現豊な表示画面となるため操作に関連した表示対象体を多様な状況で制御することができる。
【0054】
この発明は、前記いずれかの方法を処理装置に実行させる手順が記憶される記憶媒体である。記録媒体には、例えば、フロッピーディスク、磁気テープ、光磁気ディスク、CD−ROM、DVD、ROMカートリッジ、バッテリバックアップ付きのRAMカートリッジ、不揮発性RAMカートリッジ等を含む。記憶媒体とは、何等かの物理的手段により情報(主にデジタルデータ、プログラム)が記録されているものであって、コンピュータ、専用プロセッサ等の処理装置に所定の機能を行わせることができるものである。
【0055】
以上、要するに、上記各発明によればいずれも、キャラクタの表現上で興味に富み、しかも操作性との関連でキャラクタの表現を多様化かつ豊富にする。
発明を実施するための最良の形態
以下、本発明を実施するための最良の形態について図面を参照して説明する。図1は本発明の実施の形態に係る画像処理装置を用いたビデオゲーム機の外観図である。この図において、筺体1は略箱型をなし、その内部にはゲーム処理用の基板等が設けられている。また、筺体1の前面には、CRT型のディスプレイ1a、操作パネル2が配設されている。操作パネル2上には、ジョイスティック2a,2aと、3つのボタンを一組とする操作ボタン2b,2bとが設けられている。ディスプレイ1aには、ゲーム画面が表示される。ゲーム画面中には3次元の画面が展開されており、プレイヤーがジョイスティック2a等を操作することにより画面上の選手(キャラクタ)を自由に移動させることが可能である。このキャラクタは表示対象体の一つである。
【0056】
図2は、同実施の形態の操作パネルの拡大図である。この図において、操作パネル2のジョイスティック2a、2aの周囲には操作方向2cが表示されている。操作方向2cは、ジョイスティック2aを中心に45度間隔に設けられている。つまり操作方向2cは8つある。また、操作ボタン2bのある操作パネル2には、操作ボタン2bごとに、その通常の操作内容についての説明文2dがそれぞれ表示されている。
【0057】
図3は、同実施の形態の画像処理装置が適用されたゲーム装置を示すブロック図である。このゲーム装置は基本的要素としてゲーム装置本体10、入力装置11、スピーカ14、及びCRT型のディスプレイ1aを備えている。
【0058】
入力装置11は、ジョイスティック2aと、3つのボタンを一組とする操作ボタン2bとを有する。なお、図1に示されるように、入力装置11は複数備えてもよい。
CRT型のディスプレイ1aはこのゲーム装置により実行されるサッカーゲーム等の画像を表示する。このCRT型のディスプレイ1aの代わりにプロジェクタを使ってもよい。
スピーカ14は、ゲーム装置本体10から信号を受けて、音楽、効果音等を発生する。ゲーム装置本体10は、CPU(中央演算処理装置)101を有するとともに、ROM102、RAM103、サウンド装置104、電力増幅回路(AMP)105、入出力インターフェース106、スクロールデータ演算装置107、コ・プロセッサ(補助演算処理装置)108、画像データROM109、ジオメタライサ110、モーションデータROM111、描画装置112、テクスチャデータROM113、テクスチャマップRAM114、フレームバッファ115、画像合成装置116、D A変換器117を備えている。モーションデータとは、「選手等のキャラクタの一連の動きの各場合の組合せを構成するポリゴンデータ」、及び、「コート、観客、構造物等の背景」等の3次元データのことである。
【0059】
CPU101は、バスラインを介して所定のプログラムなどを記憶したROM102、データを記憶するRAM103、サウンド装置104、入出力インターフェース106、スクロールデータ演算装置107、コ・プロセッサ108、及びジオメタライザ110に接続されている。
【0060】
RAM103はバッファ用として機能するもので、ジオメタライザ110に対する各種コマンドの書込みなどが行われる。入出力インターフェース106は前記入力装置11に接続されており、これにより入力装置11のジョイスティック2aの操作信号がデジタル量としてCPU101に取り込まれる。サウンド装置104は電力増幅器105を介してスピーカ14に接続されており、サウンド装置104で生成された音響信号が電力増幅回路105で電力増幅された後、スピーカ14に与えられる。
【0061】
CPU101は、本実施の形態では、ROM102に内蔵したプログラムに基づいて、入力装置11からの操作信号及び画像データROM109からの画像データ、又はモーションデータROM111からのモーションデータを読み込んで、選手(関連表示対象体)とボール(特定表示対象体)との当たり(接触)判定、選手同士の衝突判定などを少なくとも行うようになっている。
【0062】
コ・プロセッサ108には画像データROM109が接続され、したがって、予め定めたカメラ位置変更データがコ・プロセッサ108(及びCPU101)に渡される。コ・プロセッサ108は、主として、ボールと選手の接触、選手と選手の接触等の接触の判定を行うものであり、そして、この判定の時に、主に、浮動小数点の演算を引き受けるようになっている。この結果、コ・プロセッサ108により選手とボールの接触判定が実行されて、その判定結果がCPU101に与えられるようにされているから、CPUの計算負荷を低減して、この接触判定がより迅速に実行される。
【0063】
選手やボール等の表示対象体の3次元空間での座標値が決定された後、この座標値を視野座標系に変換するための変換マトリクスと、選手、ゴール、審判などのデータとがジオメタライザ110に指定される。ジオメタライザ110はモーションデータROM111及び描画装置112に接続されている。モーションデータROM111には予めポリゴンのモーションデータ、すなわち、各頂点(ポリゴン)から成る選手、ボール、コート、背景の一部(観客等)などの3次元データ記憶されており、このモーションデータがジオメタライザ110に渡される。ジオメタライザ110はCPU101から送られてくる変換マトリクスで指定された画像データを透視変換し、3次元仮想空間での座標系から視野座標系に変換したデータを得る。
【0064】
描画装置112は変換した視野座標系の画像データにテクスチャを貼り合わせフレームバッファ115に出力する。このテクスチャの貼り付けを行うため、描画装置112はテクスチャデータROM113及びテクスチャマップRAM114に接続されるとともに、フレームバッファ115に接続されている。なお、ポリゴンデータとは、複数の頂点の集合からなるポリゴン(多角形:主として3角形又は4角形)の各頂点の相対ないしは絶対座標のデータ群をいう。画像データROM109には、選手と選手の接触、選手とボールとの接触の判定を実行する上で足りる、比較的粗く設定されたポリゴンのデータと、カメラワークに必要な位置変更データとが格納されても良い。これに対して、モーションデータROM111には、選手、ボール、背景等の画面を構成するモーションに関して、より緻密に設定されたポリゴンのデータが格納されている。
【0065】
スクロールデータ演算装置107は文字および背景の一部(空)などのスクロール画面のデータを演算するものである。この演算装置107と前記フレームバッファ115とは、画像合成装置116及びD/A変換器117を介してCRT型のディスプレイ1aに接続されている。これにより、フレームバッファ115に一時記憶された選手、コート、ボール、背景(一部)などのポリゴン画面と、得点数、試合残り時間、操作ボタン2bの使用方法、その他必要なガイダンスなどの文字情報のスクロール画面とが指定されたブライオリティにしたがって合成され、最終的なフレーム画像データが生成される。この画像データはD/A変換器117でアナログ信号に変換されてCRT型のディスプレイ1aに送られ、サッカーゲームの画像がリアルタイムに表示される。
【0066】
次に、本発明の実施の形態の動作を図1〜図3を基に、図4以下の図面を参照して説明する。
〔メイン処理ルーチンの説明〕
図4のメインフローチャートを用いて、まず、全体的な動作の流れを説明する。まず、説明の便宜上、本実施の形態のゲーム装置で処理されるゲーム内容は、サッカーゲームであり、基本的に11人の選手が1チームを編成し、これら2チームがコート上において相手方ゴールにボールを蹴り入れるというゲームを展開するものとする。
【0067】
図4のメインフローチャートに従ってメインCPU101は処理を行い、上述のように、ポリゴンによる3次元データで表されるキャラクタ等の画面(以下、ポリゴン画面という。)と、背景の一部および文字像としてのスクロール画面との同期表示制御の処理が実現される。
【0068】
メインCPU101は、まず図4のステップS1で、ジョイスティック2a、操作ボタン2bの操作状況などに呼応して視点の移動座標並びにテクスチャ付きのポリゴンデータで表されるキャラクタ等の移動座標を計算する。この処理により、画面上で選手が遊技者の指示する方向に走る等の動作を行う。
【0069】
次いでステップS2にて、座標変換された3次元のポリゴンデータが表示されるスクリーン(画面)内の位置データ(スクリーン座標)等を計算する。このポリゴン表示位置に基づき選手等は画面上の所定の位置に所定の形態で表示される。
【0070】
次いでステップS3に移行し、空及び得点等のスクロールデータを作成する。スクロールとは主に背景等のそれ自体の形状は動かない部分であり、画面上を動きまわるポリゴン画面と合成されてディスプレイ1aに表示される。
【0071】
また、ステップS4で後述の第1の実施例のポリゴン増加手段の処理を実行する。ポリゴン増加処理とは、ボールを受けた選手のように遊技者の注目を集めるキャラクタを構成するポリゴン数を増加する処理のことである。
【0072】
次に、ステップS5で後述の第2の実施例のポリゴン適用手段の処理を実行する。ポリゴン適用処理とは、例えば、選手の背中に背番号を表現する場合に、選手を構成するポリゴンとは別の背番号用のポリゴンを用意し、これらを合成することにより背番号を表現するための処理である。
【0073】
さらに、ステップS6で後述の第3の実施例のキャラクタの遠近に応じて明度を変更する明度変更処理を実行する。明度変更処理とは、キャラクタと視点との間の距離に応じて、これらキャラクタの明るさを変更する処理である。この明度変更処理によれば、例えば、カメラに近い選手は明るく、カメラから遠い選手は暗く表示される。
【0074】
ステップS7で後述の第4の実施例の視点位置変更手段の処理を実行する。視点位置変更処理とは、例えば、選手がボールを得てドリブルを開始したとき、徐々にカメラ視点を高い位置から低い位置に移しつつ、ドリブルしている選手をアップで表示する処理である。
【0075】
さらにまた、ステップS8で後述の第5の実施例のモーション補正処理を実行する。モーション補正処理とは、例えばドリブルをしている選手がターンしようとするときに行う一連の動作の不自然さを防ぐためのものである。例えば、モーション補正処理は、選手とボールとが離れて見えないように、ボールの位置や移動の方向を補正する。
【0076】
加えて、ステップS9で後述の第6の実施例の操作内容出力手段の処理を実行する。操作内容出力処理とは、ゲーム進行中に遊技者が特殊な操作を行う必要が生じたときに、その操作についての説明を画面上に表示する処理である。特殊な操作として、例えば、フリースロー、フリーキックがある。以上、ステップS1〜S9において実行された結果は一旦フレームバッファ115、RAM103等に格納される。
【0077】
これらの処理を通過すると、メインCPU101はステップS10で前記ポリゴンデータの描画用の所定タイミングか否かを判断しつつ待機する。そして、所定タイミングになると、ステップS11で、それまでメモリ等に記憶していたスクロール画面のX、Y移動量、及び倍率等を画像合成装置装置116に転送する。そして、ステップS12で、メインCPU101は表示等の指令を実行する。メインCPU101は上述したステップS1〜S12の処理を定期的に繰り返す。
【0078】
〔第1の実施の形態]
次に、同第1の実施の形態であるポリゴン増加手段の動作について、図5〜図8を参照して説明する。なお、この実施の形態では、ある視点が定義されていて、この視点から見た画像が表示されている。画面上で、この視点に近い位置にある表示対象物は大きく表示され、遠い位置にある表示対象物は小さく表示される。
【0079】
大きく表示される表示対象物、特に選手は多くのポリゴンで表現され、一方、小さく表示される表示対象物、特に選手は、通常は、少ないポリゴンで表現される。
【0080】
このような表示状態において、図4のステップS4の詳細を図5に示す。図5では、まず、CPU101はステップS41でポリゴン増加手段の必要があるか判定する。この処理が不要ならば(ステップS41;NO)、この第1の実施の形態の処理が不要であるのでステップS42及びS43を通過する。
【0081】
一方、CPU101でこの処理が必要と判定される場合は(ステップS41;YES)、ステップS42に進む。ここで処理が必要と判定される場合は、例えば次のような場合である。
【0082】
(1)ある選手がある視点より遠くにいて少ないポリゴンで表現されており、ボールがこの選手の近くに飛んでいったような場合である。これは、遊技者はボールの近くの選手に注目するので、不自然な感じを与えないようにするためである。
【0083】
(2)その他、選手が交代する等、遠方にあるにもかかわらず、遊技者が注目すると考えられる場合である。
【0084】
(1)の場合、CPU101の制御の下で、その選手がボールの支配権を得るか否かの判定処理を実行する(ステップS42)。そして、所定の選手がボールの支配権を握ったところで(ステップS42)、当該選手のポリゴン数を増加させるポリゴン増加手段の処理を実行させる(ステップS43)。
【0085】
次に図6及び図7を用いて支配権の取得(ステップS42)についての説明をする。これは、ボールが飛んでゆき、ある視点より遠くにいる複数の選手の中で、だれがそのボールの支配権を得たかを判定するものである。
【0086】
この処理は、ボールが空中の飛翔を開始したときに移行する。まず、ステップS421で、例えばボールが1バウンドする位置の予測計算を行う。次に、ステップS422で、この位置の近くにいる選手を当該位置に向かわせる。
【0087】
ついで、ステップS423でボールが1バウンドすべき位置に接触したかを判定する。ボールがその位置に接触しなければ(ステップS423;NO)、この処理を抜けてメイン処理に移行する。また、ボールがその位置に接触したときには(ステップS423;YES)、各選手の位置と向きとを取り込む(ステップS424)。
【0088】
そして、ステップS425にて、ボールの移動方向、各選手とボールとの距離を計算する。また、ステップS426で、ボールに1番近い選手(図6において、この選手を「1番」とする)と、2番目に近い選手(図6において、この選手を「2番」とする)とを決定する。
【0089】
次に、ステップS427で、ボールに1番近い選手のボールに対する向きを判定する。ボールに1番近い選手の向きが概ねボールに向かっているときには(ステップS427;正方向)、ボールの支配権をボールに一番近い選手に渡す(ステップS430)。
【0090】
また、ボールに一番近い選手がボールに対して反対方向を向いている(背中を向けている)とき(ステップS427;逆方向)、ボールに対して2番目の選手は、1番目の選手に対して一定の距離内であるか判定する(ステップS429)。ステップS429で、2番目の選手が一定距離内にいないときには(ステップS429;NO)、1番の選手がターンしてボールに向かっても2番目の選手より早くボールに到達できるので、ステップS428で一番の選手をターンさせる。しかる後に、ステップS430で1番の選手にボールの支配権を渡す。
【0091】
一方、ボールに対して2番目に近い選手が1番目の選手に対して一定の距離範囲にいるときには(ステップS429;YES)、1番の選手がターンしてボールに近づくのと、2番目の選手がボールに近づくのが早いかを判定する必要がある。そのため、ステップS431で、2番目の選手の向きを判定する。2番目の選手がボールに対して正面を向いているときには(ステップS431;正方向)、1番目の選手がターンしてボールに近づくより2番目の選手の方が早くボールに近づけるので、ステップS432で、2番目にボールの支配権を渡す。なお、2番目も逆向きのときには(ステップS205;逆方向)、1番目の選手をターンさせる(ステップS428)。
【0092】
これら優先権のデータは、例えばRAM103等に記憶させておく。このようにしてボールの支配権を得た選手に対しては、ステップS435において、選手の上に支配権のマークの表示処理を行う。これにより、例えば、図8に示すように、CRT型のディスプレイ1a上に、その選手Cの頭Caの上に、ボールの支配権が移ったマークmを表示させる。
【0093】
続いて、ステップS436で、この選手Cのポリゴン数を判定する。この選手Cのポリゴン数が多いときには(ステップS436;YES)、この選手Cは画面手前側にいるように表示されているので、そのまま表示する。また、この選手Cのポリゴン数が少ないときには(ステップS436;NO)、ステップS437では、この選手Cのポリゴン数を、手前にいるように表示されている選手と同様のポリゴン数とする。この選手Cは画面奥側(視点から遠く)にいるように表示されているので、少ないポリゴン数で構成されている。
【0094】
これにより、例えば図9(a)に示すように少ないポリゴン数で構成されていた選手C11が、図9(b)に示すよう多くのポリゴン数で構成された選手C12のように表現される。
【0095】
上の例は、注目マークmをもつ選手のポリゴン数を、近い選手のポリゴン数と同じにするものであるが、他にもいくつかの方法が考えられる。例えば、画面上の選手の大きさに対応して最大のポリゴン数を予め定めておき、注目マークmをもつ選手のポリゴン数をこの最大値に引き上げる。通常の場合、選手のポリゴン数はこの最大値よりも少ない。画面上で小さく表示されている選手のポリゴン数をいたずらに大きくしても、細かくなりすぎて無駄になることが考えられる。そこで、最大値を選手の大きさあるいは視点との距離に応じて適当に定めることにより、最適な表示が可能となる。例えば、画面上の選手の大きさに比例して最大のポリゴン数を定義してもよい。
【0096】
あるいは、画面上の選手の大きさに対応して通常のポリゴン数を予め定めておき、注目マークmをもつ選手のポリゴン数を、この通常のポリゴン数に係数k(k>1)を掛けたものとしてもよい。この係数kは一定値でも、あるいは画面上の選手の大きさあるいは視点との距離に応じて変化させてもよい。
【0097】
あるいは、注目マークmをもつ選手のポリゴン数に所定の値aを加算、あるいは乗算することによりポリゴン数を増加させてもよい。加算あるいは乗算する値aは一定の値であっても、選手の大きさあるいは視点との距離に応じて適当に定めるようにしてもよい。
要するに、注目マークmをもつ選手のポリゴン数を、その表示が遊技者にとって違和感のない程度に増加させればよい。
【0098】
また、以上の説明において、近くの選手のポリゴン数は常に多かったが、これに限らず場合によってはポリゴン数を減らすこともできる。このことを具体例を用いて説明する。
【0099】
例えば、遊技者が操作する選手(キャラクタ)の前に、A,B,Cの3人の相手がいるとする。選手に近い方からA,B,Cであるとする。視点が選手の近くにあり、相手A,B,Cを見るとすると、この場合、Aが最も手前に表現される。上述の原則に基づけば、このAのポリゴン数は最も多い。次にBが表現され、その次にCが表現される。このとき、(Aのポリゴン数)>(Bのポリゴン数)>(Cのポリゴン数)の関係がある。
【0100】
この場合において、選手は、まず最も近いAと争う。Aを倒したり、排除したりすれば、次にBと争う。その次はCである。ところで、遊技者が最初に注目するのはAであるが、Aを倒した後は、遊技者は当然次の相手Bを注目する。この時点ではAのポリゴン数は最も多いが、もはや注目されることがなく、詳細に表現するのは無意味である。そこで、倒された相手のポリゴン数は、たとえ相手が近くにいるとしても少し減らすようにする。このことにより過剰に精細な表現を防止して演算負荷を軽減することができる。このように軽減されたポリゴンを次の相手Bのポリゴンに加えるようにしてもよい。Bを倒した後にCと闘う処理も同様である。
【0101】
このようにこの第1の実施の形態では、ポリゴン増加手段により、例えばある視点から距離が遠くに表示される選手は少ないポリゴン数で構成されるのであるが、この選手がボールの支配権を得たときのように、遊技者が注目すると考えられるときに、ある視点から近くの距離にあるように表示される選手と同じようなポリゴン数とすることができる。このため、視点より遠くにある選手であっても、遊技者の注目が注がれる選手には、微細な形状、模様が付されることになり、よりよい表示形態を提供できる。したがって、遊技者は違和感をほとんど感じない。
【0102】
また、この実施の形態によれば、逆に注目されない近くの選手のポリゴン数を少なくすることにより、遊戯者に違和感を与えることなく、処理負担を軽減することができる。
【0103】
要するに、原則として遠近に従って選手のポリゴン数が決まるのであるが、この実施の形態1は、状況(例えば、実際のプレーの状態、選手との関係、ボールとの関係、背景との関係等の状況)に応して、この原則を適宜修正する。そのため、遊戯者に違和感を与えることが少なくなるし、また、遊戯者に違和感を与えることなくポリゴン数を減らして処理負担を軽減することができるのである。
【0104】
〔第2の実施の形態〕
この第2の実施の形態では、キャラクタが例えばサッカーゲームにおける選手であったとすると、背中の所定の部分をくり抜き、このくり抜き部分に、ポリゴンで形成した下地、ユニホームの模様、及び背番号をそれぞれ順に嵌め込むようにしたものである。この実施の形態ではポリゴン適用手段がこの動作を実行する。
【0105】
図4のメインルーチンのステップS5においてポリゴン適用手段が動作する。このステップS5の詳細が図10に示されている。 図10において、ゲーム装置本体10のCPU101は、ステップS501において、モーションデータROM111等から、図11に示すように選手C21の背中C21aの一部C21bが欠かれるように複数のポリゴンから構成された選手C21のポリゴンデータを読み出す。この選手C21の背中C21aは、複数のポリゴンPn1〜Pn6から構成されている。また、ポリゴンPn1〜Pn6で囲まれる部分C21bに対応するポリゴンデータは、読み出されたデータ中にない。したがって、このステップS501で読み出されたポリゴンデータによれば、図11に示すように、選手C21の背中C21aの一部C21bがくり抜かれたような状態として取り扱われる。
【0106】
次に、ステップS502で、モーションデータROM111などから、下地となるポリゴンデータPD1を読み出す。このポリゴンデータPD1は、前記くり抜かれた一部C21bにぴったりと嵌まるデータであり、かつ一定の色データを備える。
【0107】
さらに、ステップS503で、模様のテクスチャがマッピングされるポリゴンデータPD2を読み出す。このポリコンデータPD2は、前記くり抜かれた一部C21bに相当し、テクスチャ以外の部分は透明とする色データが与えられている。
【0108】
ついで、ステップS504で、背番号がマッピッングされるポリゴンデータPD3を読み出す。このポリゴンデータPD3は、前記くり抜かれた一部C21bに相当し、かつ背番号以外の部分を透明としている。
【0109】
このようにして読み出されたポリゴンデータPD1〜PD3は、ステップS505で、PD1、PD2及びPD3の順で、選手C21のくり抜き部分21bにマッピッングされる。
【0110】
さらに、選手C21の顔のデータFDも、ステップS506で、背番号に応じて選手21の頭部の前面C21dにマッピングする。
【0111】
この結果、ポリゴンで全体が表現されるとともに、その背中にはポリゴンでテクスチャマッピングされた背番号が表現される。以上のように、全体のポリゴン、背番号のポリゴン、及び、顔のデータにより一つのキャラクタが完成する。他の選手についても同じ要領で構成できる。
【0112】
このように第2の実施の形態では、テクスチャマッピングをほとんど使用せずにポリゴンにより背番号を含むキャラクタを表現できるので、少ない計算負荷で多くの表示対象体(キャラクタ)を表示できる。
【0113】
また、モーションデータ計算の処理を軽減させるために、図11のC21bの所だけを計算させ、背番号は第2の例のようにポリゴンを表示させて、逆に体全体をそれに合成させるようにしてもよい。この場合、頭、両手、両足は計算しなくてすむ。この体全体のポーズはあらかじめ決められていて、頭、両手足をまとめて一つのポーズとする。そのため、この体は自由に手や足だけを動かすことはできないが、使用頻度が高い「構えのポーズ」などで使用することができる。
【0114】
また、第2の実施の形態によれば、例えば、背番号部分(PD1、PD2、PD3)のみを22人分だけ用意すれば、選手の体部分のパーツ(ポリゴン)を共用することができる。選手の体格はみな同じになるものの、ポリゴンデータ数を著しく減らすことができる。なお、スター選手のように個性的な選手の全体を表示するためのポリゴンはそれぞれ個別に用意しておき、その他の選手のポリゴンを共用するようにしてもよい。
【0115】
なお、この実施の形態によれば、キャラクターの背中のあたかもくり抜いた部分に前記3つのポリゴン(PD1、PD2、PD3)をマッピングしているため、ポリゴンのマッピングための処理をより簡単にすることができる。
〔第3の実施の形態〕
第3の実施の形態は、明度変更処理を実行することにより、CRT型のディスプレイ1aの表示画面上で、手前側に表示される選手を明るく表示し、奥側(視点から遠い側)に表示される選手を暗く表示して、遠近感を持たせるようにしたものである。選手の位置が近いか、遠いかは、そのポリゴン数に基づき判断される。
【0116】
この明度変更処理は、図4のメインフローチャートのステップS6において実行される。このステップS6の詳細は図12のフローチャートに示される。
ゲーム装置本体10のCPU101は、図12のフローチャートを処理をして、各選手をポリゴン数に応じて明度を決定している。
【0117】
ステップS601で、モーションデータROM111等から、次に表示されるタイミングの選手(キャラクタ)のポリゴンデータを取り込む。次に、ステップS602で、取り込んだ選手のポリゴン数の比較を行う。ステップS602は3つに分岐する。
[第1の分岐]
その選手のポリゴン数が多いときには、前述のように、視点に対してキャラクタが近い位置にいることになるから(ステップS602;大)、この選手の明度を決定するカラーバンク方式のパレットに、明るい明度となる値を設定する(ステッブS603)。そして、ステップS604で、全部の選手の明度を決定したか判定する。全部終了していないときは(ステップS604;NO)、再び、ステップS601のポリゴンデータを読み出す処理に移行する。
[第2の分岐]
ステップS601で選手のポリゴンデータを読み出して、そのポリゴン数が中くらいのときには(ステップS602;中)、CPU101は、カラーバンク方式のパレットに、中くらいの明るさの明度となる値を設定する(ステップS605)。
[第3の分岐]
ステップS601で選手のポリゴンデータを読み出して、そのポリゴン数が少ないときには(ステップS602;小)、CPU101は、カラーバンク方式のパレットに、一番暗い明度となる値を設定する(ステップS605)。
【0118】
なお、ステップS602で行われるポリゴン数の比較処理は、例えば次のような処理である。予め2つのしきい値th1、th2(th1<th2 とする)が与えられている。ポリゴンの数がしきい値th2 よりも大きいときはステップS603に進む。ポリゴン数がしきい値th1 よりも小さいときはステップS606に進む。これらしきい値の間にあるときはステップS605に進む。これらしきい値は一定値でもよいし、あるいは視点の位置、背景の色等によって変化させてもよい。
【0119】
このように、ステップS603〜S606においてカラーバンク方式のパレットに設定した明度は、表示のタイミングまで記憶される。
【0120】
そして、図4のステップS12の表示のタイミングになったときには、図13に示すように、CRT型のディスプレイ1aの画面上には、手前の選手C31が一番明るく表示される。また、CRT型のディスプレイ1aの画面上で、中くらいの位置に表示されている選手C32は選手C31よりもやや暗く、一番奥に表示されている選手C33は中くらいに表示されている選手C32よりもさらに暗く表示されることになる。
【0121】
このように第3の実施の形態によれば、近くにあるキャラクタ程、明るい色で表示されることになり、遠近感が増し、ゲームにおける臨場感を向上する。また、遠近の判断をポリゴン数の比較で行うので処理が簡単になり、CPUの負担が軽くなる。
【0122】
なお、実施の形態1で示されたように、注目される選手のポリゴン数を増加させるときには、選手の位置が遠いにもかかわらずポリゴン数が多いと判断されることがある。この場合の処理として、(1)あくまでポリゴン数に基づき判断し、遠くにある場合でも明度を高く設定する、(2)元のポリゴン数に基づき判断し、遠くにあるとして明度を低く設定する、のいずれかが考えられる。この(2)の場合において、例えば、図8の注目マークmの有無により元のポリゴン数を使用するかどうか判断する。
【0123】
なお、上記の説明ではキャラクタのポリゴン数に基づきキャラクタ位置の遠近を判断したが、視点とキャラクタとの距離に基づき判断するようにしてもよい。
【0124】
この場合、しきい値th1、th2はポリゴン数ではなく、3次元空間における距離となる。あるいは、画面上のキャラクタの大きさに基づき判断するようにしてもよい。すべてのキャラクタの大きさがほぼ同じとすれば、キャラクタの大きさによりその位置の遠近をおおむね判断することができる。
【0125】
また、パレットの設定S603、S605、S606において、明度のみを設定したが、これに限らない。色の要素である明度、彩度、色度のいずれを設定するようにしてもよい。例えば、近くの選手を明るい色調にして、遠くの選手を暗い色調に設定する。
【0126】
また、パレットの設定の際に、背景の色彩により適宜設定を変更するようにしてもよい。例えば、背景が暗い場合には明度を低くし、背景が明るい場合は明度を高くするように設定する。
【0127】
また、以上の説明において、近くの選手のポリゴン数は常に多かったが、これに限らず場合によってはポリゴン数を減ることもある。例えば、実施の形態1で説明した遊技者が操作する選手(キャラクタ)の前に、A,B,Cの3人の相手がいて、彼らと順番に闘う場合である。この場合において、実施の形態1の場合と同様に、倒された相手のポリゴン数は、たとえ相手が近くにいるとしても少し減らすとともに、明度を下げるようにする。
【0128】
要するに、原則として遠近に従って選手を表現する色彩の明度が決まるのであるが、それとともに、状況(例えば、実際のプレーの状態、選手との関係、ボールとの関係、背景との関係等の状況)に応じて、この原則を適宜修正する。
[第4の実施の形態]
第4の実施の形態はカメラワーク(視点位置制御)に関するものであり、視点位置変更手段が実現されることによる画面表示が提供される。この視点位置変更手段のカメラワークにより、CRT型のディスプレイ1aの画面上には、サッカーゲームの競技内容が全体的に表示されたり、一部選手がクローズアップして表示されたりする。この第4の実施の形態において視点とは、仮想3次元空間に設けられ、この空間に現されたポリゴン等を平面に投影するための基準となる点であり、いわばカメラの位置である。
【0129】
この第4の実施の形態の視点位置変更手段は、図4のメインフローチャートのステップS7が処理されることにより実現される。その詳細は図14のフローチャートに示されている。
【0130】
この第4の実施例の以下の説明において、サッカーゲームにおいてドリブルを開始したことに起因して視点位置変更処理が始まる場合を例にとり説明する。なお、カメラの位置と選手等の位置の関係の例について図15及び図17に示し、これらカメラワークで撮影したCRT型のディスプレイ1a上の画面の例を図16及び図18に示す。
【0131】
まず、図15及び図17において、X軸はCRT型のディスプレイ1aの画面の横方向であり、Y軸は同画面の縦方向であり、Z軸は同画面に垂直方向である。例えは、XYZ軸をもつ3次元空間中のコートの上に選手C51、C52、C53等が、図示の位置関係で種にX軸方向に移動しているものとする。このとき、カメラ70は、図15に示すように、座標(x1,y1,z1)に配置されているものとする。
【0132】
このとき、CPU101は、ステップS701において、いずれかの選手がドリブルしているかどうか判断する。ドリブルしているかどうかは、選手が動きつつボールB51を保持しているか、選手とボールがときどき接触しているか、選手の動く方向とボールの方向とが一致しでいるか等の観点に基づき判断される。
【0133】
図15においで、選手C51がボールB51をドリブルしているものとする。このときに遊技者が行う操作について、図2を参照して説明する。遊技者は、特定表示対象物(ボールB51)に一致するように、ジョイスティック2aを用いて関連表示対象物(選手C51)を制御する。ドリブルするときは、ジョィステック2aを所望の方向に倒す。ところで、ジョイスティック2aの移動方向2cは8つしかないので、選手C51がボールB51の位置に正確に達するのは困難である。そこで、ある範囲内に近づいたら位置が一致したように処理する。
【0134】
図15のような状態の場合には、ステップS702において、所定の時間前か否かの判定がされる。ここで、所定の時間前であるならば(ステップS702;前)、このカメラ位置(x1,y1,z1)で選手C51〜C53等を撮影する(ステップS703)。このカメラ位置で撮影したとするデータは所定の表示タイミングとなるまで記憶しておく。そして、図4のステップS12が実行されることにより、図16に示すように俯瞰した画面150が得られる。この画面150上に選手C51〜C53等、コート全体が表示されることになる。なお、ステップS703を処理した後はこの処理を抜けてゆく。
【0135】
ドリブルがされていて(ステップS701;YES)、しかも一定時間が経過すると(ステップS702;経過)、カメラ70を、図17に示すようなカメラ70を座標(x1,y2,z2)に移動させる(ステップS704)。ここで、プレーヤの視点を便宜上座標系における原点とすると、画面に向かう方向がz軸の(+)、画面の上方向がy軸の(+)となり、y2<y1、z2>z1とする。
【0136】
このようなカメラ位置で選手C51等を表示するデータは、所定の表示タイミングになるまで記憶しておく。そして、図4のステップS12が実行されることにより、図18に示すように画面150の上に、特に選手C51をよりクローズアップしながらより低いカメラ位置から見た状態の表示が実現される。なお、ステップS704の処理をした後はこの処理を抜けてゆく。
【0137】
このように第4の実施の形態は、CRT型のディスプレイ1aの画面上にコートの全体の画像を比較的離れ、かつ高いカメラ位置に基づいて表示し、所定の注目画面になると、そのキャラクタ等をキャラクタに向かう視点の角度を変えながらクローズアップ等することができるため、ゲームの臨場感が向上される。
【0138】
なお、この実施の形態では、ドリブルについて特定注目画面としたが、これに限ることなく、例えば遠方にいる選手がボールを支配下においた場合にも特定注目画面としてもよい。
【0139】
また、コーナーキック、ゴールキック、フリーキック、PK、スローイン等を注目画面としてもよい。例えば、キックするためにボールに向かって行く選手を徐々にアップで捉えるようにする。
【0140】
要するに、注目画面とはゲームの臨場感が高まる場面の画像のことであり、この実施の形態の視点位置変更手段は、ゲームの興奮のたかまりとともにカメラ位置を適切に変化させることにより、任意の注目画面を効果的にディスプレイ1aに表示することができる。
【0141】
また、上記実施例では、カメラ位置をx軸方向を固定にし、y軸、z軸について変更するようにしたが、y軸、z軸に加えてx軸方向にもカメラ位置を変更するようにしてもよい。また、y軸又はz軸のいずれか一方を変更するようにしてもよい。
〔第5の実施の形態〕
第5の実施の形態はモーション補正処理に関するものである。モーション補正処理は、例えばサッカーゲームにおいてボールと選手の足とが実際のように接触し、ボールと選手の動き、特にボールと選手の足の動きとが不自然な動きとならないようにしたものである。
【0142】
これは、選手の足のモーションが予め決まっていることから、ボールの動きと選手の足の動きとが連動しないことによる不自然な動きを防止するために行うものである。そのため、ボールの位置をモーションに合わせるように移動させたり、ボールの方向を調整したりする。例えば、ターンするときはボールの位置を調整し、ドリブルしているときはボールの方法を調整する。
【0143】
以下、ボールB61を中心として選手C61がターンする場合を例にとり説明する。まず、図19(a)に、第5の実施例のモーション袖正処理を行わない場合のターンの動作を示している。この図において、左から順に時刻t1、時刻t2、時刻t3、・・・、時刻t8の選手C61とボールB61との関係を示す。
【0144】
まず、ボールB61が目標点に移動しているとする。そして、接触判定をすることにより、選手C61は概ね8コマ目(時刻t8)で接触するものと予測されたとする。そこで、CPU101は、1コマ目(時刻t1)、2コマ目(時刻t2)、3コマ目(時刻t3)、4コマ目(時刻t4)、・・・の各コマに対して、ターンに必要な選手C61のモーションをそれぞれ割当て、8コマ目(時刻t8)でボールと選手C61の足が接触するように処理する。例えば、時刻t1 で選手C61は右横向きであるが、時刻t2 で選手C61はジャンプし、体は少し斜めを向く。
【0145】
時刻t3 以降、体の向きが徐々に斜めになり、時刻t5 で正面を向く。時刻t7 でほぼ左を向く。しかしながら、各コマの選手C61のモーションは決まっているため、実際には、8コマ目でもボールB61と選手C61の足が接触しなかったり、あるコマの選手C61のモーションから次のコマに移るときに、モーションが大きく相違したりすることになる。このような状態の動きをすると、動きが不自然に見えることになる。
【0146】
そこで、第5の実施の形態のモーション補正処理を実行すると、各コマに割り当てられた選手C61のモーションを、8コマ目で均一に割り当てる結果になり、かつボールB61と選手C61の足とが自然な形で接触するような状態に表示できることになる。
【0147】
次に、図20のフローチャートを参照しながら、第5の実施の形態のモーション補正処理について説明する。なお、選手C61はボールB61の支配権をもっているものとする。
まず、ステップS801で、ジョイスティック2aを傾倒したかどうか判断する。ジョイスティック2aを傾倒しないときは(ステップS801:NO)、この処理を抜ける。
【0148】
一方、ジョィスティック2aをある方向に傾倒させると(ステップS801;YES)、これがCPU101で検出される。CPU101は、その方向データを受け取って(ステップS802)、選手C61及びホールB61をその方向に移動させる(ステップS803)。この状態をデータとして記憶させておく。
【0149】
次に、ステップS804でジョイスティック2aの反転操作があったか判定する。反転操作がないときには(ステップS804:NO)、この処理を抜ける。そして、図4のステップS13の表示タイミングになれば、CRT型のディスプレイ1aにドリブルしながら指定方向に移動する選手の画面が表示される。
【0150】
次に、ここで、遊技者がジョイスティック2aを上記方向とは反対側に傾倒させてものとする(ステップS804:YES)。この指令は、ステップS804でCPU101により検出される。すると、CPU101は、ステップS805で接触判定の予測計算を行う。その結果、例えば図19(b)の時刻t8の8コマ目でボールB61と選手C61とが接触するものと判断したとする。CPU101は、予測計算を、ボールB61の速度、選手C61のジャンプの方向と高さ及び速度に基づき行う。
【0151】
これにより、CPU101は、ステップS806で各時刻t1〜t2におけるコマに対応する選手C61の基本モーションを記憶データから読み出す。これら基本モーションは図19(a)に示されたものである。
【0152】
ところで、CPU101は、選手C61とボールB61とは時刻t8 の8コマ目で接触することを予測しているので、そのコマに対応する選手C61の基本モーションを、当該コマにさらに相応しいモーションとなるように補正計算をする(ステップS807)。この補正計算を行った後の選手C61′のデータを記憶させておき、この処理を抜けて行く。
【0153】
図19(b)に示す時刻t1、t2、・・・における各コマの選手C61′の位置は、図19(a)の同時刻t1、t2、・・・の各コマC61の位置よりずれて適正な位置になっており、最終的には、ボールB61と選手C61の足とがターン終了した時点で接触した状態になっている。
【0154】
そして、図4のステップS1〜S12を実行する毎に、時刻t1、時刻t2、…、時刻t8に示すコマとなり、これらが図4のステップS12の表示タイミングで、CRT型のディスプレイ1a上に表示される。
【0155】
このように第5の実施の形態によれば、ボールB61と選手C61の足の動きがごく自然な状態で推移し、実際のサッカーゲームと同様な動きに見えることになり、表示対象体(キャラクタ)を含む表示画面を表現豊かなものにし、かつ操作に関連して表示対象体(キャラクタ)を多様に制御できる。
【0156】
なお、この実施の形態において、一つのモーションであるドリブルから、他のモーションであるターンに移行する際、対象となる選手に前記実施の形態に基づきボールの支配権がある場合は、選手がボールに向かう途中で走行方向とは逆方向にジョイスティック(操作桿)を傾倒しても、この時点から直ちにターンのモードには移行せず、図20のフローチャートに従いターンの補正処理が実行される。また、特定表示対象物(ボールB61)に適合するように、関連表示対象物(選手C61)を制御しなくても、補正処理により選手はボールを適切に支配することができる。このようにすることにより、正確に操作桿を操作しない場合でも、ボールを支配して選手にターンをさせたいとする遊戯者の意志に沿うことができる。
【0157】
例えば、ボールを選手に向けて移動するようにジョイスティック2aを傾倒させる際、その傾倒方向がボールB61に向けて正確に一致していなくてもある所定の範囲であるときにボールB61を選手C61に向けて移動させることができる。図2でも分かるように、ジョイスティック2aは、8方向の移動に制限されており、45度毎の移動の指定しかできない。ボールB61に近い二つの傾倒方向が選択されたときでも、補正処理により正確に選手C61をボールB61に一致するように画像処理がされる。
【0158】
一方、操作対象となっている選手にボールの支配権が移行していない場合は、走行方向と逆方向にジョイステッィクが傾倒された時点でターンのモードに移行するようにする。このようにすることにより、ボールを取りに行くのを撤回したいとする遊戯者の意志に沿ったゲーム展開を実現することができる。
〔第6の実施の形態]
第6の実施の形態は、遊技者が、図2に示すような筺体1の操作パネル2上の操作ボタン2bの通常の操作説明文2d以外の操作を実行する場合に、その操作内容についての説明をCRT型のディスプレイ1a上に表示できるようにしたものである。この実施の形態の操作内容出力手段は、図4のステップS9を実行することにより実現される。この処理の詳細は、図21に示されている。
【0159】
通常、操作パネル2には、ジョイスティック2aの操作方向2c、操作ボタン2bの通常の使用内容説明文2dが付されている。ここで、サッカーゲームが展開されている内で、仮にスローインのモードに移行することになったとする。すなわち、筺体にもともと説明がない操作内容を表示する必要が生じたとする(ステップS901;YES)。このとき、CPU101はステップS902で、その特定の操作内容がどのようなモードであるかを判定する。
【0160】
例えば、スローインであるとすると(ステップS901;スローイン)、CPU101は、スクロールデータ演算装置107等に指示をして、必要なボタン表示体20a,20b,20cを画面の左下に表示するようなデータを形成する。同様に、各ボタン表示体20a,20b,20cに割り当てられた説明文表示体21a,21b.21cを表示できるようなデータを形成する。なお、この場合、説明文表示体22aはショウトスローイング、説明文表示体22aはロングスローイング、表示体22cは使用禁止である。これらは、所定のタイミングまで記憶させておく。
【0161】
ここで、所定の表示タイミング(図4のステップS12)、前記記憶したデータを表示すると、図22に示すように、ボールB71をもった、スローイングする選手C71と、コートC75内にいる選手C72,C73等が表示されており、かつ、画面の左下に、各ボタン表示体20a,20b,20c及びそれらの操作内容である説明文表示体21a,21b,21cが表示されている。
【0162】
また、ゴールキック(PK)であるとすると(ステップS901;PK)、CPU101は、スクロールデータ演算装置107等に指示をして、必要なボタン表示体20a,20b,20cを画面の右下に表示するようなデータを形成する。
【0163】
同様に、各ボタン表示体20a,20b,20cに割り当てられた説明文表示体22a,22b,22cを表示できるようなデータを形成する。なお、この場合、表示体22aは使用禁止、表示体22bは使用禁止、表示体22cはショートである。これらは、所定のタイミングまで記憶させておく。
【0164】
ここで、所定の表示タイミング(図4のステップS12)、前記記憶したデータを表示すると、図23に示すように、ゴールC81の手前にゴールキーパーC82が立っていて、そのさらに手前にゴールキックする選手C83がおり、かつボールB81を足下におき、かつ、画面の右下に、各ボタン表示体20a,20b,20c及びそれらの操作内容(説明文表示体22a,22b,21c)が表示されている。
【0165】
なお、コーナーキックの場合も(ステップS902;コーナーキック)、コーナーキックについて、各ボタン表示体20a,20b,20cと、これらに割り当てられた説明文表示体22a,22b,22cとを表示できるデータを形成する(ステップS904)。
【0166】
このように第6の実施の形態は、筺体1の操作パネル2上には、最小必要な説明文のみを表示し、他の操作内容については、その必要がある毎に画面上に表示できるようにしているので、遊技者はゲームを行う前に全ての説明文を読む必要がなく、かつ操作が必要となる毎に説明文が表示される。したがって、遊技者にとって操作方法を理解しやすいゲーム装置を提供できる。
【0167】
また、第6の実施の形態では、操作内容を読んでから、選手等を操作できるため、操作性との関連でキャラクタの表現操作が容易となる。
【0168】
なお、画面に必要な説明文を出現するために、各モード(スローイング、PK、キック、ドリブル等)毎にフラグを設け、説明文を必要とするモードのフラグに「1」を立てるようにしても良い。
【0169】
なお、第6の実施の形態では、操作ボタン表示体20a,20b,20cと、これらに割り当てられた説明文表示体21a,21b,21c、表示体22a,22b,22cとを、ゲームをする上で邪魔にならない画面位置に表示できるようにしてある。ゲームに対して邪魔にならない画面位置とは、選手、ボール、及び、ゴールと重ならない位置である。また、ボールの進路と重ならない位置である。例えば、空や観客席等が表示されている背景部分や、コートのうちでプレイに直接関係ない部分である。
【0170】
また、以上の実施の形態では、サッカーゲームを例にとり説明したが、ラグビー、アメリカンフットボール、バレーボール、バスケットボール、その他の球技用ゲーム、あるいはアイスホッケー、その他のゲームについても本発明を適用できる。
【図面の簡単な説明】
【図1】 本発明の一実施の形態の画像処理装置の全体斜視図である。
【図2】 同実施の形態の操作パネル部の平面図である。
【図3】 同実施の形態の画像処理装置の信号処理系の構成を示すブロック図である。
【図4】 同実施の形態の動作を説明するためのメインフローチャートである。
【図5】 同第1の実施の形態の動作を説明するためのフローチャートである。
【図6】 図5のフローチャートのステップS42「支配権の判定処理」の優先権決定の詳細フローチャートである。
【図7】 図5のフローチャートのステップS43「ポリゴン構成計算」のポリゴン増加処理の詳細フローチャートである。
【図8】 同第1の実施の形態の優先権表示を説明するための図である。
【図9】 同第1の実施の形態のポリゴン増加を説明するための図である。
【図10】 同第2の実施の形態の動作を説明するためのフローチャートである。
【図11】 同第2の実施の形態の動作を説明するための図である。
【図12】 同第3の実施の形態の動作を説明するためのフローチャートである。
【図13】 同第3の実施の形態の動作を説明するための図である。
【図14】 同第4の実施の形態の動作を説明するためのフローチャートである。
【図15】 同第4の実施の形態のカメラを高い位置において撮影する場合の説明図である。
【図16】 同第4の実施の形態の高いカメラ位置による表示画面を示す図である。
【図17】 同第4の実施の形態のカメラを低い位置において撮影する場合の説明図である。
【図18】 同第4の実施の形態の低いカメラの位置による表示画面を示す図である。
【図19】 同第5の実施の形態におけるモーションの説明図である。
【図20】 同第5の実施の形態の動作を説明するためのフローチャートである。
【図21】 同第6の実施の形態の動作を説明するためのフローチャートである。
【図22】 同第6の実施の形態の動作例を示す説明図である。
【図23】 同第6の実施の形態の他の動作例を示す説明図である。
[0001]
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, an image processing method, and an image processing apparatus for displaying a display target object composed of a plurality of elements (for example, polygons). The present invention relates to a used game machine and a storage medium.
[0002]
Background art
With the recent development of computer graphics technology, image processing devices such as game devices and simulation devices capable of three-dimensional display have been provided. For this reason, the display object (character) on the display means is composed of polygons. Here, the polygon refers to a polygon (mainly a triangle or a quadrangle) composed of a set of a plurality of vertices.
[0003]
By the way, in the conventional image processing apparatus, the number of polygons that can be handled by the central processing unit (CPU) is limited. Therefore, characters far from the viewpoint are composed of a small number of polygons, and nearby characters are composed of a large number of polygons because it is necessary to realize a fine pattern or shape (first conventional example).
[0004]
For example, in a soccer game, a character may be expressed by polygon data subjected to texture mapping. In this case, textures with a number assigned to each team uniform are prepared for the number of people (second number). Conventional example).
[0005]
Furthermore, in the case of the conventional image processing apparatus, the character displayed on the screen of the display means is displayed with uniform brightness regardless of the distance from a certain viewpoint (third conventional example).
[0006]
In addition, when displaying a character composed of polygons in a conventional image processing apparatus, a virtual viewpoint (camera) is prepared in a three-dimensional coordinate system, and a video image of the character is displayed on the display means. . In order to diversify characters when they are displayed three-dimensionally, for example, a plurality of cameras such as the above-mentioned “Virtua Fighter (TM)” are prepared, and these are switched and displayed on the display means. (Fourth conventional example).
[0007]
In addition, in the case of a game device (image processing device) for a soccer game, when a ball that is a specific display object is defended while a player who is a related display object turns and moves to the next action, these positions It is necessary to operate the operation terminal so that the two match (fifth conventional example).
[0008]
Furthermore, in the case of the conventional game device, the general operation content of the operation terminal is displayed in advance on the housing (sixth conventional example).
[0009]
By the way, in the case of the first conventional example, as already described, a character far from the viewpoint is always composed of fewer polygons than a nearby character. Therefore, for example, when the player's attention is directed to a player (character) who has passed in a soccer game, if this player is a character with a small number of polygons far away, this player is expressed only in a monotonous shape and pattern. Not. In such a game device, the player's attention is reduced, and the game device lacks a subtle flavor as a so-called game.
[0010]
In the case of the second conventional example, data having such texture mapping must be prepared for all players. In general, the priority of polygons is given by which is deeper (in the Z-axis direction), but in this case, both the uniform and the back number are in the same position as the depth. The number cannot be on the uniform. If flag control is performed so that the player's number is always at the top, the player's number will be at the top even if the player is facing the front and the number is not visible. Therefore, in preparation for the increase in the data volume, we had to prepare a uniform texture with the number. This imposes a large calculation load on the CPU, and there is a possibility that the processing of the CPU will be delayed and the realism of the game will fade. On the other hand, if a CPU capable of handling a large calculation load is used, the cost increases.
[0011]
Further, in the third conventional example, since the character is displayed with a uniform brightness regardless of the distance of the character, it is insufficient for giving the player a sense of perspective.
[0012]
In addition, in the fourth conventional example, even if there are a plurality of cameras, since their positions are fixed, diversification of video expressions has not been sufficiently achieved. Especially when the player who controls the ball changes from moment to moment like a soccer game, and this changes the superiority or inferiority of the game in an instant, the overall picture of the game is effectively displayed when the viewpoint is fixed. There was a drawback that could not.
[0013]
Further, in the case of the fifth conventional example, an advanced operation is required for the player to effectively control the ball. For this reason, the player needs to fully master the operation means of the game. It has been difficult for an unskilled player to control a player to control the ball well in the game.
[0014]
Furthermore, in the sixth conventional example, it is impossible to describe all the operation contents in the case depending on the contents, and even if all the operation contents are displayed on the case, the game side does this. It was difficult to read and memorize in advance.
[0015]
In short, each of the above conventional examples is not very interesting in character expression, and the character expression is insufficient in relation to operability.
[0016]
Accordingly, an object of the present invention is to provide an image processing apparatus that can express abundantly the display screen including the display objects (characters, backgrounds, etc.) of the respective conventional examples and can control the display objects in various ways related to operations. It is to provide.
[0017]
A second object of the present invention is an image that can realize a fine shape and pattern for a display object that is far away from the viewpoint, even if it attracts the player's attention. It is to provide a processing apparatus.
[0018]
A third object of the present invention is to provide an image processing apparatus capable of displaying a large number of display objects with a small calculation load.
In addition, a fourth object of the present invention is to provide an image processing apparatus capable of effectively realizing perspective expression of a display screen.
[0019]
A fifth object of the present invention is to provide an image processing apparatus capable of effectively displaying the entire image processing result.
[0020]
Furthermore, a sixth object of the present invention is to provide an image processing apparatus that can smoothly move and display related display objects without requiring special learning of the specific display objects.
[0021]
In addition, a seventh object of the present invention is to provide a game apparatus that can display only the necessary minimum description on the case and can easily understand the operation method of other operation terminals.
Disclosure of the invention
The present invention relates to an image processing apparatus that represents a display target object composed of a plurality of elements, and changes the number of elements in accordance with the distance from the viewpoint, while the display target object in a three-dimensional space is based on the viewpoint. Image processing means for projecting onto a plane, and element number changing means for changing the number of elements constituting the display object when the attribute of the display object that is distant from the viewpoint changes. is there.
[0022]
In the present invention, the image processing means reduces the number of elements as the viewpoint and the display object are separated. In the present invention, the element number changing means determines that the attribute has changed when the display object becomes an operation target, and performs processing.
[0023]
According to the present invention, the element number changing means includes an element number increase necessity determining means for determining whether to increase the number of elements of the display object, and an attribute determining means for determining whether the display object is an operation target. And element number calculating means for calculating the number of necessary elements based on the determination result of the attribute determining means.
[0024]
In the present invention, the display object includes a plurality of first display objects and a second display object handled by the plurality of first display objects in a three-dimensional space, and the plurality of first objects When the display target object competes for the control right of the second display target object, the attribute determination means determines the control right of the second display target object among the plurality of first display target objects. What is obtained is determined to be an operation target.
[0025]
In the present invention, the attribute determining means includes rank determining means for determining ranks based on distances between the plurality of first display objects and the second display objects, and the plurality of first display objects. The moving direction of the one having the highest rank is obtained, and when the first display object is moving toward the second display object, control is given to the first display object. One control right granting means and the first display object of the next order among the plurality of first display objects when the first display object is not moving toward the second display object And second control right granting means for granting control right to.
[0026]
The present invention further includes attribute display means for marking a display object having a control right. The present invention includes operation means for outputting an operation signal for the display object and display means for displaying the display object.
[0027]
The present invention relates to an image processing method for expressing a display target object composed of a plurality of elements, wherein a display target object in a three-dimensional space is changed based on the viewpoint while changing the number of elements according to the distance from the viewpoint. An image processing step for performing image processing to project onto a plane, and an element number changing step for changing the number of elements constituting the display object when the attribute of the display object away from the viewpoint changes Are provided.
[0028]
In the present invention, for example, even if the display object is displayed on the display means so as to be far from a certain viewpoint, the display object is displayed when the operation object is based on the operation signal from the operation means. The number of elements (for example, polygons) is increased. Thereby, the display object to which the player's attention is directed is expressed more finely than that time. In addition, since the number of polygons of the display object attracting attention is increased in this way, the display screen including the display object becomes rich in expression, and the display object is related to various operations in various situations. It becomes possible to control.
[0029]
The present invention provides an image processing apparatus that expresses a display object by adding a plurality of different elements to each other, and when there are a plurality of the display objects, a part or all of the plurality of display objects is a common element. Common element applying means for expressing, and individual element applying means for expressing the display object by applying a plurality of different individual elements to the plurality of display objects expressed by the common element applying means, And image processing means for projecting the display object represented by the common element applying means and the individual element applying means onto a plane based on the viewpoint.
[0030]
In the present invention, a part of the display object expressed by the common element application unit is missing, and the individual elements are inserted into the missing part.
[0031]
In the present invention, the plurality of individual elements have different patterns. In the present invention, the plurality of individual elements have different shapes. In the present invention, the individual element applying means applies a plurality of types of individual elements in an overlapping manner. In the present invention, the types of the individual elements are a base element, a pattern element, and a number element.
[0032]
The present invention includes operation means for outputting an operation signal for the display object and display means for displaying the display object.
[0033]
The present invention provides an image processing method for expressing a display object by adding a plurality of different elements to each other, and when there are a plurality of the display objects, a part or all of the plurality of display objects is a common element. A common element applying step for expressing, and an individual element applying step for expressing the display object by applying a plurality of different individual elements to the plurality of display objects expressed by the common element applying step, An image processing step of executing image processing for projecting the display object represented by the common element application step and the individual element application step onto a plane based on a viewpoint.
[0034]
According to the present invention, when there are different patterns between the display target bodies, a plurality of elements (for example, polygons) each having a different pattern are prepared for the different pattern portions. Further, at least a part of the elements of the display target body portion other than the pattern portion is made common. By combining the two to complete a display object with different patterns, it is possible to create images of a plurality of display objects having different patterns with a small amount of polygon data. Therefore, according to the present invention, a large number of display objects can be displayed with a small calculation load.
[0035]
The present invention relates to an image processing apparatus that represents a display target object composed of a plurality of elements, an image processing unit that projects a display target object in a three-dimensional space onto a plane based on a viewpoint, and Color provision means for imparting a color according to the situation.
[0036]
In the present invention, the color providing means changes the color according to the number of elements constituting the display object. In the present invention, the color providing means changes the color in accordance with the distance between the display object and the viewpoint. In the present invention, the color providing means changes the color according to the color of the background of the display object. In the present invention, the color imparting means changes the lightness of the color. The present invention includes operation means for outputting an operation signal for the display object and display means for displaying the display object.
[0037]
The present invention relates to an image processing method for expressing a display target object composed of a plurality of elements, an image processing step of projecting the display target object in a three-dimensional space onto a plane based on a viewpoint, and A color provision step for imparting a color according to the situation.
[0038]
According to this invention, the display object in the three-dimensional coordinate system is displayed on the display means based on a certain viewpoint. At this time, the color to be applied is changed according to the situation of the display object. For example, a display object at a position close to the viewpoint in the display means is displayed with a lighter brightness than a display object at a distance. For this reason, it is possible to give a strong sense of perspective to the player, to make the display screen including the display object rich, and in addition, because it becomes an expressive display screen, It becomes easy to control the display object in various situations.
[0039]
The present invention relates to an image processing apparatus for representing a display target object composed of a plurality of elements, an image processing means for projecting the display target object in a three-dimensional space onto a plane based on the viewpoint, and a position of the viewpoint. And moving viewpoint position changing means.
[0040]
In the present invention, the viewpoint position changing means brings the viewpoint closer to the display object when the display object is focused.
[0041]
According to the present invention, the viewpoint position changing means moves the viewpoint with respect to at least two coordinate axes of a three-dimensional coordinate system.
[0042]
The present invention includes operation means for outputting an operation signal for the display object and display means for displaying the display object.
[0043]
The present invention relates to an image processing method for expressing a display target object composed of a plurality of elements, an image processing step of projecting a display target object in a three-dimensional space onto a plane based on the viewpoint, and a position of the viewpoint. A moving viewpoint position changing step.
[0044]
According to the present invention, the image processing means is provided with the viewpoint position changing means, and by this viewpoint position changing means, for example, the viewpoint can be moved along at least two coordinate axes of the three-dimensional coordinates, and a certain display object An angle can be given to the viewpoint with respect to the body. For example, if a certain display object is a ground (background) in a soccer game, it is possible to realize a position that advances and retreats with respect to the ground and a position that changes the angle with respect to the ground by moving the viewpoint in two directions. Thereby, the entire content of the game can be displayed flexibly according to the content of the game, and a higher level of realism can be provided to the player. This also makes it possible to make the display screen including the display object rich in expression, and in addition, because the display screen is expressive, the display object can be controlled in various situations in relation to the operation. Becomes easy.
[0045]
The present invention relates to an image processing apparatus that expresses a display target object composed of a plurality of elements and expresses a related display target object related to the display target object. Storage means for storing, a form processing means for expressing a plurality of forms of the storage means one after another in the display object, and a correction means for correcting the form of the display object based on the relationship with the related display object And an image processing means for projecting the display object whose form has been corrected by the correction means onto a plane based on the viewpoint.
[0046]
According to the present invention, the correction means is a first means for calculating a movement destination position of the display object and the related display object, a movement position of the related display object, and a movement position of the display object. And second means for controlling the form read from the storage means so as to match.
[0047]
In the present invention, the correction means corrects the position or moving direction of the display object.
[0048]
The present invention includes operation means for outputting an operation signal for the display object and display means for displaying the display object.
[0049]
The present invention relates to an image processing method for expressing a display target object composed of a plurality of elements and expressing a related display target object related to the display target object. A form processing step for expressing the form one after another on the display object, a correction step for correcting the form of the display object based on the relationship with the related display object, and a display object whose form is corrected by the correction step And an image processing step of projecting the body onto a plane based on the viewpoint.
[0050]
According to the present invention, the movement destination of the specific display object is calculated, the related display object is adapted to the calculation result, and a series of movements of the related display object are preferably reproduced so as to match. The movement of the related display body, for example, the movement amount on the screen of each scene in the movement is adjusted. Thereby, the movement destination position of a specific display body and the movement destination position of a related display body correspond. Therefore, it is possible to realize control such that the related display body moves smoothly with respect to the specific display body. Therefore, it becomes easy to control the display object in various situations in relation to the operation.
[0051]
The present invention relates to an operating means for operating a display object, an image processing means for executing image processing in response to an operation signal from the operating means, and a display means for displaying an image processing result by the image processing means. A game device comprising: any one of the image processing devices described above.
[0052]
The present invention relates to an operating means for operating a display object, an image processing means for executing image processing in response to an operation signal from the operating means, and a display means for displaying an image processing result by the image processing means. In a game apparatus in which a part of the operation of the operation unit is described in advance, when image processing executed in the image processing unit requires an operation other than the operation described in the description Operation content output means for displaying the operation content on the display means is provided. In the present invention, the operation content output means displays the operation content at a position that does not overlap the display target object that is the operation target.
[0053]
According to the present invention, when the image processing to be executed in the image processing means requires an operation other than the operation described, this operation content is displayed on a part of the display means. For example, in a special case such as throwing in a soccer game, the content operation for throwing is displayed on the display means, and the operation terminal that can be used at this time and the content of the operation are displayed. Therefore, it is not necessary for the player to read all the explanatory texts before playing the game, and since the explanatory text is displayed every time an operation is required, the player can easily understand the operation method. In addition, since the display object can be displayed in various situations related to the operation in this way, the display object related to the operation can be controlled in various situations because the display screen is expressive. .
[0054]
The present invention is a storage medium storing a procedure for causing a processing apparatus to execute any one of the above methods. Examples of the recording medium include a floppy disk, a magnetic tape, a magneto-optical disk, a CD-ROM, a DVD, a ROM cartridge, a RAM cartridge with a battery backup, a nonvolatile RAM cartridge, and the like. A storage medium is a medium in which information (mainly digital data, a program) is recorded by some physical means, and allows a processing device such as a computer or a dedicated processor to perform a predetermined function. It is.
[0055]
In short, according to each of the above-described inventions, any of the above-described inventions is rich in character expression, and the character expression is diversified and rich in relation to operability.
BEST MODE FOR CARRYING OUT THE INVENTION
The best mode for carrying out the present invention will be described below with reference to the drawings. FIG. 1 is an external view of a video game machine using an image processing apparatus according to an embodiment of the present invention. In this figure, the housing 1 has a substantially box shape, and a game processing substrate or the like is provided therein. Further, a CRT type display 1 a and an operation panel 2 are disposed on the front surface of the housing 1. On the operation panel 2, joysticks 2a and 2a and operation buttons 2b and 2b each having a set of three buttons are provided. A game screen is displayed on the display 1a. A three-dimensional screen is developed in the game screen, and the player (character) on the screen can freely move by operating the joystick 2a or the like. This character is one of the display objects.
[0056]
FIG. 2 is an enlarged view of the operation panel according to the embodiment. In this figure, an operation direction 2c is displayed around the joysticks 2a and 2a of the operation panel 2. The operation direction 2c is provided at intervals of 45 degrees around the joystick 2a. That is, there are eight operation directions 2c. On the operation panel 2 having the operation buttons 2b, explanations 2d about the normal operation contents are displayed for each operation button 2b.
[0057]
FIG. 3 is a block diagram showing a game device to which the image processing device of the embodiment is applied. This game device includes a game device body 10, an input device 11, a speaker 14, and a CRT type display 1a as basic elements.
[0058]
The input device 11 includes a joystick 2a and an operation button 2b that includes a set of three buttons. As shown in FIG. 1, a plurality of input devices 11 may be provided.
The CRT type display 1a displays an image of a soccer game or the like executed by the game device. A projector may be used instead of the CRT type display 1a.
The speaker 14 receives a signal from the game apparatus body 10 and generates music, sound effects, and the like. The game apparatus body 10 has a CPU (Central Processing Unit) 101, ROM 102, RAM 103, sound device 104, power amplification circuit (AMP) 105, input / output interface 106, scroll data calculation device 107, co-processor (auxiliary). An arithmetic processing unit) 108, an image data ROM 109, a geometallizer 110, a motion data ROM 111, a drawing device 112, a texture data ROM 113, a texture map RAM 114, a frame buffer 115, an image composition device 116, and a DA converter 117. The motion data is three-dimensional data such as “polygon data constituting a combination in each case of a series of movements of characters such as players” and “background of courts, spectators, structures, etc.”.
[0059]
The CPU 101 is connected to a ROM 102 storing a predetermined program and the like via a bus line, a RAM 103 storing data, a sound device 104, an input / output interface 106, a scroll data arithmetic device 107, a co-processor 108, and a geometalizer 110. Yes.
[0060]
The RAM 103 functions as a buffer, and various commands are written to the geometalizer 110. The input / output interface 106 is connected to the input device 11, whereby the operation signal of the joystick 2 a of the input device 11 is taken into the CPU 101 as a digital quantity. The sound device 104 is connected to the speaker 14 via the power amplifier 105, and the sound signal generated by the sound device 104 is amplified by the power amplifier circuit 105 and then applied to the speaker 14.
[0061]
In the present embodiment, the CPU 101 reads the operation signal from the input device 11 and the image data from the image data ROM 109 or the motion data from the motion data ROM 111 based on a program built in the ROM 102 to display the player (related display). At least contact (contact) determination between a target object) and a ball (specific display target object), collision determination between players, and the like are performed.
[0062]
An image data ROM 109 is connected to the co-processor 108, and therefore predetermined camera position change data is passed to the co-processor 108 (and the CPU 101). The co-processor 108 mainly performs contact determination such as contact between the ball and the player, contact between the player and the player, and at the time of this determination, the co-processor 108 mainly assumes floating point arithmetic. Yes. As a result, the co-processor 108 executes contact determination between the player and the ball, and the determination result is given to the CPU 101. Therefore, the calculation load of the CPU is reduced, and this contact determination is performed more quickly. Executed.
[0063]
After the coordinate value in the three-dimensional space of the display object such as the player or the ball is determined, the conversion matrix for converting the coordinate value into the visual field coordinate system and the data of the player, the goal, the referee, etc. Specified. The geometalizer 110 is connected to the motion data ROM 111 and the drawing device 112. The motion data ROM 111 stores polygon motion data in advance, that is, three-dimensional data such as a player, a ball, a court, and a part of the background (audience, etc.) composed of vertices (polygons). Passed to. The geometalizer 110 performs perspective conversion on the image data specified by the conversion matrix sent from the CPU 101, and obtains data converted from the coordinate system in the three-dimensional virtual space to the visual field coordinate system.
[0064]
The drawing device 112 pastes the texture on the converted image data of the visual field coordinate system and outputs it to the frame buffer 115. In order to perform the pasting of the texture, the drawing device 112 is connected to the texture data ROM 113 and the texture map RAM 114 and is also connected to the frame buffer 115. Polygon data refers to a data group of relative or absolute coordinates of each vertex of a polygon (polygon: mainly a triangle or a quadrangle) composed of a set of a plurality of vertices. The image data ROM 109 stores polygon data set relatively coarse and sufficient for determining contact between a player and a player and a ball, and position change data necessary for camera work. May be. On the other hand, the motion data ROM 111 stores polygon data that is set more precisely with respect to the motions that make up the screen of players, balls, backgrounds, and the like.
[0065]
The scroll data calculation unit 107 calculates scroll screen data such as characters and a part of the background (empty). The arithmetic unit 107 and the frame buffer 115 are connected to a CRT type display 1a via an image composition unit 116 and a D / A converter 117. As a result, polygon screens such as players, courts, balls and backgrounds (partial) temporarily stored in the frame buffer 115, character information such as score, remaining game time, how to use the operation buttons 2b, and other necessary guidance, etc. Are combined in accordance with the designated priority, and final frame image data is generated. This image data is converted into an analog signal by the D / A converter 117 and sent to the CRT type display 1a, and an image of the soccer game is displayed in real time.
[0066]
Next, the operation of the embodiment of the present invention will be described with reference to FIGS.
[Description of main processing routine]
First, the overall operation flow will be described with reference to the main flowchart of FIG. First, for convenience of explanation, the game content processed by the game device of the present embodiment is a soccer game. Basically, 11 players form one team, and these two teams are opponent goals on the court. A game of kicking a ball shall be developed.
[0067]
The main CPU 101 performs processing according to the main flowchart of FIG. 4, and as described above, a character screen (hereinafter referred to as a polygon screen) represented by three-dimensional data using polygons, a part of the background, and a character image. A process of synchronous display control with the scroll screen is realized.
[0068]
First, in step S1 in FIG. 4, the main CPU 101 calculates the movement coordinates of the viewpoint and the movement coordinates of the character represented by the textured polygon data in response to the operation status of the joystick 2a and the operation button 2b. By this processing, the player performs an operation such as running on the screen in the direction instructed by the player.
[0069]
Next, in step S2, position data (screen coordinates) in the screen (screen) on which the coordinate-converted three-dimensional polygon data is displayed is calculated. Based on this polygon display position, players and the like are displayed in a predetermined form at predetermined positions on the screen.
[0070]
Next, the process proceeds to step S3, and scroll data such as sky and score is created. The scroll is a part where the shape of the background or the like mainly does not move, and is displayed on the display 1a by being synthesized with a polygon screen that moves around the screen.
[0071]
In step S4, the polygon increasing means of the first embodiment described later is executed. The polygon increasing process is a process of increasing the number of polygons constituting a character that attracts the player's attention like a player who has received the ball.
[0072]
Next, in step S5, processing of a polygon application unit of the second embodiment described later is executed. Polygon application processing, for example, when expressing a back number on a player's back, prepares a polygon for a back number that is different from the polygons that make up the player and combines them to express the back number It is processing of.
[0073]
Further, in step S6, a brightness change process for changing the brightness according to the distance of the character of the third embodiment described later is executed. The brightness change process is a process of changing the brightness of these characters in accordance with the distance between the character and the viewpoint. According to this brightness change process, for example, a player close to the camera is displayed bright, and a player far from the camera is displayed dark.
[0074]
In step S7, the process of the viewpoint position changing means of the fourth embodiment described later is executed. The viewpoint position changing process is, for example, a process of displaying a dribbling player up while gradually moving the camera viewpoint from a high position to a low position when the player starts the ball and dribbling.
[0075]
Furthermore, in step S8, a motion correction process of a fifth embodiment described later is executed. The motion correction process is for preventing unnaturalness of a series of actions performed when, for example, a dribbling player tries to turn. For example, the motion correction process corrects the position of the ball and the direction of movement so that the player and the ball cannot be seen apart.
[0076]
In addition, the processing of the operation content output means of the sixth embodiment described later is executed in step S9. The operation content output process is a process for displaying an explanation of the operation on the screen when the player needs to perform a special operation while the game is in progress. Examples of special operations include free throw and free kick. As described above, the results executed in steps S1 to S9 are temporarily stored in the frame buffer 115, the RAM 103, and the like.
[0077]
After passing through these processes, the main CPU 101 stands by in step S10 while determining whether or not it is a predetermined timing for drawing the polygon data. When the predetermined timing is reached, in step S11, the X, Y movement amounts, magnifications, and the like of the scroll screen that have been stored in the memory or the like are transferred to the image composition device 116. In step S12, the main CPU 101 executes a display command. The main CPU 101 periodically repeats the processes in steps S1 to S12 described above.
[0078]
[First Embodiment]
Next, the operation of the polygon increasing means according to the first embodiment will be described with reference to FIGS. In this embodiment, a certain viewpoint is defined, and an image viewed from this viewpoint is displayed. On the screen, the display object at a position close to this viewpoint is displayed large, and the display object at a distant position is displayed small.
[0079]
Large display objects, especially players, are represented by many polygons, while small display objects, especially players, are usually represented by few polygons.
[0080]
FIG. 5 shows details of step S4 in FIG. 4 in such a display state. In FIG. 5, first, in step S41, the CPU 101 determines whether polygon increase means is necessary. If this process is not required (step S41; NO), the process of the first embodiment is not required, so steps S42 and S43 are passed.
[0081]
On the other hand, when the CPU 101 determines that this process is necessary (step S41; YES), the process proceeds to step S42. Here, the case where it is determined that the processing is necessary is, for example, the following case.
[0082]
(1) A player is far from a certain point of view and is represented by a small number of polygons, and the ball flies near the player. This is because the player pays attention to the player near the ball so as not to give an unnatural feeling.
[0083]
(2) In addition, this is a case where the player is expected to pay attention despite being far away, such as a player changing.
[0084]
In the case of (1), under the control of the CPU 101, a determination process is executed as to whether or not the player has control of the ball (step S42). When a predetermined player has control of the ball (step S42), a polygon increasing means for increasing the number of polygons of the player is executed (step S43).
[0085]
Next, acquisition of the control right (step S42) will be described with reference to FIGS. This is to determine who has gained control of the ball among a plurality of players who are flying away from a certain viewpoint.
[0086]
This process shifts when the ball starts to fly in the air. First, in step S421, for example, a prediction calculation of a position where the ball bounces is performed. Next, in step S422, a player near the position is directed to the position.
[0087]
Next, in step S423, it is determined whether or not the ball has touched the position where one ball should be bounced. If the ball does not touch the position (step S423; NO), the process exits from this process and moves to the main process. When the ball touches the position (step S423; YES), the position and orientation of each player are captured (step S424).
[0088]
In step S425, the movement direction of the ball and the distance between each player and the ball are calculated. In step S426, the player closest to the ball (referred to as “1st” in FIG. 6) and the player closest to the ball (referred to as “2nd” in FIG. 6). To decide.
[0089]
Next, in step S427, the orientation of the player closest to the ball with respect to the ball is determined. When the direction of the player closest to the ball is generally toward the ball (step S427; forward direction), the control of the ball is given to the player closest to the ball (step S430).
[0090]
When the player closest to the ball is facing in the opposite direction to the ball (turning his back) (step S427; reverse direction), the second player with respect to the ball becomes the first player. In contrast, it is determined whether the distance is within a certain distance (step S429). In step S429, when the second player is not within a certain distance (step S429; NO), the first player can turn and reach the ball faster than the second player, so in step S428 Turn the best player. Thereafter, the control of the ball is given to the first player in step S430.
[0091]
On the other hand, when the player closest to the ball is within a certain distance range with respect to the first player (step S429; YES), when the first player turns and approaches the ball, It is necessary to determine whether the player is approaching the ball quickly. Therefore, in step S431, the orientation of the second player is determined. When the second player is facing the front of the ball (step S431; forward direction), the second player approaches the ball faster than the first player turns and approaches the ball, so step S432 Second, give the ball control. When the second direction is also reverse (step S205; reverse direction), the first player is turned (step S428).
[0092]
These priority data are stored in the RAM 103, for example. For the player who has gained control of the ball in this manner, in step S435, a display of the control right mark is performed on the player. Thereby, for example, as shown in FIG. 8, a mark m to which the control of the ball has been transferred is displayed on the head Ca of the player C on the CRT type display 1a.
[0093]
Subsequently, in step S436, the number of polygons of the player C is determined. When the player C has a large number of polygons (step S436; YES), the player C is displayed as it is on the front side of the screen, so that it is displayed as it is. Further, when the number of polygons of this player C is small (step S436; NO), in step S437, the number of polygons of this player C is set to the same number of polygons as the player displayed as being in front. Since the player C is displayed so as to be on the back side of the screen (far from the viewpoint), the player C is configured with a small number of polygons.
[0094]
Thus, for example, a player C11 configured with a small number of polygons as shown in FIG. 9A is represented as a player C12 configured with a large number of polygons as shown in FIG. 9B.
[0095]
In the above example, the number of polygons of a player having the attention mark m is made the same as the number of polygons of a nearby player, but there are several other methods. For example, the maximum number of polygons is determined in advance corresponding to the size of the player on the screen, and the number of polygons of the player having the attention mark m is increased to this maximum value. Usually, the number of polygons of the player is less than this maximum value. Even if the number of polygons of the player displayed small on the screen is increased unnecessarily, it may be too fine and wasted. Therefore, optimal display is possible by appropriately determining the maximum value according to the size of the player or the distance from the viewpoint. For example, the maximum number of polygons may be defined in proportion to the size of the player on the screen.
[0096]
Alternatively, the number of normal polygons is determined in advance corresponding to the size of the player on the screen, and the number of polygons of the player having the attention mark m is multiplied by a coefficient k (k> 1). It may be a thing. The coefficient k may be a constant value or may be changed according to the size of the player on the screen or the distance from the viewpoint.
[0097]
Alternatively, the number of polygons may be increased by adding or multiplying a predetermined value a to the number of polygons of the player having the attention mark m. The value a to be added or multiplied may be a fixed value, or may be appropriately determined according to the size of the player or the distance from the viewpoint.
In short, it is only necessary to increase the number of polygons of the player having the attention mark m to such an extent that the display does not make the player feel uncomfortable.
[0098]
In the above description, the number of polygons of nearby players is always large. However, the number of polygons can be reduced depending on the case. This will be described using a specific example.
[0099]
For example, it is assumed that there are three opponents A, B, and C in front of a player (character) operated by the player. Assume A, B, and C from the closest player. If the viewpoint is close to the player and the opponents A, B, and C are viewed, in this case, A is represented most forward. Based on the above principle, this A has the largest number of polygons. Next, B is represented, and then C is represented. At this time, there is a relationship of (number of polygons of A)> (number of polygons of B)> (number of polygons of C).
[0100]
In this case, the player first contends with the closest A. If you defeat or eliminate A, then you will fight with B. Next is C. By the way, the player first pays attention to A, but after defeating A, the player naturally pays attention to the next opponent B. At this point, A has the largest number of polygons, but is no longer attracting attention and is meaningless to express in detail. Therefore, the number of defeated opponents should be reduced slightly even if the opponent is nearby. As a result, excessively fine expressions can be prevented and the calculation load can be reduced. The polygon thus reduced may be added to the polygon of the next partner B. The process of fighting C after defeating B is the same.
[0101]
As described above, in this first embodiment, a player who is displayed at a distance from a certain viewpoint is configured with a small number of polygons by the polygon increasing means. When the player is expected to pay attention as in the case of the player, the number of polygons can be the same as that of the player displayed so as to be close to a certain viewpoint. For this reason, even if the player is far from the viewpoint, the player's attention is given a fine shape and pattern, and a better display form can be provided. Therefore, the player hardly feels uncomfortable.
[0102]
In addition, according to this embodiment, by reducing the number of polygons of nearby players that are not attracting attention, the processing burden can be reduced without causing the player to feel uncomfortable.
[0103]
In short, the number of polygons of the player is determined according to the perspective in principle. However, in the first embodiment, the situation (for example, the actual play state, the relation with the player, the relation with the ball, the relation with the background, etc.) ) To amend this principle accordingly. As a result, the player is less likely to feel discomfort, and the processing load can be reduced by reducing the number of polygons without causing the player to feel discomfort.
[0104]
[Second Embodiment]
In this second embodiment, if the character is, for example, a player in a soccer game, a predetermined part of the back is cut out, and a base made of polygons, a uniform pattern, and a spine number are sequentially cut into the cut out part. It is designed to be fitted. In this embodiment, the polygon application means performs this operation.
[0105]
In step S5 of the main routine of FIG. 4, the polygon applying means operates. Details of this step S5 are shown in FIG. 10, in step S501, the CPU 101 of the game apparatus main body 10 has a player composed of a plurality of polygons so that a part C21b of the back C21a of the player C21 is omitted from the motion data ROM 111 or the like as shown in FIG. Read C21 polygon data. The back C21a of the player C21 is composed of a plurality of polygons Pn1 to Pn6. Further, the polygon data corresponding to the portion C21b surrounded by the polygons Pn1 to Pn6 is not included in the read data. Therefore, according to the polygon data read in step S501, as shown in FIG. 11, it is handled as if a part C21b of the back C21a of the player C21 is hollowed out.
[0106]
Next, in step S502, polygon data PD1 serving as a background is read from the motion data ROM 111 or the like. This polygon data PD1 is data that fits exactly into the hollowed out part C21b and includes certain color data.
[0107]
In step S503, polygon data PD2 to which the texture of the pattern is mapped is read out. This polycon data PD2 corresponds to the cut out part C21b, and color data is given so that the part other than the texture is transparent.
[0108]
In step S504, the polygon data PD3 to which the spine number is mapped is read out. This polygon data PD3 corresponds to the hollowed out part C21b, and the part other than the back number is transparent.
[0109]
In step S505, the polygon data PD1 to PD3 read in this way are mapped to the cutout portion 21b of the player C21 in the order of PD1, PD2, and PD3.
[0110]
Furthermore, the face data FD of the player C21 is also mapped to the front face C21d of the head of the player 21 according to the spine number in step S506.
[0111]
As a result, the whole is expressed by the polygon, and the back number texture-mapped by the polygon is expressed on the back. As described above, one character is completed by the whole polygon, the polygon of the number, and the face data. The same procedure can be used for other players.
[0112]
As described above, in the second embodiment, since a character including a back number can be expressed by a polygon without using almost any texture mapping, a large number of display objects (characters) can be displayed with a small calculation load.
[0113]
In order to reduce the processing of motion data calculation, only the part of C21b in FIG. 11 is calculated, and the back number is displayed as a polygon as in the second example, and conversely, the whole body is synthesized with it. May be. In this case, it is not necessary to calculate the head, both hands, and both feet. The pose of this whole body is determined in advance, and the head, hands and feet are combined into one pose. For this reason, this body cannot move its hands and feet freely, but it can be used in "poses of posture" that are frequently used.
[0114]
Further, according to the second embodiment, for example, if only the back number part (PD1, PD2, PD3) is prepared for 22 persons, the parts (polygons) of the body part of the player can be shared. Although the players have the same physique, the number of polygon data can be significantly reduced. It should be noted that polygons for displaying an entire individual player such as a star player may be prepared individually, and the polygons of other players may be shared.
[0115]
According to this embodiment, since the three polygons (PD1, PD2, PD3) are mapped to the part of the character that is hollowed out, the polygon mapping process can be simplified. it can.
[Third Embodiment]
In the third embodiment, by executing the brightness change process, the player displayed on the front side is displayed brightly on the display screen of the CRT type display 1a and displayed on the back side (the side far from the viewpoint). The players are displayed darkly to give them a sense of perspective. Whether the player is near or far is determined based on the number of polygons.
[0116]
This brightness change process is executed in step S6 of the main flowchart of FIG. Details of step S6 are shown in the flowchart of FIG.
The CPU 101 of the game apparatus body 10 processes the flowchart of FIG. 12 and determines the brightness of each player according to the number of polygons.
[0117]
In step S601, polygon data of a player (character) at the next display timing is taken from the motion data ROM 111 or the like. Next, in step S602, the number of polygons of the captured players is compared. Step S602 branches to three.
[First branch]
When the player has a large number of polygons, as described above, the character is close to the viewpoint (step S602; large), so the color bank palette for determining the brightness of the player is bright. A value for brightness is set (step S603). In step S604, it is determined whether the brightness of all players has been determined. If not all has been completed (step S604; NO), the process proceeds to the polygon data reading process in step S601 again.
[Second branch]
When the polygon data of the player is read out in step S601 and the number of polygons is medium (step S602; medium), the CPU 101 sets a value that provides lightness of medium brightness in the color bank type palette ( Step S605).
[Third branch]
When the polygon data of the player is read out in step S601 and the number of polygons is small (step S602; small), the CPU 101 sets the darkest brightness value in the color bank palette (step S605).
[0118]
The polygon number comparison process performed in step S602 is, for example, the following process. Two threshold values th1 and th2 (th1 <th2) are given in advance. When the number of polygons is larger than the threshold value th2, the process proceeds to step S603. When the number of polygons is smaller than the threshold value th1, the process proceeds to step S606. When it is between these threshold values, the process proceeds to step S605. These threshold values may be constant values, or may be changed depending on the viewpoint position, background color, and the like.
[0119]
Thus, the brightness set in the color bank method palette in steps S603 to S606 is stored until the display timing.
[0120]
When the display timing of step S12 in FIG. 4 is reached, as shown in FIG. 13, the player C31 in front is displayed brightest on the screen of the CRT type display 1a. In addition, on the screen of the CRT type display 1a, the player C32 displayed at the middle position is slightly darker than the player C31, and the player C33 displayed at the back is the player displayed at the middle. It will be displayed darker than C32.
[0121]
As described above, according to the third embodiment, the closer the character is, the brighter the color is displayed, and the sense of perspective increases and the presence in the game is improved. Further, since the distance determination is performed by comparing the number of polygons, the processing is simplified and the burden on the CPU is reduced.
[0122]
As shown in the first embodiment, when increasing the number of polygons of a player to be noticed, it may be determined that the number of polygons is large even though the position of the player is far. As a process in this case, (1) Judgment is based on the number of polygons, and the brightness is set high even if it is far away. (2) Judgment is made based on the original number of polygons, and the lightness is set low as it is far away Either of these can be considered. In the case of (2), for example, it is determined whether or not to use the original number of polygons based on the presence or absence of the target mark m in FIG.
[0123]
In the above description, the distance of the character position is determined based on the number of polygons of the character, but it may be determined based on the distance between the viewpoint and the character.
[0124]
In this case, the thresholds th1 and th2 are not the number of polygons but the distance in a three-dimensional space. Or you may make it judge based on the magnitude | size of the character on a screen. If the sizes of all the characters are substantially the same, the distance of the position can be roughly determined by the size of the character.
[0125]
In the palette settings S603, S605, and S606, only the brightness is set. However, the present invention is not limited to this. Any of lightness, saturation, and chromaticity, which are color elements, may be set. For example, a nearby player is set to a light color and a far player is set to a dark color.
[0126]
Further, when setting the palette, the setting may be appropriately changed depending on the color of the background. For example, the brightness is set low when the background is dark, and the brightness is set high when the background is bright.
[0127]
In the above description, the number of polygons of nearby players is always large. However, the number of polygons may be reduced depending on the case. For example, there are three opponents A, B, and C in front of the player (character) operated by the player described in the first embodiment, and fight with them in turn. In this case, as in the case of the first embodiment, the number of polygons of the opponent who is knocked down is slightly reduced and the brightness is lowered even if the opponent is near.
[0128]
In short, as a general rule, the lightness of the color that expresses the player is determined according to the perspective, and the situation (for example, the actual state of play, the relationship with the player, the relationship with the ball, the relationship with the background, etc.) We will amend this principle accordingly.
[Fourth Embodiment]
The fourth embodiment relates to camera work (viewpoint position control), and provides a screen display by realizing viewpoint position changing means. Due to the camera work of this viewpoint position changing means, the content of the game of the soccer game is displayed entirely on the screen of the CRT type display 1a, or some players are displayed in close-up. In this fourth embodiment, the viewpoint is a point provided in a virtual three-dimensional space and serving as a reference for projecting a polygon or the like appearing in this space onto a plane, so to speak, the position of the camera.
[0129]
The viewpoint position changing means of the fourth embodiment is realized by processing step S7 of the main flowchart of FIG. The details are shown in the flowchart of FIG.
[0130]
In the following description of the fourth embodiment, the case where the viewpoint position changing process starts due to the start of dribbling in the soccer game will be described as an example. Examples of the relationship between the position of the camera and the position of the player are shown in FIGS. 15 and 17, and examples of screens on the CRT type display 1a taken by these camera works are shown in FIGS.
[0131]
First, in FIGS. 15 and 17, the X axis is the horizontal direction of the screen of the CRT type display 1a, the Y axis is the vertical direction of the same screen, and the Z axis is the vertical direction to the same screen. For example, it is assumed that players C51, C52, C53, etc. are moving in the X-axis direction on the court in the illustrated positional relationship on the court in the three-dimensional space having the XYZ axes. At this time, the camera 70 is assumed to be arranged at coordinates (x1, y1, z1) as shown in FIG.
[0132]
At this time, in step S701, the CPU 101 determines whether any player is dribbling. Whether the player is dribbling is determined based on the viewpoints such as whether the player is holding the ball B51 while moving, whether the player is in contact with the ball from time to time, and whether the player's direction of movement matches the direction of the ball. The
[0133]
In FIG. 15, it is assumed that the player C51 dribbles the ball B51. Operations performed by the player at this time will be described with reference to FIG. The player controls the related display object (player C51) using the joystick 2a so as to match the specific display object (ball B51). When dribbling, the joystick 2a is tilted in a desired direction. By the way, since there are only eight movement directions 2c of the joystick 2a, it is difficult for the player C51 to accurately reach the position of the ball B51. Therefore, when approaching within a certain range, processing is performed so that the positions match.
[0134]
In the case of the state as shown in FIG. 15, it is determined in step S702 whether or not it is a predetermined time ago. Here, if it is before a predetermined time (step S702; previous), the players C51 to C53 and the like are photographed at this camera position (x1, y1, z1) (step S703). Data that is taken at this camera position is stored until a predetermined display timing is reached. Then, by executing step S12 in FIG. 4, a screen 150 having an overhead view as shown in FIG. 16 is obtained. The entire court such as the players C51 to C53 is displayed on the screen 150. In addition, after processing step S703, this process is exited.
[0135]
When dribbling has been performed (step S701; YES) and a certain time has elapsed (step S702; elapsed), the camera 70 is moved to the coordinates (x1, y2, z2) as shown in FIG. Step S704). Here, when the viewpoint of the player is the origin in the coordinate system for convenience, the direction toward the screen is (+) on the z axis, and the upward direction on the screen is (+) on the y axis, and y2 <y1, z2> z1.
[0136]
Data for displaying the player C51 and the like at such a camera position is stored until a predetermined display timing is reached. Then, by executing step S12 of FIG. 4, a display of a state viewed from a lower camera position is realized on the screen 150 as shown in FIG. Note that after the processing of step S704, the processing is exited.
[0137]
As described above, in the fourth embodiment, the entire image of the court is displayed on the screen of the CRT type display 1a on the basis of a relatively far and high camera position. Can be close-up while changing the angle of the viewpoint toward the character, so that the realism of the game is improved.
[0138]
In this embodiment, the specific attention screen is used for dribbling. However, the present invention is not limited to this. For example, the specific attention screen may be used even when a player who is far away controls the ball.
[0139]
Further, a corner kick, goal kick, free kick, PK, throw-in, or the like may be used as the attention screen. For example, a player who goes toward the ball to kick is gradually caught up.
[0140]
In short, the attention screen is an image of a scene where the sense of presence of the game is enhanced, and the viewpoint position changing means of this embodiment can arbitrarily change the camera position along with the excitement of the game. The attention screen can be effectively displayed on the display 1a.
[0141]
In the above embodiment, the camera position is fixed in the x-axis direction and changed with respect to the y-axis and z-axis. However, the camera position is also changed in the x-axis direction in addition to the y-axis and z-axis. May be. Further, either the y axis or the z axis may be changed.
[Fifth Embodiment]
The fifth embodiment relates to motion correction processing. The motion correction process is, for example, in a soccer game where the ball and the player's foot are in actual contact with each other, and the movement of the ball and the player, in particular, the movement of the ball and the player's foot is not unnatural. is there.
[0142]
This is performed in order to prevent unnatural movement caused by the movement of the ball and the movement of the player's foot not being linked since the movement of the player's foot is predetermined. Therefore, the position of the ball is moved to match the motion, or the direction of the ball is adjusted. For example, adjust the ball position when turning, and adjust the ball method when dribbling.
[0143]
Hereinafter, a case where the player C61 turns around the ball B61 will be described as an example. First, FIG. 19A shows a turn operation in the case where the motion sleeve correct process of the fifth embodiment is not performed. In this figure, the relationship between the player C61 and the ball B61 at time t1, time t2, time t3,..., Time t8 is shown in order from the left.
[0144]
First, it is assumed that the ball B61 has moved to the target point. Then, it is assumed that the player C61 is predicted to come into contact at approximately the eighth frame (time t8) by making a contact determination. Therefore, the CPU 101 needs to make a turn for each frame of the first frame (time t1), the second frame (time t2), the third frame (time t3), the fourth frame (time t4),. The motion of the player C61 is assigned, and processing is performed so that the ball and the foot of the player C61 come into contact at the eighth frame (time t8). For example, at time t1, player C61 is facing right, but at time t2, player C61 jumps and his body turns slightly diagonally.
[0145]
After time t3, the body turns gradually and turns to the front at time t5. Turns left almost at time t7. However, since the motion of the player C61 of each frame is determined, actually, the ball B61 and the foot of the player C61 do not come into contact even at the 8th frame, or when the motion of the player C61 of a certain frame moves to the next frame In addition, the motion is greatly different. When moving in such a state, the movement looks unnatural.
[0146]
Therefore, when the motion correction process of the fifth embodiment is executed, the result is that the motion of the player C61 assigned to each frame is assigned uniformly at the eighth frame, and the ball B61 and the foot of the player C61 are naturally It will be possible to display in a state of touching in a simple manner.
[0147]
Next, a motion correction process according to the fifth embodiment will be described with reference to the flowchart of FIG. It is assumed that player C61 has the right to control ball B61.
First, in step S801, it is determined whether the joystick 2a has been tilted. When the joystick 2a is not tilted (step S801: NO), this process is exited.
[0148]
On the other hand, when the joystick 2a is tilted in a certain direction (step S801; YES), this is detected by the CPU 101. The CPU 101 receives the direction data (step S802) and moves the player C61 and the hole B61 in that direction (step S803). This state is stored as data.
[0149]
In step S804, it is determined whether the joystick 2a has been reversed. When there is no inversion operation (step S804: NO), this process is exited. When the display timing of step S13 in FIG. 4 is reached, a screen of the player moving in the specified direction while dribbling on the CRT type display 1a is displayed.
[0150]
Next, here, it is assumed that the player tilts the joystick 2a to the side opposite to the above direction (step S804: YES). This command is detected by the CPU 101 in step S804. Then, the CPU 101 performs a contact calculation prediction calculation in step S805. As a result, for example, it is determined that the ball B61 and the player C61 come into contact at the eighth frame at time t8 in FIG. The CPU 101 performs prediction calculation based on the speed of the ball B61, the jump direction, height, and speed of the player C61.
[0151]
Thereby, CPU101 reads the basic motion of player C61 corresponding to the frame | frame in each time t1-t2 from memory | storage data by step S806. These basic motions are those shown in FIG.
[0152]
By the way, since the CPU 101 predicts that the player C61 and the ball B61 will come into contact at the eighth frame at time t8, the basic motion of the player C61 corresponding to the frame will be a motion more suitable for the frame. The correction calculation is performed (step S807). The data of the player C61 'after this correction calculation is stored, and the process goes out.
[0153]
The position of the player C61 'at each frame at time t1, t2,... Shown in FIG. 19B is shifted from the position of each frame C61 at the same time t1, t2,. It is in an appropriate position, and finally, the ball B61 and the foot of the player C61 are in contact with each other at the end of the turn.
[0154]
Each time Steps S1 to S12 in FIG. 4 are executed, frames are displayed at time t1, time t2,..., Time t8, which are displayed on the CRT type display 1a at the display timing of Step S12 in FIG. Is done.
[0155]
As described above, according to the fifth embodiment, the movement of the foot of the ball B61 and the player C61 changes in a very natural state and looks like a movement in an actual soccer game. ) Including the display screen can be made expressive and the display object (character) can be controlled in various ways in relation to the operation.
[0156]
In this embodiment, when shifting from a dribble that is one motion to a turn that is another motion, if the target player has the control of the ball based on the above embodiment, the player Even if the joystick (operating rod) is tilted in the direction opposite to the traveling direction on the way to, the turn correction process is executed according to the flowchart of FIG. 20 without immediately shifting to the turn mode. Further, the player can appropriately control the ball by the correction process without controlling the related display object (player C61) so as to be adapted to the specific display object (ball B61). By doing so, even if the operating rod is not operated accurately, it is possible to follow the player's will to control the ball and make the player turn.
[0157]
For example, when the joystick 2a is tilted so that the ball moves toward the player, the ball B61 is moved to the player C61 when the tilting direction is not within the predetermined range toward the ball B61. Can be moved toward. As can be seen from FIG. 2, the joystick 2a is limited to movement in eight directions, and can only specify movement every 45 degrees. Even when two tilt directions close to the ball B61 are selected, the image processing is performed so that the player C61 accurately matches the ball B61 by the correction process.
[0158]
On the other hand, when the control of the ball has not been transferred to the player who is the operation target, the mode is changed to the turn mode when the joystick is tilted in the direction opposite to the running direction. By doing so, it is possible to realize a game development in line with the player's will to withdraw from taking the ball.
[Sixth Embodiment]
In the sixth embodiment, when the player performs an operation other than the normal operation description 2d of the operation button 2b on the operation panel 2 of the housing 1 as shown in FIG. The explanation can be displayed on the CRT type display 1a. The operation content output means of this embodiment is realized by executing step S9 of FIG. Details of this processing are shown in FIG.
[0159]
Normally, the operation panel 2 is provided with an operation direction 2c of the joystick 2a and a normal usage description 2d of the operation button 2b. Here, it is assumed that the soccer game is being developed and the mode is changed to the slow-in mode. In other words, it is assumed that it is necessary to display operation contents that are not explained originally in the housing (step S901; YES). At this time, in step S902, the CPU 101 determines what mode the specific operation content is.
[0160]
For example, if it is slow-in (step S901; slow-in), the CPU 101 instructs the scroll data arithmetic unit 107 and the like to display the necessary button display bodies 20a, 20b, 20c on the lower left of the screen. Form data. Similarly, explanatory text display bodies 21a, 21b,... Assigned to the button display bodies 20a, 20b, 20c. Data that can display 21c is formed. In this case, the explanatory note display body 22a is prohibited from throwing, the explanatory note display body 22a is long throwing, and the display body 22c is prohibited. These are stored until a predetermined timing.
[0161]
Here, when the predetermined display timing (step S12 in FIG. 4) and the stored data are displayed, as shown in FIG. 22, the throwing player C71 with the ball B71 and the player C72 in the court C75, C73 and the like are displayed, and button display bodies 20a, 20b, and 20c and explanatory text display bodies 21a, 21b, and 21c that are the operation contents thereof are displayed at the lower left of the screen.
[0162]
If it is a goal kick (PK) (step S901; PK), the CPU 101 instructs the scroll data arithmetic unit 107 and the like to display necessary button display bodies 20a, 20b, and 20c on the lower right of the screen. Data to be formed is formed.
[0163]
Similarly, data that can display the explanatory note display bodies 22a, 22b, and 22c assigned to the button display bodies 20a, 20b, and 20c is formed. In this case, the display body 22a is prohibited from use, the display body 22b is prohibited from use, and the display body 22c is short-circuited. These are stored until a predetermined timing.
[0164]
When the stored data is displayed at a predetermined display timing (step S12 in FIG. 4), the goal keeper C82 stands in front of the goal C81 as shown in FIG. The player C83 is present, the ball B81 is placed under the feet, and the button display bodies 20a, 20b, 20c and the operation contents (description display bodies 22a, 22b, 21c) are displayed at the lower right of the screen. Yes.
[0165]
Even in the case of a corner kick (step S902; corner kick), for the corner kick, data that can display the button display bodies 20a, 20b, and 20c and the explanatory text display bodies 22a, 22b, and 22c assigned thereto are displayed. Form (step S904).
[0166]
As described above, in the sixth embodiment, only the minimum necessary explanatory text is displayed on the operation panel 2 of the casing 1, and the other operation contents can be displayed on the screen whenever necessary. Therefore, the player does not need to read all the explanations before playing the game, and the explanation is displayed every time an operation is required. Therefore, it is possible to provide a game device that allows the player to easily understand the operation method.
[0167]
Further, in the sixth embodiment, since the player and the like can be operated after reading the operation content, the character expression operation is facilitated in relation to the operability.
[0168]
In order to display the necessary explanatory text on the screen, a flag is provided for each mode (throwing, PK, kick, dribbling, etc.), and “1” is set to the flag of the mode that requires the explanatory text. Also good.
[0169]
In the sixth embodiment, the operation button display bodies 20a, 20b, and 20c, the explanatory text display bodies 21a, 21b, and 21c, and the display bodies 22a, 22b, and 22c assigned thereto are played. It can be displayed at a screen position that does not get in the way. The screen position that does not interfere with the game is a position that does not overlap with the player, the ball, and the goal. Further, the position does not overlap with the course of the ball. For example, it is a background part on which the sky or spectator seats are displayed, or a part of the court that is not directly related to play.
[0170]
In the above embodiment, a soccer game has been described as an example. However, the present invention can also be applied to rugby, American football, volleyball, basketball, other ball games, ice hockey, and other games.
[Brief description of the drawings]
FIG. 1 is an overall perspective view of an image processing apparatus according to an embodiment of the present invention.
FIG. 2 is a plan view of an operation panel unit according to the embodiment.
FIG. 3 is a block diagram showing a configuration of a signal processing system of the image processing apparatus according to the embodiment.
FIG. 4 is a main flowchart for explaining the operation of the embodiment;
FIG. 5 is a flowchart for explaining the operation of the first embodiment;
FIG. 6 is a detailed flowchart of priority determination in step S42 “controlling right determination processing” in the flowchart of FIG. 5;
FIG. 7 is a detailed flowchart of a polygon increasing process in step S43 “Polygon composition calculation” in the flowchart of FIG. 5;
FIG. 8 is a diagram for explaining priority display according to the first embodiment;
FIG. 9 is a diagram for explaining polygon increase according to the first embodiment;
FIG. 10 is a flowchart for explaining the operation of the second embodiment;
FIG. 11 is a diagram for explaining the operation of the second embodiment;
FIG. 12 is a flowchart for explaining the operation of the third embodiment;
FIG. 13 is a diagram for explaining the operation of the third embodiment;
FIG. 14 is a flowchart for explaining the operation of the fourth embodiment;
FIG. 15 is an explanatory diagram when the camera of the fourth embodiment is photographed at a high position;
FIG. 16 is a diagram showing a display screen with a high camera position according to the fourth embodiment;
FIG. 17 is an explanatory diagram when the camera of the fourth embodiment is photographed at a low position;
FIG. 18 is a diagram showing a display screen according to the position of a low camera according to the fourth embodiment.
FIG. 19 is an explanatory diagram of motion according to the fifth embodiment.
FIG. 20 is a flowchart for explaining the operation of the fifth embodiment;
FIG. 21 is a flowchart for explaining the operation of the sixth embodiment;
FIG. 22 is an explanatory diagram showing an operation example of the sixth embodiment;
FIG. 23 is an explanatory diagram showing another operation example of the sixth embodiment.

Claims (4)

仮想3次元空間内に配置された複数の要素から構成され表示対象体を遊戯者が操作するための操作手段と、
前記操作手段からの操作信号に応じて、前記仮想3次元空間内において前記表示対象体を移動させる移動手段と
移動する前記表示対象体が、前記仮想3次元空間内に配置された他の表示対象体と断続的又は継続的に接触して共に移動する所定の状態であるか否かを判定し、該所定の状態であると判定された場合に、該所定の状態が一定時間維持されているか否かを判定する判定手段と
前記所定の状態が一定時間維持されていると判定された場合に、前記仮想3次元空間内に設定された仮想視点を、前記表示対象体に近づけた位置へ移動させる制御を行う視点制御手段と
前記視点制御手段により移動した前記仮想視点から見える前記表示対象体を含む前記仮想3次元空間内の状態を透視変換して2次元画像データを生成する画像生成手段と
前記2次元画像データに基づいて前記表示対象体を含む仮想3次元空間内の状態を表示する表示手段と
を有するゲーム装置。
And operation means for a player to display object that consists of a plurality of elements arranged in a virtual three-dimensional space to operate,
Moving means for moving the display object in the virtual three-dimensional space in response to an operation signal from the operation means ;
It is determined whether or not the display object to be moved is in a predetermined state in which the display object moves intermittently or continuously in contact with another display object arranged in the virtual three-dimensional space and moves together. A determination means for determining whether or not the predetermined state is maintained for a certain period of time when it is determined that
Viewpoint control means for performing control to move a virtual viewpoint set in the virtual three-dimensional space to a position close to the display object when it is determined that the predetermined state is maintained for a certain period of time; ,
Image generation means for generating a two-dimensional image data by perspective-transforming a state in the virtual three-dimensional space including the display object seen from the virtual viewpoint moved by the viewpoint control means ;
Display means for displaying a state in a virtual three-dimensional space including the display object based on the two-dimensional image data ;
A game device having
前記判定手段は、前記表示対象体が、前記他の表示対象体と所定の範囲内に近づいた否かの接近情報、及び、前記表示対象体の移動方向と前記他の表示対象体の移動方向が一致しているか否かの移動方向情報に基づいて、前記所定の状態であるか否かを判定するものであり
前記視点制御手段は、前記仮想3次元空間において前記表示対象体が移動する移動面よりも高く且つ該表示対象体を視野内に捉える位置に設定された前記仮想視点を、該設定位置よりも低く且つ前記表示対象体に近づいた位置へ移動させる制御を行うものであり
前記画像生成手段は、前記視点制御手段による前記仮想視点の移動の最中において前記2次元画像データを順次生成するものであり
前記表示手段は、順次生成された前記2次元画像データに基づいて、前記設定位置から前記表示対象体を捉えた俯瞰画像から、該設定位置より低い位置から前記表示対象体を捉えた近接画像へと順次クローズアップされた前記仮想3次元空間内の状態を表示するものである
請求項1記載のゲーム装置
The determination means includes approach information as to whether or not the display object has approached a predetermined range with the other display object, and a moving direction of the display object and a moving direction of the other display object. Is based on the movement direction information as to whether or not they match, it is determined whether or not the predetermined state ,
The viewpoint control means sets the virtual viewpoint set at a position higher than a moving plane on which the display object moves in the virtual three-dimensional space and capturing the display object in a field of view to be lower than the set position. And control to move to a position approaching the display object ,
The image generation means sequentially generates the two-dimensional image data during the movement of the virtual viewpoint by the viewpoint control means ,
The display means, based on the sequentially generated two-dimensional image data, from an overhead image obtained by capturing the display object from the set position to a close image obtained by capturing the display object from a position lower than the set position. And sequentially displaying the state in the virtual three-dimensional space ,
The game device according to claim 1 .
前記視点制御手段は、前記所定の状態が一定時間維持されている場合に、前記仮想3次元空間に設定された前記仮想視点を、3次元座標系の少なくとも2つの座標軸に対して移動させる制御を行うものである
請求項1又は2記載のゲーム装置
The viewpoint control means performs control to move the virtual viewpoint set in the virtual three-dimensional space with respect to at least two coordinate axes of a three-dimensional coordinate system when the predetermined state is maintained for a certain period of time. What to do ,
The game device according to claim 1 or 2 .
仮想3次元空間内に配置された複数の要素から構成される表示対象体を遊戯者が操作するための操作手段、移動手段、判定手段、視点制御手段、画像生成手段、及び表示手段を有するゲーム装置の制御方法であって
前記移動手段により、前記操作手段からの操作信号に応じて、前記仮想3次元空間内において前記表示対象体を移動させるステップと
前記判定手段により、移動する前記表示対象体が前記仮想3次元空間内に配置された他の表示対象体と断続的又は継続的に接触して共に移動する所定の状態であるか否かを判定し、該所定の状態であると判定された場合に、該所定の状態が一定時間維持されているか否かを判定するステップと
前記所定の状態が一定時間維持されていると判定された場合に、前記視点制御手段により、前記仮想3次元空間内に設定された仮想視点を、前記表示対象体に近づけた位置へ移 動させる制御を行うステップと
前記画像生成手段が、前記視点制御手段により移動した前記仮想視点から見える前記表示対象体を含む前記仮想3次元空間内の状態を透視変換して2次元画像データを生成するステップと
前記表示手段が、前記2次元画像データに基づいて前記表示対象体を含む仮想3次元空間内の状態を表示するステップと
を備えるゲーム装置の制御方法
A game having operation means, moving means, determination means, viewpoint control means, image generation means, and display means for a player to operate a display object composed of a plurality of elements arranged in a virtual three-dimensional space An apparatus control method comprising :
Moving the display object in the virtual three-dimensional space in accordance with an operation signal from the operation means by the moving means ;
The determination means determines whether or not the moving display object is in a predetermined state in which the display object moves intermittently or continuously in contact with another display object arranged in the virtual three-dimensional space. A step of determining whether or not the predetermined state is maintained for a predetermined time when it is determined that the predetermined state is ;
When said predetermined condition is determined to be kept constant time by the viewpoint control unit, the set virtual viewpoint in the virtual three-dimensional space, to move to a position closer to the display object Performing the control ;
The image generation means generates a two-dimensional image data by perspective-transforming a state in the virtual three-dimensional space including the display object viewed from the virtual viewpoint moved by the viewpoint control means ;
The display means displaying a state in a virtual three-dimensional space including the display object based on the two-dimensional image data ;
A control method for a game device comprising:
JP2001401404A 1995-04-27 2001-12-28 Image processing apparatus, image processing method, game apparatus using the same, and storage medium Expired - Fee Related JP3912658B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001401404A JP3912658B2 (en) 1995-04-27 2001-12-28 Image processing apparatus, image processing method, game apparatus using the same, and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP12728895 1995-04-27
JP7-127288 1995-04-27
JP2001401404A JP3912658B2 (en) 1995-04-27 2001-12-28 Image processing apparatus, image processing method, game apparatus using the same, and storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP53237796A Division JP3529138B2 (en) 1995-04-27 1996-04-26 Image processing apparatus, image processing method, game apparatus using the same, and storage medium

Publications (2)

Publication Number Publication Date
JP2002260015A JP2002260015A (en) 2002-09-13
JP3912658B2 true JP3912658B2 (en) 2007-05-09

Family

ID=26463279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001401404A Expired - Fee Related JP3912658B2 (en) 1995-04-27 2001-12-28 Image processing apparatus, image processing method, game apparatus using the same, and storage medium

Country Status (1)

Country Link
JP (1) JP3912658B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4291816B2 (en) 2005-12-27 2009-07-08 株式会社コナミデジタルエンタテインメント GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP7277085B2 (en) * 2018-07-04 2023-05-18 キヤノン株式会社 Information processing device, information processing method and program

Also Published As

Publication number Publication date
JP2002260015A (en) 2002-09-13

Similar Documents

Publication Publication Date Title
JP3529138B2 (en) Image processing apparatus, image processing method, game apparatus using the same, and storage medium
EP1073016B1 (en) Method for generating shadows in video games
JP4114029B2 (en) Image processing apparatus, image processing method, and recording medium
EP0808644B1 (en) Object-throwing video game system
US8123600B2 (en) Storage medium storing game program and game apparatus
KR20000064948A (en) Image processing apparatus and image processing method
US7804502B2 (en) Method of causing first object to take motion according to positional relationship with second object
KR19990036835A (en) A computer readable recording medium having recorded thereon a video game system and a program for executing the game.
JP2001029654A5 (en)
EP1213044B1 (en) Video game system, character action control method, and readable storage medium storing character action control program
JP4141389B2 (en) GAME DEVICE AND GAME PROGRAM
JP5008866B2 (en) PROGRAM, INFORMATION STORAGE MEDIUM, AND GAME DEVICE
JP2009000383A (en) Program, information recording medium and image generating system
JP4521020B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP2009273865A (en) Game program, game machine, and game control method
JP4129651B2 (en) Image processing apparatus, game apparatus, image processing method, and recording medium
US7131907B2 (en) System and method for superimposing an image on another image in a video game
JP3912658B2 (en) Image processing apparatus, image processing method, game apparatus using the same, and storage medium
JPH10302088A (en) Image generator and information storage medium
JP4600793B2 (en) Image processing device
JP5220350B2 (en) Program, information storage medium, and image generation system
JP2001184523A (en) Image generating system and information storage medium
JP2001149649A (en) Sport game device and picture image display method for sport game
JP4868568B2 (en) Program, information storage medium, and image generation system
JP4705145B2 (en) Drawing processing program, drawing processing apparatus, and drawing processing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060613

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060925

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070125

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100209

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130209

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees