JP4659071B2 - Image processing program, image processing apparatus, and image control method - Google Patents

Image processing program, image processing apparatus, and image control method Download PDF

Info

Publication number
JP4659071B2
JP4659071B2 JP2008159130A JP2008159130A JP4659071B2 JP 4659071 B2 JP4659071 B2 JP 4659071B2 JP 2008159130 A JP2008159130 A JP 2008159130A JP 2008159130 A JP2008159130 A JP 2008159130A JP 4659071 B2 JP4659071 B2 JP 4659071B2
Authority
JP
Japan
Prior art keywords
shape
image
virtual camera
planar object
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008159130A
Other languages
Japanese (ja)
Other versions
JP2010002978A (en
Inventor
茂樹 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2008159130A priority Critical patent/JP4659071B2/en
Publication of JP2010002978A publication Critical patent/JP2010002978A/en
Application granted granted Critical
Publication of JP4659071B2 publication Critical patent/JP4659071B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、画像処理プログラム、特に、画像を画像表示部に表示するためのデータを処理する画像処理プログラムに関する。また、この画像処理プログラムを実行可能な画像処理装置、およびこの画像処理プログラムに基づいてコンピュータにより制御される画像制御方法に関する。   The present invention relates to an image processing program, and more particularly to an image processing program for processing data for displaying an image on an image display unit. The present invention also relates to an image processing apparatus capable of executing the image processing program, and an image control method controlled by a computer based on the image processing program.

従来から、コンピュータにおいて画像をモニタに表示するための様々な表示技術が、提案されている。画像をモニタに表示するときに利用頻度が高い技術の一つには、ズームがある。   Conventionally, various display techniques for displaying an image on a monitor in a computer have been proposed. One technique that is frequently used when displaying images on a monitor is zoom.

たとえば、野球ゲームのようなゲームにおいて、打者キャラクタが打席に入るときや、先発の投手キャラクタやリリーフの投手キャラクタがマウンドに上がったとき等に、打者キャラクタや投手キャラクタ等(対象キャラクタ)が、拡大されモニタに表示されることがある(非特許文献1を参照)。具体的には、ゲーム空間に配置された仮想カメラの視線を対象キャラクタに向けた状態において、仮想カメラを対象キャラクタの方向に移動することにより、打者キャラクタや投手キャラクタ等を拡大することができる。このように、対象キャラクタを拡大することにより、1つのプレイの切り換わりや、プレイが切り換わることによるキャラクタの変更を、プレイヤに報知することができる。
プロ野球スピリッツ3、コナミデジタルエンタテインメント、PS2版、2006年4月6日
For example, in a game such as a baseball game, a batter character, a pitcher character, or the like (target character) is expanded when a batter character enters a bat or when a starting pitcher character or a relief pitcher character rises to the mound. And may be displayed on a monitor (see Non-Patent Document 1). Specifically, the batter character, the pitcher character, and the like can be enlarged by moving the virtual camera in the direction of the target character with the line of sight of the virtual camera arranged in the game space directed toward the target character. In this way, by enlarging the target character, it is possible to notify the player of the change of one play or the change of the character due to the change of play.
Professional baseball spirits 3, Konami Digital Entertainment, PS2 version, April 6, 2006

従来のゲームでは、1つのプレイを切り換えるときや、プレイが切り替わることによりキャラクタが変わるときなどに、対象キャラクタを拡大する場合がある。   In the conventional game, there are cases where the target character is enlarged when one play is switched or when the character is changed by switching the play.

たとえば、先発の投手キャラクタやリリーフの投手キャラクタがマウンドに上がったとき等に、投手キャラクタ(対象キャラクタ)を拡大することにより、投手キャラクタの登場や交代を演出していた。具体的には、3次元ゲーム空間に配置された、立体的なスタジアム用のモデルや立体的な選手キャラクタ用のモデルを、対象キャラクタの方向に移動する仮想カメラにより撮影することにより、投手キャラクタの登場や交代の演出が実現されていた。   For example, when a starter pitcher character or a relief pitcher character goes up to the mound, the pitcher character (target character) is expanded to direct the appearance or change of the pitcher character. Specifically, by shooting a three-dimensional stadium model or a three-dimensional player character model placed in the three-dimensional game space with a virtual camera moving in the direction of the target character, The appearance and change of production were realized.

しかしながら、従来の対象キャラクタの拡大は、例えば現実世界の撮影データを基礎とする画像をゲーム空間上に再現した上で、そのまま大きくするだけであり、例えばプロモーションビデオやCM画像、さらにゲームの本編前後に流されるデモ画像等に要求されるような、視聴者の注目を強く引くような演出を行う拡大手法は確立されていなかった。   However, the conventional enlargement of the target character, for example, simply reproduces an image based on real-world shooting data on the game space and then enlarges it as it is. For example, before and after the main part of the game There has not been established an enlargement method for producing an effect that attracts the viewer's attention as required for demo images and the like.

また、立体的なモデルを用いて投手キャラクタの登場や交代を演出すると、リアリティのある迫力ある映像をモニタに表示することはできるものの、立体的なモデルを格納するためのメモリ容量や、立体的なモデルを3次元ゲーム空間に配置し、これらモデルを仮想カメラにより撮影する処理を実行するためのメモリ容量等が必要になり、演出のためだけに、比較的大きなメモリを消費してしまうという問題点があった。   In addition, when a pitcher character appears or changes using a three-dimensional model, a powerful and powerful image can be displayed on the monitor, but the memory capacity for storing the three-dimensional model, The problem is that a large amount of memory is required to execute a process of arranging various models in a three-dimensional game space and shooting these models with a virtual camera, and a relatively large memory is consumed only for production. There was a point.

本発明は、このような問題に鑑みてなされたものであり、本発明の目的は、プレイヤの注目を強く引くような対象に対するズーム演出を、低いメモリ消費量で行うことができるようにすることにある。   The present invention has been made in view of such problems, and an object of the present invention is to enable a zoom effect for an object that attracts the player's attention with low memory consumption. It is in.

請求項1に係る画像処理プログラムは、画像を画像表示部に表示するためのデータを処理するためのものである。この画像処理プログラムでは、以下の機能が実現される。
(1)テクスチャ用の画像データを、記憶部に格納するテクスチャ格納機能。
(2)複数のポリゴンから構成される面状のモデルを、記憶部に格納するモデル格納機能。
(3)画像データをテクスチャとして面状のモデルに投影する処理を、制御部に実行させることにより、面状のオブジェクトを生成するオブジェクト生成機能。
(4)面状のオブジェクトの配置位置を規定するための座標データを、制御部に認識させることにより、面状のオブジェクトを仮想空間に配置するオブジェクト配置機能。
(5)仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置機能。
(6)面状のオブジェクトの形状を面外に段階的に変形する処理を、制御部に実行させる形状変更機能。
(7)面状のオブジェクトの形状の変化に応じて仮想カメラの画角を段階的に変更する処理を、制御部に実行させる画角変更機能。
(8)面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影する処理を、制御部に実行させることにより、ズーム画像を画像表示部に表示する画像表示機能。
An image processing program according to claim 1 is for processing data for displaying an image on an image display unit. In this image processing program, the following functions are realized.
(1) A texture storage function for storing texture image data in the storage unit.
(2) A model storage function for storing a planar model composed of a plurality of polygons in the storage unit.
(3) An object generation function for generating a planar object by causing the control unit to execute a process of projecting image data as a texture onto a planar model.
(4) An object placement function for placing a planar object in a virtual space by causing the control unit to recognize coordinate data for defining the placement position of the planar object.
(5) A camera placement function for placing the virtual camera in the virtual space by causing the control unit to recognize coordinate data for defining the placement position of the virtual camera.
(6) A shape changing function for causing the control unit to execute a process of stepwise deforming the shape of the planar object out of plane.
(7) An angle-of-view changing function that causes the control unit to execute processing for changing the angle of view of the virtual camera in a stepwise manner in accordance with a change in the shape of the planar object.
(8) A zoom image is displayed on the image display unit by causing the control unit to execute a process of photographing a state in which the shape of the planar object changes stepwise with a virtual camera in which the angle of view changes stepwise. Image display function.

この画像処理プログラムでは、テクスチャ格納機能において、テクスチャ用の画像データが、記憶部に格納される。モデル格納機能においては、複数のポリゴンから構成される面状のモデルが、記憶部に格納される。オブジェクト生成機能においては、画像データをテクスチャとして面状のモデルに投影する処理が、制御部により実行される。これにより、面状のオブジェクトが生成される。オブジェクト配置機能においては、面状のオブジェクトの配置位置を規定するための座標データが、制御部に認識される。これにより、面状のオブジェクトが仮想空間に配置される。カメラ配置機能においては、仮想カメラの配置位置を規定するための座標データが、制御部に認識される。これにより、仮想カメラが仮想空間に配置される。形状変更機能においては、面状のオブジェクトの形状を面外に段階的に変形する処理が、制御部により実行される。画角変更機能においては、面状のオブジェクトの形状の変化に応じて仮想カメラの画角を段階的に変更する処理が、制御部により実行される。画像表示機能においては、面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影する処理が、制御部により実行される。これにより、ズーム画像が画像表示部に表示される。   In this image processing program, texture image data is stored in the storage unit in the texture storage function. In the model storage function, a planar model composed of a plurality of polygons is stored in the storage unit. In the object generation function, a process of projecting image data as a texture onto a planar model is executed by the control unit. Thereby, a planar object is generated. In the object placement function, coordinate data for defining the placement position of the planar object is recognized by the control unit. Thereby, a planar object is arrange | positioned in virtual space. In the camera arrangement function, coordinate data for defining the arrangement position of the virtual camera is recognized by the control unit. Thereby, the virtual camera is arranged in the virtual space. In the shape changing function, the control unit executes a process of stepwise deforming the shape of the planar object out of the plane. In the view angle changing function, a process of changing the view angle of the virtual camera in a stepwise manner according to a change in the shape of the planar object is executed by the control unit. In the image display function, a process of photographing a state in which the shape of the planar object changes stepwise with a virtual camera in which the angle of view changes stepwise is executed by the control unit. Thereby, the zoom image is displayed on the image display unit.

ここでは、たとえば、この画像処理プログラムが野球ゲームに適用され、球場の内部たとえば捕手側から見たスタジアムの内部空間がズームされる場合を例として説明する。   Here, for example, the case where this image processing program is applied to a baseball game and the interior space of the stadium viewed from the catcher side, for example, is zoomed will be described as an example.

まず、捕手側から見た画像を示す画像データ(テクスチャ用の画像データ)が、記憶部に格納される。そして、複数のポリゴンから構成される面状のモデルが、記憶部に格納される。そして、記憶部に格納された画像データをテクスチャとして面状のモデルに投影する処理が、制御部により実行される。これにより、捕手側から見たスタジアムの内部空間の画像をテクスチャとして面状のモデルに投影したオブジェクト、すなわち面状のオブジェクトが生成される。   First, image data (image data for texture) indicating an image viewed from the catcher side is stored in the storage unit. A planar model composed of a plurality of polygons is stored in the storage unit. And the process which projects the image data stored in the memory | storage part on a planar model as a texture is performed by a control part. Thereby, an object obtained by projecting the image of the internal space of the stadium viewed from the catcher side onto the planar model as a texture, that is, a planar object is generated.

次に、面状のオブジェクトの配置位置を規定するための座標データが、制御部に認識されると、面状のオブジェクトが仮想空間に配置される。そして、仮想カメラの配置位置を規定するための座標データが、制御部に認識されると、仮想カメラが仮想空間に配置される。   Next, when coordinate data for defining the arrangement position of the planar object is recognized by the control unit, the planar object is arranged in the virtual space. When the coordinate data for defining the placement position of the virtual camera is recognized by the control unit, the virtual camera is placed in the virtual space.

続いて、面状のオブジェクトの形状を面外に段階的に変形する処理が、制御部により実行される。また、面状のオブジェクトの形状の変化に応じて仮想カメラの画角を段階的に変更する処理が、制御部により実行される。そして、面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影する処理が、制御部により実行される。これにより、捕手側から見たスタジアムの内部空間が加速度的にズームされる画像が、画像表示部に表示される。   Subsequently, a process of deforming the shape of the planar object stepwise out of the plane is executed by the control unit. In addition, a process of changing the angle of view of the virtual camera in a stepwise manner according to a change in the shape of the planar object is executed by the control unit. And the process which image | photographs the state in which the shape of a planar object changes in steps with the virtual camera from which an angle of view changes in steps is performed by a control part. Thereby, an image in which the internal space of the stadium viewed from the catcher side is zoomed at an accelerated speed is displayed on the image display unit.

このように、請求項1に係る発明では、捕手側から見た画像データ(テクスチャ用の画像データ)と、複数のポリゴンから構成される面状のモデルとを、記憶部に格納しておくだけで、ズーム画像を画像表示部に表示することができる。つまり、基本的なデータとしては一枚の静止画データのみを使用しているので、本発明では、従来のように立体モデル用の画像データ(立体モデル用のテクスチャデータ、テクスチャ用の画像データ)と、立体的なモデルとを記憶部に格納する場合と比較して、メモリ消費量を低減することができる。   Thus, in the invention according to claim 1, image data (image data for texture) viewed from the catcher side and a planar model composed of a plurality of polygons are only stored in the storage unit. Thus, the zoom image can be displayed on the image display unit. In other words, since only one piece of still image data is used as basic data, in the present invention, image data for a stereo model (texture data for a stereo model, image data for a texture) is used as in the past. Compared with the case where a three-dimensional model is stored in the storage unit, the memory consumption can be reduced.

また、本発明では、面状のオブジェクトが面外に段階的に変形するときに、オブジェクトの面外変形に連動して仮想カメラの画角も段階的に変更される。このときに、変形中の面状のオブジェクトを、画角が変化する仮想カメラにより撮影することにより、立体的なオブジェクトを用いなくても、立体的な視覚効果を有するズーム画像を、画像表示部に表示することができる。   In the present invention, when the planar object is deformed stepwise out of the plane, the angle of view of the virtual camera is also changed stepwise in conjunction with the out-of-plane deformation of the object. At this time, by capturing a planar object being deformed with a virtual camera whose angle of view changes, a zoom image having a three-dimensional visual effect can be displayed without using a three-dimensional object. Can be displayed.

さらに、このように撮影することにより、立体的なオブジェクトを用いなくても、立体的なオブジェクトを用いた場合より迫力のあるズーム画像を、画像表示部に表示することができる。   Furthermore, by photographing in this way, a more powerful zoom image than when a three-dimensional object is used can be displayed on the image display unit without using a three-dimensional object.

より具体的には、プレイヤ側から見たイメージとしては、画面略中央部に向かってカメラが単純に接近(ズーム)するのではなく、加速度的に急接近していくかのような表示となる。即ち、画像の略中央部に比して、画像周辺部の外方に向かうほどより拡大変形が大きく、且つ、時間経過に伴う当該画像周辺部の拡大変形によって、画像周辺部の最外部が内部の動きに比べて急速にモニタ画面の画面枠を越えて順次消えていくので、あたかも画像中央部に向かって視点が加速的に急接近し、焦点が絞られるかのような演出効果が得られるのである。なお、請求項1の構成によって得られる視覚的効果は1枚の静止画を凹凸に変形する時間の間に限定されるものであって、当然ながら長時間にわたる動画のようなイメージが得られるものではない。出願人が作成した表示の場合、概ね1秒程度である。しかし、このような短時間であっても、演出が単なる従来のズームとは異なり、画像周辺部が急速にモニタ画面枠を越えて外に吹き飛ばされ、中央部に焦点が絞られるかのような表示となるので、例えば、交替する選手キャラクタの顔に急速にズームインするイメージや、ファインプレーを行った選手キャラクタに急速にズームインするイメージを作る場合に有効であり、特にプロモーションビデオやCM、さらに、ゲームの本編前後に流すデモムービーの作成等に利用して有用である。これらの画像では、現実の動きを忠実に再現する表示よりも、メリハリの利いた、プレイヤの注目を引く演出が望まれるからである。なお、ズームインだけでなく、例えば画面の向こうのボールがこちらに向かって飛んでくるかのようなズームアウトも同様に容易に演出できる。   More specifically, the image viewed from the player side is displayed as if the camera is approaching rapidly in an accelerated manner rather than simply approaching (zooming) toward the approximate center of the screen. . That is, the enlargement deformation is larger toward the outside of the peripheral portion of the image as compared with the substantially central portion of the image, and the outermost portion of the peripheral portion of the image is inside due to the expansion deformation of the peripheral portion of the image with time. Compared to the movement of the screen, it quickly disappears beyond the screen frame of the monitor screen, so that the viewpoint is accelerated rapidly toward the center of the image, and the effect is as if the focus is reduced. It is. In addition, the visual effect obtained by the structure of claim 1 is limited to the time during which a single still image is deformed into irregularities, and of course an image such as a moving image over a long time can be obtained. is not. In the case of the display created by the applicant, it takes about 1 second. However, even in such a short time, unlike the conventional zoom, the image peripheral part is rapidly blown out beyond the monitor screen frame, and the focus is focused on the central part. For example, it is effective when creating an image that rapidly zooms in on the face of the player character to be replaced, or an image that rapidly zooms in on the player character who performed fine play. This is useful for creating a demo movie to be played before and after the main part. This is because, in these images, an effect that attracts the player's attention is desired rather than a display that faithfully reproduces the actual movement. In addition to zooming in, for example, zooming out as if a ball on the other side of the screen is flying towards this can be easily produced.

このように、本発明では、アニメーション等の仮想画像に基づくものではなく現実世界のデータを仮想空間上に再現するものでありながら、立体的な視覚効果および迫力を有するズーム画像を、低いメモリ消費量で画像表示部に表示することができる。   As described above, in the present invention, a zoom image having a three-dimensional visual effect and force is reproduced with low memory consumption while reproducing real-world data in a virtual space, not based on a virtual image such as an animation. The amount can be displayed on the image display unit.

このように、本発明では、低いメモリ消費量で、立体的な視覚効果および迫力を有するズーム画像を、画像表示部に表示することができる。   As described above, according to the present invention, a zoom image having a three-dimensional visual effect and power can be displayed on the image display unit with low memory consumption.

請求項2に係る画像処理プログラムでは、請求項1に記載の画像処理プログラムにおいて、形状変更機能が、第1形状変更機能を含んでいる。この第1形状変更機能では、面状のオブジェクトの形状を、仮想カメラから離反する方向に凸状に歪んだ形状に段階的に変形する処理が、制御部により実行される。また、画角変更機能は、画角縮小機能を含んでいる。画角縮小機能は、面状のオブジェクトの形状の変化に応じて仮想カメラの画角が小さくなるように仮想カメラの画角を段階的に変更する処理が、制御部により実行される。ここでは、画像表示機能において、面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影する処理が、制御部により実行される。これにより、ズームイン画像が画像表示部に表示される。   In an image processing program according to a second aspect, in the image processing program according to the first aspect, the shape changing function includes a first shape changing function. In the first shape changing function, the control unit executes a process of stepwise deforming the shape of the planar object into a shape distorted in a convex shape in a direction away from the virtual camera. The view angle changing function includes a view angle reduction function. In the angle-of-view reduction function, processing for changing the angle of view of the virtual camera stepwise so that the angle of view of the virtual camera becomes smaller according to the change in the shape of the planar object is executed by the control unit. Here, in the image display function, a process of photographing a state in which the shape of the planar object changes stepwise with a virtual camera in which the angle of view changes stepwise is executed by the control unit. Thereby, the zoom-in image is displayed on the image display unit.

ここでは、たとえば、この画像処理プログラムが野球ゲームに適用され、球場の内部たとえば捕手側から見たスタジアムの内部空間がズームされる場合を例として説明する。   Here, for example, the case where this image processing program is applied to a baseball game and the interior space of the stadium viewed from the catcher side, for example, is zoomed will be described as an example.

この場合、面状のオブジェクトの形状が、仮想カメラから離反する方向に凸状に歪んだ形状に段階的に変形される。また、面状のオブジェクトの形状の変化に応じて仮想カメラの画角が小さくなるように、仮想カメラの画角が段階的に変更される。これにより、面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影すると、捕手側から見たスタジアムの内部空間がズームインされる画像が、画像表示部に表示される。   In this case, the shape of the planar object is deformed step by step into a shape distorted in a convex shape in a direction away from the virtual camera. In addition, the angle of view of the virtual camera is changed stepwise so that the angle of view of the virtual camera becomes smaller according to the change in the shape of the planar object. As a result, when a state in which the shape of a planar object changes in steps is captured by a virtual camera in which the angle of view changes in steps, an image in which the internal space of the stadium viewed from the catcher side is zoomed in is displayed as an image. Displayed in the section.

このように、請求項2に係る発明では、仮想カメラから離反する方向に凸状に変形する面状のオブジェクトを、画角が変化する仮想カメラにより撮影することにより、立体的なオブジェクトを用いなくても、立体的な視覚効果を有するズームイン画像を、画像表示部に表示することができる。さらに、このように撮影することにより、立体的なオブジェクトを用いなくても、立体的なオブジェクトを用いた場合より迫力のあるズームイン画像を、画像表示部に表示することができる。   As described above, in the invention according to claim 2, a planar object that is deformed in a convex shape in a direction away from the virtual camera is photographed by the virtual camera that changes the angle of view, so that a three-dimensional object is not used. However, a zoom-in image having a three-dimensional visual effect can be displayed on the image display unit. Furthermore, by photographing in this way, a more powerful zoom-in image can be displayed on the image display unit than when a three-dimensional object is used without using a three-dimensional object.

特に、本発明では、面状のオブジェクトが、仮想カメラから離反する方向に凸状に変形するにつれて、仮想カメラの画角が小さくなるようにすることにより、空間が迫ってくる感覚を表現したズームイン画像を、画像表示部に表示することができる。   In particular, in the present invention, as the planar object is deformed in a convex shape in a direction away from the virtual camera, the angle of view of the virtual camera is reduced, thereby zooming in to express the sense that the space is approaching. The image can be displayed on the image display unit.

請求項3に係る画像処理プログラムでは、請求項2に記載の画像処理プログラムにおいて、平面形状、および仮想カメラに近接する方向に凸状に歪んだ形状のいずれか一方の形状から、仮想カメラから離反する方向に凸状に歪んだ形状へと、面状のオブジェクトの形状を段階的に変形する処理が、制御部により実行される。この機能は、第1形状変更機能において実現される。   According to a third aspect of the present invention, there is provided the image processing program according to the second aspect, wherein the image processing program according to the second aspect is separated from the virtual camera from one of a planar shape and a shape distorted in a convex shape in a direction approaching the virtual camera. A process of stepwise deforming the shape of the planar object into a shape distorted in a convex shape in the direction to be performed is executed by the control unit. This function is realized in the first shape changing function.

ここでは、たとえば、この画像処理プログラムが野球ゲームに適用され、球場の内部たとえば捕手側から見たスタジアムの内部空間がズームされる場合を例として説明する。   Here, for example, the case where this image processing program is applied to a baseball game and the interior space of the stadium viewed from the catcher side, for example, is zoomed will be described as an example.

この場合、平面形状、および仮想カメラに近接する方向に凸状に歪んだ形状のいずれか一方の形状から、仮想カメラから離反する方向に凸状に歪んだ形状へと、面状のオブジェクトの形状が、段階的に変形される。   In this case, the shape of the planar object changes from one of the planar shape and the shape distorted in a convex shape in a direction close to the virtual camera to the shape distorted in a convex shape in a direction away from the virtual camera. Is transformed in stages.

このように、請求項3に係る発明では、平面形状、および仮想カメラに近接する方向に凸状に歪んだ形状のいずれか一方の形状から、仮想カメラから離反する方向に凸状に歪んだ形状へと、面状のオブジェクトの形状を段階的に変形することにより、立体的な視覚効果を有するズームイン画像を、効果的に画像表示部に表示することができる。   Thus, in the invention according to claim 3, the shape distorted in a convex shape in a direction away from the virtual camera from one of the planar shape and the shape distorted in a convex shape in the direction close to the virtual camera. By gradually changing the shape of the planar object, a zoom-in image having a three-dimensional visual effect can be effectively displayed on the image display unit.

請求項4に係る画像処理プログラムでは、請求項1から3のいずれかに記載の画像処理プログラムにおいて、形状変更機能が、第2形状変更機能を含んでいる。第2形状変更機能では、面状のオブジェクトの形状を、仮想カメラに近接する方向に凸状に歪んだ形状に段階的に変形する処理が、制御部により実行される。また、画角変更機能は、画角拡大機能を含んでいる。画角拡大機能では、面状のオブジェクトの形状の変化に応じて仮想カメラの画角が大きくなるように仮想カメラの画角を段階的に変更する処理が、制御部により実行される。ここでは、画像表示機能において、面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影する処理が、制御部により実行される。これにより、ズームアウト画像が画像表示部に表示される。   The image processing program according to claim 4 is the image processing program according to any one of claims 1 to 3, wherein the shape changing function includes a second shape changing function. In the second shape changing function, the control unit executes a process of stepwise deforming the shape of the planar object into a shape distorted in a convex shape in a direction close to the virtual camera. Further, the view angle changing function includes a view angle expanding function. In the angle of view enlargement function, the control unit executes a process of changing the angle of view of the virtual camera in a stepwise manner so that the angle of view of the virtual camera increases in accordance with a change in the shape of the planar object. Here, in the image display function, a process of photographing a state in which the shape of the planar object changes stepwise with a virtual camera in which the angle of view changes stepwise is executed by the control unit. Thereby, the zoomed-out image is displayed on the image display unit.

ここでは、たとえば、この画像処理プログラムが野球ゲームに適用され、球場の内部たとえば捕手側から見たスタジアムの内部空間がズームされる場合を例として説明する。   Here, for example, the case where this image processing program is applied to a baseball game and the interior space of the stadium viewed from the catcher side, for example, is zoomed will be described as an example.

この場合、面状のオブジェクトの形状が、仮想カメラに近接する方向に凸状に歪んだ形状に段階的に変形される。また、面状のオブジェクトの形状の変化に応じて仮想カメラの画角が大きくなるように、仮想カメラの画角が段階的に変更される。これにより、面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影すると、捕手側から見たスタジアムの内部空間がズームアウトされる画像が、画像表示部に表示される。   In this case, the shape of the planar object is deformed stepwise into a shape distorted in a convex shape in the direction approaching the virtual camera. In addition, the angle of view of the virtual camera is changed stepwise so that the angle of view of the virtual camera increases in accordance with the change in the shape of the planar object. As a result, when a state in which the shape of a planar object changes in steps is captured by a virtual camera in which the angle of view changes in steps, an image in which the internal space of the stadium viewed from the catcher side is zoomed out is Displayed on the display.

このように、請求項4に係る発明では、仮想カメラに近接する方向に凸状に変形する面状のオブジェクトを、画角が変化する仮想カメラにより撮影することにより、立体的なオブジェクトを用いなくても、立体的な視覚効果を有するズームアウト画像を、画像表示部に表示することができる。さらに、このように撮影することにより、立体的なオブジェクトを用いなくても、立体的なオブジェクトを用いた場合より迫力のあるズームアウト画像を、画像表示部に表示することができる。   As described above, in the invention according to claim 4, a planar object that deforms in a convex shape in the direction approaching the virtual camera is photographed by the virtual camera that changes the angle of view, so that a three-dimensional object is not used. However, a zoom-out image having a three-dimensional visual effect can be displayed on the image display unit. Furthermore, by shooting in this way, a more powerful zoom-out image can be displayed on the image display unit than when a three-dimensional object is used without using a three-dimensional object.

特に、本発明では、面状のオブジェクトが、仮想カメラに近接する方向に凸状に変形するにつれて、仮想カメラの画角が小さくなるようにすることにより、対象が迫ってくる感覚を表現したズームアウト画像を、画像表示部に表示することができる。   In particular, in the present invention, as the planar object is deformed in a convex shape in the direction of approaching the virtual camera, the angle of view of the virtual camera is reduced so as to express the sense that the target is approaching The out image can be displayed on the image display unit.

請求項5に係る画像処理プログラムでは、請求項4に記載の画像処理プログラムにおいて、平面形状、および仮想カメラから離反する方向に凸状に歪んだ形状のいずれか一方の形状から、仮想カメラに近接する方向に凸状に歪んだ形状へと、面状のオブジェクトの形状を段階的に変形する処理が、制御部により実行される。この機能は、第2形状変更機能において実現される。   In the image processing program according to claim 5, in the image processing program according to claim 4, the proximity to the virtual camera from one of a planar shape and a shape distorted in a convex shape in a direction away from the virtual camera. A process of stepwise deforming the shape of the planar object into a shape distorted in a convex shape in the direction to be performed is executed by the control unit. This function is realized in the second shape changing function.

ここでは、たとえば、この画像処理プログラムが野球ゲームに適用され、球場の内部たとえば捕手側から見たスタジアムの内部空間がズームされる場合を例として説明する。   Here, for example, the case where this image processing program is applied to a baseball game and the interior space of the stadium viewed from the catcher side, for example, is zoomed will be described as an example.

この場合、平面形状、および仮想カメラから離反する方向に凸状に歪んだ形状のいずれか一方の形状から、仮想カメラに近接する方向に凸状に歪んだ形状へと、面状のオブジェクトの形状が、段階的に変形される。   In this case, the shape of the planar object changes from one of the planar shape and the shape distorted convexly in the direction away from the virtual camera to the shape distorted convexly in the direction close to the virtual camera. Is transformed in stages.

このように、請求項5に係る発明では、平面形状、および仮想カメラから離反する方向に凸状に歪んだ形状のいずれか一方の形状から、仮想カメラに近接する方向に凸状に歪んだ形状へと、面状のオブジェクトの形状を段階的に変形することにより、立体的な視覚効果を有するズームアウト画像を、効果的に画像表示部に表示することができる。   Thus, in the invention according to claim 5, the shape distorted in a convex shape in the direction of approaching the virtual camera from one of the shape distorted in a convex shape in the direction away from the virtual camera. The zoom-out image having a three-dimensional visual effect can be effectively displayed on the image display unit by deforming the shape of the planar object stepwise.

請求項6に係る画像処理プログラムでは、請求項1から5のいずれかに記載の画像処理プログラムにおいて、面状のオブジェクトの重心位置を基準として、面状のオブジェクトの形状を面外に段階的に変形する処理が、制御部により実行される。この機能は、形状変更機能において実現される。   The image processing program according to claim 6 is the image processing program according to any one of claims 1 to 5, wherein the shape of the planar object is stepped out of the plane with reference to the barycentric position of the planar object. The deformation process is executed by the control unit. This function is realized in the shape changing function.

ここでは、たとえば、この画像処理プログラムが野球ゲームに適用され、球場の内部たとえば捕手側から見たスタジアムの内部空間がズームされる場合を例として説明する。   Here, for example, the case where this image processing program is applied to a baseball game and the interior space of the stadium viewed from the catcher side, for example, is zoomed will be described as an example.

この場合、面状のオブジェクトの重心位置を基準として、面状のオブジェクトの形状が、面外に段階的に変形される。これにより、ズームの主対象が面状のオブジェクトの中央部に配置されている場合、対象を覆う空間が迫ってくる感覚を表現したズーム画像、および対象が迫ってくる感覚を表現したズーム画像の少なくともいずれか一方の画像を、画像表示部に表示することができる。   In this case, the shape of the planar object is deformed stepwise out of the plane based on the position of the center of gravity of the planar object. As a result, when the main target of zooming is arranged in the center of the planar object, a zoom image expressing a sense that the space covering the target approaches, and a zoom image expressing the sense that the target approaches At least one of the images can be displayed on the image display unit.

請求項7に係る画像処理プログラムでは、請求項1から6のいずれかに記載の画像処理プログラムにおいて、面状のオブジェクトの重心位置を基準として、面状のオブジェクトに垂直な方向の所定の位置を示す座標データが、制御部に認識される。これにより、仮想カメラが仮想空間に配置される。この機能は、カメラ配置機能において実現される。   According to a seventh aspect of the present invention, there is provided the image processing program according to any one of the first to sixth aspects, wherein a predetermined position in a direction perpendicular to the planar object is determined with reference to the barycentric position of the planar object. The indicated coordinate data is recognized by the control unit. Thereby, the virtual camera is arranged in the virtual space. This function is realized in the camera placement function.

ここでは、たとえば、この画像処理プログラムが野球ゲームに適用され、球場の内部たとえば捕手側から見たスタジアムの内部空間がズームされる場合を例として説明する。   Here, for example, the case where this image processing program is applied to a baseball game and the interior space of the stadium viewed from the catcher side, for example, is zoomed will be described as an example.

この場合、面状のオブジェクトの重心位置を基準として、面状のオブジェクトに垂直な方向の所定の位置に、仮想カメラが配置される。これにより、ズームの主対象が面状のオブジェクトの中央部に配置されている場合、対象を覆う空間が迫ってくる感覚を表現したズーム画像や、対象が迫ってくる感覚を表現したズーム画像を、より効果的に画像表示部に表示することができる。   In this case, the virtual camera is arranged at a predetermined position in a direction perpendicular to the planar object with reference to the barycentric position of the planar object. As a result, when the main target of zooming is arranged in the center of the planar object, a zoom image that expresses the sense that the space covering the target approaches or a zoom image that expresses the sense that the target approaches Can be displayed more effectively on the image display unit.

請求項8に係る画像処理プログラムでは、請求項1から7のいずれかに記載の画像処理プログラムにおいて、広角の画像データが、テクスチャ用の画像データとして、記憶部に格納される。この機能は、テクスチャ格納機能において実現される。   An image processing program according to an eighth aspect is the image processing program according to any one of the first to seventh aspects, wherein the wide-angle image data is stored in the storage unit as image data for texture. This function is realized in the texture storage function.

ここでは、たとえば、この画像処理プログラムが野球ゲームに適用され、球場の内部たとえば捕手側から見たスタジアムの内部空間がズームされる場合を例として説明する。   Here, for example, the case where this image processing program is applied to a baseball game and the interior space of the stadium viewed from the catcher side, for example, is zoomed will be described as an example.

この場合、広角の画像データが、テクスチャ用の画像データとして、記憶部に格納される。たとえば、広角レンズや魚眼レンズで撮影された画像データが、テクスチャ用の画像データとして、記憶部に格納される。これにより、視野の広い画像データを、初期のテクスチャ用の画像データとして用いることができるので、変形中の面状のオブジェクトを、画角が変化する仮想カメラにより撮影することにより、立体的な視覚効果を有するズーム画像を、より効果的に画像表示部に表示することができる。また、これにより、立体的なオブジェクトを用いた場合より、より迫力のあるズーム画像を、画像表示部に表示することができる。   In this case, wide-angle image data is stored in the storage unit as texture image data. For example, image data captured with a wide-angle lens or a fisheye lens is stored in the storage unit as image data for texture. As a result, image data with a wide field of view can be used as image data for the initial texture, so that a three-dimensional visual image can be obtained by photographing a planar object being deformed with a virtual camera whose angle of view changes. A zoom image having an effect can be more effectively displayed on the image display unit. Also, this makes it possible to display a more powerful zoom image on the image display unit than when a three-dimensional object is used.

請求項9に係る画像処理装置は、画像を画像表示部に表示するためのデータを処理可能な画像処理装置である。   An image processing apparatus according to a ninth aspect is an image processing apparatus capable of processing data for displaying an image on an image display unit.

この画像処理装置は、
テクスチャ用の画像データを、記憶部に格納するテクスチャ格納手段と、
複数のポリゴンから構成される面状のモデルを、記憶部に格納するモデル格納手段と、
画像データをテクスチャとして面状のモデルに投影する処理を、制御部に実行させることにより、面状のオブジェクトを生成するオブジェクト生成手段と、
面状のオブジェクトの配置位置を規定するための座標データを、制御部に認識させることにより、面状のオブジェクトを仮想空間に配置するオブジェクト配置手段と、
仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置手段と、
面状のオブジェクトの形状を面外に段階的に変形する処理を、制御部に実行させる形状変更手段と、
面状のオブジェクトの形状の変化に応じて仮想カメラの画角を段階的に変更する処理を、制御部に実行させる画角変更手段と、
面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影する処理を、制御部に実行させることにより、ズーム画像を画像表示部に表示する画像表示手段と、
を備えている。
This image processing device
Texture storage means for storing image data for texture in the storage unit;
Model storage means for storing a planar model composed of a plurality of polygons in a storage unit;
Object generation means for generating a planar object by causing the control unit to execute a process of projecting image data as a texture onto a planar model;
Object placement means for placing the planar object in the virtual space by causing the control unit to recognize coordinate data for defining the placement position of the planar object;
Camera arrangement means for arranging the virtual camera in the virtual space by causing the control unit to recognize coordinate data for defining the arrangement position of the virtual camera;
Shape changing means for causing the control unit to execute a process of stepwise deforming the shape of the planar object out of plane;
An angle-of-view changing means for causing the control unit to execute a process of changing the angle of view of the virtual camera stepwise according to a change in the shape of the planar object;
Image display that displays a zoomed image on the image display unit by causing the control unit to execute a process of photographing a state in which the shape of the planar object changes step by step with a virtual camera whose view angle changes stepwise. Means,
It has.

請求項10に係る画像制御方法は、画像を画像表示部に表示するためのデータをコンピュータにより制御する画像制御方法である。   An image control method according to a tenth aspect is an image control method in which data for displaying an image on an image display unit is controlled by a computer.

この画像制御方法は、
テクスチャ用の画像データを、記憶部に格納するテクスチャ格納ステップと、
複数のポリゴンから構成される面状のモデルを、記憶部に格納するモデル格納ステップと、
画像データをテクスチャとして面状のモデルに投影する処理を、制御部に実行させることにより、面状のオブジェクトを生成するオブジェクト生成ステップと、
面状のオブジェクトの配置位置を規定するための座標データを、制御部に認識させることにより、面状のオブジェクトを仮想空間に配置するオブジェクト配置ステップと、
仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置ステップと、
面状のオブジェクトの形状を面外に段階的に変形する処理を、制御部に実行させる形状変更ステップと、
面状のオブジェクトの形状の変化に応じて仮想カメラの画角を段階的に変更する処理を、制御部に実行させる画角変更ステップと、
面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影する処理を、制御部に実行させることにより、ズーム画像を画像表示部に表示する画像表示ステップと、
を備えている。
This image control method
A texture storage step of storing image data for texture in the storage unit;
A model storing step of storing a planar model composed of a plurality of polygons in a storage unit;
An object generation step for generating a planar object by causing the control unit to execute a process of projecting image data as a texture onto a planar model;
An object placement step of placing the planar object in the virtual space by causing the control unit to recognize coordinate data for defining the placement position of the planar object;
A camera placement step for placing the virtual camera in the virtual space by causing the control unit to recognize coordinate data for defining the placement position of the virtual camera;
A shape changing step for causing the control unit to execute a process of stepwise deforming the shape of the planar object out of plane;
An angle-of-view changing step for causing the control unit to execute a process of gradually changing the angle of view of the virtual camera according to a change in the shape of the planar object;
Image display that displays a zoomed image on the image display unit by causing the control unit to execute a process of photographing a state in which the shape of the planar object changes step by step with a virtual camera whose view angle changes stepwise. Steps,
It has.

本発明では、テクスチャ用の画像データと、複数のポリゴンから構成される面状のモデルとを、記憶部に格納しておくだけで、ズーム画像を画像表示部に表示することができる。このため、本発明では、立体モデル用の画像データと、立体的なモデルとを記憶部に格納する場合と比較して、メモリ消費量を低減することができる。   In the present invention, the zoom image can be displayed on the image display unit simply by storing the image data for texture and the planar model composed of a plurality of polygons in the storage unit. For this reason, in the present invention, it is possible to reduce the memory consumption as compared with the case where the image data for the three-dimensional model and the three-dimensional model are stored in the storage unit.

また、本発明では、面状のオブジェクトが面外に段階的に変形するときに、オブジェクトの面外変形に連動して仮想カメラの画角も段階的に変更される。このときに、変形中の面状のオブジェクトを、画角が変化する仮想カメラにより撮影することにより、立体的なオブジェクトを用いなくても、立体的な視覚効果を有するズーム画像を、画像表示部に表示することができる。さらに、このように撮影することにより、立体的なオブジェクトを用いなくても、立体的なオブジェクトを用いた場合より迫力のあるズーム画像を、画像表示部に表示することができる。   In the present invention, when the planar object is deformed stepwise out of the plane, the angle of view of the virtual camera is also changed stepwise in conjunction with the out-of-plane deformation of the object. At this time, by capturing a planar object being deformed with a virtual camera whose angle of view changes, a zoom image having a three-dimensional visual effect can be displayed without using a three-dimensional object. Can be displayed. Furthermore, by photographing in this way, a more powerful zoom image than when a three-dimensional object is used can be displayed on the image display unit without using a three-dimensional object.

このように、本発明では、低いメモリ消費量で、立体的な視覚効果および迫力を有するズーム画像を、画像表示部に表示することができる。   As described above, according to the present invention, a zoom image having a three-dimensional visual effect and power can be displayed on the image display unit with low memory consumption.

〔ゲーム装置の構成と動作〕
図1は、本発明の一実施形態によるゲーム装置の基本構成を示している。ここでは、ビデオゲーム装置の一例として、家庭用ビデオゲーム装置をとりあげて説明を行うこととする。家庭用ビデオゲーム装置は、家庭用ゲーム機本体および家庭用テレビジョンを備える。家庭用ゲーム機本体には、記録媒体10が装填可能となっており、記録媒体10からゲームデータが適宜読み出されてゲームが実行される。このようにして実行されるゲーム内容が家庭用テレビジョンに表示される。
[Configuration and operation of game device]
FIG. 1 shows a basic configuration of a game device according to an embodiment of the present invention. Here, a home video game device will be described as an example of the video game device. The home video game apparatus includes a home game machine body and a home television. The home game machine body can be loaded with a recording medium 10, and game data is read from the recording medium 10 as appropriate to execute the game. The contents of the game executed in this way are displayed on the home television.

家庭用ビデオゲーム装置のゲームシステムは、制御部1と、記憶部2と、画像表示部3と、音声出力部4と、操作入力部5とからなっており、それぞれがバス6を介して接続される。このバス6は、アドレスバス、データバス、およびコントロールバスなどを含んでいる。ここで、制御部1、記憶部2、音声出力部4および操作入力部5は、家庭用ビデオゲーム装置の家庭用ゲーム機本体に含まれており、画像表示部3は家庭用テレビジョンに含まれている。   The game system of the home video game apparatus includes a control unit 1, a storage unit 2, an image display unit 3, an audio output unit 4, and an operation input unit 5, which are connected via a bus 6. Is done. The bus 6 includes an address bus, a data bus, a control bus, and the like. Here, the control unit 1, the storage unit 2, the audio output unit 4, and the operation input unit 5 are included in the home game machine body of the home video game apparatus, and the image display unit 3 is included in the home television. It is.

制御部1は、主に、ゲームプログラムに基づいてゲーム全体の進行を制御するために設けられている。制御部1は、たとえば、CPU(Central Processing Unit)7と、信号処理プロセッサ8と、画像処理プロセッサ9とから構成されている。CPU7と信号処理プロセッサ8と画像処理プロセッサ9とは、それぞれがバス6を介して互いに接続されている。CPU7は、ゲームプログラムからの命令を解釈し、各種のデータ処理や制御を行う。たとえば、CPU7は、信号処理プロセッサ8に対して、画像データを画像処理プロセッサに供給するように命令する。信号処理プロセッサ8は、主に、3次元空間上における計算と、3次元空間上から擬似3次元空間上への位置変換計算と、光源計算処理と、画像および音声データの生成加工処理とを行っている。画像処理プロセッサ9は、主に、信号処理プロセッサ8の計算結果および処理結果に基づいて、描画すべき画像データをRAM12に書き込む処理を行っている。   The control unit 1 is provided mainly for controlling the progress of the entire game based on the game program. The control unit 1 includes, for example, a CPU (Central Processing Unit) 7, a signal processor 8, and an image processor 9. The CPU 7, the signal processor 8, and the image processor 9 are connected to each other via the bus 6. The CPU 7 interprets instructions from the game program and performs various data processing and control. For example, the CPU 7 instructs the signal processor 8 to supply image data to the image processor. The signal processor 8 mainly performs calculation in the three-dimensional space, position conversion calculation from the three-dimensional space to the pseudo three-dimensional space, light source calculation processing, and image and audio data generation processing. ing. The image processor 9 mainly performs a process of writing image data to be drawn into the RAM 12 based on the calculation result and the processing result of the signal processor 8.

記憶部2は、主に、プログラムデータや、プログラムデータで使用される各種データなどを格納しておくために設けられている。記憶部2は、たとえば、記録媒体10と、インターフェース回路11と、RAM(Random Access Memory)12とから構成されている。記録媒体10には、インターフェース回路11が接続されている。そして、インターフェース回路11とRAM12とはバス6を介して接続されている。記録媒体10は、オペレーションシステムのプログラムデータや、画像データ、音声データ並びに各種プログラムデータからなるゲームデータなどを記録するためのものである。この記録媒体10は、たとえば、ROM(Read Only Memory)カセット、光ディスク、およびフレキシブルディスクなどであり、オペレーティングシステムのプログラムデータやゲームデータなどが記憶される。なお、記録媒体10にはカード型メモリも含まれており、このカード型メモリは、主に、ゲームを中断するときに中断時点での各種ゲームパラメータを保存するために用いられる。RAM12は、記録媒体10から読み出された各種データを一時的に格納したり、制御部1からの処理結果を一時的に記録したりするために用いられる。このRAM12には、各種データとともに、各種データの記憶位置を示すアドレスデータが格納されており、任意のアドレスを指定して読み書きすることが可能になっている。   The storage unit 2 is provided mainly for storing program data and various data used in the program data. The storage unit 2 includes, for example, a recording medium 10, an interface circuit 11, and a RAM (Random Access Memory) 12. An interface circuit 11 is connected to the recording medium 10. The interface circuit 11 and the RAM 12 are connected via the bus 6. The recording medium 10 is for recording operation system program data, image data, audio data, game data including various program data, and the like. The recording medium 10 is, for example, a ROM (Read Only Memory) cassette, an optical disk, a flexible disk, or the like, and stores operating system program data, game data, and the like. The recording medium 10 also includes a card type memory, and this card type memory is mainly used for storing various game parameters at the time of interruption when the game is interrupted. The RAM 12 is used for temporarily storing various data read from the recording medium 10 and temporarily recording the processing results from the control unit 1. The RAM 12 stores various data and address data indicating the storage position of the various data, and can be read / written by designating an arbitrary address.

画像表示部3は、主に、画像処理プロセッサ9によってRAM12に書き込まれた画像データや、記録媒体10から読み出される画像データなどを画像として出力するために設けられている。この画像表示部3は、たとえば、テレビジョンモニタ20と、インターフェース回路21と、D/Aコンバータ(Digital-To-Analogコンバータ)22とから構成されている。テレビジョンモニタ20にはD/Aコンバータ22が接続されており、D/Aコンバータ22にはインターフェース回路21が接続されている。そして、インターフェース回路21にバス6が接続されている。ここでは、画像データが、インターフェース回路21を介してD/Aコンバータ22に供給され、ここでアナログ画像信号に変換される。そして、アナログ画像信号がテレビジョンモニタ20に画像として出力される。   The image display unit 3 is provided mainly for outputting image data written in the RAM 12 by the image processor 9 or image data read from the recording medium 10 as an image. The image display unit 3 includes, for example, a television monitor 20, an interface circuit 21, and a D / A converter (Digital-To-Analog converter) 22. A D / A converter 22 is connected to the television monitor 20, and an interface circuit 21 is connected to the D / A converter 22. The bus 6 is connected to the interface circuit 21. Here, the image data is supplied to the D / A converter 22 via the interface circuit 21, where it is converted into an analog image signal. The analog image signal is output as an image to the television monitor 20.

ここで、画像データには、たとえば、ポリゴンデータやテクスチャデータなどがある。ポリゴンデータはポリゴンを構成する頂点の座標データのことである。テクスチャデータは、ポリゴンにテクスチャを設定するためのものであり、テクスチャ指示データとテクスチャカラーデータとからなっている。テクスチャ指示データはポリゴンとテクスチャとを対応づけるためのデータであり、テクスチャカラーデータはテクスチャの色を指定するためのデータである。ここで、ポリゴンデータとテクスチャデータとには、各データの記憶位置を示すポリゴンアドレスデータとテクスチャアドレスデータとが対応づけられている。このような画像データでは、信号処理プロセッサ8により、ポリゴンアドレスデータの示す3次元空間上のポリゴンデータ(3次元ポリゴンデータ)が、画面自体(視点)の移動量データおよび回転量データに基づいて座標変換および透視投影変換されて、2次元空間上のポリゴンデータ(2次元ポリゴンデータ)に置換される。そして、複数の2次元ポリゴンデータでポリゴン外形を構成して、ポリゴンの内部領域にテクスチャアドレスデータが示すテクスチャデータを書き込む。このようにして、各ポリゴンにテクスチャが貼り付けられた物体つまり各種キャラクタを表現することができる。   Here, the image data includes, for example, polygon data and texture data. Polygon data is the coordinate data of vertices constituting a polygon. The texture data is for setting a texture on the polygon, and is composed of texture instruction data and texture color data. The texture instruction data is data for associating polygons and textures, and the texture color data is data for designating the texture color. Here, the polygon data and the texture data are associated with the polygon address data indicating the storage position of each data and the texture address data. In such image data, the signal processor 8 coordinates the polygon data in the three-dimensional space indicated by the polygon address data (three-dimensional polygon data) based on the movement amount data and the rotation amount data of the screen itself (viewpoint). Conversion and perspective projection conversion are performed, and the data is replaced with polygon data (two-dimensional polygon data) in a two-dimensional space. Then, a polygon outline is constituted by a plurality of two-dimensional polygon data, and texture data indicated by the texture address data is written in an internal area of the polygon. In this way, an object in which a texture is pasted on each polygon, that is, various characters can be expressed.

音声出力部4は、主に、記録媒体10から読み出される音声データを音声として出力するために設けられている。音声出力部4は、たとえば、スピーカー13と、増幅回路14と、D/Aコンバータ15と、インターフェース回路16とから構成されている。スピーカー13には増幅回路14が接続されており、増幅回路14にはD/Aコンバータ15が接続されており、D/Aコンバータ15にはインターフェース回路16が接続されている。そして、インターフェース回路16にバス6が接続されている。ここでは、音声データが、インターフェース回路16を介してD/Aコンバータ15に供給され、ここでアナログ音声信号に変換される。このアナログ音声信号が増幅回路14によって増幅され、スピーカー13から音声として出力される。音声データには、たとえば、ADPCM(Adaptive Differential Pulse Code Modulation)データやPCM(Pulse Code Modulation)データなどがある。ADPCMデータの場合、上述と同様の処理方法で音声をスピーカー13から出力することができる。PCMデータの場合、RAM12においてPCMデータをADPCMデータに変換しておくことで、上述と同様の処理方法で音声をスピーカー13から出力することができる。   The audio output unit 4 is provided mainly for outputting audio data read from the recording medium 10 as audio. The audio output unit 4 includes, for example, a speaker 13, an amplifier circuit 14, a D / A converter 15, and an interface circuit 16. An amplifier circuit 14 is connected to the speaker 13, a D / A converter 15 is connected to the amplifier circuit 14, and an interface circuit 16 is connected to the D / A converter 15. The bus 6 is connected to the interface circuit 16. Here, the audio data is supplied to the D / A converter 15 via the interface circuit 16, where it is converted into an analog audio signal. The analog audio signal is amplified by the amplifier circuit 14 and output from the speaker 13 as audio. The audio data includes, for example, ADPCM (Adaptive Differential Pulse Code Modulation) data and PCM (Pulse Code Modulation) data. In the case of ADPCM data, sound can be output from the speaker 13 by the same processing method as described above. In the case of PCM data, by converting the PCM data into ADPCM data in the RAM 12, the sound can be output from the speaker 13 by the same processing method as described above.

操作入力部5は、主に、コントローラ17と、操作情報インターフェース回路18と、インターフェース回路19とから構成されている。コントローラ17には、操作情報インターフェース回路18が接続されており、操作情報インターフェース回路18にはインターフェース回路19が接続されている。そして、インターフェース回路19にバス6が接続されている。   The operation input unit 5 mainly includes a controller 17, an operation information interface circuit 18, and an interface circuit 19. An operation information interface circuit 18 is connected to the controller 17, and an interface circuit 19 is connected to the operation information interface circuit 18. The bus 6 is connected to the interface circuit 19.

コントローラ17は、プレイヤが種々の操作命令を入力するために使用する操作装置であり、プレイヤの操作に応じた操作信号をCPU7に送出する。コントローラ17には、第1ボタン17a、第2ボタン17b、第3ボタン17c、第4ボタン17d、上方向キー17U、下方向キー17D、左方向キー17L、右方向キー17R、L1ボタン17L1、L2ボタン17L2、R1ボタン17R1、R2ボタン17R2、スタートボタン17e、セレクトボタン17f、左スティック17SL及び右スティック17SRが設けられている。   The controller 17 is an operation device used by the player to input various operation commands, and sends an operation signal according to the operation of the player to the CPU 7. The controller 17 includes a first button 17a, a second button 17b, a third button 17c, a fourth button 17d, an up key 17U, a down key 17D, a left key 17L, a right key 17R, and an L1 button 17L1, L2. A button 17L2, an R1 button 17R1, an R2 button 17R2, a start button 17e, a select button 17f, a left stick 17SL and a right stick 17SR are provided.

上方向キー17U、下方向キー17D、左方向キー17L及び右方向キー17Rは、例えば、キャラクタやカーソルをテレビジョンモニタ20の画面上で上下左右に移動させるコマンドをCPU7に与えるために使用される。   The up direction key 17U, the down direction key 17D, the left direction key 17L, and the right direction key 17R are used, for example, to give the CPU 7 a command for moving a character or cursor up, down, left, or right on the screen of the television monitor 20. .

スタートボタン17eは、記録媒体10からゲームプログラムをロードするようにCPU7に指示するときなどに使用される。   The start button 17e is used when instructing the CPU 7 to load a game program from the recording medium 10.

セレクトボタン17fは、記録媒体10からロードされたゲームプログラムに対して、各種選択をCPU7に指示するときなどに使用される。   The select button 17f is used when instructing the CPU 7 to make various selections for the game program loaded from the recording medium 10.

左スティック17SL及び右スティック17SRは、いわゆるジョイスティックとほぼ同一構成のスティック型コントローラである。このスティック型コントローラは、直立したスティックを有している。このスティックは、支点を中心として直立位置から前後左右を含む360°方向に亘って、傾倒可能な構成になっている。左スティック17SL及び右スティック17SRは、スティックの傾倒方向及び傾倒角度に応じて、直立位置を原点とするx座標及びy座標の値を、操作信号として操作情報インターフェース回路18とインターフェース回路19とを介してCPU7に送出する。   The left stick 17SL and the right stick 17SR are stick type controllers having substantially the same configuration as a so-called joystick. This stick type controller has an upright stick. The stick is configured to be tiltable from an upright position around the fulcrum in a 360 ° direction including front, rear, left and right. The left stick 17SL and the right stick 17SR pass through the operation information interface circuit 18 and the interface circuit 19 with the values of the x-coordinate and the y-coordinate having the upright position as the origin as operation signals according to the tilt direction and tilt angle of the stick. To the CPU 7.

第1ボタン17a、第2ボタン17b、第3ボタン17c、第4ボタン17d、L1ボタン17L1、L2ボタン17L2、R1ボタン17R1及びR2ボタン17R2には、記録媒体10からロードされるゲームプログラムに応じて種々の機能が割り振られている。   The first button 17a, the second button 17b, the third button 17c, the fourth button 17d, the L1 button 17L1, the L2 button 17L2, the R1 button 17R1, and the R2 button 17R2 correspond to the game program loaded from the recording medium 10. Various functions are allocated.

なお、左スティック17SL及び右スティック17SRを除くコントローラ17の各ボタン及び各キーは、外部からの押圧力によって中立位置から押圧されるとオンになり、押圧力が解除されると中立位置に復帰してオフになるオンオフスイッチになっている。   Each button and each key of the controller 17 except for the left stick 17SL and the right stick 17SR are turned on when pressed from the neutral position by an external pressing force, and return to the neutral position when the pressing force is released. It is an on / off switch that turns off.

以上のような構成からなる家庭用ビデオゲーム装置の概略動作を、以下に説明する。電源スイッチ(図示省略)がオンにされゲームシステム1に電源が投入されると、CPU7が、記録媒体10に記憶されているオペレーティングシステムに基づいて、記録媒体10から画像データ、音声データ、およびプログラムデータを読み出す。読み出された画像データ、音声データ、およびプログラムデータの一部若しくは全部は、RAM12に格納される。そして、CPU7が、RAM12に格納されたプログラムデータに基づいて、RAM12に格納された画像データや音声データにコマンドを発行する。   The schematic operation of the home video game apparatus having the above configuration will be described below. When a power switch (not shown) is turned on and the game system 1 is turned on, the CPU 7 reads image data, audio data, and a program from the recording medium 10 based on the operating system stored in the recording medium 10. Read data. Some or all of the read image data, audio data, and program data are stored in the RAM 12. Then, the CPU 7 issues a command to the image data and sound data stored in the RAM 12 based on the program data stored in the RAM 12.

画像データの場合、CPU7からのコマンドに基づいて、まず、信号処理プロセッサ8が、3次元空間上におけるキャラクタの位置計算および光源計算などを行う。次に、画像処理プロセッサ9が、信号処理プロセッサ8の計算結果に基づいて、描画すべき画像データのRAM12への書き込み処理などを行う。そして、RAM12に書き込まれた画像データが、インターフェース回路13を介してD/Aコンバータ17に供給される。ここで、画像データがD/Aコンバータ17でアナログ映像信号に変換される。そして、画像データはテレビジョンモニタ20に供給され画像として表示される。   In the case of image data, based on a command from the CPU 7, first, the signal processor 8 performs character position calculation and light source calculation in a three-dimensional space. Next, the image processor 9 performs a process of writing image data to be drawn into the RAM 12 based on the calculation result of the signal processor 8. Then, the image data written in the RAM 12 is supplied to the D / A converter 17 via the interface circuit 13. Here, the image data is converted into an analog video signal by the D / A converter 17. The image data is supplied to the television monitor 20 and displayed as an image.

音声データの場合、まず、信号処理プロセッサ8が、CPU7からのコマンドに基づいて音声データの生成および加工処理を行う。ここでは、音声データに対して、たとえば、ピッチの変換、ノイズの付加、エンベロープの設定、レベルの設定及びリバーブの付加などの処理が施される。次に、音声データは、信号処理プロセッサ8から出力されて、インターフェース回路16を介してD/Aコンバータ15に供給される。ここで、音声データがアナログ音声信号に変換される。そして、音声データは増幅回路14を介してスピーカー13から音声として出力される。   In the case of audio data, first, the signal processor 8 generates and processes audio data based on a command from the CPU 7. Here, processing such as pitch conversion, noise addition, envelope setting, level setting, and reverb addition is performed on the audio data, for example. Next, the audio data is output from the signal processor 8 and supplied to the D / A converter 15 via the interface circuit 16. Here, the audio data is converted into an analog audio signal. The audio data is output as audio from the speaker 13 via the amplifier circuit 14.

〔ゲーム装置における各種処理の説明〕
本ゲーム装置において実行されるゲームは、たとえば野球ゲームである。本ゲーム装置において実行される野球ゲームでは、各種の画像を様々な形態でテレビジョンモニタ20に表示可能になっている。たとえば、この野球ゲームでは、球場の内部たとえば捕手側から見たスタジアムの内部空間を、様々な形態でテレビジョンモニタ20に表示可能になっている。図2は、本発明で主要な役割を果たす機能を説明するための機能ブロック図である。
[Description of various processes in game device]
The game executed in this game apparatus is, for example, a baseball game. In the baseball game executed in this game apparatus, various images can be displayed on the television monitor 20 in various forms. For example, in this baseball game, the interior space of the stadium, for example, viewed from the catcher side, can be displayed on the television monitor 20 in various forms. FIG. 2 is a functional block diagram for explaining functions that play a major role in the present invention.

テクスチャ格納手段50は、テクスチャ用の画像データを、RAM12に格納する機能を備えている。この手段では、テクスチャ用の画像データが、RAM12に格納される。詳細には、この手段では、広角の画像データが、テクスチャ用の画像データとして、RAM12に格納される。   The texture storage means 50 has a function of storing texture image data in the RAM 12. In this means, texture image data is stored in the RAM 12. Specifically, with this means, wide-angle image data is stored in the RAM 12 as texture image data.

たとえば、この手段では、捕手側から見たスタジアムの内部空間を、広角レンズで撮影した画像に対応する画像データが、捕手側から見たスタジアムの内部空間のテクスチャ用の画像データとして、RAM12に格納される。このテクスチャ用の画像データは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。   For example, in this means, image data corresponding to an image taken with a wide-angle lens of the stadium internal space viewed from the catcher side is stored in the RAM 12 as image data for texture of the stadium internal space viewed from the catcher side. Is done. The texture image data is loaded and stored from the recording medium 10 to the RAM 12 together with the baseball game program when the baseball game program is loaded from the recording medium 10 to the RAM 12.

モデル格納手段51は、複数のポリゴンから構成される面状のモデルを、RAM12に格納する機能を備えている。この手段では、複数のポリゴンから構成される面状のモデルが、RAM12に格納される。   The model storage unit 51 has a function of storing a planar model composed of a plurality of polygons in the RAM 12. In this means, a planar model composed of a plurality of polygons is stored in the RAM 12.

たとえば、この手段では、複数の矩形状のポリゴンからなる面状のモデルが、RAM12に格納される。たとえば、複数の矩形状のポリゴンからなる面状のモデルは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。   For example, in this means, a planar model made up of a plurality of rectangular polygons is stored in the RAM 12. For example, when a baseball game program is loaded from the recording medium 10 to the RAM 12, a planar model composed of a plurality of rectangular polygons is loaded and stored from the recording medium 10 into the RAM 12 together with the baseball game program.

なお、ここでは、複数の矩形状のポリゴンからなる面状のモデルが、記録媒体10に予め格納されている場合の例が示されているが、面状のモデルを、ゲーム装置において形成するようにしても良い。この場合、ゲーム装置において、複数の矩形状のポリゴンを面状に並べる命令をCPU7に発行させることにより、複数の矩形状のポリゴンからなる面状のモデルが形成される。そして、この面状のモデルが、RAM12に格納される。   Here, an example in which a planar model made up of a plurality of rectangular polygons is stored in advance in the recording medium 10 is shown, but the planar model is formed in the game device. Anyway. In this case, in the game device, by causing the CPU 7 to issue a command for arranging a plurality of rectangular polygons in a planar shape, a planar model composed of the plurality of rectangular polygons is formed. The planar model is stored in the RAM 12.

オブジェクト生成手段52は、画像データをテクスチャとして面状のモデルに投影する処理を、CPU7に実行させることにより、面状のオブジェクトを生成する機能を備えている。この手段では、画像データをテクスチャとして面状のモデルに投影する処理を、CPU7に実行させることにより、面状のオブジェクトが生成される。   The object generation means 52 has a function of generating a planar object by causing the CPU 7 to execute a process of projecting image data as a texture onto a planar model. In this means, a planar object is generated by causing the CPU 7 to execute a process of projecting image data as a texture onto a planar model.

たとえば、この手段では、広角で捕手側から見たスタジアムの内部空間を示す画像データが、複数の矩形状のポリゴンからなる面状のモデルのテクスチャとして用いられる。すなわち、広角で捕手側から見たスタジアムの内部空間を示す画像データ(テクスチャ用の画像データ)を、複数の矩形状のポリゴンからなる面状のモデルに投影することにより(テクスチャマッピングを実行することにより)、面状のオブジェクトが生成される。ここでは、面状のオブジェクトが、広角で捕手側から見たスタジアムの内部空間の画像がマッピングされた面状のモデルに対応している。   For example, in this means, image data indicating the internal space of the stadium viewed from the catcher side at a wide angle is used as the texture of a planar model composed of a plurality of rectangular polygons. That is, by projecting image data (texture image data) showing the internal space of the stadium viewed from the catcher side at a wide angle onto a planar model composed of a plurality of rectangular polygons (to execute texture mapping) A planar object is generated. Here, the planar object corresponds to a planar model in which an image of the internal space of the stadium viewed from the catcher side at a wide angle is mapped.

オブジェクト配置手段53は、面状のオブジェクトの配置位置を規定するための座標データを、CPU7に認識させることにより、面状のオブジェクトを仮想空間に配置する機能を備えている。この手段では、面状のオブジェクトの配置位置を規定するための座標データを、CPU7に認識させることにより、面状のオブジェクトが仮想空間に配置される。   The object placement unit 53 has a function of placing the planar object in the virtual space by causing the CPU 7 to recognize coordinate data for defining the placement position of the planar object. In this means, the planar object is arranged in the virtual space by causing the CPU 7 to recognize the coordinate data for defining the arrangement position of the planar object.

たとえば、この手段では、面状のオブジェクトの配置位置は、ゲームプログラムにおいて予め規定されている。この面状のオブジェクトの配置位置を規定するための座標データは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。   For example, in this means, the arrangement position of the planar object is defined in advance in the game program. When the baseball game program is loaded from the recording medium 10 to the RAM 12, the coordinate data for defining the arrangement position of the planar object is loaded from the recording medium 10 to the RAM 12 and stored together with the baseball game program.

カメラ配置手段54は、仮想カメラの配置位置を規定するための座標データを、CPU7に認識させることにより、仮想カメラを仮想空間に配置する機能を備えている。   The camera placement unit 54 has a function of placing the virtual camera in the virtual space by causing the CPU 7 to recognize coordinate data for defining the placement position of the virtual camera.

この手段では、仮想カメラの配置位置を規定するための座標データを、CPU7に認識させることにより、仮想カメラが仮想空間に配置される。詳細には、この手段では、面状のオブジェクトの重心位置を基準として、面状のオブジェクトに垂直な方向の所定の位置を示す座標データを、CPU7に認識させることにより、仮想カメラが仮想空間に配置される。   With this means, the virtual camera is arranged in the virtual space by causing the CPU 7 to recognize coordinate data for defining the arrangement position of the virtual camera. Specifically, this means allows the CPU 7 to recognize coordinate data indicating a predetermined position in a direction perpendicular to the planar object with reference to the barycentric position of the planar object, so that the virtual camera is placed in the virtual space. Be placed.

たとえば、この手段では、仮想カメラの配置位置は、ゲームプログラムにおいて予め規定されている。ここでは、仮想カメラの配置位置は、面状のオブジェクトの重心位置において面状のオブジェクトに対して垂直に通過する直線上の所定の位置に設定されている。この所定の位置を示す座標データは、野球ゲームプログラムが、記録媒体10からRAM12にロードされるときに、野球ゲームプログラムとともに記録媒体10からRAM12にロードされ格納される。   For example, in this means, the placement position of the virtual camera is defined in advance in the game program. Here, the arrangement position of the virtual camera is set to a predetermined position on a straight line passing perpendicularly to the planar object at the center of gravity of the planar object. The coordinate data indicating the predetermined position is loaded and stored from the recording medium 10 to the RAM 12 together with the baseball game program when the baseball game program is loaded from the recording medium 10 to the RAM 12.

形状変更手段55は、面状のオブジェクトの形状を面外に段階的に変形する処理を、CPU7に実行させる機能を備えている。また、形状変更手段55は、第1形状変更手段55aおよび第2形状変更手段55bを有している。   The shape changing means 55 has a function of causing the CPU 7 to execute a process of stepwise deforming the shape of the planar object out of the plane. Further, the shape changing means 55 includes a first shape changing means 55a and a second shape changing means 55b.

第1形状変更手段55aでは、面状のオブジェクトの形状を、仮想カメラから離反する方向に凸状に歪んだ形状に段階的に変形する処理が、CPU7により実行される。詳細には、この第1形状変更手段55aでは、面状のオブジェクトの重心位置を基準として、平面形状、および仮想カメラに近接する方向に凸状に歪んだ形状のいずれか一方の形状から、仮想カメラから離反する方向に凸状に歪んだ形状へと、面状のオブジェクトの形状を段階的に変形する処理が、CPU7により実行される。   In the first shape changing means 55a, the CPU 7 executes a process of stepwise deforming the shape of the planar object into a shape distorted in a convex shape in a direction away from the virtual camera. Specifically, the first shape changing unit 55a uses a virtual shape from one of a planar shape and a shape distorted in a convex shape in a direction close to the virtual camera with reference to the center of gravity position of the planar object. The CPU 7 executes a process of stepwise deforming the shape of the planar object into a shape distorted in a convex shape in a direction away from the camera.

第2形状変更手段55bでは、面状のオブジェクトの形状を、仮想カメラに近接する方向に凸状に歪んだ形状に段階的に変形する処理が、CPU7により実行される。詳細には、この第2形状変更手段55bでは、面状のオブジェクトの重心位置を基準として、平面形状、および仮想カメラから離反する方向に凸状に歪んだ形状のいずれか一方の形状から、仮想カメラに近接する方向に凸状に歪んだ形状へと、面状のオブジェクトの形状を段階的に変形する処理が、CPU7により実行される。   In the second shape changing means 55b, the CPU 7 executes a process of stepwise deforming the shape of the planar object into a shape distorted in a convex shape in the direction approaching the virtual camera. Specifically, the second shape changing unit 55b uses a virtual shape from one of a planar shape and a shape distorted in a convex shape in a direction away from the virtual camera with reference to the position of the center of gravity of the planar object. The CPU 7 executes a process of stepwise deforming the shape of the planar object into a shape distorted in a convex shape in the direction approaching the camera.

この手段では、面状のオブジェクトの形状を面外に段階的に変形する処理が、CPU7により実行される。   In this means, the CPU 7 executes a process of stepwise deforming the shape of the planar object out of the plane.

たとえば、面状のオブジェクトの重心位置において面状のオブジェクトに対して垂直に通過する直線を基準線として、平面形状、および仮想カメラ側に凸状に歪んだ形状のいずれか一方の形状から、仮想カメラから離反する方向に凸状に歪んだ形状へと、面状のオブジェクトの形状を時間に応じて段階的に変形する処理が、CPU7により実行される。   For example, a straight line passing perpendicularly to a planar object at the center of gravity of the planar object is used as a reference line, and a virtual shape can be selected from either a planar shape or a shape distorted convexly toward the virtual camera. The CPU 7 executes a process of transforming the shape of the planar object in a stepwise manner according to time into a shape distorted in a convex shape in a direction away from the camera.

また、面状のオブジェクトの重心位置において面状のオブジェクトに対して垂直に通過する直線を基準線として、平面形状、および仮想カメラから離反する方向に凸状に歪んだ形状のいずれか一方の形状から、仮想カメラ側に凸状に歪んだ形状へと、面状のオブジェクトの形状を時間に応じて段階的に変形する処理が、CPU7により実行される。   In addition, a straight line passing perpendicularly to the planar object at the center of gravity of the planar object is used as a reference line, and either a planar shape or a shape distorted in a convex shape in a direction away from the virtual camera Then, the CPU 7 executes a process of deforming the shape of the planar object in a stepwise manner according to time into a shape distorted convexly toward the virtual camera.

画角変更手段56は、面状のオブジェクトの形状の変化に応じて仮想カメラの画角を段階的に変更する処理を、CPU7に実行させる機能を備えている。詳細には、画角変更手段56は、画角縮小手段56aおよび画角拡大手段56bを備えている。   The angle-of-view changing unit 56 has a function of causing the CPU 7 to execute a process of changing the angle of view of the virtual camera in a stepwise manner in accordance with a change in the shape of the planar object. Specifically, the angle-of-view changing means 56 includes an angle-of-view reduction means 56a and an angle-of-view enlargement means 56b.

画角縮小手段56aでは、面状のオブジェクトの形状の変化に応じて仮想カメラの画角が小さくなるように仮想カメラの画角を段階的に変更する処理が、CPU7により実行される。   In the angle-of-view reduction means 56a, the CPU 7 executes a process of changing the angle of view of the virtual camera in a stepwise manner so that the angle of view of the virtual camera becomes smaller according to the change in the shape of the planar object.

画角拡大手段56bでは、面状のオブジェクトの形状の変化に応じて仮想カメラの画角が大きくなるように仮想カメラの画角を段階的に変更する処理が、CPU7により実行される。   In the angle-of-view enlargement unit 56b, the CPU 7 executes a process of changing the angle of view of the virtual camera stepwise so that the angle of view of the virtual camera increases in accordance with the change in the shape of the planar object.

たとえば、この手段では、面状のオブジェクトが仮想カメラから離れる方向に面外に段階的に変形するにつれて、仮想カメラの画角も段階的に小さくなるように、仮想カメラの画角を変更する処理が、CPU7により実行される。また、面状のオブジェクトが仮想カメラに近づく方向に面外に段階的に変形するにつれて、仮想カメラの画角も段階的に大きくなるように、仮想カメラの画角を変更する処理が、CPU7により実行される。   For example, with this means, the process of changing the angle of view of the virtual camera so that the angle of view of the virtual camera also decreases stepwise as the planar object deforms stepwise in the direction away from the virtual camera. Is executed by the CPU 7. Further, the CPU 7 performs processing for changing the angle of view of the virtual camera so that the angle of view of the virtual camera increases stepwise as the planar object deforms stepwise in the direction approaching the virtual camera. Executed.

具体的には、面状のオブジェクトが、初期形状から、仮想カメラから離れる方向に面外に段階的に変形するにつれて、仮想カメラの画角が、所定の最大画角から所定の最小画角へと段階的に小さくなるように、仮想カメラの画角を時間に応じて変更する処理が、CPU7により実行される。また、面状のオブジェクトが、初期形状から、仮想カメラに近づく方向に面外に段階的に変形するにつれて、仮想カメラの画角が、所定の最小画角から所定の最大画角へと段階的に小さくなるように、仮想カメラの画角を時間に応じて変更する処理が、CPU7により実行される。   Specifically, as the planar object is gradually deformed out of the plane in the direction away from the virtual camera from the initial shape, the angle of view of the virtual camera is changed from a predetermined maximum angle of view to a predetermined minimum angle of view. The CPU 7 executes a process of changing the angle of view of the virtual camera according to time so as to gradually decrease. In addition, as the planar object is deformed stepwise from the initial shape in a direction approaching the virtual camera, the view angle of the virtual camera gradually increases from a predetermined minimum angle of view to a predetermined maximum angle of view. The CPU 7 executes a process of changing the angle of view of the virtual camera according to time so as to be smaller.

画像表示手段57は、面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影する処理を、CPU7に実行させることにより、ズーム画像をテレビジョンモニタ20に表示する機能を備えている。   The image display means 57 causes the CPU 7 to execute a process of photographing a state in which the shape of the planar object changes stepwise with a virtual camera in which the angle of view changes stepwise, whereby the zoom image is displayed on the television monitor. 20 is provided.

この手段では、面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影する処理を、CPU7に実行させることにより、ズーム画像が、テレビジョンモニタ20に表示される。   In this means, the zoom image is displayed on the television monitor 20 by causing the CPU 7 to execute a process of photographing a state in which the shape of the planar object changes stepwise with a virtual camera in which the angle of view changes stepwise. Is displayed.

詳細には、この手段では、面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影する処理を、CPU7に実行させることにより、ズームイン画像およびズームアウト画像のいずれか一方が、テレビジョンモニタ20に表示される。   Specifically, this means causes the CPU 7 to execute a process of photographing a state in which the shape of the planar object changes stepwise with a virtual camera in which the angle of view changes stepwise. One of the out images is displayed on the television monitor 20.

たとえば、この手段では、面状のオブジェクトの形状が変形を開始したときに、仮想カメラに対する撮影開始命令が、CPU7から発行される。すると、仮想カメラの画角を段階的に変更する命令が、CPU7から発行される。すると、面状のオブジェクトの形状が段階的に変形する状態が、仮想カメラの画角が段階的に変化する仮想カメラにより撮影する処理が、CPU7により実行される。すると、ズームイン画像又はズームアウト画像が、テレビジョンモニタ20に表示される。   For example, in this means, when the shape of the planar object starts to be deformed, a shooting start command for the virtual camera is issued from the CPU 7. Then, a command for changing the angle of view of the virtual camera in steps is issued from the CPU 7. Then, the CPU 7 executes a process of photographing a state in which the shape of the planar object is deformed step by step with the virtual camera in which the angle of view of the virtual camera changes stepwise. Then, a zoomed-in image or a zoomed-out image is displayed on the television monitor 20.

〔野球ゲームにおけるズーム画像表示システムの説明〕
次に、野球ゲームにおけるズーム画像表示システムの具体的な内容について説明する。また、図9および図10に示すフローについても同時に説明する。なお、図9は野球ゲームの全体概要を説明するためのフローであり、図10は上記システムを説明するためのフローである。
[Description of zoom image display system in baseball game]
Next, specific contents of the zoom image display system in the baseball game will be described. The flow shown in FIGS. 9 and 10 will also be described at the same time. FIG. 9 is a flow for explaining the general outline of the baseball game, and FIG. 10 is a flow for explaining the system.

以下では、まず野球ゲームの全体概要を説明し、次に上記システムの内容を説明する。   In the following, the overall outline of the baseball game will be described first, and then the contents of the system will be described.

まず、ゲーム装置の電源が投入されゲーム装置が起動されると、野球ゲームプログラムが、記録媒体10からRAM12にロードされ格納される。このときには、野球ゲームを実行する上で必要となる各種の基本ゲームデータも、同時に、記録媒体10からRAM12にロードされ格納される(S1)。   First, when the game apparatus is turned on and the game apparatus is activated, a baseball game program is loaded from the recording medium 10 into the RAM 12 and stored. At this time, various basic game data necessary for executing the baseball game are simultaneously loaded from the recording medium 10 into the RAM 12 and stored (S1).

たとえば、基本ゲームデータには、3次元ゲーム空間用の各種の画像に関するデータが含まれている。そして、この3次元ゲーム空間用の各種の画像に関するデータ、たとえば、スタジアム用の画像データ、選手キャラクタ用の画像データ、および各種のオブジェクトの画像データ等が、CPU7に認識される。また、基本ゲームデータには、3次元ゲーム空間用の各種の画像に関するデータを3次元ゲーム空間に配置するための位置座標データが含まれている。また、基本ゲームデータには、上記システムで用いられるデータも、含まれている。   For example, the basic game data includes data related to various images for a three-dimensional game space. The CPU 7 recognizes data related to various images for the three-dimensional game space, such as stadium image data, player character image data, and various object image data. Further, the basic game data includes position coordinate data for arranging data related to various images for the three-dimensional game space in the three-dimensional game space. The basic game data also includes data used in the above system.

続いて、RAM12に格納された野球ゲームプログラムが、基本ゲームデータに基づいて、CPU7により実行される(S2)。すると、野球ゲームの起動画面がテレビジョンモニタ20に表示される。すると、野球ゲームを実行するための各種の設定画面がテレビジョンモニタ20に表示される。ここでは、たとえば、野球ゲームのプレイモードを選択するためのモード選択画面が、テレビジョンモニタ20に表示される(図示しない)。このモード選択画面において、プレイヤがコントローラ17を操作することにより、プレイモードが決定される(S3)。プレイモードには、たとえば、12球団の中から好きなチームを選択して1試合の対戦を楽しむ対戦モード、12球団の中から好きなチームを選択してペナントレースを戦うペナントモード、プレイヤが監督の立場でチームの選手キャラクタを育成する育成モード、およりプレイヤがある1人の選手キャラクタの立場になって野球ゲームを体感する成長体感モード等が、用意されている。   Subsequently, the baseball game program stored in the RAM 12 is executed by the CPU 7 based on the basic game data (S2). Then, the start screen of the baseball game is displayed on the television monitor 20. Then, various setting screens for executing the baseball game are displayed on the television monitor 20. Here, for example, a mode selection screen for selecting a play mode of the baseball game is displayed on the television monitor 20 (not shown). In the mode selection screen, the player operates the controller 17 to determine the play mode (S3). The play mode includes, for example, a battle mode in which a favorite team is selected from the 12 teams to enjoy a match, a pennant mode in which a favorite team is selected from the 12 teams and a pennant race is played, and the player is directed A training mode for training the player characters of the team from the standpoint of the player, a growth experience mode for experiencing the baseball game from the standpoint of one player character with the Oyori player, and the like are prepared.

続いて、モード選択画面で選択されたプレイモードにおいて、各種のイベントが、CPU7により実行される(S4)。ここで実行される各種のイベントには、たとえば、AIプログラム(Artificial Intelligence Program)に基づいてCPU7により自動制御されるイベントや、コントローラ17からの入力信号に基づいてプレイヤにより手動制御されるイベントのようなイベントがある。また、選手キャラクタの制御には、AIプログラムに基づいて選手キャラクタに命令を自動的に指示する自動制御や、コントローラ17からの入力信号に基づいて選手キャラクタに命令を直接的に指示する手動制御等がある。このように、本野球ゲームでは、コントローラ17からの指示やAIプログラムからの指示に応じて、イベントが制御されたり、選手キャラクタに命令が指示されたりするようになっている。   Subsequently, various events are executed by the CPU 7 in the play mode selected on the mode selection screen (S4). The various events executed here are, for example, events automatically controlled by the CPU 7 based on an AI program (Artificial Intelligence Program), and events manually controlled by the player based on an input signal from the controller 17. There is a special event. The player character is controlled by automatic control for automatically instructing the player character based on the AI program, manual control for directly instructing the player character based on an input signal from the controller 17, or the like. There is. Thus, in this baseball game, an event is controlled or an instruction is instructed to the player character in accordance with an instruction from the controller 17 or an instruction from the AI program.

続いて、選択されたプレイモードが終了したか否かが、CPU7により判断される(S5)。具体的には、プレイモードが終了したことを示す命令が発行されたか否かが、CPU7により判断される。そして、プレイモードが終了したことを示す命令が発行されたとCPU7により判断された場合(S5でYes)、ゲーム継続用のデータをRAM12に格納する処理が、CPU7により実行される。そして、ゲーム継続用のデータがRAM12に格納されると、この野球ゲームを終了するか否かを選択する選択画面が、テレビジョンモニタ20に表示される(S6)。そして、この選択画面において、プレイヤがコントローラ17を操作することにより、野球ゲームの終了を示す項目が選択されると(S6でYes)、野球ゲームを終了するための処理がCPU7により実行される(S7)。一方で、この選択画面において、プレイヤがコントローラ17を操作することにより、野球ゲームの継続を示す項目が選択されると(S6でNo)、ステップ3(S3)のモード選択画面が、テレビジョンモニタ20に再表示される。   Subsequently, the CPU 7 determines whether or not the selected play mode is finished (S5). Specifically, the CPU 7 determines whether or not a command indicating that the play mode has ended is issued. If the CPU 7 determines that an instruction indicating that the play mode has ended has been issued (Yes in S5), the CPU 7 executes a process of storing the game continuation data in the RAM 12. When the game continuation data is stored in the RAM 12, a selection screen for selecting whether or not to end the baseball game is displayed on the television monitor 20 (S6). When an item indicating the end of the baseball game is selected by operating the controller 17 on the selection screen (Yes in S6), the CPU 7 executes a process for ending the baseball game ( S7). On the other hand, when an item indicating continuation of the baseball game is selected by operating the controller 17 on the selection screen (No in S6), the mode selection screen in Step 3 (S3) is displayed on the television monitor. 20 is displayed again.

なお、プレイモードが終了するための命令が発行されたとCPU7に判断されない限り(S5でNo)、モード選択画面で選択されたプレイモードにおいて、各種のイベントがCPU7により実行される(S4)。   Unless the CPU 7 determines that an instruction for ending the play mode has been issued (No in S5), various events are executed by the CPU 7 in the play mode selected on the mode selection screen (S4).

次に、ズーム画像表示システムの詳細を説明する。   Next, details of the zoom image display system will be described.

本実施形態では、試合イベントが実行されるときに、ズーム画像表示システムが機能する場合の例が示される。たとえば、試合イベントが実行されるときに、プレイヤがプレイを所望する球場を選択すると、選択された球場内部の映像が、テレビジョンモニタ20にズーム表示される。   In the present embodiment, an example in which the zoom image display system functions when a game event is executed is shown. For example, when a game event is executed, if a player selects a stadium that he / she wants to play, an image inside the selected stadium is zoomed and displayed on the television monitor 20.

以下では、捕手側から見たスタジアムの内部空間のズーム表示が、ズーム画像表示システムによって実現される場合の例が示される。   In the following, an example in which zoom display of the internal space of the stadium viewed from the catcher side is realized by a zoom image display system will be shown.

ズーム画像表示システムでは、野球ゲームプログラムが、たとえば、記録媒体10からRAM12にロードされたときに、捕手側から見たスタジアムの内部空間を、広角レンズで撮影した画像に対応する画像データGTが、捕手側から見たスタジアムの内部空間用のテクスチャとして、RAM12に格納される(S101)。ここでは、捕手側から見たスタジアムの内部空間を広角レンズで撮影した画像は、図3に示すようになっている。また、この広角レンズで撮影した画像に対応する画像データGTは、予め用意されたデータであり、記録媒体10に事前に格納されている。   In the zoom image display system, for example, when a baseball game program is loaded from the recording medium 10 to the RAM 12, image data GT corresponding to an image obtained by photographing the internal space of the stadium viewed from the catcher side with a wide-angle lens, It is stored in the RAM 12 as a texture for the internal space of the stadium viewed from the catcher side (S101). Here, the image which image | photographed the internal space of the stadium with the wide angle lens seen from the catcher side is as showing in FIG. Further, image data GT corresponding to an image photographed with this wide-angle lens is data prepared in advance and stored in the recording medium 10 in advance.

また、このときには、複数のポリゴンから構成される面状のモデルが、RAM12に格納される(S102)。たとえば、図4(a)および図4(c)に示すような、複数の矩形状のポリゴンからなる面状のモデルMP1,MP2が、RAM12に格納される。なお、参考のために、複数のポリゴンから構成される面状のモデルが、平面形状になった場合の図を図4(b)および図4(d)に示した。また、図4(a)〜図4(c)は、複数のポリゴンから構成される面状のモデルを側面から見た側面図である。また、図4(d)は、平面形状のモデルMP0を正面から見たときの正面図である。   At this time, a planar model composed of a plurality of polygons is stored in the RAM 12 (S102). For example, planar models MP1 and MP2 made up of a plurality of rectangular polygons as shown in FIGS. 4A and 4C are stored in the RAM 12. For reference, FIGS. 4B and 4D show a case where a planar model composed of a plurality of polygons has a planar shape. FIGS. 4A to 4C are side views of a planar model composed of a plurality of polygons as viewed from the side. FIG. 4D is a front view of the planar model MP0 as viewed from the front.

ここでは、仮想カメラC側に凸状に歪んだ形状(第1形状)の面状のモデルMP1と、仮想カメラCから離反する方向に凸状に歪んだ形状(第2形状)の面状のモデルMP2とが、RAM12に格納される。これら第1形状の面状のモデルMP1および第2形状の面状のモデルMP2それぞれは、複数の矩形状のポリゴンから構成されている。また、第1形状の面状のモデルMP1および第2形状の面状のモデルMP2それぞれは、重心位置gmにおいて最も凸になっている。すなわち、第1形状の面状のモデルMP1および第2形状の面状のモデルMP2それぞれは、重心位置gmにおいて最大曲率を有している。   Here, a surface model MP1 having a shape distorted convexly toward the virtual camera C (first shape) and a surface shape having a shape distorted convexly in a direction away from the virtual camera C (second shape). The model MP2 is stored in the RAM 12. Each of the planar model MP1 having the first shape and the planar model MP2 having the second shape is composed of a plurality of rectangular polygons. Each of the first shape planar model MP1 and the second shape planar model MP2 is most convex at the center of gravity position gm. That is, each of the first-shaped planar model MP1 and the second-shaped planar model MP2 has the maximum curvature at the gravity center position gm.

なお、本実施形態では、第2形状のモデルMP2(ポリゴンの頂点の座標データを含む)は、後述するように、面状のオブジェクトOBJを変形させるときに必要となる計算において用いられる。   In the present embodiment, the second shape model MP2 (including the coordinate data of the vertexes of the polygon) is used in calculations required when deforming the planar object OBJ, as will be described later.

ここで、複数のポリゴンから構成される面状のモデルMP1,MP2は、予め用意されたデータであり、記録媒体10に事前に格納されている。なお、ここでは、各ポリゴンの形状が矩形状である場合の例が示されているが、各ポリゴンの形状は、どのような形状であっても良い。たとえば、複数の三角形状のポリゴンを用いて、面状のモデルを形成するようにしても良い。   Here, the planar models MP1 and MP2 composed of a plurality of polygons are data prepared in advance and stored in the recording medium 10 in advance. Here, an example in which the shape of each polygon is rectangular is shown, but the shape of each polygon may be any shape. For example, a planar model may be formed using a plurality of triangular polygons.

なお、ここでは、複数のポリゴンから構成される面状のモデルMP1,MP2が、記録媒体10に事前に格納されている場合の例を示すが、面状のモデルを、ゲーム装置において生成するようにしても良い。   Here, an example in which planar models MP1 and MP2 composed of a plurality of polygons are stored in advance in the recording medium 10 is shown, but the planar model is generated in the game device. Anyway.

たとえば、第1形状に対応する面および第2形状に対応する面それぞれを、Bスプライン曲線を2方向に組み合わせることにより生成した場合、Bスプライン曲線を2方向に組み合わせたときの各交点が、第1形状および第2形状それぞれを形成するポリゴンの頂点の座標データになる。これら複数のポリゴンの頂点の座標データに基づいて、複数のポリゴンから構成される面状のモデルを生成することができる。また、面状のモデルMP0が平面形状である場合を基準として面対称の関係になるような、Bスプライン曲線を用いることにより、図4(a)および図4(c)に示したような、第1形状を有するモデルMP1および第2形状を有するモデルMP2を生成することができる。なお、モデルの生成に用いる曲線の方程式は、Bスプライン関数だけでなく、多次方程式を用いても良い。   For example, when the surface corresponding to the first shape and the surface corresponding to the second shape are generated by combining the B-spline curve in two directions, each intersection when the B-spline curve is combined in two directions is It becomes the coordinate data of the vertices of the polygon forming each of the first shape and the second shape. A planar model composed of a plurality of polygons can be generated based on the coordinate data of the vertices of the plurality of polygons. In addition, by using a B-spline curve that has a plane-symmetrical relationship with respect to the case where the planar model MP0 has a planar shape, as shown in FIGS. 4A and 4C, A model MP1 having a first shape and a model MP2 having a second shape can be generated. Note that the equation of the curve used for generating the model is not limited to the B-spline function but may be a multi-order equation.

さらに、面状モデルMP1(後述する面状のオブジェクトOBJ)の配置位置を規定するための座標データ、および仮想カメラCの配置位置を規定するための座標データが、RAM12に格納される(S103,S104)。ここでは、これらの座標データは、予め用意されたデータであり、記録媒体10に事前に格納されている。   Further, coordinate data for defining the arrangement position of the planar model MP1 (planar object OBJ described later) and coordinate data for defining the arrangement position of the virtual camera C are stored in the RAM 12 (S103, S104). Here, these coordinate data are data prepared in advance and stored in the recording medium 10 in advance.

これらステップ101(S101)からステップ104(S104)までの処理は、上述したステップ1(S1)において実行される。   The processing from step 101 (S101) to step 104 (S104) is executed in step 1 (S1) described above.

続いて、試合イベントが開始され、対戦するチーム名のような情報がテレビジョンモニタ20に表示された後に、広角で捕手側から見たスタジアムの内部空間の画像データGTをテクスチャとして面状のモデルMP1に投影する処理が、CPU7により実行される(S105)。すなわち、広角で捕手側から見たスタジアムの内部空間のテクスチャGTを、複数の矩形状のポリゴンからなる面状のモデルMP1にマッピングすることにより、図5に示すように、広角で捕手側から見たスタジアムの内部空間が2次元的に表現されたオブジェクトOBJ(面状のオブジェクト)が、生成される。   Subsequently, after a match event is started and information such as the name of the team to be played is displayed on the television monitor 20, a planar model with the image data GT of the internal space of the stadium viewed from the catcher side in a wide angle as a texture. The process of projecting onto MP1 is executed by the CPU 7 (S105). That is, by mapping the texture GT of the stadium internal space viewed from the catcher side at a wide angle to a planar model MP1 made up of a plurality of rectangular polygons, as shown in FIG. 5, the texture GT is viewed from the catcher side at a wide angle. An object OBJ (planar object) in which the internal space of the stadium is expressed two-dimensionally is generated.

なお、ここでは、面状のオブジェクトOBJが、試合イベントが開始された後に生成される場合の例を示すが、試合イベントが開始される前に、面状のオブジェクトOBJを事前に生成しておいても良い。   Here, an example in which the planar object OBJ is generated after the match event is started is shown, but before the match event is started, the planar object OBJ is generated in advance. May be.

続いて、面状のオブジェクトOBJの配置位置を規定するための座標データを、CPU7に認識させることにより、図6(a)に示すように、面状のオブジェクトOBJが3次元ゲーム空間の所定の位置に配置される(S106)。そして、仮想カメラCの配置位置を規定するための座標データを、CPU7に認識させることにより、仮想カメラCが3次元ゲーム空間に配置される(S107)。具体的には、面状のオブェクトの重心位置gmを基準として、平面状態の面状のオブジェクトOBJに垂直な方向の所定の位置(基準線LK上の所定の位置)を示す座標データを、CPU7に認識させることにより、仮想カメラCが3次元ゲーム空間に配置される。   Subsequently, by causing the CPU 7 to recognize the coordinate data for defining the arrangement position of the planar object OBJ, as shown in FIG. 6A, the planar object OBJ becomes a predetermined one in the three-dimensional game space. It is arranged at the position (S106). Then, by causing the CPU 7 to recognize coordinate data for defining the placement position of the virtual camera C, the virtual camera C is placed in the three-dimensional game space (S107). Specifically, the coordinate data indicating a predetermined position (predetermined position on the reference line LK) in the direction perpendicular to the planar object OBJ in a planar state with respect to the center of gravity position gm of the planar object is used as the CPU 7. By recognizing the virtual camera C, the virtual camera C is placed in the three-dimensional game space.

そして、面状のオブジェクトOBJおよび仮想カメラCが3次元ゲーム空間に配置されると、面状のオブジェクトOBJの変形を開始するための変形開始命令が、CPU7から発行される(S108)。すると、面状のオブジェクトOBJの形状を面外に段階的に変形する処理が、CPU7に実行される。たとえば、図6(a)〜図6(e)に示すように、面状のオブジェクトOBJの重心位置において面状のオブジェクトOBJに対して垂直な方向に伸びる直線を基準線LKとして、仮想カメラC側に凸状に歪んだ形状(第1形状)から、仮想カメラCから離反する方向に凸状に歪んだ形状(第2形状)へと、面状のオブジェクトOBJの形状を時間に応じて段階的に変形する処理が、CPU7により実行される。   When the planar object OBJ and the virtual camera C are arranged in the three-dimensional game space, a deformation start command for starting the deformation of the planar object OBJ is issued from the CPU 7 (S108). Then, a process for deforming the shape of the planar object OBJ stepwise out of the plane is executed by the CPU 7. For example, as shown in FIGS. 6A to 6E, a virtual camera C is defined with a straight line extending in a direction perpendicular to the planar object OBJ at the center of gravity of the planar object OBJ as a reference line LK. The shape of the planar object OBJ is changed according to time from the shape distorted convexly to the side (first shape) to the shape distorted convexly in the direction away from the virtual camera C (second shape). The CPU 7 executes a process that deforms automatically.

ここで、面状のオブジェクトOBJが仮想カメラCから離れる方向に面外に変形を開始したときには、仮想カメラCの画角Gの変更を開始するための画角変更開始命令が、CPU7から発行される(S109)。すると、仮想カメラCの画角Gが第1画角Gmx(最大画角)から第2画角Gmn(最小画角)へと段階的に小さくなるように、仮想カメラCの画角Gを変更する処理が、CPU7により実行される。   Here, when the planar object OBJ starts to be deformed out of the plane in a direction away from the virtual camera C, a view angle change start command for starting the change of the view angle G of the virtual camera C is issued from the CPU 7. (S109). Then, the angle of view G of the virtual camera C is changed so that the angle of view G of the virtual camera C gradually decreases from the first angle of view Gmx (maximum angle of view) to the second angle of view Gmn (minimum angle of view). Processing to be executed is executed by the CPU 7.

たとえば、面状のオブジェクトOBJが、初期形状(第1形状)から、仮想カメラCから離れる方向に面外に段階的に変形するにつれて、仮想カメラCの画角Gが、所定の最大画角Gmxから所定の最小画角Gmnへと段階的に小さくなるように、仮想カメラCの画角Gを時間に応じて変更する処理が、CPU7により実行される。   For example, as the planar object OBJ is deformed stepwise out of the plane from the initial shape (first shape) in a direction away from the virtual camera C, the angle of view G of the virtual camera C becomes a predetermined maximum angle of view Gmx. The CPU 7 executes a process of changing the angle of view G of the virtual camera C according to time so that the angle of view is gradually reduced from a predetermined value to a predetermined minimum angle of view Gmn.

ここでの処理を詳細に説明すると、まず、ズームの開始からズームの終了までの時間を示すズーム時間データTZが、CPU7に認識される。ズーム時間データの値は、ゲームプログラムにおいて予め規定されている。   The processing here will be described in detail. First, the CPU 7 recognizes zoom time data TZ indicating the time from the start of zooming to the end of zooming. The value of the zoom time data is defined in advance in the game program.

また、仮想カメラCの最大画角Gmx(第1画角)および最小画角Gmn(第2画角)が、CPU7に認識される。最大画角Gmx(第1画角)および最小画角Gmn(第2画角)は、ゲームプログラムにおいて予め規定されている。なお、最大画角Gmxは、水平成分と垂直成分とから構成されている。ここでは、Gmx(Gmx_x,Gmx_z)と記載される。同様に、最小画角Gmnも、水平成分と垂直成分とから構成されている。ここでは、Gmn(Gmn_x,Gmn_z)と記載される。   Further, the CPU 7 recognizes the maximum field angle Gmx (first field angle) and the minimum field angle Gmn (second field angle) of the virtual camera C. The maximum field angle Gmx (first field angle) and the minimum field angle Gmn (second field angle) are defined in advance in the game program. The maximum field angle Gmx is composed of a horizontal component and a vertical component. Here, it is described as Gmx (Gmx_x, Gmx_z). Similarly, the minimum angle of view Gmn is also composed of a horizontal component and a vertical component. Here, it is described as Gmn (Gmn_x, Gmn_z).

なお、図6では、仮想カメラCの最大画角Gmx(第1画角)および最小画角Gmn(第2画角)の垂直成分のみが示されている。   In FIG. 6, only the vertical components of the maximum field angle Gmx (first field angle) and the minimum field angle Gmn (second field angle) of the virtual camera C are shown.

次に、ズーム時間データTZを、1フレームの時間データTo(=1/60(sec))で除算する処理(TZ/To)が、CPU7により実行される。この処理結果(TZ/To)が、面状のオブジェクトOBJを変形するときの段階数Dsになる。   Next, the CPU 7 executes a process (TZ / To) for dividing the zoom time data TZ by the time data To (= 1/60 (sec)) of one frame. This processing result (TZ / To) is the number of steps Ds when the planar object OBJ is deformed.

そして、たとえば、図7に示すように、3次元ゲーム空間において、第1形状のモデルMP1(モデル)のポリゴンの頂点(ある頂点)と、この頂点に対応する、第2形状のオブジェクトOBJ(モデル)のポリゴンの頂点とを結ぶ距離(Lp(n):nはポリゴンの頂点番号)を、段階数Dsで除算する処理(Lp(n)/Ds)が、CPU7により実行される。この処理は、全ポリゴンの頂点に対して実行される。この処理結果(Lp(n)/Ds)が、面状のオブジェクトOBJを変形するときの単位距離Ksになる。なお、図7では、「1」から「n1」までの頂点番号nのみが示されており、他の頂点番号nは省略されている。   Then, for example, as shown in FIG. 7, in the three-dimensional game space, the vertex (a vertex) of the polygon of the first shape model MP1 (model) and the second shape object OBJ (model) corresponding to this vertex. The CPU 7 executes a process (Lp (n) / Ds) for dividing the distance (Lp (n): n is the vertex number of the polygon) by the number of steps Ds. This process is executed for the vertices of all polygons. The processing result (Lp (n) / Ds) becomes the unit distance Ks when the planar object OBJ is deformed. In FIG. 7, only vertex numbers n from “1” to “n1” are shown, and other vertex numbers n are omitted.

また、最大画角Gmxと最小画角Gmnとの差の絶対値(|Gmx−Gmn|)を、段階数Dsで除算する処理(|Gmx−Gmn|/Ds)が、CPU7により実行される。この処理結果(|Gmx−Gmn|/Ds=(|Gmx_x−Gmn_x|/Ds,|Gmx_z−Gmn_z|/Ds))が、仮想カメラCの画角Gを変更するときの単位画角Gsとなる。   Further, the CPU 7 executes a process (| Gmx−Gmn | / Ds) for dividing the absolute value (| Gmx−Gmn |) of the difference between the maximum field angle Gmx and the minimum field angle Gmn by the stage number Ds. This processing result (| Gmx−Gmn | / Ds = (| Gmx_x−Gmn_x | / Ds, | Gmx_z−Gmn_z | / Ds)) becomes the unit field angle Gs when the field angle G of the virtual camera C is changed. .

続いて、単位距離Ks(=Lp(n)/Ds)を、各ポリゴンの頂点の座標データに加算する処理が、1フレームごとに、CPU7により実行される。   Subsequently, a process of adding the unit distance Ks (= Lp (n) / Ds) to the coordinate data of the vertexes of each polygon is executed by the CPU 7 for each frame.

ここでは、たとえば、図6(a)に示したように、平面形状のオブジェクトOBJの重心位置を原点として、3次元ゲーム空間の水平方向をX方向、3次元ゲーム空間の垂直上方向をZ方向、X方向およびZ方向に直交する仮想カメラCから離れる方向をY方向としている。   Here, for example, as shown in FIG. 6A, the center of gravity of the planar object OBJ is the origin, the horizontal direction of the three-dimensional game space is the X direction, and the vertical direction of the three-dimensional game space is the Z direction. The direction away from the virtual camera C orthogonal to the X direction and the Z direction is defined as the Y direction.

そして、第1形状のモデルを構成する各ポリゴンの頂点を、第2形状のモデルを構成する各ポリゴンの頂点(仮想点)に向けて、1フレームごとに単位距離Ks(=Lp(n)/Ds)を移動する処理が、CPU7により実行される。すると、面状のオブジェクトOBJが、1フレームごとに面外に段階的に変形する。   Then, the vertex of each polygon constituting the first shape model is directed to the vertex (virtual point) of each polygon constituting the second shape model, and unit distance Ks (= Lp (n) / The process of moving Ds) is executed by the CPU 7. Then, the planar object OBJ is deformed stepwise out of the plane every frame.

なお、第1形状のモデルを構成する各ポリゴンの頂点と、第2形状のモデルを構成する各ポリゴンの頂点とがなす角度を算出し、この角度に対応する三角関数に単位距離Ksを乗じることにより、1フレームごとに移動する各方向の成分が、CPU7により算出される。そして、この各方向の成分を、1フレームごとに、第1形状のモデルを構成する各ポリゴンの頂点の座標に加算することにより、面状のオブジェクトOBJを、1フレームごとに面外に段階的に変形することができる。   The angle formed by the vertex of each polygon constituting the first shape model and the vertex of each polygon constituting the second shape model is calculated, and the trigonometric function corresponding to this angle is multiplied by the unit distance Ks. Thus, the CPU 7 calculates the component in each direction that moves every frame. Then, by adding the components in each direction to the coordinates of the vertices of the polygons constituting the first shape model for each frame, the planar object OBJ is stepped out of the plane for each frame. Can be transformed into

同時に、単位画角Gsを、仮想カメラCの最大画角Gmxから減算する処理が、1フレームごとに、CPU7により実行される。すなわち、単位画角Gsの各成分を、仮想カメラCの最大画角Gmxの各成分から減算する処理が、1フレームごとに、CPU7により実行される。   At the same time, a process for subtracting the unit angle of view Gs from the maximum angle of view Gmx of the virtual camera C is executed by the CPU 7 for each frame. That is, the CPU 7 executes a process of subtracting each component of the unit angle of view Gs from each component of the maximum field angle Gmx of the virtual camera C for each frame.

このようにして、面状のオブジェクトOBJが、第1形状から第2形状へと面外に1フレームごとに変形するにつれて、仮想カメラCの画角Gも、所定の最大画角Gmxから所定の最小画角Gmnへと1フレームごとに小さくなるように、面状のオブジェクトOBJの形状の変化と、仮想カメラCの画角Gの変化とを連動させることができる。   In this way, as the planar object OBJ is deformed from the first shape to the second shape out of plane for each frame, the field angle G of the virtual camera C is also increased from a predetermined maximum field angle Gmx to a predetermined value. The change in the shape of the planar object OBJ and the change in the angle of view G of the virtual camera C can be linked so that the minimum angle of view Gmn becomes smaller every frame.

そして、面状のオブジェクトOBJの重心位置において面状のオブジェクトOBJに対して垂直な方向に伸びる直線を基準線LKとして、仮想カメラCから離反する方向に凸状に歪んだ形状(第2形状)から、仮想カメラC側に凸状に歪んだ形状(第1形状)へと、面状のオブジェクトOBJの形状を時間に応じて段階的に変形する処理が、CPU7により実行される。   Then, a straight line extending in a direction perpendicular to the planar object OBJ at the position of the center of gravity of the planar object OBJ is used as a reference line LK, and a shape distorted convexly in a direction away from the virtual camera C (second shape). Then, the CPU 7 executes a process of stepwise deforming the shape of the planar object OBJ into a shape distorted convexly toward the virtual camera C (first shape).

ここで、面状のオブジェクトOBJが仮想カメラCに近づく方向に面外に段階的に変形するときには、仮想カメラCの画角Gが第2画角Gmn(最小画角)から第1画角Gmx(最大画角)へと段階的に大きくなるように、仮想カメラCの画角Gを変更する処理が、CPU7により実行される。   Here, when the planar object OBJ is deformed stepwise in the direction approaching the virtual camera C, the field angle G of the virtual camera C is changed from the second field angle Gmn (minimum field angle) to the first field angle Gmx. The CPU 7 executes a process for changing the angle of view G of the virtual camera C so as to increase stepwise to (maximum angle of view).

具体的には、面状のオブジェクトOBJが、初期形状(第2形状)から、仮想カメラCに近づく方向に面外に段階的に変形するにつれて、仮想カメラCの画角Gが、所定の最小画角Gmnから所定の最大画角Gmxへと段階的に小さくなるように、仮想カメラCの画角を時間に応じて変更する処理が、CPU7により実行される。   Specifically, as the planar object OBJ is deformed stepwise out of the plane from the initial shape (second shape) toward the virtual camera C, the angle of view G of the virtual camera C decreases to a predetermined minimum. The CPU 7 executes a process of changing the angle of view of the virtual camera C according to time so that the angle of view decreases from the angle of view Gmn to a predetermined maximum angle of view Gmx.

なお、ここでの処理については、上述した処理とは方向が反対であるだけで、上述した処理と同じように実行できるので、詳細な説明は省略する。   Note that the process here is the same as the process described above, and is not described in detail, since the process is just opposite in direction to the process described above.

続いて、面状のオブジェクトOBJの変形を開始するための変形開始命令が、CPU7から発行されると、面状のオブジェクトOBJの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラCにより撮影する処理が、CPU7により実行される(S110)。すると、ズーム画像が、テレビジョンモニタ20に表示される(S111)。   Subsequently, when a deformation start command for starting the deformation of the planar object OBJ is issued from the CPU 7, the angle of view changes in a stepwise manner in which the shape of the planar object OBJ changes in a stepwise manner. The CPU 7 executes processing for photographing with the virtual camera C (S110). Then, a zoom image is displayed on the television monitor 20 (S111).

たとえば、上記のように面状のオブジェクトOBJの形状が変化する状態を、画角が段階的に変化する仮想カメラCにより撮影する処理が、CPU7に実行させる。すると、図8Aから図8Eに示すように、ズームイン画像およびズームアウト画像が、テレビジョンモニタ20に表示される。   For example, the CPU 7 causes the CPU 7 to execute a process of photographing the state in which the shape of the planar object OBJ changes as described above with the virtual camera C in which the angle of view changes stepwise. Then, as shown in FIGS. 8A to 8E, a zoomed-in image and a zoomed-out image are displayed on the television monitor 20.

ここで、図8Aから図8Eまでの画像が連続的に再生されると、ズームイン画像が、テレビジョンモニタ20に表示される。また、ここで、図8Eから図8Aまでの画像が連続的に再生されると、ズームアウト画像が、テレビジョンモニタ20に表示される。なお、図8Aから図8Eまでの各図は、上記の図6(a)から図6(e)までの各図に対応している。   Here, when the images from FIG. 8A to FIG. 8E are continuously reproduced, a zoomed-in image is displayed on the television monitor 20. Here, when the images from FIG. 8E to FIG. 8A are continuously reproduced, the zoomed-out image is displayed on the television monitor 20. 8A to 8E correspond to the above-described drawings from FIG. 6A to FIG. 6E.

具体的には、面状のオブジェクトOBJの変形を開始するための変形開始命令が、CPU7から発行され、面状のオブジェクトOBJが第1形状から第2形状へと変形を開始すると、仮想カメラCに対する撮影開始命令が、CPU7から発行される。すると、仮想カメラCの画角を段階的に小さくする変更する命令が、CPU7から発行される。すると、面状のオブジェクトOBJの形状が段階的に変形する状態を、仮想カメラCの画角を段階的に小さくしながら撮影する処理が、CPU7により実行される。すると、ズームイン画像が、テレビジョンモニタ20に表示される。   Specifically, when a deformation start command for starting the deformation of the planar object OBJ is issued from the CPU 7 and the planar object OBJ starts to deform from the first shape to the second shape, the virtual camera C A shooting start command is issued from the CPU 7. Then, the CPU 7 issues a command for changing the angle of view of the virtual camera C to be reduced stepwise. Then, the CPU 7 executes processing for photographing the state in which the shape of the planar object OBJ is deformed step by step while reducing the angle of view of the virtual camera C step by step. Then, a zoomed-in image is displayed on the television monitor 20.

同様に、面状のオブジェクトOBJの変形を開始するための変形開始命令が、CPU7から発行され、面状のオブジェクトOBJが第2形状から第1形状へと変形を開始(回復)すると、仮想カメラCに対する撮影開始命令が、CPU7から発行される。すると、仮想カメラCの画角を段階的に大きくする変更する命令が、CPU7から発行される。すると、面状のオブジェクトOBJの形状が段階的に変形する状態を、仮想カメラCの画角を段階的に大きくしながら撮影する処理が、CPU7により実行される。すると、ズームアウト画像が、テレビジョンモニタ20に表示される。ここで、テレビジョンモニタ20の画面枠を越えて拡大する画像は当然ながら、順次視覚から外れることになる。   Similarly, when a deformation start command for starting deformation of the planar object OBJ is issued from the CPU 7 and the planar object OBJ starts deformation (recovery) from the second shape to the first shape, the virtual camera A shooting start command for C is issued from the CPU 7. Then, the CPU 7 issues a command for changing the angle of view of the virtual camera C in a stepwise manner. Then, the CPU 7 executes a process of photographing the state in which the shape of the planar object OBJ is deformed step by step while increasing the angle of view of the virtual camera C step by step. Then, a zoom-out image is displayed on the television monitor 20. Here, as a matter of course, images that are enlarged beyond the screen frame of the television monitor 20 are sequentially deviated from vision.

上記の図8Aから図8Cの画像によれば(途中の画像は省略している)、プレイヤ側から見たイメージとしては、画面略中央部に向かって仮想カメラCからみた視点が単純に接近(ズーム)するのではなく、加速度的に急接近していくかのような表示となる。すなわち、画像の略中央部に比して、画像周辺部の外方に向かうほどより拡大変形が大きく、且つ、時間経過に伴う当該画像周辺部の拡大変形によって、画像周辺部の最外部が、内部の動きに比べて急速にテレビジョンモニタ20の画面枠を越えて順次消えていく。このため、あたかも画像中央部に向かって仮想カメラCの視点が加速的に急接近し、焦点が絞られるかのような演出効果を得ることができる。なお、上記の視覚的効果は1枚の静止画を変形する時間の間に限定されるものであって、当然ながら長時間にわたる動画のようなイメージが得られるものではない。   According to the images of FIGS. 8A to 8C described above (the intermediate images are omitted), the viewpoint viewed from the virtual camera C is simply approaching toward the approximate center of the screen as the image viewed from the player side ( Instead of zooming in, the display appears as if it is rapidly approaching at an accelerated speed. That is, as compared with the substantially central portion of the image, the enlargement deformation is larger toward the outside of the image peripheral portion, and the outermost portion of the image peripheral portion is caused by the expansion deformation of the image peripheral portion with time. Compared to the internal movement, it rapidly disappears beyond the screen frame of the television monitor 20. For this reason, it is possible to obtain an effect as if the viewpoint of the virtual camera C suddenly approaches rapidly in the center of the image and the focus is reduced. Note that the above visual effect is limited to the time during which a single still image is deformed, and naturally, an image like a moving image over a long period of time cannot be obtained.

出願人が作成したものを表示する場合、この表示に要する時間は、概ね1秒程度である。しかし、このような短時間であっても、演出が単なる従来のズームとは異なり、画像周辺部が急速にモニタ画面枠を越えて外に吹き飛ばされ、中央部に焦点が絞られるかのような表示となる。このため、たとえば、交替する選手キャラクタの顔に急速にズームインするイメージや、ファインプレーを行った選手キャラクタに急速にズームインするイメージを作る場合に、本発明は特に有効である。また、プロモーションビデオやCM、さらに、ゲームの本編前後に流すデモムービーの作成時等に利用することも、有用な利用法の一つである。この理由は、これらの画像では、現実の動きを忠実に再現する表示よりも、メリハリの利いた、プレイヤの注目を引く演出が望まれるからである。   When displaying an application created by the applicant, the time required for this display is approximately 1 second. However, even in such a short time, unlike the conventional zoom, the image peripheral part is rapidly blown out beyond the monitor screen frame, and the focus is focused on the central part. Display. For this reason, for example, the present invention is particularly effective when creating an image that rapidly zooms in on the face of a player character to be replaced or an image that rapidly zooms in on a player character that has performed fine play. Another useful method is to use it when creating promotional videos, commercials, and demo movies to be played before and after the main part of the game. The reason for this is that in these images, an effect that draws the attention of the player with a sharpness is desired rather than a display that faithfully reproduces the actual movement.

なお、図8Cから図8Eに示すズームアウトの場合は、上記と逆の動きになるが、画面略中央部が仮想カメラCに向かって加速度的に急接近するかのような映像効果が得られる。本実施形態では、画面略中央部がピッチャーマウンドとなっているが、例えばボールが仮想カメラCに向かって加速度的に急接近するかのような演出に適用することも可能である。   In the case of the zoom-out shown in FIGS. 8C to 8E, the movement is opposite to the above, but a video effect is obtained as if the approximate center of the screen suddenly approaches the virtual camera C at an accelerated speed. . In this embodiment, the substantially central portion of the screen is the pitcher mound, but it can be applied to an effect as if the ball suddenly approaches the virtual camera C at an accelerated speed, for example.

なお、ここでは、ズームインおよびズームアウトが同時に行われる場合の例を示したが、ズームインおよびズームアウトのいずれか一方だけが行われるようにしても良い。たとえば、ズームアウトのみが実行される場合は、ステップ105(S105)において、捕手側から見たスタジアムの内部空間の画像データGTをテクスチャとして面状のモデルMP2に投影する処理を、実行する必要がある。   Here, an example in which zoom-in and zoom-out are performed at the same time has been shown, but only one of zoom-in and zoom-out may be performed. For example, when only zoom-out is executed, it is necessary to execute a process of projecting the image data GT of the stadium internal space viewed from the catcher side onto the planar model MP2 as a texture in step 105 (S105). is there.

また、ここでは、初期形状が、仮想カメラC側に凸状に歪んだ形状(第1形状)、又は仮想カメラCから離反する方向に凸状に歪んだ形状(第2形状)である場合の例を示したが、初期形状は、平面形状であっても良い。なお、初期形状は、平面形状より、上記の第1形状又は第2形状のような曲面形状の方が、より立体的な視覚効果があり、より迫力のあるズーム画像を、テレビジョンモニタ20に表示することができる。   In this case, the initial shape is a shape distorted in a convex shape toward the virtual camera C (first shape) or a shape distorted in a convex shape in the direction away from the virtual camera C (second shape). Although an example is shown, the initial shape may be a planar shape. Note that the initial shape is a curved shape such as the first shape or the second shape described above, which has a more three-dimensional visual effect than the planar shape, and a more powerful zoom image is displayed on the television monitor 20. Can be displayed.

上記のように、本実施形態では、面状のオブジェクトOBJを面外に段階的に変形させ、このオブジェクトOBJの面外変形に連動して、仮想カメラCの画角Gも段階的に変更させられる。このときに、変形中の面状のオブジェクトOBJを、画角Gが変化する仮想カメラCにより撮影することにより、立体的なオブジェクトを用いなくても、立体的な視覚効果を有するズーム画像を、テレビジョンモニタ20に表示することができる。さらに、このように撮影することにより、立体的なオブジェクトを用いなくても、立体的なオブジェクトを用いた場合より迫力のあるズーム画像を、テレビジョンモニタ20に表示することができる。   As described above, in the present embodiment, the planar object OBJ is deformed stepwise out of the plane, and the angle of view G of the virtual camera C is also changed stepwise in conjunction with the out-of-plane deformation of the object OBJ. It is done. At this time, by capturing the planar object OBJ being deformed by the virtual camera C with the angle of view G changing, a zoom image having a stereoscopic visual effect can be obtained without using a stereoscopic object. It can be displayed on the television monitor 20. Further, by shooting in this way, a more powerful zoom image can be displayed on the television monitor 20 without using a three-dimensional object.

〔他の実施形態〕
(a)前記実施形態では、ゲームプログラムを適用しうるコンピュータの一例としての家庭用ビデオゲーム装置を用いた場合の例を示したが、ゲーム装置は、前記実施形態に限定されず、モニタが別体に構成されたゲーム装置、モニタが一体に構成されたゲーム装置、ゲームプログラムを実行することによってゲーム装置として機能するパーソナルコンピュータやワークステーションなどにも同様に適用することができる。
[Other Embodiments]
(A) In the above-described embodiment, an example in which a home video game apparatus as an example of a computer to which a game program can be applied has been described. However, the game apparatus is not limited to the above-described embodiment, and a monitor is separately provided. The present invention can be similarly applied to a game device configured in a body, a game device in which a monitor is integrated, a personal computer functioning as a game device by executing a game program, a workstation, and the like.

(b)本発明には、前述したようなゲームを実行するプログラムおよびこのプログラムを記録したコンピュータ読み取り可能な記録媒体も含まれる。この記録媒体としては、カートリッジ以外に、たとえば、コンピュータ読み取り可能なフレキシブルディスク、半導体メモリ、CD−ROM、DVD、MO、ROMカセット、その他のものが挙げられる。   (B) The present invention includes a program for executing the game as described above and a computer-readable recording medium on which the program is recorded. Examples of the recording medium include a computer-readable flexible disk, a semiconductor memory, a CD-ROM, a DVD, an MO, a ROM cassette, and the like in addition to the cartridge.

本発明の一実施形態によるビデオゲーム装置の基本構成図。1 is a basic configuration diagram of a video game apparatus according to an embodiment of the present invention. 前記ビデオゲーム装置の一例としての機能ブロック図。The functional block diagram as an example of the said video game device. テクスチャ用の画像データを示す図。The figure which shows the image data for textures. 面状のモデルを示す図。The figure which shows a planar model. 面状のオブジェクトを示す図。The figure which shows a planar object. オブジェクトの変形と、画角の変化との対応を示す図。The figure which shows a response | compatibility with a deformation | transformation of an object, and the change of a view angle. 第1形状のモデルのポリゴンの頂点と、第2形状のモデルのポリゴンの頂点との対応を示す図。The figure which shows a response | compatibility with the vertex of the polygon of a 1st shape model, and the vertex of the polygon of a 2nd shape model. ズームイン画像の一表示形態、およびズームアウト画像の一表示形態を示す図(その1)。The figure which shows the one display form of a zoom-in image, and the one display form of a zoom-out image (the 1). ズームイン画像の一表示形態、およびズームアウト画像の一表示形態を示す図(その2)。The figure which shows the one display form of a zoom-in image, and the one display form of a zoom-out image (the 2). ズームイン画像の一表示形態、およびズームアウト画像の一表示形態を示す図(その3)。The figure which shows the one display form of a zoom-in image, and the one display form of a zoom-out image (the 3). ズームイン画像の一表示形態、およびズームアウト画像の一表示形態を示す図(その4)。The figure which shows the one display form of a zoom-in image, and the one display form of a zoom-out image (the 4). ズームイン画像の一表示形態、およびズームアウト画像の一表示形態を示す図(その5)。The figure which shows the one display form of a zoom-in image, and the one display form of a zoom-out image (the 5). 野球ゲームの全体概要を示すフロー。Flow showing the overall outline of the baseball game. ズーム画像表示システムを説明するためのフローチャート。6 is a flowchart for explaining a zoom image display system.

符号の説明Explanation of symbols

1 制御部
3 画像表示部
7 CPU
12 RAM
17 コントローラ
20 テレビジョンモニタ
50 テクスチャ格納手段
51 モデル格納手段
52 オブジェクト生成手段
53 オブジェクト配置手段
54 カメラ配置手段
55 形状変更手段
55a 第1形状変更手段
55b 第2形状変更手段
56 画角変更手段
56a 画角縮小手段
56b 画角拡大手段
57 画像表示手段
GT テクスチャ用の画像データ
MP1,MP2,MP0 面状のモデル
OBJ 面状のオブジェクト
C 仮想カメラ
G 仮想カメラの画角
gm 面状のオブジェクトの重心位置


1 control unit 3 image display unit 7 CPU
12 RAM
17 controller 20 television monitor 50 texture storage means 51 model storage means 52 object generation means 53 object placement means 54 camera placement means 55 shape change means 55a first shape change means 55b second shape change means 56 view angle change means 56a angle of view Reduction means 56b Angle of view enlargement means 57 Image display means GT Image data for texture MP1, MP2, MP0 Planar model OBJ Planar object C Virtual camera G Field angle of virtual camera gm Center of gravity position of plane object


Claims (10)

画像を画像表示部に表示するためのデータを処理可能なコンピュータに、
テクスチャ用の画像データを、記憶部に格納するテクスチャ格納機能と、
複数のポリゴンから構成される面状のモデルを、記憶部に格納するモデル格納機能と、
前記画像データをテクスチャとして前記面状のモデルに投影する処理を、制御部に実行させることにより、面状のオブジェクトを生成するオブジェクト生成機能と、
前記面状のオブジェクトの配置位置を規定するための座標データを、制御部に認識させることにより、前記面状のオブジェクトを仮想空間に配置するオブジェクト配置機能と、
仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置機能と、
前記面状のオブジェクトの形状を面外に段階的に変形する処理を、制御部に実行させる形状変更機能と、
前記面状のオブジェクトの形状の変化に応じて仮想カメラの画角を段階的に変更する処理を、制御部に実行させる画角変更機能と、
前記面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影する処理を、制御部に実行させることにより、ズーム画像を画像表示部に表示する画像表示機能と、
を実現させるための画像処理プログラム。
To a computer capable of processing data for displaying an image on the image display unit,
A texture storage function for storing image data for texture in the storage unit;
A model storage function for storing a planar model composed of a plurality of polygons in a storage unit;
An object generation function for generating a planar object by causing the control unit to execute a process of projecting the image data as a texture onto the planar model;
An object placement function for placing the planar object in a virtual space by causing the control unit to recognize coordinate data for defining the placement position of the planar object;
A camera placement function for placing the virtual camera in the virtual space by causing the control unit to recognize coordinate data for defining the placement position of the virtual camera;
A shape changing function for causing the control unit to execute a process of stepwise deforming the shape of the planar object out of plane;
An angle-of-view changing function for causing the control unit to execute a process of stepwise changing the angle of view of the virtual camera in accordance with a change in the shape of the planar object;
An image in which a zoom image is displayed on the image display unit by causing the control unit to execute a process of photographing the state in which the shape of the planar object changes stepwise with a virtual camera in which the angle of view changes stepwise. Display function,
An image processing program for realizing
前記形状変更機能は、前記面状のオブジェクトの形状を、仮想カメラから離反する方向に凸状に歪んだ形状に段階的に変形する処理を、制御部に実行させる第1形状変更機能を含み、
前記画角変更機能は、前記面状のオブジェクトの形状の変化に応じて仮想カメラの画角が小さくなるように仮想カメラの画角を段階的に変更する処理を、制御部に実行させる画角縮小機能を含み、
前記画像表示機能では、前記面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影する処理を、制御部に実行させることにより、ズームイン画像が画像表示部に表示される、
請求項1に記載の画像処理プログラム。
The shape changing function includes a first shape changing function that causes the control unit to execute a process of stepwise deforming the shape of the planar object into a shape that is convexly distorted in a direction away from the virtual camera,
The angle-of-view changing function causes the control unit to execute a process of changing the angle of view of the virtual camera in a stepwise manner so that the angle of view of the virtual camera becomes smaller according to a change in the shape of the planar object. Including reduction function,
In the image display function, a zoomed-in image is obtained by causing the control unit to execute a process of photographing a state in which the shape of the planar object changes stepwise with a virtual camera in which the angle of view changes stepwise. Displayed on the display,
The image processing program according to claim 1.
前記第1形状変更機能では、平面形状、および仮想カメラに近接する方向に凸状に歪んだ形状のいずれか一方の形状から、仮想カメラから離反する方向に凸状に歪んだ形状へと、前記面状のオブジェクトの形状を段階的に変形する処理が、制御部により実行される、
請求項2に記載の画像処理プログラム。
In the first shape changing function, from one of a planar shape and a shape distorted in a convex shape in a direction close to the virtual camera to a shape distorted in a convex shape in a direction away from the virtual camera, The process of stepwise deforming the shape of the planar object is executed by the control unit.
The image processing program according to claim 2.
前記形状変更機能は、前記面状のオブジェクトの形状を、仮想カメラに近接する方向に凸状に歪んだ形状に段階的に変形する処理を、制御部に実行させる第2形状変更機能を含み、
前記画角変更機能は、前記面状のオブジェクトの形状の変化に応じて仮想カメラの画角が大きくなるように仮想カメラの画角を段階的に変更する処理を、制御部に実行させる画角拡大機能を含み、
前記画像表示機能では、前記面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影する処理を、制御部に実行させることにより、ズームアウト画像が画像表示部に表示される、
請求項1から3のいずれかに記載の画像処理プログラム。
The shape change function includes a second shape change function that causes the control unit to execute a process of stepwise deforming the shape of the planar object into a shape that is convexly distorted in a direction approaching the virtual camera,
The angle of view change function causes the control unit to execute a process of changing the angle of view of the virtual camera in a stepwise manner so that the angle of view of the virtual camera increases in accordance with a change in the shape of the planar object. Including zoom function,
In the image display function, the zoomed-out image is obtained by causing the control unit to execute a process of photographing a state in which the shape of the planar object changes stepwise with a virtual camera in which the angle of view changes stepwise. Displayed on the image display,
The image processing program according to claim 1.
前記第2形状変更機能では、平面形状、および仮想カメラから離反する方向に凸状に歪んだ形状のいずれか一方の形状から、仮想カメラに近接する方向に凸状に歪んだ形状へと、前記面状のオブジェクトの形状を段階的に変形する処理が、制御部により実行される、
請求項4に記載の画像処理プログラム。
In the second shape changing function, from one of a planar shape and a shape distorted in a convex shape in a direction away from the virtual camera, to a shape distorted in a convex shape in a direction close to the virtual camera, The process of stepwise deforming the shape of the planar object is executed by the control unit.
The image processing program according to claim 4.
前記形状変更機能では、前記面状のオブジェクトの重心位置を基準として、前記面状のオブジェクトの形状を面外に段階的に変形する処理が、制御部により実行される、
請求項1から5のいずれかに記載の画像処理プログラム。
In the shape change function, a process of stepwise deforming the shape of the planar object out of the plane based on the position of the center of gravity of the planar object is executed by the control unit.
The image processing program according to claim 1.
前記カメラ配置機能では、前記面状のオブジェクトの重心位置を基準として、前記面状のオブジェクトに垂直な方向の所定の位置を示す座標データを、制御部に認識させることにより、仮想カメラが仮想空間に配置される、
請求項1から6のいずれかに記載の画像処理プログラム。
In the camera arrangement function, the virtual camera is configured to recognize virtual data in a virtual space by causing the control unit to recognize coordinate data indicating a predetermined position in a direction perpendicular to the planar object on the basis of the barycentric position of the planar object. Placed in the
The image processing program according to claim 1.
前記テクスチャ格納機能では、広角の画像データが、テクスチャ用の画像データとして、記憶部に格納される、
請求項1から7のいずれかに記載の画像処理プログラム。
In the texture storage function, wide-angle image data is stored in the storage unit as image data for texture.
The image processing program according to claim 1.
画像を画像表示部に表示するためのデータを処理可能な画像処理装置であって、
テクスチャ用の画像データを、記憶部に格納するテクスチャ格納手段と、
複数のポリゴンから構成される面状のモデルを、記憶部に格納するモデル格納手段と、
前記画像データをテクスチャとして前記面状のモデルに投影する処理を、制御部に実行させることにより、面状のオブジェクトを生成するオブジェクト生成手段と、
前記面状のオブジェクトの配置位置を規定するための座標データを、制御部に認識させることにより、前記面状のオブジェクトを仮想空間に配置するオブジェクト配置手段と、
仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置手段と、
前記面状のオブジェクトの形状を面外に段階的に変形する処理を、制御部に実行させる形状変更手段と、
前記面状のオブジェクトの形状の変化に応じて仮想カメラの画角を段階的に変更する処理を、制御部に実行させる画角変更手段と、
前記面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影する処理を、制御部に実行させることにより、ズーム画像を画像表示部に表示する画像表示手段と、
を備える画像処理装置。
An image processing apparatus capable of processing data for displaying an image on an image display unit,
Texture storage means for storing image data for texture in the storage unit;
Model storage means for storing a planar model composed of a plurality of polygons in a storage unit;
Object generation means for generating a planar object by causing the control unit to execute a process of projecting the image data as a texture onto the planar model;
Object placement means for placing the planar object in a virtual space by causing the control unit to recognize coordinate data for defining the placement position of the planar object;
Camera arrangement means for arranging the virtual camera in the virtual space by causing the control unit to recognize coordinate data for defining the arrangement position of the virtual camera;
Shape changing means for causing the control unit to execute processing for stepwise deforming the shape of the planar object out of plane;
An angle-of-view changing means for causing the control unit to execute a process of changing the angle of view of the virtual camera stepwise according to a change in the shape of the planar object;
An image in which a zoom image is displayed on the image display unit by causing the control unit to execute a process of photographing the state in which the shape of the planar object changes stepwise with a virtual camera in which the angle of view changes stepwise. Display means;
An image processing apparatus comprising:
画像を画像表示部に表示するためのデータをコンピュータにより制御する画像制御方法であって、
テクスチャ用の画像データを、記憶部に格納するテクスチャ格納ステップと、
複数のポリゴンから構成される面状のモデルを、記憶部に格納するモデル格納ステップと、
前記画像データをテクスチャとして前記面状のモデルに投影する処理を、制御部に実行させることにより、面状のオブジェクトを生成するオブジェクト生成ステップと、
前記面状のオブジェクトの配置位置を規定するための座標データを、制御部に認識させることにより、前記面状のオブジェクトを仮想空間に配置するオブジェクト配置ステップと、
仮想カメラの配置位置を規定するための座標データを、制御部に認識させることにより、仮想カメラを仮想空間に配置するカメラ配置ステップと、
前記面状のオブジェクトの形状を面外に段階的に変形する処理を、制御部に実行させる形状変更ステップと、
前記面状のオブジェクトの形状の変化に応じて仮想カメラの画角を段階的に変更する処理を、制御部に実行させる画角変更ステップと、
前記面状のオブジェクトの形状が段階的に変化する状態を、画角が段階的に変化する仮想カメラにより撮影する処理を、制御部に実行させることにより、ズーム画像を画像表示部に表示する画像表示ステップと、
を備える画像制御方法。
An image control method for controlling data for displaying an image on an image display unit by a computer,
A texture storage step of storing image data for texture in the storage unit;
A model storing step of storing a planar model composed of a plurality of polygons in a storage unit;
An object generation step of generating a planar object by causing the control unit to execute a process of projecting the image data as a texture onto the planar model;
An object placement step of placing the planar object in a virtual space by causing the control unit to recognize coordinate data for defining the placement position of the planar object;
A camera placement step for placing the virtual camera in the virtual space by causing the control unit to recognize coordinate data for defining the placement position of the virtual camera;
A shape changing step for causing the control unit to execute a process of stepwise deforming the shape of the planar object out of plane;
An angle-of-view changing step for causing the control unit to execute a process of stepwise changing the angle of view of the virtual camera according to a change in the shape of the planar object;
An image in which a zoom image is displayed on the image display unit by causing the control unit to execute a process of photographing the state in which the shape of the planar object changes stepwise with a virtual camera in which the angle of view changes stepwise. A display step;
An image control method comprising:
JP2008159130A 2008-06-18 2008-06-18 Image processing program, image processing apparatus, and image control method Active JP4659071B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008159130A JP4659071B2 (en) 2008-06-18 2008-06-18 Image processing program, image processing apparatus, and image control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008159130A JP4659071B2 (en) 2008-06-18 2008-06-18 Image processing program, image processing apparatus, and image control method

Publications (2)

Publication Number Publication Date
JP2010002978A JP2010002978A (en) 2010-01-07
JP4659071B2 true JP4659071B2 (en) 2011-03-30

Family

ID=41584687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008159130A Active JP4659071B2 (en) 2008-06-18 2008-06-18 Image processing program, image processing apparatus, and image control method

Country Status (1)

Country Link
JP (1) JP4659071B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6018285B1 (en) * 2015-11-30 2016-11-02 株式会社コロプラ Baseball game program and computer

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133439A (en) * 2000-10-24 2002-05-10 Namco Ltd Image forming device, image forming method, and game device
JP2002140718A (en) * 2000-10-31 2002-05-17 Konami Co Ltd Computer readable recording medium recorded with virtual object display program, display controller and display control method
JP2002301234A (en) * 2001-04-06 2002-10-15 Sanyo Product Co Ltd Game machine
JP2006277722A (en) * 2006-01-20 2006-10-12 Namco Bandai Games Inc Program, information storage medium, and image generation system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002133439A (en) * 2000-10-24 2002-05-10 Namco Ltd Image forming device, image forming method, and game device
JP2002140718A (en) * 2000-10-31 2002-05-17 Konami Co Ltd Computer readable recording medium recorded with virtual object display program, display controller and display control method
JP2002301234A (en) * 2001-04-06 2002-10-15 Sanyo Product Co Ltd Game machine
JP2006277722A (en) * 2006-01-20 2006-10-12 Namco Bandai Games Inc Program, information storage medium, and image generation system

Also Published As

Publication number Publication date
JP2010002978A (en) 2010-01-07

Similar Documents

Publication Publication Date Title
US8259112B2 (en) Image generating apparatus, method of generating image, program, and recording medium
US6835136B2 (en) Game system, computer readable storage medium storing game program and image displaying method
US7327361B2 (en) Three-dimensional image generating apparatus, storage medium storing a three-dimensional image generating program, and three-dimensional image generating method
JP3786132B2 (en) Game image processing program and storage medium
JP5063990B2 (en) GAME PROGRAM AND GAME DEVICE
JP4177381B2 (en) Image generation method, image generation apparatus, and image generation program
JP4761528B2 (en) GAME PROGRAM AND GAME DEVICE
JP5627526B2 (en) GAME PROGRAM AND GAME SYSTEM
JP4521020B2 (en) GAME PROGRAM, GAME DEVICE, AND GAME CONTROL METHOD
JP2009273865A (en) Game program, game machine, and game control method
JP2011156061A (en) Game program, game device, and game control method
JP4714763B2 (en) Image processing program, image processing apparatus, and image control method
JP3005581B1 (en) Image creation device, image creation method, readable recording medium on which image creation program is recorded, and video game device
JP4659071B2 (en) Image processing program, image processing apparatus, and image control method
JP4447000B2 (en) Image generation system, program, and information storage medium
JP5149956B2 (en) GAME PROGRAM, GAME DEVICE, GAME CONTROL METHOD
JP4572245B2 (en) Image processing program, image processing apparatus, and image processing control method
JPH10216357A (en) Recording medium on which game program having game replay function is recorded
JP2006061717A (en) Game image display control program, game device, and storage medium
JP4469709B2 (en) Image processing program and image processing apparatus
JP3747042B2 (en) Image processing apparatus and image processing method
WO2007069373A1 (en) Game program, game machine, and game method
JP4054708B2 (en) GAME DEVICE AND GAME PROGRAM
JP4705145B2 (en) Drawing processing program, drawing processing apparatus, and drawing processing method
JP2773753B2 (en) Game device and game replay method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101214

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101224

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4659071

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250