JP4397410B2 - Image generating apparatus and information storage medium - Google Patents

Image generating apparatus and information storage medium Download PDF

Info

Publication number
JP4397410B2
JP4397410B2 JP2007263247A JP2007263247A JP4397410B2 JP 4397410 B2 JP4397410 B2 JP 4397410B2 JP 2007263247 A JP2007263247 A JP 2007263247A JP 2007263247 A JP2007263247 A JP 2007263247A JP 4397410 B2 JP4397410 B2 JP 4397410B2
Authority
JP
Japan
Prior art keywords
virtual camera
moving body
image
moving
vibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007263247A
Other languages
Japanese (ja)
Other versions
JP2008033964A (en
Inventor
隆之 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Namco Bandai Games Inc filed Critical Namco Ltd
Priority to JP2007263247A priority Critical patent/JP4397410B2/en
Publication of JP2008033964A publication Critical patent/JP2008033964A/en
Application granted granted Critical
Publication of JP4397410B2 publication Critical patent/JP4397410B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Description

本発明は、オブジェクト空間内の所与の視点での画像を生成する画像生成装置及び情報記憶媒体に関する。   The present invention relates to an image generation apparatus and an information storage medium that generate an image at a given viewpoint in an object space.

従来より、仮想的な3次元空間であるオブジェクト空間内に複数のオブジェクトを配置し、オブジェクト空間内の所与の視点から見える画像を生成する画像生成装置が開発、実用化されており、いわゆる仮想現実を体験できるものとして人気が高い。レーシングカーゲームを楽しむことができる画像生成装置を例にとれば、プレーヤは、自身が操作する車などの移動体をオブジェクト空間内で走行させて3次元ゲームを楽しむ。   2. Description of the Related Art Conventionally, image generation apparatuses that arrange a plurality of objects in an object space that is a virtual three-dimensional space and generate an image that can be viewed from a given viewpoint in the object space have been developed and put into practical use. It is popular as a way to experience reality. Taking an image generation apparatus that can enjoy a racing car game as an example, a player enjoys a three-dimensional game by running a moving body such as a car that the user operates in the object space.

さて、このような画像生成装置では、プレーヤの仮想現実感を向上させるという課題があり、このためには、路面状況などを反映したリアルな画像を生成することが望まれる。   Now, with such an image generation device, there is a problem of improving the virtual reality of the player. For this purpose, it is desired to generate a realistic image reflecting the road surface condition and the like.

しかしながら、これまでの画像生成装置では、移動体が画面上に表示される3人称視点での画像を生成する場合に、路面のガタガタ感や路面の変化をプレーヤに今一つ体感させることができないという問題があった。   However, with conventional image generation apparatuses, when a moving object generates an image from a third-person viewpoint displayed on the screen, it is impossible for the player to feel the rattling of the road surface or the change of the road surface. was there.

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、路面状況などを反映したリアルな画像を生成できる画像生成装置及び情報記憶媒体を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an image generation apparatus and an information storage medium capable of generating a real image reflecting road surface conditions and the like. .

上記課題を解決するために、本発明は、オブジェクト空間内の所与の視点での画像を生成する画像生成装置であって、オブジェクト空間内で移動体を移動させる演算を行う手段と、仮想カメラを前記移動体に追従するように移動させると共に、前記仮想カメラを所与の周期、所与の振幅、所与の波形で振動させる手段と、前記仮想カメラから見える画像であって、前記移動体の画像を含む3人称視点での画像を生成する手段とを含むことを特徴とする。   In order to solve the above-described problems, the present invention provides an image generation apparatus that generates an image at a given viewpoint in an object space, a unit that performs an operation of moving a moving object in the object space, and a virtual camera And a means for vibrating the virtual camera at a given period, a given amplitude, and a given waveform, and an image visible from the virtual camera, the moving body And a means for generating an image from a third-person viewpoint including the above-mentioned image.

本発明によれば、移動体に追従するように移動する仮想カメラからの、3人称視点での画像が生成される。そして、この仮想カメラは、例えば移動体の振動とは独立して、所与の周期、振幅、波形で振動する。このようにすることで、移動体のみならず、コースなどの背景についても振動して見えるような画像を生成することが可能となる。これにより、路面状況などを反映したリアルな画像を提供でき、仮想現実感の向上を図れる。   According to the present invention, an image at a third-person viewpoint from a virtual camera that moves so as to follow a moving object is generated. The virtual camera vibrates with a given period, amplitude, and waveform independently of the vibration of the moving body, for example. In this way, it is possible to generate an image that appears to vibrate not only for a moving object but also for a background such as a course. As a result, a realistic image reflecting the road surface condition and the like can be provided, and the virtual reality can be improved.

また本発明は、前記移動体の一部又は全部を、前記仮想カメラの振動とは周期、振幅及び波形の少なくとも1つが異なるように振動させることを特徴とする。このようにすることで、仮想カメラと移動体とが異なる周期等で各々独立に振動するようになる。これにより、移動体が振動して見えるような画像を確実に生成することが可能になる。   According to the present invention, part or all of the moving body is vibrated so that at least one of a period, an amplitude, and a waveform is different from the vibration of the virtual camera. By doing so, the virtual camera and the moving body vibrate independently at different periods or the like. This makes it possible to reliably generate an image that makes the moving body appear to vibrate.

また本発明は、所与の条件が成立した場合に、前記仮想カメラの振動を停止することを特徴とする。このようにすることで、不自然な画像が表示される事態を防止できる。   Further, the present invention is characterized in that the vibration of the virtual camera is stopped when a given condition is satisfied. By doing in this way, the situation where an unnatural image is displayed can be prevented.

なおこの場合、移動体が飛んでいる場合及び転倒している場合の少なくとも一方の場合に仮想カメラの振動を停止することが望ましい。   In this case, it is desirable to stop the vibration of the virtual camera in at least one of the case where the moving body is flying and the case where the moving body is falling.

また本発明は、前記移動体の速度が高くなるにつれて、前記仮想カメラの振動の周期を短くすることを特徴とする。このようにすることで、移動体の速度が高くなるにつれて、上下の揺れ等の時間間隔が短くなるという感覚をプレーヤに与えることが可能になる。   Further, the invention is characterized in that the vibration period of the virtual camera is shortened as the speed of the moving body increases. By doing so, it is possible to give the player a feeling that the time interval such as up and down swings becomes shorter as the speed of the moving body increases.

また本発明は、前記移動体の速度が高くなるにつれて、前記仮想カメラの振動の振幅を大きくすることを特徴とする。このようにすることで、移動体の速度が高くなるにつれて、上下の揺れ等の大きさが大きくなるという感覚をプレーヤに与えることが可能になる。   The present invention is characterized in that the amplitude of vibration of the virtual camera is increased as the speed of the moving body increases. By doing so, it becomes possible to give the player a feeling that the magnitude of the up and down shaking or the like increases as the speed of the moving body increases.

また本発明は、前記移動体が移動するエリアに応じて、前記仮想カメラの振動の周期、振幅及び波形の少なくとも1つを変化させることを特徴とする。このようにすることで、プレーヤに与える走行感覚のバラエティー度を増すことが可能となり、プレーヤの仮想現実感を向上できる。   In the invention, it is preferable that at least one of a vibration period, an amplitude, and a waveform of the virtual camera is changed according to an area in which the moving body moves. By doing so, it becomes possible to increase the variety of running feeling given to the player, and to improve the virtual reality of the player.

また本発明は、移動体が移動するマップを構成する各プリミティブ面に、前記仮想カメラの振動の周期、振幅及び波形の少なくとも1つを特定するための属性データを持たせ、移動体が位置するプリミティブ面が有する属性データに基づいて、前記仮想カメラを振動させることを特徴とする。このようにすることで、路面状況の変化を、より精細に制御することが可能になる。   Further, according to the present invention, attribute data for specifying at least one of a vibration period, an amplitude, and a waveform of the virtual camera is provided on each primitive surface constituting a map in which the moving body moves, and the moving body is positioned. The virtual camera is vibrated based on attribute data of the primitive surface. By doing in this way, it becomes possible to control the change of a road surface condition more finely.

以下、本発明の好適な実施形態について図面を用いて説明する。なお以下では、本発明を自転車ゲームに適用した場合を例にとり説明するが、本発明が適用されるものはこれに限られるものではない。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings. In the following, a case where the present invention is applied to a bicycle game will be described as an example. However, the present invention is not limited to this.

図1に本実施形態の画像生成装置を業務用のゲーム装置に適用した場合の外観図の一例を示す。   FIG. 1 shows an example of an external view when the image generation apparatus of the present embodiment is applied to a business game apparatus.

ここで、ライディング筐体16は、実際の自転車を模して作られたものであり、図示しないプレーヤはこのライディング筐体16のサドル17に座る。そしてディスプレイ18には、仮想的な自転車である移動体20や移動体20が走るコースや周囲の風景が表示される。プレーヤは、この画像を見ながら、ハンドル32を左右に操作することで、ディスプレイ18に映し出される移動体20の進む方向を決める。またペダル30をA1に示すように漕ぐことで、コース進行方向に移動体20を進める。   Here, the riding case 16 is made by imitating an actual bicycle, and a player (not shown) sits on the saddle 17 of the riding case 16. The display 18 displays a moving body 20 that is a virtual bicycle, a course on which the moving body 20 runs, and surrounding scenery. The player determines the advancing direction of the moving body 20 displayed on the display 18 by operating the handle 32 left and right while viewing this image. Moreover, the moving body 20 is advanced in the course traveling direction by pedaling the pedal 30 as indicated by A1.

図2に、本実施形態の画像生成装置の機能ブロック図の一例を示す。   FIG. 2 shows an example of a functional block diagram of the image generation apparatus of the present embodiment.

ここで操作部10は、プレーヤが、図1のハンドル32を操作したりペダル30を漕ぐことで操作データを入力するためのものであり、操作部10にて得られた操作データは処理部100に入力される。   Here, the operation unit 10 is for the player to input operation data by operating the handle 32 of FIG. 1 or by stroking the pedal 30, and the operation data obtained by the operation unit 10 is processed by the processing unit 100. Is input.

処理部100は、上記操作データと所与のプログラムなどに基づいて、オブジェクト空間に表示物を配置する処理や、このオブジェクト空間の所与の視点での画像を生成する処理を行うものである。この処理部100の機能は、CPU(CISC型、RISC型)、DSP、ゲートアレイICなどのハードウェアにより実現できる。   The processing unit 100 performs processing for arranging a display object in the object space and processing for generating an image at a given viewpoint in the object space based on the operation data and a given program. The function of the processing unit 100 can be realized by hardware such as a CPU (CISC type, RISC type), DSP, and gate array IC.

情報記憶媒体190は、プログラムやデータを記憶するものである。この情報記憶媒体190の機能は、CD−ROM、ゲームカセット、ICカード、MO、FD、DVD、ハードディスク、メモリなどのハードウェアにより実現できる。処理部100は、この情報記憶媒体190からのプログラム、データに基づいて種々の処理を行うことになる。   The information storage medium 190 stores programs and data. The function of the information storage medium 190 can be realized by hardware such as a CD-ROM, game cassette, IC card, MO, FD, DVD, hard disk, and memory. The processing unit 100 performs various processes based on the program and data from the information storage medium 190.

処理部100は、ゲーム演算部110と画像生成部150を含む。   The processing unit 100 includes a game calculation unit 110 and an image generation unit 150.

ここでゲーム演算部110は、ゲームモードの設定処理、ゲームの進行処理、移動体(自転車や自転車に乗るキャラクタ)の位置や方向を決める処理、視点位置や視線方向を決める処理、オブジェクト空間へオブジェクトを配置する処理等を行う。   Here, the game calculation unit 110 performs a game mode setting process, a game progress process, a process for determining the position and direction of a moving body (bicycle or a character riding on a bicycle), a process for determining a viewpoint position and a line-of-sight direction, The process etc. which arrange | position is performed.

また画像生成部150は、ゲーム演算部110により設定されたオブジェクト空間での所与の視点での画像を生成する処理を行う。画像生成部150により生成された画像は表示部12において表示される。   The image generation unit 150 performs processing for generating an image at a given viewpoint in the object space set by the game calculation unit 110. The image generated by the image generation unit 150 is displayed on the display unit 12.

ゲーム演算部110は移動体演算部112と仮想カメラ制御部114を含む。   The game calculation unit 110 includes a moving body calculation unit 112 and a virtual camera control unit 114.

ここで移動体演算部112は、操作部10から入力される操作データや所与のプログラムに基づき、プレーヤが操作する移動体や所与の制御プログラム(コンピュータ)により動きが制御される移動体を、オブジェクト空間内のコース上で移動させる演算を行う。より具体的には、移動体の位置や方向を例えば1フレーム(1/60秒)毎に求める演算を行う。   Here, the moving object calculation unit 112 selects a moving object operated by the player or a moving object whose movement is controlled by a given control program (computer) based on operation data input from the operation unit 10 or a given program. Then, an operation for moving on the course in the object space is performed. More specifically, a calculation for obtaining the position and direction of the moving body every frame (1/60 second) is performed.

例えば(k−1)フレームでの移動体の位置をPMk-1、速度をVMk -1、加速度をAMk-1、1フレームの時間を△tとする。するとkフレームでの移動体の位置PMk、速度VMkは例えば下式(1)、(2)のように求められる。

PMk=PMk-1+VMk-1×△t (1)

VMk=VMk-1+AMk-1×△t (2)

仮想カメラ制御部114は、移動体演算部112で得られた移動体の位置や方向のデータに基づいて、仮想カメラの視点位置や視線方向を制御する演算を行う。より具体的には、プレーヤの操作する移動体に例えば慣性を持ちながら追従するように仮想カメラの視点位置や視線方向を制御する。画像生成部150は、この仮想カメラ制御部114により制御される仮想カメラから見える画像を生成することになる。
For example, assume that the position of the moving body in the (k-1) frame is PMk-1, the speed is VMk-1, the acceleration is AMk-1, and the time of one frame is Δt. Then, the position PMk and speed VMk of the moving body in k frames are obtained, for example, by the following equations (1) and (2).

PMk = PMk-1 + VMk-1 * .DELTA.t (1)

VMk = VMk-1 + AMk-1 * .DELTA.t (2)

The virtual camera control unit 114 performs a calculation for controlling the viewpoint position and the line-of-sight direction of the virtual camera based on the position and direction data of the moving body obtained by the moving body calculation unit 112. More specifically, the viewpoint position and the line-of-sight direction of the virtual camera are controlled so as to follow the moving body operated by the player while having, for example, inertia. The image generation unit 150 generates an image that can be seen from the virtual camera controlled by the virtual camera control unit 114.

そして本実施形態の第1の特徴は以下の点にある。即ち図3に示すように、仮想カメラ22を移動体20に追従するように移動させると共に、仮想カメラ22を所与の周期、所与の振幅、所与の波形で振動させる。そして、仮想カメラ22の視点位置24、視線方向26において見える画像であって、移動体20やコース40の画像を含む3人称視点での画像を生成して、プレーヤに表示する。この場合、仮想カメラ22を振動させる処理は、図2の仮想カメラ制御部114が行うことになる。   The first feature of the present embodiment is as follows. That is, as shown in FIG. 3, the virtual camera 22 is moved so as to follow the moving body 20, and the virtual camera 22 is vibrated with a given cycle, a given amplitude, and a given waveform. Then, an image that is visible at the viewpoint position 24 and the line-of-sight direction 26 of the virtual camera 22 and includes a third-person viewpoint including images of the moving body 20 and the course 40 is generated and displayed on the player. In this case, the process of vibrating the virtual camera 22 is performed by the virtual camera control unit 114 of FIG.

図4に本実施形態により生成される画像の一例を示す。本実施形態によれば、仮想カメラ22を振動させることで、図4に示すように、移動体20のみならず、コース40などの背景についても振動させることができるようになる。これにより、3人称視点であっても、コース40の路面状況をよりリアルに反映した画像を生成することができ、プレーヤに与える仮想現実感を格段に向上できる。   FIG. 4 shows an example of an image generated by this embodiment. According to the present embodiment, by vibrating the virtual camera 22, as shown in FIG. 4, not only the moving body 20 but also the background such as the course 40 can be vibrated. Thereby, even if it is a 3rd person viewpoint, the image which reflected the road surface condition of the course 40 more realistically can be produced | generated, and the virtual reality given to a player can be improved markedly.

画面上に移動体20が表示されない1人称視点で画像を生成する場合には、移動体20の位置と仮想カメラ22の位置はほぼ一致する。したがって、移動体20が振動すれば画面も振動することになり、それほど工夫を要せずに路面状況をプレーヤに伝えることができる。   When an image is generated from a first-person viewpoint where the moving body 20 is not displayed on the screen, the position of the moving body 20 and the position of the virtual camera 22 are substantially the same. Therefore, if the moving body 20 vibrates, the screen also vibrates, and the road surface condition can be transmitted to the player without requiring much ingenuity.

しかしながら、画面上に移動体20が表示される3人称視点で画像を生成する場合には、移動体20の位置と仮想カメラ22の位置(視点位置)は一致しない。したがって、移動体20が振動した場合に、仮想カメラ22をどのように制御するかが1つの技術的課題になる。   However, when an image is generated from a third-person viewpoint where the moving body 20 is displayed on the screen, the position of the moving body 20 and the position (viewpoint position) of the virtual camera 22 do not match. Therefore, how to control the virtual camera 22 when the moving body 20 vibrates becomes one technical problem.

この場合、図5(A)に示すように、仮想カメラ22と移動体20との間の位置関係を完全に固定する手法を採用すると、コース40などの背景は振動しているように見えるが、移動体20については振動しているようには見えなくなる。したがって、この手法によっては、移動体20が凹凸のある路面を走行しているという感覚を、プレーヤに的確に伝えることができない。   In this case, as shown in FIG. 5A, when a method of completely fixing the positional relationship between the virtual camera 22 and the moving body 20 is adopted, the background such as the course 40 appears to vibrate. The moving body 20 does not appear to vibrate. Therefore, according to this method, it is impossible to accurately convey to the player the feeling that the moving body 20 is traveling on an uneven road surface.

一方、図5(B)に示すように、仮想カメラ22と移動体20との間の位置関係を完全には固定せず、例えば仮想カメラ22の高さ(地面からの)を固定にする手法を採用すると、移動体20は振動しているように見えるが、コース40などの背景については振動しているようには見えなくなる。そして画面全体の面積に対する移動体20の占める面積は小さいため、移動体20のみが振動していても、凹凸のある路面を走行しているという感覚を今一つプレーヤは感じ取ることができない。   On the other hand, as shown in FIG. 5B, the positional relationship between the virtual camera 22 and the moving body 20 is not completely fixed, and for example, the height (from the ground) of the virtual camera 22 is fixed. The moving body 20 appears to vibrate, but the background such as the course 40 does not appear to vibrate. Since the area occupied by the moving body 20 with respect to the entire area of the screen is small, even if only the moving body 20 vibrates, the player cannot feel the sense that the vehicle is traveling on an uneven road surface.

このように図5(A)、(B)に示した手法によっては、結局、路面状況が変化している様子をプレーヤに十分に伝えることはできない。   As described above, according to the methods shown in FIGS. 5A and 5B, it is impossible to sufficiently tell the player that the road surface condition is changing.

これに対して本実施形態では、図3に示すように、移動体20に仮想カメラ22を追従させると共に、移動体20の振動とは無関係に、仮想カメラ22を所与の周期、振幅で振動させている。このため、図4に示すように、移動体20のみならず、コース40などの背景も振動して見えるようになる。したがって、路面状況が変化している様子をプレーヤに十分且つ的確に伝えることができ、プレーヤの感じる仮想現実感を格段に向上できる。   In contrast, in the present embodiment, as shown in FIG. 3, the virtual camera 22 is caused to follow the moving body 20 and the virtual camera 22 is vibrated with a given period and amplitude regardless of the vibration of the moving body 20. I am letting. For this reason, as shown in FIG. 4, not only the moving body 20 but also the background of the course 40 and the like appear to vibrate. Therefore, it is possible to sufficiently and accurately convey to the player how the road surface condition is changing, and the virtual reality feeling felt by the player can be significantly improved.

また本実施形態の第2の特徴は、移動体20の一部又は全部を、仮想カメラ22の振動とは周期や振幅や波形が異なるように振動させる点にある。即ち、例えば図6に示すように、仮想カメラ22を周期T1、振幅AP1で振動させる一方で、移動体20を周期T2、振幅AP2で振動させる。このようにすることで、移動体20が画面に対して振動しているように見せることができると共に、移動体20が仮想カメラ22に対して振動しているように見せることができるようになる。これにより、路面状況が変化している様子を、更に十分且つ的確にプレーヤに伝えることが可能となる。   The second feature of the present embodiment is that part or all of the moving body 20 is vibrated so that the period, amplitude, and waveform are different from the vibration of the virtual camera 22. That is, for example, as shown in FIG. 6, the virtual camera 22 is vibrated with a period T1 and an amplitude AP1, while the moving body 20 is vibrated with a period T2 and an amplitude AP2. In this way, the moving body 20 can appear to vibrate with respect to the screen, and the moving body 20 can appear to vibrate with respect to the virtual camera 22. . As a result, it is possible to inform the player that the road surface condition is changing more sufficiently and accurately.

なお移動体20の全体を振動させるのではなく、移動体20の一部、例えばタイヤ等のみを振動させるようにしてもよい。また振動の周期や振幅を異ならせるのではなく、波形の種類を異ならせるようにしてもよい。   Instead of vibrating the entire moving body 20, only a part of the moving body 20, for example, a tire or the like may be vibrated. Further, instead of changing the period and amplitude of vibration, the type of waveform may be changed.

また本実施形態の第3の特徴は、所与の条件が成立した場合に、仮想カメラの振動を停止する点にある。例えば図7に示すように、移動体20がジャンプ台42から飛んだ場合(移動体20が地面から離れた場合)に仮想カメラ22の振動を停止する。あるいは、移動体20が転倒した場合等にも仮想カメラ22の振動を停止する。   The third feature of the present embodiment is that the vibration of the virtual camera is stopped when a given condition is satisfied. For example, as shown in FIG. 7, when the moving body 20 flies from the jump stand 42 (when the moving body 20 leaves the ground), the vibration of the virtual camera 22 is stopped. Alternatively, the vibration of the virtual camera 22 is also stopped when the moving body 20 falls.

即ち本実施形態では、移動体20の振動とは独立して仮想カメラ22を振動させている。したがって、移動体20が飛んだり転倒し、移動体20自体の振動が停止すべき状況になった場合に、何も処置を施さないと、仮想カメラ22のみが振動してしまい、不自然な画像がプレーヤに表示されてしまう。本実施形態では、このような場合に、仮想カメラ22の振動が停止するため、プレーヤが不自然さを感じるのを有効に防止できるようになる。   That is, in this embodiment, the virtual camera 22 is vibrated independently of the vibration of the moving body 20. Therefore, when the moving body 20 flies or falls and the vibration of the moving body 20 itself should stop, if no action is taken, only the virtual camera 22 vibrates, and an unnatural image is generated. Will be displayed on the player. In this embodiment, since the vibration of the virtual camera 22 stops in such a case, it is possible to effectively prevent the player from feeling unnatural.

なお仮想カメラ22の振動を停止させる所与の条件としては、移動体20のジャンプや転倒に限らず、種々の条件を考えることができる。   The given condition for stopping the vibration of the virtual camera 22 is not limited to jumping or falling of the moving body 20, and various conditions can be considered.

また本実施形態の第3の特徴は、移動体の速度が高くなるにつれて、仮想カメラの振動の周期を短くしたり振幅を大きくする点にある。   A third feature of the present embodiment is that the vibration period of the virtual camera is shortened or the amplitude is increased as the speed of the moving body increases.

即ち本実施形態では、図8(A)に示すように、移動体20の速度が高くなるにつれて仮想カメラ22の振動の周期が短くなる。このようにすることで、移動体20の速度が高くなるにつれて路面の上下の揺れの時間間隔が短くなるという感覚を、プレーヤに与えることができる。また本実施形態では、図8(B)に示すように、移動体20の速度が高くなるにつれて仮想カメラ22の振幅が大きくなる。このようにすることで、移動体20の速度が高くなるにつれて路面の上下の揺れの大きさが大きくなるという感覚を、プレーヤに与えることができる。以上のような本実施形態の第3の特徴により、路面状況の変化を、よりリアルにシミュレートすることが可能となり、プレーヤの仮想現実感を更に一層高めることが可能になる。   That is, in this embodiment, as shown in FIG. 8A, the vibration period of the virtual camera 22 is shortened as the speed of the moving body 20 increases. By doing so, it is possible to give the player a feeling that the time interval of the up and down shaking of the road surface becomes shorter as the speed of the moving body 20 increases. In the present embodiment, as shown in FIG. 8B, the amplitude of the virtual camera 22 increases as the speed of the moving body 20 increases. By doing in this way, it is possible to give the player a feeling that the magnitude of the up and down swing of the road surface increases as the speed of the moving body 20 increases. With the third feature of the present embodiment as described above, it is possible to more realistically simulate changes in road surface conditions, and to further enhance the virtual reality of the player.

また本実施形態の第4の特徴は、移動体が移動するエリアに応じて、仮想カメラの振動の周期や振幅や波形を変化させる点にある。   The fourth feature of the present embodiment is that the vibration period, amplitude, and waveform of the virtual camera are changed according to the area in which the moving body moves.

即ち図9に示すように、コース40には、路面状況の違う複数のエリアが設けられる。そして、移動体20が例えばアスファルトエリア50を走行している場合には、仮想カメラの振動の振幅はほとんど零になる。また移動体20が、岩エリア51を走行している場合には振幅の大きい振動になる。また草エリア52を走行している場合には長い周期で小さな振幅の振動になる。また砂利エリア53を走行している場合には短い周期で小さいな振幅の振動になり、土エリア54を走行している場合には更に短い周期で更に小さな振動になる。   That is, as shown in FIG. 9, the course 40 is provided with a plurality of areas having different road surface conditions. When the moving body 20 is traveling, for example, in the asphalt area 50, the vibration amplitude of the virtual camera becomes almost zero. Further, when the moving body 20 is traveling in the rock area 51, the vibration has a large amplitude. Further, when traveling in the grass area 52, the vibration has a small amplitude with a long period. Further, when traveling in the gravel area 53, the vibration has a small amplitude in a short cycle, and when traveling in the soil area 54, the vibration has a smaller vibration in a shorter cycle.

このように、仮想カメラの振動の周期や振幅や波形をエリア毎に異ならせることで、路面状況の変化の更にリアルなシミュレートが可能となり、プレーヤの仮想現実感を更に向上できるようになる。   As described above, by changing the vibration period, amplitude, and waveform of the virtual camera for each area, it is possible to simulate a more realistic change in the road surface condition and further improve the virtual reality of the player.

なお前述の図4は移動体20が岩エリアを走行している場合の画像の例である。一方、図10に、移動体20が土エリアを走行している場合の画像の例を示す。このように本実施形態では、移動体20が岩エリアや土エリアを走行している場合に、まず、各エリアの路面状況を表す画像を表示することで、岩エリアや土エリアを走行しているという仮想現実感をプレーヤに与えている。そして、更に、各々のエリアの路面の凹凸に対応した波形で移動体20や背景を振動させることで、プレーヤの感じる仮想現実感を更に一層向上させている。   Note that FIG. 4 described above is an example of an image when the moving body 20 is traveling in a rock area. On the other hand, FIG. 10 shows an example of an image when the moving body 20 is traveling in the soil area. As described above, in the present embodiment, when the moving body 20 is traveling in a rock area or a soil area, first, an image representing the road surface condition of each area is displayed, thereby traveling in the rock area or the soil area. This gives the player a virtual reality. Further, the virtual reality feeling felt by the player is further improved by vibrating the moving body 20 and the background with a waveform corresponding to the unevenness of the road surface of each area.

さて本実施形態では図11に示すように、コース40を、複数のポリゴンなどのプリミティブ面の組み合わせにより構成している。移動体20は、これらのポリゴンにより構成されたコース40上を走行する。   In the present embodiment, as shown in FIG. 11, the course 40 is constituted by a combination of primitive surfaces such as a plurality of polygons. The moving body 20 travels on the course 40 constituted by these polygons.

そして本実施形態の第5の特徴は以下の点にある。即ち、コースなどのマップを構成する各ポリゴンに、仮想カメラの振動の周期や振幅や波形を特定するための属性データを持たせる。そして、移動体が位置するポリゴンが有する属性データに基づいて、仮想カメラを振動させる。   The fifth feature of the present embodiment is as follows. That is, each polygon constituting the map such as a course is provided with attribute data for specifying the vibration period, amplitude, and waveform of the virtual camera. Then, the virtual camera is vibrated based on the attribute data of the polygon where the moving body is located.

例えば図12では、コース40はポリゴン56-1〜56-9により構成される。そしてポリゴン56-1〜56-3にはアスファルト路面の振動を特定するための属性データが設定されている。同様にポリゴン56-4〜56-6には岩路面の振動を特定するための属性データが、ポリゴン56-7〜56-9には草路面の振動を特定するための属性データが設定されている。そして、図12では、移動体20はポリゴン56-5の場所に位置している。したがって、この場合には、岩路面の振動を特定するための属性データが読み出され、仮想カメラは、この属性データに基づいて振動する。   For example, in FIG. 12, the course 40 is composed of polygons 56-1 to 56-9. The polygons 56-1 to 56-3 are set with attribute data for specifying the vibration of the asphalt road surface. Similarly, attribute data for specifying the vibration of the rock road surface is set for the polygons 56-4 to 56-6, and attribute data for specifying the vibration of the grass road surface is set for the polygons 56-7 to 56-9. Yes. In FIG. 12, the moving body 20 is located at the location of the polygon 56-5. Therefore, in this case, attribute data for specifying the vibration of the rock road surface is read, and the virtual camera vibrates based on this attribute data.

このように各ポリゴンに設定された属性データに基づいて仮想カメラを振動させることで、路面状況の変化の、より精細な制御が可能となる。即ち、図9の砂利エリア53、土エリア54のように、コース40の左側と右側で路面状況を変えることが可能となる。また左側、中央、右側で路面状況を変えることも可能である。   In this way, by vibrating the virtual camera based on the attribute data set for each polygon, it becomes possible to perform finer control of changes in road surface conditions. That is, the road surface condition can be changed between the left side and the right side of the course 40 as in the gravel area 53 and the soil area 54 of FIG. It is also possible to change the road surface condition on the left side, center, and right side.

なお以上では、コースを、プリミティブ面の1つであるポリゴンで構成した場合を例にとり説明したが、曲面などの他の形態のプリミティブ面によりコースを構成してもよい。   In the above description, the case where the course is configured by a polygon that is one of the primitive surfaces has been described as an example. However, the course may be configured by other forms of primitive surfaces such as a curved surface.

次に本実施形態の詳細な処理例について、図13のフローチャートを用いて説明する。   Next, a detailed processing example of this embodiment will be described with reference to the flowchart of FIG.

まず図2の移動体演算部112が移動体の位置、方向を算出する(ステップS1)。この算出はフレーム毎に行われる。   First, the moving object calculation unit 112 in FIG. 2 calculates the position and direction of the moving object (step S1). This calculation is performed for each frame.

次に図2の仮想カメラ制御部114が、移動体の位置、方向に基づき仮想カメラの視点位置、視線方向を算出する(ステップS2)。仮想カメラの視点位置は、例えば、移動体の位置からワールド(X、Y、Z)座標系で一定の座標値(△X、△Y、△Z)だけ離れた位置に設定される。また移動体の速度等が急激に変化した場合にも、滑らかに追従できるように、仮想カメラは慣性を持ちながら移動体に追従するようになっている。   Next, the virtual camera control unit 114 in FIG. 2 calculates the viewpoint position and line-of-sight direction of the virtual camera based on the position and direction of the moving object (step S2). The viewpoint position of the virtual camera is set, for example, at a position away from the position of the moving body by a fixed coordinate value (ΔX, ΔY, ΔZ) in the world (X, Y, Z) coordinate system. In addition, the virtual camera follows the moving body with inertia so that it can smoothly follow even when the speed of the moving body changes rapidly.

次に移動体が飛んでいる(地面から離れている)か否かを判断する(ステップS3)。そして図7に示すように移動体が飛んでいる場合には、ステップS5以下の仮想カメラを振動させる処理を省略する。   Next, it is determined whether or not the moving body is flying (away from the ground) (step S3). Then, when the moving body is flying as shown in FIG. 7, the process of vibrating the virtual camera in step S5 and subsequent steps is omitted.

次に移動体が転倒しているか否かを判断する(ステップS4)。そして移動体が転倒している場合には、ステップS5以下の仮想カメラを振動させる処理を省略する。   Next, it is determined whether or not the moving body is overturned (step S4). If the moving body is falling, the process of vibrating the virtual camera in step S5 and subsequent steps is omitted.

次に移動体が位置する(接触している)ポリゴンを検索し、そのポリゴンの属性データ(仮想カメラの振動を特定するためのデータ)を読み出す(ステップS5)。   Next, the polygon where the moving body is located (contacted) is searched, and attribute data of the polygon (data for specifying the vibration of the virtual camera) is read (step S5).

ここで本実施形態では、移動体が位置するポリゴンを以下のようにして検索している。即ち図14(A)に示すように本実施形態では、コース40を複数のコースブロックC0〜C1000に分割している。コース40は、道のり距離で例えば1m間隔毎にコースブロックに分割される。そして図14(B)において、移動体20がコースブロックCj内に位置するか否かを、ライン60、62の配置データにより判定する。このように移動体20が位置するコースブロックを特定することで、移動体20の順位や時間延長の可否等を決めることができる。また図14(C)に示すように、各コースブロックは複数のポリゴン、例えば三角形のポリゴンに分割されている。本実施形態では、移動体20の位置をコースブロックに設定されるr、s座標系に変換する。そして、このr、s座標系での移動体20の位置に基づいて、移動体20が、どの三角形のポリゴンに位置するかを判別する。以上のようにして、移動体20が位置するポリゴンが検索される。   Here, in the present embodiment, the polygon where the moving body is located is searched as follows. That is, as shown in FIG. 14A, in this embodiment, the course 40 is divided into a plurality of course blocks C0 to C1000. The course 40 is divided into course blocks at a distance of 1 m, for example, every 1 m. In FIG. 14B, it is determined from the arrangement data of the lines 60 and 62 whether or not the moving body 20 is located in the course block Cj. Thus, by specifying the course block where the moving body 20 is located, it is possible to determine the order of the moving body 20 and whether or not to extend the time. Further, as shown in FIG. 14C, each course block is divided into a plurality of polygons, for example, triangular polygons. In this embodiment, the position of the moving body 20 is converted into the r and s coordinate systems set in the course block. Then, based on the position of the moving body 20 in the r, s coordinate system, it is determined to which triangular polygon the moving body 20 is located. As described above, the polygon where the moving body 20 is located is searched.

図13の説明に戻る。属性データを読み出した後、波形メモリデータの読み出しアドレスRAを下式(3)にしたがって決める。

RA=MOD(RA+K1×VM,WDL) (3)

ここでMOD(A/B)は、AをBで割った時の剰余を表すものである。またK1は定数であり、VMは移動体の速度であり、WDLは波形データ長である。また読み出しアドレスRAは初期状態では零に設定されている。
Returning to the description of FIG. After reading the attribute data, the waveform memory data read address RA is determined according to the following equation (3).

RA = MOD (RA + K1 × VM, WDL) (3)

Here, MOD (A / B) represents the remainder when A is divided by B. K1 is a constant, VM is the speed of the moving object, and WDL is the waveform data length. The read address RA is set to zero in the initial state.

図15(A)、(B)、(C)に、波形データメモリに記憶される種々の波形データの例を示す。図15(A)はアスファルト路面の振動を表す波形データ、図15(B)は岩路面の振動を表す波形データ、図15(C)は草路面の振動を表す波形データである。すべての波形データのWDLは256で同一になっている。   15A, 15B, and 15C show examples of various waveform data stored in the waveform data memory. FIG. 15A shows waveform data representing vibration of the asphalt road surface, FIG. 15B shows waveform data representing vibration of the rock road surface, and FIG. 15C shows waveform data representing vibration of the grass road surface. The WDL of all waveform data is the same at 256.

上式(3)から明らかなように、移動体の速度VMが速いほど波形データの再生速度が速くなり、波形の振動の周期が実質的に短くなる。即ち図8(A)に示すように、移動体の速度が高くなればなるほど周期が短くなるように、仮想カメラの振動を制御できるようになる。また上式(3)でRA+K1×VMをWDLで割りその剰余をRAにしているのは、図15(A)、(B)、(C)に示すように波形データメモリには有限の波形データ長の波形データしか記憶されていないからである。   As is clear from the above equation (3), the faster the moving object speed VM, the faster the waveform data reproduction speed, and the shorter the waveform oscillation period. That is, as shown in FIG. 8A, the vibration of the virtual camera can be controlled so that the cycle becomes shorter as the speed of the moving body becomes higher. Also, RA + K1 × VM is divided by WDL in the above equation (3) and the remainder is set to RA as shown in FIGS. 15A, 15B, and 15C. The waveform data memory has finite waveform data. This is because only long waveform data is stored.

次に、ステップS5で読み出された属性データと、ステップS6で得られた読み出しアドレスRAとに基づいて、振幅APが波形データメモリから読み出される(ステップS7)。即ち、どの波形データを参照するかは、図12で説明したように、ステップS5で得られた属性データに基づき選択される。例えば属性データがアスファルト路面を指定するものであれば図15(A)の波形データが、岩路面を指定するものであれば図15(B)の波形データが、草路面を指定するものであれば図15(C)の波形データが参照される。またステップS6で得られた読み出しアドレスRAを指定することで、振幅APを得ることができる。例えば図15(B)でRA=200が指定されると、AP=2000が得られる。   Next, the amplitude AP is read from the waveform data memory based on the attribute data read in step S5 and the read address RA obtained in step S6 (step S7). That is, which waveform data is to be referred to is selected based on the attribute data obtained in step S5 as described with reference to FIG. For example, if the attribute data designates an asphalt road surface, the waveform data in FIG. 15A designates a rocky road surface. If the attribute data designates a rock road surface, the waveform data in FIG. 15B designates a grass road surface. For example, the waveform data in FIG. Also, the amplitude AP can be obtained by designating the read address RA obtained in step S6. For example, when RA = 200 is designated in FIG. 15B, AP = 2000 is obtained.

次に、下式(4)に示すようにして振幅APを補正する(ステップS8)。

AP=K2×AP×VM (4)

ここでK2は定数である。上式(4)のような補正をすることで、図8(B)に示すように、移動体の速度VMが大きくなるほど振幅APが大きくなるように、仮想カメラの振動を制御することが可能になる。
Next, the amplitude AP is corrected as shown in the following equation (4) (step S8).

AP = K2 × AP × VM (4)

Here, K2 is a constant. By correcting the above equation (4), it is possible to control the vibration of the virtual camera so that the amplitude AP increases as the velocity VM of the moving object increases, as shown in FIG. 8B. become.

次に、下式(5)に示すようにして、ステップS2で得られた仮想カメラの高さ(視点位置の高さ)HCを補正する(ステップS9)。

HC=HC+AP (5)

以上のようにすることで、各種波形データに応じた振幅、周期、波形で仮想カメラを振動させることが可能になる。
Next, as shown in the following formula (5), the height (the height of the viewpoint position) HC of the virtual camera obtained in step S2 is corrected (step S9).

HC = HC + AP (5)

By doing as described above, it becomes possible to vibrate the virtual camera with amplitude, period, and waveform corresponding to various waveform data.

次に、本実施形態を実現できるハードウェアの構成の一例について図16を用いて説明する。同図に示す装置では、CPU1000、ROM1002、RAM1004、情報記憶媒体1006、音生成IC1008、画像生成IC1010、I/Oポート1012、1014が、システムバス1016により相互にデータ送受信可能に接続されている。そして前記画像生成IC1010にはディスプレイ1018が接続され、音生成IC1008にはスピーカ1020が接続され、I/Oポート1012にはコントロール装置1022が接続され、I/Oポート1014には通信装置1024が接続されている。   Next, an example of a hardware configuration capable of realizing the present embodiment will be described with reference to FIG. In the apparatus shown in the figure, a CPU 1000, a ROM 1002, a RAM 1004, an information storage medium 1006, a sound generation IC 1008, an image generation IC 1010, and I / O ports 1012, 1014 are connected to each other via a system bus 1016 so that data can be transmitted and received. A display 1018 is connected to the image generation IC 1010, a speaker 1020 is connected to the sound generation IC 1008, a control device 1022 is connected to the I / O port 1012, and a communication device 1024 is connected to the I / O port 1014. Has been.

情報記憶媒体1006は、プログラム、表示物を表現するための画像データ、音データ等が主に格納されるものである。例えば家庭用ゲーム装置ではゲームプログラム等を格納する情報記憶媒体としてCD−ROM、ゲームカセット、DVD等が用いられる。また業務用ゲーム装置ではROM等のメモリが用いられ、この場合には情報記憶媒体1006はROM1002になる。   The information storage medium 1006 mainly stores programs, image data for expressing display objects, sound data, and the like. For example, a consumer game device uses a CD-ROM, game cassette, DVD, or the like as an information storage medium for storing a game program or the like. The arcade game machine uses a memory such as a ROM. In this case, the information storage medium 1006 is a ROM 1002.

コントロール装置1022はゲームコントローラ、操作パネル等に相当するものであり、プレーヤがゲーム進行に応じて行う判断の結果を装置本体に入力するための装置である。   The control device 1022 corresponds to a game controller, an operation panel, and the like, and is a device for inputting a result of a determination made by the player in accordance with the progress of the game to the device main body.

情報記憶媒体1006に格納されるプログラム、ROM1002に格納されるシステムプログラム(装置本体の初期化情報等)、コントロール装置1022によって入力される信号等に従って、CPU1000は装置全体の制御や各種データ処理を行う。RAM1004はこのCPU1000の作業領域等として用いられる記憶手段であり、情報記憶媒体1006やROM1002の所与の内容、あるいはCPU1000の演算結果等が格納される。また本実施形態を実現するための論理的な構成を持つデータ構造(例えば図15(A)、(B)、(C)の波形データ)は、このRAM又は情報記憶媒体上に構築されることになる。   In accordance with a program stored in the information storage medium 1006, a system program stored in the ROM 1002 (such as device initialization information), a signal input by the control device 1022, the CPU 1000 controls the entire device and performs various data processing. . The RAM 1004 is a storage means used as a work area of the CPU 1000 and stores the given contents of the information storage medium 1006 and the ROM 1002 or the calculation result of the CPU 1000. In addition, a data structure having a logical configuration for realizing the present embodiment (for example, the waveform data in FIGS. 15A, 15B, and 15C) is constructed on this RAM or information storage medium. become.

更に、この種の装置には音生成IC1008と画像生成IC1010とが設けられていてゲーム音やゲーム画像の好適な出力が行えるようになっている。音生成IC1008は情報記憶媒体1006やROM1002に記憶される情報に基づいて効果音やバックグラウンド音楽等のゲーム音を生成する集積回路であり、生成されたゲーム音はスピーカ1020によって出力される。また、画像生成IC1010は、RAM1004、ROM1002、情報記憶媒体1006等から送られる画像情報に基づいてディスプレイ1018に出力するための画素情報を生成する集積回路である。なおディスプレイ1018として、いわゆるヘッドマウントディスプレイ(HMD)と呼ばれるものを使用することもできる。   Further, this type of apparatus is provided with a sound generation IC 1008 and an image generation IC 1010 so that game sounds and game images can be suitably output. The sound generation IC 1008 is an integrated circuit that generates game sounds such as sound effects and background music based on information stored in the information storage medium 1006 and the ROM 1002, and the generated game sounds are output by the speaker 1020. The image generation IC 1010 is an integrated circuit that generates pixel information to be output to the display 1018 based on image information sent from the RAM 1004, the ROM 1002, the information storage medium 1006, and the like. As the display 1018, a so-called head mounted display (HMD) can be used.

また、通信装置1024はゲーム装置内部で利用される各種の情報を外部とやりとりするものであり、他のゲーム装置と接続されてゲームプログラムに応じた所与の情報を送受したり、通信回線を介してゲームプログラム等の情報を送受することなどに利用される。   The communication device 1024 exchanges various types of information used inside the game device with the outside. The communication device 1024 is connected to other game devices to send and receive given information according to the game program, and to connect a communication line. It is used for sending and receiving information such as game programs.

そして図1〜図12、図14(A)〜図15(C)で説明した種々の処理は、図13のフローチャートに示した処理等を行うプログラムを格納した情報記憶媒体1006と、該プログラムに従って動作するCPU1000、画像生成IC1010、音生成IC1008等によって実現される。なお画像生成IC1010、音生成IC1008等で行われる処理は、CPU1000あるいは汎用のDSP等によりソフトウェア的に行ってもよい。   Various processes described with reference to FIGS. 1 to 12 and FIGS. 14A to 15C are performed according to an information storage medium 1006 that stores a program for performing the process shown in the flowchart of FIG. This is realized by the operating CPU 1000, image generation IC 1010, sound generation IC 1008, and the like. The processing performed by the image generation IC 1010, the sound generation IC 1008, and the like may be performed by software using the CPU 1000 or a general-purpose DSP.

さて前述した図1は、本実施形態を業務用ゲーム装置に適用した場合の例を示すものである。この場合、装置に内蔵されるシステム基板1106には、CPU、画像生成IC、音生成IC等が実装されている。そして、オブジェクト空間内で移動体を移動させる演算を行うための情報、仮想カメラを移動体に追従するように移動させると共に、仮想カメラを所与の周期、所与の振幅、所与の波形で振動させるための情報、仮想カメラから見える画像であって、移動体の画像を含む3人称視点での画像を生成するための情報、移動体の一部又は全部を、仮想カメラの振動とは周期、振幅及び波形の少なくとも1つが異なるように振動させるための情報等は、システム基板1106上の情報記憶媒体であるメモリ1108に格納される。以下、これらの情報を格納情報と呼ぶ。これらの格納情報は、上記の種々の処理を行うためのプログラムコード、画像情報、音情報、表示物の形状情報、テーブルデータ、リストデータ、プレーヤ情報等の少なくとも1つを含むものである。   FIG. 1 described above shows an example in which the present embodiment is applied to an arcade game machine. In this case, a CPU, an image generation IC, a sound generation IC, and the like are mounted on a system board 1106 built in the apparatus. Then, information for performing an operation for moving the moving object in the object space, moving the virtual camera so as to follow the moving object, and moving the virtual camera at a given period, given amplitude, given waveform. Information for vibrating, an image that can be seen from a virtual camera, and information for generating an image from a third-person viewpoint including an image of a moving object, a vibration of a virtual camera is a period of a part or all of the moving object The information for vibrating such that at least one of the amplitude and the waveform is different is stored in a memory 1108 which is an information storage medium on the system board 1106. Hereinafter, these pieces of information are referred to as stored information. The stored information includes at least one of program code, image information, sound information, display object shape information, table data, list data, player information, and the like for performing the various processes described above.

図17(A)に、本実施形態を家庭用のゲーム装置に適用した場合の例を示す。プレーヤはディスプレイ1200に映し出されたゲーム画像を見ながら、ゲームコントローラ1202、1204を操作してゲームを楽しむ。この場合、上記格納情報は、本体装置に着脱自在な情報記憶媒体であるCD−ROM1206、ICカード1208、1209等に格納されている。   FIG. 17A shows an example in which the present embodiment is applied to a home game device. The player enjoys the game by operating the game controllers 1202 and 1204 while viewing the game image displayed on the display 1200. In this case, the stored information is stored in a CD-ROM 1206, IC cards 1208, 1209, etc., which are information storage media detachable from the main unit.

図17(B)に、ホスト装置1300と、このホスト装置1300と通信回線1302を介して接続される端末1304-1〜1304-nとを含むゲーム装置に本実施形態を適用した場合の例を示す。この場合、上記格納情報は、例えばホスト装置1300が制御可能な磁気ディスク装置、磁気テープ装置、メモリ等の情報記憶媒体1306に格納されている。端末1304-1〜1304-nが、CPU、画像生成IC、音生成ICを有し、スタンドアロンでゲーム画像、ゲーム音を生成できるものである場合には、ホスト装置1300からは、ゲーム画像、ゲーム音を生成するためのゲームプログラム等が端末1304-1〜1304-nに配送される。一方、スタンドアロンで生成できない場合には、ホスト装置1300がゲーム画像、ゲーム音を生成し、これを端末1304-1〜1304-nに伝送し端末において出力することになる。   FIG. 17B shows an example in which the present embodiment is applied to a game device including a host device 1300 and terminals 1304-1 to 1304-n connected to the host device 1300 via a communication line 1302. Show. In this case, the stored information is stored in an information storage medium 1306 such as a magnetic disk device, a magnetic tape device, or a memory that can be controlled by the host device 1300, for example. When the terminals 1304-1 to 1304-n have a CPU, an image generation IC, and a sound generation IC and can generate a game image and a game sound stand-alone, the host device 1300 receives a game image, a game, A game program or the like for generating sound is delivered to the terminals 1304-1 to 1304-n. On the other hand, if it cannot be generated stand-alone, the host device 1300 generates a game image and a game sound, which is transmitted to the terminals 1304-1 to 1304-n and output at the terminal.

なお本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。   The present invention is not limited to that described in the above embodiment, and various modifications can be made.

例えば仮想カメラを振動させる手法は、図13〜図15(C)等を用いて説明した手法が特に望ましいが、これ以外にも種々の変形実施が可能である。   For example, as the method for vibrating the virtual camera, the method described with reference to FIGS. 13 to 15C and the like is particularly desirable, but various other modifications are possible.

また移動体が移動するエリアに応じて、仮想カメラの振動の周期や振幅や波形を変化させる手法は、図9〜図12で説明した手法が特に望ましいが、これ以外にも種々の変形実施が可能である。例えば図14(A)で説明したコースブロックの各々に、振動の周期等を特定するための属性データを設定し、この属性データに基づいて振動の周期等を切り替えてもよい。   The method described with reference to FIGS. 9 to 12 is particularly preferable as a method of changing the vibration period, amplitude, and waveform of the virtual camera in accordance with the area in which the moving body moves. Is possible. For example, attribute data for specifying the vibration period and the like may be set in each of the course blocks described with reference to FIG. 14A, and the vibration period and the like may be switched based on the attribute data.

例えば本実施形態では自転車の競争ゲームに本発明を適用した場合について説明したが、本発明はこれに限らず種々のゲーム(他の競争ゲーム、スポーツゲーム、対戦ゲーム等)に適用できる。   For example, in the present embodiment, the case where the present invention is applied to a bicycle competition game has been described. However, the present invention is not limited to this and can be applied to various games (other competition games, sports games, battle games, etc.).

また本発明は、家庭用、業務用のゲーム装置のみならず、シミュレータ、多数のプレーヤが参加する大型アトラクション装置、パーソナルコンピュータ、マルチメディア端末、ゲーム画像を生成するシステム基板等の種々の画像生成装置にも適用できる。   The present invention is not limited to home and business game devices, but also various image generation devices such as a simulator, a large attraction device in which a large number of players participate, a personal computer, a multimedia terminal, and a system board for generating game images. It can also be applied to.

本実施形態の画像生成装置の外観図の一例である。It is an example of the external view of the image generation apparatus of this embodiment. 本実施形態の画像生成装置の機能ブロック図の一例である。It is an example of the functional block diagram of the image generation apparatus of this embodiment. 本実施形態の原理について説明するための図である。It is a figure for demonstrating the principle of this embodiment. 本実施形態により生成される画像の例を示す図である。It is a figure which shows the example of the image produced | generated by this embodiment. 図5(A)、(B)は仮想カメラの制御に関する種々の手法について説明するための図である。5A and 5B are diagrams for explaining various methods related to control of the virtual camera. 仮想カメラの振動の周期等と移動体の振動の周期等を異ならせる手法について説明するための図である。It is a figure for demonstrating the method of making the vibration period etc. of a virtual camera differ, and the vibration period of a moving body. 移動体が飛んだ場合に仮想カメラの振動を停止する手法について説明するための図である。It is a figure for demonstrating the method of stopping the vibration of a virtual camera when a moving body flies. 図8(A)、(B)は、移動体の速度に応じて仮想カメラの振動の周期や振幅を変化させる手法について説明するための図である。8A and 8B are diagrams for explaining a method of changing the vibration period and amplitude of the virtual camera in accordance with the speed of the moving body. エリア毎に仮想カメラの振動の周期等を異ならせる手法について説明するための図である。It is a figure for demonstrating the method of varying the vibration period etc. of a virtual camera for every area. 本実施形態により生成される画像の例を示す図である。It is a figure which shows the example of the image produced | generated by this embodiment. 複数のポリゴンにより構成されるコースの例を示す図である。It is a figure which shows the example of the course comprised by a some polygon. 各ポリゴンへの属性データの設定について説明するための図である。It is a figure for demonstrating the setting of the attribute data to each polygon. 本実施形態の詳細な処理例を説明するためのフローチャートである。It is a flowchart for demonstrating the detailed process example of this embodiment. 図14(A)、(B)、(C)は、コースブロックについて説明するための図である。FIGS. 14A, 14B, and 14C are diagrams for explaining the course block. 図15(A)、(B)、(C)は各種の波形データの例について説明するための図である。FIGS. 15A, 15 </ b> B, and 15 </ b> C are diagrams for explaining examples of various waveform data. 本実施形態を実現できるハードウェアの構成の一例を示す図である。It is a figure which shows an example of the structure of the hardware which can implement | achieve this embodiment. 図17(A)、(B)は、本実施形態が適用される種々の形態の装置の例を示す図である。FIGS. 17A and 17B are diagrams illustrating examples of various types of apparatuses to which the present embodiment is applied.

符号の説明Explanation of symbols

10 操作部
12 表示部
16 ライディング筐体
17 サドル
18 ディスプレイ
20 移動体(自転車)
22 仮想カメラ
24 視点位置
26 視線方向
30 ペダル
32 ハンドル
40 コース
100 処理部
110 ゲーム演算部
112 移動体演算部
114 仮想カメラ制御部
150 画像生成部
190 情報記憶媒体
DESCRIPTION OF SYMBOLS 10 Operation part 12 Display part 16 Riding housing | casing 17 Saddle 18 Display 20 Mobile body (bicycle)
22 Virtual camera 24 View point position 26 Gaze direction 30 Pedal 32 Handle 40 Course 100 Processing unit 110 Game calculation unit 112 Moving body calculation unit 114 Virtual camera control unit 150 Image generation unit 190 Information storage medium

Claims (8)

オブジェクト空間内の所与の視点での画像を生成する画像生成装置であって、
フレーム毎に移動体の位置を求めてオブジェクト空間内で移動体を移動させる演算を行う移動体演算手段と、
仮想カメラを前記移動体に追従するように移動させる処理を行うと共に、前記移動体の位置に応じた属性データをフレーム毎に読み出して前記仮想カメラを振動させる処理を行う仮想カメラ制御手段と、
前記仮想カメラから見える画像であって、前記移動体の画像を含む3人称視点での画像を生成する画像生成手段とを含み、
前記仮想カメラ制御手段が、
前記移動体が所定の動作を行うことに基づいて、前記仮想カメラを振動させる処理を省略することを特徴とする画像生成装置。
An image generation device that generates an image at a given viewpoint in an object space,
A moving object calculation means for calculating the position of the moving object for each frame and performing an operation for moving the moving object in the object space;
Virtual camera control means for performing processing for moving the virtual camera so as to follow the moving body, and performing processing for reading the attribute data corresponding to the position of the moving body for each frame and vibrating the virtual camera;
An image generation unit that generates an image viewed from the virtual camera, and that generates an image from a third-person viewpoint including the image of the moving object;
The virtual camera control means is
An image generating apparatus characterized in that a process of vibrating the virtual camera is omitted based on the moving body performing a predetermined operation .
請求項1において、
前記移動体演算手段が、
前記移動体の一部又は全部を、前記仮想カメラの振動とは周期、振幅及び波形の少なくとも1つが異なるように振動させることを特徴とする画像生成装置。
In claim 1,
The moving body computing means is
An image generating apparatus, wherein a part or all of the moving body is vibrated so that at least one of a period, an amplitude, and a waveform is different from the vibration of the virtual camera.
請求項1又は2において、
前記仮想カメラ制御手段が、
前記移動体が飛んでいる場合及び転倒している場合の少なくとも一方の場合に前記仮想カメラを振動させる処理を省略することを特徴とする画像生成装置。
In claim 1 or 2,
The virtual camera control means is
An image generation apparatus characterized by omitting a process of vibrating the virtual camera in at least one of a case where the moving body is flying and a case where the mobile body is falling.
請求項1乃至3のいずれかにおいて、
前記仮想カメラ制御手段が、
前記移動体の速度が高くなるにつれて、前記仮想カメラの振動の周期を短くすることを特徴とする画像生成装置。
In any one of Claims 1 thru | or 3,
The virtual camera control means is
The image generation apparatus characterized by shortening the period of vibration of the virtual camera as the speed of the moving body increases.
請求項1乃至4のいずれかにおいて、
前記仮想カメラ制御手段が、
前記移動体の速度が高くなるにつれて、前記仮想カメラの振動の振幅を大きくすることを特徴とする画像生成装置。
In any one of Claims 1 thru | or 4,
The virtual camera control means is
An image generating apparatus characterized by increasing the amplitude of vibration of the virtual camera as the speed of the moving body increases.
請求項1乃至5のいずれかにおいて、
前記仮想カメラ制御手段が、
前記移動体が移動するエリアに応じて、前記仮想カメラの振動の周期、振幅及び波形の少なくとも1つを変化させることを特徴とする画像生成装置。
In any one of Claims 1 thru | or 5,
The virtual camera control means is
An image generating apparatus, wherein at least one of a vibration period, an amplitude, and a waveform of the virtual camera is changed according to an area in which the moving body moves.
請求項6において、
前記移動体が移動するマップを構成する各プリミティブ面に、前記仮想カメラの振動の周期、振幅及び波形の少なくとも1つを特定するための属性データを持たせ、
前記仮想カメラ制御手段が、
移動体が位置するプリミティブ面が有する属性データに基づいて、前記仮想カメラを振動させることを特徴とする画像生成装置。
In claim 6,
Each primitive surface constituting the map in which the moving body moves has attribute data for specifying at least one of the vibration period, amplitude, and waveform of the virtual camera,
The virtual camera control means is
An image generating apparatus characterized in that the virtual camera is vibrated based on attribute data of a primitive surface on which a moving body is located.
オブジェクト空間内の所与の視点での画像を生成するための、コンピュータ読み取り可能な情報記憶媒体であって、
フレーム毎に移動体の位置を求めてオブジェクト空間内で移動体を移動させる演算を行う移動体演算手段と、
仮想カメラを前記移動体に追従するように移動させる処理を行うと共に、前記移動体の位置に応じた属性データをフレーム毎に読み出して前記仮想カメラを振動させる処理を行う仮想カメラ制御手段と、
前記仮想カメラから見える画像であって、前記移動体の画像を含む3人称視点での画像を生成する画像生成手段してコンピュータを機能させ、
前記仮想カメラ制御手段に、前記移動体が所定の動作を行うことに基づいて、前記仮想カメラを振動させる処理を省略するプログラムを記憶することを特徴とする情報記憶媒体。
A computer-readable information storage medium for generating an image at a given viewpoint in an object space,
A moving object calculation means for calculating the position of the moving object for each frame and performing an operation for moving the moving object in the object space;
Virtual camera control means for performing processing for moving the virtual camera so as to follow the moving body, and performing processing for reading attribute data corresponding to the position of the moving body for each frame and vibrating the virtual camera;
An image generating means for generating an image seen from the virtual camera and generating an image from a third person viewpoint including the image of the moving object, and causing the computer to function,
An information storage medium storing a program for omitting a process of vibrating the virtual camera based on the moving body performing a predetermined operation in the virtual camera control means.
JP2007263247A 2007-10-09 2007-10-09 Image generating apparatus and information storage medium Expired - Fee Related JP4397410B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007263247A JP4397410B2 (en) 2007-10-09 2007-10-09 Image generating apparatus and information storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007263247A JP4397410B2 (en) 2007-10-09 2007-10-09 Image generating apparatus and information storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP35213897A Division JP4114822B2 (en) 1997-12-05 1997-12-05 Image generating apparatus and information storage medium

Publications (2)

Publication Number Publication Date
JP2008033964A JP2008033964A (en) 2008-02-14
JP4397410B2 true JP4397410B2 (en) 2010-01-13

Family

ID=39123234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007263247A Expired - Fee Related JP4397410B2 (en) 2007-10-09 2007-10-09 Image generating apparatus and information storage medium

Country Status (1)

Country Link
JP (1) JP4397410B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8619080B2 (en) 2008-09-08 2013-12-31 Disney Enterprises, Inc. Physically present game camera
JP5317911B2 (en) * 2009-09-28 2013-10-16 任天堂株式会社 Information processing program and information processing apparatus
KR101507242B1 (en) * 2013-10-21 2015-03-31 포항공과대학교 산학협력단 Apparatus and method for providing motion haptic effect using video analysis
JP6395687B2 (en) * 2015-10-16 2018-09-26 株式会社カプコン Video generation method, video generation program, and video generation apparatus

Also Published As

Publication number Publication date
JP2008033964A (en) 2008-02-14

Similar Documents

Publication Publication Date Title
JP2010022646A (en) Program, information storage medium, and image generation system
JP3707995B2 (en) GAME SYSTEM AND INFORMATION STORAGE MEDIUM
JP4114822B2 (en) Image generating apparatus and information storage medium
JP4397410B2 (en) Image generating apparatus and information storage medium
JP4508918B2 (en) Image generation system and information storage medium
JPH11146978A (en) Three-dimensional game unit, and information recording medium
JP6935218B2 (en) Simulation system and program
JPH11175748A (en) Image generating device and information storage medium
JP2009213559A (en) Game apparatus
JP2004325828A (en) Simulator, program, and information storage medium
JP4223139B2 (en) Image generating apparatus and information storage medium
JP3527578B2 (en) Game device
JP3844396B2 (en) GAME DEVICE AND INFORMATION STORAGE MEDIUM
JP3753338B2 (en) 3D simulator apparatus and image composition method
JP4212015B2 (en) Image generating apparatus and information storage medium
JP3127137B2 (en) Image generation device and information storage medium
JP2015008987A (en) Program and game device
JP2007181713A (en) Game machine and information storage medium
JP4036508B2 (en) Image generating apparatus and information storage medium
JPH10113465A (en) Game device, screen generating method, and information memory medium
JP4036509B2 (en) Image generating apparatus and information storage medium
JP4560532B2 (en) Image generating apparatus and information storage medium
JP2005122479A (en) Program, information storage medium and image forming apparatus
JP6392512B2 (en) Program and game device
JP5377868B2 (en) Program, information storage medium, and game system

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071105

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090204

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090403

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090603

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090902

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091014

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091020

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131030

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees