JP7051374B2 - Image processing device, image processing program - Google Patents

Image processing device, image processing program Download PDF

Info

Publication number
JP7051374B2
JP7051374B2 JP2017213831A JP2017213831A JP7051374B2 JP 7051374 B2 JP7051374 B2 JP 7051374B2 JP 2017213831 A JP2017213831 A JP 2017213831A JP 2017213831 A JP2017213831 A JP 2017213831A JP 7051374 B2 JP7051374 B2 JP 7051374B2
Authority
JP
Japan
Prior art keywords
image
display
game
virtual
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017213831A
Other languages
Japanese (ja)
Other versions
JP2019086961A (en
Inventor
豊 小野
Original Assignee
株式会社タイトー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社タイトー filed Critical 株式会社タイトー
Priority to JP2017213831A priority Critical patent/JP7051374B2/en
Publication of JP2019086961A publication Critical patent/JP2019086961A/en
Application granted granted Critical
Publication of JP7051374B2 publication Critical patent/JP7051374B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、画像処理装置、画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program.

従来、自動車や電車などの車両、あるいは航空機などを仮想3次元空間(オブジェクト空間)で移動させるゲーム装置(画像処理装置)が知られている。ゲーム装置は、仮想3次元空間に仮想的にカメラ(視点)位置を設定し、このカメラから仮想3次元空間を見た様子を表す画像(3DCG(computer graphics)画像)を生成して、ディスプレイに表示させる。ゲーム装置は、例えばユーザの操作に応じて制御される車両や航空機の位置やスピード等に応じて、3DCG画像を生成する。 Conventionally, a game device (image processing device) for moving a vehicle such as an automobile or a train, or an aircraft in a virtual three-dimensional space (object space) is known. The game device virtually sets the camera (viewpoint) position in the virtual three-dimensional space, generates an image (3DCG (computer graphics) image) showing the state of viewing the virtual three-dimensional space from this camera, and displays it on the display. Display it. The game device generates a 3DCG image according to, for example, the position and speed of a vehicle or an aircraft controlled according to a user's operation.

また、従来のゲーム装置は、車両や航空機のスピードに応じて変化する3DCG画像を表示するだけでなく、よりスピード感が得られるように、仮想カメラの位置を移動させて画角を変更して3DCG画像を生成するものがある(例えば、特許文献1)。特許文献1に記載のゲーム装置では、カメラの角度やカメラの配置位置を移動させて画角を広くすることで、スピード感が増した映像を得ることができるようにしている。 In addition, the conventional game device not only displays a 3DCG image that changes according to the speed of the vehicle or aircraft, but also moves the position of the virtual camera to change the angle of view so as to obtain a more sense of speed. Some generate 3DCG images (eg, Patent Document 1). In the game device described in Patent Document 1, the angle of the camera and the position of the camera are moved to widen the angle of view so that an image with an increased sense of speed can be obtained.

特開2006-326331号公報Japanese Unexamined Patent Publication No. 2006-326331

このように従来技術では、画角を調整することでスピード感を変化させる画像処理が行われている。しかしながら、スピード感を増すために画角を広くすると表示対象とする仮想3次元空間の範囲が拡大し、拡大した範囲の3DCG画像を表示するためにその分の仮想3次元空間のデータが必要となる。また拡張した範囲についての3DCG画像を生成するための画像処理が増大し、画角の変化に応じて表示対象とする仮想3次元空間の範囲が変動すると処理が複雑化してしまう。従来の画像処理では、画角を広げることにより拡張した範囲の仮想3次元空間のデータが増大し、画像処理の負荷が増大することについて考慮されていない。 As described above, in the prior art, image processing that changes the sense of speed by adjusting the angle of view is performed. However, if the angle of view is widened to increase the sense of speed, the range of the virtual 3D space to be displayed expands, and data in the virtual 3D space is required to display the 3DCG image in the expanded range. Become. Further, the image processing for generating a 3DCG image for the expanded range increases, and the processing becomes complicated when the range of the virtual three-dimensional space to be displayed changes according to the change in the angle of view. In the conventional image processing, it is not considered that the data in the virtual three-dimensional space in the expanded range increases by widening the angle of view, and the load of the image processing increases.

本発明は前述した事情に考慮してなされたもので、その目的は、画像処理の対象となる仮想3次元空間のデータを増大させることなく、スピード感を増した3DCG画像を生成することが可能な画像処理装置、画像処理プログラムを提供することにある。 The present invention has been made in consideration of the above-mentioned circumstances, and an object thereof is to be able to generate a 3DCG image with an increased sense of speed without increasing the data in the virtual three-dimensional space to be image-processed. The purpose is to provide various image processing devices and image processing programs.

上記の課題を解決するために、本発明の画像処理装置は、画像全体をそれぞれに対応する範囲について区分して表示する、前記画像全体の中央を含む範囲を表示する第1ディスプレイと、前記第1ディスプレイに表示される画像と連続する、前記画像全体の端部近傍側の画像を表示する少なくとも1つの第2ディスプレイと、仮想3次元空間に設定される仮想カメラの位置を変更する変更手段と、前記仮想カメラから前記仮想3次元空間を見た画像を、前記仮想カメラの画角に含まれるオブジェクトを前記第1ディスプレイに対応する第1透視投影面と前記第2ディスプレイ対応する第2透視投影面のそれぞれに投影して生成する画像生成手段と、前記第1透視投影面に投影して生成された第1画像を前記第1ディスプレイに表示させ、前記第2透視投影面に投影して生成された画像を、前記第1画像から前記画像全体の端部の方向に引き伸ばした第2画像を前記第2ディスプレイに表示させる画像処理手段とを有する。 In order to solve the above problems, the image processing apparatus of the present invention has a first display for displaying a range including the center of the entire image, which displays the entire image separately for a corresponding range, and the first display. At least one second display that displays an image near the end of the entire image continuous with the image displayed on one display, and a changing means for changing the position of the virtual camera set in the virtual three-dimensional space. An image of the virtual three-dimensional space viewed from the virtual camera, and an object included in the angle of view of the virtual camera are viewed through a first perspective projection surface corresponding to the first display and a second perspective corresponding to the second display . An image generation means generated by projecting onto each of the projection planes and a first image generated by projecting onto the first perspective projection plane are displayed on the first display and projected onto the second perspective projection plane. It has an image processing means for displaying a second image obtained by stretching the generated image from the first image toward the end of the entire image on the second display .

本発明によれば、画像処理の対象となる仮想3次元空間のデータを増大させることなく、スピード感を増した3DCG画像を生成することが可能となる。 According to the present invention, it is possible to generate a 3DCG image with an increased sense of speed without increasing the data in the virtual three-dimensional space to be image-processed.

本実施形態におけるゲーム装置20の筐体50の外観斜視図。The external perspective view of the housing 50 of the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20の筐体50に収容される操作部の外観を示す外観図。The external view which shows the appearance of the operation part housed in the housing 50 of the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20の操作部に設けられる運転台60の外観を示す斜視図。The perspective view which shows the appearance of the driver's cab 60 provided in the operation part of the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20の機能構成を示すブロック図。The block diagram which shows the functional structure of the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20のディスプレイ62,63R,63L、及びタッチパネル77の表示例を示す図。The figure which shows the display example of the display 62, 63R, 63L, and the touch panel 77 of the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム装置20によるゲーム画像の表示制御を説明するための図。The figure for demonstrating the display control of the game image by the game apparatus 20 in this embodiment. 本実施形態におけるゲーム画像の表示制御の動作を示すフローチャート。The flowchart which shows the operation of the display control of a game image in this embodiment.

以下、図面を参照して本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

実施の形態では、ゲーム装置によって画像処理装置が実現されるものとして説明する。なお、本発明の画像処理装置は、ゲーム装置に限らず、仮想3次元空間に仮想的にカメラ(視点)の位置を設定し、このカメラから仮想3次元空間を見た様子を表す画像(3DCG(computer graphics)画像)を生成する他の装置により実現されても良い。 In the embodiment, it is assumed that the image processing device is realized by the game device. The image processing device of the present invention is not limited to the game device, but an image (3DCG) showing a state in which a camera (viewpoint) is virtually set in a virtual three-dimensional space and the virtual three-dimensional space is viewed from this camera. It may be realized by another device that generates (computer graphics) images.

図1、図2、及び図3は、本実施形態におけるゲーム装置20の外観構成を示す図である。ゲーム装置20は、例えば運転シミュレーションゲームを提供するもので、仮想3次元空間において線路上を走行する電車(オブジェクト)をプレーヤの操作に応じて制御する。ゲーム装置20は、電車の走行に応じて運転台から見た景色を表す3DCG画像を生成して、ディスプレイに表示させる。 1, FIG. 2, and FIG. 3 are views showing the appearance configuration of the game device 20 in the present embodiment. The game device 20 provides, for example, a driving simulation game, and controls a train (object) traveling on a railroad track in a virtual three-dimensional space according to a player's operation. The game device 20 generates a 3DCG image showing the scenery seen from the driver's cab according to the running of the train, and displays it on the display.

図1は、ゲーム装置20の筐体50の外観斜視図、図2は、ゲーム装置20の筐体50に収容される操作部の外観を示す外観図、図3は、ゲーム装置20の操作部に設けられる運転台60の外観を示す斜視図をそれぞれ示している。 FIG. 1 is an external perspective view of the housing 50 of the game device 20, FIG. 2 is an external view showing the appearance of an operation unit housed in the housing 50 of the game device 20, and FIG. 3 is an operation unit of the game device 20. A perspective view showing the appearance of the driver's cab 60 provided in the above is shown.

図1に示すように、本実施形態におけるゲーム装置20の筐体50は、ほぼ箱形をしており、前面の一部を側板52A,52B、右側面を側板51R、左側面を側板51Lにより覆っている。筐体50の前面の例えば右側には、側板を設けておらず、プレーヤが筐体50の内部に出入りするための出入り口53が形成されている。側板52A,52B,側板51R,側板51Lのそれぞれには、ガラスやアクリル板などの透明な部材による形成された透明窓52Aa,52Ba,51Raが設けられている。これにより、筐体50の外部からでも、筐体50の内部において運転台60を操作しているプレーヤの様子や、ディスプレイに表示された画像などを視認することができる。 As shown in FIG. 1, the housing 50 of the game apparatus 20 in the present embodiment has a substantially box shape, and a part of the front surface is formed by side plates 52A and 52B, the right side surface is formed by side plates 51R, and the left side surface is formed by side plates 51L. Covering. A side plate is not provided on, for example, the right side of the front surface of the housing 50, and an entrance / exit 53 for a player to enter and exit the inside of the housing 50 is formed. Each of the side plates 52A, 52B, side plates 51R, and side plates 51L is provided with transparent windows 52Aa, 52Ba, 51Ra formed of transparent members such as glass and acrylic plates. As a result, even from the outside of the housing 50, the state of the player operating the driver's cab 60 inside the housing 50, the image displayed on the display, and the like can be visually recognized.

また、出入り口53の近傍、例えば側板52Bには、カードリーダ54が設けられている。カードリーダ54は、プレーヤがカードリーダ54によってプレーヤ識別用のカードの読み取り操作をし易いように、例えばプレーヤの腰の高さくらいの位置に設けられる。カードリーダ54は、カード固有のデータ(カードID)を記憶するゲーム用カード(記憶媒体)から、非接触による近接無線通信によってデータの読出しをする。プレーヤは、例えば筐体50の内部に入る前に、ゲーム用カードをカードリーダ54にゲーム用カードを近接させる(かざす)ことにより、ゲーム用カードに記録されたカードIDを読み取らせることができる。また、筐体50の前面上部には、LEDパネル55が設けられている。LEDパネル55では、例えばゲームタイトルやゲームの実行状態等が表示される。 Further, a card reader 54 is provided in the vicinity of the doorway 53, for example, in the side plate 52B. The card reader 54 is provided, for example, at a position about the waist height of the player so that the player can easily read the card for player identification by the card reader 54. The card reader 54 reads data from a game card (storage medium) that stores card-specific data (card ID) by non-contact proximity wireless communication. The player can read the card ID recorded on the game card by, for example, bringing the game card close to (holding) the game card over the card reader 54 before entering the inside of the housing 50. Further, an LED panel 55 is provided on the upper part of the front surface of the housing 50. On the LED panel 55, for example, a game title, a game execution state, and the like are displayed.

図2に示すように、筐体50の内部の正面中央には運転台60が設置されており、運転台60の中央上部にディスプレイ62が設けられ、ディスプレイ62の右側にディスプレイ63R、左側にディスプレイ63Lが設置されている。ゲーム装置20は、3つのディスプレイ62,63R,63Lによって、運転シミュレーションゲーム時に運転席前方の景色を表すゲーム画像(映像)表示する。また、3つのディスプレイ62,63R,63Lには、ゲーム状況に応じて、それぞれ異なる内容の画像を個別に表示させることも可能である。 As shown in FIG. 2, a driver's cab 60 is installed in the center of the front inside the housing 50, a display 62 is provided in the upper center of the driver's cab 60, a display 63R is provided on the right side of the display 62, and a display is displayed on the left side. 63L is installed. The game device 20 displays a game image (video) showing the scenery in front of the driver's seat during a driving simulation game on the three displays 62, 63R, 63L. Further, it is also possible to individually display images having different contents on the three displays 62, 63R, 63L according to the game situation.

なお、筐体50の内部には、例えば複数箇所に異なる色の照明が可能な複数のライト(図4に示すライト55a1,55a2,…,55am)が取り付けられる。複数のライトは、通常の照明に使用される他、例えばゲーム開始前などに点灯/点滅により演出のために使用される。 Inside the housing 50, for example, a plurality of lights (lights 55a1, 55a2, ..., 55am shown in FIG. 4) capable of illuminating different colors at a plurality of places are attached. In addition to being used for normal lighting, the plurality of lights are used for directing by turning on / blinking, for example, before the start of a game.

図3に示すように、運転台60の操作面70には、マスコン(マスタコントローラ)72、ブレーキレバー73、コイン投入口(図示せず)等が設けられる。 As shown in FIG. 3, the operation surface 70 of the cab 60 is provided with a mass controller (master controller) 72, a brake lever 73, a coin slot (not shown), and the like.

マスコン72は、運転シミュレーションゲームの実行時にプレーヤにより操作されるもので、実際の電車に実装されたマスタコントローラを模して構成されている。1つのマスコン72によって電車の加速と減速(制動)を制御することができる。ブレーキレバー73は、実際の電車を模して設けられている。なお、ブレーキレバー73は、マスコン72によって電車の制動のための操作も可能であるため、操作をしなくても運転シミュレーションを実行可能であるが、ブレーキレバー73により制動の操作をしたり、急ブレーキやゲームの特別な機能(表示内容の切り替えなど)の制御のための操作をしたりするために用いることができる。 The mass control 72 is operated by the player when the driving simulation game is executed, and is configured to imitate a master controller mounted on an actual train. The acceleration and deceleration (braking) of the train can be controlled by one mascon 72. The brake lever 73 is provided to imitate an actual train. Since the brake lever 73 can also be operated for braking the train by the mascon 72, it is possible to execute a driving simulation without operating the brake lever 73, but the brake lever 73 can be used for braking or suddenly. It can be used to control brakes and special functions of the game (such as switching display contents).

運転台60の上部前部中央には、タッチパネル77が設けられる。タッチパネル77には、運転シミュレーションの実行時に、電車の状態を表す各種情報、例えば圧力計、速度計、その他信号状態、警告灯、室内空調、行き先、車内案内、ボタンやスイッチなどを表す画像を表示する。タッチパネル77は、プレーヤによるタッチ操作を検知することができる。タッチパネル77には、例えばプレーヤが選択したゲーム対象とする路線を走行する電車に応じた、電車毎に異なる画像を表示させることができる。 A touch panel 77 is provided in the center of the upper front portion of the driver's cab 60. The touch panel 77 displays various information indicating the state of the train, such as a pressure gauge, a speedometer, other signal states, warning lights, indoor air conditioning, destinations, vehicle interior guidance, buttons and switches, etc., when the driving simulation is executed. do. The touch panel 77 can detect a touch operation by the player. On the touch panel 77, for example, a different image can be displayed for each train according to the train traveling on the route targeted for the game selected by the player.

また、運転台60の上部前部左右には、それぞれスピーカ78R,78Lが設けられる。なお、運転台60の正面(側板52Bの筐体50内部側)には、プレーヤが座るための座席56(図1に示す)が設けられている。側板52Bの筐体50内部側には、プレーヤが座席56に座った時の頭近くの左右位置に、例えば2つのスピーカ(図4に示すスピーカ78BL,78BR)が設けられる。ゲーム装置20は、プレーヤの前方と後方にそれぞれ設けられたスピーカによって、実際に電車を走行している時と同様の効果音を出力させることができる。運転台60の下部には、プレーヤが足によって操作するペダル79が設けられる。 Further, speakers 78R and 78L are provided on the left and right sides of the upper front portion of the driver's cab 60, respectively. A seat 56 (shown in FIG. 1) for a player to sit on is provided on the front surface of the driver's cab 60 (inside the housing 50 of the side plate 52B). On the inner side of the housing 50 of the side plate 52B, for example, two speakers (speakers 78BL and 78BR shown in FIG. 4) are provided at left and right positions near the head when the player sits on the seat 56. The game device 20 can output the same sound effect as when actually traveling on the train by the speakers provided in front of and behind the player, respectively. At the bottom of the driver's cab 60, a pedal 79 operated by the player with his / her foot is provided.

図4は、本実施形態におけるゲーム装置20の機能構成を示すブロック図である。
図4に示すように、ゲーム装置20は、制御部90、記憶部92、ディスプレイコントローラ93、タッチパネルコントローラ94、サウンドコントローラ95、ライティングコントローラ96、入力インタフェース97、及びコインセンサ99を有している。
FIG. 4 is a block diagram showing a functional configuration of the game device 20 in the present embodiment.
As shown in FIG. 4, the game device 20 has a control unit 90, a storage unit 92, a display controller 93, a touch panel controller 94, a sound controller 95, a writing controller 96, an input interface 97, and a coin sensor 99.

制御部90は、ゲーム装置20全体の制御を司るもので、プロセッサ(CPUやDSP)やメモリ等を含む。制御部90は、記憶部92に記憶された基本プログラム(OS(Operating System))や各種アプリケーションプログラムをプロセッサにより実行することで各部を制御する。制御部90は、記憶部92に記憶されたゲームプログラム92aを実行することで、マスコン72の操作レバーに対する入力操作に応じて制御されるゲームを実行するための各種機能を実現する。 The control unit 90 controls the entire game device 20, and includes a processor (CPU, DSP), a memory, and the like. The control unit 90 controls each unit by executing the basic program (OS (Operating System)) stored in the storage unit 92 and various application programs by the processor. By executing the game program 92a stored in the storage unit 92, the control unit 90 realizes various functions for executing a game controlled in response to an input operation to the operation lever of the mascon 72.

制御部90により実現される機能には、ゲーム処理部90a(ゲーム映像表示処理部90a1、操作処理部90a2)、入力制御部90bが含まれる。 The functions realized by the control unit 90 include a game processing unit 90a (game video display processing unit 90a1 and operation processing unit 90a2) and an input control unit 90b.

ゲーム処理部90aは、ゲームデータ92cに基づいて、プレーヤにより指定されたゲームモードによるゲームを制御する。ゲーム処理部90aには、ゲーム映像表示処理部90a1、操作処理部90a2の機能が含まれる。 The game processing unit 90a controls the game in the game mode designated by the player based on the game data 92c. The game processing unit 90a includes the functions of the game video display processing unit 90a1 and the operation processing unit 90a2.

ゲーム映像表示処理部90a1は、ゲームデータ92cをもとに、運転シミュレーションする路線における運転席前方の景色を表すゲーム画像やゲームに関する各種情報、さらにはデモンストレーション用画像や演出用画像などをディスプレイ62,63L,63Rに表示させる他、プレーヤの入力操作に関係する各種情報をタッチパネル77(ディスプレイ77a)に表示させる。ゲーム映像表示処理部90a1は、ディスプレイ62,63L,63Rにおいて表示させる運転席前方の景色を表す3DCG画像(映像)を生成する。 Based on the game data 92c, the game video display processing unit 90a1 displays a game image showing the scenery in front of the driver's seat on the route to be simulated for driving, various information about the game, a demonstration image, a production image, and the like. In addition to displaying on the 63L and 63R, various information related to the input operation of the player is displayed on the touch panel 77 (display 77a). The game image display processing unit 90a1 generates a 3DCG image (video) representing the scenery in front of the driver's seat to be displayed on the displays 62, 63L, 63R.

操作処理部90a2は、入力制御部90bを通じて入力される、マスコン72及びペダル79に設けられたペダルセンサ79aに対する操作に応じた入力データをもとに、入力データに応じた加速、減速(制動)、速度の各データを生成する。 The operation processing unit 90a2 accelerates and decelerates (brakes) according to the input data based on the input data input through the input control unit 90b and corresponding to the operation of the pedal sensor 79a provided on the mass controller 72 and the pedal 79. , Generate each speed data.

入力制御部90bは、入力インタフェース97を通じて入力されるプレーヤの操作に応じた、マスコン72a及びペダル79に設けられたペダルセンサ79aからのデータ入力を制御する。 The input control unit 90b controls data input from the pedal sensor 79a provided on the mass controller 72a and the pedal 79 in response to the player's operation input through the input interface 97.

記憶部92は、ゲーム装置20において実行されるゲームを制御するためのプログラムやデータを記憶する。記憶部92に記憶されるプログラムには、基本プログラムの他、ゲーム装置20においてゲームを実行するためのゲームプログラム92a、ゲーム用映像(画像)を生成するゲーム映像処理プログラム92b(画像処理プログラム)が含まれる。ゲームプログラム92a及びゲーム映像処理プログラム92bは、プロセッサ等により実行されることで各種機能を実現することができる。 The storage unit 92 stores programs and data for controlling the game executed in the game device 20. In addition to the basic program, the program stored in the storage unit 92 includes a game program 92a for executing a game on the game device 20 and a game video processing program 92b (image processing program) for generating a game video (image). included. The game program 92a and the game video processing program 92b can realize various functions by being executed by a processor or the like.

ゲーム映像処理プログラム92bは、電車の走行に応じて運転台60から見た景色を表す3DCG画像を生成して、ディスプレイに表示させるためのゲーム映像表示処理を実行する。本実施形態では、ゲーム空間を走行する電車の速度に応じて、仮想3次元空間に設定されるカメラ(視点)からの画角を変化させる。すなわち、電車の速度が上がるのに応じて、仮想3次元空間に設定される仮想カメラ(視点)の位置(ディスプレイ62,63R,63Lとカメラとの距離)を変更して画角を広げて、スピード感が増すように感じられる画像を生成する。本実施形態では、画角を広げることにより拡張した範囲の仮想3次元空間のデータを増大をさせることなく画像を生成する。 The game video processing program 92b generates a 3DCG image representing the scenery seen from the driver's cab 60 according to the running of the train, and executes the game video display processing for displaying on the display. In the present embodiment, the angle of view from the camera (viewpoint) set in the virtual three-dimensional space is changed according to the speed of the train traveling in the game space. That is, as the speed of the train increases, the position of the virtual camera (viewpoint) set in the virtual three-dimensional space (distance between the displays 62, 63R, 63L and the camera) is changed to widen the angle of view. Generates an image that feels more speedy. In the present embodiment, an image is generated without increasing the data in the virtual three-dimensional space in the expanded range by widening the angle of view.

また、記憶部92には、ゲームデータ92cが記憶される。ゲームデータ92cには、ゲーム装置20により実行される運転シミュレーションを実現する仮想3次元空間(オブジェクト空間)を定義するオブジェクトデータが含まれる。 Further, the game data 92c is stored in the storage unit 92. The game data 92c includes object data that defines a virtual three-dimensional space (object space) that realizes a driving simulation executed by the game device 20.

入力インタフェース97は、制御部90の制御のもとで、マスコン72aの操作レバーに対する操作に応じたセンサデータ及びペダル79に対する操作に応じたペダルセンサ79aからのセンサデータの入力を制御する。 Under the control of the control unit 90, the input interface 97 controls the input of the sensor data corresponding to the operation of the operation lever of the mascon 72a and the sensor data from the pedal sensor 79a corresponding to the operation of the pedal 79.

タッチパネルコントローラ94は、制御部90の制御のもとで、タッチパネル77を制御する。タッチパネル77は、ディスプレイ77aとタッチパッド77bを含む。 The touch panel controller 94 controls the touch panel 77 under the control of the control unit 90. The touch panel 77 includes a display 77a and a touch pad 77b.

サウンドコントローラ95は、制御部90の制御のもとで、スピーカ78L,78R,78BL,78BR、ヘッドホン端子57からの音声出力を制御する。サウンドコントローラ95は、ヘッドホン端子57にヘッドホンのプラグが装着された場合、スピーカ78L,78R,78BL,78BRから音声出力を停止させる。また、サウンドコントローラ95には、ボリュームボタン58、マイク59が接続される。ボリュームボタン58は、例えば筐体の内部に収容されたゲーム装置20の管理者用の制御パネルに設けられ、音量バランスの調整などに使用される。マイク59は、例えば運転シミュレーションを2人で実行する場合に(2人モード)、車掌としてプレーするプレーヤの音声を入力するために使用される。 The sound controller 95 controls the audio output from the speakers 78L, 78R, 78BL, 78BR, and the headphone terminal 57 under the control of the control unit 90. When the headphone plug is attached to the headphone terminal 57, the sound controller 95 stops the sound output from the speakers 78L, 78R, 78BL, 78BR. Further, a volume button 58 and a microphone 59 are connected to the sound controller 95. The volume button 58 is provided on, for example, a control panel for the administrator of the game device 20 housed inside the housing, and is used for adjusting the volume balance and the like. The microphone 59 is used to input the voice of a player who plays as a conductor, for example, when a driving simulation is executed by two people (two-person mode).

ライティングコントローラ96は、制御部90の制御のもとで、複数のライト55a1,55a2,…,55amの点灯/点滅、LEDパネル55の表示パターンや色等を制御する。例えば、ライティングコントローラ96は、ゲーム開始前に演出処理部90a3の制御により、カードID(プレーヤ)のそれぞれに対応する演出に応じてライト55a1,55a2,…,55amの点灯や点滅、LEDパネル55の表示パターンなどを切り替える。
コインセンサ99は、コイン投入口から投入されたコインを検知して、制御部90に通知する。
Under the control of the control unit 90, the lighting controller 96 controls lighting / blinking of a plurality of lights 55a1, 55a2, ..., 55am, display patterns and colors of the LED panel 55, and the like. For example, the lighting controller 96 controls the effect processing unit 90a3 before the start of the game, and lights or blinks the lights 55a1, 55a2, ..., 55am according to the effect corresponding to each of the card IDs (players), and the LED panel 55. Switch the display pattern, etc.
The coin sensor 99 detects the coin inserted from the coin insertion slot and notifies the control unit 90.

次に、本実施形態のゲーム装置20によるゲーム画像の表示制御について説明する。
図5は、本実施形態におけるゲーム装置20のディスプレイ62,63R,63L、及びタッチパネル77の表示例を示す図である。ゲーム処理部90aは、ゲームの実行に伴い、ゲーム映像表示処理部90a1(ゲーム映像処理プログラム92b)により、電車の走行に応じて運転台60から見た景色を表す3DCG画像を生成してディスプレイ62,63R,63Lに表示させる。図5では、正面(進行方向)に伸びる線路、隣に並行に敷設された線路、それぞれの線路に対応する架線、線路周辺の構造物、周囲の風景(道路、木、ビル等)などのオブジェクトが表示される。ゲームデータ92cには、ゲーム画像において表示される仮想3D空間に存在する各オブジェクトが定義されており、各オブジェクトのデータをもとに3DCG画像が生成される。
Next, the display control of the game image by the game device 20 of the present embodiment will be described.
FIG. 5 is a diagram showing a display example of the display 62, 63R, 63L and the touch panel 77 of the game device 20 in the present embodiment. As the game is executed, the game processing unit 90a generates a 3DCG image representing the scenery seen from the driver's cab 60 according to the running of the train by the game image display processing unit 90a1 (game image processing program 92b) and displays 62. , 63R, 63L are displayed. In FIG. 5, objects such as railroad tracks extending in the front (traveling direction), railroad tracks laid in parallel next to each other, overhead lines corresponding to each railroad track, structures around the railroad track, and surrounding landscapes (roads, trees, buildings, etc.) Is displayed. Each object existing in the virtual 3D space displayed in the game image is defined in the game data 92c, and a 3DCG image is generated based on the data of each object.

図5に示すように、ディスプレイ62,63R,63Lには、運転席前方の全体の景色を表すゲーム画像のうち、運転台60から見た各ディスプレイの方向に応じた範囲の部分的なゲーム画像がそれぞれ表示される。このため、ディスプレイ62,63R,63Lに表示されるゲーム画像は、運転台60に座ってゲームをするプレーヤに違和感を与えないように、オブジェクトの連続性が維持されるように表示制御される。例えば、ディスプレイ62とディスプレイ63R、あるいはディスプレイ62とディスプレイ63Lとに分けて表示される直線状のオブジェクトは、2つのディスプレイ間で直線を表すように表示される。 As shown in FIG. 5, on the displays 62, 63R, 63L, a partial game image of a range corresponding to the direction of each display seen from the driver's cab 60 among the game images showing the entire view in front of the driver's seat. Are displayed respectively. Therefore, the game images displayed on the displays 62, 63R, 63L are displayed and controlled so that the continuity of the objects is maintained so as not to give a sense of discomfort to the player sitting on the driver's cab 60 and playing the game. For example, a linear object displayed separately on the display 62 and the display 63R, or the display 62 and the display 63L is displayed so as to represent a straight line between the two displays.

以下、説明を簡単にするために、仮想3D空間に存在するオブジェクトを単純な図形で表して、本実施形態におけるゲーム装置20によるゲーム画像の表示制御について説明する。 Hereinafter, for the sake of simplicity, the object existing in the virtual 3D space is represented by a simple figure, and the display control of the game image by the game device 20 in the present embodiment will be described.

図6は、本実施形態における仮想3D空間に存在するオブジェクトと、ディスプレイ62,63R,63Lの位置関係を示す図である。図6において、枠DM,DR,DLは、ディスプレイ62,63R,63Lのそれぞれに対応し、仮想3D空間に存在するオブジェクトを透視投影変換により投影する投影面に相当する。直線オブジェクトOB1(OB1-1~1-6)は、例えば線路や道路を表すオブジェクトである。直線オブジェクトOB1は、電車の進行方向(Z方向)に一致しているものとする。また、オブジェクトOB2,OB3,OB4,OB5,OB6,OB7,OB8は、ゲーム空間に存在する3次元オブジェクトを抽象化したオブジェクトである。なお、オブジェクトOB2,OB5は球、オブジェクトOB3,OB6,OB7,OB8は円柱、オブジェクトOB4は四角錐を表している。 FIG. 6 is a diagram showing the positional relationship between the objects existing in the virtual 3D space in the present embodiment and the displays 62, 63R, 63L. In FIG. 6, the frames DM, DR, and DL correspond to the displays 62, 63R, and 63L, respectively, and correspond to projection planes that project an object existing in the virtual 3D space by perspective projection conversion. The straight line object OB1 (OB1-1 to 1-6) is, for example, an object representing a railroad track or a road. It is assumed that the straight line object OB1 coincides with the traveling direction (Z direction) of the train. Further, the objects OB2, OB3, OB4, OB5, OB6, OB7, and OB8 are objects that abstract the three-dimensional objects existing in the game space. The objects OB2 and OB5 represent spheres, the objects OB3, OB6, OB7 and OB8 represent cylinders, and the objects OB4 represent quadrangular pyramids.

図7、図8及び図9は、図6に示す仮想3D空間に設定した仮想カメラに応じて、枠DM,DR,DL(ディスプレイ62,63R,63L)に表示されるゲーム画像(オブジェクト)の一例を示す図である。なお、図7は客観視点、図8は主観視点、図9は上方からの視点より仮想3D空間を見た図を表している。 7, 8 and 9 show the game images (objects) displayed in the frames DM, DR, DL (displays 62, 63R, 63L) according to the virtual camera set in the virtual 3D space shown in FIG. It is a figure which shows an example. Note that FIG. 7 shows an objective viewpoint, FIG. 8 shows a subjective viewpoint, and FIG. 9 shows a view of the virtual 3D space from a viewpoint from above.

図7及び図9に示すように、仮想カメラは、カメラ位置CPに設定されているものとする。図7及び図9に示す境界面BF1,BF2,BF3,BF4は、枠DM,DR,DLの境界を表している。また、境界面BF1と境界BF4の範囲が仮想カメラの画角を表す。 As shown in FIGS. 7 and 9, it is assumed that the virtual camera is set to the camera position CP. The boundary surfaces BF1, BF2, BF3, and BF4 shown in FIGS. 7 and 9 represent the boundaries of the frames DM, DR, and DL. Further, the range of the boundary surface BF1 and the boundary surface BF4 represents the angle of view of the virtual camera.

なお、図7などの客観視点で示す図において、例えば、中央の枠DM(ディスプレイ62)の面と平行な水平方向をX座標方向、中央の枠DM(ディスプレイ62)の面と平行な垂直方向をY座標方向、中央の枠DM(ディスプレイ62)の面に対して垂直方向(電車の進行方向)をZ座標方向として説明する場合がある。 In a diagram shown from an objective viewpoint such as FIG. 7, for example, the horizontal direction parallel to the surface of the central frame DM (display 62) is the X coordinate direction, and the vertical direction parallel to the surface of the central frame DM (display 62). May be described as the Y coordinate direction, and the direction perpendicular to the surface of the central frame DM (display 62) (the traveling direction of the train) may be described as the Z coordinate direction.

図8に示すように、枠DM,DR,DLには、境界面BF1,BF2,BF3,BF4により区分される、それぞれに対応する範囲のオブジェクトが表示される。例えば、枠DMには、正面のオブジェクトOB4に対応するオブジェクトob4と直線オブジェクトOB1に対応するオブジェクトob1が表示される。同様にして、枠DRには、オブジェクトOB5,OB6に対応するオブジェクトob5,ob6と直線オブジェクトOB1-5,1-6に対応するオブジェクトob1-5,1-6が表示され、枠DLには、オブジェクトOB2,OB3に対応するオブジェクトob2,ob3と直線オブジェクトOB1-1,1-2に対応するオブジェクトob1-1,1-2が表示される。 As shown in FIG. 8, in the frames DM, DR, and DL, objects in a range corresponding to each of the boundary surfaces BF1, BF2, BF3, and BF4 are displayed. For example, in the frame DM, the object ob4 corresponding to the front object OB4 and the object ob1 corresponding to the straight line object OB1 are displayed. Similarly, the objects ob5 and ob6 corresponding to the objects OB5 and OB6 and the objects ob1-5 and 1-6 corresponding to the straight line objects OB1-5 and 1-6 are displayed in the frame DR, and the frame DL displays the objects ob1-5 and 1-6. The objects ob2 and ob3 corresponding to the objects OB2 and OB3 and the objects ob1-1 and 1-2 corresponding to the straight line objects OB1-1 and 1-2 are displayed.

図7及び図9に示すように、仮想カメラの画角(境界面BF1~BF4の範囲)には、オブジェクトOB7,8が含まれていないため、枠DM,DR,DLの何れにも表示されない。 As shown in FIGS. 7 and 9, since the objects OB7 and 8 are not included in the angle of view (range of boundary surfaces BF1 to BF4) of the virtual camera, they are not displayed in any of the frames DM, DR, and DL. ..

次に、仮想カメラの位置を変更する場合について、図10、図11及び図11を参照して説明する。図10は客観視点、図11は主観視点、図12は上方からの視点より仮想3D空間を見た図を表している。 Next, the case of changing the position of the virtual camera will be described with reference to FIGS. 10, 11 and 11. FIG. 10 shows an objective viewpoint, FIG. 11 shows a subjective viewpoint, and FIG. 12 shows a view of a virtual 3D space from a viewpoint from above.

ここでは、図10及び図12に示すように、仮想カメラのカメラ位置CPを、図7及び図9よりも枠DM,DR,DLに近づけている。これにより、中央の枠DM(ディスプレイ62)の画角(境界面BF2~BF3の範囲)が広くなる。これにより、スピード感が増した印象を与えることが可能なゲーム画像を表示することができる。 Here, as shown in FIGS. 10 and 12, the camera position CP of the virtual camera is closer to the frames DM, DR, and DL than in FIGS. 7 and 9. As a result, the angle of view (range of boundary surfaces BF2 to BF3) of the central frame DM (display 62) is widened. This makes it possible to display a game image that can give an impression of increased speed.

図10~図12に示すように、カメラ位置CPを枠DM,DR,DLに近づけることにより仮想カメラの画角(境界面BF1~BF4の範囲)が広がる。このため、図7~図9に示すカメラ位置CPでは表示範囲になかったオブジェクトOB7,OB8が描画対象となる。すなわち、画角が広がることにより拡張された範囲についての3DCG画像を生成するための画像処理が増大する。 As shown in FIGS. 10 to 12, the angle of view of the virtual camera (range of boundary surfaces BF1 to BF4) is widened by moving the camera position CP closer to the frames DM, DR, and DL. Therefore, the objects OB7 and OB8 that were not in the display range in the camera position CP shown in FIGS. 7 to 9 are drawn targets. That is, the widening of the angle of view increases the image processing for generating a 3DCG image for the expanded range.

本実施形態のゲーム装置20では、スピード感を増すために画角を広げて3DCG画像を生成する際に、画像処理の対象となる仮想3次元空間のデータ(オブジェクト)を増大させないようにする。 In the game device 20 of the present embodiment, when the angle of view is widened to generate a 3DCG image in order to increase the sense of speed, the data (object) in the virtual three-dimensional space to be image-processed is not increased.

まず、仮想カメラの全体の画角を変更しないように、カメラ位置CPを枠DM,DR,DLに近づけることで、画像処理の対象となる仮想3次元空間のデータ(オブジェクト)を増大させない方法について説明する。 First, about a method that does not increase the data (object) in the virtual 3D space that is the target of image processing by moving the camera position CP closer to the frames DM, DR, DL so as not to change the overall angle of view of the virtual camera. explain.

図13は客観視点、図14及び図15は上方からの視点より仮想3D空間を見た図を表している。図15は、カメラ位置CPを移動する前後の画角と仮想3D空間の表示対象範囲(オブジェクト)を示している。 FIG. 13 shows an objective viewpoint, and FIGS. 14 and 15 show a view of the virtual 3D space from a viewpoint from above. FIG. 15 shows the angle of view before and after moving the camera position CP and the display target range (object) in the virtual 3D space.

図13及び図14に示すカメラ位置CPは、カメラ位置CPを枠DM,DR,DLに近づけた移動後の位置を示している。また、図13及び図14に示す境界面VBF1~VBF4は、移動後のカメラ位置CPにおける移動前と同じ画角の範囲を示す境界を示している。 The camera position CP shown in FIGS. 13 and 14 indicates the position after the camera position CP is moved closer to the frames DM, DR, and DL. Further, the boundary planes VBF1 to VBF4 shown in FIGS. 13 and 14 indicate a boundary showing the same angle of view range as before the movement in the camera position CP after the movement.

図13及び図14に示すように、カメラ位置CPを枠DM,DR,DLに近づけて全体の画角を変更しない場合、中央の枠DMには、画角が広げられたゲーム画像が表示される。このため、スピード感が増したようにプレーヤに感じさせることができる。 As shown in FIGS. 13 and 14, when the camera position CP is brought close to the frames DM, DR, and DL and the overall angle of view is not changed, the game image with the widened angle of view is displayed in the center frame DM. To. Therefore, the player can feel that the sense of speed has increased.

一方、全体の画角を変更しないことで、左右に配置された枠DR,DLが境界面VBF1,4によりそれぞれ途中で区分される。すなわち、枠DR,DLの中央寄りの枠VDR,VDLの範囲に対して仮想3D空間に存在するオブジェクトが透視投影変換され、枠VDR,VDLの範囲外のオブジェクトについては表示対象外となる。このため、画像処理の対象となる仮想3次元空間のデータ(オブジェクト)の増大を招かない。 On the other hand, by not changing the overall angle of view, the frames DR and DL arranged on the left and right are classified in the middle by the boundary surfaces VBF1 and 4, respectively. That is, the objects existing in the virtual 3D space are perspectively projected and converted with respect to the range of the frames VDC and VLL near the center of the frames DR and DL, and the objects outside the range of the frames VDC and VLDL are excluded from the display target. Therefore, the data (object) in the virtual three-dimensional space that is the target of image processing does not increase.

この場合、枠DR,DL(ディスプレイ63R,63L)の全体にゲーム画像を表示させるため、枠VDR,VDLの範囲のゲーム画像を枠DR,DLの画面サイズに合うように引き伸ばして表示させる。 In this case, in order to display the game image on the entire frame DR, DL (displays 63R, 63L), the game image in the range of the frame VDC, VLDL is enlarged and displayed so as to fit the screen size of the frame DR, DL.

図16は、枠VDLに透視投影変換されたオブジェクトを枠DLに合わせて引き伸ばしたゲーム画像の一例を示している。図16に示す直線オブジェクトob1-1,ob1-2、オブジェクトob2は、図10~図12に示すように、枠DR,DLの配置に合わせて画角(枠DR,DLの全体を含む画角)を設定した場合に表示されるオブジェクト位置を表している。 FIG. 16 shows an example of a game image in which an object that has undergone perspective projection conversion into a frame DL is stretched according to the frame DL. As shown in FIGS. 10 to 12, the linear objects ob1-1 and ob1-2 and the object ob2 shown in FIG. 16 have an angle of view (angle of view including the entire frame DR and DL) according to the arrangement of the frames DR and DL. ) Is set to indicate the object position displayed.

図14に示すように、移動後のカメラ位置CPと枠DM,VDLに基づいて、仮想3D空間の表示対象範囲(オブジェクト)を透視投影変換した場合、枠DM,VDLの間のゲーム画像中のオブジェクトの連続性は確保される。しかし、枠VDLに透視投影変換されたオブジェクトを枠DLに合わせて引き伸ばした場合、図16に示すように、オブジェクトob2に対応するオブジェクトvob2(球型のオブジェクト)が横に歪み、また直線オブジェクトvob1-1,vob1-2の傾きが変化して位置がずれるため、枠DMにおいて表示される直線オブジェクトとの連続性が崩れるという現象が生じる。同様にして、枠DRにおいても同様の現象が生じる。 As shown in FIG. 14, when the display target range (object) in the virtual 3D space is perspectively projected and converted based on the camera position CP after movement and the frames DM and VLD, the game image between the frames DM and VLDL is displayed. Object continuity is ensured. However, when the object transformed into the perspective projection into the frame DL is stretched to fit the frame DL, the object vob2 (spherical object) corresponding to the object ob2 is laterally distorted and the straight line object vob1 is distorted laterally, as shown in FIG. Since the inclination of -1, vob1-2 changes and the position shifts, a phenomenon occurs in which the continuity with the straight line object displayed in the frame DM is broken. Similarly, the same phenomenon occurs in the frame DR.

すなわち、前述した画像処理により、ゲーム中に画角が変更されたゲーム画像が表示されると、ゲーム画像の端部周辺を表示するディスプレイ63R,63Lにおいて、連続性が崩れたオブジェクトがゲーム画像中に表示される。特に、線路、道路、電線などの直線オブジェクトについては、ディスプレイ間で直線が維持されなくなり、プレーヤは違和感を受けてしまう。 That is, when a game image whose angle of view is changed is displayed during the game by the above-mentioned image processing, an object whose continuity is broken is displayed in the game image on the displays 63R and 63L displaying the periphery of the edge of the game image. Is displayed in. In particular, for straight line objects such as railroad tracks, roads, and electric wires, the straight lines are not maintained between the displays, and the player feels uncomfortable.

本実施形態におけるゲーム装置20では、前述したような、カメラ位置CPを移動させた場合の違和感を生じさせないように、オブジェクトの連続性を維持するための画像処理をすることができる。すなわち、カメラ位置CPを移動させる場合に、全体のゲーム画像における端部周辺を表示する枠DR,DL(ディスプレイ63R,63L)の角度を変更して、カメラ位置CP、回転させた仮想的な枠DR,DL(枠VDR,VDL)(投影面)の位置、及びオブジェクトの位置の関係を、カメラ位置CPの移動前後において一致させてから透視投影変換をして、その後、前述したように、枠DR,DLに合わせて引き伸ばす。これにより、枠DR,DLに合わせて引き伸ばした後のゲーム画像において、オブジェクトの連続性が維持されるようにする。 In the game device 20 of the present embodiment, it is possible to perform image processing for maintaining the continuity of the objects so as not to cause a sense of discomfort when the camera position CP is moved as described above. That is, when the camera position CP is moved, the angles of the frames DR and DL (displays 63R and 63L) that display the periphery of the edge in the entire game image are changed, and the camera position CP and the rotated virtual frame are changed. After matching the relationship between the positions of the DR and DL (frame VDC, VLL) (projection plane) and the positions of the objects before and after the movement of the camera position CP, perspective projection conversion is performed, and then, as described above, the frame. Stretch according to DR and DL. As a result, the continuity of the objects is maintained in the game image after being stretched according to the frames DR and DL.

以下、前述したオブジェクトの連続性を維持するための画像処理について説明する。 Hereinafter, image processing for maintaining the continuity of the above-mentioned objects will be described.

図17は客観視点、図18及び図19は上方からの視点より仮想3D空間を見た図を表している。図19は、カメラ位置CPを移動する前後の画角と仮想3D空間の表示対象範囲(オブジェクト)を示している。 FIG. 17 shows an objective viewpoint, and FIGS. 18 and 19 show a view of a virtual 3D space from a viewpoint from above. FIG. 19 shows the angle of view before and after moving the camera position CP and the display target range (object) in the virtual 3D space.

図17及び図18に示すカメラ位置CPは、カメラ位置CPを枠DM,DR,DLに近づけた移動後の位置を示している。また、図17及び図18に示す境界面VBF1~VBF4は、移動後のカメラ位置CPにおける移動前と同じ画角の範囲を示す境界を示している。 The camera position CP shown in FIGS. 17 and 18 indicates the position after the camera position CP is moved closer to the frames DM, DR, and DL. Further, the boundary planes VBF1 to VBF4 shown in FIGS. 17 and 18 show a boundary showing the same angle of view range as before the movement in the camera position CP after the movement.

図17及び図18に示すように、カメラ位置CPを枠DM,DR,DLに近づけて全体の画角を変更しない場合、中央の枠DMには、画角が広げられたゲーム画像が表示される。このため、スピード感が増したようにプレーヤに感じさせることができる。 As shown in FIGS. 17 and 18, when the camera position CP is brought close to the frames DM, DR, and DL and the overall angle of view is not changed, the game image with the widened angle of view is displayed in the center frame DM. To. Therefore, the player can feel that the sense of speed has increased.

一方、左右に配置された枠DR,DLについては、それぞれ中央側の枠DMと隣接するY軸方向の枠辺を回転軸として、他方の枠辺(回転側枠辺)側を回転させる。例えば、枠DRについては、移動後のカメラ位置CPと枠DRまでの距離が、移動前のカメラ位置CPと枠DRの枠DMと隣接していない枠辺までの距離と一致するように回転させる。すなわち、カメラ位置CPと枠DRの回転側枠辺との位置関係(距離)を同じにする。同様にして、枠DLについても、中央側の枠DMと隣接するY軸方向の枠辺を回転軸として、他方の枠辺(回転側枠辺)側を回転させる。図17~図19では、回転された枠DR,DLをそれぞれ枠VDR,VDL(仮想ディスプレイ)により表している。 On the other hand, for the frames DR and DL arranged on the left and right, the other frame side (rotation side frame side) side is rotated with the frame side in the Y-axis direction adjacent to the frame DM on the center side as the rotation axis. For example, for the frame DR, the distance between the camera position CP after movement and the frame DR is rotated so as to match the distance between the camera position CP before movement and the frame DM of the frame DR and the frame side not adjacent to the frame DR. .. That is, the positional relationship (distance) between the camera position CP and the rotation side frame side of the frame DR is made the same. Similarly, for the frame DL, the other frame side (rotation side frame side) side is rotated with the frame side in the Y-axis direction adjacent to the frame DM on the center side as the rotation axis. In FIGS. 17 to 19, the rotated frames DR and DL are represented by the frames VDC and VLL (virtual display), respectively.

この枠DR,DLを回転させることにより設定した枠VDR,VDLの範囲に対して仮想3D空間に存在するオブジェクトが透視投影変換される。この場合、枠VDR,VDLの範囲外のオブジェクトについては表示対象外となるため、画像処理の対象となる仮想3次元空間のデータ(オブジェクト)の増大を招かない。そして、枠DR,DL(ディスプレイ63R,63L)の全体にゲーム画像を表示させるため、枠VDR,VDLに投影されたゲーム画像を枠DR,DLの画面サイズに合うように引き伸ばして表示させる。 By rotating the frames DR and DL, the objects existing in the virtual 3D space are subjected to perspective projection conversion with respect to the range of the frames VDC and VLL set. In this case, since the objects outside the range of the frame VDC and VLDL are not displayed, the data (object) in the virtual three-dimensional space to be image processed is not increased. Then, in order to display the game image on the entire frame DR, DL (displays 63R, 63L), the game image projected on the frame VDC, VDC is enlarged and displayed so as to fit the screen size of the frame DR, DL.

図20は、枠DLを回転させた枠VDLに透視投影変換されたオブジェクトを枠DLに合わせて引き伸ばしたゲーム画像の一例を示している。図20に示す直線オブジェクトob1-1,ob1-2、オブジェクトob2は、図10~図12に示すように、枠DR,DLの配置に合わせて画角(枠DR,DLの全体を含む画角)を設定した場合に表示されるオブジェクト位置を表している。 FIG. 20 shows an example of a game image in which an object that has undergone perspective projection conversion into a frame VLL obtained by rotating a frame DL is stretched according to the frame DL. As shown in FIGS. 10 to 12, the linear objects ob1-1 and ob1-2 and the object ob2 shown in FIG. 20 have an angle of view (angle of view including the entire frame DR and DL) according to the arrangement of the frames DR and DL. ) Is set to indicate the object position displayed.

図20に示すように、直線オブジェクトvob1-1,vob1-2は、枠DMにおいて表示される直線オブジェクトとの連続性が維持された状態で表示される。同様にして、枠DRにおいても直線オブジェクトとの連続性が維持される。 As shown in FIG. 20, the straight line objects vob1-1 and vob1-2 are displayed in a state where continuity with the straight line object displayed in the frame DM is maintained. Similarly, the continuity with the straight line object is maintained in the frame DR.

すなわち、前述したように、カメラ位置CPと枠DR,DLの回転側枠辺との位置関係(距離)を同じにして、透視投影変換しているので、枠VDR,VDLに投影されたゲーム画像を枠DR,DLの画面サイズに合うように引き伸ばしたゲーム画像において、オブジェクトの位置関係を維持することができる。 That is, as described above, since the perspective projection conversion is performed with the same positional relationship (distance) between the camera position CP and the rotation side frame side of the frames DR and DL, the game image projected on the frames VDC and VDC is performed. In the game image stretched to fit the screen size of the frames DR and DL, the positional relationship of the objects can be maintained.

図21及び図22は、枠DR,DLを回転させる前後のカメラ位置CP、枠DR,DL(枠VDR,VDL)(投影面)の位置、及びオブジェクトの位置の関係を示す図である。
図21に示すように、枠DR,DLを回転させない場合、カメラ位置CPを移動させることにより、カメラ位置CP、枠DR,DL、オブジェクトの位置関係が変化する。例えば、図21において、カメラ位置CPの移動前における枠DLの回転側枠辺の位置とOB1-1との距離が距離D1であるところ、カメラ位置CPを移動させる(枠DMに近づける)ことにより、枠DLの回転側枠辺の位置とOB1-1との距離が距離D1より長い距離VD1となる。従って、距離VD1に基づく透視投影変換により生成したゲーム画像を枠DLに応じて引き伸ばした結果、例えば直線オブジェクトの傾きが変化してしまう。
21 and 22 are diagrams showing the relationship between the camera position CP before and after rotating the frame DR and DL, the position of the frame DR and DL (frame VDC, VLDL) (projection plane), and the position of the object.
As shown in FIG. 21, when the frame DR and DL are not rotated, the positional relationship between the camera position CP, the frame DR, DL and the object is changed by moving the camera position CP. For example, in FIG. 21, when the distance between the position of the rotation side frame side of the frame DL and the OB1-1 before the movement of the camera position CP is the distance D1, the camera position CP is moved (closer to the frame DM). , The distance between the position of the rotation side frame side of the frame DL and OB1-1 is longer than the distance D1. Therefore, as a result of stretching the game image generated by the perspective projection conversion based on the distance VD1 according to the frame DL, for example, the inclination of the straight line object changes.

一方、図22に示すように、カメラ位置CPを移動させるのに伴い、移動後のカメラ位置CPに応じて枠DR,DLを回転させて枠VDR,VDLを設定することにより、カメラ位置CP、枠VDR,VDL、オブジェクトの位置関係が不変となる。すなわち、図22において、カメラ位置CPの移動前における枠DLの回転側枠辺とOB1-1との距離D1と、枠VDLの位置とOB1-1との距離VD1が等しくなる。また、カメラ位置CPと枠DLの回転側枠辺の位置までの距離と、カメラ位置CPと枠VDLの位置までの距離も同じとなる。従って、距離VD1に基づく枠VDLに対する透視投影変換により生成したゲーム画像を元の枠DLに応じて引き伸ばした結果、枠VDLのオブジェクトが透視投影される左辺が枠DLの回転側枠辺まで引き伸ばされるため、例えば直線オブジェクトの傾きが変化しない。すなわち、カメラ位置CPの移動前後でオブジェクトの連続性を維持することができる。 On the other hand, as shown in FIG. 22, as the camera position CP is moved, the frame DR and DL are rotated according to the moved camera position CP to set the frame VDC and VDC, thereby setting the camera position CP. The positional relationship between the frame VDC, VDL, and the object is invariant. That is, in FIG. 22, the distance D1 between the rotation side frame side of the frame DL and OB1-1 before the movement of the camera position CP and the distance VD1 between the position of the frame VLL and OB1-1 are equal. Further, the distance between the camera position CP and the position of the rotation side frame side of the frame DL and the distance between the camera position CP and the position of the frame VDL are also the same. Therefore, as a result of stretching the game image generated by the perspective projection conversion for the frame VLD based on the distance VD1 according to the original frame DL, the left side on which the object of the frame VLDL is perspectively projected is stretched to the rotation side frame side of the frame DL. Therefore, for example, the inclination of the straight line object does not change. That is, the continuity of the objects can be maintained before and after the movement of the camera position CP.

これにより、前述した画像処理により、ゲーム中に画角が変更されたゲーム画像が表示されても、ゲーム画像の端部周辺を表示するディスプレイ63R,63Lにおいてもオブジェクトの連続性が維持されるため、プレーヤが違和感を受けることがない。 As a result, even if the game image whose angle of view is changed is displayed during the game by the image processing described above, the continuity of the objects is maintained even on the displays 63R and 63L that display the periphery of the edge of the game image. , The player does not feel uncomfortable.

次に、本実施形態におけるゲーム装置20によるゲーム実行時のゲーム画像の表示制御の動作について説明する。図23は、本実施形態におけるゲーム画像の表示制御の動作を示すフローチャートである。 Next, the operation of the display control of the game image when the game is executed by the game device 20 in the present embodiment will be described. FIG. 23 is a flowchart showing the operation of the display control of the game image in the present embodiment.

ゲーム装置20は、ゲームプログラム92aに基づいてゲームを開始すると、ゲーム映像処理プログラム92bによるゲーム映像表示処理を実行する。 When the game device 20 starts the game based on the game program 92a, the game device 20 executes the game video display processing by the game video processing program 92b.

制御部90は、ゲーム実行中にディスプレイ62,63R,63Lに表示させる仮想3次元空間のオブジェクト及び仮想カメラを設定する(ステップA1)。以下、制御部90は、プレーヤのマスコン72に対する操作に応じて、仮想3D空間に電車を走行させるゲーム画面を生成する。 The control unit 90 sets an object and a virtual camera in the virtual three-dimensional space to be displayed on the displays 62, 63R, 63L during the execution of the game (step A1). Hereinafter, the control unit 90 generates a game screen for driving the train in the virtual 3D space in response to the operation of the player on the mascon 72.

まず、制御部90は、マスコン72の操作に応じて変化する速度データを入力し(ステップA2)、速度データが示す現在の電車の速度に応じて仮想カメラ位置と仮想ディスプレイ(前述した枠DM,DR,DL)との距離を変更する(ステップA3)。すなわち、電車の速度が上がるのに応じて、スピード感が増すゲーム画像が生成されるようにする。 First, the control unit 90 inputs speed data that changes according to the operation of the mascon 72 (step A2), and the virtual camera position and the virtual display (the above-mentioned frame DM, according to the current train speed indicated by the speed data). Change the distance to (DR, DL) (step A3). That is, as the speed of the train increases, a game image in which the sense of speed increases is generated.

制御部90は、仮想カメラと仮想ディスプレイの位置に応じて画角を設定する(ステップA4)。すなわち、制御部90は、仮想カメラが移動した位置における元の画角により表示対象とするゲーム空間(表示対象オブジェクト)を設定する。ここでは、前述したように、仮想カメラの位置の変更前後で全体の画角が変更されないようにして、ゲーム画像を生成するために必要な画像処理の増大を招かない。 The control unit 90 sets the angle of view according to the positions of the virtual camera and the virtual display (step A4). That is, the control unit 90 sets the game space (display target object) to be displayed according to the original angle of view at the position where the virtual camera is moved. Here, as described above, the entire angle of view is not changed before and after the position of the virtual camera is changed, so that the image processing required for generating the game image is not increased.

制御部90は、ゲーム画像の端部近傍が表示されるディスプレイ63R,63L(枠DR,DL)について、仮想カメラの位置と画角に応じて、前述したように仮想ディスプレイを回転させる(枠VDR,VDLの設定)(ステップA5)。 The control unit 90 rotates the virtual display of the displays 63R and 63L (frame DR, DL) displaying the vicinity of the edge of the game image according to the position and angle of view of the virtual camera as described above (frame VDC). , VLD setting) (step A5).

制御部90は、仮想カメラと仮想ディスプレイの位置に応じた画角に含まれるオブジェクトデータをもとに、オブジェクトをディスプレイ62,63R,63L(枠DM,VDR,VDL)に透視投影変換により投影することでゲーム画像を生成する。全体の画角が変更されないとしても、中央に配置されたディスプレイ62に対しては、画角が広げられたゲーム画像が生成される。また、ディスプレイ62の左右に配置されたディスプレイ63R,63Lについては、枠VDR,VDLに透視投影された画像をディスプレイ63R,63L(枠DR,DL)に合わせて引き伸ばしたゲーム画像が生成される。制御部90は、ディスプレイ62,63R,63Lのそれぞれに対応するゲーム画像を表示させる(ステップA7)。 The control unit 90 projects an object onto the displays 62, 63R, 63L (frame DM, VDC, VLL) by perspective projection conversion based on the object data included in the angle of view according to the positions of the virtual camera and the virtual display. By doing so, a game image is generated. Even if the overall angle of view is not changed, a game image with a wider angle of view is generated for the display 62 arranged in the center. Further, for the displays 63R and 63L arranged on the left and right sides of the display 62, a game image obtained by stretching the image perspectively projected onto the frames VDC and VDC according to the displays 63R and 63L (frames DR and DL) is generated. The control unit 90 displays a game image corresponding to each of the displays 62, 63R, and 63L (step A7).

制御部90は、ゲームが実行されている間(ステップA8、No)、前述した画像処理を継続して実行する(ステップA2~A7)。すなわち、ゲーム空間を走行する電車の速度に応じて、スピード感を増した3DCG画像をディスプレイ62,63R,63Lに表示させることができる。 The control unit 90 continuously executes the above-mentioned image processing (steps A2 to A7) while the game is being executed (steps A8, No). That is, the 3DCG image with an increased sense of speed can be displayed on the displays 62, 63R, 63L according to the speed of the train traveling in the game space.

制御部90は、ゲームが終了されると(ステップA8、Yes)、ゲーム映像表示処理を終了する。 When the game is finished (step A8, Yes), the control unit 90 ends the game video display process.

このようにして、本実施形態におけるゲーム装置20では、スピード感を増すために中央のディスプレイ62においては画角を広くしたゲーム画像を表示させる一方、全体の画角を仮想カメラの位置の変更前後で同じとすることで表示対象とする仮想3次元空間のデータの増加を招かなくて済み、仮想カメラの位置の変化に合わせた複雑な画像処理も不要とすることができる。 In this way, in the game device 20 of the present embodiment, the game image having a wide angle of view is displayed on the central display 62 in order to increase the sense of speed, while the entire angle of view is changed before and after the position of the virtual camera is changed. By making the same in the above, it is not necessary to increase the data in the virtual three-dimensional space to be displayed, and it is possible to eliminate the need for complicated image processing according to the change in the position of the virtual camera.

なお、前述した説明では、ゲーム装置20に設けられた3つのディスプレイ62,63R,63Lによって運転席前方の景色を表すゲーム画像(映像)を表示させているが、3つのディスプレイに限らず、4つ以上のディスプレイに対してゲーム画像(映像)を表示させる装置に適用することも可能である。 In the above description, the game image (video) showing the scenery in front of the driver's seat is displayed by the three displays 62, 63R, 63L provided on the game device 20, but the game image (video) is not limited to the three displays. It can also be applied to a device that displays a game image (video) on one or more displays.

また、左右方向に配置された3つのディスプレイ62,63R,63Lを対象としているが、上下方向に配置された複数のディスプレイに画像を表示するシステムに適用することも可能である。 Further, although the target is three displays 62, 63R, 63L arranged in the left-right direction, it can also be applied to a system for displaying an image on a plurality of displays arranged in the up-down direction.

また、本発明は、3DCG画像を複数のディスプレイを組み合わせて表示させる画像処理に適用可能であるので、ゲーム装置に関わる画像処理に限らず、3次元CGアニメーション、フライトシミュレータ、ドライブシミュレータ等の画像処理にも適用可能である。 Further, since the present invention can be applied to image processing for displaying a 3DCG image in combination of a plurality of displays, the present invention is not limited to image processing related to a game device, and image processing for 3D CG animation, flight simulator, drive simulator, etc. It is also applicable to.

また、前述した説明では、プレーヤの操作に応じた3DCG画像を生成する、いわゆるリアルタイムレンダリングによって3DCG画像を生成する画像処理装置について説明しているが、プリレンダリングによって3DCG画像を生成する画像処理装置とすることも可能である。 Further, in the above description, an image processing device that generates a 3DCG image according to the operation of the player, that is, an image processing device that generates a 3DCG image by so-called real-time rendering is described. It is also possible to do.

また、全体のゲーム画像を複数のディスプレイにおいて表示する例について説明しているが、ゲーム画像全体を1つのディスプレイに表示(あるいはスクリーンに投影)するシステムにおいて、ゲーム画像の端部近傍の予め設定された範囲について、前述したディスプレイ63R,63Lに表示するゲーム画像と同様の画像処理により画像を生成して合成することも可能である。 Further, although an example of displaying the entire game image on a plurality of displays is described, in a system for displaying the entire game image on one display (or projecting it on a screen), it is preset near the end of the game image. It is also possible to generate and synthesize an image of the above range by the same image processing as the game image displayed on the displays 63R and 63L described above.

また、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 Further, the present invention is not limited to the above embodiment as it is, and at the implementation stage, the components can be modified and embodied within a range that does not deviate from the gist thereof. In addition, various inventions can be formed by an appropriate combination of the plurality of components disclosed in the above-described embodiment. For example, some components may be removed from all the components shown in the embodiments. In addition, components across different embodiments may be combined as appropriate.

また、実施形態に記載した手法は、コンピュータに実行させることができるプログラム(ソフトウエア手段)として、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD-ROM、DVD、MO、Blu-ray(登録商標)等)、半導体メモリ(ROM、RAM、フラッシュメモリ等)等の記録媒体に格納し、また通信媒体により伝送して頒布することもできる。なお、媒体側に格納されるプログラムには、コンピュータに実行させるソフトウエア手段(実行プログラムのみならずテーブルやデータ構造も含む)をコンピュータ内に構成させる設定プログラムをも含む。本装置を実現するコンピュータは、記録媒体に記録されたプログラムを読み込み、また場合により設定プログラムによりソフトウエア手段を構築し、このソフトウエア手段によって動作が制御されることにより上述した処理を実行する。なお、本明細書でいう記録媒体は、頒布用に限らず、コンピュータ内部あるいはネットワークを介して接続される機器に設けられた磁気ディスクや半導体メモリ等の記憶媒体を含むものである。 Further, the method described in the embodiment is, as a program (software means) that can be executed by a computer, for example, a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM, DVD, MO, Blu-ray (CD-ROM, DVD, MO, Blu-ray). It can also be stored in a recording medium such as a registered trademark), a semiconductor memory (ROM, RAM, flash memory, etc.), or transmitted and distributed by a communication medium. The program stored on the medium side also includes a setting program for configuring the software means (including not only the execution program but also the table and the data structure) to be executed by the computer in the computer. A computer that realizes this device reads a program recorded on a recording medium, constructs software means by a setting program in some cases, and executes the above-mentioned processing by controlling the operation by the software means. The recording medium referred to in the present specification is not limited to distribution, and includes storage media such as magnetic disks and semiconductor memories provided in devices connected inside a computer or via a network.

20…ゲーム装置、90…制御部、90a…ゲーム処理部、90a1…ゲーム映像表示処理部、90a2…操作処理部、90b…入力制御部、92…記憶部、92a…ゲームプログラム、92b…ゲーム映像処理プログラム、92c…ゲームデータ、62,63R,63L…ディスプレイ。 20 ... game device, 90 ... control unit, 90a ... game processing unit, 90a1 ... game video display processing unit, 90a2 ... operation processing unit, 90b ... input control unit, 92 ... storage unit, 92a ... game program, 92b ... game video Processing program, 92c ... game data, 62, 63R, 63L ... display.

Claims (4)

画像全体をそれぞれに対応する範囲について区分して表示する、前記画像全体の中央を含む範囲を表示する第1ディスプレイと、前記第1ディスプレイに表示される画像と連続する、前記画像全体の端部近傍側の画像を表示する少なくとも1つの第2ディスプレイと、
仮想3次元空間に設定される仮想カメラの位置を変更する変更手段と、
前記仮想カメラから前記仮想3次元空間を見た画像を、前記仮想カメラの画角に含まれるオブジェクトを前記第1ディスプレイに対応する第1透視投影面と前記第2ディスプレイ対応する第2透視投影面のそれぞれに投影して生成する画像生成手段と、
前記第1透視投影面に投影して生成された第1画像を前記第1ディスプレイに表示させ、前記第2透視投影面に投影して生成された画像を、前記第1画像から前記画像全体の端部の方向に引き伸ばした第2画像を前記第2ディスプレイに表示させる画像処理手段と
を有する画像処理装置。
A first display that displays a range including the center of the entire image, which divides and displays the entire image for each corresponding range, and an end portion of the entire image that is continuous with the image displayed on the first display. With at least one second display displaying images on the near side ,
A means of changing the position of the virtual camera set in the virtual 3D space, and
An image of the virtual three-dimensional space viewed from the virtual camera, and an object included in the angle of view of the virtual camera are projected onto a first perspective projection surface corresponding to the first display and a second perspective projection corresponding to the second display . An image generation means that is generated by projecting onto each of the surfaces ,
The first image generated by projecting onto the first perspective projection surface is displayed on the first display, and the image generated by projecting onto the second perspective projection surface is displayed from the first image to the entire image. An image processing device including an image processing means for displaying a second image stretched in the direction of an end portion on the second display .
前記画像生成手段は、前記仮想カメラの位置の変更に応じて、前記第2透視投影面の位置を変更して、前記第2ディスプレイに表示させる画像を生成する請求項1記載の画像処理装置。 The image processing apparatus according to claim 1 , wherein the image generation means changes the position of the second perspective projection surface in response to a change in the position of the virtual camera to generate an image to be displayed on the second display. 前記画像生成手段は、前記仮想カメラの移動後の位置と前記画角の範囲の端部に相当する前記第2透視投影面の位置までの距離が、前記仮想カメラの移動前の位置と前記第2透視投影面の端部に相当する位置までの距離と一致するように、前記第2透視投影面を前記第1透視投影面と隣接する辺を回転軸として回転させ、回転させた前記第2透視投影面にオブジェクトを投影する請求項2記載の画像処理装置。 In the image generation means , the distance between the position after the movement of the virtual camera and the position of the second perspective projection surface corresponding to the end of the range of the angle of view is the position before the movement of the virtual camera and the first. The second perspective projection plane is rotated by rotating the side adjacent to the first perspective projection plane as a rotation axis so as to match the distance to the position corresponding to the end of the two perspective projection planes . The image processing apparatus according to claim 2, wherein an object is projected onto a perspective projection surface . 画像全体をそれぞれに対応する範囲について区分して表示する、前記画像全体の中央を含む範囲を表示する第1ディスプレイと、前記第1ディスプレイに表示される画像と連続する、前記画像全体の端部近傍側の画像を表示する少なくとも1つの第2ディスプレイの表示を制御するコンピュータを、
仮想3次元空間に設定される仮想カメラの位置を変更する変更手段と、
前記仮想カメラから前記仮想3次元空間を見た画像を、前記仮想カメラの画角に含まれるオブジェクトを前記第1ディスプレイに対応する第1透視投影面と前記第2ディスプレイに対応する第2透視投影面のそれぞれに投影して生成する画像生成手段と、
前記第1透視投影面に投影して生成された第1画像を前記第1ディスプレイに表示させ、前記第2透視投影面に投影して生成された画像を、前記第1画像から前記画像全体の端部の方向に引き伸ばした第2画像を前記第2ディスプレイに表示させる画像処理手段として機能させるための画像処理プログラム。
A first display that displays a range including the center of the entire image, which divides and displays the entire image for each corresponding range, and an end portion of the entire image that is continuous with the image displayed on the first display. A computer that controls the display of at least one second display that displays a nearby image .
A means of changing the position of the virtual camera set in the virtual 3D space, and
An image of the virtual three-dimensional space viewed from the virtual camera, and an object included in the angle of view of the virtual camera are projected onto a first perspective projection surface corresponding to the first display and a second perspective projection corresponding to the second display. An image generation means that is generated by projecting onto each of the surfaces ,
The first image generated by projecting onto the first perspective projection surface is displayed on the first display, and the image generated by projecting onto the second perspective projection surface is displayed from the first image to the entire image. An image processing program for functioning as an image processing means for displaying a second image stretched in the direction of the end on the second display .
JP2017213831A 2017-11-06 2017-11-06 Image processing device, image processing program Active JP7051374B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017213831A JP7051374B2 (en) 2017-11-06 2017-11-06 Image processing device, image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017213831A JP7051374B2 (en) 2017-11-06 2017-11-06 Image processing device, image processing program

Publications (2)

Publication Number Publication Date
JP2019086961A JP2019086961A (en) 2019-06-06
JP7051374B2 true JP7051374B2 (en) 2022-04-11

Family

ID=66763082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017213831A Active JP7051374B2 (en) 2017-11-06 2017-11-06 Image processing device, image processing program

Country Status (1)

Country Link
JP (1) JP7051374B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024095356A1 (en) * 2022-11-01 2024-05-10 株式会社バーチャルウインドウ Graphics generation device, graphics generation method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031229A (en) 2004-07-14 2006-02-02 Techno Brain:Kk Mobile body simulation device and mobile body simulation program
JP2012048105A (en) 2010-08-30 2012-03-08 Sega Corp Driving simulator and control program thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3883224B2 (en) * 1995-11-16 2007-02-21 株式会社バンダイナムコゲームス Image composition apparatus and image composition method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006031229A (en) 2004-07-14 2006-02-02 Techno Brain:Kk Mobile body simulation device and mobile body simulation program
JP2012048105A (en) 2010-08-30 2012-03-08 Sega Corp Driving simulator and control program thereof

Also Published As

Publication number Publication date
JP2019086961A (en) 2019-06-06

Similar Documents

Publication Publication Date Title
JP6761340B2 (en) Simulation system and program
JP6754678B2 (en) Simulation system and program
JP3817612B2 (en) Virtual driving system
JP3635729B2 (en) Image processing method, image processing apparatus, and simulated experience apparatus
JP3079073B2 (en) Image display device, image display method, and readable recording medium
EP2039402A2 (en) Input instruction device, input instruction method, and dancing simultation system using the input instruction device and method
CN110097799A (en) Virtual driving system based on real scene modeling
JPH10211358A (en) Game apparatus
KR101608342B1 (en) Unmanned booth type sensible motion riding system and operating method thereof
JP2017119032A (en) Game device and program
WO1996008298A1 (en) Three-dimensional simulator and image synthesis method
JP7051374B2 (en) Image processing device, image processing program
JP2003150038A (en) Apparatus and method for driving simulation
JP3955425B2 (en) 3D sound reproduction system
JP2015018074A (en) Vehicle drive simulation device
JPH11146978A (en) Three-dimensional game unit, and information recording medium
JP2012223357A (en) Video game device and video game control method
JP7104539B2 (en) Simulation system and program
JP4062446B2 (en) Electronic play equipment
JP2004033703A (en) Memory medium stored with game program, game control method, and game apparatus capable of reading data from the memory dedium
JP3254091B2 (en) Three-dimensional simulator device and image synthesizing method
JP7281742B2 (en) Program and train driving simulator
JP6729952B1 (en) Railway simulator system, display control method and program
JP4103204B2 (en) Reality generation system
JP2017102331A (en) Evaluation support apparatus for vehicular head-up display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220330

R150 Certificate of patent or registration of utility model

Ref document number: 7051374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150