JP2020166876A - Image generation system, image generation method, and program - Google Patents

Image generation system, image generation method, and program Download PDF

Info

Publication number
JP2020166876A
JP2020166876A JP2020096821A JP2020096821A JP2020166876A JP 2020166876 A JP2020166876 A JP 2020166876A JP 2020096821 A JP2020096821 A JP 2020096821A JP 2020096821 A JP2020096821 A JP 2020096821A JP 2020166876 A JP2020166876 A JP 2020166876A
Authority
JP
Japan
Prior art keywords
image
virtual space
virtual
live
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020096821A
Other languages
Japanese (ja)
Other versions
JP7045093B2 (en
JP2020166876A5 (en
Inventor
実 向谷
Minoru Mukoya
実 向谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ongakukan Co Ltd
Original Assignee
Ongakukan Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ongakukan Co Ltd filed Critical Ongakukan Co Ltd
Priority to JP2020096821A priority Critical patent/JP7045093B2/en
Publication of JP2020166876A publication Critical patent/JP2020166876A/en
Publication of JP2020166876A5 publication Critical patent/JP2020166876A5/ja
Application granted granted Critical
Publication of JP7045093B2 publication Critical patent/JP7045093B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Abstract

To provide an image generation system, an image generation method, and a program with which it is possible to generate an image obtained by combining a captured image obtained by capturing real space and an image of virtual space with a low processing load.SOLUTION: A captured image storage part 100 associates and stores captured images with positions of a virtual vehicle in virtual space, the captured images being captured by a camera provided in a real railway vehicle that moves in real space. A virtual vehicle position update part 106 updates the position of the virtual vehicle in the virtual space in accordance with a user operation. A virtual space image generation part 110 generates a virtual space image representing appearance of the virtual space as seen from a virtual space viewpoint position corresponding to the updated position of the virtual vehicle. A captured image acquisition part 112 acquires, from the captured image storage part 100, one or more captured images that are identified on the basis of the updated position of the virtual vehicle. A composite image generation part 114 generates a composite image of the generated virtual space image and the acquired one or more captured images.SELECTED DRAWING: Figure 15

Description

本発明は、画像生成システム、画像生成方法及びプログラムに関する。 The present invention relates to an image generation system, an image generation method and a program.

実空間を撮影した実写画像と仮想空間の画像などといったコンピュータグラフィックス(CG)の画像とを合成した画像を生成できる鉄道シミュレータが知られている。このような鉄道シミュレータの一例として、特許文献1には、走行中の電車の運転席から見た実情景を撮像した実写動画像データと3次元CGモデルとを合成した合成画像を生成できる鉄道シミュレータが記載されている。 A railway simulator is known that can generate an image obtained by synthesizing a live-action image of a real space and an image of computer graphics (CG) such as an image of a virtual space. As an example of such a railway simulator, Patent Document 1 describes a railway simulator capable of generating a composite image in which a live-action moving image data of an actual scene seen from the driver's seat of a moving train and a three-dimensional CG model are combined. Is described.

特許文献1に記載の技術では、予め撮像した実写動画像データからフレーム間トラッキングにより特定される特徴点の画面上の位置と特徴点の3次元情報のうち仮想した視点からの距離でない情報とから距離情報が算出される。そして算出された距離情報をもとに生成される3次元CGモデルの画像と実写動画像データの再生映像とを合成した合成画像が生成される。 In the technique described in Patent Document 1, the position on the screen of the feature point specified by inter-frame tracking from the live-action moving image data captured in advance and the three-dimensional information of the feature point, which is not the distance from the virtual viewpoint, are used. Distance information is calculated. Then, a composite image is generated by synthesizing the image of the three-dimensional CG model generated based on the calculated distance information and the reproduced video of the live-action moving image data.

特開2008−15576号公報Japanese Unexamined Patent Publication No. 2008-15576

しかし特許文献1に記載の技術では、合成画像を生成するにあたって、特徴点の画面上の位置の特定、距離情報の算出、距離情報に基づくCGモデルの画像の生成などの様々な演算処理を実行する必要があり、処理負荷が重い。 However, in the technique described in Patent Document 1, in generating a composite image, various arithmetic processes such as identification of the position of a feature point on the screen, calculation of distance information, and generation of a CG model image based on the distance information are executed. It is necessary to do so, and the processing load is heavy.

本発明は上記課題に鑑みてなされたものであって、その目的の1つは、軽い処理負荷で実空間を撮影した実写画像と仮想空間の画像とを合成した画像を生成できる画像生成システム、画像生成方法及びプログラムを提供することにある。 The present invention has been made in view of the above problems, and one of the objects thereof is an image generation system capable of generating an image in which a live-action image taken in a real space and an image in a virtual space are combined with a light processing load. The purpose is to provide an image generation method and a program.

本発明に係る画像生成システムは、実空間内を移動する実鉄道車両に設けられたカメラにより撮影された実写画像を、仮想空間内の仮想車両位置と関連付けて記憶する実写画像記憶手段と、ユーザの操作に応じて、前記仮想空間内の前記仮想車両位置を更新する仮想車両位置更新手段と、更新後の前記仮想車両位置に対応する前記仮想空間内の視点の位置から前記仮想空間を見た様子を表す仮想空間画像を生成する仮想空間画像生成手段と、更新後の前記仮想車両位置に基づいて特定される1又は複数の前記実写画像を前記実写画像記憶手段から取得する実写画像取得手段と、生成される前記仮想空間画像と取得される1又は複数の前記実写画像との合成画像を生成する合成画像生成手段と、を含む。 The image generation system according to the present invention is a live image storage means for storing a live image taken by a camera provided in a real railroad vehicle moving in the real space in association with a virtual vehicle position in the virtual space, and a user. The virtual space was viewed from the virtual vehicle position updating means for updating the virtual vehicle position in the virtual space and the position of the viewpoint in the virtual space corresponding to the updated virtual vehicle position in response to the operation of. A virtual space image generation means for generating a virtual space image representing a state, and a live image acquisition means for acquiring one or a plurality of the live images specified based on the updated virtual vehicle position from the live image storage means. , A composite image generation means for generating a composite image of the generated virtual space image and one or a plurality of the acquired live images.

本発明の一態様では、前記実写画像記憶手段は、前記実鉄道車両に設けられた複数の前記カメラによりそれぞれ撮影された複数の前記実写画像の組合せを、前記仮想車両位置と関連付けて記憶し、前記仮想空間画像生成手段は、更新後の前記仮想車両位置に対応する、それぞれいずれかの前記カメラに対応する前記仮想空間内の複数の視点についての、当該視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像を生成し、前記実写画像取得手段は、更新後の前記仮想車両位置に基づいて特定される、1又は複数の前記組合せを前記実写画像記憶手段から取得し、前記合成画像生成手段は、前記複数の前記カメラのそれぞれについて、当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像と、取得される1又は複数の前記組合せに含まれる、当該カメラにより撮影された1又は複数の前記実写画像との合成画像を生成する。 In one aspect of the present invention, the live image storage means stores a combination of a plurality of the live images taken by the plurality of cameras provided in the real railroad vehicle in association with the virtual vehicle position. The virtual space image generation means viewed the virtual space from the position of the viewpoint with respect to a plurality of viewpoints in the virtual space corresponding to the camera corresponding to the updated virtual vehicle position. The virtual space image representing the state is generated, and the live image acquisition means acquires one or a plurality of the combinations specified based on the updated virtual vehicle position from the live image storage means, and obtains the composite. The image generation means is included in one or a plurality of the acquired virtual space images, which represent a state in which the virtual space is viewed from the position of the viewpoint corresponding to the cameras for each of the plurality of cameras. Generates a composite image with one or more of the live images taken by the camera.

この態様では、運転士訓練者による模擬運転操作が行われる運転士操作卓と、車掌訓練者が乗り降り可能な模擬鉄道車両と、前記模擬鉄道車両に隣接して設けられている模擬プラットホームと、前記実鉄道車両の前方に位置し前方を向く前記カメラにより撮影された1又は複数の実写画像と当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像との合成画像を表示する、前記運転士操作卓の前方に配置されている表示パネルと、前記実鉄道車両の側方に位置し前方を向く前記カメラにより撮影された1又は複数の実写画像と当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像との合成画像を表示する、前記模擬プラットホームの前方に設けられている表示パネルと、をさらに含んでもよい。 In this aspect, a driver's console on which a simulated driving operation is performed by a driver trainer, a simulated railroad vehicle on which a conductor trainer can get on and off, a simulated platform provided adjacent to the simulated railroad vehicle, and the like. Combining one or more live images taken by the camera located in front of the actual railroad vehicle and facing forward with the virtual space image showing the state of viewing the virtual space from the position of the viewpoint corresponding to the camera. A display panel arranged in front of the driver's console for displaying images, and one or more live images taken by the camera located on the side of the actual railroad vehicle and facing forward, and the camera. A display panel provided in front of the simulated platform, which displays a composite image with the virtual space image showing how the virtual space is viewed from the corresponding viewpoint position, may be further included.

あるいは、車掌訓練者が乗り降り可能な模擬鉄道車両と、前記模擬鉄道車両の側面に隣接して設けられている模擬プラットホームと、前記実鉄道車両の後方に位置し後方を向く前記カメラにより撮影された1又は複数の実写画像と当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像との合成画像を表示する、前記模擬鉄道車両の後方に設けられている表示パネルと、前記実鉄道車両の側方に位置し前方を向く前記カメラにより撮影された1又は複数の実写画像と当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像との合成画像を表示する、前記模擬プラットホームの前方に設けられている表示パネルと、をさらに含んでもよい。 Alternatively, the image was taken by a simulated railroad vehicle on which a conductor trainer can get on and off, a simulated platform provided adjacent to the side surface of the simulated railroad vehicle, and the camera located behind the actual railroad vehicle and facing rearward. A display provided behind the simulated railroad vehicle that displays a composite image of one or more live images and the virtual space image showing how the virtual space is viewed from the position of the viewpoint corresponding to the camera. The virtual space representing the state of viewing the virtual space from the panel, one or more live images taken by the camera located on the side of the actual railroad vehicle and facing forward, and the position of the viewpoint corresponding to the camera. It may further include a display panel provided in front of the simulated platform that displays a composite image with the spatial image.

また、本発明の一態様では、前記合成画像生成手段は、前記ユーザの操作に応じた前記合成画像の生成を所定の時間間隔で繰り返し実行する。 Further, in one aspect of the present invention, the composite image generation means repeatedly executes the generation of the composite image according to the operation of the user at predetermined time intervals.

また、本発明に係る画像生成方法は、ユーザの操作に応じて、仮想空間内の仮想車両位置を更新するステップと、更新後の前記仮想車両位置に対応する前記仮想空間内の視点の位置から前記仮想空間を見た様子を表す仮想空間画像を生成するステップと、実空間内を移動する実鉄道車両に設けられたカメラにより撮影された実写画像を、前記仮想空間内の前記仮想車両位置と関連付けて記憶する実写画像記憶手段から、更新後の前記仮想車両位置に基づいて特定される1又は複数の前記実写画像を取得するステップと、生成される前記仮想空間画像と取得される1又は複数の前記実写画像との合成画像を生成するステップと、を含む。 Further, in the image generation method according to the present invention, from the step of updating the virtual vehicle position in the virtual space according to the operation of the user and the position of the viewpoint in the virtual space corresponding to the updated virtual vehicle position. A step of generating a virtual space image showing a state of seeing the virtual space, and a live image taken by a camera provided on a real railcar moving in the real space are used as the virtual vehicle position in the virtual space. A step of acquiring one or a plurality of the live images specified based on the updated virtual vehicle position from the live image storage means to be associated and stored, and one or a plurality of the virtual space images to be generated. A step of generating a composite image with the live image of the above.

また、本発明に係るプログラムは、ユーザの操作に応じて、仮想空間内の仮想車両位置を更新する手順、更新後の前記仮想車両位置に対応する前記仮想空間内の視点の位置から前記仮想空間を見た様子を表す仮想空間画像を生成する手順、実空間内を移動する実鉄道車両に設けられたカメラにより撮影された実写画像を、前記仮想空間内の前記仮想車両位置と関連付けて記憶する実写画像記憶手段から、更新後の前記仮想車両位置に基づいて特定される1又は複数の前記実写画像を取得する手順、生成される前記仮想空間画像と取得される1又は複数の前記実写画像との合成画像を生成する手順、をコンピュータに実行させる。 Further, the program according to the present invention includes a procedure for updating a virtual vehicle position in a virtual space according to a user operation, and the virtual space from a viewpoint position in the virtual space corresponding to the updated virtual vehicle position. A procedure for generating a virtual space image showing a state of viewing, a live image taken by a camera provided in a real railroad vehicle moving in the real space is stored in association with the virtual vehicle position in the virtual space. A procedure for acquiring one or more of the live images specified based on the updated virtual vehicle position from the live image storage means, the generated virtual space image and the acquired one or more live images. Have the computer perform the procedure for generating a composite image of.

本発明の一実施形態に係る鉄道シミュレータシステムの全体構成の一例を示す外観斜視図である。It is an external perspective view which shows an example of the whole structure of the railway simulator system which concerns on one Embodiment of this invention. 模擬鉄道車両及び運転士操作卓の構成の一例を示す図である。It is a figure which shows an example of the structure of the simulated railroad vehicle and the driver's operation console. 実写画像管理データのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the live-action image management data. 仮想空間の一例を示す図である。It is a figure which shows an example of a virtual space. 仮想鉄道車両オブジェクトの位置及び向きの特定の一例を説明する説明図である。It is explanatory drawing explaining an example of specifying the position and direction of a virtual railroad vehicle object. 仮想空間内で仮想鉄道車両オブジェクトの前方に仮想人物オブジェクトが位置する状況の一例を示す図である。It is a figure which shows an example of the situation where a virtual person object is located in front of a virtual railroad vehicle object in a virtual space. 前方仮想空間画像の一例を示す図である。It is a figure which shows an example of the forward virtual space image. 前方実写フレーム画像の一例を示す図である。It is a figure which shows an example of the forward live-action frame image. 前方合成画像の一例を示す図である。It is a figure which shows an example of the forward composite image. 仮想空間内で仮想鉄道車両オブジェクトの右横に仮想人物オブジェクトが位置する状況の一例を示す図である。It is a figure which shows an example of the situation where a virtual person object is located on the right side of a virtual railroad vehicle object in a virtual space. 前方合成画像の一例を示す図である。It is a figure which shows an example of the forward composite image. 右側方仮想空間画像の一例を示す図である。It is a figure which shows an example of the virtual space image on the right side. 右側方実写フレーム画像の一例を示す図である。It is a figure which shows an example of the right side live-action frame image. 右側方合成画像の一例を示す図である。It is a figure which shows an example of the right-side composite image. 仮想空間内で仮想鉄道車両オブジェクトの右横に仮想人物オブジェクトが位置する状況の一例を示す図である。It is a figure which shows an example of the situation where a virtual person object is located on the right side of a virtual railroad vehicle object in a virtual space. 右側方仮想空間画像の一例を示す図である。It is a figure which shows an example of the virtual space image on the right side. 右側方実写フレーム画像の一例を示す図である。It is a figure which shows an example of the right side live-action frame image. 右側方合成画像の一例を示す図である。It is a figure which shows an example of the right-side composite image. 仮想空間内で仮想鉄道車両オブジェクトの後方に仮想人物オブジェクトが位置する状況の一例を示す図である。It is a figure which shows an example of the situation where a virtual person object is located behind a virtual railroad vehicle object in a virtual space. 後方仮想空間画像の一例を示す図である。It is a figure which shows an example of the rear virtual space image. 後方実写フレーム画像の一例を示す図である。It is a figure which shows an example of the rear live-action frame image. 後方合成画像の一例を示す図である。It is a figure which shows an example of the rear composite image. 本発明の一実施形態に係るサーバの機能の一例を示す機能ブロック図である。It is a functional block diagram which shows an example of the function of the server which concerns on one Embodiment of this invention. 本発明の一実施形態に係るサーバで行われる処理の流れの一例を示すフロー図である。It is a flow diagram which shows an example of the flow of the process performed in the server which concerns on one Embodiment of this invention.

以下、本発明の一実施形態について図面に基づき詳細に説明する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施形態に係る鉄道シミュレータシステム1の全体構成の一例を示す外観斜視図である。 FIG. 1 is an external perspective view showing an example of the overall configuration of a railway simulator system 1 according to an embodiment of the present invention.

図1に例示する鉄道シミュレータシステム1は、車掌や運転士の業務の訓練に用いられる、実空間内を移動する実際の鉄道車両(実鉄道車両)を模したシステムである。以下、車掌の業務の訓練を行う者を車掌訓練者と呼び、運転士の業務の訓練を行う者を運転士訓練者と呼ぶこととする。なお図1に例示する鉄道シミュレータシステム1の用途は車掌や運転士の業務の訓練には限定されない。鉄道シミュレータシステム1が例えば車掌や運転士の模擬体験などに用いられてもよい。 The railway simulator system 1 illustrated in FIG. 1 is a system that imitates an actual railway vehicle (actual railway vehicle) that moves in a real space and is used for training the work of a conductor or a driver. Hereinafter, a person who trains the conductor's work will be referred to as a conductor trainer, and a person who trains the driver's work will be referred to as a driver trainer. The application of the railway simulator system 1 illustrated in FIG. 1 is not limited to the training of conductors and drivers. The railway simulator system 1 may be used, for example, for a simulated experience of a conductor or a driver.

図1に示すように、本実施形態に係る鉄道シミュレータシステム1には、主な構成として、模擬鉄道車両10と、運転士操作卓20と、車掌教官卓30と、運転士教官卓40とが含まれる。 As shown in FIG. 1, the railway simulator system 1 according to the present embodiment includes a simulated railway vehicle 10, a driver operation console 20, a conductor instructor desk 30, and a driver instructor desk 40 as main configurations. included.

模擬鉄道車両10は、実鉄道車両の後方の一部を模したものである。車掌訓練者は、模擬鉄道車両10に乗り降り可能となっている。模擬鉄道車両10内には模擬車掌室11が設けられ、模擬車掌室11の後方には後方表示パネルP1が設けられている。 The simulated railway vehicle 10 imitates a part of the rear part of the actual railway vehicle. The conductor trainer can get on and off the simulated railway vehicle 10. A simulated conductor room 11 is provided in the simulated railway vehicle 10, and a rear display panel P1 is provided behind the simulated conductor room 11.

また模擬鉄道車両10の左側の側面に隣接して左側模擬プラットホーム12が設けられている。そして左側模擬プラットホーム12の前方に左側方表示パネルP2が設けられている。また模擬鉄道車両10の右側の側面に隣接して右側模擬プラットホーム13が設けられている。そして右側模擬プラットホーム13の前方に右側方表示パネルP3が設けられている。 Further, a left simulated platform 12 is provided adjacent to the left side surface of the simulated railway vehicle 10. A left side display panel P2 is provided in front of the left side simulated platform 12. Further, a right side simulated platform 13 is provided adjacent to the right side surface of the simulated railway vehicle 10. A right side display panel P3 is provided in front of the right side simulated platform 13.

運転士操作卓20は、実鉄道車両の運転室にある操作卓を模したものである。運転士操作卓20では、運転士訓練者による模擬運転操作が行われる。運転士操作卓20には、例えばレバー等を含む走行指令部21が設けられている。また、運転士操作卓20の前方には前方表示パネルP4が設けられている。 The driver's console 20 imitates the console in the driver's cab of an actual railway vehicle. On the driver operation console 20, a simulated driving operation is performed by a driver trainer. The driver's operating console 20 is provided with a traveling command unit 21 including, for example, a lever and the like. Further, a front display panel P4 is provided in front of the driver's operation console 20.

なお模擬車掌室11及び運転士操作卓20のそれぞれには、運転士訓練者と車掌訓練者とが相互に連絡を取り合うための音声通信機器が設けられていてもよい。 Each of the simulated conductor room 11 and the driver's console 20 may be provided with a voice communication device for the driver trainer and the conductor trainer to communicate with each other.

また模擬鉄道車両10と運転士操作卓20とは、同じ空間に設けられている必要はなく、例えば、壁で仕切られた隣の部屋にそれぞれ設けられていてもよい。また模擬鉄道車両10と運転士操作卓20とは互いに離れた場所に設けられてもよい。それにより、車掌訓練者と運転士訓練者とが遠隔の地にいる場合であっても、互いに連携して訓練を行うことができる。 Further, the simulated railway vehicle 10 and the driver's console 20 do not have to be provided in the same space, and may be provided in adjacent rooms separated by a wall, for example. Further, the simulated railway vehicle 10 and the driver's console 20 may be provided at locations separated from each other. As a result, even when the conductor trainer and the driver trainer are in remote locations, the training can be performed in cooperation with each other.

車掌教官卓30では、車掌教官により車掌訓練者の監視等が行われる。車掌教官卓30上には複数の表示パネル等が設けられており、それら表示パネルを車掌教官が確認することにより車掌訓練者の訓練状況を監視できる。 At the conductor instructor table 30, the conductor instructor monitors the conductor trainer. A plurality of display panels and the like are provided on the conductor instructor table 30, and the conductor instructor can check the display panels to monitor the training status of the conductor trainer.

運転士教官卓40では、運転士教官により運転士訓練者の監視等が行われる。運転士教官卓40上には複数の表示パネル等が設けられており、それら表示パネルを運転士教官が確認することにより運転士訓練者の訓練状況を監視できる。 At the driver instructor table 40, the driver instructor monitors the driver trainer and the like. A plurality of display panels and the like are provided on the driver instructor table 40, and the training status of the driver trainer can be monitored by the driver instructor confirming these display panels.

図2は、模擬鉄道車両10及び運転士操作卓20の構成の一例を示す図である。図2に示すように、本実施形態に係る模擬鉄道車両10には、サーバ50が含まれている。また本実施形態に係る運転士操作卓20には、サーバ52が含まれている。 FIG. 2 is a diagram showing an example of the configuration of the simulated railway vehicle 10 and the driver's console 20. As shown in FIG. 2, the simulated railway vehicle 10 according to the present embodiment includes a server 50. Further, the driver operation console 20 according to the present embodiment includes a server 52.

サーバ50には、例えば、プロセッサ50a、記憶部50b、及び、通信部50cが含まれている。プロセッサ50aは、例えばサーバ50にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。記憶部50bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部50bには、プロセッサ50aによって実行されるプログラムなどが記憶される。通信部50cは、例えばサーバ52との間でデータを授受するためのネットワークボードなどの通信インタフェースである。サーバ50は、通信部50cを経由してサーバ52との間で情報の送受信を行う。 The server 50 includes, for example, a processor 50a, a storage unit 50b, and a communication unit 50c. The processor 50a is, for example, a program control device such as a CPU that operates according to a program installed on the server 50. The storage unit 50b is a storage element such as a ROM or RAM, a hard disk drive, or the like. A program or the like executed by the processor 50a is stored in the storage unit 50b. The communication unit 50c is a communication interface such as a network board for exchanging data with the server 52, for example. The server 50 transmits / receives information to / from the server 52 via the communication unit 50c.

サーバ52には、例えば、プロセッサ52a、記憶部52b、及び、通信部52cが含まれている。プロセッサ52aは、例えばサーバ52にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。記憶部52bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部52bには、プロセッサ52aによって実行されるプログラムなどが記憶される。通信部52cは、例えばサーバ50との間でデータを授受するためのネットワークボードなどの通信インタフェースである。サーバ52は、通信部52cを経由してサーバ50との間で情報の送受信を行う。 The server 52 includes, for example, a processor 52a, a storage unit 52b, and a communication unit 52c. The processor 52a is a program control device such as a CPU that operates according to a program installed on the server 52, for example. The storage unit 52b is a storage element such as a ROM or RAM, a hard disk drive, or the like. A program or the like executed by the processor 52a is stored in the storage unit 52b. The communication unit 52c is a communication interface such as a network board for exchanging data with the server 50, for example. The server 52 transmits / receives information to / from the server 50 via the communication unit 52c.

本実施形態では、予め、鉄道シミュレータシステム1を用いた訓練の対象となる実空間の鉄道路線を実鉄道車両が走行している間、当該実鉄道車両に設けられたカメラにより訓練に用いられる動画像が撮影される。 In the present embodiment, while the actual railway vehicle is traveling on the railway line in the real space to be trained using the railway simulator system 1, the moving image used for the training by the camera provided on the actual railway vehicle in advance. The statue is photographed.

ここでは例えば、実鉄道車両に設けられた4個のカメラによって動画像が撮影されることとする。以下、これら4個のカメラをそれぞれ、後方実カメラ、左側方実カメラ、右側方実カメラ、及び、前方実カメラと呼ぶこととする。ここで後方実カメラは例えば、実鉄道車両の最後尾の車両の後方に位置し後方を向いている、車掌室から後方を撮影するカメラである。また左側方実カメラは例えば、実鉄道車両の最後尾の車両の車掌室の左側方に位置し前方を向いている、車掌室の左側方から前方を撮影するカメラである。また右側方実カメラは例えば、実鉄道車両の最後尾の車両の車掌室の右側方に位置し前方を向いている、車掌室の右側方から前方を撮影するカメラである。また前方実カメラは例えば、実鉄道車両の先頭の車両の前方に位置し前方を向いている、運転席から前方を撮影するカメラである。 Here, for example, it is assumed that a moving image is taken by four cameras provided in an actual railway vehicle. Hereinafter, these four cameras will be referred to as a rear real camera, a left side real camera, a right side real camera, and a front real camera, respectively. Here, the rear actual camera is, for example, a camera that is located behind the rearmost vehicle of the actual railway vehicle and faces the rear, and captures the rear from the conductor room. The left-side actual camera is, for example, a camera that is located on the left side of the conductor room of the rearmost vehicle of the actual railway vehicle and faces forward, and captures the front from the left side of the conductor room. The right-side actual camera is, for example, a camera that is located on the right side of the conductor room of the rearmost vehicle of the actual railway vehicle and faces forward, and captures the front from the right side of the conductor room. Further, the front actual camera is, for example, a camera that is located in front of the leading vehicle of the actual railway vehicle and faces forward, and captures the front from the driver's seat.

上述のように実鉄道車両に設けられた4個のカメラによって動画像が撮影される場合は、それぞれ複数のフレーム画像を含む4個の動画像が生成されることとなる。以下、実鉄道車両に設けられたカメラが生成する動画像を実写動画像と呼ぶこととする。そして例えば後方実カメラ、左側方実カメラ、右側方実カメラ、及び、前方実カメラのそれぞれが生成する実写動画像を、それぞれ、後方実写動画像、左側方実写動画像、右側方実写動画像、及び、前方実写動画像と呼ぶこととする。 When moving images are taken by four cameras provided in an actual railway vehicle as described above, four moving images including a plurality of frame images are generated. Hereinafter, the moving image generated by the camera provided in the actual railway vehicle will be referred to as a live-action moving image. Then, for example, the live-action moving images generated by the rear real camera, the left-side real camera, the right-side real camera, and the front real camera are, respectively, the rear real-action image, the left-side real-action image, and the right-side real-action image. And, it will be called a forward live-action image.

なお本実施形態では、後方実写動画像、左側方実写動画像、右側方実写動画像、及び、前方実写動画像は、撮影タイミングの同期がとれていることとする。そして、あるタイミングにおいて撮影された後方実写動画像のフレーム画像、左側方実写動画像のフレーム画像、右側方実写動画像のフレーム画像、及び、前方実写動画像のフレーム画像には、同じフレーム番号が設定されることとする。 In the present embodiment, it is assumed that the shooting timings of the rear live-action image, the left-side live-action image, the right-side live-action image, and the front live-action image are synchronized. Then, the same frame number is assigned to the frame image of the rear live-action image, the frame image of the left side live-action image, the frame image of the right side live-action image, and the frame image of the front live-action image taken at a certain timing. It shall be set.

また本実施形態では、予め、実写動画像に含まれるフレーム画像である実写画像の撮影タイミングにおける実鉄道車両の位置が特定されることとする。以下、このようにして特定される実鉄道車両の位置を、実車両位置と呼ぶこととする。ここで例えば、GPSモジュール等を用いることで、実写動画像に含まれる各フレーム画像の撮影の際に、当該フレーム画像の撮影タイミングにおける実車両位置が特定されるようにしてもよい。ここで例えば前方実カメラの位置や複数両編成である実鉄道車両の全体の中心の位置などといった実鉄道車両を代表する点の位置が、実車両位置として特定されてもよい。 Further, in the present embodiment, the position of the actual railway vehicle at the shooting timing of the live-action image, which is the frame image included in the live-action moving image, is specified in advance. Hereinafter, the position of the actual railway vehicle specified in this way will be referred to as the actual vehicle position. Here, for example, by using a GPS module or the like, when shooting each frame image included in the live-action moving image, the actual vehicle position at the shooting timing of the frame image may be specified. Here, the position of a point representing the actual railway vehicle, such as the position of the actual front camera or the position of the center of the entire actual railway vehicle having a plurality of cars, may be specified as the actual vehicle position.

そして本実施形態では以上のようにして撮影される実写動画像や当該実写動画像の撮影タイミングにおける実車両位置などが、実写画像管理データ(図3参照)によって管理される。実写画像管理データは例えばサーバ50の記憶部50bに記憶されてもよい。 Then, in the present embodiment, the live-action moving image taken as described above, the actual vehicle position at the shooting timing of the live-action moving image, and the like are managed by the live-action image management data (see FIG. 3). The live-action image management data may be stored in the storage unit 50b of the server 50, for example.

図3は、本実施形態に係る実写画像管理データのデータ構造の一例を示す図である。図3に示すように、実写画像管理データには、実写画像セットID、後方実写フレーム画像、左側方実写フレーム画像、右側方実写フレーム画像、前方実写フレーム画像、実車両位置データ、仮想車両位置データが含まれる。実写画像管理データは、実写動画像に含まれる1個のフレーム画像に対応付けられるデータである。そのため例えばサーバ50の記憶部50bには、実写動画像に含まれるフレーム画像の数(実写動画像のフレーム数)の実写画像管理データが記憶されることとなる。 FIG. 3 is a diagram showing an example of a data structure of live-action image management data according to the present embodiment. As shown in FIG. 3, the live-action image management data includes the live-action image set ID, the rear live-action frame image, the left-side live-action frame image, the right-side live-action frame image, the front live-action frame image, the real vehicle position data, and the virtual vehicle position data. Is included. The live-action image management data is data associated with one frame image included in the live-action moving image. Therefore, for example, the storage unit 50b of the server 50 stores the live-action image management data of the number of frame images included in the live-action video (the number of frames of the live-action video).

実写画像セットIDは、実写画像管理データの識別情報である。ここで例えば、実写画像セットIDの値としてフレーム番号が設定されてもよい。 The live-action image set ID is identification information of the live-action image management data. Here, for example, the frame number may be set as the value of the live-action image set ID.

実写画像管理データに含まれる後方実写フレーム画像、左側方実写フレーム画像、右側方実写フレーム画像、前方実写フレーム画像としては、当該実写画像管理データに含まれる実写画像セットIDに対応付けられるフレーム画像である実写画像が設定される。ここで例えば後方実写フレーム画像としては、後方実写動画像に含まれるフレーム画像である実写画像が設定される。また左側方実写フレーム画像としては、左側方実写動画像に含まれるフレーム画像である実写画像が設定される。また右側方実写フレーム画像としては、右側方実写動画像に含まれるフレーム画像である実写画像が設定される。また前方実写フレーム画像としては、前方実写動画像に含まれるフレーム画像である実写画像が設定される。このように本実施形態に係る実写画像管理データは、複数の実写画像の組合せが含まれることとなる。 The rear live-action frame image, the left side live-action frame image, the right-side live-action frame image, and the front live-action frame image included in the live-action image management data are frame images associated with the live-action image set ID included in the live-action image management data. A live-action image is set. Here, for example, as the rear live-action frame image, a live-action image which is a frame image included in the rear live-action image is set. Further, as the left-side live-action frame image, a live-action image which is a frame image included in the left-side live-action image is set. Further, as the right-side live-action frame image, a live-action image which is a frame image included in the right-side live-action image is set. Further, as the front live-action frame image, a live-action image which is a frame image included in the front live-action image is set. As described above, the live-action image management data according to the present embodiment includes a combination of a plurality of live-action images.

実写画像管理データに含まれる実車両位置データの値としては、例えば、当該実写画像管理データに対応付けられるフレーム画像の撮影タイミングにおける実車両位置を示す値が設定される。ここで上述のように実車両位置データの値として実鉄道車両を代表する点の位置を示す値が設定されてもよい。また実車両位置データの値は例えば緯度と経度の組合せで表現されてもよい。 As the value of the actual vehicle position data included in the live-action image management data, for example, a value indicating the actual vehicle position at the shooting timing of the frame image associated with the live-action image management data is set. Here, as described above, a value indicating the position of a point representing the actual railway vehicle may be set as the value of the actual vehicle position data. Further, the value of the actual vehicle position data may be expressed by, for example, a combination of latitude and longitude.

実写画像管理データに含まれる仮想車両位置データの値としては、当該実写画像管理データに含まれる実車両位置データが示す実車両位置に対応付けられる、図4に例示する仮想空間60内の位置を示す値が設定される。以下、実車両位置に対応付けられる仮想空間60内における位置を、仮想車両位置と呼ぶこととする。ここで仮想車両位置データの値は例えばX座標値、Y座標値、及び、Z座標値の組合せで表現されてもよい。 As the value of the virtual vehicle position data included in the live-action image management data, the position in the virtual space 60 illustrated in FIG. 4 associated with the actual vehicle position indicated by the real vehicle position data included in the live-action image management data is used. The indicated value is set. Hereinafter, the position in the virtual space 60 associated with the actual vehicle position will be referred to as a virtual vehicle position. Here, the value of the virtual vehicle position data may be represented by, for example, a combination of the X coordinate value, the Y coordinate value, and the Z coordinate value.

図4は、本実施形態に係る仮想空間60の一例を示す図である。図4に示す仮想空間60は3次元仮想空間である。また図4に示すように本実施形態に係る仮想空間60には、実鉄道車両に対応付けられる仮想オブジェクトである、複数のポリゴンにより構成された仮想鉄道車両オブジェクト62が配置される。ここで本実施形態に係る仮想鉄道車両オブジェクト62は、透明に設定された不可視の仮想オブジェクトであることとする。 FIG. 4 is a diagram showing an example of the virtual space 60 according to the present embodiment. The virtual space 60 shown in FIG. 4 is a three-dimensional virtual space. Further, as shown in FIG. 4, in the virtual space 60 according to the present embodiment, a virtual railway vehicle object 62 composed of a plurality of polygons, which is a virtual object associated with the actual railway vehicle, is arranged. Here, the virtual railroad vehicle object 62 according to the present embodiment is an invisible virtual object set to be transparent.

ここで例えば実鉄道車両が6両編成である場合は、仮想空間60には、互いに連結された6個の仮想鉄道車両オブジェクト62(62a、62b、62c、62d、62e、及び、62f)が配置される。仮想鉄道車両オブジェクト62aは例えば実鉄道車両の先頭の車両に対応付けられる。また仮想鉄道車両オブジェクト62b、仮想鉄道車両オブジェクト62c、仮想鉄道車両オブジェクト62d、仮想鉄道車両オブジェクト62eはそれぞれ例えば実鉄道車両の先頭から2両目、3両目、4両目、5両目の車両に対応付けられる。また仮想鉄道車両オブジェクト62fは、例えば実鉄道車両の最後尾の車両に対応付けられる。 Here, for example, when the actual railway vehicle is a 6-car train, six virtual railway vehicle objects 62 (62a, 62b, 62c, 62d, 62e, and 62f) connected to each other are arranged in the virtual space 60. Will be done. The virtual railroad vehicle object 62a is associated with, for example, the leading vehicle of the real railroad vehicle. Further, the virtual rail vehicle object 62b, the virtual rail vehicle object 62c, the virtual rail vehicle object 62d, and the virtual rail vehicle object 62e are associated with, for example, the second, third, fourth, and fifth vehicles from the beginning of the actual rail vehicle, respectively. .. Further, the virtual railway vehicle object 62f is associated with, for example, the last vehicle of the actual railway vehicle.

そして本実施形態では、上述のように、実空間内における実車両位置と仮想空間60内における仮想車両位置とは1対1で対応付けられる。ここで本実施形態では、実写動画像が撮影された際の実空間内における実鉄道車両の軌道に相当する軌道が予め仮想空間60に設定されていることとする。そして本実施形態では、図5に示すように、仮想車両位置及び当該軌道に基づいて、6個の仮想鉄道車両オブジェクト62の位置及び向きが一意に特定されることとする。 Then, in the present embodiment, as described above, the actual vehicle position in the real space and the virtual vehicle position in the virtual space 60 are associated with each other on a one-to-one basis. Here, in the present embodiment, it is assumed that the track corresponding to the track of the actual railroad vehicle in the real space when the live-action moving image is taken is set in the virtual space 60 in advance. Then, in the present embodiment, as shown in FIG. 5, the positions and orientations of the six virtual railroad vehicle objects 62 are uniquely specified based on the virtual vehicle positions and the track.

図5は、仮想車両位置及び軌道に基づく仮想鉄道車両オブジェクトの位置及び向きの特定の一例を説明する説明図である。図5では、ゆるやかに右に曲がる仮想鉄道車両オブジェクト62の軌道が二点鎖線で示されている。また図5では、仮想鉄道車両オブジェクト62は当該軌道に沿って図5における下から上に向かって進行することとする。 FIG. 5 is an explanatory diagram illustrating an example of specifying the position and orientation of the virtual railroad vehicle object based on the virtual vehicle position and track. In FIG. 5, the track of the virtual railroad vehicle object 62 that gently turns to the right is shown by a chain double-dashed line. Further, in FIG. 5, the virtual railroad vehicle object 62 travels along the track from the bottom to the top in FIG.

ここで例えば実車両位置が前方実カメラの位置であるとする。そして仮想鉄道車両オブジェクト62aの前面の中心の位置A1が仮想車両位置であることとする。この場合、仮想鉄道車両オブジェクト62の進行方向に対して位置A1の後方に位置する、位置A1を中心とした半径の長さがdである円と軌道との交点の位置A2が特定される。同様にして上述の進行方向に対して位置A2の後方に位置する、位置A2を中心とした半径の長さがdである円と軌道との交点の位置A3が特定される。また上述の進行方向に対して位置A3の後方に位置する、位置A3を中心とした半径の長さがdである円と軌道との交点の位置A4が特定される。また上述の進行方向に対して位置A4の後方に位置する、位置A4を中心とした半径の長さがdである円と軌道との交点の位置A5が特定される。また上述の進行方向に対して位置A5の後方に位置する、位置A5を中心とした半径の長さがdである円と軌道との交点の位置A6が特定される。ここで半径の長さdは特に問わないが、例えば1つの仮想鉄道車両オブジェクト62の長さであってもよいし、1つの仮想鉄道車両オブジェクト62の長さに余裕長を足した長さであってもよい。 Here, for example, it is assumed that the actual vehicle position is the position of the front actual camera. Then, it is assumed that the position A1 at the center of the front surface of the virtual railroad vehicle object 62a is the virtual vehicle position. In this case, the position A2 at the intersection of the circle and the track, which is located behind the position A1 with respect to the traveling direction of the virtual railway vehicle object 62 and has a radius length d centered on the position A1, is specified. Similarly, the position A3 at the intersection of the circle and the orbit, which is located behind the position A2 with respect to the above-mentioned traveling direction and has a radius length d centered on the position A2, is specified. Further, the position A4 at the intersection of the circle and the orbit, which is located behind the position A3 with respect to the above-mentioned traveling direction and has a radius length d centered on the position A3, is specified. Further, the position A5 of the intersection of the circle and the orbit, which is located behind the position A4 with respect to the above-mentioned traveling direction and has a radius length d centered on the position A4, is specified. Further, the position A6 of the intersection of the circle and the orbit, which is located behind the position A5 with respect to the above-mentioned traveling direction and has a radius length d centered on the position A5, is specified. Here, the length d of the radius is not particularly limited, but may be, for example, the length of one virtual railroad vehicle object 62, or the length of one virtual railroad vehicle object 62 plus the margin length. There may be.

そして仮想鉄道車両オブジェクト62aの前面の中心が位置A1に位置し当該前面の法線方向が位置A1における軌道の接線方向B1を向くよう仮想鉄道車両オブジェクト62aが仮想空間60に配置される。また仮想鉄道車両オブジェクト62bの前面の中心が位置A2に位置し当該前面の法線方向が位置A2における軌道の接線方向B2を向くよう仮想鉄道車両オブジェクト62bが仮想空間60に配置される。また仮想鉄道車両オブジェクト62cの前面の中心が位置A3に位置し当該前面の法線方向が位置A3における軌道の接線方向B3を向くよう仮想鉄道車両オブジェクト62cが仮想空間60に配置される。また仮想鉄道車両オブジェクト62dの前面の中心が位置A4に位置し当該前面の法線方向が位置A4における軌道の接線方向B4を向くよう仮想鉄道車両オブジェクト62dが仮想空間60に配置される。また仮想鉄道車両オブジェクト62eの前面の中心が位置A5に位置し当該前面の法線方向が位置A5における軌道の接線方向B5を向くよう仮想鉄道車両オブジェクト62eが仮想空間60に配置される。また仮想鉄道車両オブジェクト62fの前面の中心が位置A6に位置し位置A6における当該前面の法線方向が軌道の接線方向B6を向くよう仮想鉄道車両オブジェクト62aが仮想空間60に配置される。このようにして仮想車両位置に対応する6個の仮想鉄道車両オブジェクト62の位置及び向きが特定される。 Then, the virtual railroad vehicle object 62a is arranged in the virtual space 60 so that the center of the front surface of the virtual railroad vehicle object 62a is located at the position A1 and the normal direction of the front surface faces the tangential direction B1 of the track at the position A1. Further, the virtual railroad vehicle object 62b is arranged in the virtual space 60 so that the center of the front surface of the virtual railroad vehicle object 62b is located at the position A2 and the normal direction of the front surface faces the tangential direction B2 of the track at the position A2. Further, the virtual railroad vehicle object 62c is arranged in the virtual space 60 so that the center of the front surface of the virtual railroad vehicle object 62c is located at the position A3 and the normal direction of the front surface faces the tangential direction B3 of the track at the position A3. Further, the virtual railroad vehicle object 62d is arranged in the virtual space 60 so that the center of the front surface of the virtual railroad vehicle object 62d is located at the position A4 and the normal direction of the front surface faces the tangential direction B4 of the track at the position A4. Further, the virtual railroad vehicle object 62e is arranged in the virtual space 60 so that the center of the front surface of the virtual railroad vehicle object 62e is located at the position A5 and the normal direction of the front surface faces the tangential direction B5 of the track at the position A5. Further, the virtual railroad vehicle object 62a is arranged in the virtual space 60 so that the center of the front surface of the virtual railroad vehicle object 62f is located at the position A6 and the normal direction of the front surface at the position A6 faces the tangential direction B6 of the track. In this way, the positions and orientations of the six virtual rail vehicle objects 62 corresponding to the virtual vehicle positions are specified.

また仮想空間60内には、それぞれ実鉄道車両に設けられたカメラに対応付けられる視点(仮想カメラ)64の位置及び視点64における視線の向き(視線方向66)が設定される。 Further, in the virtual space 60, the position of the viewpoint (virtual camera) 64 associated with the camera provided in the actual railway vehicle and the direction of the line of sight (line of sight direction 66) at the viewpoint 64 are set.

図4には、視点64a、視点64b、視点64c、及び、視点64dの位置が示されている。また図4には、視点64aにおける視線の向きである視線方向66a、視点64bにおける視線の向きである視線方向66b、視点64cにおける視線の向きである視線方向66c、及び、視点64dにおける視線の向きである視線方向66dも示されている。 FIG. 4 shows the positions of the viewpoint 64a, the viewpoint 64b, the viewpoint 64c, and the viewpoint 64d. Further, FIG. 4 shows the line-of-sight direction 66a, which is the direction of the line of sight at the viewpoint 64a, the line-of-sight direction 66b, which is the direction of the line of sight at the viewpoint 64b, the line-of-sight direction 66c, which is the direction of the line of sight at the viewpoint 64c, and the direction of the line of sight at the viewpoint 64d. The line-of-sight direction 66d is also shown.

図4に示す視点64aの位置、視点64bの位置、視点64cの位置、視点64dの仮想空間60内における位置は、それぞれ、後方実カメラ、左側方実カメラ、右側方実カメラ、前方実カメラの実空間内における位置に対応付けられる。また図4に示す視線方向66a、視線方向66b、視線方向66c、及び、視線方向66dは、それぞれ、後方実カメラ、左側方実カメラ、右側方実カメラ、前方実カメラの実空間内における撮影する向きに対応付けられる。 The position of the viewpoint 64a, the position of the viewpoint 64b, the position of the viewpoint 64c, and the position of the viewpoint 64d in the virtual space 60 shown in FIG. 4 are the rear real camera, the left side real camera, the right side real camera, and the front real camera, respectively. It is associated with a position in real space. Further, the line-of-sight direction 66a, the line-of-sight direction 66b, the line-of-sight direction 66c, and the line-of-sight direction 66d shown in FIG. 4 are photographed in the real space of the rear real camera, the left side real camera, the right side real camera, and the front real camera, respectively. It is associated with the direction.

そのため本実施形態では図4に示すように、例えば視点64aは仮想鉄道車両オブジェクト62fの後方に配置され視線方向66aは後方を向くこととなる。また例えば、視点64bは仮想鉄道車両オブジェクト62fの左側方に配置され視線方向66bは前方を向くこととなる。また例えば、視点64cは仮想鉄道車両オブジェクト62fの右側方に配置され視線方向66cは前方を向くこととなる。また例えば視点64dは仮想鉄道車両オブジェクト62aの前方に配置され視線方向66dは前方を向くこととなる。 Therefore, in the present embodiment, as shown in FIG. 4, for example, the viewpoint 64a is arranged behind the virtual railway vehicle object 62f, and the line-of-sight direction 66a faces rearward. Further, for example, the viewpoint 64b is arranged on the left side of the virtual railway vehicle object 62f, and the line-of-sight direction 66b faces forward. Further, for example, the viewpoint 64c is arranged on the right side of the virtual railway vehicle object 62f, and the line-of-sight direction 66c faces forward. Further, for example, the viewpoint 64d is arranged in front of the virtual railway vehicle object 62a, and the line-of-sight direction 66d faces forward.

そして本実施形態では例えば、視点64a、視点64b、及び、視点64cについては、仮想鉄道車両オブジェクト62fの位置に対する相対的な位置が固定される。また視線方向66a、視線方向66b、及び、視線方向66cについては、仮想鉄道車両オブジェクト62fの向きに対する相対的な向きが固定される。また視点64dについては、仮想鉄道車両オブジェクト62aの位置に対する相対的な位置が固定される。また視線方向66dについては、仮想鉄道車両オブジェクト62aの向きに対する相対的な向きが固定される。 In the present embodiment, for example, the positions of the viewpoint 64a, the viewpoint 64b, and the viewpoint 64c are fixed relative to the position of the virtual railway vehicle object 62f. Further, with respect to the line-of-sight direction 66a, the line-of-sight direction 66b, and the line-of-sight direction 66c, the directions relative to the directions of the virtual railway vehicle object 62f are fixed. Further, for the viewpoint 64d, the position relative to the position of the virtual railway vehicle object 62a is fixed. Further, with respect to the line-of-sight direction 66d, the direction relative to the direction of the virtual railway vehicle object 62a is fixed.

また本実施形態では、上述のように、仮想車両位置に基づいて、6個の仮想鉄道車両オブジェクト62の位置及び向きが一意に特定される。そのため図5に示すように、視点64aの位置、視点64bの位置、視点64cの位置、視点64dの位置、視線方向66a、視線方向66b、視線方向66c、及び、視線方向66dについても、仮想車両位置(例えば図5における位置A1)に基づいて一意に特定されることとなる。 Further, in the present embodiment, as described above, the positions and orientations of the six virtual railroad vehicle objects 62 are uniquely specified based on the virtual vehicle positions. Therefore, as shown in FIG. 5, the virtual vehicle also has the position of the viewpoint 64a, the position of the viewpoint 64b, the position of the viewpoint 64c, the position of the viewpoint 64d, the line of sight direction 66a, the line of sight direction 66b, the line of sight direction 66c, and the line of sight direction 66d. It will be uniquely specified based on the position (for example, the position A1 in FIG. 5).

なお後述のように、仮想空間60に、複数のポリゴンにより構成された仮想人物オブジェクト68(図6、図8、図11及び図13参照)などといった、仮想鉄道車両オブジェクト62以外の仮想オブジェクトが配置されていてもよい。 As will be described later, virtual objects other than the virtual railroad vehicle object 62, such as a virtual person object 68 composed of a plurality of polygons (see FIGS. 6, 8, 11 and 13), are arranged in the virtual space 60. It may have been done.

本実施形態では鉄道シミュレータシステム1を用いた訓練が行われている期間に運転士訓練者等のユーザが行う走行指令部21に対する操作に応じて、鉄道シミュレータシステム1において模されている実鉄道車両における実車両位置が変化する。そしてこの実車両位置の変化に応じて、仮想車両位置が変化し、当該仮想車両位置の変化に応じて、仮想空間60内における仮想鉄道車両オブジェクト62の位置及び向きが変化する。なお本実施形態では、仮想車両位置の変化に応じて、仮想空間60に設定されている軌道に沿って仮想鉄道車両オブジェクト62の位置及び向きが変化する。 In the present embodiment, an actual railway vehicle simulated in the railway simulator system 1 is performed in response to an operation on the traveling command unit 21 performed by a user such as a driver trainer during the training period using the railway simulator system 1. The actual vehicle position in. Then, the virtual vehicle position changes according to the change in the actual vehicle position, and the position and orientation of the virtual railroad vehicle object 62 in the virtual space 60 changes according to the change in the virtual vehicle position. In the present embodiment, the position and orientation of the virtual railroad vehicle object 62 change along the track set in the virtual space 60 according to the change in the virtual vehicle position.

そして本実施形態では、鉄道シミュレータシステム1を用いた訓練が行われている期間にわたって、所定のフレームレートで(例えば1/60秒間隔で)4個のフレーム画像の組合せが生成される。そして生成される組合せに含まれるフレーム画像のそれぞれが後方表示パネルP1、左側方表示パネルP2、右側方表示パネルP3、及び、前方表示パネルP4に表示される。このようにして本実施形態では、訓練が行われている期間にわたって、所定のフレームレートで後方表示パネルP1、左側方表示パネルP2、右側方表示パネルP3、及び、前方表示パネルP4に表示されるフレーム画像が更新される。また本実施形態では、訓練が行われている期間にわたって、後方表示パネルP1、左側方表示パネルP2、右側方表示パネルP3、及び、前方表示パネルP4のそれぞれに動画像が表示されることとなる。 Then, in the present embodiment, a combination of four frame images is generated at a predetermined frame rate (for example, at 1/60 second intervals) during the period during which the training using the railway simulator system 1 is performed. Then, each of the frame images included in the generated combination is displayed on the rear display panel P1, the left side display panel P2, the right side display panel P3, and the front display panel P4. In this way, in the present embodiment, the images are displayed on the rear display panel P1, the left side display panel P2, the right side display panel P3, and the front display panel P4 at a predetermined frame rate during the training period. The frame image is updated. Further, in the present embodiment, the moving image is displayed on each of the rear display panel P1, the left side display panel P2, the right side display panel P3, and the front display panel P4 during the training period. ..

ここで本実施形態では例えば、後方表示パネルP1には、後方実写フレーム画像と仮想空間60内において視点64aから視線方向66aを見た様子を表す仮想空間画像とを合成した合成画像をフレーム画像として含む動画像が表示される。以下、当該仮想空間画像を後方仮想空間画像と呼び、当該合成画像を後方合成画像と呼ぶこととする。 Here, in the present embodiment, for example, on the rear display panel P1, a composite image obtained by synthesizing a rear live-action frame image and a virtual space image showing a state in which the line-of-sight direction 66a is viewed from the viewpoint 64a in the virtual space 60 is used as a frame image. The including moving image is displayed. Hereinafter, the virtual space image will be referred to as a rear virtual space image, and the composite image will be referred to as a rear composite image.

また左側方表示パネルP2には、左側方実写フレーム画像と仮想空間60内において視点64bから視線方向66bを見た様子を表す仮想空間画像とを合成した合成画像をフレーム画像として含む動画像が表示される。以下、当該仮想空間画像を左側方仮想空間画像と呼び、当該合成画像を左側方合成画像と呼ぶこととする。 Further, on the left side display panel P2, a moving image including a composite image obtained by synthesizing a left side live-action frame image and a virtual space image showing a state in which the line-of-sight direction 66b is viewed from the viewpoint 64b in the virtual space 60 is displayed as a frame image. Will be done. Hereinafter, the virtual space image will be referred to as a left-side virtual space image, and the composite image will be referred to as a left-side composite image.

また右側方表示パネルP3には、右側方実写フレーム画像と仮想空間60内において視点64cから視線方向66cを見た様子を表す仮想空間画像とを合成した合成画像をフレーム画像として含む動画像が表示される。以下、当該仮想空間画像を右側方仮想空間画像と呼び、当該合成画像を右側方合成画像と呼ぶこととする。 Further, on the right side display panel P3, a moving image including a composite image obtained by synthesizing a right side live-action frame image and a virtual space image showing a state in which the line-of-sight direction 66c is viewed from the viewpoint 64c in the virtual space 60 is displayed as a frame image. Will be done. Hereinafter, the virtual space image will be referred to as a right-side virtual space image, and the composite image will be referred to as a right-side composite image.

また前方表示パネルP4には、前方実写フレーム画像と仮想空間60内において視点64dから視線方向66dを見た様子を表す仮想空間画像とを合成した合成画像をフレーム画像として含む動画像が表示される。以下、当該仮想空間画像を前方仮想空間画像と呼び、当該合成画像を前方合成画像と呼ぶこととする。 Further, on the front display panel P4, a moving image including a composite image obtained by synthesizing a front live-action frame image and a virtual space image showing a state in which the line-of-sight direction 66d is viewed from the viewpoint 64d in the virtual space 60 is displayed as a frame image. .. Hereinafter, the virtual space image will be referred to as a front virtual space image, and the composite image will be referred to as a front composite image.

なお本実施形態に係る仮想空間画像は、仮想空間60を見た様子をレンダリングしたコンピュータグラフィックス(CG)の画像である。 The virtual space image according to the present embodiment is a computer graphics (CG) image obtained by rendering a state of viewing the virtual space 60.

以下、図6〜図10Cを参照しながら、合成画像の生成の一例について説明する。 Hereinafter, an example of generating a composite image will be described with reference to FIGS. 6 to 10C.

例えばある時点(時点t1)において、図6に示すように、仮想空間60内で仮想鉄道車両オブジェクト62aの前方に仮想人物オブジェクト68が位置する状況になったとする。なお図6には、仮想鉄道車両オブジェクト62の軌道が二点鎖線で示されている。ここで例えば図6に示す仮想空間60に対応付けられる実写動画像が撮影された際に実鉄道車両は実空間内においてゆるやかに1021曲がる軌道を進んだとする。この場合、図6に示すように仮想空間60内における仮想鉄道車両オブジェクト62の軌道はゆるやかに右に曲がる軌道となる。 For example, at a certain time point (time point t1), as shown in FIG. 6, it is assumed that the virtual person object 68 is located in front of the virtual railroad vehicle object 62a in the virtual space 60. In FIG. 6, the track of the virtual railway vehicle object 62 is shown by a chain double-dashed line. Here, for example, it is assumed that when the live-action moving image associated with the virtual space 60 shown in FIG. 6 is taken, the real railroad vehicle gently follows a 1021 turning track in the real space. In this case, as shown in FIG. 6, the track of the virtual railroad vehicle object 62 in the virtual space 60 is a track that gently turns to the right.

そしてこの状況における仮想車両位置に基づいて、視点64aの位置、視点64bの位置、視点64cの位置、視点64dの位置、視線方向66a、視線方向66b、視線方向66c、及び、視線方向66dが特定される。そして特定される視点64の位置及び視線方向66に基づいて、後方仮想空間画像、左側方仮想空間画像、右側方仮想空間画像、及び、前方仮想空間画像の組合せが生成される。図7Aに、この状況において生成される前方仮想空間画像70の一例を示す。 Then, based on the virtual vehicle position in this situation, the position of the viewpoint 64a, the position of the viewpoint 64b, the position of the viewpoint 64c, the position of the viewpoint 64d, the line of sight direction 66a, the line of sight direction 66b, the line of sight direction 66c, and the line of sight direction 66d are specified. Will be done. Then, a combination of the rear virtual space image, the left side virtual space image, the right side virtual space image, and the front virtual space image is generated based on the position of the specified viewpoint 64 and the line-of-sight direction 66. FIG. 7A shows an example of the forward virtual space image 70 generated in this situation.

そしてこの状況における仮想車両位置が仮想車両位置データの値として設定された実写画像管理データが取得される。そして当該実写画像管理データに含まれる後方実写フレーム画像、左側方実写フレーム画像、右側方実写フレーム画像、及び、前方実写フレーム画像の組合せが取得される。図7Bに、この状況において取得される組合せに含まれる前方実写フレーム画像72の一例を示す。 Then, the live-action image management data in which the virtual vehicle position in this situation is set as the value of the virtual vehicle position data is acquired. Then, a combination of the rear live-action frame image, the left side live-action frame image, the right side live-action frame image, and the front live-action frame image included in the live-action image management data is acquired. FIG. 7B shows an example of the forward live-action frame image 72 included in the combination acquired in this situation.

そして生成された後方仮想空間画像と取得された組合せに含まれる後方実写フレーム画像とを合成することで後方合成画像が生成される。また生成された左側方仮想空間画像と取得された組合せに含まれる左側方実写フレーム画像とを合成することで左側方合成画像が生成される。また生成された右側方仮想空間画像と取得された組合せに含まれる右側方実写フレーム画像とを合成することで右側方合成画像が生成される。また生成された前方仮想空間画像と取得された組合せに含まれる前方実写フレーム画像とを合成することで前方合成画像が生成される。図7Cに、図7Aに示す前方仮想空間画像70と図7Bに示す前方実写フレーム画像72とを合成することにより生成される前方合成画像74の一例を示す。 Then, the rear composite image is generated by synthesizing the generated rear virtual space image and the rear live-action frame image included in the acquired combination. Further, the left side composite image is generated by synthesizing the generated left side virtual space image and the left side live-action frame image included in the acquired combination. Further, a right-side composite image is generated by synthesizing the generated right-side virtual space image and the right-side live-action frame image included in the acquired combination. Further, the front composite image is generated by synthesizing the generated front virtual space image and the front live-action frame image included in the acquired combination. FIG. 7C shows an example of the front composite image 74 generated by synthesizing the front virtual space image 70 shown in FIG. 7A and the front live-action frame image 72 shown in FIG. 7B.

なお、この状況における仮想車両位置が仮想車両位置データの値として設定された実写画像管理データが存在しないことが考えられる。このような場合は、この状況における仮想車両位置に基づいて特定される複数の実写画像管理データが取得されてもよい。そして複数の実写画像管理データのそれぞれに含まれる実写画像を補間した画像と仮想空間画像とを合成した合成画像が生成されてもよい。 It is conceivable that there is no live-action image management data in which the virtual vehicle position in this situation is set as the value of the virtual vehicle position data. In such a case, a plurality of live-action image management data specified based on the virtual vehicle position in this situation may be acquired. Then, a composite image obtained by synthesizing the image obtained by interpolating the live-action image included in each of the plurality of live-action image management data and the virtual space image may be generated.

例えば、この状況における仮想車両位置の、上述の軌道に沿った前及び後のそれぞれについての、当該仮想車両位置に最も近い位置を示す仮想車両位置データを含む実写画像管理データが取得されてもよい。そしてこのようにして取得された2つの実写画像管理データのそれぞれに含まれる後方実写フレーム画像を補間した画像と生成された後方仮想空間画像とを合成することで後方合成画像が生成されてもよい。また取得された2つの実写画像管理データのそれぞれに含まれる左側方実写フレーム画像を補間した画像と生成された左側方仮想空間画像とを合成することで左側方合成画像が生成されてもよい。また取得された2つの実写画像管理データのそれぞれに含まれる右側方実写フレーム画像を補間した画像と生成された右側方仮想空間画像とを合成することで右側方合成画像が生成されてもよい。また取得された2つの実写画像管理データのそれぞれに含まれる前方実写フレーム画像を補間した画像と生成された前方仮想空間画像とを合成することで前方合成画像が生成されてもよい。 For example, live-action image management data including virtual vehicle position data indicating the position closest to the virtual vehicle position for each of the front and rear along the above-mentioned track of the virtual vehicle position in this situation may be acquired. .. Then, a rear composite image may be generated by synthesizing the image obtained by interpolating the rear live frame image included in each of the two live image management data acquired in this way and the generated rear virtual space image. .. Further, the left-side composite image may be generated by synthesizing the image obtained by interpolating the left-side live-action frame image included in each of the two acquired live-action image management data and the generated left-side virtual space image. Further, the right-side composite image may be generated by synthesizing the image obtained by interpolating the right-side live-action frame image included in each of the two acquired live-action image management data and the generated right-side virtual space image. Further, the front composite image may be generated by synthesizing the image obtained by interpolating the front live frame image included in each of the two acquired live image management data and the generated front virtual space image.

そしてこのようにして生成される後方合成画像、左側方合成画像、右側方合成画像、及び、前方合成画像が、それぞれ、後方表示パネルP1、左側方表示パネルP2、右側方表示パネルP3、及び、前方表示パネルP4に表示される。 Then, the rear composite image, the left composite image, the right composite image, and the front composite image generated in this manner are the rear display panel P1, the left side display panel P2, the right side display panel P3, and the front composite image, respectively. It is displayed on the front display panel P4.

その後、時点t1より後である時点t2において、仮想鉄道車両オブジェクト62が図8に示す位置まで移動したとする。図8に示す状況では、仮想人物オブジェクト68の仮想空間60内における位置は変化していないが、仮想鉄道車両オブジェクト62が移動したことによって仮想人物オブジェクト68は仮想鉄道車両オブジェクト62fの右横に位置している。 After that, it is assumed that the virtual railway vehicle object 62 moves to the position shown in FIG. 8 at the time point t2 after the time point t1. In the situation shown in FIG. 8, the position of the virtual person object 68 in the virtual space 60 has not changed, but the virtual person object 68 is positioned on the right side of the virtual railroad vehicle object 62f due to the movement of the virtual railroad vehicle object 62. are doing.

図9に、時点t2の状況において生成される前方合成画像76の一例を示す。図8に示すように、時点t2の状況では、視点64dの視野範囲には仮想人物オブジェクト68が入らない。そのため、図9に示す前方合成画像76には、仮想人物オブジェクト68の像が含まれないこととなる。 FIG. 9 shows an example of the forward composite image 76 generated in the situation at time point t2. As shown in FIG. 8, in the situation at the time point t2, the virtual person object 68 is not included in the visual field range of the viewpoint 64d. Therefore, the front composite image 76 shown in FIG. 9 does not include the image of the virtual person object 68.

図10Aに、時点t2の状況において生成される右側方仮想空間画像78の一例を示す。また図10Bに、時点t2の状況において取得される組合せに含まれる右側方実写フレーム画像80の一例を示す。時点t2の状況では視点64cの視野範囲に仮想人物オブジェクト68が入っている。そのため図10Aに示す右側方仮想空間画像78には仮想人物オブジェクト68の像が含まれることとなる。そして図10Aに示す右側方仮想空間画像78と図10Bに示す右側方実写フレーム画像80とを合成することにより、図10Cに示す右側方合成画像82が生成される。このようにして生成される右側方合成画像82は、右側方表示パネルP3に表示される。 FIG. 10A shows an example of the right-side virtual space image 78 generated in the situation at time point t2. Further, FIG. 10B shows an example of the right-side live-action frame image 80 included in the combination acquired in the situation at time point t2. In the situation at time point t2, the virtual person object 68 is included in the visual field range of the viewpoint 64c. Therefore, the image of the virtual person object 68 is included in the right-side virtual space image 78 shown in FIG. 10A. Then, by synthesizing the right-side virtual space image 78 shown in FIG. 10A and the right-side live-action frame image 80 shown in FIG. 10B, the right-side composite image 82 shown in FIG. 10C is generated. The right-side composite image 82 generated in this way is displayed on the right-side display panel P3.

以上のようにして、本実施形態では時点t1において前方表示パネルP4に表示されていた仮想人物オブジェクト68の像を、時点t2において前方表示パネルP4に表示させないようにしつつ右側方表示パネルP3に表示させることができることとなる。 As described above, in the present embodiment, the image of the virtual person object 68 displayed on the front display panel P4 at the time point t1 is displayed on the right side display panel P3 while not being displayed on the front display panel P4 at the time point t2. It will be possible to make it.

以下、図11〜図14Cを参照しながら、合成画像の生成の別の一例について説明する。 Hereinafter, another example of generating a composite image will be described with reference to FIGS. 11 to 14C.

例えばある時点(時点t3)において、図11に示すように、仮想空間60内で仮想鉄道車両オブジェクト62eの右横に仮想人物オブジェクト68が位置する状況になったとする。なお図11には、仮想鉄道車両オブジェクト62の軌道が二点鎖線で示されている。ここで例えば図11に示す仮想空間60に対応付けられる実写動画像が撮影された際に実鉄道車両は実空間内のゆるやかに右に曲がる軌道を進んだとする。この場合は図11に示すように仮想鉄道車両オブジェクト62の仮想空間60内の軌道はゆるやかに右に曲がる軌道となる。 For example, at a certain time point (time point t3), as shown in FIG. 11, it is assumed that the virtual person object 68 is located on the right side of the virtual railroad vehicle object 62e in the virtual space 60. In FIG. 11, the track of the virtual railway vehicle object 62 is shown by a chain double-dashed line. Here, for example, it is assumed that when the live-action moving image associated with the virtual space 60 shown in FIG. 11 is taken, the real railroad vehicle travels on a track that gently turns to the right in the real space. In this case, as shown in FIG. 11, the track of the virtual railroad vehicle object 62 in the virtual space 60 is a track that gently turns to the right.

図12Aに、時点t3の状況において生成される右側方仮想空間画像84の一例を示す。また図12Bに、時点t3の状況において取得される組合せに含まれる右側方実写フレーム画像86の一例を示す。図11に示すように、時点t3の状況では視点64cの視野範囲に仮想人物オブジェクト68が入っている。そのため図12Aに示す右側方仮想空間画像84には仮想人物オブジェクト68の像が含まれることとなる。そして図12Aに示す右側方仮想空間画像84と図12Bに示す右側方実写フレーム画像86とを合成することにより、図12Cに示す右側方合成画像88が生成される。このようにして生成される右側方合成画像88は、右側方表示パネルP3に表示される。 FIG. 12A shows an example of the right side virtual space image 84 generated in the situation at time point t3. Further, FIG. 12B shows an example of the right-side live-action frame image 86 included in the combination acquired in the situation at the time point t3. As shown in FIG. 11, in the situation at the time point t3, the virtual person object 68 is included in the visual field range of the viewpoint 64c. Therefore, the image of the virtual person object 68 is included in the right-side virtual space image 84 shown in FIG. 12A. Then, by synthesizing the right-side virtual space image 84 shown in FIG. 12A and the right-side live-action frame image 86 shown in FIG. 12B, the right-side composite image 88 shown in FIG. 12C is generated. The right-side composite image 88 generated in this way is displayed on the right-side display panel P3.

そして時点t3より後である時点t4において、仮想鉄道車両オブジェクト62が図13に示す位置に移動したとする。図13に示す状況では、仮想人物オブジェクト68の仮想空間60内における位置は時点t3と変化していないが、仮想鉄道車両オブジェクト62が移動したことによって仮想人物オブジェクト68は仮想鉄道車両オブジェクト62fの後方に位置している。 Then, it is assumed that the virtual railway vehicle object 62 moves to the position shown in FIG. 13 at the time point t4, which is later than the time point t3. In the situation shown in FIG. 13, the position of the virtual person object 68 in the virtual space 60 has not changed from the time point t3, but the virtual person object 68 is behind the virtual railroad vehicle object 62f due to the movement of the virtual railroad vehicle object 62. Is located in.

図14Aに、時点t4の状況において生成される後方仮想空間画像90の一例を示す。また図14Bに、時点t4の状況において取得される組合せに含まれる後方実写フレーム画像92の一例を示す。時点t4の状況では視点64cの視野範囲には仮想人物オブジェクト68が入らないが視点64aの視野範囲に仮想人物オブジェクト68が入っている。そのため図14Aに示す後方仮想空間画像90には仮想人物オブジェクト68の像が含まれることとなる。そして図14Aに示す後方仮想空間画像90と図14Bに示す後方実写フレーム画像92とを合成することにより、図14Cに示す後方合成画像94が生成される。このようにして生成される後方合成画像94は、後方表示パネルP1に表示される。 FIG. 14A shows an example of the rear virtual space image 90 generated in the situation at time point t4. Further, FIG. 14B shows an example of the rear-view live-action frame image 92 included in the combination acquired in the situation at the time point t4. In the situation at the time point t4, the virtual person object 68 is not included in the visual field range of the viewpoint 64c, but the virtual person object 68 is included in the visual field range of the viewpoint 64a. Therefore, the rear virtual space image 90 shown in FIG. 14A includes an image of the virtual person object 68. Then, by synthesizing the rear virtual space image 90 shown in FIG. 14A and the rear live-action frame image 92 shown in FIG. 14B, the rear composite image 94 shown in FIG. 14C is generated. The rear composite image 94 generated in this way is displayed on the rear display panel P1.

以上のようにして本実施形態では、時点t3において右側方表示パネルP3に表示されていた仮想人物オブジェクト68の像を、時点t4において右側方表示パネルP3に表示させないようにしつつ後方表示パネルP1に表示させることができることとなる。 As described above, in the present embodiment, the image of the virtual person object 68 displayed on the right side display panel P3 at the time point t3 is not displayed on the right side display panel P3 at the time point t4, and is displayed on the rear display panel P1. It will be possible to display it.

本実施形態では、合成画像を生成するにあたって、実写画像に対して手作業でCGを重畳させる作業を行う必要がない。また本実施形態では、合成画像を生成するにあたって、実写画像の画像解析によってコンピュータグラフィックス(CG)を配置する位置を決定する演算処理などといった負荷が重い処理を行う必要がない。そのため本実施形態によれば、手間をかけずに軽い処理負荷で、実写画像と仮想空間画像とを合成した画像を生成できることとなる。 In the present embodiment, it is not necessary to manually superimpose CG on the live-action image when generating the composite image. Further, in the present embodiment, in generating the composite image, it is not necessary to perform heavy processing such as arithmetic processing for determining the position where the computer graphics (CG) is arranged by image analysis of the live-action image. Therefore, according to the present embodiment, it is possible to generate an image in which a live-action image and a virtual space image are combined with a light processing load without any trouble.

また本実施形態では、仮想人物オブジェクト68などの仮想オブジェクトをモデリングして仮想空間60に配置することにより、複数の表示パネルに表示されるすべての画像についての当該仮想オブジェクトの像の配置が決定される。そのため本実施形態によれば、実写画像と仮想空間画像とを合成した画像を含む動画像を複数の表示パネルにおいて互いに整合がとれた状態で容易に表示させることができる。 Further, in the present embodiment, by modeling a virtual object such as the virtual person object 68 and arranging it in the virtual space 60, the arrangement of the image of the virtual object for all the images displayed on the plurality of display panels is determined. The object. Therefore, according to the present embodiment, it is possible to easily display a moving image including an image obtained by synthesizing a live-action image and a virtual space image in a state of being consistent with each other on a plurality of display panels.

なお仮想人物オブジェクト68を構成するポリゴンの表面にカメラで実空間を撮影した実写画像がテクスチャとしてマッピングされていてもよい。このようにすればより実写に近い合成画像を生成することができる。 A live-action image of the real space taken by the camera may be mapped as a texture on the surface of the polygons constituting the virtual person object 68. In this way, a composite image closer to a live-action image can be generated.

以下、本実施形態に係るサーバ50の機能並びに本実施形態に係るサーバ50で実行される処理についてさらに説明する。 Hereinafter, the functions of the server 50 according to the present embodiment and the processing executed by the server 50 according to the present embodiment will be further described.

図15は、本実施形態に係るサーバ50で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係るサーバ50で、図15に示す機能のすべてが実装される必要はなく、また、図15に示す機能以外の機能が実装されていても構わない。 FIG. 15 is a functional block diagram showing an example of the functions implemented in the server 50 according to the present embodiment. It should be noted that the server 50 according to the present embodiment does not have to implement all of the functions shown in FIG. 15, and may have functions other than the functions shown in FIG.

図15に示すように、本実施形態に係るサーバ50には、機能的には例えば、実写画像記憶部100、仮想空間データ記憶部102、走行信号受信部104、仮想車両位置更新部106、視点位置特定部108、仮想空間画像生成部110、実写画像取得部112、合成画像生成部114、合成画像出力部116、合成画像送信部118、が含まれる。実写画像記憶部100、仮想空間データ記憶部102は、記憶部50bを主として実装される。走行信号受信部104、合成画像送信部118は、通信部50cを主として実装される。仮想車両位置更新部106、視点位置特定部108、仮想空間画像生成部110、実写画像取得部112、合成画像生成部114は、プロセッサ50aを主として実装される。合成画像出力部116は、プロセッサ50a、後方表示パネルP1、左側方表示パネルP2、右側方表示パネルP3を主として実装される。そしてサーバ50は、本実施形態に係る合成画像を生成する鉄道シミュレータ用画像生成システムとしての役割を担うこととなる。 As shown in FIG. 15, functionally, the server 50 according to the present embodiment includes a live-action image storage unit 100, a virtual space data storage unit 102, a traveling signal reception unit 104, a virtual vehicle position update unit 106, and a viewpoint. The position specifying unit 108, the virtual space image generation unit 110, the live-action image acquisition unit 112, the composite image generation unit 114, the composite image output unit 116, and the composite image transmission unit 118 are included. The live-action image storage unit 100 and the virtual space data storage unit 102 are mainly mounted with the storage unit 50b. The traveling signal receiving unit 104 and the composite image transmitting unit 118 are mainly mounted with the communication unit 50c. The virtual vehicle position update unit 106, the viewpoint position identification unit 108, the virtual space image generation unit 110, the live-action image acquisition unit 112, and the composite image generation unit 114 are mainly mounted with the processor 50a. The composite image output unit 116 mainly mounts the processor 50a, the rear display panel P1, the left side display panel P2, and the right side display panel P3. Then, the server 50 plays a role as an image generation system for a railway simulator that generates a composite image according to the present embodiment.

以上の機能は、コンピュータであるサーバ50にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ50aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してサーバ50に供給されてもよい。 The above functions may be implemented by executing a program installed on the server 50, which is a computer, including commands corresponding to the above functions on the processor 50a. This program may be supplied to the server 50 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet or the like.

実写画像記憶部100は、本実施形態では例えば、実空間内を移動する実鉄道車両に設けられたカメラにより撮影された実写画像を、仮想空間60内の仮想車両位置と関連付けて記憶する。ここで実写画像記憶部100が、実鉄道車両に設けられた複数のカメラによりそれぞれ撮影された複数の実写画像の組合せを、仮想空間60内における仮想車両位置と関連付けて記憶してもよい。例えば上述のように、実写画像記憶部100が、同じタイミングに撮影された実写画像の組合せを含む上述の実写画像管理データを複数記憶してもよい。 In the present embodiment, the live-action image storage unit 100 stores, for example, a live-action image taken by a camera provided in a real railcar moving in the real space in association with a virtual vehicle position in the virtual space 60. Here, the live-action image storage unit 100 may store a combination of a plurality of live-action images taken by a plurality of cameras provided in the real railcar in association with a virtual vehicle position in the virtual space 60. For example, as described above, the live-action image storage unit 100 may store a plurality of the above-mentioned live-action image management data including a combination of live-action images taken at the same timing.

仮想空間データ記憶部102は、本実施形態では例えば、仮想空間60における各仮想オブジェクトの位置や向きを示すデータを記憶する。また仮想空間データ記憶部102が、仮想オブジェクトを表すポリゴンのデータや仮想オブジェクトにマッピングされるテクスチャの画像などを記憶してもよい。また仮想空間データ記憶部102は、仮想空間60内に設定された軌道を示すデータを記憶してもよい。また仮想空間データ記憶部102は、仮想車両位置に対する仮想鉄道車両オブジェクト62の位置及び向きを示すデータを記憶してもよい。また仮想空間データ記憶部102は、視点64a、視点64b、及び、視点64cの、仮想鉄道車両オブジェクト62fの位置に対する相対的な位置を示すデータを記憶してもよい。また仮想空間データ記憶部102は、視線方向66a、視線方向66b、及び、視線方向66cの、仮想鉄道車両オブジェクト62fの向きに対する相対的な向きを示すデータを記憶してもよい。また仮想空間データ記憶部102は、視点64dの、仮想鉄道車両オブジェクト62aの位置に対する相対的な位置を示すデータを記憶してもよい。また仮想空間データ記憶部102は、視線方向66dの、仮想鉄道車両オブジェクト62aの向きに対する相対的な向きを示すデータを記憶してもよい。 In the present embodiment, the virtual space data storage unit 102 stores data indicating the position and orientation of each virtual object in the virtual space 60, for example. Further, the virtual space data storage unit 102 may store polygon data representing the virtual object, a texture image mapped to the virtual object, and the like. Further, the virtual space data storage unit 102 may store data indicating an orbit set in the virtual space 60. Further, the virtual space data storage unit 102 may store data indicating the position and orientation of the virtual railroad vehicle object 62 with respect to the virtual vehicle position. Further, the virtual space data storage unit 102 may store data indicating the relative positions of the viewpoint 64a, the viewpoint 64b, and the viewpoint 64c with respect to the position of the virtual railroad vehicle object 62f. Further, the virtual space data storage unit 102 may store data indicating the directions of the line-of-sight direction 66a, the line-of-sight direction 66b, and the line-of-sight direction 66c relative to the direction of the virtual railroad vehicle object 62f. Further, the virtual space data storage unit 102 may store data indicating the position of the viewpoint 64d relative to the position of the virtual railroad vehicle object 62a. Further, the virtual space data storage unit 102 may store data indicating a direction relative to the direction of the virtual railway vehicle object 62a in the line-of-sight direction 66d.

走行信号受信部104は、本実施形態では例えば、走行指令部21に対する操作入力に応じた走行信号を受信する。ここで例えば、所定のサンプリングレートで走行指令部21が走行信号をサーバ52に出力し、サーバ52が当該走行信号をサーバ50に送信してもよい。ここで当該サンプリングレートに相当する時間間隔は、上述のフレームレートに相当する時間間隔と同じであっても構わない。 In the present embodiment, the travel signal receiving unit 104 receives, for example, a travel signal corresponding to an operation input to the travel command unit 21. Here, for example, the travel command unit 21 may output a travel signal to the server 52 at a predetermined sampling rate, and the server 52 may transmit the travel signal to the server 50. Here, the time interval corresponding to the sampling rate may be the same as the time interval corresponding to the above-mentioned frame rate.

仮想車両位置更新部106は、本実施形態では例えば、ユーザの操作に応じて、仮想空間60内の仮想車両位置を更新する。ここで例えば、仮想車両位置更新部106が、走行信号受信部104が受信する操作入力に応じた走行信号に応じて、仮想空間60内の仮想車両位置を更新してもよい。 In the present embodiment, the virtual vehicle position update unit 106 updates the virtual vehicle position in the virtual space 60 according to, for example, a user operation. Here, for example, the virtual vehicle position update unit 106 may update the virtual vehicle position in the virtual space 60 according to the travel signal corresponding to the operation input received by the travel signal receiving unit 104.

視点位置特定部108は、本実施形態では例えば、更新後の仮想車両位置に対応する視点64の位置を特定する。ここで例えば視点位置特定部108が、仮想車両位置更新部106による更新後の仮想車両位置に基づいて、仮想鉄道車両オブジェクト62の位置及び向きを特定してもよい。そして視点位置特定部108が、特定された仮想鉄道車両オブジェクト62の位置及び向きに基づいて、視点64aの位置、視点64bの位置、視点64cの位置、視点64dの位置を特定してもよい。また例えば、例えば視点位置特定部108が、特定された仮想鉄道車両オブジェクト62の位置及び向きに基づいて、視線方向66a、視線方向66b、視線方向66c、及び、視線方向66dを特定してもよい。 In the present embodiment, the viewpoint position specifying unit 108 specifies, for example, the position of the viewpoint 64 corresponding to the updated virtual vehicle position. Here, for example, the viewpoint position specifying unit 108 may specify the position and orientation of the virtual railroad vehicle object 62 based on the virtual vehicle position updated by the virtual vehicle position updating unit 106. Then, the viewpoint position specifying unit 108 may specify the position of the viewpoint 64a, the position of the viewpoint 64b, the position of the viewpoint 64c, and the position of the viewpoint 64d based on the position and the orientation of the specified virtual railway vehicle object 62. Further, for example, the viewpoint position specifying unit 108 may specify the line-of-sight direction 66a, the line-of-sight direction 66b, the line-of-sight direction 66c, and the line-of-sight direction 66d based on the position and orientation of the specified virtual railway vehicle object 62. ..

仮想空間画像生成部110は、本実施形態では例えば、視点64の位置から仮想空間60を見た様子を表す仮想空間画像を生成する。例えば更新後の仮想車両位置に対応する視点64の位置から仮想空間60を見た様子を表す仮想空間画像が生成される。ここで例えば、上述のように、後方仮想空間画像、左側方仮想空間画像、右側方仮想空間画像、及び、前方仮想空間画像の組合せが生成されてもよい。 In the present embodiment, the virtual space image generation unit 110 generates, for example, a virtual space image representing a state in which the virtual space 60 is viewed from the position of the viewpoint 64. For example, a virtual space image showing a state in which the virtual space 60 is viewed from the position of the viewpoint 64 corresponding to the updated virtual vehicle position is generated. Here, for example, as described above, a combination of the rear virtual space image, the left side virtual space image, the right side virtual space image, and the front virtual space image may be generated.

実写画像取得部112は、本実施形態では例えば、視点64の位置に基づいて特定される1又は複数の実写画像を実写画像記憶部100から取得する。例えば更新後の仮想車両位置に対応する視点64の位置に基づいて特定される1又は複数の実写画像が実写画像記憶部100から取得される。ここで例えば、実写画像取得部112が、上述のようにして、仮想空間60内における仮想車両位置に基づいて特定される1又は複数の実写画像管理データを実写画像記憶部100から取得してもよい。 In the present embodiment, the live-action image acquisition unit 112 acquires, for example, one or a plurality of live-action images specified based on the position of the viewpoint 64 from the live-action image storage unit 100. For example, one or a plurality of live-action images specified based on the position of the viewpoint 64 corresponding to the updated virtual vehicle position are acquired from the live-action image storage unit 100. Here, for example, even if the live-action image acquisition unit 112 acquires one or a plurality of live-action image management data specified based on the virtual vehicle position in the virtual space 60 from the live-action image storage unit 100 as described above. Good.

合成画像生成部114は、本実施形態では例えば、仮想空間画像生成部110により生成される仮想空間画像と実写画像取得部112により取得される1又は複数の実写画像との合成画像を生成する。例えば複数のカメラのそれぞれについて、当該カメラに対応する視点64の位置から仮想空間60を見た様子を表す仮想空間画像と、取得される実写画像管理データに含まれる当該カメラにより撮影された1又は複数の実写画像と、の合成画像が生成されてもよい。ここで例えば上述のように、後方合成画像、左側方合成画像、右側方合成画像、及び、前方合成画像の組合せが生成されてもよい。なお上述のように、合成画像生成部114が、実写画像取得部112により取得される複数の実写画像を補間した画像を生成してもよい。そして合成画像生成部114が、仮想空間画像生成部110により生成される仮想空間画像と当該補間した画像との合成画像を生成してもよい。 In the present embodiment, the composite image generation unit 114 generates, for example, a composite image of the virtual space image generated by the virtual space image generation unit 110 and one or more live-action images acquired by the live-action image acquisition unit 112. For example, for each of the plurality of cameras, a virtual space image showing a state in which the virtual space 60 is viewed from the position of the viewpoint 64 corresponding to the camera, and one or one taken by the camera included in the acquired live-action image management data. A composite image of a plurality of live-action images may be generated. Here, for example, as described above, a combination of the rear composite image, the left composite image, the right composite image, and the front composite image may be generated. As described above, the composite image generation unit 114 may generate an image obtained by interpolating a plurality of live-action images acquired by the live-action image acquisition unit 112. Then, the composite image generation unit 114 may generate a composite image of the virtual space image generated by the virtual space image generation unit 110 and the interpolated image.

合成画像出力部116は、本実施形態では例えば、合成画像生成部114が生成する合成画像を表示パネルに出力する。ここで例えば、合成画像出力部116は、合成画像生成部114が生成する後方合成画像を、後方表示パネルP1に出力してもよい。この場合、後方表示パネルP1は、当該後方合成画像を表示してもよい。また例えば、合成画像出力部116は、合成画像生成部114が生成する左側方合成画像を、左側方表示パネルP2に出力してもよい。この場合、左側方表示パネルP2は、当該左側方合成画像を表示してもよい。また例えば、合成画像出力部116は、合成画像生成部114が生成する右側方合成画像を、右側方表示パネルP3に出力してもよい。この場合、右側方表示パネルP3は、当該右側方合成画像を表示してもよい。 In the present embodiment, the composite image output unit 116 outputs, for example, the composite image generated by the composite image generation unit 114 to the display panel. Here, for example, the composite image output unit 116 may output the rear composite image generated by the composite image generation unit 114 to the rear display panel P1. In this case, the rear display panel P1 may display the rear composite image. Further, for example, the composite image output unit 116 may output the left-side composite image generated by the composite image generation unit 114 to the left-side display panel P2. In this case, the left side display panel P2 may display the left side composite image. Further, for example, the composite image output unit 116 may output the right-side composite image generated by the composite image generation unit 114 to the right-side display panel P3. In this case, the right side display panel P3 may display the right side composite image.

合成画像送信部118は、本実施形態では例えば、合成画像生成部114が生成する合成画像をサーバ52に送信する。ここで合成画像送信部118が、合成画像生成部114が生成する前方合成画像をサーバ52に送信してもよい。そして当該前方合成画像を受信したサーバ52が、当該前方合成画像を、前方表示パネルP4に出力してもよい。この場合、前方表示パネルP4は、当該前方合成画像を表示してもよい。 In the present embodiment, the composite image transmission unit 118 transmits, for example, the composite image generated by the composite image generation unit 114 to the server 52. Here, the composite image transmission unit 118 may transmit the forward composite image generated by the composite image generation unit 114 to the server 52. Then, the server 52 that has received the front composite image may output the front composite image to the front display panel P4. In this case, the front display panel P4 may display the front composite image.

なお本実施形態において、例えば仮想車両位置更新部106が、仮想空間60に配置された仮想人物オブジェクト68の位置と仮想車両位置とに基づいて、仮想人物オブジェクト68の位置又は姿勢を変化させてもよい。具体的には例えば、車両と接触したような人物のような振る舞いをするよう仮想人物オブジェクト68の位置又は姿勢が制御されるようにしてもよい。そして仮想空間画像生成部110が、このように位置又は姿勢が変化する仮想人物オブジェクト68の像を含む仮想空間画像を生成してもよい。 In the present embodiment, for example, even if the virtual vehicle position update unit 106 changes the position or posture of the virtual person object 68 based on the position of the virtual person object 68 arranged in the virtual space 60 and the virtual vehicle position. Good. Specifically, for example, the position or posture of the virtual person object 68 may be controlled so as to behave like a person in contact with a vehicle. Then, the virtual space image generation unit 110 may generate a virtual space image including an image of the virtual person object 68 whose position or posture changes in this way.

以下、本実施形態に係るサーバ50において所定のフレームレートで繰り返し行われる処理の流れの一例を、図16に例示するフロー図を参照しながら説明する。 Hereinafter, an example of the flow of processing repeatedly performed at a predetermined frame rate in the server 50 according to the present embodiment will be described with reference to the flow diagram illustrated in FIG.

まず、走行信号受信部104が、走行指令部21に対する操作入力に応じた走行信号をサーバ52から受信する(S101)。 First, the travel signal receiving unit 104 receives a travel signal from the server 52 in response to an operation input to the travel command unit 21 (S101).

そして仮想車両位置更新部106が、S101に示す処理で受信した走行信号と、直前のフレームにおける実車両位置及び仮想車両位置に基づいて、当該フレームにおける実車両位置及び仮想車両位置を決定する(S102)。 Then, the virtual vehicle position update unit 106 determines the actual vehicle position and the virtual vehicle position in the frame based on the travel signal received in the process shown in S101 and the actual vehicle position and the virtual vehicle position in the immediately preceding frame (S102). ).

そして視点位置特定部108が、S102に示す処理で決定された仮想車両位置に基づいて、仮想鉄道車両オブジェクト62の位置及び向きを特定する(S103)。 Then, the viewpoint position specifying unit 108 specifies the position and orientation of the virtual railroad vehicle object 62 based on the virtual vehicle position determined by the process shown in S102 (S103).

そして視点位置特定部108が、S103に示す処理で特定された仮想鉄道車両オブジェクト62の位置及び向きに基づいて、視点64の位置及び視線方向66を特定する(S104)。ここで例えば、視点64aの位置、視点64bの位置、視点64cの位置、視点64dの位置、視線方向66a、視線方向66b、視線方向66c、及び、視線方向66dが特定されてもよい。 Then, the viewpoint position specifying unit 108 specifies the position of the viewpoint 64 and the line-of-sight direction 66 based on the position and orientation of the virtual railroad vehicle object 62 specified by the process shown in S103 (S104). Here, for example, the position of the viewpoint 64a, the position of the viewpoint 64b, the position of the viewpoint 64c, the position of the viewpoint 64d, the line-of-sight direction 66a, the line-of-sight direction 66b, the line-of-sight direction 66c, and the line-of-sight direction 66d may be specified.

そして仮想空間画像生成部110が、S104に示す処理で特定された視点64の位置及び視線方向66に基づいて、仮想空間画像を生成する(S105)。ここで例えば上述のように、後方仮想空間画像、左側方仮想空間画像、右側方仮想空間画像、及び、前方仮想空間画像の組合せが生成されてもよい。 Then, the virtual space image generation unit 110 generates a virtual space image based on the position of the viewpoint 64 and the line-of-sight direction 66 specified by the process shown in S104 (S105). Here, for example, as described above, a combination of the rear virtual space image, the left side virtual space image, the right side virtual space image, and the front virtual space image may be generated.

そして実写画像取得部112が、S102に示す処理で特定された仮想車両位置を示す仮想車両位置データを含む1又は複数の実写画像管理データを取得する(S106)。 Then, the live-action image acquisition unit 112 acquires one or a plurality of live-action image management data including the virtual vehicle position data indicating the virtual vehicle position specified by the process shown in S102 (S106).

そして合成画像生成部114が、S106に示す処理で取得された実写画像管理データに含まれる実写画像と、S105に示す処理で生成された仮想空間画像と、に基づいて、合成画像を生成する(S107)。 Then, the composite image generation unit 114 generates a composite image based on the live-action image included in the live-action image management data acquired by the process shown in S106 and the virtual space image generated by the process shown in S105 ( S107).

ここで例えば上述のように、S106に示す処理で取得された実写画像管理データに含まれる後方実写フレーム画像と、S105に示す処理で生成された後方仮想空間画像とに基づいて、後方合成画像が生成されてもよい。また例えばS106に示す処理で取得された実写画像管理データに含まれる左側方実写フレーム画像と、S105に示す処理で生成された左側方仮想空間画像とに基づいて、左側方合成画像が生成されてもよい。また例えばS106に示す処理で取得された実写画像管理データに含まれる右側方実写フレーム画像と、S105に示す処理で生成された右側方仮想空間画像とに基づいて、右側方合成画像が生成されてもよい。また例えばS106に示す処理で取得された実写画像管理データに含まれる前方実写フレーム画像と、S105に示す処理で生成された前方仮想空間画像とに基づいて、前方合成画像が生成されてもよい。 Here, for example, as described above, the rear composite image is based on the rear live-action frame image included in the live-action image management data acquired in the process shown in S106 and the rear virtual space image generated in the process shown in S105. It may be generated. Further, for example, a left-side composite image is generated based on the left-side live-action frame image included in the live-action image management data acquired by the process shown in S106 and the left-side virtual space image generated by the process shown in S105. May be good. Further, for example, a right-side composite image is generated based on the right-side live-action frame image included in the live-action image management data acquired by the process shown in S106 and the right-side virtual space image generated by the process shown in S105. May be good. Further, for example, a front composite image may be generated based on the front live-action frame image included in the live-action image management data acquired by the process shown in S106 and the front virtual space image generated by the process shown in S105.

そして合成画像出力部116による合成画像の出力、及び、合成画像送信部118による合成画像の送信が実行される(S108)。ここで例えば、合成画像出力部116が、後方合成画像を後方表示パネルP1に出力し、左側方合成画像を左側方表示パネルP2に出力し、右側方合成画像を右側方表示パネルP3に出力してもよい。この場合、上述のように、後方表示パネルP1は後方合成画像を表示し、左側方表示パネルP2は左側方合成画像を表示し、右側方表示パネルP3は右側方合成画像を表示し、前方表示パネルP4は前方合成画像を表示することとなる。また合成画像送信部118が、前方合成画像をサーバ52に送信してもよい。そしてサーバ52が前方表示パネルP4に前方合成画像を出力してもよい。この場合、上述のように、前方表示パネルP4は前方合成画像を表示することとなる。そしてS101に示す処理に戻る。 Then, the composite image output unit 116 outputs the composite image, and the composite image transmission unit 118 transmits the composite image (S108). Here, for example, the composite image output unit 116 outputs the rear composite image to the rear display panel P1, outputs the left composite image to the left display panel P2, and outputs the right composite image to the right display panel P3. You may. In this case, as described above, the rear display panel P1 displays the rear composite image, the left side display panel P2 displays the left side composite image, and the right side display panel P3 displays the right side composite image and displays the front side. Panel P4 will display the front composite image. Further, the composite image transmission unit 118 may transmit the forward composite image to the server 52. Then, the server 52 may output the front composite image to the front display panel P4. In this case, as described above, the front display panel P4 displays the front composite image. Then, the process returns to the process shown in S101.

このようにして本処理例では、S101〜S108に示す処理が所定のフレームレートで繰り返し実行される。このように、合成画像生成部114が、ユーザの操作に応じた合成画像の生成を所定の時間間隔で繰り返し実行してもよい。 In this way, in this processing example, the processing shown in S101 to S108 is repeatedly executed at a predetermined frame rate. In this way, the composite image generation unit 114 may repeatedly generate the composite image according to the user's operation at predetermined time intervals.

なお、本発明は上述の実施形態に限定されるものではない。 The present invention is not limited to the above-described embodiment.

例えば図15に示す機能の一部又は全部が、サーバ52によって実装されてもよい。 For example, some or all of the functions shown in FIG. 15 may be implemented by the server 52.

また例えば、図1に例示する鉄道シミュレータシステム1にサーバ52が含まれなくてもよい。そしてこの場合、サーバ50が前方合成画像を前方表示パネルP4に出力してもよい。 Further, for example, the railway simulator system 1 illustrated in FIG. 1 may not include the server 52. In this case, the server 50 may output the front composite image to the front display panel P4.

また例えば、図1に例示する鉄道シミュレータシステム1にサーバ50が含まれなくてもよい。そしてこの場合、サーバ52が図15に示す機能を実装してもよい。そしてサーバ52が、後方合成画像を後方表示パネルP1に出力し、左側方合成画像を左側方表示パネルP2に出力し、右側方合成画像を右側方表示パネルP3に出力してもよい。 Further, for example, the railway simulator system 1 illustrated in FIG. 1 may not include the server 50. In this case, the server 52 may implement the function shown in FIG. Then, the server 52 may output the rear composite image to the rear display panel P1, output the left composite image to the left display panel P2, and output the right composite image to the right display panel P3.

また、上述の具体的な文字列や数値、並びに、図面中の具体的な文字列は例示であり、これらの文字列や数値には限定されない。 Further, the above-mentioned specific character strings and numerical values, and specific character strings in the drawings are examples, and are not limited to these character strings and numerical values.

1 鉄道シミュレータシステム、10 模擬鉄道車両、11 模擬車掌室、12 左側模擬プラットホーム、13 右側模擬プラットホーム、20 運転士操作卓、21 走行指令部、30 車掌教官卓、40 運転士教官卓、50 サーバ、50a プロセッサ、50b 記憶部、50c 通信部、52 サーバ、52a プロセッサ、52b 記憶部、52c 通信部、60 仮想空間、62,62a,62b,62c,62d,62e,62f 仮想鉄道車両オブジェクト、64,64a,64b,64c,64d 視点、66,66a,66b,66c,66d 視線方向、68 仮想人物オブジェクト、70 前方仮想空間画像、72 前方実写フレーム画像、74 前方合成画像、76 前方合成画像、78 右側方仮想空間画像、80 右側方実写フレーム画像、82 右側方合成画像、84 右側方仮想空間画像、86 右側方実写フレーム画像、88 右側方合成画像、90 後方仮想空間画像、92 後方実写フレーム画像、94 後方合成画像、100 実写画像記憶部、102 仮想空間データ記憶部、104 走行信号受信部、106 仮想車両位置更新部、108 視点位置特定部、110 仮想空間画像生成部、112 実写画像取得部、114 合成画像生成部、116 合成画像出力部、118 合成画像送信部、P1 後方表示パネル、P2 左側方表示パネル、P3 右側方表示パネル、P4 前方表示パネル。

1 Railroad simulator system, 10 simulated railroad vehicle, 11 simulated driver's room, 12 left simulated platform, 13 right simulated platform, 20 driver's console, 21 driving command unit, 30 driver's instructor's desk, 40 driver's instructor's desk, 50 servers, 50a processor, 50b storage unit, 50c communication unit, 52 server, 52a processor, 52b storage unit, 52c communication unit, 60 virtual space, 62, 62a, 62b, 62c, 62d, 62e, 62f virtual railroad vehicle object, 64, 64a , 64b, 64c, 64d viewpoint, 66, 66a, 66b, 66c, 66d Line-of-sight direction, 68 virtual person object, 70 front virtual space image, 72 front live frame image, 74 front composite image, 76 front composite image, 78 right side Virtual space image, 80 Right side composite image, 82 Right side composite image, 84 Right side virtual space image, 86 Right side live frame image, 88 Right side composite image, 90 Rear virtual space image, 92 Rear live frame image, 94 Rear composite image, 100 live image storage unit, 102 virtual space data storage unit, 104 running signal reception unit, 106 virtual vehicle position update unit, 108 viewpoint position identification unit, 110 virtual space image generation unit, 112 live image acquisition unit, 114 Composite image generation unit, 116 composite image output unit, 118 composite image transmission unit, P1 rear display panel, P2 left side display panel, P3 right side display panel, P4 front display panel.

Claims (7)

実空間内を移動する実鉄道車両に設けられたカメラにより撮影された実写画像を、仮想空間内の仮想車両位置と関連付けて記憶する実写画像記憶手段と、
ユーザの操作に応じて、前記仮想空間内の前記仮想車両位置を更新する仮想車両位置更新手段と、
更新後の前記仮想車両位置に対応する前記仮想空間内の視点の位置から前記仮想空間を見た様子を表す仮想空間画像を生成する仮想空間画像生成手段と、
更新後の前記仮想車両位置に基づいて特定される1又は複数の前記実写画像を前記実写画像記憶手段から取得する実写画像取得手段と、
生成される前記仮想空間画像と取得される1又は複数の前記実写画像との合成画像を生成する合成画像生成手段と、
を含むことを特徴とする画像生成システム。
A live-action image storage means that stores a live-action image taken by a camera installed in a real railcar moving in a real space in association with a virtual vehicle position in the virtual space.
A virtual vehicle position updating means for updating the virtual vehicle position in the virtual space according to a user operation, and
A virtual space image generation means for generating a virtual space image showing a state in which the virtual space is viewed from a position of a viewpoint in the virtual space corresponding to the updated virtual vehicle position.
A live-action image acquisition means for acquiring one or a plurality of the live-action images specified based on the updated virtual vehicle position from the live-action image storage means, and
A composite image generation means for generating a composite image of the generated virtual space image and one or a plurality of the acquired live-action images.
An image generation system characterized by including.
前記実写画像記憶手段は、前記実鉄道車両に設けられた複数の前記カメラによりそれぞれ撮影された複数の前記実写画像の組合せを、前記仮想車両位置と関連付けて記憶し、
前記仮想空間画像生成手段は、更新後の前記仮想車両位置に対応する、それぞれいずれかの前記カメラに対応する前記仮想空間内の複数の視点についての、当該視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像を生成し、
前記実写画像取得手段は、更新後の前記仮想車両位置に基づいて特定される、1又は複数の前記組合せを前記実写画像記憶手段から取得し、
前記合成画像生成手段は、前記複数の前記カメラのそれぞれについて、当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像と、取得される1又は複数の前記組合せに含まれる、当該カメラにより撮影された1又は複数の前記実写画像との合成画像を生成する、
ことを特徴とする請求項1に記載の画像生成システム。
The live-action image storage means stores a combination of a plurality of the live-action images taken by the plurality of cameras provided in the real railcar in association with the virtual vehicle position.
The virtual space image generation means viewed the virtual space from the position of the viewpoint with respect to a plurality of viewpoints in the virtual space corresponding to the camera corresponding to the updated virtual vehicle position. Generate the virtual space image showing the situation,
The live-action image acquisition means acquires one or a plurality of the combinations specified based on the updated virtual vehicle position from the live-action image storage means.
The composite image generation means obtains one or a plurality of the combinations of the virtual space image representing a state in which the virtual space is viewed from the position of the viewpoint corresponding to the camera for each of the plurality of cameras. Generates a composite image with one or more of the live-action images taken by the camera, which is included in the above.
The image generation system according to claim 1.
運転士訓練者による模擬運転操作が行われる運転士操作卓と、
車掌訓練者が乗り降り可能な模擬鉄道車両と、
前記模擬鉄道車両に隣接して設けられている模擬プラットホームと、
前記実鉄道車両の前方に位置し前方を向く前記カメラにより撮影された1又は複数の実写画像と当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像との合成画像を表示する、前記運転士操作卓の前方に配置されている表示パネルと、
前記実鉄道車両の側方に位置し前方を向く前記カメラにより撮影された1又は複数の実写画像と当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像との合成画像を表示する、前記模擬プラットホームの前方に設けられている表示パネルと、をさらに含む、
ことを特徴とする請求項2に記載の画像生成システム。
A driver's console where simulated driving operations are performed by a driver trainer,
A simulated railcar that conductor trainers can get on and off,
A simulated platform provided adjacent to the simulated railway vehicle and
One or a plurality of live-action images taken by the camera located in front of the real railcar and facing forward, and the virtual space image showing the state of viewing the virtual space from the position of the viewpoint corresponding to the camera. A display panel located in front of the driver's console that displays a composite image,
One or a plurality of live-action images taken by the camera located on the side of the actual railroad vehicle and facing forward, and the virtual space image showing the state of viewing the virtual space from the position of the viewpoint corresponding to the camera. A display panel provided in front of the simulated platform, which displays a composite image of
The image generation system according to claim 2, wherein the image generation system is characterized in that.
車掌訓練者が乗り降り可能な模擬鉄道車両と、
前記模擬鉄道車両の側面に隣接して設けられている模擬プラットホームと、
前記実鉄道車両の後方に位置し後方を向く前記カメラにより撮影された1又は複数の実写画像と当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像との合成画像を表示する、前記模擬鉄道車両の後方に設けられている表示パネルと、
前記実鉄道車両の側方に位置し前方を向く前記カメラにより撮影された1又は複数の実写画像と当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像との合成画像を表示する、前記模擬プラットホームの前方に設けられている表示パネルと、をさらに含む、
ことを特徴とする請求項2に記載の画像生成システム。
A simulated railcar that conductor trainers can get on and off,
A simulated platform provided adjacent to the side surface of the simulated railway vehicle,
One or a plurality of live-action images taken by the camera located behind the actual railcar and facing rearward, and the virtual space image showing the state of viewing the virtual space from the position of the viewpoint corresponding to the camera. A display panel provided behind the simulated railcar that displays a composite image, and
One or a plurality of live-action images taken by the camera located on the side of the actual railroad vehicle and facing forward, and the virtual space image showing the state of viewing the virtual space from the position of the viewpoint corresponding to the camera. Further includes a display panel provided in front of the simulated platform, which displays a composite image of the above.
The image generation system according to claim 2, wherein the image generation system is characterized in that.
前記合成画像生成手段は、前記ユーザの操作に応じた前記合成画像の生成を所定の時間間隔で繰り返し実行する、
ことを特徴とする請求項1から4のいずれか一項に記載の画像生成システム。
The composite image generation means repeatedly executes the generation of the composite image according to the operation of the user at predetermined time intervals.
The image generation system according to any one of claims 1 to 4, wherein the image generation system is characterized by the above.
ユーザの操作に応じて、仮想空間内の仮想車両位置を更新するステップと、
更新後の前記仮想車両位置に対応する前記仮想空間内の視点の位置から前記仮想空間を見た様子を表す仮想空間画像を生成するステップと、
実空間内を移動する実鉄道車両に設けられたカメラにより撮影された実写画像を、前記仮想空間内の前記仮想車両位置と関連付けて記憶する実写画像記憶手段から、更新後の前記仮想車両位置に基づいて特定される1又は複数の前記実写画像を取得するステップと、
生成される前記仮想空間画像と取得される1又は複数の前記実写画像との合成画像を生成するステップと、
を含むことを特徴とする画像生成方法。
A step to update the virtual vehicle position in the virtual space according to the user's operation,
A step of generating a virtual space image showing a state in which the virtual space is viewed from the position of the viewpoint in the virtual space corresponding to the updated virtual vehicle position, and
From the live-action image storage means that stores the live-action image taken by the camera provided in the real railcar moving in the real space in association with the virtual vehicle position in the virtual space, to the updated virtual vehicle position. The step of acquiring one or more of the live-action images identified based on
A step of generating a composite image of the generated virtual space image and one or more of the acquired live-action images, and
An image generation method comprising.
ユーザの操作に応じて、仮想空間内の仮想車両位置を更新する手順、
更新後の前記仮想車両位置に対応する前記仮想空間内の視点の位置から前記仮想空間を見た様子を表す仮想空間画像を生成する手順、
実空間内を移動する実鉄道車両に設けられたカメラにより撮影された実写画像を、前記仮想空間内の前記仮想車両位置と関連付けて記憶する実写画像記憶手段から、更新後の前記仮想車両位置に基づいて特定される1又は複数の前記実写画像を取得する手順、
生成される前記仮想空間画像と取得される1又は複数の前記実写画像との合成画像を生成する手順、
をコンピュータに実行させることを特徴とするプログラム。

Procedure for updating the virtual vehicle position in the virtual space according to the user's operation,
A procedure for generating a virtual space image showing a state in which the virtual space is viewed from the position of the viewpoint in the virtual space corresponding to the updated virtual vehicle position.
From the live-action image storage means that stores the live-action image taken by the camera provided in the real railcar moving in the real space in association with the virtual vehicle position in the virtual space, to the updated virtual vehicle position. Procedure for acquiring one or more live-action images identified based on,
A procedure for generating a composite image of the generated virtual space image and one or more of the acquired live-action images.
A program characterized by having a computer execute.

JP2020096821A 2020-06-03 2020-06-03 Image generation system, image generation method and program Active JP7045093B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020096821A JP7045093B2 (en) 2020-06-03 2020-06-03 Image generation system, image generation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020096821A JP7045093B2 (en) 2020-06-03 2020-06-03 Image generation system, image generation method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019561418A Division JP6717516B2 (en) 2017-12-26 2017-12-26 Image generation system, image generation method and program

Publications (3)

Publication Number Publication Date
JP2020166876A true JP2020166876A (en) 2020-10-08
JP2020166876A5 JP2020166876A5 (en) 2020-12-10
JP7045093B2 JP7045093B2 (en) 2022-03-31

Family

ID=72666044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020096821A Active JP7045093B2 (en) 2020-06-03 2020-06-03 Image generation system, image generation method and program

Country Status (1)

Country Link
JP (1) JP7045093B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003233299A (en) * 2002-02-12 2003-08-22 Mitsubishi Precision Co Ltd Simulator for train conductor
JP2005003923A (en) * 2003-06-11 2005-01-06 Ergo Seating Kk Virtual driving system
JP2007292825A (en) * 2006-04-21 2007-11-08 Mitsubishi Precision Co Ltd Simulated view generating device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003233299A (en) * 2002-02-12 2003-08-22 Mitsubishi Precision Co Ltd Simulator for train conductor
JP2005003923A (en) * 2003-06-11 2005-01-06 Ergo Seating Kk Virtual driving system
JP2007292825A (en) * 2006-04-21 2007-11-08 Mitsubishi Precision Co Ltd Simulated view generating device

Also Published As

Publication number Publication date
JP7045093B2 (en) 2022-03-31

Similar Documents

Publication Publication Date Title
JP7143443B2 (en) Shared environment for vehicle occupants and remote users
US11484790B2 (en) Reality vs virtual reality racing
JP7068562B2 (en) Techniques for recording augmented reality data
JP2002157607A (en) System and method for image generation, and storage medium
CN112150885B (en) Cockpit system based on mixed reality and scene construction method
JP4348468B2 (en) Image generation method
JP6717516B2 (en) Image generation system, image generation method and program
US20230154106A1 (en) Information processing apparatus, information processing method, and display apparatus
JP7045093B2 (en) Image generation system, image generation method and program
WO2013041152A1 (en) Methods to command a haptic renderer from real motion data
JP2003162213A (en) Simulated environment creating device and simulated environment creating method
US20200286398A1 (en) Virtual reality system and virtual reality method
JP6729952B1 (en) Railway simulator system, display control method and program
JP7261121B2 (en) Information terminal device and program
WO2022201783A1 (en) Image processing device and image processing method
WO2019106863A1 (en) Railroad simulator system

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201026

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220311

R150 Certificate of patent or registration of utility model

Ref document number: 7045093

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350