WO2019130413A1 - 画像生成システム、画像生成方法及びプログラム - Google Patents

画像生成システム、画像生成方法及びプログラム Download PDF

Info

Publication number
WO2019130413A1
WO2019130413A1 PCT/JP2017/046571 JP2017046571W WO2019130413A1 WO 2019130413 A1 WO2019130413 A1 WO 2019130413A1 JP 2017046571 W JP2017046571 W JP 2017046571W WO 2019130413 A1 WO2019130413 A1 WO 2019130413A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
virtual
virtual space
photographed
railway vehicle
Prior art date
Application number
PCT/JP2017/046571
Other languages
English (en)
French (fr)
Inventor
実 向谷
Original Assignee
株式会社音楽館
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社音楽館 filed Critical 株式会社音楽館
Priority to CN201780097875.XA priority Critical patent/CN111566706A/zh
Priority to PCT/JP2017/046571 priority patent/WO2019130413A1/ja
Priority to JP2019561418A priority patent/JP6717516B2/ja
Priority to TW107141065A priority patent/TW201928871A/zh
Publication of WO2019130413A1 publication Critical patent/WO2019130413A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present invention relates to an image generation system, an image generation method, and a program.
  • Patent Literature 1 discloses a railway simulator capable of generating a composite image obtained by combining real-shot moving image data obtained by capturing an actual scene seen from the driver's seat of a running train and a three-dimensional CG model. Is described.
  • Patent Document 1 executes various arithmetic processing such as specifying the position of the feature point on the screen, calculating distance information, generating an image of a CG model based on distance information, etc.
  • the processing load is heavy.
  • the present invention has been made in view of the above problems, and one of the objects thereof is an image generation system capable of generating an image obtained by combining an actual photographed image obtained by photographing a real space with light processing load and an image of a virtual space, An image generation method and program are provided.
  • An image generation system comprises: a photographed image storage means for storing a photographed image taken by a camera provided on a real railway vehicle moving in the real space in association with a virtual vehicle position in a virtual space; Virtual space viewed from the position of the viewpoint in the virtual space corresponding to the virtual vehicle position updated after updating the virtual vehicle position updating means for updating the virtual vehicle position in the virtual space according to the operation of Virtual space image generation means for generating a virtual space image representing a situation, and a real shot image acquisition means for obtaining from the real shot image storage means one or a plurality of real shot images specified based on the updated virtual vehicle position; And synthetic image generation means for generating a synthetic image of the virtual space image to be generated and one or more of the photographed images to be acquired.
  • the photographed image storage means stores a combination of a plurality of photographed images respectively photographed by a plurality of cameras provided on the real railway vehicle in association with the virtual vehicle position.
  • the virtual space image generation unit viewed the virtual space from the positions of the viewpoints with respect to a plurality of viewpoints in the virtual space corresponding to any one of the cameras corresponding to the updated virtual vehicle position.
  • the real photographed image acquisition means acquiring from the real photographed image storage means one or a plurality of the combinations specified based on the updated virtual vehicle position;
  • An image generation unit configured to display, for each of the plurality of cameras, the virtual space image representing the virtual space viewed from the position of the viewpoint corresponding to the camera; Contained in one or more of the combinations is obtained, to generate a composite image with one or more of the photographed image taken by the camera.
  • a driver control console on which a simulated driving operation by a driver trainee is performed, a simulated railway vehicle on which a palm trainer can get on and off, a simulated platform provided adjacent to the simulated railway vehicle, and A composite of one or more actual photographed images taken by the camera located in front of the actual railway vehicle and facing forward and the virtual space image showing the virtual space viewed from the position of the viewpoint corresponding to the camera
  • a display panel provided in front of the simulated platform for displaying a composite image with the virtual space image representing the virtual space viewed from the position of the corresponding viewpoint It may further include a.
  • the display apparatus may further include a display panel provided in front of the simulation platform for displaying a composite image with the spatial image.
  • the composite image generation unit repeatedly executes generation of the composite image according to the user's operation at predetermined time intervals.
  • the step of updating the virtual vehicle position in the virtual space according to the user's operation, and the position of the viewpoint in the virtual space corresponding to the updated virtual vehicle position A step of generating a virtual space image representing a state of viewing the virtual space; a photographed image taken by a camera provided on a real railway vehicle moving in the real space, the virtual vehicle position in the virtual space; Acquiring one or more of the photographed images specified based on the updated virtual vehicle position from the photographed image storage means which is stored in association with the virtual space image to be generated and one or more acquired Generating a composite image with the real shot image of
  • the virtual space is updated from the position of the viewpoint in the virtual space corresponding to the virtual vehicle position after the update, the procedure of updating the virtual vehicle position in the virtual space according to the user's operation.
  • generating a virtual space image representing the appearance of the virtual space image and storing an actual photographed image taken by a camera provided on a real railway vehicle moving in the real space in association with the virtual vehicle position in the virtual space
  • the computer is caused to execute a procedure of generating a composite image of
  • FIG. 1 is an external perspective view showing an example of the entire configuration of a railway simulator system 1 according to an embodiment of the present invention.
  • the railway simulator system 1 illustrated in FIG. 1 is a system that simulates an actual railway vehicle (actual railway vehicle) moving in an actual space, which is used for training of tasks of a conductor and a driver.
  • an actual railway vehicle actual railway vehicle
  • a driver trainee a person who trains the driver's operation
  • the application of the railway simulator system 1 illustrated in FIG. 1 is not limited to the training of tasks of a conductor or a driver.
  • the railway simulator system 1 may be used, for example, for a simulated experience of a conductor or a driver.
  • the simulated railway vehicle 10 As shown in FIG. 1, in the railway simulator system 1 according to the present embodiment, the simulated railway vehicle 10, the driver's operator console 20, the conductor's instructor's desk 30, and the driver's instructor's desk 40 are main components. included.
  • the simulated railway vehicle 10 is a part of the rear of the actual railway vehicle.
  • the conductor trainee can get on and off the simulated railway vehicle 10.
  • a simulated conductor room 11 is provided in the simulated railway vehicle 10, and a rear display panel P1 is provided behind the simulated conductor room 11.
  • a left side simulated platform 12 is provided adjacent to the left side surface of the simulated railcar 10.
  • a left side display panel P2 is provided in front of the left side simulated platform 12.
  • a right side simulated platform 13 is provided adjacent to the right side surface of the simulated railway vehicle 10.
  • a right side display panel P3 is provided in front of the right side simulated platform 13.
  • the driver's console 20 imitates the console in the cab of a real railway vehicle.
  • a simulated driving operation is performed by a driver trainer.
  • the driver console 20 is provided with a travel command unit 21 including, for example, a lever. Further, in front of the driver console 20, a front display panel P4 is provided.
  • a voice communication device may be provided in each of the simulated conductor room 11 and the driver's console 20 so that the driver training person and the conductor training person communicate with each other.
  • the simulated railway vehicle 10 and the driver console 20 do not have to be provided in the same space, and may be provided, for example, in adjacent rooms separated by walls.
  • the simulated railway vehicle 10 and the driver console 20 may be provided at locations separated from each other. Thus, even when the conductor and driver trainees are at remote places, training can be performed in cooperation with each other.
  • the conductor instructor monitors the conductor trainee, and the like.
  • a plurality of display panels and the like are provided on the conductor instructor desk 30, and the instructor can monitor the training situation of the trainer by confirming the display panels.
  • the driver instructor monitors the driver trainee.
  • a plurality of display panels and the like are provided on the driver-instructor table 40, and the driver-trainer can monitor the training situation of the driver by confirming the display panels.
  • FIG. 2 is a diagram showing an example of the configuration of the simulated railway vehicle 10 and the driver console 20.
  • the simulated railroad vehicle 10 according to the present embodiment includes a server 50.
  • the driver console 20 according to the present embodiment includes a server 52.
  • the server 50 includes, for example, a processor 50a, a storage unit 50b, and a communication unit 50c.
  • the processor 50a is, for example, a program control device such as a CPU that operates according to a program installed in the server 50.
  • the storage unit 50 b is a storage element such as a ROM or a RAM, a hard disk drive, or the like.
  • the storage unit 50b stores programs executed by the processor 50a.
  • the communication unit 50c is, for example, a communication interface such as a network board for exchanging data with the server 52.
  • the server 50 transmits and receives information to and from the server 52 via the communication unit 50c.
  • the server 52 includes, for example, a processor 52a, a storage unit 52b, and a communication unit 52c.
  • the processor 52a is a program control device such as a CPU that operates according to a program installed in the server 52, for example.
  • the storage unit 52 b is a storage element such as a ROM or a RAM, a hard disk drive, or the like.
  • the storage unit 52b stores programs executed by the processor 52a.
  • the communication unit 52c is, for example, a communication interface such as a network board for exchanging data with the server 50.
  • the server 52 transmits and receives information to and from the server 50 via the communication unit 52c.
  • a moving image is taken by four cameras provided on a real railway vehicle.
  • these four cameras will be referred to as a rear real camera, a left side real camera, a right side real camera, and a front real camera.
  • the real rear camera is, for example, a camera that is positioned behind and facing the rear of the rearmost vehicle of the actual railway vehicle, and that shoots the rear from the palm room.
  • the left side real camera is, for example, a camera which is located on the left side of the palm room of the rearmost vehicle of the actual railway vehicle and faces the front, and which shoots the front from the left side of the palm room.
  • the right side real camera is, for example, a camera which is located on the right side of the conductor room of the rearmost vehicle of the actual railway vehicle and faces the front, and which shoots the front from the right side of the conductor room.
  • the front real camera is, for example, a camera which is located in front of the leading vehicle of the actual railway vehicle and faces the front, and which images the front from the driver's seat.
  • a moving image generated by a camera provided on an actual railway vehicle will be referred to as a real moving image.
  • the real moving image generated by each of the rear real camera, the left side real camera, the right side real camera, and the front real camera may be respectively a rear real moving image, a left real moving image, a right side real moving image, And, we will call it a forward real shot moving image.
  • the shooting timings of the rear actual moving image, the left side actual moving image, the right side actual moving image, and the front actual moving image are synchronized in imaging timing.
  • the same frame number is used for the frame image of the rear actual moving image taken at a certain timing, the frame image of the left side actual moving image, the frame image of the right side actual moving image, and the frame image of the front actual moving image. It shall be set.
  • the position of the actual railway vehicle at the photographing timing of the photographed image which is a frame image included in the photographed image is specified in advance.
  • the position of the actual railway vehicle specified in this manner will be referred to as an actual vehicle position.
  • the actual vehicle position at the photographing timing of the frame image may be specified when photographing each frame image included in the actual moving image.
  • the position of a point representing an actual railway vehicle such as the position of a front actual camera or the position of the center of the entire actual railway vehicle which is a plurality of vehicles, may be specified as the actual vehicle position.
  • the actual photographed moving image photographed as described above, the actual vehicle position at the photographing timing of the photographed actual moving image, and the like are managed by the photographed image management data (see FIG. 3).
  • the photographed image management data may be stored in, for example, the storage unit 50 b of the server 50.
  • FIG. 3 is a view showing an example of the data structure of photographed image management data according to the present embodiment.
  • the photographed image management data includes photographed image set ID, rear photographed frame image, left side photographed frame image, right side photographed frame image, front photographed frame image, real vehicle position data, virtual vehicle position data Is included.
  • the photographed image management data is data associated with one frame image included in the photographed moving image. Therefore, for example, in the storage unit 50b of the server 50, real shot image management data of the number of frame images (the number of frames of the real shot moving image) included in the real shot moving image is stored.
  • the photographed image set ID is identification information of photographed image management data.
  • a frame number may be set as the value of the photographed image set ID.
  • a rear actual shooting frame image As a rear actual shooting frame image, a left side actual shooting frame image, a right side actual shooting frame image, and a front actual shooting frame image included in real shooting image management data, a frame image corresponding to the real shooting image set ID included in the real shooting image management data.
  • a live-action image is set.
  • a real shot image which is a frame image included in the rear real shot moving image is set as the rear real shot frame image.
  • a real shooting image that is a frame image included in the left-side real shooting moving image is set.
  • the right side actual photographed frame image an actual photographed image which is a frame image included in the right side actual photographed moving image is set.
  • the front photographed frame image a photographed image which is a frame image included in the front photographed image is set.
  • the photographed image management data according to the present embodiment includes a combination of a plurality of photographed images.
  • the value of the actual vehicle position data included in the actual photographed image management data for example, a value indicating the actual vehicle position at the photographing timing of the frame image associated with the actual photographed image management data is set.
  • a value indicating the position of a point representing an actual railway vehicle may be set as the value of the actual vehicle position data.
  • the value of the actual vehicle position data may be expressed by, for example, a combination of latitude and longitude.
  • a position in the virtual space 60 illustrated in FIG. 4 is associated with the actual vehicle position indicated by the actual vehicle position data included in the actual photographed image management data.
  • the indicated value is set.
  • the position in the virtual space 60 associated with the actual vehicle position will be referred to as a virtual vehicle position.
  • the value of virtual vehicle position data may be expressed by, for example, a combination of X coordinate value, Y coordinate value, and Z coordinate value.
  • FIG. 4 is a view showing an example of the virtual space 60 according to the present embodiment.
  • the virtual space 60 shown in FIG. 4 is a three-dimensional virtual space.
  • a virtual railway vehicle object 62 configured of a plurality of polygons, which is a virtual object associated with the actual railway vehicle, is disposed.
  • the virtual railway vehicle object 62 according to the present embodiment is assumed to be an invisible virtual object set to be transparent.
  • a real railway vehicle is a six-car train
  • six virtual railway vehicle objects 62 (62a, 62b, 62c, 62d, 62e, and 62f) connected to each other are arranged in the virtual space 60.
  • the virtual railway vehicle object 62a is associated with, for example, the leading vehicle of an actual railway vehicle.
  • the virtual railway vehicle object 62b, the virtual railway vehicle object 62c, the virtual railway vehicle object 62d, and the virtual railway vehicle object 62e are associated with, for example, the second, third, fourth, and fifth vehicles from the beginning of the real railway vehicle.
  • the virtual railway vehicle object 62f is associated with, for example, the last vehicle of the actual railway vehicle.
  • the real vehicle position in real space and the virtual vehicle position in virtual space 60 are matched on a one-to-one basis.
  • a trajectory corresponding to the trajectory of the real railway vehicle in the real space when the real moving image is captured is set in the virtual space 60 in advance.
  • the positions and orientations of the six virtual railway vehicle objects 62 are uniquely identified based on the virtual vehicle position and the track.
  • FIG. 5 is an explanatory view for explaining an example of specifying the position and the orientation of the virtual railway vehicle object based on the virtual vehicle position and the track.
  • the trajectory of the virtual railway vehicle object 62 that gently turns to the right is indicated by a two-dot chain line. Further, in FIG. 5, the virtual railway vehicle object 62 travels upward from the bottom in FIG. 5 along the track.
  • the actual vehicle position is the position of the front actual camera.
  • the center position A1 of the front surface of the virtual railway vehicle object 62a is a virtual vehicle position.
  • the position A2 of the point of intersection of the circle and the track having a radius d centered on the position A1 and located behind the position A1 with respect to the traveling direction of the virtual railway vehicle object 62 is specified.
  • the position A3 of the point of intersection of the circle and the track having a radius d centered on the position A2 and located behind the position A2 with respect to the above-described traveling direction is specified.
  • a position A4 of an intersection point of a circle having a radius d centered on the position A3 and a track, which is located behind the position A3 with respect to the traveling direction described above is specified.
  • the position A5 of the point of intersection of the circle and the track having a radius d centered on the position A4 and located behind the position A4 with respect to the traveling direction described above is specified.
  • a position A6 of an intersection point of a circle having a radius d centered on the position A5 and located behind the position A5 with respect to the traveling direction described above is specified.
  • the length d of the radius is not particularly limited, but may be, for example, the length of one virtual railway vehicle object 62 or the length of one virtual railway vehicle object 62 plus an extra length. It may be.
  • the virtual railway vehicle object 62a is disposed in the virtual space 60 so that the center of the front surface of the virtual railway vehicle object 62a is located at the position A1 and the normal direction of the front surface faces the tangential direction B1 of the track at the position A1.
  • the virtual railway vehicle object 62b is disposed in the virtual space 60 so that the center of the front surface of the virtual railway vehicle object 62b is located at the position A2 and the normal direction of the front surface faces the tangential direction B2 of the track at the position A2.
  • the virtual railway vehicle object 62c is disposed in the virtual space 60 so that the center of the front surface of the virtual railway vehicle object 62c is located at the position A3 and the normal direction of the front surface faces the tangential direction B3 of the track at the position A3.
  • the virtual railway vehicle object 62d is disposed in the virtual space 60 so that the center of the front surface of the virtual railway vehicle object 62d is located at the position A4 and the normal direction of the front surface faces the tangential direction B4 of the track at the position A4.
  • the virtual railway vehicle object 62e is disposed in the virtual space 60 so that the center of the front surface of the virtual railway vehicle object 62e is located at the position A5 and the normal direction of the front surface faces the tangential direction B5 of the track at the position A5.
  • the virtual railway vehicle object 62a is disposed in the virtual space 60 so that the center of the front surface of the virtual railway vehicle object 62f is located at the position A6 and the normal direction of the front surface at the position A6 faces the tangential direction B6 of the track. In this manner, the positions and orientations of the six virtual railway vehicle objects 62 corresponding to the virtual vehicle position are identified.
  • the position of the viewpoint (virtual camera) 64 and the direction of the line of sight at the viewpoint 64 (line of sight direction 66) associated with the cameras provided on the actual railway vehicle are set.
  • FIG. 4 the positions of the viewpoint 64a, the viewpoint 64b, the viewpoint 64c, and the viewpoint 64d are shown. Further, in FIG. 4, a viewing direction 66a that is the direction of the viewing line at the viewing point 64a, a viewing direction 66b that is the viewing direction at the viewing point 64b, a viewing direction 66c that is the viewing direction at the viewing point 64c, and a viewing direction at the view 64d A viewing direction 66d, which is also shown.
  • the position of the viewpoint 64a, the position of the viewpoint 64b, the position of the viewpoint 64c, and the position of the viewpoint 64d in the virtual space 60 shown in FIG. 4 are respectively the rear real camera, the left real camera, the right real camera, and the front real camera. It corresponds to the position in real space. Also, as shown in FIG. 4, the viewing directions 66a, 66b, 66c, and 66d respectively capture in the real space of the rear real camera, the left real camera, the right real camera, and the real front camera. Corresponds to the direction.
  • the viewpoint 64a is disposed to the rear of the virtual railway vehicle object 62f, and the line of sight direction 66a is directed to the rear.
  • the viewpoint 64b is disposed on the left side of the virtual railway vehicle object 62f, and the gaze direction 66b is directed to the front.
  • the viewpoint 64c is disposed on the right side of the virtual railway vehicle object 62f, and the line of sight direction 66c is directed to the front.
  • the viewpoint 64d is disposed in front of the virtual railway vehicle object 62a, and the line of sight direction 66d is directed forward.
  • the relative position with respect to the position of the virtual railway vehicle object 62f is fixed. Further, with respect to the viewing direction 66a, the viewing direction 66b, and the viewing direction 66c, the relative direction with respect to the direction of the virtual railway vehicle object 62f is fixed. Further, with respect to the viewpoint 64d, the relative position to the position of the virtual railway vehicle object 62a is fixed. Further, with respect to the gaze direction 66d, the relative direction with respect to the direction of the virtual railway vehicle object 62a is fixed.
  • the positions and orientations of the six virtual railway vehicle objects 62 are uniquely identified based on the virtual vehicle position. Therefore, as shown in FIG. 5, the virtual vehicle is also used for the position of the viewpoint 64a, the position of the viewpoint 64b, the position of the viewpoint 64c, the position of the viewpoint 64d, the gaze direction 66a, the gaze direction 66b, the gaze direction 66c, and the gaze direction 66d. It will be uniquely identified based on a position (for example, position A1 in FIG. 5).
  • virtual objects other than the virtual railway vehicle object 62 such as the virtual person object 68 (see FIGS. 6, 8, 11, and 13) composed of a plurality of polygons, are arranged in the virtual space 60. It may be done.
  • an actual railway vehicle imitated in the railway simulator system 1 according to an operation on the travel command unit 21 performed by a user such as a driver trainer during a period in which training using the railway simulator system 1 is performed.
  • the actual vehicle position in accordance with the change in the actual vehicle position, the virtual vehicle position changes, and in accordance with the change in the virtual vehicle position, the position and the orientation of the virtual railway vehicle object 62 in the virtual space 60 change.
  • the position and the orientation of the virtual railway vehicle object 62 change along the track set in the virtual space 60 according to the change of the virtual vehicle position.
  • a combination of four frame images is generated at a predetermined frame rate (for example, at intervals of 1/60 seconds) over a period in which training using the railway simulator system 1 is performed.
  • each of the frame images included in the generated combination is displayed on the rear display panel P1, the left side display panel P2, the right side display panel P3, and the front display panel P4.
  • the display is performed on the rear display panel P1, the left side display panel P2, the right side display panel P3, and the front display panel P4 at a predetermined frame rate during a period in which training is being performed.
  • the frame image is updated.
  • a moving image is displayed on each of the rear display panel P1, the left side display panel P2, the right side display panel P3, and the front display panel P4 during a period in which training is being performed. .
  • the rear display panel P1 as a frame image, a composite image obtained by combining the rear photographed frame image and a virtual space image representing a view of the viewing direction 66a from the viewpoint 64a in the virtual space 60.
  • the moving image including is displayed.
  • the virtual space image is referred to as a rear virtual space image
  • the composite image is referred to as a rear composite image.
  • a moving image including a composite image obtained by combining the left side photographed frame image and a virtual space image representing a view from the viewpoint 64b to the viewing direction 66b in the virtual space 60 is displayed as a frame image.
  • the virtual space image is referred to as a left side virtual space image
  • the composite image is referred to as a left side composite image.
  • a moving image including a composite image obtained by combining the right side photographed frame image and a virtual space image representing a view from the viewpoint 64c to the viewing direction 66c in the virtual space 60 is displayed as a frame image Be done.
  • the virtual space image is referred to as a right side virtual space image
  • the composite image is referred to as a right side composite image.
  • a moving image including, as a frame image, a composite image obtained by combining the front photographed frame image and a virtual space image representing a view from the viewpoint 64d to the viewing direction 66d in the virtual space 60 is displayed.
  • the virtual space image is referred to as a forward virtual space image
  • the composite image is referred to as a forward composite image.
  • the virtual space image according to the present embodiment is an image of computer graphics (CG) obtained by rendering a view of the virtual space 60.
  • CG computer graphics
  • the virtual person object 68 is located in front of the virtual railway vehicle object 62a in the virtual space 60 at a certain point (point t1).
  • the track of the virtual railway vehicle object 62 is shown by a two-dot chain line.
  • the actual railway vehicle travels along a path gently bent 1021 in the actual space when the actual photographed moving image corresponding to the virtual space 60 shown in FIG. 6 is photographed.
  • the trajectory of the virtual railway vehicle object 62 in the virtual space 60 is a trajectory that gently turns to the right.
  • FIG. 7A shows an example of a forward virtual space image 70 generated in this situation.
  • photographed image management data in which the virtual vehicle position in this situation is set as the value of virtual vehicle position data is acquired.
  • a combination of the rear actual shooting frame image, the left side actual shooting frame image, the right side actual shooting frame image, and the front actual shooting frame image included in the real shooting image management data is acquired.
  • FIG. 7B shows an example of the forward photographed frame image 72 included in the combination acquired in this situation.
  • a rear composite image is generated by combining the generated rear virtual space image and the rear photographed frame image included in the acquired combination.
  • the left-side composite image is generated by combining the generated left-side virtual space image and the left-side photographed frame image included in the acquired combination.
  • the right side composite image is generated by combining the generated right side virtual space image and the right side photographed frame image included in the acquired combination.
  • a forward composite image is generated by combining the generated forward virtual space image and the forward photographed frame image included in the acquired combination.
  • FIG. 7C shows an example of a forward composite image 74 generated by combining the forward virtual space image 70 shown in FIG. 7A and the forward photographed frame image 72 shown in FIG. 7B.
  • photographed image management data including virtual vehicle position data indicating a position closest to the virtual vehicle position may be acquired for each of the virtual vehicle position in this situation along the above-mentioned track along the above-mentioned track .
  • a backward composite image may be generated by combining the image obtained by interpolating the backward real shot frame image included in each of the two real shot image management data thus acquired and the generated backward virtual space image.
  • the left-side composite image may be generated by combining the image obtained by interpolating the left-side real-shot frame image included in each of the acquired two real-shot image management data with the generated left-side virtual space image.
  • the right-side composite image may be generated by combining the image obtained by interpolating the right-side real-shot frame image included in each of the acquired two real-shot image management data with the generated right-side virtual space image.
  • a forward composite image may be generated by combining an image obtained by interpolating the forward photographed frame image included in each of the two captured real image management data and the generated forward virtual space image.
  • the rear composite image, the left-side composite image, the right-side composite image, and the front composite image generated in this manner are respectively a rear display panel P1, a left-side display panel P2, a right-side display panel P3, and It is displayed on the front display panel P4.
  • FIG. 9 shows an example of the forward composite image 76 generated in the situation at time t2.
  • the virtual person object 68 does not enter the visual field range of the viewpoint 64d. Therefore, the image of the virtual person object 68 is not included in the front composite image 76 shown in FIG.
  • FIG. 10A shows an example of the right side virtual space image 78 generated in the situation at time t2.
  • FIG. 10B shows an example of the right side photographed frame image 80 included in the combination acquired in the situation at time t2.
  • the virtual person object 68 is included in the view range of the viewpoint 64c. Therefore, the image of the virtual person object 68 is included in the right side virtual space image 78 shown in FIG. 10A.
  • the right-side composite image 82 shown in FIG. 10C is generated.
  • the right side composite image 82 generated in this manner is displayed on the right side display panel P3.
  • the image of the virtual person object 68 displayed on the front display panel P4 at time t1 is displayed on the right side display panel P3 while the front display panel P4 is not displayed at time t2. It will be possible to
  • the virtual person object 68 is positioned to the right of the virtual railway vehicle object 62e in the virtual space 60 at a certain point (point t3).
  • the track of the virtual railway vehicle object 62 is shown by a two-dot chain line.
  • the actual railway vehicle travels on a track that turns to the right gradually in the real space when a real moving image corresponding to the virtual space 60 shown in FIG. 11 is photographed.
  • the track in the virtual space 60 of the virtual railway vehicle object 62 is a track that turns gently to the right.
  • FIG. 12A shows an example of the right side virtual space image 84 generated in the situation at time t3.
  • FIG. 12B shows an example of the right side photographed frame image 86 included in the combination acquired in the situation at time t3.
  • the virtual person object 68 is in the view range of the viewpoint 64c. Therefore, the image of the virtual person object 68 is included in the right side virtual space image 84 shown in FIG. 12A.
  • the right-side composite image 88 shown in FIG. 12C is generated.
  • the right side composite image 88 generated in this manner is displayed on the right side display panel P3.
  • the virtual railway vehicle object 62 moves to the position shown in FIG. 13 at time t4 after time t3.
  • the position of the virtual person object 68 in the virtual space 60 has not changed at time t3, but the virtual person object 68 is behind the virtual rail vehicle object 62f due to the movement of the virtual railway vehicle object 62. It is located in
  • FIG. 14A shows an example of the rear virtual space image 90 generated in the situation at time point t4.
  • FIG. 14B shows an example of the rear photographed frame image 92 included in the combination acquired in the situation at time t4.
  • the virtual person object 68 does not enter the view range of the viewpoint 64c, but the virtual person object 68 enters the view range of the view 64a. Therefore, the backward virtual space image 90 shown in FIG. 14A includes the image of the virtual person object 68.
  • a rear composite image 94 shown in FIG. 14C is generated.
  • the rear composite image 94 generated in this manner is displayed on the rear display panel P1.
  • the image of the virtual person object 68 displayed on the right side display panel P3 at time t3 is not displayed on the right side display panel P3 at time t4 while being displayed on the rear display panel P1. It can be displayed.
  • the arrangement of the images of the virtual objects with respect to all the images displayed on the plurality of display panels is determined. Ru. Therefore, according to the present embodiment, it is possible to easily display a moving image including an image obtained by combining the photographed image and the virtual space image in a state where the moving images are aligned with each other on a plurality of display panels.
  • a photographed image obtained by photographing a real space with a camera may be mapped as a texture on the surface of a polygon constituting the virtual person object 68. In this way, it is possible to generate a composite image closer to a real shot.
  • FIG. 15 is a functional block diagram showing an example of functions implemented by the server 50 according to the present embodiment.
  • the server 50 according to the present embodiment all the functions shown in FIG. 15 do not have to be mounted, and functions other than the functions shown in FIG. 15 may be mounted.
  • the server 50 functionally includes, for example, a photographed image storage unit 100, a virtual space data storage unit 102, a travel signal reception unit 104, a virtual vehicle position update unit 106, and a viewpoint.
  • a position specifying unit 108, a virtual space image generation unit 110, a photographed image acquisition unit 112, a composite image generation unit 114, a composite image output unit 116, and a composite image transmission unit 118 are included.
  • the photographed image storage unit 100 and the virtual space data storage unit 102 are mainly implemented as the storage unit 50b.
  • the traveling signal reception unit 104 and the composite image transmission unit 118 are mainly mounted on the communication unit 50c.
  • the virtual vehicle position update unit 106, the viewpoint position specification unit 108, the virtual space image generation unit 110, the photographed image acquisition unit 112, and the composite image generation unit 114 are mainly implemented with the processor 50a.
  • the composite image output unit 116 is mainly mounted with the processor 50a, the rear display panel P1, the left side display panel P2, and the right side display panel P3. Then, the server 50 plays a role as a railway simulator image generation system that generates a composite image according to the present embodiment.
  • the above functions may be implemented by the processor 50a executing a program installed in the server 50, which is a computer, and including instructions corresponding to the above functions.
  • This program may be supplied to the server 50 via a computer readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, a flash memory, or the Internet, for example.
  • the photographed image storage unit 100 stores a photographed image taken by a camera provided on a real railway vehicle moving in the real space in association with a virtual vehicle position in the virtual space 60.
  • the photographed image storage unit 100 may store a combination of a plurality of photographed images respectively captured by a plurality of cameras provided on a real railway vehicle in association with a virtual vehicle position in the virtual space 60.
  • the photographed image storage unit 100 may store a plurality of the photographed image management data described above including a combination of photographed images taken at the same timing.
  • the virtual space data storage unit 102 stores, for example, data indicating the position and orientation of each virtual object in the virtual space 60 in the present embodiment.
  • the virtual space data storage unit 102 may store data of polygons representing virtual objects, images of textures mapped to virtual objects, and the like.
  • the virtual space data storage unit 102 may store data indicating a trajectory set in the virtual space 60.
  • the virtual space data storage unit 102 may also store data indicating the position and orientation of the virtual railway vehicle object 62 with respect to the virtual vehicle position.
  • the virtual space data storage unit 102 may store data indicating the positions of the viewpoints 64a, 64b, and 64c relative to the position of the virtual railway vehicle object 62f.
  • the virtual space data storage unit 102 may store data indicating the relative directions of the viewing direction 66a, the viewing direction 66b, and the viewing direction 66c with respect to the direction of the virtual railway vehicle object 62f. In addition, the virtual space data storage unit 102 may store data indicating the relative position of the viewpoint 64 d to the position of the virtual railway vehicle object 62 a. In addition, the virtual space data storage unit 102 may store data indicating the relative direction of the line-of-sight direction 66 d with the direction of the virtual railway vehicle object 62 a.
  • the traveling signal receiving unit 104 receives a traveling signal corresponding to an operation input to the traveling command unit 21.
  • the traveling instruction unit 21 may output a traveling signal to the server 52 at a predetermined sampling rate, and the server 52 may transmit the traveling signal to the server 50.
  • the time interval corresponding to the sampling rate may be the same as the time interval corresponding to the above-mentioned frame rate.
  • the virtual vehicle position update unit 106 updates the virtual vehicle position in the virtual space 60 according to the user's operation.
  • the virtual vehicle position update unit 106 may update the virtual vehicle position in the virtual space 60 according to the travel signal according to the operation input received by the travel signal reception unit 104.
  • the viewpoint position specifying unit 108 specifies the position of the viewpoint 64 corresponding to the updated virtual vehicle position, for example.
  • the viewpoint position specifying unit 108 may specify the position and the orientation of the virtual railway vehicle object 62 based on the virtual vehicle position updated by the virtual vehicle position update unit 106. Then, the viewpoint position specifying unit 108 may specify the position of the viewpoint 64a, the position of the viewpoint 64b, the position of the viewpoint 64c, and the position of the viewpoint 64d based on the position and the orientation of the virtual railway vehicle object 62 identified.
  • the viewpoint position specifying unit 108 may specify the gaze direction 66a, the gaze direction 66b, the gaze direction 66c, and the gaze direction 66d based on the identified position and orientation of the virtual railway vehicle object 62. .
  • the virtual space image generation unit 110 generates a virtual space image that represents a view of the virtual space 60 from the position of the viewpoint 64.
  • a virtual space image is generated that represents a view of the virtual space 60 from the position of the viewpoint 64 corresponding to the updated virtual vehicle position.
  • a combination of the backward virtual space image, the leftward virtual space image, the rightward virtual space image, and the forward virtual space image may be generated.
  • the photographed image acquiring unit 112 acquires, for example, one or a plurality of photographed images specified based on the position of the viewpoint 64 from the photographed image storage unit 100. For example, one or more photographed images specified based on the position of the viewpoint 64 corresponding to the updated virtual vehicle position are acquired from the photographed image storage unit 100.
  • the photographed image acquisition unit 112 acquires one or more photographed image management data specified based on the virtual vehicle position in the virtual space 60 from the photographed image storage unit 100 as described above. Good.
  • the composite image generation unit 114 generates a composite image of the virtual space image generated by the virtual space image generation unit 110 and one or a plurality of photographed images acquired by the photographed image acquisition unit 112. For example, for each of a plurality of cameras, a virtual space image representing a situation where the virtual space 60 is viewed from the position of the viewpoint 64 corresponding to the camera, and one or more taken by the camera included in the captured real image management data A composite image of a plurality of photographed images may be generated.
  • a combination of the backward composite image, the left-side composite image, the right-side composite image, and the forward composite image may be generated.
  • the composite image generation unit 114 may generate an image obtained by interpolating a plurality of actual photographed images acquired by the actual photographed image acquisition unit 112. Then, the composite image generation unit 114 may generate a composite image of the virtual space image generated by the virtual space image generation unit 110 and the interpolated image.
  • the composite image output unit 116 outputs the composite image generated by the composite image generation unit 114 to the display panel.
  • the composite image output unit 116 may output the rear composite image generated by the composite image generation unit 114 to the rear display panel P1.
  • the rear display panel P1 may display the rear composite image.
  • the composite image output unit 116 may output the left side composite image generated by the composite image generation unit 114 to the left side display panel P2.
  • the left side display panel P2 may display the left side composite image.
  • the composite image output unit 116 may output the right side composite image generated by the composite image generation unit 114 to the right side display panel P3.
  • the right side display panel P3 may display the right side composite image.
  • the composite image transmission unit 118 transmits the composite image generated by the composite image generation unit 114 to the server 52.
  • the composite image transmission unit 118 may transmit the forward composite image generated by the composite image generation unit 114 to the server 52.
  • the server 52 that has received the front composite image may output the front composite image to the front display panel P4.
  • the front display panel P4 may display the front composite image.
  • the virtual vehicle position updating unit 106 changes the position or the posture of the virtual person object 68 based on the position of the virtual person object 68 disposed in the virtual space 60 and the virtual vehicle position.
  • the position or posture of the virtual person object 68 may be controlled to behave like a person who has made contact with a vehicle.
  • the virtual space image generation unit 110 may generate a virtual space image including the image of the virtual human object 68 whose position or posture changes in this manner.
  • the traveling signal receiving unit 104 receives, from the server 52, a traveling signal corresponding to an operation input to the traveling command unit 21 (S101).
  • the virtual vehicle position updating unit 106 determines the actual vehicle position and the virtual vehicle position in the frame based on the traveling signal received in the process shown in S101 and the actual vehicle position and the virtual vehicle position in the immediately preceding frame (S102 ).
  • the viewpoint position specifying unit 108 specifies the position and direction of the virtual railway vehicle object 62 based on the virtual vehicle position determined in the process shown in S102 (S103).
  • the viewpoint position specifying unit 108 specifies the position of the viewpoint 64 and the viewing direction 66 based on the position and the orientation of the virtual railway vehicle object 62 specified in the process shown in S103 (S104).
  • the position of the viewpoint 64a, the position of the viewpoint 64b, the position of the viewpoint 64c, the position of the viewpoint 64d, the gaze direction 66a, the gaze direction 66b, the gaze direction 66c, and the gaze direction 66d may be specified.
  • the virtual space image generation unit 110 generates a virtual space image based on the position of the viewpoint 64 identified in the process shown in S104 and the gaze direction 66 (S105).
  • a combination of the backward virtual space image, the leftward virtual space image, the rightward virtual space image, and the forward virtual space image may be generated.
  • the photographed image acquisition unit 112 acquires one or more photographed image management data including virtual vehicle position data indicating the virtual vehicle position specified in the process shown in S102 (S106).
  • the composite image generation unit 114 generates a composite image based on the photographed image included in the photographed image management data acquired in the process of S106 and the virtual space image generated in the process of S105 ( S107).
  • a left-side composite image is generated based on the left-side real-shot frame image included in the real-shot image management data acquired in the process shown in S106 and the left-side virtual space image generated in the process shown in S105. It is also good.
  • the right-side composite image is generated based on the right-side real-shot frame image included in the real-shot image management data acquired in the process shown in S106 and the right-side virtual space image generated in the process shown in S105. It is also good.
  • a forward composite image may be generated based on the forward real shot frame image included in the real shot image management data acquired in the process shown in S106 and the forward virtual space image generated in the process shown in S105.
  • the composite image output unit 116 outputs the rear composite image to the rear display panel P1, outputs the left-side composite image to the left-side display panel P2, and outputs the right-side composite image to the right-side display panel P3.
  • the rear display panel P1 displays the rear composite image
  • the left side display panel P2 displays the left side composite image
  • the right side display panel P3 displays the right side composite image
  • the front display The panel P4 will display a forward composite image.
  • the composite image transmission unit 118 may transmit the forward composite image to the server 52.
  • the server 52 may output a front composite image to the front display panel P4.
  • the front display panel P4 displays a front composite image.
  • the process returns to the process shown in S101.
  • the processing shown in S101 to S108 is repeatedly executed at a predetermined frame rate.
  • the composite image generation unit 114 may repeatedly execute generation of the composite image according to the user's operation at predetermined time intervals.
  • the present invention is not limited to the above-described embodiment.
  • some or all of the functions shown in FIG. 15 may be implemented by the server 52.
  • the server 52 may not be included in the railway simulator system 1 illustrated in FIG. 1.
  • the server 50 may output a front composite image to the front display panel P4.
  • the server 50 may not be included in the railway simulator system 1 illustrated in FIG. 1.
  • the server 52 may implement the function shown in FIG. Then, the server 52 may output the rear composite image to the rear display panel P1, the left side composite image to the left side display panel P2, and the right side composite image to the right side display panel P3.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Abstract

軽い処理負荷で実空間を撮影した実写画像と仮想空間の画像とを合成した画像を生成できる画像生成システム、画像生成方法及びプログラムを提供する。実写画像記憶部(100)は、実空間内を移動する実鉄道車両に設けられたカメラにより撮影された実写画像を、仮想空間内の仮想車両位置と関連付けて記憶する。仮想車両位置更新部(106)は、ユーザの操作に応じて、仮想空間内の仮想車両位置を更新する。仮想空間画像生成部(110)は、更新後の仮想車両位置に対応する仮想空間内の視点の位置から仮想空間を見た様子を表す仮想空間画像を生成する。実写画像取得部(112)は、更新後の仮想車両位置に基づいて特定される1又は複数の実写画像を実写画像記憶部(100)から取得する。合成画像生成部(114)は、生成される仮想空間画像と取得される1又は複数の実写画像との合成画像を生成する。

Description

画像生成システム、画像生成方法及びプログラム
 本発明は、画像生成システム、画像生成方法及びプログラムに関する。
 実空間を撮影した実写画像と仮想空間の画像などといったコンピュータグラフィックス(CG)の画像とを合成した画像を生成できる鉄道シミュレータが知られている。このような鉄道シミュレータの一例として、特許文献1には、走行中の電車の運転席から見た実情景を撮像した実写動画像データと3次元CGモデルとを合成した合成画像を生成できる鉄道シミュレータが記載されている。
 特許文献1に記載の技術では、予め撮像した実写動画像データからフレーム間トラッキングにより特定される特徴点の画面上の位置と特徴点の3次元情報のうち仮想した視点からの距離でない情報とから距離情報が算出される。そして算出された距離情報をもとに生成される3次元CGモデルの画像と実写動画像データの再生映像とを合成した合成画像が生成される。
特開2008-15576号公報
 しかし特許文献1に記載の技術では、合成画像を生成するにあたって、特徴点の画面上の位置の特定、距離情報の算出、距離情報に基づくCGモデルの画像の生成などの様々な演算処理を実行する必要があり、処理負荷が重い。
 本発明は上記課題に鑑みてなされたものであって、その目的の1つは、軽い処理負荷で実空間を撮影した実写画像と仮想空間の画像とを合成した画像を生成できる画像生成システム、画像生成方法及びプログラムを提供することにある。
 本発明に係る画像生成システムは、実空間内を移動する実鉄道車両に設けられたカメラにより撮影された実写画像を、仮想空間内の仮想車両位置と関連付けて記憶する実写画像記憶手段と、ユーザの操作に応じて、前記仮想空間内の前記仮想車両位置を更新する仮想車両位置更新手段と、更新後の前記仮想車両位置に対応する前記仮想空間内の視点の位置から前記仮想空間を見た様子を表す仮想空間画像を生成する仮想空間画像生成手段と、更新後の前記仮想車両位置に基づいて特定される1又は複数の前記実写画像を前記実写画像記憶手段から取得する実写画像取得手段と、生成される前記仮想空間画像と取得される1又は複数の前記実写画像との合成画像を生成する合成画像生成手段と、を含む。
 本発明の一態様では、前記実写画像記憶手段は、前記実鉄道車両に設けられた複数の前記カメラによりそれぞれ撮影された複数の前記実写画像の組合せを、前記仮想車両位置と関連付けて記憶し、前記仮想空間画像生成手段は、更新後の前記仮想車両位置に対応する、それぞれいずれかの前記カメラに対応する前記仮想空間内の複数の視点についての、当該視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像を生成し、前記実写画像取得手段は、更新後の前記仮想車両位置に基づいて特定される、1又は複数の前記組合せを前記実写画像記憶手段から取得し、前記合成画像生成手段は、前記複数の前記カメラのそれぞれについて、当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像と、取得される1又は複数の前記組合せに含まれる、当該カメラにより撮影された1又は複数の前記実写画像との合成画像を生成する。
 この態様では、運転士訓練者による模擬運転操作が行われる運転士操作卓と、車掌訓練者が乗り降り可能な模擬鉄道車両と、前記模擬鉄道車両に隣接して設けられている模擬プラットホームと、前記実鉄道車両の前方に位置し前方を向く前記カメラにより撮影された1又は複数の実写画像と当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像との合成画像を表示する、前記運転士操作卓の前方に配置されている表示パネルと、前記実鉄道車両の側方に位置し前方を向く前記カメラにより撮影された1又は複数の実写画像と当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像との合成画像を表示する、前記模擬プラットホームの前方に設けられている表示パネルと、をさらに含んでもよい。
 あるいは、車掌訓練者が乗り降り可能な模擬鉄道車両と、前記模擬鉄道車両の側面に隣接して設けられている模擬プラットホームと、前記実鉄道車両の後方に位置し後方を向く前記カメラにより撮影された1又は複数の実写画像と当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像との合成画像を表示する、前記模擬鉄道車両の後方に設けられている表示パネルと、前記実鉄道車両の側方に位置し前方を向く前記カメラにより撮影された1又は複数の実写画像と当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像との合成画像を表示する、前記模擬プラットホームの前方に設けられている表示パネルと、をさらに含んでもよい。
 また、本発明の一態様では、前記合成画像生成手段は、前記ユーザの操作に応じた前記合成画像の生成を所定の時間間隔で繰り返し実行する。
 また、本発明に係る画像生成方法は、ユーザの操作に応じて、仮想空間内の仮想車両位置を更新するステップと、更新後の前記仮想車両位置に対応する前記仮想空間内の視点の位置から前記仮想空間を見た様子を表す仮想空間画像を生成するステップと、実空間内を移動する実鉄道車両に設けられたカメラにより撮影された実写画像を、前記仮想空間内の前記仮想車両位置と関連付けて記憶する実写画像記憶手段から、更新後の前記仮想車両位置に基づいて特定される1又は複数の前記実写画像を取得するステップと、生成される前記仮想空間画像と取得される1又は複数の前記実写画像との合成画像を生成するステップと、を含む。
 また、本発明に係るプログラムは、ユーザの操作に応じて、仮想空間内の仮想車両位置を更新する手順、更新後の前記仮想車両位置に対応する前記仮想空間内の視点の位置から前記仮想空間を見た様子を表す仮想空間画像を生成する手順、実空間内を移動する実鉄道車両に設けられたカメラにより撮影された実写画像を、前記仮想空間内の前記仮想車両位置と関連付けて記憶する実写画像記憶手段から、更新後の前記仮想車両位置に基づいて特定される1又は複数の前記実写画像を取得する手順、生成される前記仮想空間画像と取得される1又は複数の前記実写画像との合成画像を生成する手順、をコンピュータに実行させる。
本発明の一実施形態に係る鉄道シミュレータシステムの全体構成の一例を示す外観斜視図である。 模擬鉄道車両及び運転士操作卓の構成の一例を示す図である。 実写画像管理データのデータ構造の一例を示す図である。 仮想空間の一例を示す図である。 仮想鉄道車両オブジェクトの位置及び向きの特定の一例を説明する説明図である。 仮想空間内で仮想鉄道車両オブジェクトの前方に仮想人物オブジェクトが位置する状況の一例を示す図である。 前方仮想空間画像の一例を示す図である。 前方実写フレーム画像の一例を示す図である。 前方合成画像の一例を示す図である。 仮想空間内で仮想鉄道車両オブジェクトの右横に仮想人物オブジェクトが位置する状況の一例を示す図である。 前方合成画像の一例を示す図である。 右側方仮想空間画像の一例を示す図である。 右側方実写フレーム画像の一例を示す図である。 右側方合成画像の一例を示す図である。 仮想空間内で仮想鉄道車両オブジェクトの右横に仮想人物オブジェクトが位置する状況の一例を示す図である。 右側方仮想空間画像の一例を示す図である。 右側方実写フレーム画像の一例を示す図である。 右側方合成画像の一例を示す図である。 仮想空間内で仮想鉄道車両オブジェクトの後方に仮想人物オブジェクトが位置する状況の一例を示す図である。 後方仮想空間画像の一例を示す図である。 後方実写フレーム画像の一例を示す図である。 後方合成画像の一例を示す図である。 本発明の一実施形態に係るサーバの機能の一例を示す機能ブロック図である。 本発明の一実施形態に係るサーバで行われる処理の流れの一例を示すフロー図である。
 以下、本発明の一実施形態について図面に基づき詳細に説明する。
 図1は、本発明の一実施形態に係る鉄道シミュレータシステム1の全体構成の一例を示す外観斜視図である。
 図1に例示する鉄道シミュレータシステム1は、車掌や運転士の業務の訓練に用いられる、実空間内を移動する実際の鉄道車両(実鉄道車両)を模したシステムである。以下、車掌の業務の訓練を行う者を車掌訓練者と呼び、運転士の業務の訓練を行う者を運転士訓練者と呼ぶこととする。なお図1に例示する鉄道シミュレータシステム1の用途は車掌や運転士の業務の訓練には限定されない。鉄道シミュレータシステム1が例えば車掌や運転士の模擬体験などに用いられてもよい。
 図1に示すように、本実施形態に係る鉄道シミュレータシステム1には、主な構成として、模擬鉄道車両10と、運転士操作卓20と、車掌教官卓30と、運転士教官卓40とが含まれる。
 模擬鉄道車両10は、実鉄道車両の後方の一部を模したものである。車掌訓練者は、模擬鉄道車両10に乗り降り可能となっている。模擬鉄道車両10内には模擬車掌室11が設けられ、模擬車掌室11の後方には後方表示パネルP1が設けられている。
 また模擬鉄道車両10の左側の側面に隣接して左側模擬プラットホーム12が設けられている。そして左側模擬プラットホーム12の前方に左側方表示パネルP2が設けられている。また模擬鉄道車両10の右側の側面に隣接して右側模擬プラットホーム13が設けられている。そして右側模擬プラットホーム13の前方に右側方表示パネルP3が設けられている。
 運転士操作卓20は、実鉄道車両の運転室にある操作卓を模したものである。運転士操作卓20では、運転士訓練者による模擬運転操作が行われる。運転士操作卓20には、例えばレバー等を含む走行指令部21が設けられている。また、運転士操作卓20の前方には前方表示パネルP4が設けられている。
 なお模擬車掌室11及び運転士操作卓20のそれぞれには、運転士訓練者と車掌訓練者とが相互に連絡を取り合うための音声通信機器が設けられていてもよい。
 また模擬鉄道車両10と運転士操作卓20とは、同じ空間に設けられている必要はなく、例えば、壁で仕切られた隣の部屋にそれぞれ設けられていてもよい。また模擬鉄道車両10と運転士操作卓20とは互いに離れた場所に設けられてもよい。それにより、車掌訓練者と運転士訓練者とが遠隔の地にいる場合であっても、互いに連携して訓練を行うことができる。
 車掌教官卓30では、車掌教官により車掌訓練者の監視等が行われる。車掌教官卓30上には複数の表示パネル等が設けられており、それら表示パネルを車掌教官が確認することにより車掌訓練者の訓練状況を監視できる。
 運転士教官卓40では、運転士教官により運転士訓練者の監視等が行われる。運転士教官卓40上には複数の表示パネル等が設けられており、それら表示パネルを運転士教官が確認することにより運転士訓練者の訓練状況を監視できる。
 図2は、模擬鉄道車両10及び運転士操作卓20の構成の一例を示す図である。図2に示すように、本実施形態に係る模擬鉄道車両10には、サーバ50が含まれている。また本実施形態に係る運転士操作卓20には、サーバ52が含まれている。
 サーバ50には、例えば、プロセッサ50a、記憶部50b、及び、通信部50cが含まれている。プロセッサ50aは、例えばサーバ50にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。記憶部50bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部50bには、プロセッサ50aによって実行されるプログラムなどが記憶される。通信部50cは、例えばサーバ52との間でデータを授受するためのネットワークボードなどの通信インタフェースである。サーバ50は、通信部50cを経由してサーバ52との間で情報の送受信を行う。
 サーバ52には、例えば、プロセッサ52a、記憶部52b、及び、通信部52cが含まれている。プロセッサ52aは、例えばサーバ52にインストールされるプログラムに従って動作するCPU等のプログラム制御デバイスである。記憶部52bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部52bには、プロセッサ52aによって実行されるプログラムなどが記憶される。通信部52cは、例えばサーバ50との間でデータを授受するためのネットワークボードなどの通信インタフェースである。サーバ52は、通信部52cを経由してサーバ50との間で情報の送受信を行う。
 本実施形態では、予め、鉄道シミュレータシステム1を用いた訓練の対象となる実空間の鉄道路線を実鉄道車両が走行している間、当該実鉄道車両に設けられたカメラにより訓練に用いられる動画像が撮影される。
 ここでは例えば、実鉄道車両に設けられた4個のカメラによって動画像が撮影されることとする。以下、これら4個のカメラをそれぞれ、後方実カメラ、左側方実カメラ、右側方実カメラ、及び、前方実カメラと呼ぶこととする。ここで後方実カメラは例えば、実鉄道車両の最後尾の車両の後方に位置し後方を向いている、車掌室から後方を撮影するカメラである。また左側方実カメラは例えば、実鉄道車両の最後尾の車両の車掌室の左側方に位置し前方を向いている、車掌室の左側方から前方を撮影するカメラである。また右側方実カメラは例えば、実鉄道車両の最後尾の車両の車掌室の右側方に位置し前方を向いている、車掌室の右側方から前方を撮影するカメラである。また前方実カメラは例えば、実鉄道車両の先頭の車両の前方に位置し前方を向いている、運転席から前方を撮影するカメラである。
 上述のように実鉄道車両に設けられた4個のカメラによって動画像が撮影される場合は、それぞれ複数のフレーム画像を含む4個の動画像が生成されることとなる。以下、実鉄道車両に設けられたカメラが生成する動画像を実写動画像と呼ぶこととする。そして例えば後方実カメラ、左側方実カメラ、右側方実カメラ、及び、前方実カメラのそれぞれが生成する実写動画像を、それぞれ、後方実写動画像、左側方実写動画像、右側方実写動画像、及び、前方実写動画像と呼ぶこととする。
 なお本実施形態では、後方実写動画像、左側方実写動画像、右側方実写動画像、及び、前方実写動画像は、撮影タイミングの同期がとれていることとする。そして、あるタイミングにおいて撮影された後方実写動画像のフレーム画像、左側方実写動画像のフレーム画像、右側方実写動画像のフレーム画像、及び、前方実写動画像のフレーム画像には、同じフレーム番号が設定されることとする。
 また本実施形態では、予め、実写動画像に含まれるフレーム画像である実写画像の撮影タイミングにおける実鉄道車両の位置が特定されることとする。以下、このようにして特定される実鉄道車両の位置を、実車両位置と呼ぶこととする。ここで例えば、GPSモジュール等を用いることで、実写動画像に含まれる各フレーム画像の撮影の際に、当該フレーム画像の撮影タイミングにおける実車両位置が特定されるようにしてもよい。ここで例えば前方実カメラの位置や複数両編成である実鉄道車両の全体の中心の位置などといった実鉄道車両を代表する点の位置が、実車両位置として特定されてもよい。
 そして本実施形態では以上のようにして撮影される実写動画像や当該実写動画像の撮影タイミングにおける実車両位置などが、実写画像管理データ(図3参照)によって管理される。実写画像管理データは例えばサーバ50の記憶部50bに記憶されてもよい。
 図3は、本実施形態に係る実写画像管理データのデータ構造の一例を示す図である。図3に示すように、実写画像管理データには、実写画像セットID、後方実写フレーム画像、左側方実写フレーム画像、右側方実写フレーム画像、前方実写フレーム画像、実車両位置データ、仮想車両位置データが含まれる。実写画像管理データは、実写動画像に含まれる1個のフレーム画像に対応付けられるデータである。そのため例えばサーバ50の記憶部50bには、実写動画像に含まれるフレーム画像の数(実写動画像のフレーム数)の実写画像管理データが記憶されることとなる。
 実写画像セットIDは、実写画像管理データの識別情報である。ここで例えば、実写画像セットIDの値としてフレーム番号が設定されてもよい。
 実写画像管理データに含まれる後方実写フレーム画像、左側方実写フレーム画像、右側方実写フレーム画像、前方実写フレーム画像としては、当該実写画像管理データに含まれる実写画像セットIDに対応付けられるフレーム画像である実写画像が設定される。ここで例えば後方実写フレーム画像としては、後方実写動画像に含まれるフレーム画像である実写画像が設定される。また左側方実写フレーム画像としては、左側方実写動画像に含まれるフレーム画像である実写画像が設定される。また右側方実写フレーム画像としては、右側方実写動画像に含まれるフレーム画像である実写画像が設定される。また前方実写フレーム画像としては、前方実写動画像に含まれるフレーム画像である実写画像が設定される。このように本実施形態に係る実写画像管理データは、複数の実写画像の組合せが含まれることとなる。
 実写画像管理データに含まれる実車両位置データの値としては、例えば、当該実写画像管理データに対応付けられるフレーム画像の撮影タイミングにおける実車両位置を示す値が設定される。ここで上述のように実車両位置データの値として実鉄道車両を代表する点の位置を示す値が設定されてもよい。また実車両位置データの値は例えば緯度と経度の組合せで表現されてもよい。
 実写画像管理データに含まれる仮想車両位置データの値としては、当該実写画像管理データに含まれる実車両位置データが示す実車両位置に対応付けられる、図4に例示する仮想空間60内の位置を示す値が設定される。以下、実車両位置に対応付けられる仮想空間60内における位置を、仮想車両位置と呼ぶこととする。ここで仮想車両位置データの値は例えばX座標値、Y座標値、及び、Z座標値の組合せで表現されてもよい。
 図4は、本実施形態に係る仮想空間60の一例を示す図である。図4に示す仮想空間60は3次元仮想空間である。また図4に示すように本実施形態に係る仮想空間60には、実鉄道車両に対応付けられる仮想オブジェクトである、複数のポリゴンにより構成された仮想鉄道車両オブジェクト62が配置される。ここで本実施形態に係る仮想鉄道車両オブジェクト62は、透明に設定された不可視の仮想オブジェクトであることとする。
 ここで例えば実鉄道車両が6両編成である場合は、仮想空間60には、互いに連結された6個の仮想鉄道車両オブジェクト62(62a、62b、62c、62d、62e、及び、62f)が配置される。仮想鉄道車両オブジェクト62aは例えば実鉄道車両の先頭の車両に対応付けられる。また仮想鉄道車両オブジェクト62b、仮想鉄道車両オブジェクト62c、仮想鉄道車両オブジェクト62d、仮想鉄道車両オブジェクト62eはそれぞれ例えば実鉄道車両の先頭から2両目、3両目、4両目、5両目の車両に対応付けられる。また仮想鉄道車両オブジェクト62fは、例えば実鉄道車両の最後尾の車両に対応付けられる。
 そして本実施形態では、上述のように、実空間内における実車両位置と仮想空間60内における仮想車両位置とは1対1で対応付けられる。ここで本実施形態では、実写動画像が撮影された際の実空間内における実鉄道車両の軌道に相当する軌道が予め仮想空間60に設定されていることとする。そして本実施形態では、図5に示すように、仮想車両位置及び当該軌道に基づいて、6個の仮想鉄道車両オブジェクト62の位置及び向きが一意に特定されることとする。
 図5は、仮想車両位置及び軌道に基づく仮想鉄道車両オブジェクトの位置及び向きの特定の一例を説明する説明図である。図5では、ゆるやかに右に曲がる仮想鉄道車両オブジェクト62の軌道が二点鎖線で示されている。また図5では、仮想鉄道車両オブジェクト62は当該軌道に沿って図5における下から上に向かって進行することとする。
 ここで例えば実車両位置が前方実カメラの位置であるとする。そして仮想鉄道車両オブジェクト62aの前面の中心の位置A1が仮想車両位置であることとする。この場合、仮想鉄道車両オブジェクト62の進行方向に対して位置A1の後方に位置する、位置A1を中心とした半径の長さがdである円と軌道との交点の位置A2が特定される。同様にして上述の進行方向に対して位置A2の後方に位置する、位置A2を中心とした半径の長さがdである円と軌道との交点の位置A3が特定される。また上述の進行方向に対して位置A3の後方に位置する、位置A3を中心とした半径の長さがdである円と軌道との交点の位置A4が特定される。また上述の進行方向に対して位置A4の後方に位置する、位置A4を中心とした半径の長さがdである円と軌道との交点の位置A5が特定される。また上述の進行方向に対して位置A5の後方に位置する、位置A5を中心とした半径の長さがdである円と軌道との交点の位置A6が特定される。ここで半径の長さdは特に問わないが、例えば1つの仮想鉄道車両オブジェクト62の長さであってもよいし、1つの仮想鉄道車両オブジェクト62の長さに余裕長を足した長さであってもよい。
 そして仮想鉄道車両オブジェクト62aの前面の中心が位置A1に位置し当該前面の法線方向が位置A1における軌道の接線方向B1を向くよう仮想鉄道車両オブジェクト62aが仮想空間60に配置される。また仮想鉄道車両オブジェクト62bの前面の中心が位置A2に位置し当該前面の法線方向が位置A2における軌道の接線方向B2を向くよう仮想鉄道車両オブジェクト62bが仮想空間60に配置される。また仮想鉄道車両オブジェクト62cの前面の中心が位置A3に位置し当該前面の法線方向が位置A3における軌道の接線方向B3を向くよう仮想鉄道車両オブジェクト62cが仮想空間60に配置される。また仮想鉄道車両オブジェクト62dの前面の中心が位置A4に位置し当該前面の法線方向が位置A4における軌道の接線方向B4を向くよう仮想鉄道車両オブジェクト62dが仮想空間60に配置される。また仮想鉄道車両オブジェクト62eの前面の中心が位置A5に位置し当該前面の法線方向が位置A5における軌道の接線方向B5を向くよう仮想鉄道車両オブジェクト62eが仮想空間60に配置される。また仮想鉄道車両オブジェクト62fの前面の中心が位置A6に位置し位置A6における当該前面の法線方向が軌道の接線方向B6を向くよう仮想鉄道車両オブジェクト62aが仮想空間60に配置される。このようにして仮想車両位置に対応する6個の仮想鉄道車両オブジェクト62の位置及び向きが特定される。
 また仮想空間60内には、それぞれ実鉄道車両に設けられたカメラに対応付けられる視点(仮想カメラ)64の位置及び視点64における視線の向き(視線方向66)が設定される。
 図4には、視点64a、視点64b、視点64c、及び、視点64dの位置が示されている。また図4には、視点64aにおける視線の向きである視線方向66a、視点64bにおける視線の向きである視線方向66b、視点64cにおける視線の向きである視線方向66c、及び、視点64dにおける視線の向きである視線方向66dも示されている。
 図4に示す視点64aの位置、視点64bの位置、視点64cの位置、視点64dの仮想空間60内における位置は、それぞれ、後方実カメラ、左側方実カメラ、右側方実カメラ、前方実カメラの実空間内における位置に対応付けられる。また図4に示す視線方向66a、視線方向66b、視線方向66c、及び、視線方向66dは、それぞれ、後方実カメラ、左側方実カメラ、右側方実カメラ、前方実カメラの実空間内における撮影する向きに対応付けられる。
 そのため本実施形態では図4に示すように、例えば視点64aは仮想鉄道車両オブジェクト62fの後方に配置され視線方向66aは後方を向くこととなる。また例えば、視点64bは仮想鉄道車両オブジェクト62fの左側方に配置され視線方向66bは前方を向くこととなる。また例えば、視点64cは仮想鉄道車両オブジェクト62fの右側方に配置され視線方向66cは前方を向くこととなる。また例えば視点64dは仮想鉄道車両オブジェクト62aの前方に配置され視線方向66dは前方を向くこととなる。
 そして本実施形態では例えば、視点64a、視点64b、及び、視点64cについては、仮想鉄道車両オブジェクト62fの位置に対する相対的な位置が固定される。また視線方向66a、視線方向66b、及び、視線方向66cについては、仮想鉄道車両オブジェクト62fの向きに対する相対的な向きが固定される。また視点64dについては、仮想鉄道車両オブジェクト62aの位置に対する相対的な位置が固定される。また視線方向66dについては、仮想鉄道車両オブジェクト62aの向きに対する相対的な向きが固定される。
 また本実施形態では、上述のように、仮想車両位置に基づいて、6個の仮想鉄道車両オブジェクト62の位置及び向きが一意に特定される。そのため図5に示すように、視点64aの位置、視点64bの位置、視点64cの位置、視点64dの位置、視線方向66a、視線方向66b、視線方向66c、及び、視線方向66dについても、仮想車両位置(例えば図5における位置A1)に基づいて一意に特定されることとなる。
 なお後述のように、仮想空間60に、複数のポリゴンにより構成された仮想人物オブジェクト68(図6、図8、図11及び図13参照)などといった、仮想鉄道車両オブジェクト62以外の仮想オブジェクトが配置されていてもよい。
 本実施形態では鉄道シミュレータシステム1を用いた訓練が行われている期間に運転士訓練者等のユーザが行う走行指令部21に対する操作に応じて、鉄道シミュレータシステム1において模されている実鉄道車両における実車両位置が変化する。そしてこの実車両位置の変化に応じて、仮想車両位置が変化し、当該仮想車両位置の変化に応じて、仮想空間60内における仮想鉄道車両オブジェクト62の位置及び向きが変化する。なお本実施形態では、仮想車両位置の変化に応じて、仮想空間60に設定されている軌道に沿って仮想鉄道車両オブジェクト62の位置及び向きが変化する。
 そして本実施形態では、鉄道シミュレータシステム1を用いた訓練が行われている期間にわたって、所定のフレームレートで(例えば1/60秒間隔で)4個のフレーム画像の組合せが生成される。そして生成される組合せに含まれるフレーム画像のそれぞれが後方表示パネルP1、左側方表示パネルP2、右側方表示パネルP3、及び、前方表示パネルP4に表示される。このようにして本実施形態では、訓練が行われている期間にわたって、所定のフレームレートで後方表示パネルP1、左側方表示パネルP2、右側方表示パネルP3、及び、前方表示パネルP4に表示されるフレーム画像が更新される。また本実施形態では、訓練が行われている期間にわたって、後方表示パネルP1、左側方表示パネルP2、右側方表示パネルP3、及び、前方表示パネルP4のそれぞれに動画像が表示されることとなる。
 ここで本実施形態では例えば、後方表示パネルP1には、後方実写フレーム画像と仮想空間60内において視点64aから視線方向66aを見た様子を表す仮想空間画像とを合成した合成画像をフレーム画像として含む動画像が表示される。以下、当該仮想空間画像を後方仮想空間画像と呼び、当該合成画像を後方合成画像と呼ぶこととする。
 また左側方表示パネルP2には、左側方実写フレーム画像と仮想空間60内において視点64bから視線方向66bを見た様子を表す仮想空間画像とを合成した合成画像をフレーム画像として含む動画像が表示される。以下、当該仮想空間画像を左側方仮想空間画像と呼び、当該合成画像を左側方合成画像と呼ぶこととする。
 また右側方表示パネルP3には、右側方実写フレーム画像と仮想空間60内において視点64cから視線方向66cを見た様子を表す仮想空間画像とを合成した合成画像をフレーム画像として含む動画像が表示される。以下、当該仮想空間画像を右側方仮想空間画像と呼び、当該合成画像を右側方合成画像と呼ぶこととする。
 また前方表示パネルP4には、前方実写フレーム画像と仮想空間60内において視点64dから視線方向66dを見た様子を表す仮想空間画像とを合成した合成画像をフレーム画像として含む動画像が表示される。以下、当該仮想空間画像を前方仮想空間画像と呼び、当該合成画像を前方合成画像と呼ぶこととする。
 なお本実施形態に係る仮想空間画像は、仮想空間60を見た様子をレンダリングしたコンピュータグラフィックス(CG)の画像である。
 以下、図6~図10Cを参照しながら、合成画像の生成の一例について説明する。
 例えばある時点(時点t1)において、図6に示すように、仮想空間60内で仮想鉄道車両オブジェクト62aの前方に仮想人物オブジェクト68が位置する状況になったとする。なお図6には、仮想鉄道車両オブジェクト62の軌道が二点鎖線で示されている。ここで例えば図6に示す仮想空間60に対応付けられる実写動画像が撮影された際に実鉄道車両は実空間内においてゆるやかに1021曲がる軌道を進んだとする。この場合、図6に示すように仮想空間60内における仮想鉄道車両オブジェクト62の軌道はゆるやかに右に曲がる軌道となる。
 そしてこの状況における仮想車両位置に基づいて、視点64aの位置、視点64bの位置、視点64cの位置、視点64dの位置、視線方向66a、視線方向66b、視線方向66c、及び、視線方向66dが特定される。そして特定される視点64の位置及び視線方向66に基づいて、後方仮想空間画像、左側方仮想空間画像、右側方仮想空間画像、及び、前方仮想空間画像の組合せが生成される。図7Aに、この状況において生成される前方仮想空間画像70の一例を示す。
 そしてこの状況における仮想車両位置が仮想車両位置データの値として設定された実写画像管理データが取得される。そして当該実写画像管理データに含まれる後方実写フレーム画像、左側方実写フレーム画像、右側方実写フレーム画像、及び、前方実写フレーム画像の組合せが取得される。図7Bに、この状況において取得される組合せに含まれる前方実写フレーム画像72の一例を示す。
 そして生成された後方仮想空間画像と取得された組合せに含まれる後方実写フレーム画像とを合成することで後方合成画像が生成される。また生成された左側方仮想空間画像と取得された組合せに含まれる左側方実写フレーム画像とを合成することで左側方合成画像が生成される。また生成された右側方仮想空間画像と取得された組合せに含まれる右側方実写フレーム画像とを合成することで右側方合成画像が生成される。また生成された前方仮想空間画像と取得された組合せに含まれる前方実写フレーム画像とを合成することで前方合成画像が生成される。図7Cに、図7Aに示す前方仮想空間画像70と図7Bに示す前方実写フレーム画像72とを合成することにより生成される前方合成画像74の一例を示す。
 なお、この状況における仮想車両位置が仮想車両位置データの値として設定された実写画像管理データが存在しないことが考えられる。このような場合は、この状況における仮想車両位置に基づいて特定される複数の実写画像管理データが取得されてもよい。そして複数の実写画像管理データのそれぞれに含まれる実写画像を補間した画像と仮想空間画像とを合成した合成画像が生成されてもよい。
 例えば、この状況における仮想車両位置の、上述の軌道に沿った前及び後のそれぞれについての、当該仮想車両位置に最も近い位置を示す仮想車両位置データを含む実写画像管理データが取得されてもよい。そしてこのようにして取得された2つの実写画像管理データのそれぞれに含まれる後方実写フレーム画像を補間した画像と生成された後方仮想空間画像とを合成することで後方合成画像が生成されてもよい。また取得された2つの実写画像管理データのそれぞれに含まれる左側方実写フレーム画像を補間した画像と生成された左側方仮想空間画像とを合成することで左側方合成画像が生成されてもよい。また取得された2つの実写画像管理データのそれぞれに含まれる右側方実写フレーム画像を補間した画像と生成された右側方仮想空間画像とを合成することで右側方合成画像が生成されてもよい。また取得された2つの実写画像管理データのそれぞれに含まれる前方実写フレーム画像を補間した画像と生成された前方仮想空間画像とを合成することで前方合成画像が生成されてもよい。
 そしてこのようにして生成される後方合成画像、左側方合成画像、右側方合成画像、及び、前方合成画像が、それぞれ、後方表示パネルP1、左側方表示パネルP2、右側方表示パネルP3、及び、前方表示パネルP4に表示される。
 その後、時点t1より後である時点t2において、仮想鉄道車両オブジェクト62が図8に示す位置まで移動したとする。図8に示す状況では、仮想人物オブジェクト68の仮想空間60内における位置は変化していないが、仮想鉄道車両オブジェクト62が移動したことによって仮想人物オブジェクト68は仮想鉄道車両オブジェクト62fの右横に位置している。
 図9に、時点t2の状況において生成される前方合成画像76の一例を示す。図8に示すように、時点t2の状況では、視点64dの視野範囲には仮想人物オブジェクト68が入らない。そのため、図9に示す前方合成画像76には、仮想人物オブジェクト68の像が含まれないこととなる。
 図10Aに、時点t2の状況において生成される右側方仮想空間画像78の一例を示す。また図10Bに、時点t2の状況において取得される組合せに含まれる右側方実写フレーム画像80の一例を示す。時点t2の状況では視点64cの視野範囲に仮想人物オブジェクト68が入っている。そのため図10Aに示す右側方仮想空間画像78には仮想人物オブジェクト68の像が含まれることとなる。そして図10Aに示す右側方仮想空間画像78と図10Bに示す右側方実写フレーム画像80とを合成することにより、図10Cに示す右側方合成画像82が生成される。このようにして生成される右側方合成画像82は、右側方表示パネルP3に表示される。
 以上のようにして、本実施形態では時点t1において前方表示パネルP4に表示されていた仮想人物オブジェクト68の像を、時点t2において前方表示パネルP4に表示させないようにしつつ右側方表示パネルP3に表示させることができることとなる。
 以下、図11~図14Cを参照しながら、合成画像の生成の別の一例について説明する。
 例えばある時点(時点t3)において、図11に示すように、仮想空間60内で仮想鉄道車両オブジェクト62eの右横に仮想人物オブジェクト68が位置する状況になったとする。なお図11には、仮想鉄道車両オブジェクト62の軌道が二点鎖線で示されている。ここで例えば図11に示す仮想空間60に対応付けられる実写動画像が撮影された際に実鉄道車両は実空間内のゆるやかに右に曲がる軌道を進んだとする。この場合は図11に示すように仮想鉄道車両オブジェクト62の仮想空間60内の軌道はゆるやかに右に曲がる軌道となる。
 図12Aに、時点t3の状況において生成される右側方仮想空間画像84の一例を示す。また図12Bに、時点t3の状況において取得される組合せに含まれる右側方実写フレーム画像86の一例を示す。図11に示すように、時点t3の状況では視点64cの視野範囲に仮想人物オブジェクト68が入っている。そのため図12Aに示す右側方仮想空間画像84には仮想人物オブジェクト68の像が含まれることとなる。そして図12Aに示す右側方仮想空間画像84と図12Bに示す右側方実写フレーム画像86とを合成することにより、図12Cに示す右側方合成画像88が生成される。このようにして生成される右側方合成画像88は、右側方表示パネルP3に表示される。
 そして時点t3より後である時点t4において、仮想鉄道車両オブジェクト62が図13に示す位置に移動したとする。図13に示す状況では、仮想人物オブジェクト68の仮想空間60内における位置は時点t3と変化していないが、仮想鉄道車両オブジェクト62が移動したことによって仮想人物オブジェクト68は仮想鉄道車両オブジェクト62fの後方に位置している。
 図14Aに、時点t4の状況において生成される後方仮想空間画像90の一例を示す。また図14Bに、時点t4の状況において取得される組合せに含まれる後方実写フレーム画像92の一例を示す。時点t4の状況では視点64cの視野範囲には仮想人物オブジェクト68が入らないが視点64aの視野範囲に仮想人物オブジェクト68が入っている。そのため図14Aに示す後方仮想空間画像90には仮想人物オブジェクト68の像が含まれることとなる。そして図14Aに示す後方仮想空間画像90と図14Bに示す後方実写フレーム画像92とを合成することにより、図14Cに示す後方合成画像94が生成される。このようにして生成される後方合成画像94は、後方表示パネルP1に表示される。
 以上のようにして本実施形態では、時点t3において右側方表示パネルP3に表示されていた仮想人物オブジェクト68の像を、時点t4において右側方表示パネルP3に表示させないようにしつつ後方表示パネルP1に表示させることができることとなる。
 本実施形態では、合成画像を生成するにあたって、実写画像に対して手作業でCGを重畳させる作業を行う必要がない。また本実施形態では、合成画像を生成するにあたって、実写画像の画像解析によってコンピュータグラフィックス(CG)を配置する位置を決定する演算処理などといった負荷が重い処理を行う必要がない。そのため本実施形態によれば、手間をかけずに軽い処理負荷で、実写画像と仮想空間画像とを合成した画像を生成できることとなる。
 また本実施形態では、仮想人物オブジェクト68などの仮想オブジェクトをモデリングして仮想空間60に配置することにより、複数の表示パネルに表示されるすべての画像についての当該仮想オブジェクトの像の配置が決定される。そのため本実施形態によれば、実写画像と仮想空間画像とを合成した画像を含む動画像を複数の表示パネルにおいて互いに整合がとれた状態で容易に表示させることができる。
 なお仮想人物オブジェクト68を構成するポリゴンの表面にカメラで実空間を撮影した実写画像がテクスチャとしてマッピングされていてもよい。このようにすればより実写に近い合成画像を生成することができる。
 以下、本実施形態に係るサーバ50の機能並びに本実施形態に係るサーバ50で実行される処理についてさらに説明する。
 図15は、本実施形態に係るサーバ50で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係るサーバ50で、図15に示す機能のすべてが実装される必要はなく、また、図15に示す機能以外の機能が実装されていても構わない。
 図15に示すように、本実施形態に係るサーバ50には、機能的には例えば、実写画像記憶部100、仮想空間データ記憶部102、走行信号受信部104、仮想車両位置更新部106、視点位置特定部108、仮想空間画像生成部110、実写画像取得部112、合成画像生成部114、合成画像出力部116、合成画像送信部118、が含まれる。実写画像記憶部100、仮想空間データ記憶部102は、記憶部50bを主として実装される。走行信号受信部104、合成画像送信部118は、通信部50cを主として実装される。仮想車両位置更新部106、視点位置特定部108、仮想空間画像生成部110、実写画像取得部112、合成画像生成部114は、プロセッサ50aを主として実装される。合成画像出力部116は、プロセッサ50a、後方表示パネルP1、左側方表示パネルP2、右側方表示パネルP3を主として実装される。そしてサーバ50は、本実施形態に係る合成画像を生成する鉄道シミュレータ用画像生成システムとしての役割を担うこととなる。
 以上の機能は、コンピュータであるサーバ50にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ50aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介してサーバ50に供給されてもよい。
 実写画像記憶部100は、本実施形態では例えば、実空間内を移動する実鉄道車両に設けられたカメラにより撮影された実写画像を、仮想空間60内の仮想車両位置と関連付けて記憶する。ここで実写画像記憶部100が、実鉄道車両に設けられた複数のカメラによりそれぞれ撮影された複数の実写画像の組合せを、仮想空間60内における仮想車両位置と関連付けて記憶してもよい。例えば上述のように、実写画像記憶部100が、同じタイミングに撮影された実写画像の組合せを含む上述の実写画像管理データを複数記憶してもよい。
 仮想空間データ記憶部102は、本実施形態では例えば、仮想空間60における各仮想オブジェクトの位置や向きを示すデータを記憶する。また仮想空間データ記憶部102が、仮想オブジェクトを表すポリゴンのデータや仮想オブジェクトにマッピングされるテクスチャの画像などを記憶してもよい。また仮想空間データ記憶部102は、仮想空間60内に設定された軌道を示すデータを記憶してもよい。また仮想空間データ記憶部102は、仮想車両位置に対する仮想鉄道車両オブジェクト62の位置及び向きを示すデータを記憶してもよい。また仮想空間データ記憶部102は、視点64a、視点64b、及び、視点64cの、仮想鉄道車両オブジェクト62fの位置に対する相対的な位置を示すデータを記憶してもよい。また仮想空間データ記憶部102は、視線方向66a、視線方向66b、及び、視線方向66cの、仮想鉄道車両オブジェクト62fの向きに対する相対的な向きを示すデータを記憶してもよい。また仮想空間データ記憶部102は、視点64dの、仮想鉄道車両オブジェクト62aの位置に対する相対的な位置を示すデータを記憶してもよい。また仮想空間データ記憶部102は、視線方向66dの、仮想鉄道車両オブジェクト62aの向きに対する相対的な向きを示すデータを記憶してもよい。
 走行信号受信部104は、本実施形態では例えば、走行指令部21に対する操作入力に応じた走行信号を受信する。ここで例えば、所定のサンプリングレートで走行指令部21が走行信号をサーバ52に出力し、サーバ52が当該走行信号をサーバ50に送信してもよい。ここで当該サンプリングレートに相当する時間間隔は、上述のフレームレートに相当する時間間隔と同じであっても構わない。
 仮想車両位置更新部106は、本実施形態では例えば、ユーザの操作に応じて、仮想空間60内の仮想車両位置を更新する。ここで例えば、仮想車両位置更新部106が、走行信号受信部104が受信する操作入力に応じた走行信号に応じて、仮想空間60内の仮想車両位置を更新してもよい。
 視点位置特定部108は、本実施形態では例えば、更新後の仮想車両位置に対応する視点64の位置を特定する。ここで例えば視点位置特定部108が、仮想車両位置更新部106による更新後の仮想車両位置に基づいて、仮想鉄道車両オブジェクト62の位置及び向きを特定してもよい。そして視点位置特定部108が、特定された仮想鉄道車両オブジェクト62の位置及び向きに基づいて、視点64aの位置、視点64bの位置、視点64cの位置、視点64dの位置を特定してもよい。また例えば、例えば視点位置特定部108が、特定された仮想鉄道車両オブジェクト62の位置及び向きに基づいて、視線方向66a、視線方向66b、視線方向66c、及び、視線方向66dを特定してもよい。
 仮想空間画像生成部110は、本実施形態では例えば、視点64の位置から仮想空間60を見た様子を表す仮想空間画像を生成する。例えば更新後の仮想車両位置に対応する視点64の位置から仮想空間60を見た様子を表す仮想空間画像が生成される。ここで例えば、上述のように、後方仮想空間画像、左側方仮想空間画像、右側方仮想空間画像、及び、前方仮想空間画像の組合せが生成されてもよい。
 実写画像取得部112は、本実施形態では例えば、視点64の位置に基づいて特定される1又は複数の実写画像を実写画像記憶部100から取得する。例えば更新後の仮想車両位置に対応する視点64の位置に基づいて特定される1又は複数の実写画像が実写画像記憶部100から取得される。ここで例えば、実写画像取得部112が、上述のようにして、仮想空間60内における仮想車両位置に基づいて特定される1又は複数の実写画像管理データを実写画像記憶部100から取得してもよい。
 合成画像生成部114は、本実施形態では例えば、仮想空間画像生成部110により生成される仮想空間画像と実写画像取得部112により取得される1又は複数の実写画像との合成画像を生成する。例えば複数のカメラのそれぞれについて、当該カメラに対応する視点64の位置から仮想空間60を見た様子を表す仮想空間画像と、取得される実写画像管理データに含まれる当該カメラにより撮影された1又は複数の実写画像と、の合成画像が生成されてもよい。ここで例えば上述のように、後方合成画像、左側方合成画像、右側方合成画像、及び、前方合成画像の組合せが生成されてもよい。なお上述のように、合成画像生成部114が、実写画像取得部112により取得される複数の実写画像を補間した画像を生成してもよい。そして合成画像生成部114が、仮想空間画像生成部110により生成される仮想空間画像と当該補間した画像との合成画像を生成してもよい。
 合成画像出力部116は、本実施形態では例えば、合成画像生成部114が生成する合成画像を表示パネルに出力する。ここで例えば、合成画像出力部116は、合成画像生成部114が生成する後方合成画像を、後方表示パネルP1に出力してもよい。この場合、後方表示パネルP1は、当該後方合成画像を表示してもよい。また例えば、合成画像出力部116は、合成画像生成部114が生成する左側方合成画像を、左側方表示パネルP2に出力してもよい。この場合、左側方表示パネルP2は、当該左側方合成画像を表示してもよい。また例えば、合成画像出力部116は、合成画像生成部114が生成する右側方合成画像を、右側方表示パネルP3に出力してもよい。この場合、右側方表示パネルP3は、当該右側方合成画像を表示してもよい。
 合成画像送信部118は、本実施形態では例えば、合成画像生成部114が生成する合成画像をサーバ52に送信する。ここで合成画像送信部118が、合成画像生成部114が生成する前方合成画像をサーバ52に送信してもよい。そして当該前方合成画像を受信したサーバ52が、当該前方合成画像を、前方表示パネルP4に出力してもよい。この場合、前方表示パネルP4は、当該前方合成画像を表示してもよい。
 なお本実施形態において、例えば仮想車両位置更新部106が、仮想空間60に配置された仮想人物オブジェクト68の位置と仮想車両位置とに基づいて、仮想人物オブジェクト68の位置又は姿勢を変化させてもよい。具体的には例えば、車両と接触したような人物のような振る舞いをするよう仮想人物オブジェクト68の位置又は姿勢が制御されるようにしてもよい。そして仮想空間画像生成部110が、このように位置又は姿勢が変化する仮想人物オブジェクト68の像を含む仮想空間画像を生成してもよい。
 以下、本実施形態に係るサーバ50において所定のフレームレートで繰り返し行われる処理の流れの一例を、図16に例示するフロー図を参照しながら説明する。
 まず、走行信号受信部104が、走行指令部21に対する操作入力に応じた走行信号をサーバ52から受信する(S101)。
 そして仮想車両位置更新部106が、S101に示す処理で受信した走行信号と、直前のフレームにおける実車両位置及び仮想車両位置に基づいて、当該フレームにおける実車両位置及び仮想車両位置を決定する(S102)。
 そして視点位置特定部108が、S102に示す処理で決定された仮想車両位置に基づいて、仮想鉄道車両オブジェクト62の位置及び向きを特定する(S103)。
 そして視点位置特定部108が、S103に示す処理で特定された仮想鉄道車両オブジェクト62の位置及び向きに基づいて、視点64の位置及び視線方向66を特定する(S104)。ここで例えば、視点64aの位置、視点64bの位置、視点64cの位置、視点64dの位置、視線方向66a、視線方向66b、視線方向66c、及び、視線方向66dが特定されてもよい。
 そして仮想空間画像生成部110が、S104に示す処理で特定された視点64の位置及び視線方向66に基づいて、仮想空間画像を生成する(S105)。ここで例えば上述のように、後方仮想空間画像、左側方仮想空間画像、右側方仮想空間画像、及び、前方仮想空間画像の組合せが生成されてもよい。
 そして実写画像取得部112が、S102に示す処理で特定された仮想車両位置を示す仮想車両位置データを含む1又は複数の実写画像管理データを取得する(S106)。
 そして合成画像生成部114が、S106に示す処理で取得された実写画像管理データに含まれる実写画像と、S105に示す処理で生成された仮想空間画像と、に基づいて、合成画像を生成する(S107)。
 ここで例えば上述のように、S106に示す処理で取得された実写画像管理データに含まれる後方実写フレーム画像と、S105に示す処理で生成された後方仮想空間画像とに基づいて、後方合成画像が生成されてもよい。また例えばS106に示す処理で取得された実写画像管理データに含まれる左側方実写フレーム画像と、S105に示す処理で生成された左側方仮想空間画像とに基づいて、左側方合成画像が生成されてもよい。また例えばS106に示す処理で取得された実写画像管理データに含まれる右側方実写フレーム画像と、S105に示す処理で生成された右側方仮想空間画像とに基づいて、右側方合成画像が生成されてもよい。また例えばS106に示す処理で取得された実写画像管理データに含まれる前方実写フレーム画像と、S105に示す処理で生成された前方仮想空間画像とに基づいて、前方合成画像が生成されてもよい。
 そして合成画像出力部116による合成画像の出力、及び、合成画像送信部118による合成画像の送信が実行される(S108)。ここで例えば、合成画像出力部116が、後方合成画像を後方表示パネルP1に出力し、左側方合成画像を左側方表示パネルP2に出力し、右側方合成画像を右側方表示パネルP3に出力してもよい。この場合、上述のように、後方表示パネルP1は後方合成画像を表示し、左側方表示パネルP2は左側方合成画像を表示し、右側方表示パネルP3は右側方合成画像を表示し、前方表示パネルP4は前方合成画像を表示することとなる。また合成画像送信部118が、前方合成画像をサーバ52に送信してもよい。そしてサーバ52が前方表示パネルP4に前方合成画像を出力してもよい。この場合、上述のように、前方表示パネルP4は前方合成画像を表示することとなる。そしてS101に示す処理に戻る。
 このようにして本処理例では、S101~S108に示す処理が所定のフレームレートで繰り返し実行される。このように、合成画像生成部114が、ユーザの操作に応じた合成画像の生成を所定の時間間隔で繰り返し実行してもよい。
 なお、本発明は上述の実施形態に限定されるものではない。
 例えば図15に示す機能の一部又は全部が、サーバ52によって実装されてもよい。
 また例えば、図1に例示する鉄道シミュレータシステム1にサーバ52が含まれなくてもよい。そしてこの場合、サーバ50が前方合成画像を前方表示パネルP4に出力してもよい。
 また例えば、図1に例示する鉄道シミュレータシステム1にサーバ50が含まれなくてもよい。そしてこの場合、サーバ52が図15に示す機能を実装してもよい。そしてサーバ52が、後方合成画像を後方表示パネルP1に出力し、左側方合成画像を左側方表示パネルP2に出力し、右側方合成画像を右側方表示パネルP3に出力してもよい。
 また、上述の具体的な文字列や数値、並びに、図面中の具体的な文字列は例示であり、これらの文字列や数値には限定されない。

Claims (7)

  1.  実空間内を移動する実鉄道車両に設けられたカメラにより撮影された実写画像を、仮想空間内の仮想車両位置と関連付けて記憶する実写画像記憶手段と、
     ユーザの操作に応じて、前記仮想空間内の前記仮想車両位置を更新する仮想車両位置更新手段と、
     更新後の前記仮想車両位置に対応する前記仮想空間内の視点の位置から前記仮想空間を見た様子を表す仮想空間画像を生成する仮想空間画像生成手段と、
     更新後の前記仮想車両位置に基づいて特定される1又は複数の前記実写画像を前記実写画像記憶手段から取得する実写画像取得手段と、
     生成される前記仮想空間画像と取得される1又は複数の前記実写画像との合成画像を生成する合成画像生成手段と、
     を含むことを特徴とする画像生成システム。
  2.  前記実写画像記憶手段は、前記実鉄道車両に設けられた複数の前記カメラによりそれぞれ撮影された複数の前記実写画像の組合せを、前記仮想車両位置と関連付けて記憶し、
     前記仮想空間画像生成手段は、更新後の前記仮想車両位置に対応する、それぞれいずれかの前記カメラに対応する前記仮想空間内の複数の視点についての、当該視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像を生成し、
     前記実写画像取得手段は、更新後の前記仮想車両位置に基づいて特定される、1又は複数の前記組合せを前記実写画像記憶手段から取得し、
     前記合成画像生成手段は、前記複数の前記カメラのそれぞれについて、当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像と、取得される1又は複数の前記組合せに含まれる、当該カメラにより撮影された1又は複数の前記実写画像との合成画像を生成する、
     ことを特徴とする請求項1に記載の画像生成システム。
  3.  運転士訓練者による模擬運転操作が行われる運転士操作卓と、
     車掌訓練者が乗り降り可能な模擬鉄道車両と、
     前記模擬鉄道車両に隣接して設けられている模擬プラットホームと、
     前記実鉄道車両の前方に位置し前方を向く前記カメラにより撮影された1又は複数の実写画像と当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像との合成画像を表示する、前記運転士操作卓の前方に配置されている表示パネルと、
     前記実鉄道車両の側方に位置し前方を向く前記カメラにより撮影された1又は複数の実写画像と当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像との合成画像を表示する、前記模擬プラットホームの前方に設けられている表示パネルと、をさらに含む、
     ことを特徴とする請求項2に記載の画像生成システム。
  4.  車掌訓練者が乗り降り可能な模擬鉄道車両と、
     前記模擬鉄道車両の側面に隣接して設けられている模擬プラットホームと、
     前記実鉄道車両の後方に位置し後方を向く前記カメラにより撮影された1又は複数の実写画像と当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像との合成画像を表示する、前記模擬鉄道車両の後方に設けられている表示パネルと、
     前記実鉄道車両の側方に位置し前方を向く前記カメラにより撮影された1又は複数の実写画像と当該カメラに対応する前記視点の位置から前記仮想空間を見た様子を表す前記仮想空間画像との合成画像を表示する、前記模擬プラットホームの前方に設けられている表示パネルと、をさらに含む、
     ことを特徴とする請求項2に記載の画像生成システム。
  5.  前記合成画像生成手段は、前記ユーザの操作に応じた前記合成画像の生成を所定の時間間隔で繰り返し実行する、
     ことを特徴とする請求項1から4のいずれか一項に記載の画像生成システム。
  6.  ユーザの操作に応じて、仮想空間内の仮想車両位置を更新するステップと、
     更新後の前記仮想車両位置に対応する前記仮想空間内の視点の位置から前記仮想空間を見た様子を表す仮想空間画像を生成するステップと、
     実空間内を移動する実鉄道車両に設けられたカメラにより撮影された実写画像を、前記仮想空間内の前記仮想車両位置と関連付けて記憶する実写画像記憶手段から、更新後の前記仮想車両位置に基づいて特定される1又は複数の前記実写画像を取得するステップと、
     生成される前記仮想空間画像と取得される1又は複数の前記実写画像との合成画像を生成するステップと、
     を含むことを特徴とする画像生成方法。
  7.  ユーザの操作に応じて、仮想空間内の仮想車両位置を更新する手順、
     更新後の前記仮想車両位置に対応する前記仮想空間内の視点の位置から前記仮想空間を見た様子を表す仮想空間画像を生成する手順、
     実空間内を移動する実鉄道車両に設けられたカメラにより撮影された実写画像を、前記仮想空間内の前記仮想車両位置と関連付けて記憶する実写画像記憶手段から、更新後の前記仮想車両位置に基づいて特定される1又は複数の前記実写画像を取得する手順、
     生成される前記仮想空間画像と取得される1又は複数の前記実写画像との合成画像を生成する手順、
     をコンピュータに実行させることを特徴とするプログラム。
PCT/JP2017/046571 2017-12-26 2017-12-26 画像生成システム、画像生成方法及びプログラム WO2019130413A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201780097875.XA CN111566706A (zh) 2017-12-26 2017-12-26 图像生成系统、图像生成方法及程序
PCT/JP2017/046571 WO2019130413A1 (ja) 2017-12-26 2017-12-26 画像生成システム、画像生成方法及びプログラム
JP2019561418A JP6717516B2 (ja) 2017-12-26 2017-12-26 画像生成システム、画像生成方法及びプログラム
TW107141065A TW201928871A (zh) 2017-12-26 2018-11-19 影像生成系統、影像生成方法及資訊記憶媒體

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/046571 WO2019130413A1 (ja) 2017-12-26 2017-12-26 画像生成システム、画像生成方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2019130413A1 true WO2019130413A1 (ja) 2019-07-04

Family

ID=67066755

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/046571 WO2019130413A1 (ja) 2017-12-26 2017-12-26 画像生成システム、画像生成方法及びプログラム

Country Status (4)

Country Link
JP (1) JP6717516B2 (ja)
CN (1) CN111566706A (ja)
TW (1) TW201928871A (ja)
WO (1) WO2019130413A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023085493A1 (ko) * 2021-11-09 2023-05-19 한국전자기술연구원 콘텐츠 편집을 지원하는 전자 장치 및 이의 운용 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04204583A (ja) * 1990-11-30 1992-07-24 Mitsubishi Precision Co Ltd 電車運行訓練用シミュレータ
JP2003288002A (ja) * 2002-03-28 2003-10-10 Mitsubishi Electric Corp 鉄道車両用運転教習シミュレータ
JP2003330356A (ja) * 2002-05-09 2003-11-19 East Japan Railway Co 新幹線シミュレータ

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2006064817A1 (ja) * 2004-12-14 2008-06-12 学校法人日本大学 鉄道用運転シミュレータ
JP5804571B2 (ja) * 2010-09-06 2015-11-04 国立大学法人 東京大学 車両システム
CN104833368A (zh) * 2015-05-12 2015-08-12 寅家电子科技(上海)有限公司 实景导航系统及方法
JP6723820B2 (ja) * 2016-05-18 2020-07-15 株式会社デンソーテン 画像生成装置、画像表示システムおよび画像表示方法
CN106448336A (zh) * 2016-12-27 2017-02-22 郑州爱普锐科技有限公司 一种铁路机车模拟操控实训系统及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04204583A (ja) * 1990-11-30 1992-07-24 Mitsubishi Precision Co Ltd 電車運行訓練用シミュレータ
JP2003288002A (ja) * 2002-03-28 2003-10-10 Mitsubishi Electric Corp 鉄道車両用運転教習シミュレータ
JP2003330356A (ja) * 2002-05-09 2003-11-19 East Japan Railway Co 新幹線シミュレータ

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Training system utilizing SaaS and high-definition simulator", FUJITSU FORUM 2010, May 2010 (2010-05-01) *
IKEDA, FUYUHIKO: "Gem items that buyers stick to are delivered!", APPLICATION SPECIAL CATALOG, ODAWARA LINE SIMULATOR (COMPLETE EDITION), vol. 19, no. 2, 27 December 2012 (2012-12-27), pages 132 *
KAWASAKI, MASATOSHI: "Technical training by simulator", TOSHIBA REVIEW, vol. 46, no. 11, 1 November 1991 (1991-11-01), pages 866 - 868, ISSN: 0372-0462 *
SASAMA, HIROSHI: "Transformation of a railway picture into pictures on imaginary planes", THE JOURNAL OF THE INSTITUTE OF IMAGE ELECTRONICS ENGINEERS OF JAPAN, vol. 26, no. 4, 25 August 1997 (1997-08-25), pages 341 - 353, ISSN: 0285-9831 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023085493A1 (ko) * 2021-11-09 2023-05-19 한국전자기술연구원 콘텐츠 편집을 지원하는 전자 장치 및 이의 운용 방법

Also Published As

Publication number Publication date
CN111566706A (zh) 2020-08-21
TW201928871A (zh) 2019-07-16
JPWO2019130413A1 (ja) 2020-07-02
JP6717516B2 (ja) 2020-07-01

Similar Documents

Publication Publication Date Title
US11484790B2 (en) Reality vs virtual reality racing
JP7143443B2 (ja) 車両の搭乗者及び遠隔ユーザのための共有環境
JP7068562B2 (ja) 拡張現実データを記録するための手法
JP2002157607A (ja) 画像生成システム、画像生成方法および記憶媒体
CN112150885B (zh) 基于混合现实的驾驶舱系统及场景构建方法
CN114401414B (zh) 沉浸式直播的信息显示方法及系统、信息推送方法
WO2019130413A1 (ja) 画像生成システム、画像生成方法及びプログラム
WO2013041152A1 (en) Methods to command a haptic renderer from real motion data
JP2016192029A (ja) 画像生成システム及びプログラム
JP7045093B2 (ja) 画像生成システム、画像生成方法及びプログラム
CN116088722A (zh) 虚拟交互系统
JP2003162213A (ja) 模擬環境実現装置および模擬環境実現方法
JP6729952B1 (ja) 鉄道シミュレータ用システム、表示制御方法及びプログラム
US20220337805A1 (en) Reproduction device, reproduction method, and recording medium
JP7261121B2 (ja) 情報端末装置及びプログラム
JPH09311383A (ja) 映像表示システム
WO2019106863A1 (ja) 鉄道シミュレータ用システム
Zeng et al. CAVE Based Visual System Design and Implementation in Marine Engine Room Simulation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17936610

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019561418

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17936610

Country of ref document: EP

Kind code of ref document: A1