WO2021112030A1 - 表示制御システム、表示制御方法及びプログラム - Google Patents

表示制御システム、表示制御方法及びプログラム Download PDF

Info

Publication number
WO2021112030A1
WO2021112030A1 PCT/JP2020/044464 JP2020044464W WO2021112030A1 WO 2021112030 A1 WO2021112030 A1 WO 2021112030A1 JP 2020044464 W JP2020044464 W JP 2020044464W WO 2021112030 A1 WO2021112030 A1 WO 2021112030A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
image
display unit
monitored object
outside
Prior art date
Application number
PCT/JP2020/044464
Other languages
English (en)
French (fr)
Inventor
実 向谷
利之 東田
Original Assignee
株式会社音楽館
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社音楽館 filed Critical 株式会社音楽館
Publication of WO2021112030A1 publication Critical patent/WO2021112030A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L3/00Electric devices on electrically-propelled vehicles for safety purposes; Monitoring operating variables, e.g. speed, deceleration or energy consumption
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T90/00Enabling technologies or technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02T90/10Technologies relating to charging of electric vehicles
    • Y02T90/16Information or communication technologies improving the operation of electric vehicles

Definitions

  • the present invention relates to a display control system, a display control method, and a program.
  • Patent Document 1 when the existence of a pedestrian is recognized by the camera image information obtained from a camera that captures the situation around the vehicle, a mark is placed on the head-up display (HUD) by a virtual image superimposed on the pedestrian.
  • HUD head-up display
  • Patent Document 1 describes that road markings such as a pedestrian crossing in front, which cannot be recognized by video information, are displayed as virtual images at positions grasped from map information, travel logs, etc. as being present. ..
  • the inventor displays a mark image such as a mark at the appearance position of the monitored object in the display unit such as the HUD placed in front of the crew of the vehicle. We are considering having the crew accurately grasp the position of the monitored object.
  • Patent Document 1 Even if the technique described in Patent Document 1 is used, it is not possible to display a mark image at the appearance position of the monitored object that cannot be recognized by the camera that captures the situation around the vehicle. Further, since such a monitored object appears suddenly, its position cannot be grasped in advance from the map information, the traveling log, or the like described in Patent Document 1.
  • the present invention has been made in view of the above problems, and one of the objects thereof is a display capable of accurately grasping the position of a monitored object that cannot be recognized by a camera that captures the surrounding situation of the vehicle.
  • the purpose is to provide a control system, a display control method and a program.
  • the display control system is a position inside the vehicle outside image that specifies the position inside the vehicle outside image, which is a position in the outside image of the monitored object reflected in the outside image taken by the vehicle outside photographing device provided outside the vehicle.
  • the position inside the display unit which is the position of the monitored object in the display unit, is specified based on the specific means, the position inside the image outside the vehicle, and the position and orientation of the display unit arranged in front of the crew of the vehicle.
  • the display unit internal position specifying means and the display control means for displaying the mark image at the specified display unit internal position are included.
  • the display unit position specifying means identifies the display unit position based on the travel path position.
  • a determination means for determining whether or not the monitored object has been photographed by the vehicle-mounted photographing device provided in the vehicle, and the monitoring captured in the vehicle-mounted image captured by the vehicle-mounted photographing device.
  • the in-vehicle photographing device further including an in-vehicle image position specifying means for specifying the position in the in-vehicle image which is a position in the in-vehicle image of the object.
  • the display unit position specifying means identifies the display unit position based on the vehicle-mounted image position.
  • the display unit internal position specifying means sets the display unit internal position as the vehicle external image. It may be changed from the one based on the internal position to the one based on the internal position in the vehicle-mounted image.
  • the display control means when the position of the monitored object is outside the display range of the display unit, the display control means is attached to the edge of the display unit according to the position of the monitored object. Display the landmark image.
  • the display unit is a head-up display provided on the vehicle.
  • the display unit is a head-mounted display worn by the crew member.
  • the display control method includes a step of specifying the position inside the vehicle exterior image, which is the position of the monitored object in the vehicle exterior image taken by the vehicle exterior imaging device provided outside the vehicle. , A step of specifying the position inside the display unit, which is the position of the monitored object in the display unit, based on the position inside the image outside the vehicle and the position and orientation of the display unit arranged in front of the crew of the vehicle. The step of displaying the mark image at the specified position in the display unit is included.
  • the program according to the present invention is a procedure for specifying the position inside the vehicle exterior image, which is the position of the monitored object in the vehicle exterior image taken by the vehicle exterior imaging device provided outside the vehicle, the vehicle outside.
  • a procedure for specifying the position in the display unit, which is the position of the monitored object in the display unit, is specified based on the position in the image and the position and orientation of the display unit arranged in front of the crew of the vehicle.
  • the computer is made to execute the procedure of displaying the mark image at the position in the display unit.
  • FIG. 1 is a diagram showing an example of the configuration of the display control system 1 according to the embodiment of the present invention.
  • the display control system 1 according to the present embodiment includes a vehicle 10 operating on a route, a plurality of monitoring systems 12, and an operation management system 14 for managing the operation of the vehicle 10.
  • Each of the plurality of monitoring systems 12 is provided, for example, at different locations on the route on which the vehicle 10 operates.
  • each station on the line may be provided with a monitoring system 12 for monitoring the platform of the station.
  • a monitoring system 12 may be provided on each of a plurality of platforms provided at one station.
  • a plurality of monitoring systems 12 may be provided on one platform.
  • the vehicle 10, the monitoring system 12, and the operation management system 14 are connected to a computer network 16 such as the Internet. Therefore, the vehicle 10, the monitoring system 12, and the operation management system 14 can communicate with each other via the computer network 16.
  • a computer network 16 such as the Internet. Therefore, the vehicle 10, the monitoring system 12, and the operation management system 14 can communicate with each other via the computer network 16.
  • the vehicle 10 includes a processor 10a, a storage unit 10b, a communication unit 10c, an in-vehicle photographing device 10d, and a head-up display (HUD) 10e.
  • a processor 10a the vehicle 10 includes a processor 10a, a storage unit 10b, a communication unit 10c, an in-vehicle photographing device 10d, and a head-up display (HUD) 10e.
  • HUD head-up display
  • the processor 10a is, for example, a program control device such as a CPU that operates according to a program stored in the storage unit 10b.
  • the storage unit 10b is a storage element such as a ROM or RAM, a hard disk drive, or the like.
  • the storage unit 10b stores a program or the like executed by the processor 10a.
  • the communication unit 10c is a communication interface such as a network board.
  • the in-vehicle photographing device 10d is, for example, a photographing device such as a digital camera that photographs the front of the vehicle 10.
  • the in-vehicle photographing device 10d may be a camera (for example, a stereo camera) capable of photographing a three-dimensional image or a depth image.
  • the image taken by the in-vehicle photographing device 10d will be referred to as an in-vehicle image.
  • the vehicle-mounted photographing device 10d photographs the front of the vehicle 10 at a predetermined frame rate.
  • the HUD10e is a display device that displays an image in front of a crew member such as a driver.
  • the mounting method of the HUD 10e according to the present embodiment is not particularly limited.
  • the HUD 10e according to the present embodiment may be of a type that projects an image on a windshield provided on the front surface of the vehicle 10.
  • the HUD10e according to the present embodiment may be of a type that projects an image onto a combiner arranged in front of the crew.
  • the crew member can visually recognize both the image displayed by the HUD 10e and the state of the real space in front of the vehicle 10 at a glance.
  • the HUD 10e may show the crew a virtual image floating in the space in front of the windshield provided on the front surface of the vehicle 10.
  • the monitoring system 12 includes a processor 12a, a storage unit 12b, a communication unit 12c, an out-of-vehicle photographing device 12d, and a display 12e.
  • the processor 12a is, for example, a program control device such as a CPU that operates according to a program stored in the storage unit 12b.
  • the storage unit 12b is a storage element such as a ROM or RAM, a hard disk drive, or the like.
  • the storage unit 12b stores a program or the like executed by the processor 12a.
  • the communication unit 12c is a communication interface such as a network board.
  • the outside vehicle photographing device 12d is, for example, a photographing device such as a digital camera that captures an image of a platform of a station or the like.
  • the vehicle exterior photographing device 12d according to the present embodiment photographs a fixed point at a predetermined frame rate.
  • the vehicle exterior photographing device 12d may be a camera (for example, a stereo camera) capable of photographing a three-dimensional image or a depth image.
  • the image taken by the vehicle outside photographing device 12d will be referred to as an outside vehicle image.
  • the display 12e is, for example, a display device such as a liquid crystal display or an organic EL display that displays an image of the outside of the vehicle taken by the outside photography device 12d.
  • FIG. 2 shows an image 20 outside the vehicle.
  • four regions a safety region 22a, an approach region 22b, a fall region 22c, and a track maintenance evacuation region 22d, are set in the vehicle exterior image 20.
  • the above-mentioned four regions set in the vehicle exterior image 20 may be preset using the vehicle limit frame model 24, for example, as shown in FIG.
  • the vehicle limit frame model 24 for example, first, the position of the railroad track in the vehicle exterior image 20 is identified. Then, a plurality of vehicle limit frame models 24 are arranged along the identified railroad track. The size of each vehicle limit frame model 24 is, for example, proportional to the width of the track on which the vehicle limit frame model 24 is arranged.
  • a line connecting the positions corresponding to the diagonal lower ends on the opposite side of the platform of the plurality of vehicle limit frame models 24, a line extending from the upper end of the line to the side opposite to the platform (left in the example of FIG. 4), and The area surrounded by the side (left side in the example of FIG. 4) opposite to the platform of the vehicle exterior image 20 may be set as the track maintenance evacuation area 22d.
  • the fall area 22c may be set.
  • the end opposite to (the left end in the example of FIG. 4) and the region surrounded by the lower side of the vehicle exterior image 20 may be set as the approach region 22b.
  • a line extending from the upper end of the line connecting the positions corresponding to the lower ends of the side postures on the home side of the plurality of vehicle limit frame models 24 to the home side (right in the example of FIG. 4), the side on the home side of the outside image 20 (the side of the vehicle outside image 20).
  • the safety area 22a Even if the area surrounded by the right side in the example of FIG. 4, the lower side of the outside image 20 and the end opposite to the platform of the Braille block or the white line (the left end in the example of FIG. 4) is set as the safety area 22a. Good.
  • the safety area 22a, the approach area 22b, the fall area 22c, and the track maintenance evacuation area 22d are set in the vehicle exterior image 20.
  • the settings of the safety area 22a, the approach area 22b, the fall area 22c, and the track maintenance evacuation area 22d are not limited to the above-mentioned settings, and these four areas are set by another predetermined method. May be set in the vehicle exterior image 20. Further, the fall area 22c may be set with a margin with respect to the vehicle limit frame indicated by the vehicle limit frame model 24.
  • the vehicle exterior imaging device 12d captures a fixed point, the above-mentioned regions in the series of vehicle exterior image 20 captured by the vehicle exterior imaging device 12d at a predetermined frame rate are common.
  • the monitoring system 12 detects a predetermined monitoring object reflected in the monitoring target area in the photographed outside image 20 by using a known image recognition technique or the like.
  • FIG. 4 shows an outside image 26 which is an outside image different from the outside image 20 shown in FIGS. 2 and 3.
  • the vehicle exterior image 26 shown in FIG. 4 shows a fallen person 28 who has fallen from the platform, which is an example of a predetermined monitoring object.
  • a safety area 22a, an approach area 22b, and a fall area 22c are set.
  • the track maintenance evacuation region 22d may not be set in the vehicle exterior image 26.
  • the fallen person 28 is shown in the fall area 22c which is a part of the monitored area of the vehicle exterior image 26 shown in FIG. Further, FIG. 4 shows the position P1 at the center of the fallen person 28.
  • a marker image 30 corresponding to the detected monitored object is displayed on the display 12e outside the vehicle as shown in FIG.
  • the image 32 illustrated in FIG. 5 superimposed on the image 26 is displayed.
  • the mark image 30 is, for example, an image showing the position of the fallen person 28 in the vehicle exterior image 26.
  • the mark image 30 is a frame-shaped image centered on the position P1.
  • the marker image 30 may be an image of an aspect (for example, color) corresponding to the type of the region in which the detected monitoring object exists. For example, when the detected monitoring object exists in the track maintenance evacuation area 22d, the mark image 30 may be an image with a purple frame. When the detected monitoring object is present in the fall area 22c, the marker image 30 may be an image with a red frame. When the detected monitoring object exists in the approach region 22b, the marker image 30 may be an image with a yellow frame. In the example of FIG. 4, since the fallen person 28 exists in the fall area 22c, the mark image 30 shown in FIG. 5 may be, for example, an image of a red frame.
  • an aspect for example, color
  • FIG. 6 is a diagram showing an example of a state in which the crew member of the vehicle 10 looks ahead when the situation in which a predetermined monitored object is shown in the monitored area continues for a predetermined time.
  • the position P2 of the monitored object in the HUD10e of the vehicle 10 is marked.
  • Image 34 is displayed.
  • the position P2 is the position of the monitored object associated with the position P1 shown in FIG.
  • the mark image 34 is a frame-shaped image centered on the position P2.
  • the aspect ratio of the mark image 34 may be the same as the aspect ratio of the mark image 30.
  • the larger the distance between the vehicle 10 and the monitored object the smaller the size of the mark image 34 may be.
  • the mark image 34 may be an image of an aspect (for example, color) corresponding to the type of the region in which the detected monitoring object exists.
  • the mark image 34 may be, for example, an image with a red frame.
  • the marker image 34 is displayed at the position of the detected monitoring object. Is displayed. Therefore, according to the present embodiment, it is possible for the crew member to accurately grasp the position of the monitored object that cannot be recognized by the in-vehicle photographing device 10d.
  • the mark image 34 may be displayed at the position P2 of the monitored object in the HUD 10e as soon as the predetermined monitored object appears in the monitored area.
  • the vehicle 10 uses a known image recognition technology or the like to detect a predetermined monitoring object to be captured in the vehicle-mounted image captured by the vehicle-mounted photographing device 10d.
  • FIG. 7 is a diagram showing an example of how the crew of the vehicle 10 looks ahead when the vehicle 10 advances from the situation shown in FIG.
  • the fallen person 28 which is the object to be monitored, is captured in the vehicle-mounted image taken by the vehicle-mounted photographing device 10d in the situation shown in FIG. 7.
  • the mark image 34 is displayed at the position P3 of the monitored object detected based on the in-vehicle image, not at the position associated with the position P1 shown in FIG.
  • the mark image 34 is a frame-shaped image centered on the position P3.
  • the position and orientation of the HUD 10e with respect to the position and orientation of the in-vehicle photographing device 10d are always constant.
  • the position and orientation of the in-vehicle imaging device 10d and the position and orientation of the HUD 10e are associated in advance. Therefore, the position P3 of the monitored object in the HUD10e can be uniquely specified based on the position of the monitored object in the vehicle-mounted image.
  • the crew member can accurately grasp the position of the monitored object. Is possible.
  • FIG. 8 is a functional block diagram showing an example of the functions implemented in the vehicle 10 and the monitoring system 12 according to the present embodiment. It should be noted that the vehicle 10 and the monitoring system 12 according to the present embodiment do not need to have all the functions shown in FIG. 8, and may have functions other than the functions shown in FIG.
  • the monitoring system 12 functionally includes, for example, a detection unit 40, a position identification unit 42 in an image outside the vehicle, and a detection notification unit 44.
  • the detection unit 40 mainly mounts the processor 12a and the vehicle exterior imaging device 12d.
  • the processor 12a is mainly mounted on the position specifying unit 42 in the vehicle exterior image.
  • the detection notification unit 44 is mainly implemented with the communication unit 12c.
  • the above functions may be implemented by executing the program including the instructions corresponding to the above functions installed in the monitoring system 12 which is a computer on the processor 12a.
  • This program is supplied to a computer mounted on the monitoring system 12 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet or the like. May be done.
  • the vehicle 10 includes a notification receiving unit 50, a detection data storage unit 52, a traveling route position specifying unit 54, and a display unit internal position specifying unit 56. , Display control unit 58, determination unit 60, and vehicle-mounted image position identification unit 62.
  • the notification receiving unit 50 is mainly implemented with the communication unit 10c.
  • the detection data storage unit 52 is mainly mounted with the storage unit 10b.
  • the position specifying unit 54 on the travel path is mainly mounted with the processor 10a and the storage unit 10b.
  • the position specifying unit 56 in the display unit mainly mounts the processor 10a, the storage unit 10b, and the communication unit 10c.
  • the display control unit 58 mainly mounts the processor 10a and the HUD10e.
  • the determination unit 60 mainly mounts the processor 10a and the in-vehicle photographing device 10d.
  • the in-vehicle image positioning unit 62 mainly mounts the processor 10a.
  • the above functions may be implemented by executing the program including the instructions corresponding to the above functions installed in the computer mounted on the vehicle 10 on the processor 10a.
  • This program is supplied to a computer mounted on the vehicle 10 via a computer-readable information storage medium such as an optical disk, a magnetic disk, a magnetic tape, a magneto-optical disk, or a flash memory, or via the Internet or the like. You may.
  • the detection unit 40 uses a known image recognition technique or the like to detect a monitored object to be captured in the vehicle exterior image taken by the vehicle exterior imaging device 12d provided outside the vehicle 10.
  • the detection unit 40 may detect, for example, a monitored object that appears in the monitored area.
  • the position identification unit 42 inside the vehicle outside image specifies the position inside the vehicle outside image, which is the position of the object to be monitored, in the image outside the vehicle where the object to be monitored is detected.
  • the two-dimensional coordinate value of the center position P1 of the fallen person 28, which is the monitoring target is specified in the image plane of the vehicle exterior image 26.
  • the detection notification unit 44 transmits, for example, a detection notification indicating that the monitoring target object has been detected to the vehicle 10 when the monitoring target object is detected by the detection unit 40.
  • the detection notification unit 44 may transmit a detection notification to the vehicle 10 when the situation in which the monitored object reflected in the monitored area is captured continues for a predetermined time.
  • the detection notification unit 44 may send a detection notification to the vehicle 10 that satisfies a predetermined condition. For example, the detection notification unit 44 may transmit the detection notification to the vehicle 10 heading for the station where the monitoring system 12 is provided and whose distance from the station is equal to or less than a predetermined distance. Further, for example, the detection notification unit 44 may transmit the detection notification to the vehicle 10 between the station and the station in front of the station toward the station where the monitoring system 12 is provided.
  • the detection notification includes, for example, identification information of the monitoring system 12 for transmitting the detection notification or the station where the monitoring system 12 is provided, monitoring object position data indicating the position of the detected monitoring object, and the like.
  • the data is associated.
  • the monitored object position data may be, for example, data indicating the above-mentioned two-dimensional coordinate value of the position P1.
  • the notification receiving unit 50 receives the above-mentioned detection notification from, for example, the monitoring system 12 that has detected the monitored object. Then, the notification receiving unit 50 stores the detection data associated with the received detection notification in the detection data storage unit 52.
  • the detection data storage unit 52 stores, for example, the detection data.
  • the position specifying unit 54 on the traveling path specifies, for example, the position of the monitored object on the linear traveling path of the vehicle 10 (hereinafter, referred to as the position on the traveling path).
  • the travel route data indicating the linear travel route of the vehicle 10 is stored in advance in the position identification unit 54 on the travel route.
  • the travel route data shows, for example, three-dimensional coordinate values in real space of a plurality of positions along the linear travel route of the vehicle 10.
  • the three-dimensional coordinate value may be expressed by, for example, latitude, longitude, and altitude.
  • the vehicle exterior image / travel route correspondence data for each of the plurality of monitoring systems 12 is stored in advance in the travel route position identification unit 54.
  • the vehicle exterior image / travel route correspondence data is, for example, data showing a given correspondence between a position in the vehicle exterior image taken by the monitoring system 12 and a position on the travel route indicated by the travel route data.
  • the position in the vehicle exterior image is associated with the position in the vehicle exterior image, the travel route data, and the vehicle exterior image / travel route correspondence data indicated by the monitored object position data included in the detection data.
  • the position on the travel path (the above-mentioned position on the travel route) is specified.
  • the display unit internal position specifying unit 56 is located in the display unit based on, for example, the position in the vehicle exterior image and the position and orientation of the display unit (for example, HUD10e) arranged in front of the crew of the vehicle 10.
  • the position of the object to be monitored (hereinafter referred to as the position in the display unit) is specified.
  • FIG. 9 is a diagram showing an example of a virtual space associated with a real space.
  • the position in the real space is associated with the position in the virtual space shown in FIG. 9 on a one-to-one basis.
  • the data indicating the virtual space is stored in, for example, the position specifying unit 56 in the display unit.
  • the operation management system 14 manages the position and the traveling direction of the vehicle 10 on the traveling route R in real time. Then, operation data indicating the current position and traveling direction of the vehicle 10 on the travel route R is transmitted from the operation management system 14 to the vehicle 10 at predetermined time intervals, for example.
  • the vehicle / HUD correspondence relationship data indicating a given correspondence relationship between the position and orientation of the vehicle 10 indicated by the operation data and the position and orientation of the HUD 10e is stored in the position identification unit 56 in the display unit in advance. It is remembered. Then, the position specifying unit 56 in the display unit specifies the current position and orientation of the HUD 10e based on the vehicle / HUD correspondence data and the operation data indicating the current position and the traveling direction of the vehicle 10.
  • FIG. 9 shows a plate-shaped virtual HUD object 70 associated with the HUD 10e in the real space.
  • the virtual HUD object 70 shown in FIG. 9 is arranged at a position in the virtual space associated with the position of the HUD 10e in the real space in the orientation in the virtual space associated with the orientation of the HUD 10e in the real space.
  • FIG. 9 shows a position P4 in the virtual space associated with the current position of the crew's viewpoint in the real space specified as described above. Further, FIG. 9 shows the line-of-sight direction D in the virtual space associated with the current line-of-sight direction of the crew member in the real space specified as described above.
  • FIG. 9 shows a position P5 in the virtual space associated with a position on the traveling path in the real space specified based on the position in the image outside the vehicle (for example, the position P1 shown in FIG. 4).
  • the position specifying unit 56 in the display unit specifies the position P6 at the intersection of the line connecting the position P4 and the position P5 and the virtual HUD object 70.
  • the two-dimensional coordinate value of the position P6 in the plane represented by the plate-shaped virtual HUD object 70 is specified.
  • the position specifying unit 56 in the display unit specifies the position in the display unit (for example, the position P2 shown in FIG. 6) which is the position of the monitored object in the HUD10e, which is associated with the position P6 shown in FIG.
  • the position in the plane represented by the virtual HUD object 70 and the position in the display unit are associated in advance on a one-to-one basis. Therefore, the position in the display unit can be specified based on the two-dimensional coordinate value of the position P6.
  • the display unit internal position specifying unit 56 may specify the display unit internal position based on the position on the traveling path.
  • the display control unit 58 displays the mark image 34 at the position in the display unit specified by the position identification unit 56 in the display unit, for example.
  • the display control unit 58 may display the mark image 34 at a position in the display unit of the monitored object that satisfies a predetermined condition.
  • the mark image 34 may be displayed at a position in the display unit of the monitored object detected by the monitoring system 12 which exists in the traveling direction of the vehicle 10 and whose distance from the vehicle 10 is equal to or less than a predetermined distance.
  • the mark image 34 may be displayed at a position in the display unit of the monitored object detected by the monitoring system 12 provided at a predetermined number of stations in the traveling direction of the vehicle 10.
  • the mark image 34 may be displayed at a position in the display unit of the monitored object detected by the monitoring system 12 provided at the station where the vehicle 10 stops or passes next.
  • the determination unit 60 determines, for example, whether or not the monitored object has been photographed by the vehicle-mounted photographing device 10d provided in the vehicle 10. Here, for example, it is determined whether or not the monitored object is reflected in the vehicle-mounted image.
  • the in-vehicle image position specifying unit 62 specifies the position in the in-vehicle image, which is the position in the in-vehicle image of the monitored object reflected in the in-vehicle image captured by the in-vehicle image capturing device 10d.
  • the display unit internal position specifying unit 56 may specify the display unit internal position based on the vehicle-mounted image internal position.
  • the display control unit 58 may display the mark image 34 at the position in the display unit specified based on the position in the vehicle-mounted image.
  • the position in the vehicle-mounted image and the position in the display unit are associated in advance. Therefore, the position in the display unit 56 can uniquely specify the position in the display unit based on the position in the vehicle-mounted image.
  • the situation may change from a situation in which it is not determined that the monitored object has been photographed by the in-vehicle photographing device 10d to a situation in which it is determined.
  • the display unit internal position specifying unit 56 may change the display unit internal position from the one based on the vehicle exterior image internal position to the one based on the in-vehicle image internal position.
  • the determination unit 60 acquires an in-vehicle image taken in the frame (S101).
  • the position specifying unit 54 on the traveling route identifies the detection data stored in the detection data storage unit 52 that satisfies a predetermined condition (S102).
  • a predetermined condition for example, based on the identification information included in the detection data, the detection data transmitted from the monitoring system 12 existing in the traveling direction of the vehicle 10 and having a distance from the vehicle 10 of a predetermined distance or less may be specified. ..
  • the detection data transmitted from the monitoring system 12 provided at a predetermined number of stations up to a predetermined number in the traveling direction of the vehicle 10 may be specified.
  • the detection data transmitted from the monitoring system 12 provided at the station where the vehicle 10 next stops or passes may be specified based on the identification information included in the detection data.
  • the position specifying unit 54 on the traveling path specifies the position on the traveling route corresponding to the position in the image outside the vehicle indicated by the monitoring target object position data included in the detection data specified by the process shown in S102 (S103).
  • the position specifying unit 56 in the display unit specifies the current position and orientation of the HUD10e, and the position and line-of-sight direction of the crew's viewpoint based on the latest operation data (S104).
  • the position specifying unit 56 in the display unit indicates the position on the traveling path specified by the process shown in S103, the current position and orientation of the HUD10e specified by the process shown in S104, and the position and line-of-sight direction of the viewpoint of the crew member.
  • the position in the display unit is specified based on (S105).
  • the determination unit 60 determines whether or not the monitored object is captured in the range corresponding to the position in the display unit specified by the process shown in S105 in the vehicle-mounted image acquired by the process shown in S101 (S106). ..
  • the display control unit 58 causes the mark image 34 to be displayed at the position in the display unit specified by the process shown in S105 (S107). The process returns to the process shown in S101.
  • the position identification unit 62 in the vehicle-mounted image is in the vehicle-mounted image of the monitored object determined to be captured by the process shown in S106.
  • the position is specified (S108).
  • the position in the display unit 56 specifies the position in the display unit corresponding to the position in the vehicle-mounted image specified by the process shown in S108 (S109).
  • the display control unit 58 displays the mark image 34 at the position in the display unit specified by the process shown in S109 (S110), and returns to the process shown in S101.
  • the position inside the display unit is based on the position inside the image outside the vehicle when the situation changes from the situation where it is not determined that the object to be monitored has been photographed by the in-vehicle imaging device 10d to the situation where it is determined. It will change from the one based on the position in the in-vehicle image.
  • the process shown in S102 to S107 is not executed for the monitored object so that the vehicle-mounted image is not executed.
  • the position inside the display unit may be specified based on the inside position.
  • the display control unit 58 marks the edge of the HUD10e according to the position of the monitored object, as shown in FIG.
  • the image 72 may be displayed.
  • the position on the side of the virtual HUD object 70 which is the closest to the line connecting the position P4 and the position P5, may be specified.
  • the mark image 72 may be displayed on the edge of the HUD 10e associated with the specified position.
  • the warning image 74 may be displayed together with the mark image 34 in a place where the view of the crew is not obstructed.
  • the warning image 74 may be displayed instead of the mark image 34.
  • the vehicle exterior photographing device 12d is a camera capable of photographing a three-dimensional image or a depth image
  • the monitoring system 12 specifies the three-dimensional coordinate value of the monitored object in the camera coordinate system. Good.
  • the position of the monitored object in the real space and the position in the display unit may be specified based on the three-dimensional coordinate values.
  • the detection notification associated with the detection data including the monitoring target position data indicating the three-dimensional coordinate value may be transmitted.
  • the vehicle 10 may specify the three-dimensional coordinate value of the monitored object in the camera coordinate system. Then, the position in the display unit may be specified based on the three-dimensional coordinate value.
  • the division of roles between the vehicle 10 and the monitoring system 12 is not limited to the above.
  • the image outside the vehicle may be transmitted from the monitoring system 12 to the vehicle 10.
  • the vehicle 10 may specify the position in the vehicle exterior image based on the vehicle exterior image.
  • the monitoring system 12 may specify the position of the monitored object in the real space, such as the position on the traveling path.
  • an image showing that is the vehicle may be displayed on 10 HUD10e.
  • the determination may be executed based on, for example, the output of the operation sensor of the special light emitting signal or the recognition result of the image of the special light emitting signal.
  • an image showing that fact may be displayed on the HUD 10e of the vehicle 10.
  • the mark image may be displayed at a position in the display unit associated with the obstacle by the same method as described above.
  • the present invention is not limited to the above-described embodiment.
  • the method of specifying the position in the display unit is not limited to the above method.
  • image recognition may be performed on the vehicle-mounted image, and the position of the track not shown in the vehicle-mounted image may be estimated by extrapolation. Then, the position in the display unit on the estimated line position may be determined.
  • the position of the monitored object in the real space and the position in the display unit can be estimated by using a machine learning model that learns the image taken by the in-vehicle photographing device 10d in the past running of the vehicle 10. Good.
  • the display unit arranged in front of the crew member of the vehicle 10 may be a head-mounted display (HMD) worn by the crew member instead of the HUD10e. Then, the landmark image may be displayed on the HMD.
  • the position and orientation of the HMD may be specified based on the outputs of various sensors such as an acceleration sensor provided on the HMD. Then, the position in the display unit may be specified based on the position and orientation of the specified HMD.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Sustainable Development (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • Sustainable Energy (AREA)
  • Power Engineering (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Digital Computer Display Output (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Electric Propulsion And Braking For Vehicles (AREA)
  • Train Traffic Observation, Control, And Security (AREA)

Abstract

車両の周囲の状況を撮影するカメラで認識できない監視対象物の位置を乗務員に的確に把握させることができる表示制御システム、表示制御方法及びプログラムを提供する。車外画像内位置特定部(42)は、車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定する。表示部内位置特定部(56)は、車外画像内位置と、車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における監視対象物の位置である表示部内位置を特定する。表示制御部(58)は、特定される表示部内位置に目印画像を表示させる。

Description

表示制御システム、表示制御方法及びプログラム
 本発明は、表示制御システム、表示制御方法及びプログラムに関する。
 特許文献1には、車両の周囲の状況を撮影するカメラから得られたカメラ映像情報により歩行者の存在を認識した場合に、歩行者に重畳させて虚像によりヘッドアップディスプレイ(HUD)にマークをアラート表示する技術が記載されている。
 また、特許文献1には、映像情報では認識できない前方の横断歩道等の路面標識を、地図情報や走行ログ等からそれらが存在するとして把握された位置に虚像として表示することが記載されている。
特開2019-59247号公報
 発明者は、プラットホームからの転落者等の監視対象物が出現した際に、車両の乗務員の眼前に配置されるHUD等の表示部内における当該監視対象物の出現位置にマーク等の目印画像を表示させて、乗務員に監視対象物の位置を的確に把握させることを検討している。
 ここで、特許文献1に記載の技術を用いても、車両の周囲の状況を撮影するカメラによって認識できない監視対象物についてはその出現位置に目印画像を表示させることができない。また、このような監視対象物は突発的に出現するので、特許文献1に記載されているような地図情報や走行ログ等からその位置を予め把握することができない。
 本発明は上記課題に鑑みてなされたものであって、その目的の1つは、車両の周囲の状況を撮影するカメラで認識できない監視対象物の位置を乗務員に的確に把握させることができる表示制御システム、表示制御方法及びプログラムを提供することにある。
 本発明に係る表示制御システムは、車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定する車外画像内位置特定手段と、前記車外画像内位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定する表示部内位置特定手段と、特定される前記表示部内位置に目印画像を表示させる表示制御手段と、を含む。
 本発明の一態様では、前記車両の線状の走行経路を示す走行経路データと、前記車外画像内位置と、に基づいて、前記走行経路データが示す走行経路上における前記監視対象物の位置である走行経路上位置を特定する走行経路上位置特定手段、をさらに含み、前記表示部内位置特定手段は、前記走行経路上位置に基づいて、前記表示部内位置を特定する。
 また、本発明の一態様では、前記車両に設けられた車載撮影装置により前記監視対象物が撮影されたか否かを判定する判定手段と、前記車載撮影装置により撮影される車載画像に写る前記監視対象物の当該車載画像内における位置である車載画像内位置を特定する車載画像内位置特定手段と、をさらに含み、前記車載撮影装置により前記監視対象物が撮影されたことが判定された場合は、前記表示部内位置特定手段は、前記車載画像内位置に基づいて、前記表示部内位置を特定する。
 この態様では、前記車載撮影装置により前記監視対象物が撮影されたことが判定されない状況から判定された状況に変化した際に、前記表示部内位置特定手段は、前記表示部内位置を、前記車外画像内位置に基づくものから、前記車載画像内位置に基づくものに変化させてもよい。
 また、本発明の一態様では、前記表示制御手段は、前記監視対象物の位置が前記表示部の表示範囲外である場合に、前記監視対象物の位置に応じた前記表示部の縁部に目印画像を表示させる。
 また、本発明の一態様では、前記表示部は、前記車両に設けられたヘッドアップディスプレイである。
 あるいは、前記表示部は、前記乗務員が装着するヘッドマウントディスプレイである。
 また、本発明に係る表示制御方法は、車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定するステップと、前記車外画像内位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定するステップと、特定される前記表示部内位置に目印画像を表示させるステップと、を含む。
 また、本発明に係るプログラムは、車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定する手順、前記車外画像内位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定する手順、特定される前記表示部内位置に目印画像を表示させる手順、をコンピュータに実行させる。
本発明の一実施形態に係る表示制御システムの構成の一例を示す図である。 車外画像の一例を示す図である。 車外画像の一例を示す図である。 車外画像の一例を示す図である。 監視システムのディスプレイに表示される画像の一例を示す図である。 車両の乗務員が前方を見た様子の一例を示す図である。 車両の乗務員が前方を見た様子の一例を示す図である。 本発明の一実施形態に係る車両及び監視システムで実装される機能の一例を示す機能ブロック図である。 仮想空間の一例を示す図である。 本発明の一実施形態に係る車両で行われる処理の流れの一例を示すフロー図である。 車両の乗務員が前方を見た様子の一例を示す図である。 車両の乗務員が前方を見た様子の一例を示す図である。
 以下、本発明の一実施形態について図面に基づき詳細に説明する。
 図1は、本発明の一実施形態に係る表示制御システム1の構成の一例を示す図である。図1に示すように、本実施形態に係る表示制御システム1には、路線上を運行する車両10、複数の監視システム12、及び、車両10の運行を管理する運行管理システム14が含まれる。
 複数の監視システム12のそれぞれは、例えば、車両10が運行する路線上の互いに異なる場所に設けられている。ここで例えば、路線上の各駅に、当該駅のプラットホームを監視する監視システム12が設けられていてもよい。また例えば、1つの駅に設けられた複数のプラットホームのそれぞれに、監視システム12が設けられていてもよい。また、1つのプラットホームに複数の監視システム12が設けられていてもよい。
 車両10、監視システム12、運行管理システム14は、インターネット等のコンピュータネットワーク16に接続されている。そのため、車両10、監視システム12、運行管理システム14は、コンピュータネットワーク16を介して互いに通信可能となっている。
 図1に示すように、車両10には、プロセッサ10a、記憶部10b、通信部10c、車載撮影装置10d、ヘッドアップディスプレイ(HUD)10e、が含まれている。
 プロセッサ10aは、例えば記憶部10bに記憶されるプログラムに従って動作するCPU等のプログラム制御デバイスである。
 記憶部10bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部10bには、プロセッサ10aによって実行されるプログラムなどが記憶される。
 通信部10cは、例えばネットワークボードなどの通信インタフェースである。
 車載撮影装置10dは、例えば、車両10の前方を撮影するデジタルカメラなどの撮影装置である。なお、車載撮影装置10dが、三次元画像やデプス画像の撮影が可能なカメラ(例えばステレオカメラ)であってもよい。以下、車載撮影装置10dによって撮影される画像を、車載画像と呼ぶこととする。本実施形態に係る車載撮影装置10dは、所定のフレームレートで車両10の前方を撮影する。
 HUD10eは、運転士等の乗務員の眼前に画像を表示させる表示装置である。本実施形態に係るHUD10eの実装方式は特に問わない。例えば、本実施形態に係るHUD10eが、車両10の前面に設けられたフロントガラスに画像を投影するタイプのものであってもよい。また、本実施形態に係るHUD10eが、乗務員の眼前に配置されたコンバイナに画像を投影するタイプのものであってもよい。本実施形態では、HUD10eによって画像が表示されることで、乗務員は、HUD10eによって表示される画像と車両10の前方の実空間の様子の両方を一目で視認できるようになっている。HUD10eは、車両10の前面に設けられたフロントガラスの前方の空間に浮かんだ虚像を乗務員に見せるものであってもよい。
 図1に示すように、監視システム12には、プロセッサ12a、記憶部12b、通信部12c、車外撮影装置12d、ディスプレイ12e、が含まれている。
 プロセッサ12aは、例えば記憶部12bに記憶されるプログラムに従って動作するCPU等のプログラム制御デバイスである。
 記憶部12bは、ROMやRAM等の記憶素子やハードディスクドライブなどである。記憶部12bには、プロセッサ12aによって実行されるプログラムなどが記憶される。
 通信部12cは、例えばネットワークボードなどの通信インタフェースである。
 車外撮影装置12dは、例えば、駅のプラットホーム等の画像を撮影するデジタルカメラなどの撮影装置である。本実施形態に係る車外撮影装置12dは、所定のフレームレートで定点を撮影する。なお、車外撮影装置12dが、三次元画像やデプス画像の撮影が可能なカメラ(例えばステレオカメラ)であってもよい。以下、車外撮影装置12dによって撮影される画像を、車外画像と呼ぶこととする。
 ディスプレイ12eは、例えば、車外撮影装置12dによって撮影される車外画像が表示される液晶ディスプレイや有機ELディスプレイなどの表示装置である。
 図2には、車外画像20が示されている。本実施形態では、図2に示すように、車外画像20内に、安全領域22a、接近領域22b、転落領域22c、及び、保線退避領域22dの4つの領域が設定される。
 車外画像20に設定される上述の4つの領域は、例えば、図3に示すように、車両限界枠モデル24を用いて予め設定されてもよい。当該設定においては例えば、まず、車外画像20内における線路の位置が識別される。そして、識別された線路に沿って、複数の車両限界枠モデル24が配置される。それぞれの車両限界枠モデル24のサイズは、例えば、当該車両限界枠モデル24が配置される線路の幅に比例している。
 そして、複数の車両限界枠モデル24のホームとは反対側の斜め下端に相当する位置を結ぶ線、当該線の上端からホームとは反対側(図4の例では左)に伸びる線、及び、車外画像20のホームとは反対側の辺(図4の例では左辺)によって囲まれる領域が、保線退避領域22dに設定されてもよい。
 そして、複数の車両限界枠モデル24のホームとは反対側の斜め下端に相当する位置を結ぶ線、当該線の上端からホーム側(図4の例では右)に伸びる線、複数の車両限界枠モデル24のホーム側の側構えの下端に相当する位置を結ぶ線、車外画像20の下辺、及び、車外画像20のホームとは反対側の辺(図4の例では左辺)によって囲まれる領域が、転落領域22cに設定されてもよい。
 そして、複数の車両限界枠モデル24のホーム側の側構えの下端に相当する位置を結ぶ線、当該線の上端からホーム側(図4の例では右)に伸びる線、点字ブロック又は白線のホームとは反対側の端(図4の例では左端)、及び、車外画像20の下辺によって囲まれる領域が、接近領域22bに設定されてもよい。
 そして、複数の車両限界枠モデル24のホーム側の側構えの下端に相当する位置を結ぶ線の上端からホーム側(図4の例では右)に伸びる線、車外画像20のホーム側の辺(図4の例では右辺)、車外画像20の下辺、及び、点字ブロック又は白線のホームとは反対側の端(図4の例では左端)によって囲まれる領域が、安全領域22aに設定されてもよい。
 以上のようにして、車外画像20に、安全領域22a、接近領域22b、転落領域22c、及び、保線退避領域22dが設定される。なお、安全領域22a、接近領域22b、転落領域22c、及び、保線退避領域22dの設定は、上述の設定には限定されるものではなく、予め定められた別の方法によって、これらの4つの領域が車外画像20に設定されてもよい。また、転落領域22cが、車両限界枠モデル24が示す車両限界枠に対して余裕をもって設定されてもよい。
 上述のように、車外撮影装置12dは定点を撮影するため、車外撮影装置12dによって所定のフレームレートで撮影される一連の車外画像20における上述の領域は共通となる。
 以下、接近領域22b、転落領域22c、及び、保線退避領域22dを含む領域を、監視対象領域と呼ぶこととする。そして、本実施形態に係る監視システム12は、公知の画像認識技術などを用いることで、撮影された車外画像20内の監視対象領域に写る所定の監視対象物を検出する。
 図4には、図2及び図3に示す車外画像20とは異なる車外画像である車外画像26が示されている。図4に示す車外画像26には、所定の監視対象物の一例である、プラットホームから転落した転落者28が写っている。
 図4に示す車外画像26には、安全領域22a、接近領域22b、及び、転落領域22cが設定されている。図4に示す車外画像26のように、車外画像26に保線退避領域22dが設定されていなくてもよい。そして、図4に示す車外画像26の監視対象領域の一部である転落領域22c内に転落者28が写っている。また、図4には、転落者28の中心の位置P1が示されている。
 このように監視対象領域に所定の監視対象物が写っていることが検出された際には、ディスプレイ12eには、例えば、検出された監視対象物に対応する目印画像30が図4に示す車外画像26に重畳された、図5に例示する画像32が表示される。
 目印画像30は、例えば、車外画像26内における転落者28の位置を示す画像である。図5の例では、目印画像30は、位置P1を中心とした枠状の画像である。
 また、目印画像30は、検出された監視対象物が存在する領域の種類に対応する態様(例えば色)の画像であってもよい。例えば、検出された監視対象物が保線退避領域22dに存在する場合は、目印画像30は、紫色の枠の画像であってもよい。検出された監視対象物が転落領域22cに存在する場合は、目印画像30は、赤色の枠の画像であってもよい。検出された監視対象物が接近領域22bに存在する場合は、目印画像30は、黄色の枠の画像であってもよい。図4の例では転落者28が転落領域22cに存在するので、図5に示す目印画像30が、例えば、赤色の枠の画像であってもよい。
 図6は、監視対象領域に所定の監視対象物が写っている状況が所定の時間継続した際に、車両10の乗務員が前方を見た様子の一例を示す図である。本実施形態では、監視対象領域に所定の監視対象物が写っている状況が所定の時間継続した際には、図6に示すように、車両10のHUD10e内における監視対象物の位置P2に目印画像34が表示される。
 位置P2は、図4に示す位置P1に対応付けられる監視対象物の位置である。そして、図6の例では、目印画像34は、位置P2を中心とした枠状の画像である。ここで目印画像34の縦横比は、目印画像30の縦横比と同じであってもよい。また、車両10と監視対象物との間の距離が長いほど、目印画像34の大きさが小さくなるようにしてもよい。また、目印画像30と同様に、目印画像34は、検出された監視対象物が存在する領域の種類に対応する態様(例えば色)の画像であってもよい。図6の例では、目印画像34は、例えば、赤色の枠の画像であってもよい。
 このように、本実施形態では、車載撮影装置10dによって撮影される車載画像に転落者28等の所定の監視対象物が写っていなくても、検出された監視対象物の位置に目印画像34が表示される。そのため、本実施形態によれば、車載撮影装置10dで認識できない監視対象物の位置を乗務員に的確に把握させることが可能となる。なお本実施形態において、監視対象領域に所定の監視対象物が写ると直ちに、HUD10e内における監視対象物の位置P2に目印画像34が表示されるようにしてもよい。
 また、本実施形態に係る車両10は、公知の画像認識技術などを用いることで、車載撮影装置10dによって撮影された車載画像に写る所定の監視対象物を検出する。
 図7は、図6に示す状況から車両10が進行した際における、車両10の乗務員が前方を見た様子の一例を示す図である。ここで、図7に示す状況において車載撮影装置10dによって撮影される車載画像に、監視対象物である転落者28が写っていることとする。
 この状況では、図4に示す位置P1に対応付けられる位置ではなく、車載画像に基づいて検出された監視対象物の位置P3に目印画像34が表示される。図7の例では、目印画像34は、位置P3を中心とした枠状の画像である。
 車載撮影装置10dもHUD10eも車両10に対して固定されているため、車載撮影装置10dの位置及び向きを基準としたHUD10eの位置及び向きは、常に一定である。そして本実施形態では、車載撮影装置10dの位置及び向きとHUD10eの位置及び向きとが予め対応付けられている。そのため、車載画像内における監視対象物の位置に基づいて、HUD10e内における監視対象物の位置P3は一意に特定可能である。
 以上のようにすることで、車載撮影装置10dによって撮影される車載画像に所定の監視対象物が写っていることが検出可能な際には、監視対象物の位置を乗務員により的確に把握させることが可能となる。
 以下、本実施形態に係る車両10及び監視システム12の機能、並びに、本実施形態に係る車両10で実行される処理についてさらに説明する。
 図8は、本実施形態に係る車両10及び監視システム12で実装される機能の一例を示す機能ブロック図である。なお、本実施形態に係る車両10及び監視システム12で、図8に示す機能のすべてが実装される必要はなく、また、図8に示す機能以外の機能が実装されていても構わない。
 図8に示すように、本実施形態に係る監視システム12には、機能的には例えば、検出部40、車外画像内位置特定部42、検出通知部44、が含まれる。検出部40は、プロセッサ12a及び車外撮影装置12dを主として実装される。車外画像内位置特定部42は、プロセッサ12aを主として実装される。検出通知部44は、通信部12cを主として実装される。
 以上の機能は、コンピュータである監視システム12にインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ12aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して監視システム12に搭載されたコンピュータに供給されてもよい。
 また、図8に示すように、本実施形態に係る車両10には、機能的には例えば、通知受信部50、検出データ記憶部52、走行経路上位置特定部54、表示部内位置特定部56、表示制御部58、判定部60、車載画像内位置特定部62、が含まれる。通知受信部50は、通信部10cを主として実装される。検出データ記憶部52は、記憶部10bを主として実装される。走行経路上位置特定部54は、プロセッサ10a及び記憶部10bを主として実装される。表示部内位置特定部56は、プロセッサ10a、記憶部10b、及び、通信部10cを主として実装される。表示制御部58は、プロセッサ10a及びHUD10eを主として実装される。判定部60は、プロセッサ10a及び車載撮影装置10dを主として実装される。車載画像内位置特定部62は、プロセッサ10aを主として実装される。
 以上の機能は、車両10に搭載されたコンピュータにインストールされた、以上の機能に対応する指令を含むプログラムをプロセッサ10aで実行することにより実装されてもよい。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ読み取り可能な情報記憶媒体を介して、あるいは、インターネットなどを介して車両10に搭載されたコンピュータに供給されてもよい。
 検出部40は、本実施形態では例えば、公知の画像認識技術などを用いることで、車両10の外に設けられた車外撮影装置12dにより撮影される車外画像に写る監視対象物を検出する。検出部40は、例えば、監視対象領域に写る監視対象物を検出してもよい。
 車外画像内位置特定部42は、監視対象物が検出された車外画像内における、当該監視対象物の位置である車外画像内位置を特定する。ここでは、例えば、図4に示す車外画像26に基づいて、当該車外画像26の画像平面内における、監視対象物である転落者28の中心の位置P1の二次元座標値が特定される。
 検出通知部44は、本実施形態では例えば、検出部40によって監視対象物が検出された際に、監視対象物が検出されたことを示す検出通知を車両10に送信する。ここで検出通知部44は、監視対象領域に写る監視対象物が写っている状況が所定の時間継続した際に、検出通知を車両10に送信してもよい。
 また、検出通知部44は、所定の条件を満たす車両10に検出通知を送信してもよい。例えば、検出通知部44は、監視システム12が設けられている駅に向かう、当該駅からの距離が所定の距離以下である車両10に検出通知を送信してもよい。また例えば、検出通知部44は、監視システム12が設けられている駅に向かう、当該駅とその手前の駅の間にある車両10に検出通知を送信してもよい。
 検出通知には、例えば、検出通知を送信する監視システム12あるいは当該監視システム12が設けられている駅の識別情報や、検出された監視対象物の位置を示す監視対象物位置データなどを含む検出データが関連付けられている。監視対象物位置データは、例えば、上述の位置P1の二次元座標値を示すデータであってもよい。
 通知受信部50は、本実施形態では例えば、監視対象物を検出した監視システム12から、上述の検出通知を受信する。そして通知受信部50は、受信した検出通知に関連付けられている検出データを検出データ記憶部52に記憶させる。
 検出データ記憶部52は、本実施形態では例えば、検出データを記憶する。
 走行経路上位置特定部54は、本実施形態では例えば、車両10の線状の走行経路上における監視対象物の位置(以下、走行経路上位置と呼ぶ。)を特定する。
 本実施形態では例えば、走行経路上位置特定部54には、予め、車両10の線状の走行経路を示す走行経路データが記憶されている。走行経路データには、例えば、車両10の線状の走行経路に沿った複数の位置の、実空間における三次元座標値が示されている。ここで当該三次元座標値は、例えば、緯度、経度、及び、標高によって表現されていてもよい。
 また、本実施形態では例えば、走行経路上位置特定部54に、予め、複数の監視システム12のそれぞれについての車外画像・走行経路対応関係データが記憶されている。車外画像・走行経路対応関係データは、例えば、監視システム12で撮影される車外画像内における位置と走行経路データが示す走行経路上の位置との所与の対応関係を示すデータである。
 そして本実施形態では、検出データに含まれる監視対象物位置データが示す車外画像内位置、走行経路データ、及び、車外画像・走行経路対応関係データに基づいて、当該車外画像内位置に対応付けられる走行経路上の位置(上述の走行経路上位置)が特定される。
 表示部内位置特定部56は、本実施形態では例えば、車外画像内位置と、車両10の乗務員の眼前に配置される表示部(例えばHUD10e)の位置及び向きと、に基づいて、当該表示部内における監視対象物の位置(以下、表示部内位置と呼ぶ。)を特定する。
 以下、表示部内位置特定部56による表示部内位置の特定について、図9を参照しながら説明する。
 図9は、実空間に対応付けられる仮想空間の一例を示す図である。実空間内における位置は、図9に示す仮想空間内における位置と1対1で対応付けられる。当該仮想空間を示すデータは、例えば、表示部内位置特定部56に記憶される。
 本実施形態では例えば、運行管理システム14によって、車両10の走行経路R上における位置及び進行方向がリアルタイムで管理されている。そして、走行経路R上における車両10の現在の位置及び進行方向を示す運行データが、例えば所定の時間間隔で運行管理システム14から車両10に送信される。
 そして、本実施形態では例えば、表示部内位置特定部56に、予め、運行データが示す車両10の位置及び向きとHUD10eの位置及び向きとの所与の対応関係を示す車両・HUD対応関係データが記憶されている。そして、表示部内位置特定部56は、車両・HUD対応関係データと、車両10の現在の位置及び進行方向を示す運行データと、に基づいて、現在におけるHUD10eの位置及び向きを特定する。
 また、本実施形態では例えば、表示部内位置特定部56に、予め、運行データが示す車両10の位置及び向きと乗務員の視点の位置及び視線方向との所与の対応関係を示す車両・視点対応関係データが記憶されている。そして、表示部内位置特定部56は、車両・視点対応関係データと、車両10の現在の位置及び進行方向を示す運行データと、に基づいて、現在における乗務員の視点の位置及び視線方向を特定する。
 図9には、実空間におけるHUD10eに対応付けられる板状の仮想HUDオブジェクト70が示されている。図9に示す仮想HUDオブジェクト70は、実空間におけるHUD10eの位置に対応付けられる仮想空間における位置に、実空間におけるHUD10eの向きに対応付けられる仮想空間における向きで配置される。
 また、図9には、上述のようにして特定される実空間における乗務員の視点の現在の位置に対応付けられる仮想空間内における位置P4が示されている。また、図9には、上述のようにして特定される実空間における乗務員の現在の視線方向に対応付けられる仮想空間における視線方向Dが示されている。
 また、図9には、車外画像内位置(例えば、図4に示す位置P1)に基づいて特定される実空間における走行経路上位置に対応付けられる仮想空間内の位置P5が示されている。
 そして、表示部内位置特定部56は、位置P4と位置P5とを結ぶ線と仮想HUDオブジェクト70との交点の位置P6を特定する。ここでは例えば、板状の仮想HUDオブジェクト70が表す平面内における位置P6の二次元座標値が特定される。
 そして、表示部内位置特定部56は、図9に示す位置P6に対応付けられる、HUD10e内における監視対象物の位置である表示部内位置(例えば、図6に示す位置P2)を特定する。本実施形態では、仮想HUDオブジェクト70が表す平面内における位置と表示部内位置とが1対1で予め対応付けられている。そのため、位置P6の二次元座標値に基づいて表示部内位置は特定可能である。以上で説明したように、表示部内位置特定部56は、走行経路上位置に基づいて、表示部内位置を特定してもよい。
 表示制御部58は、本実施形態では例えば、表示部内位置特定部56により特定される表示部内位置に目印画像34を表示させる。ここで表示制御部58は、所定の条件を満足する監視対象物の表示部内位置に目印画像34を表示させてもよい。例えば、車両10の進行方向に存在する、車両10からの距離が所定の距離以下の監視システム12によって検出された監視対象物の表示部内位置に目印画像34が表示されるようにしてもよい。あるいは、車両10の進行方向に存在する、所定数個先までの駅に設けられた監視システム12によって検出された監視対象物の表示部内位置に目印画像34が表示されるようにしてもよい。あるいは、車両10が次に停車又は通過する駅に設けられた監視システム12によって検出された監視対象物の表示部内位置に目印画像34が表示されるようにしてもよい。
 判定部60は、本実施形態では例えば、車両10に設けられた車載撮影装置10dにより監視対象物が撮影されたか否かを判定する。ここでは、例えば、車載画像に監視対象物が写っているか否かが判定される。
 車載画像内位置特定部62は、本実施形態では例えば、車載撮影装置10dにより撮影される車載画像に写る監視対象物の当該車載画像内における位置である車載画像内位置を特定する。
 車載撮影装置10dにより監視対象物が撮影されたことが判定部60によって判定された場合は、表示部内位置特定部56は、車載画像内位置に基づいて、表示部内位置を特定してもよい。そしてこの場合、表示制御部58は、車載画像内位置に基づいて特定される表示部内位置に目印画像34を表示させてもよい。
 本実施形態では、車載画像内位置と表示部内位置とは予め対応付けられている。そのため、表示部内位置特定部56は、車載画像内位置に基づいて、表示部内位置を一意に特定可能である。
 また、本実施形態において、車載撮影装置10dにより監視対象物が撮影されたことが判定されない状況から判定された状況に変化することがある。この場合に、表示部内位置特定部56が、表示部内位置を、車外画像内位置に基づくものから、車載画像内位置に基づくものに変化させてもよい。
 以下、本実施形態に係る車両10において所定のフレームレートで繰り返し行われる処理の流れの一例を、図10に例示するフロー図を参照しながら説明する。
 まず、判定部60が、当該フレームにおいて撮影された車載画像を取得する(S101)。
 そして、走行経路上位置特定部54が、検出データ記憶部52に記憶されている検出データのうちから、所定の条件を満足するものを特定する(S102)。ここで例えば、検出データに含まれる識別情報に基づいて、車両10の進行方向に存在する、車両10からの距離が所定の距離以下の監視システム12から送信された検出データが特定されてもよい。あるいは、検出データに含まれる識別情報に基づいて、車両10の進行方向に存在する、所定数個先までの駅に設けられた監視システム12から送信された検出データが特定されてもよい。あるいは、検出データに含まれる識別情報に基づいて、車両10が次に停車又は通過する駅に設けられた監視システム12から送信された検出データが特定されてもよい。
 そして、走行経路上位置特定部54が、S102に示す処理で特定された検出データに含まれる監視対象物位置データが示す車外画像内位置に対応する走行経路上位置を特定する(S103)。
 そして、表示部内位置特定部56が、最新の運行データに基づいて、HUD10eの現在の位置及び向き、並びに、乗務員の視点の位置及び視線方向を特定する(S104)。
 そして、表示部内位置特定部56が、S103に示す処理で特定された走行経路上位置と、S104に示す処理で特定されたHUD10eの現在の位置及び向き、並びに、乗務員の視点の位置及び視線方向に基づいて、表示部内位置を特定する(S105)。
 そして、判定部60が、S101に示す処理で取得された車載画像内のS105に示す処理で特定された表示部内位置に応じた範囲に監視対象物が写っているか否かを判定する(S106)。ここでは例えば、S105に示す処理で特定された表示部内位置に対応する車載画像内における位置からの距離が所定の距離以下である範囲に監視対象物が写っているか否かが判定される。
 S106に示す処理で写っていないことが判定された場合は(S106:N)、表示制御部58が、S105に示す処理で特定された表示部内位置に目印画像34を表示させて(S107)、S101に示す処理に戻る。
 S106に示す処理で写っていることが判定された場合は(S106:Y)、車載画像内位置特定部62は、S106に示す処理で写っていることが判定された監視対象物の車載画像内位置を特定する(S108)。
 そして、表示部内位置特定部56が、S108に示す処理で特定された車載画像内位置に対応する表示部内位置を特定する(S109)。
 そして、表示制御部58が、S109に示す処理で特定された表示部内位置に目印画像34を表示させて(S110)、S101に示す処理に戻る。
 図10に示す処理を実行することで、車載撮影装置10dにより監視対象物が撮影されたことが判定されない状況から判定された状況に変化した際に、表示部内位置が、車外画像内位置に基づくものから、車載画像内位置に基づくものに変化することとなる。
 なお図10に示す処理において、一度、車載画像に監視対象物が写っていることが判定された以後は、当該監視対象物については、S102~S107に示す処理が実行されないようにして、車載画像内位置に基づいて表示部内位置が特定されるようにしてもよい。
 また、本実施形態において、表示制御部58は、監視対象物の位置がHUD10eの表示範囲外である場合に、図11に示すように、監視対象物の位置に応じたHUD10eの縁部に目印画像72を表示させてもよい。
 例えば、図9に示す位置P4と位置P5とを結ぶ線と仮想HUDオブジェクト70との交点が存在しないとする。この場合は、位置P4と位置P5とを結ぶ線に最も近い、仮想HUDオブジェクト70の辺上の位置が特定されてもよい。そして、特定された位置に対応付けられるHUD10eの縁部に目印画像72が表示されるようにしてもよい。
 また、本実施形態において、図12に示すように、目印画像34とともに、乗務員の視界の妨げのならない場所に警告画像74が表示されるようにしてもよい。あるいは、目印画像34の代わりに警告画像74が表示されるようにしてもよい。
 また、本実施形態において、車外撮影装置12dが三次元画像やデプス画像の撮影が可能なカメラである場合に、監視システム12がカメラ座標系における監視対象物の三次元座標値を特定してもよい。そして、当該三次元座標値に基づいて、監視対象物の実空間内における位置や表示部内位置が特定されるようにしてもよい。なおこの場合に、当該三次元座標値を示す監視対象物位置データを含む検出データが関連付けられた検出通知が送信されるようにしてもよい。
 また、車載撮影装置10dが三次元画像やデプス画像の撮影が可能なカメラである場合に、車両10がカメラ座標系における監視対象物の三次元座標値を特定してもよい。そして、当該三次元座標値に基づいて、表示部内位置が特定されるようにしてもよい。
 なお、車両10と監視システム12の役割分担は上述のものには限定されない。例えば、監視システム12から車両10に車外画像が送信されるようにしてもよい。そして、車両10が、車外画像に基づいて車外画像内位置を特定してもよい。また、監視システム12が、走行経路上位置などの、監視対象物の実空間内における位置を特定してもよい。
 また、本実施形態において、白杖を持った人物、補助犬、車いすを利用している人物、酔客等が、車外画像に写っていることが検出された際に、そのことを表す画像が車両10のHUD10eに表示されるようにしてもよい。
 また、本実施形態において、踏切を監視するカメラが撮影する画像に基づいて、踏切内に支障物があるか否かが判定されてもよい。当該判定は、例えば、特殊発光信号機の動作センサの出力や特殊発光信号機の映像の認識結果に基づいて実行されてもよい。そして、踏切内に支障物があるか否かが判定された際に、そのことを表す画像が車両10のHUD10eに表示されるようにしてもよい。ここで例えば上述と同様の方法によって、当該支障物に対応付けられる表示部内位置に目印画像が表示されるようにしてもよい。
 なお、本発明は上述の実施形態に限定されるものではない。
 例えば、表示部内位置の特定方法は上述の方法には限定されない。例えば、車載画像に対して画像認識を実行し、車載画像に写っていない線路の位置が外挿によって推定されてもよい。そして推定された線路の位置上の表示部内位置が決定されるようにしてもよい。あるいは、過去の車両10の走行において車載撮影装置10dによって撮影された映像を学習した機械学習モデルを用いて、監視対象物の実空間内における位置や、表示部内位置が推定されるようにしてもよい。
 また、例えば、車両10の乗務員の眼前に配置される表示部が、HUD10eではなく、乗務員が装着するヘッドマウントディスプレイ(HMD)であってもよい。そして、目印画像が、HMDに表示されるようにしてもよい。この場合、例えば、HMDに設けられた加速度センサ等の各種センサの出力に基づいてHMDの位置及び向きが特定されてもよい。そして、特定されるHMDの位置及び向きに基づいて、表示部内位置が特定されるようにしてもよい。
 また、上述の具体的な文字列や数値、並びに、図面中の具体的な文字列は例示であり、これらの文字列や数値には限定されない。

Claims (9)

  1.  車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定する車外画像内位置特定手段と、
     前記車外画像内位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定する表示部内位置特定手段と、
     特定される前記表示部内位置に目印画像を表示させる表示制御手段と、
     を含むことを特徴とする表示制御システム。
  2.  前記車両の線状の走行経路を示す走行経路データと、前記車外画像内位置と、に基づいて、前記走行経路データが示す走行経路上における前記監視対象物の位置である走行経路上位置を特定する走行経路上位置特定手段、をさらに含み、
     前記表示部内位置特定手段は、前記走行経路上位置に基づいて、前記表示部内位置を特定する、
     ことを特徴とする請求項1に記載の表示制御システム。
  3.  前記車両に設けられた車載撮影装置により前記監視対象物が撮影されたか否かを判定する判定手段と、
     前記車載撮影装置により撮影される車載画像に写る前記監視対象物の当該車載画像内における位置である車載画像内位置を特定する車載画像内位置特定手段と、をさらに含み、
     前記車載撮影装置により前記監視対象物が撮影されたことが判定された場合は、前記表示部内位置特定手段は、前記車載画像内位置に基づいて、前記表示部内位置を特定する、
     ことを特徴とする請求項1又は2に記載の表示制御システム。
  4.  前記車載撮影装置により前記監視対象物が撮影されたことが判定されない状況から判定された状況に変化した際に、前記表示部内位置特定手段は、前記表示部内位置を、前記車外画像内位置に基づくものから、前記車載画像内位置に基づくものに変化させる、
     ことを特徴とする請求項3に記載の表示制御システム。
  5.  前記表示制御手段は、前記監視対象物の位置が前記表示部の表示範囲外である場合に、前記監視対象物の位置に応じた前記表示部の縁部に目印画像を表示させる、
     ことを特徴とする請求項1から4のいずれか一項に記載の表示制御システム。
  6.  前記表示部は、前記車両に設けられたヘッドアップディスプレイである、
     ことを特徴とする請求項1から5のいずれか一項に記載の表示制御システム。
  7.  前記表示部は、前記乗務員が装着するヘッドマウントディスプレイである、
     ことを特徴とする請求項1から5のいずれか一項に記載の表示制御システム。
  8.  車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定するステップと、
     前記車外画像内位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定するステップと、
     特定される前記表示部内位置に目印画像を表示させるステップと、
     を含むことを特徴とする表示制御方法。
  9.  車両の外に設けられた車外撮影装置により撮影される車外画像に写る監視対象物の当該車外画像内における位置である車外画像内位置を特定する手順、
     前記車外画像内位置と、前記車両の乗務員の眼前に配置される表示部の位置及び向きと、に基づいて、当該表示部内における前記監視対象物の位置である表示部内位置を特定する手順、
     特定される前記表示部内位置に目印画像を表示させる手順、
     をコンピュータに実行させることを特徴とするプログラム。
PCT/JP2020/044464 2019-12-06 2020-11-30 表示制御システム、表示制御方法及びプログラム WO2021112030A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019221232A JP6729958B1 (ja) 2019-12-06 2019-12-06 表示制御システム、表示制御方法及びプログラム
JP2019-221232 2019-12-06

Publications (1)

Publication Number Publication Date
WO2021112030A1 true WO2021112030A1 (ja) 2021-06-10

Family

ID=71738443

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/044464 WO2021112030A1 (ja) 2019-12-06 2020-11-30 表示制御システム、表示制御方法及びプログラム

Country Status (2)

Country Link
JP (1) JP6729958B1 (ja)
WO (1) WO2021112030A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012227699A (ja) * 2011-04-19 2012-11-15 Toyota Motor Corp 画像表示装置、及び、画像表示方法
US20160318530A1 (en) * 2015-04-30 2016-11-03 Roger Laverne Johnson System, method and apparatus for managing railroad operations and assets using frequently acquired, path oriented, geospatial and time registered, sensor mapped data
JP2019109707A (ja) * 2017-12-18 2019-07-04 トヨタ自動車株式会社 表示制御装置、表示制御方法および車両
JP2019182260A (ja) * 2018-04-12 2019-10-24 日本信号株式会社 物体検知システム
JP2019191961A (ja) * 2018-04-25 2019-10-31 株式会社東芝 走行状況提示装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012227699A (ja) * 2011-04-19 2012-11-15 Toyota Motor Corp 画像表示装置、及び、画像表示方法
US20160318530A1 (en) * 2015-04-30 2016-11-03 Roger Laverne Johnson System, method and apparatus for managing railroad operations and assets using frequently acquired, path oriented, geospatial and time registered, sensor mapped data
JP2019109707A (ja) * 2017-12-18 2019-07-04 トヨタ自動車株式会社 表示制御装置、表示制御方法および車両
JP2019182260A (ja) * 2018-04-12 2019-10-24 日本信号株式会社 物体検知システム
JP2019191961A (ja) * 2018-04-25 2019-10-31 株式会社東芝 走行状況提示装置

Also Published As

Publication number Publication date
JP2021093565A (ja) 2021-06-17
JP6729958B1 (ja) 2020-07-29

Similar Documents

Publication Publication Date Title
US10347130B2 (en) Vehicle and control method thereof
US11092456B2 (en) Object location indicator system and method
JP6944308B2 (ja) 制御装置、制御システム、および制御方法
TWI633524B (zh) 交通監控系統
US9507345B2 (en) Vehicle control system and method
US9062979B1 (en) Pose estimation using long range features
US7363156B2 (en) Method and device for assisting in the piloting of an aircraft
US7605773B2 (en) Head-up display system and method for carrying out the location-correct display of an object situated outside a vehicle with regard to the position of the driver
US20190108757A1 (en) Vehicle dispatch system, autonomous driving vehicle, and vehicle dispatch method
US10747221B2 (en) Moving body, moving body control system, and moving body control method
US20230047404A1 (en) Driver assistance system and method
CN108545019A (zh) 一种基于图像识别技术的安全辅助驾驶系统和方法
CN110462702B (zh) 行驶路径提供系统及其控制方法、以及介质
TW201333896A (zh) 使用視訊雷達的遠距交通管理系統
KR20180040012A (ko) 전방감시장치, 전방감시장치를 이용한 운전지원장치 및 운전지원방법
JP2020027325A (ja) 船舶または車両のナビゲーションシステム
US10249192B2 (en) Notification regarding an estimated movement path of a vehicle
US11600181B2 (en) Saddle-riding type vehicle
WO2021112030A1 (ja) 表示制御システム、表示制御方法及びプログラム
CN112987053A (zh) 监测偏航传感器的方法和设备
US8681219B2 (en) System and method for driving assistance at road intersections
JP2021091387A (ja) 表示制御システム、表示制御方法及びプログラム
US20230098314A1 (en) Localizing and updating a map using interpolated lane edge data
CN112440741A (zh) 车辆时间多路复用显示器
CN112204351A (zh) 飞行路径引导系统、飞行路径引导装置及飞行路径引导方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20895184

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20895184

Country of ref document: EP

Kind code of ref document: A1