WO2023188528A1 - 列車走行支援装置及び列車走行支援方法 - Google Patents

列車走行支援装置及び列車走行支援方法 Download PDF

Info

Publication number
WO2023188528A1
WO2023188528A1 PCT/JP2022/043064 JP2022043064W WO2023188528A1 WO 2023188528 A1 WO2023188528 A1 WO 2023188528A1 JP 2022043064 W JP2022043064 W JP 2022043064W WO 2023188528 A1 WO2023188528 A1 WO 2023188528A1
Authority
WO
WIPO (PCT)
Prior art keywords
train
event
person
display
vehicle
Prior art date
Application number
PCT/JP2022/043064
Other languages
English (en)
French (fr)
Inventor
真理子 味八木
従道 大脇
庄平 山形
真子 村上
仁士 三田
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Publication of WO2023188528A1 publication Critical patent/WO2023188528A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61BRAILWAY SYSTEMS; EQUIPMENT THEREFOR NOT OTHERWISE PROVIDED FOR
    • B61B1/00General arrangement of stations, platforms, or sidings; Railway networks; Rail vehicle marshalling systems
    • B61B1/02General arrangement of stations and platforms including protection devices for the passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61KAUXILIARY EQUIPMENT SPECIALLY ADAPTED FOR RAILWAYS, NOT OTHERWISE PROVIDED FOR
    • B61K13/00Other auxiliaries or accessories for railways
    • B61K13/04Passenger-warning devices attached to vehicles; Safety devices for preventing accidents to passengers when entering or leaving vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a train running support device and a train running support method.
  • Patent Document 1 Japanese Patent Application Laid-open No. 2019-191853
  • the conventional technology it is possible to obtain and display an image of the side of a train vehicle.
  • a driver performs a safety check at the same time as driving duties, it is a heavy burden to perform the safety check only from real-time images of all vehicles. Therefore, it is necessary to efficiently provide important information to supervisors responsible for checking the safety of drivers and other personnel based on images of the sides of train cars, thereby supporting the safe running of trains.
  • the information to be reported to the watchman changes depending on the state of the train from when it enters the station platform to when it departs.
  • the present invention aims to efficiently notify important information depending on the condition of the train on the station platform.
  • one of the typical train running support devices of the present invention uses the imaging results of a camera that includes the vicinity of the side of the train in the imaging range, and uses the imaging result of a camera that includes the vicinity of the side of the train to determine the position of the person on the station platform and the train.
  • a person position determination unit that determines a relationship
  • an event detection unit that uses the imaging result by the camera to detect an event to be notified to a watchman
  • an identification unit that identifies a state of the train with respect to the station platform
  • a display control unit configured to display and output information regarding the positional relationship of , is characterized by selecting the items to be displayed and output and/or the display mode.
  • a train operation support device mounted on a train uses the image pickup result of a camera that includes the vicinity of the side of the train in its image pickup range to detect a person on a station platform.
  • a person position determining step of determining a positional relationship between the train and the train an event detecting step of detecting an event to be notified to a watchman using the imaging result by the camera; and identifying a state of the train with respect to the station platform.
  • an identification step and a display control step of displaying and outputting information regarding the positional relationship of the person and/or the event on a predetermined display device to notify the observer, and the display control step includes the identification step.
  • the feature is that the items to be displayed and/or the display mode are selected based on the identification results obtained by the method.
  • Explanatory diagram of train running support in Example 1 Explanatory diagram of camera placement on the vehicle System configuration diagram including train running support device Specific example of display by display device
  • Explanatory diagram of information displayed on the display device Specific example of vehicle display
  • Explanatory diagram of notification control based on departure and arrival phases Explanatory diagram explaining the display mode of event notification Specific example of display transition Flowchart showing the processing procedure of the train running support device Flowchart showing the processing procedure for event notification
  • FIG. 1 is an explanatory diagram of train running support according to the first embodiment.
  • a camera 42 whose imaging range includes the vicinity of the side of the train is installed in each car of the train.
  • the camera 42 can photograph a person located on the station platform.
  • the train running support device 10 is a device mounted on a train, and efficiently reports important information to a supervisor who is responsible for confirming the safety of the train, based on the imaging results of the camera 42. Note that in the following embodiments, the explanation will be given using a driver as an example of a supervisor. Specifically, the train running support device 10 acquires the imaging results of the camera 42 and detects events that should be reported to the driver for each vehicle. Events that should be reported include falling, running towards someone, running alongside them, being held against a door, and being dragged. Among these events, a fall is an event in which a person falls from a station platform onto the tracks, and has a particularly high priority for notification. Running next to someone, running side-by-side with someone, running against a door, and being dragged are examples of events that have a lower priority than falling. For convenience, a fall is assumed to be the first event, and other events are assumed to be second events.
  • the train running support device 10 determines the positional relationship between the person on the station platform and the train, in addition to the first event and second event that are to be reported to the driver.
  • the mere presence of a person on a station platform cannot be said to be an event that should be reported to the driver, there are cases in which the positional relationship between the person and the train should be reported to the driver. For example, when the train's doors are open, there is no need to notify the driver even if the train and the person are close, but before the train closes its doors and departs, the driver is notified that the train and the person are close. Should.
  • the train running support device 10 identifies four departure and arrival phases using information such as train position information, speed information, and door opening/closing state information.
  • the train running support device 10 notifies the driver of the detected event and the positional relationship with the person. This notification is performed, for example, by display control on a display device provided in the driver's cab.
  • the train running support device 10 selects the items to be displayed and the display mode based on the identification results of the departure and arrival phases. Therefore, important information can be efficiently broadcast during each departure and arrival phase.
  • the train running support device 10 distinguishes and outputs the detection results of the first event and the second event in a distinguishable manner. Furthermore, a first operation receiving means for confirming details of the first event and a second operation receiving means for confirming details of the second event are separately provided. Therefore, it is possible to separate notification and confirmation processing according to the importance of the event, and to prevent omissions in confirmation of important information.
  • FIG. 2 is an explanatory diagram of the arrangement of cameras on a vehicle.
  • the cameras 42 are arranged near both ends in the longitudinal direction on the left and right sides of each vehicle. That is, four cameras 42 are arranged in one vehicle.
  • Each camera 42 includes the vicinity of the door of the vehicle in its imaging range.
  • the train running support device 10 uses the imaging results from the camera 42 on the station platform side and the traveling direction side for real-time display.
  • the imaging results of the two cameras 42 on the station platform side may be used to detect an event or determine the positional relationship with a person. Unifying the cameras 42 used for real-time display in all vehicles has the effect of avoiding driver confusion. Further, the reason why the camera 42 on the traveling direction side is used is that it is less affected by wind, rain, and snow while the vehicle is running, and accordingly, good image quality can be expected.
  • FIG. 3 is a configuration diagram of a system including the train running support device 10.
  • Each vehicle is provided with a relay device 41 in addition to the four cameras 42 already described.
  • the relay device 41 transmits the image captured by the camera 42 of the own vehicle to the train running support device 10 as image capture result data. Further, the relay device 41 can receive and relay imaging result data of another vehicle from the relay device 41 of another vehicle.
  • the train running support device 10 is connected to a train status information providing device 31, one or more display devices 32, and a relay device 41.
  • the train status information providing device 31 is a device that provides information used to identify departure and arrival phases.
  • the train status information providing device 31 includes a position specifying device using GPS (Global Positioning System) or the like, a drive control device capable of providing train speed information, a car body control device capable of providing door opening/closing status, and the like.
  • the display device 32 is installed in the driver's cab and provides display output to the driver. As the display device 32, a liquid crystal display or the like may be used.
  • the train running support device 10 has a storage section 11 and a control section 12 therein.
  • the storage unit 11 is a hard disk drive or the like, and stores the imaging result data of the camera 42 received via the relay device 41. It is preferable that all four cameras 42 installed in each vehicle perform constant recording and store all of their imaging result data in the storage unit 11. Further, the imaging result data can be managed in association with the determination result of the person's position, the detection result of the event, whether or not the event has been confirmed by the driver, and the like.
  • the control unit 12 is a control unit that controls the overall operation of the train running support device 10, and includes an identification unit 21, a person position determination unit 22, an event detection unit 23, and a display control unit 24.
  • the control unit 12 may be realized by software.
  • the CPU Central Processing Unit
  • the identification unit 21 identifies the state of the train relative to the station platform. Specifically, the identification unit 21 acquires information such as train position information, speed information, and door opening/closing status information from the train status information providing device 31, and uses the acquired information to determine the approach phase, boarding/alighting phase, etc. , identify whether it corresponds to the departure preparation phase or the advance phase.
  • information such as train position information, speed information, and door opening/closing status information from the train status information providing device 31, and uses the acquired information to determine the approach phase, boarding/alighting phase, etc. , identify whether it corresponds to the departure preparation phase or the advance phase.
  • the person position determination unit 22 uses the image capture result data of the camera 42 to determine the positional relationship between the person on the station platform and the train. Specifically, the person position determination unit 22 sets a dangerous area within a predetermined range from the train and a caution area outside the danger area, and determines whether there is a person in the danger area or the caution area. For example, the area between the yellow line drawn on the station platform and the train may be defined as a danger area, and the area above the yellow line may be defined as a caution area. The person position determination unit 22 determines the position of a person in each of a plurality of vehicles that make up the train.
  • the event detection unit 23 performs image processing on the imaging result data of the camera 42 and detects an event to be notified to the driver.
  • the event detection unit 23 detects an event specified in advance as a first event, and also detects an event whose notification priority is lower than that of the first event as a second event.
  • the first event is an event that has a high priority for visual confirmation
  • the second event is an event that has a low priority for visual confirmation compared to the first event.
  • the event detection unit 23 detects a fall of a person from a station platform as a first event, and detects other events whose notification priority is lower than the fall as a second event.
  • Other events include running up to each other, running side by side, door clipping, and dragging.
  • a run-up is an event in which a person suddenly approaches a vehicle.
  • Parallel running is a phenomenon in which a person on the station platform moves in the same direction as the train.
  • Door pinching is a phenomenon in which a person or item is caught in the door of a vehicle.
  • Drag is a phenomenon in which a person or item is physically connected to a train and moves in the same direction and at the same speed as the train.
  • the event detection unit 23 detects an event for each of the plurality of vehicles that make up the train.
  • the display control unit 24 displays information regarding the positional relationships of people and events on the display device 32 to notify the driver. At this time, the display control unit 24 selects the items to be displayed and/or the display mode based on the identification result by the identification unit 21. Specifically, the display control unit 24 notifies the detection results of the first event and the second event during the approach phase, departure preparation phase, or advance phase. On the other hand, during the boarding and alighting phase, the display control unit 24 suppresses notification of the detection result of the second event and notifies the detection result of the first event.
  • the display control unit 24 notifies that a person is present in the dangerous area.
  • the display control unit 24 notifies that a person is present in a dangerous area and that a person is present in a caution area.
  • the display control unit 24 uses a display mode that is more eye-catching than display modes in other phases as a display mode for notification in the departure preparation phase.
  • Eye-attractiveness refers to the ease with which a product attracts attention and stands out. Visibility refers to how easy it is to find something when you are consciously searching for it, while conspicuousness refers to how easy it is to notice something when you are not consciously searching for it.
  • the display control unit 24 schematically displays the train vehicle composition and controls the display of information regarding the positional relationships of people and/or events in association with the vehicles. At this time, the display control unit 24 uses the entire schematically displayed vehicle for the notification when notifying about an event, and uses the schematically displayed entire vehicle for the notification when notifying the positional relationship of the person. A part of the vehicle will be used for the notification.
  • the display control unit 24 displays the first event and the second event in a distinguishable manner.
  • the display control unit 24 displays a first event in which an operation to the first operation reception means, which will be described later, is not accepted, and a first event in which an operation to the first operation reception means has been accepted, which will be described later. , and display control is given priority to second events for which no operation has been accepted on the second operation accepting means, which will be described later.
  • the display control unit 24 displays the image capturing result data of the camera 42 in addition to schematically displaying the vehicle composition of the train. Specifically, the display control unit 24 divides the display area of the display device into a plurality of areas that display imaging results for each vehicle in real time in one-to-one correspondence with a plurality of vehicles; An area for enlarging and displaying the imaging results for any one of the images is provided. The display control unit 24 subjects the imaging results of the vehicle that detected the first event and/or the second event to enlarged display.
  • the display control unit 24 displays the imaging result data in real time for the vehicle targeted for enlarged display, and displays and outputs the detection results of the first event and the second event in a distinguishable manner. Furthermore, a first operation receiving means for confirming details of the first event and a second operation receiving means for confirming details of the second event are separately provided. Specifically, the first operation receiving means and/or the second operation receiving means may be displayed superimposed on the enlarged image capture result. Note that the display control unit 24 uses the imaging results by the camera on the station platform side and the traveling direction side for real-time display.
  • the display control unit 24 displays a recording/playback button as a first operation accepting means when a first event is detected, and displays a recording/playback button as a second operation accepting means when a second event is detected.
  • the imaging result including the corresponding first event is read out from the storage unit 11 and played back
  • the image capturing result including the corresponding first event is read out and played back.
  • the imaging result including the second event is read out from the storage unit 11 and reproduced.
  • FIG. 4 is a specific example of the display by the display device 32.
  • two display devices 32 are arranged side by side to perform display.
  • the display device 32 displays a plurality of display areas 51, one or more display areas 52, and a vehicle composition display 60.
  • the plurality of display areas 51 display the imaging results for each vehicle in real time in one-to-one correspondence with the plurality of vehicles.
  • the display area 52 is larger than the display area 51, and displays an enlarged image of any of the vehicles.
  • the display area 52 is used to display the imaging results of the vehicle in which the event has been detected. It is also possible to enlarge and display the imaging results for the vehicle selected by the driver.
  • the display area 52 is capable of displaying in real time and reproducing past imaging results read from the storage unit 11.
  • the vehicle composition display 60 schematically displays the vehicle composition of the train.
  • the vehicle formation display 60 can be used to notify the position of a person, a detected event, and the driver's confirmation status of the detected event.
  • FIG. 5 is an explanatory diagram of information displayed on the display device 32.
  • a vehicle icon 53 is displayed in the display area 51.
  • Vehicle icon 53 indicates a vehicle number. Further, the vehicle icon 53 indicates at which position in the vehicle the imaging result of the camera 42 is displayed in the display area 51.
  • a vehicle icon 53 and a button 54 are displayed in the display area 52.
  • the button 54 is used to accept an operation for selecting whether to display real-time imaging results in the display area 52 or to reproduce and display past imaging results read from the storage unit 11.
  • the display control unit 24 displays a fall replay button in the display area 52.
  • the display control unit 24 causes the display area 52 to display an other playback button.
  • the display control unit 24 displays a fall playback button and other playback buttons in the display area 52.
  • the display control unit 24 When the fall playback button is operated, the display control unit 24 reads the imaging result data including the corresponding fall event from the storage unit 11 and plays it back, and displays a live playback button and a confirmation completion button. When the live playback button is operated, the display control unit 24 shifts to real-time display. When the confirmation completion button is operated, the display control unit 24 associates and stores a confirmation completion flag for the fall event in the storage unit 11, and shifts to real-time display.
  • the display control unit 24 If the other playback button is operated, the display control unit 24 reads the imaging result data including the corresponding event from the storage unit 11, plays it back, and displays the live playback button. When the live playback button is operated, the display control unit 24 shifts to real-time display.
  • the vehicle composition display 60 includes a traveling direction display 61 and a vehicle display 62.
  • the vehicle display 62 is displayed as many as the number of vehicles on the train, and vehicle numbers are assigned.
  • FIG. 6 is a specific example of a vehicle display.
  • the entire vehicle display 62 is used to notify the event. Further, the type of event is indicated by a display such as "fall” or “other.” Note that the notification of other events is canceled when the event is canceled. Regarding the fall event, the notification is canceled by the confirmation completion operation, and a display indicating confirmation completion is attached. In FIG. 6, the check box display indicates completion of confirmation.
  • a part of the vehicle display 62 is used to notify the person.
  • the part used for notification is determined depending on the positional relationship between the dangerous area or caution area and the vehicle.
  • car No. 1 and car No. 2 are displayed in order from the left, showing a situation in which the car is traveling in the direction of car No. 1.
  • the vehicle display 62 displays person detection in the caution area, person detection in the danger area, and vehicle number in this order.
  • the vehicle number, person detection in the dangerous area, and person detection in the caution area are displayed in this order from the top of the vehicle display 62.
  • FIG. 7 is an explanatory diagram of control of notification based on the departure and arrival phases. As shown in FIG. 7, notification pattern A is adopted in the entry phase and the advance phase. In the boarding/alighting phase, notification pattern B is adopted, and in the departure preparation phase, notification pattern C is adopted.
  • Notification pattern A notifies that a fall event has been detected, other events have been detected, fall event confirmation has been completed, and that there is a person in a dangerous area, but does not notify that there is a person in a caution area.
  • the caution area is a position where you instruct a person on the station platform to ⁇ get down this far'' when the train is moving, and there is no need for the driver to be particularly alert even if there is a person in the caution area. It is.
  • Notification pattern B notifies of detection of a fall event, completion of confirmation of a fall event, presence of a person in a dangerous area, and presence of a person in a caution area, but does not notify detection of other events.
  • the notification pattern C notifies that a fall event has been detected, other events have been detected, fall event confirmation has been completed, there is a person in a dangerous area, and there is a person in a caution area. Furthermore, in notification pattern C, the presence of a person in a dangerous area or caution area is notified using a display that is more visually appealing than other notification patterns. This is because, in the departure preparation phase, the location of people in dangerous areas and caution areas is particularly important in order to determine whether or not to depart.
  • FIG. 8 is an explanatory diagram illustrating a display mode of event notification. If a fall event is not detected, there is no need to notify. If a falling event is detected and the image is in an unconfirmed state where past imaging results have not been reproduced, the display control unit 24 causes the entire vehicle display 62 to flash in red and displays "Fall". If a fall event has been detected and the video of the past imaging results has been confirmed, the display control unit 24 lights up the entire vehicle display 62 in red and displays "Fall”. If a fall event has been detected and the confirmation completion operation has been accepted, the display control unit 24 displays a green checkbox on the vehicle display 62.
  • the display control unit 24 lights up the entire vehicle display 62 in red and displays "Other".
  • the priority of event notification is highest when a fall event is detected but the video is not confirmed, and is the priority "1".
  • the priority is "2" if a fall event has been detected and the video has been confirmed, the priority "3” is if other events are being detected, and the priority is "4" if the confirmation of the fall event has been completed. If multiple events occur in one vehicle, the one with the highest priority is displayed.
  • FIG. 9 is a specific example of the display transition.
  • the plurality of display areas 51 display the imaging results for the corresponding vehicles in real time, and the display area 52 has no display output.
  • the second vehicle display 62 flashes or lights up, and the display area on the left enlarges and displays the imaging results for the second vehicle in real time. Thereafter, when the event detection unit 23 detects an event in the seventh vehicle, the seventh vehicle display 62 flashes or lights up, and the display area on the right side enlarges and displays the imaging results for the seventh vehicle in real time.
  • the oldest enlarged display of the second car is kicked out, the enlarged display of the seventh car moves to the left display area 52, and the newest enlarged display of the fifth car is pushed out.
  • the display area 52 on the right side is used for enlarged display.
  • FIG. 10 is a flowchart showing the processing procedure of the train running support device 10.
  • the storage unit 11 acquires the imaging result of the camera 42 (step S101) and stores it.
  • the person position determining unit 22 performs image processing on the image captured by the camera 42 to determine the person's position (step S102).
  • the event detection unit 23 performs image processing on the imaging results of the camera 42 to detect a first event (fall) and a second event (other events) (step S103).
  • the storage unit 11 stores the imaging result, the event detection result, and the person's position in association with each other (step S104).
  • the identification unit 21 identifies four departure and arrival phases using information such as train position information, speed information, and door open/close state information (step S105).
  • the display control unit 24 displays the detected event and the positional relationship with the person on the display device 32 (step S106), and ends the process. As already explained, in step S106, the display control unit 24 selects the items to be displayed and the display format based on the identification results of the departure/arrival phase, so that the detection results of the first event and the second event can be distinguished and identified. Display output to.
  • FIG. 11 is a flowchart showing the processing procedure for event notification.
  • the display control unit 24 acquires the event detection result by the event detection unit 23 (step S201). If the event detection unit 23 has not detected an event (step S202; No), the process returns to step S201.
  • step S104 If the event detection unit 23 detects an event (step S104; Yes), it enlarges and displays the live video (real-time imaging result) of the vehicle where the event was detected (step S203), and displays the type of the detected event (first event). or a second event), a playback button is displayed (step S204).
  • step S205 If the operation on the playback button is received (step S205; Yes), the display control unit 24 plays back the imaging results stored in the storage unit 11 and sets the video playback completion flag (step S206). Thereafter, a confirmation completion button is displayed (step S207). If the confirmation completion button has not been operated (step S208; No) or if the playback button has not been operated (step S205; No), the process returns to step S205.
  • step S208 If the operation on the confirmation completion button is accepted (step S208; Yes), the display control unit 24 sets a confirmation completion flag (step S2089), ends the enlarged display (step S210), and ends the process.
  • the disclosed train running support device 10 uses the imaging results of the camera 42 whose imaging range includes the vicinity of the side of the train to determine the position of a person on the station platform and the positional relationship with the train. 22, an event detection unit 23 that detects an event to be notified to a watchman using the imaging result of the camera 42, an identification unit 21 that identifies the state of the train with respect to the station platform, and a positional relationship of the person. and/or a display control unit 24 that outputs and/or displays information regarding the event on a predetermined display device 32 to notify the monitor. Then, the display control section 24 selects the items to be displayed and/or the display mode based on the identification result by the identification section 21. With such a configuration and operation, the train running support device 10 can efficiently notify important information depending on the condition of the train with respect to the station platform.
  • the identification unit 21 also identifies an approach phase in which the train enters the station platform until it stops, a boarding phase in which the train stops and the doors are open, and a phase in which the train departs after the train closes the doors.
  • Four phases are identified as the above-mentioned states: a departure preparation phase until the train departs, and an advance phase from when the train departs until it leaves the station platform. Therefore, important information can be efficiently reported in each phase of departure and arrival.
  • the event detection unit 23 detects a fall of the person from the station platform as a first event, and detects an event whose notification priority is lower than the fall as a second event.
  • the display control unit 24 notifies the detection results of the first event and the second event in the approach phase, the departure preparation phase, or the advance phase, and notifies the detection results of the first event and the second event in the getting-on/off phase.
  • the detection result of the first event is reported while suppressing the notification of the detection result of the second event. Therefore, unnecessary notifications during the getting on/off phase can be suppressed.
  • the person position determination unit 22 defines a predetermined range from the train as a dangerous area, sets a caution area outside the dangerous area, and determines the presence or absence of a person in the dangerous area and the caution area. . Then, in the approach phase or the advance phase, the display control unit 24 notifies the presence of a person in the dangerous area, and in the departure preparation phase or the boarding/alighting phase, A notification that a person is present in the area and a person is present in the caution area are provided, and as a display mode of the notification in the departure preparation phase, a display mode that is more eye-catching than display modes in other phases. Use. Therefore, it is possible to efficiently notify the positional relationship between the train and the person.
  • the camera 42 is provided for each vehicle constituting the train, the person position determination unit 22 determines the position of a person for each vehicle, and the event detection unit 23 determines the position of a person for each vehicle. Detecting this, the display control unit 24 schematically displays the vehicle composition of the train and controls the display of information regarding the positional relationship of the person and/or the event in association with the vehicle. Therefore, it is possible to efficiently notify a plurality of vehicles.
  • the display control unit 24 uses the entire vehicle schematically displayed for the notification, and when notifying the positional relationship of the person, the display control unit 24 uses A part of the vehicle that is displayed is used for the notification. For this reason, event notification can be performed preferentially.
  • the cameras 42 are arranged near both ends in the longitudinal direction on the left and right side surfaces of the vehicle, and each camera includes the vicinity of the door of the vehicle in its imaging range. Therefore, it is possible to select and use a camera 42 that can obtain good image quality depending on the direction of travel, which side of the station platform, etc.
  • the present invention is not limited to the above-described embodiments, and includes various modifications.
  • the embodiments described above are described in detail to explain the present invention in an easy-to-understand manner, and the present invention is not necessarily limited to having all the configurations described.
  • a configuration in which four cameras 42 are installed in one vehicle is illustrated, but a configuration in which the cameras 42 are installed above the door or the like may be used.
  • the driver was explained as an example of the observer who checks the safety of the train, but the observer may be a crew member who does not operate the train.
  • a configuration may be adopted in which a monitor is not placed on the train but at a station or a monitoring center.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transportation (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Platform Screen Doors And Railroad Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Electric Propulsion And Braking For Vehicles (AREA)

Abstract

列車の駅ホームに対する状態に応じた重要な情報を効率的に報知することを課題とする。列車の側面近傍を撮像範囲に含むカメラの撮像結果を用い、駅ホームにいる人物と前記列車との位置関係を判定する人物位置判定部と、前記カメラによる撮像結果を用い、監視員に対する報知対象の事象を検知する事象検知部と、前記列車の前記駅ホームに対する状態を識別する識別部と、前記人物の位置関係及び/又は前記事象に関する情報を所定の表示装置に表示出力して前記監視員に報知する表示制御部と、を備え、前記表示制御部は、前記識別部による識別結果に基づいて、表示出力する事項及び/又は表示態様の選択を行う。

Description

列車走行支援装置及び列車走行支援方法
 本発明は、列車走行支援装置及び列車走行支援方法に関する。
 従来、列車の乗降時等における安全を確保するため、特開2019-191853号公報(特許文献1)に記載の技術がある。この公報には、「鉄道車両Tの側部に設けられた検知部である撮像部Cから取得した画像を画像処理して表示部Mに画像処理後の画像を表示させる」という記載がある。
特開2019-191853号公報
 従来の技術によれば、列車の車両側方の画像を取得し、表示することができる。しかしながら、例えば運転士が運転業務と同時に安全確認を行う場合には、全ての車両のリアルタイム画像のみから安全確認を行うのは大きな負担である。
 このため、列車の車両側方の画像に基づき、運転士等の安全確認を担う監視員に対して重要な情報を効率的に報知し、列車の安全な走行を支援することが求められる。
 ここで、監視員に対して報知すべき情報は、列車が駅ホームに進入してから発車するまでの状態の推移によって変化する。
 本発明では、列車の駅ホームに対する状態に応じた重要な情報を効率的に報知することを目的とする。
 上記目的を達成するために、代表的な本発明の列車走行支援装置の一つは、列車の側面近傍を撮像範囲に含むカメラの撮像結果を用い、駅ホームにいる人物と前記列車との位置関係を判定する人物位置判定部と、前記カメラによる撮像結果を用い、監視員に対する報知対象の事象を検知する事象検知部と、前記列車の前記駅ホームに対する状態を識別する識別部と、前記人物の位置関係及び/又は前記事象に関する情報を所定の表示装置に表示出力して前記監視員に報知する表示制御部と、を備え、前記表示制御部は、前記識別部による識別結果に基づいて、表示出力する事項及び/又は表示態様の選択を行うことを特徴とする。
 また、代表的な本発明の列車運行支援方法の一つは、列車に搭載された列車走行支援装置が、前記列車の側面近傍を撮像範囲に含むカメラの撮像結果を用い、駅ホームにいる人物と前記列車との位置関係を判定する人物位置判定ステップと、前記カメラによる撮像結果を用い、監視員に対する報知対象の事象を検知する事象検知ステップと、前記列車の前記駅ホームに対する状態を識別する識別ステップと、前記人物の位置関係及び/又は前記事象に関する情報を所定の表示装置に表示出力して前記監視員に報知する表示制御ステップと、を含み、前記表示制御ステップは、前記識別ステップによる識別結果に基づいて、表示出力する事項及び/又は表示態様の選択を行うことを特徴とする。
 本発明によれば、列車の駅ホームに対する状態に応じた重要な情報を効率的に報知できる。上記した以外の課題、構成及び効果は以下の実施の形態の説明により明らかにされる。
実施例1の列車走行支援についての説明図 車両に対するカメラの配置の説明図 列車走行支援装置を含むシステムの構成図 表示装置による表示の具体例 表示装置に表示される情報についての説明図 車両表示の具体例 発着フェーズによる報知の制御についての説明図 事象の報知の表示態様を説明する説明図 表示の推移の具体例 列車走行支援装置の処理手順を示すフローチャート 事象の報知の処理手順を示すフローチャート
 以下、実施例を図面を用いて説明する。
 図1は、実施例1の列車走行支援についての説明図である。図1に示すように、列車の各車両には、列車の側面近傍を撮像範囲に含むカメラ42が設置されている。列車が駅ホームに入っているときには、カメラ42は、駅ホームに所在する人物を撮影することができる。
 列車走行支援装置10は、列車に搭載された装置であり、カメラ42の撮像結果に基づいて、列車の安全確認を担う監視員に重要な情報を効率的に報知する。なお、以下の実施例では、運転士を監視員の例として説明を行う。
 具体的には、列車走行支援装置10は、カメラ42の撮像結果を取得し、運転士に報知すべき事象を車両ごとに検知する。報知すべき事象は、転落、駆け寄り、並走、戸ばさみ、ひきずりなどである。これらの事象のうち、転落は、駅ホームから線路に人物が落ちた事象であり、特に報知の優先度が高い。駆け寄り、並走、戸ばさみ、ひきずりは、転落に比較すると優先度の低い事象の一例である。便宜上、転落を第一事象とし、その他の事象を第二事象とする。
 また、列車走行支援装置10は、運転士に対する報知対象である第一事象及び第二事象に加え、駅ホームにいる人物と列車との位置関係を判定する。駅ホームに人物が存在するだけでは運転士に報知すべき事象であるとは言えないが、人物と列車との位置関係は、運転士に報知すべき場合もある。例えば、列車が扉を開けている状態では、列車と人物の位置が近くても報知の必要がなく、列車が扉を閉めて発車する前の状態では列車と人物が近いことは運転士に報知すべきである。
 ここで、列車の駅ホームに対する状態として、4つの発着フェーズを定義する。進入フェーズは、列車が駅ホームに入って停止するまでの状態とする。乗降フェーズは、列車が停止して扉を開いている状態とする。発車準備フェーズは、列車が扉を閉めてから発車するまでの状態とする。進出フェーズは、列車が発車してから駅ホームを出るまでの状態とする。
 列車走行支援装置10は、列車の位置情報、速度情報、扉の開閉状態の情報などの情報を用いて、4つの発着フェーズを識別する。
 列車走行支援装置10は、検知した事象や、人物との位置関係を運転士に対して報知する。この報知は、例えば運転室に設けられた表示装置に対する表示制御により行う。
 列車走行支援装置10は、表示制御を行うにあたり、発着フェーズの識別結果に基づいて、表示出力する事項や表示態様を選択する。このため、それぞれの発着フェーズで重要な情報を効率的に報知することができる。
 また、列車走行支援装置10は、表示制御を行うにあたり、第一事象と第二事象の検知結果を区別して識別可能に表示出力する。さらに、第一事象の詳細を確認するための第一操作受付手段と、第二事象の詳細を確認するための第二操作受付手段とを個別に設ける。
 このため、事象の重要度に応じて報知と確認の処理を分け、重要な情報の確認漏れを防止することができる。
 図2は、車両に対するカメラの配置の説明図である。カメラ42は、各車両の左右の側面において、長手方向の両端近傍に配置される。すなわち、1の車両には4台のカメラ42が配置されることになる。各々のカメラ42は、車両の扉近傍を撮像範囲に含む。
 列車走行支援装置10は、駅ホーム側かつ進行方向側のカメラ42による撮像結果を、リアルタイムの表示に用いる。事象の検知や人物との位置関係の判定には、駅ホーム側の2台のカメラ42の撮像結果を用いてもよい。リアルタイムでの表示に用いるカメラ42を全ての車両で統一するのは、運転士の混乱を避ける効果がある。また、進行方向側のカメラ42を用いるのは、走行中に風雨や雪の影響を受け難く、その分、良好な画質が期待できるからである。
 図3は、列車走行支援装置10を含むシステムの構成図である。各車両には、既に説明した4台のカメラ42に加え、中継装置41が設けられる。中継装置41は、自車両のカメラ42が撮像した映像を撮像結果データとして列車走行支援装置10に送信する。また、中継装置41は、他の車両の中継装置41から他の車両の撮像結果データを受信し、中継することができる。
 列車走行支援装置10は、列車状態情報提供装置31、1又は複数の表示装置32及び中継装置41と接続される。
 列車状態情報提供装置31は、発着フェーズの識別に用いられる情報を提供する装置である。列車状態情報提供装置31には、GPS(Global Positioning System)等を用いた位置特定装置、列車の速度情報を提供可能な駆動制御装置、扉の開閉状態を提供可能な車体制御装置などが含まれる。
 表示装置32は、運転室に設置され、運転士に対する表示出力を行う。表示装置32としては、液晶ディスプレイなどを用いればよい。
 列車走行支援装置10は、その内部に記憶部11及び制御部12を有する。
 記憶部11は、ハードディスクドライブなどであり、中継装置41を介して受信したカメラ42の撮像結果データを格納する。各車両に4台ずつ設置されたカメラ42は、全て常時録画を行い、その撮像結果データの全てを記憶部11に蓄積する構成とすることが好適である。また、撮像結果データには、人物位置の判定結果、事象の検知結果、事象について運転士による確認が済んでいるか否か等を対応付けて管理することができる。
 制御部12は、列車走行支援装置10の全体の動作を制御する制御部であり、識別部21、人物位置判定部22、事象検知部23及び表示制御部24を有する。制御部12をソフトウェアによって実現してもよい。この場合には、CPU(Central Processing Unit)が所定のプログラムをメモリに展開して順次実行することにより、識別部21、人物位置判定部22、事象検知部23及び表示制御部24に対応する動作を行う。
 識別部21は、列車の駅ホームに対する状態を識別する。具体的には、識別部21は、列車の位置情報、速度情報、扉の開閉状態の情報などの情報を列車状態情報提供装置31から取得し、取得した情報を用いて、進入フェーズ、乗降フェーズ、発車準備フェーズ、進出フェーズのいずれに該当するかを識別する。
 人物位置判定部22は、カメラ42の撮像結果データを用い、駅ホームにいる人物と列車との位置関係を判定する。
 具体的には、人物位置判定部22は、列車から所定の範囲内を危険エリアとするとともに危険エリアの外側に注意エリアを設定して、危険エリアと注意エリアにおける人物の有無を判定する。一例として、駅ホームにひかれた黄色い線と列車との間を危険エリアとし、黄色い線の上を注意エリアとすればよい。
 人物位置判定部22は、列車を構成する複数の車両のそれぞれについて人物の位置の判定を行う。
 事象検知部23は、カメラ42の撮像結果データに画像処理を行い、運転士に対する報知対象の事象を検知する。事象検知部23は、あらかじめ指定された事象を第一事象として検知するとともに、第一事象よりも報知の優先度の低い事象を第二事象として検知する。第一事象は、目視確認の優先度の高い事象とし、第二事象は、目視確認の優先度が第一事象に比べて低い事象とすることが好適である。具体的には、事象検知部23は、人物の駅ホームからの転落を第一事象として検知し、転落よりも報知の優先度の低いその他の事象を第二事象として検知する。その他の事象には、駆け寄り、並走、戸ばさみ、ひきずりなどが含まれる。駆け寄りは、人物が車両に急接近する事象である。並走は、駅ホームの人物が列車の移動方向と同方向に移動する事象である。戸ばさみは、車両の扉が人物や物品をはさむ事象である。引きずりは、人物や物品が列車に物理的につながって列車と同方向に同速度で移動する事象である。
 事象検知部23は、列車を構成する複数の車両のそれぞれについて事象を検知する。
 表示制御部24は、人物の位置関係や事象に関する情報を表示装置32に表示出力して運転士に報知する。
 このとき、表示制御部24は、識別部21による識別結果に基づいて、表示出力する事項及び/又は表示態様の選択を行う。
 具体的には、表示制御部24は、進入フェーズ、発車準備フェーズ又は進出フェーズにあっては、第一事象及び第二事象の検知結果を報知する。一方で、表示制御部24は、乗降フェーズにあっては、第二事象の検知結果の報知を抑制して第一事象の検知結果を報知する。
 また、表示制御部24は、進入フェーズ又は進出フェーズにあっては、危険エリアに人物が所在する旨の報知を行う。一方で、表示制御部24は、発車準備フェーズ又は前記乗降フェーズにあっては、危険エリアに人物が所在する旨の報知と注意エリアに人物が所在する旨の報知とを行う。
 さらに、表示制御部24は、発車準備フェーズにおける報知の表示態様として、他のフェーズにおける表示態様よりも誘目性の高い表示態様を用いる。誘目性とは、注目の集めやすさ、目につきやすさを示すものである。視認性が、意識して探すときの見つけやすさを示すのに対し、誘目性は、意識して探していないときの気づきやすさと言える。
 表示制御部24は、列車の車両編成を模式的に表示して、人物の位置関係及び/又は事象に関する情報を車両に対応付けて表示制御する。このとき、表示制御部24は、事象に関する報知を行う場合には、模式的に表示した車両の全体を当該報知に使用し、人物の位置関係の報知を行う場合には、模式的に表示した車両の一部を当該報知に使用する。事象に関する情報の報知を行う場合には、表示制御部24は、第一事象と第二事象を識別可能に表示する。1の車両に複数の事象が検知された場合、表示制御部24は、後述する第一操作受付手段に対する操作を受け付けていない第一事象、第一操作受付手段に対する操作を受付済の第一事象、後述する第二操作受付手段に対する操作を受け付けていない第二事象の順に優先して表示制御する。
 また、表示制御部24は、列車の車両編成を模式的に表示する他、カメラ42の撮像結果データを表示する。
 具体的には、表示制御部24は、表示装置の表示領域を分割し、複数の車両に1対1に対応して各車両についての撮像結果をリアルタイムで表示する複数の領域と、複数の車両のいずれかについての撮像結果を拡大表示する領域とを設ける。表示制御部24は、第一事象及び/又は第二事象を検知した車両についての撮像結果を拡大表示の対象とする。
 表示制御部24は、拡大表示の対象とした車両について、撮像結果データのリアルタイム表示を行うとともに、第一事象と第二事象の検知結果を識別可能に表示出力する。さらに、第一事象の詳細を確認するための第一操作受付手段と、第二事象の詳細を確認するための第二操作受付手段とを個別に設ける。具体的には、第一操作受付手段及び/又は第二操作受付手段を、拡大表示した撮像結果に重畳表示すればよい。
 なお、表示制御部24は、駅ホーム側かつ進行方向側のカメラによる撮像結果をリアルタイムの表示に用いる。
 表示制御部24は、第一事象を検知した場合に第一操作受付手段としての録画再生ボタンを表示し、第二事象を検知した場合に第二操作受付手段としての録画再生ボタンを表示する。そして、第一操作受付手段に対する操作を受け付けた場合には、対応する第一事象を含む撮像結果を記憶部11から読み出して再生し、第二操作受付手段に対する操作を受け付けた場合には、対応する第二事象を含む撮像結果を記憶部11から読み出して再生する。
 図4は、表示装置32による表示の具体例である。図4では、2台の表示装置32を横に並べて表示を行っている。図4に示すように、表示装置32は、複数の表示領域51と、1又は複数の表示領域52と、車両編成表示60とを表示する。
 複数の表示領域51は、複数の車両に1対1に対応して各車両についての撮像結果をリアルタイムで表示する。
 表示領域52は、表示領域51よりも大きく、いずれかの車両についての撮像結果を拡大表示する。表示領域52は、事象が検知された車両についての撮像結果を表示する際に用いられる。また、運転士から選択された車両についての撮像結果を拡大表示することも可能である。表示領域52は、リアルタイムでの表示と、記憶部11から読み出した過去の撮像結果の再生とが可能である。
 車両編成表示60は、列車の車両編成を模式的に表示したものである。車両編成表示60は、人物の位置、検知した事象、検知した事象の運転士による確認状況の報知に用いることができる。
 図5は、表示装置32に表示される情報についての説明図である。図5に示すように、表示領域51には、車両アイコン53が表示される。車両アイコン53は、車両番号を示す。さらに、車両アイコン53は、車両のどの位置に設置されたカメラ42の撮像結果が表示領域51に表示されるかを示す。
 表示領域52には、車両アイコン53と、ボタン54が表示される。ボタン54は、表示領域52にリアルタイムの撮像結果を表示するか、記憶部11から読み出した過去の撮像結果を再生して表示するかを選択する操作を受け付けるために用いられる。
 事象検知部23が転落事象を検知した場合には、表示制御部24は、表示領域52に転落再生ボタンを表示させる。事象検知部23が転落以外の事象を検知した場合には、表示制御部24は、表示領域52にその他再生ボタンを表示させる。事象検知部23が転落事象とその他事象の双方を検知した場合には、表示制御部24は、表示領域52に転落再生ボタンとその他再生ボタンを表示させる。
 表示制御部24は、転落再生ボタンが操作されたならば、対応する転落事象を含む撮像結果データを記憶部11から読み出して再生し、ライブ再生ボタンと、確認完了ボタンを表示する。ライブ再生ボタンを操作された場合には、表示制御部24は、リアルタイムでの表示に移行する。確認完了ボタンを操作された場合には、表示制御部24は、その転落事象について確認完了フラグを対応付けて記憶部11に格納し、リアルタイムでの表示に移行する。
 表示制御部24は、その他再生ボタンが操作されたならば、対応する事象を含む撮像結果データを記憶部11から読み出して再生し、ライブ再生ボタンを表示する。ライブ再生ボタンを操作された場合には、表示制御部24は、リアルタイムでの表示に移行する。
 車両編成表示60は、進行方向表示61と車両表示62を含む。車両表示62は、列車の車両の数だけ表示され、車両番号が付される。
 図6は、車両表示の具体例である。転落事象やその他事象を検知した場合には、車両表示62の全体が事象の報知に用いられる。また、「転落」や「その他」などの表示により、事象の種別が示される。なお、その他事象は、事象が解消された場合に報知が解消される。転落事象については、確認完了操作により報知が解消され、確認完了を示す表示が付される。図6では、チェックボックスの表示が確認完了を示す表示である。
 危険エリアや注意エリアに人物がいる場合には、車両表示62の一部がその報知に用いられる。報知に用いる部分は、危険エリアや注意エリアと車両との位置関係に応じて決定する。図6では、左から1号車、2号車の順に表示され、1号車の方向に進行している状況を示している。この状況で、駅ホームが進行方向の右側である場合には、車両表示62の上から注意エリアの人物検知、危険エリアの人物検知、車両番号の順に表示する。駅ホームが進行方向の左側である場合には、車両表示62の上から車両番号、危険エリアの人物検知、注意エリアの人物検知の順に表示する。
 図7は、発着フェーズによる報知の制御についての説明図である。図7に示すように、進入フェーズと進出フェーズでは、報知パターンAが採用される。乗降フェーズでは、報知パターンBが採用され、発車準備フェーズでは報知パターンCが採用される。
 報知パターンAは、転落事象検知、その他事象検知、転落事象確認完了、危険エリアに人物がいることを報知するが、注意エリアに人物がいることは報知しない。注意エリアは、例えば列車が動いている状況で「ここまで下がるように」と駅ホーム上の人物に指示する位置であり、注意エリアに人物がいても運転士に対する特段の注意喚起を要しないからである。
 報知パターンBは、転落事象検知、転落事象確認完了、危険エリアに人物がいること、注意エリアに人物がいることを報知するが、その他事象検知は報知しない。乗降しているときに、駆け寄りなどが発生しても危険につながらないためである。
 報知パターンCは、転落事象検知、その他事象検知、転落事象確認完了、危険エリアに人物がいること、注意エリアに人物がいることを報知する。さらに、報知パターンCでは、他の報知パターンに比して誘目性の高い表示を用いて、危険エリアや注意エリアに人物がいることを報知する。発車準備フェーズにおいては、発車の可否判断をするために、危険エリアや注意エリアの人物の所在が特に重要となるためである。
 図8は、事象の報知の表示態様を説明する説明図である。
 転落事象が未検知であれば、報知の必要はない。転落事象を検知し、過去の撮像結果を再生していない映像未確認状態であれば、表示制御部24は、車両表示62の全体を赤色で点滅させ、「転落」と表示する。転落事象を検知して過去の撮像結果を再生した映像確認済みであれば、表示制御部24は、車両表示62の全体を赤色で点灯させ、「転落」と表示する。転落事象を検知して確認完了操作を受付済みであれば、表示制御部24は、車両表示62に緑色のチェックボックスを表示する。
 その他事象を検知している場合には、報知の必要はない。その他事象を検知中であれば、表示制御部24は、車両表示62の全体を赤色で点灯させ、「その他」と表示する。
 事象の報知の優先順位は、転落事象を検知して映像未確認のときに最も高く、優先順位「1」である。転落事象を検知して映像確認済が優先順位「2」、その他事象検知中が優先順位「3」、転落事象の確認完了操作済みが優先順位「4」である。複数の事象が1の車両で発生した場合には、この優先順が最も高いものを表示する。
 図9は、表示の推移の具体例である。初期状態で、報知すべき事象が無ければ、複数の表示領域51がそれぞれ対応する車両についての撮像結果をリアルタイムで表示し、表示領域52は表示出力が無い。
 事象検知部23が2両目で事象を検知すると、2両目の車両表示62が点滅又は点灯し、左側の表示領域が2両目の車両についての撮像結果をリアルタイムで拡大表示する。その後、事象検知部23が7両目で事象を検知すると、7両目の車両表示62が点滅又は点灯し、右側の表示領域が7両目の車両についての撮像結果をリアルタイムで拡大表示する。
 さらに、運転士が5両目の拡大表示を手動で要求すると、最も古い2両目の拡大表示が追い出され、7両目の車両についての拡大表示が左側の表示領域52に移り、最も新しい5両目の車両についての拡大表示に右側の表示領域52が用いられる。
 図10は、列車走行支援装置10の処理手順を示すフローチャートである。まず、記憶部11は、カメラ42の撮像結果を取得して(ステップS101)、格納する。人物位置判定部22は、カメラ42の撮像結果を画像処理して人物位置を判定する(ステップS102)。事象検知部23は、カメラ42の撮像結果を画像処理して、第一事象(転落)と第二事象(その他事象)を検知する(ステップS103)。
 記憶部11は、撮像結果と、事象の検知結果と、人物の位置とを対応付けて格納する(ステップS104)。識別部21は、列車の位置情報、速度情報、扉の開閉状態の情報などの情報を用いて、4つの発着フェーズを識別する(ステップS105)。表示制御部24は、検知した事象や、人物との位置関係を表示装置32に表示制御して(ステップS106)、処理を終了する。既に説明したように、ステップS106において、表示制御部24は、発着フェーズの識別結果に基づいて表示出力する事項や表示態様を選択し、第一事象と第二事象の検知結果を区別して識別可能に表示出力する。
 図11は、事象の報知の処理手順を示すフローチャートである。まず、表示制御部24は、事象検知部23による事象の検知結果を取得する(ステップS201)。事象検知部23が事象を検知していなければ(ステップS202;No)、ステップS201に戻る。
 事象検知部23が事象を検知したならば(ステップS104;Yes)、事象を検知した車両のライブ映像(リアルタイムの撮像結果)を拡大表示し(ステップS203)、検知した事象の種別(第一事象又は第二事象)に応じて再生ボタンを表示する(ステップS204)。
 再生ボタンに対する操作を受け付けたならば(ステップS205;Yes)、表示制御部24は、記憶部11が記憶した撮像結果を再生し、映像再生済みフラグをセットする(ステップS206)。その後、確認完了ボタンを表示する(ステップS207)。確認完了ボタンに対する操作を受け付けていない場合(ステップS208;No)、若しくは再生ボタンの操作を受け付けていない場合(ステップS205;No)、ステップS205に戻る。
 確認完了ボタンに対する操作を受け付けたならば(ステップS208;Yes)、表示制御部24は、確認完了フラグをセットし(ステップS2089)、拡大表示を終了して(ステップS210)、処理を終える。
 上述してきたように、開示の列車走行支援装置10は、列車の側面近傍を撮像範囲に含むカメラ42の撮像結果を用い、駅ホームにいる人物と前記列車との位置関係を判定する人物位置判定部22と、前記カメラ42による撮像結果を用い、監視員に対する報知対象の事象を検知する事象検知部23と、前記列車の前記駅ホームに対する状態を識別する識別部21と、前記人物の位置関係及び/又は前記事象に関する情報を所定の表示装置32に表示出力して前記監視員に報知する表示制御部24と、を備える。そして、前記表示制御部24は、前記識別部21による識別結果に基づいて、表示出力する事項及び/又は表示態様の選択を行う。
 かかる構成及び動作により、列車走行支援装置10は、列車の駅ホームに対する状態に応じた重要な情報を効率的に報知できる。
 また、前記識別部21は、前記列車が前記駅ホームに入って停止するまでの進入フェーズと、前記列車が停止して扉を開いている乗降フェーズと、前記列車が扉を閉めてから発車するまでの発車準備フェーズと、前記列車が発車してから前記駅ホームを出るまでの進出フェーズとの4つのフェーズを前記状態として識別する。
 このため、発着におけるそれぞれのフェーズにおいて重要な情報を効率的に報知することができる。
 また、前記事象検知部23は、前記人物の前記駅ホームからの転落を第一事象として検知し、前記転落よりも報知の優先度の低い事象を第二事象として検知する。
 前記表示制御部24は、前記進入フェーズ、前記発車準備フェーズ又は前記進出フェーズにあっては、前記第一事象及び前記第二事象の検知結果を報知し、前記乗降フェーズにあっては、前記第二事象の検知結果の報知を抑制して前記第一事象の検知結果を報知する。
 このため、乗降フェーズにおける不要な報知を抑制することができる。
 また、前記人物位置判定部22は、前記列車から所定の範囲内を危険エリアとするとともに前記危険エリアの外側に注意エリアを設定して、前記危険エリアと前記注意エリアにおける人物の有無を判定する。
 そして、前記表示制御部24は、前記進入フェーズ又は前記進出フェーズにあっては、前記危険エリアに人物が所在する旨の報知を行い、前記発車準備フェーズ又は前記乗降フェーズにあっては、前記危険エリアに人物が所在する旨の報知と前記注意エリアに人物が所在する旨の報知とを行い、前記発車準備フェーズにおける報知の表示態様として、他のフェーズにおける表示態様よりも誘目性の高い表示態様を用いる。
 このため、列車と人物との位置関係について、効率的な報知を行うことができる。
 また、前記カメラ42は、前記列車を構成する車両ごとに設けられ、前記人物位置判定部22は、前記車両ごとに人物の位置を判定し、前記事象検知部23は、前記車両ごとに事象を検知し、前記表示制御部24は、前記列車の車両編成を模式的に表示して、前記人物の位置関係及び/又は前記事象に関する情報を車両に対応付けて表示制御する。
 このため、複数の車両について効率的に報知を行うことができる。
 また、前記表示制御部24は、前記事象に関する報知を行う場合には、模式的に表示した前記車両の全体を当該報知に使用し、前記人物の位置関係の報知を行う場合には、模式的に表示した前記車両の一部を当該報知に使用する。
 このため、事象の報知を優先的に行うことができる。
 また、前記カメラ42は、前記車両の左右の側面において、長手方向の両端近傍に配置され、各々のカメラは前記車両の扉近傍を撮像範囲に含む。
 このため、進行方向や駅ホームがどちら側か等に応じて、良好な画質を得られるカメラ42を選択して使用することができる。
 なお、本発明は上記の実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、かかる構成の削除に限らず、構成の置き換えや追加も可能である。
 例えば、上記の実施例では、1の車両に4台のカメラ42を設置する構成を例示したが、扉の上等にカメラ42を設置する構成であってもよい。
 また、上記の実施例では、列車の安全確認を行う監視員の一例として運転士を例示して説明を行ったが、運転を行わない乗務員が監視員であってもよい。また、列車に搭乗せず、駅や監視センタに監視員を配置する構成としてもよい。
10:列車走行支援装置、11:記憶部、12:制御部、21:識別部、22:人物位置判定部、23:事象検知部、24:表示制御部、31:列車状態情報提供装置、32:表示装置、41:中継装置、42:カメラ、51,52:表示領域、53:車両アイコン、60:車両編成表示、61:進行方向表示、62:車両表示
 

Claims (8)

  1.  列車の側面近傍を撮像範囲に含むカメラの撮像結果を用い、駅ホームにいる人物と前記列車との位置関係を判定する人物位置判定部と、
     前記カメラによる撮像結果を用い、監視員に対する報知対象の事象を検知する事象検知部と、
     前記列車の前記駅ホームに対する状態を識別する識別部と、
     前記人物の位置関係及び/又は前記事象に関する情報を所定の表示装置に表示出力して前記監視員に報知する表示制御部と、
     を備え、
     前記表示制御部は、前記識別部による識別結果に基づいて、表示出力する事項及び/又は表示態様の選択を行うことを特徴とする列車走行支援装置。
  2.  請求項1に記載の列車走行支援装置であって、
     前記識別部は、前記列車が前記駅ホームに入って停止するまでの進入フェーズと、前記列車が停止して扉を開いている乗降フェーズと、前記列車が扉を閉めてから発車するまでの発車準備フェーズと、前記列車が発車してから前記駅ホームを出るまでの進出フェーズとの4つのフェーズを前記状態として識別することを特徴とする列車走行支援装置。
  3.  請求項2に記載の列車走行支援装置であって、
     前記事象検知部は、前記人物の前記駅ホームからの転落を第一事象として検知し、前記転落よりも報知の優先度の低い事象を第二事象として検知し、
     前記表示制御部は、
      前記進入フェーズ、前記発車準備フェーズ又は前記進出フェーズにあっては、前記第一事象及び前記第二事象の検知結果を報知し、
      前記乗降フェーズにあっては、前記第二事象の検知結果の報知を抑制して前記第一事象の検知結果を報知することを特徴とする列車走行支援装置。
  4.  請求項2に記載の列車走行支援装置であって、
     前記人物位置判定部は、前記列車から所定の範囲内を危険エリアとするとともに前記危険エリアの外側に注意エリアを設定して、前記危険エリアと前記注意エリアにおける人物の有無を判定し、
     前記表示制御部は、
      前記進入フェーズ又は前記進出フェーズにあっては、前記危険エリアに人物が所在する旨の報知を行い、
      前記発車準備フェーズ又は前記乗降フェーズにあっては、前記危険エリアに人物が所在する旨の報知と前記注意エリアに人物が所在する旨の報知とを行い、
      前記発車準備フェーズにおける報知の表示態様として、他のフェーズにおける表示態様よりも誘目性の高い表示態様を用いることを特徴とする列車走行支援装置。
  5.  請求項1に記載の列車走行支援装置であって、
     前記カメラは、前記列車を構成する車両ごとに設けられ、
     前記人物位置判定部は、前記車両ごとに人物の位置を判定し、
     前記事象検知部は、前記車両ごとに事象を検知し、
     前記表示制御部は、前記列車の車両編成を模式的に表示して、前記人物の位置関係及び/又は前記事象に関する情報を車両に対応付けて表示制御することを特徴とする列車走行支援装置。
  6.  請求項5に記載の列車走行支援装置であって、
     前記表示制御部は、前記事象に関する報知を行う場合には、模式的に表示した前記車両の全体を当該報知に使用し、前記人物の位置関係の報知を行う場合には、模式的に表示した前記車両の一部を当該報知に使用することを特徴とする列車走行支援装置。
  7.  請求項1に記載の列車走行支援装置であって、
     前記カメラは、前記列車を構成する車両の左右の側面において、前記車両の長手方向の両端近傍に配置され、各々のカメラは前記車両の扉近傍を撮像範囲に含むことを特徴とする記載の列車走行支援装置。
  8.  列車に搭載された列車走行支援装置が、
     前記列車の側面近傍を撮像範囲に含むカメラの撮像結果を用い、駅ホームにいる人物と前記列車との位置関係を判定する人物位置判定ステップと、
     前記カメラによる撮像結果を用い、監視員に対する報知対象の事象を検知する事象検知ステップと、
     前記列車の前記駅ホームに対する状態を識別する識別ステップと、
     前記人物の位置関係及び/又は前記事象に関する情報を所定の表示装置に表示出力して前記監視員に報知する表示制御ステップと、
     を含み、
     前記表示制御ステップは、前記識別ステップによる識別結果に基づいて、表示出力する事項及び/又は表示態様の選択を行うことを特徴とする列車走行支援方法。
     
PCT/JP2022/043064 2022-03-30 2022-11-21 列車走行支援装置及び列車走行支援方法 WO2023188528A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-057167 2022-03-30
JP2022057167A JP2023148889A (ja) 2022-03-30 2022-03-30 列車走行支援装置及び列車走行支援方法

Publications (1)

Publication Number Publication Date
WO2023188528A1 true WO2023188528A1 (ja) 2023-10-05

Family

ID=88200677

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/043064 WO2023188528A1 (ja) 2022-03-30 2022-11-21 列車走行支援装置及び列車走行支援方法

Country Status (2)

Country Link
JP (1) JP2023148889A (ja)
WO (1) WO2023188528A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61198893A (ja) * 1985-02-27 1986-09-03 Mitsubishi Electric Corp 駅ホ−ムの監視方法
JPH09226584A (ja) * 1996-02-22 1997-09-02 Hitachi Ltd 信号受信方法、対移動体信号送信方法、対移動体信号伝送装置、信号受信装置、信号送信装置
JP2012011989A (ja) * 2010-07-05 2012-01-19 Saxa Inc 駅ホームの監視カメラシステム
WO2018180311A1 (ja) * 2017-03-28 2018-10-04 株式会社日立国際電気 監視システム及び監視方法
WO2020039898A1 (ja) * 2018-08-20 2020-02-27 株式会社音楽館 駅監視装置、駅監視方法及びプログラム
JP2022032611A (ja) * 2020-08-13 2022-02-25 東日本旅客鉄道株式会社 駅ホームの監視システム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61198893A (ja) * 1985-02-27 1986-09-03 Mitsubishi Electric Corp 駅ホ−ムの監視方法
JPH09226584A (ja) * 1996-02-22 1997-09-02 Hitachi Ltd 信号受信方法、対移動体信号送信方法、対移動体信号伝送装置、信号受信装置、信号送信装置
JP2012011989A (ja) * 2010-07-05 2012-01-19 Saxa Inc 駅ホームの監視カメラシステム
WO2018180311A1 (ja) * 2017-03-28 2018-10-04 株式会社日立国際電気 監視システム及び監視方法
WO2020039898A1 (ja) * 2018-08-20 2020-02-27 株式会社音楽館 駅監視装置、駅監視方法及びプログラム
JP2022032611A (ja) * 2020-08-13 2022-02-25 東日本旅客鉄道株式会社 駅ホームの監視システム

Also Published As

Publication number Publication date
JP2023148889A (ja) 2023-10-13

Similar Documents

Publication Publication Date Title
AU2015217518B2 (en) Imaging system and method
JP2022033946A (ja) 輸送システム用の映像コンテンツ分析システム及び方法
KR100835085B1 (ko) 무인교통사고기록장치를 이용한 실시간 교통사고처리시스템 및 방법
US20080169939A1 (en) Early warning control system for vehicular crossing safety
US20150235094A1 (en) Vehicle imaging system and method
US20150201165A1 (en) Surveillance of a railway track
US20200307614A1 (en) Automated signal compliance monitoring and alerting system
CN106537900B (zh) 用于数据通信的视频系统和方法
US20240038059A1 (en) Adaptive data collection based on fleet-wide intelligence
JP6275351B1 (ja) 事故防止システム、方法及びプログラム
JP5962898B2 (ja) 運転評価システム、運転評価方法、及び運転評価プログラム
JP3861811B2 (ja) 運転情報処理装置
JP2020072636A (ja) 列車連結支援システム
KR20050062889A (ko) 영상돌발검지기를 이용한 열차 비상제어시스템 및 방법
WO2023188528A1 (ja) 列車走行支援装置及び列車走行支援方法
JP2023550708A (ja) 接続診断システム及び方法
WO2023188557A1 (ja) 列車走行支援装置及び列車走行支援方法
RU134889U1 (ru) Система защиты железнодорожных переездов
KR20160000556A (ko) 무인교통사고 기록장치를 이용한 실시간 교통정보처리시스템
KR20140068312A (ko) 차량 블랙박스와 연동한 교통사고 정보 관리 방법 및 이를 위한 장치
JP6275350B1 (ja) 事故防止システム、方法及びプログラム
JP4413750B2 (ja) ドア開閉制御システム
JP2015198317A (ja) ワンマン運転用触車予防検知システム
RU2812263C2 (ru) Система автоматизированного мониторинга соответствия сигналов и аварийного оповещения
KR102644146B1 (ko) 차량의 운행정보를 반영한 영상 관제 기능을 갖는 avm 시스템 및 그 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22935657

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)