WO2021079866A1 - 駅ホームの安全支援システムおよび支障物体判定方法 - Google Patents

駅ホームの安全支援システムおよび支障物体判定方法 Download PDF

Info

Publication number
WO2021079866A1
WO2021079866A1 PCT/JP2020/039350 JP2020039350W WO2021079866A1 WO 2021079866 A1 WO2021079866 A1 WO 2021079866A1 JP 2020039350 W JP2020039350 W JP 2020039350W WO 2021079866 A1 WO2021079866 A1 WO 2021079866A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
bird
eye view
view camera
linear
Prior art date
Application number
PCT/JP2020/039350
Other languages
English (en)
French (fr)
Inventor
金子 亮
村上 洋一
雄一郎 中山
Original Assignee
株式会社京三製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社京三製作所 filed Critical 株式会社京三製作所
Publication of WO2021079866A1 publication Critical patent/WO2021079866A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61BRAILWAY SYSTEMS; EQUIPMENT THEREFOR NOT OTHERWISE PROVIDED FOR
    • B61B1/00General arrangement of stations, platforms, or sidings; Railway networks; Rail vehicle marshalling systems
    • B61B1/02General arrangement of stations and platforms including protection devices for the passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to a station platform safety support system and an obstructive object determination method.
  • Patent Documents 1 and 2 are based on the premise that obstructive objects such as people, wheelchairs, and strollers can be detected from captured images. Therefore, when a foreign object is captured in the captured image, it may be erroneously detected as an obstructive object such as a person, a wheelchair, or a stroller. For example, a newspaper or a collection of leaves is a good example.
  • the problem to be solved by the present invention is to propose a technique for reducing false detection of an obstructive object as a safety support system for a station platform using images taken by a camera.
  • the first invention for solving the above problems is A first bird's-eye view camera and a second bird's-eye view camera installed at different positions to photograph the same observation part of the linear shadow generated in the gap between the train and the platform.
  • the processing device is Among the first captured images, a first detection unit that detects a first image non-corresponding portion in which the image of the observation portion does not correspond to the linear shadow, and Among the second captured images, a second detection unit that detects a second image non-corresponding portion in which the image of the observation portion does not correspond to the linear shadow, and A determination unit that determines the presence or absence of the obstructing object based on the difference between the first image non-corresponding portion and the second image non-corresponding portion.
  • bird's-eye view cameras are installed at different positions in order to photograph the same observation portion of the linear shadow generated in the gap between the train and the platform. Then, it is possible to detect each of the image non-corresponding parts where the image of the observation portion does not correspond to the linear shadow from the images taken by each bird's-eye view camera, and determine the existence or nonexistence of the obstructing object based on the difference between them. According to this, it is possible to reduce false detection of obstructing objects by using images taken by a camera, and it is possible to prevent accidents in contact with trains at stations.
  • the second invention is A first bird's-eye view camera and a second bird's-eye view camera installed at different positions to photograph the same observation part of the linear part drawn or provided along the railroad track on the side edge of the platform.
  • the processing device is Among the first captured images, a first detection unit that detects a first image non-corresponding portion in which the image of the observation portion does not correspond to the linear portion, and Among the second captured images, a second detection unit that detects a second image non-corresponding portion in which the image of the observation portion does not correspond to the linear portion, and A determination unit that determines the presence or absence of the obstructing object based on the difference between the first image non-corresponding portion and the second image non-corresponding portion.
  • bird's-eye view cameras are installed at different positions in order to photograph the same observation portion of the linear portion drawn or provided along the railroad track on the side edge of the platform. Then, it is possible to detect each portion where the image of the observation portion does not correspond to the linear portion from the captured image of each bird's-eye view camera, and determine the presence or absence of the obstructing object based on the difference between them. According to this, it is possible to reduce false detection of obstructing objects by using images taken by a camera, and it is possible to prevent accidents in contact with trains at stations.
  • the third invention is the second invention.
  • the linear portion is a line of a predetermined color or a Braille block. It is a safety support system.
  • a line of a predetermined color drawn or provided on a platform along a railroad track, or a Braille block can be a linear portion.
  • the fourth invention is the invention according to any one of the first to third aspects.
  • the position of the first image non-corresponding portion in the observation portion and the position of the second image non-corresponding portion in the observation portion are displaced by a predetermined position. If the conditions are met, it is determined that the obstructive object exists. It is a safety support system.
  • the fourth invention it is possible to determine the presence or absence of an obstructive object based on the positional deviation of the observation portion corresponding to each of the image disagreeable portions viewed from each bird's-eye view camera.
  • the fifth invention is It is an obstacle object determination method for determining the existence or absence of an obstacle object based on the first photographed image of the first bird's-eye view camera and the second photographed image of the second bird's-eye view camera.
  • the first bird's-eye view camera and the second bird's-eye view camera are installed so as to capture the same observation portion of the linear shadow generated in the gap between the train and the platform at different positions.
  • a first detection step of detecting a first image non-corresponding portion in which the image of the observed portion does not correspond to the linear shadow and
  • a second detection step of detecting a second image non-corresponding portion in which the image of the observed portion does not correspond to the linear shadow in the second captured image.
  • the fifth invention it is possible to realize a method for determining an obstructive object that has the same effect as that of the first invention.
  • the sixth invention is It is an obstacle object determination method for determining the existence or absence of an obstacle object based on the first photographed image of the first bird's-eye view camera and the second photographed image of the second bird's-eye view camera.
  • the first bird's-eye view camera and the second bird's-eye view camera are installed so as to photograph the same observation portion of the linear portion drawn or provided along the railroad track on the side edge portion of the platform at different positions.
  • a first detection step of detecting a first image non-corresponding portion in which the image of the observed portion does not correspond to the linear portion A second detection step of detecting a second image non-corresponding portion in which the image of the observed portion does not correspond to the linear portion of the second captured image.
  • the sixth invention it is possible to realize a method for determining an obstructive object that has the same effect as that of the second invention.
  • the figure which shows the overall composition example of the safety support system of a station platform A schematic view of the leading car of a train stopped at a station where a safety support system is installed, as viewed from the front side in the direction of travel. Schematic view of the station where the train stopped from above. The figure for demonstrating the relationship between the installation position of each bird's-eye view camera and the observation part. The figure explaining the obstacle object determination process. Another figure illustrating the obstructive object determination process. Another figure illustrating the obstructive object determination process. The block diagram which shows the functional configuration example of a processing apparatus. The figure which shows the data structure example of the support object detection data. The flowchart which shows the processing flow of the processing apparatus. The flowchart which shows the flow of the obstacle object determination process. Schematic diagram of the platform in the modified example as viewed from above.
  • FIG. 1 is a diagram showing an overall configuration example of the station platform safety support system 2 according to the present embodiment.
  • FIG. 1 also shows the outline of the train 1 stopped at the station.
  • FIG. 2 is a schematic view of the leading car of train 1 stopped at the station from the front side in the traveling direction
  • FIG. 3 is a schematic view of the station as seen from above.
  • the longitudinal direction of the platform 3 is defined as the x direction
  • the lateral direction of the platform 3 is defined as the y direction.
  • a Braille block 31 which is an example of a linear portion, is laid on the track side edge (side edge of the platform 3) in the direction along the track in the x direction.
  • a color having a high brightness ratio with the surrounding road surface is used.
  • the safety support system 2 of the present embodiment is provided for each target platform 3 (more specifically, the number line) at the installation station.
  • the safety support system 2 includes a plurality of bird's-eye view cameras 20 and a processing device 200.
  • the plurality of bird's-eye view cameras 20 are installed above the platform 3 at a bird's-eye view position overlooking the stopped train 1.
  • the installation mode of each bird's-eye view camera 20 is not particularly limited, but for example, as shown for one bird's-eye view camera 20 in FIG. 2, it is installed on the ceiling portion of the platform 3 with the shooting direction facing downward. Of course, it may be configured in another installation mode such as being provided on the support column of the platform 3.
  • FIG. 4 is a diagram for explaining the relationship between the installation position of each bird's-eye view camera 20 and the observation portion.
  • a schematic view of the side surface of the train 1 as viewed from the platform 3 side is shown in the upper part (1), and the train 1 and A schematic view of the platform 3 viewed from above is shown in the lower row (2).
  • the observation area 40 including the entire area of the linear shadow 33 and the entire area of the Braille block 31 is divided into a plurality of observation unit areas 41, and each observation unit area 41 Each is an observation part of two bird's-eye view cameras 20 installed at different positions. Then, each bird's-eye view camera 20 is installed so that its own observation portion is included in the shooting range.
  • each bird's-eye view camera 20 is installed at equal intervals along the x direction so that the observation unit area 41 directly below and the observation unit areas 41 on both sides thereof are within the shooting range. .. Then, the two observation unit areas 41 at both ends of the three within the photographing range are the observation portions of the bird's-eye view camera 20. As a result, the entire area of the linear shadow 33 and the Braille block 31 can be photographed in an overlapping manner by the two bird's-eye view cameras 20 for each observation unit area 41. At that time, each bird's-eye view camera 20 can photograph the two observation unit regions 41, which are the observation portions, from diagonally above. Therefore, for each observation unit area 41, an image obtained by taking the observation unit area 41 from diagonally upper left and an image taken from diagonally upper right toward FIG. 4 can be obtained.
  • the observation unit area 41c it is the observation part of the bird's-eye view camera 20a and the bird's-eye view camera 20b. 2 bird's-eye view camera) 20b, taken from diagonally above right.
  • the position in the captured image (X value of the image coordinate system (X, Y); FIG. 5 (1), FIG. 7 (1)) in the captured image captured by each bird's-eye view camera 20 in the position deviation determination process described later. ) Etc.) can be converted to the position on the platform 3 reflected there (x position along the orbital side edge of the platform 3), and the home position conversion that defines the correspondence between them for each bird's-eye view camera 20.
  • Table 253 (see FIG. 8) is prepared in advance.
  • the processing device 200 performs an obstruction object determination process for determining the existence or nonexistence of the obstruction object based on the captured image of each bird's-eye view camera 20.
  • an object existing in the gap or the like is an object such as a person (an object that requires some measures to prevent an accident in contact with a train; an obstructive object) or another object such as newspaper. It becomes important.
  • the first captured image of the first bird's-eye view camera 20a and the second bird's-eye view camera 20b, in which each observation unit area 41 is sequentially set as the target area and the target area is the observation portion, are used.
  • the process of determining the presence or absence of an obstructing object in the target area based on the captured image is repeated for each frame (every predetermined unit time). For example, focusing on the observation unit region 41c of FIG. 4, an obstructive object appears in the observation unit region 41 from the first captured image of the first bird's-eye view camera 20a and the second captured image of the second bird's-eye view camera 20b. Determine if it exists.
  • FIG. 4 shows a case where the person 51 exists in the gap between the train 1 and the platform 3 in the observation unit area 41c.
  • FIG. 5 is a diagram for explaining the obstacle object determination process in that case.
  • An example of the first captured image of the first bird's-eye view camera 20a is shown in the upper part (1) of FIG. 5, and an example of the second photographed image of the second bird's-eye view camera 20b is shown in the lower part (3) of FIG.
  • the middle section (2) of 5 a schematic diagram of the observation unit region 41c on the platform 3 is shown.
  • FIG. 6 is a diagram showing a case where the newspaper 53 is present in the same observation unit area 41c.
  • FIG. 7 is a diagram for explaining the obstacle object determination process in that case.
  • FIG. 7 shows an example of a first captured image (1) of the first bird's-eye view camera 20a, a schematic view (2) of the observation unit region 41c, and an example of a second captured image (3) of the second bird's-eye view camera 20b. It shows that.
  • the obstructive object determination process will be described focusing on the linear shadow 33, but the presence or absence of the obstructive object on the Braille block 31 can also be determined in the same manner.
  • the object overlaps the linear shadow 33 in the captured image, so that the linear shadow 33 is partially chipped or partially thickened.
  • the contour shape collapses.
  • the newspaper 53 existing in the gap between the train 1 and the platform 3 overlaps the linear shadow 33. , That part is reflected as an irrelevant portion 651,671 that does not correspond to the linear shadow 33.
  • the first bird's-eye view camera 20a and the second bird's-eye view camera 20b view the same observation unit region 41 (for example, the observation unit region 41c) from diagonally above on both the left and right sides toward the drawing. Take a picture. Therefore, in the first photographed image (FIG. 5 (1)) in which the observation unit region 41c is photographed from diagonally upper left, the portion of the linear shadow 33 on the right side of the image is blocked by the presence of the person 51, and the portion 611 is not equivalent. It becomes. On the contrary, in the second photographed image (FIG. 5 (3)) in which the observation unit area 41c is photographed from diagonally upper right, the portion of the linear shadow 33 on the left side of the image is obstructed by the presence of the person 51, which is an irrelevant part. It becomes 631.
  • the amount of misalignment between the two (for example, A1 in FIG. 5 (2)), it is possible to determine whether the first image non-equivalent portion and the second image non-equivalent portion are due to an obstructive object. it can.
  • the distance between the left ends of the respective parts 711 and 713 is shown as the position shift amount A1, but the distance between the centers of the respective parts 711 and 713 may be obtained and used as the position shift amount, or between the right ends. The distance of may be used as the amount of misalignment.
  • the obtained position deviation amount exceeds a predetermined threshold value" as a predetermined position deviation condition, and if the position deviation condition is satisfied, it is determined that an obstructive object exists.
  • the threshold can be set based on the height of the three-dimensional object desired to be detected. According to this, it is possible to reduce erroneous detection of obstructive objects such as people, wheelchairs, and strollers existing in the gap between the train 1 and the platform 3 and the Braille block 31.
  • a notification control process is performed to notify the passengers, station staff, conductor, etc. on the platform 3 to that effect.
  • the mode of notification is not particularly limited, but can be realized, for example, by outputting a predetermined announcement voice from a speaker installed at an appropriate place.
  • the obstructive object on the linear shadow 33 detected is the obstructive object on the linear shadow 33 detected (whether it is determined that the obstructive object exists on the linear shadow 33) or is the obstructive object on the braille block 31 detected (on the braille block 31)?
  • Make an announcement according to (whether it was determined that there is an obstructive object). More specifically, for example, when the train 1 is not present at the station, an announcement to alert passengers on the platform 3 upon detecting an obstructive object on the Braille block 31 (hereinafter, "first alert announcement"). ). This can be achieved by controlling the announcement voice prepared in advance to be output from a speaker installed on the platform 3 or the like.
  • second warning announcement a warning announcement for passengers.
  • the second alert announcement and the first alert announcement described above may be different from each other. This is because when train 1 is on the line, more attention should be paid to accidents that come into contact with the train.
  • a warning announcement for passengers (hereinafter referred to as "third warning announcement”) is made.
  • announcements for station staff and conductors (hereinafter referred to as “report announcements”) will be made as appropriate.
  • a third alert announcement is made in response to the detection of an obstructive object on the linear shadow 33 after the passengers have finished getting on and off. Then, if the obstructing object is still detected even after the predetermined time has elapsed, a notification announcement is made. In that case, the position of the observation unit area 41 determined to have an obstructive object may be notified at the same time.
  • the timing for detecting the presence or absence of an obstructive object on the linear shadow 33 is immediately after the door of the train 1 is closed. Whether or not the door of the train 1 is closed is determined by, for example, the processing device 200 receiving a signal indicating that the door has been closed in the train 1 from the outside, or the door from another device that detects the completion of the door closing. It can be determined by the processing device 200 receiving a signal indicating that the closing has been performed.
  • the announcement itself may be made by station staff or the like.
  • the station staff may be notified by sound output of a warning sound, display output of a message, or the like.
  • FIG. 8 is a block diagram showing a functional configuration example of the processing device 200.
  • the processing device 200 includes an operation unit 210, a display unit 220, a communication unit 230, a control unit 240, and a storage unit 250, and can be configured as a kind of computer.
  • the operation unit 210 is configured to include a push switch, a dial, and the like
  • the display unit 220 is configured to include an LED, a small liquid crystal display device, and the like.
  • the operation unit 210 and the display unit 220 are mainly used by workers during maintenance.
  • the communication unit 230 is a wired or wireless communication device realized by, for example, a wireless communication module, a router, a modem, a TA, a jack of a wired communication cable, a control circuit, or the like, and is associated with an external device (for example, a bird's-eye view camera 20). Communicate between.
  • the captured image input for each frame from each bird's-eye view camera 20 via the communication unit 230 is stored in the storage unit 250 as captured image data 255.
  • the control unit 240 is realized by, for example, a processor such as a CPU (Central Processing Unit) or a DSP (Digital Signal Processor), an electronic component such as an ASIC (Application Specific Integrated Circuit), or an FPGA (Field-Programmable Gate Array). Data input / output control is performed between. Then, various arithmetic processes are performed based on a predetermined program, data, data input via the communication unit 230, and the like, and the operation of the processing device 200 is controlled.
  • the control unit 240 includes a first non-equivalent location detection unit 241, a second non-equivalent location detection unit 243, an existence / non-existence determination unit 245, and a notification control unit 247.
  • These functional units may be processing blocks realized as software by executing a program, or may be circuit blocks realized by hardware circuits such as ASIC and FPGA.
  • the processing block realized as software by the control unit 240 executing the station platform safety support program 251 will be described.
  • the first non-equivalent portion detection unit 241 is based on the first captured image of the first bird's-eye view camera 20a whose observation portion is the target region, and the first image is a portion where the image of the target region does not correspond to the linear shadow. Detect as an unreasonable part.
  • the first non-equivalent portion detection process is performed, and the first linear shadow non-equivalent portion and the first Braille block non-equivalent portion, which will be described later, are detected as the first image non-equivalent portion.
  • the second non-equivalent portion detection unit 243 uses a second image of the second bird's-eye view camera 20b whose observation portion is the target region, and a second image of a portion where the image of the target region does not correspond to a linear shadow. Detect as an unreasonable part.
  • the second non-equivalent portion detection process is performed, and the second linear shadow non-equivalent portion and the second Braille block non-equivalent portion, which will be described later, are detected as the second image non-equivalent portion.
  • the presence / absence determination unit 245 determines the presence / absence of an obstructing object in the target area based on the difference between the first image non-equivalent portion and the second image non-equivalent portion.
  • the position shift determination process is performed for each frame to convert the first image non-equivalent part and the second image non-equivalent part into the position (x position) on the platform 3, and the amount of the position shift is When the position deviation condition is satisfied, it is determined that an obstructive object exists in the target area.
  • the notification control unit 247 is a functional unit that performs notification control processing, and when it is determined by the presence / absence determination unit 245 that an obstructive object exists on the linear shadow 33 or the Braille block 31, the passengers, station staff, conductor, etc. Control is performed to output the announcement from an external sound output device (speaker installed on the platform 3 or the like).
  • the storage unit 250 is realized by a storage medium such as an IC memory, a hard disk, or an optical disk.
  • a program for operating the processing device 200 and realizing various functions included in the processing device 200, data used during the execution of the program, and the like are stored in advance, or each time processing is performed. It is temporarily memorized.
  • the storage unit 250 stores the station platform safety support program 251, the platform position conversion table 253, the captured image data 255, and the obstacle object detection data 257.
  • voice data of alert announcements and report announcements are stored.
  • the station platform safety support program 251 functions the control unit 240 as the first non-equivalent location detection unit 241 and the second non-equivalent location detection unit 243, the presence / absence determination unit 245, and the notification control unit 247 to support the station platform safety. It is a program for executing processing.
  • the home position conversion table 253 is prepared for each bird's-eye view camera 20 by associating it with the bird's-eye view camera number for identifying each bird's-eye view camera 20. Then, one home position conversion table 253 stores the correspondence between the X value of the captured image captured by the corresponding bird's-eye view camera 20 and the x position on the platform 3 captured therein.
  • the obstruction object detection data 257 stores data regarding the existence or nonexistence of the obstruction object determined for each frame for each observation unit area 41.
  • the obstacle object detection data 257 is generated and accumulated for each frame by the presence / absence determination unit 245.
  • one obstacle object detection data 257 is associated with an observation unit area number for identifying each observation unit area 41, and a linear shadow presence / absence flag (ON: Existence / OFF: does not exist) and a presence / absence flag on the Braille block (ON: exists / OFF: does not exist) are set. If there is an observation unit area 41 determined by the presence / absence determination unit 245 that an obstructing object exists on the linear shadow 33, the presence / absence flag on the linear shadow corresponding to the observation unit area number is set to “ON”. Similarly, when there is an observation unit area 41 determined to have an obstructive object on the Braille block 31, the presence / absence flag on the Braille block corresponding to the observation unit area number is set to “ON”.
  • FIG. 10 is a flowchart showing the flow of station platform safety support processing performed by the processing device 200.
  • the process described here can be realized by the control unit 240 reading the station platform safety support program 251 from the storage unit 250 and executing the process in the processing device 200.
  • FIG. 11 is a flowchart showing the flow of the obstacle object determination process.
  • the loop A process is executed with each observation unit region 41 as the target region in sequence (steps S101 to S115).
  • the first non-equivalent location detection unit 241 detects the first image non-equivalent portion from the image of the target region (hereinafter referred to as “first target region image”) in the first captured image (hereinafter referred to as “first target region image”). First non-equivalent location detection process; step S103).
  • the linear shadow 33 and the Braille block 31 in the first target area image are determined.
  • a dark color portion pixels having a brightness value satisfying a predetermined dark color luminance condition
  • a linear contour having a constant width is extracted from the extracted dark color portion.
  • a method of determining whether or not there is a dark-colored portion forming a shape can be adopted.
  • a pattern matching method for detecting a linear dark-colored partial image having a predetermined width from the first target region image may be adopted. The same applies to the determination of the Braille block 31.
  • a bright color portion (pixels having a brightness value satisfying a predetermined brightness color brightness condition) is extracted from the first target area image, and a constant width is extracted from the extracted bright color portion.
  • a method of determining whether or not there is a light-colored portion having a linear contour shape it is possible to adopt a method of determining whether or not there is a light-colored portion having a linear contour shape.
  • a pattern matching method for detecting a linear bright-colored partial image having a predetermined width from the first target region image may be adopted.
  • the first non-equivalent location detection unit 241 sets the image non-equivalent portion related to the linear shadow 33 (hereinafter referred to as "first linear shadow non-equivalent portion") and the Braille block as the first image non-equivalent portion.
  • the image non-corresponding part (hereinafter referred to as “first Braille block non-corresponding part”) according to 31 is detected.
  • the portion of the determined linear shadow 33 whose contour is broken as described above is detected as the first linear shadow non-equivalent portion, and the portion of the determined Braille block 31 whose contour is broken is detected. Detected as an uncorresponding part of the first Braille block.
  • the second non-equivalent portion detection unit 243 detects the second image non-equivalent portion from the image of the target region (hereinafter referred to as “second target region image”) in the second captured image (second image non-equivalent portion). 2 Non-equivalent location detection process; step S105).
  • the procedure is the same as that for the first non-equivalent portion detection process, from the image of the second target area image to the image non-equivalent portion related to the linear shadow 33 (hereinafter referred to as "second linear shadow non-equivalent portion”).
  • the image non-corresponding part related to the Braille block 31 (hereinafter referred to as “the second Braille block non-corresponding part”) is detected as the second image non-corresponding part.
  • step S107 the control unit 240 determines whether or not the pair of the corresponding first image non-equivalent portion and the second image non-equivalent portion is detected (step S107). ). That is, when the first linear shadow non-equivalent portion is detected by the first non-equivalent portion detection process and the corresponding second linear shadow non-equivalent portion is detected by the second non-equivalent portion detection process, or when the second non-equivalent portion is detected.
  • step S107 is positively determined (S107). : YES)
  • the process proceeds to step S109 to perform the position deviation determination process.
  • the presence / absence determination unit 245 first obtains the amount of position shift for each pair of the first image non-equivalent portion and the second image non-equivalent portion detected in steps S103 and S105. (Step S109).
  • the home position conversion table 253 related to the first bird's-eye view camera 20a is used to convert the X position of the first image non-corresponding portion to the x position on the platform 3.
  • the home position conversion table 253 related to the second bird's-eye view camera 20b is used to convert the X position of the second image non-corresponding portion to the x position on the platform 3. Then, the difference between the two is obtained as the amount of positional deviation.
  • step S111 YES
  • the existence / absence determination unit 245 interferes there. It is determined that the object exists (step S113). That is, if the set is a set of a first linear shading non-corresponding portion and a second linear shading non-corresponding portion, it is determined that an obstructing object exists in the gap portion between the train 1 and the platform 3 in the target area. Further, if the set is a set of a first Braille block non-equivalent portion and a second Braille block non-equivalent portion, it is determined that an obstructing object exists on the Braille block 31 in the target area.
  • the presence / absence determination unit 245 sets the presence / absence flag on the linear shadow and the presence / absence flag on the Braille block for each observation unit area 41. Is generated (step S117).
  • step S119 the end determination is made, and until the end of this process (step S119; NO), the process returns to step S101 and the above process is repeated.
  • the notification control unit 247 then branches the process depending on whether or not the train 1 is present at the station (target platform 3).
  • step S3: YES When it is detected that the train 1 is on the track of the platform 3 (from the time the train 1 enters the station to the time the train 1 advances) (step S3: YES), the process proceeds to step S9.
  • step S3: NO On the other hand, when the train 1 is absent (step S3: NO), the process proceeds to step S5.
  • step S5 the latest obstacle object detection data 257 at that time is referred to, and if there is an observation unit area 41 in which the presence / absence flag on the Braille block is “ON” (step S5: YES), the broadcast control unit 247 is the first. 1 Control is performed to output the alert announcement from the speaker of the platform 3 or the like (step S7). When the number of obstructing objects on the Braille block 31 is equal to or greater than a preset predetermined number, the output control of the first alert announcement may be performed.
  • step S9 the control unit 240 determines whether or not the door of the train 1 on the platform 3 has been opened, and if it is not open (step S9: NO), the process proceeds to step S11. Whether or not the door is open is determined using a signal received from the outside.
  • the processing device 200 may receive a signal indicating that the door has been opened in the train 1 from the outside, or a processing device may receive a signal indicating that the door has been opened from another device that detects the completion of the door opening. The 200 may receive.
  • step S11 YES
  • the broadcast control unit 247 pays second attention. Control is performed to output the arousal announcement from the speaker of the platform 3 or the like (step S13).
  • step S9 the train is in a standby state until the door of train 1 on the platform 3 is closed (step S14: NO).
  • the determination of whether or not the door is closed can be performed by using a signal received from the outside in the same manner as the determination of whether or not the door is open.
  • the processing device 200 may receive a signal indicating that the door has been closed in the train 1 from the outside, or a processing device may receive a signal indicating that the door has been closed from another device that detects the completion of the door closing. The 200 may receive.
  • step S15 the broadcast control unit 247 controls to output the third alert announcement from the speaker of the platform 3 or the like (step S17).
  • step S19 the observation unit region 41 in which the presence / absence flag on the linear shadow is “ON”
  • step S21 control is performed to output the notification announcement from the speaker of the platform 3 or the like.
  • control unit 240 waits until the observation unit area 41 whose linear shadow presence / absence flag is “ON” disappears. Then, if it disappears (step S23: YES), the advance of train 1 from the station is monitored. Then, until the train 1 finishes advancing (step S25: NO), the presence / absence flag on the Braille block is monitored, and when there is an observation unit area 41 of "ON" (step S27: YES), a second alert announcement is made. Control is performed to output from a speaker such as the platform 3 (step S29).
  • step S25: YES when the train 1 has finished advancing (step S25: YES), the end determination is made. Then, until the end of this process (step S31: NO), the process returns to step S3 and the above process is repeated.
  • obstructive objects such as people, wheelchairs, and strollers existing in the gap between the train 1 and the platform 3 and the Braille block 31, and whether or not there are obstructive objects. Can be appropriately determined. Then, when it is determined that an obstructive object exists, it is possible to alert passengers or notify station staff and conductors to notify them, and people, wheelchairs, strollers, etc. come into contact with trains that come into contact with train 1. Accidents can be prevented.
  • a white line which is another example of the linear portion on the platform, is used to obstruct the obstruction on the white line. It can also be configured to determine the presence or absence of an object. In that case, the white line in the captured image (in the image of the observation unit area) may be determined and the non-corresponding portion may be detected.
  • FIG. 12 is a schematic view of the platform 3B in this modified example as viewed from above.
  • a Braille block 31 is installed along the track at the end edge on the track side thereof, and a limit line 35 is drawn along the track further outside the Braille block 31.
  • the position of the limit line 35 is drawn at the limit position where the presence of people, wheelchairs, strollers, etc. is allowed when the train enters or advances into the platform 3B.
  • the limit line 35 which is another example of the linear portion, is determined, and the portion where the contour of the limit line 35 is broken is regarded as an unreasonable portion.
  • the presence or absence of an obstacle on the limit line 35 is determined. According to this, it is possible to detect an obstructive object existing in the vicinity of the orbital side edge outside the Braille block 31.
  • a warning announcement (first warning announcement) is made by detecting an obstructing object on the Braille block 31.
  • a warning announcement second warning announcement or (third warning announcement) or a notification announcement is made upon detecting an obstructive object on the limit line 35. Then, the alert announcement when the train is not on the line and the alert announcement when the train is on the line are made separate, so that the attention is given more strongly than when the train is on the line.
  • the above-described embodiment and modification can be similarly applied to the platform of the station where the platform fence is installed.
  • the platform fence is arranged on the track side edge of the platform to separate the platform from the track side.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Platform Screen Doors And Railroad Systems (AREA)
  • Image Analysis (AREA)

Abstract

駅ホームの安全支援システムにおいて、第1の俯瞰カメラおよび第2の俯瞰カメラは、列車とプラットホームとの隙間に生じる線状陰影の同一の観察部分を撮影するために異なる位置に設置される。そして、処理装置(200)は、第1の俯瞰カメラの第1の撮影画像のうち、観察部分の画像が線状陰影に相当しない第1の画像不相当箇所を検出する第1不相当箇所検出部(241)と、第2の俯瞰カメラの第2の撮影画像のうち、観察部分の画像が線状陰影に相当しない第2の画像不相当箇所を検出する第2不相当箇所検出部(243)と、第1の画像不相当箇所と第2の画像不相当箇所との差異に基づいて、支障物体の存否を判定する存否判定部(245)とを備える。

Description

駅ホームの安全支援システムおよび支障物体判定方法
 本発明は、駅ホームの安全支援システムおよび支障物体判定方法に関する。
 駅ホームでは、駅員や車掌が目視にて列車に接触する事故を防いでいる。具体的には、ホーム上において、列車進入時であればホーム端部から、列車出発時であれば停車中の列車から、人・車いす・ベビーカー等が、一定の離隔を確保した位置にいるかを確認することで列車に接触する事故を防ぐ。一定の離隔が得られていなければ注意喚起のアナウンスを行う。もしも列車とホーム端部との隙間に人・車いす・ベビーカー等が挟まれていた場合には手助けをする。これらの作業は、駅員や車掌が人力で行っている。
 列車に接触する事故を低減する目的のシステムとして、また駅員や車掌の安全支援作業を補完する目的のシステムとして、ホーム柵がある。しかし、ホーム柵はプラットホームの側端ギリギリに設置されることはなく、ホーム柵とホーム側端との間のホーム上には隙間がある。そのため、ホーム柵を設置するだけで列車に接触する事故を完全に防止できるわけではない。
 そのため、駅員や車掌の人的負担を増やすことなく列車に接触する事故を防止することを目的として、カメラによる撮影画像を用いた様々な駅ホームの安全支援システムが提案されている(例えば、特許文献1,2)。
特許第5748468号公報 特開平8-282494号公報
 しかしながら、特許文献1,2を含む従来の手法は、人・車いす・ベビーカー等の支障物体を撮影画像から検出できることを前提としていた。そのため、撮影画像中に異物が写った場合に、誤って人・車いす・ベビーカー等の支障物体であると誤検知してしまうおそれがあった。例えば、新聞紙や、木の葉の集合物等が写った場合がその好例である。
 本発明が解決しようとする課題は、カメラによる撮影画像を用いた駅ホームの安全支援システムとして、支障物体の誤検知を低減する技術を提案すること、である。
 上記課題を解決するための第1の発明は、
 列車とプラットホームとの隙間に生じる線状陰影のうちの同一の観察部分を撮影するために異なる位置に設置された第1の俯瞰カメラおよび第2の俯瞰カメラと、
 前記第1の俯瞰カメラの第1の撮影画像および前記第2の俯瞰カメラの第2の撮影画像に基づいて支障物体の存否を判定する処理装置と、
 を具備した駅ホームの安全支援システムであって、
 前記処理装置は、
  前記第1の撮影画像のうち、前記観察部分の画像が前記線状陰影に相当しない第1の画像不相当箇所を検出する第1の検出部と、
 前記第2の撮影画像のうち、前記観察部分の画像が前記線状陰影に相当しない第2の画像不相当箇所を検出する第2の検出部と、
 前記第1の画像不相当箇所と前記第2の画像不相当箇所との差異に基づいて、前記支障物体の存否を判定する判定部と、
 を備えた、
 安全支援システムである。
 第1の発明によれば、列車とプラットホームとの隙間に生じる線状陰影のうちの同一の観察部分を撮影するために、異なる位置に俯瞰カメラを設置する。そして、各俯瞰カメラの撮影画像から観察部分の画像が線状陰影に相当しない画像不相当箇所をそれぞれ検出し、それらの差異に基づいて支障物体の存否を判定することができる。これによれば、カメラによる撮影画像を用いて支障物体の誤検知を低減ですることが可能となり、駅における列車に接触する事故の防止を図ることができる。
 第2の発明は、
 プラットホームの側縁部に線路に沿って描かれる或いは設けられた線状部のうちの同一の観察部分を撮影するために異なる位置に設置された第1の俯瞰カメラおよび第2の俯瞰カメラと、
 前記第1の俯瞰カメラの第1の撮影画像および前記第2の俯瞰カメラの第2の撮影画像に基づいて支障物体の存否を判定する処理装置と、
 を具備した駅ホームの安全支援システムであって、
 前記処理装置は、
  前記第1の撮影画像のうち、前記観察部分の画像が前記線状部に相当しない第1の画像不相当箇所を検出する第1の検出部と、
  前記第2の撮影画像のうち、前記観察部分の画像が前記線状部に相当しない第2の画像不相当箇所を検出する第2の検出部と、
  前記第1の画像不相当箇所と前記第2の画像不相当箇所との差異に基づいて、前記支障物体の存否を判定する判定部と、
 を備えた、
 安全支援システムである。
 第2の発明によれば、プラットホームの側縁部に線路に沿って描かれる或いは設けられた線状部のうちの同一の観察部分を撮影するために、異なる位置に俯瞰カメラを設置する。そして、各俯瞰カメラの撮影画像から観察部分の画像が線状部に相当しない箇所をそれぞれ検出し、それらの差異に基づいて支障物体の存否を判定することができる。これによれば、カメラによる撮影画像を用いて支障物体の誤検知を低減ですることが可能となり、駅における列車に接触する事故の防止を図ることができる。
 第3の発明は、第2の発明において、
 前記線状部は、所定色の線、或いは、点字ブロック、である、
 安全支援システムである。
 第3の発明によれば、線路に沿ってプラットホームに描かれる或いは設けられた所定色の線、或いは点字ブロックを、線状部とすることができる。
 第4の発明は、第1~第3の何れかの発明において、
 前記判定部は、前記観察部分のうちの前記第1の画像不相当箇所の位置と、前記観察部分のうちの前記第2の画像不相当箇所の位置と、の位置のズレが所定の位置ズレ条件を満たす場合に前記支障物体が存在すると判定する、
 安全支援システムである。
 第4の発明によれば、各俯瞰カメラから見た画像不相当箇所のそれぞれに対応する観察部分の部位の位置ズレをもとに、支障物体の存否を判定することができる。
 第5の発明は、
 第1の俯瞰カメラの第1の撮影画像および第2の俯瞰カメラの第2の撮影画像に基づいて支障物体の存否を判定する支障物体判定方法であって、
 前記第1の俯瞰カメラおよび前記第2の俯瞰カメラは、列車とプラットホームとの隙間に生じる線状陰影のうちの同一の観察部分を異なる位置で撮影するように設置され、
 前記第1の撮影画像のうち、前記観察部分の画像が前記線状陰影に相当しない第1の画像不相当箇所を検出する第1の検出ステップと、
 前記第2の撮影画像のうち、前記観察部分の画像が前記線状陰影に相当しない第2の画像不相当箇所を検出する第2の検出ステップと、
 前記第1の画像不相当箇所と前記第2の画像不相当箇所との差異に基づいて、前記支障物体の存否を判定する判定ステップと、
 を含む支障物体判定方法である。
 第5の発明によれば、第1の発明と同様の作用効果を奏する支障物体判定方法を実現することができる。
 第6の発明は、
 第1の俯瞰カメラの第1の撮影画像および第2の俯瞰カメラの第2の撮影画像に基づいて支障物体の存否を判定する支障物体判定方法であって、
 前記第1の俯瞰カメラおよび前記第2の俯瞰カメラは、プラットホームの側縁部に線路に沿って描かれる或いは設けられた線状部のうちの同一の観察部分を異なる位置で撮影するように設置され、
 前記第1の撮影画像のうち、前記観察部分の画像が前記線状部に相当しない第1の画像不相当箇所を検出する第1の検出ステップと、
 前記第2の撮影画像のうち、前記観察部分の画像が前記線状部に相当しない第2の画像不相当箇所を検出する第2の検出ステップと、
 前記第1の画像不相当箇所と前記第2の画像不相当箇所との差異に基づいて、前記支障物体の存否を判定する判定ステップと、
 を含む支障物体判定方法である。
 第6の発明によれば、第2の発明と同様の作用効果を奏する支障物体判定方法を実現することができる。
駅ホームの安全支援システムの全体構成例を示す図。 安全支援システムが設置された駅に停止した列車の先頭車両を進行方向前方側から見た概略図。 列車が停止した駅を上から見た概略図。 各俯瞰カメラの設置位置と観察部分との関係を説明するための図。 支障物体判定処理を説明する図。 支障物体判定処理を説明する他の図。 支障物体判定処理を説明する他の図。 処理装置の機能構成例を示すブロック図。 支援物体検知データのデータ構成例を示す図。 処理装置の処理の流れを示すフローチャート。 支障物体判定処理の流れを示すフローチャート。 変形例におけるプラットホームを上から見た概略図。
 以下、図面を参照して、本発明の好適な実施形態について説明する。なお、以下説明する実施形態によって本発明が限定されるものではなく、本発明を適用可能な形態が以下の実施形態に限定されるものでもない。また、図面の記載において、同一部分には同一の符号を付す。
[全体構成]
 図1は、本実施形態における駅ホームの安全支援システム2の全体構成例を示す図である。図1では、駅に停止した状態の列車1の概形を併せて示している。また、図2は、当該駅に停止した列車1の先頭車両を進行方向前方側から見た概略図であり、図3は、当該駅を上から見た概略図である。
 ここで、図3に示すように、プラットホーム3の長手方向をx方向、プラットホーム3の短手方向をy方向と定義する。プラットホーム3には、x方向である線路に沿った方向において、軌道側端縁(プラットホーム3の側縁部)に線状部の一例である点字ブロック31が敷設されている。点字ブロック31には、その視認性を確保するため、周囲の路面との輝度比の高い色のものが用いられる。
 そして、本実施形態の安全支援システム2は、設置駅において対象のプラットホーム3(より詳細には番線)毎に設けられる。安全支援システム2は、図1に示すように、複数の俯瞰カメラ20と、処理装置200と、を具備する。
 複数の俯瞰カメラ20は、プラットホーム3の上方において、停止した列車1を見下ろす俯瞰位置に設置される。各俯瞰カメラ20の設置態様は特に限定されないが、例えば、図2において1つの俯瞰カメラ20について示すように、プラットホーム3の天井部分に撮影方向を下に向けて設置される。勿論、プラットホーム3の支柱に設ける等の他の設置態様とした構成でもよい。
 ここで、レールR上を走行する列車1がプラットホーム3に進入すると、列車1の車体側面とプラットホーム3の端縁との間の隙間部分に特徴的な影が生じる。この影を線状陰影という。各俯瞰カメラ20は、当該隙間に生じる線状陰影33の全域と、プラットホーム3上の点字ブロック31の全域と、が少なくとも2つの俯瞰カメラ20によって部分的に重複して撮影されるように設置される。図4は、各俯瞰カメラ20の設置位置と観察部分との関係を説明するための図であり、列車1の側面をプラットホーム3側から見た概略図を上段(1)に示し、列車1およびプラットホーム3を上から見た概略図を下段(2)に示している。
 本実施形態では、図4(2)に示すように、線状陰影33の全域と点字ブロック31の全域とを含む観察エリア40が複数の観察単位領域41に区画され、各観察単位領域41のそれぞれが、異なる位置に設置された2つの俯瞰カメラ20の観察部分とされる。そして、各俯瞰カメラ20は、その撮影範囲に自分の観察部分が含まれるように設置される。
 例えば、図4の例では、各俯瞰カメラ20は、直下の観察単位領域41とその両隣の観察単位領域41の3つが撮影範囲内となるように、x方向に沿って等間隔で設置される。そして、撮影範囲内とされた3つのうちの両端の2つの観察単位領域41が、その俯瞰カメラ20の観察部分とされる。これにより、線状陰影33および点字ブロック31の全域を、観察単位領域41毎に2つの俯瞰カメラ20で重複して撮影することができる。またその際に、各俯瞰カメラ20は、その観察部分である2つの観察単位領域41をそれぞれ斜め上方から撮影することができる。したがって、観察単位領域41毎に、当該観察単位領域41を図4に向かって左斜め上方から撮影した画像と、右斜め上方から撮影した画像とが得られる。
 観察単位領域41cでいえば、俯瞰カメラ20aおよび俯瞰カメラ20bの観察部分とされ、その一方の俯瞰カメラ(第1の俯瞰カメラ)20aによって左斜め上方から撮影されるとともに、他方の俯瞰カメラ(第2の俯瞰カメラ)20bによって右斜め上方から撮影される。
 また、本実施形態では、後述する位置ズレ判定処理において各俯瞰カメラ20で撮影された撮影画像内の位置(画像座標系(X,Y)のX値;図5(1)、図7(1)等を参照)を、そこに写るプラットホーム3上の位置(プラットホーム3の軌道側端縁に沿ったx位置)に変換できるように、俯瞰カメラ20毎にそれらの対応関係を定めたホーム位置換算テーブル253(図8を参照)が予め用意される。
 そして、処理装置200は、各俯瞰カメラ20の撮影画像に基づいて、支障物体の存否を判定する支障物体判定処理を行う。
[支障物体判定処理について]
 列車1とプラットホーム3との隙間部分に何らかの物体が存在する場合として、人・車いす・ベビーカー等が当該隙間部分に挟まった場合が考えられる。その場合は、そのまま列車が発車してしまうことのないように駅員等が適宜必要な救助や手助けを行い、列車に接触する事故を防止する。
 また、人・車いす・ベビーカー等が隙間部分に挟まっていなくても、それらと列車1との間で一定の離隔が得られていないときには、列車に接触する事故防止のための注意喚起のアナウンスを行う。本実施形態では、点字ブロック31上に物体が存在する場合に、注意喚起アナウンスをする。
 しかし、列車1とプラットホーム3との隙間部分や点字ブロック31上に物体が存在するからといって、それが人・車いす・ベビーカー等とは限らず、例えば、新聞紙や木の葉の集合物等の場合もある。そのため、隙間部分等に存在する物体が人等の物体(列車に接触する事故防止のために何らかの措置が必要な物体;支障物体)であるのか、それ以外の新聞紙等の物体なのかの判別が重要となる。
 そこで、支障物体判定処理では、各観察単位領域41を順次対象領域とし、対象領域を観察部分とする第1の俯瞰カメラ20aの第1の撮影画像と、第2の俯瞰カメラ20bの第2の撮影画像とに基づいて、対象領域における支障物体の存否を判定する処理をフレーム毎(所定の単位時間毎)に繰り返す。例えば、図4の観察単位領域41cに着目すると、第1の俯瞰カメラ20aの第1の撮影画像と、第2の俯瞰カメラ20bの第2の撮影画像とから、観察単位領域41に支障物体が存在するか否かの判定を行う。
 ここで、図4では、観察単位領域41c内の列車1とプラットホーム3との隙間部分に人51が存在する場合を示している。図5は、その場合の支障物体判定処理を説明する図である。第1の俯瞰カメラ20aの第1の撮影画像例を図5の上段(1)に、第2の俯瞰カメラ20bの第2の撮影画像例を図5の下段(3)にそれぞれ示すとともに、図5の中段(2)において、プラットホーム3上の観察単位領域41cの概略図を示している。
 また、図6は、同じ観察単位領域41cにおいて新聞紙53が存在する場合を示す図である。そして、図7は、その場合の支障物体判定処理を説明する図である。図7は、第1の俯瞰カメラ20aの第1の撮影画像例(1)と、観察単位領域41cの概略図(2)と、第2の俯瞰カメラ20bの第2の撮影画像例(3)とを示している。
 以下、線状陰影33に着目して支障物体判定処理を説明するが、点字ブロック31上の支障物体の存否についても同様の要領で判定することができる。
 列車1とプラットホーム3との隙間部分に何らかの物体が存在すると、撮影画像において線状陰影33上にその物体が重なって写るため、線状陰影33が部分的に欠けたり、或いは部分的に太くなって輪郭形状が崩れる。例えば、図5(1)に示す第1の撮影画像や図5(3)に示す第2の撮影画像には、その観察単位領域41cの画像61,63内において列車1とプラットホーム3との隙間部分に存在する人51が線状陰影33に重なるため、その部分は線状陰影33に相当しない不相当箇所611,631として写る。図7(1)に示す第1の撮影画像や図7(3)に示す第2の撮影画像も同様に、列車1とプラットホーム3の隙間部分に存在する新聞紙53が線状陰影33に重なるため、その部分は線状陰影33に相当しない不相当箇所651,671として写る。
 しかし、支障物体となり得る人・車いす・ベビーカー等の物体は、何れもある程度の高さがある。そして、本実施形態では、第1の俯瞰カメラ20aと第2の俯瞰カメラ20bとは、同じ観察部分である観察単位領域41(例えば観察単位領域41c)を図に向かって左右両側の斜め上方から撮影する。そのため、左斜め上方から観察単位領域41cを撮影した第1の撮影画像(図5(1))では、人51の存在によってそれより右側の線状陰影33の部分が遮られて不相当箇所611となる。逆に、右斜め上方から観察単位領域41cを撮影した第2の撮影画像(図5(3))では、人51の存在によってそれより左側の線状陰影33の部分が遮られ、不相当箇所631となる。
 したがって、画像61中の不相当箇所(第1の画像不相当箇所)611と、画像63中の不相当箇所(第2の画像不相当箇所)631とをそれぞれプラットホーム3上の位置に変換すると、両者に位置ズレが生じる。具体的には、図5(2)に示すように、第1の画像不相当箇所611に対応する観察単位領域41c内の部位711と、第2の画像不相当箇所631に対応する観察単位領域41c内の部位713とは位置がずれる。
 一方、支障物体とはならない新聞紙や木の葉の集合物等の物体は、支障物体と比べて高さがほとんどない。そのため、図7(1)に示す第1の撮影画像における観察単位領域41cの画像65内の不相当箇所(第1の画像不相当箇所)651と、図7(3)に示す第2の撮影画像における観察単位領域41cの画像67内の不相当箇所(第2の画像不相当箇所)671とをそれぞれプラットホーム3上の位置に変換しても、位置ズレは無い或いは小さい。具体的には、図7(2)に示すように、第1の画像不相当箇所651に対応する観察単位領域41c内の部位731と、第2の画像不相当箇所671に対応する観察単位領域41c内の部位733とは概ね一致する。
 したがって、両者の位置ズレ量(例えば図5(2)のA1)を求めることで、第1の画像不相当箇所および第2の画像不相当箇所が支障物体によるものなのかどうかを判別することができる。なお、図5では、各部位711,713の左端間の距離を位置ズレ量A1として示しているが、各部位711,713の中心間の距離を求めて位置ズレ量としてもよいし、右端間の距離を位置ズレ量としてもよい。例えば、「求めた位置ズレ量が予め定められる閾値を超えていること」を所定の位置ズレ条件として判定し、位置ズレ条件を満たす場合には、支障物体が存在すると判定する。閾値は、検出を希望する立体物の高さに基づいて設定することができる。これによれば、列車1とプラットホーム3との隙間部分や点字ブロック31上に存在する人・車いす・ベビーカー等の支障物体の誤検知を低減することが可能となる。
[報知制御処理について]
 以上説明した支障物体判定処理において支障物体が存在すると判定した場合には、その旨をプラットホーム3にいる乗客や駅員、車掌等に報知するための報知制御処理を行う。報知の態様は特に限定されないが、例えば、適所に設置されたスピーカーから所定のアナウンス音声を出力させることで実現できる。
 本実施形態では、線状陰影33上の支障物体を検知したのか(線状陰影33上に支障物体が存在すると判定したのか)、点字ブロック31上の支障物体を検知したのか(点字ブロック31上に支障物体が存在すると判定したのか)に応じたアナウンスを行う。より詳細には、例えば、駅に列車1が在線していないときには、点字ブロック31上の支障物体の検知を受けてプラットホーム3にいる乗客向けに注意喚起のアナウンス(以下「第1注意喚起アナウンス」という)をする。予め用意しておいたアナウンス音声をプラットホーム3等に設置されたスピーカーから音声出力させるための制御を行うことで実現できる。
 一方、列車1が在線しており列車1のドアが開く前に線状陰影33上の支障物体が検知された場合には、乗客向けの注意喚起アナウンス(以下「第2注意喚起アナウンス」という)を行う。この第2注意喚起アナウンスと、上記した第1注意喚起アナウンスとは異なる内容のアナウンスとするとよい。列車1が在線しているときの方が列車に接触する事故に対して、より注意すべきだからである。
 加えて、列車1が在線している出発前のタイミングで線状陰影33上の支障物体が検知された場合には、乗客向けの注意喚起アナウンス(以下「第3注意喚起アナウンス」という)を行うとともに、駅員や車掌向けのアナウンス(以下「通報アナウンス」という)も適宜行う。具体的には、乗客の乗り降りが終了した後に線状陰影33上で支障物体が検知されたことを受けて第3注意喚起アナウンスを行う。そして、その後所定時間が経過しても支障物体が検知されたままであれば、通報アナウンスを行う。その場合は、支障物体が存在すると判定された観察単位領域41の位置を併せて通知するとよい。駅員等が救助等に向かう場合の助けとなるからである。本実施形態では、線状陰影33上の支障物体の有無を検知するタイミングは、列車1のドア閉め直後とする。列車1のドアが閉まったか否かは、例えば、列車1においてドア閉めが行われた旨の信号を処理装置200が外部から受信することとしたり、ドア閉めの完了を検出する別途の装置からドア閉めが行われた旨の信号を処理装置200が受信することで判定できる。
 なお、アナウンス自体は、駅員等が行う構成でもよい。その場合は、駅員等に向けて、警告音の音出力やメッセージの表示出力等によって報知を行うこととしてもよい。
[機能構成]
 図8は、処理装置200の機能構成例を示すブロック図である。図8に示すように、処理装置200は、操作部210と、表示部220と、通信部230と、制御部240と、記憶部250とを備え、一種のコンピュータとして構成することができる。
 操作部210は、プッシュスイッチやダイヤル等を有して構成され、表示部220は、LEDや小型の液晶表示装置等を有して構成される。操作部210および表示部220は、主に作業員によってメンテナンス時に利用されるものである。
 通信部230は、例えば無線通信モジュールやルータ、モデム、TA、有線用の通信ケーブルのジャックや制御回路等で実現される有線或いは無線の通信装置であり、外部装置(例えば俯瞰カメラ20)との間で通信を行う。この通信部230を介して各俯瞰カメラ20からフレーム毎に入力される撮影画像が、撮影画像データ255として記憶部250に格納される。
 制御部240は、例えばCPU(Central Processing Unit)やDSP(Digital Signal Processor)等のプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等の電子部品によって実現され、装置各部との間でデータの入出力制御を行う。そして、所定のプログラムやデータ、通信部230を介して入力されたデータ等に基づいて各種の演算処理を行い、処理装置200の動作を制御する。この制御部240は、第1不相当箇所検出部241と、第2不相当箇所検出部243と、存否判定部245と、報知制御部247とを含む。これらの機能部は、プログラムを実行することによりソフトウェアとして実現される処理ブロックであってもよいし、ASICやFPGA等のハードウェア回路によって実現される回路ブロックであってもよい。本実施形態では、制御部240が駅ホーム安全支援プログラム251を実行することによりソフトウェアとして実現される処理ブロックとして説明する。
 第1不相当箇所検出部241は、対象領域を観察部分とする第1の俯瞰カメラ20aの第1の撮影画像に基づいて、対象領域の画像が線状陰影に相当しない箇所を第1の画像不相当箇所として検出する。本実施形態では、第1不相当箇所検出処理を行い、後述する第1線状陰影不相当箇所および第1点字ブロック不相当箇所を第1の画像不相当箇所として検出する。
 第2不相当箇所検出部243は、対象領域を観察部分とする第2の俯瞰カメラ20bの第2の撮影画像に基づいて、対象領域の画像が線状陰影に相当しない箇所を第2の画像不相当箇所として検出する。本実施形態では、第2不相当箇所検出処理を行い、後述する第2線状陰影不相当箇所および第2点字ブロック不相当箇所を第2の画像不相当箇所として検出する。
 存否判定部245は、第1画像不相当箇所と、第2画像不相当箇所との差異に基づいて、対象領域における支障物体の存否を判定する。本実施形態では、フレーム毎に位置ズレ判定処理を行って第1の画像不相当箇所と第2の画像不相当箇所とをプラットホーム3上の位置(x位置)に変換し、それらの位置ズレ量が位置ズレ条件を満たす場合に、対象領域において支障物体が存在すると判定する。
 報知制御部247は、報知制御処理を行う機能部であり、存否判定部245によって線状陰影33上や点字ブロック31上に支障物体が存在すると判定された場合に、乗客や駅員、車掌等に対するアナウンスを外部の音出力装置(プラットホーム3等に設置されたスピーカー)から出力させるための制御を行う。
 記憶部250は、ICメモリやハードディスク、光学ディスク等の記憶媒体により実現される。この記憶部250には、処理装置200を動作させ、処理装置200が備える種々の機能を実現するためのプログラムや、当該プログラムの実行中に使用されるデータ等が予め記憶され、或いは処理の都度一時的に記憶される。例えば、記憶部250には、駅ホーム安全支援プログラム251と、ホーム位置換算テーブル253と、撮影画像データ255と、支障物体検知データ257とが格納される。また、その他にも、注意喚起アナウンスや通報アナウンスの音声データ等を格納する。
 駅ホーム安全支援プログラム251は、制御部240を、第1不相当箇所検出部241、第2不相当箇所検出部243、存否判定部245、および報知制御部247として機能させて、駅ホーム安全支援処理を実行するためのプログラムである。
 ホーム位置換算テーブル253は、各俯瞰カメラ20を識別するための俯瞰カメラ番号と対応付ける等して、俯瞰カメラ20毎に用意される。そして、1つのホーム位置換算テーブル253は、該当する俯瞰カメラ20によって撮影される撮影画像のX値と、そこに写るプラットホーム3上のx位置との対応関係を格納する。
 支障物体検知データ257は、各観察単位領域41についてフレーム毎に判定される支障物体の存否に関するデータを格納する。この支障物体検知データ257は、存否判定部245によってフレーム毎に生成され、蓄積されていく。
 具体的には、図9に示すように、1つの支障物体検知データ257には、各観察単位領域41を識別するための観察単位領域番号と対応付けて、線状陰影上存否フラグ(ON:存在する/OFF:存在しない)と、点字ブロック上存否フラグ(ON:存在する/OFF:存在しない)とが設定される。存否判定部245によって線状陰影33上に支障物体が存在すると判定された観察単位領域41があれば、その観察単位領域番号に対応する線状陰影上存否フラグが「ON」とされる。同様に、点字ブロック31上に支障物体が存在すると判定された観察単位領域41があるときには、その観察単位領域番号に対応する点字ブロック上存否フラグが「ON」とされる。
[処理の流れ]
 図10は、処理装置200が行う駅ホーム安全支援処理の流れを示すフローチャートである。ここで説明する処理は、処理装置200において、制御部240が記憶部250から駅ホーム安全支援プログラム251を読み出して実行することで実現できる。
 図10に示すように、駅ホーム安全支援処理では先ず、制御部240が支障物体判定処理を開始する(ステップS1)。図11は、支障物体判定処理の流れを示すフローチャートである。
 図11に示すように、支障物体判定処理では、各観察単位領域41を順次対象領域として、ループAの処理を実行する(ステップS101~ステップS115)。
 ループAでは、第1不相当箇所検出部241が、第1の撮影画像のうちの対象領域の画像(以下「第1対象領域画像」という)から、第1の画像不相当箇所を検出する(第1不相当箇所検出処理;ステップS103)。
 具体的な手順としては先ず、第1対象領域画像内の線状陰影33と点字ブロック31とを判定する。線状陰影33の判定は、例えば、第1対象領域画像から暗色部分(所定の暗色輝度条件を満たす輝度値の画素)を抽出し、抽出した暗色部分のなかから一定幅で且つ直線状の輪郭形状を成す暗色部分が存在するかを判定する方法を採用することができる。また、所定幅で且つ直線状の暗色部分画像を第1対象領域画像のなかから検出するパターンマッチングの手法を採用することとしてもよい。点字ブロック31の判定についても同様であり、例えば、第1対象領域画像から明色部分(所定の明色輝度条件を満たす輝度値の画素)を抽出し、抽出した明色部分のなかから一定幅で且つ直線状の輪郭形状を成す明色部分が存在するかを判定する方法を採用することができる。また、所定幅で且つ直線状の明色部分画像を第1対象領域画像のなかから検出するパターンマッチングの手法を採用することとしてもよい。
 次に、第1不相当箇所検出部241が、第1の画像不相当箇所として、線状陰影33に係る画像不相当箇所(以下「第1線状陰影不相当箇所」という)と、点字ブロック31に係る画像不相当箇所(以下「第1点字ブロック不相当箇所」という)とを検出する。具体的には、判定した線状陰影33について上記したように輪郭が崩れている箇所を第1線状陰影不相当箇所として検出するとともに、判定した点字ブロック31について輪郭が崩れている箇所を、第1点字ブロック不相当箇所として検出する。
 続いて、第2不相当箇所検出部243が、第2の撮影画像のうちの対象領域の画像(以下「第2対象領域画像」という)から、第2の画像不相当箇所を検出する(第2不相当箇所検出処理;ステップS105)。
 手順としては、第1不相当箇所検出処理と同様の要領で、第2対象領域画像の画像から線状陰影33に係る画像不相当箇所(以下「第2線状陰影不相当箇所」という)と、点字ブロック31に係る画像不相当箇所(以下「第2点字ブロック不相当箇所」という)と、を第2の画像不相当箇所として検出する。
 第2不相当箇所検出処理を終えたならば、制御部240は、対応する第1の画像不相当箇所と第2の画像不相当箇所との組が検出されたか否かを判定する(ステップS107)。すなわち、第1不相当箇所検出処理によって第1線状陰影不相当箇所が検出され、且つ、第2不相当箇所検出処理によって対応する第2線状陰影不相当箇所が検出された場合や、第1不相当箇所検出処理によって第1点字ブロック不相当箇所が検出され、且つ第2不相当箇所検出処理によって対応する第2点字ブロック不相当箇所が検出された場合にステップS107を肯定判定し(S107:YES)、ステップS109に移行して位置ズレ判定処理を行う。
 そして、位置ズレ判定処理では先ず、存否判定部245が、ステップS103およびステップS105で検出された第1の画像不相当箇所と第2の画像不相当箇所との組毎に、位置ズレ量を求める(ステップS109)。例えば、第1の俯瞰カメラ20aに係るホーム位置換算テーブル253を用いて第1の画像不相当箇所のX位置をプラットホーム3上のx位置に変換する。また、第2の俯瞰カメラ20bに係るホーム位置換算テーブル253を用いて第2の画像不相当箇所のX位置をプラットホーム3上のx位置に変換する。そして、両者の差を位置ズレ量として求める。
 そして、求めた位置ズレ量が位置ズレ条件を満たす第1の画像不相当箇所と第2の画像不相当箇所との組があれば(ステップS111:YES)、存否判定部245は、そこに支障物体が存在すると判定する(ステップS113)。すなわち、当該組が第1線状陰影不相当箇所と第2線状陰影不相当箇所の組であれば、対象領域において列車1とプラットホーム3との隙間部分に支障物体が存在すると判定する。また、当該組が第1点字ブロック不相当箇所と第2点字ブロック不相当箇所の組であれば、対象領域において点字ブロック31上に支障物体が存在すると判定する。
 そして、全ての対象領域についてループAの処理を行ったならば、存否判定部245は、線状陰影上存否フラグと点字ブロック上存否フラグとを観察単位領域41毎に設定した支障物体検知データ257を生成する(ステップS117)。
 その後は、終了判定を行い、本処理を終了するまでの間は(ステップS119;NO)、ステップS101に戻って上記した処理を繰り返す。
 図10に戻る。支障物体判定処理を開始したならば、続いて、報知制御部247が、駅(対象のプラットホーム3)に列車1が在線しているか否かに応じて処理を分岐する。当該プラットホーム3の当該番線に列車1が在線していることが検知された場合(列車1が駅に進入してから進出するまでの間)は(ステップS3:YES)、ステップS9に移行する。一方、列車1の非在線時は(ステップS3:NO)、ステップS5に移行する。
 そして、ステップS5では、そのときの最新の支障物体検知データ257を参照し、点字ブロック上存否フラグが「ON」の観察単位領域41があれば(ステップS5:YES)、報知制御部247が第1注意喚起アナウンスをプラットホーム3等のスピーカーから出力させるための制御を行う(ステップS7)。なお、点字ブロック31上の支障物体の数が予め設定される所定数以上である場合に第1注意喚起アナウンスの出力制御を行うこととしてもよい。
 また、ステップS9では、制御部240が、プラットホーム3に在線している列車1のドアが開いたか否かを判定し、開いていなければ(ステップS9:NO)、ステップS11に移行する。ドアが開いたか否かの判定は、外部から受信した信号を用いて行う。例えば、列車1においてドア開けが行われた旨の信号を処理装置200が外部から受信することとしたり、ドア開けの完了を検出する別途の装置からドア開けが行われた旨の信号を処理装置200が受信することとしてもよい。そして、そのときの最新の支障物体検知データ257を参照して、線状陰影上存否フラグが「ON」の観察単位領域41があれば(ステップS11:YES)、報知制御部247が第2注意喚起アナウンスをプラットホーム3等のスピーカーから出力させるための制御を行う(ステップS13)。
 一方、列車1のドアが開いた後は(ステップS9:YES)、プラットホーム3に在線している列車1のドアが閉まるまで待機状態となる(ステップS14:NO)。ドアが閉まったか否かの判定は、ドアが開いたか否かの判定と同様に、外部から受信した信号を用いて行うことができる。例えば、列車1においてドア閉めが行われた旨の信号を処理装置200が外部から受信することとしたり、ドア閉めの完了を検出する別途の装置からドア閉めが行われた旨の信号を処理装置200が受信することとしてもよい。
 そして、列車1のドアが閉まった場合には(ステップ14:YES)、そのときの最新の支障物体検知データ257を参照し、線状陰影上存否フラグが「ON」の観察単位領域41があれば(ステップS15:YES)、報知制御部247が第3注意喚起アナウンスをプラットホーム3等のスピーカーから出力させるための制御を行う(ステップS17)。この場合は、所定時間の経過後、再度そのときの最新の支障物体検知データ257を参照して支障物体の存否判定の結果を確認する。そして、線状陰影上存否フラグが「ON」の観察単位領域41があれば(ステップS19:YES)、通報アナウンスをプラットホーム3等のスピーカーから出力させるための制御を行う(ステップS21)。
 その後は、制御部240は、線状陰影上存否フラグが「ON」の観察単位領域41がなくなるまで待機する。そして、なくなったならば(ステップS23:YES)、駅からの列車1の進出を監視する。そして、列車1が進出し終えるまでは(ステップS25:NO)、点字ブロック上存否フラグを監視し、「ON」の観察単位領域41があるときには(ステップS27:YES)、第2注意喚起アナウンスをプラットホーム3等のスピーカーから出力させるための制御を行う(ステップS29)。
 そして、列車1が進出し終えた場合には(ステップS25:YES)、終了判定を行う。そして、本処理を終了するまでの間は(ステップS31:NO)、ステップS3に戻って上記した処理を繰り返す。
 以上説明したように、本実施形態によれば、列車1とプラットホーム3との隙間部分や点字ブロック31上に存在する人・車いす・ベビーカー等の支障物体の誤検知を低減でき、支障物体の存否を適切に判定することが可能となる。そして、支障物体が存在すると判定した場合には、乗客に注意喚起をし、或いは駅員や車掌に通報して報知することができ、人・車いす・ベビーカー等が列車1と接触する列車に接触する事故の防止が図れる。
 なお、本発明を適用可能な形態は上記した実施形態に限定されるものではなく、適宜構成要素の追加・省略・変更を施すことができる。
 例えば、上記実施形態では、点字ブロック上の支障物体の存否を判定する場合を例示したが、点字ブロックに替えてプラットホーム上の線状部の他の例である白線を利用し、白線上の支障物体の存否を判定する構成とすることもできる。その場合は、撮影画像中(観察単位領域の画像中)の白線を判定し、その不相当箇所を検出すればよい。
 或いは、検出用のライン(以下「限界ライン」という)を別途プラットホームに付しておくとしてもよい。図12は、本変形例におけるプラットホーム3Bを上から見た概略図である。図12に示すように、プラットホーム3Bには、その軌道側端縁において線路に沿って点字ブロック31が設置されるとともに、点字ブロック31よりもさらに外側に線路に沿って限界ライン35が描かれる。この限界ライン35の位置は、プラットホーム3Bへの列車の進入時や進出時において人・車いす・ベビーカー等の存在が許容される限界の位置に描かれる。
 そして、本変形例では、上記実施形態で説明した線状陰影にかえて線状部の他の例である限界ライン35を判定し、当該限界ライン35の輪郭が崩れた個所を不相当箇所として検出することで、限界ライン35上の支障物の存否を判定する。これによれば、点字ブロック31より外側の軌道側端縁の近傍に存在する支障物体を検知できる。
 また、本変形例の報知制御処理では、列車の非在線時は点字ブロック31上の支障物体の検知を受けて注意喚起アナウンス(第1注意喚起アナウンス)を行う。一方、列車の在線時は、限界ライン35上の支障物体の検知を受けて注意喚起アナウンス(第2注意喚起アナウンスや(第3注意喚起アナウンス))や通報アナウンスを行う。そして、列車の非在線時における注意喚起アナウンスと、列車の在線時における注意喚起アナウンスとを別個のものとし、列車の在線時より強く注意を促すようにする。
 また、上記実施形態および変形例は、ホーム柵が設置された駅のプラットホームに対しても同様に適用が可能である。ホーム柵は、プラットホームの軌道側端縁に配置されてプラットホーム上を軌道側と仕切るものであるが、上記した実施形態や変形例で例示した安全支援システム2を設置することにより、列車とホーム柵との間に入り込んだ人・車いす・ベビーカー等の検知が可能となる。したがって、上記実施形態と同様に、列車に接触する事故の防止を図ることができる。
 1 列車、2 安全支援システム、20 俯瞰カメラ、20a 第1の俯瞰カメラ、20b 第2の俯瞰カメラ、200 処理装置、240 制御部、241 第1不相当箇所検出部、243 第2不相当箇所検出部、245 存否判定部、247 報知制御部、250 記憶部、251 駅ホーム安全支援プログラム、253 ホーム位置換算テーブル、255 撮影画像データ、257 支障物体検知データ、3 プラットホーム、31 点字ブロック、41 観察単位領域、35 限界ライン

Claims (6)

  1.  列車とプラットホームとの隙間に生じる線状陰影のうちの同一の観察部分を撮影するために異なる位置に設置された第1の俯瞰カメラおよび第2の俯瞰カメラと、
     前記第1の俯瞰カメラの第1の撮影画像および前記第2の俯瞰カメラの第2の撮影画像に基づいて支障物体の存否を判定する処理装置と、
     を具備した駅ホームの安全支援システムであって、
     前記処理装置は、
      前記第1の撮影画像のうち、前記観察部分の画像が前記線状陰影に相当しない第1の画像不相当箇所を検出する第1の検出部と、
      前記第2の撮影画像のうち、前記観察部分の画像が前記線状陰影に相当しない第2の画像不相当箇所を検出する第2の検出部と、
      前記第1の画像不相当箇所と前記第2の画像不相当箇所との差異に基づいて、前記支障物体の存否を判定する判定部と、
     を備えた、
     安全支援システム。
  2.  プラットホームの側縁部に線路に沿って描かれる或いは設けられた線状部のうちの同一の観察部分を撮影するために異なる位置に設置された第1の俯瞰カメラおよび第2の俯瞰カメラと、
     前記第1の俯瞰カメラの第1の撮影画像および前記第2の俯瞰カメラの第2の撮影画像に基づいて支障物体の存否を判定する処理装置と、
     を具備した駅ホームの安全支援システムであって、
     前記処理装置は、
      前記第1の撮影画像のうち、前記観察部分の画像が前記線状部に相当しない第1の画像不相当箇所を検出する第1の検出部と、
      前記第2の撮影画像のうち、前記観察部分の画像が前記線状部に相当しない第2の画像不相当箇所を検出する第2の検出部と、
      前記第1の画像不相当箇所と前記第2の画像不相当箇所との差異に基づいて、前記支障物体の存否を判定する判定部と、
     を備えた、
     安全支援システム。
  3.  前記線状部は、所定色の線、或いは、点字ブロック、である、
     請求項2に記載の安全支援システム。
  4.  前記判定部は、前記観察部分のうちの前記第1の画像不相当箇所の位置と、前記観察部分のうちの前記第2の画像不相当箇所の位置と、の位置のズレが所定の位置ズレ条件を満たす場合に前記支障物体が存在すると判定する、
     請求項1~3の何れか一項に記載の安全支援システム。
  5.  第1の俯瞰カメラの第1の撮影画像および第2の俯瞰カメラの第2の撮影画像に基づいて支障物体の存否を判定する支障物体判定方法であって、
     前記第1の俯瞰カメラおよび前記第2の俯瞰カメラは、列車とプラットホームとの隙間に生じる線状陰影のうちの同一の観察部分を異なる位置で撮影するように設置され、
     前記第1の撮影画像のうち、前記観察部分の画像が前記線状陰影に相当しない第1の画像不相当箇所を検出する第1の検出ステップと、
     前記第2の撮影画像のうち、前記観察部分の画像が前記線状陰影に相当しない第2の画像不相当箇所を検出する第2の検出ステップと、
     前記第1の画像不相当箇所と前記第2の画像不相当箇所との差異に基づいて、前記支障物体の存否を判定する判定ステップと、
     を含む支障物体判定方法。
  6.  第1の俯瞰カメラの第1の撮影画像および第2の俯瞰カメラの第2の撮影画像に基づいて支障物体の存否を判定する支障物体判定方法であって、
     前記第1の俯瞰カメラおよび前記第2の俯瞰カメラは、プラットホームの側縁部に線路に沿って描かれる或いは設けられた線状部のうちの同一の観察部分を異なる位置で撮影するように設置され、
     前記第1の撮影画像のうち、前記観察部分の画像が前記線状部に相当しない第1の画像不相当箇所を検出する第1の検出ステップと、
     前記第2の撮影画像のうち、前記観察部分の画像が前記線状部に相当しない第2の画像不相当箇所を検出する第2の検出ステップと、
     前記第1の画像不相当箇所と前記第2の画像不相当箇所との差異に基づいて、前記支障物体の存否を判定する判定ステップと、
     を含む支障物体判定方法。
PCT/JP2020/039350 2019-10-25 2020-10-20 駅ホームの安全支援システムおよび支障物体判定方法 WO2021079866A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-194460 2019-10-25
JP2019194460A JP7368180B2 (ja) 2019-10-25 2019-10-25 駅ホームの安全支援システムおよび支障物体判定方法

Publications (1)

Publication Number Publication Date
WO2021079866A1 true WO2021079866A1 (ja) 2021-04-29

Family

ID=75620525

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/039350 WO2021079866A1 (ja) 2019-10-25 2020-10-20 駅ホームの安全支援システムおよび支障物体判定方法

Country Status (3)

Country Link
JP (1) JP7368180B2 (ja)
TW (1) TW202134094A (ja)
WO (1) WO2021079866A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016144993A (ja) * 2015-02-09 2016-08-12 サクサ株式会社 画像処理装置
JP2017123028A (ja) * 2016-01-06 2017-07-13 サクサ株式会社 画像処理装置
JP2018197023A (ja) * 2017-05-23 2018-12-13 日本信号株式会社 駅の警報装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016144993A (ja) * 2015-02-09 2016-08-12 サクサ株式会社 画像処理装置
JP2017123028A (ja) * 2016-01-06 2017-07-13 サクサ株式会社 画像処理装置
JP2018197023A (ja) * 2017-05-23 2018-12-13 日本信号株式会社 駅の警報装置

Also Published As

Publication number Publication date
JP7368180B2 (ja) 2023-10-24
JP2021066381A (ja) 2021-04-30
TW202134094A (zh) 2021-09-16

Similar Documents

Publication Publication Date Title
JP4553450B2 (ja) プラットホーム監視システム
JP4706315B2 (ja) 車両の運転支援システム
JP3902531B2 (ja) 列車の定位置停止支援装置
KR100750347B1 (ko) 스테레오비디오 카메라를 이용한 지하철 승강장 모니터링시스템
WO2016052837A1 (ko) 교통감시 시스템
CN109146914B (zh) 一种高速公路基于视频分析的醉酒驾驶行为预警方法
CN113743211A (zh) 一种扶梯视频监控系统、方法、装置及存储介质
JP2010063260A (ja) 列車走行制御装置及び方法
CN110533959A (zh) 基于车路协同的无控交叉口冲突车辆避撞预警方法及系统
JPWO2019102935A1 (ja) 表示装置、撮像表示システム、および、列車
JP2006232024A (ja) 安全監視システム、安全装置および警報装置
WO2021079866A1 (ja) 駅ホームの安全支援システムおよび支障物体判定方法
JP2005234774A (ja) 交通信号無視車両警告装置、及び交通信号無視車両警告・記録装置
KR101466463B1 (ko) 일체형 통행 위반 경고 시스템
CN108099956B (zh) 机车调车装置、方法和双目摄像机的夹角确定方法
JP4265992B2 (ja) 運転支援装置
JP2005309660A (ja) 車両用右左折支援装置
JP2000272863A (ja) 乗客コンベアの監視装置
JP2002163792A (ja) 障害物衝突防止支援システム
JP3583084B2 (ja) 分岐器誤進入防止装置
JP2003099895A (ja) 車両周囲監視装置
JP2013210890A (ja) 進入者検知システム、進入者検知方法、および進入者検知プログラム
JP2003187398A (ja) 車両走行支援システム及びプログラム
JP3294191B2 (ja) 駐車場等用ゲート開閉制御装置
JP2002008016A (ja) 道路表示監視装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20880263

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20880263

Country of ref document: EP

Kind code of ref document: A1