WO2021130824A1 - 障害物検出装置および障害物検出方法 - Google Patents

障害物検出装置および障害物検出方法 Download PDF

Info

Publication number
WO2021130824A1
WO2021130824A1 PCT/JP2019/050398 JP2019050398W WO2021130824A1 WO 2021130824 A1 WO2021130824 A1 WO 2021130824A1 JP 2019050398 W JP2019050398 W JP 2019050398W WO 2021130824 A1 WO2021130824 A1 WO 2021130824A1
Authority
WO
WIPO (PCT)
Prior art keywords
obstacle
train
obstacle detection
monitoring area
camera
Prior art date
Application number
PCT/JP2019/050398
Other languages
English (en)
French (fr)
Inventor
将司 冨田
行俊 稲葉
敬太 望月
康人 橋場
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2021566404A priority Critical patent/JP7170912B2/ja
Priority to PCT/JP2019/050398 priority patent/WO2021130824A1/ja
Priority to US17/787,778 priority patent/US20230076273A1/en
Publication of WO2021130824A1 publication Critical patent/WO2021130824A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • B61L23/04Control, warning or like safety means along the route or between vehicles or trains for monitoring the mechanical state of the route
    • B61L23/041Obstacle detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L25/00Recording or indicating positions or identities of vehicles or trains or setting of track apparatus
    • B61L25/02Indicating or recording positions or identities of vehicles or trains
    • B61L25/021Measuring and recording of train speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L25/00Recording or indicating positions or identities of vehicles or trains or setting of track apparatus
    • B61L25/02Indicating or recording positions or identities of vehicles or trains
    • B61L25/025Absolute localisation, e.g. providing geodetic coordinates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L27/00Central railway traffic control systems; Trackside control; Communication systems specially adapted therefor
    • B61L27/04Automatic systems, e.g. controlled by train; Change-over to manual control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L15/00Indicators provided on the vehicle or train for signalling purposes
    • B61L15/0072On-board train data handling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening

Definitions

  • the present invention relates to an obstacle detection device for detecting an obstacle and an obstacle detection method.
  • Patent Document 1 an obstacle detection device for a railroad vehicle accurately determines the presence or absence of an obstacle and measures the distance to the obstacle by using the detection result by a sensor such as an infrared camera or a laser ranging sensor.
  • a sensor such as an infrared camera or a laser ranging sensor.
  • the technology to be used is disclosed.
  • the field of view of the infrared camera is fixed and the angle of view cannot be narrowed. Therefore, there is a problem that the detection accuracy of the obstacle detected by the infrared camera deteriorates as the distance increases.
  • a method of mechanically moving the field of view of the infrared camera is conceivable for such a problem, but this method complicates the calculation of the laser irradiation direction of the laser ranging sensor with respect to the field of view of the infrared camera, and the laser irradiation direction and It causes a deviation from the monitoring direction of the infrared camera.
  • the present invention has been made in view of the above, and an object of the present invention is to obtain an obstacle detection device capable of improving the detection accuracy when detecting an obstacle using a camera and a laser ranging device.
  • the present invention is an obstacle detection device mounted on a train in order to solve the above-mentioned problems and achieve the object.
  • the obstacle detection device includes a camera, a laser ranging device, and an optical element, and a sensor unit that uses an optical element to set the optical axis of the camera and the optical axis of the laser ranging device in the same direction.
  • the monitoring area by the sensor unit is calculated using the position of the train, the map information stored in the map data storage unit that indicates the position of the track on which the train runs, and the attitude angle of the train, and the optical axis of the sensor unit is used by the drive mirror.
  • Detects obstacles in the course of the train based on the monitoring results of the monitoring area control unit that controls the direction of the axis on the course of the train and the camera and laser ranging device, and avoids collisions with obstacles in the train. It is characterized by including an obstacle determination unit for determining whether or not a collision avoidance action is necessary.
  • the obstacle detection device has an effect that the detection accuracy when detecting an obstacle by using a camera and a laser ranging device can be improved.
  • the obstacle detection device and the obstacle detection method according to the embodiment of the present invention will be described in detail below with reference to the drawings.
  • the present invention is not limited to this embodiment.
  • FIG. 1 is a diagram showing a configuration example of an obstacle detection device 2 according to a first embodiment of the present invention.
  • the obstacle detection device 2 is mounted on the train 10 together with the train control device 1 and the output device 3.
  • the train control device 1 detects the position of the train 10 and the speed of the train 10.
  • the train control device 1 includes, for example, a speed generator and a calculation unit that calculates the speed of the train 10 and the position of the train 10 from a signal acquired from the speed generator.
  • the obstacle detection device 2 detects an obstacle (not shown) in the course of the train 10. In the example of FIG. 1, the traveling direction of the train 10 is the right direction.
  • the output device 3 indicates the obstacle detection information output from the obstacle detection device 2 to a user such as a train driver. It is a device.
  • the collision avoidance action is, for example, an action in which the driver stops the train 10 or an action in which the driver sounds a horn in order to avoid a collision between the train 10 and an obstacle.
  • the output device 3 is, for example, a monitor installed in the driver's cab of the train 10, an indicator light, and the like, but is not limited thereto.
  • the output device 3 may output the obstacle detection information from the obstacle detection device 2 by voice or as a printed matter.
  • the train 10 may be a train composed of a plurality of vehicles, or may be a single train composed of one vehicle as shown in FIG.
  • the obstacle detection device 2 includes a monitoring area control unit 20, a sensor unit 23, and an obstacle determination unit 24.
  • the monitoring area control unit 20 includes a monitoring area determination unit 21 and a sensor optical axis control unit 22.
  • the monitoring area determination unit 21 includes a position / velocity acquisition unit 211, a map data storage unit 212, and a monitoring area calculation unit 213.
  • the position / speed acquisition unit 211 acquires the position of the train 10 and the speed of the train 10 from the train control device 1.
  • the map data storage unit 212 stores map information indicating the positions of tracks (not shown) on which the train 10 travels.
  • the map data storage unit 212 stores, that is, stores map information in the form of a database.
  • the map information stored in the map data storage unit 212 is map information that can specify the position of the track in three dimensions.
  • the monitoring area calculation unit 213 uses the position of the train 10 acquired by the position / speed acquisition unit 211, the speed of the train 10, and the map information stored in the map data storage unit 212 to train the train by the obstacle detection device 2.
  • the monitoring area in front of 10, that is, on the course of the train 10 is calculated.
  • the monitoring area is an area in which the sensor unit 23 detects an obstacle in the course of the train 10, that is, a target area for monitoring the presence or absence of an obstacle.
  • the monitoring area calculation unit 213 searches the map data storage unit 212 based on the position of the train 10 acquired by the position / speed acquisition unit 211 and the speed of the train 10, and calculates the monitoring area.
  • the monitoring area calculation unit 213 is on the track, for example, based on the position of the train 10 at the time when the monitoring area is actually monitored from the current position of the train 10, and the alignment of the line stored in the map data storage unit 212.
  • the position 300 m ahead of the train 10 in the above is specified, and the area including the specified position is set as the monitoring area.
  • the line alignment indicates the curvature, slope, etc. of the line.
  • the monitoring area determination unit 21 determines the monitoring area by the sensor unit 23 using the position of the train 10, the speed of the train 10, and the map information. When the monitoring area determination unit 21 determines the monitoring area without considering the braking distance of the train 10, it is not necessary to use the speed information of the train 10.
  • the monitoring area determination unit 21 does not require information on the speed of the train 10 when determining the monitoring area.
  • the information on the speed of the train 10 may be used.
  • the monitoring area determination unit 21 determines the monitoring area in consideration of the braking distance of the train 10 will be described.
  • the sensor unit 23 includes a camera 231, a laser ranging device 232, and an optical element 233.
  • the camera 231 monitors the monitoring area in front of the train 10, that is, on the course of the train 10, and specifically captures the monitoring area.
  • the camera 231 outputs a camera image obtained by capturing the monitoring area to the obstacle determination unit 24 as a monitoring result.
  • the laser ranging device 232 monitors the monitoring area in front of the train 10, that is, on the course of the train 10, and specifically, the laser is used to scan the monitoring area.
  • the laser ranging device 232 outputs the scanning result, which is the result of scanning the monitoring area with the laser, to the obstacle determination unit 24 as the monitoring result.
  • the optical element 233 sets the optical axis of the camera 231 and the optical axis of the laser ranging device 232 to the optical axis 4 in the same direction. Specifically, as shown in FIG. 1, the optical element 233 divides the incident light, which is the light incident from the outside of the train 10 via the sensor optical axis control unit 22 along the optical axis 4, into two. To do. The optical element 233 reflects one of the divided incident light toward the camera 231 and transmits the other of the divided incident light toward the laser ranging device 232. Further, the optical element 233 transmits the laser emitted from the laser ranging device 232 and outputs the laser to the sensor optical axis control unit 22.
  • the optical element 233 is, for example, a beam splitter, a dichroic mirror, and the like, but is not limited thereto. In this way, the sensor unit 23 sets the optical axis of the camera 231 and the optical axis of the laser ranging device 232 to the optical axis 4 in the same direction by using the optical element 233.
  • the sensor optical axis control unit 22 includes an attitude angle measuring device 221, an attitude angle calculation unit 222, an optical axis direction calculation unit 223, a mirror driver 224, and a drive mirror 225.
  • the attitude angle measuring device 221 detects the angular velocity of the train 10.
  • the posture angle measuring device 221 is, for example, a gyro sensor.
  • the attitude angle calculation unit 222 calculates the attitude angle of the train 10 from the detection result of the attitude angle measuring device 221.
  • the attitude angle measuring device 221 or the attitude angle measuring device 221 and the attitude angle calculating unit 222 may be provided outside the sensor optical axis control unit 22.
  • the optical axis direction calculation unit 223 acquires information on the monitoring area from the monitoring area calculation unit 213 of the monitoring area determination unit 21, and acquires information on the attitude angle of the train 10 from the attitude angle calculation unit 222.
  • the optical axis direction calculation unit 223 corrects the monitoring area determined by the monitoring area calculation unit 213 based on the attitude angle of the train 10 acquired from the attitude angle calculation unit 222, and the obstacle detection device 2 drives the front of the train 10. That is, the monitoring area on the course of the train 10 is determined.
  • the optical axis direction calculation unit 223 drives the drive mirror 225 via the mirror driver 224 based on the determined monitoring area.
  • the optical axis direction calculation unit 223 controls the direction of the optical axis 4 of the sensor unit 23 on the course of the train 10 by using the drive mirror 225.
  • the mirror driver 224 generates a drive signal for adjusting the direction of the drive mirror 225 under the control of the optical axis direction calculation unit 223, and outputs the drive signal to the drive mirror 225.
  • the orientation of the drive mirror 225 is adjusted by the control of the optical axis direction calculation unit 223 via the mirror driver 224, and the orientation of the optical axis 4 of the sensor unit 23 is adjusted.
  • the obstacle determination unit 24 includes an obstacle detection unit 241 and a collision avoidance determination unit 242.
  • the obstacle detection unit 241 acquires a camera image as a monitoring result from the camera 231 and a scanning result as a monitoring result from the laser ranging device 232.
  • the obstacle detection unit 241 detects an obstacle in the course of the train 10 based on the camera image of the camera 231 and the scanning result of the laser ranging device 232. That is, the obstacle detection unit 241 determines whether or not there is an obstacle in the course of the train 10 by using the camera image and the scanning result.
  • the obstacle detection unit 241 outputs the position information of the obstacle to the collision avoidance determination unit 242 together with the determination result.
  • the collision avoidance determination unit 242 determines whether or not a collision avoidance action is required to avoid a collision with the obstacle in the train 10. To judge. When the collision avoidance determination unit 242 determines that the collision avoidance action is necessary on the train 10, the collision avoidance determination unit 242 outputs an instruction prompting the collision avoidance action together with the obstacle information to the output device 3 as the obstacle detection information by the obstacle detection device 2. ..
  • the obstacle information is, for example, information indicating the position of the obstacle, the size of the obstacle, the type of the obstacle, and the like, but is not limited thereto.
  • FIG. 2 is a diagram showing an image of a monitoring area on the course of the train 10 for which the obstacle detection device 2 according to the first embodiment detects an obstacle.
  • the optical axis of the camera 231 and the optical axis of the laser ranging device 232 are the same optical axis 4 due to the optical element 233. Therefore, in FIG. 2, the center of the photographing range of the camera 231, that is, the center of the field of view of the camera coincides with the center of the scanning range of the laser ranging device 232.
  • the center of the camera field of view shown in FIG. 2 corresponds to the position of the optical axis 4 shown in FIG. 1 with respect to the monitoring area.
  • the scanning range of the laser ranging device 232 includes a monitoring area.
  • the imaging range of the camera 231 includes the scanning range of the laser ranging device 232.
  • the monitoring area is a range including the building limit for the train 10.
  • the construction limit is the range where the installation of buildings and the like is prohibited, and in order to ensure the safety of the operation of the train 10, there is a margin for the range through which the train 10 passes when the train 10 runs on the railroad track. It is the range that I had.
  • the scanning start point of the laser ranging device 232 is set to the upper left of the scanning range, and the scanning end point of the laser ranging device 232 is set to the lower right of the scanning range, but this is an example and is not limited thereto.
  • the sensor optical axis control unit 22 of the obstacle detection device 2 determines the direction of the optical axis 4 of the sensor unit 23. To control. As a result, the obstacle detection device 2 can direct the direction of the optical axis 4 of the sensor unit 23 to the monitoring area, and can accurately detect obstacles in the course of the train 10.
  • the obstacle detection unit 241 first detects the obstacle on the camera image taken by the camera 231 and then detects the obstacle in the monitoring area based on the scanning result of the laser ranging device 232. The case of detection will be described.
  • FIG. 3 is a flowchart showing an operation in which the obstacle detection device 2 according to the first embodiment detects an obstacle.
  • the monitoring area calculation unit 213 of the monitoring area determination unit 21 calculates the monitoring area on the course of the train 10 by the sensor unit 23 (step S101).
  • the monitoring area calculation unit 213 continuously executes the operation of calculating the monitoring area regardless of the operation of the obstacle determination unit 24 described later.
  • the optical axis direction calculation unit 223 of the sensor optical axis control unit 22 corrects the monitoring area calculated by the monitoring area calculation unit 213 based on the attitude angle of the train 10 calculated by the attitude angle calculation unit 222, and corrects the camera 231.
  • the viewing direction of is calculated (step S102). Specifically, the optical axis direction calculation unit 223 calculates the field of view direction of the camera 231 so that the optical axis 4 comes to the center of the camera field of view shown in FIG.
  • the optical axis direction calculation unit 223 drives the drive mirror 225 via the mirror driver 224 to set the viewing direction of the camera 231 (step S103).
  • the camera 231 photographs the monitoring area via the optical element 233 and the drive mirror 225 (step S104), and acquires a camera image (step S105).
  • the camera 231 outputs the camera image to the obstacle detection unit 241 of the obstacle determination unit 24.
  • step S106: No the obstacle detection unit 241 notifies the optical axis direction calculation unit 223 that the obstacle has not been detected on the camera image.
  • the obstacle detection device 2 returns to step S101 and performs the same operation as described above.
  • step S106: Yes the obstacle detection unit 241 notifies the optical axis direction calculation unit 223 that the obstacle is detected on the camera image.
  • the optical axis direction calculation unit 223 corrects the monitoring area calculated by the monitoring area calculation unit 213 based on the attitude angle of the train 10 calculated by the attitude angle calculation unit 222, and corrects the laser emission direction of the laser ranging device 232. Is calculated (step S107). Specifically, the optical axis direction calculation unit 223 calculates the laser emission direction so that the laser is emitted in the direction in which an obstacle is detected in the camera image. The optical axis direction calculation unit 223 may calculate the laser emission direction so as to scan the scanning range shown in FIG. 2, regardless of the direction in which the obstacle is detected in the camera image.
  • the optical axis direction calculation unit 223 drives the drive mirror 225 via the mirror driver 224 and sets the laser emission direction of the laser ranging device 232 (step S108).
  • the laser ranging device 232 uses a laser to measure the distance of an object in the monitoring region via the optical element 233 and the drive mirror 225, that is, to measure the distance (step S109) and acquire the ranging result (step S110). ..
  • the distance measurement result is a scanning result in which the laser distance measurement device 232 emits a laser to a specific object and measures the distance from the obstacle detection device 2 to the object. That is, the distance measurement result is also the monitoring result by the laser distance measurement device 232.
  • the laser ranging device 232 outputs the ranging result to the obstacle detection unit 241 of the obstacle determination unit 24.
  • step S111 the optical axis direction calculation unit 223 informs that the obstacle has not been detected in the monitoring area. Notice.
  • the obstacle detection device 2 returns to step S101 and performs the same operation as described above.
  • the obstacle detection unit 241 detects an object based on the distance measurement result, if the detected object is not in the monitoring area, that is, the distance of the detected object is the distance of the monitoring area, in the above-mentioned example. If it is not 300 m ahead of the train 10, it is determined that no obstacle has been detected in the monitoring area.
  • the obstacle detection unit 241 detects an obstacle in the monitoring area based on the distance measurement result (step S111: Yes)
  • the obstacle detection unit 241 outputs the camera image and the distance measurement result to the collision avoidance determination unit 242.
  • the collision avoidance determination unit 242 determines whether or not a collision avoidance action for avoiding a collision with an obstacle is necessary in the train 10 based on the camera image and the distance measurement result (step S112).
  • the collision avoidance determination unit 242 determines that the obstacle detected by the obstacle detection unit 241 is, for example, a bird, a small animal, or the like based on the camera image and the distance measurement result
  • the collision avoidance determination unit 242 monitors the train 10 by moving forward. In view of the nature of birds, small animals, etc.
  • step S112 No
  • the obstacle detection device 2 returns to step S101 and performs the same operation as described above.
  • the collision avoidance determination unit 242 determines that a collision avoidance action is necessary when the obstacle detected by the obstacle detection unit 241 is determined to be, for example, a rock fall, a fallen tree, etc., based on the camera image and the distance measurement result ( Step S112: Yes).
  • the collision avoidance determination unit 242 outputs an instruction for prompting a collision avoidance action together with the obstacle information to the output device 3 as obstacle detection information by the obstacle detection device 2 (step S113).
  • the optical axis direction calculation unit 223 is driven via the mirror driver 224 while performing blur correction in consideration of vibration, shaking, etc. of the train 10 when shooting with the camera 231. Controls the orientation of the mirror 225. Further, when scanning by the laser ranging device 232, the optical axis direction calculation unit 223 performs blur correction in consideration of vibration, shaking, etc. of the train 10, and the laser ranging device 232 further increases the size as shown in FIG.
  • the orientation of the drive mirror 225 is controlled via the mirror driver 224 so that the scanning range including the monitoring area can be scanned.
  • FIG. 4 is a diagram showing an image of an operation in which the obstacle detection device 2 according to the first embodiment detects an obstacle.
  • the obstacle detection device 2 first takes a picture with the camera 231 and performs an obstacle detection process using the obtained camera image.
  • the obstacle detection device 2 takes a picture with the camera 231 until an obstacle is detected in the camera image.
  • the obstacle detection device 2 detects an obstacle in the camera image
  • the obstacle detection device 2 then performs distance measurement using a laser by the laser distance measurement device 232, and uses the obtained distance measurement result to perform an obstacle in the monitoring area. Detection processing is performed.
  • the obstacle detection device 2 determines whether or not the detected obstacle is an obstacle that requires a collision avoidance action on the train 10.
  • FIG. 5 is a first flowchart showing an operation in which the obstacle detection device 2 according to the first embodiment controls the direction of the optical axis 4 of the sensor unit 23.
  • the position / speed acquisition unit 211 acquires the position of the train 10 and the speed of the train 10 from the train control device 1 (step S201).
  • the monitoring area calculation unit 213 searches the map data storage unit 212 based on the position of the train 10 and the speed of the train 10 acquired by the position / speed acquisition unit 211, and calculates the monitoring area (step S202).
  • the attitude angle calculation unit 222 calculates the attitude angle of the train 10 from the detection result of the attitude angle measuring device 221 (step S203).
  • the optical axis direction calculation unit 223 corrects the monitoring area acquired from the monitoring area calculation unit 213 based on the attitude angle of the train 10 acquired from the attitude angle calculation unit 222 (step S204).
  • the optical axis direction calculation unit 223 drives the drive mirror 225 via the mirror driver 224 based on the corrected monitoring area, and the drive mirror 225 is used to drive the train 10 in the direction of the optical axis 4 of the sensor unit 23. Control up (step S205).
  • the optical axis direction calculation unit 223 corrects the monitoring area calculated by the monitoring area calculation unit 213 based on the posture angle of the train 10 calculated by the posture angle calculation unit 222.
  • the monitoring area calculation unit 213 is deleted, and the optical axis direction calculation unit 223 uses the position of the train 10, the speed of the train 10, the map information stored in the map data storage unit 212, and the train.
  • the monitoring area may be calculated based on the attitude angle of 10. Looking at the unit of the monitoring area control unit 20, the operation when the monitoring area calculation unit 213 is deleted is the same as the operation when the monitoring area calculation unit 213 is present.
  • FIG. 6 is a second flowchart showing an operation in which the obstacle detection device 2 according to the first embodiment controls the direction of the optical axis 4 of the sensor unit 23.
  • the monitoring area control unit 20 acquires the position of the train 10 and the speed of the train 10 from the train control device 1 (step S301).
  • the monitoring area control unit 20 calculates the attitude angle of the train 10 from the detection result of the attitude angle measuring device 221 (step S302).
  • the monitoring area control unit 20 calculates the monitoring area by the sensor unit 23 based on the position of the train 10, the speed of the train 10, the map information stored in the map data storage unit 212, and the attitude angle of the train 10 ( Step S303).
  • the monitoring area control unit 20 drives the drive mirror 225 via the mirror driver 224 based on the calculated monitoring area, and uses the drive mirror 225 to move the direction of the optical axis 4 of the sensor unit 23 on the course of the train 10. Control (step S304).
  • the map data storage unit 212 is a memory.
  • the attitude angle measuring device 221 and the camera 231 and the laser ranging device 232 are sensors.
  • the drive mirror 225 and the optical element 233 are elements including a mirror, a lens, a prism, and the like.
  • other components are realized by a processing circuit.
  • the processing circuit may be a processor and memory for executing a program stored in the memory, or may be dedicated hardware.
  • FIG. 7 is a diagram showing an example in which the processing circuit included in the obstacle detection device 2 according to the first embodiment is configured by a processor and a memory.
  • the processing circuit is composed of the processor 91 and the memory 92, each function of the processing circuit of the obstacle detection device 2 is realized by software, firmware, or a combination of software and firmware.
  • the software or firmware is written as a program and stored in the memory 92.
  • each function is realized by the processor 91 reading and executing the program stored in the memory 92. That is, the processing circuit includes a memory 92 for storing a program in which the processing of the obstacle detection device 2 is eventually executed. It can also be said that these programs cause the computer to execute the procedure and method of the obstacle detection device 2.
  • the processor 91 may be a CPU (Central Processing Unit), a processing device, an arithmetic unit, a microprocessor, a microcomputer, a DSP (Digital Signal Processor), or the like.
  • the memory 92 includes, for example, non-volatile or volatile such as RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable ROM), and EPROM (registered trademark) (Electrically EPROM).
  • RAM Random Access Memory
  • ROM Read Only Memory
  • flash memory EPROM (Erasable Programmable ROM), and EPROM (registered trademark) (Electrically EPROM).
  • Semiconductor memory magnetic disk, flexible disk, optical disk, compact disk, mini disk, DVD (Digital Versatile Disc), etc. are applicable.
  • FIG. 8 is a diagram showing an example in which the processing circuit included in the obstacle detection device 2 according to the first embodiment is configured by dedicated hardware.
  • the processing circuit is composed of dedicated hardware
  • the processing circuit 93 shown in FIG. 8 includes, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), and the like. FPGA (Field Programmable Gate Array) or a combination of these is applicable.
  • Each function of the obstacle detection device 2 may be realized by the processing circuit 93 for each function, or each function may be collectively realized by the processing circuit 93.
  • a part may be realized by dedicated hardware and a part may be realized by software or firmware.
  • the processing circuit can realize each of the above-mentioned functions by the dedicated hardware, software, firmware, or a combination thereof.
  • the sensor unit 23 uses the optical element 233 to align the optical axis of the camera 231 and the optical axis of the laser ranging device 232 in the same direction.
  • the optical axis of is set to 4.
  • the monitoring area calculation unit 213 calculates the monitoring area by the sensor unit 23 by using the position of the train 10, the speed of the train 10, and the map information of the track stored in the map data storage unit 212.
  • the optical axis direction calculation unit 223 corrects the monitoring area based on the attitude angle of the train 10, drives the drive mirror 225 via the mirror driver 224, and controls the direction of the optical axis 4 of the sensor unit 23.
  • the monitoring area control unit 20 calculates the monitoring area based on the position of the train 10, the speed of the train 10, the map information of the track stored in the map data storage unit 212, and the attitude angle of the train 10, and mirrors the area.
  • the drive mirror 225 is driven via the driver 224 to control the direction of the optical axis 4 of the sensor unit 23.
  • the obstacle detection device 2 detects an obstacle using the camera 231 and the laser range measuring device 232
  • the train 10 shakes and vibrates in the direction of the optical axis 4 of the camera 231 and the laser range measuring device 232. It can be corrected according to the above and controlled in the direction of the monitoring area.
  • the obstacle detection device 2 can improve the accuracy of detecting obstacles in the course of the train 10 on which the obstacle detection device 2 is mounted.
  • the obstacle determination unit 24 determines the presence or absence of an obstacle based on the camera image which is the monitoring result of the camera 231 and determines that there is an obstacle. Further, the presence or absence of an obstacle is determined based on the distance measurement result which is the monitoring result of the laser distance measurement device 232. As a result, it is difficult for the obstacle detection device 2 to estimate the distance of the obstacle only from the camera image of the camera 231. Therefore, the distance to the obstacle is measured by the laser of the laser range measuring device 232 to enter the monitoring area. It is possible to accurately determine whether or not there is an obstacle.
  • the obstacle detection device 2 is, for example, a moving body other than the train 10, and can be mounted on a moving body traveling on a specified route to detect an obstacle in the path of the moving body.
  • Embodiment 2 In the first embodiment, the obstacle detection device 2 first detects the obstacle using the camera image, and then detects the obstacle using the distance measurement result. In the second embodiment, the operation of the obstacle detection device 2 first detecting the obstacle using the monitoring result of the laser ranging device 232 and then detecting the obstacle using the camera image will be described.
  • the configuration of the obstacle detection device 2 in the second embodiment is the same as the configuration of the obstacle detection device 2 in the first embodiment shown in FIG.
  • FIG. 9 is a flowchart showing an operation in which the obstacle detection device 2 according to the second embodiment detects an obstacle.
  • the monitoring area calculation unit 213 of the monitoring area determination unit 21 calculates the monitoring area on the course of the train 10 by the sensor unit 23 (step S401).
  • the monitoring area calculation unit 213 continuously executes the operation of calculating the monitoring area regardless of the operation of the obstacle determination unit 24 described later.
  • the optical axis direction calculation unit 223 of the sensor optical axis control unit 22 corrects the monitoring area calculated by the monitoring area calculation unit 213 based on the attitude angle of the train 10 calculated by the attitude angle calculation unit 222, and performs laser measurement.
  • the scanning direction of the distance device 232 is calculated (step S402). Specifically, the optical axis direction calculation unit 223 calculates the scanning direction of the laser ranging device 232 so that the monitoring region shown in FIG. 2 is included in the scanning range.
  • the laser ranging device 232 emits a laser via the optical element 233 and the drive mirror 225, scans the monitoring area using the laser (step S403), and acquires the scanning result (step S404).
  • the optical axis direction calculation unit 223 drives the drive mirror 225 via the mirror driver 224 to control the laser emission direction of the laser ranging device 232.
  • the laser ranging device 232 outputs the scanning result to the obstacle detection unit 241 of the obstacle determination unit 24.
  • step S405: No When the obstacle detection unit 241 does not detect an obstacle in the monitoring area based on the scanning result (step S405: No), the obstacle detection unit 241 notifies the optical axis direction calculation unit 223 that no obstacle is detected in the monitoring area. To do.
  • the obstacle detection device 2 returns to step S401 and performs the same operation as described above.
  • step S405: Yes the obstacle detection unit 241 notifies the optical axis direction calculation unit 223 that the obstacle is detected in the monitoring area.
  • the optical axis direction calculation unit 223 calculates the direction in which the camera 231 shoots (step S406). Specifically, the optical axis direction calculation unit 223 calculates the direction of the camera 231 so that the camera 231 faces the direction in which the obstacle is detected in the scanning result of the laser ranging device 232.
  • the optical axis direction calculation unit 223 drives the drive mirror 225 via the mirror driver 224 and sets the direction of the camera 231 (step S407).
  • the camera 231 photographs the monitoring area via the optical element 233 and the drive mirror 225 (step S408), and acquires a camera image (step S409).
  • the camera 231 outputs the camera image to the obstacle detection unit 241 of the obstacle determination unit 24.
  • step S410: No When the obstacle detection unit 241 does not detect an obstacle on the camera image (step S410: No), the obstacle detection unit 241 notifies the optical axis direction calculation unit 223 that the obstacle has not been detected on the camera image. The obstacle detection device 2 returns to step S401 and performs the same operation as described above.
  • step S410: Yes the obstacle detection unit 241 detects an obstacle on the camera image (step S410: Yes)
  • the obstacle detection unit 241 outputs the camera image and the scanning result to the collision avoidance determination unit 242.
  • the collision avoidance determination unit 242 determines whether or not a collision avoidance action for avoiding a collision with an obstacle is necessary in the train 10 based on the camera image and the scanning result (step S411).
  • the collision avoidance determination unit 242 determines that the obstacle detected by the obstacle detection unit 241 is, for example, a bird, a small animal, or the like based on the camera image and the scanning result, the train 10 moves forward to monitor the area. In view of the nature of birds, small animals, etc. escaping from the area, it is determined that the collision avoidance action is unnecessary (step S411: No).
  • the obstacle detection device 2 returns to step S401 and performs the same operation as described above.
  • the collision avoidance determination unit 242 determines that the obstacle detected by the obstacle detection unit 241 is, for example, a rock fall or a fallen tree based on the camera image and the scanning result, the collision avoidance determination unit 242 determines that a collision avoidance action is necessary (step). S411: Yes).
  • the collision avoidance determination unit 242 outputs an instruction for prompting a collision avoidance action together with the obstacle information to the output device 3 as obstacle detection information by the obstacle detection device 2 (step S412).
  • FIG. 10 is a diagram showing an image of an operation in which the obstacle detection device 2 according to the second embodiment detects an obstacle.
  • the obstacle detection device 2 first performs laser scanning by the laser ranging device 232, and uses the obtained scanning result to perform an obstacle detection process in the monitoring area.
  • the obstacle detection device 2 performs laser scanning by the laser ranging device 232 until an obstacle is detected in the scanning result.
  • the obstacle detection device 2 then takes a picture with the camera 231 and performs an obstacle detection process using the obtained camera image.
  • the obstacle detection device 2 determines whether or not the detected obstacle is an obstacle that requires a collision avoidance action on the train 10.
  • the obstacle detection device 2 can improve the accuracy of detecting obstacles in the course of the train 10 on which the obstacle detection device 2 is mounted, as in the first embodiment.
  • the obstacle determination unit 24 determines the presence or absence of an obstacle based on the scanning result which is the monitoring result of the laser ranging device 232, and determines that there is an obstacle.
  • the presence or absence of an obstacle is further determined based on the camera image which is the monitoring result of the camera 231.
  • the obstacle detection device 2 has a low resolution of the horizontal position or a large error only with the laser. Therefore, by using the camera image taken by the camera 231, it is possible to accurately determine whether or not there is an obstacle in the monitoring area. It can be judged well.
  • the laser ranging device 232 can detect obstacles even when it is difficult for the camera 231 to detect obstacles. It is effective in comparison.
  • Embodiment 3 the obstacle detection device 2 separately detects the obstacle with respect to the camera image of the camera 231 and the monitoring result of the laser ranging device 232. In the third embodiment, the obstacle detection device 2 detects an obstacle by using both the camera image of the camera 231 and the scanning result of the laser ranging device 232.
  • the configuration of the obstacle detection device 2 in the third embodiment is the same as the configuration of the obstacle detection device 2 in the first embodiment shown in FIG.
  • FIG. 11 is a flowchart showing an operation in which the obstacle detection device 2 according to the third embodiment detects an obstacle.
  • the monitoring area calculation unit 213 of the monitoring area determination unit 21 calculates the monitoring area on the course of the train 10 by the sensor unit 23 (step S501).
  • the monitoring area calculation unit 213 continuously executes the operation of calculating the monitoring area regardless of the operation of the obstacle determination unit 24 described later.
  • the optical axis direction calculation unit 223 of the sensor optical axis control unit 22 corrects the monitoring area calculated by the monitoring area calculation unit 213 based on the attitude angle of the train 10 calculated by the attitude angle calculation unit 222, and corrects the camera 231.
  • the viewing direction of is calculated (step S502).
  • the optical axis direction calculation unit 223 calculates the field of view direction of the camera 231 so that the optical axis 4 comes to the center of the camera field of view shown in FIG.
  • the optical axis direction calculation unit 223 drives the drive mirror 225 via the mirror driver 224 to set the viewing direction of the camera 231 (step S503).
  • the camera 231 photographs the monitoring area via the optical element 233 and the drive mirror 225 (step S504), and acquires a camera image (step S505).
  • the camera 231 outputs the camera image to the obstacle detection unit 241 of the obstacle determination unit 24.
  • the optical axis direction calculation unit 223 of the sensor optical axis control unit 22 corrects the monitoring area calculated by the monitoring area calculation unit 213 based on the attitude angle of the train 10 calculated by the attitude angle calculation unit 222, and performs laser measurement.
  • the scanning direction of the distance device 232 is calculated (step S506). Specifically, the optical axis direction calculation unit 223 calculates the scanning direction of the laser ranging device 232 so that the monitoring region shown in FIG. 2 is included in the scanning range.
  • the laser ranging device 232 emits a laser via the optical element 233 and the drive mirror 225, scans the monitoring region using the laser (step S507), and acquires the scanning result (step S508).
  • the optical axis direction calculation unit 223 drives the drive mirror 225 via the mirror driver 224 to control the laser emission direction of the laser ranging device 232.
  • the laser ranging device 232 outputs the scanning result to the obstacle detection unit 241 of the obstacle determination unit 24.
  • the optical axis direction calculation unit indicates that the obstacle was not detected in the monitoring area. Notify 223.
  • the obstacle detection device 2 returns to step S501 and performs the same operation as described above.
  • the obstacle detection unit 241 detects an obstacle in the monitoring area based on the camera image and the scanning result (step S509: Yes)
  • the obstacle detection unit 241 outputs the camera image and the scanning result to the collision avoidance determination unit 242.
  • the collision avoidance determination unit 242 determines whether or not a collision avoidance action for avoiding a collision with an obstacle is necessary in the train 10 based on the camera image and the scanning result (step S510).
  • the collision avoidance determination unit 242 determines that the obstacle detected by the obstacle detection unit 241 is, for example, a bird, a small animal, or the like based on the camera image and the scanning result, the train 10 moves forward to monitor the area. In view of the nature of birds, small animals, etc. escaping from the area, it is determined that the collision avoidance action is unnecessary (step S510: No).
  • the obstacle detection device 2 returns to step S501 and performs the same operation as described above.
  • the collision avoidance determination unit 242 determines that the obstacle detected by the obstacle detection unit 241 is, for example, a rock fall or a fallen tree based on the camera image and the scanning result, the collision avoidance determination unit 242 determines that a collision avoidance action is necessary (step). S510: Yes).
  • the collision avoidance determination unit 242 outputs an instruction for prompting a collision avoidance action together with the obstacle information to the output device 3 as obstacle detection information by the obstacle detection device 2 (step S511).
  • FIG. 12 is a diagram showing an image of an operation in which the obstacle detection device 2 according to the third embodiment detects an obstacle.
  • the obstacle detection device 2 takes a picture with the camera 231 to obtain a camera image, and performs laser scanning with the laser ranging device 232 to obtain a scanning result.
  • the obstacle detection device 2 determines whether or not the detected obstacle is an obstacle that requires a collision avoidance action in the train 10.
  • the obstacle detection device 2 first takes a picture with the camera 231 to acquire the camera image, and then obtains the scanning result by scanning with the laser ranging device 232. Not limited to.
  • the obstacle detection device 2 may first acquire the scanning result by scanning with the laser ranging device 232, and then take a picture with the camera 231 to acquire the camera image.
  • the obstacle detection device 2 can improve the accuracy of detecting obstacles in the course of the train 10 on which the obstacle detection device 2 is mounted, as in the first and second embodiments.
  • the sensor optical axis control unit 22 alternately performs the photographing by the camera 231 and the scanning by the laser ranging device 232 in a time-division manner. Toggle control of.
  • the obstacle determination unit 24 determines the presence or absence of an obstacle based on the camera image which is the monitoring result of the camera 231 and the scanning result which is the monitoring result of the laser ranging device 232.
  • the obstacle detection device 2 can efficiently determine the presence or absence of an obstacle, and can accurately determine whether or not there is an obstacle in the monitoring area. Further, the obstacle detection device 2 can improve the real-time property in detecting obstacles as compared with the first and second embodiments.
  • the configuration shown in the above-described embodiment shows an example of the content of the present invention, can be combined with another known technique, and is one of the configurations without departing from the gist of the present invention. It is also possible to omit or change the part.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

列車(10)に搭載される障害物検出装置(2)であって、カメラ(231)、レーザ測距装置(232)、および光学素子(233)を有し、カメラ(231)およびレーザ測距装置(232)の光軸を、光学素子(233)を用いて同一方向の光軸(4)にするセンサ部(23)と、列車(10)の位置、列車(10)が走行する線路の位置を示す地図情報、および列車(10)の姿勢角を用いて、センサ部(23)による監視領域を算出し、駆動ミラー(225)を用いてセンサ部(23)の光軸(4)の方向を列車(10)の進路上に制御する監視領域制御部(20)と、カメラ(231)およびレーザ測距装置(232)の監視結果に基づいて、列車(10)の進路上の障害物を検出し、列車(10)において衝突回避行動が必要か否かを判定する障害物判定部(24)と、を備える。

Description

障害物検出装置および障害物検出方法
 本発明は、障害物を検出する障害物検出装置および障害物検出方法に関する。
 従来、列車では、各種センサを用いて前方を監視し、進路上の障害物を検出することが行われている。特許文献1には、鉄道車両用支障物検知装置が、赤外線カメラ、レーザ測距センサなどのセンサによる検出結果を用いて、支障物の有無を正確に判定するとともに、支障物までの距離を計測する技術が開示されている。
特開平5-116626号公報
 しかしながら、上記従来の技術によれば、赤外線カメラの視野は固定され、画角を絞ることができない。そのため、赤外線カメラで検出される支障物は、遠方になるほど検出精度が劣化する、という問題があった。このような問題に対して赤外線カメラの視野を機械的に動かす手法が考えられるが、この手法では赤外線カメラの視野に対するレーザ測距センサのレーザの照射方向の算出が複雑化し、レーザの照射方向と赤外線カメラによる監視方向とがずれる要因になる。
 本発明は、上記に鑑みてなされたものであって、カメラおよびレーザ測距装置を用いて障害物を検出する際の検出精度を向上可能な障害物検出装置を得ることを目的とする。
 上述した課題を解決し、目的を達成するために、本発明は、列車に搭載される障害物検出装置である。障害物検出装置は、カメラ、レーザ測距装置、および光学素子を有し、カメラの光軸およびレーザ測距装置の光軸を、光学素子を用いて同一方向の光軸にするセンサ部と、列車の位置、地図データ記憶部に記憶され列車が走行する線路の位置を示す地図情報、および列車の姿勢角を用いて、センサ部による監視領域を算出し、駆動ミラーを用いてセンサ部の光軸の方向を列車の進路上に制御する監視領域制御部と、カメラおよびレーザ測距装置の監視結果に基づいて、列車の進路上の障害物を検出し、列車において障害物との衝突を回避するための衝突回避行動が必要か否かを判定する障害物判定部と、を備えることを特徴とする。
 本発明によれば、障害物検出装置は、カメラおよびレーザ測距装置を用いて障害物を検出する際の検出精度を向上できる、という効果を奏する。
実施の形態1に係る障害物検出装置の構成例を示す図 実施の形態1に係る障害物検出装置が障害物を検出する対象となる列車の進路上の監視領域のイメージを示す図 実施の形態1に係る障害物検出装置が障害物を検出する動作を示すフローチャート 実施の形態1に係る障害物検出装置が障害物を検出する動作のイメージを示す図 実施の形態1に係る障害物検出装置がセンサ部の光軸の方向を制御する動作を示す第1のフローチャート 実施の形態1に係る障害物検出装置がセンサ部の光軸の方向を制御する動作を示す第2のフローチャート 実施の形態1に係る障害物検出装置が備える処理回路をプロセッサおよびメモリで構成する場合の例を示す図 実施の形態1に係る障害物検出装置が備える処理回路を専用のハードウェアで構成する場合の例を示す図 実施の形態2に係る障害物検出装置が障害物を検出する動作を示すフローチャート 実施の形態2に係る障害物検出装置が障害物を検出する動作のイメージを示す図 実施の形態3に係る障害物検出装置が障害物を検出する動作を示すフローチャート 実施の形態3に係る障害物検出装置が障害物を検出する動作のイメージを示す図
 以下に、本発明の実施の形態に係る障害物検出装置および障害物検出方法を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態1.
 図1は、本発明の実施の形態1に係る障害物検出装置2の構成例を示す図である。障害物検出装置2は、列車制御装置1および出力装置3とともに、列車10に搭載される。
 列車制御装置1は、列車10の位置および列車10の速度を検出する。列車制御装置1は、例えば、速度発電機と、速度発電機から取得した信号によって列車10の速度および列車10の位置を算出する演算部と、を備える。障害物検出装置2は、列車10の進路上にある図示しない障害物を検出する。図1の例では、列車10の進行方向を右方向とする。出力装置3は、障害物検出装置2において衝突回避行動が必要な障害物が検出された場合、障害物検出装置2から出力された障害物の検出情報を列車10の運転士などのユーザに示す装置である。衝突回避行動とは、列車10と障害物との衝突を回避するため、例えば、運転士が列車10を停止させる行動、運転士が警笛を鳴らす行動などである。出力装置3は、例えば、列車10の運転台に設置されたモニタ、表示灯などであるが、これらに限定されない。出力装置3は、障害物検出装置2からの障害物の検出情報を、音声で出力してもよいし、印刷物で出力してもよい。なお、列車10については、複数の車両から成る編成であってもよいし、図1に示すように1つの車両から成る単行であってもよい。
 障害物検出装置2の構成および動作について説明する。障害物検出装置2は、監視領域制御部20と、センサ部23と、障害物判定部24と、を備える。監視領域制御部20は、監視領域決定部21と、センサ光軸制御部22と、を備える。
 監視領域決定部21は、位置速度取得部211と、地図データ記憶部212と、監視領域算出部213と、を備える。位置速度取得部211は、列車制御装置1から列車10の位置および列車10の速度を取得する。地図データ記憶部212は、列車10が走行する図示しない線路の位置を示す地図情報を記憶している。地図データ記憶部212は、データベースの形式で地図情報を格納、すなわち記憶している。地図データ記憶部212に記憶されている地図情報は、線路の位置を3次元で特定可能な地図情報である。
 監視領域算出部213は、位置速度取得部211で取得された列車10の位置、列車10の速度、および地図データ記憶部212に記憶されている地図情報を用いて、障害物検出装置2による列車10の前方、すなわち列車10の進路上の監視領域を算出する。監視領域は、センサ部23が列車10の進路上の障害物を検出する、すなわち障害物の有無を監視する対象となる領域である。具体的には、監視領域算出部213は、位置速度取得部211で取得された列車10の位置および列車10の速度に基づいて地図データ記憶部212を検索し、監視領域を算出する。監視領域算出部213は、例えば、現在の列車10の位置から実際に監視領域を監視する時点の列車10の位置、および地図データ記憶部212に記憶されている線路の線形に基づいて、線路上での列車10の前方300mの位置を特定し、特定した位置を含む領域を監視領域とする。線路の線形とは、線路の曲率、勾配などを示すものである。このように、監視領域決定部21は、列車10の位置、列車10の速度、および地図情報を用いて、センサ部23による監視領域を決定する。なお、監視領域決定部21は、列車10の制動距離を考慮しないで監視領域を決定する場合、列車10の速度の情報を用いなくてもよい。すなわち、監視領域決定部21では、監視領域を決定する際に列車10の速度の情報は必須ではない。監視領域決定部21は、列車10の制動距離を考慮して監視領域を決定する場合、列車10の速度の情報を用いるようにすればよい。以降では、監視領域決定部21が、列車10の制動距離を考慮して監視領域を決定する場合について説明する。
 センサ部23は、カメラ231と、レーザ測距装置232と、光学素子233と、を備える。カメラ231は、列車10の前方、すなわち列車10の進路上の監視領域を監視、具体的には監視領域を撮影する。カメラ231は、監視領域を撮影したカメラ画像を監視結果として障害物判定部24に出力する。レーザ測距装置232は、列車10の前方、すなわち列車10の進路上の監視領域を監視、具体的にはレーザを用いて監視領域を走査する。レーザ測距装置232は、監視領域をレーザで走査した結果である走査結果を監視結果として障害物判定部24に出力する。
 光学素子233は、カメラ231の光軸およびレーザ測距装置232の光軸を同一方向の光軸4にする。具体的には、光学素子233は、図1に示すように、光軸4に沿ってセンサ光軸制御部22を介して列車10の外部から入射された光である入射光を2つに分割する。光学素子233は、分割された入射光の一方をカメラ231に向けて反射し、分割された入射光の他方をレーザ測距装置232に向けて透過する。また、光学素子233は、レーザ測距装置232から出射されたレーザを透過して、センサ光軸制御部22に出力する。光学素子233は、例えば、ビームスプリッタ、ダイクロイックミラーなどであるが、これらに限定されない。このように、センサ部23は、カメラ231の光軸およびレーザ測距装置232の光軸を、光学素子233を用いて同一方向の光軸4にする。
 センサ光軸制御部22は、姿勢角測定装置221と、姿勢角算出部222と、光軸方向算出部223と、ミラードライバ224と、駆動ミラー225と、を備える。姿勢角測定装置221は、列車10の角速度を検出する。姿勢角測定装置221は、例えば、ジャイロセンサである。姿勢角算出部222は、姿勢角測定装置221の検出結果から列車10の姿勢角を算出する。なお、姿勢角測定装置221、または姿勢角測定装置221および姿勢角算出部222については、センサ光軸制御部22の外部に設けられていてもよい。
 光軸方向算出部223は、監視領域決定部21の監視領域算出部213から監視領域の情報を取得し、姿勢角算出部222から列車10の姿勢角の情報を取得する。光軸方向算出部223は、監視領域算出部213で決定された監視領域を、姿勢角算出部222から取得した列車10の姿勢角に基づいて補正し、障害物検出装置2による列車10の前方、すなわち列車10の進路上の監視領域を決定する。光軸方向算出部223は、決定した監視領域に基づいて、ミラードライバ224を介して駆動ミラー225を駆動する。光軸方向算出部223は、駆動ミラー225を用いてセンサ部23の光軸4の方向を列車10の進路上に制御する。ミラードライバ224は、光軸方向算出部223の制御によって、駆動ミラー225の向きを調整するための駆動信号を生成し、駆動ミラー225に出力する。駆動ミラー225は、ミラードライバ224を介して光軸方向算出部223の制御によって向きが調整され、センサ部23の光軸4の向きを調整する。
 障害物判定部24は、障害物検出部241と、衝突回避判定部242と、を備える。障害物検出部241は、カメラ231から監視結果としてカメラ画像を取得し、レーザ測距装置232から監視結果として走査結果を取得する。障害物検出部241は、カメラ231のカメラ画像およびレーザ測距装置232の走査結果に基づいて、列車10の進路上の障害物を検出する。すなわち、障害物検出部241は、カメラ画像および走査結果を用いて、列車10の進路上に障害物が有るか否かを判定する。障害物検出部241は、列車10の進路上に障害物が有ると判定した場合、判定結果とともに障害物の位置情報を衝突回避判定部242に出力する。衝突回避判定部242は、障害物検出部241において列車10の進路上に障害物が有ると判定された場合、列車10において障害物との衝突を回避するための衝突回避行動が必要か否かを判定する。衝突回避判定部242は、列車10において衝突回避行動が必要と判定した場合、障害物の情報とともに衝突回避行動を促す指示を、障害物検出装置2による障害物検出情報として出力装置3に出力する。障害物の情報は、例えば、障害物の位置、障害物の大きさ、障害物の種別などを示す情報であるが、これらに限定されない。
 図2は、実施の形態1に係る障害物検出装置2が障害物を検出する対象となる列車10の進路上の監視領域のイメージを示す図である。前述のように、カメラ231の光軸およびレーザ測距装置232の光軸は光学素子233によって同一の光軸4になっている。そのため、図2において、カメラ231の撮影範囲の中心、すなわちカメラ視野中心と、レーザ測距装置232の走査範囲の中心とが一致している。図2に示すカメラ視野中心が、監視領域に対する図1に示す光軸4の位置に相当する。図2では、レーザ測距装置232の走査範囲は、監視領域を含む。また、カメラ231の撮影範囲は、レーザ測距装置232の走査範囲を含む。監視領域は、具体的には、列車10に対する建築限界を含む範囲である。建築限界とは、建築物などの設置が禁止された範囲であって、列車10の運行の安全を確保するため、列車10が線路を走行する際に列車10が通過する範囲に対して余裕を持たせた範囲である。
 図2では、レーザ測距装置232の走査開始点を走査範囲の左上、レーザ測距装置232の走査終了点を走査範囲の右下としているが、一例であり、これに限定されない。本実施の形態では、列車10の進路にカーブがある、列車10で揺れが発生したなどの場合において、障害物検出装置2のセンサ光軸制御部22は、センサ部23の光軸4の方向を制御する。これにより、障害物検出装置2は、センサ部23の光軸4の方向を監視領域に向けることができ、列車10の進路上の障害物を精度良く検出することができる。
 つづいて、障害物検出装置2において、障害物判定部24が障害物を検出し、障害物に対する衝突回避行動が必要か否かを判定する動作について説明する。本実施の形態では、障害物検出部241が、先にカメラ231で撮影されたカメラ画像上で障害物を検出し、つぎにレーザ測距装置232の走査結果に基づいて監視領域で障害物を検出する場合について説明する。
 図3は、実施の形態1に係る障害物検出装置2が障害物を検出する動作を示すフローチャートである。障害物検出装置2において、監視領域決定部21の監視領域算出部213は、センサ部23による列車10の進路上の監視領域を算出する(ステップS101)。監視領域算出部213は、後述する障害物判定部24の動作に係わらず、監視領域を算出する動作を継続して実施する。
 センサ光軸制御部22の光軸方向算出部223は、監視領域算出部213で算出された監視領域を、姿勢角算出部222で算出された列車10の姿勢角に基づいて補正し、カメラ231の視野方向を算出する(ステップS102)。具体的には、光軸方向算出部223は、光軸4が図2に示すカメラ視野中心にくるようにカメラ231の視野方向を算出する。光軸方向算出部223は、ミラードライバ224を介して駆動ミラー225を駆動させ、カメラ231の視野方向を設定する(ステップS103)。カメラ231は、光学素子233および駆動ミラー225を介して監視領域を撮影し(ステップS104)、カメラ画像を取得する(ステップS105)。カメラ231は、カメラ画像を障害物判定部24の障害物検出部241に出力する。
 障害物検出部241は、カメラ画像上で障害物を検出しなかった場合(ステップS106:No)、カメラ画像上で障害物を検出しなかった旨を光軸方向算出部223に通知する。障害物検出装置2は、ステップS101に戻って前述と同様の動作を行う。障害物検出部241は、カメラ画像上で障害物を検出した場合(ステップS106:Yes)、カメラ画像上で障害物を検出した旨を光軸方向算出部223に通知する。
 光軸方向算出部223は、監視領域算出部213で算出された監視領域を、姿勢角算出部222で算出された列車10の姿勢角に基づいて補正し、レーザ測距装置232のレーザ出射方向を算出する(ステップS107)。具体的には、光軸方向算出部223は、カメラ画像で障害物が検出された方向にレーザが出射されるように、レーザ出射方向を算出する。なお、光軸方向算出部223は、カメラ画像で障害物が検出された方向に係わらず、図2に示す走査範囲を走査するようにレーザ出射方向を算出してもよい。光軸方向算出部223は、ミラードライバ224を介して駆動ミラー225を駆動させ、レーザ測距装置232のレーザ出射方向を設定する(ステップS108)。レーザ測距装置232は、レーザを用いて、光学素子233および駆動ミラー225を介して監視領域の物体の距離を測定、すなわち測距し(ステップS109)、測距結果を取得する(ステップS110)。測距結果は、レーザ測距装置232が、特定の物体に対してレーザを出射して、障害物検出装置2から物体までの距離を測定した走査結果である。すなわち、測距結果も、レーザ測距装置232による監視結果である。レーザ測距装置232は、測距結果を障害物判定部24の障害物検出部241に出力する。
 障害物検出部241は、測距結果に基づいて監視領域で障害物を検出しなかった場合(ステップS111:No)、監視領域で障害物を検出しなかった旨を光軸方向算出部223に通知する。障害物検出装置2は、ステップS101に戻って前述と同様の動作を行う。ここで、障害物検出部241は、測距結果に基づいて物体を検出しても、検出した物体が監視領域にない場合、すなわち検出された物体の距離が監視領域の距離、前述の例では列車10の前方300mではない場合、監視領域で障害物を検出しなかったと判定する。
 障害物検出部241は、測距結果に基づいて監視領域で障害物を検出した場合(ステップS111:Yes)、カメラ画像および測距結果を衝突回避判定部242に出力する。衝突回避判定部242は、カメラ画像および測距結果に基づいて、列車10において障害物との衝突を回避するための衝突回避行動が必要か否かを判定する(ステップS112)。衝突回避判定部242は、カメラ画像および測距結果に基づいて、障害物検出部241で検出された障害物が、例えば、鳥類、小動物などと判定した場合、列車10が前方に進むことによって監視領域から逃げていく鳥類、小動物などの性質に鑑みて、衝突回避行動は不要と判定する(ステップS112:No)。障害物検出装置2は、ステップS101に戻って前述と同様の動作を行う。衝突回避判定部242は、カメラ画像および測距結果に基づいて、障害物検出部241で検出された障害物が、例えば、落石、倒木などと判定した場合、衝突回避行動が必要と判定する(ステップS112:Yes)。衝突回避判定部242は、障害物の情報とともに衝突回避行動を促す指示を、障害物検出装置2による障害物検出情報として出力装置3に出力する(ステップS113)。
 このように、障害物検出装置2において、光軸方向算出部223は、カメラ231による撮影のときは、列車10の振動、ゆれなどを考慮したブレ補正を行いつつ、ミラードライバ224を介して駆動ミラー225の向きを制御する。また、光軸方向算出部223は、レーザ測距装置232による走査のときは、列車10の振動、ゆれなどを考慮したブレ補正を行いつつ、さらにレーザ測距装置232が図2に示すように監視領域を含む走査範囲を走査できるように、ミラードライバ224を介して駆動ミラー225の向きを制御する。
 図4は、実施の形態1に係る障害物検出装置2が障害物を検出する動作のイメージを示す図である。障害物検出装置2は、まずカメラ231による撮影を行って、得られたカメラ画像を用いて障害物の検出処理を行う。障害物検出装置2は、カメラ画像で障害物が検出されるまで、カメラ231による撮影を行う。障害物検出装置2は、カメラ画像で障害物が検出されると、つぎにレーザ測距装置232によるレーザを用いた測距を行って、得られた測距結果を用いて監視領域において障害物の検出処理を行う。障害物検出装置2は、測距結果から監視領域で障害物が検出されると、検出された障害物が、列車10において衝突回避行動が必要な障害物か否かを判定する。
 ここで、障害物検出装置2がセンサ部23の光軸4の方向を制御する動作について説明する。図5は、実施の形態1に係る障害物検出装置2がセンサ部23の光軸4の方向を制御する動作を示す第1のフローチャートである。障害物検出装置2において、位置速度取得部211は、列車制御装置1から列車10の位置および列車10の速度を取得する(ステップS201)。監視領域算出部213は、位置速度取得部211で取得された列車10の位置および列車10の速度に基づいて地図データ記憶部212を検索し、監視領域を算出する(ステップS202)。姿勢角算出部222は、姿勢角測定装置221の検出結果から列車10の姿勢角を算出する(ステップS203)。光軸方向算出部223は、監視領域算出部213から取得した監視領域を、姿勢角算出部222から取得した列車10の姿勢角に基づいて補正する(ステップS204)。光軸方向算出部223は、補正後の監視領域に基づいて、ミラードライバ224を介して駆動ミラー225を駆動し、駆動ミラー225を用いてセンサ部23の光軸4の方向を列車10の進路上に制御する(ステップS205)。
 なお、本実施の形態では、光軸方向算出部223が、監視領域算出部213で算出された監視領域を、姿勢角算出部222で算出された列車10の姿勢角に基づいて補正していたが、これに限定されない。例えば、障害物検出装置2において監視領域算出部213を削除し、光軸方向算出部223が、列車10の位置、列車10の速度、地図データ記憶部212に記憶されている地図情報、および列車10の姿勢角に基づいて監視領域を算出してもよい。監視領域制御部20の単位で見ると、監視領域算出部213を削除した場合の動作は、監視領域算出部213がある場合の動作と同様となる。
 図6は、実施の形態1に係る障害物検出装置2がセンサ部23の光軸4の方向を制御する動作を示す第2のフローチャートである。障害物検出装置2において、監視領域制御部20は、列車制御装置1から列車10の位置および列車10の速度を取得する(ステップS301)。監視領域制御部20は、姿勢角測定装置221の検出結果から列車10の姿勢角を算出する(ステップS302)。監視領域制御部20は、列車10の位置、列車10の速度、地図データ記憶部212に記憶されている地図情報、および列車10の姿勢角に基づいて、センサ部23による監視領域を算出する(ステップS303)。監視領域制御部20は、算出した監視領域に基づいて、ミラードライバ224を介して駆動ミラー225を駆動し、駆動ミラー225を用いてセンサ部23の光軸4の方向を列車10の進路上に制御する(ステップS304)。
 つづいて、障害物検出装置2のハードウェア構成について説明する。障害物検出装置2において、地図データ記憶部212はメモリである。姿勢角測定装置221、カメラ231、およびレーザ測距装置232はセンサである。駆動ミラー225、および光学素子233はミラー、レンズ、プリズムなどを含む素子である。障害物検出装置2において、その他の構成要素は処理回路により実現される。処理回路は、メモリに格納されるプログラムを実行するプロセッサおよびメモリであってもよいし、専用のハードウェアであってもよい。
 図7は、実施の形態1に係る障害物検出装置2が備える処理回路をプロセッサおよびメモリで構成する場合の例を示す図である。処理回路がプロセッサ91およびメモリ92で構成される場合、障害物検出装置2の処理回路の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ92に格納される。処理回路では、メモリ92に記憶されたプログラムをプロセッサ91が読み出して実行することにより、各機能を実現する。すなわち、処理回路は、障害物検出装置2の処理が結果的に実行されることになるプログラムを格納するためのメモリ92を備える。また、これらのプログラムは、障害物検出装置2の手順および方法をコンピュータに実行させるものであるともいえる。
 ここで、プロセッサ91は、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)などであってもよい。また、メモリ92には、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(登録商標)(Electrically EPROM)などの、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、またはDVD(Digital Versatile Disc)などが該当する。
 図8は、実施の形態1に係る障害物検出装置2が備える処理回路を専用のハードウェアで構成する場合の例を示す図である。処理回路が専用のハードウェアで構成される場合、図8に示す処理回路93は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。障害物検出装置2の各機能を機能別に処理回路93で実現してもよいし、各機能をまとめて処理回路93で実現してもよい。
 なお、障害物検出装置2の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、処理回路は、専用のハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
 以上説明したように、本実施の形態によれば、障害物検出装置2において、センサ部23は、光学素子233を用いて、カメラ231の光軸およびレーザ測距装置232の光軸を同一方向の光軸4にする。監視領域算出部213は、列車10の位置、列車10の速度、地図データ記憶部212に記憶されている線路の地図情報を用いて、センサ部23による監視領域を算出する。光軸方向算出部223は、列車10の姿勢角に基づいて監視領域を補正し、ミラードライバ224を介して駆動ミラー225を駆動し、センサ部23の光軸4の方向を制御する。すなわち、監視領域制御部20は、列車10の位置、列車10の速度、地図データ記憶部212に記憶されている線路の地図情報、および列車10の姿勢角に基づいて監視領域を算出し、ミラードライバ224を介して駆動ミラー225を駆動し、センサ部23の光軸4の方向を制御する。これにより、障害物検出装置2は、カメラ231およびレーザ測距装置232を用いて障害物を検出する際、カメラ231およびレーザ測距装置232の光軸4の方向を、列車10のゆれ、振動などに応じて補正して、監視領域の方向に制御することができる。この結果、障害物検出装置2は、障害物検出装置2が搭載される列車10の進路上の障害物の検出精度を向上させることができる。
 また、本実施の形態では、障害物検出装置2において、障害物判定部24は、カメラ231の監視結果であるカメラ画像に基づいて障害物の有無を判定し、障害物が有ると判定した場合、さらにレーザ測距装置232の監視結果である測距結果に基づいて障害物の有無を判定する。これにより、障害物検出装置2は、カメラ231のカメラ画像のみでは障害物の距離の推定が困難なため、レーザ測距装置232によるレーザによって障害物までの距離を測定することで、監視領域に障害物が有るか否かを精度良く判定することができる。
 なお、本実施の形態では、障害物検出装置2が列車10に搭載される場合について説明したが、これに限定されない。障害物検出装置2は、例えば、列車10以外の移動体であって、規定された経路を走行する移動体に搭載され、移動体の進路上の障害物を検出することも可能である。
実施の形態2.
 実施の形態1では、障害物検出装置2は、先にカメラ画像を用いて障害物を検出し、つぎに測距結果を用いて障害物を検出していた。実施の形態2では、障害物検出装置2は、先にレーザ測距装置232の監視結果を用いて障害物を検出し、つぎにカメラ画像を用いて障害物を検出する動作について説明する。
 実施の形態2において障害物検出装置2の構成は、図1に示す実施の形態1のときの障害物検出装置2の構成と同様である。
 図9は、実施の形態2に係る障害物検出装置2が障害物を検出する動作を示すフローチャートである。障害物検出装置2において、監視領域決定部21の監視領域算出部213は、センサ部23による列車10の進路上の監視領域を算出する(ステップS401)。監視領域算出部213は、後述する障害物判定部24の動作に係わらず、監視領域を算出する動作を継続して実施する。
 センサ光軸制御部22の光軸方向算出部223は、監視領域算出部213で算出された監視領域を、姿勢角算出部222で算出された列車10の姿勢角に基づいて補正し、レーザ測距装置232の走査方向を算出する(ステップS402)。具体的には、光軸方向算出部223は、図2に示す監視領域が走査範囲に含まれるようにレーザ測距装置232の走査方向を算出する。レーザ測距装置232は、光学素子233および駆動ミラー225を介してレーザを出射し、レーザを用いて監視領域を走査し(ステップS403)、走査結果を取得する(ステップS404)。このとき、光軸方向算出部223は、ミラードライバ224を介して駆動ミラー225を駆動させ、レーザ測距装置232のレーザ出射方向を制御する。レーザ測距装置232は、走査結果を障害物判定部24の障害物検出部241に出力する。
 障害物検出部241は、走査結果に基づいて監視領域で障害物を検出しなかった場合(ステップS405:No)、監視領域で障害物を検出しなかった旨を光軸方向算出部223に通知する。障害物検出装置2は、ステップS401に戻って前述と同様の動作を行う。障害物検出部241は、走査結果に基づいて監視領域で障害物を検出した場合(ステップS405:Yes)、監視領域で障害物を検出した旨を光軸方向算出部223に通知する。
 光軸方向算出部223は、カメラ231が撮影する方向を算出する(ステップS406)。具体的には、光軸方向算出部223は、レーザ測距装置232の走査結果において障害物が検出された方向にカメラ231が向くようにカメラ231の方向を算出する。光軸方向算出部223は、ミラードライバ224を介して駆動ミラー225を駆動させ、カメラ231の方向を設定する(ステップS407)。カメラ231は、光学素子233および駆動ミラー225を介して監視領域を撮影し(ステップS408)、カメラ画像を取得する(ステップS409)。カメラ231は、カメラ画像を障害物判定部24の障害物検出部241に出力する。
 障害物検出部241は、カメラ画像上で障害物を検出しなかった場合(ステップS410:No)、カメラ画像上で障害物を検出しなかった旨を光軸方向算出部223に通知する。障害物検出装置2は、ステップS401に戻って前述と同様の動作を行う。障害物検出部241は、カメラ画像上で障害物を検出した場合(ステップS410:Yes)、カメラ画像および走査結果を衝突回避判定部242に出力する。衝突回避判定部242は、カメラ画像および走査結果に基づいて、列車10において障害物との衝突を回避するための衝突回避行動が必要か否かを判定する(ステップS411)。衝突回避判定部242は、カメラ画像および走査結果に基づいて、障害物検出部241で検出された障害物が、例えば、鳥類、小動物などと判定した場合、列車10が前方に進むことによって監視領域から逃げていく鳥類、小動物などの性質に鑑みて、衝突回避行動は不要と判定する(ステップS411:No)。障害物検出装置2は、ステップS401に戻って前述と同様の動作を行う。衝突回避判定部242は、カメラ画像および走査結果に基づいて、障害物検出部241で検出された障害物が、例えば、落石、倒木などと判定した場合、衝突回避行動が必要と判定する(ステップS411:Yes)。衝突回避判定部242は、障害物の情報とともに衝突回避行動を促す指示を、障害物検出装置2による障害物検出情報として出力装置3に出力する(ステップS412)。
 図10は、実施の形態2に係る障害物検出装置2が障害物を検出する動作のイメージを示す図である。障害物検出装置2は、まずレーザ測距装置232によるレーザ走査を行って、得られた走査結果を用いて監視領域において障害物の検出処理を行う。障害物検出装置2は、走査結果で障害物が検出されるまで、レーザ測距装置232によるレーザ走査を行う。障害物検出装置2は、走査結果で障害物が検出されると、つぎにカメラ231による撮影を行って、得られたカメラ画像を用いて障害物の検出処理を行う。障害物検出装置2は、カメラ画像で障害物が検出されると、検出された障害物が、列車10において衝突回避行動が必要な障害物か否かを判定する。
 以上説明したように、障害物検出装置2は、実施の形態1と同様、障害物検出装置2が搭載される列車10の進路上の障害物の検出精度を向上させることができる。
 また、本実施の形態では、障害物検出装置2において、障害物判定部24は、レーザ測距装置232の監視結果である走査結果に基づいて障害物の有無を判定し、障害物が有ると判定した場合、さらにカメラ231の監視結果であるカメラ画像に基づいて障害物の有無を判定する。これにより、障害物検出装置2は、レーザのみでは水平方向の位置の分解能が低い、または誤差が大きいため、カメラ231によるカメラ画像を用いることで、監視領域に障害物が有るか否かを精度良く判定することができる。また、雨、霧などの悪天候時、および夜間などの見通しが悪い状況において、レーザ測距装置232は、カメラ231による障害物検知が難しい場合でも障害物の検知が可能であるので、カメラ231と比較して有効である。
実施の形態3.
 実施の形態1,2では、障害物検出装置2は、カメラ231のカメラ画像およびレーザ測距装置232の監視結果に対して別々に障害物の検出を行っていた。実施の形態3では、障害物検出装置2は、カメラ231のカメラ画像およびレーザ測距装置232の走査結果の両方を用いて、障害物の検出を行う。
 実施の形態3において障害物検出装置2の構成は、図1に示す実施の形態1のときの障害物検出装置2の構成と同様である。
 図11は、実施の形態3に係る障害物検出装置2が障害物を検出する動作を示すフローチャートである。障害物検出装置2において、監視領域決定部21の監視領域算出部213は、センサ部23による列車10の進路上の監視領域を算出する(ステップS501)。監視領域算出部213は、後述する障害物判定部24の動作に係わらず、監視領域を算出する動作を継続して実施する。
 センサ光軸制御部22の光軸方向算出部223は、監視領域算出部213で算出された監視領域を、姿勢角算出部222で算出された列車10の姿勢角に基づいて補正し、カメラ231の視野方向を算出する(ステップS502)。具体的には、光軸方向算出部223は、光軸4が図2に示すカメラ視野中心にくるようにカメラ231の視野方向を算出する。光軸方向算出部223は、ミラードライバ224を介して駆動ミラー225を駆動させ、カメラ231の視野方向を設定する(ステップS503)。カメラ231は、光学素子233および駆動ミラー225を介して監視領域を撮影し(ステップS504)、カメラ画像を取得する(ステップS505)。カメラ231は、カメラ画像を障害物判定部24の障害物検出部241に出力する。
 センサ光軸制御部22の光軸方向算出部223は、監視領域算出部213で算出された監視領域を、姿勢角算出部222で算出された列車10の姿勢角に基づいて補正し、レーザ測距装置232の走査方向を算出する(ステップS506)。具体的には、光軸方向算出部223は、図2に示す監視領域が走査範囲に含まれるようにレーザ測距装置232の走査方向を算出する。レーザ測距装置232は、光学素子233および駆動ミラー225を介してレーザを出射し、レーザを用いて監視領域を走査し(ステップS507)、走査結果を取得する(ステップS508)。このとき、光軸方向算出部223は、ミラードライバ224を介して駆動ミラー225を駆動させ、レーザ測距装置232のレーザ出射方向を制御する。レーザ測距装置232は、走査結果を障害物判定部24の障害物検出部241に出力する。
 障害物検出部241は、カメラ画像および走査結果に基づいて監視領域で障害物を検出しなかった場合(ステップS509:No)、監視領域で障害物を検出しなかった旨を光軸方向算出部223に通知する。障害物検出装置2は、ステップS501に戻って前述と同様の動作を行う。障害物検出部241は、カメラ画像および走査結果に基づいて監視領域で障害物を検出した場合(ステップS509:Yes)、カメラ画像および走査結果を衝突回避判定部242に出力する。
 衝突回避判定部242は、カメラ画像および走査結果に基づいて、列車10において障害物との衝突を回避するための衝突回避行動が必要か否かを判定する(ステップS510)。衝突回避判定部242は、カメラ画像および走査結果に基づいて、障害物検出部241で検出された障害物が、例えば、鳥類、小動物などと判定した場合、列車10が前方に進むことによって監視領域から逃げていく鳥類、小動物などの性質に鑑みて、衝突回避行動は不要と判定する(ステップS510:No)。障害物検出装置2は、ステップS501に戻って前述と同様の動作を行う。衝突回避判定部242は、カメラ画像および走査結果に基づいて、障害物検出部241で検出された障害物が、例えば、落石、倒木などと判定した場合、衝突回避行動が必要と判定する(ステップS510:Yes)。衝突回避判定部242は、障害物の情報とともに衝突回避行動を促す指示を、障害物検出装置2による障害物検出情報として出力装置3に出力する(ステップS511)。
 図12は、実施の形態3に係る障害物検出装置2が障害物を検出する動作のイメージを示す図である。障害物検出装置2は、カメラ231による撮影を行ってカメラ画像を得て、レーザ測距装置232によるレーザ走査を行って走査結果を得る。障害物検出装置2は、カメラ画像および走査結果で障害物が検出されると、検出された障害物が、列車10において衝突回避行動が必要な障害物か否かを判定する。
 なお、本実施の形態では、障害物検出装置2は、先にカメラ231による撮影を行ってカメラ画像を取得し、つぎにレーザ測距装置232による走査によって走査結果を取得していたが、これに限定されない。障害物検出装置2は、先にレーザ測距装置232による走査によって走査結果を取得し、つぎにカメラ231による撮影を行ってカメラ画像を取得してもよい。
 以上説明したように、障害物検出装置2は、実施の形態1,2と同様、障害物検出装置2が搭載される列車10の進路上の障害物の検出精度を向上させることができる。
 また、本実施の形態では、障害物検出装置2において、センサ光軸制御部22は、カメラ231による撮影とレーザ測距装置232による走査とが交互に時分割で行われるように、駆動ミラー225の制御を切り替える。障害物判定部24は、カメラ231の監視結果であるカメラ画像およびレーザ測距装置232の監視結果である走査結果に基づいて障害物の有無を判定する。これにより、障害物検出装置2は、効率良く障害物の有無を判定できるとともに、監視領域に障害物が有るか否かを精度良く判定することができる。また、障害物検出装置2は、実施の形態1,2と比較して、障害物の検出においてリアルタイム性を向上させることができる。
 以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。
 1 列車制御装置、2 障害物検出装置、3 出力装置、4 光軸、10 列車、20 監視領域制御部、21 監視領域決定部、22 センサ光軸制御部、23 センサ部、24 障害物判定部、211 位置速度取得部、212 地図データ記憶部、213 監視領域算出部、221 姿勢角測定装置、222 姿勢角算出部、223 光軸方向算出部、224 ミラードライバ、225 駆動ミラー、231 カメラ、232 レーザ測距装置、233 光学素子、241 障害物検出部、242 衝突回避判定部。

Claims (14)

  1.  列車に搭載される障害物検出装置であって、
     カメラ、レーザ測距装置、および光学素子を有し、前記カメラの光軸および前記レーザ測距装置の光軸を、前記光学素子を用いて同一方向の光軸にするセンサ部と、
     前記列車の位置、地図データ記憶部に記憶され前記列車が走行する線路の位置を示す地図情報、および前記列車の姿勢角を用いて、前記センサ部による監視領域を算出し、駆動ミラーを用いて前記センサ部の前記光軸の方向を前記列車の進路上に制御する監視領域制御部と、
     前記カメラおよび前記レーザ測距装置の監視結果に基づいて、前記列車の進路上の障害物を検出し、前記列車において前記障害物との衝突を回避するための衝突回避行動が必要か否かを判定する障害物判定部と、
     を備えることを特徴とする障害物検出装置。
  2.  前記障害物判定部は、前記カメラの監視結果に基づいて前記障害物の有無を判定し、前記障害物が有ると判定した場合、さらに前記レーザ測距装置の監視結果に基づいて前記障害物の有無を判定する、
     ことを特徴とする請求項1に記載の障害物検出装置。
  3.  前記障害物判定部は、前記レーザ測距装置の監視結果に基づいて前記障害物の有無を判定し、前記障害物が有ると判定した場合、さらに前記カメラの監視結果に基づいて前記障害物の有無を判定する、
     ことを特徴とする請求項1に記載の障害物検出装置。
  4.  前記監視領域制御部は、前記カメラによる撮影と前記レーザ測距装置による走査とが交互に時分割で行われるように、前記駆動ミラーの制御を切り替え、
     前記障害物判定部は、前記カメラの監視結果および前記レーザ測距装置の監視結果に基づいて前記障害物の有無を判定する、
     ことを特徴とする請求項1に記載の障害物検出装置。
  5.  前記障害物判定部は、前記カメラの監視結果および前記レーザ測距装置の監視結果に基づいて前記障害物が有ると判定した場合、前記衝突回避行動が必要か否かを判定し、前記衝突回避行動が必要と判定した場合、前記障害物の検出情報を出力する、
     ことを特徴とする請求項1から4のいずれか1つに記載の障害物検出装置。
  6.  前記監視領域制御部は、前記カメラによる撮影のときはブレ補正を行いつつ、前記駆動ミラーの向きを制御し、前記レーザ測距装置による走査のときはブレ補正を行いつつ、前記監視領域を含む走査範囲を走査できるように前記駆動ミラーの向きを制御する、
     ことを特徴とする請求項1から5のいずれか1つに記載の障害物検出装置。
  7.  前記監視領域制御部は、
     前記列車の位置、前記列車の速度、および前記地図情報を用いて、前記センサ部による監視領域を決定する監視領域決定部と、
     前記監視領域決定部で決定された前記監視領域を前記列車の姿勢角に基づいて補正し、駆動ミラーを用いて前記センサ部の前記光軸の方向を前記列車の進路上に制御するセンサ光軸制御部と、
     を備えることを特徴とする請求項1から6のいずれか1つに記載の障害物検出装置。
  8.  列車に搭載され、カメラ、レーザ測距装置、および光学素子を有し、前記カメラの光軸および前記レーザ測距装置の光軸を、前記光学素子を用いて同一方向の光軸にするセンサ部を備える障害物検出装置の障害物検出方法であって、
     監視領域制御部が、前記列車の位置、地図データ記憶部に記憶され前記列車が走行する線路の位置を示す地図情報、および前記列車の姿勢角を用いて、前記センサ部による監視領域を算出し、駆動ミラーを用いて前記センサ部の前記光軸の方向を前記列車の進路上に制御する第1のステップと、
     障害物判定部が、前記カメラおよび前記レーザ測距装置の監視結果に基づいて、前記列車の進路上の障害物を検出し、前記列車において前記障害物との衝突を回避するための衝突回避行動が必要か否かを判定する第2のステップと、
     を含むことを特徴とする障害物検出方法。
  9.  前記第2のステップにおいて、前記障害物判定部は、前記カメラの監視結果に基づいて前記障害物の有無を判定し、前記障害物が有ると判定した場合、さらに前記レーザ測距装置の監視結果に基づいて前記障害物の有無を判定する、
     ことを特徴とする請求項8に記載の障害物検出方法。
  10.  前記第2のステップにおいて、前記障害物判定部は、前記レーザ測距装置の監視結果に基づいて前記障害物の有無を判定し、前記障害物が有ると判定した場合、さらに前記カメラの監視結果に基づいて前記障害物の有無を判定する、
     ことを特徴とする請求項8に記載の障害物検出方法。
  11.  前記第1のステップにおいて、前記監視領域制御部は、前記カメラによる撮影と前記レーザ測距装置による走査とが交互に時分割で行われるように、前記駆動ミラーの制御を切り替え、
     前記第2のステップにおいて、前記障害物判定部は、前記カメラの監視結果および前記レーザ測距装置の監視結果に基づいて前記障害物の有無を判定する、
     ことを特徴とする請求項8に記載の障害物検出方法。
  12.  前記第2のステップにおいて、前記障害物判定部は、前記カメラの監視結果および前記レーザ測距装置の監視結果に基づいて前記障害物が有ると判定した場合、前記衝突回避行動が必要か否かを判定し、前記衝突回避行動が必要と判定した場合、前記障害物の検出情報を出力する、
     ことを特徴とする請求項8から11のいずれか1つに記載の障害物検出方法。
  13.  前記第1のステップにおいて、前記監視領域制御部は、前記カメラによる撮影のときはブレ補正を行いつつ、前記駆動ミラーの向きを制御し、前記レーザ測距装置による走査のときはブレ補正を行いつつ、前記監視領域を含む走査範囲を走査できるように前記駆動ミラーの向きを制御する、
     ことを特徴とする請求項8から12のいずれか1つに記載の障害物検出方法。
  14.  前記監視領域制御部は、監視領域決定部およびセンサ光軸制御部を備え、
     前記第1のステップは、
     前記監視領域決定部が、前記列車の位置、前記列車の速度、および前記地図情報を用いて、前記センサ部による監視領域を決定する第3のステップと、
     前記センサ光軸制御部が、前記監視領域決定部で決定された前記監視領域を前記列車の姿勢角に基づいて補正し、駆動ミラーを用いて前記センサ部の前記光軸の方向を前記列車の進路上に制御する第4のステップと、
     を含むことを特徴とする請求項8から13のいずれか1つに記載の障害物検出方法。
PCT/JP2019/050398 2019-12-23 2019-12-23 障害物検出装置および障害物検出方法 WO2021130824A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021566404A JP7170912B2 (ja) 2019-12-23 2019-12-23 障害物検出装置および障害物検出方法
PCT/JP2019/050398 WO2021130824A1 (ja) 2019-12-23 2019-12-23 障害物検出装置および障害物検出方法
US17/787,778 US20230076273A1 (en) 2019-12-23 2019-12-23 Obstacle detection device and obstacle detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/050398 WO2021130824A1 (ja) 2019-12-23 2019-12-23 障害物検出装置および障害物検出方法

Publications (1)

Publication Number Publication Date
WO2021130824A1 true WO2021130824A1 (ja) 2021-07-01

Family

ID=76575790

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/050398 WO2021130824A1 (ja) 2019-12-23 2019-12-23 障害物検出装置および障害物検出方法

Country Status (3)

Country Link
US (1) US20230076273A1 (ja)
JP (1) JP7170912B2 (ja)
WO (1) WO2021130824A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023100523A1 (ja) * 2021-12-02 2023-06-08 株式会社日立製作所 センサ制御システム及びセンサ制御方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021149211A1 (ja) * 2020-01-23 2021-07-29
CN113885507A (zh) * 2021-10-20 2022-01-04 北京京东乾石科技有限公司 障碍物确定方法和装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0710003A (ja) * 1993-04-28 1995-01-13 East Japan Railway Co 鉄道車両用支障物検知装置
JPH09166452A (ja) * 1995-12-14 1997-06-24 Pioneer Electron Corp 運転支援装置
JP2009154641A (ja) * 2007-12-26 2009-07-16 Jtekt Corp 運転支援装置
JP2015195569A (ja) * 2014-03-25 2015-11-05 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 移動体用撮影装置
JP2019181996A (ja) * 2018-04-02 2019-10-24 株式会社東芝 前方監視装置、支障物衝突回避装置及び列車制御装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003259357A (ja) * 2002-03-05 2003-09-12 Mitsubishi Electric Corp カメラのキャリブレーション方法及びカメラのアタッチメント

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0710003A (ja) * 1993-04-28 1995-01-13 East Japan Railway Co 鉄道車両用支障物検知装置
JPH09166452A (ja) * 1995-12-14 1997-06-24 Pioneer Electron Corp 運転支援装置
JP2009154641A (ja) * 2007-12-26 2009-07-16 Jtekt Corp 運転支援装置
JP2015195569A (ja) * 2014-03-25 2015-11-05 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 移動体用撮影装置
JP2019181996A (ja) * 2018-04-02 2019-10-24 株式会社東芝 前方監視装置、支障物衝突回避装置及び列車制御装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023100523A1 (ja) * 2021-12-02 2023-06-08 株式会社日立製作所 センサ制御システム及びセンサ制御方法

Also Published As

Publication number Publication date
JPWO2021130824A1 (ja) 2021-07-01
JP7170912B2 (ja) 2022-11-14
US20230076273A1 (en) 2023-03-09

Similar Documents

Publication Publication Date Title
WO2021130824A1 (ja) 障害物検出装置および障害物検出方法
JP4882428B2 (ja) 環境認識装置
JP6994879B2 (ja) 測量システム
JP2023169209A (ja) 制御装置、制御方法、プログラム及び記憶媒体
JP5105596B2 (ja) 自律走行移動体の走行経路決定用地図作成装置及び走行経路決定用地図作成方法
JP4930443B2 (ja) 地図データ生成装置および地図データ生成方法
JP7197282B2 (ja) 物体検知システム
JP2000504418A (ja) 距離及び/又は位置測定装置
KR20190074769A (ko) 라이다 장치
US20220206502A1 (en) Blind area estimation apparatus, vehicle travel system, and blind area estimation method
JP6811661B2 (ja) 移動体撮像装置および移動体
JP6844307B2 (ja) 画角調整方法
JP6186863B2 (ja) 測距装置及びプログラム
KR102343020B1 (ko) 노면 영상정보를 이용한 자율주행 차량의 위치신호 보정장치
JP6699019B2 (ja) 壁面計測装置、飛行ロボットおよび壁面検査システム
JP4745160B2 (ja) 移動ロボット
JP2018024374A (ja) 車両用投影装置
CN113016179A (zh) 摄像机系统和车辆
JP6943678B2 (ja) 外界認識装置
JP2006214903A (ja) 建築限界支障物検出装置
TWI630372B (zh) Laser detection device
JP4630004B2 (ja) 測量機
JP3122777B2 (ja) 無人走行車の測距装置
WO2020080091A1 (ja) 車両点検装置および方法
KR102421831B1 (ko) 차량 및 차량의 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19957536

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021566404

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19957536

Country of ref document: EP

Kind code of ref document: A1