WO2020161818A1 - 監視装置及び方法 - Google Patents

監視装置及び方法 Download PDF

Info

Publication number
WO2020161818A1
WO2020161818A1 PCT/JP2019/004203 JP2019004203W WO2020161818A1 WO 2020161818 A1 WO2020161818 A1 WO 2020161818A1 JP 2019004203 W JP2019004203 W JP 2019004203W WO 2020161818 A1 WO2020161818 A1 WO 2020161818A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
moving body
acquisition unit
data acquisition
around
Prior art date
Application number
PCT/JP2019/004203
Other languages
English (en)
French (fr)
Inventor
今井 良枝
村山 修
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to ES19914410T priority Critical patent/ES2945839T3/es
Priority to PCT/JP2019/004203 priority patent/WO2020161818A1/ja
Priority to JP2020570257A priority patent/JP6914461B2/ja
Priority to EP19914410.6A priority patent/EP3907121B1/en
Publication of WO2020161818A1 publication Critical patent/WO2020161818A1/ja
Priority to US17/388,353 priority patent/US20210354737A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L23/00Control, warning or like safety means along the route or between vehicles or trains
    • B61L23/04Control, warning or like safety means along the route or between vehicles or trains for monitoring the mechanical state of the route
    • B61L23/041Obstacle detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L15/00Indicators provided on the vehicle or train for signalling purposes
    • B61L15/0072On-board train data handling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L25/00Recording or indicating positions or identities of vehicles or trains or setting of track apparatus
    • B61L25/02Indicating or recording positions or identities of vehicles or trains
    • B61L25/021Measuring and recording of train speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L25/00Recording or indicating positions or identities of vehicles or trains or setting of track apparatus
    • B61L25/02Indicating or recording positions or identities of vehicles or trains
    • B61L25/023Determination of driving direction of vehicle or train
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L25/00Recording or indicating positions or identities of vehicles or trains or setting of track apparatus
    • B61L25/02Indicating or recording positions or identities of vehicles or trains
    • B61L25/025Absolute localisation, e.g. providing geodetic coordinates

Definitions

  • the present invention relates to a device for monitoring abnormality of railway equipment.
  • Patent Document 1 while the railway vehicle is traveling, the captured image data obtained by capturing the front is compared with the background image data that has been captured in advance, and obstacles to the railway equipment such as overhead lines and rails are automatically detected. It is described to detect. With this, in Patent Document 1, it is intended to efficiently monitor the abnormality of the railway equipment.
  • Patent Document 1 has a problem that it is possible to detect a fallen object of a railroad vehicle traveling before the railroad vehicle, but it is not possible to detect a fallen object when the user travels.
  • the present invention has been made to solve the above problems, and an object thereof is to detect a falling object from a railway vehicle by the railway vehicle.
  • a monitoring device includes a front data acquisition unit that acquires front peripheral data and a status information of the moving body with respect to a traveling direction acquired by a sensor installed in front of the moving body, and is installed behind the moving body.
  • a rear data acquisition unit that acquires rear peripheral data and status information of the moving body with respect to the traveling direction acquired by the sensor, and a position identification unit that identifies positions of the front peripheral data and the rear peripheral data.
  • a target object detection unit that detects the target object by comparing the data of the rear peripheral data at the same position as the data of the front peripheral data, and detects an abnormality.
  • the railway vehicle it becomes possible for the railway vehicle to detect a fallen object generated while the railway vehicle is running.
  • FIG. 3 is a hardware configuration diagram showing a moving body according to the first embodiment.
  • FIG. 3 is a functional configuration diagram showing a monitoring device according to the first embodiment.
  • 5 is a flowchart showing the operation of the monitoring device according to the first embodiment.
  • FIG. 9 is a hardware configuration diagram of a moving body according to a first modification of the first embodiment.
  • FIG. 9 is a hardware configuration diagram of a moving body according to a second modification of the first embodiment. It is a functional block diagram which shows the monitoring apparatus which concerns on Embodiment 2.
  • 7 is a flowchart showing the operation of the monitoring device according to the second embodiment.
  • FIG. 1 is a hardware configuration diagram of a mobile unit using the monitoring device according to the present embodiment.
  • 100 is a moving body
  • 10 is a monitoring device
  • 101 is a vehicle control unit.
  • the monitoring device 10 is a computer mounted on the mobile body 100.
  • monitoring device 10 may be mounted in an integrated form or inseparable form with the moving body 100 or the other illustrated components, or may be mounted in a detachable form or a separable form. May be. Further, in the present embodiment, a railway vehicle is used as an example of mobile body 100, but monitoring device 10 is not limited to the one described in the present embodiment.
  • the monitoring device 10 includes hardware such as a processor 11, a storage device 12, a communication interface 13, and an in-vehicle interface 14.
  • the processor 11 is connected to other hardware via the system bus and controls these other hardware.
  • the processor 11 is an IC (Integrated Circuit) that performs processing.
  • the processor 11 is, as a specific example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a GPU (Graphics Processing Unit).
  • the storage device 12 includes a memory 121 and a storage 122.
  • the memory 121 is, as a specific example, a RAM (Random Access Memory).
  • the storage 122 is, as a specific example, a HDD (Hard Disk Drive). Further, the storage 122 may be a portable storage medium such as an SD (Secure Digital) memory card, a CF (CompactFlash), a NAND flash, a flexible disk, an optical disk, a compact disk, a Blu-ray (registered trademark) disk, or a DVD.
  • SD Secure Digital
  • CF CompactFlash
  • NAND flash NAND flash
  • the communication interface 13 is a device for communicating with communication devices around the mobile unit 100.
  • the communication interface 13 is, as a specific example, an Ethernet (registered trademark) or USB (Universal Serial Bus) terminal.
  • the in-vehicle interface 14 is a device for connecting to the vehicle control unit 101 mounted on the moving body 100.
  • the vehicle-mounted interface 14 is, as a specific example, a USB, IEEE 1394, or HDMI (registered trademark) terminal.
  • the vehicle control unit 101 is a device that controls sensors such as a camera, a LiDAR (Light Detection and Ranging), a radar, a sonar, and a positioning device, and a moving body 100 such as a steering wheel, a brake, and an accelerator.
  • sensors such as a camera, a LiDAR (Light Detection and Ranging), a radar, a sonar, and a positioning device, and a moving body 100 such as a steering wheel, a brake, and an accelerator.
  • FIG. 2 shows a functional configuration diagram of the monitoring device 10.
  • the monitoring device 10 includes a front data acquisition unit 21, a rear data acquisition unit 22, a position identification unit 23, an object detection unit 24, and a history storage unit 25 as functional components. Further, 31 is front data, 32 is rear data, 41 is alignment data, and 42 is exclusion data.
  • the front data acquisition unit 21 collects information obtained by a sensor installed in front of the moving body 100 via the vehicle control unit 101.
  • the sensor is a camera installed in front of the moving body 100 (front camera), and the information obtained from the front camera is described as data around the front, but it is obtained from data such as LiDAR, radar, and sonar. It may be information provided.
  • the information collected by the front camera is the traveling direction of moving body 100, but the sensor only needs to be installed in front of moving body 100, and the direction of the information collected by the sensor is It can be in any direction.
  • the obtained data around the front is recorded in the storage 122. Further, the front data acquisition unit 21 acquires the position information of the moving body 100 when acquiring the data around the front, the speed of the moving body 100, the posture angle (roll angle, pitch angle, yaw angle), and the movement at the time of acquisition.
  • the status information of the moving body 100 such as the light color illuminated by the body 100 is also recorded in the storage 122.
  • the position information of the moving body 100 may be, for example, the latitude and longitude of the moving body 100 acquired by using the output value of the positioning device connected to the positioning device via the vehicle control unit 101.
  • the data recorded by the front data acquisition unit 21 in the storage 122 is referred to as front data 31.
  • the rear data acquisition unit 22 collects information obtained by a sensor installed behind the moving body 100 via the vehicle control unit 101.
  • the sensor is a camera (rear camera) installed in the rear of the moving body 100, and the image obtained from the rear camera is described as the data around the rear. However, it is obtained from data such as LiDAR, radar, and sonar. It may be information provided.
  • the information collected by the rear camera is in the direction opposite to the traveling direction of the moving body 100, but the sensor only needs to be installed behind the moving body 100, and the information collected by the sensor is sufficient.
  • the orientation of may be any direction.
  • the obtained data around the rear is recorded in the storage 122.
  • the rear data acquisition unit 22 acquires the position information of the moving body 100, the speed of the moving body 100, the posture angle (roll angle, pitch angle, yaw angle), the movement at the time of acquisition, when the data of the rear surroundings is acquired.
  • the status information of the moving body 100 such as the light color illuminated by the body 100 is also recorded in the storage 122.
  • the position information of the moving body 100 may be, for example, the latitude and longitude of the moving body 100 acquired by using the output value of the positioning device connected to the positioning device via the vehicle control unit 101.
  • the data that the backward data acquisition unit 22 records in the storage 122 is referred to as backward data 32.
  • the data may be stored in the memory 121, or other areas provided in the storage device 12 or other areas.
  • it may be an external device (not shown) that is connected first via the communication I/F 13.
  • the position identification unit 23 is called by the front data acquisition unit 21 and the rear data acquisition unit 22.
  • the position of the front data 31 is identified when called by the front data acquisition unit 21, and the position of the rear data 32 is identified when called by the rear data acquisition unit 22.
  • the identified positions of the data around the front and the positions of the data around the rear are the positions where the information obtained from the sensor is shown (identification position information), and are not the positions of the moving body 100.
  • the identified position information identified by the position identifying unit 23 is recorded together with the front data 31 and the rear data 32, but if it is known which data is interlocked, it is different. May be recorded in the area. Further, the position identifying unit 23 may identify the positions of the data around the front and the data around the rear by using the alignment data 41.
  • the alignment data 41 for example, any structure such as a building standing along a railroad, a pillar, a signboard, or a characteristic landscape can be used as long as the data acquired by the sensor can be uniquely specified.
  • the position identifying unit 23 matches the data around the front and the data around the rear with these position alignment data 41. If there is such information, the position can be identified without using the status information of the moving body 100, and the processing time can be shortened.
  • a camera is used as the sensor, but in the case of a radar or sonar, a combination of an object made of a material that generates a characteristic reflected wave and its position information may be used.
  • the object detection unit 24 compares the identified position information recorded in the front data 31 with the identified position information recorded in the rear data 32, and detects a matching combination. If there is a combination in which the identification position information matches, the object detection unit 24 compares the data around the front and the data around the rear, and if there is a difference, it is a drop that occurs when the moving body 100 passes through. It judges that it is a thing and warns of abnormality.
  • the object detection unit 24 uses the exclusion data 42 to determine whether or not the object that is determined to be a falling object is actually a falling object that occurs when the moving object 100 passes through.
  • the exclusion data 42 for example, image data such as animals such as crows and cats, gravel and stones, paper dust such as newspapers and magazines flying in the wind, and vinyl sheets may be held.
  • the object detection unit 24 compares the image determined to be a falling object with the image of the exclusion data 42, and if they match, it is determined that the falling object does not occur when the moving body 100 passes. Therefore, it is not necessary to erroneously notify the moving body 100 of the occurrence of a falling object. At this time, although it is not a falling object from the moving body 100, a warning that something has flown from outside may be issued before and after the moving body 100 has passed.
  • the alignment data 41 and the exclusion data 42 may be recorded in the storage 122 or the memory 121. Further, it may be an area other than that provided in the storage device 12 or an external device (not shown) connected first via the communication I/F 13.
  • each functional component of the monitoring device 10 is realized by software.
  • the storage 122 of the storage device 12 stores a program that realizes the function of each functional component realized by software. This program is read into the memory 121 by the processor 11 and executed by the processor 11.
  • the storage 122 also implements the function of the history storage unit 25.
  • the history storage unit 25 stores information about the fallen objects detected by the object detection unit 24 in the past. For example, it may be the position, time, number of times, etc. at which the falling object was detected.
  • the front data acquisition unit 21 and the rear data acquisition unit 22 shorten the data collection interval near the position where the frequency of falling objects is high, and reverse. In the vicinity of the position where no falling object is generated, it is possible to efficiently acquire the data around the front and the data around the rear by increasing the data collection interval.
  • FIG. 1 the case where there is only one processor 11 has been described. However, a plurality of processors 11 may be provided, and the plurality of processors 11 each function of the monitoring device 10. You may cooperate and execute the program which implement
  • FIG. 3 is a flowchart showing the processing of the monitoring device according to the present embodiment.
  • the operation of the monitoring device 10 according to the first embodiment will be described with reference to FIG.
  • the processes of the front data acquisition unit 21, the rear data acquisition unit 22, the position identification unit 23, and the object detection unit 24 are sequentially executed as shown in the flowchart.
  • three of the front data acquisition unit 21, the rear data acquisition unit 22, and the object detection unit 24, excluding the position identification unit 23 called from the front data acquisition unit 21 and the rear data acquisition unit 22, are executed in parallel. May be.
  • Step S11 Forward data acquisition process
  • the front data acquisition unit 21 acquires front peripheral data and status information with a sensor installed in front of the moving body 100, and writes the data in the front data 31.
  • the front data acquisition unit 21 calls the position identification unit 23.
  • Step S12 Calculation/Identification of Forward Data Position
  • the position identification unit 23 identifies the positions of data around the front from the status information written in the front data 31, and writes the positions in the front data 31.
  • Step S13 backward data acquisition process
  • the rear data acquisition unit 22 acquires rear peripheral data and status information with a sensor installed in the rear of the moving body 100, and writes the data in the rear data 32.
  • the rear data acquisition unit 22 calls the position identification unit 23.
  • Step S14 Calculation/Identification of Rear Data Position
  • the position identifying unit 23 identifies the positions of data around the rear from the status information written in the rear data 32, and writes the data in the rear data 32.
  • Step S15 Object detection
  • the object detection unit 24 compares the identified position information of the front data 31 and the rear data 32 accumulated in the storage 122, and detects a matching combination. If there is a combination in which the identification position information matches, the object detection unit 24 compares the data around the front and the data around the rear, and if there is a difference, it is a drop that occurs when the moving body 100 passes through. It judges that it is a thing and warns of abnormality.
  • the object detection unit 24 performs conversion of the pixel signal of either the front data 31 or the rear data 32 using the respective status information and the characteristics of the acquired data.
  • the status information will be described in detail. Specifically, the speed information and posture angle (roll angle, pitch angle, yaw angle) of the moving body 100, and the characteristics of the sensor mounted on the vehicle control unit 101 used to acquire the data are used. For example, in the case of a camera, the lens and sensor size are characteristics, and the focal length and the angle of view are determined from these characteristics. In the photographed camera image, it is possible to roughly know which distance a pixel in the camera image corresponds from the photographing position, the focal length, and the angle of view, and as a result, the position of the pixel signal can be known.
  • the object detection unit 24 obtains the position of the pixel signal for each of the front data and the rear data, and searches for a pair of the front data 31 and the rear data 32 in which the position of the pixel signal is the same, and the comparison I do. Note that when comparing pixel signals, it is possible to use features such as markers and landmarks recorded in the data. At that time, scaling and angle adjustment may be performed in order to match the sizes of pixels and obstacles.
  • the same pixel signal position may appear in a plurality of images such as a near view and a distant view depending on the shooting interval.
  • the identification accuracy is improved by not using the one with the low resolution and prioritizing the image with the high resolution.
  • the same pixel signal position appears in a plurality of images having different subject depths depending on the shooting interval.
  • the identification system becomes high if the image with low resolution due to blurring is not used and the image with no blurring and high resolution is given priority.
  • the shadow of a moving object may appear.
  • the shadow-free image may be preferentially used by correcting the shadow so as to match it or changing the direction of the sensor. Whether or not it is a shadow can be detected from the image signal, but it is also possible to calculate the position of the sun from the shooting time and location and predict it from the size of the moving object, and it is determined in advance that it is not suitable for identification processing. It is possible not to use it if
  • the object detection unit 24 searches for an object to be detected at the identified data position based on the pixel signal.
  • the object detection unit 24 can create the stereoscopic image by converting the viewpoint from the front data 31.
  • the stereoscopic image may be a bird's-eye view image or a three-dimensionally reconstructed image.
  • the object detection unit 24 similarly performs the same processing on the rear data 32.
  • the object detection unit 24 absorbs the difference in color between the front light and the rear light by using the set value such as the color of the light in the status information.
  • the difference in light color can be easily converted using the von Kries color conversion formula. As described above, even if a color difference occurs between the camera image acquired in front of the moving object 100 and the camera image acquired behind the moving object 100, it is possible to prevent erroneous detection as an obstacle.
  • the monitoring device 10 includes the front data acquired by the front data acquisition unit 21 and the status information when the front data is acquired, and the rear data acquired by the rear data acquisition unit 22.
  • the status information when the data and the rear data are acquired, and the position identifying unit 23 identifies the position by using the characteristics of the status information when the front data is acquired and the status information when the rear data is acquired, By comparing the front data and the rear data having the same identification position information and detecting the falling object, if the falling object occurs during the movement of the moving body 100, it can be immediately detected.
  • the front data acquisition part 21 demonstrated the case where the front direction data was acquired with respect to the advancing direction of the mobile body 100, even if the sensor is installed in the head of the mobile body 100. For example, data around the rear may be acquired.
  • the rear data acquisition unit 22 has described the case of acquiring data around the rear with respect to the traveling direction of the moving body 100, as long as the sensor is installed at the tail of the moving body 100, the data around the front is detected. Data may be acquired.
  • the front data acquisition unit 21 and the rear data acquisition unit 22 are installed at the head and the rear data acquisition unit 22, respectively, of each of the trains forming the mobile unit 100.
  • the front data acquisition unit 21 of the vehicle and the rear data acquisition unit 22 of the rearmost vehicle may be used. By doing so, even when the connection of the moving body 100 is cut off, the front data acquisition unit 21 of the frontmost vehicle and the rear data acquisition unit 22 of the rearmost vehicle are used in each of the divided mobile bodies. It becomes possible.
  • the front data acquisition unit 21 of the frontmost mobile unit 100 and the rear data acquisition unit 22 of the rearmost mobile unit 100 may be used. Good.
  • FIG. 4 shows the hardware configuration of the monitoring device 10 according to the first modification.
  • the monitoring device 10 includes an electronic circuit 15 instead of the processor 11 and the storage device 12.
  • the electronic circuit 15 is a dedicated circuit that realizes each functional component and the function of the storage device 12.
  • FIG. 4 illustrates the case where the communication interface 13, the vehicle-mounted interface 14, and the electronic circuit 15 are connected by a bus as in FIG. 1, the electronic circuit 15 has the functions of the communication interface 13 and the vehicle-mounted interface 14 together. It may be one circuit to be realized.
  • the electronic circuit 15 includes a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, a logic IC, a GA (Gate Array), an ASIC (Application Specific Integrated Circuit), and an FPGA (Field-Programmable Gate Array). is assumed.
  • each functional constituent element of the monitoring device 10 described in the first embodiment may be realized as one electronic circuit 15, or each functional constituent element may be dispersed in a plurality of electronic circuits 15 and realized. ..
  • FIG. 5 shows the configuration of the monitoring device 10 according to the second modification.
  • the processor 11, the storage device 12, and the electronic circuit 15 are called a processing circuit. That is, the function of each functional component is realized by the processing circuit.
  • Embodiment 2 In the first embodiment, the fallen object of the railway vehicle is detected, but an embodiment in which an obstacle is detected when there is a platform door next to the station will be described.
  • the present embodiment is different from the first embodiment in that mobile unit 100 identifies the position of data around the front and the position of data around the rear based on the position of the platform door of the station. In the present embodiment, these different points will be described, and description of the same points will be omitted.
  • FIG. 6 shows a functional configuration diagram of the monitoring device 10 according to the present embodiment.
  • reference numeral 26 is a control unit for the monitoring device 10 to identify the position of the data in the vicinity of the front and the position of the data in the vicinity of the rear based on the position of the platform door of the station.
  • the control unit 26 has, for example, an image of the home door in advance, and determines whether the data of the front door is included in the data around the front acquired by the front data acquisition unit 21.
  • the front data acquisition unit 21 is called each time the station's home door is approached, and the rear data acquisition unit 22 is called each time the rear end of the mobile unit 100 approaches the station's home door.
  • the control unit 26 also outputs an abnormality warning when the object detection unit 24 detects an obstacle.
  • the same reference numerals as those in FIG. 2 represent the same or corresponding portions, and except for the control unit 26, the same operation as that described in FIG. 2 used in the first embodiment is performed.
  • FIG. 7 is a flowchart showing the operation of the monitoring device 10 according to this embodiment.
  • the operation of the monitoring device 10 according to the present embodiment will be described with reference to FIG. 7.
  • the control unit 26 calls the front data acquisition unit 21, the rear data acquisition unit 22, and the target object detection unit 24 and detects an obstacle
  • a warning of abnormality is given.
  • the front data acquisition unit 21, the rear data acquisition unit 22, and the object other than the position identification unit 23 called from the front data acquisition unit 21 and the rear data acquisition unit 22 are excluded.
  • the three detection units 24 may be executed in parallel. Then, in that case, an abnormality warning may be output when the object detection unit 24 detects an obstacle.
  • Step S21 Forward data acquisition process
  • the control unit 26 repeatedly calls the front data acquisition unit 21 until the railway vehicle stops at the station.
  • the front data acquisition unit 21 is a sensor installed in front of the moving body 100 and acquires data around the front.
  • the front data acquisition unit 21 writes the acquired data around the front in the memory 121.
  • the control unit 26 calls the front data acquisition unit 21 when the railway vehicle approaches each home door.
  • the front data acquisition unit 21 sets front surrounding data and status information as the front data 31. Record.
  • the front data at three locations are written in the memory 121.
  • Step S22 Position identification processing of data around the front
  • the front data acquisition unit 21 calls the position identification unit 23, and the position identification unit 23 identifies the position of the data around the front and writes it in the front data 31.
  • Step S23 Waiting for getting on/off
  • the control unit 26 waits until the vehicle door and the platform door of the railway vehicle are opened, passengers get on and off, and the platform door and the vehicle door are closed.
  • Step S24 backward data acquisition process
  • the control unit 26 calls the rearward data acquisition unit 22 until it leaves the railway vehicle station.
  • the rear data acquisition unit 22 acquires data around the rear with a sensor installed behind the mobile body 100.
  • the rear periphery data acquisition unit 22 collects the information obtained by the sensor via the vehicle control unit 101.
  • the rear data acquisition unit 22 writes the acquired rear data 32 in the memory 121.
  • the rear data acquisition unit 22 detects the rear when the tail of the moving body 100 approaches a predetermined position of each vehicle door or the home door (for example, a position overlooking the entire door). Get peripheral data and status information. In this way, the data in the three rear areas corresponding to the data in the three front areas are written in the memory 121.
  • Step S25 Position identification processing of data around the rear
  • the rear data acquisition unit 22 calls the position identifying unit 23, and the position identifying unit 23 identifies the position of the data around the rear and writes it in the rear data 32.
  • Step S26 Obstacle detection process
  • the control unit 26 calls the object detection unit 24. Similar to the first embodiment, the object detection unit 24 compares the data around the front and the data around the rear where the identified positions match, and if there is a difference, it occurs when the moving body 100 passes through. Judge that it is a fallen object and warn of an abnormality.
  • the position identifying unit 23 may identify the position of the obstacle from the numbers or codes written on the platform doors stored in the front data and the rear data.
  • Step S27 abnormal warning
  • the control unit 26 reports an abnormality. For example, by notifying the station (center) of the abnormality, the station staff can quickly respond. If an immediate response is required, the entry of the next train may be stopped, and if an early response is not required, maintenance may be performed when the next train is entered and the platform door is opened.
  • the monitoring apparatus 10 can detect an abnormality that occurs when the mobile body 100 enters the platform of the station when the mobile body 100 exits from the platform of the station. .. Further, the monitoring device 10 according to the present embodiment has a sensor installed at the head of the moving object 100 and a sensor installed at the end of the moving object 100, detects data around the front and the rear as seen from the moving object 100, and By comparing the above, it is possible to immediately detect a fallen object outside the door where it is difficult to detect a fallen object only by the surveillance camera installed in the home, or a place near the track.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Selective Calling Equipment (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

本発明は、移動体100の前方に設置されたセンサによって取得された進行方向に対する前方周辺のデータと移動体100のステータス情報を取得する前方データ取得部21と、移動体100の後方に設置されたセンサによって取得された進行方向に対する後方周辺のデータと移動体100のステータス情報を取得する後方データ取得部22と前方周辺のデータと後方周辺のデータの位置を同定する位置同定部23と、前方周辺のデータの位置と同一の位置の後方周辺のデータを比較し、対象物を検知し、異常を警告する対象物検出部24とを設けた監視装置10を提供する。

Description

監視装置及び方法
 この発明は、鉄道設備の異常を監視する装置に関する。
 特許文献1には、鉄道車両の走行中、前方を撮影して得た撮影画像データをあらかじめ撮影してある背景画像データを比較して、架線やレール等の鉄道設備に対する障害物を自動的に検出することが記載されている。これにより、特許文献1では、鉄道設備の異常を効率的に監視することを図っている。
特開2016-52849号公報
 鉄道設備の異常の要因のひとつに、鉄道車両からの落下物がある。特許文献1では、当該鉄道車両より前に走行した鉄道車両の落下物を検知することはできるが、自分自身が走行した際の落下物を検知することはできないという問題点があった。
 この発明は上記のような問題点を解決するためになされたもので、鉄道車両からの落下物を当該鉄道車両で検知することを目的とする。
 この発明による監視装置は、移動体の前方に設置されたセンサによって取得された進行方向に対する前方周辺のデータと前記移動体のステータス情報を取得する前方データ取得部と、前記移動体の後方に設置されたセンサによって取得された進行方向に対する後方周辺のデータと前記移動体のステータス情報を取得する後方データ取得部と、前記前方周辺のデータと前記後方周辺のデータの位置を同定する、位置同定部と、前記前方周辺のデータの位置と同一の位置の前記後方周辺のデータを比較し、対象物を検知し、異常を警告する対象物検出部とを設けたものである。
 本発明により、鉄道車両が走行中に発生した落下物を当該鉄道車両で検知することが可能となる。
実施の形態1に係る移動体を示すハードウェア構成図である。 実施の形態1に係る監視装置を示す機能構成図である。 実施の形態1に係る監視装置の動作を示すフローチャートである。 実施の形態1の変形例1に係る移動体のハードウェア構成図である。 実施の形態1の変形例2に係る移動体のハードウェア構成図である。 実施の形態2に係る監視装置を示す機能構成図である。 実施の形態2に係る監視装置の動作を示すフローチャートである。
実施の形態1.
 図1は、本実施の形態に係る監視装置を用いた移動体のハードウェア構成図である。
 図1において、100は移動体、10は監視装置、101は車両コントロールユニットである。監視装置10は、移動体100に搭載されるコンピュータである。
 なお、監視装置10は、移動体100又は図示された他の構成要素と、一体化した形態又は分離不可能な形態で実装されても、あるいは、取り外し可能な形態又は分離可能な形態で実装されてもよい。
 また、本実施の形態では、移動体100の例として鉄道車両を用いるが、監視装置10は、本実施の形態で説明したものに限定されるわけではない。
 監視装置10は、プロセッサ11と、記憶装置12と、通信インタフェース13と、車載インタフェース14とのハードウェアを備える。プロセッサ11は、システムバスを介して他のハードウェアと接続され、これら他のハードウェアを制御する。
 プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
 記憶装置12は、メモリ121と、ストレージ122とを備える。メモリ121は、具体例としては、RAM(Random Access Memory)である。ストレージ122は、具体例としては、HDD(Hard Disk Drive)である。また、ストレージ122は、SD(Secure Digital)メモリカード、CF(CompactFlash)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVDといった可搬記憶媒体であってもよい。
 通信インタフェース13は、移動体100の周辺の通信装置と通信するための装置である。通信インタフェース13は、具体例としては、Ethernet(登録商標)、USB(Universal Serial Bus)の端子である。
 車載インタフェース14は、移動体100に搭載された車両コントロールユニット101に接続するための装置である。車載インタフェース14は、具体例としては、USB、IEEE1394、HDMI(登録商標)の端子である。
 車両コントロールユニット101は、カメラ、LiDAR(Light Detection and Ranging)、レーダ、ソナー、測位装置等のセンサと、ステアリング、ブレーキ、アクセル等といった移動体100を制御する装置である。
 監視装置10の機能構成図を図2に示す。
 監視装置10は、機能構成要素として、前方データ取得部21と、後方データ取得部22と、位置同定部23と、対象物検出部24、履歴記憶部25とを備える。また、31は前方データ、32は後方データ、41は位置合わせデータ、42は除外データである。
 前方データ取得部21は、車両コントロールユニット101を介して、移動体100の前方に設置されたセンサにより得られた情報を収集する。本実施の形態では、センサを移動体100の前方に設置されたカメラ(前方カメラ)とし、前方カメラから得られた情報を前方周辺のデータとして記載するが、LiDAR、レーダ、ソナーといったものから得られる情報でもよい。
 なお、本実施の形態では、前方カメラが収集する情報は、移動体100の進行方向とするが、センサは移動体100の前方に設置さえされていればよく、センサが収集する情報の向きはどの方向であっても良い。
 得られた前方周辺のデータは、ストレージ122に記録する。
 また、前方データ取得部21は、前方周辺のデータを取得したときの、移動体100の位置情報や、移動体100のスピード、姿勢角(ロール角、ピッチ角、ヨー角)、取得時の移動体100が照らしているライト色等のといった移動体100のステータス情報も、ストレージ122に記録する。
 移動体100の位置情報は、例えば、車両コントロールユニット101を介して測位装置を接続しておき、該測位装置の出力値を用いて取得した移動体100の緯度及び経度などであっても良い。
 前方データ取得部21がストレージ122に記録するデータを前方データ31とする。
 後方データ取得部22は、車両コントロールユニット101を介して、移動体100の後方に設置されたセンサにより得られた情報を収集する。本実施の形態では、センサを移動体100の後方に設置されたカメラ(後方カメラ)とし、後方カメラから得られた画像を後方周辺のデータとして記載するが、LiDAR、レーダ、ソナーといったものから得られる情報でもよい。
 なお、本実施の形態では、後方カメラが収集する情報は、移動体100の進行方向と逆方向とするが、センサは移動体100の後方に設置さえされていればよく、センサが収集する情報の向きはどの方向であっても良い。
 得られた後方周辺のデータは、ストレージ122に記録する。
 また、後方データ取得部22は、後方周辺のデータを取得したときの、移動体100の位置情報や、移動体100のスピード、姿勢角(ロール角、ピッチ角、ヨー角)、取得時の移動体100が照らしているライト色等のといった移動体100のステータス情報も、ストレージ122に記録する。
 移動体100の位置情報は、例えば、車両コントロールユニット101を介して測位装置を接続しておき、該測位装置の出力値を用いて取得した移動体100の緯度及び経度などであっても良い。
 後方データ取得部22がストレージ122に記録するデータを後方データ32とする。
 なお、本実施の形態では、前方周辺のデータおよび後方周辺のデータをストレージ122に記録する方式について説明したが、メモリ121であってもよいし、記憶装置12に用意されたそれ以外の領域や、通信I/F13を介した先に接続される外部装置(図示せず)であっても良い。
 位置同定部23は、前方データ取得部21および後方データ取得部22から呼び出される。前方データ取得部21から呼び出されたときは前方データ31の位置を同定し、後方データ取得部22から呼び出されたときは後方データ32の位置を同定する。
 なお、この同定した前方周辺のデータの位置及び後方周辺のデータの位置は、センサから得られた情報が示される位置(同定位置情報)であって、移動体100の位置ではない。
 本実施の形態では、位置同定部23で同定された同定位置情報は、前方データ31および後方データ32と一緒に記録するようにしているが、どのデータと連動しているのかが判れば、別の領域に記録してもよい。
 また、位置同定部23は、位置合わせデータ41を用いることにより、前方周辺のデータおよび後方周辺のデータの位置を同定するようにしてもよい。
 位置合わせデータ41として、例えば、線路沿いに立っている建造物、柱、看板、特徴的なランドスケープなど、センサが取得するデータを一意に特定できるものであればなんでもよい。
 位置合わせデータ41に、これらの特定ができるものの画像データとその位置情報を予め紐づけておくことで、位置同定部23は、前方周辺のデータ及び後方周辺のデータにこれら位置合わせデータ41と一致する情報があった場合、移動体100のステータス情報を用いずに位置を同定が可能となり、処理時間を短くすることができる。
 本実施の形態では、センサとして、カメラを用いているが、レーダとかソナーであった場合、特徴的な反射波を発生する材質の物体とその位置情報の組み合わせを用いるようにしても良い。
 対象物検出部24は、前方データ31に記録された同定位置情報と、後方データ32に記録された同定位置情報とを比較し、一致する組み合わせを検出する。同定位置情報が一致する組み合わせがあった場合、対象物検出部24は、前方周辺のデータと後方周辺のデータを比較し、違いがあった場合、それは移動体100が通過した際に生じた落下物であると判断、異常を警告する。
 また、対象物検出部24は、除外データ42を用いることにより、落下物であると判断した対象物が、本当に移動体100が通過した際に生じた落下物であるか否かを判定するようにしてもよい。
 除外データ42として、例えば、カラスや猫などの動物類、砂利や石、風で飛んでくる新聞紙や雑誌といった紙ごみやビニールシートなどの画像データを保有するようにしてもよい。
 対象物検出部24は、落下物と判断した画像と、除外データ42の画像とを比較し、一致したならば、落下物は移動体100が通過した際に生じたものではないと判断することができ、移動体100に対し、誤った落下物発生の通知を行わずにすむ。
 この時、移動体100からの落下物ではないが、移動体100が通過した前後で外部から何かが飛んできたという警告を出すようにしても良い。
 なお、位置合わせデータ41および除外データ42は、ストレージ122に記録してもよいし、メモリ121であってもよい。また、記憶装置12に用意されたそれ以外の領域や、通信I/F13を介した先に接続される外部装置(図示せず)であっても良い。
 監視装置10の各機能構成要素の機能は、ソフトウェアにより実現される。記憶装置12のストレージ122には、ソフトウェアによって実現される各機能構成要素の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ11によりメモリ121に読み込まれ、プロセッサ11によって実行される。
 また、ストレージ122は、履歴記憶部25の機能を実現する。
 履歴記憶部25は、対象物検出部24が過去に検出した落下物に関する情報を記憶する。例えば、落下物が検出された位置や時間、回数等であってよい。履歴記憶部25が保有するこれらの情報を用いることにより、例えば、前方データ取得部21および後方データ取得部22は、落下物の頻度が高い位置近辺では、データを収集する間隔を短くし、逆に落下物が発生していない位置近辺では、データを収集する間隔を長くすることによって、効率的に前方周辺のデータおよび後方周辺のデータを取得することが可能となる。
 なお、本実施の形態では、図1に示すよう、プロセッサ11が1つだけの場合について説明したが、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、監視装置10の各機能を実現するプログラムを連携して実行してもよい。
 図3は、本実施の形態に係る監視装置の処理を示すフローチャートである。
 図3を参照して、実施の形態1に係る監視装置10の動作を説明する。なお、本実施の形態では、説明しやすくするため、前方データ取得部21、後方データ取得部22、位置同定部23、対象物検出部24の処理をフローチャートに示すよう、逐次実行するようにしたが、前方データ取得部21と後方データ取得部22から呼び出される位置同定部23を除いた、前方データ取得部21と後方データ取得部22と対象物検出部24の3つは、並行に実行されても良い。
 (ステップS11:前方データ取得処理)
 前方データ取得部21は、移動体100の前方に設置されたセンサで前方周辺のデータおよびステータス情報を取得し、前方データ31に書き込む。前方データ取得部21は、位置同定部23を呼び出す。
 (ステップS12:前方データ位置の算出・同定)
 位置同定部23は、前方データ31に書き込まれたステータス情報から前方周辺のデータの位置を同定し、前方データ31に書き込む。
 (ステップS13:後方データ取得処理)
 後方データ取得部22は、移動体100の後方に設置されたセンサで後方周辺のデータおよびステータス情報を取得し、後方データ32に書き込む。後方データ取得部22は、位置同定部23を呼び出す。
 (ステップS14:後方データ位置の算出・同定)
 位置同定部23は、後方データ32に書き込まれたステータス情報から後方周辺のデータの位置を同定し、後方データ32に書き込む。
 (ステップS15:対象物の検出)
 対象物検出部24は、ストレージ122に蓄積された前方データ31および後方データ32の同定位置情報を比較し、一致する組み合わせを検出する。同定位置情報が一致する組み合わせがあった場合、対象物検出部24は、前方周辺のデータと後方周辺のデータを比較し、違いがあった場合、それは移動体100が通過した際に生じた落下物であると判断、異常を警告する。
 ただし、同定位置情報が一致した前方データ31と後方データ32とでは、取得方向がほぼ180度異なると考えられるため、単純にデータを比較することができない。そのため、対象物検出部24は、それぞれのステータス情報や、取得したデータの特徴を用い、前方データ31または後方データ32のいずれかの画素信号の変換を行う。
 ステータス情報について詳しく説明する。具体的には、移動体100のスピード情報や姿勢角(ロール角、ピッチ角、ヨー角)と、データを取得するのに用いられる車両コントロールユニット101に搭載されているセンサの特性が使われる。
 例えば、カメラであれば、レンズやセンササイズが特性であり、これらの特性から、焦点距離や画角が決まる。撮影されたカメラ画像は、撮影位置と焦点距離、画角からカメラ画像内の画素が、どの距離に相当するかがおおよそわかり、結果としてその画素信号の位置がわかる。
 対象物検出部24は、このように前方データと後方データのそれぞれに対し、画素信号の位置を求め、前方データ31と後方データ32でこの画素信号の位置が同じものの対を探すことで、比較を行う。
 なお、画素信号の比較を行う際には、データに記録されたマーカーやランドマーク等の特徴を使用することが可能である。
 その際、画素や障害物の大きさを一致させるために、スケーリングや角度の調整を行っても良い。
 また、取得したデータは、撮影間隔によって、近景と遠景といった、複数の画像に、画素信号の位置が同じものが出現する場合もある。このように選択肢が複数ある場合、解像度が低いものは使わず、解像度の高い画像を優先させると識別精度が高くなる。
 これと同様に、取得したデータによっては、撮影間隔によって、被写体深度が異なる、複数の画像に、画素信号に位置が同じものが出現する場合もある。このように選択肢が複数ある場合、ぼけにより解像度が低いものは使わず、ぼけが無く解像度の高い画像を優先させると識別制度が高くなる。
 また、太陽の方向により、移動体の影が映りこむことがある。そのような場合は、影を補正して一致させるか、センサの向きを変えたりすることによって影のない画像を優先的に使用しても良い。影かどうかは、画像信号からも検出可能だが、撮影時間と場所から太陽の位置を算出し、移動体の大きさから予測することも可能であるし、予め、同定処理に適さないと判断される場合には使用しないことも可能である。
 対象物検出部24は、同定されたデータ位置で、画素信号を基に、検出すべき対象物を探す。本実施の形態では、この対象物を、移動体100から落下した部品とした場合について説明する。
 対象物検出部24は、前方データ31から視点変換することで、該立体的な画像を作成可能である。なお、立体的な画像として、鳥瞰図とした画像でも3次元再構成された画像でもよい。対象物検出部24は、同様に後方データ32にも同様の処理を行う。
 前方データ31と後方データ32を比較し、その違いが検出すべき対象であるかを判定する。線路に敷かれた石が移動した等は、落下物と判断されないように、検出すべき対象から除く。ただし、結果として線路上に石等の異物が移動し、安全運行に支障が起きる可能性を考慮し、検出すべき対象とすることも可能である。
 なお、昼の明るい間は特に問題とならないが、照明が必要となる場合、可視光を記録するカメラ画像をセンサとする場合には、注意が必要である。
 例えば、移動体100として鉄道車両を想定した場合、運行時に前方ライトと後方ライトの色が異なることが義務付けられているため、可視光を記録するカメラ画像をセンサだと、色の違いで落下物と判定される可能性がある。
 このような場合、ステータス情報の中のライトの色等の設定値を用いることにより、対象物検出部24は、前方ライトと後方ライトとの色の違いを吸収する。
 ライトの色の違いは、簡単にはvon Kries色変換式を用いて変換可能である。 以上により、移動体100の前方で取得したカメラ画像と、後方で取得したカメラ画像で色の違いが発生しても、障害物として誤検出されることを防ぐことが可能となる。
 以上のように、本実施の形態に係る監視装置10は、前方データ取得部21で取得した前方のデータおよび前方のデータを取得した際のステータス情報と、後方データ取得部22で取得した後方のデータおよび後方のデータを取得した際のステータス情報と、位置同定部23で、前方データを取得した際のステータス情報及び後方データを取得した際のステータス情報の特性を用いることによって位置を同定し、同定位置情報が一致する前方のデータと後方のデータを比較し、落下物を検出することによって、移動体100の移動中に、落下物が発生した場合、すぐに検知することができる。
 これにより、運行に支障が生じる可能性があるような落下物が発生した場合、早急に対応でき、鉄道の安全運行が実現できる。また、鉄道車両の先頭と後尾に付属のセンサのみを使用するため、線路上に設置する監視用のカメラを減らすことができる。
 なお、本実施の形態では、前方データ取得部21は、移動体100の進行方向に対し、前方周辺のデータを取得する場合について説明したが、センサが移動体100の先頭に設置さえされていれば、後方周辺のデータを取得してもよい。同様に、後方データ取得部22は、移動体100の進行方向に対し、後方周辺のデータを取得する場合について説明したが、センサが移動体100の後尾に設置さえされていれば、前方周辺のデータを取得してもよい。
 また、移動体100が複数の列車で構成される場合、移動体100を構成するそれぞれの列車の先頭に前方データ取得部21および後尾に後方データ取得部22を設置することによって、一番先頭の車両の前方データ取得部21と一番後方の車両の後方データ取得部22を用いるようにしてもよい。
 こうすることによって、移動体100の連結が切り離された場合でも、切り分けられたそれぞれの移動体で一番先頭の車両の前方データ取得部21と一番後方の車両の後方データ取得部22を使うことが可能となる。そして、これとは逆に移動体100が複数連結した場合、一番先頭の移動体100の前方データ取得部21と、一番後方の移動体100の後方データ取得部22を用いるようにしてもよい。
 <変形例1>
 実施の形態1では、各機能構成要素がソフトウェアで実現された場合について説明した。しかし、これら各機能構成要素は、ハードウェアで実現されてもよい。
 変形例1に係る監視装置10のハードウェア構成を図4に示す。
 各機能構成要素がハードウェアで実現される場合には、監視装置10は、プロセッサ11と記憶装置12とに代えて、電子回路15を備える。
 電子回路15は、各機能構成要素と、記憶装置12との機能とを実現する専用の回路である。
 図4では、図1と同じよう、通信インタフェース13、車載インタフェース14、電子回路15がバスで接続した場合について説明しているが、電子回路15に通信インタフェース13と車載インタフェース14の機能を一緒に実現する一つの回路としてもよい。
 電子回路15としては、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)が想定される。
 また、実施の形態1で説明した監視装置10の各機能構成要素を一つの電子回路15として実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
 <変形例2>
 変形例2では、一部の各機能構成要素がハードウェアで実現され、残りの各機能構成要素がソフトウェアで実現した場合について説明する。
 変形例2に係る監視装置10の構成を図5に示す。
 図5では、プロセッサ11と記憶装置12と電子回路15とを処理回路という。つまり、各機能構成要素の機能は、処理回路により実現される。
実施の形態2.
 実施の形態1では、鉄道車両の落下物を検出するようにしたものであるが、次に駅のホームドアがあるような場合に、障害物を検出する実施形態を示す。
 本実施の形態では、移動体100が駅のホームドアの位置に基づいて、前方周辺のデータの位置同定および後方周辺のデータの位置同定する点が実施の形態1と異なる。本実施の形態では、この異なる点を説明し、同一の点については説明を省略する。
 本実施の形態における監視装置10の機能構成図を図6に示す。
 図6において、26は監視装置10が駅のホームドアの位置に基づいて、前方周辺のデータの位置同定および後方周辺のデータの位置同定を行う制御部である。制御部26は、例えば、ホームドアの画像を予め有し、前方データ取得部21が取得する前方周辺のデータにホームドアの画像が含まれているかを判断することにより、移動体100の先頭が駅のホームドアに差し掛かる度に前方データ取得部21を呼び出し、移動体100の後尾が駅のホームドアに差し掛かる度に後方データ取得部22を呼び出す。
 また、制御部26は、対象物検出部24が障害物を検出したとき、異常警告を出力する。
 図6において、図2と同一の符号は、同一または相当する部分を表しており、制御部26以外については、実施の形態1で用いた図2で記載したものと同じ動作をする。
 図7は、本実施の形態に係る監視装置10の動作を示すフローチャートである。
 図7を参照して、本実施の形態に係る監視装置10の動作を説明する。なお、本実施の形態では、説明しやすくするため、制御部26が前方データ取得部21、後方データ取得部22、対象物検出部24を呼出し、障害物を検出した際には、異常の警告をするようにしたが、実施の形態1と同様、前方データ取得部21と後方データ取得部22から呼び出される位置同定部23を除いた、前方データ取得部21と後方データ取得部22と対象物検出部24の3つは、並行に実行されても良い。そして、その際には、対象物検出部24で障害物を検出したときの異常警告を出力するようにしてもよい。
 (ステップS21:前方データ取得処理)
 鉄道車両が駅に入線する際、制御部26は鉄道車両が駅に停車するまでの間、前方データ取得部21を繰り返し呼び出す。前方データ取得部21は、移動体100の前方に設置されたセンサで、前方周辺のデータを取得する。前方データ取得部21は、取得された前方周辺のデータをメモリ121に書き込む。
 例えば、車両ドアと対応するホームドアが三か所あった場合、制御部26は、各ホームドアに鉄道車両が差し掛かったとき、前方データ取得部21を呼び出す。
 前方データ取得部21は、各車両ドアまたはホームドアの予め定められた位置(例えば、ドア全体が見渡せる位置)に移動体100が差し掛かったとき、前方周辺のデータとステータス情報を、前方データ31として記録する。この例だと、三か所の前方データをメモリ121に書き込むこととなる。
 (ステップS22:前方周辺のデータの位置同定処理)
 実施の形態1と同様、前方データ取得部21によって位置同定部23が呼び出され、位置同定部23は前方周辺のデータの位置を同定し、前方データ31へ書き込む。
 (ステップS23:乗降待ち)
 制御部26は、鉄道車両の車両ドアおよびホームドアが開き、乗客が乗り降りし、ホームドア及び車両ドアが閉まるまで待つ。
 (ステップS24:後方データ取得処理)
 制御部26は、鉄道車両駅から離れるまでの間、後方データ取得部22を呼び出す。後方データ取得部22は、移動体100の後方に設置されたセンサで後方周辺のデータを取得する。具体的には、ステップS21同様、後方周辺データ取得部22は、車両コントロールユニット101を介して、センサにより得られた情報を収集する。後方データ取得部22は、取得された後方データ32をメモリ121に書き込む。
 ステップS21の例えに併せて説明すると、後方データ取得部22は、各車両ドアまたはホームドアの予め定めらえた位置(例えば、ドア全体が見渡せる位置)に移動体100の後尾が差し掛かったとき、後方周辺のデータおよびステータス情報を取得する。このようにして、前述の三か所の前方周辺のデータそれぞれに対応する三か所の後方周辺のデータをメモリ121に書き込むことになる。
 (ステップS25:後方周辺のデータの位置同定処理)
 実施の形態1と同様、後方データ取得部22によって位置同定部23が呼び出され、位置同定部23は後方周辺のデータの位置を同定し、後方データ32へ書き込む。
 (ステップS26:障害物の検知処理)
 次に制御部26は、対象物検出部24を呼び出す。対象物検出部24は、実施の形態1と同様、同定した位置が一致する前方周辺のデータと後方周辺のデータを比較し、違いがあった場合、それは移動体100が通過した際に生じた落下物であると判断、異常を警告する。
 本実施の形態では、予め各車両ドアまたはホームドアの位置を認識した上で、その箇所で前方データ及び後方データを取る例について説明したが、前方データ及び後方データを常に一定の間隔で取得する場合、時系列で撮影した画像の前後関係を考え、画像からドアを検知し、数えることも可能である。例えば、位置同定部23で、前方データ及び後方データに記憶されたホームドアに書かれている番号やコード等から障害物の位置を同定するようにしてもよい。
 (ステップS27:異常警告)
 制御部26は、対象物検出部24が障害物を検出した場合(ステップS26でYES)、異常を通報する。例えば駅(センター)に異常を知らせることにより、駅員が速やかに対応することが可能となる。早急な対応が必要な場合には、次の電車の入線をストップし、早めの対応が必要ない場合、次の電車が入線し、ホームドアが開いた際にメンテナンスするようにしてもよい。
 以上のように、本実施の形態に係る監視装置10は、移動体100が駅のホームに入った際に発生した異常を移動体100が駅のホームから出ていく際に検知することができる。
 また、本実施の形態に係る監視装置10は、移動体100の先頭に設置されたセンサおよび後尾に設置したセンサを有し、移動体100から見た前方及び後方周辺のデータを検出し、これらを比較することにより、ホームに設置された監視カメラだけでは落下物を検知しにくいドアの外側、線路寄りの場所であっても、すぐに検知することができる。
 これにより、運行に支障が生じる可能性があるような障害物を検出した場合であっても、早急に対応でき、鉄道の安全運行及び定時運行が実現できる。
 また、鉄道車両に付属のセンサを使用するため、ホームドアごとに画像監視装置を複数設置する必要がなくなり、コストを大幅に削減することができる。
 10 監視装置、11 プロセッサ、12 記憶装置、13 通信I/F、14 車載I/F、15 電子回路、21 前方データ取得部、22 後方データ取得部、23 位置同定部、24 対象物検出部、25 履歴記憶部、26 制御部、31 前方データ、32 後方データ、41 位置合わせデータ、42 除外データ、100 移動体、101 車両コントロールユニット、121 メモリ、122 ストレージ。

Claims (6)

  1.  移動体の前方に設置されたセンサによって取得された進行方向に対する前方周辺のデータと前記移動体のステータス情報を取得する前方データ取得部と、
     前記移動体の後方に設置されたセンサによって取得された進行方向に対する後方周辺のデータと前記移動体のステータス情報を取得する後方データ取得部と、
     前記前方周辺のデータと前記後方周辺のデータの位置を同定する、位置同定部と、
     前記前方周辺のデータの位置と同一の位置の前記後方周辺のデータを比較し、対象物を検知し、異常を警告する対象物検出部とを
    有することを特徴とする監視装置。
  2.  前記前方データ取得部及び前記後方データ取得部は、前記移動体のスピード、前記移動体のヨー角の内少なくとも一つを前記ステータス情報として取得することを特徴とする請求項1に記載の監視装置。
  3.  前記移動体は前方及び後方にライトを有し、
     前記前方データ取得部及び前記後方データ取得部は、前記ライトの色を前記ステータス情報として検知して記録し、
     前記対象物検出部は、前記ライトの色を用いて、前記前方周辺のデータ及び前記後方周辺のデータの色を補正することを特徴とする請求項1又は2に記載の監視装置。
  4.  前記位置同定部は、一意に特定できるデータとその位置情報を記録した位置合わせデータを有し、前記前方データ取得部が取得した前方周辺のデータ及び前記後方データ取得部が取得した後方周辺のデータと、前記位置合わせデータを比較することを特徴とする、請求項1から請求項3のいずれか一項に記載の監視装置。
  5.  前記対象物検出部は、除外データを有し、前記対象物が前記除外データと一致した場合、異常を警告しないことを特徴とする、請求項1から請求項4のいずれか一項に記載の監視装置。
  6.  移動体の進行方向に対する前方周辺のデータと前記移動体のステータス情報を取得するステップと、
     前記移動体の進行方向に対する後方周辺のデータと前記移動体のステータス情報を取得するステップと、
     前記前方周辺のデータと前記後方周辺のデータの位置を同定するステップと、
     前記前方周辺のデータの位置と同一の位置の前記後方周辺のデータを比較し、対象物を検知し、異常を警告するステップとを
    有することを特徴とする監視方法。
PCT/JP2019/004203 2019-02-06 2019-02-06 監視装置及び方法 WO2020161818A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
ES19914410T ES2945839T3 (es) 2019-02-06 2019-02-06 Método y dispositivo de monitorización
PCT/JP2019/004203 WO2020161818A1 (ja) 2019-02-06 2019-02-06 監視装置及び方法
JP2020570257A JP6914461B2 (ja) 2019-02-06 2019-02-06 監視装置及び方法
EP19914410.6A EP3907121B1 (en) 2019-02-06 2019-02-06 Monitoring device and method
US17/388,353 US20210354737A1 (en) 2019-02-06 2021-07-29 Monitoring device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/004203 WO2020161818A1 (ja) 2019-02-06 2019-02-06 監視装置及び方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/388,353 Continuation US20210354737A1 (en) 2019-02-06 2021-07-29 Monitoring device and method

Publications (1)

Publication Number Publication Date
WO2020161818A1 true WO2020161818A1 (ja) 2020-08-13

Family

ID=71947675

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/004203 WO2020161818A1 (ja) 2019-02-06 2019-02-06 監視装置及び方法

Country Status (5)

Country Link
US (1) US20210354737A1 (ja)
EP (1) EP3907121B1 (ja)
JP (1) JP6914461B2 (ja)
ES (1) ES2945839T3 (ja)
WO (1) WO2020161818A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59156089A (ja) * 1983-10-11 1984-09-05 Hitachi Ltd 車両の障害物検知方式
JPH07186955A (ja) * 1993-12-24 1995-07-25 East Japan Railway Co 支障物検知システム
JP2010006295A (ja) * 2008-06-30 2010-01-14 Kobe Steel Ltd 落下物検知装置、移動体および落下物検知方法
US20100070172A1 (en) * 2008-09-18 2010-03-18 Ajith Kuttannair Kumar System and method for determining a characterisitic of an object adjacent to a route
JP2016052849A (ja) 2014-09-04 2016-04-14 公益財団法人鉄道総合技術研究所 障害物検出装置及び方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59156089A (ja) * 1983-10-11 1984-09-05 Hitachi Ltd 車両の障害物検知方式
JPH07186955A (ja) * 1993-12-24 1995-07-25 East Japan Railway Co 支障物検知システム
JP2010006295A (ja) * 2008-06-30 2010-01-14 Kobe Steel Ltd 落下物検知装置、移動体および落下物検知方法
US20100070172A1 (en) * 2008-09-18 2010-03-18 Ajith Kuttannair Kumar System and method for determining a characterisitic of an object adjacent to a route
JP2016052849A (ja) 2014-09-04 2016-04-14 公益財団法人鉄道総合技術研究所 障害物検出装置及び方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3907121A4

Also Published As

Publication number Publication date
ES2945839T3 (es) 2023-07-07
JPWO2020161818A1 (ja) 2021-05-20
EP3907121A1 (en) 2021-11-10
US20210354737A1 (en) 2021-11-18
EP3907121B1 (en) 2023-04-26
EP3907121A4 (en) 2022-02-23
JP6914461B2 (ja) 2021-08-04

Similar Documents

Publication Publication Date Title
CN106611512B (zh) 前车起步的处理方法、装置和系统
JP7218535B2 (ja) 交通違反車両識別システム及びサーバ
JP4984915B2 (ja) 撮像装置、撮像システム及び撮像方法
US11172170B2 (en) Image recording apparatus, image recording method, and image recording program
US20150235094A1 (en) Vehicle imaging system and method
CN106537900B (zh) 用于数据通信的视频系统和方法
CN102592475A (zh) 路口交通预警系统
US11745749B2 (en) Vehicular system for testing performance of object detection algorithms
US20160366364A1 (en) Method for Saving Image Data of a Camera in an Accident Data Recorder of a Vehicle
CN104036640A (zh) 一种全景图像采集装置、全景图像采集方法
WO2016052837A1 (ko) 교통감시 시스템
CN104658261A (zh) 高速公路大车占道检测监控系统
US20160280135A1 (en) Animal Detection System for a Vehicle
JP2012038229A (ja) ドライブレコーダー
WO2012014972A1 (ja) 車両挙動解析装置及び車両挙動解析プログラム
JP2006236094A (ja) 障害物認識システム
JP5057750B2 (ja) 料金収受システム
WO2020161818A1 (ja) 監視装置及び方法
JP2015014916A (ja) 車両監視システムおよび中央装置
CN110556003A (zh) 无轨胶轮车速度的监控方法、装置、设备和存储介质
JP2005205930A (ja) ドライブレコーダ装置
JP6367531B2 (ja) 車載器
JP5957182B2 (ja) 路面上パターン認識方法および車両用情報記録装置
KR101080869B1 (ko) 차량 촬영 시스템 및 그 방법
AU2019100119A4 (en) A train driver advisory system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19914410

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020570257

Country of ref document: JP

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2019914410

Country of ref document: EP

Effective date: 20210803

NENP Non-entry into the national phase

Ref country code: DE