WO2010058703A1 - 画像処理による通過列車撮影装置 - Google Patents

画像処理による通過列車撮影装置 Download PDF

Info

Publication number
WO2010058703A1
WO2010058703A1 PCT/JP2009/068886 JP2009068886W WO2010058703A1 WO 2010058703 A1 WO2010058703 A1 WO 2010058703A1 JP 2009068886 W JP2009068886 W JP 2009068886W WO 2010058703 A1 WO2010058703 A1 WO 2010058703A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
image
train
unit
approach
Prior art date
Application number
PCT/JP2009/068886
Other languages
English (en)
French (fr)
Inventor
伸行 藤原
貴雅 堀
研 山澤
淳一郎 秋元
Original Assignee
株式会社 明電舎
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 明電舎 filed Critical 株式会社 明電舎
Publication of WO2010058703A1 publication Critical patent/WO2010058703A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L1/00Devices along the route controlled by interaction with the vehicle or train
    • B61L1/16Devices for counting axles; Devices for counting vehicles
    • B61L1/163Detection devices
    • B61L1/166Optical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B61RAILWAYS
    • B61LGUIDING RAILWAY TRAFFIC; ENSURING THE SAFETY OF RAILWAY TRAFFIC
    • B61L27/00Central railway traffic control systems; Trackside control; Communication systems specially adapted therefor
    • B61L27/50Trackside diagnosis or maintenance, e.g. software upgrades
    • B61L27/57Trackside diagnosis or maintenance, e.g. software upgrades for vehicles or trains, e.g. trackside supervision of train conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording

Definitions

  • the present invention relates to an apparatus for photographing a state of a traveling train on a roof, and in particular, detects an approach of a train from an image of a monitoring camera installed above a track, and detects a train passing through the field of view of the monitoring camera.
  • the present invention relates to a passing train photographing device by image processing for photographing a state on a roof.
  • a camera and lighting are installed above the track, while a recording device is installed indoors, and recording is performed in conjunction with the vehicle approach warning device.
  • the apparatus to be implemented is generally used.
  • Such a device for example, performs illumination lighting and recording start based on a train approach signal generated by a vehicle approach warning device when a train approaches, and records an image during a period when the train approach signal is generated.
  • Several proposals have been made for a vehicle approach warning device that generates a train approach signal that serves as a reference for the start and end of imaging.
  • Patent Document 1 discloses a technique in which a vibration sensor is directly attached to a rail using a magnet to detect a vibration when a railway vehicle approaches and generate a train approach signal.
  • a train current detection sensor is attached to a rail via a magnet, the output of the sensor is connected to an amplifier built in the arithmetic processing unit, and an alarm is sounded based on the result processed by the arithmetic processing unit.
  • Patent Document 3 includes a transmission unit and a reception unit. The transmission unit transmits an exploration signal to the rail, the reflected signal reflected by the approaching track vehicle is received by the reception unit, and the reflected signal of the reception unit is received.
  • a technique is disclosed that issues an alarm in response to reception.
  • the devices described in Patent Documents 1 to 3 described above are devices for notifying a construction worker working in the vicinity of a track of the approach of a train. Therefore, these vehicle approach warning devices are configured to detect a train at a position away from the work site by a predetermined distance so that a sufficient time can be secured for the construction worker to retreat. Therefore, in the passing train imaging device, when starting and ending recording based on the train approach signal generated by the vehicle approach warning device, the train will be photographed before the train actually passes through the field of view of the camera, There is a time for taking a picture other than the time when the train passes through the field of view of the surveillance camera.
  • an object of the present invention is to provide a passing train photographing apparatus using image processing that can efficiently store an image obtained by photographing a train passing through the field of view of a surveillance camera.
  • a passing train imaging device based on image processing according to the first invention for solving the above-mentioned problems includes a vehicle approach alarm means for detecting the approach of a vehicle and outputting a signal, and an imaging means for photographing the roof of the vehicle. And an image processing means for processing a train photographed by the photographing means, wherein the image processing means detects a vehicle from the image photographed by the photographing means. Control means for starting and stopping the photographing means based on a train approach signal transmitted from the vehicle approach warning means, and from the vehicle detection means. Control means for controlling start and stop of recording of the image by the recording means based on the presence or absence of the vehicle to be transmitted.
  • a passing train photographing apparatus using image processing according to a second invention is the passing train photographing apparatus based on image processing according to the first invention, wherein the vehicle detection means is photographed by a preset reference image and the photographing means. It is an approach vehicle detection means for detecting the vehicle from the input image by calculating an absolute value difference from the input image.
  • a passing train photographing apparatus using image processing according to a third invention is the passing train photographing apparatus based on image processing according to the first invention, wherein the vehicle detecting means is photographed by a preset reference image and the photographing means. It is an approach vehicle detection means for detecting the vehicle from the input image by a normalized correlation calculation with the input image.
  • a passing train photographing apparatus using the image processing according to the first aspect, wherein the vehicle detecting means is photographed by the preset feature data and the photographing means. It is object shape inspection means for detecting the vehicle from the input image by comparing with feature data extracted from the input image.
  • a passing train photographing apparatus using image processing according to a fifth invention is the passing train photographing apparatus according to image processing according to the first invention, wherein the vehicle detecting means takes an input image photographed by the photographing means as a plurality of small regions. The small area corresponding to each of the background image acquired in advance and the input image corresponding to each of the input images is calculated, and the small area where the temporal change in the correlation value by the correlation calculation is larger than a predetermined value is changed. And detecting the change detection partial region by combining the adjacent change small regions, calculating the geometric feature amount of the change detection partial region, and the geometric feature amount corresponding to the preset train It is an entry detection means for detecting that the vehicle has entered when it is within the feature amount range.
  • the image photographed by the photographing means is recorded in the recording means only while the vehicle is photographed in the image photographed by the photographing means. Therefore, the image storage area of the recording means can be used only for storing the image data of the vehicle being photographed, and the storage area of the recording means can be used efficiently. For this reason, when performing the operation
  • the effect of the first invention can be obtained with a simple configuration.
  • the passing train photographing device by the image processing according to the third invention of the present invention in addition to the effect of the first invention, it is robust to uniform illuminance change with respect to the entire detection area, and the day is Even if a wide range of illuminance changes occur, it is possible to detect the entrance of the train stably without causing excessive reaction.
  • the passing train photographing apparatus using image processing according to the fifth aspect of the present invention in addition to the effects of the first aspect, it is not necessary to set feature data in advance in order to detect an approaching train. Therefore, the on-site adjustment time can be shortened and workability is improved.
  • FIG. 15A is an explanatory diagram showing an example of dividing the reference image into small regions
  • FIG. 15B is an explanatory diagram showing an example of setting the change small region and the background candidate small region
  • FIG. 15C is an explanatory diagram showing an example of setting a change detection partial area as a change small area
  • FIG. 7 is an explanatory diagram showing an example of setting a change detection partial area as a change small area
  • FIG. 1 is an explanatory view showing an installation example of a passing train photographing apparatus by image processing according to the present embodiment
  • FIG. 2 is a block diagram showing a configuration of the passing train photographing apparatus by image processing according to the present embodiment
  • FIG. 4 is an explanatory diagram showing an example of setting a detection area in the present embodiment
  • FIG. 5 is a flowchart showing a process flow in the approaching vehicle detection unit of the present embodiment.
  • the passing train photographing device by image processing includes a sensor 1 a for detecting the approach of a vehicle 6 that is a train, an illumination 2 that illuminates the roof of the vehicle 6, and the vehicle 6 And an image processing device 4 as an image processing means connected to the sensor 1a, the illumination 2 and the monitoring camera 3. Yes.
  • the sensor 1a measures, for example, vibrations of the rail 5, and is attached to the rail 5 and connected to the vehicle approach warning unit 1 as vehicle approach warning means.
  • the vehicle approach warning unit 1 detects whether or not the vehicle 6 is approaching according to the output of the sensor 1a. When it is determined that the vehicle 6 is approaching, the train approach signal is sent as an alarm to the image processing device 4. Send to.
  • the illumination 2 is installed in front of the vehicle 6 in the approach direction with respect to the sensor 1a, and is configured to be turned on and off based on a signal from the image processing device 4.
  • the surveillance camera 3 is installed at approximately the same position as the illumination 2 so as to capture an area illuminated by the illumination 2 on the roof of the vehicle 6, and the start and end of the capture are based on a signal from the image processing device 4. Configured to do. An image captured by the monitoring camera 3 is transmitted to the image processing device 4.
  • the position where the illumination 2 and the monitoring camera 3 are installed is a position separated from the sensor 1a by a predetermined distance. Specifically, when the monitoring camera 3 is activated based on the output of the sensor 1a, the vehicle 6 It is set as a position where photographing by the monitoring camera 3 can be started before entering the visual field of the monitoring camera 3.
  • the image processing apparatus 4 includes a process setting unit 41, a control unit 42 as a control unit, an approach vehicle detection unit 43 as an approach vehicle detection unit, and a recording unit 44 as a recording unit shown in FIG. Yes.
  • the process setting unit 41 sets a detection area A at a predetermined position as shown in an example in FIG. 4 with respect to an image in which the vehicle 6 acquired from the approaching vehicle detection unit 43 is not photographed.
  • a difference detection threshold value for determining whether or not the vehicle 6 has entered is set, and the setting data is stored as processing data.
  • the control unit 42 receives the train approach signal transmitted from the vehicle approach warning unit 1 and transmits an activation signal to the illumination 2, the monitoring camera 3, the approaching vehicle detection unit 43, and the recording unit 44. Further, it receives a train detection signal from the approaching vehicle detection unit 43 and transmits a recording start signal to the recording unit 44. Further, upon receiving a train disappearance signal from the approaching vehicle detection unit 43, a recording stop signal is transmitted to the recording unit 44, and a stop signal is transmitted to the illumination 2, the monitoring camera 3, the approaching vehicle detection unit 43, and the recording unit 44. .
  • the approaching vehicle detection unit 43 receives an activation signal from the control unit 42 and starts an approaching vehicle detection process, reads processing data from the process setting unit 41, and receives a stop signal from the control unit 42 to receive an approaching vehicle detection process. To stop. Further, during the approaching vehicle detection process, the presence or absence of entry of the vehicle 6 is detected by analyzing an image transmitted from the monitoring camera 3 (hereinafter referred to as an input image), and the vehicle 6 is detected in the input image. The train detection signal is transmitted to the control unit 42. Furthermore, when the vehicle 6 is no longer detected in the input image after detecting the entry of the vehicle 6, a train disappearance signal is transmitted to the control unit 42.
  • the approaching vehicle detection unit 43 is provided with an image input processing unit 43a, a reference image storage processing unit 43b, an absolute value difference calculation processing unit 43c, and a train approach determination processing unit 43d as shown in FIG. Yes.
  • the image input processing unit 43a performs a process of inputting an image transmitted from the surveillance camera 3, and the reference image storage processing unit 43b is based on the detection area A shown in FIG. Process to store. Further, the absolute value difference calculation processing unit 43c performs an absolute value difference calculation between the detection area A of the input image input to the image input processing unit 43a and the reference image stored in the reference image storage processing unit 43b.
  • the train entry determination processing unit 43d performs a process of determining whether a train has entered based on the result calculated by the absolute value difference calculation processing unit 43c and outputting a detection result.
  • an approach vehicle detection process as shown in FIG. 5 is performed. That is, when the approaching vehicle detection unit 43 receives an activation signal from the control unit 42, the image input processing unit 43a first inputs an image transmitted from the monitoring camera 3 (step PA1).
  • step PA2 it is determined whether or not it is immediately after activation (step PA2), and if it is determined that it is immediately after activation (Yes), it is considered that the vehicle 6 has not been photographed in the input image, and processing data is processed from the processing setting unit 41 as processing data.
  • the preset detection area A and difference detection threshold are input (step PA3), and then the image in the detection area A of the input image is stored as a reference image in the reference image storage processing unit 43b (step PA4).
  • step PA5 the absolute value difference calculation processing unit 43c performs the absolute value difference calculation between the detection area A of the input image and the reference image (step PA5).
  • step PA6 when the absolute value difference calculation result is larger than the difference detection threshold value input from the process setting unit 41 in step PA3 in the train approach determination processing unit 43d, the vehicle 6 is captured in the input image, that is, the vehicle 6 Is determined to have entered (step PA6).
  • step PA6 when the absolute value difference calculation result is equal to or smaller than the difference detection threshold, the vehicle 6 is not photographed in the input image, that is, the vehicle 6 has not entered or the vehicle 6 has passed. Judge that there is.
  • step PA7 the presence / absence of the vehicle 6 determined in step PA6 is output to the control unit 42 as a determination result (step PA7). Specifically, while it is determined that the vehicle 6 is captured in the input image, a train detection signal is output to the control unit 42, and after the vehicle 6 is detected, the vehicle 6 is not captured in the input image. If determined, a train disappearance signal is output to the control unit 42. This process is repeated until a stop signal is received from the control unit 42.
  • the approaching vehicle detection unit 43 detects whether or not the vehicle 6 has entered.
  • the recording unit 44 receives the start signal from the control unit 42 to start the recording function, and receives the stop signal from the control unit 42 to stop the recording function. Also, recording of an input image is started in response to a recording start signal from the control unit 42, and recording is stopped in response to a recording stop signal from the control unit 42.
  • the input image can be recorded only when the vehicle is passing through the field of view of the surveillance camera, so that the vehicle 6 is photographed.
  • the image storage area of the recording unit 44 can be used only for storing image data.
  • FIG. 6 is a block diagram showing the configuration of the approaching vehicle detection unit of this embodiment
  • FIG. 7 is a flowchart showing the flow of processing in the approaching vehicle detection unit of this embodiment.
  • the present embodiment is different from the first embodiment described above in the processing in the processing setting unit 41 and the approaching vehicle detection unit 43.
  • Other configurations are substantially the same as the configurations shown in FIGS. 1 to 5 and described above, and the description overlapping with the description in the first embodiment will be omitted, and different portions will be mainly described.
  • the process setting unit 41 sets the detection area A for the input image in which the vehicle 6 acquired from the approaching vehicle detection unit 43 is not photographed, and sets the difference detection threshold set in the first embodiment. Instead, a correlation detection threshold value for determining whether or not the vehicle 6 has entered the detection area A is set, and these data are stored as processing data.
  • the approaching vehicle detection unit 43 is different from the first embodiment in the process of detecting whether or not the vehicle 6 has entered. Specifically, as shown in FIG. 6, in this embodiment, the approaching vehicle detection unit 43 includes an image input processing unit 43a, a reference image storage processing unit 43b, a normalized correlation calculation processing unit 43e, and a train approach determination processing unit 43d. Is provided.
  • the image input processing unit 43a performs a process of inputting an image transmitted from the surveillance camera 3, and the reference image storage processing unit 43b is based on the detection area A shown in FIG. Process to store.
  • the normalized correlation calculation processing unit 43e performs a normalized correlation calculation between the image input to the image input processing unit 43a and the reference image stored in the reference image storage processing unit 43b.
  • the train entry determination processing unit 43d performs a process of determining whether or not the vehicle 6 has entered based on the result calculated by the normalized first publication calculation processing unit 43e and outputting a detection result.
  • the image input processing unit 43a inputs an image transmitted from the monitoring camera 3 (step PB1).
  • step PB2 it is determined whether or not it is immediately after activation (step PB2), and if it is determined that it is immediately after activation (Yes), it is considered that the vehicle 6 is before entering the field of view of the monitoring camera 3, and the process setting unit 41, the detection area A and the correlation detection threshold value set in advance as processing data are input (step PB3), and then the image in the detection area A of the input image is stored as a reference image in the reference image storage processing unit 43b. (Step PB4).
  • step PB5 the normalized correlation calculation processing unit 43e performs a normalized correlation calculation between the detection area A of the input image and the reference image (step PB5).
  • step PA6 when the normalized correlation calculation result is equal to or smaller than the correlation detection threshold, the vehicle 6 is not photographed in the input image, that is, the vehicle 6 has not entered or the vehicle 6 has passed. Judge that there is.
  • step PB7 the presence / absence of the vehicle 6 determined in step PA6 is output to the control unit 42 as a determination result (step PB7). Specifically, while it is determined that the vehicle 6 is captured in the input image, a train detection signal is output to the control unit 42. After the train is detected, it is determined that the vehicle 6 is not captured in the input image. Then, a train disappearance signal is output to the control unit 42. This process is repeated until a stop signal is received from the control unit 42.
  • the approaching vehicle detection unit 43 detects whether or not the vehicle 6 has entered.
  • the comparison between the reference image and the input image is determined by the normalized correlation calculation, and the presence / absence of the train approach is determined. Therefore, the calculation is more complicated than in the first embodiment, but it is robust to uniform illuminance changes over the entire detection area, and is sensitive even when a wide range of illuminance changes that are shaded during the day occurs. The presence / absence of the vehicle 6 can be detected stably.
  • FIG. 8 is a block diagram showing the structure of a passing train photographing apparatus using image processing according to this embodiment
  • FIG. 9 is a block diagram showing the configuration of the object shape inspection unit of this embodiment
  • FIG. 10 shows an example of an object shape model
  • FIG. 11 is a flowchart showing the flow of object shape model creation in the process setting unit of this embodiment
  • FIG. 12 is a flowchart showing the flow of processing in the object shape inspection unit of this embodiment.
  • the configuration of the image processing apparatus 4 is different from that of the first embodiment described above.
  • the image processing apparatus 4 includes an object shape inspection unit 45 as an object shape inspection unit illustrated in FIG. 8 instead of the approaching vehicle detection unit 43 described in the first embodiment, and includes a process setting unit 41 and The processing in the control unit 42 is different from that in the first embodiment.
  • the passing train imaging device by image processing is configured to be able to set two processing modes of a shape model production mode and a train approach detection mode as device modes, and performs different processing depending on the device mode.
  • the image processing apparatus 4 includes a process setting unit 41, a control unit 42, an object shape inspection unit 45, and a recording unit 44 shown in FIG.
  • a process for producing the object shape model M (see FIG. 10) of the track portion is performed, and in the train approach detection mode, a process for detecting whether or not the vehicle 6 has entered is performed.
  • the process setting unit 41 sets “shape production mode” or “train entry detection mode” as the apparatus mode.
  • a detection area A is set at a predetermined position as shown in FIG. 4 for an input image in which the vehicle 6 acquired from the object shape inspection unit 45 is not photographed.
  • setting processing for obtaining an object shape model production image, setting feature extraction parameters, creating an object shape model M, and setting object shape inspection parameters is performed. These setting data are stored as processing data.
  • the control unit 42 inputs the device mode from the process setting unit 41.
  • the control unit 42 sends an activation signal to the illumination 2, the monitoring camera 3, the object shape inspection unit 45, and the recording unit 44.
  • Send
  • the apparatus mode is changed from the “shape model production mode” to the “train entry detection mode”
  • a stop signal is transmitted to the illumination 2, the monitoring camera 3, the object shape inspection unit 45, and the recording unit 44.
  • an activation signal is transmitted to the illumination 2, the monitoring camera 3, the object shape inspection unit 45, and the recording unit 44.
  • it receives a train detection signal from the object shape inspection unit 45 and transmits a recording start to the recording unit 44.
  • a recording stop signal is transmitted to the recording unit 44, and a stop signal is transmitted to the illumination 2, the monitoring camera 3, the object shape inspection unit 45, and the recording unit 44.
  • the object shape inspection unit 45 receives an activation signal from the control unit 42, inputs a device mode from the processing setting unit 41, starts a shape model production process or a train approach detection process according to the device mode, and the control unit 42 The shape model preparation process or the train approach detection process is stopped in response to the stop signal from.
  • the object shape inspection unit 45 includes an image input processing unit 45a, a feature extraction processing unit 45b, an object shape model setting processing unit 45c, a feature data matching processing unit 45d, and a train approach determination processing unit 45e. It has been.
  • the image input processing unit 45a performs a process of inputting an image transmitted from the monitoring camera 3, and the feature extraction processing unit 45b performs a process of extracting a feature in the input image acquired by the image input processing unit 45a.
  • the object shape model setting processing unit 45c performs processing for setting an object shape model M shown in FIG.
  • the feature data matching processing unit 45d matches the feature data of the object shape model M and the feature data of the input image input from the monitoring camera 3.
  • the train entry determination processing unit 43d performs a process of determining whether or not the vehicle 6 has entered based on the result of collating the feature data by the feature data collating processing unit 45d and outputting the detection result.
  • the object shape model setting processing unit 45c first generates an object shape model from the processing setting unit 41 and from the input image in the processing setting unit 41.
  • An object shape model preparation image selected in advance for use is acquired (step PC1).
  • step PC2 the object shape model creation image acquired in step PC1 is analyzed, and characteristic portions such as the contour and pattern of the object existing in the object shape model creation image are extracted by approximating a straight line or an arc. Extracted as feature data consisting of straight line features and arc features (step PC2).
  • a straight line feature and an arc feature of the track portion where the vehicle 6 does not particularly exist are selected from the feature data (step PC3), and are registered as feature data of the object shape model M (step PC4).
  • the object shape model M is produced in the object shape inspection unit 45 by such processing.
  • the object shape inspection unit 45 when the object shape inspection unit 45 receives the activation signal from the control unit 42, it first determines whether or not it is immediately after activation (step PD1), and if it is determined that it is immediately after activation (Yes), it sets the processing.
  • the detection area A in the image, the feature extraction parameter, the object shape model M, and the object shape inspection parameter set in advance as processing data are input from the unit 41 (step PD2).
  • an image transmitted from the monitoring camera 3 is input in the image input processing unit 45a (step PD3).
  • an input image is analyzed, and a linear feature and an arc feature extracted by approximating a characteristic portion such as a contour or a pattern of an object existing in the detection area A in the image to a straight line or an arc.
  • Step PD4 the feature data registered in the object shape model M input from the process setting unit 41 in the feature data matching processing unit 45d is matched with the feature data extracted from the input image.
  • Step PD5 the feature data registered in the object shape model M input from the process setting unit 41 in the feature data matching processing unit 45d is matched with the feature data extracted from the input image.
  • the train approach determination processing unit 45e when the feature data collated in the feature data collation processing unit 45d are similar within the range of the object shape inspection parameter set in advance in the process setting unit 41, two features are used. It is determined that the data is suitable and the vehicle 6 is photographed in the input image, that is, it is determined that the vehicle 6 has entered (step PD6). If the feature data collated by the feature data matching processing unit 45d are not similar within the range of the object shape inspection parameter set in advance by the processing setting unit 41, the two feature data are regarded as incompatible and the input image It is determined that the vehicle 6 has not been photographed, that is, the vehicle 6 has not entered or the vehicle 6 has passed.
  • step PD7 the presence / absence of the vehicle 6 determined in step PD6 is output to the control unit 42 as a determination result (step PD7). Specifically, while it is determined that the vehicle 6 is captured in the input image, a train detection signal is output to the control unit 42. After the train is detected, it is determined that the vehicle 6 is not captured in the input image. When it is done, a train disappearance signal is output to the control unit 42. This process is repeated until a stop signal is received from the control unit 42.
  • the train approach detection process is performed in the object shape inspection unit 45 by such a process.
  • the image where the vehicle 6 is photographed since the input image is recorded only while the vehicle 6 is photographed within the field of view of the monitoring camera 3, the image where the vehicle 6 is photographed.
  • the image storage area of the recording unit 44 can be used only for storing data. Therefore, when performing the operation of checking the state of the vehicle 6 on the roof from the stored image, the operation of searching for the image portion where the vehicle 6 is photographed can be omitted, and the efficiency of the operation can be realized.
  • FIG. 13 is a block diagram showing the structure of a passing train photographing apparatus using image processing according to the present embodiment
  • FIG. 14 is a block diagram showing the configuration of the entry detection unit of this example
  • FIG. 15 is by the entry detection unit of this example.
  • FIG. 16 is an explanatory diagram illustrating an example of a processing result in the approach detection unit of the present embodiment.
  • the present embodiment is different from the above-described first embodiment in the configuration of the image processing apparatus 4. Specifically, in place of the approach vehicle detection unit 43 of the image processing apparatus 4 in the first embodiment, an approach detection unit 46 as an approach detection unit shown in FIG. 13 is provided, and the process setting unit 41 and The processing in the control unit 42 is different.
  • Other configurations are substantially the same as the structure described in the first embodiment.
  • the same members as those described in the first embodiment are denoted by the same reference numerals, and redundant description is omitted. The difference will be mainly described.
  • the image processing apparatus 4 includes a process setting unit 41, a control unit 42, an entry detection unit 46, and a recording unit 44 shown in FIG.
  • the processing setting unit 41 sets a detection area A at a predetermined position as shown in FIG. 4 for an input image in which the vehicle 6 acquired from the approach detection unit 46 is not photographed. A range of geometric feature amounts for determining whether or not the vehicle 6 has entered is set, and these setting data are stored as processing data.
  • the control unit 42 receives a train approach signal from the vehicle approach warning unit 1 and transmits an activation signal to the illumination 2, the monitoring camera 3, the approach detection unit 46, and the recording unit 44. Further, it receives a train detection signal from the approach detection unit 46 and transmits a recording start signal to the recording unit 44. In addition, a train stop signal is transmitted to the recording unit 44 in response to a train disappearance signal from the approach detection unit 46, and a stop signal is transmitted to the illumination 2, the monitoring camera 2, the approach detection unit 46, and the recording unit 44.
  • the entry detection unit 46 starts the entry detection process in response to the activation signal from the control unit 42, reads the process data from the process setting unit 41, and stops the entry detection process in response to the stop signal from the control unit 42. .
  • the input image is analyzed to detect the approach of the vehicle 6.
  • a train detection signal is transmitted to the control unit 42.
  • a train disappearance signal is transmitted to the control unit 42.
  • the approach detection unit 46 includes an image input processing unit 46a, a reference image storage processing unit 46b, a change detection partial region detection processing unit 46c, and a geometric feature amount inspection processing unit 46d. Is provided.
  • the image input processing unit 46a performs a process of inputting an image transmitted from the surveillance camera 3, and the reference image storage processing unit 46b is based on the detection area A shown in FIG. Process to store.
  • the change detection partial area detection processing unit 46c performs correlation calculation between the input image input to the image input processing unit 46a and the reference image stored in the reference image storage processing unit 46b.
  • the geometric feature amount inspection processing unit 46d determines whether the vehicle 6 has entered based on the result calculated by the change detection partial region detection processing unit 46c, and outputs a detection result.
  • the reference image storage processing unit 46b acquires in advance an image (see FIG. 4) in which the vehicle 6 is not photographed, and stores this as reference image data.
  • the detection area A and the geometric feature range in the input image are input as processing data from the processing setting unit 41, and from the monitoring camera 3 in the image input processing unit 46a. Enter the image to be sent. Subsequently, the change detection partial area detection processing unit 46c divides the reference image and the input image 7 into appropriate small areas 71 (see FIG. 15A).
  • the correlation calculation between the reference image data corresponding to each small area 71 and the input image data is performed, and the correlation value From the small area 71 set in the input image based on the temporal change, the small change area 72 in which the occurrence of the change is detected and the background candidate small area 73 with little change from the background are detected (FIG. 15). (See (b)), and then, the adjacent change small areas 72 are combined to obtain a change detection partial area 74 (see FIG. 15C).
  • the geometric feature amount inspection processing unit 46d it is determined whether or not the geometric feature amount of the change detection partial area 74 is within the range of the geometric feature amount corresponding to the vehicle 6 set in advance.
  • the vehicle 6 is captured in the input image, that is, the vehicle It is determined that 6 has entered. If the geometric feature amount of the change detection partial area 74 is not within the predetermined range of the geometric feature amount corresponding to the vehicle 6 set in advance, it is assumed that the two feature data do not match and the vehicle is not included in the input image. 6 is not photographed, that is, it is determined that the vehicle 6 has not entered or that the vehicle 6 has passed.
  • a train detection signal is output to the control unit 42, and after the vehicle 6 is detected, the vehicle 6 is not captured in the input image. If determined, a train disappearance signal is output to the control unit 42. This process is repeated until a stop signal is received from the control unit 42.

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Electric Propulsion And Braking For Vehicles (AREA)

Abstract

車輌(6)の接近を検知して列車接近信号を出力する車輌接近警報部(1)と、車輌(6)の屋根上を撮影する監視カメラ(3)と、監視カメラ(3)によって撮影された画像から車輌(6)を検出する進入車輌検出部(43)、監視カメラ(3)によって撮影された画像を記録する録画部(44)、及び、車輌接近警報部(1)から送信される列車接近信号に基づいて監視カメラ(3)の起動及び停止を制御するとともに進入車輌検出部(43)から送信される車輌(6)の有無に基づいて録画部(44)による画像の記録の開始及び停止を制御する制御部(42)を備える画像処理装置とから構成したので、監視カメラ(3)の視野内を通過する車輌(6)を撮影した画像を効率よく保管することを可能とした画像処理による通過列車撮影装置を提供することができる。

Description

画像処理による通過列車撮影装置
 本発明は、走行する列車の屋根上の状態を撮影する装置に関するものであり、特に線路上方に設置された監視カメラの画像により列車の進入を検知し、監視カメラの視野内を通過する列車の屋根上の状態を撮影する画像処理による通過列車撮影装置に関する。
 監視カメラの視野内を通過する列車の屋根上の状態を撮影する装置としては、線路上方にカメラと照明を設置する一方、録画装置を屋内に設置し、車輌接近警報装置と連動して録画を実施する装置が一般的に用いられている。このような装置は、例えば列車が接近した際に車輌接近警報装置が発生する列車接近信号を基に、照明点灯と録画開始を行い、列車接近信号が発生している期間の画像を録画することで、その間に監視カメラの視野内を通過する列車の屋根上を撮影している。そして、撮影の開始と終了の基準となる列車接近信号を発生する車輌接近警報装置にはいくつかの提案が行われている。
 特許文献1には、磁石を利用して振動センサをレールに直接取り付け、鉄道車輌が接近する際の振動を検出して列車接近信号を発生させるようにした技術が開示されている。また、特許文献2には、電車電流検出センサをレールにマグネットを介して取り付け、センサの出力を演算処理装置に内蔵されたアンプに接続し、演算処理部で処理された結果により警報器を鳴らすようにした技術が開示されている。また、特許文献3には、送信手段と受信手段を備え、送信手段で探査信号をレールに送信し、近づいた軌道車輌に反射された反射信号を受信手段で受信し、受信手段による反射信号の受信に応動して警報を発するようにした技術が開示されている。
特開2001-39304号公報 特開2002-337687号公報 特開平9-132141号公報
 しかしながら、上述した特許文献1~3に記載されたものは、線路近傍で作業する工事作業者に列車の接近を報知するための装置である。よって、これらの車輌接近警報装置は、工事作業者が退避するために充分な時間を確保できるように作業現場から所定の距離だけ離れた位置において列車を検出するように構成されている。そのため、通過列車撮影装置において、車輌接近警報装置の発生する列車接近信号を基に録画の開始及び終了を行う場合、実際にカメラの視野内を列車が通過する以前から列車を撮影することとなり、列車が監視カメラの視野内を通過している時間以外に撮影を実施する時間が発生する。
 このような場合、列車の撮影されていない不要な画像データが存在することとなり、録画装置の多くの画像保管領域が使用されるとともに、保管画像から通過列車の屋根上の状態を確認する作業を行う際には、画像データの中から列車が映っている画像部分を探索する必要があり、作業性の低下に繋がるおそれがあった。
 このようなことから本発明は、監視カメラの視野内を通過する列車を撮影した画像の保管を効率よく行うことを可能とした画像処理による通過列車撮影装置を提供することを目的とする。
 上記の課題を解決するための第1の発明に係る画像処理による通過列車撮影装置は、車輌の接近を検知して信号を出力する車輌接近警報手段と、前記車輌の屋根上を撮影する撮影手段と、前記撮影手段によって撮影された画像を処理する画像処理手段とを備えた画像処理による通過列車撮影装置において、前記画像処理手段が、前記撮影手段によって撮影された画像から車輌を検出する車輌検出手段と、前記撮影手段によって撮影された画像を記録する録画手段と、前記車輌接近警報手段から送信される列車接近信号に基づいて前記撮影手段の起動及び停止を制御するとともに、前記車輌検出手段から送信される前記車輌の有無に基づいて前記録画手段による前記画像の記録の開始及び停止を制御する制御手段とを備えることを特徴とする。
 第2の発明に係る画像処理による通過列車撮影装置は、第1の発明に係る画像処理による通過列車撮影装置において、前記車輌検出手段が、予め設定した基準画像と、前記撮影手段によって撮影された入力画像との絶対値差分演算により前記入力画像中から前記車輌を検出する進入車輌検出手段であることを特徴とする。
 第3の発明に係る画像処理による通過列車撮影装置は、第1の発明に係る画像処理による通過列車撮影装置において、前記車輌検出手段が、予め設定した基準画像と、前記撮影手段によって撮影された入力画像との正規化相関演算により前記入力画像中から前記車輌を検出する進入車輌検出手段であることを特徴とする。
 第4の発明に係る画像処理による通過列車撮影装置は、第1の発明に係る画像処理による通過列車撮影装置において、前記車輌検出手段が、予め設定した特徴データと、前記撮影手段によって撮影された入力画像から抽出した特徴データとを比較することにより前記入力画像中から前記車輌を検出する物体形状検査手段であることを特徴とする。
 第5の発明に係る画像処理による通過列車撮影装置は、第1の発明に係る画像処理による通過列車撮影装置において、前記車輌検出手段が、前記撮影手段によって撮影された入力画像を多数の小領域に分割し、予め取得した背景画像と前記入力画像のそれぞれ対応する前記小領域の相関計算を行い、前記相関計算による相関値の時間的な変化が所定の値より大きい前記小領域を変化小領域として検出し、隣接する前記変化小領域を結合して変化検出部分領域を求め、前記変化検出部分領域の幾何学的特徴量を算出し、前記幾何学的特徴量が予め設定した前記列車に対応する特徴量範囲内である場合に前記車輌が進入したと検出する進入検知手段であることを特徴とする。
 本発明の第1の発明に係る画像処理による通過列車撮影装置によれば、撮影手段によって撮影している画像中に車輌が撮影されている間のみ、撮影手段によって撮影した画像を録画手段に記録することができるため、車輌が撮影されている画像データを保管するためだけに録画手段の画像保管領域を使用することができ、録画手段の保管領域を効率よく使用することができる。このため、保管画像から通過列車の屋根上の状態を確認する作業を行う際には、列車が映っている画像部分を探索する作業を省略することができ、作業の高効率化が実現できる。
 また、本発明の第2の発明に係る画像処理による通過列車撮影装置によれば、簡素な構成で第1の発明による効果を得ることができる。
 また、本発明の第3の発明に係る画像処理による通過列車撮影装置によれば、第1の発明の効果に加えて、検知エリア全体に対する一様な照度変化に頑健で、日中に日が陰るような広範囲な照度変化が発生した場合でも過剰反応することなく、列車の進入を安定して検知できる。
 また、本発明の第4の発明に係る画像処理による通過列車撮影装置によれば、第1の発明の効果に加えて、部分的な照度変化が発生する明け方や、偏った夜間照明が存在した場合でも安定した列車進入検知を行うことができる。
 また、本発明の第5の発明に係る画像処理による通過列車撮影装置によれば、第1の発明の効果に加えて、進入列車を検出するために予め特徴データを設定する等の必要がないため、現地調整時間を短縮することができ、作業性が向上する。
本発明に係る画像処理による通過列車撮影装置の設置例を示す説明図である。 本発明の実施例1に係る画像処理による通過列車撮影装置の構成を示すブロック図である。 本発明の実施例1に係る画像処理による通過列車撮影装置の進入車輌検出部の構成を示すブロック図である。 本発明の実施例1における検知エリアの設定例を示す説明図である。 本発明の実施例1に係る画像処理による通過列車撮影装置における進入車輌検出処理の流れを示すフローチャートである。 本発明の実施例2に係る画像処理による通過列車撮影装置の進入車輌検出部の構成を示すブロック図である。 本発明の実施例2に係る画像処理による通過列車撮影装置における進入車輌検出処理の流れを示すフローチャートである。 本発明の実施例3に係る画像処理による通過列車撮影装置の構成を示すブロック図である。 本発明の実施例3に係る画像処理による通過列車撮影装置の物体形状検査部の構成を示すブロック図である。 本発明の実施例3における物体形状モデルの例を示す説明図である。 本発明の実施例3に係る画像処理による通過列車撮影装置における物体形状モデル作製処理の流れを示すフローチャートである。 本発明の実施例3に係る画像処理による通過列車撮影装置における列車進入検知処理の流れを示すフローチャートである。 本発明の実施例4に係る画像処理による通過列車撮影装置の構成を示すブロック図である。 本発明の実施例4に係る画像処理による通過列車撮影装置の進入検知部の構成を示すブロック図である。 図15(a)は基準画像を小領域に分割する例を示す説明図、図15(b)は入力画像を変化小領域及び背景候補小領域の設定例を示す説明図、図15(c)は変化小領域を変化検出部分領域の設定例を示す説明図である。 変化検出部分領域の設定例を示す他の説明図である。
 以下、図面を用いて本発明に係る画像処理による通過列車撮影装置の詳細を説明する。
 図1乃至図5に基づいて、本発明に係る画像処理による通過列車撮影装置の第1の実施例を説明する。図1は本実施例に係る画像処理による通過列車撮影装置の設置例を示す説明図、図2は本実施例に係る画像処理による通過列車撮影装置の構成を示すブロック図、図3は本実施例の進入車輌検出部の構成を示すブロック図、図4は本実施例における検知エリアの設定例を示す説明図、図5は本実施例の進入車輌検出部における処理の流れを示すフローチャートである。
 図1及び図2に示すように、本実施例において画像処理による通過列車撮影装置は、列車である車輌6の接近を検知するためのセンサ1a、車輌6の屋根上を照らす照明2、車輌6の屋根上の照明2によって照らされる領域を撮影する撮影手段としての監視カメラ3、及びこれらセンサ1a、照明2及び監視カメラ3に接続された画像処理手段としての画像処理装置4とから構成されている。
 センサ1aは、例えばレール5の振動等を測定するものであり、レール5に取り付けられるとともに車輌接近警報手段としての車輌接近警報部1に接続されている。車輌接近警報部1は、センサ1aの出力に応じて車輌6の接近の有無を検知するものであり、車輌6が接近していると判断した場合には警報として列車接近信号を画像処理装置4へ送信する。
 照明2は、センサ1aに対して車輌6の進入方向前方に設置され、画像処理装置4からの信号に基づいて点灯及び消灯を行うように構成されている。監視カメラ3は、照明2と概ね同位置に、車輌6の屋根上の照明2によって照らされた領域を撮影するように設置され、画像処理装置4からの信号に基づいて撮影の開始、終了を行うように構成されている。監視カメラ3によって撮影した画像は画像処理装置4へ送信される。
 なお、照明2及び監視カメラ3が設置される位置は、センサ1aから所定の距離だけ離間した位置、具体的には、センサ1aの出力に基づいて監視カメラ3を起動したときに、車輌6がこの監視カメラ3の視野内に進入する以前にこの監視カメラ3による撮影を開始することができる位置とする。
 画像処理装置4は、図2に示す処理設定部41、制御手段としての制御部42、進入車輌検出手段としての進入車輌検出部43、及び録画手段としての録画部44とを備えて構成されている。
 処理設定部41は、進入車輌検出部43から取得した車輌6が撮影されていない画像に対して、図4に一例を示すように所定の位置に検知エリアAを設定すると共に、検知エリアA内に車輌6が進入したか否かを判断するための差分検出しきい値を設定し、これらの設定データを処理データとして保管する。
 制御部42は車輌接近警報部1から送信される列車接近信号を受けて、照明2、監視カメラ3、進入車輌検出部43、及び録画部44へ起動信号を送信する。また、進入車輌検出部43からの列車検知信号を受けて、録画部44へ録画開始信号を送信する。更に、進入車輌検出部43からの列車消失信号を受けて、録画部44へ録画停止信号を送信すると共に、照明2、監視カメラ3、進入車輌検出部43、録画部44へ停止信号を送信する。
 進入車輌検出部43は、制御部42からの起動信号を受けて進入車輌検出処理を開始すると共に、処理設定部41から処理データを読み出し、制御部42からの停止信号を受けて進入車輌検出処理を停止する。また、進入車輌検出処理中には、監視カメラ3から送信された画像(以下、入力画像という)を解析することで車輌6の進入の有無を検知し、入力画像中に車輌6を検出した場合、列車検知信号を制御部42へ送信する。更に、車輌6の進入を検知した後で入力画像中に車輌6が検出されなくなった場合、列車消失信号を制御部42へ送信する。
 より詳しく説明すると、進入車輌検出部43には、図3に示すように画像入力処理部43a、基準画像保管処理部43b、絶対値差分演算処理部43c、列車進入判断処理部43dが設けられている。
 画像入力処理部43aは監視カメラ3から送信される画像を入力する処理を行い、基準画像保管処理部43bは処理設定部41で予め設定した図4に一例を示す検知エリアAに基づいて基準画像を保管する処理を行う。また、絶対値差分演算処理部43cは画像入力処理部43aに入力された入力画像の検知エリアAと基準画像保管処理部43bに保管された基準画像との絶対値差分演算を行う。列車進入判断処理部43dは絶対値差分演算処理部43cによって演算した結果に基づいて列車が進入しているか否かを判断し検知結果を出力する処理を行う。
 そして、このような進入車輌検出部43においては、図5に示すような進入車輌検出処理が行われる。すなわち、進入車輌検出部43では、制御部42から起動信号を受けると、まず画像入力処理部43aにおいて監視カメラ3から送信される画像の入力を行う(ステップPA1)。
 続いて、起動直後か否かを判断し(ステップPA2)、起動直後であると判断された場合(Yes)は入力画像に車輌6が撮影されていないとみなし、処理設定部41から処理データとして予め設定した検知エリアA及び差分検出しきい値を入力し(ステップPA3)、その後、基準画像保管処理部43bにおいて入力画像の検知エリアA内の画像を基準画像として保管する(ステップPA4)。
 一方、ステップPA2で起動直後ではないと判断された場合(No)、絶対値差分演算処理部43cにおいて入力画像の検知エリアAと基準画像との絶対値差分演算を行う(ステップPA5)。
 その後、列車進入判断処理部43dにおいて絶対値差分演算結果がステップPA3において処理設定部41から入力した差分検出しきい値よりも大きい場合は入力画像に車輌6が撮影されている、即ち、車輌6が進入したと判断する(ステップPA6)。なお、ステップPA6において、絶対値差分演算結果が差分検出しきい値以下の場合は入力画像に車輌6が撮影されていない、即ち、車輌6が進入していない、または車輌6が通過した後であると判断する。
 続いて、ステップPA6において判断した車輌6の進入の有無を判断結果として制御部42に出力する(ステップPA7)。詳しくは、入力画像に車輌6が撮影されていると判断されている間は制御部42に対して列車検知信号を出力し、車輌6の検知後、入力画像に車輌6が撮影されていないと判断されたら制御部42に対して列車消失信号を出力する。制御部42から停止信号を受信するまでこの処理を繰り返す。
 このような処理により、進入車輌検出部43において車輌6の進入の有無の検知が行われる。
 録画部44は、制御部42からの起動信号を受けて録画機能を起動し、制御部42からの停止信号を受けて録画機能を停止する。また、制御部42からの録画開始信号を受けて入力画像の録画を開始し、制御部42からの録画停止信号を受けて録画を停止する。
 このような本実施例に係る画像処理による通過列車撮影装置によれば、監視カメラの視野内を車輌が通過しているときだけ入力画像を録画することができるため、車輌6が撮影されている画像データを保管するためだけに録画部44の画像保管領域を使用することができる。これにより、保管画像から車輌6の屋根上の状態を確認する作業を行う際には、車輌6が撮影されている画像部分を探索する作業を省くことができ、作業の高効率化が実現できる。
 図6及び図7に基づいて、本発明に係る画像処理による通過列車撮影装置の第2の実施例を説明する。図6は本実施例の進入車輌検出部の構成を示すブロック図、図7は本実施例の進入車輌検出部における処理の流れを示すフローチャートである。
 本実施例は、上述した実施例1とは処理設定部41及び進入車輌検出部43における処理が異なるものである。その他の構成は図1乃至図5に示し上述した構成と概ね同様であり、以下、実施例1における説明と重複する説明は省略し、異なる部分を中心に説明する。
 本実施例において、処理設定部41は、進入車輌検出部43から取得した車輌6が撮影されていない入力画像に対し検知エリアAを設定するとともに、実施例1において設定した差分検出しきい値に代えて、検知エリアA内に車輌6が進入したか否かを判断するための相関検出しきい値を設定し、これらのデータを処理データとして保管する。
 また、進入車輌検出部43は、実施例1とは車輌6の進入の有無を検出する処理が異なる。詳しくは図6に示すように、本実施例において進入車輌検出部43には、画像入力処理部43a、基準画像保管処理部43b、正規化相関演算処理部43e、及び列車進入判断処理部43dが設けられている。
 画像入力処理部43aは監視カメラ3から送信される画像を入力する処理を行い、基準画像保管処理部43bは処理設定部41で予め設定した図4に一例を示す検知エリアAに基づいて基準画像を保管する処理を行う。また、正規化相関演算処理部43eは画像入力処理部43aに入力された画像と基準画像保管処理部43bに保管された基準画像との正規化相関演算を行う。列車進入判断処理部43dは正規化創刊演算処理部43eによって演算した結果に基づいて車輌6が進入しているか否かを判断し検知結果を出力する処理を行う。
 以下、図7を用いてこの進入車輌検出部43による列車検知処理の流れを説明する。図7に示すように、進入車輌検出部43では、制御部42から起動信号を受けると、まず画像入力処理部43aにおいて、監視カメラ3から送信された画像を入力する(ステップPB1)。
 続いて、起動直後か否かを判断し(ステップPB2)、起動直後であると判断された場合(Yes)は監視カメラ3の視野内に車輌6が進入する前であるとみなし、処理設定部41から処理データとして予め設定した検知エリアA及び相関検出しきい値を入力し(ステップPB3)、その後、基準画像保管処理部43bにおいて、入力画像の検知エリアA内の画像を基準画像として保管する(ステップPB4)。
 一方、ステップPB2で起動直後ではないと判断された場合(No)、正規化相関演算処理部43eにおいて入力画像の検知エリアAと基準画像との正規化相関演算を行う(ステップPB5)。
 その後、列車進入判断処理部43dにおいて、正規化相関演算結果がステップPA3において処理設定部41から入力した相関検出しきい値よりも大きい場合は入力画像に車輌6が撮影されている、即ち、車輌6が進入したと判断する(ステップPB6)。なお、ステップPA6において、正規化相関演算結果が相関検出しきい値以下の場合は入力画像に車輌6が撮影されていない、即ち、車輌6が進入していない、または車輌6が通過した後であると判断する。
 続いて、ステップPA6において判断した車輌6の進入の有無を判断結果として制御部42に出力する(ステップPB7)。詳しくは、入力画像に車輌6が撮影されていると判断されている間は制御部42に対して列車検知信号を出力し、列車検知後、入力画像に車輌6が撮影されていないと判断されたら制御部42に対して列車消失信号を出力する。制御部42から停止信号を受信するまでこの処理を繰り返す。
 以上の処理により進入車輌検出部43において車輌6の進入の有無の検知が行われる。
 このような本実施例に係る画像処理による通過列車撮影装置によれば、実施例1における効果に加え、基準画像と入力画像との比較を正規化相関演算によって判断し、列車進入の有無を判断するため、実施例1に比較して演算は複雑になるが、検知エリア全体に対する一様な照度変化に頑健で、日中に日が陰るような広範囲な照度変化が発生した場合でも過敏反応することなく、車輌6の進入の有無を安定して検知できる。
 図8乃至図12に基づいて本発明に係る画像処理による通過列車撮影装置の第3の実施例を説明する。図8は本実施例に係る画像処理による通過列車撮影装置の構造を示すブロック図、図9は本実施例の物体形状検査部の構成を示すブロック図、図10は物体形状モデルの例を示す説明図、図11は本実施例の処理設定部における物体形状モデル作製の流れを示すフローチャート、図12は本実施例の物体形状検査部における処理の流れを示すフローチャートである。
 本実施例は、上述した実施例1と画像処理装置4の構成が異なるものである。具体的には、画像処理装置4が、実施例1において説明した進入車輌検出部43に代えて、図8に示す物体形状検査手段としての物体形状検査部45を備えるとともに、処理設定部41及び制御部42における処理が実施例1とは異なっている。
 その他の構成は実施例1において説明した構造と概ね同様であり、以下、実施例1において説明した部材と同一の部材には同一の符合を付して重複する説明は省略し、実施例1と異なる点を中心に説明する。
 本実施例に係る画像処理による通過列車撮影装置は、装置モードとして形状モデル作製モード及び列車進入検知モードの二つの処理形態を設定可能に構成され、この装置モードに応じて異なる処理を行うようにしたものであって、画像処理装置4は、図8に示す処理設定部41、制御部42、物体形状検査部45、及び録画部44とを備えて構成されている。なお、形状モデル作製モードでは線路部分の物体形状モデルM(図10参照)を作製する処理、列車進入検知モードでは車輌6の進入の有無を検知する処理を行う。
 本実施例の画像処理装置4において、処理設定部41は、装置モードとして「形状作製モード」または「列車進入検知モード」を設定する。また、物体形状検査部45から取得した車輌6が撮影されていない入力画像に対して、図4に一例を示すように所定の位置に検知エリアAを設定する。また、物体形状モデル作製用画像の取得、特徴抽出パラメータの設定、物体形状モデルMの作製、物体形状検査パラメータ設定のための設定処理を行う。これらの設定データは処理データとして保管される。
 制御部42は処理設定部41から装置モードを入力し、装置モードが「形状モデル作製モード」である場合は、照明2、監視カメラ3、物体形状検査部45、及び録画部44へ起動信号を送信する。そして、装置モードが「形状モデル作製モード」から「列車進入検知モード」へ変更された場合には、照明2、監視カメラ3、物体形状検査部45、及び録画部44へ停止信号を送信する。そして、車輌接近警報部1から送信される列車接近信号を受けて、照明2、監視カメラ3、物体形状検査部45、及び録画部44へ起動信号を送信する。さらに、物体形状検査部45からの列車検知信号を受けて、録画部44へ録画開始を送信する。また、物体形状検査部45からの列車消失信号を受けて、録画部44へ録画停止信号を送信すると共に、照明2、監視カメラ3、物体形状検査部45、及び録画部44へ停止信号を送信する。
 物体形状検査部45は、制御部42からの起動信号を受けて処理設定部41から装置モードを入力し、この装置モードに応じて形状モデル作製処理または列車進入検知処理を開始し、制御部42からの停止信号を受けて形状モデル作製処理または列車進入検知処理を停止する。
 以下、形状モデル作製処理及び列車進入検知処理についてより詳しく説明する。図9に示すように、物体形状検査部45には画像入力処理部45a、特徴抽出処理部45b、物体形状モデル設定処理部45c、特徴データ照合処理部45d、及び列車進入判断処理部45eが設けられている。
 画像入力処理部45aは監視カメラ3から送信される画像を入力する処理を行い、特徴抽出処理部45bは画像入力処理部45aにおいて取得した入力画像中の特徴を抽出する処理を行う。物体形状モデル設定処理部45cは図10に一例を示す物体形状モデルMを設定する処理を行う。また、特徴データ照合処理部45dは物体形状モデルMの特徴データと監視カメラ3から入力された入力画像の特徴データとの照合を行う。列車進入判断処理部43dは特徴データ照合処理部45dによって特徴データを照合した結果に基づいて車輌6が進入しているか否かを判断し検知結果を出力する処理を行う。
 このような物体形状検査部45において、装置モードとして処理設定部41から形状モデル作製モードが送信されている場合は、図11に示す処理が行われる。
 即ち、物体形状検査部45が制御部42から起動信号を受けると、物体形状モデル設定処理部45cにおいて、まず、処理設定部41から、該処理設定部41において入力画像の中から物体形状モデル作製用として予め選択された物体形状モデル作製用画像を取得する(ステップPC1)。
 続いて、ステップPC1で取得した物体形状モデル作製用画像を解析し、物体形状モデル作製用画像中に存在する物体の輪郭や模様等の特徴的な部分を、直線もしくは円弧に近似して抽出した直線特徴と円弧特徴からなる特徴データとして抽出する(ステップPC2)。
 続いて、特徴データから特に車輌6の存在していない線路部分の直線特徴と円弧特徴とを選択し(ステップPC3)、これを物体形状モデルMの特徴データとして登録する(ステップPC4)。
 このような処理により、物体形状検査部45において物体形状モデルMの作製が行われる。
 また、装置モードとして処理設定部41から列車進入検知モードが送信されている場合は、図12に示す処理が行われる。
 即ち、物体形状検査部45は、制御部42から起動信号を受けると、まず、起動直後か否かを判断し(ステップPD1)、起動直後であると判断された場合(Yes)は、処理設定部41から処理データとして予め設定された画像中の検知エリアA、特徴抽出パラメータ、物体形状モデルM、物体形状検査パラメータを入力する(ステップPD2)。ステップPD1で起動直後ではないと判断された場合(No)またはステップPD2に続いては、画像入力処理部45aにおいて監視カメラ3から送信される画像を入力する(ステップPD3)。
 特徴抽出処理部45bにおいて、入力画像を解析し、この画像中の検知エリアA内に存在する物体の輪郭や模様等の特徴的な部分を直線もしくは円弧に近似して抽出した直線特徴と円弧特徴からなる特徴データとして抽出し(ステップPD4)、次いで、特徴データ照合処理部45dにおいて処理設定部41から入力した物体形状モデルMに登録された特徴データと、入力画像から抽出した特徴データとを照合する(ステップPD5)。
 続いて、列車進入判断処理部45eにおいて、特徴データ照合処理部45dにおいて照合した特徴データ同士が処理設定部41において予め設定した物体形状検査パラメータの範囲内で相似している場合は、二つの特徴データが適合したとみなして入力画像に車輌6が撮影されている、即ち、車輌6が進入したと判断する(ステップPD6)。なお、特徴データ照合処理部45dにおいて照合した特徴データ同士が、処理設定部41において予め設定した物体形状検査パラメータの範囲内で相似していない場合は、二つの特徴データが不適合とみなして入力画像に車輌6が撮影されていない、即ち、車輌6が進入していない、または車輌6が通過したと判断する。
 続いて、ステップPD6において判断した車輌6の進入の有無を判断結果として制御部42に出力する(ステップPD7)。詳しくは、入力画像に車輌6が撮影されていると判断されている間は制御部42に対して列車検知信号を出力し、列車の検知後、入力画像に車輌6が撮影されていないと判断されたら制御部42に対して列車消失信号を出力する。制御部42から停止信号を受信するまでこの処理を繰り返す。
 このような処理により、物体形状検査部45において列車進入検知処理が行われる。
 このような本実施例に係る画像処理による通過列車撮影装置によれば、車輌6が監視カメラ3の視野内に撮影されている間だけ入力画像を録画するため、車輌6が撮影されている画像データを保管するためだけに録画部44の画像保管領域を使用することができる。そのため、保管画像から車輌6の屋根上の状態を確認する作業を行う際には、車輌6が撮影されている画像部分を探索する作業を省くことができ、作業の高効率化が実現できる。
 また、入力画像から抽出した特徴をもとに判断するため、実施例1、実施例2のように画像自体を比較する手法に比べて照度変化により頑健で、部分的な照度変化が発生する明け方や、偏った夜間照明が存在した場合でも安定した列車進入検知を行うことができる。
 図13乃至図16を用いて本発明に係る画像処理による通過列車撮影装置の第4の実施例を説明する。
 図13は本実施例に係る画像処理による通過列車撮影装置の構造を示すブロック図、図14は本実施例の進入検知部の構成を示すブロック図、図15は本実施例の進入検出部による画像処理の流れを示す説明図、図16は本実施例の進入検出部における処理結果の一例を示す説明図である。
 本実施例は、上述した実施例1とは画像処理装置4の構成が異なるものである。具体的には、実施例1における画像処理装置4の進入車輌検出部43に代えて、図13に示す進入検知手段としての進入検知部46を備えるとともに、実施例1とは処理設定部41及び制御部42における処理が異なるものである。その他の構成は実施例1において説明した構造と概ね同様であり、以下、実施例1において説明した部材と同一の部材には同一の符合を付して重複する説明は省略し、実施例1と異なる点を中心に説明する。
 本実施例の画像処理装置4は、図13に示す処理設定部41、制御部42、進入検知部46、及び録画部44を備えて構成されている。
 処理設定部41では、進入検知部46から取得した車輌6が撮影されていない入力画像に対し、図4に一例を示すように所定の位置に検知エリアAを設定すると共に、検知エリアA内に車輌6が進入したか否か判断するための幾何学的特徴量の範囲を設定し、これらの設定データを処理データとして保管する。
 制御部42では、車輌接近警報部1からの列車接近信号を受けて、照明2、監視カメラ3、進入検知部46、録画部44へ起動信号を送信する。また、進入検知部46からの列車検知信号を受けて録画部44へ録画開始信号を送信する。また、進入検知部46からの列車消失信号を受けて録画部44へ録画停止信号を送信するとともに、照明2、監視カメラ2、進入検知部46、録画部44へ停止信号を送信する。
 進入検知部46では、制御部42からの起動信号を受けて進入検知処理を開始すると共に、処理設定部41から処理データを読み出し、制御部42からの停止信号を受けて進入検知処理を停止する。また、進入検知処理中には、入力画像を解析することで車輌6の進入を検知し、入力画像中に車輌6を検知した場合、列車検知信号を制御部42へ送信する。更に、車輌6の進入を検知した後で入力画像中に車輌6が検知されなくなった場合、列車消失信号を制御部42へ送信する。
 より詳しく説明すると、図14に示すように進入検知部46には、画像入力処理部46a、基準画像保管処理部46b、変化検出部分領域検出処理部46c、及び幾何学的特徴量検査処理部46dが設けられている。
 画像入力処理部46aは監視カメラ3から送信される画像を入力する処理を行い、基準画像保管処理部46bは処理設定部41で予め設定した図4に一例を示す検知エリアAに基づいて基準画像を保管する処理を行う。また、変化検出部分領域検出処理部46cは画像入力処理部46aに入力された入力画像と基準画像保管処理部46bに保管された基準画像との相関計算を行う。幾何学的特徴量検査処理部46dは変化検出部分領域検出処理部46cによって演算した結果に基づいて車輌6が進入しているか否かを判断し検知結果を出力する処理を行う。
 この進入検知部46においては、以下に示す流れで進入検知処理が行われる。すなわち、進入検知部46では、基準画像保管処理部46bにおいて、車輌6が撮影されていない画像(図4参照)を予め取得し、これを基準画像データとして保管しておく。
 そして、制御部42から起動信号を受けると、処理設定部41から処理データとして入力画像中の検知エリアA及び幾何学的特量の範囲を入力するとともに、画像入力処理部46aにおいて監視カメラ3から送信される画像を入力する。続いて、変化検出部分領域検出処理部46cにおいて、基準画像及び入力画像7を適当な小領域71(図15(a)参照)に分割する。
 その後、予め画像中の車輌6が通過する部分に設定しておいた検知エリアAにおいて、一つ一つの小領域71に対応する基準画像データと入力画像データとの相関計算を行い、相関値の時間的な変化を基にして入力画像中に設定した小領域71の中から、変化の発生を検出した変化小領域72と、背景との変化が少ない背景候補小領域73を検出し(図15(b)参照)、続いて隣接する変化小領域72を結合して変化検出部分領域74を求める(図15(c)参照)。
 続いて、幾何学的特徴量検査処理部46dにおいて、変化検出部分領域74の幾何学的特徴量が、予め設定した車輌6に対応する幾何学的特徴量の範囲内であるか否かを判断し、変化検出部分領域74の幾何学的特徴量が、予め設定した車輌6に対応する幾何学的特徴量の範囲内である場合に、入力画像に車輌6が撮影されている、即ち、車輌6が進入したと判断する。なお、変化検出部分領域74の幾何学的特徴量が、予め設定した車輌6に対応する幾何学的特徴量の所定範囲内でない場合、二つの特徴データが適合しないとみなして入力画像には車輌6が撮影されていない、即ち、車輌6が進入していない、または車輌6が通過した後であると判断する。
 続いて、車輌6の進入の有無を制御部42に出力する。詳しくは、入力画像に車輌6が撮影されていると判断されている間は制御部42に対して列車検知信号を出力し、車輌6の検知後、入力画像に車輌6が撮影されていないと判断されたら制御部42に対して列車消失信号を出力する。制御部42から停止信号を受信するまでこの処理を繰り返す。
 このような進入検知処理では、図16に示すような部分的な照度変化が発生し、図16中の領域81,82が変化検出部分領域として抽出されたとしても、このような変化が各所に分割されるため、幾何学的特徴量検査処理部46dにおける予め設定した車輌6に対応する幾何学的特徴量による判断により車輌6とは区別される。
 このような本実施例に係る画像処理による通過列車撮影装置によれば、実施例1、実施例2による効果に加えて、照度変化に頑健で、部分的な照度変化が発生する明け方や、偏った夜間照明が存在した場合でも安定した列車進入検知を行うことができ、また、実施例3に比較して、物体形状モデルMを設定する必要がないため、撮影地点が多数あったとしても、それぞれの地点で物体形状モデルMを作製する必要がなく、現地調整作業を大幅に減少させることができる。
 なお、本発明は上述した実施例に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能であることはいうまでもない。

Claims (5)

  1.  車輌の接近を検知して列車接近信号を出力する車輌接近警報手段と、前記車輌の屋根上を撮影する撮影手段と、前記撮影手段によって撮影された画像を処理する画像処理手段とを備えた画像処理による通過列車撮影装置において、
     前記画像処理手段が、
     前記撮影手段によって撮影された画像から車輌を検出する車輌検出手段と、
     前記撮影手段によって撮影された画像を記録する録画手段と、
     前記車輌接近警報手段から送信される列車接近信号に基づいて前記撮影手段の起動及び停止を制御するとともに、前記車輌検出手段から送信される前記車輌の有無に基づいて前記録画手段による前記画像の記録の開始及び停止を制御する制御手段とを備える
     ことを特徴とする画像処理による通過列車撮影装置。
  2.  前記車輌検出手段が、予め設定した基準画像と、前記撮影手段によって撮影された入力画像との絶対値差分演算により前記入力画像中から前記車輌を検出する進入車輌検出手段である
     ことを特徴とする請求項1記載の画像処理による通過列車撮影装置。
  3.  前記車輌検出手段が、予め設定した基準画像と、前記撮影手段によって撮影された入力画像との正規化相関演算により前記入力画像中から前記車輌を検出する進入車輌検出手段である
     ことを特徴とする請求項1記載の画像処理による通過列車撮影装置。
  4.  前記車輌検出手段が、予め設定した特徴データと、前記撮影手段によって撮影された入力画像から抽出した特徴データとを比較することにより前記入力画像中から前記車輌を検出する物体形状検査手段である
     ことを特徴とする請求項1記載の画像処理による通過列車撮影装置。
  5.  前記車輌検出手段が、前記撮影手段によって撮影された入力画像を多数の小領域に分割し、予め取得した背景画像と前記入力画像のそれぞれ対応する前記小領域の相関計算を行い、前記相関計算による相関値の時間的な変化が所定の値より大きい前記小領域を変化小領域として検出し、隣接する前記変化小領域を結合して変化検出部分領域を求め、前記変化検出部分領域の幾何学的特徴量を算出し、前記幾何学的特徴量が予め設定した前記列車に対応する特徴量範囲内である場合に前記車輌が進入したと検出する進入検知手段である
     ことを特徴とする請求項1記載の画像処理による通過列車撮影装置。
PCT/JP2009/068886 2008-11-18 2009-11-05 画像処理による通過列車撮影装置 WO2010058703A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008294002A JP5396826B2 (ja) 2008-11-18 2008-11-18 画像処理による通過列車撮影装置
JP2008-294002 2008-11-18

Publications (1)

Publication Number Publication Date
WO2010058703A1 true WO2010058703A1 (ja) 2010-05-27

Family

ID=42198143

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/068886 WO2010058703A1 (ja) 2008-11-18 2009-11-05 画像処理による通過列車撮影装置

Country Status (2)

Country Link
JP (1) JP5396826B2 (ja)
WO (1) WO2010058703A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102377984A (zh) * 2010-08-09 2012-03-14 纬创资通股份有限公司 监视影像录制方法和监视系统以及计算机程序产品
CN104378592A (zh) * 2014-11-17 2015-02-25 苏州立瓷电子技术有限公司 一种具有数据预处理功能的监控系统
CN108556876A (zh) * 2018-04-18 2018-09-21 北京交通大学 一种新型列车测速测距设备及方法
WO2019092246A1 (de) * 2017-11-10 2019-05-16 Db Fernverkehr Ag Inspektionsverfahren und inspektionssystem zum inspizieren eines fahrzeugs im betriebszustand
US10946883B2 (en) 2018-08-09 2021-03-16 Alstom Transport Technologies Train detection system for a railway track, a method for detecting a train on a railway track, and a controller for a train detection system for detecting a train on a railway track
DE102020004064B3 (de) 2020-07-06 2021-08-19 Peter Gornyk Bildbasiertes System und Verfahren für die Detektion schienengebundener Fahrzeuge
DE102021100505A1 (de) 2021-01-13 2022-07-14 Deutsche Bahn Aktiengesellschaft Überwachungsverfahren
CN114802354A (zh) * 2022-05-30 2022-07-29 中铁电气化局集团第三工程有限公司 用于轨道施工区间的侵入检测系统、方法及预警系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6752645B2 (ja) * 2016-07-15 2020-09-09 ニッタン株式会社 試験システム及び通信端末

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191501A (ja) * 1995-01-10 1996-07-23 Nippon Pikushisu:Kk 車輌屋根上監視方法及びその装置
JPH08228338A (ja) * 1995-02-22 1996-09-03 Mitsubishi Electric Corp 状態監視装置及び状態監視方法
JPH09132141A (ja) * 1995-11-06 1997-05-20 Maspro Denkoh Corp 軌道車両接近警報装置
JPH10208045A (ja) * 1997-01-21 1998-08-07 Mitsubishi Heavy Ind Ltd 車両進入検知装置
JPH11259792A (ja) * 1998-03-06 1999-09-24 Omron Corp 車輌認識方法およびその装置
JP2004312832A (ja) * 2003-04-04 2004-11-04 Hitachi Industries Co Ltd 鉄道車両用屋根上機器監視測定装置
JP2007336353A (ja) * 2006-06-16 2007-12-27 Canon Inc 情報処理装置
JP2008035301A (ja) * 2006-07-31 2008-02-14 Hitachi Ltd 移動体追跡装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191501A (ja) * 1995-01-10 1996-07-23 Nippon Pikushisu:Kk 車輌屋根上監視方法及びその装置
JPH08228338A (ja) * 1995-02-22 1996-09-03 Mitsubishi Electric Corp 状態監視装置及び状態監視方法
JPH09132141A (ja) * 1995-11-06 1997-05-20 Maspro Denkoh Corp 軌道車両接近警報装置
JPH10208045A (ja) * 1997-01-21 1998-08-07 Mitsubishi Heavy Ind Ltd 車両進入検知装置
JPH11259792A (ja) * 1998-03-06 1999-09-24 Omron Corp 車輌認識方法およびその装置
JP2004312832A (ja) * 2003-04-04 2004-11-04 Hitachi Industries Co Ltd 鉄道車両用屋根上機器監視測定装置
JP2007336353A (ja) * 2006-06-16 2007-12-27 Canon Inc 情報処理装置
JP2008035301A (ja) * 2006-07-31 2008-02-14 Hitachi Ltd 移動体追跡装置

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102377984A (zh) * 2010-08-09 2012-03-14 纬创资通股份有限公司 监视影像录制方法和监视系统以及计算机程序产品
CN104378592A (zh) * 2014-11-17 2015-02-25 苏州立瓷电子技术有限公司 一种具有数据预处理功能的监控系统
WO2019092246A1 (de) * 2017-11-10 2019-05-16 Db Fernverkehr Ag Inspektionsverfahren und inspektionssystem zum inspizieren eines fahrzeugs im betriebszustand
CN108556876A (zh) * 2018-04-18 2018-09-21 北京交通大学 一种新型列车测速测距设备及方法
US10946883B2 (en) 2018-08-09 2021-03-16 Alstom Transport Technologies Train detection system for a railway track, a method for detecting a train on a railway track, and a controller for a train detection system for detecting a train on a railway track
DE102020004064B3 (de) 2020-07-06 2021-08-19 Peter Gornyk Bildbasiertes System und Verfahren für die Detektion schienengebundener Fahrzeuge
DE102021100505A1 (de) 2021-01-13 2022-07-14 Deutsche Bahn Aktiengesellschaft Überwachungsverfahren
CN114802354A (zh) * 2022-05-30 2022-07-29 中铁电气化局集团第三工程有限公司 用于轨道施工区间的侵入检测系统、方法及预警系统

Also Published As

Publication number Publication date
JP2010124084A (ja) 2010-06-03
JP5396826B2 (ja) 2014-01-22

Similar Documents

Publication Publication Date Title
JP5396826B2 (ja) 画像処理による通過列車撮影装置
KR100721892B1 (ko) 드라이브 레코더 및 드라이브 레코더의 제어 방법
CN101146217A (zh) 摄像监控系统以及该系统的控制装置和控制方法
JP6532106B2 (ja) 監視装置、監視方法および監視用プログラム
US20100117839A1 (en) System and method for detecting fire
JP2011249981A5 (ja) 撮影装置、その制御方法、及びプログラム
ATE495460T1 (de) Lagebestimmungsverfahren, laserstrahldetektor und detektor-reflektor-vorrichtung für ein lagebestimmungssystem
RU2011137460A (ru) Устройство для захвата изображения и способ управления им
CA2543027A1 (en) Railroad car coupler gap analyzer
WO2010087347A1 (ja) 画像処理によるパンタグラフ撮影装置
TW200721039A (en) Imaging system, processing method for the imaging system, and program for making computer execute the processing method
CN107018378B (zh) 一种出入口监控摄像机及监控系统
CN110797047A (zh) 车辆行驶异响的实时监控装置、系统和方法
KR20130039844A (ko) 지능형 카메라 장치 및 이를 이용한 지능형 감시방법
KR100963279B1 (ko) 매연차량 자동판독 시스템 및 그 방법
JP5823207B2 (ja) 監視システム
KR20090122168A (ko) 매연차량 자동판독 시스템 및 그 방법
JP2009268005A (ja) 侵入物検知追跡装置
JP2011075283A (ja) ワイヤーロープ検査装置
JP6955402B2 (ja) 障害物検出システム及び障害物検出方法
JP5126086B2 (ja) 画像処理によるパンタグラフ撮影装置
JP2000207676A (ja) 交通事故検出装置
JP2008198124A (ja) 警戒センサ
CN106664779B (zh) 控制系统以及传感器单元
KR102448790B1 (ko) 고장 진단 및 속도 대응 카메라 자동 제어장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09827484

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09827484

Country of ref document: EP

Kind code of ref document: A1