WO2020194422A1 - 監視システムおよび監視方法 - Google Patents

監視システムおよび監視方法 Download PDF

Info

Publication number
WO2020194422A1
WO2020194422A1 PCT/JP2019/012345 JP2019012345W WO2020194422A1 WO 2020194422 A1 WO2020194422 A1 WO 2020194422A1 JP 2019012345 W JP2019012345 W JP 2019012345W WO 2020194422 A1 WO2020194422 A1 WO 2020194422A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
video data
subject
difference
vehicle
Prior art date
Application number
PCT/JP2019/012345
Other languages
English (en)
French (fr)
Inventor
晴洋 古藤
Original Assignee
株式会社日立国際電気
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立国際電気 filed Critical 株式会社日立国際電気
Priority to JP2021508401A priority Critical patent/JP7305750B2/ja
Priority to PCT/JP2019/012345 priority patent/WO2020194422A1/ja
Publication of WO2020194422A1 publication Critical patent/WO2020194422A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present invention relates to a monitoring system and a monitoring method.
  • FIG. 10 is a diagram showing a vehicle equipped with this forward surveillance camera.
  • the vehicle 1 (for example, the leading vehicle) has a front monitoring camera 20 that captures the front from the inside of the driver's cab of the vehicle and outputs video data, a display monitor 20M for displaying video data, and video data.
  • a system is configured to include a recording device 20R for recording data and a hub device 20H for connecting these devices to each other via a network.
  • a network is constructed in the entire vehicle.
  • an object of the present invention is to provide a technique for detecting a distance between a moving body and a subject of a camera installed on the moving body.
  • one of the representative monitoring systems of the present invention is an image pickup unit installed on a moving body, which captures the forward or backward direction of the moving body and outputs video data, and video data.
  • An image extraction unit that extracts the appearance image of the subject reflected in the image, an image analysis unit that analyzes the size of the subject on the appearance image, and a distance analysis unit that obtains distance information to the subject based on the size of the subject on the appearance image.
  • a control unit that outputs distance information is provided.
  • FIG. 1 is a diagram showing the configuration of the first embodiment.
  • FIG. 2 is a diagram showing a state of the vehicle 1 and another vehicle 2.
  • FIG. 3 is a flow chart showing the operation of the railway monitoring system 10.
  • FIG. 4 is a diagram showing the processing of the image extraction unit 30.
  • FIG. 5 is a diagram showing an optical object space.
  • FIG. 6 is a diagram showing an optical image space.
  • FIG. 7 is a diagram showing the configuration of the second embodiment.
  • FIG. 8 is a diagram showing the operation of the image extraction unit 30A.
  • FIG. 9 is a diagram showing a difference image of a stop period and a difference image of a forward period.
  • FIG. 10 is a diagram showing a forward surveillance camera.
  • FIG. 1 is a diagram showing a configuration of a railway monitoring system 10 in the first embodiment.
  • the railway monitoring system 10 includes a forward monitoring camera 20, an image extraction unit 30, an image analysis unit 40, a distance analysis unit 50, and a control unit 60, which are imaging units.
  • the front surveillance camera 20 includes an image pickup element 21 that captures a subject image and outputs a video signal, and a camera image processing unit 22 that generates video data by performing gain control, gamma correction, color correction, and the like on the video signal.
  • a camera post-processing unit 23 that performs compression processing of still images and moving images on video data, converts it into video stream data conforming to the network protocol, and sends it to network N.
  • the image extraction unit 30 includes a gray scale conversion unit 31 that removes a color difference component from the video data and converts it into video data composed of a brightness component (gray scale), an image memory 32 that temporarily stores the video data in frame units, and a current image memory 32. It is provided with a diffifier 33 that generates a difference image from which a stationary background area is removed by taking a frame difference between the video data and the past video data stored in the image memory 32. Since the difference image can take a negative pixel value, it may be converted to an absolute value.
  • the image analysis unit 40 extracts the outer shape extraction unit 41 that extracts the difference region of the outer shape of another vehicle (a set of pixels having a significant pixel difference) from the difference image, and the difference region of the window frame of another vehicle from the difference image.
  • a window frame extraction unit 42 for analyzing the width of the extracted difference region and a vehicle body width calculation unit 43 for analyzing the length on the image (hereinafter referred to as “image length”) are provided.
  • the distance analysis unit 50 and the camera parameter acquisition unit 52 acquire camera parameters (focal length f, image sensor size, etc.) at the time of shooting video data from the front monitoring camera 20 and an information area (EXIF, etc.) in the video data. It also includes an oncoming distance calculation unit 51 that calculates distance information to another vehicle based on the image length of another vehicle and camera parameters.
  • the control unit 60 is information related to vehicle operation such as operation information (vehicle speed, forward / backward information, wheel rotation speed, electric motor drive information, etc.) from the vehicle 1 on which the front monitoring camera 20 is mounted or a control device of another vehicle. ) Is acquired by wire or wirelessly, and the distance analysis unit 50 is made to calculate the distance information to another vehicle according to the timing of the operation status.
  • operation information vehicle speed, forward / backward information, wheel rotation speed, electric motor drive information, etc.
  • FIG. 2 is a diagram showing a state of the vehicle 1 and another vehicle 2.
  • another vehicle 2 is opposed to and stopped in the forward direction (or backward direction) of the vehicle 1.
  • a front surveillance camera 20 is installed in the driver's cab 1D of the vehicle 1 in the forward direction (or backward direction) of the vehicle 1.
  • the front surveillance camera 20 captures the front window of another vehicle 2 and the left and right sides of the vehicle body in the surveillance field of view 20E.
  • FIG. 3 is a flow chart showing the operation of the railway monitoring system 10. Hereinafter, description will be given according to the step numbers shown in the figure.
  • Step S101 The control unit 60 acquires the operation information of the vehicle 1 (driving operation information such as vehicle speed and forward / backward) from the control device of the vehicle 1.
  • the operation information of the separate vehicle 2 is wirelessly acquired from the control device of the separate vehicle 2.
  • Step S102 The control unit 60 determines whether or not the operation information satisfies the condition of low-speed operation. When the operation information does not satisfy the condition of low-speed operation such as when the vehicle speed is in the normal traveling speed range, the control unit 60 returns the operation to step S101. When the operation information satisfies the condition of low-speed operation such as the vehicle speed is equal to or less than a predetermined threshold value, the operation is shifted to step S103.
  • Step S103 The image extraction unit 30 processes the video data within the angle of view of the surveillance field of view 20E (see FIG. 2) output by the front surveillance camera 20.
  • FIG. 4 is a diagram showing the processing of the image extraction unit 30.
  • video data is input to the image extraction unit 30 in the order of frames (1), (2), ....
  • the grayscale conversion unit 31 removes the color difference component from these video data and outputs the video data composed of the luminance component.
  • the difference device 33 generates a difference image by taking a frame difference between the current video data and the past video data stored in the image memory 32. By generating this difference image, the "still area of the background" is removed from the video data, and an external image including the window frame and the outer shape of another vehicle 2 which is a moving area is extracted.
  • Step S104 The outer shape extraction unit 41 analyzes and recognizes shape matching, edge extraction, Hough transform, feature extraction, closed region, etc. on the difference image, and thereby another vehicle 2 as shown in FIG. 4 (G). Extract the difference area of the outer shape of.
  • the window frame extraction unit 42 analyzes and recognizes shape matching, edge extraction, Hough transform, feature extraction, closed region, and the like on the difference image, and thereby another vehicle 2 as shown in FIG. 4 (F). Extract the difference area of the window frame of.
  • Step S105 The vehicle body width calculation unit 43 determines whether or not the outer shape or the difference region of the window frame is extracted from the difference image. Here, when neither the outer shape nor the difference region of the window frame is extracted, the vehicle body width calculation unit 43 returns to the operation in step S101. When the difference region of the outer shape or the window frame is extracted on one side, the vehicle body width calculation unit 43 shifts the operation to step S106.
  • Step S106 The vehicle body width calculation unit 43 calculates the image length in a predetermined direction such as a horizontal direction, a vertical direction, or an oblique direction with respect to the extracted difference region.
  • the method of measuring the image length may be switched depending on whether the vehicle 1 and another vehicle 2 are approaching or separated. For example, when the vehicle body width calculation unit 43 determines that the vehicle 1 and another vehicle 2 are approaching based on the distance change between vehicles, the operation information, and the image change, the length of the image outside the difference region (FIG. 4). W1 and W3) are calculated. Further, the vehicle body width calculation unit 43 calculates the image length inside the difference region (see W2 and W4 in FIG. 4) when it is determined that the vehicle 1 and another vehicle 2 are separated.
  • Step S107 The camera parameter acquisition unit 52 acquires camera parameters such as the focal length f when the video data is captured and the image sensor size.
  • the oncoming distance calculation unit 51 calculates the distance information to another vehicle 2 based on the image length calculated by the vehicle body width calculation unit 43 and the camera parameters acquired by the camera parameter acquisition unit 52. The calculation method of the distance information will be described later.
  • the facing distance calculation unit 51 outputs the calculated distance information to the control unit 60 or the like, the operation returns to step S101.
  • FIG. 5 is a diagram showing an optical object space of the front surveillance camera 20.
  • FIG. 6 is a diagram showing an optical image space of the front surveillance camera 20.
  • the subject a corresponds to another vehicle 2 of the frame (1) shown in FIG.
  • the subject b corresponds to another vehicle 2 of the frame (2) shown in FIG.
  • the subject a and the subject b are located at distances Xa and Xb from the front principal point C1 of the front surveillance camera 20.
  • the light beam exiting the position of height Ya from the optical axis of the subject a is incident on the front principal point C1 at an incident angle ⁇ a.
  • This light ray is emitted from the posterior principal point C2 at an emission angle ⁇ a that is symmetrically inverted, and is imaged at a position of image height Za with respect to the image sensor 21 that is approximately a focal length f away.
  • a light ray exiting a position at a height Yb from the optical axis of the subject b is incident on the front principal point C1 at an incident angle ⁇ b.
  • This light ray is emitted from the posterior principal point C2 at an emission angle ⁇ b that is symmetrically inverted, and is imaged at a position of image height Zb with respect to the image sensor 21 that is approximately a focal length f away. Since the subjects a and b both correspond to the same different vehicle 2, the height Ya and the height Yb in the object space are equal.
  • Ya Yb ⁇ ⁇ ⁇ ⁇ ⁇ [1]
  • the subject distance Xb is shorter than the subject distance Xa, so that the incident angle ⁇ b of the subject b is larger than the incident angle ⁇ a of the subject a.
  • the focal length f can be obtained from the camera parameters of the front surveillance camera 20 and the information area (EXIF, etc.) in the video data.
  • the image heights Za and Zb are the pixel intervals (vertical and horizontal size of the effective pixel area / effective pixel area) of the image sensor 21 with respect to the image length (unit: number of pixels) obtained by image analysis of the video data (difference image). It can be obtained by multiplying the number of pixels in the vertical and horizontal directions of.
  • the front surveillance camera 20 can be used to detect the distance between vehicles.
  • Example 1 has the following effects.
  • the distance between vehicles can be detected by using the front surveillance camera 20.
  • the front surveillance camera 20 conventionally installed in the vehicle 1 can be used as the imaging unit for the purpose of recording the operation status. Therefore, there are few new components, and the railway monitoring system 10 can be additionally realized in a space-saving and cost-saving manner.
  • the image analysis unit 40 analyzes the image length of the window frame or the outer shape of another vehicle 2. Since the window frame and outer shape on the front of the vehicle are edge regions on the image, edge extraction is easy, and the shape is also determined in advance, so that shape recognition becomes accurate. Therefore, the analysis of the image length becomes easy and accurate, and the detection accuracy of the distance information can be improved.
  • the control unit 60 acquires the operation information of the vehicle 1 or the separate vehicle 2, and the distance to the separate vehicle 2 is triggered when the operation information satisfies the predetermined low-speed operation condition. Start detecting or outputting information. Therefore, it is possible to suppress the detection or output of the distance information during normal traveling. Therefore, it becomes possible to reduce the processing load as the railway monitoring system 10.
  • the image extraction unit 30 generates a difference image in the time axis direction of the video data and removes the background region. Therefore, the extraction of the appearance image of the separate vehicle 2 is not hindered by the edge component or the like included in the background region, and the image length of the appearance image can be analyzed more appropriately.
  • the image analysis unit 40 switches the method of measuring the image length in the difference region of the difference image depending on whether the moving body and the subject (vehicles) are approaching or separated from each other. For example, it is possible to determine whether the vehicle is approaching or separated from the moving body and the subject (vehicles) based on the operation information, the change in the appearance image, the change in the distance information, and the like. When the moving body and the subject (vehicles) are approaching each other, the appearance image of the opposing subject (another vehicle) gradually becomes larger. Therefore, the latest image length can be obtained by measuring the large image lengths (W1, W3 in FIG. 4) outside the difference region.
  • the latest image length can be obtained by measuring the small image lengths (W2 and W4 in FIG. 4) inside the difference region.
  • the latest distance information (information on the distance between vehicles) can be obtained based on the latest image length.
  • stop period a difference image corresponding to a stop or fine movement period that is not suitable for difference extraction of the appearance image of another vehicle 2 is generated.
  • FIG. 7 is a diagram showing a configuration of the railway monitoring system 10A in the second embodiment.
  • the railway monitoring system 10A is configured by replacing the image extraction unit 30 of the first embodiment with the image extraction unit 30A. Since the configurations and operations other than the image extraction unit 30A are the same as those in the first embodiment, duplicate description will be omitted here.
  • the image extraction unit 30A includes a grayscale conversion unit 31, an image memory A, an image memory B, an input selector 34, an output selector 35, a motion determination unit 36, a switching unit 37, and a diffifier 33.
  • the gray scale conversion unit 31 removes the color difference component from the video data acquired from the front surveillance camera 20 and converts it into video data composed of a luminance component (gray scale).
  • Image memories A and B are realized by setting at least two image memories or at least two memory areas in one image memory. These image memories A and B are used to temporarily store video data.
  • the input selector 34 inputs video data to the image memory A or B.
  • the output selector 35 outputs past video data from the image memory A or B.
  • the difference image output by the difference device 33 is input to the motion determination unit 36. Further, the motion determination unit 36 acquires the operation information (vehicle speed, forward / backward information, etc.) of the vehicle 1 or another vehicle 2 by wire or wirelessly. The motion determination unit 36 stops or slightly moves the vehicle 1 and / or the separate vehicle 2 on the video data based on the motion information of "motion detection by difference image” or "operation information of vehicle 1 or another vehicle 2". Determine the "suspension period" that can be considered to be.
  • the switching unit 37 exclusively switches the output destination of the input selector 34 and the input source of the output selector 35 in frame units.
  • the switching unit 37 does not switch the output destination of the input selector 34, holds the video data near the start of the stop period in one of the image memories A and B, and further.
  • the input source of the output selector 35 is not switched, and the video data near the start of the stop period is continuously output from one of the image memories A and B.
  • the diffifier 33 generates a difference image by taking the difference between the "current video data” and the "past video data output from the output selector 35".
  • FIG. 8 is an explanatory diagram showing the operation of the image extraction unit 30A when the vehicle 1 repeatedly moves forward and stops or moves forward at a very low speed.
  • the frame (1) is held in the image memory A which is the output destination of the input selector 34.
  • the past frame (0) held in the image memory B which is the input source of the output selector 35, is input to the diffifier 33.
  • the diffifier 33 generates a difference image between the current frame (1) and the past frame (0).
  • the motion determination unit 36 determines the stop period based on the difference image and the operation information. In FIG. 8 [1], it is determined that the stop period is not due to reasons such as the number of pixels in the difference region (a set of pixels having a significant pixel difference) included in the difference image being a predetermined ratio P1 or more.
  • the switching unit 37 since it is determined that the stop period is not immediately before, the switching unit 37 switches the output destination of the input selector 34 to the image memory B side, so that the current frame (2) is set to the image memory B. Hold. Further, the switching unit 37 outputs the past frame (1) to the diffifier 33 by switching the input source of the output selector 35 to the image memory A. The diffifier 33 generates a difference image between the current frame (2) and the past frame (1). The motion determination unit 36 determines the stop period based on the difference image and the operation information. In FIG. 8 [2], the stop period is determined because the number of pixels in the difference region included in the difference image is less than the predetermined ratio P2.
  • the switching unit 37 since the stop period is determined immediately before, the switching unit 37 maintains the output destination of the input selector 34 on the image memory B side, so that the frame (1) near the start of the stop period is set. It is held in the image memory A. Further, the switching unit 37 keeps the input source of the output selector 35 on the image memory A side, so that the frame (1) near the start of the stop period is continuously output to the diffifier 33.
  • the diffifier 33 generates a difference image between the current frame (3) and the past frame (1). This difference image contains motion information for a two-frame period.
  • the motion determination unit 36 determines the stop period based on the difference image and the operation information. In FIG. 8 [3], the stop period is determined because the number of pixels in the difference region included in the difference image is less than the predetermined ratio P2.
  • the switching unit 37 since the stop period is continuously determined, the switching unit 37 maintains the output destination of the input selector 34 on the image memory B side, so that the frame (1) near the start of the stop period. Is held in the image memory A. Further, the switching unit 37 keeps the input source of the output selector 35 on the image memory A side, so that the frame (1) near the start of the stop period is continuously output to the diffifier 33.
  • the diffifier 33 generates a difference image between the current frame (4) and the past frame (1). This difference image contains motion information for a three-frame period.
  • the motion determination unit 36 determines the stop period based on the difference image and the operation information. In FIG.
  • the stop period is not due to reasons such as the number of pixels in the difference region included in the difference image being a predetermined ratio P1 or more.
  • P1 the number of pixels in the difference region included in the difference image
  • hysteresis may be provided with P1> P2 for a predetermined ratio so that the determination of the stop period does not become unstable or fluctuate frequently.
  • the switching unit 37 since it is determined that the stop period is not immediately before, the switching unit 37 switches the output destination of the input selector 34 to the image memory A side, so that the current frame (5) is set to the image memory A. Hold. Further, the switching unit 37 outputs the past frame (4) to the diffifier 33 by switching the input source of the output selector 35 to the image memory B side. The diffifier 33 generates a difference image between the current frame (5) and the past frame (4). The motion determination unit 36 determines the stop period based on the difference image and the operation information. In FIG. 8 [5], it is determined that the stop period is not due to reasons such as the number of pixels in the difference region included in the difference image being a predetermined ratio P1 or more.
  • the switching unit 37 since it is determined that the stop period is not immediately before, the switching unit 37 switches the output destination of the input selector 34 to the image memory B side, so that the current frame (6) is set to the image memory B. Hold. Further, the switching unit 37 outputs the past frame (5) to the diffifier 33 by switching the input source of the output selector 35 to the image memory A side. The diffifier 33 generates a difference image between the current frame (6) and the past frame (5). The motion determination unit 36 determines the stop period based on the difference image and the operation information. In FIG. 8 [6], it is determined that the stop period is not due to reasons such as the number of pixels in the difference region included in the difference image being a predetermined ratio P1 or more.
  • FIG. 9 is a diagram showing a difference image of a stop period and a difference image of a forward period.
  • frames (A) to (B) correspond to video data while the vehicle is stopped.
  • the frame (C) corresponds to video data while the vehicle is moving forward.
  • These frames (A) to (C) are converted into frames (D) to (F) composed of luminance components by the grayscale conversion unit 31.
  • the motion determination unit 36 determines that it is a stop period.
  • the switching state of the input selector 34 and the output selector 35 is not changed during the stop period. Therefore, during the stop period, it is possible to compare the difference between the latest input video frame and the old video frame near the start of the stop period. Therefore, it becomes possible to extract a difference region having a clear edge, and even if the vehicle 1 or another vehicle 2 repeatedly moves forward (or backward) and stops, the distance can be measured.
  • the latest video frame and the old video frame near the start of the stop period are determined by determining the stop period even when the vehicle 1 or another vehicle 2 is slightly moving. Difference comparison with the oldest video frame near the start) is realized. As a result, when the fine movement state continues to some extent, it becomes possible to extract a difference region having a clear edge, and it becomes possible to measure the distance.
  • the present invention is not limited to the individual examples described above, and includes various modifications.
  • the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the described configurations.
  • it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment and it is also possible to add the configuration of another embodiment to the configuration of one embodiment.
  • the front surveillance camera of the railway surveillance system is used as the imaging unit.
  • the present invention is not limited to this.
  • a camera installed on a moving body such as a car or a drone may be used.
  • the subject of the camera installed on the moving body does not have to be a train.
  • a stationary object such as a sign or a building may be used as a subject.
  • the forward direction or the backward direction of the moving body may be a direction in which the moving body can change its direction and move, and is not limited to two linear front-rear directions.
  • "movement" of a moving body means that the relative distance to the subject can change, so when the coordinate axes are set for the moving subject, the stationary body equipped with the camera also becomes a relatively moving body. obtain.
  • a difference image is generated by taking a frame difference at the shortest interval of one frame period.
  • a difference image suitable for image length analysis may be generated by varying the frame rate or adjusting the shortest time interval for taking a frame difference to a plurality of frames.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本発明は、移動体と、移動体に設置されたカメラで撮像した被写体との距離を検出する技術を提供することを目的とする。 代表的な本発明の監視システムの一つは、移動体に設置されて移動体の前進方向または後退方向を撮影して映像データを出力する撮像部と、映像データに写る被写体の外観画像を抽出する画像抽出部と、外観画像上の被写体のサイズを解析する画像解析部と、外観画像上の別車両のサイズに基づいて被写体までの距離情報を求める距離解析部と、距離情報を出力する制御部とを備える。

Description

監視システムおよび監視方法
 本発明は、監視システムおよび監視方法に関する。
 近年、移動体に設置されたカメラで外部の映像を取得する事例が増えている。例えば、鉄道の車両には、運行状況を記録するなどの目的で前方監視カメラが設置される。
 図10は、この前方監視カメラを備えた車両を示す図である。
 同図において、車両1(例えば先頭車両)は、車両の運転台の内側から前方を撮影して映像データを出力する前方監視カメラ20と、映像データを表示するための表示モニタ20Mと、映像データを記録する記録装置20Rと、これら装置を相互にネットワーク接続するためのハブ装置20Hとを備えてシステム構成される。
 このような監視システムでは、たとえば特許文献1のように、車両全体にネットワークが構築されている。
特許第5634848号公報
 一般的に車両に設置されるカメラは、外部の映像を記録するだけである。そこで、本発明は、移動体と、移動体に設置されたカメラの被写体との距離を検出する技術を提供することを目的とする。
 上記課題を解決するために、代表的な本発明の監視システムの一つは、移動体に設置されて移動体の前進方向または後退方向を撮影して映像データを出力する撮像部と、映像データに写る被写体の外観画像を抽出する画像抽出部と、外観画像上の被写体のサイズを解析する画像解析部と、外観画像上の被写体のサイズに基づいて被写体までの距離情報を求める距離解析部と、距離情報を出力する制御部とを備える。
 本発明により、移動体と、移動体に設置されたカメラの被写体間との距離を検出することが可能になる。
 上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。
図1は、実施例1の構成を示す図である。 図2は、車両1および別車両2の様子を示す図である。 図3は、鉄道監視システム10の動作を示す流れ図である。 図4は、画像抽出部30の処理を示す図である。 図5は、光学的な物空間を示す図である。 図6は、光学的な像空間を示す図である。 図7は、実施例2の構成を示す図である。 図8は、画像抽出部30Aの動作を示す図である。 図9は、停止期間の差分画像と前進期間の差分画像を示す図である。 図10は、前方監視カメラを示す図である。
  図面を参照しながら、本発明の実施例を詳細に記載する。
(実施例1の構成)
 図1は、実施例1における鉄道監視システム10の構成を示す図である。
 同図において、鉄道監視システム10は、撮像部である前方監視カメラ20、画像抽出部30、画像解析部40、距離解析部50、および制御部60を備える。
 前方監視カメラ20は、被写体像を撮像して映像信号を出力する撮像素子21と、映像信号に対してゲイン制御やガンマ補正や色補正などを行って映像データを生成するカメラ映像処理部22と、映像データに対して静止画や動画像の圧縮処理を行い、ネットワークプロトコルに適合した映像ストリームデータに変換してネットワークNに送出するカメラ後処理部23とを備える。
 画像抽出部30は、映像データから色差成分を除いて輝度成分(グレースケール)からなる映像データに変換するグレースケール変換部31と、映像データをフレーム単位に一時記憶する画像メモリ32と、現在の映像データと、画像メモリ32に記憶された過去の映像データとのフレーム差をとることにより、静止した背景領域を除去した差分画像を生成する差分器33とを備える。なお、差分画像は負の画素値を取り得るため、絶対値化の処理を施してもよい。
 画像解析部40は、差分画像から別車両の外形の差分領域(画素差が有意なレベルの画素の集合)を抽出する外形抽出部41と、差分画像から別車両の窓枠の差分領域を抽出する窓枠抽出部42と、抽出された差分領域の幅の画像上の長さ(以下「画像長さ」という)を解析する車体幅算出部43とを備える。
 距離解析部50は、映像データの撮影時のカメラパラメータ(焦点距離fや撮像素子サイズなど)を、前方監視カメラ20や映像データ内の情報領域(EXIFなど)から取得するカメラパラメータ取得部52と、別車両の画像長さとカメラパラメータとに基づいて別車両までの距離情報を算出する対向距離算出部51とを備える。
 制御部60は、前方監視カメラ20が搭載される車両1や、別車両の制御装置から運行情報(車両速度、前進後退の情報、車輪の回転速度、電動機の駆動情報などの車両運行に係る情報)を有線または無線で取得し、運行状況のタイミングに応じて別車両までの距離情報を距離解析部50に算出させる。
 まず、車両1と別車両2の車両状態について説明する。
 図2は、この車両1と別車両2の様子を示す図である。
 同図において、車両1の前進方向(または後退方向)に、別車両2が対向して停車する。車両1の運転台1Dには、前方監視カメラ20が車両1の前進方向(または後退方向)に向けて設置される。
 この状態において、前方監視カメラ20は、別車両2の正面窓および車体の左右側方までを監視視野20Eに捉える。
(実施例1の動作)
 次に、車両1および別車両2間の距離を検出する動作について説明する。
 図3は、鉄道監視システム10の動作を示す流れ図である。
 以下、同図に示すステップ番号に沿って説明する。
ステップS101: 制御部60は、車両1の制御装置から車両1の運行情報(車両速度、前進後退などの運転操作情報)を取得する。また、別車両2の制御装置から別車両2の運行情報を無線で取得する。
ステップS102: 制御部60は、運行情報が低速度運行の条件を満足するか否かを判定する。車両速度が通常走行の速度域にあるなど、運行情報が低速度運行の条件を満足しない場合、制御部60はステップS101に動作を戻す。車両速度が所定の閾値以下であるなど、運行情報が低速度運行の条件を満足した場合、ステップS103に動作を移行する。
ステップS103: 画像抽出部30は、前方監視カメラ20が出力した、監視視野20E(図2参照)の画角内の映像データを処理する。
 図4は、この画像抽出部30の処理を示す図である。
 同図において、画像抽出部30には、フレーム(1)、(2)・・・のフレーム順に映像データが入力される。グレースケール変換部31は、これらの映像データから色差成分を除いて、輝度成分からなる映像データを出力する。
 差分器33は、現時点の映像データと、画像メモリ32に記憶された過去の映像データとのフレーム差をとることにより、差分画像を生成する。この差分画像の生成により、映像データから「背景の静止領域」が除去され、動領域である別車両2の窓枠や外形を含む外観画像が抽出される。
ステップS104: 外形抽出部41は、差分画像に対して形状マッチングやエッジ抽出やハフ変換や特徴抽出や閉領域などの解析・認識を行うことにより、図4(G)に示すような別車両2の外形の差分領域を抽出する。
 また、窓枠抽出部42は、差分画像に対して形状マッチングやエッジ抽出やハフ変換や特徴抽出や閉領域などの解析・認識を行うことにより、図4(F)に示すような別車両2の窓枠の差分領域を抽出する。
 例えば、差分画像に対しエッジ検出を実施した後に直線成分を抽出し、直線成分に囲まれて矩形になった部分を検出することで外形や窓枠を抽出することが可能である。また、車両のデザインにより外形や窓枠が直線に見えない場合には直線にとらわれないハフ変換などのアルゴリズムを適用することも可能である。
ステップS105: 車体幅算出部43は、差分画像から外形または窓枠の差分領域が抽出されたか否かを判定する。ここで、外形または窓枠の差分領域がどちらも抽出されない場合、車体幅算出部43は、ステップS101に動作を戻す。外形または窓枠の差分領域が一方でも抽出された場合、車体幅算出部43は、ステップS106に動作を移行する。
ステップS106: 車体幅算出部43は、抽出された差分領域について水平方向または垂直方向、または斜めなどの所定方向の画像長さを算出する。
 このとき、車両1および別車両2が接近中か離隔中かにより、画像長さの測り方を切り替えてもよい。例えば、車体幅算出部43は、車両間の距離変化や運行情報や画像変化に基づいて車両1および別車両2が接近中と判定した場合、差分領域の外側の画像の長さ(図4のW1,W3参照)を算出する。また、車体幅算出部43は、車両1および別車両2が離隔中と判定された場合、差分領域の内側の画像長さ(図4のW2,W4参照)を算出する。
ステップS107: カメラパラメータ取得部52は、映像データを撮影した際の焦点距離fや、撮像素子サイズなどのカメラパラメータを取得する。対向距離算出部51は、車体幅算出部43が算出した画像長さと、カメラパラメータ取得部52が取得したカメラパラメータに基づいて、別車両2までの距離情報を算出する。距離情報の算出方法については後述する。対向距離算出部51は、算出した距離情報を制御部60などに出力すると、ステップS101に動作を戻す。
(距離情報の算出方法について)
 続いて、上記のステップS107で実施する距離情報の算出方法について説明する。
 図5は、前方監視カメラ20の光学的な物空間を示す図である。
 図6は、前方監視カメラ20の光学的な像空間を示す図である。
 これらの図において、被写体aは図4に示すフレーム(1)の別車両2に相当する。被写体bは図4に示すフレーム(2)の別車両2に相当する。被写体aと被写体bは、前方監視カメラ20の前側主点C1から被写体距離Xa、Xb離れた場所にある。
 被写体aの光軸から高さYaの位置を出た光線は、前側主点C1に対して入射角φaで入射する。この光線は後側主点C2から対称に反転した出射角φaで出射し、およそ焦点距離f離れた撮像素子21に対して像高Zaの位置に結像する。
 被写体bの光軸から高さYbの位置を出た光線は、前側主点C1に対して入射角φbで入射する。この光線は後側主点C2から対称に反転した出射角φbで出射し、およそ焦点距離f離れた撮像素子21に対して像高Zbの位置に結像する。
 被写体a,bは、どちらも同じ別車両2に相当するため、物空間における高さYaと高さYbは等しい。
  Ya = Yb ・・・・・ [1]
 2つの被写体a,bは同じ大きさであるが、被写体距離Xbが被写体距離Xaよりも短いため、被写体bの入射角φbは、被写体aの入射角φaよりも大きくなる。
  φa < φb ・・・・・ [2] 
 そのため、同じ大きさの被写体a,bでありながら、撮像素子21に結像する像高Za,Zbは次の関係になる。
  Za < Zb ・・・・・ [3]
 すなわち、被写体距離が遠ざかるほど、撮像素子21が撮像する被写体像の像高は短くなる。この関係により次式が得られる。
  Xa / Ya = f / Za ・・・・・ [4]
  Xb / Yb = f / Zb ・・・・・ [5]
 式[4][5]を被写体距離Xa,Xbを求める式に変形すると次式が得られる。
  Xa = Ya × f / Za ・・・・・ [6]
  Xb = Yb × f / Zb ・・・・・ [7]
 ここで、焦点距離fは前方監視カメラ20のカメラパラメータや映像データ内の情報領域(EXIFなど)から情報取得できる。像高Za,Zbは、映像データ(差分画像)を画像解析して求めた画像長さ(単位:画素数)に対して、撮像素子21の画素間隔(有効画素領域の縦横サイズ/有効画素領域の縦横方向の画素数)を乗ずることにより求めることができる。被写体である別車両2の実長Ya(=Yb)は、車両の設計データや実測により予め情報収集してデータベース化することが可能である。このデータベースは、鉄道監視システム10の内部や、ネットワーク上のクラウドサーバーなどに設置される。
 したがって、被写体の画像長さが求まれば、被写体までの距離を計算することができる。以上述べたように、前方監視カメラ20を用いて、車両間の距離を検出することが可能になる。
(実施例1の効果)
 さらに、実施例1は次の効果を奏する。
(1)実施例1では、前方監視カメラ20を用いて車両間距離を検出することができる。
(2)実施例1では、運行状況を記録するなどの目的で車両1に従来から設置されている前方監視カメラ20を撮像部として使用することができる。そのため、新規な構成部分は少なく、省スペースかつ省コストに鉄道監視システム10を追加的に実現することができる。
(3)実施例1では、画像解析部40が別車両2の窓枠または外形の画像長さを解析する。車両正面の窓枠や外形は、画像上のエッジ領域になるためにエッジ抽出が容易であり、かつ形状も予め決定されるために形状認識が正確になる。そのため、画像長さの解析が容易かつ正確になり、距離情報の検出精度を高めることができる。
(4)実施例1では、制御部60が、車両1または別車両2の運行情報を取得し、運行情報が所定の低速度運行の条件を満足したことを契機に、別車両2までの距離情報の検出または出力を開始する。そのため、通常走行時において距離情報の検出または出力を抑止することができる。したがって、鉄道監視システム10として処理負荷を削減することが可能になる。
(5)実施例1では、画像抽出部30が、映像データの時間軸方向について差分画像を生成して背景領域を除去する。そのため、背景領域に含まれるエッジ成分などにより別車両2の外観画像の抽出が妨害されることがなく、外観画像の画像長さをより適切に解析することが可能になる。
(6)さらに実施例1では、画像解析部40が、差分画像の差分領域について、移動体と被写体(車両同士)が接近中か離隔中かにより、画像長さの測り方を切り替える。
 例えば、移動体と被写体(車両同士)の運行情報や、外観画像の変化や、距離情報の変化などにより、接近中か離隔中かを判定することができる。
 そして、移動体と被写体(車両同士)が接近中の場合、対向する被写体(別車両)の外観画像は徐々に大きくなる。そのため、差分領域の外側の大きな画像長さ(図4のW1,W3)を計ることにより、より最新の画像長さを求めることができる。
 逆に、移動体と被写体(車両同士)が離隔中の場合、対向する被写体(別車両)の外観画像は徐々に小さくなる。そのため、差分領域の内側の小さな画像長さ(図4のW2,W4)を計ることにより、より最新の画像長さを求めることができる。
 したがって、実施例1では、より最新の画像長さに基づいて、より最新の距離情報(車両間距離の情報)を求めることができる。
 続いて、別車両2の外観画像の差分抽出に適さない停止ないし微動の期間(以下「停止期間」という)に対処した差分画像を生成する実施例2について説明する。
(実施例2の構成)
 図7は、実施例2における鉄道監視システム10Aの構成を示す図である。
 同図において、鉄道監視システム10Aは、実施例1の画像抽出部30を画像抽出部30Aに入れ替えて構成される。なお、画像抽出部30A以外の構成や動作については、実施例1と同じため、ここでの重複説明を省略する。
 画像抽出部30Aは、グレースケール変換部31、画像メモリA、画像メモリB、入力セレクタ34、出力セレクタ35、動き判定部36、切替部37、および差分器33を備える。
 グレースケール変換部31は、前方監視カメラ20から取得した映像データから色差成分を除いて輝度成分(グレースケール)からなる映像データに変換する。
 画像メモリA,Bは、すくなくとも2つの画像メモリ、または1つの画像メモリ内に少なくとも2つのメモリ領域を設定して実現される。これらの画像メモリA,Bは、映像データを一時的に記憶するために使用される。
 入力セレクタ34は、画像メモリAまたはBに映像データを入力する。
 出力セレクタ35は、画像メモリAまたはBから過去の映像データを出力する。
 動き判定部36には、差分器33が出力する差分画像が入力される。また、動き判定部36は、車両1または別車両2の運行情報(車両速度、前進後退の情報など)を有線または無線で取得する。動き判定部36は、「差分画像による動き検出」または「車両1または別車両2の運行情報」の動き情報に基づいて、映像データ上において車両1および/または別車両2が停止ないし微動しているとみなせる「停止期間」を判定する。
 動き判定部36が停止期間と判定する場合を除いて、切替部37は、入力セレクタ34の出力先および出力セレクタ35の入力元をフレーム単位に排他的に切り替える。
 一方、動き判定部36が停止期間と判定した場合、切替部37は、入力セレクタ34の出力先を切り替えず、停止期間の開始付近の映像データを画像メモリA,Bの一方に保持し、さらに出力セレクタ35の入力元を切り替えず、画像メモリA,Bの一方から停止期間の開始付近の映像データを継続して出力させる。
 差分器33は、「現在の映像データ」と「出力セレクタ35から出力される過去の映像データ」との差分をとって差分画像を生成する。
(実施例2の動作)
 続いて、画像抽出部30Aの具体的動作について説明する。
 図8は、車両1が前進と停止を繰り返すまたは微速で前進している場合の画像抽出部30Aの動作を示す説明図である。
 図8[1]では、フレーム(1)が入力セレクタ34の出力先である画像メモリAに保持される。出力セレクタ35の入力元である画像メモリBに保持された過去のフレーム(0)は差分器33に入力される。差分器33は、現時点のフレーム(1)と過去のフレーム(0)との差分画像を生成する。動き判定部36は、この差分画像と運行情報に基づいて、停止期間を判定する。図8[1]では、差分画像に含まれる差分領域(画素差が有意なレベルの画素の集合)の画素数が所定比率P1以上であるなどの理由により、停止期間ではないと判定される。
 図8[2]では、直前に停止期間でないと判定されたことにより、切替部37は入力セレクタ34の出力先を画像メモリB側に切り替えることにより、現時点のフレーム(2)を画像メモリBに保持する。さらに、切替部37は出力セレクタ35の入力元を画像メモリAに切り替えることにより、過去のフレーム(1)を差分器33に出力する。差分器33は、現時点のフレーム(2)と過去のフレーム(1)との差分画像を生成する。動き判定部36は、この差分画像と運行情報に基づいて、停止期間の判定を行う。図8[2]では、差分画像に含まれる差分領域の画素数が所定比率P2未満であるなどの理由により、停止期間と判定される。
 図8[3]では、直前に停止期間と判定されたことにより、切替部37は入力セレクタ34の出力先を画像メモリB側に維持することにより、停止期間の開始付近のフレーム(1)を画像メモリAに保持する。さらに、切替部37は出力セレクタ35の入力元を画像メモリA側に維持することにより、停止期間の開始付近のフレーム(1)を継続して差分器33に出力する。差分器33は、現時点のフレーム(3)と過去のフレーム(1)との差分画像を生成する。この差分画像には2フレーム期間の動き情報が含まれる。動き判定部36は、この差分画像と運行情報に基づいて、停止期間の判定を行う。図8[3]では、差分画像に含まれる差分領域の画素数が所定比率P2未満であるなどの理由により、停止期間と判定される。
 図8[4]では、継続して停止期間と判定されたことにより、切替部37は入力セレクタ34の出力先を画像メモリB側に維持することにより、停止期間の開始付近のフレーム(1)を画像メモリAに保持する。さらに、切替部37は出力セレクタ35の入力元を画像メモリA側に維持することにより、停止期間の開始付近のフレーム(1)を継続して差分器33に出力する。差分器33は、現時点のフレーム(4)と過去のフレーム(1)との差分画像を生成する。この差分画像には3フレーム期間の動き情報が含まれる。動き判定部36は、この差分画像と運行情報に基づいて、停止期間の判定を行う。図8[4]では、差分画像に含まれる差分領域の画素数が所定比率P1以上であるなどの理由により、停止期間ではないと判定される。(なお、停止期間の判定が不安定または高頻度に変動しないように、所定比率についてはP1>P2としてヒステリシスを設けてもよい)
 図8[5]では、直前に停止期間でないと判定されたことにより、切替部37は入力セレクタ34の出力先を画像メモリA側に切り替えることにより、現時点のフレーム(5)を画像メモリAに保持する。さらに、切替部37は出力セレクタ35の入力元を画像メモリB側に切り替えることにより、過去のフレーム(4)を差分器33に出力する。差分器33は、現時点のフレーム(5)と過去のフレーム(4)との差分画像を生成する。動き判定部36は、この差分画像と運行情報に基づいて、停止期間の判定を行う。図8[5]では、差分画像に含まれる差分領域の画素数が所定比率P1以上であるなどの理由により、停止期間ではないと判定される。
 図8[6]では、直前に停止期間でないと判定されたことにより、切替部37は入力セレクタ34の出力先を画像メモリB側に切り替えることにより、現時点のフレーム(6)を画像メモリBに保持する。さらに、切替部37は出力セレクタ35の入力元を画像メモリA側に切り替えることにより、過去のフレーム(5)を差分器33に出力する。差分器33は、現時点のフレーム(6)と過去のフレーム(5)との差分画像を生成する。動き判定部36は、この差分画像と運行情報に基づいて、停止期間の判定を行う。図8[6]では、差分画像に含まれる差分領域の画素数が所定比率P1以上であるなどの理由により、停止期間ではないと判定される。
 図9は、停止期間の差分画像と前進期間の差分画像を示す図である。
 同図において、フレーム(A)~(B)は車両停止中の映像データに相当する。フレーム(C)は、車両前進中の映像データに相当する。
 これらのフレーム(A)~(C)は、グレースケール変換部31によって輝度成分からなるフレーム(D)~(F)に変換される。
 フレーム(D)とフレーム(E)との差分画像(G)は、有意な差分領域は僅かであるため、動き判定部36は停止期間と判定する。
 一方、フレーム(D)とフレーム(F)との差分画像(H)は、有意な差分領域が一定程度生じるため、動き判定部36は停止期間ではないと判定する。
(実施例2の効果)
 実施例2は、実施例1の効果に加えて、次の効果も奏する。
 実施例2では、停止期間中は、入力セレクタ34と出力セレクタ35の切替状態を変更しない。そのため、停止期間中は、入力された最新の映像フレームと、停止期間の開始付近の古い映像フレームとの差分比較が実現できる。したがって、エッジが明瞭な差分領域を抽出することが可能になり、車両1や別車両2が前進(または後退)と停車を繰り返しても、距離測定が可能になる。
 さらに、実施例2では、車両1や別車両2が微動している状態においても停止期間と判定することにより、最新の映像フレームと、停止期間の開始付近の古い映像フレーム(好ましくは停止期間の開始付近の最古の映像フレーム)との差分比較が実現する。その結果、微動状態がある程度継続することにより、エッジが明瞭な差分領域を抽出することが可能になり、距離測定が可能になる。
(実施形態の補足事項)
 なお、本発明は上記した個々の実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
 また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。
 さらに、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 また、実施形態では、鉄道監視システムの前方監視カメラを、撮像部として使用する。しかしながら、本発明はこれに限定されない。例えば、自動車やドローン等の移動体に設置されたカメラを使用してもよい。
 また、移動体に設置されたカメラの被写体は、列車でなくてもよい。例えば、標識や建設物等の静止物を被写体としてもよい。
 さらに、移動体の前進方向または後退方向は、移動体が方向転換して移動可能な方向であってもよく、直線状の前後二方向に限定されない。また、移動体の『移動』とは被写体との相対距離が変化し得るという意味であるため、動く被写体に座標軸を設定した場合には、カメラを搭載した静止体も相対的に移動体になり得る。
 さらに、実施形態では、1フレーム期間の最短間隔でフレーム差分をとって差分画像を生成する。しかしながら、本発明はこれに限定されない。例えば、フレームレートを可変したり、フレーム差分をとる最短の時間間隔を複数フレーム分に調整したりすることにより、画像長さの解析に適した差分画像を生成してもよい。
A…画像メモリ、B…画像メモリ、10…鉄道監視システム、10A…鉄道監視システム、20…前方監視カメラ、21…撮像素子、22…カメラ映像処理部、23…カメラ後処理部、30…画像抽出部、30A…画像抽出部、31…グレースケール変換部、32…画像メモリ、33…差分器、34…入力セレクタ、35…出力セレクタ、36…判定部、37…切替部、40…画像解析部、41…外形抽出部、42…窓枠抽出部、43…車体幅算出部、50…距離解析部、51…対向距離算出部、52…カメラパラメータ取得部、60…制御部

Claims (10)

  1.  移動体に設置され、前記移動体の前進方向または後退方向を撮影して映像データを出力する撮像部と、
     前記映像データに写る被写体の外観画像を抽出する画像抽出部と、
     前記外観画像における前記被写体のサイズを解析する画像解析部と、
     前記被写体のサイズに基づいて前記被写体までの距離情報を求める距離解析部と、
     前記距離情報を出力する制御部と
     を備えたことを特徴とする監視システム。
  2.  請求項1に記載の監視システムにおいて、
     前記画像解析部は、
      前記外観画像における前記被写体の窓枠または外形の画像長さを解析し、
     前記距離解析部は、
      前記画像長さに基づいて前記被写体までの前記距離情報を求める
     ことを特徴とする監視システム。
  3.  請求項1~2のいずれか一項に記載の監視システムにおいて、
     前記画像抽出部は、
      前記映像データの時間軸方向について差分画像を生成して背景領域を除去し、前記差分画像に残存する前記被写体の前記外観画像を抽出する
     ことを特徴とする監視システム。
  4.  請求項1~3のいずれか一項に記載の監視システムにおいて、
     前記移動体は、車両であり、
     前記制御部は、
      前記車両の運行情報を取得し、前記運行情報が所定の低速度運行の条件を満足したことを契機に、前記被写体までの前記距離情報の検出または出力を開始する
     ことを特徴とする監視システム。
  5.  請求項3に記載の監視システムにおいて
     前記画像抽出部は、
      前記映像データを一時記憶するための画像メモリA,Bと、
      前記映像データを前記画像メモリAまたはBに入力する入力セレクタと、
      前記画像メモリAまたはBから過去の前記映像データを出力する出力セレクタと、
      前記入力セレクタの出力先および前記出力セレクタの入力元を切り替える切替部と、
      「前記映像データ」と「前記出力セレクタから出力される過去の前記映像データ」との差分をとって前記差分画像を生成する差分器とを備える
     ことを特徴とする監視システム。
  6.  請求項5に記載の監視システムにおいて、
     前記移動体は、車両であり、
     前記画像抽出部は、
      「前記差分画像による動き検出」または「前記車両の運行情報」の動き情報に基づいて、前記外観画像の差分抽出に適さない車両停止または微動の期間(以下「停止期間」という)を判定する動き判定部を備え
     前記切替部は、
      前記停止期間は、前記入力セレクタの出力先を切り替えず、前記停止期間の開始付近の前記映像データを前記画像メモリA,Bの一方に保持し、前記出力セレクタの入力元を切り替えず、前記画像メモリA,Bの一方から前記停止期間の開始付近の前記映像データを継続して出力する
     ことを特徴とする監視システム。
  7.  移動体に設置された撮像部により、前記移動体の前進方向または後退方向を撮影して映像データを生成する撮像ステップと、
     前記映像データに写る被写体の外観画像を抽出する画像抽出ステップと、
     前記外観画像における前記被写体のサイズを解析する画像解析ステップと、
     前記被写体のサイズに基づいて前記被写体までの距離情報を求める距離解析ステップと、
     前記距離情報を出力する制御ステップと
     を備えたことを特徴とする監視方法。
  8.  請求項7に記載の監視方法において、
     前記画像解析ステップは、
      前記外観画像における前記被写体の窓枠または外形の画像長さを解析し、
     前記距離解析ステップは、
      前記画像長さに基づいて前記被写体までの前記距離情報を求める
     ことを特徴とする監視方法。
  9.  請求項7~8のいずれか一項に記載の監視方法において
     前記画像抽出ステップは、
      前記映像データを一時記憶するための画像メモリAまたはBに対して前記映像データを入力する入力ステップと、
      前記画像メモリAまたはBから過去の前記映像データを出力する出力ステップと、
      前記入力ステップにおける前記映像データを入力する前記画像メモリおよび前記出力ステップにおける過去の前記映像データを出力する前記画像メモリを切り替える切替制御ステップと、
      「前記映像データ」と「前記出力ステップにより出力される過去の前記映像データ」との差分をとって差分画像を生成する差分ステップとを備える
     ことを特徴とする監視方法。
  10.  請求項9に記載の監視方法において、
     前記移動体は、車両であり、
     前記画像抽出ステップは、
      「前記差分画像による動き検出」または「前記車両の運行情報」の動き情報に基づいて、前記外観画像の差分抽出に適さない車両停止または微動の期間(以下「停止期間」という)を判定する動き判定ステップを備え
     前記切替制御ステップは、
      前記停止期間は、前記入力ステップにおける前記映像データを入力する前記画像メモリを切り替えず、前記停止期間の開始付近の前記映像データを前記画像メモリAまたはBの一方に保持し、
      前記出力ステップにおける過去の前記映像データを出力する前記画像メモリを切り替えず、前記画像メモリAまたはBの一方から前記停止期間の開始付近の前記映像データを継続して出力する
     ことを特徴とする監視方法。
PCT/JP2019/012345 2019-03-25 2019-03-25 監視システムおよび監視方法 WO2020194422A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021508401A JP7305750B2 (ja) 2019-03-25 2019-03-25 監視システムおよび監視方法
PCT/JP2019/012345 WO2020194422A1 (ja) 2019-03-25 2019-03-25 監視システムおよび監視方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/012345 WO2020194422A1 (ja) 2019-03-25 2019-03-25 監視システムおよび監視方法

Publications (1)

Publication Number Publication Date
WO2020194422A1 true WO2020194422A1 (ja) 2020-10-01

Family

ID=72610453

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/012345 WO2020194422A1 (ja) 2019-03-25 2019-03-25 監視システムおよび監視方法

Country Status (2)

Country Link
JP (1) JP7305750B2 (ja)
WO (1) WO2020194422A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003247824A (ja) * 2002-02-22 2003-09-05 Nissan Motor Co Ltd 車載用測距装置
JP2010184527A (ja) * 2009-02-10 2010-08-26 Hitachi Ltd 列車の停止検知システム並びに列車の移動速度及び位置検出システム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3690260B2 (ja) 2000-10-18 2005-08-31 日産自動車株式会社 車間距離計測方法
EP2537731B1 (en) 2011-06-23 2014-10-15 Siemens S.A.S. Apparatus for measuring a distance between two public transport vehicles

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003247824A (ja) * 2002-02-22 2003-09-05 Nissan Motor Co Ltd 車載用測距装置
JP2010184527A (ja) * 2009-02-10 2010-08-26 Hitachi Ltd 列車の停止検知システム並びに列車の移動速度及び位置検出システム

Also Published As

Publication number Publication date
JPWO2020194422A1 (ja) 2020-10-01
JP7305750B2 (ja) 2023-07-10

Similar Documents

Publication Publication Date Title
DK2757346T3 (en) PROCEDURE FOR MEASURING A HEIGHT PROFILE OF A VEHICLE PASSING
JP5421072B2 (ja) 接近物体検知システム
US20180308282A1 (en) Shape measuring apparatus and method
JP4914233B2 (ja) 車外監視装置
JP4899424B2 (ja) 物体検出装置
KR101243108B1 (ko) 차량의 후방 영상 표시 장치 및 방법
EP3432291A1 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method, and program
US9846031B2 (en) Method and system for testing a vehicle underbody of a motor vehicle
CN108496056B (zh) 摄像装置
JP2017226270A (ja) 車両制御装置
CN104081443A (zh) 用于操作机动车辆的驾驶员辅助装置的方法、驾驶员辅助装置和机动车辆
CN112866673B (zh) 图像采集设备、相机控制方法、装置和列车图像采集系统
JP2007078358A (ja) 移動体計測装置、信号制御システム、移動体計測方法及びコンピュータプログラム
JP5027710B2 (ja) 車両用環境認識装置および先行車追従制御システム
JP2006318059A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
WO2020194422A1 (ja) 監視システムおよび監視方法
JP2006318061A (ja) 画像処理装置、画像処理方法、および画像処理用プログラム
CN112470456B (zh) 铁路车辆用摄像系统
JP2009278428A (ja) 車両周辺監視装置
JP2018092603A (ja) 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法、及び、情報処理プログラム
US20230328195A1 (en) Image processing device that can measure distance to object, movable apparatus, image processing method, and storage medium
US20230308598A1 (en) Image processing device, image processing method, and storage medium
JP6643517B2 (ja) 撮像装置
US20230394847A1 (en) Image processing system, image processing method, and storage medium
WO2013035320A1 (ja) 観察装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19920922

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021508401

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19920922

Country of ref document: EP

Kind code of ref document: A1