JP6307037B2 - Obstacle detection method and apparatus - Google Patents

Obstacle detection method and apparatus Download PDF

Info

Publication number
JP6307037B2
JP6307037B2 JP2015072211A JP2015072211A JP6307037B2 JP 6307037 B2 JP6307037 B2 JP 6307037B2 JP 2015072211 A JP2015072211 A JP 2015072211A JP 2015072211 A JP2015072211 A JP 2015072211A JP 6307037 B2 JP6307037 B2 JP 6307037B2
Authority
JP
Japan
Prior art keywords
parallax
image
rail
unit
obstacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015072211A
Other languages
Japanese (ja)
Other versions
JP2016192109A (en
Inventor
望 長峯
望 長峯
正人 鵜飼
正人 鵜飼
順一 丹羽
順一 丹羽
庸平 比澤
庸平 比澤
豪氏 紫尾
豪氏 紫尾
隆太 中曽根
隆太 中曽根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Railway Technical Research Institute
Original Assignee
Railway Technical Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Railway Technical Research Institute filed Critical Railway Technical Research Institute
Priority to JP2015072211A priority Critical patent/JP6307037B2/en
Publication of JP2016192109A publication Critical patent/JP2016192109A/en
Application granted granted Critical
Publication of JP6307037B2 publication Critical patent/JP6307037B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Image Processing (AREA)
  • Electric Propulsion And Braking For Vehicles (AREA)
  • Train Traffic Observation, Control, And Security (AREA)
  • Image Analysis (AREA)

Description

本発明は、障害物検知方法およびその装置、さらに詳しくは、ステレオ画像処理により線路上に存在する障害物を検知する方法およびその装置に関する。   The present invention relates to an obstacle detection method and apparatus, and more particularly to a method and apparatus for detecting an obstacle present on a track by stereo image processing.

画像処理による障害物検知方法の従来技術としては、HOG(Histogram of Oriented Gradients)特徴量やエッジを検出する方法がある。また、ステレオ画像処理により視差のある画像から障害物までの距離を算出する方法が知られている。   As a conventional technique of an obstacle detection method based on image processing, there is a method of detecting HOG (Histogram of Oriented Gradients) features and edges. A method for calculating the distance from an image with parallax to an obstacle by stereo image processing is also known.

ステレオ画像処理は、前方に存在する物体の位置を三次元的に検出し、その物体までの距離を計測する方法である。間隔を開けて水平等位に設置した左右のカメラで取得した対象物の画像(ステレオ画像)をコンピュータでマッチング処理を行うことにより視差を算出し、その視差を用いて三角測量の原理から対象物までの距離を算出する(たとえば、特許文献1,2参照)。   Stereo image processing is a method of three-dimensionally detecting the position of an object existing ahead and measuring the distance to the object. The parallax is calculated by performing a matching process on the images (stereo images) of the target object obtained by the left and right cameras placed at horizontal intervals with an interval between them, and the target object is obtained from the principle of triangulation using the parallax. Is calculated (for example, refer to Patent Documents 1 and 2).

図16に、ステレオ画像処理技術による距離計測の原理を示す。図16は、平行化により画像におけるy軸(v軸)が揃えられた左右2台のカメラで対象物mを撮像したときの画像I,Jを示す。u軸とu’軸は画像I,Jの横方向の位置、v軸は画像の縦方向の位置を示す。各カメラの画像上には当該カメラの視点と対象物mを結ぶ直線lとrと画面との交点p 、qに対象物mが写されるため、対象物mの3次元座標(X,Y,Z)は、pとqの座標(us1,v)、(us2,v)から求まる。そして、点p,qの座標位置の差d、つまり画素数が視差であり、次の式1から視差dを求めることができる。
d=us1−us2 ・・・・・・(式1)
FIG. 16 shows the principle of distance measurement by the stereo image processing technique. FIG. 16 shows images I and J when the object m is imaged by two left and right cameras whose y-axis (v-axis) in the image is aligned by parallelization. The u axis and u ′ axis indicate the horizontal positions of the images I and J, and the v axis indicates the vertical position of the images. On the image of each camera, the object m is shown at the intersections p 1 and q between the lines l and r connecting the camera viewpoint and the object m and the screen, so that the three-dimensional coordinates (X, Y) of the object m are displayed. , Z) is obtained from the coordinates (u s1 , v 1 ) and (u s2 , v 2 ) of p and q. The difference d between the coordinate positions of the points p and q, that is, the number of pixels is parallax, and the parallax d can be obtained from the following equation 1.
d = u s1 −u s2 (Formula 1)

また、カメラの焦点距離をf、二つの画像I,Jの中心位置間距離、すなわち、基線長をBとすると、mの世界座標と画像上の位置の関係は、次のとおりである。
X=Bus1/d, Y=Bv/d, Z=Bf/d
Zは、カメラ設置位置から対象物mまでの距離である。
When the focal length of the camera is f and the distance between the center positions of the two images I and J, that is, the base line length is B, the relationship between the world coordinates of m and the position on the image is as follows.
X = Bu s1 / d, Y = Bv 1 / d, Z = Bf / d
Z is the distance from the camera installation position to the object m.

したがって、ステレオ画像処理において対象物mまでの距離Zを計測するには、視差dを算出する必要がある。そのためには、左カメラの画像I(以下、基準画像という。)上の基準点pと相関を有する点、すなわち対応点qが右カメラの画像J(以下、対応画像という。)上のどこに存在するかを探索する画像マッチング(対応付け)が必要である。基準点とは基準画像における所定の点であり、対応点とは基準点と相関を求める対応画像上の点である。   Therefore, in order to measure the distance Z to the object m in the stereo image processing, it is necessary to calculate the parallax d. For this purpose, a point having a correlation with a reference point p on the left camera image I (hereinafter referred to as a reference image), that is, a corresponding point q is present on the right camera image J (hereinafter referred to as a corresponding image). Image matching (association) for searching whether to do is necessary. The reference point is a predetermined point in the reference image, and the corresponding point is a point on the corresponding image whose correlation is obtained with the reference point.

画像マッチングには、従来、ブロックマッチング法と位相限定相関法とが用いられている。   Conventionally, a block matching method and a phase only correlation method are used for image matching.

ブロックマッチング法における従来の画像マッチング(画像探索)の方法を、図17に基づいて説明する。基準画像Iと対応画像Jをそれぞれ同数の小面積の領域(以下、ブロックという。)に分割する。図17の(a)(b)は、基準画像IがブロックI11〜I16,I21〜I26,・・・I41〜I46に、対応画像JがブロックJ11〜J16,J21〜J26,・・・J41〜J46に分割された、簡略化した例を示している。 A conventional image matching (image search) method in the block matching method will be described with reference to FIG. The reference image I and the corresponding image J are each divided into the same number of small area regions (hereinafter referred to as blocks). 17A and 17B, the reference image I is blocks I 11 to I 16 , I 21 to I 26 ,... I 41 to I 46 , and the corresponding image J is blocks J 11 to J 16 , J 21 to J 26 ,... J 41 to J 46 are shown in a simplified example.

各ブロックには、図17の(c)(d)に、基準画像Iと対応画像JのブロックI11、J11について例示するように、横方向n個、縦方向m個の画素が含まれ、各画素は画素値(ピクセルデータ)を有する。そして、ブロックマッチングにおいては、基本画像Iの各ブロックの画素値の配列と同じ画素値の配列を有するブロックを対応画像Jの中から探索する。 Each block includes n pixels in the horizontal direction and m pixels in the vertical direction as illustrated in FIGS. 17C and 17D for the blocks I 11 and J 11 of the reference image I and the corresponding image J. Each pixel has a pixel value (pixel data). In block matching, the corresponding image J is searched for a block having the same pixel value array as the pixel value array of each block of the basic image I.

その探索を行うため、基準画像Iの第1行1列目のブロックI11の最初の画素IP11の画素値と対応画像Jの第1行1列目のブロックJ11の最初の画素JP11の画素値とを比較(減算)し、その差を図17の(e)に示すように、画素値差マトリックスDTの最初のエリアDP11に記録する。 To perform the search, the first pixel JP 11 in the first row and first column of the block J 11 pixel values of the first pixel IP 11 of the first row and first column of the block I 11 of the reference image I and the corresponding image J of comparing the pixel value (subtraction), the difference as shown in (e) of FIG. 17, recorded in the first area DP 11 of pixel value difference matrix DT.

そして、このような画素値の比較をブロックI11とブロックJ11内の全画素について行う。つまり、基準画像IのブロックI11の同行の他の画素IP12〜IP1n、他の行の画素IP21〜IP2n、・・・IPm1〜IPmnについても同様にそれぞれ画素値の差を取り、その差を画素値差マトリックスDTの他のエリアDP12〜DPmnに記録する。そして、全画素の画素値の差を合計し、その合計値t11を図17の(f)に示すように、画素値差合計マトリックスTTに記録する。 Then, such pixel value comparison is performed for all the pixels in the block I 11 and the block J 11 . That is, other pixels IP 12 ~IP 1n the bank of the block I 11 of the reference image I, pixel IP 21 ~IP 2n of the other rows, the difference in the respective similarly pixel values of ··· IP m1 ~IP mn The difference is recorded in other areas DP 12 to DP mn of the pixel value difference matrix DT. Then, the sum of the difference between the pixel values of all the pixels, the total value t 11 as shown in (f) of FIG. 17, and records the pixel value difference sum matrix TT.

次に、対応画像Jの第1行2列目のブロックJ12についても同様に、基準画像Iの第1行1列目のブロックI11の全画素の画素値との差を取り、その差を画素値差マトリックスDTに記録し、その差を合計して、その合計値t12を画素値差合計マトリックスTTに記録する。 Then, also for the first row and second column of the block J 12 of the corresponding image J, taking the difference between the pixel values of all pixels in the first row and first column of the block I 11 of the reference image I, the difference was recorded in the pixel value difference matrix DT, sums the difference, and records the total value t 12 to the pixel value difference sum matrix TT.

同様の処理を対応画像Jの第1行の最後のブロックJ16まで行う。そして、画素値差合計マトリックスTTの対応画像Jの第1行の全ブロックI11〜I16に対応する画素値差の合計値t11〜t16の中で、合計値が最小のブロックを基準画像Iの第1行1列目のブロックI11と対応する、すなわち、マッチングが取れたと判断する。 It performs the same process until the last block J 16 of the first row of the corresponding image J. Then, in the total value t 11 ~t 16 pixel value difference corresponding to all the block I 11 ~I 16 of the first row of the corresponding image J of the pixel value difference sum matrix TT, the total value is based on the smallest block It is determined that it corresponds to the block I 11 in the first row and first column of the image I, that is, matching has been achieved.

続いて、基準画像Iの第1行2列目のブロックI12について、対応画像Jの第1行の全ブロックをスキャンして前述と同様のマッチング処理を行う。さらに、基準画像Iの最後の行の全ブロックについてスキャンして前述と同様にマッチング処理を行う。 Subsequently, the first row and second column of the block I 12 of the reference image I, by scanning all blocks of the first row of the corresponding image J performs the same matching processing as described above. Further, all blocks in the last row of the reference image I are scanned and matching processing is performed in the same manner as described above.

上記ブロックマッチング法においては、画素値差合計マトリックスTTの画素値の差の合計値が最小の対応画像J上のブロックが基準画像Iのブロックと対応するので、その時の基準画像Iのブロックから対応画像Jのブロックまで画素数は、視差を表す。   In the block matching method, since the block on the corresponding image J having the smallest sum of the pixel value differences of the pixel value difference sum matrix TT corresponds to the block of the reference image I, it corresponds from the block of the reference image I at that time. The number of pixels up to the block of image J represents parallax.

上述のように、従来の探索方法では、基準画像Iの基準点pに対応する対応画像J上の対応点qを探索するには、対応画像Jの基準点pと同じ走査線(ライン)上の全長を探索範囲としていた(たとえば、特許文献3参照)。   As described above, in the conventional search method, in order to search for the corresponding point q on the corresponding image J corresponding to the reference point p of the reference image I, on the same scanning line (line) as the reference point p of the corresponding image J. Was the search range (see, for example, Patent Document 3).

特開2002−250605号公報JP 2002-250605 A 特開2008−039491号公報JP 2008-039491 A 特開2014−235615号公報JP 2014-235615 A

IEEJ Transactions on Industry Applications Vol.134 No.10 pp921−929,2014IEEE Transactions on Industry Applications Vol.134 No.10 pp921-929,2014

したがって、従来のステレオ画像処理方法においては、対応画像の走査線上の全長を探索範囲としていたので、マッチング処理に非常に多くの時間がかかる。したがって、従来のステレオ画像処理方法を、たとえば、軌道を走行中の車上から線路上の障害物を検知することに適用する場合には、リアルタイムな障害物検知ができないという問題がある。   Therefore, in the conventional stereo image processing method, since the entire length of the corresponding image on the scanning line is set as the search range, the matching process takes a very long time. Therefore, when the conventional stereo image processing method is applied to, for example, detecting an obstacle on a track from a vehicle traveling on a track, there is a problem that an obstacle cannot be detected in real time.

また、位相限定相関法は、高精度なマッチングが可能であるという利点を有するが、基準画像と対応画像の各ラインの各ブロックに対して複雑なフーリエ変換を行うため、計算量が膨大になり、コンピュータの演算負荷が大きいとともに、計算コストが高く、従来の他のステレオ画像処理方法と同様に、障害物検知速度に問題がある。   In addition, the phase-only correlation method has an advantage that high-precision matching is possible. However, since the complex Fourier transform is performed on each block of each line of the reference image and the corresponding image, the calculation amount becomes enormous. In addition to the large computational load of the computer, the calculation cost is high, and there is a problem in the obstacle detection speed as in other conventional stereo image processing methods.

そこで、本発明は、ステレオ画像処理により線路上に存在する障害物を検知する場合に、障害物検知速度の向上が可能な障害物検知方法およびその装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an obstacle detection method and apparatus capable of improving the obstacle detection speed when an obstacle present on a track is detected by stereo image processing.

本発明の一側面は、障害物検知方法であって、左右のカメラで列車進行方向前方を撮像する工程、取得された画像からレールを抽出する工程、左右の画像の抽出されたレールに対して「レール抽出による視差」を用いてマッチング処理をして左右のレールの視差を算出する工程、算出された視差を障害物が存在しないときの所定の視差モデルと比較する工程、比較の結果、一致する場合は線路上に障害物が存在しないと判定し、一致しない場合は線路上に障害物が存在すると判定する工程を含むことを特徴とする。   One aspect of the present invention is an obstacle detection method, the step of imaging the front of the train traveling direction with the left and right cameras, the step of extracting the rail from the acquired image, and the rail from which the left and right images are extracted The step of calculating the parallax of the left and right rails by performing a matching process using “parallax by rail extraction”, the step of comparing the calculated parallax with a predetermined parallax model when there is no obstacle, and the result of the comparison When it does, it determines with the obstruction not existing on a track | line, When it does not correspond, the process of determining with an obstruction existing on a track | line is included.

本発明の他の側面は、上記障害物検知方法を使用するための障害物検知装置であって、ステレオ画像処理部と、障害物存否判定部と、障害物検知信号出力部とを有する。障害物検知装置には、距離計測部が付加される場合が多い。
ステレオ画像処理部は、間隔を開けて水平等位に設置した左右のカメラ装置と、各カメラ装置で取得される画像信号からそれぞれレールの映像を抽出するレール抽出部と、抽出されたレールの映像を有するステレオ画像を「レール抽出による視差」を用いてマッチング処理して視差を算出する視差算出部とを有する。
Another aspect of the present invention is an obstacle detection device for using the above-described obstacle detection method, and includes a stereo image processing unit, an obstacle presence / absence determination unit, and an obstacle detection signal output unit. A distance measuring unit is often added to the obstacle detection device.
The stereo image processing unit includes left and right camera devices installed at horizontal equidistant positions, a rail extraction unit that extracts a rail image from an image signal acquired by each camera device, and an extracted rail image. A parallax calculation unit that calculates a parallax by performing a matching process on a stereo image having a parallax using “rail extraction parallax”.

視差算出部は、基準画像のレール映像の基準点と同じ座標となる対応画像上の一次対応点を検出して、その座標を出力する一次対応点検出手段と、一次対応点から同じ走査線上を「レール抽出による視差」と等しい距離だけ左又は右方向にずらした点を二次対応点とする二次対応点生成手段と、二次対応点から対応画像の左端または右端までマッチング処理を行って相関値を求めるマッチング処理手段と、マッチング処理手段により算出された相関値を所定の閾値と比較し、相関値が所定の閾値に対して所定の条件を満たさないときは第1判定信号を出力し、相関値が所定の閾値に対して所定の条件を満たすときは第2判定信号を出力する相関値比較手段と、相関値比較手段が第1判定信号を出力したときは、周知のマッチング法、たとえば粗密探索法によるマッチング処理を実行して視差を算出する視差算出手段と、相関値比較手段が第2判定信号を出力したときは、メモリ部に記憶されている「レール抽出による視差」を読み出し、その「レール抽出による視差」を基準点の視差と確定する視差読出手段とを有する。
相関値比較手段が出力する第1判定信号および第2判定信号は障害物存否判定部にも与えられる。障害物存否判定部は、第1判定信号を与えられた時は障害物が存在すると判定し、第2判定信号を与えられた時は障害物は存在しないと判定する。
距離計測部が付加された場合は、視差算出手段が算出した視差および視差読出手段が読み出した視差は、距離計測部に与えられ、三角測量法に基づき障害物までの距離が計測される。
The parallax calculation unit detects a primary corresponding point on the corresponding image having the same coordinates as the reference point of the rail image of the reference image, and outputs a corresponding point on the same scanning line from the primary corresponding point. A second corresponding point generating unit having a point shifted left or right by a distance equal to “parallax by rail extraction” as a second corresponding point, and a matching process from the second corresponding point to the left end or right end of the corresponding image The matching processing means for obtaining the correlation value and the correlation value calculated by the matching processing means are compared with a predetermined threshold value. When the correlation value does not satisfy the predetermined condition with respect to the predetermined threshold value, a first determination signal is output. A correlation value comparison unit that outputs a second determination signal when the correlation value satisfies a predetermined condition with respect to a predetermined threshold, and a well-known matching method when the correlation value comparison unit outputs a first determination signal, For example When the parallax calculation means that executes the matching process by the dense search method and the correlation value comparison means outputs the second determination signal, the “parallax by rail extraction” stored in the memory unit is read, Disparity reading means for determining the “parallax by rail extraction” as the reference point disparity.
The first determination signal and the second determination signal output from the correlation value comparison unit are also provided to the obstacle existence determination unit. The obstacle presence / absence determination unit determines that there is an obstacle when the first determination signal is given, and determines that there is no obstacle when the second determination signal is given.
When the distance measuring unit is added, the parallax calculated by the parallax calculating unit and the parallax read by the parallax reading unit are given to the distance measuring unit, and the distance to the obstacle is measured based on the triangulation method.

「レール抽出による視差」は、予め周知のマッチング技法を用いて探索された座標を用いて、次のいずれかの式により演算されたものである。
=L(I)−L(J)
=R(I)−R(J)
={(L(I)―L(J))+(R(I)―R(J))}/2
ここで、dは画像中の高さhでのレールの視差、
(I)は左画像中の高さhにおける左レールのu座標を表す関数、
(J)は右画像中の高さhにおける左レールのu’座標を表す関数、
(I)は左画像中の高さhにおける右レールのu座標を表す関数、
(J)は右画像中の高さhにおける右レールのu’座標を表す関数である。
“Parallax by rail extraction” is calculated by one of the following formulas using coordinates previously searched using a well-known matching technique.
d h = L h (I) −L h (J)
d h = R h (I) −R h (J)
d h = {(L h (I) −L h (J)) + (R h (I) −R h (J))} / 2
Where d h is the rail parallax at height h in the image,
L h (I) is a function representing the u coordinate of the left rail at the height h in the left image,
L h (J) is a function representing the u ′ coordinate of the left rail at the height h in the right image,
R h (I) is a function representing the u coordinate of the right rail at the height h in the left image,
R h (J) is a function representing the u ′ coordinate of the right rail at the height h in the right image.

本発明によれば、障害物の存在の検知を高速化することができる。   According to the present invention, it is possible to speed up the detection of the presence of an obstacle.

本発明の実施の形態に係る障害物検知方法を実施する障害物検知装置の構成を示すブロック図である。It is a block diagram which shows the structure of the obstruction detection apparatus which enforces the obstruction detection method which concerns on embodiment of this invention. 図1のカメラ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the camera apparatus of FIG. 図1のレール抽出部の構成を示すブロック図である。It is a block diagram which shows the structure of the rail extraction part of FIG. 図3のレール映像推定部の作用を説明するフローチャートである。It is a flowchart explaining the effect | action of the rail image | video estimation part of FIG. 図3の記憶部に登録された典型的なレール形状パターンを示す図である。It is a figure which shows the typical rail shape pattern registered into the memory | storage part of FIG. 図3のレール映像比較部の作用を説明するフローチャートである。It is a flowchart explaining the effect | action of the rail image | video comparison part of FIG. 抽出されたレールを表示しているステレオ画像の一例を示す図である。It is a figure which shows an example of the stereo image which has displayed the extracted rail. 図1の視差算出部の機能を実現する手段を示す図である。It is a figure which shows the means to implement | achieve the function of the parallax calculation part of FIG. 「レール抽出による視差」を説明する図である。It is a figure explaining "parallax by rail extraction". 「レール抽出による視差」の求め方を説明する図である。It is a figure explaining how to obtain "parallax by rail extraction". マッチング処理の具体的な方法を説明する模式図である。It is a schematic diagram explaining the specific method of a matching process. 本発明のステレオ画像処理により線路上に存在する障害物を検知する方法の原理を説明する側面図である。It is a side view explaining the principle of the method of detecting the obstruction which exists on a track | line by the stereo image processing of this invention. 同じく平面図である。It is also a plan view. 図13における左右のカメラの画像を示す図である。It is a figure which shows the image of the camera on either side in FIG. 線路上に障害物が存在するときの左右のカメラの画像および視差の関係を示す図である。It is a figure which shows the relationship between the image of a camera on either side, and parallax when an obstruction exists on a track. ステレオ画像処理技術による距離計測の原理を説明する図である。It is a figure explaining the principle of the distance measurement by a stereo image processing technique. 従来のブロックマッチング法におけるデータ処理を説明する図である。It is a figure explaining the data processing in the conventional block matching method.

次に、本発明の実施の形態について、図面を参照しながら説明する。   Next, embodiments of the present invention will be described with reference to the drawings.

本発明の実施の形態に係るステレオ画像処理方法は、左右2台のカメラである撮像手段による撮像対象が鉄道線路である場合に適用される。列車運転台に設置された左右2台のカメラで列車前方を撮像した場合、左右各画像に写される映像のうち、線路または線路を含む近傍の映像が写される範囲は限定される。   The stereo image processing method according to the embodiment of the present invention is applied to a case where an object to be imaged by an imaging means that is two left and right cameras is a railroad track. When the front of the train is imaged by the left and right cameras installed on the train cab, the range in which the image of the vicinity of the image including the track or the track is captured is limited.

また、撮像対象が鉄道線路である場合は、列車前方画像からレール抽出アルゴリズムによりレールを抽出することができ、その抽出したレールの画像上の座標を検出することができる。レール抽出アルゴリズムには、レールのエッジと輝度勾配に着目した方法がある(非特許文献1参照)。この方法では、レールを列車運転台から2〜30m程度までの近傍領域のレールと、それ以上の距離の遠方領域のレールに分けて処理を行う。近傍領域は予め用意した代表的レールテンプレートとのマッチングにより、また、遠方領域は近傍領域で得られた情報を基にレール形状パターンを動的に生成して、短い直線と曲線セグメントを連結しながら、遠方までレールを追跡する。   Further, when the imaging target is a railroad track, a rail can be extracted from the train front image by a rail extraction algorithm, and coordinates on the extracted rail image can be detected. As the rail extraction algorithm, there is a method that focuses on the edge of the rail and the luminance gradient (see Non-Patent Document 1). In this method, the processing is performed by dividing the rail into a rail in the vicinity region from the train cab to about 2 to 30 m and a rail in the far region at a distance longer than that. The near area is matched with a representative rail template prepared in advance, and the far area is dynamically generated based on the information obtained in the near area while connecting short straight lines and curved segments. Track the rails far away.

レール抽出アルゴリズムは、上記の代表的レールテンプレートとのマッチングおよびレール形状パターンとのマッチングによる方法のほか、画像中の特徴量抽出による方法、色や強度による特徴に基づく方法、輝度勾配を用いる方法、その他がある。本発明では、これら既知のレール抽出アルゴリズムのいずれを用いてもよい。   The rail extraction algorithm is a method based on matching with the above-described representative rail template and matching with a rail shape pattern, a method based on feature amount extraction in an image, a method based on features based on color and intensity, a method using a luminance gradient, There are others. In the present invention, any of these known rail extraction algorithms may be used.

左右2台のカメラで列車前方を撮影したとき、レール抽出アルゴリズムにより左のカメラの画像(基準画像)と右のカメラの画像(対応画像)からレールを抽出すると、抽出したレールの画像上の座標が分かる。この基準画像と対応画像でレールの同じ地点を示す座標間の画素数が「レール抽出による視差」である。   When the front of the train is photographed with two cameras on the left and right, if the rail is extracted from the left camera image (reference image) and the right camera image (corresponding image) by the rail extraction algorithm, the coordinates on the extracted rail image I understand. The number of pixels between coordinates indicating the same point on the rail in the reference image and the corresponding image is “parallax by rail extraction”.

レールは2本が平行に敷かれているため、「レール抽出による視差」は、左右いずれか1本のレールの座標から算出することができる。また、左右のレールの座標の差(各レールのレール抽出による視差)の平均値を「レール抽出による視差」としてもよい。したがって、「レール抽出による視差」は、次のいずれかの式を演算することにより求めることができる。
=L(I)−L(J)
=R(I)−R(J)
={(L(I)―L(J))+(R(I)―R(J))}/2
ここで、dは画像中の高さhでのレールの視差、
(I)は左画像中の高さhにおける左レールのu座標を表す関数、
(J)は右画像中の高さhにおける左レールのu’座標を表す関数、
(I)は左画像中の高さhにおける右レールのu座標を表す関数、
(J)は右画像中の高さhにおける右レールのu’座標を表す関数である。
Since two rails are laid in parallel, the “parallax by rail extraction” can be calculated from the coordinates of one of the left and right rails. The average value of the difference between the left and right rail coordinates (parallax due to rail extraction of each rail) may be set as “parallax due to rail extraction”. Therefore, “parallax by rail extraction” can be obtained by calculating one of the following expressions.
d h = L h (I) −L h (J)
d h = R h (I) −R h (J)
d h = {(L h (I) −L h (J)) + (R h (I) −R h (J))} / 2
Where d h is the rail parallax at height h in the image,
L h (I) is a function representing the u coordinate of the left rail at the height h in the left image,
L h (J) is a function representing the u ′ coordinate of the left rail at the height h in the right image,
R h (I) is a function representing the u coordinate of the right rail at the height h in the left image,
R h (J) is a function representing the u ′ coordinate of the right rail at the height h in the right image.

本発明は、左右各画像に写される映像のうち、線路または線路を含む近傍の映像が写される範囲は限定される、レール抽出アルゴリズムにより抽出したレールの座標が分かる、レールの直線部と曲線部のいずれにおいても画面上の高さ位置に対応する「レール抽出による視差」の変化率はほぼ一定であるという事実を、ステレオ画像の視差算出の高速化に利用することを基本的な技術思想とする。   The present invention is limited to a range where a video of a neighborhood including a track or a track is limited among videos captured in the left and right images, a rail linear portion extracted by a rail extraction algorithm, The basic technology is to use the fact that the rate of change of “parallax due to rail extraction” corresponding to the height position on the screen is almost constant in any of the curved parts to speed up the parallax calculation of stereo images. It is thought.

「レール抽出による視差」が分かれば、対応画像の対応点が大体どのあたりに存在するかを推定することができる。つまり、基準点(座標)に対応する対応画像上の同一座標(一次対応点)から「レール抽出による視差」分だけ左または右にずらした点(二次対応点)の近傍に真の対応点が存在すると考えることができる。そこで、本発明では、その二次対応点からマッチングを開始し、同一画素値が見つかった点を真の対応点と決定し、基準点から真の対応点までの移動画素数を視差とするものである。左右の画像のうち、どちらを基本画像とし、どちらを対応画像とするかにより「レール抽出による視差」分だけずらす方向が異なる。左の画像を基本画像とする場合は左にずらし、右の画像を基本画像とする場合は右にずらすことになる。   If “parallax by rail extraction” is known, it is possible to estimate where the corresponding point of the corresponding image exists. In other words, a true corresponding point in the vicinity of a point (secondary corresponding point) shifted to the left or right by the amount of “parallax by rail extraction” from the same coordinate (primary corresponding point) on the corresponding image corresponding to the reference point (coordinate). Can be considered to exist. Therefore, in the present invention, matching is started from the secondary corresponding point, the point where the same pixel value is found is determined as the true corresponding point, and the number of moving pixels from the reference point to the true corresponding point is set as the parallax. It is. Of the left and right images, the direction of shifting differs by “parallax by rail extraction” depending on which is the basic image and which is the corresponding image. When the left image is used as a basic image, it is shifted to the left. When the right image is used as a basic image, it is shifted to the right.

[第1の実施の形態]
<概略的構成>
図1は、本発明の実施の形態に係る障害物検知装置の一例を示す。この障害物検知装置Aは、ステレオ画像処理部1と、障害物存否判定部2と、障害物検知信号出力部3と、距離計測部4とを有する。
[First embodiment]
<Schematic configuration>
FIG. 1 shows an example of an obstacle detection apparatus according to an embodiment of the present invention. The obstacle detection apparatus A includes a stereo image processing unit 1, an obstacle presence / absence determination unit 2, an obstacle detection signal output unit 3, and a distance measurement unit 4.

<ステレオ画像処理部>
ステレオ画像処理部1は、2台のカメラ装置10L,10Rと、各カメラ装置10L,10Rから映像信号を与えられるレール抽出部20L,20Rと、レール抽出部20L,20Rに接続された一つの視差算出部30とを有する。
<Stereo image processing unit>
The stereo image processing unit 1 includes two camera devices 10L and 10R, rail extraction units 20L and 20R to which video signals are given from the camera devices 10L and 10R, and one parallax connected to the rail extraction units 20L and 20R. And a calculation unit 30.

カメラ装置10L,10Rとレール抽出部20L,20Rには、特許文献3に開示されたものを用いることができる。以下に、特許文献3の記載を引用して説明する。   As the camera devices 10L and 10R and the rail extraction units 20L and 20R, those disclosed in Patent Document 3 can be used. Hereinafter, the description in Patent Document 3 will be described.

カメラ装置10L,10Rは、同一の構成を有する。カメラ装置10Lを例に説明すると、図2に例示するように、カメラ装置10Lは、光学レンズ11と、光学レンズ11から入射する被写体の光学映像を電気信号に変換する撮像素子12と、撮像素子12の出力に基づいて映像信号を生成する映像信号生成部13と、撮像制御部14とを有する。   The camera devices 10L and 10R have the same configuration. The camera device 10L will be described as an example. As illustrated in FIG. 2, the camera device 10L includes an optical lens 11, an image sensor 12 that converts an optical image of a subject incident from the optical lens 11 into an electrical signal, and an image sensor. 12 includes a video signal generation unit 13 that generates a video signal based on the 12 outputs, and an imaging control unit 14.

光学レンズ11は、被写体の映像を光学的に撮像素子12の上に結像させる。光学レンズ11は、レンズの焦点を調整するための焦点調整機構および撮像素子12への入射光量を調整するための絞り調整機構を有する。さらに、光学レンズ11は、焦点距離を変えるズーム機構を有してもよい。   The optical lens 11 optically forms an image of the subject on the image sensor 12. The optical lens 11 has a focus adjustment mechanism for adjusting the focus of the lens and an aperture adjustment mechanism for adjusting the amount of light incident on the image sensor 12. Furthermore, the optical lens 11 may have a zoom mechanism that changes the focal length.

撮像素子12には、たとえば数百万個程度のCCD(Charge Coupled Device)またはCMOS(相補性金属酸化膜半導体)などの電荷結合素子の集合体が用いられる。   For the imaging device 12, for example, an aggregate of about several million charge coupled devices such as CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) is used.

撮像制御部14は、光学レンズ11、撮像素子12および映像信号生成部13による被写体の撮像を制御する。つまり、撮像制御部14は光学レンズ11の焦点調整機構、絞り調整機構、またはズーム機構などを制御する。   The imaging control unit 14 controls imaging of a subject by the optical lens 11, the imaging element 12, and the video signal generation unit 13. That is, the imaging control unit 14 controls the focus adjustment mechanism, the diaphragm adjustment mechanism, the zoom mechanism, and the like of the optical lens 11.

映像信号生成部13は、撮像素子12の出力(すなわち画素値)に基づいて映像信号を生成する。映像信号生成部13は、撮像制御部14の制御により、たとえば、周期的に撮像素子12の各電荷結合素子の出力を取り込んで映像信号を生成する。映像信号生成部13が映像信号を生成する周期は、たとえば数十分の1秒程度である。このようにして周期的に生成された複数の映像信号を静止画像として時系列順に表示したときに、人の目には動画として認識される。   The video signal generation unit 13 generates a video signal based on the output (that is, pixel value) of the image sensor 12. For example, the video signal generation unit 13 periodically captures the output of each charge coupled device of the image sensor 12 and generates a video signal under the control of the imaging control unit 14. The cycle in which the video signal generator 13 generates the video signal is, for example, about several tenths of a second. When a plurality of video signals periodically generated in this way are displayed as still images in chronological order, they are recognized as moving images by human eyes.

図1のレール抽出部20L,20Rは、同一の構成を有する。以下には、レール抽出部20Lを例に説明する。レール抽出部20Lの機能は、要約すると、カメラ装置10Lの映像信号生成部13が生成した映像信号を取り込み、その映像信号に含まれるレールを抽出することである。   The rail extraction units 20L and 20R in FIG. 1 have the same configuration. Below, the rail extraction part 20L is demonstrated to an example. In summary, the function of the rail extraction unit 20L is to take in the video signal generated by the video signal generation unit 13 of the camera device 10L and extract the rail included in the video signal.

さらに具体的に説明すると、レール抽出部20Lは、所定のレールの映像として予め登録されている複数のレール形状パターン(の映像信号)と、実際に撮像されたレール(の映像信号)とを比較して「一致」または「不一致」を抽出結果として出力する。すなわち、レール抽出部20Lが「一致」を出力したときには、映像信号生成部13が生成した映像信号に所定のレール(の映像信号)が含まれており、レール抽出部20Lがその所定のレール(の映像)を抽出したことになる。また、レール抽出部20Lが「不一致」を出力したときには、映像信号生成部13が生成した映像信号に所定のレール(の映像信号)が含まれておらず、レール抽出部20Lが所定のレール(の映像)を抽出できなかったことになる。   More specifically, the rail extraction unit 20L compares a plurality of rail shape patterns (image signals) registered in advance as images of a predetermined rail with the actually captured rails (image signals). Then, “match” or “mismatch” is output as the extraction result. That is, when the rail extraction unit 20L outputs “match”, the video signal generated by the video signal generation unit 13 includes a predetermined rail (the video signal thereof), and the rail extraction unit 20L includes the predetermined rail ( Video). When the rail extraction unit 20L outputs “mismatch”, the video signal generated by the video signal generation unit 13 does not include the predetermined rail (the video signal thereof), and the rail extraction unit 20L does not include the predetermined rail ( Video) could not be extracted.

レール抽出部20Lは、図3に例示するように、映像信号生成部13から出力される映像信号を入力し、映像信号の中からレールを含むと推定される映像信号を取り出すレール映像推定部21と、複数のレール形状パターンを記憶しているメモリである記憶部22と、レール映像推定部21で推定されたレール(の映像)と複数のレール形状パターンとを比較するレール映像比較部23と、データ蓄積部24とを有する。   As illustrated in FIG. 3, the rail extraction unit 20 </ b> L receives the video signal output from the video signal generation unit 13 and extracts a video signal estimated to include a rail from the video signal. A storage unit 22 that is a memory that stores a plurality of rail shape patterns, a rail image comparison unit 23 that compares a rail (image) estimated by the rail image estimation unit 21 and a plurality of rail shape patterns, and And a data storage unit 24.

レール映像推定部21は、映像信号生成部13から出力された映像信号の中からレール(の映像)であると推定される映像信号を取り出す。たとえば、カメラ装置10は、鉄道車両(以下、単に車両という。)の先頭に搭載されているので、通常、カメラ装置10の視野の下部にレールの映像が映り込む。したがって、視野の下部から縦方向に伸びる2本の線(の映像)がレール(の映像)であると推定する。そこで、レール映像推定部21は、レールであると推定される映像信号の部分のみを残し、他の映像信号を消去した映像信号を生成し、レール映像比較部22に送出する。この映像信号は、撮像素子12の縦横の電荷結合素子の配設位置に対応する縦横の画素値が記録された座標情報として表される。   The rail video estimation unit 21 extracts a video signal that is estimated to be a rail (video) from the video signal output from the video signal generation unit 13. For example, since the camera device 10 is mounted at the head of a railway vehicle (hereinafter simply referred to as a vehicle), a rail image is usually reflected in the lower part of the field of view of the camera device 10. Therefore, it is estimated that the two lines (images) extending in the vertical direction from the lower part of the field of view are the rails (images). Therefore, the rail video estimation unit 21 generates a video signal in which only the video signal portion that is estimated to be a rail is left and other video signals are deleted, and sends the video signal to the rail video comparison unit 22. This video signal is represented as coordinate information in which vertical and horizontal pixel values corresponding to the arrangement positions of the vertical and horizontal charge coupled devices of the image sensor 12 are recorded.

図4のフローチャートを参照しながら、レール映像推定部21の動作をさらに詳細に説明する。映像信号生成部13から出力される映像信号がレール映像推定部21に入力されると、図4の「START」の条件が満たされ、フローはステップS1に進む。なお、図4の「START」から「END」までの処理は1周期分の処理であり、フローが「END」になった後は、「START」の条件が満たされたとき、フローは再び実行される。   The operation of the rail image estimation unit 21 will be described in more detail with reference to the flowchart of FIG. When the video signal output from the video signal generation unit 13 is input to the rail video estimation unit 21, the condition of “START” in FIG. 4 is satisfied, and the flow proceeds to step S1. Note that the processing from “START” to “END” in FIG. 4 is processing for one cycle. After the flow becomes “END”, the flow is executed again when the condition of “START” is satisfied. Is done.

ステップS1において、レール映像推定部21は、映像信号生成部13から入力した映像信号の中で、視野下部におけるレール(の映像)の位置を検索し、フローはステップS2に進む。   In step S1, the rail image estimation unit 21 searches the position of the rail (image) in the lower part of the visual field in the image signal input from the image signal generation unit 13, and the flow proceeds to step S2.

ステップS2において、レール映像推定部21は、2本の縦方向に伸びる線を見付けたか否かを判定する。ステップS2において、見付けたと判定されると、フローはステップS3に進む。一方、ステップS2において、見付からないと判定されると、フローはステップS1に戻る。   In step S2, the rail image estimation unit 21 determines whether two vertical lines are found. If it is determined in step S2 that it has been found, the flow proceeds to step S3. On the other hand, if it is determined in step S2 that no sheet is found, the flow returns to step S1.

ステップS3において、レール映像推定部21は、レールと推定される映像信号以外の映像信号を消去して、フローはステップS4に進む。   In step S3, the rail video estimation unit 21 deletes video signals other than video signals estimated as rails, and the flow proceeds to step S4.

ステップS4において、レール映像推定部21は、レール映像比較部23に対し、レール(の映像)と推定される映像信号を出力して処理を終了する(END)。   In step S4, the rail image estimation unit 21 outputs a video signal estimated to be rail (image) to the rail image comparison unit 23, and ends the processing (END).

レール映像比較部23は、レール映像推定部21から出力されたレール(の映像)と推定される映像信号と、記憶部22に記憶されているレール形状パターン(の映像信号)とを比較する。   The rail video comparison unit 23 compares the video signal estimated from the rail (video) output from the rail video estimation unit 21 with the rail shape pattern (video signal) stored in the storage unit 22.

記憶部22には、カメラ装置10の位置から見えるレールが複数種類のレール形状パターンで記憶されている。図5に、記憶部22に記憶されている7種類(#1〜#7)のレール形状パターンを例示する。このレール形状パターンは、カメラ装置10が搭載された車両の線区において、車両が直進状態であるとき、またはカーブを走行中であるときなど、想定されるレールの見え方の種類を表している。このようなレール形状パターンは、カメラ装置10を搭載した車両を試験走行させて撮像したレールの映像信号に基づいて設定される。   The storage unit 22 stores rails that can be seen from the position of the camera device 10 as a plurality of types of rail shape patterns. FIG. 5 illustrates seven types (# 1 to # 7) of rail shape patterns stored in the storage unit 22. This rail shape pattern represents the type of rail appearance assumed when the vehicle is in a straight line or traveling on a curve in the line section of the vehicle on which the camera device 10 is mounted. . Such a rail shape pattern is set based on a video signal of a rail imaged by running a vehicle on which the camera device 10 is mounted.

記憶部22に記憶されているレール形状パターン#1〜#7も、レール映像推定部21から出力される映像信号と同様に、撮像素子12の縦横の電荷結合素子の配設位置に対応する縦横の画素値が記録された座標情報として表される。   The rail shape patterns # 1 to # 7 stored in the storage unit 22 also have the vertical and horizontal directions corresponding to the arrangement positions of the vertical and horizontal charge-coupled elements of the image sensor 12, similarly to the video signal output from the rail video estimation unit 21. The pixel value is expressed as recorded coordinate information.

レール映像比較部23は、レール映像推定部21から出力されたレールの映像と推定される映像信号と記憶部22に記憶されているレール形状パターンの映像信号との互いに対応する座標を比較する。レール映像比較部23は、比較の結果、座標が一致する割合が所定の割合(たとえば80%程度)以上であれば「一致」と判定し、所定の割合未満であれば「不一致」と判定する。   The rail image comparison unit 23 compares the coordinates corresponding to the image signal estimated from the rail image output from the rail image estimation unit 21 and the image signal of the rail shape pattern stored in the storage unit 22. As a result of the comparison, the rail image comparison unit 23 determines “match” if the coordinate matching ratio is equal to or higher than a predetermined ratio (for example, about 80%), and determines “mismatch” if it is less than the predetermined ratio. .

次に、図6のフローチャートを参照しながら、レール映像比較部23の動作をさらに詳細に説明する。レール映像推定部21から出力される映像信号がレール映像比較部23に入力されると図6の「START」の条件が満たされ、フローはステップS10に進む。なお、図6の「START」から「END」までの処理は、1周期分の処理であり、フローが「END」になった後は、「START」の条件が満たされたとき、フローは再び実行される。   Next, the operation of the rail image comparison unit 23 will be described in more detail with reference to the flowchart of FIG. When the video signal output from the rail video estimation unit 21 is input to the rail video comparison unit 23, the condition of “START” in FIG. 6 is satisfied, and the flow proceeds to step S10. Note that the processing from “START” to “END” in FIG. 6 is processing for one cycle, and after the flow becomes “END”, when the condition of “START” is satisfied, the flow is resumed. Executed.

ステップS10において、レール映像比較部23は比較するパターン#nをレール形状パターン#1に設定して、フローはステップS11に進む。   In step S10, the rail image comparison unit 23 sets the pattern #n to be compared to the rail shape pattern # 1, and the flow proceeds to step S11.

ステップS11において、レール映像比較部23は、レール映像推定部21から受け取った映像信号と記憶部22に記憶しているレール形状パターンのうちのパターン#n(ここではn=1)とを比較して、フローはステップS12に進む。   In step S11, the rail image comparison unit 23 compares the image signal received from the rail image estimation unit 21 with the pattern #n (here, n = 1) of the rail shape patterns stored in the storage unit 22. Then, the flow proceeds to step S12.

ステップS12において、レール映像比較部23は、ステップS11の比較結果が「一致」であるか否かを判定する。ステップS12において、比較結果が「一致」であると判定されると、フローはステップS13に進む。一方、ステップS12において、比較結果が「一致」でない(すなわち「不一致」)と判定されると、フローはステップS14に進む。   In step S12, the rail image comparison unit 23 determines whether or not the comparison result in step S11 is “match”. If it is determined in step S12 that the comparison result is “match”, the flow proceeds to step S13. On the other hand, if it is determined in step S12 that the comparison result is not “match” (ie, “mismatch”), the flow proceeds to step S14.

ステップS13において、レール映像比較部23は、「一致」とする比較結果を不図示の正常性判定部に出力するとともに、「一致」とされたときの記憶部22に記憶されているレール形状パターンの映像信号をデータ蓄積部24に格納して、処理を終了する(END)。   In step S13, the rail image comparison unit 23 outputs the comparison result “match” to the normality determination unit (not shown), and the rail shape pattern stored in the storage unit 22 when “match” is obtained. Are stored in the data storage unit 24, and the processing is terminated (END).

ステップS14において、レール映像比較部23は、全レール形状パターンとの比較が終了したか否かを判定する。すなわち、パターン#nはパターン#7であるか否かを判定する。ステップS14において、全パターンとの比較が終了したと判定されると、フローはステップS15に進む。一方、ステップS14において、未だ全パターンとの比較が終了していないと判定されると、フローはステップS16に進む。   In step S14, the rail image comparison unit 23 determines whether or not the comparison with all the rail shape patterns has been completed. That is, it is determined whether pattern #n is pattern # 7. If it is determined in step S14 that the comparison with all patterns has been completed, the flow proceeds to step S15. On the other hand, if it is determined in step S14 that the comparison with all patterns has not yet been completed, the flow proceeds to step S16.

ステップS15において、レール映像比較部23は、「不一致」とする比較結果を不図示の正常性判定部に出力して処理を終了する(END)。   In step S15, the rail image comparison unit 23 outputs the comparison result indicating “mismatch” to the normality determination unit (not shown) and ends the process (END).

ステップS16において、レール映像比較部23は、パターン#nをパターン#(n+1)に変更(ここでは、パターン#1をパターン#2に変更)して、フローはステップS11に戻る。   In step S16, the rail image comparison unit 23 changes the pattern #n to the pattern # (n + 1) (here, the pattern # 1 is changed to the pattern # 2), and the flow returns to step S11.

このようにして、ステップS12で比較結果が「一致」とならないときには、ステップS11→ステップS12→ステップS14→ステップS16→ステップS11のフローが全パターン#1〜#7について繰り返し実行される。   In this way, when the comparison result does not become “match” in step S12, the flow of step S11 → step S12 → step S14 → step S16 → step S11 is repeatedly executed for all patterns # 1 to # 7.

上記のようにして、レール抽出部20Lにより抽出されたレール映像は、データ蓄積部24に蓄積される。   The rail image extracted by the rail extraction unit 20L as described above is stored in the data storage unit 24.

カメラ装置10L,10Rおよびレール抽出部20L,20Rは、基準画像と対応画像を取得するために、図1に示すように左右2組が備えられる。図7は、レール抽出部20L,20Rによって抽出されたレールが表示された基準画像I(n)と対応画像J(n)を例示する。   The camera devices 10L and 10R and the rail extraction units 20L and 20R are provided with two sets of left and right as shown in FIG. 1 in order to acquire a reference image and a corresponding image. FIG. 7 illustrates the reference image I (n) and the corresponding image J (n) on which the rails extracted by the rail extraction units 20L and 20R are displayed.

そして、各レール抽出部20L,20Rのデータ蓄積部24のレール映像データは、基準画像と対応画像からレールの視差を算出するために、視差算出部30に与えられる。   The rail video data in the data storage unit 24 of each of the rail extraction units 20L and 20R is given to the parallax calculation unit 30 in order to calculate the rail parallax from the reference image and the corresponding image.

視差算出部30は、図8に一例を示すように、一次対応点検出手段31と、二次対応点生成手段32と、マッチング処理手段33と、相関値比較手段34と、視差読出手段35と、視差算出手段36と、図示されていないメモリとを有する。   As illustrated in FIG. 8, the parallax calculation unit 30 includes a primary corresponding point detection unit 31, a secondary corresponding point generation unit 32, a matching processing unit 33, a correlation value comparison unit 34, and a parallax reading unit 35. , Having a parallax calculation means 36 and a memory (not shown).

一次対応点検出手段31は、基準画像I(n)のレール映像の基準点と同じ座標となる対応画像上の同じ走査線上の点(一次対応点)を検出して、その座標を出力する。二次対応点生成手段32は、一次対応点から同じ走査線上を後述される「レール抽出による視差」と等しい距離だけ左方向にずらした点を二次対応点とする。マッチング処理手段33は、二次対応点から対応画像の左端までマッチング処理を行って相関値を求める。   The primary corresponding point detecting means 31 detects a point (primary corresponding point) on the same scanning line on the corresponding image having the same coordinates as the reference point of the rail image of the reference image I (n), and outputs the coordinates. The secondary corresponding point generating means 32 sets a point shifted leftward from the primary corresponding point on the same scanning line by a distance equal to “parallax by rail extraction” described later as a secondary corresponding point. The matching processing unit 33 performs a matching process from the secondary corresponding point to the left end of the corresponding image to obtain a correlation value.

「レール抽出による視差」は、事前の列車走行時に既知のマッチング手法を用いて取得され、後述されるように記憶されている。図9(a)に示すように、基準画像I(n)のレールRIの任意の基準点rの座標をr(ur1,v)、対応画像J(n)のエビポーラ線上のレールRの対応点sの座標をs(ur2,v)とすると、基準点uと対応点sの視差、すなわち、画像中の高さhにおける「レール抽出による視差」d’は、次の式、
’=ur1−ur2
から求めることができる。
“Parallax by rail extraction” is acquired using a known matching method during train travel in advance and is stored as described later. As shown in FIG. 9 (a), any coordinates of the reference point r rails RI of the reference image I (n) r (u r1 , v 1), the rail R of Ebipora line of the corresponding image J (n) Assuming that the coordinates of the corresponding point s are s ( ur 2 , v 1 ), the parallax between the reference point u and the corresponding point s, that is, the “parallax due to rail extraction” d h ′ at the height h in the image is ,
d h ′ = u r1 −ur 2
Can be obtained from

そして、視差はカメラからの距離が遠くなるほど小さく、近いほど大きくなる。したがって、図9(b)に比喩的に示すように、画像I(n)、J(n)のレールRI,RJの長手方向の各地点における「レール抽出による視差」d’(画素数)は、カメラ設置位置から各地点までの距離(画面中の高さh)に応じて、高さの高い方から低い方に向かって(遠くから近づく方向に向かって)2,5,10,15,25,30・・・のように漸増する。このような一定のパターンを有する「レール抽出による視差」が視差モデルとして視差算出部30のメモリに記憶されている。 The parallax decreases as the distance from the camera increases and increases as the distance from the camera increases. Therefore, as shown in a metaphorical manner in FIG. 9B, “parallax by rail extraction” d h ′ (number of pixels) at each point in the longitudinal direction of the rails RI and RJ of the images I (n) and J (n). Indicates the distance from the camera installation position to each point (height h in the screen) 2,5,10,15 from the higher side to the lower side (from the far side). , 25, 30... “Parallax by rail extraction” having such a fixed pattern is stored in the memory of the parallax calculation unit 30 as a parallax model.

視差は、カメラの仰角によって異なる。したがって、メモリにはカメラの仰角に対応する「レール抽出による視差値」d’が記憶される。 The parallax varies depending on the elevation angle of the camera. Therefore, the “parallax value by rail extraction” d h ′ corresponding to the elevation angle of the camera is stored in the memory.

図10および図11を用いて、上記視差算出部30の一次対応点検出手段31、二次対応点生成手段32およびマッチング処理手段33による作用を具体的に説明する。   The actions of the primary corresponding point detecting unit 31, the secondary corresponding point generating unit 32, and the matching processing unit 33 will be specifically described with reference to FIGS.

一次対応点算出手段31は、図10に示すように、基準画像I(n)上の基準点rの座標r(ur1,v)と同じ座標となる対応画像J(n)上の点rを求め、この点rを一次対応点とする。二次対応点生成手段32は、一次対応点rと同じエビポーラ線上の対応画像J(n)上の「レール抽出による視差」d’=ur1−ur2と等しい距離だけ左に離れた点を基準点rに対応する二次対応点sとする。続いて、マッチング処理手段33は、マッチング処理により基準点rの座標(ur1,v)と二次対応点sの座標(ur2,v)との相関値αを求める。 As shown in FIG. 10, the primary corresponding point calculation means 31 is a point on the corresponding image J (n) that has the same coordinates as the coordinates r ( ur 1 , v 1 ) of the reference point r on the reference image I (n). r is obtained, and this point r is set as the primary corresponding point. Point second response point generation unit 32, a distance to the left by a distance equal to the primary "parallax by rail extraction" of the corresponding image J (n) on the corresponding point same Ebipora line as r d h '= u r1 -u r2 Is a secondary corresponding point s corresponding to the reference point r. Subsequently, the matching processing unit 33 obtains a correlation value α between the coordinates (u r1 , v 1 ) of the reference point r and the coordinates (u r2 , v 1 ) of the secondary corresponding point s by matching processing.

図11は、基準画像I(n)および対応画像J(n)の同じ走査線上の一つのブロックIi1,Ji1を示す。基準画像I(n)のブロックIi1の基準点r(ur1,v)に対応する対応点s(ur2,v)を探索するときは、対応画像J(n)のブロックJi1の同じ走査線上の基準点r(ur1,v)と同じ座標点r’(ur1,v)、すなわち一次対応点から同じ走査線上を「レール抽出による視差」d’だけ左にずらした点s’(ur2,v)を二次対応点とする。そして、その二次対応点s’(ur2,v)からブロックJi1の同じ走査線上の左端までの画素値についてブロックIi1の同じ走査線上の画素値との相関値αを取り、図17(e)の画素値差マトリックスDTと同様な画素値差マトリックス、および図17(f)の画素値差合計マトリックスTTと同様な画素値差合計マトリックスを生成する。 FIG. 11 shows one block I i1 and J i1 on the same scanning line of the reference image I (n) and the corresponding image J (n). When searching for the corresponding point s (u r2 , v 1 ) corresponding to the reference point r (u r1 , v 1 ) of the block I i1 of the reference image I (n), the block J i1 of the corresponding image J (n) is searched. The same coordinate point r ′ (u r1 , v 1 ) as the reference point r (u r1 , v 1 ) on the same scanning line, that is, on the same scanning line from the primary corresponding point to the left by “parallax by rail extraction” d h ′ The shifted point s ′ (u r2 , v 1 ) is set as a secondary corresponding point. Then, the correlation value α between the pixel value from the secondary corresponding point s ′ (u r2 , v 1 ) to the left end on the same scanning line of the block J i1 and the pixel value on the same scanning line of the block I i1 is obtained. A pixel value difference matrix similar to the pixel value difference matrix DT in FIG. 17E and a pixel value difference total matrix similar to the pixel value difference total matrix TT in FIG.

二次対応点を探索するときに「レール抽出による視差」をずらす方向は、左右の画像のいずれを基準画像とし、いずれを対応画像とするかにより異なる。図10、図11は左の画像を基準画像とし、右の画像を対応画像とした例であるので、「レール抽出による視差」だけ左にずらしたが、右の画像を基準画像とし、左の画像を対応画像とした場合は、右にずらされる。   The direction in which the “parallax by rail extraction” is shifted when searching for secondary corresponding points differs depending on which of the left and right images is used as a reference image and which is used as a corresponding image. FIGS. 10 and 11 are examples in which the left image is a reference image and the right image is a corresponding image. Therefore, “parallax by rail extraction” is shifted to the left, but the right image is a reference image, If the image is a corresponding image, it is shifted to the right.

マッチング処理手段33によるマッチング処理により得られた相関値αは、相関値比較手段34に与えられる。相関値比較手段34は、その相関値αを所定の閾値tと比較する。相関値αが所定の閾値tに対して所定の条件を満たすときは第1判定信号aを出力して、視差読出手段35に入力する。また、相関値αが所定の閾値tに対して所定の条件を満たさないときは第2判定信号bを出力して、視差算出手段36に出力する。   The correlation value α obtained by the matching processing by the matching processing means 33 is given to the correlation value comparison means 34. The correlation value comparison means 34 compares the correlation value α with a predetermined threshold value t. When the correlation value α satisfies a predetermined condition with respect to a predetermined threshold t, the first determination signal a is output and input to the parallax reading means 35. When the correlation value α does not satisfy the predetermined condition with respect to the predetermined threshold t, the second determination signal b is output and output to the parallax calculation unit 36.

相関値の算出方法は、マッチング処理の手法により異なる。マッチング処理の手法がブロックマッチングである場合は、相関値の算出方法にはSSD(sum of Squared Difference)とSAD(Sum of Absolute Difference)がある。これらの場合は、マッチングが取れていれば取れているほど(類似度が高いほど)相関値が小さくなる。したがって、この場合は、算出された相関値αが閾値t以下(α≦t)のときは所定の条件が満たされたことになり、閾値tを上回った(α>t)ときは所定の条件が満たされないこととなる。これに対し、マッチング処理の手法が位相限定相関法である場合は、マッチングが取れていれば取れているほど相関値が大きくなる。したがって、算出された相関値αが閾値tを上回った(α>t)ときは所定の条件が満たされたことになり、閾値t以下(α≦t)のときは所定の条件が満たされないこととなる。   The calculation method of the correlation value differs depending on the matching processing method. When the matching processing method is block matching, the correlation value calculation method includes SSD (sum of squared difference) and SAD (sum of absolute difference). In these cases, the higher the matching is, the lower the correlation value (the higher the similarity). Therefore, in this case, the predetermined condition is satisfied when the calculated correlation value α is equal to or less than the threshold value t (α ≦ t), and when the calculated correlation value α exceeds the threshold value t (α> t), the predetermined condition is satisfied. Will not be satisfied. On the other hand, when the matching processing method is the phase only correlation method, the correlation value increases as the matching is achieved. Therefore, when the calculated correlation value α exceeds the threshold t (α> t), the predetermined condition is satisfied, and when the calculated correlation value α is equal to or less than the threshold t (α ≦ t), the predetermined condition is not satisfied. It becomes.

そして、視差読出手段35は、第1判定信号aを入力されたときは、メモリにそのマッチング処理を行った走査線に対応して記憶されている「レール抽出による視差値」を読み出す。そして、その「レール抽出による視差」をその走査線における基準点と対応点との視差と確定し、距離計測部4に与える。つまり、基準点と対応点との相関値が所定の条件を満たす場合は、計算処理に時間がかかる粗密探索手法は実行されない。したがって、粗密探索手法が実行されない分、視差算出の時間が短縮される。   When the first determination signal a is input, the parallax reading unit 35 reads the “parallax value by rail extraction” stored in the memory corresponding to the scanning line on which the matching processing has been performed. Then, the “parallax by rail extraction” is determined as the parallax between the reference point and the corresponding point in the scanning line, and is given to the distance measuring unit 4. That is, when the correlation value between the reference point and the corresponding point satisfies a predetermined condition, the coarse / fine search method that takes time for the calculation process is not executed. Therefore, the time for calculating the parallax is shortened by the amount that the coarse / fine search method is not executed.

相関値比較手段34が第2判定信号bを視差算出手段36に出力したときは、視差算出手段36は、そのマッチング処理を行った走査線に対して周知の粗密探索法を適用して視差値を算出し、得られた視差値を距離計測部4に与える。   When the correlation value comparison unit 34 outputs the second determination signal b to the parallax calculation unit 36, the parallax calculation unit 36 applies the well-known coarse / fine search method to the scanning line on which the matching processing has been performed, and the parallax value And the obtained parallax value is given to the distance measuring unit 4.

距離計測部4は、視差読出手段35が出力した視差または視差算出手段36が出力した視差を用いてカメラ設置位置から列車前方のレールの注視点(撮像対象物)までの距離を周知の演算式により計測する。   The distance measurement unit 4 uses a parallax output from the parallax reading unit 35 or a parallax output from the parallax calculation unit 36 to calculate the distance from the camera installation position to the gaze point (imaging target) of the rail ahead of the train. Measure by

<障害物検知>
線路上の障害物を検知するために、運転台に設置される2台のカメラは、カメラからたとえば200m先のレール面を注視するように取り付けられる。線路上に障害物が存在するときは、列車の進行とともに、その障害物はカメラの注視点よりもカメラ側に近づく。図12は、カメラの撮影範囲を側方から見た図面である。同図の(a)は注視点Vpより内側に障害物がない場合の状態、(b)は注視点Vpより内側に障害物mが存在する場合の状態を示す。
<Obstacle detection>
In order to detect an obstacle on the track, the two cameras installed on the cab are attached so as to gaze at a rail surface 200 m ahead from the camera. When there are obstacles on the track, the obstacles are closer to the camera side than the camera's gazing point as the train progresses. FIG. 12 is a view of the photographing range of the camera as viewed from the side. (A) of the figure shows a state when there is no obstacle inside the gazing point Vp, and (b) shows a state when the obstacle m exists inside the gazing point Vp.

図13は、図12のカメラの撮影範囲を上方から見た平面図である。注視点Vpより内側に2つの障害物m1,m2が存在すると仮定すると、左カメラ10Lで取得された画像(基本画像I(n))には、注視点Vpと2つの障害物m1,m2が共通の視線e1上の存在するため、図14(a)に示すように、画像I(n)の右側にほぼ共通な横軸u上に存在し、縦軸vでは注視点Vp、障害物m1,m2間の距離に対応する座標だけわずかに離れた位置に抽出される(座標が接近している)。   FIG. 13 is a plan view of the imaging range of the camera of FIG. 12 as viewed from above. Assuming that there are two obstacles m1 and m2 inside the gazing point Vp, the image (basic image I (n)) acquired by the left camera 10L includes the gazing point Vp and the two obstacles m1 and m2. Since it exists on the common line of sight e1, as shown in FIG. 14A, it exists on the substantially common horizontal axis u on the right side of the image I (n), and on the vertical axis v, the gazing point Vp and the obstacle m1 , M2 is extracted at a position slightly separated by coordinates corresponding to the distance between m2 (the coordinates are close to each other).

これに対して、図13の右カメラ10Rで取得された画像(対応画像J(n))には、注視点Vpと2つの障害物m1,m2がそれぞれ視線e2,e3,e4上に存在するため、図14(b)に示すように、注視点Vp、障害物m1,m2間の距離に対応してそれぞれ横軸u’上の位置も、縦軸v上の位置も異なる(座標が離れている)。   On the other hand, in the image (corresponding image J (n)) acquired by the right camera 10R in FIG. 13, the gazing point Vp and the two obstacles m1 and m2 exist on the lines of sight e2, e3, and e4, respectively. Therefore, as shown in FIG. 14 (b), the position on the horizontal axis u ′ and the position on the vertical axis v are different according to the distance between the gazing point Vp and the obstacles m1 and m2 (the coordinates are different). ing).

したがって、基準画像I(n)を対応画像J(n)に各画面の中心が一致するように重ね合わせ、基準画像I(n)の注視点Vplと障害物m1l,m2lを対応画像J(n)上に点線で示すと、左右の注視点Vpl,Vpr間の距離D1、左右の障害物m1l,m1r間の距離D2、左右の障害物m2l,m2r間の距離D3は、それぞれ視差である。D1<D2<D3である。すなわち、画面上の高さが高いほどカメラからの距離が遠く、高さが低くなるほどカメラからの距離が近い。そして、距離が近いほど、視差が大きいことが分かる。   Therefore, the reference image I (n) is overlaid on the corresponding image J (n) so that the centers of the screens coincide with each other, and the gazing point Vpl of the reference image I (n) and the obstacles m1l and m2l are overlapped with the corresponding image J (n ) When indicated by dotted lines above, the distance D1 between the left and right gazing points Vpl and Vpr, the distance D2 between the left and right obstacles m1l and m1r, and the distance D3 between the left and right obstacles m2l and m2r are parallaxes. D1 <D2 <D3. That is, the higher the height on the screen, the farther the distance from the camera, and the lower the height, the closer the distance from the camera. And it turns out that parallax is so large that distance is near.

図15(a)は、線路上に障害物mが存在する場合の左右の画像I(n),J(n)を示し、同図(b)は、その場合に算出される視差の一例を示す。線路上のカメラの注視点よりも手前側に障害物が存在しない時は、図9の(b)に示される視差モデルと一致するパターンの視差が得られる。しかし、図15(a)に示すように注視点よりも手前側に障害物mが存在する場合は、図15(b)に示すように、その障害物mに対応する画像が二次対応点よりも画面の左側まで延びて存在するので、画面の障害物の高さに対応する部分の視差が、その前後の視差よりも大きくなる。そのため、図9の(b)に示される視差モデルと一致しない。   FIG. 15A shows left and right images I (n) and J (n) when an obstacle m exists on the track, and FIG. 15B shows an example of parallax calculated in that case. Show. When there is no obstacle on the near side of the camera's gazing point on the track, parallax with a pattern that matches the parallax model shown in FIG. 9B is obtained. However, as shown in FIG. 15 (a), when the obstacle m exists on the near side of the point of sight, the image corresponding to the obstacle m is a secondary corresponding point as shown in FIG. 15 (b). Since it extends to the left side of the screen, the parallax of the portion corresponding to the height of the obstacle on the screen is larger than the parallax before and after that. Therefore, it does not coincide with the parallax model shown in FIG.

この視差モデルとの不一致は、相関値比較手段34が、マッチング処理手段33によるマッチング処理により得られた相関値αが所定の閾値tに対して所定の条件を満たさないとき出力する第2判定信号bに基づいて検知することができる。したがって、障害物存否判定部2は相関値比較手段34が出力する第2判定信号bを与えられることにより、障害物が存在すると判定することができる。   This mismatch with the parallax model is a second determination signal output when the correlation value comparison unit 34 outputs a correlation value α obtained by the matching processing by the matching processing unit 33 when the correlation value α does not satisfy a predetermined condition with respect to the predetermined threshold t. It is possible to detect based on b. Therefore, the obstacle presence / absence determination unit 2 can determine that an obstacle exists by being given the second determination signal b output from the correlation value comparison means 34.

また、障害物存否判定部2が障害物存在と判定したときの出力信号cは運転台等に設けられた障害物検知表示部3に与えられる。これにより、障害物検知表示部3は所定距離以内に障害物が存在することを表示する。出力信号cは列車の自動運転制御装置にも与え、その障害物に対する衝突を回避するべく制動するために用いることができる。   Further, the output signal c when the obstacle presence / absence determination unit 2 determines that an obstacle is present is given to an obstacle detection display unit 3 provided on a cab or the like. Thereby, the obstacle detection display unit 3 displays that an obstacle exists within a predetermined distance. The output signal c is also provided to the train automatic operation control device, and can be used for braking to avoid a collision with the obstacle.

A 障害物検知装置
1 ステレオ画像処理部
2 障害物存否判定部
3 障害物検知表示部
A Obstacle detection device 1 Stereo image processing unit 2 Obstacle presence / absence determination unit 3 Obstacle detection display unit

Claims (2)

左右のカメラで列車進行方向前方を撮像する工程、
取得された画像からレールを抽出する工程、
左右の画像の抽出されたレールに対して「レール抽出による視差」を用いてマッチング処理をして左右のレールの視差を算出する工程、
算出された視差を障害物が存在しないときの所定の視差モデルと比較する工程、
比較の結果、一致する場合は線路上に障害物が存在しないと判定し、一致しない場合は線路上に障害物が存在すると判定する工程
を含むことを特徴とする障害物検知方法。
The process of imaging the front of the train with the left and right cameras,
A step of extracting rails from the acquired image;
A process of calculating the parallax of the left and right rails by performing a matching process on the extracted rails of the left and right images using “parallax by rail extraction”;
Comparing the calculated parallax with a predetermined parallax model when no obstacle is present;
As a result of the comparison, an obstacle detection method comprising: determining that there is no obstacle on the track if they match, and determining that there is an obstacle on the track if they do not match.
ステレオ画像処理部と、障害物存否判定部と、障害物検知信号出力部とを有し、
前記ステレオ画像処理部は、間隔を開けて水平等位に設置した左右のカメラ装置と、前記各カメラ装置で取得される画像信号からそれぞれレールの映像を抽出するレール抽出部と、抽出されたレールの映像を有するステレオ画像を「レール抽出による視差」を用いてマッチング処理して視差を算出する視差算出部とを有し、
前記視差算出部は、基準画像のレール映像の基準点と同じ座標となる対応画像上の一次対応点を検出して、その座標を出力する一次対応点検出手段と、前記一次対応点から同じ走査線上を「レール抽出による視差」と等しい距離だけ左又は右方向にずらした点を二次対応点とする二次対応点生成手段と、前記二次対応点から前記対応画像の左端または右端までマッチング処理を行って相関値を求めるマッチング処理手段と、マッチング処理手段により算出された相関値を所定の閾値と比較し、前記相関値が所定の閾値に対して所定の条件を満たさないときは第1判定信号を出力し、前記相関値が所定の閾値に対して所定の条件を満たすときは第2判定信号を出力する相関値比較手段と、前記相関値比較手段が前記第1判定信号を出力したときは、周知のマッチング法によるマッチング処理を実行して視差を算出する視差算出手段と、前記相関値比較手段が前記第2判定信号を出力したときは、メモリ部に記憶されている「レール抽出による視差」を読み出し、その「レール抽出による視差」を前記基準点の視差と確定する視差読出手段とを有し、
前記障害物存否判定部は、前記第1判定信号を与えられた時は、障害物が存在すると判定し、前記第2判定信号を与えられた時は障害物は存在しないと判定すること、
を特徴とする障害物検知装置。
A stereo image processing unit, an obstacle presence / absence determination unit, and an obstacle detection signal output unit;
The stereo image processing unit includes left and right camera devices installed at horizontal equidistant positions, a rail extraction unit that extracts rail images from image signals acquired by the camera devices, and an extracted rail. A parallax calculation unit that calculates a parallax by performing a matching process on a stereo image having a video of the above using “parallax by rail extraction”, and
The parallax calculating unit detects a primary corresponding point on the corresponding image having the same coordinates as the reference point of the rail image of the reference image, and outputs the coordinates, and the same scanning from the primary corresponding point A second corresponding point generating unit having a point corresponding to the line shifted to the left or right by a distance equal to “parallax by rail extraction” as a second corresponding point, and matching from the second corresponding point to the left end or right end of the corresponding image A matching processing means for performing a process to obtain a correlation value and a correlation value calculated by the matching processing means are compared with a predetermined threshold value, and when the correlation value does not satisfy a predetermined condition with respect to the predetermined threshold value, the first A correlation value comparing means for outputting a determination signal and outputting a second determination signal when the correlation value satisfies a predetermined condition with respect to a predetermined threshold; and the correlation value comparing means outputs the first determination signal. When When the parallax calculation means for calculating the parallax by executing a matching process by a known matching method and the correlation value comparison means output the second determination signal, the “parallax by rail extraction” stored in the memory unit , And parallax reading means for determining the “parallax by rail extraction” as the parallax of the reference point,
The obstacle presence / absence determination unit determines that an obstacle is present when the first determination signal is given, and determines that no obstacle exists when the second determination signal is given;
Obstacle detection device characterized by.
JP2015072211A 2015-03-31 2015-03-31 Obstacle detection method and apparatus Expired - Fee Related JP6307037B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015072211A JP6307037B2 (en) 2015-03-31 2015-03-31 Obstacle detection method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015072211A JP6307037B2 (en) 2015-03-31 2015-03-31 Obstacle detection method and apparatus

Publications (2)

Publication Number Publication Date
JP2016192109A JP2016192109A (en) 2016-11-10
JP6307037B2 true JP6307037B2 (en) 2018-04-04

Family

ID=57245702

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015072211A Expired - Fee Related JP6307037B2 (en) 2015-03-31 2015-03-31 Obstacle detection method and apparatus

Country Status (1)

Country Link
JP (1) JP6307037B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3829155A4 (en) * 2018-07-24 2022-04-20 Kabushiki Kaisha Toshiba Imaging system for railway vehicle
WO2022268375A1 (en) * 2021-06-23 2022-12-29 Siemens Mobility GmbH Obstacle detection in the track area on the basis of depth data

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6915842B2 (en) * 2017-03-08 2021-08-04 Necエンベデッドプロダクツ株式会社 Monitoring equipment, monitoring methods and programs
JP6903477B2 (en) 2017-04-21 2021-07-14 株式会社東芝 Orbit identification device and program
CN110126885B (en) * 2018-02-02 2022-04-22 保定市天河电子技术有限公司 Railway perimeter intrusion target monitoring method and system
JP7290942B2 (en) * 2018-12-29 2023-06-14 日本信号株式会社 monitoring device
CN112528848B (en) * 2020-12-11 2024-05-24 北京百度网讯科技有限公司 Evaluation method, device, equipment and storage medium for obstacle detection
JP7368409B2 (en) 2021-03-15 2023-10-24 公益財団法人鉄道総合技術研究所 Track measuring device and track measuring method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0516811A (en) * 1991-07-08 1993-01-26 Toshiba Corp Object detecting system
JPH05282430A (en) * 1992-03-31 1993-10-29 Mazda Motor Corp Environment recognizing device for mobile vehicle
JP2002008019A (en) * 2000-06-21 2002-01-11 Fuji Heavy Ind Ltd Railway track recognition device and rolling stock using railway track recognition device
JP2003294422A (en) * 2002-03-28 2003-10-15 Fuji Heavy Ind Ltd Object recognition apparatus and method therefor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3829155A4 (en) * 2018-07-24 2022-04-20 Kabushiki Kaisha Toshiba Imaging system for railway vehicle
WO2022268375A1 (en) * 2021-06-23 2022-12-29 Siemens Mobility GmbH Obstacle detection in the track area on the basis of depth data

Also Published As

Publication number Publication date
JP2016192109A (en) 2016-11-10

Similar Documents

Publication Publication Date Title
JP6307037B2 (en) Obstacle detection method and apparatus
JP6195915B2 (en) Image measuring device
CN108351207B (en) Three-dimensional camera device
EP3057063B1 (en) Object detection device and vehicle using same
JP5404263B2 (en) Parallax calculation method and parallax calculation device
JP6285958B2 (en) Stereo support with rolling shutter
JP4793324B2 (en) Vehicle monitoring apparatus and vehicle monitoring method
JP6138861B2 (en) Distance calculation device
JP2013186042A (en) Distance calculating device and distance calculating method
JP6035774B2 (en) Image processing apparatus, image processing method, and vehicle
JP6346868B2 (en) Stereo image processing method and apparatus
JP2016152027A (en) Image processing device, image processing method and program
JP2014183322A (en) Intersection recognition device and computer-executable program
JP2008309637A (en) Obstruction measuring method, obstruction measuring apparatus, and obstruction measuring system
JP3988574B2 (en) Image processing device
JP2015230703A (en) Object detection device and object detection method
JP6346869B2 (en) Stereo image processing method and apparatus
JP5163164B2 (en) 3D measuring device
JP2004245701A (en) Distance distribution detecting apparatus
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP4575315B2 (en) Object detection apparatus and method
KR20160063039A (en) Method of Road Recognition using 3D Data
JP6335136B2 (en) Stereo image processing method and apparatus
JP6294258B2 (en) Stereo image processing method and apparatus
JP7134780B2 (en) stereo camera device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180309

R150 Certificate of patent or registration of utility model

Ref document number: 6307037

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees