JP2013228914A - Railroad crossing detecting device and method for detecting railroad crossing - Google Patents

Railroad crossing detecting device and method for detecting railroad crossing Download PDF

Info

Publication number
JP2013228914A
JP2013228914A JP2012100881A JP2012100881A JP2013228914A JP 2013228914 A JP2013228914 A JP 2013228914A JP 2012100881 A JP2012100881 A JP 2012100881A JP 2012100881 A JP2012100881 A JP 2012100881A JP 2013228914 A JP2013228914 A JP 2013228914A
Authority
JP
Japan
Prior art keywords
separation
degree
crossing
candidate
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012100881A
Other languages
Japanese (ja)
Inventor
Chikao Tsuchiya
千加夫 土谷
Shinya Tanaka
慎也 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2012100881A priority Critical patent/JP2013228914A/en
Publication of JP2013228914A publication Critical patent/JP2013228914A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a railroad crossing detecting device, even when contrast is lowered due to sunshine, capable of accurately detecting a railroad crossing, and a method thereof.SOLUTION: The railroad crossing detecting device includes: an image pickup unit 10 that photographs a prescribed area and outputs an image; a candidate area extraction unit 21 that extracts a plurality of areas with prescribed color components from the photographed image; a combination creation unit 22 that selects two areas from the plurality of extracted areas and creates one or more combinations; a separation degree evaluation unit 23 that calculates a separation degree of each created combination with respect to a luminance distribution; and a railroad crossing determination unit 24 that determines whether or not an object is a railroad crossing on the basis of the calculated separation degree.

Description

本発明は、車両前方の踏切の状態を画像処理により検出する踏切検出装置及び踏切検出方法に関する。   The present invention relates to a crossing detection device and a crossing detection method for detecting a state of a crossing in front of a vehicle by image processing.

従来、踏切検出装置として、車両前方の踏切の状態を撮像した画像データを画像処理することにより踏切を検出する装置が知られており、特許文献1が開示されている。   Conventionally, as a crossing detection device, a device that detects a crossing by performing image processing on image data obtained by imaging a state of a crossing in front of the vehicle is disclosed, and Patent Document 1 is disclosed.

特許文献1に記載されている画像処理装置は、移動体に搭載される画像処理装置であって、移動体の外部の情景を継続的に撮影して、情景に対応する画像を継続的に形成する撮像部と、撮像部によつて形成された画像を処理して、情景中の所定の特徴を継続的に抽出する特徴抽出部と、特徴抽出部によって抽出された特徴を外部装置に伝送する伝送部と、特徴抽出部によって抽出された特徴を記録する記録部とを備えている。   The image processing apparatus described in Patent Document 1 is an image processing apparatus mounted on a moving body, and continuously captures a scene outside the moving body and continuously forms an image corresponding to the scene. An image capturing unit that processes the image formed by the image capturing unit, continuously extracts a predetermined feature in the scene, and transmits the feature extracted by the feature extracting unit to an external device A transmission unit; and a recording unit that records the feature extracted by the feature extraction unit.

この画像処理装置によれば、間欠的に撮像される画像から例えば踏切の警報器を含む特徴情報を抽出し、抽出された特徴情報を記録することで、正確な道路状況を小容量で記録することができる。   According to this image processing apparatus, feature information including, for example, a crossing alarm device is extracted from an intermittently captured image, and the extracted feature information is recorded, so that an accurate road condition is recorded with a small capacity. be able to.

特開平11−213137号公報JP-A-11-213137

しかしながら、日照によりコントラストが低下した場合には、上述した特許文献1に記載された画像処理装置では、ネオンサイン等と踏切とを正確に分離することができなかった。   However, when the contrast is reduced by sunshine, the image processing apparatus described in Patent Document 1 described above cannot accurately separate the neon sign and the like from the level crossing.

そこで、本発明は、上述した実情に鑑みて提案されたものであり、日照によりコントラストが低下した場合でも、踏切を正確に検出することができる踏切検出装置及び踏切検出方法を提供することを課題とする。   Therefore, the present invention has been proposed in view of the above-described circumstances, and it is an object to provide a crossing detection device and a crossing detection method capable of accurately detecting a crossing even when the contrast is reduced due to sunlight. And

本発明は、所定領域を撮像して画像を出力する撮像部と、撮像された画像から所定の色成分を有する複数の領域を抽出する候補領域抽出部と、抽出された複数の領域から2領域を選択して1つ以上の組み合わせを作成する組み合わせ作成部と、作成された各組み合わせの輝度分布に対する分離度を算出する分離度評価部と、算出された分離度に基づいて対象物が踏切であるか否かを判定する踏切判定部とを有することを特徴とする。   The present invention includes an imaging unit that captures a predetermined region and outputs an image, a candidate region extraction unit that extracts a plurality of regions having a predetermined color component from the captured image, and two regions from the extracted plurality of regions A combination creating unit that creates one or more combinations by selecting the; a separation degree evaluating unit that calculates a separation degree with respect to the luminance distribution of each created combination; and an object at the level crossing based on the calculated separation degree A crossing determination unit that determines whether or not there is a crossing.

本発明によれば、抽出された複数の領域から2領域を選択して1つ以上の組み合わせを作成し、作成された各組み合わせの輝度分布に対する分離度を算出し、算出された分離度に基づいて対象物が踏切であるか否かを判定するので、日照によりコントラストが低下した場合でも、踏切を正確に検出することができる。   According to the present invention, two regions are selected from a plurality of extracted regions to create one or more combinations, the degree of separation for the luminance distribution of each created combination is calculated, and based on the calculated degree of separation Thus, it is determined whether or not the object is a level crossing, so that even when the contrast is reduced due to sunlight, the level crossing can be accurately detected.

本発明の第1実施形態に係る踏切検出装置を搭載した車両の一例を示す図である。It is a figure showing an example of vehicles carrying a railroad crossing detection device concerning a 1st embodiment of the present invention. 本発明の第1実施形態に係る踏切検出装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the crossing detection apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る踏切検出装置の候補領域抽出部による処理手順を示すフローチャートである。It is a flowchart which shows the process sequence by the candidate area | region extraction part of the crossing detection apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る踏切検出装置の分離度評価部と踏切判定部とによる処理手順を示すフローチャートである。It is a flowchart which shows the process sequence by the isolation | separation degree evaluation part and level crossing determination part of the level crossing detection apparatus which concern on 1st Embodiment of this invention. 本発明の第2実施形態に係る踏切検出装置の候補領域抽出部による処理手順を示すフローチャートである。It is a flowchart which shows the process sequence by the candidate area | region extraction part of the crossing detection apparatus which concerns on 2nd Embodiment of this invention.

以下、本発明を適用した第1及び第2の実施形態に係る踏切検出装置及び踏切検出方法について図面を参照して説明する。   Hereinafter, a crossing detection device and a crossing detection method according to first and second embodiments to which the present invention is applied will be described with reference to the drawings.

[第1実施形態]
[踏切検出装置の構成]
図1は本発明の第1実施形態に係る踏切検出装置を搭載した車両の一例を示す図である。図1に示すように、踏切検出装置は、車両1に搭載され、撮像部10と計算機20とを有し、車両前方の踏切の状態を検出する。
[First Embodiment]
[Configuration of level crossing detection device]
FIG. 1 is a view showing an example of a vehicle equipped with a crossing detection device according to a first embodiment of the present invention. As shown in FIG. 1, the crossing detection device is mounted on a vehicle 1 and includes an imaging unit 10 and a computer 20 and detects a state of a crossing in front of the vehicle.

撮像部10は、車両前方の所定領域の状態を撮像して画像を出力するものである。所定領域の状態とは、踏切の警報器が点灯しているか否か、つまり列車が接近しているか否かの状態を示している。   The imaging unit 10 captures the state of a predetermined area in front of the vehicle and outputs an image. The state of the predetermined area indicates whether or not the railroad crossing alarm is turned on, that is, whether or not the train is approaching.

撮像部10は、CMOS(Complementary Metal Oxide Semiconductor)又はCCD(Charge Couple Device)の撮像素子を有し、RGB色空間で表現されるカラー画像(色情報)を取得することができるカラーカメラで構成することができる。また、撮像部10は、例えば、車両1のバックミラーの裏側に取り付けられ、車両1の進行方向を向いて水平に取り付けられている。   The imaging unit 10 includes a CMOS (Complementary Metal Oxide Semiconductor) or CCD (Charge Couple Device) imaging device, and is configured by a color camera that can acquire a color image (color information) expressed in an RGB color space. be able to. Moreover, the imaging part 10 is attached to the back side of the rear-view mirror of the vehicle 1, for example, and is attached horizontally toward the advancing direction of the vehicle 1.

図2は、本発明の第1実施形態に係る踏切検出装置の内部構成を示すブロック図である。図2に示すように、計算機20は、候補領域抽出部21と組み合わせ作成部22と分離度評価部23と踏切判定部24とを有する。具体的には、計算機20は、図示しない中央処理装置(CPU)とメモリとを有し、CPUがメモリに記憶された踏切検出プログラムを実行することで、候補領域抽出部21と組み合わせ作成部22と分離度評価部23と踏切判定部24との各々の処理を実行することができる。   FIG. 2 is a block diagram showing an internal configuration of the crossing detection device according to the first embodiment of the present invention. As illustrated in FIG. 2, the computer 20 includes a candidate area extraction unit 21, a combination creation unit 22, a separation degree evaluation unit 23, and a crossing determination unit 24. Specifically, the computer 20 includes a central processing unit (CPU) (not shown) and a memory, and the candidate area extraction unit 21 and the combination creation unit 22 are executed when the CPU executes a crossing detection program stored in the memory. Each process of the separation degree evaluation unit 23 and the level crossing determination unit 24 can be executed.

図2において、候補領域抽出部21は、撮像部10により撮像された画像から所定の色成分を有する複数の領域を抽出する。組み合わせ作成部22は、候補領域抽出部21により抽出された複数の領域から2領域を選択して選択された2領域の1つ以上の組み合わせを作成する。分離度評価部23は、組み合わせ作成部22により作成された各組み合わせの輝度分布に対する分離度を算出する。踏切判定部24は、分離度評価部23により算出された分離度に基づいて対象物が踏切であるか否かを判定する。   In FIG. 2, the candidate area extraction unit 21 extracts a plurality of areas having a predetermined color component from the image captured by the imaging unit 10. The combination creating unit 22 creates one or more combinations of the selected two regions by selecting two regions from the plurality of regions extracted by the candidate region extracting unit 21. The separation degree evaluation unit 23 calculates the separation degree with respect to the luminance distribution of each combination created by the combination creation unit 22. The level crossing determination unit 24 determines whether the object is a level crossing based on the degree of separation calculated by the degree of separation evaluation unit 23.

[候補領域抽出処理]
次に、図3に示すフローチャートを参照しながら、候補領域抽出部21による候補領域抽出処理の詳細について説明する。
[Candidate area extraction processing]
Next, the details of the candidate area extraction processing by the candidate area extraction unit 21 will be described with reference to the flowchart shown in FIG.

まず、ステップS100において、候補領域抽出部21は、撮像部10から入力されたカラー画像の色空間をRGBからHSV(Hue(色相)、Saturation(彩度)、Value(明度))に変換する。HSV色空間は、明度と色相を分離して表現する色空間であり、明るさの影響を受けずに色を表すことができる。   First, in step S100, the candidate area extraction unit 21 converts the color space of the color image input from the imaging unit 10 from RGB to HSV (Hue (hue), Saturation (saturation), Value (lightness)). The HSV color space is a color space that expresses lightness and hue separately, and can express a color without being affected by brightness.

次に、ステップS101において、候補領域抽出部21は、色相が「赤」に対応する領域をHSV色空間画像から抽出する。ここで、「赤」の条件としては、非特許文献1(梅澤登志矢、江口一彦:夜間動画像からの道路交通信号認識技術の研究、愛知工業大学研究報告 第43号B平成20年)に記載されている信号機の「赤」に相当する値を参考にすることができる。   Next, in step S <b> 101, the candidate area extraction unit 21 extracts an area whose hue corresponds to “red” from the HSV color space image. Here, as a condition of “red”, Non-Patent Document 1 (Toshiya Umezawa, Kazuhiko Eguchi: Research on road traffic signal recognition technology from night video, Aichi Institute of Technology Research Report No. 43B 2008) The value corresponding to the “red” of the traffic light described can be referred to.

非特許文献1によれば、「赤」に対しては、色相Hは0<H≦10となる。ただし、明るさが暗すぎる領域は、点灯色として相応しくないため、S<0.3またはV<120の領域は抽出すべき領域から除外する。なお、色相H、色相S、明度Vの設定値は、実験的に適切に設定されるべきであり、上述した値に限定されるものではない。   According to Non-Patent Document 1, for “red”, the hue H is 0 <H ≦ 10. However, since the area where the brightness is too dark is not suitable as the lighting color, the area of S <0.3 or V <120 is excluded from the areas to be extracted. Note that the set values of the hue H, the hue S, and the lightness V should be appropriately set experimentally, and are not limited to the above-described values.

次に、ステップS102において、候補領域抽出部21は、ラベリング処理によりステップS301で抽出された領域を個別に認識する。具体的には、色部分(又は色がない部分)が連続した画素には同じ番号を割り振る処理を行い、色の領域を個別に識別することができる。   Next, in step S102, the candidate area extraction unit 21 individually recognizes the areas extracted in step S301 by the labeling process. Specifically, a process of assigning the same number to pixels in which color portions (or portions having no color) are continuous can be performed to individually identify color regions.

次に、ステップS103において、候補領域抽出部21は、ステップS102のラベリング処理で検出された各領域の面積を調べ、各領域の面積が所定値未満であるかどうかを判定し、各領域の面積が所定値未満である場合には、その領域を、抽出すべき領域から除外する。   Next, in step S103, the candidate area extraction unit 21 examines the area of each area detected by the labeling process in step S102, determines whether the area of each area is less than a predetermined value, and determines the area of each area. Is less than the predetermined value, the area is excluded from the areas to be extracted.

所定値とは例えば、20m前方の信号機の点灯領域の画像上での面積とする。踏切の手前では車両が必ず一旦停止するため、一旦、車両の停止中に踏切の状態検出を行えば良い。従って、所定値は20mあれば十分であり、必要以上に検出範囲を広げると、抽出すべき領域の誤検出の増加の原因になる。   The predetermined value is, for example, the area on the image of the lighting area of the traffic light 20 meters ahead. Since the vehicle always stops once before the crossing, it is only necessary to detect the state of the crossing once while the vehicle is stopped. Therefore, it is sufficient that the predetermined value is 20 m, and if the detection range is expanded more than necessary, it may cause an increase in false detection of an area to be extracted.

次に、ステップS104において、候補領域抽出部21は、各領域の縦と横の長さの比を求め、その比が0.7<比<1.3に該当する領域のみを抽出する。即ち、領域の形状が判定される。ここで、縦、横の長さは、処理負荷を軽減するためにそれぞれ、領域内でのx座標の最小値と最大値の差、y座標の最小値と最大値の差とする。候補領域抽出部21は、各領域の縦と横の長さの比が0.7<比<1.3である場合に、所定の色成分を有する領域の形状が略円形である候補領域を抽出することができる。   Next, in step S104, the candidate area extraction unit 21 obtains a ratio between the vertical and horizontal lengths of each area, and extracts only areas where the ratio satisfies 0.7 <ratio <1.3. That is, the shape of the region is determined. Here, in order to reduce the processing load, the vertical and horizontal lengths are the difference between the minimum value and the maximum value of the x coordinate and the difference between the minimum value and the maximum value of the y coordinate, respectively. The candidate area extraction unit 21 selects a candidate area having a substantially circular shape having a predetermined color component when the ratio of the vertical and horizontal lengths of each area is 0.7 <ratio <1.3. Can be extracted.

また、候補領域抽出部21は、略円形である領域で、且つその領域の面積が所定値以上である領域を、候補領域として抽出することもできる。   In addition, the candidate area extraction unit 21 can also extract, as a candidate area, an area that is substantially circular and has an area equal to or larger than a predetermined value.

次に、ステップS105において、候補領域抽出部21は、今回の処理で抽出された候補領域をメモリに所定時間記憶する。ステップS106において、候補領域抽出部21は、メモリに所定時間記憶されている候補領域を出力する。また、候補領域抽出部21は、所定時間内に抽出された複数の領域の和集合、即ち複数の領域の論理和を候補領域として設定することもできる。   Next, in step S105, the candidate area extraction unit 21 stores the candidate area extracted in the current process in a memory for a predetermined time. In step S106, the candidate area extraction unit 21 outputs candidate areas stored in the memory for a predetermined time. In addition, the candidate area extraction unit 21 can also set, as a candidate area, a union of a plurality of areas extracted within a predetermined time, that is, a logical sum of a plurality of areas.

組み合わせ作成部22は、候補領域抽出部21から出力された複数の候補領域から関連する2領域を選択して1つの組み合わせてを作成する処理を、複数の候補領域の全ての領域について行い、1つ以上の組み合わせを作成する。ここで、組み合わせ作成部22は、互いに所定距離以下に離れた候補領域同士を組み合わせ対象とし、所定距離を超えて離れた候補領域同士は組み合わせ対象から除外する。   The combination creating unit 22 performs processing for selecting two related regions from the plurality of candidate regions output from the candidate region extracting unit 21 and creating one combination for all of the plurality of candidate regions. Create one or more combinations. Here, the combination creating unit 22 sets candidate areas separated by a predetermined distance or less from each other as a combination target, and excludes candidate areas separated by a predetermined distance from the combination target.

また、組み合わせ作成部22は、略水平もしくは略垂直に並んでいる候補領域同士を組み合わせ対象とし、略水平もしくは略垂直に並んでいない候補領域同士を組み合わせ対象から除外する。2つの領域同士が略水平の位置にあるかどうかは、領域内の例えば中心画素のy座標の座標値が略同じであるかどうかによって決定される。また、2つの領域同士が略垂直の位置にあるかどうかは、領域内の例えば中心画素のx座標の座標値が略同じであるかどうかによって決定される。   In addition, the combination creating unit 22 sets candidate areas that are arranged substantially horizontally or vertically as a combination target, and excludes candidate areas that are not arranged substantially horizontally or substantially vertically from the combination target. Whether or not the two regions are in a substantially horizontal position is determined by whether or not the coordinate values of the y coordinate of, for example, the center pixel in the region are substantially the same. Whether or not the two regions are in a substantially vertical position is determined by whether or not the coordinate values of the x coordinate of the central pixel in the region are substantially the same.

そして、組み合わせ作成部22で組み合わされた2領域は、それぞれ領域R1、領域R2と表記される。   Then, the two regions combined by the combination creating unit 22 are denoted as a region R1 and a region R2, respectively.

[分離度評価処理及び踏切判定処理]
次に、図4のフローチャートを参照しながら、分離度評価部23と踏切判定部24の処理の詳細について説明する。
[Separation degree evaluation process and level crossing determination process]
Next, the details of the processes of the degree-of-separation evaluation unit 23 and the crossing determination unit 24 will be described with reference to the flowchart of FIG.

ステップS200において、分離度評価部23は、組み合わせ作成部22で組み合わされた領域R1と領域R2との同時刻における画像を取得する。以降のステップS201〜S04ではこの同時刻の領域R1と領域R2との画像に対して処理が行なわれる。   In step S200, the degree-of-separation evaluation unit 23 acquires images at the same time in the region R1 and the region R2 combined by the combination creation unit 22. In subsequent steps S201 to S04, processing is performed on the images of the region R1 and the region R2 at the same time.

ステップS201において、分離度評価部23は、領域R1の平均輝度値μ1と領域R2の平均輝度値μ2とを計算する。さらに、ステップS202において、分離度評価部23は、領域R1の輝度の分散σ1と領域R2の輝度の分散σ2とを計算する。   In step S201, the separation degree evaluation unit 23 calculates the average luminance value μ1 of the region R1 and the average luminance value μ2 of the region R2. Further, in step S202, the degree-of-separation evaluation unit 23 calculates the luminance variance σ1 of the region R1 and the luminance variance σ2 of the region R2.

次に、ステップS203において、分離度評価部23は、領域R1の平均輝度値μ1と領域R2の平均輝度値μ2と領域R1の輝度の分散σ1と領域R2の輝度の分散σ2とを用いて、分離度sを算出する。分離度sは、領域R1と領域R2との間の輝度の差と、領域R1及び領域R2の輝度分布の和との比に基づいて算出された値であり、式(1)によって分離度sを算出することができる。   Next, in step S203, the separation degree evaluation unit 23 uses the average luminance value μ1 of the region R1, the average luminance value μ2 of the region R2, the luminance variance σ1 of the region R1, and the luminance variance σ2 of the region R2. The degree of separation s is calculated. The degree of separation s is a value calculated based on the ratio between the luminance difference between the region R1 and the region R2 and the sum of the luminance distributions of the region R1 and the region R2, and the degree of separation s is expressed by Equation (1). Can be calculated.

分離度s=クラス間分散/全分散=σ / σ ‥(1)
ここで、クラス間分散σ 、クラス内分散σ 、全分散σ は、式(2)〜式(4)で表すことができる。
Degree of separation s = inter-class variance / total variance = σ B 2 / σ T 2 (1)
Here, the inter-class variance σ B 2 , the intra-class variance σ W 2 , and the total variance σ T 2 can be expressed by Expressions (2) to (4).

σ =(N×σ1+N×σ2)/(N+N)‥(2)
ただし、Nは領域R1の画素数、Nは領域R2の画素数、σ1は領域R1の輝度の分散、σ2は領域R2の輝度の分散である。
σ W 2 = (N 1 × σ 1 2 + N 2 × σ 2 2 ) / (N 1 + N 2 ) (2)
However, N 1 is the number of pixels in the region R1, N 2 is the number of pixels in the region R2, .sigma.1 2 is the variance of the luminance of the region R1, .sigma. @ 2 2 is the variance of the luminance of the region R2.

σ ={N×(μ1−μ+N×(μ2−μ}/(N+N)‥(3)
ただし、μ1は領域R1の平均輝度値、μ2は領域R2の平均輝度値、μは領域R1と領域R2を合わせた領域の平均輝度値である。
σ B 2 = {N 1 × (μ 1 −μ T ) 2 + N 2 × (μ 2 −μ T ) 2 } / (N 1 + N 2 ) (3)
However, .mu.1 the average luminance value of the region R1, .mu.2 average luminance value of the region R2, the mu T is the mean luminance value of the region of the combined region R1 and the region R2.

σ =σ +σ ‥(4)
分離度評価部23は、式(1)〜(4)に基づいて分離度sを対象画像の各画素について算出する。
σ T 2 = σ B 2 + σ W 2 (4)
The degree-of-separation evaluation unit 23 calculates the degree of separation s for each pixel of the target image based on the equations (1) to (4).

ここで、式(3)に示すように、クラス間分散σ は領域R1と領域R2との間の輝度の差に応じて変化する値であり、各領域R1,R2の平均輝度値μ1,μ2が全画素の平均輝度値μから離れているほど大きな値となる。全分散σ は領域R1と領域R2の輝度分布の和に応じて変化する値であり、各領域R1,R2の分散σ1,σ2が小さくなるほど、即ち、各領域R1,R2の輝度分布が均一になるほど小さな値となる。 Here, as shown in Expression (3), the inter-class variance σ B 2 is a value that changes in accordance with the luminance difference between the region R1 and the region R2, and the average luminance value μ1 of each region R1, R2 , a larger value μ2 is away from the average luminance value mu T of all the pixels. The total variance σ T 2 is a value that changes according to the sum of the luminance distributions of the regions R1 and R2, and the smaller the variances σ1 and σ2 of the regions R1 and R2, that is, the luminance distribution of the regions R1 and R2 is. The smaller the value, the more uniform.

従って、分離度sは領域R1の平均輝度値μ1と領域R2の平均輝度値μ2との間が離れており、且つ両者の分散σ1,σ2が小さいほど、即ち、各領域R1,R2の輝度分布が均一であるほど評価値が大きな値となる。   Accordingly, the degree of separation s is such that the average luminance value μ1 of the region R1 and the average luminance value μ2 of the region R2 are more distant and the variances σ1 and σ2 of the two are smaller, that is, the luminance distribution of each region R1 and R2. The more uniform the value, the larger the evaluation value.

分離度sは、0以上1以下の値となるので、条件に応じて様々な閾値を設定しなくても1つの閾値を設定しておけば、踏切を検出することができる。  Since the degree of separation s is a value between 0 and 1, it is possible to detect a level crossing by setting one threshold without setting various thresholds depending on conditions.

このように第1実施形態に係る踏切検出装置によれば、昼間のように日射量が多い時間帯から朝、夕のように日射量が少ない時間帯に変化したとしても、日射条件の変化に影響を受けることなく、踏切を検出することができる。朝、夕のように日射量が少ない時間帯では、全体的に暗い画像になるために輝度分布は輝度値が低い方向に全体的にシフトする。即ち、平均輝度値μ1、μ2の値は低下するが、μ1とμ2との差は変化しないので、クラス間分散σ は変化しない。また、分散σ1,σ2も多少の変化を伴うだけでほとんど変化しないので、全分散σ についても変化しない。 As described above, according to the railroad crossing detection apparatus according to the first embodiment, even if the solar radiation amount changes from a time zone with a large amount of solar radiation such as daytime to a time zone with a small amount of solar radiation such as morning and evening, the solar radiation condition changes. A railroad crossing can be detected without being affected. In a time zone where the amount of solar radiation is small, such as in the morning and evening, the entire image becomes dark and the luminance distribution is shifted overall in the direction of lower luminance values. That is, the average luminance value .mu.1, the value of μ2 is reduced, but since the difference between .mu.1 and μ2 unchanged, interclass variance sigma B 2 does not change. The dispersibility .sigma.1, since hardly changes only involve some change .sigma. @ 2, does not change the total variance sigma T 2.

従って、分離度sは日射量が変化したとしても同様の値が算出されるので、日射条件の変化にロバストに踏切を検出することができる。  Accordingly, since the same value is calculated as the degree of separation s even if the amount of solar radiation changes, it is possible to detect a crossing robustly against changes in the solar radiation conditions.

次に、ステップS204において、踏切判定部24は、予め設定された閾値θによって、分離度評価部23で算出された分離度sを閾値処理する。踏切判定部24は、分離度sが予め設定された閾値θ以上であるときには、対象領域を踏切と判定し、分離度sが閾値θ未満であるときには、対象領域を踏切と判定しない。   Next, in step S204, the level crossing determination unit 24 performs threshold processing on the degree of separation s calculated by the degree of separation evaluation unit 23 using a preset threshold value θ. The level crossing determination unit 24 determines that the target area is a level crossing when the degree of separation s is equal to or greater than a preset threshold θ, and does not determine the target area as a level crossing when the degree of separation s is less than the threshold θ.

[第1実施形態の効果]
このように、第1実施形態に係る踏切検出装置によれば、抽出された複数の領域から2領域を選択して1つ以上の組み合わせを作成し、作成された各組み合わせの輝度分布に対する分離度を算出し、算出された分離度に基づいて対象物が踏切であるか否かを判定する。即ち、分離度に基づいて踏切の警報器の点灯状態を判定するので、朝、夕のように日射量が少ない時間帯でコントラストが低下した状態になっても、日射条件の変化に影響を受けることなく、踏切の警報器を検出することができる。
[Effect of the first embodiment]
Thus, according to the railroad crossing detection apparatus according to the first embodiment, one region is selected from a plurality of extracted regions to create one or more combinations, and the degree of separation with respect to the luminance distribution of each created combination And whether or not the object is a crossing is determined based on the calculated degree of separation. In other words, since the lighting state of the crossing alarm is determined based on the degree of separation, even if the contrast is lowered in the time when the amount of solar radiation is low, such as in the morning and evening, it is affected by changes in the solar radiation conditions. Without this, it is possible to detect a railroad crossing alarm.

また、踏切の警報器の点灯色に対応する色成分を有する領域、例えば点灯色である「赤」の領域を抽出するので、処理対象を容易に限定することができる。   In addition, since a region having a color component corresponding to the lighting color of the railroad crossing alarm device, for example, a “red” region that is the lighting color, is extracted, the processing target can be easily limited.

また、所定時間以内に抽出された複数の領域の和集合を候補領域とするので、交互に(排他的に)点灯する踏切の警報器の現在の点灯/消灯にかかわらず、警報器の領域を抽出することができる。   In addition, since the union of a plurality of areas extracted within a predetermined time is set as a candidate area, the alarm area can be set regardless of the current on / off status of the crossing alarm that is alternately (exclusively) lit. Can be extracted.

また、所定の色成分を有する領域の形状が略円形で且つその領域の面積が所定値以上である領域を候補領域として抽出するので、候補領域の誤検出を低減することができる。   In addition, since a region having a predetermined color component having a substantially circular shape and an area of the region having a predetermined area or more is extracted as a candidate region, erroneous detection of the candidate region can be reduced.

また、所定距離以下に位置される候補領域同士のみを組み合わせるので、候補領域の誤検出を低減でき、しかも処理コストを低減することができる。   In addition, since only candidate areas located within a predetermined distance are combined, erroneous detection of candidate areas can be reduced, and the processing cost can be reduced.

また、交互に点灯する警報器同士は、略水平又は略垂直に設置されることから略水平又は略垂直に位置する領域を候補領域として検出することで、候補領域が限定されるので、候補領域の誤検出を低減することができる。   In addition, since the alarm devices that are alternately lit are installed approximately horizontally or approximately vertically, the candidate regions are limited by detecting regions that are positioned approximately horizontally or approximately vertically as candidate regions. False detection can be reduced.

また、領域の組み合わせの同時刻の輝度分布に対する分離度を算出するので、同時刻に組み合わせされた2つの候補領域の一方の領域が消灯し、他方の領域が点灯している状態を検出できることから、交互に点灯する警報器を正確に判定することができる。   In addition, since the degree of separation of the combination of regions with respect to the luminance distribution at the same time is calculated, it is possible to detect a state where one of the two candidate regions combined at the same time is turned off and the other region is turned on. Therefore, it is possible to accurately determine the alarm devices that are alternately turned on.

[第2実施形態]
[第2実施形態の構成]
第2実施形態に係る踏切検出装置は、踏切の手前で車両を一旦停止させない状況で用いられる例を示している。この第2実施形態に係る踏切検出装置は、踏切の手前で車両を一旦停止させない米国などの国に対応したものである。
[Second Embodiment]
[Configuration of Second Embodiment]
The crossing detection device according to the second embodiment shows an example used in a situation where the vehicle is not temporarily stopped before the crossing. The crossing detection device according to the second embodiment corresponds to a country such as the United States where the vehicle is not temporarily stopped before the crossing.

なお、第2実施形態に係る踏切検出装置の大部分は第1の実施形態に係る踏切検出装置と共通しているため、ここでは、両者の相違する構成のみを説明する。   In addition, since most of the crossing detection apparatus according to the second embodiment is common to the crossing detection apparatus according to the first embodiment, only the configuration different from both will be described here.

[候補領域抽出処理]
図5は本発明の第2実施形態に係る踏切検出装置の候補領域抽出部による処理手順を示すフローチャートである。図5に示す第2実施形態に係る踏切検出装置のフローチャートは、図3に示す第1実施形態に係る踏切検出装置のフローチャートに対して、ステップS305の処理のみが異なる。ステップS300〜S304、S306は、ステップS100〜S104、S106の処理と同じであるので、その説明は省略する。ここでは、ステップS305の処理のみを説明する。
[Candidate area extraction processing]
FIG. 5 is a flowchart showing a processing procedure by the candidate area extraction unit of the level crossing detection apparatus according to the second embodiment of the present invention. The flowchart of the level crossing detection apparatus according to the second embodiment shown in FIG. 5 differs from the flowchart of the level crossing detection apparatus according to the first embodiment shown in FIG. 3 only in the process of step S305. Steps S300 to S304 and S306 are the same as the processes of steps S100 to S104 and S106, and thus description thereof is omitted. Here, only the process of step S305 will be described.

ステップS305では、候補領域抽出部21は、前回撮像された画像から抽出された候補領域と、現在撮像された画像から抽出された候補領域との対応付けを行う。   In step S305, the candidate area extraction unit 21 associates the candidate area extracted from the previously captured image with the candidate area extracted from the currently captured image.

[第2実施形態の効果]
第2実施形態に係る踏切検出装置によれば、前回の候補領域と現在の候補領域とが対応付けされている候補領域抽出部21を備えているので、車両が移動することによって、画像上での踏切の警報器の位置が変化した場合でも、候補領域の誤検出を低減することができる。
[Effects of Second Embodiment]
According to the railroad crossing detection apparatus according to the second embodiment, since the candidate area extraction unit 21 in which the previous candidate area and the current candidate area are associated with each other is provided, when the vehicle moves, Even when the position of the alarm at the level crossing changes, it is possible to reduce erroneous detection of candidate areas.

なお、候補領域の対応付けは、領域の位置と形状と大きさが最も近い領域を選択することによって行なわれる。次に、候補領域抽出部21は、対応付けられた領域を所定時間記憶する。   The candidate areas are associated by selecting an area having the closest position, shape, and size of the area. Next, the candidate area extraction unit 21 stores the associated area for a predetermined time.

10 撮像部
20 計算機
21 候補領域抽出部
22 組み合わせ作成部
23 分離度評価部
24 踏切判定部
DESCRIPTION OF SYMBOLS 10 Imaging part 20 Computer 21 Candidate area extraction part 22 Combination preparation part 23 Separation degree evaluation part 24 Crossing determination part

Claims (9)

所定領域を撮像して画像を出力する撮像手段と、
前記撮像手段により撮像された画像から所定の色成分を有する複数の領域を抽出する候補領域抽出手段と、
前記候補領域抽出手段により抽出された複数の領域から2領域を選択して1つ以上の組み合わせを作成する組み合わせ作成手段と、
前記組み合わせ作成手段により作成された各組み合わせの輝度分布に対する分離度を算出する分離度評価手段と、
前記分離度評価手段により算出された分離度に基づいて対象物が踏切であるか否かを判定する踏切判定手段と、
を有することを特徴とする踏切検出装置。
Imaging means for imaging a predetermined area and outputting an image;
Candidate area extraction means for extracting a plurality of areas having a predetermined color component from the image captured by the imaging means;
A combination creating unit that creates two or more combinations by selecting two regions from the plurality of regions extracted by the candidate region extracting unit;
A degree of separation evaluation means for calculating a degree of separation for the luminance distribution of each combination created by the combination creation means;
A crossing determination means for determining whether the object is a crossing based on the degree of separation calculated by the degree of separation evaluation means;
A crossing detection device characterized by comprising:
前記候補領域抽出手段は、踏切の警報器の点灯色に対応する前記所定の色成分を有する領域を抽出することを特徴とする請求項1記載の踏切検出装置。   2. The crossing detection device according to claim 1, wherein the candidate area extraction unit extracts a region having the predetermined color component corresponding to a lighting color of a crossing alarm device. 前記候補領域抽出手段は、所定時間以内に抽出された領域の和集合を候補領域として抽出することを特徴とする請求項1又は請求項2記載の踏切検出装置。   The crossing detection device according to claim 1 or 2, wherein the candidate area extraction unit extracts a union of areas extracted within a predetermined time as a candidate area. 前記候補領域抽出手段は、前記所定の色成分を有する領域の形状が略円形で且つ前記所定の色成分を有する領域の面積が所定値以上である領域を候補領域として抽出することを特徴とする請求項1乃至請求項3のいずれか1項記載の踏切検出装置。   The candidate area extracting means extracts, as a candidate area, an area in which the shape of the area having the predetermined color component is substantially circular and the area of the area having the predetermined color component is equal to or greater than a predetermined value. The crossing detection device according to any one of claims 1 to 3. 前記組み合わせ作成手段は、所定距離以下に位置される候補領域同士のみを組み合わせることを特徴とする請求項1乃至請求項4のいずれか1項記載の踏切検出装置。   The crossing detection device according to any one of claims 1 to 4, wherein the combination creating unit combines only candidate regions located within a predetermined distance. 前記組み合わせ作成手段は、略水平又は略垂直に並んでいる候補領域同士を組み合わせることを特徴とする請求項1乃至請求項5のいずれか1項記載の踏切検出装置。   The crossing detection device according to any one of claims 1 to 5, wherein the combination creating unit combines candidate regions arranged substantially horizontally or vertically. 前記分離度評価手段は、前記組み合わせ作成手段により作成された1つ以上の組み合わせの同時刻の輝度分布に対する分離度を算出することを特徴とする請求項1乃至請求項6のいずれか1項記載の踏切検出装置。   The said isolation | separation degree evaluation means calculates the isolation | separation degree with respect to the luminance distribution of the same time of the 1 or more combination produced by the said combination production | generation means, The any one of Claim 1 thru | or 6 characterized by the above-mentioned. Railroad crossing detection device. 前記候補領域抽出手段は、前回撮像された画像から抽出された候補領域と、現在撮像された画像から抽出された候補領域との対応付けを行う特徴とする請求項1乃至請求項7のいずれか1項記載の踏切検出装置。   The candidate area extraction unit associates a candidate area extracted from a previously captured image with a candidate area extracted from a currently captured image. A crossing detection device according to item 1. 撮像手段により所定領域を撮像して画像を出力する撮像ステップと、
撮像された画像から所定の色成分を有する複数の領域を抽出する候補領域抽出ステップと、
抽出された複数の領域から2領域を選択して1つ以上の組み合わせを作成する組み合わせ作成ステップと、
作成された各組み合わせの輝度分布に対する分離度を算出する分離度評価ステップと、
算出された分離度に基づいて対象物が踏切であるか否かを判定する踏切判定ステップと、
を有することを特徴とする踏切検出方法。
An imaging step of imaging a predetermined area by an imaging means and outputting an image;
A candidate region extraction step of extracting a plurality of regions having a predetermined color component from the captured image;
A combination creating step of creating one or more combinations by selecting two regions from the plurality of extracted regions;
A degree-of-separation evaluation step for calculating a degree of separation for the luminance distribution of each created combination;
A crossing determination step for determining whether the object is a crossing based on the calculated degree of separation;
A crossing detection method characterized by comprising:
JP2012100881A 2012-04-26 2012-04-26 Railroad crossing detecting device and method for detecting railroad crossing Pending JP2013228914A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012100881A JP2013228914A (en) 2012-04-26 2012-04-26 Railroad crossing detecting device and method for detecting railroad crossing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012100881A JP2013228914A (en) 2012-04-26 2012-04-26 Railroad crossing detecting device and method for detecting railroad crossing

Publications (1)

Publication Number Publication Date
JP2013228914A true JP2013228914A (en) 2013-11-07

Family

ID=49676468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012100881A Pending JP2013228914A (en) 2012-04-26 2012-04-26 Railroad crossing detecting device and method for detecting railroad crossing

Country Status (1)

Country Link
JP (1) JP2013228914A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015097018A (en) * 2013-11-15 2015-05-21 富士重工業株式会社 Arrow signal light detection device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015097018A (en) * 2013-11-15 2015-05-21 富士重工業株式会社 Arrow signal light detection device

Similar Documents

Publication Publication Date Title
JP2019053619A (en) Signal identification device, signal identification method, and driving support system
EP2927060B1 (en) On-vehicle image processing device
JP5846872B2 (en) Image processing device
US20150278578A1 (en) Object Detection Device and Object Detection Method
US9807320B2 (en) Operation input device, operation input method, and computer-readable recording medium
CN104954664A (en) Image processing apparatus and image processing method
JP4839183B2 (en) Image processing device
JP5760090B2 (en) Biological recognition device
US20130077825A1 (en) Image processing apparatus
JP2013242686A (en) Traffic signal detection device and traffic signal detection method
JP2014049918A (en) In-vehicle imaging device
JP2006318059A (en) Apparatus, method, and program for image processing
JP6561511B2 (en) Parallax value deriving device, moving body, robot, parallax value production deriving method, parallax value producing method and program
JP6375911B2 (en) Curve mirror detector
JP2007139564A (en) Obstacle detection system, obstacle detection method and computer program
US9330318B2 (en) Object detection apparatus and storage medium
JP3995671B2 (en) Image processing device
JP2008165595A (en) Obstacle detection method, obstacle detection device, and obstacle detection system
JP2005285011A (en) Human recognition system and image processing apparatus
WO2014002413A1 (en) Preceding vehicle detection device, preceding vehicle detection method, and preceding vehicle detection program recording medium
US9514545B2 (en) Object detection apparatus and storage medium
US9245184B2 (en) Object detection apparatus and storage medium
KR20140062334A (en) Apparatus and method for obstacle detection
JP2013228914A (en) Railroad crossing detecting device and method for detecting railroad crossing
JP6825299B2 (en) Information processing equipment, information processing methods and programs