JP2007018340A - Obstacle detection apparatus - Google Patents

Obstacle detection apparatus Download PDF

Info

Publication number
JP2007018340A
JP2007018340A JP2005200211A JP2005200211A JP2007018340A JP 2007018340 A JP2007018340 A JP 2007018340A JP 2005200211 A JP2005200211 A JP 2005200211A JP 2005200211 A JP2005200211 A JP 2005200211A JP 2007018340 A JP2007018340 A JP 2007018340A
Authority
JP
Japan
Prior art keywords
image
area
pixels
information
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005200211A
Other languages
Japanese (ja)
Inventor
Taro Watanabe
太郎 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2005200211A priority Critical patent/JP2007018340A/en
Publication of JP2007018340A publication Critical patent/JP2007018340A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an obstacle detection apparatus which will not erroneously determine a vehicle far off as a stopped obstacle, without the need for preparing a background image in advance, in which vehicle or the like is not included, and without the need for information on the object area for updating the background image. <P>SOLUTION: The obstacle detection apparatus is provided with a mask processing means 102 for masking image area, other than the desired object area; an extraction means 106 for extracting a signal of a predetermined frequency component from a masked image signal; a binarization means 107 for binarizing the pixels of an image, based on the output level of the extracted signal and a predetermined threshold; a set area generation means 108 for generating a set area of pixels from the binarized pixels; an information calculation means 109 for calculating predetermined information on the generated set area for each set area; an association means 110 for associating between the set areas, based on the predetermined information on the set area of pixels of an image at the present time and predetermined information on the set area of pixels of an image, before the present time; and a determination means 111 for determining the presence/absence of an obstacle, based on the associating information. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、道路上に存在する障害物を検出する障害物検出装置に関する。   The present invention relates to an obstacle detection device that detects an obstacle present on a road.

従来から道路上に存在する障害物を検出する技術がある。その技術は、カメラから得られた画像とあらかじめ撮影しておいた背景画像との差分画像を2値化して背景画像に対する変化領域を求め、さらに差分画像のエッジ成分を検出してエッジ成分の多い変化領域を物体領域とするものである。そして、障害物の検出は、入力された画像と同サイズのカウントバッファを用いて、物体領域であるときは+1、そうでないときは0とし、カウント数が所定の閾値を超えた領域を障害物として検出している。また、背景画像の更新では、物体領域においては現在の背景画像を保持し、それ以外の領域においては順次更新を行っている。このような技術が下記の特許文献1に開示されている。
特開2001−43383号公報(段落0017〜0037、図1)
Conventionally, there is a technique for detecting an obstacle present on a road. The technique binarizes a difference image between an image obtained from a camera and a background image taken in advance to obtain a change region with respect to the background image, and further detects an edge component of the difference image to increase the number of edge components. The change area is the object area. Obstacles are detected using a count buffer of the same size as the input image. If the object area is an object area, +1 is set. If not, 0 is set, and an area where the count exceeds a predetermined threshold is set as an obstacle. Detect as. In updating the background image, the current background image is held in the object area, and the update is sequentially performed in other areas. Such a technique is disclosed in Patent Document 1 below.
JP 2001-43383 A (paragraphs 0017 to 0037, FIG. 1)

しかしながら、特許文献1に開示された技術では、あらかじめ車両などが走行していないときを見計らって背景画像を撮影することが必要であった。また、背景画像の更新には物体領域以外かどうかの情報を必要とするが、いったん物体領域を誤検出した場合、背景画像が間違って更新され、その背景画像から物体領域がさらに間違って検出されるといった問題があった。さらに、遠方にある車両を止まっている障害物と誤判断する問題があった。   However, in the technique disclosed in Patent Document 1, it is necessary to capture a background image in advance when the vehicle or the like is not traveling. In addition, updating the background image requires information on whether it is outside the object area, but once the object area is detected incorrectly, the background image is updated incorrectly, and the object area is detected further incorrectly from the background image. There was a problem. In addition, there is a problem of misjudging a distant vehicle as an obstacle that has stopped.

本発明は、上記問題を解決するためのものであり、あらかじめ車両などが写っていない背景画像を用意する必要がなく、かつ物体領域の情報を背景画像の更新に必要とせず、遠方にある車両などを止まっている障害物と誤判断しない単純でロバストな障害物検出装置を提供することを目的とする。   The present invention is for solving the above-described problem, and it is not necessary to prepare a background image in which a vehicle or the like is not captured in advance, and information on the object region is not required for updating the background image, and the vehicle is far away. It is an object of the present invention to provide a simple and robust obstacle detection device that does not erroneously determine that an obstacle has stopped.

上記目的を達成するために、本発明によれば、撮像装置により所定の監視領域を含んで撮影された画像における、所望の対象領域以外の画像領域をマスクするマスク処理手段と、マスクされた前記画像を表す画像信号から所定の周波数成分の信号を抽出する抽出手段と、抽出された前記信号の出力レベルと所定の閾値とに基づいて、前記画像を構成する画素を2値化する2値化手段と、2値化された前記画素のうち、2値のいずれか一方である所定の値が付された複数の画素が隣接して存在する場合に、前記所定の値が付された画素と前記所定の値が付された画素に隣接する他の画素とを含めた画素の集合領域を生成する集合領域生成手段と、生成された前記画素の集合領域に関する所定の情報を前記画素の集合領域ごとに算出する情報算出手段と、現時点の画像における画素の集合領域に関する所定の情報と、前記現時点より前の画像における画素の集合領域に関する所定の情報とに基づいて、画素の集合領域間の対応付けを行う対応付け手段と、前記画素の集合領域の対応付けの情報に基づいて障害物が存在するか否かを判断する判断手段とを備える障害物検出装置が提供される。   In order to achieve the above object, according to the present invention, a mask processing means for masking an image region other than a desired target region in an image captured by an imaging device including a predetermined monitoring region, and the masked Extraction means for extracting a signal of a predetermined frequency component from an image signal representing an image, and binarization for binarizing pixels constituting the image based on the output level of the extracted signal and a predetermined threshold value And a pixel having the predetermined value when a plurality of pixels having a predetermined value which is one of the two values are adjacent to each other among the binarized pixels, Collective region generation means for generating a collective region of pixels including other pixels adjacent to the pixel to which the predetermined value is assigned, and predetermined information relating to the generated collective region of the pixels Information calculation for each An association means for associating the pixel collection areas based on the stage, the predetermined information on the pixel collection areas in the current image, and the predetermined information on the pixel collection areas in the image before the current time And an obstacle detection device that determines whether or not an obstacle exists based on information on association of the pixel collection areas.

本発明の障害物検出装置は、上記構成を有し、あらかじめ車両などが写っていない背景画像を用意する必要がなく、かつ物体領域の情報を背景画像の更新に必要とせず、遠方にある車両などを止まっている障害物と誤判断しないで障害物を検出することができる。   The obstacle detection device according to the present invention has the above-described configuration, and it is not necessary to prepare a background image in which the vehicle or the like is not captured in advance, and the object region information is not required for updating the background image, and the vehicle is far away. An obstacle can be detected without misjudging it as an obstacle that has stopped.

以下、本発明の実施の形態について図1から図9を用いて説明する。図1は本発明の実施の形態に係る障害物検出装置の構成を示す構成図である。図2は本発明の実施の形態に係る障害物検出装置におけるマスク処理部によるマスクの仕方について説明するための図である。図3は本発明の実施の形態に係る障害物検出装置における巡回型LPFからの出力の差分の周波数特性の一例を示す図である。図4は本発明の実施の形態に係る障害物検出装置における水平線上を動く点の速度と角速度との関係を説明するための図である。図5は本発明の実施の形態に係る障害物検出装置における時定数の算出過程を説明するための図である。図6は本発明の実施の形態に係る障害物検出装置における時定数をy座標値によって変化させたときの巡回型LPFの出力の差分の周波数特性の一例を示す図である。図7は本発明の実施の形態に係る障害物検出装置における2値化部の処理内容を説明するための図である。図8は本発明の実施の形態に係る障害物検出装置におけるラベリング部により求められる各領域の重心の座標、面積、その領域を含む矩形領域の頂点の座標について説明するための図である。図9は本発明の実施の形態に係る障害物検出装置における検出フローについて説明するためのフローチャートである。   Hereinafter, embodiments of the present invention will be described with reference to FIGS. FIG. 1 is a configuration diagram showing a configuration of an obstacle detection apparatus according to an embodiment of the present invention. FIG. 2 is a diagram for explaining how to mask by the mask processing unit in the obstacle detection apparatus according to the embodiment of the present invention. FIG. 3 is a diagram illustrating an example of frequency characteristics of a difference between outputs from the cyclic LPF in the obstacle detection apparatus according to the embodiment of the present invention. FIG. 4 is a diagram for explaining the relationship between the velocity of the point moving on the horizon and the angular velocity in the obstacle detection apparatus according to the embodiment of the present invention. FIG. 5 is a diagram for explaining a process of calculating a time constant in the obstacle detection apparatus according to the embodiment of the present invention. FIG. 6 is a diagram showing an example of the frequency characteristic of the difference between the outputs of the cyclic LPF when the time constant is changed by the y coordinate value in the obstacle detection apparatus according to the embodiment of the present invention. FIG. 7 is a diagram for explaining the processing contents of the binarization unit in the obstacle detection apparatus according to the embodiment of the present invention. FIG. 8 is a diagram for explaining the coordinates and area of the center of gravity of each region obtained by the labeling unit in the obstacle detection device according to the embodiment of the present invention, and the coordinates of the vertex of the rectangular region including the region. FIG. 9 is a flowchart for explaining a detection flow in the obstacle detection apparatus according to the embodiment of the present invention.

まず、本発明の実施の形態に係る障害物検出装置の構成について図1を用いて説明する。図1に示すように、障害物検出装置100は、A/D変換器101、マスク処理部102、巡回型LPF(Low Path Filter:低域通過フィルタ)103a、103b、道路情報記録部104、時定数計算部105、加算器106、2値化部107、孤立点除去部108、ラベリング部109、対応付け部110、障害物判断部111、領域情報記録部112から構成されている。A/D変換器101は、所定の監視領域を撮影する撮像装置113によって撮影された画像をデジタル信号に変換するものである。ここで、撮像装置113は、道路上を走行する車両などが撮影できるように、例えば障害物検出装置100を搭載した車両などに設置されている。なお、本発明の実施の形態では、撮像装置113は障害物検出装置100と独立した構成となっているが、障害物検出装置100に撮像装置113を組み込んだ構成としてもよい。   First, the configuration of the obstacle detection apparatus according to the embodiment of the present invention will be described with reference to FIG. As shown in FIG. 1, the obstacle detection apparatus 100 includes an A / D converter 101, a mask processing unit 102, cyclic LPFs (Low Path Filters) 103a and 103b, a road information recording unit 104, a time A constant calculation unit 105, an adder 106, a binarization unit 107, an isolated point removal unit 108, a labeling unit 109, an association unit 110, an obstacle determination unit 111, and an area information recording unit 112 are configured. The A / D converter 101 converts an image captured by the imaging device 113 that captures a predetermined monitoring area into a digital signal. Here, the imaging device 113 is installed in, for example, a vehicle on which the obstacle detection device 100 is mounted so that a vehicle traveling on a road can be photographed. In the embodiment of the present invention, the imaging device 113 has a configuration independent of the obstacle detection device 100. However, the imaging device 113 may be incorporated in the obstacle detection device 100.

マスク処理部102は、A/D変換器101によってデジタル信号に変換された画像の画像領域のうち、所望の画像領域である道路上以外に存在する物体を誤検出しないように、そして計算処理量の削減のために、道路領域以外又は道路とその近傍を合わせた領域以外をマスク(隠蔽)するものである。具体的にはマスク処理部102は、道路情報記録部104に記録されている道路の境界線情報に基づいて道路領域以外又は道路とその近傍を合わせた領域以外をマスクする。ここで、更にマスク処理部102によるマスクの仕方について図2を用いて説明する。道路情報記録部104には、画像中における道路の位置情報が記録されている。位置情報としては、例えば図2に示すように道路の境界線を表す式の係数(h0、θ0、h1、θ1)や境界線が1点で交わる消失点の座標(xd、yd)などがある。 The mask processing unit 102 does not erroneously detect an object other than the desired image region on the road among the image regions of the image converted into digital signals by the A / D converter 101, and the amount of calculation processing In order to reduce this, the area other than the road area or the area other than the road and its vicinity is masked (hidden). Specifically, the mask processing unit 102 masks a region other than the road region or a region other than the region in which the road and the vicinity thereof are combined based on the road boundary information recorded in the road information recording unit 104. Here, a masking method by the mask processing unit 102 will be further described with reference to FIG. The road information recording unit 104 records road position information in the image. As the position information, for example, as shown in FIG. 2, the coefficients (h 0 , θ 0 , h 1 , θ 1 ) of the equation representing the road boundary line and the coordinates of the vanishing point (x d , y d ).

図2は原点を画像の左下とし、水平方向をX軸、垂直方向をY軸としている。また、境界線は、原点から境界線へ下ろした垂線とY軸とが成す角度によって表されているが、y=ax+bの形で表すこともできる。そして、マスクをする場合に、境界線を挟んだどちら側をマスクするかについて以下に示す。今、道路の境界線を下記の式(1)のように表すものとする。そして、例えば係数h0に符号(例えば、マイナス)を付加して、hi>0のとき原点を含む側をマスクし、hi<0のとき原点を含まない側をマスクするようにあらかじめ決めておく。 In FIG. 2, the origin is the lower left of the image, the horizontal direction is the X axis, and the vertical direction is the Y axis. In addition, the boundary line is represented by an angle formed by a perpendicular line extending from the origin to the boundary line and the Y axis, but can also be represented by the form y = ax + b. In the case of masking, the following shows which side of the boundary line is masked. Now, it is assumed that the road boundary line is expressed by the following equation (1). For example, a sign (for example, minus) is added to the coefficient h 0 , and the side including the origin is masked when h i > 0, and the side not including the origin is masked when h i <0. Keep it.

Figure 2007018340
Figure 2007018340

このように決めておくことにより、道路領域以外の領域をマスクすることができる。なお、上述した道路の位置情報は、初期設定時にユーザなどが上述した係数を直接入力するようにしてもよい。この場合、例えば撮像装置113を設置後、実際に道路が写っている画像を見ながら係数を入力し、境界線を設定する。また、ハフ変換などの画像処理技術を用いて道路の境界線を自動的に検出して道路情報記録部104に記録する方法も考えられる。この場合、常に検出する必要はなく、撮像装置113の設置時及び撮像装置113がパン・チルトなどして撮像エリアが変化したときに行えばよい。   By determining in this way, areas other than the road area can be masked. The above-described road position information may be directly input by the user or the like at the time of initial setting. In this case, for example, after the imaging device 113 is installed, a coefficient is input while viewing an image in which a road is actually reflected, and a boundary line is set. A method of automatically detecting a road boundary line using an image processing technique such as a Hough transform and recording it in the road information recording unit 104 is also conceivable. In this case, it is not always necessary to detect, and it may be performed when the imaging device 113 is installed or when the imaging area changes due to panning or tilting of the imaging device 113.

巡回型LPF103a、103bは、カットオフ周波数の異なる時間軸方向のLPFであり、加算器106による差分はある周波数成分のみが通過するバンドパスフィルタとなる。カットオフ周波数は、時定数計算部105で計算された時定数に基づいて決められている。このカットオフ周波数は、例えば巡回型LPF103aより巡回型LPF103bの方が低く設定されている。時定数の算出については後述する。巡回型LPF103a、103bは下記の式(2)で表される。yn、yn-1はそれぞれ現在のフレーム、1フレーム前のLPFの出力信号であり、xnは現在のフレームの入力信号であり、aは時定数で周波数特性を決定するものである。 The cyclic LPFs 103a and 103b are LPFs in the time axis direction having different cut-off frequencies, and are bandpass filters through which only a certain frequency component passes through the difference by the adder 106. The cut-off frequency is determined based on the time constant calculated by the time constant calculation unit 105. This cutoff frequency is set lower in the cyclic LPF 103b than in the cyclic LPF 103a, for example. The calculation of the time constant will be described later. The cyclic LPFs 103a and 103b are represented by the following formula (2). y n and y n−1 are output signals of the LPF of the current frame and the previous frame, x n is an input signal of the current frame, and a is a frequency characteristic determined by a time constant.

Figure 2007018340
Figure 2007018340

ここで、巡回型LPF103a、103bの時定数をそれぞれ0.001、0.002とし、画像が毎秒10フレームのスピードで更新される場合の差分の周波数特性を図3に示す。図3に示すグラフは下記の式(3)に基づいて導出される。なお、式(3)において、a、bは時定数であり、例えばa=0.001、b=0.002である。また、fは入力画像のフレームレートをf0[フレーム/秒]とするとf=周波数/f0である。 Here, FIG. 3 shows the frequency characteristics of the difference when the time constants of the cyclic LPFs 103a and 103b are 0.001 and 0.002, respectively, and the image is updated at a speed of 10 frames per second. The graph shown in FIG. 3 is derived based on the following equation (3). In Equation (3), a and b are time constants, for example, a = 0.001 and b = 0.002. Further, f is f = frequency / f 0 where the frame rate of the input image is f 0 [frame / second].

Figure 2007018340
Figure 2007018340

ここで、上述した時定数の算出について説明する。時定数計算部105は、道路情報記録部104に記録された道路情報に基づいてLPFの時定数を求める。時定数を求めるのは、同じ速度で移動している物体でも、遠方にあるときと近くにあるときでは画像中の移動の大きさが異なることに対応するためである。すなわち、道路の遠方が写っている画像中の領域では画像中の動きが小さくなるので時定数は小さく設定し、近くにあるときには大きく時定数を設定する。なお、上述した時定数a=0.001、b=0.002のように、画像中どこでも一定であると設定することも可能である。すなわち、時定数の設定には可変型と固定型の2通りの設定の仕方がある。ここで、可変型の場合の時定数の計算方法を上述した図2を用いて説明する。道路情報記録部104より道路の消失点のy座標をもとに、時定数a0をy座標の1次関数として下記の式(4)で表す。b0、c0は任意の定数である。 Here, the calculation of the time constant described above will be described. The time constant calculation unit 105 obtains the LPF time constant based on the road information recorded in the road information recording unit 104. The time constant is obtained because an object moving at the same speed corresponds to a difference in the amount of movement in the image when the object is far away and when it is close. That is, since the movement in the image is small in an area in which an image of a distant road is shown, the time constant is set small, and when it is close, the time constant is set large. It is also possible to set the constant constant everywhere in the image, such as the time constant a = 0.001 and b = 0.002. In other words, there are two ways of setting the time constant, variable type and fixed type. Here, a method for calculating the time constant in the case of the variable type will be described with reference to FIG. Based on the y-coordinate of the vanishing point of the road from the road information recording unit 104, the time constant a 0 is expressed by the following equation (4) as a linear function of the y-coordinate. b 0 and c 0 are arbitrary constants.

Figure 2007018340
Figure 2007018340

また、図4に示すように、水平線上を速度dx/dtで動く点の角速度dα/dtはcosαに比例する(下記の式(5)参照)ので、時定数を下記の式(6)のように表すこともできる。b0、c0は任意の定数である。 Also, as shown in FIG. 4, since the angular velocity dα / dt at the point moving on the horizontal line at the velocity dx / dt is proportional to cosα (see the following equation (5)), the time constant is expressed by the following equation (6). It can also be expressed as: b 0 and c 0 are arbitrary constants.

Figure 2007018340
Figure 2007018340

Figure 2007018340
Figure 2007018340

ここで、式(6)の導出過程について図5を用いて説明する。図5は撮像装置113によって撮影する際の光軸を含む、地面に対する垂直面で切った断面図である。撮像面と焦点との距離をRとすると、w×pv=R×tanβとなる(pvは垂直方向の画素ピッチである)。σを焦点と座標yの点を結ぶ直線と光軸との成す角とすると、tanσ=(yc−y)×pv/Rとなる。したがって、α=π/2−γ−σとなる。a0=b0cosα+c0から式(6)が導出される。図5より、ycは撮像面と光軸が交わる点のy座標の値であり、βは画角の半分の値であり、γは光軸と水平面との間の角度であり、wは撮像面の画素数の半分の値である。なお、差分の周波数特性のy座標の変化におけるグラフを図6に示す。 Here, the derivation process of Expression (6) will be described with reference to FIG. FIG. 5 is a cross-sectional view taken along a plane perpendicular to the ground, including the optical axis at the time of photographing with the imaging device 113. When the distance between the imaging surface and the focal point is R, w × p v = R × tan β (p v is the pixel pitch in the vertical direction). If σ is the angle formed by the straight line connecting the focal point and the point of coordinate y and the optical axis, tan σ = (y c −y) × p v / R. Therefore, α = π / 2−γ−σ. Equation (6) is derived from a 0 = b 0 cos α + c 0 . From FIG. 5, y c is the value of the y coordinate at the point where the imaging surface and the optical axis intersect, β is a half value of the angle of view, γ is the angle between the optical axis and the horizontal plane, and w is This is half the number of pixels on the imaging surface. In addition, the graph in the change of the y coordinate of the frequency characteristic of a difference is shown in FIG.

2値化部107は、巡回型LPF103a、103bからそれぞれ出力される出力信号の加算器106による差分出力の絶対値の出力レベルがあらかじめ設定された閾値以上となる領域に対応する画素を1とし、それ以外を0とするように2値化する。なお、画素を0か1にする際の基準となる閾値は、例えば障害物が発生した実際の画像をあらかじめ見て、障害物が適切に検出できるように決められる。図7から分かるように、あらかじめ設定された閾値以上となる領域を取り出せば、結果的に非常にゆっくりとした時間変化の生じた領域を取り出すことができる。すなわち、今まである程度の速さで移動していた自動車や人間が、停止してしまった(正確には速さが非常に小さくなった)という状態の変化が生じた領域を取り出すことができる。これにより、自動車や人間などのある程度の速度で移動する物体と、自動車などから落下した落下物や監視中に新たに停止した自動車などとを識別することが可能となる。   The binarization unit 107 sets 1 as a pixel corresponding to a region where the output level of the absolute value of the differential output by the adder 106 of the output signals output from the cyclic LPFs 103a and 103b is equal to or greater than a preset threshold, It binarizes so that it may become 0 other than that. Note that the threshold value serving as a reference when setting the pixel to 0 or 1 is determined so that, for example, an actual image in which an obstacle has occurred can be viewed in advance so that the obstacle can be detected appropriately. As can be seen from FIG. 7, if an area that is equal to or greater than a preset threshold value is extracted, it is possible to extract an area in which a very slow time change has occurred. That is, it is possible to take out a region where a state change has occurred in which a car or a person who has been moving at a certain speed until now has stopped (exactly, the speed has become very small). This makes it possible to distinguish between an object that moves at a certain speed, such as a car or a person, and a fallen object that has fallen from the car or a car that has been stopped during monitoring.

孤立点除去部108は、2値化部107によって2値化された画像内の孤立点となっている画素を除去するものである。具体的には、値1の画素があるとき、その画素の周囲の8近傍に値1の画素が1個も無い場合にその画素を孤立点とみなしてその値を0とする。ラベリング部109は、孤立点除去部108によって孤立している画素が除去された後に、値が1である領域(画素の集まり)ごとにID番号を割り当てるものである。また、ラベリング部109は、各領域の重心の座標、面積、その領域を含む矩形領域の頂点の座標を求めて、これらの情報を領域情報記録部112に送信する。また、場合によっては、領域の支配的な色の情報、テクスチャの情報、輪郭に関する情報などの属性に関する情報を検出して領域情報記録部112に送信することも考えられる。   The isolated point removing unit 108 removes pixels that are isolated points in the image binarized by the binarizing unit 107. Specifically, when there is a pixel with a value of 1 and there are no pixels with a value of 1 in the vicinity of 8 around the pixel, the pixel is regarded as an isolated point and its value is set to 0. The labeling unit 109 assigns an ID number to each region (collection of pixels) having a value of 1 after the isolated pixels are removed by the isolated point removing unit 108. Further, the labeling unit 109 obtains the coordinates of the center of gravity of each region, the area, and the coordinates of the vertex of the rectangular region including the region, and transmits these information to the region information recording unit 112. In some cases, it is also conceivable to detect information related to attributes such as dominant color information, texture information, and contour information, and transmit the information to the region information recording unit 112.

ここで、各領域の重心の座標、面積、その領域を含む矩形領域の頂点の座標について図8を用いて説明する。図8に示すように、検出された領域を領域Rとし、その領域Rを囲む矩形を矩形Kとする。このとき、領域Rの面積は領域Rに含まれる画素数Nとする。矩形Kの各頂点の座標は、x0=min(x|(x、y)∈R)、x1=max(x|(x、y)∈R)、y0=min(y|(x、y)∈R)、y1=max(y|(x、y)∈R)とすると、(x0、y0)、(x1、y0)、(x0、y1)、(x1、y1)の4点で表すことができる。また、重心の座標(xc、yc)は、下記の式(7)で表すことができる。なお、上述した領域の支配的な色の情報とは、例えば領域R内の色のヒストグラムをとって、最も出現頻度の高い色の情報を言う。また、輪郭に関する情報とは、例えば領域Rの周囲長の情報を言う。 Here, the coordinates and area of the center of gravity of each area, and the coordinates of the vertex of the rectangular area including the area will be described with reference to FIG. As shown in FIG. 8, the detected region is a region R, and a rectangle surrounding the region R is a rectangle K. At this time, the area of the region R is the number N of pixels included in the region R. The coordinates of each vertex of the rectangle K are x 0 = min (x | (x, y) ∈R), x 1 = max (x | (x, y) ∈R), y 0 = min (y | (x , Y) ∈R), y 1 = max (y | (x, y) ∈R), (x 0 , y 0 ), (x 1 , y 0 ), (x 0 , y 1 ), ( x 1 , y 1 ). Further, the coordinates (x c , y c ) of the center of gravity can be expressed by the following formula (7). Note that the above-described dominant color information of the region refers to information on the color with the highest appearance frequency, for example, by taking a color histogram in the region R. Moreover, the information regarding the outline refers to information on the perimeter of the region R, for example.

Figure 2007018340
Figure 2007018340

対応付け部110は、現在のフレームの領域に関する情報と1フレーム前の領域に関する情報とから領域間の対応付けを行い、現在のフレームでの領域が新たに発生した領域であるか、又は前から存在する領域で、何フレーム間存在しているかを求めるものである。対応付け部110による上述した処理は、領域の重心の座標に基づいて、フレーム間で重心が近傍にある領域を対応する領域とみなすことにより行うことができる。また、領域の色相や輪郭情報などから領域間の相関を求めて対応付けする方法も考えられる。   The associating unit 110 associates the areas from the information related to the area of the current frame and the information related to the area one frame before, and whether the area in the current frame is a newly generated area or from the front This is to determine how many frames exist in the existing area. The above-described processing by the associating unit 110 can be performed based on the coordinates of the center of gravity of the region, by regarding the region where the center of gravity is near between the frames as the corresponding region. In addition, a method for obtaining correlation between regions from the hue of the region, outline information, and the like and associating them can be considered.

ここで、フレーム間で重心が近傍にあるというための基準の一例について説明する。今、n番目のフレームの重心の座標を(xn、yn)とすると、任意の定数a、bを用いて、{(x、y)||x−xn|<a and |y−yn|<b}を満たす領域を(xn、yn)の近傍とする。また、領域を含む矩形領域の横、縦の1辺の長さをwn、hnとすると、a、bは、任意のdを用いてa=d×wn、b=d×hnと設定することも可能である。 Here, an example of a reference for the center of gravity being in the vicinity between frames will be described. Now, if the coordinates of the center of gravity of the nth frame are (x n , y n ), {(x, y) || x−x n | <a and | y− using arbitrary constants a and b. Let the region satisfying y n | <b} be the neighborhood of (x n , y n ). Also, assuming that the length of one side in the horizontal and vertical sides of the rectangular area including the area is w n and h n , a and b are arbitrary d and a = d × w n and b = d × h n It is also possible to set.

障害物判断部111は、対応付け部110の処理結果に基づいて、あらかじめ設定されたフレーム数の間以上存在する領域がある場合に障害物が発生したと判断するものである。領域情報記録部112は、上述したラベリング部109によって求められた各領域の重心の座標、面積、その領域を含む矩形領域の頂点の座標の情報を記録するものである。   The obstacle determination unit 111 determines that an obstacle has occurred based on the processing result of the association unit 110 when there is an area that exists for a preset number of frames. The region information recording unit 112 records information on the coordinates and area of the center of gravity of each region obtained by the labeling unit 109 described above, and the coordinates of the vertex of a rectangular region including the region.

次に、本発明の実施の形態に係る障害物検出装置における検出フローについて図9を用いて説明する。まず、A/D変換器101が、所定の監視領域を撮影する撮像装置113によって撮影された画像の画像信号をデジタル信号に変換する(ステップS901)。次に、マスク処理部102が、撮像装置113によって撮影された画像の画像領域のうち、道路領域以外又は道路とその近傍を合わせた領域以外をマスクする(ステップS902)。次に、巡回型LPF103a、103bが、それぞれ設定されたカットオフ周波数に基づいて、入力された、マスク処理された信号を処理して信号を出力する(ステップS903)。次に、加算器106が巡回型LPF103a、103bから出力された信号の差分を取る(ステップS904)。   Next, a detection flow in the obstacle detection apparatus according to the embodiment of the present invention will be described with reference to FIG. First, the A / D converter 101 converts an image signal of an image captured by the imaging device 113 that captures a predetermined monitoring area into a digital signal (step S901). Next, the mask processing unit 102 masks areas other than the road area or an area obtained by combining the road and the vicinity thereof among the image areas of the image captured by the imaging device 113 (step S902). Next, the cyclic LPFs 103a and 103b process the input mask-processed signals based on the set cutoff frequencies and output the signals (step S903). Next, the adder 106 calculates the difference between the signals output from the cyclic LPFs 103a and 103b (step S904).

次に、2値化部107が、加算器106による差分出力の出力レベルがあらかじめ設定された閾値以上となる領域に対応する画素を1とし、それ以外を0として2値化する(ステップS905)。次に、孤立点除去部108が、2値化部107によって2値化された画像内の孤立点となっている画素を除去する(ステップS906)。次に、ラベリング部109が、値が1である領域(画素の集まり)ごとにID番号を割り当てて、各領域の重心の座標、面積、その領域を含む矩形領域の頂点の座標を求めて、これらの情報を領域情報記録部112に送信する(ステップS907)。次に、対応付け部110が、現在のフレームの領域に関する情報と1フレーム前の領域に関する情報とから領域間の対応付けを行う(ステップS908)。次に、障害物判断部111が、対応付け部110の処理結果に基づいて、あらかじめ設定されたフレーム数の間以上存在する領域がある場合に障害物が発生したと判断する(ステップS909)。   Next, the binarization unit 107 binarizes the pixel corresponding to the region where the output level of the difference output by the adder 106 is equal to or greater than a preset threshold value to 1 and sets the others to 0 (step S905). . Next, the isolated point removing unit 108 removes pixels that are isolated points in the image binarized by the binarizing unit 107 (step S906). Next, the labeling unit 109 assigns an ID number to each region (collection of pixels) having a value of 1, obtains the coordinates of the center of gravity of each region, the area, and the coordinates of the vertex of the rectangular region including the region, These pieces of information are transmitted to the area information recording unit 112 (step S907). Next, the associating unit 110 associates the areas from the information regarding the area of the current frame and the information regarding the area one frame before (step S908). Next, the obstacle determination unit 111 determines that an obstacle has occurred based on the processing result of the association unit 110 when there is an area that exists for a preset number of frames (step S909).

本発明に係る障害物検出装置は、あらかじめ車両などが写っていない背景画像を用意する必要がなく、かつ物体領域の情報を背景画像の更新に必要とせず、遠方にある車両などを止まっている障害物と誤判断しないため、道路上に存在する障害物を検出する障害物検出装置などに有用である。   The obstacle detection device according to the present invention does not need to prepare a background image in which a vehicle or the like is not captured in advance, and does not require information on the object area to update the background image, and stops a vehicle or the like in the distance. Since it is not erroneously determined as an obstacle, it is useful for an obstacle detection device that detects an obstacle present on a road.

本発明の実施の形態に係る障害物検出装置の構成を示す構成図である。It is a block diagram which shows the structure of the obstruction detection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る障害物検出装置におけるマスク処理部によるマスクの仕方について説明するための図である。It is a figure for demonstrating how to mask by the mask process part in the obstruction detection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る障害物検出装置における巡回型LPFからの出力の差分の周波数特性の一例を示す図である。It is a figure which shows an example of the frequency characteristic of the difference of the output from the cyclic | annular LPF in the obstruction detection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る障害物検出装置における水平線上を動く点の速度と角速度との関係を説明するための図である。It is a figure for demonstrating the relationship between the speed and the angular velocity of the point which moves on the horizontal line in the obstruction detection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る障害物検出装置における時定数の算出過程を説明するための図である。It is a figure for demonstrating the calculation process of the time constant in the obstruction detection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る障害物検出装置における時定数をy座標値によって変化させたときの巡回型LPFの出力の差分の周波数特性の一例を示す図である。It is a figure which shows an example of the frequency characteristic of the difference of the output of cyclic LPF when the time constant in the obstacle detection apparatus which concerns on embodiment of this invention is changed by y coordinate value. 本発明の実施の形態に係る障害物検出装置における2値化部の処理内容を説明するための図である。It is a figure for demonstrating the processing content of the binarization part in the obstruction detection apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る障害物検出装置におけるラベリング部により求められる各領域の重心の座標、面積、その領域を含む矩形領域の頂点の座標について説明するための図である。It is a figure for demonstrating the coordinate of the gravity center of each area | region calculated | required by the labeling part in the obstruction detection apparatus which concerns on embodiment of this invention, an area, and the coordinate of the vertex of the rectangular area containing the area | region. 本発明の実施の形態に係る障害物検出装置における検出フローについて説明するためのフローチャートである。It is a flowchart for demonstrating the detection flow in the obstruction detection apparatus which concerns on embodiment of this invention.

符号の説明Explanation of symbols

100 障害物検出装置
101 A/D変換器
102 マスク処理部(マスク処理手段)
103a、103b 巡回型LPF
104 道路情報記録部
105 時定数計算部
106 加算器(抽出手段)
107 2値化部(2値化手段)
108 孤立点除去部(集合領域生成手段)
109 ラベリング部(情報算出手段)
110 対応付け部(対応付け手段)
111 障害物判断部(判断手段)
112 領域情報記録部
113 撮像装置
DESCRIPTION OF SYMBOLS 100 Obstacle detection apparatus 101 A / D converter 102 Mask processing part (mask processing means)
103a, 103b Cyclic LPF
104 Road information recording unit 105 Time constant calculation unit 106 Adder (extraction means)
107 Binarization unit (binarization means)
108 Isolated point removal unit (collection area generation means)
109 Labeling part (information calculation means)
110 Association part (association means)
111 Obstacle determination unit (determination means)
112 Region information recording unit 113 Imaging device

Claims (1)

撮像装置により所定の監視領域を含んで撮影された画像における、所望の対象領域以外の画像領域をマスクするマスク処理手段と、
マスクされた前記画像を表す画像信号から所定の周波数成分の信号を抽出する抽出手段と、
抽出された前記信号の出力レベルと所定の閾値とに基づいて、前記画像を構成する画素を2値化する2値化手段と、
2値化された前記画素のうち、2値のいずれか一方である所定の値が付された複数の画素が隣接して存在する場合に、前記所定の値が付された画素と前記所定の値が付された画素に隣接する他の画素とを含めた画素の集合領域を生成する集合領域生成手段と、
生成された前記画素の集合領域に関する所定の情報を前記画素の集合領域ごとに算出する情報算出手段と、
現時点の画像における画素の集合領域に関する所定の情報と、前記現時点より前の画像における画素の集合領域に関する所定の情報とに基づいて、画素の集合領域間の対応付けを行う対応付け手段と、
前記画素の集合領域の対応付けの情報に基づいて障害物が存在するか否かを判断する判断手段とを、
備える障害物検出装置。
Mask processing means for masking an image area other than a desired target area in an image captured by the imaging device including a predetermined monitoring area;
Extraction means for extracting a signal of a predetermined frequency component from the image signal representing the masked image;
Binarization means for binarizing pixels constituting the image based on the output level of the extracted signal and a predetermined threshold;
Among the binarized pixels, when a plurality of pixels with a predetermined value that is one of the two values exist adjacent to each other, the pixel with the predetermined value and the predetermined value A set area generation means for generating a set area of pixels including other pixels adjacent to the pixel to which the value is attached;
Information calculating means for calculating, for each pixel collection region, predetermined information relating to the generated pixel collection region;
Association means for associating the pixel collection areas based on the predetermined information on the pixel collection areas in the current image and the predetermined information on the pixel collection areas in the image before the current time;
Judging means for judging whether or not an obstacle exists based on the information of the association of the pixel collection area;
An obstacle detection device provided.
JP2005200211A 2005-07-08 2005-07-08 Obstacle detection apparatus Pending JP2007018340A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005200211A JP2007018340A (en) 2005-07-08 2005-07-08 Obstacle detection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005200211A JP2007018340A (en) 2005-07-08 2005-07-08 Obstacle detection apparatus

Publications (1)

Publication Number Publication Date
JP2007018340A true JP2007018340A (en) 2007-01-25

Family

ID=37755453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005200211A Pending JP2007018340A (en) 2005-07-08 2005-07-08 Obstacle detection apparatus

Country Status (1)

Country Link
JP (1) JP2007018340A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011054036A (en) * 2009-09-03 2011-03-17 Fujitsu Ltd Apparatus, program and method for processing image

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10289393A (en) * 1997-04-15 1998-10-27 Fujitsu Ltd Event detecting device for monitoring road
JP2000105835A (en) * 1998-07-28 2000-04-11 Hitachi Denshi Ltd Object recognizing method and object tracking and monitoring device
JP2001043383A (en) * 1999-07-29 2001-02-16 Oki Electric Ind Co Ltd Image monitoring system
JP2004032460A (en) * 2002-06-27 2004-01-29 Toshiba Corp Image processing apparatus and method therefor
JP2004348303A (en) * 2003-05-21 2004-12-09 Fujitsu Ltd Object detection system and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10289393A (en) * 1997-04-15 1998-10-27 Fujitsu Ltd Event detecting device for monitoring road
JP2000105835A (en) * 1998-07-28 2000-04-11 Hitachi Denshi Ltd Object recognizing method and object tracking and monitoring device
JP2001043383A (en) * 1999-07-29 2001-02-16 Oki Electric Ind Co Ltd Image monitoring system
JP2004032460A (en) * 2002-06-27 2004-01-29 Toshiba Corp Image processing apparatus and method therefor
JP2004348303A (en) * 2003-05-21 2004-12-09 Fujitsu Ltd Object detection system and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011054036A (en) * 2009-09-03 2011-03-17 Fujitsu Ltd Apparatus, program and method for processing image

Similar Documents

Publication Publication Date Title
JP4822766B2 (en) Road marking recognition device and system
US8498444B2 (en) Blob representation in video processing
JP2006268097A (en) On-vehicle object detecting device, and object detecting method
CN109997148B (en) Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and computer-readable recording medium
JP6054777B2 (en) Stereo camera device
US20100110193A1 (en) Lane recognition device, vehicle, lane recognition method, and lane recognition program
JP2015201183A (en) Context-aware object detection in aerial photographs/videos using travel path metadata
JP2006180479A (en) Apparatus and method for distinguishing between camera movement and object movement and extracting object in video monitoring system
KR20060057005A (en) Device for detecting road traveling lane
JP6592991B2 (en) Object detection apparatus, object detection method, and program
WO2014002692A1 (en) Stereo camera
JPH11351862A (en) Foregoing vehicle detecting method and equipment
JP2011170750A (en) White line recognition device
JP2007133007A (en) Road surface imaging device and road marking measuring device
JP2008004989A (en) Vehicle perimeter display apparatus
JP2003076987A (en) Preceding vehicle recognizing device
JP2008269218A (en) Image processor, image processing method, and image processing program
KR20160126254A (en) System for detecting road area
JP2008112349A (en) Moving object detection device
JP5709255B2 (en) Image processing method and monitoring apparatus
JP2007018340A (en) Obstacle detection apparatus
JP2014182637A (en) Image processor, image processing method and image processing program
JP5903901B2 (en) Vehicle position calculation device
JP2013196029A (en) Device, method, and program for interpolating traffic line of moving object
JP2006160140A (en) Target detecting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100827

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100831

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101224