JP2007018340A - Obstacle detection apparatus - Google Patents
Obstacle detection apparatus Download PDFInfo
- Publication number
- JP2007018340A JP2007018340A JP2005200211A JP2005200211A JP2007018340A JP 2007018340 A JP2007018340 A JP 2007018340A JP 2005200211 A JP2005200211 A JP 2005200211A JP 2005200211 A JP2005200211 A JP 2005200211A JP 2007018340 A JP2007018340 A JP 2007018340A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- pixels
- information
- predetermined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、道路上に存在する障害物を検出する障害物検出装置に関する。 The present invention relates to an obstacle detection device that detects an obstacle present on a road.
従来から道路上に存在する障害物を検出する技術がある。その技術は、カメラから得られた画像とあらかじめ撮影しておいた背景画像との差分画像を2値化して背景画像に対する変化領域を求め、さらに差分画像のエッジ成分を検出してエッジ成分の多い変化領域を物体領域とするものである。そして、障害物の検出は、入力された画像と同サイズのカウントバッファを用いて、物体領域であるときは+1、そうでないときは0とし、カウント数が所定の閾値を超えた領域を障害物として検出している。また、背景画像の更新では、物体領域においては現在の背景画像を保持し、それ以外の領域においては順次更新を行っている。このような技術が下記の特許文献1に開示されている。
しかしながら、特許文献1に開示された技術では、あらかじめ車両などが走行していないときを見計らって背景画像を撮影することが必要であった。また、背景画像の更新には物体領域以外かどうかの情報を必要とするが、いったん物体領域を誤検出した場合、背景画像が間違って更新され、その背景画像から物体領域がさらに間違って検出されるといった問題があった。さらに、遠方にある車両を止まっている障害物と誤判断する問題があった。 However, in the technique disclosed in Patent Document 1, it is necessary to capture a background image in advance when the vehicle or the like is not traveling. In addition, updating the background image requires information on whether it is outside the object area, but once the object area is detected incorrectly, the background image is updated incorrectly, and the object area is detected further incorrectly from the background image. There was a problem. In addition, there is a problem of misjudging a distant vehicle as an obstacle that has stopped.
本発明は、上記問題を解決するためのものであり、あらかじめ車両などが写っていない背景画像を用意する必要がなく、かつ物体領域の情報を背景画像の更新に必要とせず、遠方にある車両などを止まっている障害物と誤判断しない単純でロバストな障害物検出装置を提供することを目的とする。 The present invention is for solving the above-described problem, and it is not necessary to prepare a background image in which a vehicle or the like is not captured in advance, and information on the object region is not required for updating the background image, and the vehicle is far away. It is an object of the present invention to provide a simple and robust obstacle detection device that does not erroneously determine that an obstacle has stopped.
上記目的を達成するために、本発明によれば、撮像装置により所定の監視領域を含んで撮影された画像における、所望の対象領域以外の画像領域をマスクするマスク処理手段と、マスクされた前記画像を表す画像信号から所定の周波数成分の信号を抽出する抽出手段と、抽出された前記信号の出力レベルと所定の閾値とに基づいて、前記画像を構成する画素を2値化する2値化手段と、2値化された前記画素のうち、2値のいずれか一方である所定の値が付された複数の画素が隣接して存在する場合に、前記所定の値が付された画素と前記所定の値が付された画素に隣接する他の画素とを含めた画素の集合領域を生成する集合領域生成手段と、生成された前記画素の集合領域に関する所定の情報を前記画素の集合領域ごとに算出する情報算出手段と、現時点の画像における画素の集合領域に関する所定の情報と、前記現時点より前の画像における画素の集合領域に関する所定の情報とに基づいて、画素の集合領域間の対応付けを行う対応付け手段と、前記画素の集合領域の対応付けの情報に基づいて障害物が存在するか否かを判断する判断手段とを備える障害物検出装置が提供される。 In order to achieve the above object, according to the present invention, a mask processing means for masking an image region other than a desired target region in an image captured by an imaging device including a predetermined monitoring region, and the masked Extraction means for extracting a signal of a predetermined frequency component from an image signal representing an image, and binarization for binarizing pixels constituting the image based on the output level of the extracted signal and a predetermined threshold value And a pixel having the predetermined value when a plurality of pixels having a predetermined value which is one of the two values are adjacent to each other among the binarized pixels, Collective region generation means for generating a collective region of pixels including other pixels adjacent to the pixel to which the predetermined value is assigned, and predetermined information relating to the generated collective region of the pixels Information calculation for each An association means for associating the pixel collection areas based on the stage, the predetermined information on the pixel collection areas in the current image, and the predetermined information on the pixel collection areas in the image before the current time And an obstacle detection device that determines whether or not an obstacle exists based on information on association of the pixel collection areas.
本発明の障害物検出装置は、上記構成を有し、あらかじめ車両などが写っていない背景画像を用意する必要がなく、かつ物体領域の情報を背景画像の更新に必要とせず、遠方にある車両などを止まっている障害物と誤判断しないで障害物を検出することができる。 The obstacle detection device according to the present invention has the above-described configuration, and it is not necessary to prepare a background image in which the vehicle or the like is not captured in advance, and the object region information is not required for updating the background image, and the vehicle is far away. An obstacle can be detected without misjudging it as an obstacle that has stopped.
以下、本発明の実施の形態について図1から図9を用いて説明する。図1は本発明の実施の形態に係る障害物検出装置の構成を示す構成図である。図2は本発明の実施の形態に係る障害物検出装置におけるマスク処理部によるマスクの仕方について説明するための図である。図3は本発明の実施の形態に係る障害物検出装置における巡回型LPFからの出力の差分の周波数特性の一例を示す図である。図4は本発明の実施の形態に係る障害物検出装置における水平線上を動く点の速度と角速度との関係を説明するための図である。図5は本発明の実施の形態に係る障害物検出装置における時定数の算出過程を説明するための図である。図6は本発明の実施の形態に係る障害物検出装置における時定数をy座標値によって変化させたときの巡回型LPFの出力の差分の周波数特性の一例を示す図である。図7は本発明の実施の形態に係る障害物検出装置における2値化部の処理内容を説明するための図である。図8は本発明の実施の形態に係る障害物検出装置におけるラベリング部により求められる各領域の重心の座標、面積、その領域を含む矩形領域の頂点の座標について説明するための図である。図9は本発明の実施の形態に係る障害物検出装置における検出フローについて説明するためのフローチャートである。 Hereinafter, embodiments of the present invention will be described with reference to FIGS. FIG. 1 is a configuration diagram showing a configuration of an obstacle detection apparatus according to an embodiment of the present invention. FIG. 2 is a diagram for explaining how to mask by the mask processing unit in the obstacle detection apparatus according to the embodiment of the present invention. FIG. 3 is a diagram illustrating an example of frequency characteristics of a difference between outputs from the cyclic LPF in the obstacle detection apparatus according to the embodiment of the present invention. FIG. 4 is a diagram for explaining the relationship between the velocity of the point moving on the horizon and the angular velocity in the obstacle detection apparatus according to the embodiment of the present invention. FIG. 5 is a diagram for explaining a process of calculating a time constant in the obstacle detection apparatus according to the embodiment of the present invention. FIG. 6 is a diagram showing an example of the frequency characteristic of the difference between the outputs of the cyclic LPF when the time constant is changed by the y coordinate value in the obstacle detection apparatus according to the embodiment of the present invention. FIG. 7 is a diagram for explaining the processing contents of the binarization unit in the obstacle detection apparatus according to the embodiment of the present invention. FIG. 8 is a diagram for explaining the coordinates and area of the center of gravity of each region obtained by the labeling unit in the obstacle detection device according to the embodiment of the present invention, and the coordinates of the vertex of the rectangular region including the region. FIG. 9 is a flowchart for explaining a detection flow in the obstacle detection apparatus according to the embodiment of the present invention.
まず、本発明の実施の形態に係る障害物検出装置の構成について図1を用いて説明する。図1に示すように、障害物検出装置100は、A/D変換器101、マスク処理部102、巡回型LPF(Low Path Filter:低域通過フィルタ)103a、103b、道路情報記録部104、時定数計算部105、加算器106、2値化部107、孤立点除去部108、ラベリング部109、対応付け部110、障害物判断部111、領域情報記録部112から構成されている。A/D変換器101は、所定の監視領域を撮影する撮像装置113によって撮影された画像をデジタル信号に変換するものである。ここで、撮像装置113は、道路上を走行する車両などが撮影できるように、例えば障害物検出装置100を搭載した車両などに設置されている。なお、本発明の実施の形態では、撮像装置113は障害物検出装置100と独立した構成となっているが、障害物検出装置100に撮像装置113を組み込んだ構成としてもよい。
First, the configuration of the obstacle detection apparatus according to the embodiment of the present invention will be described with reference to FIG. As shown in FIG. 1, the obstacle detection apparatus 100 includes an A /
マスク処理部102は、A/D変換器101によってデジタル信号に変換された画像の画像領域のうち、所望の画像領域である道路上以外に存在する物体を誤検出しないように、そして計算処理量の削減のために、道路領域以外又は道路とその近傍を合わせた領域以外をマスク(隠蔽)するものである。具体的にはマスク処理部102は、道路情報記録部104に記録されている道路の境界線情報に基づいて道路領域以外又は道路とその近傍を合わせた領域以外をマスクする。ここで、更にマスク処理部102によるマスクの仕方について図2を用いて説明する。道路情報記録部104には、画像中における道路の位置情報が記録されている。位置情報としては、例えば図2に示すように道路の境界線を表す式の係数(h0、θ0、h1、θ1)や境界線が1点で交わる消失点の座標(xd、yd)などがある。
The
図2は原点を画像の左下とし、水平方向をX軸、垂直方向をY軸としている。また、境界線は、原点から境界線へ下ろした垂線とY軸とが成す角度によって表されているが、y=ax+bの形で表すこともできる。そして、マスクをする場合に、境界線を挟んだどちら側をマスクするかについて以下に示す。今、道路の境界線を下記の式(1)のように表すものとする。そして、例えば係数h0に符号(例えば、マイナス)を付加して、hi>0のとき原点を含む側をマスクし、hi<0のとき原点を含まない側をマスクするようにあらかじめ決めておく。 In FIG. 2, the origin is the lower left of the image, the horizontal direction is the X axis, and the vertical direction is the Y axis. In addition, the boundary line is represented by an angle formed by a perpendicular line extending from the origin to the boundary line and the Y axis, but can also be represented by the form y = ax + b. In the case of masking, the following shows which side of the boundary line is masked. Now, it is assumed that the road boundary line is expressed by the following equation (1). For example, a sign (for example, minus) is added to the coefficient h 0 , and the side including the origin is masked when h i > 0, and the side not including the origin is masked when h i <0. Keep it.
このように決めておくことにより、道路領域以外の領域をマスクすることができる。なお、上述した道路の位置情報は、初期設定時にユーザなどが上述した係数を直接入力するようにしてもよい。この場合、例えば撮像装置113を設置後、実際に道路が写っている画像を見ながら係数を入力し、境界線を設定する。また、ハフ変換などの画像処理技術を用いて道路の境界線を自動的に検出して道路情報記録部104に記録する方法も考えられる。この場合、常に検出する必要はなく、撮像装置113の設置時及び撮像装置113がパン・チルトなどして撮像エリアが変化したときに行えばよい。
By determining in this way, areas other than the road area can be masked. The above-described road position information may be directly input by the user or the like at the time of initial setting. In this case, for example, after the
巡回型LPF103a、103bは、カットオフ周波数の異なる時間軸方向のLPFであり、加算器106による差分はある周波数成分のみが通過するバンドパスフィルタとなる。カットオフ周波数は、時定数計算部105で計算された時定数に基づいて決められている。このカットオフ周波数は、例えば巡回型LPF103aより巡回型LPF103bの方が低く設定されている。時定数の算出については後述する。巡回型LPF103a、103bは下記の式(2)で表される。yn、yn-1はそれぞれ現在のフレーム、1フレーム前のLPFの出力信号であり、xnは現在のフレームの入力信号であり、aは時定数で周波数特性を決定するものである。
The
ここで、巡回型LPF103a、103bの時定数をそれぞれ0.001、0.002とし、画像が毎秒10フレームのスピードで更新される場合の差分の周波数特性を図3に示す。図3に示すグラフは下記の式(3)に基づいて導出される。なお、式(3)において、a、bは時定数であり、例えばa=0.001、b=0.002である。また、fは入力画像のフレームレートをf0[フレーム/秒]とするとf=周波数/f0である。
Here, FIG. 3 shows the frequency characteristics of the difference when the time constants of the
ここで、上述した時定数の算出について説明する。時定数計算部105は、道路情報記録部104に記録された道路情報に基づいてLPFの時定数を求める。時定数を求めるのは、同じ速度で移動している物体でも、遠方にあるときと近くにあるときでは画像中の移動の大きさが異なることに対応するためである。すなわち、道路の遠方が写っている画像中の領域では画像中の動きが小さくなるので時定数は小さく設定し、近くにあるときには大きく時定数を設定する。なお、上述した時定数a=0.001、b=0.002のように、画像中どこでも一定であると設定することも可能である。すなわち、時定数の設定には可変型と固定型の2通りの設定の仕方がある。ここで、可変型の場合の時定数の計算方法を上述した図2を用いて説明する。道路情報記録部104より道路の消失点のy座標をもとに、時定数a0をy座標の1次関数として下記の式(4)で表す。b0、c0は任意の定数である。
Here, the calculation of the time constant described above will be described. The time
また、図4に示すように、水平線上を速度dx/dtで動く点の角速度dα/dtはcosαに比例する(下記の式(5)参照)ので、時定数を下記の式(6)のように表すこともできる。b0、c0は任意の定数である。 Also, as shown in FIG. 4, since the angular velocity dα / dt at the point moving on the horizontal line at the velocity dx / dt is proportional to cosα (see the following equation (5)), the time constant is expressed by the following equation (6). It can also be expressed as: b 0 and c 0 are arbitrary constants.
ここで、式(6)の導出過程について図5を用いて説明する。図5は撮像装置113によって撮影する際の光軸を含む、地面に対する垂直面で切った断面図である。撮像面と焦点との距離をRとすると、w×pv=R×tanβとなる(pvは垂直方向の画素ピッチである)。σを焦点と座標yの点を結ぶ直線と光軸との成す角とすると、tanσ=(yc−y)×pv/Rとなる。したがって、α=π/2−γ−σとなる。a0=b0cosα+c0から式(6)が導出される。図5より、ycは撮像面と光軸が交わる点のy座標の値であり、βは画角の半分の値であり、γは光軸と水平面との間の角度であり、wは撮像面の画素数の半分の値である。なお、差分の周波数特性のy座標の変化におけるグラフを図6に示す。
Here, the derivation process of Expression (6) will be described with reference to FIG. FIG. 5 is a cross-sectional view taken along a plane perpendicular to the ground, including the optical axis at the time of photographing with the
2値化部107は、巡回型LPF103a、103bからそれぞれ出力される出力信号の加算器106による差分出力の絶対値の出力レベルがあらかじめ設定された閾値以上となる領域に対応する画素を1とし、それ以外を0とするように2値化する。なお、画素を0か1にする際の基準となる閾値は、例えば障害物が発生した実際の画像をあらかじめ見て、障害物が適切に検出できるように決められる。図7から分かるように、あらかじめ設定された閾値以上となる領域を取り出せば、結果的に非常にゆっくりとした時間変化の生じた領域を取り出すことができる。すなわち、今まである程度の速さで移動していた自動車や人間が、停止してしまった(正確には速さが非常に小さくなった)という状態の変化が生じた領域を取り出すことができる。これにより、自動車や人間などのある程度の速度で移動する物体と、自動車などから落下した落下物や監視中に新たに停止した自動車などとを識別することが可能となる。
The
孤立点除去部108は、2値化部107によって2値化された画像内の孤立点となっている画素を除去するものである。具体的には、値1の画素があるとき、その画素の周囲の8近傍に値1の画素が1個も無い場合にその画素を孤立点とみなしてその値を0とする。ラベリング部109は、孤立点除去部108によって孤立している画素が除去された後に、値が1である領域(画素の集まり)ごとにID番号を割り当てるものである。また、ラベリング部109は、各領域の重心の座標、面積、その領域を含む矩形領域の頂点の座標を求めて、これらの情報を領域情報記録部112に送信する。また、場合によっては、領域の支配的な色の情報、テクスチャの情報、輪郭に関する情報などの属性に関する情報を検出して領域情報記録部112に送信することも考えられる。
The isolated
ここで、各領域の重心の座標、面積、その領域を含む矩形領域の頂点の座標について図8を用いて説明する。図8に示すように、検出された領域を領域Rとし、その領域Rを囲む矩形を矩形Kとする。このとき、領域Rの面積は領域Rに含まれる画素数Nとする。矩形Kの各頂点の座標は、x0=min(x|(x、y)∈R)、x1=max(x|(x、y)∈R)、y0=min(y|(x、y)∈R)、y1=max(y|(x、y)∈R)とすると、(x0、y0)、(x1、y0)、(x0、y1)、(x1、y1)の4点で表すことができる。また、重心の座標(xc、yc)は、下記の式(7)で表すことができる。なお、上述した領域の支配的な色の情報とは、例えば領域R内の色のヒストグラムをとって、最も出現頻度の高い色の情報を言う。また、輪郭に関する情報とは、例えば領域Rの周囲長の情報を言う。 Here, the coordinates and area of the center of gravity of each area, and the coordinates of the vertex of the rectangular area including the area will be described with reference to FIG. As shown in FIG. 8, the detected region is a region R, and a rectangle surrounding the region R is a rectangle K. At this time, the area of the region R is the number N of pixels included in the region R. The coordinates of each vertex of the rectangle K are x 0 = min (x | (x, y) ∈R), x 1 = max (x | (x, y) ∈R), y 0 = min (y | (x , Y) ∈R), y 1 = max (y | (x, y) ∈R), (x 0 , y 0 ), (x 1 , y 0 ), (x 0 , y 1 ), ( x 1 , y 1 ). Further, the coordinates (x c , y c ) of the center of gravity can be expressed by the following formula (7). Note that the above-described dominant color information of the region refers to information on the color with the highest appearance frequency, for example, by taking a color histogram in the region R. Moreover, the information regarding the outline refers to information on the perimeter of the region R, for example.
対応付け部110は、現在のフレームの領域に関する情報と1フレーム前の領域に関する情報とから領域間の対応付けを行い、現在のフレームでの領域が新たに発生した領域であるか、又は前から存在する領域で、何フレーム間存在しているかを求めるものである。対応付け部110による上述した処理は、領域の重心の座標に基づいて、フレーム間で重心が近傍にある領域を対応する領域とみなすことにより行うことができる。また、領域の色相や輪郭情報などから領域間の相関を求めて対応付けする方法も考えられる。
The associating
ここで、フレーム間で重心が近傍にあるというための基準の一例について説明する。今、n番目のフレームの重心の座標を(xn、yn)とすると、任意の定数a、bを用いて、{(x、y)||x−xn|<a and |y−yn|<b}を満たす領域を(xn、yn)の近傍とする。また、領域を含む矩形領域の横、縦の1辺の長さをwn、hnとすると、a、bは、任意のdを用いてa=d×wn、b=d×hnと設定することも可能である。 Here, an example of a reference for the center of gravity being in the vicinity between frames will be described. Now, if the coordinates of the center of gravity of the nth frame are (x n , y n ), {(x, y) || x−x n | <a and | y− using arbitrary constants a and b. Let the region satisfying y n | <b} be the neighborhood of (x n , y n ). Also, assuming that the length of one side in the horizontal and vertical sides of the rectangular area including the area is w n and h n , a and b are arbitrary d and a = d × w n and b = d × h n It is also possible to set.
障害物判断部111は、対応付け部110の処理結果に基づいて、あらかじめ設定されたフレーム数の間以上存在する領域がある場合に障害物が発生したと判断するものである。領域情報記録部112は、上述したラベリング部109によって求められた各領域の重心の座標、面積、その領域を含む矩形領域の頂点の座標の情報を記録するものである。
The
次に、本発明の実施の形態に係る障害物検出装置における検出フローについて図9を用いて説明する。まず、A/D変換器101が、所定の監視領域を撮影する撮像装置113によって撮影された画像の画像信号をデジタル信号に変換する(ステップS901)。次に、マスク処理部102が、撮像装置113によって撮影された画像の画像領域のうち、道路領域以外又は道路とその近傍を合わせた領域以外をマスクする(ステップS902)。次に、巡回型LPF103a、103bが、それぞれ設定されたカットオフ周波数に基づいて、入力された、マスク処理された信号を処理して信号を出力する(ステップS903)。次に、加算器106が巡回型LPF103a、103bから出力された信号の差分を取る(ステップS904)。
Next, a detection flow in the obstacle detection apparatus according to the embodiment of the present invention will be described with reference to FIG. First, the A /
次に、2値化部107が、加算器106による差分出力の出力レベルがあらかじめ設定された閾値以上となる領域に対応する画素を1とし、それ以外を0として2値化する(ステップS905)。次に、孤立点除去部108が、2値化部107によって2値化された画像内の孤立点となっている画素を除去する(ステップS906)。次に、ラベリング部109が、値が1である領域(画素の集まり)ごとにID番号を割り当てて、各領域の重心の座標、面積、その領域を含む矩形領域の頂点の座標を求めて、これらの情報を領域情報記録部112に送信する(ステップS907)。次に、対応付け部110が、現在のフレームの領域に関する情報と1フレーム前の領域に関する情報とから領域間の対応付けを行う(ステップS908)。次に、障害物判断部111が、対応付け部110の処理結果に基づいて、あらかじめ設定されたフレーム数の間以上存在する領域がある場合に障害物が発生したと判断する(ステップS909)。
Next, the
本発明に係る障害物検出装置は、あらかじめ車両などが写っていない背景画像を用意する必要がなく、かつ物体領域の情報を背景画像の更新に必要とせず、遠方にある車両などを止まっている障害物と誤判断しないため、道路上に存在する障害物を検出する障害物検出装置などに有用である。 The obstacle detection device according to the present invention does not need to prepare a background image in which a vehicle or the like is not captured in advance, and does not require information on the object area to update the background image, and stops a vehicle or the like in the distance. Since it is not erroneously determined as an obstacle, it is useful for an obstacle detection device that detects an obstacle present on a road.
100 障害物検出装置
101 A/D変換器
102 マスク処理部(マスク処理手段)
103a、103b 巡回型LPF
104 道路情報記録部
105 時定数計算部
106 加算器(抽出手段)
107 2値化部(2値化手段)
108 孤立点除去部(集合領域生成手段)
109 ラベリング部(情報算出手段)
110 対応付け部(対応付け手段)
111 障害物判断部(判断手段)
112 領域情報記録部
113 撮像装置
DESCRIPTION OF SYMBOLS 100 Obstacle detection apparatus 101 A /
103a, 103b Cyclic LPF
104 Road
107 Binarization unit (binarization means)
108 Isolated point removal unit (collection area generation means)
109 Labeling part (information calculation means)
110 Association part (association means)
111 Obstacle determination unit (determination means)
112 Region
Claims (1)
マスクされた前記画像を表す画像信号から所定の周波数成分の信号を抽出する抽出手段と、
抽出された前記信号の出力レベルと所定の閾値とに基づいて、前記画像を構成する画素を2値化する2値化手段と、
2値化された前記画素のうち、2値のいずれか一方である所定の値が付された複数の画素が隣接して存在する場合に、前記所定の値が付された画素と前記所定の値が付された画素に隣接する他の画素とを含めた画素の集合領域を生成する集合領域生成手段と、
生成された前記画素の集合領域に関する所定の情報を前記画素の集合領域ごとに算出する情報算出手段と、
現時点の画像における画素の集合領域に関する所定の情報と、前記現時点より前の画像における画素の集合領域に関する所定の情報とに基づいて、画素の集合領域間の対応付けを行う対応付け手段と、
前記画素の集合領域の対応付けの情報に基づいて障害物が存在するか否かを判断する判断手段とを、
備える障害物検出装置。
Mask processing means for masking an image area other than a desired target area in an image captured by the imaging device including a predetermined monitoring area;
Extraction means for extracting a signal of a predetermined frequency component from the image signal representing the masked image;
Binarization means for binarizing pixels constituting the image based on the output level of the extracted signal and a predetermined threshold;
Among the binarized pixels, when a plurality of pixels with a predetermined value that is one of the two values exist adjacent to each other, the pixel with the predetermined value and the predetermined value A set area generation means for generating a set area of pixels including other pixels adjacent to the pixel to which the value is attached;
Information calculating means for calculating, for each pixel collection region, predetermined information relating to the generated pixel collection region;
Association means for associating the pixel collection areas based on the predetermined information on the pixel collection areas in the current image and the predetermined information on the pixel collection areas in the image before the current time;
Judging means for judging whether or not an obstacle exists based on the information of the association of the pixel collection area;
An obstacle detection device provided.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005200211A JP2007018340A (en) | 2005-07-08 | 2005-07-08 | Obstacle detection apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005200211A JP2007018340A (en) | 2005-07-08 | 2005-07-08 | Obstacle detection apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007018340A true JP2007018340A (en) | 2007-01-25 |
Family
ID=37755453
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005200211A Pending JP2007018340A (en) | 2005-07-08 | 2005-07-08 | Obstacle detection apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007018340A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011054036A (en) * | 2009-09-03 | 2011-03-17 | Fujitsu Ltd | Apparatus, program and method for processing image |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10289393A (en) * | 1997-04-15 | 1998-10-27 | Fujitsu Ltd | Event detecting device for monitoring road |
JP2000105835A (en) * | 1998-07-28 | 2000-04-11 | Hitachi Denshi Ltd | Object recognizing method and object tracking and monitoring device |
JP2001043383A (en) * | 1999-07-29 | 2001-02-16 | Oki Electric Ind Co Ltd | Image monitoring system |
JP2004032460A (en) * | 2002-06-27 | 2004-01-29 | Toshiba Corp | Image processing apparatus and method therefor |
JP2004348303A (en) * | 2003-05-21 | 2004-12-09 | Fujitsu Ltd | Object detection system and program |
-
2005
- 2005-07-08 JP JP2005200211A patent/JP2007018340A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10289393A (en) * | 1997-04-15 | 1998-10-27 | Fujitsu Ltd | Event detecting device for monitoring road |
JP2000105835A (en) * | 1998-07-28 | 2000-04-11 | Hitachi Denshi Ltd | Object recognizing method and object tracking and monitoring device |
JP2001043383A (en) * | 1999-07-29 | 2001-02-16 | Oki Electric Ind Co Ltd | Image monitoring system |
JP2004032460A (en) * | 2002-06-27 | 2004-01-29 | Toshiba Corp | Image processing apparatus and method therefor |
JP2004348303A (en) * | 2003-05-21 | 2004-12-09 | Fujitsu Ltd | Object detection system and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011054036A (en) * | 2009-09-03 | 2011-03-17 | Fujitsu Ltd | Apparatus, program and method for processing image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4822766B2 (en) | Road marking recognition device and system | |
US8498444B2 (en) | Blob representation in video processing | |
JP2006268097A (en) | On-vehicle object detecting device, and object detecting method | |
CN109997148B (en) | Information processing apparatus, imaging apparatus, device control system, moving object, information processing method, and computer-readable recording medium | |
JP6054777B2 (en) | Stereo camera device | |
US20100110193A1 (en) | Lane recognition device, vehicle, lane recognition method, and lane recognition program | |
JP2015201183A (en) | Context-aware object detection in aerial photographs/videos using travel path metadata | |
JP2006180479A (en) | Apparatus and method for distinguishing between camera movement and object movement and extracting object in video monitoring system | |
WO2014002692A1 (en) | Stereo camera | |
JP6592991B2 (en) | Object detection apparatus, object detection method, and program | |
CN107545544A (en) | The method and apparatus for removing the turbid object in image | |
JPH11351862A (en) | Foregoing vehicle detecting method and equipment | |
JP2011170750A (en) | White line recognition device | |
JP4826355B2 (en) | Vehicle surrounding display device | |
JP2007133007A (en) | Road surface imaging device and road marking measuring device | |
JP2012252501A (en) | Traveling path recognition device and traveling path recognition program | |
JP2003076987A (en) | Preceding vehicle recognizing device | |
JP2010136207A (en) | System for detecting and displaying pedestrian | |
JP2008269218A (en) | Image processor, image processing method, and image processing program | |
KR20160126254A (en) | System for detecting road area | |
JP2018092608A (en) | Information processing device, imaging device, apparatus control system, movable body, information processing method, and program | |
JP2008112349A (en) | Moving object detection device | |
JP5709255B2 (en) | Image processing method and monitoring apparatus | |
JP2007018340A (en) | Obstacle detection apparatus | |
JP2014182637A (en) | Image processor, image processing method and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071228 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100831 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20101224 |