JP4381394B2 - Obstacle detection device and method - Google Patents

Obstacle detection device and method Download PDF

Info

Publication number
JP4381394B2
JP4381394B2 JP2006129600A JP2006129600A JP4381394B2 JP 4381394 B2 JP4381394 B2 JP 4381394B2 JP 2006129600 A JP2006129600 A JP 2006129600A JP 2006129600 A JP2006129600 A JP 2006129600A JP 4381394 B2 JP4381394 B2 JP 4381394B2
Authority
JP
Japan
Prior art keywords
feature
obstacle
image
index
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006129600A
Other languages
Japanese (ja)
Other versions
JP2006286010A (en
Inventor
宏章 中井
信之 武田
寛 服部
一則 小野口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2006129600A priority Critical patent/JP4381394B2/en
Publication of JP2006286010A publication Critical patent/JP2006286010A/en
Application granted granted Critical
Publication of JP4381394B2 publication Critical patent/JP4381394B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、主として、自動車の安全運転支援や自動走行を実現するために、車両に搭載されたカメラを用い、先行車、駐車車両、歩行者等、道路上に存在する障害物を検出するための障害物検知装置及びその方法に関する。   The present invention mainly uses a camera mounted on a vehicle to detect an obstacle existing on a road, such as a preceding vehicle, a parked vehicle, or a pedestrian, in order to realize safe driving assistance and automatic driving of the vehicle. The present invention relates to an obstacle detection apparatus and method thereof.

道路上に存在する障害物を検知する方法としては、レーザ・レンジファインダ、超音波ソナー、ミリ波レーダーといった能動センサを用いる方法と、可視光TVカメラや赤外線カメラといった受動センサを使う方法がある。   As a method for detecting an obstacle present on the road, there are a method using an active sensor such as a laser range finder, an ultrasonic sonar, and a millimeter wave radar, and a method using a passive sensor such as a visible light TV camera or an infrared camera.

能動センサは、様々な目的において物体の位置を計測するのに使われており、その有用性は広く知られるところであるが、道路上の他車両といった自車両の走行に障害となる物を検知する目的においては、検出分解能が低い、計測範囲が十分に取れない、道路上の障害物以外のものを誤検知する、走行レーンを検知できないため障害とならない路側の物体を誤って検知するといった問題がある。したがって、これらの問題点を解決できるようにTVカメラ等の受動センサを用いた画像解析による高度な障害物検知技術が望まれている。   Active sensors are used to measure the position of an object for various purposes, and its usefulness is widely known, but it detects objects that obstruct the running of the vehicle such as other vehicles on the road. For purposes, there are problems such as low detection resolution, insufficient measurement range, false detection of objects other than obstacles on the road, and erroneous detection of roadside objects that do not become obstacles because the driving lane cannot be detected. is there. Therefore, an advanced obstacle detection technique based on image analysis using a passive sensor such as a TV camera is desired so as to solve these problems.

車両に搭載されたTVカメラ等からの画像を解析することにより障害物を検知する方法は、概して画像の輝度パターン情報から障害物を検知したり走行レーンを認識したりするものであると言える。カメラ1台の画像からでも、灰色でテクスチャの少ない部分を切り出すといったことにより走行レーンを検出することは可能ではある。   It can be said that the method of detecting an obstacle by analyzing an image from a TV camera or the like mounted on the vehicle generally detects the obstacle or recognizes the traveling lane from the luminance pattern information of the image. Even from the image of one camera, it is possible to detect a traveling lane by cutting out a gray portion with little texture.

しかし、実際には道路に似た輝度やパターンを持つ障害物も多いため、誤検知の少ない実用性の高いものの実現は難しい。   However, since there are actually many obstacles with brightness and patterns similar to roads, it is difficult to realize a highly practical one with few false detections.

これに対し、複数のカメラを用いて障害物や走行レーンを検知する方法があり、一般に「ステレオ視」による方法と言われる。   On the other hand, there is a method of detecting an obstacle or a traveling lane using a plurality of cameras, which is generally referred to as “stereo vision”.

ステレオ視においては、検知対象領域の三次元情報を得ることができるので、より高精度な障害物検知やレーン検出の実現が期待されるが、複数のカメラ画像間に写っている実世界での同一点を見つけるという対応探索が一般には一意に解けないという問題がある。この点について、特許文献1、特許文献2といった方法では対応探索を行う必要がなく、レーン検出等の実現には非常に有用である。
特開2001−76128公報 特開2000−293693公報
In stereo vision, 3D information of the detection target area can be obtained, so it is expected to realize more accurate obstacle detection and lane detection, but in the real world shown between multiple camera images In general, there is a problem that a correspondence search for finding the same point cannot be solved uniquely. In this regard, the methods such as Patent Document 1 and Patent Document 2 do not require a correspondence search and are very useful for realizing lane detection and the like.
JP 2001-76128 A JP 2000-293893 A

しかしながら、路側のガードレールや、坂道や自車両のピッチング等といった原因で路面の白線や標識といったテクスチャに視差が見られる場合、これらガードレールや路面のテクスチャは走行上の障害とはならないにもかかわらず、障害物として検知されてしまうという問題点があった。また、雨天においては、フロントガラスやカメラレンズ面に付着する雨滴が、障害物として誤検知されるという問題点もある。   However, when parallax is seen in the roadside guardrails, textures such as white lines and signs on the road surface due to slopes and pitching of the host vehicle, these guardrails and road surface textures do not become obstacles to driving, There was a problem that it was detected as an obstacle. In rainy weather, raindrops adhering to the windshield and camera lens surface are also erroneously detected as obstacles.

そこで、本発明はこのような事情を鑑みてなされたもので、複数のカメラ画像において求められた特徴を比較したり、画像特徴が障害物に由来するかどうかを示す指標値を算出することにより、上記のような誤検知を減少させ、障害物検知装置の性能を大幅に向上させることにある。   Therefore, the present invention has been made in view of such circumstances, by comparing features obtained in a plurality of camera images, or by calculating an index value indicating whether the image features are derived from an obstacle. The object of the present invention is to reduce the erroneous detection as described above and greatly improve the performance of the obstacle detection device.

本発明は、撮像装置によって撮影した範囲内に障害物が存在するか否かを検知する障害物検知装置において、前記撮像装置から画像が力する画像入力手段と、前記画像に関して、複数の縦長矩形の要素領域が横方向に順番に並ぶように設定する要素領域設定手段と、前記各要素領域の輝度勾配方向とその頻度分布を算出する特徴算出手段と、前記要素領域毎に前記各要素領域における前記輝度勾配の方向とその頻度分布から要素指標を求め、前記各要素領域の要素指標を合計して前記指標値を算出する指標算出手段と、前記指標値が閾値以上であれば前記障害物が有ると判定する結果判定手段と、を有することを特徴とする障害物検知装置である。
また、本発明は、撮像装置が複数台であって互いに平行に配され、前記複数台の撮像装置によって共通の範囲を撮影し、前記共通範囲内に障害物が存在するか否かを検知する障害物検知装置において、前記撮像装置から画像がそれぞれ入力する画像入力手段と、前記入力した複数の画像に関して予め定められた画像中における複数の画素からなる同じ大きさの領域の特徴量を算出する特徴算出手段と、前記算出した複数の画像に関する特徴量の差を求める特徴比較手段と、前記求めた特徴量の差と閾値とを比較して、前記特徴量の差が閾値より小さいときに、前記各画像の特徴量を合成する特徴量合成手段と、前記各画像の特徴量を合成した特徴量に、複数の縦長矩形の要素領域が横方向に順番に並ぶように設定する要素領域設定手段と、前記要素領域毎に前記特徴量の分布から前記障害物の有無を示す指標値を算出する指標算出手段と、前記算出した指標値から障害物の有無を判定する結果判定手段と、を有することを特徴とする障害物検知装置である。
The present invention, in the obstacle detection device for detecting whether an obstacle exists within the range taken by the imaging apparatus, an image from the imaging device and an image input means for entering, with respect to the image, a plurality of elongated Element area setting means for setting the rectangular element areas to be arranged in order in the horizontal direction, feature calculation means for calculating the direction of the luminance gradient of each element area and its frequency distribution , and each element for each element area An index calculation means for calculating an index value by obtaining an element index from the direction of the luminance gradient in the area and its frequency distribution, and summing up the element indexes of each element area; and if the index value is equal to or greater than a threshold, the failure It is an obstacle detection apparatus characterized by having the result determination means which determines with an object.
Further, the present invention includes a plurality of imaging devices arranged in parallel to each other, images a common range by the plurality of imaging devices, and detects whether there is an obstacle in the common range. In the obstacle detection device, a feature amount of an area having the same size composed of an image input unit for inputting an image from the imaging device and a plurality of pixels in a predetermined image with respect to the plurality of input images is calculated. When the feature calculation unit, the feature comparison unit that calculates the difference between the calculated feature amounts of the plurality of images, the difference between the calculated feature amount and a threshold value are compared, and the difference between the feature amounts is smaller than the threshold value, Feature amount combining means for combining the feature amounts of the images, and element region setting means for setting a plurality of vertically long element regions in order in the horizontal direction to the feature amounts obtained by combining the feature amounts of the images. And before An index calculation unit that calculates an index value indicating the presence or absence of the obstacle from the distribution of the feature amount for each element region, and a result determination unit that determines the presence or absence of an obstacle from the calculated index value This is an obstacle detection device.

本発明によれば、路側のガードレールや路面上の白線や標識等のテクスチャといった走行上の障害とはならない物体が障害物として誤検知されてしまうことや、雨天においてフロントガラスやカメラレンズ面に付着する雨滴が障害物として誤検知されてしまうことといった障害物検知装置のエラーを減少させ、性能を大幅に向上させることが可能となる等の実用上多大なる効果が奏せられる。   According to the present invention, an object that does not obstruct traveling such as a roadside guardrail, a white line on a road surface, or a texture such as a sign is erroneously detected as an obstacle, or adheres to a windshield or a camera lens surface in rainy weather. It is possible to reduce the error of the obstacle detection device such that the raindrop to be erroneously detected as an obstacle and greatly improve the performance.

(第1の実施形態)
以下、本発明の第1の実施形態の障害物検知装置10について図1〜図5を用いて説明する。
(First embodiment)
Hereinafter, the obstacle detection apparatus 10 according to the first embodiment of the present invention will be described with reference to FIGS.

図1は、本実施形態の障害物検知装置10の概略構成図である。   FIG. 1 is a schematic configuration diagram of an obstacle detection apparatus 10 of the present embodiment.

障害物検知装置10は、画像入力部11と、特徴算出部12と、特徴比較部13と、結果判定部14とからなる。   The obstacle detection device 10 includes an image input unit 11, a feature calculation unit 12, a feature comparison unit 13, and a result determination unit 14.

これら各部11〜14の各機能は、パソコン等のコンピュータに記憶されたプログラムによって実現できる。   Each function of these units 11 to 14 can be realized by a program stored in a computer such as a personal computer.

(1)画像入力部11
画像入力部11は、任意の撮像装置101から画像を供給される。撮像装置101は複数のTVカメラ等の撮像装置を有し、例えば、図2に示すように自車両前部の左側と右側の二個所に取りつけられる。
(1) Image input unit 11
The image input unit 11 is supplied with an image from an arbitrary imaging device 101. The imaging device 101 has imaging devices such as a plurality of TV cameras, and is attached to two places on the left side and the right side of the front part of the host vehicle, for example, as shown in FIG.

画像入力部11は、撮像装置等から連続して出力される映像信号を逐次A/D変換し、画像入力部11内のメモリにディジタル画像あるいは時系列画像として保管する。そして、要求された任意時刻、任意領域の画像を次の特徴算出部12に出力する。   The image input unit 11 sequentially A / D-converts video signals continuously output from the imaging device or the like, and stores them in a memory in the image input unit 11 as a digital image or a time series image. The requested arbitrary time and arbitrary region image are output to the next feature calculation unit 12.

(2)特徴算出部12
特徴算出部12では、画像入力部11から送られてくる画像あるいは画像列の任意時刻・任意領域について、予め定められた特徴量を算出する。
(2) Feature calculation unit 12
The feature calculation unit 12 calculates a predetermined feature amount for an arbitrary time / arbitrary region of the image or image sequence sent from the image input unit 11.

この特徴量とは、各画素あるいは任意領域において求めることが可能な任意の情報を示す。   The feature amount indicates arbitrary information that can be obtained in each pixel or arbitrary region.

例を挙げるならば、画素の輝度値や色情報といった単純なものから、空間あるいは時間での微分あるいは積分結果、任意のフィルタの重畳結果、平均や分散といった統計量等、任意の物体検出あるいは領域分割処理を行った結果、及び結果から得られる領域の特徴量、動き量等、画像から算出可能な任意のスカラー量あるいはベクトル量を用いることが可能である。   For example, from simple things such as pixel brightness values and color information, any object detection or region such as spatial or temporal differentiation or integration results, arbitrary filter superposition results, statistics such as average or variance, etc. It is possible to use an arbitrary scalar quantity or vector quantity that can be calculated from the image, such as the result of the division processing and the feature quantity and motion quantity of the region obtained from the result.

ここでは、画素位置での輝度勾配を特徴量として用いる場合について説明する。   Here, a case where the luminance gradient at the pixel position is used as the feature amount will be described.

輝度勾配とは、画素近傍での輝度変化の度合いを示すものであり、画像に映っている物体や物体内の構造の境界領域で大きな値となる(単にエッジとも呼ばれる)。   The luminance gradient indicates the degree of luminance change in the vicinity of the pixel, and takes a large value in the boundary region of the object shown in the image and the structure in the object (also simply referred to as an edge).

輝度勾配を求める方法としては、例えばSobelオペレータのようなフィルタを画像に重畳する方法がある。図3を用いて方法を簡単に説明する。   As a method for obtaining the luminance gradient, for example, there is a method of superimposing a filter such as a Sobel operator on an image. The method will be briefly described with reference to FIG.

画像中の位置(x,y)での輝度値がI(x,y)で表され、フィルタ各要素値Fx(i,j)が図3の左図のように設定されていると、このフィルタを画像に重畳して得られる値

Figure 0004381394
When the luminance value at the position (x, y) in the image is represented by I (x, y) and each filter element value Fx (i, j) is set as shown in the left diagram of FIG. Value obtained by superimposing the filter on the image
Figure 0004381394

は、(x,y)近傍にて水平方向に輝度変化があるときに大きくなることから、Dxにより水平方向の輝度勾配を求めることができる。 Increases when there is a change in luminance in the horizontal direction in the vicinity of (x, y), so that a luminance gradient in the horizontal direction can be obtained from Dx.

同様に、フィルタFy(i,j)が図3右図のように設定されていると、

Figure 0004381394
Similarly, when the filter Fy (i, j) is set as shown in the right diagram of FIG.
Figure 0004381394

を求めることにより、垂直方向の輝度勾配が求められる。 To obtain a luminance gradient in the vertical direction.

これらから、
輝度勾配強度は、(Dx+Dy1/2
輝度勾配方向は、tan−1Dy/Dx、
等として求められる。
From these,
The intensity gradient intensity is (Dx 2 + Dy 2 ) 1/2 ,
The luminance gradient direction is tan −1 Dy / Dx,
Etc.

他に輝度勾配を求めるフィルタとしては、Laplacian,Robinson,Canny等様々なものがあり、どれを用いてもかまわない。   There are various other filters for obtaining the luminance gradient, such as Laplacian, Robinson, and Canny, and any of them may be used.

また、Hough変換等のような統計的手法により求めても良い。   Further, it may be obtained by a statistical method such as Hough transform.

公知の輝度勾配算出方法は数多くあり、例えば参考文献1(高木、下田監修:画像解析ハンドブック、東京大学出版会、ISRN4−13−061107−0)に詳しい。   There are many known brightness gradient calculation methods, for example, detailed in Reference Document 1 (supervised by Takagi and Shimoda: Image Analysis Handbook, University of Tokyo Press, ISRN 4-13-061107-0).

(3)特徴比較部13
特徴比較部13では、特徴算出部12にて得られた複数の撮像装置からの画像の特徴量を比較することにより、障害物に由来する特徴だけを画像から取り出す。
(3) Feature comparison unit 13
The feature comparison unit 13 extracts only the features derived from the obstacle from the image by comparing the feature amounts of the images from the plurality of imaging devices obtained by the feature calculation unit 12.

図4及び図5に処理画像の模式図を示す。図4,5は、図2のように設置された各カメラから得られる画像例である。カメラは、車体進行方向と平行に前方を向いて取りつけられているとする。   4 and 5 are schematic diagrams of processed images. 4 and 5 are examples of images obtained from the cameras installed as shown in FIG. It is assumed that the camera is mounted facing forward in parallel with the vehicle body traveling direction.

図4は、前方に障害物(この図の例では先行車両)がある場合の例であり、左図は自車両左側に設置されたカメラ(左カメラ)からの画像の例、右図は右側のカメラ(右カメラ)からの画像例である。   FIG. 4 is an example when there is an obstacle ahead (the preceding vehicle in this example), the left figure is an example of an image from a camera (left camera) installed on the left side of the host vehicle, and the right figure is the right side. It is an example of an image from the camera (right camera).

図5は、障害物がない場合の例であり、同様に左図は左カメラ、右図は右カメラからの画像である。   FIG. 5 shows an example when there is no obstacle. Similarly, the left figure is an image from the left camera, and the right figure is an image from the right camera.

今、左右の画像において、障害物検知処理の対象となる候補領域が各図中太線矩形R1及びR2にて示されているように設定されているものとし、この候補領域に障害物があるかどうかを判定することが目的であるとする。   Now, in the left and right images, it is assumed that candidate areas to be subjected to obstacle detection processing are set as indicated by bold rectangles R1 and R2 in each figure, and whether there are obstacles in these candidate areas. The purpose is to determine whether or not.

図4のように、候補領域内に障害物が含まれる場合、カメラとその障害物との距離に応じた視差に正しく候補領域が設定されていれば、左右の候補領域中に障害物に由来する同様の輝度パターン(この例では先行車両の背面)が見られる。ここで「視差」とは、ある物体を複数のカメラで捉えている場合の、カメラ間の位置の相違によって起こる、画像中での物体像の位置の“ずれ”を指す。この図の例で言えば、左右カメラの光軸が自車両進行方向と平行に設置されていることから、右図での先行車両像の位置が左図での位置よりも右側にずれる、ということに相当する。   As shown in FIG. 4, when an obstacle is included in the candidate area, if the candidate area is correctly set in the parallax according to the distance between the camera and the obstacle, the candidate area is derived from the obstacle in the left and right candidate areas. A similar luminance pattern (in this example, the back of the preceding vehicle) is seen. Here, “parallax” refers to “displacement” of the position of an object image in an image caused by a difference in position between cameras when an object is captured by a plurality of cameras. In the example of this figure, since the optical axes of the left and right cameras are installed parallel to the traveling direction of the host vehicle, the position of the preceding vehicle image in the right figure is shifted to the right side from the position in the left figure. It corresponds to that.

さらに、この例で、カメラと障害物との距離が障害物内部での各点の距離差(先行車両背面の凹凸)に比べて十分大きいと仮定できるとすると、障害物内部での視差は無視でき、左右カメラの画像間で障害物に由来する画像中の輝度パターンがほぼ一定の視差をもって単純に平行移動すると見なせる。   Furthermore, in this example, if it can be assumed that the distance between the camera and the obstacle is sufficiently larger than the distance difference between the points inside the obstacle (the unevenness on the back of the preceding vehicle), the parallax inside the obstacle is ignored. It can be considered that the luminance pattern in the image derived from the obstacle between the images of the left and right cameras is simply translated with a substantially constant parallax.

これに対し、図5のように障害物が無い場合では、左右の候補領域中に見られる輝度パターンに違いがみられる。   On the other hand, when there is no obstacle as shown in FIG. 5, there is a difference in the luminance pattern seen in the left and right candidate areas.

これは、候補領域内の障害物ではない物体(この図では道路面上の白線、ガードレール等の道路に付帯する構造物)の奥行き方向の広がりが、カメラと物体までの距離に対して無視できないほど大きく、その物体内での視差が距離に応じて大きく変化することによる。   This is because the spread in the depth direction of an object that is not an obstacle in the candidate area (in this figure, a white line on the road surface, a structure attached to a road such as a guard rail) cannot be ignored with respect to the distance between the camera and the object. This is because the parallax within the object changes greatly according to the distance.

この視差による見え方の違いの性質を用いて、車両進行方向に対して垂直(と見なせるような)面を持つ障害物の画像特徴を選択的に出力するような特徴比較方法は、例えば次のようにして実現できる。   A feature comparison method for selectively outputting an image feature of an obstacle having a plane perpendicular to the traveling direction of the vehicle using the difference in appearance due to the parallax is, for example, In this way, it can be realized.

今、左カメラ画像中に設定されている候補領域R1と右カメラ画像中の候補領域R2とが同じ大きさに設定されているとすると、R1を基準とした画素位置とR2を基準とした画素位置とは共通に表現でき、これを(x,y)とする。   Now, assuming that the candidate area R1 set in the left camera image and the candidate area R2 in the right camera image are set to the same size, the pixel position with reference to R1 and the pixel with reference to R2 The position can be expressed in common, and this is (x, y).

特徴算出部12にて算出される画素位置(x,y)での特徴量を左カメラ画像、右カメラ画像で各々F1,F2とすると、この位置(x,y)での特徴量の差を示す量

Figure 0004381394
If the feature amount at the pixel position (x, y) calculated by the feature calculation unit 12 is F1 and F2 in the left camera image and the right camera image, respectively, the difference in the feature amount at this position (x, y) is Amount shown
Figure 0004381394

を定義し、この特徴量の差の小さいものだけを出力すれば、障害物に由来する特徴だけを出力できる。 If only those having a small difference in feature amount are output, only the features derived from the obstacle can be output.

白線やガードレールといった、通常の運転では走行の障害とはならないものは、自車両進行方向に対して大きな奥行きを持つことから距離に応じて視差が大きく変わる。したがって、左右カメラの画像間で物体の射影像の“角度”に大きな違いが現れる。これに対し、先行車両等の障害物像は、左右カメラ画像間でほぼ平行移動するだけであるから、像の角度差はほとんどない。   The parallax changes greatly according to the distance, such as a white line or a guardrail, which does not become an obstacle to traveling in normal driving because it has a large depth in the traveling direction of the host vehicle. Therefore, a large difference appears in the “angle” of the projected image of the object between the left and right camera images. On the other hand, since the obstacle image of the preceding vehicle or the like only moves substantially parallel between the left and right camera images, there is almost no difference in image angle.

よって、両者を区別するには、左右カメラの画像において物体像の輝度勾配の方向を求め、その差を利用することが有効な方法の一つと言える。先に挙げた例のように特徴算出部12にて輝度勾配が求められているとすると、左カメラ画像の(x,y)での輝度勾配方向をd1(x,y)、右カメラ画像でのそれをd2(x,y)として、

Figure 0004381394
Therefore, in order to distinguish the two, it can be said that one of the effective methods is to obtain the direction of the luminance gradient of the object image in the images of the left and right cameras and use the difference. Assuming that the luminance gradient is obtained by the feature calculation unit 12 as in the above example, the luminance gradient direction at (x, y) of the left camera image is d1 (x, y), and the right camera image is Let d2 (x, y) be
Figure 0004381394

と定義するのが最も単純な特徴量の差の例となる。 It is an example of the simplest feature amount difference.

また、輝度勾配強度と方向を要素とする特徴ベクトルf1(x,y)、f2(x,y)間のユークリッド距離

Figure 0004381394
Also, the Euclidean distance between feature vectors f1 (x, y) and f2 (x, y) whose elements are luminance gradient strength and direction.
Figure 0004381394

を求めれば、特徴量間の幾何学的な差を用いることもできるし、特徴算出部12にて算出される任意の特徴量F1(x,y)、F2(x,y)から計算される任意の量を、特徴量の差Dとして用いることができる。 Can be used, a geometrical difference between feature quantities can be used, or can be calculated from arbitrary feature quantities F1 (x, y) and F2 (x, y) calculated by the feature calculation unit 12. Any amount can be used as the feature amount difference D.

特徴比較部13では、任意の画素について特徴量の差Dを算出し、この値自身、あるいはDに対して一意に定められる量を、任意の画素(x,y)について出力する。   The feature comparison unit 13 calculates a feature amount difference D for an arbitrary pixel, and outputs this value itself or an amount uniquely determined for D for an arbitrary pixel (x, y).

(4)結果判定部14
結果判定部14では、特徴比較部13にて得られた障害物に由来する画像特徴を用い、画像中あるいは判定対象とする画像領域中に障害物が存在するかどうかを判定する。
(4) Result determination unit 14
The result determination unit 14 uses the image feature derived from the obstacle obtained by the feature comparison unit 13 to determine whether an obstacle exists in the image or the image area to be determined.

特徴比較部13にて、候補領域内の画素(x,y)において特徴量の差D(x,y)が小さい場合に大きな画素値I(x,y)を出力するようになっており、特徴の得られない画素については無視するようになっているとすれば、候補領域R内でのIの総和

Figure 0004381394
The feature comparison unit 13 outputs a large pixel value I (x, y) when the feature amount difference D (x, y) is small in the pixel (x, y) in the candidate region. If the pixels for which no feature is obtained are ignored, the sum of I in the candidate region R
Figure 0004381394

を求めることより、障害物有無の判定をすることができる。 It is possible to determine the presence or absence of an obstacle by obtaining.

前方に車両等の障害物があるときは、特徴量の差Dの小さな画素が多いことからSが大きくなり、逆に車両等の障害物がなくガードレールや路面のみが画像中に見られる場合には特徴量の差Dの小さな画素が少なくSが小さくなる。   When there is an obstacle such as a vehicle in the front, S is large because there are many pixels with a small difference D of the feature amount. Conversely, when there is no obstacle such as a vehicle and only the guardrail or the road surface can be seen in the image Has a small feature amount difference D, and S is small.

したがって、閾値thを定め、これと総和Sとを比較することにより、容易に障害物有無の判定を行うことができる。   Therefore, by determining the threshold th and comparing this with the sum S, it is possible to easily determine whether there is an obstacle.

判定を行う方法としては、特徴比較部13にて得られた特徴量の差Dを用いて算出することができる任意の値を用いることができる。   As a method for performing the determination, any value that can be calculated using the difference D between the feature amounts obtained by the feature comparison unit 13 can be used.

結果判定部14にて判定した結果、障害物があると判明すれば発報装置102にて運転者に警報を与えても良いし、車体制御装置103により制動をかける、操舵を行うといった車体制御を行っても良い。また、通信装置104等の任意の装置へ結果を出力あるいは転送しても良い。   As a result of determination by the result determination unit 14, if it is determined that there is an obstacle, the alarm device 102 may give an alarm to the driver, or the vehicle body control device 103 may apply braking or steering. May be performed. Further, the result may be output or transferred to an arbitrary device such as the communication device 104.

なお、閾値thはR中の全画素、全時刻で一定である必要はなく、予め定められた方法により画素毎あるいは時刻毎に別々の値が与えられても良いし、画像から求められる任意の量(スカラー量、または、ベクトル量)を元にして変化させることも可能である。   Note that the threshold th does not have to be constant for all pixels in R and all times, and may be given a different value for each pixel or each time by a predetermined method, or any value obtained from an image It is also possible to change based on the quantity (scalar quantity or vector quantity).

(5)雨天時における障害物検知
ここで、雨天時における障害物検知を考える。
(5) Obstacle detection in case of rain Here, the obstacle detection in case of rain is considered.

自車両のフロントガラスあるいは搭載されているカメラのレンズ面に雨滴が付着した場合、従来の障害物検知では、これら雨滴像が障害物として誤検出されたり、障害物の検知結果を間違わせるといった重大なエラーが起きる可能性が高かった。   If raindrops adhere to the windshield of the vehicle or the lens surface of the camera on which it is mounted, conventional obstacle detection may cause these raindrop images to be mistakenly detected as obstacles, or the obstacle detection results to be incorrect. There was a high possibility that an error would occur.

これに対し、第1の実施形態のように複数のカメラ画像間で特徴量を比較する場合では、全てのカメラ画像のある特定の視差に相当する場所に同時に同様の雨滴が付着する確率(偶然性)は小さいことから、雨滴が付着した画像部分の特徴量の差はカメラ画像間で大きくなる確率が十分高く、雨滴像による誤検出を効果的に低減できることがわかる。   On the other hand, in the case of comparing feature quantities between a plurality of camera images as in the first embodiment, the probability of chance that similar raindrops simultaneously attach to a location corresponding to a specific parallax in all camera images (coincidence) ) Is small, it can be seen that there is a sufficiently high probability that the difference in the feature amount of the image portion to which raindrops have adhered will be larger between the camera images, and erroneous detection due to raindrop images can be effectively reduced.

(6)変更例1
なお、第1の実施形態では候補領域は矩形としているが、候補領域は予め定められた任意の形状とすることができる。
(6) Modification 1
In the first embodiment, the candidate area is rectangular. However, the candidate area can have any predetermined shape.

また、左右カメラ画像での候補領域R1,R2は予め定められているとして説明を行ったが、特願2001−154569のような障害物検出方法を前処理として用い、この結果を用いて候補領域を設定しても良いし、如何なる走行レーン検出方法を用い、その結果から予め定められた方法によって候補領域を設定することも可能である。   In addition, the description has been made assuming that the candidate areas R1 and R2 in the left and right camera images are determined in advance. However, an obstacle detection method such as Japanese Patent Application No. 2001-154569 is used as a preprocessing, and this result is used as a candidate area. It is also possible to set any candidate lane by using a predetermined method based on the result of using any driving lane detection method.

(7)変更例2
さらに、候補領域が予め定められていなくても、左右カメラ画像中で位置を変えてスキャンすることにより、各スキャン位置において本第1の実施形態の操作を行えば、結果的に同様の障害物検知処理を行うことができる。
(7) Modification 2
Furthermore, even if the candidate area is not determined in advance, if the operation of the first embodiment is performed at each scan position by changing the position in the left and right camera images, the same obstacle as a result Detection processing can be performed.

このようにして、TVカメラ等撮像装置により得られた画像を解析することにより障害物を検知する場合、画像中に映っている路面のテクスチャやガードレールといった実際には走行の障害にはならない物体を誤って検知することなく、先行車両等の障害物のみを正しく検知でき、誤警報を発したり不要な車両制御を行うといった誤動作を大幅に減少させることができる。   In this way, when an obstacle is detected by analyzing an image obtained by an imaging device such as a TV camera, an object that does not actually interfere with traveling, such as a road surface texture or a guardrail reflected in the image. Without erroneous detection, only obstacles such as preceding vehicles can be detected correctly, and malfunctions such as issuing false alarms or performing unnecessary vehicle control can be greatly reduced.

(第2の実施形態)
本発明の第2の実施形態の障害物検知装置20について、図6〜図8を用いて説明する。
(Second Embodiment)
An obstacle detection device 20 according to a second embodiment of the present invention will be described with reference to FIGS.

図6は、本実施形態の障害物検知装置20の概略構成図である。   FIG. 6 is a schematic configuration diagram of the obstacle detection device 20 of the present embodiment.

この第2の実施形態は、画像入力部21と、特徴算出部22と、指標算出部23と、結果判定部24とからなる。   The second embodiment includes an image input unit 21, a feature calculation unit 22, an index calculation unit 23, and a result determination unit 24.

第1の実施形態と同様に、画像入力部21は任意の撮像装置101等から画像を供給される。第2の実施形態では、複数の撮像装置から得られる画像の特徴量を比較しないので、撮像装置201は必ずしも複数でなく、単一でもかまわない。   As in the first embodiment, the image input unit 21 is supplied with an image from an arbitrary imaging device 101 or the like. In the second embodiment, since the feature amounts of images obtained from a plurality of imaging devices are not compared, the imaging device 201 is not necessarily a plurality, and may be a single one.

また、本実施形態での画像入力部21と特徴算出部22は、第1の実施形態のそれらと全く同じものを用いることができる。   Further, the image input unit 21 and the feature calculation unit 22 in the present embodiment can be the same as those in the first embodiment.

(1)指標算出部23
指標算出部23では、特徴算出部22にて得られた画像特徴量を用い、画像特徴が障害物に由来するかどうかを示す指標を算出する。
(1) Index calculation unit 23
The index calculation unit 23 uses the image feature amount obtained by the feature calculation unit 22 to calculate an index indicating whether the image feature is derived from an obstacle.

図7及び図8に処理画像の模式図を示す。   7 and 8 are schematic diagrams of processed images.

第1の実施形態と同様に、候補領域Rが画像中に予め設定されているものとし、画像特徴として輝度勾配を用いるものとする。図7は障害物(この例では前方車両)が含まれている場合の候補領域Rの例であり、図8は障害物がない場合の例である。   As in the first embodiment, it is assumed that the candidate region R is preset in the image, and the luminance gradient is used as the image feature. FIG. 7 is an example of the candidate region R when an obstacle (in this example, a vehicle ahead) is included, and FIG. 8 is an example when there is no obstacle.

指標算出部23では、候補領域R中に予め設定されている複数の要素領域Cn(n=1…N)において求められた要素指標Pnから、結果判定に用いる指標Pを求めて、次の結果判定部24に出力する。   The index calculation unit 23 obtains an index P used for result determination from element indices Pn obtained in a plurality of element areas Cn (n = 1... N) set in advance in the candidate area R, and obtains the next result. It outputs to the determination part 24.

指標Pの算出方法とその利用方法を図7を用いて説明する。   A method for calculating the index P and a method for using the index P will be described with reference to FIG.

(1−1)要素領域Cnの設定
図7に示すように、要素領域Cnを、画像の候補領域R中の5つの縦長矩形として設定する。
(1-1) Setting of Element Area Cn As shown in FIG. 7, the element area Cn is set as five vertically long rectangles in the candidate area R of the image.

(1−2)要素指標Pnの算出
各要素領域Cn中での輝度勾配方向の頻度分布(ヒストグラム)から要素指標Pnを求める。このヒストグラムの例であるC1,C3,C5を図7に示す。
(1-2) Calculation of element index Pn The element index Pn is obtained from the frequency distribution (histogram) in the luminance gradient direction in each element region Cn. C1, C3, and C5, which are examples of this histogram, are shown in FIG.

輝度勾配方向θは、水平を0°、時計回りを正として、θが−90°から90°までの要素領域Cn中の輝度勾配の出現頻度f(θ)をプロットしている。   The luminance gradient direction θ plots the appearance frequency f (θ) of the luminance gradient in the element region Cn where θ is −90 ° to 90 °, with the horizontal being 0 ° and the clockwise direction being positive.

これによりヒストグラムは、各要素領域Cn中に多く見られる輝度勾配(エッジ)の方向分布を示すことになる。   As a result, the histogram shows the direction distribution of luminance gradients (edges) often found in each element region Cn.

例えば、C1及びC5中には、車両の両端が映っており垂直方向のエッジが顕著に見られるため、f(90)あるいはf(−90)の値が大きくなる。   For example, in C1 and C5, both ends of the vehicle are shown and vertical edges are noticeable, so the value of f (90) or f (−90) is large.

これに対し、C2からC4は、車両中央部の像を含んでおり水平方向のエッジが顕著に見られるため、f(0)の値が大きくなる。   On the other hand, since C2 to C4 include an image of the center of the vehicle and a horizontal edge is noticeable, the value of f (0) increases.

つまり、要素指標Pnを、n=1,5のときはPn=f(90)あるいはPn=f(−90)、n=2,3,4のときはPn=f(0)と予め定めておけば、障害物があるときにのみ全ての要素領域において要素指標Pnの値が大きくなる。   That is, the element index Pn is determined in advance as Pn = f (90) or Pn = f (−90) when n = 1, 5, and Pn = f (0) when n = 2, 3, or 4. In this case, the value of the element index Pn increases in all element regions only when there is an obstacle.

ここで、要素指標Pnの定める方法としては、下記のような方法がある。   Here, as a method for determining the element index Pn, there are the following methods.

第1の方法は、上記のようにPn毎に定められたあるθでのf(θ)の値をそのまま用いる方法である。   The first method is a method in which the value of f (θ) at a certain θ determined for each Pn as described above is used as it is.

第2の方法は、θの所定の範囲内のf(θ)の最大値や平均値といった統計量をとる方法もある。   The second method is a method of taking a statistic such as a maximum value or an average value of f (θ) within a predetermined range of θ.

例えば、このθの範囲としては、n=1,5の時は、−90°=<θ−70°及び70°=<θ=<90°であり、n=2,3,4の時は、−30°=<θ=<30°等である。   For example, the range of θ is −90 ° = <θ−70 ° and 70 ° = <θ = <90 ° when n = 1, 5, and when n = 2, 3, 4 -30 ° = <θ = <30 °.

(1−3)指標Pの算出
ヒストグラムを全累積度数で正規化すれば、これはエッジ方向の確率分布と見なすこともできる。
(1-3) Calculation of index P If the histogram is normalized by the total cumulative frequency, this can be regarded as a probability distribution in the edge direction.

そのために、障害物があるということの結合尤度として指標Pを求めれば、

Figure 0004381394
Therefore, if the index P is obtained as a joint likelihood that there is an obstacle,
Figure 0004381394

とすることができる。 It can be.

(1−4)指標Pの利用方法
このようにして指標Pを求めた場合、障害物がない図8のような場合では、各要素指標値Pnはnがいずれの場合でもほとんど0となるため、Pもほぼ0となる。
(1-4) Method of Using Index P When the index P is obtained in this way, each element index value Pn is almost 0 in any case of n in the case of FIG. 8 where there is no obstacle. , P is also almost zero.

これに対し、障害物がある場合のPは0に比べて大きな値となることから、このPは画像特徴が障害物に由来するかどうかを示す指標、つまり障害物があるかどうかを示す指標として判定に用いることができる。   On the other hand, since P when there is an obstacle is larger than 0, this P is an index indicating whether the image feature is derived from the obstacle, that is, an index indicating whether there is an obstacle. Can be used for determination.

同様の方法により、ガードレールや路上の白線といった障害とならないようなものを検知する指標P′を算出することもできる。   By the same method, it is possible to calculate an index P ′ for detecting an object that does not cause an obstacle such as a guardrail or a white line on the road.

例えば、図8のC1及びC2だけを包括するような領域が候補領域R′と設定されているとする。   For example, it is assumed that an area including only C1 and C2 in FIG. 8 is set as the candidate area R ′.

C1,C2の輝度勾配方向分布がα°近傍をピークとするような分布になっているとすると(図から見ればα°は約50°である)、Pn=f(α)とし、n=1,2について

Figure 0004381394
If the luminance gradient direction distribution of C1 and C2 is a distribution having a peak near α ° (α ° is about 50 ° as seen from the figure), Pn = f (α) and n = About 1 and 2
Figure 0004381394

を計算すれば、このP′は路側左側のガードレールあるいは白線があることを示す指標として用いることができる。 Can be used as an index indicating that there is a guardrail or white line on the left side of the road.

全く同様にして路側右側のガードレールあるいは白線があることの指標も計算できる等、任意の物体について、その物体特有の特徴分布を元にして、その物体があることの指標を計算することができる。   In exactly the same manner, an index indicating the presence of a guardrail or a white line on the right side of the road can be calculated. For any object, an index indicating the presence of the object can be calculated based on the characteristic distribution unique to the object.

(2)結果判定部24
結果判定部24では、指標算出部23にて得られた障害物があることの指標Pを用い、画像中あるいは判定対象とする画像領域中に障害物が存在するかどうかを判定する。
(2) Result determination unit 24
The result determination unit 24 uses the index P indicating that there is an obstacle obtained by the index calculation unit 23 to determine whether there is an obstacle in the image or the image area to be determined.

ある閾値thを定め、これと指標Pとを比較することにより、障害物有無の判定を行っても良いし、先に述べたように、障害物があることの指標Pと障害物以外の物体があることの指標P′,P″,…とを比較することにより、障害物有無の判定を行っても良い。   The presence or absence of an obstacle may be determined by setting a certain threshold th and comparing it with an index P. As described above, the index P that there is an obstacle and an object other than the obstacle The presence / absence of an obstacle may be determined by comparing the indicators P ′, P ″,.

結果判定部24にて判定した結果、発報装置202、車体制御装置203、通信装置204等の任意の装置へ結果を伝えても良い。   As a result of the determination by the result determination unit 24, the result may be transmitted to an arbitrary device such as the reporting device 202, the vehicle body control device 203, or the communication device 204.

このようにして、画像中に映っている道路面の模様やガードレールといった実際には走行の障害にはならない物体とは区別して、先行車両等の障害物のみを正しく検知でき、誤警報を発したり不要な車両制御を行うといった誤動作を大幅に減少させることができる。   In this way, it is possible to correctly detect only obstacles such as preceding vehicles, and to generate false alarms, distinguishing them from objects that do not actually interfere with traveling such as road surface patterns and guardrails shown in the image. Malfunctions such as unnecessary vehicle control can be greatly reduced.

(3)変更例1
判定を行う方法としては、指標算出部23にて得られた任意の指標Pを用いて算出することができる任意の値を用いることができる。
(3) Modification 1
As a method for performing the determination, any value that can be calculated using any index P obtained by the index calculation unit 23 can be used.

(4)変更例2
この第2の実施形態では、要素領域Cは同じ大きさの5つの矩形状に設定されていたが、任意の数、任意の形状に設定することが可能であり、互いに一部が重なるように設定しても良い。
(4) Modification 2
In the second embodiment, the element region C is set to five rectangular shapes having the same size, but can be set to an arbitrary number and an arbitrary shape so that a part thereof overlaps. May be set.

(5)変更例3
また、画像特徴として輝度勾配分布のみを用いて説明したが、特徴算出部から得られる任意の特徴量あるいは特徴ベクトルの分布を用いることができる。
(5) Modification 3
Further, although only the luminance gradient distribution has been described as the image feature, an arbitrary feature amount or feature vector distribution obtained from the feature calculation unit can be used.

(6)変更例4
要素指標Pnも、nに応じて予め定められた角度θでの頻度値f(θ)を用いる方法を説明したが、Pnの求め方としては、例えば、ある角度範囲での最頻値、平均値、中央値、重み付け和といった任意の統計量等やf(θ)の任意の計算式によって得られる値が設定可能である。
(6) Modification 4
As for the element index Pn, the method of using the frequency value f (θ) at a predetermined angle θ according to n has been described, but as a method for obtaining Pn, for example, the mode value in a certain angle range, the average An arbitrary statistic such as a value, median, or weighted sum, or a value obtained by an arbitrary calculation formula of f (θ) can be set.

(7)変更例5
撮像装置が3個以上のw個ある場合の特徴量の差の求め方を説明する。
(7) Modification 5
A description will be given of how to obtain a difference in feature amount when there are three or more imaging devices.

例えば、w枚の画像の特徴量の分散値を求めれば、これらw個の特徴量のばらつきを示すことができ、この特徴量のばらつきを特徴量の差として用いることができる。   For example, if the variance value of the feature amounts of w images is obtained, the variation of the w feature amounts can be indicated, and the variation of the feature amounts can be used as the difference of the feature amounts.

(第3の実施形態)
本発明の第3の実施形態の障害物検知装置30について説明する。
(Third embodiment)
An obstacle detection device 30 according to a third embodiment of the present invention will be described.

図9は、本発明の第3の実施形態の概略構成図である。   FIG. 9 is a schematic configuration diagram of the third embodiment of the present invention.

第3の実施形態は、画像入力部31と、特徴算出部32と、特徴比較部33と、指標算出部34と、結果判定部35とからなる。   The third embodiment includes an image input unit 31, a feature calculation unit 32, a feature comparison unit 33, an index calculation unit 34, and a result determination unit 35.

画像入力部31と特徴算出部32と特徴比較部33は、第1の実施形態のものと同じであり、指標算出部34と結果判定部35は、第2の実施形態のものと同じである。   The image input unit 31, the feature calculation unit 32, and the feature comparison unit 33 are the same as those in the first embodiment, and the index calculation unit 34 and the result determination unit 35 are the same as those in the second embodiment. .

特徴比較部33と指標算出部34とは連続に行うために、特徴比較部33に次のような機能を付加する。   In order to perform the feature comparison unit 33 and the index calculation unit 34 continuously, the following function is added to the feature comparison unit 33.

すなわち、左右カメラの画像中の候補領域R1及びR2での任意の位置(x,y)において、各候補領域R1、R2での特徴量がf1(x,y)、f2(x,y)で求められているとすると、閾値thに比べて特徴量の差Dが小さい場合には、特徴量f1(x,y)とf2(x,y)とを合成して特徴量f(x,y)が出力され、それ以外の場合は0で出力される。   That is, at arbitrary positions (x, y) in the candidate regions R1 and R2 in the images of the left and right cameras, the feature amounts in the candidate regions R1 and R2 are f1 (x, y) and f2 (x, y), respectively. If it is determined that the feature amount difference D is smaller than the threshold th, the feature amounts f1 (x, y) and f2 (x, y) are combined to generate the feature amount f (x, y). ) Is output, otherwise 0 is output.

特徴量fの合成する方法としては、例えば、f、f1、f2が全てM次元のベクトル量であるとし(輝度勾配を特徴として用いている場合には、輝度勾配強度及び方向がベクトルの各要素となる)、fの各要素fm(m=1,2,3・・,M)を

fm(x,y)=min{f1m(x,y)、f2m(x,y)}

のように各要素毎に最小値を求めても良い。
As a method of synthesizing the feature quantity f, for example, it is assumed that f, f1, and f2 are all M-dimensional vector quantities (in the case where the brightness gradient is used as the feature, the brightness gradient strength and direction are elements of the vector. ), Each element fm of f (m = 1, 2, 3,..., M)

fm (x, y) = min {f1m (x, y), f2m (x, y)}

As described above, the minimum value may be obtained for each element.

また、他の合成方法としては、f1(x,y)、f2(x,y)から算出される任意の値を用いることも可能である。   As another synthesis method, any value calculated from f1 (x, y) and f2 (x, y) can be used.

このようにして、特徴比較部33と指標算出部34とを連続に行うことにより、より確実に障害物のみを正しく検知でき、誤警報を発したり不要な車両制御を行うといった誤動作を大幅に減少させることができる。   In this way, by continuously performing the feature comparison unit 33 and the index calculation unit 34, it is possible to correctly detect only obstacles more reliably and to significantly reduce malfunctions such as issuing false alarms and performing unnecessary vehicle control. Can be made.

本発明の第1の実施形態の障害物検知装置の概略構成図である。It is a schematic block diagram of the obstacle detection apparatus of the 1st Embodiment of this invention. 撮像装置の設置状態を示す模式図である。It is a schematic diagram which shows the installation state of an imaging device. 特徴算出部で輝度勾配を求める方法を示す模式図である。It is a schematic diagram which shows the method of calculating | requiring a brightness | luminance gradient in a feature calculation part. 障害物がある場合の特徴比較部での処理を説明する模式図である。It is a schematic diagram explaining the process in the characteristic comparison part when there exists an obstruction. 障害物がない場合の特徴比較部での処理を説明する模式図である。It is a schematic diagram explaining the process in the characteristic comparison part when there is no obstacle. 本発明の第2の実施形態の障害物検知装置の概略構成図である。It is a schematic block diagram of the obstruction detection apparatus of the 2nd Embodiment of this invention. 障害物がある場合の指標算出部での処理を説明する模式図である。It is a schematic diagram explaining the process in the parameter | index calculation part when there exists an obstruction. 障害物がない場合の指標算出部での処理を説明する模式図である。It is a schematic diagram explaining the process in the parameter | index calculation part when there is no obstruction. 本発明の第3の実施形態の障害物検知装置の概略構成図である。It is a schematic block diagram of the obstruction detection apparatus of the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

10 障害物検知装置
11 画像入力部
12 特徴算出部
13 特徴比較部
14 結果判定部
20 障害物検知装置
21 画像入力部
22 特徴算出部
23 指標算出部
24 結果判定部
30 障害物検知装置
31 画像入力部
32 特徴算出部
33 特徴比較部
34 指標算出部
35 結果判定部
DESCRIPTION OF SYMBOLS 10 Obstacle detection apparatus 11 Image input part 12 Feature calculation part 13 Feature comparison part 14 Result determination part 20 Obstacle detection apparatus 21 Image input part 22 Feature calculation part 23 Index calculation part 24 Result determination part 30 Obstacle detection apparatus 31 Image input Unit 32 feature calculation unit 33 feature comparison unit 34 index calculation unit 35 result determination unit

Claims (7)

撮像装置によって撮影した範囲内に障害物が存在するか否かを検知する障害物検知装置において、
前記撮像装置から画像が力する画像入力手段と、
前記画像に関して、複数の縦長矩形の要素領域が横方向に順番に並ぶように設定する要素領域設定手段と、
前記各要素領域の輝度勾配方向とその頻度分布を算出する特徴算出手段と、
前記要素領域毎に前記各要素領域における前記輝度勾配の方向とその頻度分布から要素指標を求め、前記各要素領域の要素指標を合計して前記指標値を算出する指標算出手段と、
前記指標値が閾値以上であれば前記障害物が有ると判定する結果判定手段と、
を有することを特徴とする障害物検知装置。
In the obstacle detection device that detects whether there is an obstacle within the range imaged by the imaging device,
An image input means image is input from the imaging device,
With respect to the image, an element area setting means for setting a plurality of vertically long element areas to be arranged in order in the horizontal direction;
Feature calculating means for calculating the direction of the luminance gradient of each element region and its frequency distribution ;
Index calculation means for obtaining an element index from the direction of the luminance gradient in each element area and its frequency distribution for each element area, and calculating the index value by summing the element indexes of each element area ;
A result determination means for determining that the obstacle is present if the index value is equal to or greater than a threshold ;
An obstacle detection device comprising:
撮像装置が複数台であって互いに平行に配され、前記複数台の撮像装置によって共通の範囲を撮影し、前記共通範囲内に障害物が存在するか否かを検知する障害物検知装置において、
前記撮像装置から画像がそれぞれ入力する画像入力手段と、
前記入力した複数の画像に関して予め定められた画像中における複数の画素からなる同じ大きさの領域の特徴量を算出する特徴算出手段と、
前記算出した複数の画像に関する特徴量の差を求める特徴比較手段と、
前記求めた特徴量の差と閾値とを比較して、前記特徴量の差が閾値より小さいときに、前記各画像の特徴量を合成する特徴量合成手段と、
前記各画像の特徴量を合成した特徴量に、複数の縦長矩形の要素領域が横方向に順番に並ぶように設定する要素領域設定手段と、
前記要素領域毎に前記特徴量の分布から前記障害物の有無を示す指標値を算出する指標算出手段と、
前記算出した指標値から障害物の有無を判定する結果判定手段と、
を有することを特徴とする障害物検知装置。
In the obstacle detection device that includes a plurality of imaging devices and is arranged in parallel to each other, images a common range by the plurality of imaging devices, and detects whether or not an obstacle exists in the common range ,
Image input means for inputting images from the imaging device;
Feature calculating means for calculating a feature amount of a region of the same size composed of a plurality of pixels in a predetermined image with respect to the plurality of input images ;
A feature comparison means for obtaining a difference in the feature values for the plurality of calculated images;
Comparing the obtained feature quantity difference with a threshold value, and, when the feature quantity difference is smaller than the threshold value, synthesizing the feature quantity of each image;
Element region setting means for setting a plurality of vertically long rectangular element regions in order in the horizontal direction to the feature amount obtained by combining the feature amounts of the images ;
Index calculation means for calculating an index value indicating the presence or absence of the obstacle from the distribution of the feature amount for each element region;
A result determination means for determining the presence or absence of an obstacle from the calculated index value;
An obstacle detection device comprising:
前記特徴算出手段における前記特徴量として前記領域の輝度勾配方向または輝度勾配強度であり、
前記指標算出手段は、前記各要素領域における前記合成した特徴量とその頻度分布から要素指標を求め、前記各要素領域の要素指標を合計して前記指標値を計算し、
前記結果判定手段は、前記指標値が閾値以上であれば前記障害物が有ると判定する
ことを特徴とする請求項記載の障害物検知装置。
The feature amount in the feature calculation means is a luminance gradient direction or luminance gradient intensity of the region,
The index calculation means obtains an element index from the combined feature amount and frequency distribution in each element region, calculates the index value by summing the element indexes of each element region,
The obstacle detection device according to claim 2 , wherein the result determination unit determines that the obstacle is present if the index value is equal to or greater than a threshold value.
撮像装置によって撮影した範囲内に障害物が存在するか否かを検知する障害物検知方法において、
前記撮像装置から画像が力する画像入力ステップと、
前記画像に関して、複数の縦長矩形の要素領域が横方向に順番に並ぶように設定する要素領域設定ステップと、
前記各要素領域の輝度勾配方向とその頻度分布を算出する特徴算出ステップと、
前記要素領域毎に前記各要素領域における前記輝度勾配の方向とその頻度分布から要素指標を求め、前記各要素領域の要素指標を合計して前記指標値を算出する指標算出ステップと、
前記指標値が閾値以上であれば前記障害物が有ると判定する結果判定ステップと、
を有することを特徴とする障害物検知方法。
In the obstacle detection method for detecting whether or not an obstacle exists within the range imaged by the imaging device,
An image input step of image is input from the imaging device,
Regarding the image, an element area setting step for setting a plurality of vertically long element areas to be arranged in order in the horizontal direction;
A feature calculating step for calculating the direction of the luminance gradient of each element region and its frequency distribution ;
An index calculation step for obtaining an element index from the direction of the luminance gradient in each element area and its frequency distribution for each element area, and calculating the index value by summing the element indices of each element area ;
A result determination step for determining that the obstacle exists if the index value is equal to or greater than a threshold ;
An obstacle detection method characterized by comprising:
撮像装置が複数台であって互いに平行に配され、前記複数台の撮像装置によって共通の範囲を撮影し、前記共通範囲内に障害物が存在するか否かを検知する障害物検知方法において、
前記撮像装置から画像がそれぞれ入力する画像入力ステップと、
前記入力した複数の画像に関して予め定められた画像中における複数の画素からなる同じ大きさの領域の特徴量を算出する特徴算出ステップと、
前記算出した複数の画像に関する特徴量の差を求める特徴比較ステップと、
前記求めた特徴量の差と閾値とを比較して、前記特徴量の差が閾値より小さいときに、前記各画像の特徴量を合成する特徴量合成ステップと、
前記各画像の特徴量を合成した特徴量に、複数の縦長矩形の要素領域が横方向に順番に並ぶように設定する要素領域設定ステップと、
前記要素領域毎に前記特徴量の分布から前記障害物の有無を示す指標値を算出する指標算出ステップと、
前記算出した指標値から障害物の有無を判定する結果判定ステップと、
を有することを特徴とする障害物検知方法。
In the obstacle detection method in which a plurality of imaging devices are arranged in parallel to each other, a common range is photographed by the plurality of imaging devices, and whether or not an obstacle exists in the common range is detected.
An image input step in which images are respectively input from the imaging device;
A feature calculating step of calculating a feature amount of a region of the same size composed of a plurality of pixels in a predetermined image with respect to the plurality of input images ;
A feature comparison step for obtaining a difference between feature amounts of the plurality of calculated images;
A feature amount combining step of comparing the obtained feature amount difference with a threshold value and combining the feature amounts of the images when the feature amount difference is smaller than the threshold value;
An element region setting step for setting a plurality of vertically long element regions in order in the horizontal direction to the feature amount obtained by combining the feature amounts of the images ;
An index calculation step for calculating an index value indicating the presence or absence of the obstacle from the distribution of the feature value for each element region;
A result determination step for determining the presence or absence of an obstacle from the calculated index value;
An obstacle detection method characterized by comprising:
撮像装置によって撮影した範囲内に障害物が存在するか否かを検知する障害物検知ログラムにおいて、
コンピュータに、
前記撮像装置から画像が力する画像入力機能と、
前記画像に関して、複数の縦長矩形の要素領域が横方向に順番に並ぶように設定する要素領域設定機能と、
前記各要素領域の輝度勾配方向とその頻度分布を算出する特徴算出機能と、
前記要素領域毎に前記各要素領域における前記輝度勾配の方向とその頻度分布から要素指標を求め、前記各要素領域の要素指標を合計して前記指標値を算出する指標算出機能と、
前記指標値が閾値以上であれば前記障害物が有ると判定する結果判定機能と、
を実現させるための障害物検知ログラム。
The obstacle detection program for detecting whether an obstacle exists within the range taken by the imaging device,
On the computer,
An image input function of the image is input from the imaging device,
With respect to the image, an element area setting function for setting a plurality of vertically long element areas to be arranged in order in the horizontal direction;
A feature calculation function for calculating the direction of the luminance gradient of each element region and its frequency distribution ;
An index calculation function for obtaining an element index from the direction of the luminance gradient in each element area and its frequency distribution for each element area, and calculating the index value by summing the element indexes of each element area ;
A result determination function for determining that the obstacle is present if the index value is equal to or greater than a threshold ;
Obstacle detection program for realizing.
撮像装置が複数台であって互いに平行に配され、前記複数台の撮像装置によって共通の範囲を撮影し、前記共通範囲内に障害物が存在するか否かを検知する障害物検知ログラムにおいて、
コンピュータに、
前記撮像装置から画像がそれぞれ入力する画像入力機能と、
前記入力した複数の画像に関して予め定められた画像中における複数の画素からなる同じ大きさの領域の特徴量を算出する特徴算出機能と、
前記算出した複数の画像に関する特徴量の差を求める特徴比較機能と、
前記求めた特徴量の差と閾値とを比較して、前記特徴量の差が閾値より小さいときに、前記各画像の特徴量を合成する特徴量合成機能と、
前記各画像の特徴量を合成した特徴量に、複数の縦長矩形の要素領域が横方向に順番に並ぶように設定する要素領域設定機能と、
前記要素領域毎に前記特徴量の分布から前記障害物の有無を示す指標値を算出する指標算出機能と、
前記算出した指標値から障害物の有無を判定する結果判定機能と、
を実現させるための障害物検知ログラム。
The imaging device is arranged in parallel with each other a plurality, a common range photographed by the plurality of imaging devices, in the obstacle detection program for detecting whether an obstacle within the common range is present ,
On the computer,
An image input function for inputting images from the imaging device;
A feature calculation function for calculating a feature amount of a region of the same size composed of a plurality of pixels in a predetermined image with respect to the plurality of input images ;
A feature comparison function for obtaining a difference between feature amounts of the plurality of calculated images;
A feature amount combining function for comparing the obtained feature amount difference with a threshold value and combining the feature amounts of the images when the feature amount difference is smaller than the threshold value;
An element region setting function for setting a plurality of vertically long rectangular element regions in order in the horizontal direction to the feature amount obtained by combining the feature amounts of the images ;
An index calculation function for calculating an index value indicating the presence or absence of the obstacle from the distribution of the feature amount for each element region;
A result determination function for determining the presence or absence of an obstacle from the calculated index value;
Obstacle detection program for realizing.
JP2006129600A 2006-05-08 2006-05-08 Obstacle detection device and method Expired - Fee Related JP4381394B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006129600A JP4381394B2 (en) 2006-05-08 2006-05-08 Obstacle detection device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006129600A JP4381394B2 (en) 2006-05-08 2006-05-08 Obstacle detection device and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002097627A Division JP3822515B2 (en) 2002-03-29 2002-03-29 Obstacle detection device and method

Publications (2)

Publication Number Publication Date
JP2006286010A JP2006286010A (en) 2006-10-19
JP4381394B2 true JP4381394B2 (en) 2009-12-09

Family

ID=37407787

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006129600A Expired - Fee Related JP4381394B2 (en) 2006-05-08 2006-05-08 Obstacle detection device and method

Country Status (1)

Country Link
JP (1) JP4381394B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7309310B1 (en) * 2023-03-07 2023-07-18 株式会社ファンクリエイト Reverse run detection device

Also Published As

Publication number Publication date
JP2006286010A (en) 2006-10-19

Similar Documents

Publication Publication Date Title
JP3822515B2 (en) Obstacle detection device and method
EP2993654B1 (en) Method and system for forward collision warning
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
JP5297078B2 (en) Method for detecting moving object in blind spot of vehicle, and blind spot detection device
US8320628B2 (en) Method and system for assisting driver
EP3057063B1 (en) Object detection device and vehicle using same
JP3596314B2 (en) Object edge position measuring device and moving object traffic judging device
JP3759429B2 (en) Obstacle detection apparatus and method
US7103213B2 (en) Method and apparatus for classifying an object
US10713506B2 (en) Vehicle vision system with 3D registration for distance estimation
TWI417207B (en) Image - based obstacle detection reversing warning system and method
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
EP2639781A1 (en) Vehicle with improved traffic-object position detection
CN106096512B (en) Detection device and method for recognizing vehicle or pedestrian by using depth camera
KR20160062880A (en) road traffic information management system for g using camera and radar
JP2008123462A (en) Object detector
KR101180621B1 (en) Apparatus and method for detecting a vehicle
EP2293588A1 (en) Method for using a stereovision camera arrangement
JP2021510227A (en) Multispectral system for providing pre-collision alerts
JP4344860B2 (en) Road plan area and obstacle detection method using stereo image
JP3656056B2 (en) Interrupting vehicle detection device and method
JP2018060422A (en) Object detection device
JP3868915B2 (en) Forward monitoring apparatus and method
JP4381394B2 (en) Obstacle detection device and method
Wu et al. A vision-based collision warning system by surrounding vehicles detection

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090604

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090728

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090825

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090915

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4381394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121002

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131002

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees