JP2001028100A - Object extracting device - Google Patents

Object extracting device

Info

Publication number
JP2001028100A
JP2001028100A JP11199590A JP19959099A JP2001028100A JP 2001028100 A JP2001028100 A JP 2001028100A JP 11199590 A JP11199590 A JP 11199590A JP 19959099 A JP19959099 A JP 19959099A JP 2001028100 A JP2001028100 A JP 2001028100A
Authority
JP
Japan
Prior art keywords
area
image
rate
length
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11199590A
Other languages
Japanese (ja)
Other versions
JP4204708B2 (en
Inventor
Shinji Nagaoka
伸治 長岡
Takayuki Tsuji
孝之 辻
Masato Watanabe
正人 渡辺
Hiroshi Hattori
弘 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP19959099A priority Critical patent/JP4204708B2/en
Publication of JP2001028100A publication Critical patent/JP2001028100A/en
Application granted granted Critical
Publication of JP4204708B2 publication Critical patent/JP4204708B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately decide the possibility of a collision by extracting an object except an area whose horizontal length is equal to or greater than a prescribed length when an area rate is smaller than a prescribed rate. SOLUTION: A counter (j) is initialized to '1' (S31), and next, the area rate RATE of an object corresponding to the value of the counter (j) is calculated (S32). Whether or not the calculated area rate RATE is smaller than a prescribed rate RATETH is discriminated (S33), and in the case of the RATE < the RATETH, data whose horizontal length is equal to or greater than a prescribed length mTH is eliminated from the object (S34). Then, the counter (j) is increased (S35) and whether the value of the counter (j) surpasses the number (n) of objects is discriminated (S36). As a result, in the case of (j)>(n), the prescribed length mTH is made 1/2 (S37), an object label is updated (S38), and a divided object is extracted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えば車両に搭載
された撮像装置により得られる画像から、当該車両に衝
突するおそれのある対象物を判定するために、前記画像
から対象物を抽出する対象物抽出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object for extracting an object from an image obtained by, for example, an imaging device mounted on the vehicle, in order to determine the object that may collide with the vehicle. The present invention relates to an object extraction device.

【0002】[0002]

【従来の技術】テレビカメラなどの撮像装置により得ら
れる画像から、衝突の可能性などを判定するために対象
物を抽出する手法としては、例えば特開平9−2592
82号公報に記載されたものが知られている。この手法
は、撮像装置によって得られる画像上のオプティカルフ
ローを抽出し、自車両の走行に起因するオプティカルフ
ロー以外のフローを持つ領域を、画像内の移動障害物領
域、すなわち衝突の可能性の判定などの対象物として抽
出するものである。
2. Description of the Related Art As a method of extracting an object from an image obtained by an image pickup device such as a television camera in order to determine the possibility of collision, for example, Japanese Patent Laid-Open No. 9-2592
No. 82 is known. This method extracts an optical flow on an image obtained by an imaging device, and determines an area having a flow other than the optical flow caused by traveling of the own vehicle as a moving obstacle area in the image, that is, a possibility of collision. And so on.

【0003】[0003]

【発明が解決しようとする課題】しかしながらこのよう
なオプティカルフローを用いた対象物の抽出は、演算量
が多いため専用のDSPなどを使用する必要があり、コ
ストの上昇を招く。そこで、赤外線を検出可能な赤外線
カメラを用いて、動物や走行中の車両など高温の対象物
を容易に抽出できるようにすることが考えられるが、そ
のような赤外線カメラを使用した場合、抽出したい対象
物としての動物の背景に、例えば太陽光によって温度が
高くなったガードレールなどが存在すると、動物とガー
ドレールとが重なった画像を対象物として抽出してしま
うという問題があった。
However, the extraction of an object using such an optical flow requires a dedicated DSP or the like due to a large amount of calculation, which leads to an increase in cost. Therefore, it is conceivable that an infrared camera capable of detecting infrared rays can be used to easily extract a high-temperature target object such as an animal or a running vehicle. If, for example, a guardrail whose temperature is increased by sunlight is present in the background of the animal as the object, there is a problem that an image in which the animal and the guardrail overlap is extracted as the object.

【0004】本発明はこの問題を解決するためになされ
たものであり、比較的高温の対象物を容易にかつ正確に
抽出することができる対象物抽出装置を提供することを
目的とする。
The present invention has been made to solve this problem, and an object of the present invention is to provide an object extracting apparatus capable of easily and accurately extracting an object having a relatively high temperature.

【0005】[0005]

【課題を解決するための手段】上記目的を達成するため
請求項1に記載の発明は、撮像手段により得られる画像
から対象物を抽出する対象物抽出装置において、前記撮
像手段は、赤外線を検出可能なものであり、対象物を含
む外接四角形の前記画像上の面積に対するその対象物の
前記画像上の面積の比率を算出し、該面積比率が所定比
率より小さいときは、水平方向の長さが所定長さ以上の
領域を除いて前記対象物を抽出することを特徴とする。
According to a first aspect of the present invention, there is provided an object extracting apparatus for extracting an object from an image obtained by an imaging means, wherein the imaging means detects infrared rays. It is possible to calculate the ratio of the area of the object on the image to the area of the image of the circumscribed rectangle including the object, and when the area ratio is smaller than a predetermined ratio, the length in the horizontal direction Is characterized in that the object is extracted except for an area longer than a predetermined length.

【0006】ここで「所定比率」は、実験的に最適の値
に設定し、「所定長さ」は例えば画像の水平方向の長さ
の1/3程度に設定し、あるいはそのような値を初期値
としてより短い値に更新して同じ処理を繰り返すように
する。この構成によれば、対象物を含む外接四角形の画
像上の面積に対するその対象物の画像上の面積の比率が
算出され、該面積比率が所定比率より小さいときは、水
平方向の長さが所定長さ以上の領域が除かれて前記対象
物が抽出されるので、例えば高温の対象物とガードレー
ルとが重なって抽出されたような場合でも、その対象物
を分離して抽出することが可能となる。したがって、こ
のようにして抽出された対象物について、距離の検出等
を行うことにより、衝突の可能性の判定を正確に行うこ
とが可能となる。
Here, the "predetermined ratio" is experimentally set to an optimal value, and the "predetermined length" is set to, for example, about 1/3 of the horizontal length of the image, or such a value is set. The same process is repeated by updating to a shorter value as an initial value. According to this configuration, the ratio of the area on the image of the target object to the area on the image of the circumscribed rectangle including the target object is calculated, and when the area ratio is smaller than the predetermined ratio, the length in the horizontal direction is predetermined. Since the target object is extracted by removing a region longer than the length, for example, even when a high-temperature target object and a guardrail overlap and are extracted, it is possible to separate and extract the target object. Become. Therefore, it is possible to accurately determine the possibility of collision by detecting the distance or the like for the object extracted in this manner.

【0007】[0007]

【発明の実施の形態】以下本発明の実施の形態を図面を
参照して説明する。図1は本発明の一実施形態にかかる
対象物抽出装置を含む、車両の前方監視装置の構成を示
す図であり、この装置は、遠赤外線を検出可能な2つの
赤外線カメラ1R,1Lと、当該車両のヨーレートを検
出するヨーレートセンサ5と、当該車両の走行速度(車
速)VCARを検出する車速センサ6と、ブレーキの操
作量を検出するためのブレーキセンサ7と、これらのカ
メラ1R,1Lによって得られる画像データの基づいて
車両前方の動物等の対象物を抽出し、衝突の可能性が高
い場合に警報を発する画像処理ユニット2と、音声で警
報を発するためのスピーカ3と、カメラ1Rまたは1L
によって得られる画像を表示するとともに、衝突の可能
性が高い対象物を運転者に認識させるためのヘッドアッ
プディスプレイ(以下「HUD」という)4とを備えて
いる。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a configuration of a forward monitoring device for a vehicle including an object extracting device according to an embodiment of the present invention. The device includes two infrared cameras 1R and 1L capable of detecting far infrared rays, A yaw rate sensor 5 for detecting a yaw rate of the vehicle, a vehicle speed sensor 6 for detecting a traveling speed (vehicle speed) VCAR of the vehicle, a brake sensor 7 for detecting an operation amount of a brake, and these cameras 1R and 1L. An image processing unit 2 that extracts an object such as an animal in front of the vehicle based on the obtained image data and issues an alarm when there is a high possibility of a collision, a speaker 3 that issues an alarm by voice, and a camera 1R or 1L
And a head-up display (hereinafter, referred to as “HUD”) 4 for displaying an image obtained by the above-mentioned method and allowing the driver to recognize an object having a high possibility of collision.

【0008】カメラ1R、1Lは、図2に示すように車
両10の前部に、車両10の横方向の中心軸に対してほ
ぼ対象な位置に配置されており、2つのカメラ1R、1
Lの光軸が互いに平行となり、両者の路面からの高さが
等しくなるように固定されている。赤外線カメラ1R、
1Lは、対象物の温度が高いほど、その出力信号レベル
が高くなる(輝度が増加する)特性を有している。
As shown in FIG. 2, the cameras 1R and 1L are arranged in front of the vehicle 10 at positions substantially symmetrical with respect to the center axis of the vehicle 10 in the lateral direction.
The optical axes of L are fixed so that they are parallel to each other and their heights from the road surface are equal. Infrared camera 1R,
1L has the characteristic that the higher the temperature of the object, the higher the output signal level (the higher the luminance).

【0009】画像処理ユニット2は、入力アナログ信号
をディジタル信号に変換するA/D変換回路、ディジタ
ル化した画像信号を記憶する画像メモリ、各種演算処理
を行うCPU(Central Processing Unit)、CPUが
演算途中のデータを記憶するために使用するRAM(Ra
ndom Access Memory)、CPUが実行するプログラムや
テーブル、マップなどを記憶するROM(Read Only Me
mory)、スピーカ3の駆動信号、HUD4の表示信号な
どを出力する出力回路などを備えており、カメラ1R,
1L及びセンサ5〜7の出力信号は、ディジタル信号に
変換されて、CPUに入力されるように構成されてい
る。HUD4は、図2に示すように、車両10のフロン
トウインドウの、運転者の前方位置に画面4aが表示さ
れるように設けられている。
The image processing unit 2 includes an A / D conversion circuit that converts an input analog signal into a digital signal, an image memory that stores a digitized image signal, a CPU (Central Processing Unit) that performs various types of arithmetic processing, and a CPU that performs arithmetic operations. RAM used to store intermediate data (Ra
ROM (Read Only Memory) for storing programs, tables, maps, etc., executed by the CPU.
mory), an output circuit for outputting a drive signal for the speaker 3, a display signal for the HUD 4, and the like.
1L and the output signals of the sensors 5 to 7 are converted into digital signals and input to the CPU. As shown in FIG. 2, the HUD 4 is provided such that a screen 4a is displayed at a position in front of the driver in a front window of the vehicle 10.

【0010】図3は画像処理ユニット2における処理の
手順を示すフローチャートであり、先ずカメラ1R、1
Lの出力信号をA/D変換して画像メモリに格納する
(ステップS11,S12,S13)。画像メモリに格
納される画像は、輝度情報を含んだグレースケール画像
である。図5(a)は、カメラ1Rによって得られるグ
レースケール画像を説明するための図であり、ハッチン
グを付した領域は、中間階調(グレー)の領域であり、
太い実線で囲んだ領域が、輝度レベルが高く(高温
で)、画面上に白色として表示される対象物の領域(以
下「高輝度領域」という)である。
FIG. 3 is a flowchart showing the procedure of processing in the image processing unit 2. First, the camera 1R, 1
The output signal of L is A / D converted and stored in the image memory (steps S11, S12, S13). The image stored in the image memory is a gray scale image including luminance information. FIG. 5A is a diagram for explaining a grayscale image obtained by the camera 1 </ b> R, and a hatched area is an area of an intermediate gradation (gray);
A region surrounded by a thick solid line is a region of the object having a high luminance level (at a high temperature) and displayed as white on the screen (hereinafter, referred to as a “high luminance region”).

【0011】図3のステップS14では、画像信号の二
値化、すなわち、後述するように決定される輝度閾値i
THより明るい領域を「1」(白)とし、暗い領域を
「0」(黒)とする処理を行う。図5(b)に同図
(a)の画像を二値化した画像を示す。この図は、ハッ
チングを付した領域が黒であり、太い実線で囲まれた高
輝度領域が白であることを示している。
In step S14 of FIG. 3, the image signal is binarized, that is, a luminance threshold value i determined as described later is set.
A process of setting an area brighter than TH to "1" (white) and setting a dark area to "0" (black) is performed. FIG. 5B shows an image obtained by binarizing the image shown in FIG. This figure shows that the hatched area is black, and the high-luminance area surrounded by the thick solid line is white.

【0012】図4はステップS14の二値化処理を詳細
に示すフローチャートであり、ステップS21では、図
6(a)に示すように輝度値iを横軸とし、輝度値iを
とる画素数、すなわち度数H[i]を縦軸とするヒスト
グラムを算出する。通常は同図に示すように背景の平均
的な輝度値の近傍に背景のピークがあり、高温の対象物
に対応する対象物ピークは度数Hが低いため同図ではピ
ークの特定が困難である。そこでステップS22で同図
(a)に示す度数H[i]のヒストグラムを、同図
(b)に示すように対数変換した(G[i]=log10
H[i]+1)ヒストグラムを算出する。これにより、
対象物ピークを特定し易くなる。
FIG. 4 is a flowchart showing the binarization process in step S14 in detail. In step S21, as shown in FIG. 6A, the luminance value i is set on the horizontal axis, and the number of pixels taking the luminance value i is calculated. That is, a histogram having the frequency H [i] as the vertical axis is calculated. Normally, as shown in the figure, there is a background peak near the average luminance value of the background, and since the frequency of the object peak corresponding to the high-temperature object is low, it is difficult to identify the peak in the figure. . Therefore, in step S22, the histogram of the frequency H [i] shown in FIG. 9A is logarithmically converted as shown in FIG. 9B (G [i] = log 10
H [i] +1) Calculate the histogram. This allows
It becomes easier to identify the object peak.

【0013】次いでこのヒストグラムに最急降下法を適
用してピークを探索し、背景ピークに対応する輝度値i
PEAK1、及び対象物ピークに対応する輝度値iPE
AK2を得る(ステップS23)。そして、下記式に輝
度閾値iTHを算出する(ステップS24)。 iTH=(iPEAK2−iPEAK1)×A+iPE
AK1
Next, a steepest descent method is applied to this histogram to search for a peak, and a luminance value i corresponding to the background peak is obtained.
PEAK1 and luminance value iPE corresponding to the object peak
AK2 is obtained (step S23). Then, a luminance threshold value iTH is calculated by the following equation (step S24). iTH = (iPEAK2-iPEAK1) × A + iPE
AK1

【0014】ここでAは1より小さい定数であり、例え
ば0.5に設定される。次いで輝度閾値iTHを用いて
グレースケール画像データを二値化データに変換する演
算を行い(ステップS25)、本処理を終了する。図4
の処理では、ヒストグラムを用いて背景ピークに対応す
る輝度値と、対象物ピークに対応する輝度値とを求め、
これらの輝度値の間に輝度閾値iTHを設定するように
したので、対象物を正確に高輝度領域として検出するこ
とができる。
Here, A is a constant smaller than 1, and is set to, for example, 0.5. Next, an operation of converting the grayscale image data into the binary data using the luminance threshold value iTH is performed (step S25), and the present process ends. FIG.
In the processing of the luminance value corresponding to the background peak and the luminance value corresponding to the object peak using the histogram,
Since the luminance threshold value iTH is set between these luminance values, the object can be accurately detected as a high luminance area.

【0015】図3に戻りステップS15では、二値化し
た画像データをランレングスデータに変換するととも
に、対象物毎にラベルを付けるラベリングを行う。図7
はこれを説明するための図であり、この図では二値化に
より白となった領域を画素レベルでラインL1〜L8と
して示している。ラインL1〜L8は、いずれもy方向
には1画素の幅を有しており、実際にはy方向には隙間
なく並んでいるが、説明のために離間して示している。
またラインL1〜L8は、x方向にはそれぞれ2画素、
2画素、3画素、8画素、7画素、8画素、8画素、8
画素の長さを有している。ランレングスデータは、ライ
ンL1〜L8を各ラインの開始点(各ラインの左端の
点)の座標と、開始点から終了点(各ラインの右端の
点)までの長さ(画素数)とで示したものである。例え
ばラインL3は、(x3,y5)、(x4,y5)及び
(x5,y5)の3画素からなるので、ランレングスデ
ータとしては、(x3,y5,3)となる。
Returning to FIG. 3, in step S15, the binarized image data is converted into run-length data, and labeling for labeling each object is performed. FIG.
Is a diagram for explaining this, and in this diagram, white regions due to binarization are shown at the pixel level as lines L1 to L8. Each of the lines L1 to L8 has a width of one pixel in the y direction and is actually arranged without a gap in the y direction, but is shown apart for the sake of explanation.
Lines L1 to L8 each have two pixels in the x direction,
2 pixels, 3 pixels, 8 pixels, 7 pixels, 8 pixels, 8 pixels, 8
It has the length of a pixel. The run-length data indicates the lines L1 to L8 by using the coordinates of the start point of each line (the left end point of each line) and the length (the number of pixels) from the start point to the end point (the right end point of each line). It is shown. For example, the line L3 is composed of three pixels (x3, y5), (x4, y5) and (x5, y5), so that the run length data is (x3, y5, 3).

【0016】次に同図(b)に示すように対象物のラベ
リングをすることにより、対象物を抽出する処理を行
う。すなわち、ランレングスデータ化したラインL1〜
L8のうち、y方向に重なる部分のあるラインL1〜L
3を1つの対象物1とみなし、ラインL4〜L8を1つ
の対象物2とみなし、ランレングスデータに対象物ラベ
ル1,2を付加する。この処理により、例えば図5
(b)に示す高輝度領域が、それぞれ対象物1から4と
して把握されることになる。
Next, as shown in FIG. 1B, a process of extracting the target object is performed by labeling the target object. That is, the lines L1 to L1 converted into run-length data
Lines L1 to L of L8 having portions overlapping in the y direction
3 is regarded as one object 1, the lines L4 to L8 are regarded as one object 2, and object labels 1 and 2 are added to the run-length data. By this processing, for example, FIG.
The high-luminance areas shown in (b) are grasped as objects 1 to 4, respectively.

【0017】続くステップS16では、抽出した対象物
が背景または前景と一体化している場合にその背景また
は前景を分離するための処理(図8)を実行する。ここ
では、図3のステップS15でn個の対象物が抽出され
ているものとする。図9(a)は、ガードレールが太陽
光のために高温となり、高温の対象物がガードレールと
一体化して対象物1として抽出された例を示している。
このような場合には、対象物1の外接四角形の面積SR
ECTに対する対象物1の面積SOBJの比率RATE
(=SOBJ/SRECT)が、高温の対象物のみを抽
出した場合に比べて小さくなる。そこで、図8の処理で
は、この点に着目してガードレールに対応する領域を背
景(または前景)として対象物から除くようにしてい
る。
In the following step S16, when the extracted object is integrated with the background or foreground, a process (FIG. 8) for separating the background or foreground is executed. Here, it is assumed that n objects have been extracted in step S15 of FIG. FIG. 9A illustrates an example in which the guardrail becomes hot due to sunlight and a high-temperature target is integrated with the guardrail and extracted as the target 1.
In such a case, the area SR of the circumscribed rectangle of the object 1
Ratio RATE of area SOBJ of object 1 to ECT
(= SOBJ / SRECT) is smaller than when only a high-temperature target is extracted. Thus, in the processing of FIG. 8, focusing on this point, the area corresponding to the guardrail is excluded from the target as the background (or foreground).

【0018】図8のステップS31では、カウンタjを
「1」に初期化し、次いで対象物j(カウンタjの値に
対応する対象物)の面積比率RATEを下記式(1)に
より算出する(ステップS32)。 RATE=SOBJ(j)/SRECT(j) (1) ここで、SOBJ(j)は、対象物jの画像上の面積で
あり、SRECT(j)は、対象物jの外接四角形の画
像上の面積である。
In step S31 of FIG. 8, the counter j is initialized to "1", and the area ratio RATE of the object j (the object corresponding to the value of the counter j) is calculated by the following equation (1) (step S31). S32). RATE = SOBJ (j) / SRECT (j) (1) Here, SOBJ (j) is the area of the object j on the image, and SRECT (j) is the area of the circumscribed rectangle of the object j. Area.

【0019】次いで面積比率RATEが所定比率RAT
ETHより小さいか否かを判別し(ステップS33)、
RATE≧RATETHであるときは、直ちにステップ
S35に進む一方、RATE<RATETHであると
き、例えば図9(a)に示すような場合には、ランレン
グスが所定長さmTH以上であるデータを対象物から削
除する処理を行う。これにより、対象物1として認識さ
れていたものが3つに分割されて認識されることにな
る。なお、所定比率RATETHは、種々の実測画像デ
ータに基づいて最適の値にし、また所定長さmTHの初
期値は、例えば画像(カメラ1Rまたは1Lにより撮像
される全体画像)の水平方向の幅の1/3程度に設定す
る。
Next, the area ratio RATE is equal to the predetermined ratio RAT.
It is determined whether it is smaller than ETH (step S33),
If RATE ≧ RATETHH, the process immediately proceeds to step S35, while if RATE <RATETH, for example, as shown in FIG. Perform processing to delete from. Thus, the object recognized as the target object 1 is divided into three and recognized. The predetermined ratio RATETH is set to an optimum value based on various actually measured image data, and the initial value of the predetermined length mTH is, for example, the width of the horizontal direction of the image (the entire image captured by the camera 1R or 1L). Set to about 1/3.

【0020】ステップS35では、カウンタjをインク
リメントし、次いでカウンタjの値が対象物数nを越え
たか否かを判別する(ステップS36)。j≦nである
間はステップS32に戻り、j>nとなるとステップS
37で所定長さmTHを1/2にし、ついで対象物ラベ
ルの更新を行う(ステップS38)。これにより、ステ
ップS34の処理で分割された対象物が例えば図9
(b)に示すように対象物1,2,3というようにラベ
リングされる。
In step S35, the counter j is incremented, and then it is determined whether or not the value of the counter j has exceeded the number n of objects (step S36). The process returns to step S32 while j ≦ n, and returns to step S32 when j> n.
At 37, the predetermined length mTH is halved, and then the object label is updated (step S38). As a result, the object divided in the process of step S34 is, for example, as shown in FIG.
As shown in (b), the objects are labeled as objects 1, 2, 3, and so on.

【0021】続くステップS39では、所定長さmTH
が所定値M以下となったか否かを判別し、mTH>Mで
ある間はステップS31の戻って同様の処理を繰り返
し、mTH≦Mとなると、本処理を終了する。ここで所
定値Mは、予め設定した距離における抽出したい対象物
の、画面上での通常の横幅(水平方向の幅であって画素
数で定義される長さ)とする。
In the following step S39, a predetermined length mTH
Is determined to be equal to or less than a predetermined value M, and while mTH> M, the process returns to step S31 to repeat the same processing. When mTH ≦ M, this processing ends. Here, the predetermined value M is a normal horizontal width (horizontal width and length defined by the number of pixels) of the target object to be extracted at a preset distance.

【0022】以上ように図8の処理によれば、面積比率
RATEが所定比率RATETHより小さいときは、水
平方向の長さが所定長さmTH以上の領域が対象物から
除かれるので、例えば高温となったガードレールなどと
抽出したい対象物とが1つの対象物として抽出された場
合でも、これらを分離して抽出することが可能となる。
As described above, according to the processing of FIG. 8, when the area ratio RATE is smaller than the predetermined ratio RATETH, a region whose horizontal length is equal to or longer than the predetermined length mTH is excluded from the target object. Even when a guardrail or the like and an object to be extracted are extracted as one object, it is possible to separate and extract them.

【0023】抽出された対象物については、2つカメラ
1R、1Lより得られる画像に基づいて自車両からの距
離が算出され、衝突の可能性の判定が行われるので、対
象物を正確に抽出することにより、衝突判定などを正確
に行うことが可能となる。また図9(b)に示すように
3つに分割された対象物1,2,3は、その後の追跡デ
ータに基づいて一体化して認識することも可能である。
本実施形態では、画像処理ユニット2が対象物抽出装置
を構成する。
With respect to the extracted object, the distance from the host vehicle is calculated based on the images obtained from the two cameras 1R and 1L, and the possibility of collision is determined. By doing so, it is possible to accurately perform collision determination and the like. Further, as shown in FIG. 9B, the three divided objects 1, 2, and 3 can be integrally recognized based on the subsequent tracking data.
In the present embodiment, the image processing unit 2 constitutes an object extraction device.

【0024】[0024]

【発明の効果】以上詳述したように本発明によれば、対
象物を含む外接四角形の画像上の面積に対するその対象
物の画像上の面積の比率が算出され、該面積比率が所定
比率より小さいときは、水平方向の長さが所定長さ以上
の領域が除かれて前記対象物が抽出されるので、例えば
高温の対象物とガードレールとが重なって抽出されたよ
うな場合でも、その対象物を分離して抽出することが可
能となる。したがって、このようにして抽出された対象
物について、距離の検出等を行うことにより、衝突の可
能性の判定を正確に行うことが可能となる。
As described above in detail, according to the present invention, the ratio of the area of the object on the image to the area of the image of the circumscribed rectangle including the object is calculated, and the area ratio is more than the predetermined ratio. When it is small, the object whose length in the horizontal direction is equal to or greater than a predetermined length is removed and the object is extracted.For example, even when a high-temperature object and a guardrail overlap and are extracted, the object is extracted. Objects can be separated and extracted. Therefore, it is possible to accurately determine the possibility of collision by detecting the distance or the like for the object extracted in this manner.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は本発明の一実施形態にかかる対象物抽出
装置を含む、車両の前方監視装置の構成を示す図であ
る。
FIG. 1 is a diagram showing a configuration of a forward monitoring device for a vehicle including an object extracting device according to an embodiment of the present invention.

【図2】カメラの配置を説明するための図である。FIG. 2 is a diagram for explaining an arrangement of cameras.

【図3】対象物抽出の手順を示すフローチャートであ
る。
FIG. 3 is a flowchart showing a procedure of object extraction.

【図4】図3の二値化処理のフローチャートである。FIG. 4 is a flowchart of a binarization process of FIG. 3;

【図5】グレースケール画像及び二値化画像を説明する
ための図である。
FIG. 5 is a diagram for explaining a grayscale image and a binarized image.

【図6】輝度値のヒストグラムを示す図である。FIG. 6 is a diagram illustrating a histogram of luminance values.

【図7】ランレングスデータ及びラベリングを説明する
ための図である。
FIG. 7 is a diagram for explaining run-length data and labeling.

【図8】背景との分離処理のフローチャートである。FIG. 8 is a flowchart of a separation process from a background.

【図9】図8の処理を説明するための図である。FIG. 9 is a diagram for explaining the processing in FIG. 8;

【符号の説明】[Explanation of symbols]

1R、1L 赤外線カメラ(撮像手段) 2 画像処理ユニット(対象物抽出装置) 1R, 1L infrared camera (imaging means) 2 Image processing unit (object extraction device)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 渡辺 正人 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 (72)発明者 服部 弘 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 Fターム(参考) 5C054 AA01 CA05 EB05 FC05 FC12 FC15 FC16 GA04 GB01 HA30 5H180 AA01 CC02 CC04 LL01 LL02 LL07 LL09 5L096 AA06 CA05 EA43 FA18 FA35 FA59 GA34 GA36 GA51 9A001 BZ03 EE05 HH21 HH27 JJ77 KK54  ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Masato Watanabe 1-4-1 Chuo, Wako-shi, Saitama Prefecture Inside Honda R & D Co., Ltd. (72) Inventor Hiroshi Hattori 1-4-1 Chuo, Wako-shi, Saitama F-term in Honda R & D Co., Ltd. (reference)

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 撮像手段により得られる画像から対象物
を抽出する対象物抽出装置において、 前記撮像手段は、赤外線を検出可能なものであり、 対象物を含む外接四角形の前記画像上の面積に対するそ
の対象物の前記画像上の面積の比率を算出し、該面積比
率が所定比率より小さいときは、水平方向の長さが所定
長さ以上の領域を除いて前記対象物を抽出することを特
徴とする対象物抽出装置。
1. An object extracting apparatus for extracting an object from an image obtained by an image pickup means, wherein the image pickup means is capable of detecting infrared rays, and has an area corresponding to an area of the circumscribed rectangle including the object on the image. Calculating a ratio of an area of the object on the image, and when the area ratio is smaller than a predetermined ratio, extracting the object except for an area whose horizontal length is equal to or longer than a predetermined length. Object extraction device.
JP19959099A 1999-07-13 1999-07-13 Object extraction device Expired - Fee Related JP4204708B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP19959099A JP4204708B2 (en) 1999-07-13 1999-07-13 Object extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19959099A JP4204708B2 (en) 1999-07-13 1999-07-13 Object extraction device

Publications (2)

Publication Number Publication Date
JP2001028100A true JP2001028100A (en) 2001-01-30
JP4204708B2 JP4204708B2 (en) 2009-01-07

Family

ID=16410388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19959099A Expired - Fee Related JP4204708B2 (en) 1999-07-13 1999-07-13 Object extraction device

Country Status (1)

Country Link
JP (1) JP4204708B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352974A (en) * 2004-06-14 2005-12-22 Honda Motor Co Ltd Vehicle circumference monitoring device
JP2015156074A (en) * 2014-02-20 2015-08-27 富士重工業株式会社 Outside vehicle environment recognition device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352974A (en) * 2004-06-14 2005-12-22 Honda Motor Co Ltd Vehicle circumference monitoring device
US7436982B2 (en) 2004-06-14 2008-10-14 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
JP2015156074A (en) * 2014-02-20 2015-08-27 富士重工業株式会社 Outside vehicle environment recognition device

Also Published As

Publication number Publication date
JP4204708B2 (en) 2009-01-07

Similar Documents

Publication Publication Date Title
US6690011B2 (en) Infrared image-processing apparatus
US7158664B2 (en) Image recognition apparatus
US6531959B1 (en) Position detecting device
JP2000339597A (en) Object detector
JP5115792B2 (en) Image processing apparatus and method, and program
JP2003134508A (en) Information providing device for vehicle
JP4334686B2 (en) Vehicle image display device
JP2005284410A (en) Vehicle recognition device and method
JPH06107096A (en) Forward monitoring method for vehicle
JP3849505B2 (en) Obstacle monitoring device and program
JP2015148887A (en) Image processing device, object recognition device, moving body instrument control system and object recognition program
JP2008053901A (en) Imaging apparatus and imaging method
JP2001169310A (en) Distance detector
WO2010007718A1 (en) Vehicle vicinity monitoring device
JP2000306097A (en) Road area decision device
JP3034101B2 (en) Method and apparatus for identification using motion vector
JP2002321579A (en) Warning information generating method and vehicle side image generating device
JP2001084497A (en) Position detector
JP2001160146A (en) Method and device for recognizing image
JP2001028100A (en) Object extracting device
JP2006318061A (en) Apparatus, method, and program for image processing
JP4162868B2 (en) Object extraction device
JP2008028478A (en) Obstacle detection system, and obstacle detecting method
JP2008040724A (en) Image processing device and image processing method
JP2006024120A (en) Image processing system for vehicles and image processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080812

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080930

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081015

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111024

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121024

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131024

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees