JP2001033238A - Object recognizing apparatus - Google Patents

Object recognizing apparatus

Info

Publication number
JP2001033238A
JP2001033238A JP11208713A JP20871399A JP2001033238A JP 2001033238 A JP2001033238 A JP 2001033238A JP 11208713 A JP11208713 A JP 11208713A JP 20871399 A JP20871399 A JP 20871399A JP 2001033238 A JP2001033238 A JP 2001033238A
Authority
JP
Japan
Prior art keywords
image
light
area
luminance value
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11208713A
Other languages
Japanese (ja)
Other versions
JP4165966B2 (en
Inventor
Hiromitsu Yuhara
博光 湯原
Tomoyoshi Aoki
友好 青木
Masakazu Saka
雅和 坂
Morimichi Nishigaki
守道 西垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP20871399A priority Critical patent/JP4165966B2/en
Publication of JP2001033238A publication Critical patent/JP2001033238A/en
Application granted granted Critical
Publication of JP4165966B2 publication Critical patent/JP4165966B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To make recognizable an object with high reliability by extracting a brightness value of a small area included in a shielding area of a picked-up image shielded by a shielding means, judging the effectiveness of the image obtained by an image pickup means according to the brightness value. SOLUTION: A shielding part 40 can be attached to a first image pickup device 3, or may be formed independently of the image pickup device 3. The shielding part 40 shields a part of a lens included in the first image pickup device 3 or a part of a photo detecting element of an image sensor. Accordingly, an image is picked up with a part of the image picked up by the image pickup device 3 shielded. When an image obtained from the image pickup device 3 and converted to digital data is stored in an image memory 5, a shielding brightness extract part 41 extracts the brightness value of a pixel included in the shielded area from the image memory 5. An image determining part 42 determines whether the picked-up image is effective or not according to the extracted brightness value.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、車両に搭載され
たカメラによる撮像手段を用いて、車両外部の物体を認
識する光学式の物体認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an optical object recognizing apparatus for recognizing an object outside a vehicle by using an image pickup means of a camera mounted on the vehicle.

【0002】[0002]

【従来の技術】画像の状態を検知する手法に関連するも
のとして、特開平8−154205号公報には、受光す
る光量が部分的にきわめて強くなり、モニター再生時に
白い筋を引くいわゆるスミアを除去する撮像装置が記載
されている。この撮像装置には、受光部の1ラインを遮
光する遮光手段が備えられており、遮光した1ラインと
同じ列に属する領域のCCD出力信号から、遮光した1
ラインのCCD出力信号を減算することにより、スミア
を除去する。
2. Description of the Related Art Japanese Unexamined Patent Application Publication No. 8-154205 discloses a technique for detecting the state of an image. An imaging device is described. This imaging apparatus is provided with a light-shielding unit that shields one line of the light receiving unit.
Smear is removed by subtracting the CCD output signal of the line.

【0003】[0003]

【発明が解決しようとする課題】しかし、上記のような
スミア以外にも、電気的ノイズ、レンズ/受光素子の位
置ずれ等により、撮像された画像が正常時の画像と異な
るものになることがある。このような画像を物体認識の
処理で使用すると、物体を誤認し、白線の位置を間違っ
て認識したり、他車両との車間距離を誤って算出するこ
ととなり、物体認識の結果に基づく車両走行制御に影響
を及ぼすことがある。
However, in addition to the above-described smear, the captured image may differ from the normal image due to electric noise, displacement of the lens / light receiving element, and the like. is there. If such an image is used in the object recognition processing, an object is erroneously recognized, a position of a white line is incorrectly recognized, or an inter-vehicle distance with another vehicle is incorrectly calculated. May affect control.

【0004】この発明は、これらの問題を解決しようと
するものであり、撮像装置から得られた画像の有効性を
判断し、より信頼性の高い物体認識を行うことができる
ようにすることを目的とする。
The present invention is intended to solve these problems, and it is an object of the present invention to determine the validity of an image obtained from an image pickup apparatus and perform more reliable object recognition. Aim.

【0005】[0005]

【課題を解決するための手段】上記の課題を解決するた
め、請求項1の発明は、車両外部の物体を認識する物体
認識手段を有する物体認識装置において、受光部を有す
る少なくとも1つの撮像手段と、前記受光部の一部を遮
光する遮光手段と、前記撮像手段により撮像された画像
のうち前記遮光手段によって遮光された遮光領域に含ま
れる小領域の輝度値を抽出する輝度値抽出手段と、前記
抽出された小領域の輝度値に基づいて、前記撮像手段に
より得られた画像の有効性を判断する画像判定手段とを
備えるという構成をとる。
According to a first aspect of the present invention, there is provided an object recognizing apparatus having an object recognizing means for recognizing an object outside a vehicle. A light-shielding unit that shields a part of the light-receiving unit, and a brightness-value extracting unit that extracts a brightness value of a small region included in a light-shielded region shielded by the light-shielding unit in an image captured by the imaging unit. And an image determining unit that determines the validity of the image obtained by the imaging unit based on the luminance value of the extracted small region.

【0006】請求項1の発明によると、撮像された画像
が有効かどうか判断され、その結果に基づいて物体認識
の処理を行うので、物体認識の精度を高めることができ
る。
According to the first aspect of the present invention, it is determined whether the captured image is valid and the object recognition processing is performed based on the result, so that the accuracy of the object recognition can be improved.

【0007】請求項2の発明は、請求項1の物体認識装
置において、前記画像判定手段が、前記撮像手段により
連続して撮像された複数の画像を使用して画像の有効性
を判断するという構成をとる。
According to a second aspect of the present invention, in the object recognition apparatus of the first aspect, the image determining means determines the validity of the image by using a plurality of images continuously captured by the image capturing means. Take the configuration.

【0008】請求項2の発明によると、連続して複数回
にわたって画像を検証してから画像の有効性を判断する
ので、精度の良い安定した物体認識を行うことができ
る。
According to the second aspect of the present invention, since the validity of the image is determined after continuously verifying the image a plurality of times, accurate and stable object recognition can be performed.

【0009】請求項3の発明は、請求項1または請求項
2の物体認識装置において、前記画像判定手段が、前記
輝度値抽出手段により抽出された小領域の輝度値が所定
値以上の小領域の数に基づいて画像の有効性を判断する
という構成をとる。
According to a third aspect of the present invention, in the object recognition apparatus according to the first or second aspect, the image judging means determines that the luminance value of the small area extracted by the luminance value extracting means is a predetermined value or more. The validity of the image is determined based on the number.

【0010】請求項3の発明によると、ノイズや位置ず
れによりエラーとして検出された小領域の数に基づいて
画像の有効性を判断するので、さらに精度の良い安定し
た物体認識を行うことができる。
According to the third aspect of the present invention, the validity of an image is determined based on the number of small areas detected as errors due to noise or displacement, so that more accurate and stable object recognition can be performed. .

【0011】請求項4の発明は、請求項1から請求項3
のいずれかに記載の物体認識装置において、前記受光部
がレンズおよび受光素子を有し、前記遮光手段を、前記
レンズと受光素子の間または前記レンズの対象物側に配
置し、前記撮像手段により得られる画像の複数ラインが
遮光されて撮像されるという構成をとる。
[0011] The invention of claim 4 is the invention of claims 1 to 3.
In the object recognition device according to any one of the above, the light receiving unit has a lens and a light receiving element, the light blocking means is arranged between the lens and the light receiving element or on the object side of the lens, the imaging means A configuration is adopted in which a plurality of lines of the obtained image are captured while being shielded from light.

【0012】請求項4の発明によると、スミアだけでな
く、電気的ノイズや撮像装置のレンズ/受光素子の位置
ずれを容易に検出することができ、画像の有効性の判断
をより正確に行うことができる。
According to the fourth aspect of the present invention, not only smear but also electric noise and displacement of the lens / light receiving element of the imaging device can be easily detected, and the validity of the image can be more accurately determined. be able to.

【0013】[0013]

【発明の実施の形態】次に図面を参照してこの発明の実
施の形態を説明する。図1は、この発明の一実施例の物
体認識装置の全体的なブロック図である。図2は、この
実施例で用いる三角計測法による距離の計測原理を説明
する図である。まず図2を参照して1対の撮像装置を用
いた距離の測定方法を説明する。
Embodiments of the present invention will now be described with reference to the drawings. FIG. 1 is an overall block diagram of an object recognition apparatus according to one embodiment of the present invention. FIG. 2 is a view for explaining the principle of measuring the distance by the triangular measurement method used in this embodiment. First, a method of measuring a distance using a pair of imaging devices will be described with reference to FIG.

【0014】一対の撮像装置の一方を構成するイメージ
センサ21およびレンズ23は、他方の撮像装置を構成
するイメージセンサ22およびレンズ24と所定の間隔
すなわち基線長Bだけ左右方向または上下方向に間隔を
おいて配置されている。イメージセンサ21および22
は、典型的には2次元のCCDであり、2次元的に配列
されたフォトセンサのアレイであってもよい。図2では
簡単のため、2次元のイメージセンサの複数ラインのう
ち1ラインのみを示して説明する。
The image sensor 21 and the lens 23 constituting one of the pair of image pickup devices are spaced apart from the image sensor 22 and the lens 24 constituting the other image pickup device by a predetermined distance, that is, a base line length B in the horizontal or vertical direction. It is arranged in. Image sensors 21 and 22
Is typically a two-dimensional CCD, and may be a two-dimensional array of photosensors. In FIG. 2, for simplicity, only one of a plurality of lines of the two-dimensional image sensor is shown and described.

【0015】夜間の使用を考慮すると赤外線を用いた撮
像装置にするのがよい。この場合、レンズ23、24の
前に赤外線透過性のフィルタを置き、赤外線の光源を用
いて一定の周期で対象物20を照射し、対象物20から
反射する赤外線をイメージセンサ21、22が感知する
ようにするのがよい。
Considering nighttime use, it is preferable to use an imaging device using infrared rays. In this case, an infrared transmissive filter is placed in front of the lenses 23 and 24, and the object 20 is illuminated at a constant period using an infrared light source, and the image sensors 21 and 22 detect infrared rays reflected from the object 20. It is better to do it.

【0016】イメージセンサ21、22は、それぞれレ
ンズ23、24の焦点距離fに配置されている。レンズ
23、24のある平面から距離aにある対象物の像が、
イメージセンサ21ではレンズ23の光軸からX1ずれ
た位置に形成され、イメージセンサ22ではレンズ24
の光軸からX2だけずれた位置に形成されるとすると、
レンズ23、24の面から対象物20までの距離aは、
三角計測法の原理により、a=B・f/(X1+X2)
で求められる。
The image sensors 21 and 22 are arranged at the focal length f of the lenses 23 and 24, respectively. The image of the object at a distance a from the plane with the lenses 23 and 24 is
The image sensor 21 is formed at a position shifted by X1 from the optical axis of the lens 23.
If it is formed at a position shifted by X2 from the optical axis of
The distance a from the surfaces of the lenses 23 and 24 to the object 20 is
According to the principle of the triangulation measurement method, a = B · f / (X1 + X2)
Is required.

【0017】この実施例では、画像はデジタル化される
ので、距離(X1+X2)はディジタル的に算出され
る。イメージセンサ21および22で得られる画像の片
方または両方をシフトさせながら両画像のそれぞれ対応
する画素の輝度を示すディジタル値の差の絶対値の総和
を求め、これを相関値とする。相関値が最小値になると
きの画像のシフト量が両画像の間の位置ずれ、すなわち
(X1+X2)を示す。観念的には、図2に示すように
イメージセンサ21および22から得られる2つの画像
を重なり合わせるために2つの画像を相対的に移動させ
ねばならない距離が(X1+X2)である。
In this embodiment, since the image is digitized, the distance (X1 + X2) is digitally calculated. While shifting one or both of the images obtained by the image sensors 21 and 22, the sum of the absolute values of the digital values indicating the luminances of the corresponding pixels of the two images is obtained, and this is used as the correlation value. The shift amount of the image when the correlation value becomes the minimum value indicates the displacement between the two images, that is, (X1 + X2). Ideally, as shown in FIG. 2, the distance over which the two images must be moved relatively to overlap the two images obtained from the image sensors 21 and 22 is (X1 + X2).

【0018】以下に述べるように、この発明の一実施例
では、イメージセンサとして、2次元のCCDまたは2
次元のフォトセンサ・アレイを使用する。この場合、2
つのイメージセンサから得られる2次元の画像を相対的
にシフトさせて上述したのと同様の相関計算を行い、相
関値が最小となるときのシフト量を求めると、このシフ
ト量が(X1+X2)に相当する。
As described below, in one embodiment of the present invention, a two-dimensional CCD or a two-dimensional CCD is used as an image sensor.
Use a three-dimensional photosensor array. In this case, 2
When the two-dimensional images obtained from the two image sensors are relatively shifted and the same correlation calculation as described above is performed, and the shift amount when the correlation value becomes minimum is obtained, the shift amount becomes (X1 + X2). Equivalent to.

【0019】次に、図1を参照してこの発明の一実施例
の全体的構成を説明する。第1の撮像装置3は、図2の
レンズ23およびイメージセンサ21からなる一方の撮
像装置に対応し、第2の撮像装置3’は、図2のレンズ
24およびイメージセンサ22からなる他方の撮像装置
に対応する。この実施例では、撮像領域を複数のウィン
ドウW11、W12、・・・に分割し、ウィンドウごとに距
離の計測を行うので、対象物全体の2次元の画像が必要
になる。このため第1および第2の撮像装置3および
3’を構成するイメージセンサは、2次元のCCDアレ
イまたは2次元のフォトセンサ・アレイで実現される。
Next, an overall configuration of an embodiment of the present invention will be described with reference to FIG. The first imaging device 3 corresponds to one of the imaging devices including the lens 23 and the image sensor 21 in FIG. 2, and the second imaging device 3 ′ corresponds to the other imaging device including the lens 24 and the image sensor 22 in FIG. Corresponds to the device. In this embodiment, the imaging region is divided into a plurality of windows W 11 , W 12 ,..., And the distance is measured for each window. Therefore, a two-dimensional image of the entire object is required. For this reason, the image sensors constituting the first and second imaging devices 3 and 3 'are realized by a two-dimensional CCD array or a two-dimensional photo sensor array.

【0020】ここで図6を参照すると、図6の(a)
は、撮像装置3または3’により自車両の前方を走行す
る他車両を撮像した画像の例を示し、図6の(b)は、
図6の(a)の画像を概念的に複数のウィンドウに分割
したものを示す。図6の(b)は、縦方向に行および横
方向に列をとり、簡単のため10行×15列のウィンド
ウに分割して示す。それぞれのウィンドウには番号が付
されており、たとえばW 12は、1行2列にあるウィンド
ウを示す。
Referring now to FIG. 6, FIG.
Travels in front of the own vehicle by the imaging device 3 or 3 ′.
FIG. 6B shows an example of an image obtained by capturing another vehicle.
The image of FIG. 6A is conceptually divided into a plurality of windows.
This is shown. FIG. 6 (b) shows rows and horizontal lines
10 rows x 15 columns for simplicity
C is shown separately. Each window is numbered
For example, W 12Is the window in row 1 and column 2.
Show c.

【0021】撮像装置3および3’で撮像された対象物
の画像はアナログ・デジタル変換器(A/D変換器)4
および4’でデジタルデータに変換され、画像メモリ5
および5’にそれぞれ格納される。ウィンドウ切り出し
部13によって、ウィンドウW11に対応する画像部分が
画像メモリ5および5’からそれぞれ切り出されて相関
計算部6に送られる。相関計算部6は、切り出された2
つの画像を所定の単位ずつシフトさせて前述した相関計
算を行い、相関値が最小になるときのシフト量を求める
と、このシフト量が(X1+X2)である。相関計算部
6は、こうして求めた(X1+X2)の値を距離計算部
7に送る。
An image of the object picked up by the image pickup devices 3 and 3 'is converted into an analog / digital converter (A / D converter) 4
Are converted to digital data by the image memory 5 and
And 5 'respectively. By the window cutout unit 13, an image portion corresponding to the window W 11 is sent to the correlation calculation section 6 cut out respectively from the image memory 5 and 5 '. The correlation calculator 6 calculates the extracted 2
The above-described correlation calculation is performed by shifting the two images by a predetermined unit, and the shift amount when the correlation value is minimized is (X1 + X2). The correlation calculator 6 sends the value of (X1 + X2) thus obtained to the distance calculator 7.

【0022】距離計算部7は、前述したa=B・f/
(X1+X2)の式を用いて、ウィンドウW11にある対
象物までの距離a11を求める。こうして求められた距離
11は、距離記憶部8に記憶される。同様の計算処理が
それぞれのウィンドウについて順次実行され、距離
11、a12、・・・が距離記憶部8に記憶される。
The distance calculator 7 calculates a = B · f /
(X1 + X2) using the formula, obtaining the distance a 11 to the object in the window W 11. The distance a 11 thus obtained is stored in the distance storage unit 8. Similar calculation processing is sequentially performed for each window, and the distances a 11 , a 12 ,... Are stored in the distance storage unit 8.

【0023】この距離の計算は、以下に述べる道路領域
判定部34および物体検出部35が使用するのに必要な
ウィンドウについてのみ実行することもできる。以下、
あるウィンドウについて計算された対象物までの距離
を、そのウィンドウの計測距離という。
The calculation of the distance can be executed only for windows necessary for the use of the road area determination unit 34 and the object detection unit 35 described below. Less than,
The distance to the target calculated for a certain window is called the measured distance of that window.

【0024】上の相関計算で用いる画像データは、撮像
素子アレイの素子のピッチによって分解能が定まるの
で、フォトセンサ・アレイなど比較的ピッチの大きい受
光素子を用いるときは、ピッチ間の補間計算を行って画
像データの密度を高める処理を行い、こうして密度を高
められた画像データについて相関計算を行うのが好まし
い。
Since the resolution of the image data used in the above correlation calculation is determined by the pitch of the elements of the image sensor array, when a light receiving element having a relatively large pitch such as a photo sensor array is used, interpolation calculation between the pitches is performed. It is preferable to perform a process of increasing the density of the image data by performing the correlation calculation on the image data having the increased density.

【0025】また、温度による撮像素子アレイの特性変
化を補正するため、温度センサを撮像素子アレイ付近に
配置し、温度センサから得られる温度情報に基づいて距
離計算を補正するようにすることもできる。
In order to correct the characteristic change of the image sensor array due to the temperature, a temperature sensor may be arranged near the image sensor array, and the distance calculation may be corrected based on temperature information obtained from the temperature sensor. .

【0026】次に、図1から図4を参照して、撮像した
画像の有効性を判断するための、撮像装置の受光部に対
する遮光について説明する。図1の遮光部40は、典型
的には第1の撮像装置3に取り付けることができ、また
は撮像装置3とは独立に形成してもよい。遮光部40
は、第1の撮像装置3に含まれるレンズ23の一部また
はイメージセンサ21の受光素子の一部を遮蔽する。し
たがって、第1の撮像装置3により撮像される画像の一
部が、遮光された状態で撮像される。
Next, with reference to FIGS. 1 to 4, light-shielding of the light-receiving portion of the imaging device for determining the validity of the captured image will be described. The light shielding unit 40 in FIG. 1 can be typically attached to the first imaging device 3, or may be formed independently of the imaging device 3. Light shield 40
Shields a part of the lens 23 included in the first imaging device 3 or a part of the light receiving element of the image sensor 21. Therefore, a part of the image captured by the first imaging device 3 is captured in a light-shielded state.

【0027】遮光部40は、様々な方法で実現すること
ができ、たとえばアルミニウム、銅、コバルト、タング
ステンなどのような遮光性を有する金属材料から形成さ
れる遮光板により実現することができる。または、黒色
のマスクを透明なフィルムに形成した遮光フィルムによ
り実現してもよい。
The light-shielding portion 40 can be realized by various methods, for example, by a light-shielding plate formed of a light-shielding metal material such as aluminum, copper, cobalt, and tungsten. Or you may implement | achieve by the light shielding film which formed the black mask on the transparent film.

【0028】遮光部40は、イメージセンサに含まれる
受光素子に直接遮光膜を形成することもできるけれど
も、図2の線25に示すように、イメージセンサ21の
一部を遮光するようレンズ23とイメージセンサ21の
間に配置するか、または線26に示すように、レンズ2
3の一部を遮光するようレンズ24の対象物側に配置す
るのが好ましい。こうすることにより、撮像された画像
に基づいてレンズまたはイメージセンサの受光素子の位
置ずれを検出することができるからである。なお、図2
に示される線25および26は、遮光部40を配置する
場所を概念的に示したものであり、遮光部40の形状を
示すものではない。
Although the light-shielding portion 40 can directly form a light-shielding film on the light receiving element included in the image sensor, as shown by a line 25 in FIG. Placed between the image sensors 21 or as shown by line 26
It is preferable to dispose a part of the lens 3 on the object side of the lens 24 so as to shield light. By doing so, it is possible to detect the displacement of the lens or the light receiving element of the image sensor based on the captured image. Note that FIG.
The lines 25 and 26 shown in FIG. 2 conceptually show places where the light shielding unit 40 is arranged, and do not show the shape of the light shielding unit 40.

【0029】さらに、車両のピッチングやローリングな
どの影響により余分な光量が撮像装置の受光部に入って
くるのを防ぐ「ひさし」として作用させるため、図3に
示すように、遮光部40をレンズの対象物側に配置し、
レンズの上側を遮蔽するよう形成するのが好ましい。
Further, as shown in FIG. 3, the light shielding unit 40 is provided with a lens so as to act as a "eave" for preventing an extra amount of light from entering the light receiving unit of the image pickup device due to the influence of pitching or rolling of the vehicle. Placed on the object side of
Preferably, it is formed so as to shield the upper side of the lens.

【0030】この実施例では、遮光部40は、撮像され
た画像の上部1ライン〜60ラインの領域が遮光されて
撮像されるよう、撮像装置3に形成される。図4の
(a)は、第1の撮像装置3により撮像される画像領域
を示し、この領域は、撮像装置3を構成する2次元のイ
メージセンサに対応する。2次元のイメージセンサは、
たとえば水平方向に512個、垂直方向に480個の受
光素子を備えているので、撮像される画像領域は512
個×480個の画素を持つ。この実施例では、画像領域
の上部1ラインから60ラインの領域を、遮光されて撮
像される領域すなわち遮光領域51と定義し、61ライ
ン〜480ラインを物体認識の処理の対象となる物体認
識領域52と定義する。
In this embodiment, the light-shielding section 40 is formed in the image pickup device 3 so that the upper 1 line to 60 lines of the picked-up image are shielded and picked up. FIG. 4A illustrates an image area captured by the first imaging device 3, and this region corresponds to a two-dimensional image sensor included in the imaging device 3. The two-dimensional image sensor
For example, since 512 light receiving elements are provided in the horizontal direction and 480 light receiving elements are provided in the vertical direction, the image area to be imaged is 512
It has 480 pixels. In this embodiment, the area from the first line to the 60th line of the image area is defined as a light-shielded area, that is, a light-shielded area 51, and the 61st to 480th lines are defined as the object recognition area to be subjected to the object recognition processing. 52.

【0031】遮光領域は、撮像された画像領域のうち、
物体認識の処理に使用しない、すなわち車両前方の道路
上にある物体が撮像される領域ではない場所に定義され
る。さらに、「ひさし」として余分な光量が受光素子に
入るのをなるべく防止するため、図4の(a)のよう
に、遮光領域51を画像領域の上部に定義するのが好ま
しい。また、イメージセンサの複数ラインを遮光するの
は、1ライン分だけの遮光では検出が困難な電気的ノイ
ズをも容易に検出することができるようにするためであ
る。
The light-shielded area is one of
It is defined as a place that is not used for object recognition processing, that is, is not a region where an object on the road ahead of the vehicle is imaged. Further, in order to prevent an extra amount of light from entering the light receiving element as the "eave" as much as possible, it is preferable to define the light shielding area 51 above the image area as shown in FIG. Further, the plurality of lines of the image sensor are shielded from light so that electrical noise that is difficult to detect by shielding only one line can be easily detected.

【0032】図4の(b)は、こうして形成された遮光
部40を介して、撮像装置3により車両の前方を撮像し
た画像の例を示す。1ライン〜60ラインの遮光領域5
1は、遮光部40により遮光されて撮像された部分であ
り、画素の輝度値がゼロまたはゼロに近い値を示すた
め、図4の(b)に示すように暗く撮像される。また、
物体認識領域52には、前方を走る他の車両が撮像され
ている。
FIG. 4B shows an example of an image of the front of the vehicle taken by the image pickup device 3 via the light shielding portion 40 thus formed. Light shielding area 5 of 1 line to 60 lines
Reference numeral 1 denotes a portion which is imaged while being shielded from light by the light-shielding unit 40. Since the luminance value of the pixel indicates zero or a value close to zero, the image is darkly imaged as shown in FIG. Also,
In the object recognition area 52, another vehicle running ahead is imaged.

【0033】図4の(c)は、部分的に受光した光量が
強くなったり、接触不良、部品の故障、電源や信号ハー
ネスからの入力、電波などによる電気的影響により、撮
像された画像領域にノイズが含まれる画像の例を示す。
ここで、ノイズは白い四角で表されている。ノイズの発
生は、一部の画素の輝度値が上昇させる。したがって、
ノイズが遮光領域51に影響すると、遮光領域51に含
まれる画素の一部の輝度値が上昇し、図4の(c)の領
域53および54に示すように、輝度値が上昇した画素
が遮光領域51に現れる。
FIG. 4 (c) shows an image area picked up due to an increase in the amount of light partially received, a poor contact, a component failure, an input from a power supply or a signal harness, or an electric influence due to radio waves or the like. Shows an example of an image containing noise.
Here, the noise is represented by a white square. The occurrence of noise increases the luminance value of some pixels. Therefore,
When the noise affects the light-shielding region 51, the luminance value of some of the pixels included in the light-shielding region 51 increases, and as shown in the regions 53 and 54 in FIG. Appears in region 51.

【0034】図4の(d)は、衝撃や温度変化などが原
因で、レンズの位置ずれ、またはイメージセンサを構成
する受光素子の位置ずれが発生した状況で撮像された画
像の例を示す。図から明らかなように、遮光領域51に
対してレンズまたは受光素子の位置がずれているため
に、遮光領域51と、輝度値がゼロまたはゼロに近い暗
い部分の領域とがずれて撮像されている。したがって、
遮光領域51には、領域55(斜線がかけられた部分)
において輝度値が上昇した画素を含む。
FIG. 4D shows an example of an image picked up in a situation where the lens is misaligned or the light receiving element constituting the image sensor is misaligned due to an impact or a change in temperature. As is apparent from the figure, since the position of the lens or the light receiving element is shifted with respect to the light-shielding region 51, the light-shielded region 51 and the dark portion region where the luminance value is zero or close to zero are imaged with a shift. I have. Therefore,
In the light-shielding area 51, an area 55 (a shaded portion)
Includes pixels whose luminance values have increased.

【0035】上記のように、部分的に大きくなった光量
や電気的な影響のため、およびレンズや受光素子の位置
ずれのために遮光領域において輝度値が上昇した画素
を、以下「エラー画素」と呼ぶことにする。
As described above, a pixel whose luminance value has increased in a light-shielded area due to a partially increased light amount or electric influence, and a position shift of a lens or a light receiving element is hereinafter referred to as an “error pixel”. I will call it.

【0036】次に、遮光部40を介して撮像された画像
の遮光領域51における画素の輝度値に基づいて、画像
の有効性を判断する方法を説明する。この実施例では、
輝度値を、256の階調(真黒を示す値「0」から真白
を示す値「255」の間)を持つデジタルデータとして
表す。
Next, a method for judging the validity of an image based on the luminance values of the pixels in the light-shielded area 51 of the image captured via the light-shielding section 40 will be described. In this example,
The luminance value is represented as digital data having 256 gradations (between the value “0” representing pure black and the value “255” representing pure white).

【0037】なお、この実施例では、画素ごとの輝度値
に基づいて画像の有効性を判断するけれども、遮光領域
を複数の小領域に分割して、小領域ごとの輝度値に基づ
いて画像の有効性を判断してもよい。この場合には、複
数の画素が合わさって1つの小領域を構成することがで
き、小領域の輝度値は、小領域に含まれる画素の輝度値
の平均を使用することができる。さらに、この小領域
を、前述した距離の計測を行うのに使用するウィンドウ
と同じ大きさにすることもできる。
In this embodiment, although the validity of an image is determined based on the luminance value of each pixel, the light-shielded area is divided into a plurality of small areas, and the image is determined based on the luminance value of each small area. The effectiveness may be determined. In this case, a plurality of pixels can be combined to form one small area, and the average luminance value of the pixels included in the small area can be used as the luminance value of the small area. Furthermore, this small area can be made the same size as the window used for performing the distance measurement described above.

【0038】図1に戻り、撮像装置3から得られ、デジ
タルデータに変換された画像が画像メモリ5に記憶され
ると、遮光輝度抽出部41は、画像メモリ5から遮光領
域51に含まれる画素の輝度値を抽出する。この実施例
では、図4の(a)に示すように、1〜60ラインに対
応する30,720個の画素の輝度値を抽出する。
Returning to FIG. 1, when an image obtained from the image pickup device 3 and converted into digital data is stored in the image memory 5, the light-shielded luminance extracting section 41 reads out the pixels included in the light-shielded area 51 from the image memory 5. Is extracted. In this embodiment, as shown in FIG. 4A, luminance values of 30,720 pixels corresponding to 1 to 60 lines are extracted.

【0039】画像判定部42は、遮光輝度抽出部41に
より抽出された輝度値に基づいて、撮像された画像が有
効かどうか判断する。前述したように、輝度値が上昇し
た画素が遮光領域51に含まれる場合には、図4の
(c)のように撮像された画像の画素が部分的に光量が
きわめて大きくなって、再生した画像にスミアを発生さ
せたり、電気的ノイズが画像に及んでいることがあり、
または図4の(d)のようにレンズや受光素子の位置が
ずれていることがある。このような場合に、撮像された
画像を物体認識の処理に使用すると、物体の誤認を行う
ことがあるので、画像の有効性を判断し、より信頼性の
高い物体認識を行うことができるようにする。
The image determining unit 42 determines whether the captured image is valid based on the luminance value extracted by the light-shielding luminance extracting unit 41. As described above, when the pixel whose luminance value has increased is included in the light-shielding region 51, the pixel of the image captured as shown in FIG. Images can be smeared or electrical noise can affect the image,
Alternatively, the positions of the lens and the light receiving element may be shifted as shown in FIG. In such a case, if the captured image is used for the object recognition processing, the object may be erroneously recognized. Therefore, it is possible to determine the validity of the image and perform more reliable object recognition. To

【0040】最初に、画像判定部42は、エラー画素検
出部43により、遮光領域51に含まれる画素の輝度値
に基づいて、ノイズまたは位置ずれによるエラー画素の
検出を行う。エラー画素検出部43は、遮光領域51に
含まれる画素の輝度値と予め決められた所定値とを比較
し、画素の輝度値が所定値より大きければ、その画素を
エラーとして検出する。図4の(c)の例では、ノイズ
領域53および54に含まれる画素がエラーとして検出
され、図4の(d)の例では、位置ずれ領域55に含ま
れる画素がエラーとして検出される。次に、エラー画素
検出部43は、遮光領域51でエラーとして検出された
画素数の合計を求める。
First, the image judging section 42 detects an error pixel due to noise or misalignment by the error pixel detecting section 43 based on the luminance value of the pixel included in the light shielding area 51. The error pixel detection unit 43 compares the luminance value of a pixel included in the light shielding area 51 with a predetermined value, and if the luminance value of the pixel is larger than the predetermined value, detects the pixel as an error. In the example of FIG. 4C, pixels included in the noise regions 53 and 54 are detected as errors, and in the example of FIG. 4D, the pixels included in the displacement region 55 are detected as errors. Next, the error pixel detection unit 43 calculates the total number of pixels detected as errors in the light-shielded area 51.

【0041】処理を高速に行うため、画素の輝度値を抽
出して所定値と比較する処理を並列に行うのが好まし
い。たとえば、複数ラインの画素を抽出して、それぞれ
のラインの画素を並列に処理することができる。
In order to perform the processing at high speed, it is preferable to perform the processing of extracting the luminance value of the pixel and comparing it with a predetermined value in parallel. For example, a plurality of lines of pixels can be extracted and the pixels of each line can be processed in parallel.

【0042】画像判定部42における無効画像候補抽出
部44は、エラー画素検出部43によりエラーとして検
出された画素数が所定値より大きければ、撮像された画
像を無効画像候補として抽出する。エラー画素数が所定
値より大きければ、撮像された画像にノイズが多数発生
していたり、レンズや受光素子の位置ずれが大きい状況
を示すので、撮像された画像を無効画像候補とする。エ
ラー画素数が所定値より小さければ、エラー画素は、画
素の輝度値に含まれる誤差によるものとみなすことがで
きるので、撮像された画像を有効画像と判断する。この
ように、エラーとして検出された画素数に基づいて無効
画像候補を抽出することにより、物体認識で誤認を起こ
す可能性の高い画像を抽出することができる。
If the number of pixels detected as an error by the error pixel detecting unit 43 is larger than a predetermined value, the invalid image candidate extracting unit 44 in the image determining unit 42 extracts a captured image as an invalid image candidate. If the number of error pixels is larger than a predetermined value, it indicates a situation in which a large number of noises have occurred in the captured image or a large positional shift of the lens or the light receiving element. Therefore, the captured image is set as an invalid image candidate. If the number of error pixels is smaller than a predetermined value, the error pixel can be considered to be due to an error included in the luminance value of the pixel, and thus the captured image is determined to be a valid image. As described above, by extracting an invalid image candidate based on the number of pixels detected as an error, it is possible to extract an image that is likely to cause erroneous recognition in object recognition.

【0043】他の実施例では、無効画像候補抽出部44
は、エラーとして検出された画素の輝度値を合計し、合
計した輝度値が所定値より大きければ、撮像された画像
を無効画像候補として抽出するようにしてもよい。また
は、無効画像候補抽出部44は、遮光領域におけるすべ
ての画素の輝度値の平均値を算出し、平均値がゼロまた
はゼロ付近の値より大きい場合に、今回撮像された画像
を無効画像候補として抽出するようにしてもよい。さら
に、平均値の代わりに、遮光領域の画素のすべての輝度
値の和を算出し、和が所定値より大きい場合に、無効画
像候補とするようにしてもよい。
In another embodiment, the invalid image candidate extracting section 44
May sum the luminance values of the pixels detected as errors, and extract the captured image as an invalid image candidate if the total luminance value is larger than a predetermined value. Alternatively, the invalid image candidate extracting unit 44 calculates the average value of the luminance values of all the pixels in the light-shielded area, and when the average value is greater than zero or a value near zero, the image captured this time is regarded as an invalid image candidate. You may make it extract. Furthermore, instead of the average value, the sum of all the brightness values of the pixels in the light-shielded area may be calculated, and when the sum is larger than a predetermined value, the image may be regarded as an invalid image candidate.

【0044】次に、画像判定部42における最終判定部
45が、無効画像候補が連続して所定回数以上抽出され
た場合に、最終的に今回撮像された画像を無効と判定す
る。この実施例では、たとえば100ミリ秒の周期で撮
像装置3により画像が撮像されて画像の有効性が判断さ
れる。したがって、たとえば10周期の間連続して無効
画像候補が抽出された場合に、最終的に今回撮像された
画像を無効と判定する。こうすることにより、たとえば
レンズまたは受光素子の位置ずれのように、自動的には
修復しない恒久的な故障による場合には、物体認識の処
理を停止させて物体の誤認を防ぐことができる。また、
瞬間的に光量が大きくなったり、瞬間的な電磁波の影響
でノイズが現れたりするような瞬間的なエラーの場合に
は、無効画像と判定されないので、頻繁に起こりうる小
さなエラーにより物体の認識処理が中止されるという弊
害をなくすことができる。
Next, when the invalid image candidates are successively extracted a predetermined number of times or more, the final judgment unit 45 in the image judgment unit 42 finally judges that the image captured this time is invalid. In this embodiment, an image is captured by the imaging device 3 at a cycle of, for example, 100 milliseconds, and the validity of the image is determined. Therefore, for example, when an invalid image candidate is continuously extracted for ten cycles, the image captured this time is finally determined to be invalid. In this way, in the case of a permanent failure that is not automatically repaired, such as a displacement of a lens or a light receiving element, the object recognition process can be stopped to prevent erroneous recognition of an object. Also,
In the case of a momentary error such as an instantaneous increase in the amount of light or noise appearing due to the effect of a momentary electromagnetic wave, the image is not determined to be an invalid image. Can be eliminated.

【0045】最終判定部45は、無効画像と判定した場
合には、今回撮像された画像が無効であることを示すフ
ェイル信号を出力する。出力されたフェイル信号を、た
とえば図1の物体認識部14に送ることができる。物体
認識部14は、フェイル信号を受け取って、その無効と
判定された画像については物体認識の処理を行わないよ
うにすることができ、またはすでに開始した物体認識の
処理を中止することができる。
If the final determination section 45 determines that the image is invalid, it outputs a fail signal indicating that the image captured this time is invalid. The output fail signal can be sent to, for example, the object recognition unit 14 in FIG. The object recognizing unit 14 receives the fail signal, and may not perform the object recognition process on the image determined to be invalid, or may cancel the already started object recognition process.

【0046】さらに、最終判定部45は、フェイル信号
を車両制御部18に送ることもできる。車両制御部16
は、フェイル信号を受け取って、物体認識の結果に基づ
いた車両制御モードに入らないようにすることができ
る。さらに、最終判定部45がフェイル信号を出力する
ことにより、レーザーレーダーによるミリ波のみによる
物体認識処理を行うようシステムを切り換えることもで
きる。
Further, the final determination section 45 can send a fail signal to the vehicle control section 18. Vehicle control unit 16
Can receive a fail signal and not enter a vehicle control mode based on the result of object recognition. Further, by outputting the fail signal by the final determination unit 45, the system can be switched to perform the object recognition processing using only the millimeter wave by the laser radar.

【0047】この実施例では、最終判定部45は、無効
画像と判定しなかった場合には、今回撮像された画像が
有効と判断されたことを示すパス信号を出力する。この
場合には、たとえば物体認識部14は、このパス信号を
受け取ってから物体認識の処理を開始するようにするこ
とができ、車両制御部18は、パス信号を受け取ってか
ら車両制御モードに入るようにすることができる。しか
し、最終判定部45は、画像が有効と判断した場合に
は、いかなる信号も出力しないようにしてもよい。
In this embodiment, when it is not determined that the image is invalid, the final determination unit 45 outputs a pass signal indicating that the image captured this time is determined to be valid. In this case, for example, the object recognition unit 14 can start the object recognition processing after receiving the pass signal, and the vehicle control unit 18 enters the vehicle control mode after receiving the pass signal. You can do so. However, the final determination unit 45 may not output any signal when determining that the image is valid.

【0048】より高速に物体認識の処理を行うため、上
記に説明した対象物までの距離の計測と、画像の有効性
を判断する処理とを並列に実行するのが好ましい。
In order to perform the object recognition processing at a higher speed, it is preferable to execute the above-described measurement of the distance to the object and the processing of judging the validity of the image in parallel.

【0049】他の実施例では、無効画像抽出部44は、
無効画像候補として抽出された画像の遮光領域における
エラー画素の輝度値だけでなくエラー画素の画像におけ
る位置を同時に抽出し、最終判定部45が、同じ位置に
おいてエラー画素が複数回抽出された場合に無効画像と
判定するようにしてもよい。このような場合には、レン
ズや受光素子の位置ずれのような恒久的な故障である可
能性があるので、最終判定部45は、フェイル信号の出
力と同時にエラー画素の画像における位置を出力して、
故障個所を何らかのモニターに表示することもできる。
In another embodiment, the invalid image extracting unit 44
When the position of the error pixel in the image as well as the luminance value of the error pixel in the light-shielded region of the image extracted as the invalid image candidate is simultaneously extracted, and the final determination unit 45 extracts the error pixel at the same position a plurality of times, It may be determined that the image is invalid. In such a case, there is a possibility that the failure is a permanent failure such as a displacement of the lens or the light receiving element, so the final determination unit 45 outputs the position of the error pixel in the image simultaneously with the output of the fail signal. hand,
The fault location can be displayed on some monitor.

【0050】この実施例では、1つの撮像装置3により
撮像された画像に基づいて画像の有効性を判断するけれ
ども、前述の距離の計測に使用した一対の撮像装置3お
よび3’の両方について遮光を行い、撮像された2つの
画像を使用して画像の有効性を判断してもよい。この場
合には、撮像された2つの画像についてそれぞれ並行に
画像の有効性の判断を行い、その結果に基づいて最終的
な画像の有効性を判断することができ、または2つの画
像の輝度値をたとえば加算して組み合わせ、その組み合
わせた結果の輝度値に基づいて画像の有効性を判断する
こともできる。
In this embodiment, the validity of an image is determined based on an image taken by one image pickup device 3. However, both the pair of image pickup devices 3 and 3 'used for measuring the distance are shielded from light. And the validity of the image may be determined using the two captured images. In this case, the validity of the images can be determined in parallel for each of the two captured images, and the validity of the final image can be determined based on the result, or the luminance value of the two images can be determined. May be added and combined, for example, and the validity of the image may be determined based on the luminance value of the combined result.

【0051】図5は、遮光輝度抽出部41および画像判
定部42により実行され、遮光領域51に含まれる画素
の輝度値に基づいて、撮像された画像が有効かどうか判
定するフローチャートである。ステップ501の初期化
では、エラー画素数をゼロにクリアする。エラー画素数
とは、遮光領域に含まれ、エラー画素検出部43により
エラーとして検出される画素数である。エラー画素数
は、撮像された画像ごとに算出されるので、ステップ5
01で初期化する。
FIG. 5 is a flowchart executed by the light-shielding luminance extracting section 41 and the image determining section 42 to determine whether or not the captured image is valid based on the luminance values of the pixels included in the light-shielding area 51. In the initialization of step 501, the number of error pixels is cleared to zero. The number of error pixels is the number of pixels included in the light-shielded area and detected by the error pixel detection unit 43 as an error. Since the number of error pixels is calculated for each captured image, step 5
Initialize with 01.

【0052】ステップ502に進み、遮光領域51に含
まれる画素の輝度値を抽出する。抽出された輝度値は、
ステップ503で所定値P1(たとえば、P1=100
とすることができる)と比較され、所定値P1より大き
ければ、ステップ504に進み、エラー画素数に1を加
える。こうして、輝度値の比較処理を、遮光領域に含ま
れる画素について繰り返し、遮光領域に含まれる所定値
より大きい輝度値を持つ画素のすべてをエラーとして検
出する。ステップ505で、遮光領域に含まれるすべて
の画素について輝度値の比較処理が行われたならば、ス
テップ506に進む。
At step 502, the luminance value of the pixel included in the light-shielded area 51 is extracted. The extracted luminance value is
In step 503, a predetermined value P1 (for example, P1 = 100
If it is larger than the predetermined value P1, the process proceeds to step 504, and 1 is added to the number of error pixels. In this way, the brightness value comparison process is repeated for the pixels included in the light-shielded area, and all the pixels included in the light-shielded area and having a brightness value larger than a predetermined value are detected as errors. If the luminance value comparison processing has been performed for all the pixels included in the light-shielded area in step 505, the process proceeds to step 506.

【0053】ステップ506では、ステップ504でカ
ウントされた、今回撮像された画像の遮光領域において
エラーとして検出された画素数の合計が所定値P2(た
とえば、P2=20とすることができる)より大きけれ
ば、今回撮像された画像を無効画像候補と判断し、ステ
ップ507で無効画像候補数に1を加える。所定値P2
以下ならば、今回撮像された画像を有効と判断し、ステ
ップ508に進んで無効画像候補数をゼロにクリアす
る。無効画像候補数は、撮像された複数の画像に対し
て、連続して無効画像候補と判断された画像がいくつあ
るかを示すので、有効画像と判断されたときにゼロにク
リアされる。有効画像と判断されたならば、ステップ5
11に進み、今回撮像された画像が有効と判定されたこ
とを示すパス信号を出力する。
In step 506, the sum of the number of pixels detected as an error in the light-shielded area of the currently captured image counted in step 504 is larger than a predetermined value P2 (for example, P2 = 20). For example, the image captured this time is determined to be an invalid image candidate, and 1 is added to the number of invalid image candidates in step 507. Predetermined value P2
If it is below, it is determined that the image captured this time is valid, and the process proceeds to step 508 to clear the number of invalid image candidates to zero. The number of invalid image candidates indicates the number of images successively determined to be invalid image candidates for a plurality of captured images, and is therefore cleared to zero when the images are determined to be valid images. If it is determined that the image is valid, step 5
Proceeding to step S11, a path signal indicating that the image captured this time is determined to be valid is output.

【0054】ステップ509では、無効画像候補数が所
定数P3(たとえば、P3=10とすることができる)
以上ならば、連続してP3回無効画像候補が抽出された
ことを示すので、今回撮像された画像を最終的に無効画
像と判定し、ステップ510に進む。無効画像候補数が
所定数P3に満たなければ、このルーチンを抜ける。ス
テップ510では、今回撮像された画像が無効と判定さ
れたことを示すフェイル信号を出力する。
In step 509, the number of invalid image candidates is a predetermined number P3 (for example, P3 can be set to 10).
If this is the case, it indicates that the invalid image candidate has been successively extracted three times, so that the image captured this time is finally determined to be an invalid image, and the process proceeds to step 510. If the number of invalid image candidates does not reach the predetermined number P3, the process exits this routine. In step 510, a fail signal indicating that the image captured this time is determined to be invalid is output.

【0055】次に、物体認識の方法を説明する。図1の
物体認識部14は、距離記憶部8に記憶されるそれぞれ
のウィンドウの距離および画像メモリ5から提供され、
図4の(a)に示す物体認識領域52に対応する画像デ
ータに基づいて物体の認識を行う。図7は、物体認識部
14の構成を示すブロック図である。この実施例におけ
る物体認識部14は、画像から道路領域を判定し、道路
領域でない物体を物体として判定する手法を用いる。
Next, an object recognition method will be described. The object recognition unit 14 of FIG. 1 is provided from the distance of each window stored in the distance storage unit 8 and the image memory 5,
The object is recognized based on the image data corresponding to the object recognition area 52 shown in FIG. FIG. 7 is a block diagram illustrating a configuration of the object recognition unit 14. The object recognizing unit 14 in this embodiment uses a method of determining a road area from an image and determining an object that is not a road area as an object.

【0056】図1、図6および図7を参照して、画像に
おける道路領域の判定を説明する。前述したように、図
6の(b)は、前述した図4の(a)の物体認識領域5
2に対応し、この物体認識領域52について道路領域の
判定が行われる。図6の(b)は、10行×15列のウ
ィンドウに分割されているけれども、実際には画像領域
は非常に細かく分割される。より精密に道路領域を判定
するため、それぞれのウィンドウを1つの画素から構成
することができる。または、複数の画素が合わさって1
つのウィンドウを構成してもよい。それぞれのウィンド
ウは、上記述べた距離を計測するのに使用されるウィン
ドウと同じ大きさでもよく、異なる大きさでもよい。
The determination of the road area in the image will be described with reference to FIGS. As described above, FIG. 6B shows the object recognition area 5 shown in FIG.
The road area is determined for the object recognition area 52 in response to No. 2. In FIG. 6B, although the image area is divided into windows of 10 rows × 15 columns, the image area is actually very finely divided. In order to determine the road area more precisely, each window can be composed of one pixel. Or, when a plurality of pixels are combined,
One window may be configured. Each window may be the same size as the windows used to measure the distances described above, or may be different sizes.

【0057】撮像装置3から得られ、デジタルデータに
変換された画像が画像メモリ5に記憶されると、図1の
ウィンドウ切り出し部13は、画像メモリ5から、車両
直前の画像領域に含まれる複数のウィンドウを切り出
す。輝度抽出部31は、切り出されたウィンドウから複
数の輝度値を取得する。
When an image obtained from the imaging device 3 and converted into digital data is stored in the image memory 5, the window cutout unit 13 shown in FIG. Cut out the window. The luminance extracting unit 31 acquires a plurality of luminance values from the clipped window.

【0058】車両直前の画像領域に含まれるウィンドウ
の輝度値を取得するのは、自車両直前の画像領域は道路
である可能性が非常に高いからであり、複数の輝度値を
取得するのは、路面上に文字/白線などの標識領域があ
っても、本来の道路の輝度値を取得できるようにするた
めである。入力画像のどのウィンドウを、自車両直前の
画像領域に含まれる複数のウィンドウとして取得するか
は、車両の大きさおよび撮像装置の車両内における位置
などに応じて予め定められる。
The reason why the luminance value of the window included in the image region immediately before the vehicle is obtained is that the image region immediately before the own vehicle is very likely to be a road. This is because even if there is a sign area such as a character / white line on the road surface, the original luminance value of the road can be obtained. Which window of the input image is acquired as a plurality of windows included in the image area immediately before the host vehicle is determined in advance according to the size of the vehicle, the position of the imaging device in the vehicle, and the like.

【0059】次に、本来の道路の輝度値を抽出するた
め、取得した複数の輝度値から、路面上の標識を含むウ
ィンドウの輝度値を取り除く。たとえば、画像の最下行
のウィンドウに路面上の標識のウィンドウがいくつか含
まれる場合、一般に路面上の標識の輝度は道路の輝度と
非常に異なるので、この行のウィンドウの輝度値にはわ
ずかなばらつきが生じる。したがって、この行のウィン
ドウの輝度値を平均し、平均値から所定値以上離れた値
の輝度値を取り除くことができる。
Next, in order to extract the original road luminance value, the luminance value of the window including the sign on the road surface is removed from the plurality of acquired luminance values. For example, if the bottom row of windows in the image contains several windows for signs on the road, the brightness of the signs on the road is generally very different from the brightness of the road, so the brightness value of Variations occur. Therefore, it is possible to average the luminance values of the windows in this row, and remove luminance values having values separated from the average value by a predetermined value or more.

【0060】または、路面上の標識の色は主に白または
黄であり、道路の色と非常に異なるので、白または黄に
対応する範囲の輝度値を取り除くようにしてもよい。さ
らに、前回入力された画像から抽出された基準輝度値に
基づいて、今回入力された画像から取得した輝度値が本
来の道路の輝度値かどうか推定するようにしてもよい。
Alternatively, since the color of the sign on the road surface is mainly white or yellow, which is very different from the color of the road, the luminance value in the range corresponding to white or yellow may be removed. Furthermore, based on the reference luminance value extracted from the previously input image, it may be estimated whether the luminance value acquired from the currently input image is the luminance value of the original road.

【0061】路面上の標識を含むウィンドウの輝度値を
取り除いた後、輝度抽出部31は、残った輝度値に基づ
いて基準輝度値を抽出し、輝度記憶部32に記憶する。
たとえば、残った輝度値のうち1または複数の輝度値を
選択して、基準輝度値として記憶することができる。ま
たは、複数の輝度値を平均した値を1つの基準輝度値と
して記憶することもできる。輝度値は、前述したよう
に、256の階調(真黒「0」から真白「255」の
間)を持つデジタルデータとして表される。
After removing the luminance value of the window including the sign on the road surface, the luminance extracting unit 31 extracts a reference luminance value based on the remaining luminance value and stores the reference luminance value in the luminance storage unit 32.
For example, one or more of the remaining luminance values can be selected and stored as a reference luminance value. Alternatively, a value obtained by averaging a plurality of luminance values can be stored as one reference luminance value. As described above, the luminance value is represented as digital data having 256 gradations (between pure black “0” and pure white “255”).

【0062】次に、ウィンドウ切り出し部13は画像か
ら他のウィンドウを切り出し、輝度抽出部31は、その
ウィンドウの輝度値を抽出する。輝度比較部33は、抽
出された輝度値と、輝度記憶部32に格納された基準輝
度値とを比較する。
Next, the window extracting section 13 extracts another window from the image, and the luminance extracting section 31 extracts the luminance value of the window. The luminance comparing unit 33 compares the extracted luminance value with the reference luminance value stored in the luminance storage unit 32.

【0063】それぞれのウィンドウが複数の画素から構
成される場合には、それぞれの画素の輝度値の和の平均
をとり、その平均値をウィンドウの輝度値として抽出す
ることができる。
When each window is composed of a plurality of pixels, the average of the sum of the luminance values of the respective pixels can be obtained, and the average value can be extracted as the luminance value of the window.

【0064】ここで、輝度値を抽出して比較する処理
は、上記の距離を計算する処理と並列して実行するのが
好ましく、さらにこれらの処理と並行して、前述した画
像の有効性を判断するようにするのが好ましい。
Here, the process of extracting and comparing the luminance values is preferably executed in parallel with the above-described process of calculating the distance, and in parallel with these processes, the effectiveness of the above-mentioned image is checked. It is preferable to make a judgment.

【0065】道路領域判定部34は、輝度比較部33か
ら受け取った比較結果に基づいて、道路領域の判定を行
う。前述したように、この実施例では、物体認識部14
は、画像判定部42から、撮像された画像が有効である
ことを示すパス信号を受け取ってから、処理を開始す
る。道路領域判定部34は、受け取った比較結果が所定
範囲内にあれば、ウィンドウを道路領域と判定する。こ
れは、道路領域は輝度が似ており、前方を走行する車両
などとは輝度が異なるからである。道路領域と判定した
ウィンドウの輝度値は、新たな輝度値として輝度記憶部
32に記憶される。
The road area determining section 34 determines a road area based on the comparison result received from the luminance comparing section 33. As described above, in this embodiment, the object recognition unit 14
Starts the process after receiving a pass signal indicating that the captured image is valid from the image determination unit 42. If the received comparison result is within the predetermined range, the road area determination unit 34 determines that the window is a road area. This is because the brightness of the road area is similar to that of a vehicle traveling ahead and the like. The luminance value of the window determined to be the road area is stored in the luminance storage unit 32 as a new luminance value.

【0066】図6の(b)を参照して、輝度値に基づい
た道路領域の判定の例を説明する。車両直前の画像領域
を含むウィンドウWA7およびWA9(斜線で塗りつぶされ
たウィンドウ)がウィンドウ切り出し部13により切り
出され、輝度抽出部31は、それぞれのウィンドウの輝
度値L1およびL2を抽出し、基準輝度値として輝度記
憶部32に記憶する。次に、ウィンドウWA7に隣接する
ウィンドウWA6が切り出され、輝度抽出部31はウィン
ドウWA6の輝度値を抽出する。輝度比較部33は、抽出
した輝度値と基準輝度値L1とを比較する。道路領域判
定部34は、比較した結果が所定範囲内ならば(たとえ
ば、基準輝度値に対して±3の範囲を所定範囲とするこ
とができる)、ウィンドウWA6を道路領域と判定し、ウ
ィンドウWA6の輝度値を、新たな基準輝度値L3として
輝度記憶部32に記憶する。
Referring to FIG. 6B, an example of determination of a road area based on a luminance value will be described. The windows W A7 and W A9 (windows shaded with oblique lines) including the image area immediately before the vehicle are cut out by the window cutout unit 13, and the brightness extraction unit 31 extracts the brightness values L1 and L2 of each window, and The luminance value is stored in the luminance storage unit 32. Next, the window W A6 adjacent to the window W A7 is cut out, and the luminance extracting unit 31 extracts the luminance value of the window W A6 . The luminance comparing unit 33 compares the extracted luminance value with the reference luminance value L1. If the comparison result is within a predetermined range (for example, a range of ± 3 with respect to the reference luminance value can be set as the predetermined range), the road area determination unit 34 determines that the window WA6 is a road area, and the luminance values of W A6, stores the luminance memory unit 32 as a new reference luminance value L3.

【0067】次に、ウィンドウWA6に隣接するウィンド
ウWA5が切り出され、輝度抽出部31により、ウィンド
ウWA5の輝度値が抽出される。輝度比較部33は、抽出
した輝度値と基準輝度値L3とを比較する。道路領域判
定部34は、比較した結果が所定範囲内ならば、ウィン
ドウWA5を道路領域と判定し、ウィンドウWA5の輝度値
を、新たな基準輝度値L4として輝度記憶部32に記憶
する。このように、画像からウィンドウが順次切り出さ
れ、ウィンドウごとに輝度値を比較して道路領域を判定
する。
Next, the window W A5 adjacent to the window W A6 is cut out, and the brightness value of the window W A5 is extracted by the brightness extraction unit 31. The luminance comparing unit 33 compares the extracted luminance value with the reference luminance value L3. Road area determination unit 34, if the result of comparison is within a predetermined range, the window W A5 is determined that the road area, the luminance value of the window W A5, and stores the luminance memory unit 32 as a new reference luminance value L4. In this way, windows are sequentially cut out from the image, and the road area is determined by comparing the luminance values for each window.

【0068】ウィンドウ切り出し部13により切り出さ
れるウィンドウは、基準輝度値を持つウィンドウの近傍
にあるのが好ましい。具体的には、基準輝度値がウィン
ドウWA6の輝度値である場合、ウィンドウWA6と同じ行
に属するウィンドウまたは隣接する行に属するウィンド
ウを切り出して輝度値を比較するのが好ましい。比較す
る2つのウィンドウの計測距離の差が大きいと、同じ道
路でも輝度値が実質的に異なることがあるからである。
この実施例によると、画像内の道路の輝度が、自車両か
らの距離に応じて変化する場合でも、正確に道路領域を
検出することができる。
The window cut out by the window cutout unit 13 is preferably located near a window having a reference luminance value. Specifically, if the reference luminance value is the luminance value of the window W A6, preferably to compare the luminance value by cutting a window belonging to the window or adjacent rows belonging to the same row as the window W A6. This is because if the difference between the measured distances of the two windows to be compared is large, the luminance value may be substantially different even on the same road.
According to this embodiment, even when the brightness of the road in the image changes according to the distance from the host vehicle, the road area can be accurately detected.

【0069】上記の実施例のように、道路領域と判定さ
れた輝度値を新たな輝度値とせずに、車両直前の画像領
域に含まれるウィンドウから最初に抽出された輝度値
(上記の例では、L1およびL2)を一定の基準輝度値
とし、これに対して画像のそれぞれのウィンドウの輝度
値を比較して道路領域を判定することもできる。
As in the above-described embodiment, the luminance value first extracted from the window included in the image area immediately before the vehicle (in the above example, the luminance value determined as the road area is not used as a new luminance value). , L1 and L2) as a fixed reference luminance value, and comparing the luminance value of each window of the image with the reference luminance value, the road area can be determined.

【0070】さらに、上記の実施例では、1つの撮像装
置3から得られた1つの画像に基づいて輝度値が抽出さ
れるけれども、前述した距離計測に必要な2またはそれ
以上の撮像装置から得られた2またはそれ以上の画像を
用いて抽出してもよい。たとえば、第1の撮像装置3で
得られた画像から基準輝度値L1を抽出し、第2の撮像
装置3’で得られた画像から基準輝度値L2を抽出する
ことができる。
Further, in the above embodiment, the luminance value is extracted based on one image obtained from one image pickup device 3, but the luminance value is extracted from two or more image pickup devices necessary for the distance measurement described above. The extraction may be performed using two or more obtained images. For example, the reference luminance value L1 can be extracted from the image obtained by the first imaging device 3, and the reference luminance value L2 can be extracted from the image obtained by the second imaging device 3 '.

【0071】輝度値を比較して道路領域を判定する処理
は、何らかの並列処理をするのが好ましい。たとえば、
ウィンドウWA1〜WA6およびW91〜W97の輝度値を基準
輝度値L1と一括して比較し、次にウィンドウW81〜W
87の輝度値を、たとえば新たな基準輝度値となったウィ
ンドウW93の輝度値と一括して比較するというよう
に、ウィンドウを行単位で処理することができる。また
は、高速に処理するため、基準輝度値L1を基点として
画像の左半分のウィンドウを処理し、基準輝度値L2を
基点として画像の右半分のウィンドウを処理し、両者を
並列に処理するのがよい。
The processing for judging the road area by comparing the luminance values is preferably performed in some parallel processing. For example,
The luminance values of the windows W A1 to W A6 and W 91 to W 97 are collectively compared with the reference luminance value L1, and then the windows W 81 to W 81
The window can be processed on a row-by-row basis, such as by comparing the luminance value of 87 with the luminance value of window W 93 that has become the new reference luminance value. Alternatively, for high-speed processing, processing the left half window of the image using the reference luminance value L1 as a base point, processing the right half window of the image using the reference luminance value L2 as a base point, and processing both in parallel. Good.

【0072】さらに、道路領域と判定された画像領域に
囲まれた領域を、自動的に道路領域と判定することがで
きる。これにより、たとえば道路領域と判定された領域
に囲まれた領域が、道路とは異なる輝度を持つ標識領域
でも、この標識領域を道路領域と判定することができ
る。道路領域で囲まれた領域がどのくらいの大きさなら
ば道路領域と判定できるかは、どのくらいの大きさの物
体を検出するかに依存して定められる。
Further, an area surrounded by the image area determined to be a road area can be automatically determined to be a road area. Thus, for example, even if the area surrounded by the area determined to be the road area is a sign area having a luminance different from that of the road, the sign area can be determined as the road area. The size of the area surrounded by the road area and the size of the area that can be determined as the road area depend on the size of the object to be detected.

【0073】こうして、輝度値に基づいて路面自体を検
出するので、自車両がピッチングやローリングで傾いた
り坂道やバンクを走行していても道路領域を判定するこ
とができ、判定された道路領域には他の車両や障害物が
ないと判断することができる。
As described above, since the road surface itself is detected based on the brightness value, the road area can be determined even when the vehicle is inclined by pitching or rolling, or is running on a slope or a bank. Can determine that there is no other vehicle or obstacle.

【0074】ここで、ウィンドウの計測距離を使用し
て、道路上の標識領域を正確に認識することができる。
道路領域判定部34は、比較結果が所定範囲内にないと
判断されたウィンドウの計測距離を距離記憶部8から取
得し、この距離が道路までの距離かどうかを判断する。
道路までの距離ならば、このウィンドウを道路上の標識
領域と判定することができる。
Here, the sign area on the road can be accurately recognized using the measured distance of the window.
The road area determination unit 34 acquires from the distance storage unit 8 the measured distance of the window for which the comparison result is determined not to be within the predetermined range, and determines whether this distance is a distance to a road.
If the distance to the road, this window can be determined as a sign area on the road.

【0075】ウィンドウの道路までの距離は、道路領域
と判定された他のウィンドウの計測距離(すなわち、道
路までの計測距離)から推定することができる。たとえ
ば、他のウィンドウが属する行に含まれるすべてのウィ
ンドウについて、道路までの距離は同じと推定すること
ができる。さらに、道路と判定されたウィンドウの計測
距離から、ウィンドウの行ごとに道路までの距離を推定
することができる。したがって、道路領域判定部34
は、ウィンドウについて実際に計測された距離と、推定
された道路までの距離とを比較して、ウィンドウの画像
領域が道路上の標識領域かどうか判断することができ
る。
The distance of a window to a road can be estimated from the measured distance of another window determined as a road area (ie, the measured distance to a road). For example, the distance to the road can be estimated to be the same for all windows included in the row to which the other window belongs. Further, the distance to the road can be estimated for each row of the window from the measured distance of the window determined to be a road. Therefore, the road area determination unit 34
Can determine whether the image area of the window is a sign area on the road by comparing the distance actually measured for the window with the estimated distance to the road.

【0076】たとえば、図6の(b)に示すように、ウ
ィンドウW95は路面上の文字を含む。道路領域判定部3
4は、ウィンドウW95についての比較結果を受け取り、
比較結果が所定範囲内にないので、距離記憶部8からウ
ィンドウW95の計測距離を取得する。さらに、たとえば
ウィンドウW95と同じ行に属し、道路領域と判定された
他のウィンドウW93の計測距離を距離記憶部8から取得
する。2つの距離を比較した結果、実質的に同じ距離な
ので、ウィンドウW95の画像領域を路面上の標識領域と
判定する。このような判定を繰り返すことにより、図6
の(b)に示すような道路上の標識「60」を認識する
ことができる。
[0076] For example, as shown in (b) of FIG. 6, the window W 95 includes a character on the road surface. Road area determination unit 3
4 receives the comparison results for the window W 95,
The comparison result is not within a predetermined range, acquires the measured distance of the window W 95 from the distance memory unit 8. Further, for example, the measured distance of another window W 93 belonging to the same row as the window W 95 and determined to be a road area is acquired from the distance storage unit 8. Result of comparing the two distances, the substantially same distance, determines an image area of the window W 95 and indicator area on the road surface. By repeating such determination, FIG.
The sign “60” on the road as shown in FIG.

【0077】上記のように、計測距離を使用して道路上
の標識領域を認識することができるので、たとえばスピ
ードの出しすぎや車線変更などについて運転者の注意を
喚起するよう車両を制御することもできる。
As described above, since the sign area on the road can be recognized using the measured distance, it is also possible to control the vehicle so as to draw the driver's attention to, for example, excessive speed or changing lanes. it can.

【0078】これまで説明した道路領域の判定は、物体
認識領域52の全領域について実行してもよく、または
その一部の領域についてのみ実行してもよい。たとえ
ば、前回入力された画像に対して、自車両の走行ととも
に新たに画像として入力された画像領域についてのみ実
行することができる。さらに、カーナビゲーションシス
テムの予め設定された道路モデルを併用し、道路領域を
判定するようにしてもよい。このように、判定を行う画
像領域を限定することで、より効率よく道路領域の判定
を行うことができる。
The determination of the road area described above may be performed for the entire area of the object recognition area 52, or may be performed for only a part of the area. For example, with respect to the previously input image, the process can be executed only for an image region newly input as an image along with the travel of the host vehicle. Furthermore, the road area may be determined by using a preset road model of the car navigation system. In this way, by limiting the image area to be determined, it is possible to more efficiently determine the road area.

【0079】道路領域が判定されたので、画像内のウィ
ンドウは、道路領域のものと道路領域以外のものとに分
類される。道路領域判定部34は、道路領域と判定され
たウィンドウから構成される道路領域を、必要に応じて
画像の形で出力することができる。図6の(c)はこの
出力画像の例であり、検出された道路領域が塗りつぶさ
れて表示されている。
Since the road area has been determined, the windows in the image are classified into those in the road area and those in the area other than the road area. The road area determination unit 34 can output a road area composed of a window determined as a road area in the form of an image as needed. FIG. 6C shows an example of this output image, in which the detected road area is displayed in a solid color.

【0080】物体検出部35は、道路領域判定部34で
判定された道路領域に基づき、道路上にある物体を検出
する。道路領域が判定されたので、道路領域の前方にあ
り、道路領域と判定されなかったウィンドウを抽出する
ことにより、物体を検出することができる。
The object detecting section 35 detects an object on the road based on the road area determined by the road area determining section 34. Since the road area has been determined, an object can be detected by extracting a window located in front of the road area and not determined as the road area.

【0081】たとえば、図6の(c)に示すように道路
領域が判定されたので、道路領域を前方にたどり、道路
領域と判定されなかったウィンドウW57、W58、W59
抽出する。図6の(b)に示すように、これらのウィン
ドウは前方を走行する他の車両を対象物として含んでい
る。物体検出部35は、これらのウィンドウの計測距離
を距離記憶部8から取得する。取得した計測距離から、
自車両から他車両までの距離を検出することができる。
さらに、道路領域と判定されたウィンドウW66〜W6A
対する物体領域のウィンドウW57、W58、W59の位置
から、他車両が道路の中央にあると判断することもでき
る。こうして、物体検出部35は、検出した物体までの
距離に基づき前方を走行する他車両との車間距離を検出
することができる。
For example, since the road area is determined as shown in FIG. 6C, the road area is traced forward, and the windows W 57 , W 58 , W 59 not determined as the road area are extracted. As shown in FIG. 6B, these windows include another vehicle traveling ahead as an object. The object detection unit 35 acquires the measured distances of these windows from the distance storage unit 8. From the acquired measurement distance,
The distance from the own vehicle to another vehicle can be detected.
Furthermore, the position of the window W 57, W 58, W 59 of the object area of the window W 66 to W-6A it is determined that the road area, the other vehicle may be determined to be in the middle of the road. Thus, the object detection unit 35 can detect the inter-vehicle distance to another vehicle traveling ahead based on the detected distance to the object.

【0082】さらに、物体検出部35は、他車両との相
対速度を、(今回距離−前回距離)/検出時間間隔、の
計算式により計算することができる。検出時間間隔は、
前回の計測と今回の計測との時間差で、この実施例では
100ミリ秒である。こうして物体検出部35は、検出
した物体について、車間距離、道路上の位置および相対
速度などの情報を物体記憶部15に記憶する。
Further, the object detecting section 35 can calculate the relative speed with respect to another vehicle by using a formula of (current distance-previous distance) / detection time interval. The detection time interval is
The time difference between the previous measurement and the current measurement, which is 100 milliseconds in this embodiment. In this way, the object detection unit 35 stores information such as the following distance, the position on the road, and the relative speed of the detected object in the object storage unit 15.

【0083】車両制御部16は、物体記憶部15に記憶
されている情報および自車速度検出装置18、ヨーレー
ト検出装置17などの装置からの情報に基づいて、自車
の前車追跡走行制御を行う、異常接近アラームを出力す
る、強制減速制御を行うなどの制御を行う。たとえば、
物体検出部35により算出され、物体記憶部15に記憶
された前方の他車両との車間距離に基づいて運転者に警
告することができ、また道路前方に車両の走行を妨げる
障害物がある場合には、アラームを鳴らして運転者に注
意を喚起することができる。
The vehicle control unit 16 performs the preceding vehicle tracking control of the own vehicle based on the information stored in the object storage unit 15 and the information from the own vehicle speed detecting device 18 and the yaw rate detecting device 17. Control such as output, abnormal approach alarm, and forced deceleration control. For example,
When a driver can be warned based on the inter-vehicle distance to another vehicle ahead calculated by the object detection unit 35 and stored in the object storage unit 15, and when there is an obstacle in front of the road that hinders the traveling of the vehicle. In this case, an alarm can be sounded to alert the driver.

【0084】上記説明した物体認識の方法とは別に、他
の実施例では、たとえば物体認識の処理は100ミリ秒
で周期的に実行されるので、前回認識された物体の位置
と該物体に対する相対速度に基づいて今回の物体の位置
を推定し、推定した物体の位置に対して所定範囲内にあ
り、推定した物体と重なりをもつウィンドウを抽出し
て、今回撮像された画像における物体を認識することも
できる。
In another embodiment, apart from the object recognition method described above, in another embodiment, for example, the object recognition process is periodically executed in 100 milliseconds, so that the position of the previously recognized object and the relative position to the object are determined. Estimating the position of the current object based on the speed, extracting a window that is within a predetermined range with respect to the estimated object position and that overlaps with the estimated object, and recognizes the object in the image captured this time You can also.

【0085】さらに、他の実施例では、画像の有効性
を、物体認識の処理の結果と合わせて判断することがで
きる。たとえば、画像判定部42は、遮光領域51の画
素の輝度値に基づいて画像を判定し、無効と判定した場
合にフェイル信号を車両制御部18に送る。一方、物体
認識部14は、たとえば100ミリ秒の周期で複数回物
体認識の処理を行い、認識した物体までの距離のばらつ
きが大きい場合や、白線の位置のばらつきが大きい場合
に、フェイル信号を車両制御18に出力する。車両制御
部18は、どちらかのフェイル信号を受け取った場合、
または両方のフェイル信号を受け取った場合に、今回撮
像された画像を使用した物体認識の結果に基づく車両制
御を中止する。または、フェイル信号が何に基づくかと
いうことを、たとえば何らかのモニターに表示するよう
にすることもできる。
Further, in another embodiment, the validity of an image can be determined together with the result of the object recognition processing. For example, the image determination unit 42 determines the image based on the luminance value of the pixel in the light-shielding region 51, and sends a fail signal to the vehicle control unit 18 when it determines that the image is invalid. On the other hand, the object recognition unit 14 performs the object recognition process a plurality of times at a cycle of, for example, 100 milliseconds, and outputs a fail signal when the variation in the distance to the recognized object is large or when the variation in the position of the white line is large. Output to vehicle control 18. When the vehicle control unit 18 receives one of the fail signals,
Alternatively, when both fail signals are received, the vehicle control based on the result of object recognition using the image captured this time is stopped. Alternatively, what the fail signal is based on can be displayed on some monitor, for example.

【0086】さらに、物体認識部14が、物体認識領域
52における画素のエラーを検出するようにすることも
できる。たとえば、物体認識部14は、輝度抽出部31
により抽出された輝度値がゼロまたはゼロ付近のウィン
ドウ(または画素)を抽出する。複数回にわたって同じ
場所に、輝度値がゼロまたはゼロ付近のウィンドウが抽
出された場合には、物体認識部14はフェイル信号を出
力する。これは、ゼロまたはゼロ付近のウィンドウが抽
出された領域に対応するレンズまたは受光素子の部分に
何らかの異常が発生し、対応する領域が遮光されて撮像
されたと判断することができるからである。車両制御部
18は、出力されたフェイル信号を受け取って、物体認
識に基づく車両制御を中止したり、モニターに何らかの
表示を行うようにすることができる。こうして、物体認
識の処理と組み合わせて画像の有効性を判断することに
より、物体認識の処理の精度をさらに高めることができ
る。
Further, the object recognizing section 14 may detect a pixel error in the object recognizing area 52. For example, the object recognizing unit 14 includes the luminance extracting unit 31
A window (or pixel) whose luminance value is zero or near zero is extracted. If a window with a luminance value of zero or near zero is extracted at the same location a plurality of times, the object recognizing unit 14 outputs a fail signal. This is because it can be determined that some abnormality has occurred in the portion of the lens or the light receiving element corresponding to the region where the window at or near zero is extracted, and the corresponding region is shielded from light and imaged. The vehicle control unit 18 can receive the output fail signal, stop the vehicle control based on the object recognition, or display some information on a monitor. Thus, by judging the validity of the image in combination with the object recognition processing, the accuracy of the object recognition processing can be further improved.

【0087】画像の有効性判断と物体認識の処理は、た
とえば100ミリ秒を周期に同じ周期で実行される。前
述したように、画像判定部42は、たとえば連続10回
無効画像候補として抽出された場合に画像を無効と判断
してフェイル信号を出力する。この場合、今回撮像され
た画像だけでなく、その前の9回にわたって撮像された
9枚の画像も無効である可能性が高く、無効画像の判定
は信頼性の高いものである。したがって、車両制御部1
8は、物体認識部14による認識結果にのみ基づくので
はなく、画像判定部42によるフェイル信号の出力を受
け取った後に、実際に車両制御を行うようにするのが好
ましい。
The processing of image validity determination and object recognition is executed in the same cycle, for example, every 100 milliseconds. As described above, for example, when the image is extracted as an invalid image candidate ten times in a row, the image determining unit 42 determines that the image is invalid and outputs a fail signal. In this case, it is highly likely that not only the image captured this time but also the nine images captured nine times before that are invalid, and the determination of an invalid image is highly reliable. Therefore, the vehicle control unit 1
It is preferable that the control unit 8 actually controls the vehicle after receiving the output of the fail signal from the image determination unit 42, not based only on the recognition result by the object recognition unit 14.

【0088】図1に示した相関計算部6、距離計算部
7、距離記憶部8、ウィンドウ切り出し部13、遮光輝
度抽出部41、画像判定部42、物体認識部14、物体
記憶部15および車両制御部16は、中央演算処理装置
(CPU)、制御プログラムおよび制御データを格納す
る読み出し専用メモリ、CPUの演算作業領域を提供し
様々なデータを一時記憶することができるランダムアク
セスメモリ(RAM)で構成することができる。距離記
憶部8および物体記憶部15は、1つのRAMのそれぞ
れ異なる記憶領域を使用して実現することができる。ま
た、各種の演算で必要となるデータの一時記憶領域も同
じRAMの一部分を使用して実現することができる。
The correlation calculation unit 6, distance calculation unit 7, distance storage unit 8, window cutout unit 13, light-shielding luminance extraction unit 41, image determination unit 42, object recognition unit 14, object storage unit 15, and vehicle shown in FIG. The control unit 16 includes a central processing unit (CPU), a read-only memory that stores a control program and control data, and a random access memory (RAM) that provides an operation work area of the CPU and can temporarily store various data. Can be configured. The distance storage unit 8 and the object storage unit 15 can be realized using different storage areas of one RAM. Further, a temporary storage area of data required for various calculations can be realized by using a part of the same RAM.

【0089】また、この発明の物体判定装置をエンジン
の電子制御ユニット(ECU)、ブレーキ制御ECUそ
の他のECUとLAN接続して物体判定装置からの出力
を車両の全体的な制御に利用することができる。
Further, the object judging device of the present invention can be connected to an electronic control unit (ECU) of the engine, a brake control ECU and other ECUs via a LAN, and the output from the object judging device can be used for the overall control of the vehicle. it can.

【0090】[0090]

【発明の効果】請求項1の発明によれば、撮像された画
像が有効かどうか判断され、その結果に基づいて物体認
識の処理を行うことができるので、物体認識の精度を高
めることができる。
According to the first aspect of the present invention, it is determined whether or not the captured image is valid, and the object recognition process can be performed based on the result, so that the accuracy of the object recognition can be improved. .

【0091】請求項2の発明によれば、連続して複数回
にわたって画像を検証してから画像の有効性を判断する
ので、精度の良い安定した物体認識を行うことができ
る。
According to the second aspect of the present invention, since the validity of an image is determined after continuously verifying the image a plurality of times, accurate and stable object recognition can be performed.

【0092】また請求項3の発明によれば、ノイズや位
置ずれによりエラーとして検出されたウィンドウ数に基
づいて画像の有効性を判断するので、さらに精度の良い
安定した物体認識を行うことができる。
According to the third aspect of the present invention, since the validity of an image is determined based on the number of windows detected as an error due to noise or displacement, more accurate and stable object recognition can be performed. .

【0093】請求項4の発明によれば、スミアだけでな
く、電気的ノイズや撮像装置のレンズ/受光素子の位置
ずれを容易に検出することができ、画像の有効性の判断
をより正確に行うことができる。
According to the fourth aspect of the present invention, it is possible to easily detect not only smear but also electric noise and a displacement of a lens / light-receiving element of an image pickup device, and more accurately determine the validity of an image. It can be carried out.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施例の全体的な構成を示すブロ
ック図。
FIG. 1 is a block diagram showing an overall configuration of an embodiment of the present invention.

【図2】三角計測法による距離の計測原理、および遮光
部の配置を説明するための図。
FIG. 2 is a view for explaining a principle of measuring a distance by a triangular measurement method and an arrangement of a light shielding unit.

【図3】レンズの撮像対象物側に遮光部を配置した図。FIG. 3 is a diagram in which a light-shielding portion is arranged on an imaging object side of a lens.

【図4】この発明による遮光手段を使用し、(a)撮像
される画像領域、(b)撮像された画像、(c)画像に
ノイズがある場合の画像および(d)位置ずれがある場
合の画像の例を示す図。
FIGS. 4A and 4B show a case where the light-shielding means according to the present invention is used, and FIG. The figure which shows the example of the image of FIG.

【図5】撮像された画像の有効性を判断するフローチャ
ート。
FIG. 5 is a flowchart for determining the validity of a captured image.

【図6】この発明による、(a)撮像された画像、
(b)距離および道路領域判定のためウィンドウに分割
された画像、および(c)出力された画像を示す図。
FIG. 6 shows (a) a captured image,
FIG. 3B is a diagram illustrating an image divided into windows for determining a distance and a road area, and FIG.

【図7】図1の物体認識部14の詳細を示すブロック
図。
FIG. 7 is a block diagram showing details of an object recognition unit 14 in FIG. 1;

【符号の説明】[Explanation of symbols]

3、3’ 撮像部 40 遮光部 41 遮光輝度抽出部 42 画像判定部 14 物体認識部 16 車両制御部 51 遮光領域 52 物体認識領域 3, 3 'imaging unit 40 light shielding unit 41 light shielding luminance extraction unit 42 image determination unit 14 object recognition unit 16 vehicle control unit 51 light shielding area 52 object recognition area

───────────────────────────────────────────────────── フロントページの続き (72)発明者 坂 雅和 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 (72)発明者 西垣 守道 埼玉県和光市中央1丁目4番1号 株式会 社本田技術研究所内 Fターム(参考) 2F065 AA02 AA03 AA14 BB15 CC11 DD03 EE01 FF09 FF24 HH13 JJ03 JJ26 LL00 LL21 MM02 QQ03 QQ24 QQ25 QQ27 QQ32 QQ36 QQ41 UU05 2F112 AC03 CA05 CA12 DA13 FA01 FA07 FA21 FA36 FA41 5B057 AA16 BA08 BA15 CC03 DA07 DB03 DC02 DC22 DC34 5H180 AA01 CC04 CC07 CC24 LL01 LL08  ──────────────────────────────────────────────────続 き Continuing from the front page (72) Masakazu Saka 1-4-1 Chuo, Wako-shi, Saitama Prefecture Inside Honda R & D Co., Ltd. (72) Morishi Nishigaki 1-4-1 Chuo, Wako-shi, Saitama No. F-term in Honda R & D Co., Ltd. (reference) 2F065 AA02 AA03 AA14 BB15 CC11 DD03 EE01 FF09 FF24 HH13 JJ03 JJ26 LL00 LL21 MM02 QQ03 QQ24 QQ25 QQ27 QQ32 QQ36 QQ41 UU05 2F112 AC03 FA01 FA07 FA13 FA03 FA13 BA15 CC03 DA07 DB03 DC02 DC22 DC34 5H180 AA01 CC04 CC07 CC24 LL01 LL08

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】車両外部の物体を認識する物体認識手段を
有する物体認識装置において、 受光部を有する少なくとも1つの撮像手段と、 前記受光部の一部を遮光する遮光手段と、 前記撮像手段により撮像された画像のうち前記遮光手段
によって遮光された遮光領域に含まれる小領域の輝度値
を抽出する輝度値抽出手段と、 前記抽出された小領域の輝度値に基づいて、前記撮像手
段により得られた画像の有効性を判断する画像判定手段
と、 を備える物体認識装置。
An object recognizing device having an object recognizing means for recognizing an object outside a vehicle, at least one image capturing means having a light receiving part, a light shielding means for shielding a part of the light receiving part, and the image capturing means A luminance value extracting unit that extracts a luminance value of a small region included in the light-shielded region shielded by the light-shielding unit in the captured image; And an image determining unit that determines the validity of the obtained image.
【請求項2】前記画像判定手段が、前記撮像手段により
連続して撮像された複数の画像を使用して画像の有効性
を判断するようにした請求項1に記載に物体認識装置。
2. The object recognition apparatus according to claim 1, wherein said image judging means judges the validity of the image by using a plurality of images continuously picked up by said image pickup means.
【請求項3】前記画像判定手段が、前記輝度値抽出手段
により抽出された小領域の輝度値が所定値以上の小領域
の数に基づいて画像の有効性を判断するようにした請求
項1または請求項2に記載の物体認識装置。
3. The image judging means judges the validity of an image based on the number of small areas whose luminance values of the small areas extracted by the luminance value extracting means are equal to or greater than a predetermined value. Alternatively, the object recognition device according to claim 2.
【請求項4】前記受光部がレンズおよび受光素子を有
し、前記遮光手段を、前記レンズと受光素子の間または
前記レンズの対象物側に配置し、前記撮像手段により得
られる画像の複数ラインが遮光されて撮像されるように
した請求項1から請求項3のいずれかに記載の物体認識
装置。
4. A plurality of lines of an image obtained by said imaging means, wherein said light receiving section has a lens and a light receiving element, and said light shielding means is arranged between said lens and said light receiving element or on an object side of said lens. The object recognition device according to any one of claims 1 to 3, wherein the object is imaged while being shielded from light.
JP20871399A 1999-07-23 1999-07-23 Object recognition device Expired - Fee Related JP4165966B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20871399A JP4165966B2 (en) 1999-07-23 1999-07-23 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20871399A JP4165966B2 (en) 1999-07-23 1999-07-23 Object recognition device

Publications (2)

Publication Number Publication Date
JP2001033238A true JP2001033238A (en) 2001-02-09
JP4165966B2 JP4165966B2 (en) 2008-10-15

Family

ID=16560862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20871399A Expired - Fee Related JP4165966B2 (en) 1999-07-23 1999-07-23 Object recognition device

Country Status (1)

Country Link
JP (1) JP4165966B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285335A (en) * 2005-03-31 2006-10-19 Nissan Motor Co Ltd Obstacle detector and obstacle detection method
JP2006295346A (en) * 2005-04-06 2006-10-26 Toyota Motor Corp Image processing apparatus and driving supporting device for vehicle using this
JP2007047875A (en) * 2005-08-05 2007-02-22 Toshiba Corp Vehicle behavior acquisition system
JP2021148668A (en) * 2020-03-19 2021-09-27 株式会社リコー Stereo camera device
JP2021535389A (en) * 2018-08-30 2021-12-16 ヴェオ ロボティクス, インコーポレイテッド Depth sensing computer vision system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285335A (en) * 2005-03-31 2006-10-19 Nissan Motor Co Ltd Obstacle detector and obstacle detection method
JP4548181B2 (en) * 2005-03-31 2010-09-22 日産自動車株式会社 Obstacle detection device
JP2006295346A (en) * 2005-04-06 2006-10-26 Toyota Motor Corp Image processing apparatus and driving supporting device for vehicle using this
JP2007047875A (en) * 2005-08-05 2007-02-22 Toshiba Corp Vehicle behavior acquisition system
JP2021535389A (en) * 2018-08-30 2021-12-16 ヴェオ ロボティクス, インコーポレイテッド Depth sensing computer vision system
JP7136507B2 (en) 2018-08-30 2022-09-13 ヴェオ ロボティクス, インコーポレイテッド Depth sensing computer vision system
JP7448246B2 (en) 2018-08-30 2024-03-12 ヴェオ ロボティクス, インコーポレイテッド depth sensing computer vision system
JP2021148668A (en) * 2020-03-19 2021-09-27 株式会社リコー Stereo camera device

Also Published As

Publication number Publication date
JP4165966B2 (en) 2008-10-15

Similar Documents

Publication Publication Date Title
JP4028135B2 (en) Object detection device
US6327536B1 (en) Vehicle environment monitoring system
US9047518B2 (en) Method for the detection and tracking of lane markings
US8175331B2 (en) Vehicle surroundings monitoring apparatus, method, and program
US6789015B2 (en) Vehicle environment monitoring system
US6690011B2 (en) Infrared image-processing apparatus
JP2887039B2 (en) Vehicle periphery monitoring device
KR100467143B1 (en) Distance-measuring apparatus
JP2003329439A (en) Distance detecting device
US6658137B1 (en) Road sensor system
JP4397573B2 (en) Image processing device
EP1982890B1 (en) Automotive environment monitoring device, vehicle with the automotive environment monitoring device
JP3925285B2 (en) Road environment detection device
JPH07244717A (en) Travel environment recognition device for vehicle
JP4165966B2 (en) Object recognition device
JPH07333339A (en) Obstacle detector for automobile
JP3211732B2 (en) Distance measuring device
JP3287166B2 (en) Distance measuring device
JPH0979821A (en) Obstacle recognizing device
JP4528320B2 (en) Object detection device
JP3532896B2 (en) Smear detection method and image processing apparatus using the smear detection method
JP2635232B2 (en) Inter-vehicle distance detection device
JPH1151644A (en) Distance measuring instrument for vehicle
JP3999025B2 (en) Alarm display device
JP3923183B2 (en) Vehicle distance measuring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070925

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080318

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080722

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080729

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110808

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120808

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130808

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees