JPH07334800A - Vehicle recognition device - Google Patents

Vehicle recognition device

Info

Publication number
JPH07334800A
JPH07334800A JP6122899A JP12289994A JPH07334800A JP H07334800 A JPH07334800 A JP H07334800A JP 6122899 A JP6122899 A JP 6122899A JP 12289994 A JP12289994 A JP 12289994A JP H07334800 A JPH07334800 A JP H07334800A
Authority
JP
Japan
Prior art keywords
vehicle
area
image
extracting
extracted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6122899A
Other languages
Japanese (ja)
Inventor
Nobuyuki Nakano
信之 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP6122899A priority Critical patent/JPH07334800A/en
Publication of JPH07334800A publication Critical patent/JPH07334800A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To provide a vehicle recognition device which measures the distance to a precedent vehicle by recognizing the precedent vehicle in the road image inputted by using an on-vehicle camera. CONSTITUTION:The analog video signal inputted by an image input means 1 is digitized by an A/D converting means 2 and stored in an image storage means 3. An edge extracting means 4 extracts edges from the digital image and then a lane area extracting means 5 is used to extract the lane on the road. Further, an edge projection means 6 and a symmetrical area extracting means 7 segment a rough presence candidate area of the precedent vehicle and an initial model setting means 8 sets an initial model. An outline extracting means 9 extracts the outline of the precedent vehicle by using the initial model which is thus set. A vehicle-to-vehicle distance calculating means 10 calculates the distance to the vehicle from the outline information on the precedent vehicle and a processing result output means 11 outputs the processing result.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、画像処理技術を用いて
前方車両を認識すると共に、認識した車両との車間距離
を計測する車両認識装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle recognition device for recognizing a vehicle in front using image processing technology and measuring an inter-vehicle distance to the recognized vehicle.

【0002】[0002]

【従来の技術】従来、この種の前方車両を認識する装置
としては、例えば特開平1-281600号公報に記載されてい
るように、画像中から抽出したエッジを追跡することに
よって前方車両の存在する領域を抽出するものがある。
2. Description of the Related Art Conventionally, as a device for recognizing a front vehicle of this type, as described in, for example, Japanese Patent Application Laid-Open No. 1-281600, presence of a front vehicle by tracking an edge extracted from an image is known. There is one that extracts the area to be edited.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、このよ
うな従来の車両認識装置においては、エッジ抽出処理に
よって抽出された車両エッジに途切れがあるような場合
には、領域を正確に抽出できないと言った問題を有して
いる。また、一般にステレオ視による距離計測では、画
像間の対応をどのようにして求めるかという基本的問題
を有している。
However, in such a conventional vehicle recognition apparatus, it is said that the region cannot be accurately extracted when the vehicle edge extracted by the edge extraction processing has a discontinuity. I have a problem. In addition, in stereo distance measurement, there is generally a basic problem of how to find correspondence between images.

【0004】本発明はビデオカメラを用いて入力した道
路画像から前方車両を認識して前方車両との車間距離を
計測できる車両認識装置を提供することを目的とする。
It is an object of the present invention to provide a vehicle recognition device capable of recognizing a front vehicle from a road image input using a video camera and measuring an inter-vehicle distance to the front vehicle.

【0005】[0005]

【課題を解決するための手段】本発明の車両認識装置
は、自車両のビデオカメラで撮像した道路画像から前方
車両を認識して、認識した車両と自車両との車間距離を
計測する装置であって、車両に搭載して前方の道路シー
ンを撮影するステレオ画像入力手段と、前記ステレオ画
像入力手段から入力したアナログ映像信号をディジタル
変換するA/D変換手段と、前記A/D変換手段によっ
てディジタル化した道路画像を記憶する画像記憶手段
と、前記画像記憶手段に記憶されている道路画像に微分
処理を施してエッジ成分を抽出するエッジ抽出手段と、
前記画像記憶手段に記憶されている道路画像から車線領
域を抽出する車線領域抽出手段と、前記車線領域抽出手
段で抽出した車線領域内に散在するエッジ成分を画像の
横軸あるいは縦軸に投影することにより前記画像記憶手
段に記憶されている道路画像から前方車両の存在候補領
域を抽出するエッジ投影手段と、前記エッジ投影手段に
よって切り出した前方車両の存在候補領域内で左右対称
領域を抽出することにより前記画像記憶手段に記憶され
ている道路画像から前方車両の存在候補領域をさらに限
定する対称領域抽出手段と、前記対称領域抽出手段によ
って切り出した前方車両の存在候補領域に対して初期輪
郭モデルを設定する初期モデル設定手段と、前記初期モ
デル設定手段によって設定した初期値に基づいて前記画
像記憶手段に記憶されている道路画像から前方車両の輪
郭を抽出する輪郭抽出手段と、前記輪郭抽出手段によっ
て抽出した前方車両の輪郭形状に基づいて前方車両との
車間距離を計測する車間距離算出手段と、前記輪郭抽出
手段によって抽出した車両輪郭抽出結果および前記車間
距離算出手段によって計測した車間距離を出力する処理
結果出力手段とを設けたことを特徴とする。
A vehicle recognition device of the present invention is a device for recognizing a preceding vehicle from a road image taken by a video camera of the own vehicle and measuring an inter-vehicle distance between the recognized vehicle and the own vehicle. There are a stereo image input unit mounted on a vehicle for photographing a road scene ahead, an A / D conversion unit for digitally converting an analog video signal input from the stereo image input unit, and the A / D conversion unit. Image storage means for storing a digitized road image; edge extraction means for subjecting the road image stored in the image storage means to differential processing to extract edge components;
Lane area extracting means for extracting a lane area from the road image stored in the image storage means, and edge components scattered in the lane area extracted by the lane area extracting means are projected on the horizontal axis or the vertical axis of the image. Edge projection means for extracting a candidate area for the presence of a forward vehicle from the road image stored in the image storage means, and extracting a left-right symmetrical area within the candidate area for the presence of the forward vehicle cut out by the edge projection means. By means of a symmetric area extracting means for further limiting the existence candidate area of the forward vehicle from the road image stored in the image storage means, and an initial contour model for the existence candidate area of the forward vehicle cut out by the symmetric area extracting means. Initial model setting means to be set, and stored in the image storage means based on the initial value set by the initial model setting means Contour extracting means for extracting the contour of the front vehicle from the road image being displayed, inter-vehicle distance calculating means for measuring the inter-vehicle distance to the front vehicle based on the contour shape of the front vehicle extracted by the contour extracting means, and the contour And a processing result output unit for outputting the vehicle contour extraction result extracted by the extraction unit and the inter-vehicle distance measured by the inter-vehicle distance calculation unit.

【0006】[0006]

【作用】この構成によると、画像入力手段で入力したア
ナログ映像信号をA/D変換手段でディジタル画像に変
換して画像記憶手段に記憶する。そして、エッジ抽出手
段でディジタル画像からエッジを抽出した後、車線領域
抽出手段を用いて道路上の車線を抽出する。さらにエッ
ジ投影手段および対称領域抽出手段で前方車両の大まか
な存在候補領域を切り出し、初期モデル設定手段で初期
モデルの設定を行う。輪郭抽出手段では、こうして設定
された初期モデルを用いて前方車両の輪郭を抽出する。
車間距離算出手段では、前方車両の輪郭情報に基づいて
車間距離を算出し、処理結果出力手段で処理結果を出力
する。
According to this structure, the analog video signal input by the image input means is converted into a digital image by the A / D conversion means and stored in the image storage means. Then, after the edges are extracted from the digital image by the edge extracting means, the lanes on the road are extracted by using the lane area extracting means. Further, a rough existence candidate area of the vehicle ahead is cut out by the edge projection means and the symmetric area extraction means, and the initial model is set by the initial model setting means. The contour extracting means extracts the contour of the forward vehicle using the initial model set in this way.
The inter-vehicle distance calculating means calculates the inter-vehicle distance based on the contour information of the preceding vehicle, and the processing result output means outputs the processing result.

【0007】[0007]

【実施例】以下、本発明の実施例について図面を参照し
ながら説明する。本発明の車両認識装置は図1に示すよ
うに構成されている。
Embodiments of the present invention will be described below with reference to the drawings. The vehicle recognition device of the present invention is configured as shown in FIG.

【0008】車両の前方を撮影する画像入力手段1は、
図2に示すように一対のビデオカメラ1a,1bで構成
されるステレオカメラから構成されている。2はA/D
変換手段で、画像入力手段1から入力したアナログ映像
信号をディジタル化する。3は画像記憶手段で、A/D
変換手段2でディジタル化した道路画像を記憶する。4
はエッジ抽出手段で、画像記憶手段3に記憶されている
道路画像に微分処理を施して再び画像記憶手段3に蓄積
する。5は車線領域抽出手段で、画像記憶手段3に蓄積
されている微分画像から、自車両が走行している自車線
領域、およびその左右の隣接車線領域領域を抽出する。
6はエッジ投影手段で、車線領域内から抽出されるエッ
ジ成分を画像の縦軸および横軸に投影することによっ
て、前方車両の存在候補領域を大まかに切り出すもので
ある。7は対称領域抽出手段で、前方車両の左右対称性
を利用して前方車両の存在候補領域をさらに厳密に抽出
するものである。8は初期モデル設定手段で、エッジ投
影手段6および対称領域抽出手段7によって切り出した
前方車両の存在候補領域に対して適切なモデルを適用す
るものである。9は輪郭抽出手段で、動的輪郭モデルの
手法に基づき、初期モデル設定手段8で設定した初期モ
デルを変形させていくことによって最終的に前方車両の
輪郭を抽出するものである。10は車間距離算出手段
で、輪郭抽出手段9で抽出した前方車両の輪郭モデルを
用いてステレオ画像間の視差を求めることにより、前方
車両との車間距離を算出するものである。11は処理結
果出力手段で、前方車両を認識した結果ならびに認識し
た前方車両との車間距離を出力するものである。
The image input means 1 for photographing the front of the vehicle is
As shown in FIG. 2, it is composed of a stereo camera composed of a pair of video cameras 1a and 1b. 2 is A / D
The conversion means digitizes the analog video signal input from the image input means 1. Reference numeral 3 is an image storage means, which is an A / D
The road image digitized by the conversion means 2 is stored. Four
Is an edge extraction means, which differentiates the road image stored in the image storage means 3 and stores it in the image storage means 3 again. Reference numeral 5 denotes a lane area extracting unit that extracts the own lane area in which the own vehicle is traveling and the adjacent lane area regions on the left and right sides thereof from the differential image accumulated in the image storage unit 3.
Reference numeral 6 denotes an edge projecting means, which roughly cuts out a vehicle presence candidate area by projecting an edge component extracted from the lane area on the vertical axis and the horizontal axis of the image. Reference numeral 7 denotes a symmetric area extracting means, which more accurately extracts the existence candidate area of the front vehicle by utilizing the left-right symmetry of the front vehicle. Reference numeral 8 denotes an initial model setting means, which applies an appropriate model to the presence candidate area of the forward vehicle cut out by the edge projection means 6 and the symmetrical area extraction means 7. Numeral 9 is a contour extracting means for finally extracting the contour of the forward vehicle by deforming the initial model set by the initial model setting means 8 based on the method of the active contour model. An inter-vehicle distance calculating means 10 calculates the inter-vehicle distance to the front vehicle by obtaining the parallax between the stereo images using the contour model of the front vehicle extracted by the contour extracting means 9. A processing result output unit 11 outputs the result of recognizing the front vehicle and the distance between the recognized front vehicle and the front vehicle.

【0009】この図1に示した車両認識装置は図3に示
す処理手順にしたがって運転されている。先ず、ステッ
プ 1000 では、レジスタやカウンタをクリアし、以降の
処理を繰り返すための様々な初期設定を行う。ステップ
2000 では道路画像の取り込みを行う。道路画像は、一
対のビデオカメラ1a,1bを用いてアナログ映像信号
として入力され、このアナログ映像信号をA/D変換器
2でディジタル化した後、画像メモリ3に蓄積する。図
4(a)(b)はビデオカメラ1a,1bによって取り
込まれた左入力画像と右入力画像を示す。
The vehicle recognition apparatus shown in FIG. 1 is operated according to the processing procedure shown in FIG. First, in step 1000, the registers and counters are cleared, and various initial settings for repeating the subsequent processing are performed. Step
In 2000, the road image is captured. The road image is input as an analog video signal by using the pair of video cameras 1a and 1b, and the analog video signal is digitized by the A / D converter 2 and then stored in the image memory 3. 4A and 4B show a left input image and a right input image captured by the video cameras 1a and 1b.

【0010】ステップ 3000 では、ステップ 2000 で取
り込んだ道路画像から前方車両を認識する。なお、前方
車両の認識処理は、一対の入力画像のそれぞれに対して
同様の処理を行うため、以降ではビデオカメラ1bから
の入力画像に対する処理のみを例に挙げて図5にしたが
って説明する。
In step 3000, a vehicle ahead is recognized from the road image captured in step 2000. Since the process of recognizing the front vehicle performs the same process for each of the pair of input images, only the process for the input image from the video camera 1b will be described below as an example with reference to FIG.

【0011】図5に示す車両認識処理の一連の処理にお
いて、ステップ 3100 では、図3に示したステップ 200
0 で取り込んだ道路画像に対して微分処理を施してエッ
ジを抽出する。なお、エッジの抽出には3×3のSob
elフィルタを用い、各画素ごとに得られる微分強度を
画像記憶手段3に蓄積する。図6には、各画素ごとに算
出した微分強度E(x,y)を閾値Ethを用いて二値化
した結果を示す。なお、閾値Ethは入力に用いたビデオ
カメラ1a,1bのダイナミック・レンジなどによって
異なるが、80〜120の範囲内で設定されることが望
ましい。また、図6で黒く示されている点が閾値Eth
越える微分強度をもつ画素で、以降ではこの画素のこと
をエッジ画素と呼ぶことにする。
In the series of processes of the vehicle recognition process shown in FIG. 5, in step 3100, the step 200 shown in FIG.
Edges are extracted by applying differentiation processing to the road image captured at 0. Note that 3 × 3 Sobs are used for edge extraction.
The differential intensity obtained for each pixel is stored in the image storage means 3 using the el filter. FIG. 6 shows a result of binarizing the differential intensity E (x, y) calculated for each pixel using the threshold value E th . The threshold value E th varies depending on the dynamic range of the video cameras 1a and 1b used for input, but is preferably set within the range of 80 to 120. Further, the points shown in black in FIG. 6 are pixels having a differential intensity exceeding the threshold value E th , and hereinafter, this pixel will be referred to as an edge pixel.

【0012】図5に示したステップ 3200 では、道路画
像から車線領域を抽出する。図7は車線領域抽出手段5
における一連の処理の流れを示しており、この場合、白
線の輪郭抽出精度を向上させるため、処理領域を画像の
下半分に限定する。
In step 3200 shown in FIG. 5, a lane area is extracted from the road image. FIG. 7 shows lane area extracting means 5.
2 shows the flow of a series of processes in the above, and in this case, the processing region is limited to the lower half of the image in order to improve the accuracy of extracting the outline of the white line.

【0013】図7に示したステップ 3201 では、路面に
ペイントされた左側の白線W1の輪郭を抽出する。具体
的には、図8に示すように各走査線の中心lから左方向
に画素を走査していく。そして、図5に示したステップ
3100 で求めた各画素の微分強度E(x,y)が閾値E
thを越えた最初の位置を、その走査線における左側の白
線の輪郭点とする。ステップ 3202 では右側の白線W2
の輪郭を抽出する。右側の白線の輪郭も左側と同様にし
て、図8に示す各走査線の中心lから右方向に画素を走
査していき、微分強度E(x,y)が閾値Ethを越えた
最初の位置を、その走査線における右側の白線の輪郭点
として抽出する。図9には画像から左右の白線の輪郭点
列を抽出した結果を示す。黒い点で示した画素が左右の
白線の輪郭点W10,W20である。
In step 3201 shown in FIG. 7, the contour of the left white line W1 painted on the road surface is extracted. Specifically, as shown in FIG. 8, pixels are scanned in the left direction from the center l of each scanning line. And the steps shown in FIG.
The differential intensity E (x, y) of each pixel obtained by 3100 is the threshold E
The first position that exceeds th is set as the contour point of the left white line in the scanning line. In Step 3202, the white line W2 on the right side
Extract the contour of. Similarly to the left side, the outline of the white line on the right side scans pixels in the right direction from the center l of each scanning line shown in FIG. 8, and the first when the differential intensity E (x, y) exceeds the threshold value E th. The position is extracted as the contour point of the white line on the right side of the scanning line. FIG. 9 shows the result of extracting the left and right white line contour point sequences from the image. Pixels indicated by black dots are contour points W10 and W20 of left and right white lines.

【0014】ステップ 3203 では、ステップ 3201 で抽
出した左側の白線の輪郭点列を直線近似する。ステップ
3204 でも同様にして、ステップ 3202 で抽出した右側
の白線の輪郭点列を直線近似する。
In step 3203, the outline point sequence of the left white line extracted in step 3201 is linearly approximated. Step
Similarly, in 3204, the outline point sequence of the right white line extracted in step 3202 is linearly approximated.

【0015】なお、ステップ 3203 ,ステップ 3204 で
行う点列の直線近似処理にはHough変換の手法(米
国特許No.3,069,654 (1962))を用いる。 ス
テップ 3205 では、左側の白線を近似した直線、右側の
白線を近似した直線、および画像の下端、画像の左端、
画像の右端とによって形成される領域を、自車両の走行
している車線領域として抽出する。図10に自車両が走
行している車線領域を抽出した結果を示す。点V,L,
B,Aで囲まれる領域が抽出した車線領域である。
A Hough transform method (US Pat. No. 3,069,654 (1962)) is used for the linear approximation processing of the point sequence performed in steps 3203 and 3204. In Step 3205, the straight line approximating the white line on the left side, the straight line approximating the white line on the right side, the bottom edge of the image, the left edge of the image,
The area formed by the right edge of the image is extracted as the lane area in which the vehicle is traveling. FIG. 10 shows the result of extracting the lane area in which the vehicle is traveling. Points V, L,
The area surrounded by B and A is the extracted lane area.

【0016】ステップ 3206 では、ステップ 3205 で抽
出した自車両の走行車線領域に隣接する左右の隣接車線
を近似的に求める。この場合、図11に示すように自車
両の走行車線領域を表す三角形VLRの底辺LRの長さ
を左右に倍ずつ延長した三角形VCDを、隣接車線を含
めた道路領域として抽出する。
In step 3206, the left and right adjacent lanes adjacent to the traveling lane area of the own vehicle extracted in step 3205 are approximately obtained. In this case, as shown in FIG. 11, a triangle VCD in which the length of the bottom side LR of the triangle VLR representing the traveling lane area of the own vehicle is doubled to the left and right is extracted as the road area including the adjacent lane.

【0017】図5に示したステップ 3300 では、ステッ
プ 3200 で抽出した車線領域内に散在するエッジの分布
を調べることにより、前方車両の存在候補領域を求め
る。図12および図13に、この処理の概念を示した摸
式図を示す。
In step 3300 shown in FIG. 5, the existence candidate area of the preceding vehicle is obtained by examining the distribution of the edges scattered in the lane area extracted in step 3200. 12 and 13 are schematic diagrams showing the concept of this processing.

【0018】図12の(b)に示すように、図7のステ
ップ 3205 で抽出した自車両の走行車線領域内に処理領
域を限定する。そしてこの処理領域内において、閾値E
thを越えるエッジ強度をもつ画素(エッジ画素と呼ぶ)
の数を各走査線ごとにカウントし、図12の(a)に示
すようなヒストグラムを作成する。同時に、これらのエ
ッジ画素の走査線方向の平均座標位置を求め、車両候補
領域の走査線方向の重心位置Gx とする。なお、このヒ
ストグラムの縦軸が各走査線を、横軸がエッジ画素の数
を表している。次に、このエッジ画素の数に対して閾値
thを設定する。なお、様々な画像を用いて実験を行な
った結果、閾値Bthは“40”程度に設定することが好
ましい。そして、エッジ画素の数がBthを越える走査線
の内、最も下に位置する走査線を車両候補領域の下端と
して抽出する。図12の(a)では、Bで示す走査線が
車両候補領域の下端を示している。なお、上記の条件を
満たすような走査線が抽出されなかった場合には、前方
車両は存在しないと判断する。
As shown in FIG. 12B, the processing area is limited to the lane area of the own vehicle extracted in step 3205 of FIG. Then, within this processing area, the threshold value E
Pixels with edge strength exceeding th (called edge pixels)
Is counted for each scanning line to create a histogram as shown in FIG. At the same time, an average coordinate position of the scanning line direction of these edge pixels, the centroid position G x in the scanning direction of the vehicle candidate region. The vertical axis of this histogram represents each scanning line, and the horizontal axis represents the number of edge pixels. Next, a threshold value Bth is set for the number of edge pixels. As a result of conducting experiments using various images, it is preferable to set the threshold value B th to about “40”. Then, of the scanning lines in which the number of edge pixels exceeds B th , the scanning line located at the bottom is extracted as the lower end of the vehicle candidate area. In FIG. 12A, the scanning line indicated by B indicates the lower end of the vehicle candidate area. If a scanning line that satisfies the above conditions is not extracted, it is determined that there is no vehicle ahead.

【0019】車両候補領域の下端が上記のように抽出さ
れた場合には、車両候補領域の左右の側端の抽出処理を
行う。図13(a)(b)に、この処理の概念を表した
摸式図を示す。
When the lower end of the vehicle candidate area is extracted as described above, the left and right side edges of the vehicle candidate area are extracted. FIGS. 13A and 13B are schematic diagrams showing the concept of this processing.

【0020】図13の(a)に示すように、図7のステ
ップ 3106 で抽出した隣接車線を含む道路領域、先ほど
の処理で抽出した前方車両候補領域の下端、および画像
の左右の端で囲まれる領域を処理領域に限定する。この
ような処理範囲を設定する理由は、前方車両の車線変更
や他の車両の割り込みなどに備えて、隣接車線を常に監
視するためである。そしてこの処理領域内において、エ
ッジ画素の数を走査線に垂直な縦の画素列ごとにカウン
トし、図13の(b)に示すようなヒストグラムを作成
する。このヒストグラムの横軸が画像の横方向の座標
を、縦軸がエッジ画素の数を表している。この場合、図
13の(a)(b)から明らかなように、車両の存在す
る領域より外側の領域では車両候補領域内と比較して、
ヒストグラムの度数が急激に減少すると共に、そのばら
つきが小さくなることが分かる。そこで、下記の手順に
従って車両候補領域の左右の側端を抽出する。
As shown in FIG. 13A, the road area including the adjacent lanes extracted in step 3106 of FIG. 7, the lower end of the forward vehicle candidate area extracted in the previous process, and the left and right edges of the image are surrounded. The area to be processed is limited to the processing area. The reason for setting such a processing range is to constantly monitor the adjacent lane in preparation for the lane change of the vehicle ahead and the interruption of another vehicle. Then, in this processing area, the number of edge pixels is counted for each vertical pixel column perpendicular to the scanning line, and a histogram as shown in FIG. 13B is created. The horizontal axis of this histogram represents the horizontal coordinate of the image, and the vertical axis represents the number of edge pixels. In this case, as is clear from (a) and (b) of FIG. 13, in an area outside the area where the vehicle exists, as compared with the inside of the vehicle candidate area,
It can be seen that the frequency of the histogram sharply decreases and its variation decreases. Therefore, the left and right side edges of the vehicle candidate area are extracted according to the following procedure.

【0021】先ず、このヒストグラムの横軸に対して区
間幅SW の小ウィンドウを設ける。次に、この小ウィン
ドウ内でエッジ度数の平均値Emeanと分散値Esigma
算出しながら、ウィンドウを車両候補領域の重心位置G
x から左右外側に向かってシフトさせていく。そして、
meanが閾値Mth以下、かつEsigma がSth以下になっ
た最初の位置を、それぞれ車両候補領域の左端および右
端として抽出する。なお、小ウィンドウの区間幅SW
“20”、Emeanに対する閾値Mthは“15”、E
sigma に対する閾値Sthは“17”程度に設定すること
が好ましい。以上のような処理によって車両候補領域N
を抽出した結果を図14に示す。
First, a small window having a section width S W is provided on the horizontal axis of this histogram. Next, while calculating the average value E mean and the variance value E sigma of the edge frequencies within this small window, the window is set to the center of gravity G of the vehicle candidate region.
Shift from x to the left and right. And
The first positions where E mean is equal to or less than the threshold value M th and E sigma is equal to or less than S th are extracted as the left end and the right end of the vehicle candidate region, respectively. The section width S W of the small window is “20”, the threshold M th for E mean is “15”, E
The threshold value S th for sigma is preferably set to about “17”. By the above processing, the vehicle candidate area N
FIG. 14 shows the result of extracting the.

【0022】図5のステップ 3400 では、対称領域の抽
出処理を行う。一般に、画像に写った前方車両は、走査
線に垂直な線分を対称軸としたほぼ左右対称形を示す。
そこで、ステップ 3300 で切り出した前方車両候補領域
Nの範囲内において左右対称領域を抽出し、前方車両の
存在領域をさらに限定する。これらの処理の概要を、図
15〜図18にしたがって説明する。
In step 3400 of FIG. 5, a symmetric area extraction process is performed. In general, the forward vehicle shown in the image shows a substantially symmetrical shape with a line segment perpendicular to the scanning line as the axis of symmetry.
Therefore, a left-right symmetrical region is extracted within the range of the front vehicle candidate region N cut out in step 3300 to further limit the region where the front vehicle exists. The outline of these processes will be described with reference to FIGS.

【0023】先ず、図15に示すように対称領域を抽出
する処理範囲を図5のステップ 3300 で切り出した前方
車両候補領域内に限定する。次にこの処理領域内におい
て、走査線に垂直な対称軸を求める方法を図16に従っ
て説明する。例えば、図15の微分二値画像のある走査
線において、図16に示したA,B,C,D,E,Fの
合計6つのエッジ点が存在したとする。この時、これら
6エッジ点の内の任意の2エッジ点間の中点位置を積算
したヒストグラムを作成し、度数がピークを示す位置を
その走査線における対称軸とする。このような処理を、
エッジ投影手段6で切り出した領域内の全ての走査線に
対して行い、領域全体の対称軸を求める。そして、この
ようにして求めた対称軸について左右対称になっている
エッジ点の組を抽出し、左右対称領域を切り出す。図1
7と図18はこの処理の一連の流れを示す。
First, as shown in FIG. 15, the processing range for extracting the symmetrical region is limited to the forward vehicle candidate region cut out in step 3300 of FIG. Next, a method for obtaining a symmetry axis perpendicular to the scanning line in this processing area will be described with reference to FIG. For example, it is assumed that a total of six edge points A, B, C, D, E, and F shown in FIG. 16 exist on a scanning line having the differential binary image in FIG. At this time, a histogram in which the midpoint positions between arbitrary two edge points among these six edge points are integrated is created, and the position where the frequency shows a peak is set as the axis of symmetry in the scanning line. Such processing,
This is performed for all the scanning lines in the area cut out by the edge projection means 6 to obtain the axis of symmetry of the entire area. Then, a set of edge points that are bilaterally symmetric with respect to the axis of symmetry thus obtained is extracted, and a bilaterally symmetric region is cut out. Figure 1
7 and FIG. 18 show a series of flow of this process.

【0024】先ず、図17に示すステップ 3401 からス
テップ 3412 と図18に示すステップ 3413 の処理で対
称軸を抽出する。ステップ 3401 およびステップ 3402
では、処理範囲の初期値を設定する。なお、図17,図
18においての処理範囲は、図5のステップ 3300 で切
り出した車両候補領域で、その上限のy座標をTy、下
限をBy、左限のx座標をLx、および右限をRxで表
す。そして、ステップ 3403 で示すように、画像中の座
標(x,y)における微分強度E(x,y)が閾値Eth
を越える場合には、ステップ 3404 〜ステップ 3408 に
示すように、その点と同一走査線上に存在し、閾値Eth
を越える微分強度を持つ全ての画素との中点を求め、ス
テップ 3406 においてその中点位置に対応するヒストグ
ラムに加算する。なお、この処理はステップ3409 ,ス
テップ 3410 ,ステップ 3411 ,およびステップ 3412
に示すように、処理領域内の全てのエッジ点について繰
り返される。そしてステップ 3413 では、こうして得ら
れたヒストグラムのピークを求め、その時のx座標を車
両領域の対称軸xsym として記憶する。さらに、図18
に示すステップ 3414 からステップ 3423 の処理では、
こうして求められた対称軸xsym についての対称領域の
抽出を行う。この処理は、ステップ 3414 およびステッ
プ 3415 で処理領域の初期化を行った後、ステップ 341
6 において微分強度が閾値Ethを越える画素(x,y)
が確認された場合に、ステップ 3417 においてその画素
と対称軸xsym との距離Dを求める。そしてステップ 3
418 において、対称軸xsym に対して距離Dの位置に微
分強度が閾値Ethを越える画素が存在するかどうかの判
定を行う。存在した場合は、求めた対称点対をステップ
3419 で登録する。さらにこの処理は、ステップ 3420
からステップ 3423 に示すように処理領域内の全てのエ
ッジ点について行う。このようにして図15の画像から
対称領域を抽出した結果を図19の(a)に示す。なお
同図bは対称軸を求める際に作成したヒストグラムであ
る。
First, the axis of symmetry is extracted by the processing from step 3401 to step 3412 shown in FIG. 17 and step 3413 shown in FIG. Step 3401 and Step 3402
Then, the initial value of the processing range is set. The processing range in FIGS. 17 and 18 is the vehicle candidate area cut out in step 3300 of FIG. 5, in which the upper limit y coordinate is Ty, the lower limit is By, the left limit x coordinate is Lx, and the right limit is. It is represented by Rx. Then, as shown in step 3403, the differential intensity E (x, y) at the coordinates (x, y) in the image is the threshold value E th.
If it exceeds the threshold, as shown in steps 3404 to 3408, the point exists on the same scanning line and the threshold value E th
The midpoints of all the pixels having a differential intensity exceeding .alpha. Are obtained, and in step 3406, the midpoints are added to the histogram corresponding to the midpoint positions. Note that this processing is performed in steps 3409, 3410, 3411, and 3412.
It is repeated for all edge points in the processing area, as shown in FIG. Then, in step 3413, the peak of the histogram thus obtained is obtained, and the x coordinate at that time is stored as the symmetry axis x sym of the vehicle region. Furthermore, FIG.
In steps 3414 to 3423 shown in
The symmetric region about the symmetry axis x sym thus obtained is extracted. This process is performed after initializing the processing area in Step 3414 and Step 3415, and then executing Step 341.
Pixel (x, y) whose differential intensity exceeds the threshold value E th in 6
If it is confirmed, the distance D between the pixel and the axis of symmetry x sym is determined in step 3417. And step 3
At 418, it is determined whether or not there is a pixel whose differential intensity exceeds the threshold value E th at the position of the distance D with respect to the symmetry axis x sym . If so, step through the resulting symmetry point pair
Register with 3419. In addition, this process is step 3420.
From step 3423, all edge points in the processing area are processed. The result of extracting the symmetrical region from the image of FIG. 15 in this way is shown in FIG. Note that FIG. 6B is a histogram created when the axis of symmetry is obtained.

【0025】さらにステップ 3424 では、こうして抽出
した対称領域に外接する矩形を求める。図20にこの処
理の概念を表した模式図を示す。図20の(a)は図1
9の(a)と同じく対称領域を抽出した結果である。そ
して図20の(b)に示すように、この画像中に表れて
いるエッジ点を画像の横軸に投影したヒストグラムを作
成し、度数が閾値を越えるものの内、最も左側を対称領
域の左端、最も右側を対称領域の右端としてそれぞれ抽
出する。さらに図20の(a)のエッジ点を画像の縦軸
に投影したヒストグラムを図20の(c)に示すように
作成し、このヒストグラムの度数が閾値を越えるものの
内、最も上側の走査線を対称領域の上端として、最も下
側の走査線を対称領域の下端としてそれぞれ抽出する。
このようにして求めた対称領域の領域端に外接する矩形
を図21のように求め、その矩形の横幅をW、高さをH
とする。
Further, in step 3424, a rectangle circumscribing the symmetric region thus extracted is obtained. FIG. 20 shows a schematic diagram showing the concept of this processing. 20 (a) is shown in FIG.
This is the result of extracting a symmetric region as in (a) of 9. Then, as shown in (b) of FIG. 20, a histogram in which the edge points appearing in this image are projected on the horizontal axis of the image is created. The rightmost side is extracted as the right end of the symmetrical area. Furthermore, a histogram in which the edge points of (a) of FIG. 20 are projected on the vertical axis of the image is created as shown in (c) of FIG. 20. Of the histograms whose frequency exceeds the threshold, the uppermost scanning line is As the upper end of the symmetrical area, the lowermost scanning line is extracted as the lower end of the symmetrical area.
A rectangle circumscribing the edge of the symmetric region thus obtained is obtained as shown in FIG. 21, and the width of the rectangle is W and the height is H.
And

【0026】次に図5のステップ 3500 では、ステップ
3400 で抽出した対称領域に対して、動的輪郭モデルの
初期モデルを設定する。初期モデルは、図22に示すよ
うに車両形状を近似した形状になっており、等間隔に配
置されたn個の節点から構成されている。なお、この場
合の節点の数nは44個程度であることが好ましい。そ
して、初期モデルの横幅Wm と高さHmは、ステップ 34
24 で求めた“ W ”と“ H ”にパラメータ“
P ”を乗じることによって、図22の図中に示したよ
うに設定する。パラメータPとしては“1.05〜1.07”の
範囲で設定することが好ましい。さらに、この初期モデ
ルの重心Cm とステップ 3400 で求めた対称領域の重心
Cが一致するように初期モデルを設置することにより、
車両領域に対して適切な位置に動的輪郭モデルの初期値
を設定することができる。図23にこのようにして初期
モデルQを設定した様子を示す。
Next, in step 3500 of FIG.
Set the initial model of the active contour model for the symmetric region extracted by the 3400. The initial model has a shape that approximates the vehicle shape as shown in FIG. 22, and is composed of n nodes arranged at equal intervals. The number of nodes n in this case is preferably about 44. Then, the width W m and height H m of the initial model are calculated in step 34.
The parameter "W" and "H" obtained in 24
"By multiplying the set as shown in the diagram of FIG. 22. The parameters P" P preferably set in a range of 1.05 to 1.07 ". In addition, the center of gravity C m and step 3400 of this initial model By installing the initial model so that the center of gravity C of the symmetric region obtained in
The initial value of the active contour model can be set at an appropriate position with respect to the vehicle area. FIG. 23 shows how the initial model Q is set in this way.

【0027】図5のステップ 3600 では、動的輪郭モデ
ルの手法を用いて前方車両の輪郭を抽出する。動的輪郭
モデルは、画像の特徴とモデルの形状からエネルギー関
数E snakesを定義し、このエネルギー関数を最小化する
過程で対象物の輪郭を抽出する手法である。エネルギー
関数Esnakesは、滑らかさや節点間の距離などモデルの
形状に関する力である内部エネルギーEint 、モデルが
画像特徴に引き寄せられる力である画像エネルギーE
image 、およびモデルの形状変化を外部から抑制する力
である外部エネルギーEcon とからなり、下記の式
(1)のように表される。vi (i=1,2,3,…, n)は
輪郭モデルの節点である。
In step 3600 of FIG. 5, the active contour model is
The contour of the vehicle ahead is extracted using the method of Le. Dynamic contour
The model has an energy function based on the image features and model shape.
Number E snakesAnd minimize this energy function
This is a method of extracting the contour of the object in the process. energy
Function EsnakesOf the model such as smoothness and distance between nodes
Internal energy E which is the force related to the shapeint , The model is
Image energy E, which is the force attracted to image features
image , And the force to suppress the shape change of the model from the outside
External energy Econ And consists of
It is expressed as (1). vi (I = 1,2,3, ..., n) is
It is a node of the contour model.

【0028】 Esnakes(vi )=Eint (vi )+Eimage (vi )+Econ (vi ) ……… (1) さらに、内部エネルギーEint は式(2)によって算出
することができる。α,βはそれぞれの項に対する重み
パラメータである。
E snakes (v i ) = E int (v i ) + E image (v i ) + E con (v i ) ... (1) Further, the internal energy E int can be calculated by the equation (2). it can. α and β are weighting parameters for each term.

【0029】 Eint (vi )=α|vi −vi-1 |2 +β|vi-1 −2vi+vi+1 |2 ……… (2) また、画像エネルギーEimage は画像中のエッジからの
ポテンシャル場として、式(3)に示すように画像の濃
度勾配として算出される。γは画像エネルギーに対する
重みパラメータである。
E int (v i ) = α | v i −v i−1 | 2 + β | v i−1 −2v i + v i + 1 | 2 (2) Further, the image energy E image is an image. The potential field from the inner edge is calculated as the density gradient of the image as shown in Expression (3). γ is a weighting parameter for image energy.

【0030】 Eimage (vi )=−γ|▽I(x,y)| ……… (3) また、外部エネルギーとしては、前方車両の左右対称性
を考慮して下記の式(4)に示すように輪郭モデルが左
右対称に収縮するような形状変化の拘束力を与える。な
お、gは輪郭モデルの重心座標で、vi*は重心Cを通る
対称軸に対するvi の対称点である。δは外部エネルギ
ーに対する重みパラメータである。
E image (v i ) = − γ | ▽ I (x, y) | (3) Further, as the external energy, the following formula (4) is taken into consideration in consideration of the left-right symmetry of the vehicle ahead. As shown in (3), a constraint force for shape change is applied so that the contour model contracts symmetrically. Note that g is the barycentric coordinates of the contour model, and v i * is the symmetry point of v i with respect to the axis of symmetry passing through the barycenter C. δ is a weight parameter for external energy.

【0031】 Econ (vi )=δ||vi −g|−|vi*−g|| ……… (4) そして、このように定義されたエネルギー関数Esnakes
を輪郭モデルの各節点の近傍領域で評価し、最もエネル
ギーが小さくなる位置へ節点を移動させることによりモ
デルを収縮させていく。
E con (v i ) = δ || v i −g | − | v i * −g || (4) Then, the energy function E snakes defined in this way
Is evaluated in the region near each node of the contour model, and the model is contracted by moving the node to the position where the energy is the smallest.

【0032】なお、移動させる節点の数がある閾値以下
になった場合には、輪郭モデルが収束したと判断し、モ
デルの収縮を終了する。図25に、この処理の一連の流
れを示す。
When the number of nodes to be moved becomes less than a certain threshold value, it is judged that the contour model has converged, and the contraction of the model is finished. FIG. 25 shows a flow of this processing.

【0033】先ず、ステップ 3601 およびステップ 360
2 でパラメータの初期化を行う。次にステップ 3603 で
は、式(1)〜(4)に従ってEsnakesの算出を行う。
ステップ 3604 では、ステップ 3603 で算出されたE
snakesと隣接画素のエネルギーとの比較を行う。E
snakesの方が小さいと判断された場合には、ステップ 3
605においてEsnakesをエネルギーの最小値として保持
して次の隣接画素のエネルギーを算出するためにステッ
プ 3606 でパラメータを加算した後、ステップ 3603へ
と戻る。逆に、Esnakesの方が大きいと判断された場合
には、エネルギーの最小値を更新することなくステップ
3603 へ戻る。なお、この処理はステップ 3607 の判断
に基づいて、あらかじめ設定した近傍領域すべてについ
て繰り返す。そしてステップ 3608 において、最終的な
エネルギーの最小値が節点の現在位置で得られると判断
された場合には、そのままステップ 3610 へと進む。逆
に、エネルギーの最小値が節点の現在位置以外の隣接画
素で得られると判断された場合には、ステップ 3609 で
その隣接画素の位置へと節点を移動してステップ 3610
へと進む。図24には、この部分の処理概念を示してい
る。
First, step 3601 and step 360
Initialize the parameters in 2. Next, in step 3603, E snakes is calculated according to equations (1) to (4).
In step 3604, E calculated in step 3603
Compare the snakes with the energy of adjacent pixels. E
If snakes are determined to be smaller, step 3
In step 605, E snakes is held as the minimum value of energy and the parameters are added in step 3606 to calculate the energy of the next adjacent pixel, and then the process returns to step 3603. On the contrary, when it is determined that E snakes is larger, the step is performed without updating the minimum value of energy.
Return to 3603. It should be noted that this process is repeated for all the preset neighboring regions based on the judgment in step 3607. When it is determined in step 3608 that the final minimum value of energy can be obtained at the current position of the node, the process directly proceeds to step 3610. On the contrary, if it is determined that the minimum value of energy is obtained in the adjacent pixel other than the current position of the node, in step 3609 the node is moved to the position of the adjacent pixel and step 3610
Go to. FIG. 24 shows the processing concept of this part.

【0034】そして、ステップ 3610 ではパラメータを
加算した後、ステップ 3611 の判断に基づいて全ての節
点についてステップ 3602 からステップ 3611 の処理を
繰り返す。ステップ 3611 で全ての節点について処理が
終了したと判断された場合には、ステップ 3612 で移動
した節点の数を評価し、この数が閾値以下である場合は
輪郭モデルが収束したと判断して処理を終了する。逆
に、移動節点の数が閾値以上である場合には、ステップ
3601 へと戻って再び全ての節点について処理を繰り返
す。以上のような処理によって、道路画像から前方車両
の輪郭を抽出することができる。図26に前方車両の輪
郭を抽出した収束結果の輪郭モデルRを示す。
Then, in step 3610, after adding the parameters, the processes of steps 3602 to 3611 are repeated for all nodes based on the judgment of step 3611. If it is determined in step 3611 that processing has been completed for all nodes, the number of moved nodes is evaluated in step 3612, and if this number is less than or equal to the threshold value, it is determined that the contour model has converged and processing is performed. To finish. Conversely, if the number of moving nodes is greater than or equal to the threshold,
Return to 3601 and repeat the process for all nodes. With the above processing, the contour of the vehicle ahead can be extracted from the road image. FIG. 26 shows a contour model R obtained as a result of convergence by extracting the contour of the forward vehicle.

【0035】次に図3のステップ 4000 では、ステップ
3000 で認識した前方車両との車間距離を計測する。車
間距離の計測は、ビデオカメラ1a,1bから取り込ん
だステレオ画像に写る前方車両間の視差を抽出すること
により、三角測量の原理に従って算出する。
Next, in step 4000 of FIG.
Measure the distance to the preceding vehicle recognized by the 3000. The measurement of the inter-vehicle distance is calculated according to the principle of triangulation by extracting the parallax between the front vehicles shown in the stereo images captured from the video cameras 1a and 1b.

【0036】図27の(a),(b)は、輪郭抽出手段
9を用いて図4の左右のビデオカメラ1a,1bのそれ
ぞれからの入力画像から前方車両の輪郭を近似した輪郭
モデルR1,R2を示している。
27A and 27B, a contour model R1, which approximates the contour of the front vehicle from the input images from the left and right video cameras 1a and 1b of FIG. 4 by using the contour extracting means 9, respectively. R2 is shown.

【0037】図28の(a),(b)は、この内の輪郭
モデルのみを表したものである。図29は、ステレオ画
像の原点が一致するように重ねたもので、各走査線上に
おける両輪郭モデルR1,R2のずれが各走査線におけ
る視差に対応する。そして、こうして求めた各走査線に
おける視差を横軸に、その視差を示す走査線の数を縦軸
にとったヒストグラムを作成し、その度数が閾値を越え
るものの内、最も視差が大きいものを前方車両に対応す
るものとして抽出する。
FIGS. 28 (a) and 28 (b) show only the contour model among them. 29A and 29B are overlapped so that the origins of the stereo images coincide with each other, and the shift between the contour models R1 and R2 on each scanning line corresponds to the parallax on each scanning line. Then, a histogram is created in which the horizontal axis represents the parallax in each scanning line thus obtained and the vertical axis represents the number of scanning lines indicating the parallax, and the one with the largest parallax among those whose frequency exceeds the threshold is the front. Extract as corresponding to the vehicle.

【0038】さらにこうして求めた視差を用い、式
(5)に従って車間距離を算出する。 距離D = (カメラ光軸間距離DB×焦点距離f)/(視差(画素)d×画素サイズPS) ……… (5) なお、ビデオカメラ1a,1bの光軸間距離DBは1
m、焦点距離fは7.5mm程度が好ましい。画素サイ
ズPSについては使用している撮像素子によって異なる
が、できるだけ分解能の高いものを用いることが好まし
い。
Further, using the parallax thus obtained, the inter-vehicle distance is calculated according to the equation (5). Distance D = (camera optical axis distance DB x focal length f) / (parallax (pixel) d x pixel size PS) (5) The optical axis distance DB of the video cameras 1a and 1b is 1
m and the focal length f are preferably about 7.5 mm. Although the pixel size PS varies depending on the image sensor used, it is preferable to use a pixel having a resolution as high as possible.

【0039】図3のステップ 5000 では、以上のような
処理によって算出した前方車両との車間距離を出力す
る。結果の出力は車室内に設置したディスプレイに行
う。ディスプレイへの出力例を図30に示す。また、前
方車両との車間距離を一定に保って走行するオートクル
ーズ装置、あるいは前方車両との車間距離が一定値以下
になるとドライバーに対して警報を発生する車間距離警
報装置など、本発明によって算出される車間距離情報を
用いた様々なアプリケーション機能を実現するために、
RS232Cなどの出力端子を備えるものとする。
In step 5000 of FIG. 3, the inter-vehicle distance to the preceding vehicle calculated by the above processing is output. Output the result on the display installed in the vehicle. An example of output to the display is shown in FIG. In addition, an auto-cruise device that keeps the vehicle-to-vehicle distance constant and traveling, or an inter-vehicle distance warning device that issues an alarm to the driver when the vehicle-to-vehicle distance becomes a certain value or less, calculated by the present invention. In order to realize various application functions using the following distance information,
An output terminal such as RS232C is provided.

【0040】上記の実施例では、画像からのエッジ抽出
処理の際にSobelフィルタを用いるものとしたが、
ラプラシアンなどの画像からエッジを抽出することがで
きるフィルタであれば何でもよい。また車線領域抽出処
理において、白線の輪郭点列を直線近似する際にはHo
ugh変換を用いるとしたが、最小自乗法などの直線近
似手法であれば何でもよい。また本発明の実施例におい
ては、動的輪郭モデルの初期モデルとして普通乗用車の
形状を表したものを用いたが、大型トラックなどの他の
車種の形状を型どったものでもよい。
In the above embodiment, the Sobel filter is used in the edge extraction processing from the image.
Any filter that can extract edges from an image such as Laplacian may be used. In the lane area extraction processing, when the straight line contour point sequence is approximated by Ho
Although the Ugh transformation is used, any linear approximation method such as the least square method may be used. In the embodiment of the present invention, the shape of a normal passenger car is used as the initial model of the active contour model, but the shape of another vehicle model such as a large truck may be used.

【0041】[0041]

【発明の効果】以上のように本発明によると、ビデオカ
メラを用いて入力した道路画像から前方車両を認識し、
認識した前方車両との車間距離を計測する装置を提供す
るもので、画像中のエッジの分布や前方車両の左右対称
性に基づいて動的輪郭モデルの初期モデルを設定して前
方車両の輪郭を抽出することができると共に、抽出した
前方車両の輪郭モデルを用いて左右のステレオ画像間で
視差を算出することにより、前方車両との車間距離を高
精度にかつ高速に算出することができるものである。
As described above, according to the present invention, a vehicle ahead is recognized from a road image input using a video camera,
It provides a device that measures the distance between the recognized front vehicle and the front vehicle.The contour of the front vehicle is set by setting the initial model of the active contour model based on the edge distribution in the image and the left-right symmetry of the front vehicle. In addition to being able to extract, by calculating the parallax between the left and right stereo images using the contour model of the extracted front vehicle, it is possible to calculate the inter-vehicle distance with the front vehicle with high accuracy and at high speed. is there.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例の基本構成を示すブロック図。FIG. 1 is a block diagram showing a basic configuration of an embodiment of the present invention.

【図2】車両へのビデオカメラの設置例を示す図。FIG. 2 is a diagram showing an example of installation of a video camera in a vehicle.

【図3】本発明の実施例の動作を示すフローチャート
図。
FIG. 3 is a flowchart showing the operation of the embodiment of the present invention.

【図4】カメラ1a,1bからの入力画像の例を示す
図。
FIG. 4 is a diagram showing an example of input images from the cameras 1a and 1b.

【図5】車両認識処理の動作を示すフローチャート図。FIG. 5 is a flowchart showing the operation of vehicle recognition processing.

【図6】入力画像からエッジを抽出した結果を示す図。FIG. 6 is a diagram showing a result of extracting edges from an input image.

【図7】車線領域抽出処理の動作を示すフローチャート
図。
FIG. 7 is a flowchart showing the operation of lane area extraction processing.

【図8】白線の輪郭を抽出する処理を示す摸式図。FIG. 8 is a schematic diagram showing a process of extracting the outline of a white line.

【図9】白線の輪郭を抽出した結果を示す図。FIG. 9 is a diagram showing a result of extracting outlines of white lines.

【図10】車線領域の抽出結果を示す図。FIG. 10 is a diagram showing a result of extracting a lane area.

【図11】隣接車線の抽出方法を示す図。FIG. 11 is a diagram showing a method of extracting adjacent lanes.

【図12】エッジ探索処理の内、車両候補領域の下端を
抽出する処理の概念を示す摸式図。
FIG. 12 is a schematic diagram showing a concept of a process of extracting a lower end of a vehicle candidate region in the edge search process.

【図13】エッジ探索処理の内、車両候補領域の左右端
を抽出する処理の概念を示す摸式図。
FIG. 13 is a schematic diagram showing the concept of processing for extracting the left and right ends of a vehicle candidate area in the edge search processing.

【図14】エッジ探索処理による車両候補領域の抽出結
果を示す図。
FIG. 14 is a diagram showing a result of extracting vehicle candidate regions by edge search processing.

【図15】対称領域抽出処理における処理範囲を示す
図。
FIG. 15 is a diagram showing a processing range in symmetrical area extraction processing.

【図16】対称領域抽出処理の処理概念を示す摸式図。FIG. 16 is a schematic diagram showing a processing concept of symmetrical area extraction processing.

【図17】対称領域抽出処理の動作を示すフローチャー
ト図。
FIG. 17 is a flowchart showing the operation of symmetrical area extraction processing.

【図18】対称領域抽出処理の動作を示すフローチャー
ト図。
FIG. 18 is a flowchart showing the operation of symmetrical area extraction processing.

【図19】対称領域抽出処理の処理結果を示す図。FIG. 19 is a diagram showing a processing result of symmetrical area extraction processing.

【図20】対称領域の領域端を求める手法を示す模式
図。
FIG. 20 is a schematic diagram showing a method of obtaining a region edge of a symmetrical region.

【図21】対称領域に外接する矩形を求めた結果を示す
図。
FIG. 21 is a diagram showing a result of obtaining a rectangle circumscribing a symmetric region.

【図22】動的輪郭モデルの初期モデルを示す図。FIG. 22 is a diagram showing an initial model of an active contour model.

【図23】動的輪郭モデルの設定状態を示す図。FIG. 23 is a diagram showing a setting state of an active contour model.

【図24】動的輪郭モデルのエネルギー最小化方法を示
す図。
FIG. 24 is a diagram showing a method of minimizing energy of an active contour model.

【図25】動的輪郭モデルの手法による輪郭抽出処理の
動作を示すフローチャート図。
FIG. 25 is a flowchart showing the operation of contour extraction processing by the method of the active contour model.

【図26】輪郭抽出処理による車両輪郭抽出結果を示す
図。
FIG. 26 is a diagram showing a vehicle contour extraction result by the contour extraction processing.

【図27】図4に示した入力画像から車両の輪郭を抽出
した結果を示す図。
27 is a view showing a result of extracting the contour of the vehicle from the input image shown in FIG.

【図28】図27に示した輪郭抽出結果の輪郭モデル
図。
28 is a contour model diagram of the contour extraction result shown in FIG.

【図29】ステレオ画像の両輪郭モデルの視差算出方法
を示す図。
[Fig. 29] Fig. 29 is a diagram illustrating a parallax calculation method for both contour models of a stereo image.

【図30】処理結果の表示例を示す図。FIG. 30 is a diagram showing a display example of processing results.

【符号の説明】[Explanation of symbols]

1 画像入力手段 1a ビデオカメラ 1b ビデオカメラ 2 A/D変換手段 3 画像記憶手段 4 エッジ抽出手段 5 車線領域抽出手段 6 エッジ投影手段 7 対称領域抽出手段 8 初期モデル設定手段 9 輪郭抽出手段 10 車間距離算出手段 11 処理結果出力手段 1 image input means 1a video camera 1b video camera 2 A / D conversion means 3 image storage means 4 edge extraction means 5 lane area extraction means 6 edge projection means 7 symmetric area extraction means 8 initial model setting means 9 contour extraction means 10 inter-vehicle distance Calculation means 11 Processing result output means

フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/18 C Continuation of front page (51) Int.Cl. 6 Identification code Office reference number FI Technical display area H04N 7/18 C

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 自車両のビデオカメラで撮像した道路画
像から前方車両を認識して、認識した車両と自車両との
車間距離を計測する装置であって、車両に搭載して前方
の道路シーンを撮影するステレオ画像入力手段と、前記
ステレオ画像入力手段から入力したアナログ映像信号を
ディジタル変換するA/D変換手段と、前記A/D変換
手段によってディジタル化した道路画像を記憶する画像
記憶手段と、前記画像記憶手段に記憶されている道路画
像に微分処理を施してエッジ成分を抽出するエッジ抽出
手段と、前記画像記憶手段に記憶されている道路画像か
ら車線領域を抽出する車線領域抽出手段と、前記車線領
域抽出手段で抽出した車線領域内に散在するエッジ成分
を画像の横軸あるいは縦軸に投影することにより前記画
像記憶手段に記憶されている道路画像から前方車両の存
在候補領域を抽出するエッジ投影手段と、前記エッジ投
影手段によって切り出した前方車両の存在候補領域内で
左右対称領域を抽出することにより前記画像記憶手段に
記憶されている道路画像から前方車両の存在候補領域を
さらに限定する対称領域抽出手段と、前記対称領域抽出
手段によって切り出した前方車両の存在候補領域に対し
て初期輪郭モデルを設定する初期モデル設定手段と、前
記初期モデル設定手段によって設定した初期値に基づい
て前記画像記憶手段に記憶されている道路画像から前方
車両の輪郭を抽出する輪郭抽出手段と、前記輪郭抽出手
段によって抽出した前方車両の輪郭形状に基づいて前方
車両との車間距離を計測する車間距離算出手段と、前記
輪郭抽出手段によって抽出した車両輪郭抽出結果および
前記車間距離算出手段によって計測した車間距離を出力
する処理結果出力手段とを設けた車両認識装置。
1. A device for recognizing a front vehicle from a road image captured by a video camera of the own vehicle and measuring an inter-vehicle distance between the recognized vehicle and the own vehicle. A stereo image inputting means for photographing the image, an A / D converting means for digitally converting an analog video signal input from the stereo image inputting means, and an image storing means for storing a road image digitized by the A / D converting means. An edge extracting means for extracting an edge component by differentiating the road image stored in the image storage means, and a lane area extracting means for extracting a lane area from the road image stored in the image storage means. The edge components scattered in the lane area extracted by the lane area extracting means are stored in the image storage means by projecting them on the horizontal axis or the vertical axis of the image. Edge projection means for extracting the presence candidate area of the forward vehicle from the existing road image, and stored in the image storage means by extracting a left-right symmetrical area within the presence candidate area of the forward vehicle cut out by the edge projection means. Symmetric region extracting means for further limiting the presence candidate region of the forward vehicle from the road image, and initial model setting means for setting an initial contour model for the presence candidate region of the forward vehicle cut out by the symmetric region extracting means, A contour extracting means for extracting the contour of the front vehicle from the road image stored in the image storage means based on the initial value set by the initial model setting means; and a contour shape of the front vehicle extracted by the contour extracting means. An inter-vehicle distance calculating means for measuring an inter-vehicle distance based on a vehicle ahead, and a vehicle wheel extracted by the contour extracting means. Extraction result and the vehicle recognition apparatus provided with a processing result output means for outputting the inter-vehicle distance measured by the inter-vehicle distance calculating means.
【請求項2】 車線領域抽出手段を、画像記憶手段に記
憶されている道路画像から自車両の走行している車線領
域を抽出した後、その車線領域が画像下端で示す車線幅
を左右に等倍ずつ引き延ばすことにより、近似的に左右
の隣接車線領域を抽出するよう構成した請求項1記載の
車両認識装置。
2. The lane area extracting means extracts the lane area in which the host vehicle is traveling from the road image stored in the image storage means, and the lane area is equal to the left and right lane widths shown at the bottom of the image. The vehicle recognition device according to claim 1, wherein the vehicle recognizing device is configured to approximately extract the left and right adjacent lane areas by extending the area by a factor of two.
【請求項3】 エッジ投影手段を、車線領域抽出手段で
抽出した自車両の走行している車線領域内のエッジ成分
を画像の縦軸に投影することにより前方車両候補領域の
下端を抽出した後、車線領域抽出手段で抽出した自車両
の走行している車線領域および隣接車線領域内のエッジ
成分を画像の横軸に投影することにより前方車両候補領
域の左右端を抽出するよう構成した請求項1,請求項2
記載の車両認識装置。
3. After extracting the lower end of the forward vehicle candidate area by projecting the edge component in the lane area in which the host vehicle is running, which is extracted by the lane area extracting means, on the vertical axis of the image, the edge projecting means The left and right ends of the forward vehicle candidate region are extracted by projecting the edge components in the lane region in which the vehicle is traveling and the adjacent lane region extracted by the lane region extracting means onto the horizontal axis of the image. 1, claim 2
The vehicle recognition device described.
【請求項4】 エッジ投影手段を、車線領域内から抽出
したエッジ数の分散値に基づいて車両候補領域の領域端
を抽出するよう構成した請求項3記載の車両認識装置。
4. The vehicle recognition device according to claim 3, wherein the edge projection means is configured to extract the area edge of the vehicle candidate area based on the variance value of the number of edges extracted from the lane area.
【請求項5】 対称領域抽出手段を、同一走査線上に存
在する任意のエッジ点間で求めた中点位置を積算してい
くことにより領域全体の対称軸を抽出するよう構成した
請求項1記載の車両認識装置。
5. The symmetric region extracting means is configured to extract the symmetry axis of the entire region by accumulating the midpoint positions obtained between arbitrary edge points existing on the same scanning line. Vehicle recognition device.
【請求項6】 初期モデル設定手段を、対称領域抽出手
段で抽出した対称領域の領域幅と高さに基づいて、対称
領域に適応したモデルの形状と大きさを求めるよう構成
した請求項1記載の車両認識装置。
6. The initial model setting means is configured to obtain the shape and size of a model adapted to the symmetric area based on the area width and height of the symmetric area extracted by the symmetric area extracting means. Vehicle recognition device.
【請求項7】 初期モデル設定手段を、対称領域抽出手
段で抽出した対称領域の領域幅と高さに基づいて、対称
領域に適応したモデルの形状と大きさを求め、対称領域
抽出手段で抽出した対称領域の重心位置とモデルの重心
位置とを一致させることにより、対称領域に適応したモ
デルを適切な位置に自動的に設定するよう構成した請求
項1記載の車両認識装置。
7. The initial model setting means obtains the shape and size of the model adapted to the symmetric area based on the area width and height of the symmetric area extracted by the symmetric area extracting means, and extracts by the symmetric area extracting means. The vehicle recognition device according to claim 1, wherein the model adapted to the symmetric region is automatically set to an appropriate position by matching the barycentric position of the symmetric region with the barycentric position of the model.
【請求項8】 車間距離算出手段を、右カメラと左カメ
ラから得られた入力画像の内の一方から抽出した前方車
両の輪郭モデルを基準パターンとし、他方の入力画像か
ら抽出した前方車両の輪郭モデルとの間の視差を求める
ことによって前方車両との車間距離を算出するよう構成
した請求項1記載の車両認識装置。
8. An inter-vehicle distance calculating means uses a contour model of a front vehicle extracted from one of input images obtained from a right camera and a left camera as a reference pattern, and a contour of a front vehicle extracted from the other input image. The vehicle recognition device according to claim 1, wherein the inter-vehicle distance to the preceding vehicle is calculated by obtaining a parallax between the model and the model.
JP6122899A 1994-06-06 1994-06-06 Vehicle recognition device Pending JPH07334800A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6122899A JPH07334800A (en) 1994-06-06 1994-06-06 Vehicle recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6122899A JPH07334800A (en) 1994-06-06 1994-06-06 Vehicle recognition device

Publications (1)

Publication Number Publication Date
JPH07334800A true JPH07334800A (en) 1995-12-22

Family

ID=14847381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6122899A Pending JPH07334800A (en) 1994-06-06 1994-06-06 Vehicle recognition device

Country Status (1)

Country Link
JP (1) JPH07334800A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000331148A (en) * 1999-05-19 2000-11-30 Nissan Motor Co Ltd Obstacle detector
US6163022A (en) * 1997-05-20 2000-12-19 Matsushita Electric Industrial Co., Ltd. Imaging apparatus, distance measurement apparatus and method for measuring distance
JP2003062777A (en) * 2001-08-22 2003-03-05 Honda Motor Co Ltd Autonomous acting robot
WO2006028180A1 (en) * 2004-09-10 2006-03-16 Matsushita Electric Industrial Co., Ltd. Camera and camera device
JP2008503757A (en) * 2004-06-22 2008-02-07 サーノフ コーポレーション Method and apparatus for visual odometry
JP2009037284A (en) * 2007-07-31 2009-02-19 Daihatsu Motor Co Ltd Traveling object recognition device
JP2009180661A (en) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc Distance measuring device and distance measuring method
JP2009180662A (en) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc Distance measuring device
JP2009180663A (en) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc Distance measuring device and distance measuring method
WO2010113239A1 (en) 2009-03-31 2010-10-07 コニカミノルタホールディングス株式会社 Image integration unit and image integration method
US8310546B2 (en) 2008-10-09 2012-11-13 Denso Corporation Image processing apparatus adapted to recognize object in acquired image
JP2013251656A (en) * 2012-05-31 2013-12-12 Sharp Corp Image processor
WO2016189777A1 (en) * 2015-05-28 2016-12-01 株式会社Jvcケンウッド Road surface marking detection device, obstruction element detection device, traffic lane detection device, traffic lane detection method, and program
KR20230003060A (en) * 2020-04-28 2023-01-05 로베르트 보쉬 게엠베하 Traffic-law-compliant decision-making in dynamic traffic scenarios
JP2023517105A (en) * 2020-03-26 2023-04-21 バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッド Obstacle filtering system based on point cloud features

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6163022A (en) * 1997-05-20 2000-12-19 Matsushita Electric Industrial Co., Ltd. Imaging apparatus, distance measurement apparatus and method for measuring distance
JP2000331148A (en) * 1999-05-19 2000-11-30 Nissan Motor Co Ltd Obstacle detector
JP2003062777A (en) * 2001-08-22 2003-03-05 Honda Motor Co Ltd Autonomous acting robot
JP4689107B2 (en) * 2001-08-22 2011-05-25 本田技研工業株式会社 Autonomous robot
JP2008503757A (en) * 2004-06-22 2008-02-07 サーノフ コーポレーション Method and apparatus for visual odometry
WO2006028180A1 (en) * 2004-09-10 2006-03-16 Matsushita Electric Industrial Co., Ltd. Camera and camera device
JP2009037284A (en) * 2007-07-31 2009-02-19 Daihatsu Motor Co Ltd Traveling object recognition device
JP2009180663A (en) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc Distance measuring device and distance measuring method
JP2009180662A (en) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc Distance measuring device
JP2009180661A (en) * 2008-01-31 2009-08-13 Konica Minolta Holdings Inc Distance measuring device and distance measuring method
US8310546B2 (en) 2008-10-09 2012-11-13 Denso Corporation Image processing apparatus adapted to recognize object in acquired image
WO2010113239A1 (en) 2009-03-31 2010-10-07 コニカミノルタホールディングス株式会社 Image integration unit and image integration method
US9415723B2 (en) 2009-03-31 2016-08-16 Konica Minolta Holdings, Inc. Image integration unit and image integration method
JP2013251656A (en) * 2012-05-31 2013-12-12 Sharp Corp Image processor
WO2016189777A1 (en) * 2015-05-28 2016-12-01 株式会社Jvcケンウッド Road surface marking detection device, obstruction element detection device, traffic lane detection device, traffic lane detection method, and program
JP2023517105A (en) * 2020-03-26 2023-04-21 バイドゥドットコム タイムズ テクノロジー (ベイジン) カンパニー リミテッド Obstacle filtering system based on point cloud features
KR20230003060A (en) * 2020-04-28 2023-01-05 로베르트 보쉬 게엠베하 Traffic-law-compliant decision-making in dynamic traffic scenarios
US11926341B2 (en) 2020-04-28 2024-03-12 Mercedes-Benz Group AG Traffic-rule-compliant decision-making in dynamic traffic scenarios

Similar Documents

Publication Publication Date Title
JP3426060B2 (en) Face image processing device
US7899211B2 (en) Object detecting system and object detecting method
EP0626655B1 (en) Vehicle recognition apparatus
JP4650079B2 (en) Object detection apparatus and method
JP4811201B2 (en) Runway boundary line detection apparatus and runway boundary line detection method
JP6184877B2 (en) Vehicle external recognition device
JPH07334800A (en) Vehicle recognition device
CN105206109B (en) A kind of vehicle greasy weather identification early warning system and method based on infrared CCD
CN104282020A (en) Vehicle speed detection method based on target motion track
JP2015207281A (en) Solid detector, solid detection method, solid detection program, and mobile body equipment control system
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
WO2017145605A1 (en) Image processing device, image pickup device, moving body apparatus control system, image processing method, and program
WO2019202628A1 (en) Road surface detector, image display device using road surface detector, obstacle detector using road surface detector, image display method using road surface detection method, and obstacle detection method using road surface detection method
JP6753134B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and image processing program
JP3961584B2 (en) Lane marking detector
JPWO2017145634A1 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
JP2007249257A (en) Apparatus and method for detecting movable element
CN107220632B (en) Road surface image segmentation method based on normal characteristic
Hernández et al. Lane marking detection using image features and line fitting model
JP2000306097A (en) Road area decision device
JP3516118B2 (en) Object recognition method and object recognition device
JP2862199B2 (en) Vehicle recognition device
JPH07225126A (en) On-road object recognizing device for vehicle
JP3465531B2 (en) Object recognition method and apparatus
JP3605955B2 (en) Vehicle identification device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040709

A131 Notification of reasons for refusal

Effective date: 20040720

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050419

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050823