JPH07129899A - Vehicle recognition device - Google Patents

Vehicle recognition device

Info

Publication number
JPH07129899A
JPH07129899A JP5277217A JP27721793A JPH07129899A JP H07129899 A JPH07129899 A JP H07129899A JP 5277217 A JP5277217 A JP 5277217A JP 27721793 A JP27721793 A JP 27721793A JP H07129899 A JPH07129899 A JP H07129899A
Authority
JP
Japan
Prior art keywords
vehicle
area
lane
image
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5277217A
Other languages
Japanese (ja)
Other versions
JP3004158B2 (en
Inventor
Nobuyuki Nakano
信之 中野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP5277217A priority Critical patent/JP3004158B2/en
Priority to US08/246,634 priority patent/US5487116A/en
Priority to EP94108082A priority patent/EP0626655B1/en
Priority to DE69428737T priority patent/DE69428737T2/en
Publication of JPH07129899A publication Critical patent/JPH07129899A/en
Application granted granted Critical
Publication of JP3004158B2 publication Critical patent/JP3004158B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To provide a vehicle recognition device which properly extracts only a precedent vehicle on the same lane with this vehicle irrespectivily of the travel position of this vehicle and the position relation between this vehicle and other peripheral vehicle in a device which extracts a precedent vehicle from an image obtained by photographing the road front. CONSTITUTION:A vehicle lower end extracting means 5 and a vehicle side end extracting means 6 performs edge search processing in the lane area of this vehicle extracted by using an extracting means 3 for this vehicle and adjacent lane areas extracted by an adjacent lane extracting means 4 as to a road edge image obtained by an image input means 1 and an image differentiating means 2 and a vehicle area judging means 7 cuts both areas of the precedent vehicle. Consequently, only the precedent vehicle on the same lane as the lane of this vehicle can properly by extracted regardless of the travel position of this vehicle, and the positional relation between this vehicle and peripheral vehicles.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は自動車の予防安全技術、
とくに、画像処理技術を用いて自車両の走行している車
線領域内の前方車両を認識する装置に関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to preventive safety technology for automobiles,
In particular, the present invention relates to an apparatus for recognizing a vehicle in front in the lane area in which the vehicle is traveling by using image processing technology.

【0002】[0002]

【従来の技術】従来、この種の前方車両を認識する装置
としては、例えば特開平1−281600号公報に記載
されているように、あらかじめ切り出した道路領域内に
存在するエッジ成分を追跡することによって前方車両の
存在する領域を抽出するものがあった。
2. Description of the Related Art Conventionally, as a device for recognizing a forward vehicle of this type, as described in, for example, Japanese Patent Application Laid-Open No. 1-281600, an edge component existing in a road region cut out in advance is tracked. There was one that extracts the area where the vehicle in front exists.

【0003】[0003]

【発明が解決しようとする課題】しかしながらこのよう
な従来の車両認識装置においては、前方車両が車線変更
を行っているような場合や、前方車両と並行して複数の
車両が隣接車線を走行しているような場合においては前
方車両のみを適切に抽出することが困難であるという第
一の課題を有していた。
However, in such a conventional vehicle recognition device, when a front vehicle is changing lanes, or when a plurality of vehicles run in adjacent lanes in parallel with the front vehicle. In such a case, there is the first problem that it is difficult to properly extract only the vehicle ahead.

【0004】また、従来の車両認識装置においては、他
の車両や様々な道路構造物との重なりをもつ前方車両の
上端部を抽出することは困難であるという第二の課題も
有していた。
Further, the conventional vehicle recognition device has a second problem that it is difficult to extract the upper end portion of a forward vehicle having an overlap with another vehicle or various road structures. .

【0005】本発明は以上のような課題を解決するもの
で、まず自車両の走行している車線内で前方車両の探索
を行った後、隣接車線へと探索範囲を広げていくことに
より、自車両の走行位置、および自車両と周辺車両との
相対位置に関係なく、自車両の走行している車線内に存
在する前方車両のみを適切に抽出することができる装置
を提供することを第一の目的としている。
The present invention solves the problems as described above. First, by searching for a vehicle ahead in the lane in which the host vehicle is traveling, the search range is expanded to the adjacent lane. (EN) Provided is a device capable of appropriately extracting only a front vehicle existing in a lane in which an own vehicle is traveling, irrespective of a traveling position of the own vehicle and a relative position between the own vehicle and a surrounding vehicle. It has one purpose.

【0006】また、本発明は、前方車両が他の車両、道
路壁、陸橋などとの重なりをもっているような場合にお
いても、その上端部を適切に抽出することができる装置
を提供することを第二の目的としている。
Further, the present invention provides a device capable of appropriately extracting the upper end portion of a front vehicle even when the front vehicle overlaps with another vehicle, a road wall, an overpass, or the like. It has a secondary purpose.

【0007】[0007]

【課題を解決するための手段】上記第一の目的を達成す
るために本発明の第一の手段は、車両に搭載した前方撮
影用の画像入力手段と、前記画像入力手段によって入力
された道路画像に微分処理を施すことによってエッジ画
像を生成する画像微分手段と、前記画像微分手段によっ
て生成されたエッジ画像から自車両が走行している車線
領域を抽出する自車線抽出手段と、前記画像微分手段に
よって生成されたエッジ画像から前記自車線抽出手段で
抽出された自車両の走行している車線に隣接する車線領
域を抽出する隣接車線抽出手段と、前記自車線抽出手段
によって抽出された自車両が走行している車線領域内に
おいて前記画像微分手段によって生成されたエッジ画像
から前方車両候補領域の下端を抽出する車両下端抽出手
段と、前記隣接車線抽出手段によって抽出された隣接車
線および前記車両下端抽出手段によって抽出された車両
候補領域の下端によって限定される領域内において前記
画像微分手段によって生成されたエッジ画像から前方車
両候補領域の左右端を抽出する車両側端抽出手段と、前
記車両下端抽出手段によって抽出された前方車両候補領
域の下端および前記車両側端抽出手段によって抽出され
た前方車両候補領域の左右端によって切り出される領域
が前方車両に該当するかどうかの判断を行う車両領域判
断手段とを備えたものである。
In order to achieve the above first object, the first means of the present invention is to provide an image input means for forward photographing mounted on a vehicle, and a road input by the image input means. An image differentiating means for generating an edge image by applying a differentiating process to the image, a own lane extracting means for extracting a lane area in which the own vehicle is traveling from the edge image generated by the image differentiating means, and the image differentiating means. Adjacent lane extracting means for extracting a lane area adjacent to the traveling lane of the own vehicle extracted by the own lane extracting means from the edge image generated by the own lane extracting means, and the own vehicle extracted by the own lane extracting means. Vehicle lower end extraction means for extracting the lower end of the forward vehicle candidate area from the edge image generated by the image differentiation means in the lane area in which the vehicle is traveling, and the adjacent vehicle The left and right edges of the forward vehicle candidate area are extracted from the edge image generated by the image differentiating means within the area defined by the adjacent lane extracted by the extracting means and the lower end of the vehicle candidate area extracted by the vehicle lower edge extracting means. The vehicle side edge extraction means, the area cut out by the lower edge of the forward vehicle candidate area extracted by the vehicle lower edge extraction means and the left and right edges of the forward vehicle candidate area extracted by the vehicle side edge extraction means correspond to the forward vehicle. Vehicle area determining means for determining whether or not to do so.

【0008】また上記第一、第二の目的を達成するため
に本発明の第二の手段は、上記第1の手段の構成に加え
て、前記車両領域判断手段によって前方車両に該当する
と判断された車両領域において前記画像微分手段によっ
て生成されたエッジ画像に車両モデルを適応することに
より車両領域を切り出す車両モデル適応手段を備えたも
のである。
Further, in order to achieve the above first and second objects, the second means of the present invention, in addition to the structure of the above first means, is judged by the vehicle area judging means to be a forward vehicle. In the vehicle area, the vehicle model adaptation means is provided for cutting out the vehicle area by applying the vehicle model to the edge image generated by the image differentiating means.

【0009】また上記第一、第二の目的を達成するため
に本発明の第三の手段は、上記第1の手段の構成に加え
て、前記車両領域判断手段によって前方車両に該当する
と判断された車両領域において前記画像微分手段によっ
て生成されたエッジ画像から前方車両のリヤ・ウィンド
ウを抽出することによって車両領域を切り出すリヤ・ウ
ィンドウ抽出手段を備えたものである。
In order to achieve the above first and second objects, the third means of the present invention, in addition to the structure of the above first means, is judged by the vehicle area judging means to be a forward vehicle. In the vehicle area, there is provided rear window extracting means for cutting out the vehicle area by extracting the rear window of the front vehicle from the edge image generated by the image differentiating means.

【0010】[0010]

【作用】上記第一の手段によって、自車両の走行してい
る車線内で前方車両の探索を行った後、隣接車線へと探
索範囲を広げていくことができ、これにより、自車両の
走行位置、および自車両と周辺車両の相対位置に関係な
く、自車両の走行している車線内に存在する前方車両の
みを適切に抽出することができる。
With the first means described above, after the preceding vehicle is searched in the lane in which the host vehicle is traveling, the search range can be expanded to the adjacent lane. Regardless of the position and the relative positions of the own vehicle and the surrounding vehicles, only the forward vehicle existing in the lane in which the own vehicle is traveling can be appropriately extracted.

【0011】また、上記第二,第三の手段によって、車
両モデルやリヤ・リウィンドウ・モデルなどを用いて車
両上端部を抽出することにより、他の車両や様々な道路
構造物との重なりをもつ場合においても、前方車両のみ
を適切に抽出することができる。
Further, by the second and third means, the upper end of the vehicle is extracted by using the vehicle model, the rear window model, etc., so as to prevent the vehicle from overlapping with other vehicles and various road structures. Even in the case of holding, only the vehicle in front can be appropriately extracted.

【0012】[0012]

【実施例】以下、本発明の第一の実施例について図面を
参照しながら説明する。図1は、本発明の第一の実施例
にかかる車両認識装置の基本構成を示すブロック図であ
る。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the basic configuration of a vehicle recognition device according to the first embodiment of the present invention.

【0013】1は車両前方を撮影する画像入力手段であ
り、図2に示すように、CCDカメラを車両前部に運転
者の視界を妨げないように設置することによって実現さ
れる。2は画像微分手段であり、画像入力手段1から入
力された道路画像に対して微分処理を施し、エッジ画像
を生成するものである。3は画像微分手段2で生成され
たエッジ画像から、自車両の走行している車線領域を抽
出する自車線抽出手段であり、白線の輪郭点列を直線近
似することによって実現される。4は自車線抽出手段3
によって抽出された自車線に隣接した車線領域を抽出す
る隣接車線抽出手段であり、自車線領域を拡大する処理
を行うものである。5は車両下端抽出手段であり、自車
線抽出手段3で抽出された自車両の走行している車線領
域内のエッジ探索を行うことによって、前方車両候補領
域の下端を抽出するものである。6は車両側端抽出手段
であり、隣接車線抽出手段4で抽出された隣接車線領域
内のエッジ探索を行うことによって、前方車両候補領域
の左右端を抽出するものである。7は車両領域判断手段
であり、車両下端抽出手段5および車両側端抽出手段6
によって切り出された前方車両候補領域が前方車両に該
当するかどうかを判断するものである。
Reference numeral 1 denotes an image input means for photographing the front of the vehicle, which is realized by installing a CCD camera at the front of the vehicle so as not to obstruct the driver's view, as shown in FIG. Reference numeral 2 denotes an image differentiating means, which differentiates the road image input from the image inputting means 1 to generate an edge image. Reference numeral 3 denotes own lane extracting means for extracting the lane area in which the own vehicle is traveling from the edge image generated by the image differentiating means 2, which is realized by linearly approximating the outline point sequence of the white line. 4 is own lane extracting means 3
It is an adjacent lane extracting means for extracting a lane area adjacent to the own lane extracted by the above, and performs a process of enlarging the own lane area. Reference numeral 5 denotes a vehicle lower end extraction means, which extracts the lower end of the forward vehicle candidate area by performing an edge search within the lane area in which the own vehicle is running extracted by the own lane extraction means 3. Reference numeral 6 denotes a vehicle side edge extraction means, which extracts the left and right edges of the forward vehicle candidate area by performing an edge search within the adjacent lane area extracted by the adjacent lane extraction means 4. Reference numeral 7 denotes a vehicle area determination means, which is a vehicle lower end extraction means 5 and a vehicle side edge extraction means 6
It is to determine whether or not the front vehicle candidate area cut out by corresponds to the front vehicle.

【0014】次に、上記各構成要素よりなる本発明の第
一の実施例における車両認識装置の動作を、図3に示す
フローチャートにしたがって説明する。まずステップ1
01では、画像入力手段1を用いて車両前方を撮影し、
道路画像データの取り込みを行う。図7に、取り込まれ
た画像の一例を示す。
Next, the operation of the vehicle recognizing device according to the first embodiment of the present invention, which comprises the above-mentioned components, will be described with reference to the flow chart shown in FIG. First step 1
In 01, the front of the vehicle is photographed using the image input means 1,
Import road image data. FIG. 7 shows an example of the captured image.

【0015】ステップ102では、画像微分手段2を用
いてステップ101で取り込んだ道路画像からエッジ成
分の抽出を行う。エッジの抽出にはSobelなどの微
分オペレータを用い、得られたエッジ強度に対して適当
な閾値で二値化を行うことによってエッジ画像を生成す
る。図8に、図7の入力画像から作成したエッジ画像を
示す。
In step 102, the image differentiating means 2 is used to extract edge components from the road image captured in step 101. A differential operator such as Sobel is used for edge extraction, and the obtained edge strength is binarized with an appropriate threshold value to generate an edge image. FIG. 8 shows an edge image created from the input image of FIG.

【0016】ステップ103では自車線抽出手段3を用
いて、自車両の走行している車線領域の抽出を行う。自
車両の走行している車線領域の抽出は、ステップ102
で生成されたエッジ画像から白線の輪郭候補点列を抽出
し、これらの点列を直線近似することによって行う。こ
の場合、処理範囲を画像の下半分に限定し、直線近似処
理の精度を高める。図4に、この処理の一連の流れを示
す。まずステップ201では、左右の白線の輪郭点を抽
出する処理を行う。まず図9に示すように、エッジ画像
の中心Iから左方向に走査線を探索していき、エッジ強
度E(x,y)が閾値Theを越える最初の画素を左白
線の内側の輪郭点とする。同様に、図9に示す画像の中
心Iから右方向に向かって走査線を探索していき、エッ
ジ強度E(x,y)が閾値Theを越える最初の画素を
左白線の内側の輪郭点とする。図10に左右白線の輪郭
点列を抽出した結果を示す。次にステップ202では、
ステップ201で抽出した左右の白線の輪郭点列を直接
近似する処理を行う。なお、直線近似処理にはHoug
h変換の手法を用いる。こうして図11に示すように、
路面上の左側白線の直線近似結果、右側白線の直線近似
結果、および画像下端によって形成される三角形VLR
を、自車両の走行している自車線領域として抽出する。
In step 103, the own lane extracting means 3 is used to extract the lane region in which the own vehicle is traveling. The extraction of the lane area in which the host vehicle is traveling is performed in step 102.
The outline candidate point sequence of the white line is extracted from the edge image generated in (1), and these point sequences are linearly approximated. In this case, the processing range is limited to the lower half of the image to improve the accuracy of the linear approximation processing. FIG. 4 shows a flow of this processing. First, in step 201, processing for extracting contour points of the left and right white lines is performed. First, as shown in FIG. 9, the scanning line is searched leftward from the center I of the edge image, and the first pixel whose edge strength E (x, y) exceeds the threshold value The is the contour point inside the left white line. To do. Similarly, the scanning line is searched for from the center I of the image shown in FIG. 9 to the right, and the first pixel whose edge strength E (x, y) exceeds the threshold value The is defined as the contour point inside the left white line. To do. FIG. 10 shows the result of extracting the contour point sequences of the left and right white lines. Next, in step 202,
A process of directly approximating the contour point sequences of the left and right white lines extracted in step 201 is performed. Note that Houg is used for the linear approximation processing.
The method of h conversion is used. Thus, as shown in FIG.
Triangle VLR formed by the straight line approximation result of the left white line on the road surface, the straight line approximation result of the right white line, and the lower edge of the image
Is extracted as the own lane area in which the own vehicle is traveling.

【0017】次にステップ104では、こうして抽出さ
れた自車両の走行している車線領域に基づいて、隣接車
線を含む道路領域を隣接車線抽出手段4によって近似的
に抽出する。この場合図12に示すように、自車線領域
を表す三角形VLRの底辺LRの長さを左右に倍ずつ延
長した三角形VL’R’を、隣接車線を含めた道路領域
として抽出する。
Next, in step 104, the road area including the adjacent lane is approximately extracted by the adjacent lane extracting means 4 based on the lane area in which the own vehicle is traveling thus extracted. In this case, as shown in FIG. 12, a triangle VL'R 'obtained by extending the length of the bottom side LR of the triangle VLR representing the own lane area to the left and right is extracted as a road area including adjacent lanes.

【0018】次に、ステップ105では車両下端抽出手
段5を用いて、ステップ103で得られた自車両の走行
している自車線領域内において、前方車両の候補領域の
下端および走査線方向の重心位置を抽出する。図5に、
この処理の一連の流れを示す。まずステップ301にお
いて、自車両が走行している車線領域内の各走査線上に
存在するエッジ点の数をカウントし、図13に示すよう
なヒストグラムを作成する。さらに、ステップ302、
303に示すように、このヒストグラムを下側から探索
していき、エッジ点数が閾値EBをはじめて越える走査
線位置を、前方車両候補領域の下端として抽出する。そ
してステップ304に進み、ステップ303で抽出され
た前方車両候補領域下端の走査線上に分布するエッジ点
列の平均値を算出し、前方車両候補領域の走査線方向の
重心位置とする。逆にステップ302において、閾値E
Bを越える走査線がない場合は、ステップ305に示す
ように前方車両は存在しないと判断して処理を終える。
Next, in step 105, the vehicle lower end extraction means 5 is used to set the lower end of the candidate region of the preceding vehicle and the center of gravity in the scanning line direction within the own lane region in which the own vehicle is running obtained in step 103. Extract the position. In Figure 5,
A series of flow of this processing is shown. First, in step 301, the number of edge points existing on each scanning line in the lane area in which the vehicle is traveling is counted, and a histogram as shown in FIG. 13 is created. In addition, step 302,
As indicated by 303, the histogram is searched from the lower side, and the scanning line position where the number of edge points exceeds the threshold value EB for the first time is extracted as the lower end of the forward vehicle candidate area. Then, the process proceeds to step 304, where the average value of the edge point sequence distributed on the scanning line at the lower end of the forward vehicle candidate region extracted in step 303 is calculated and set as the barycentric position of the forward vehicle candidate region in the scanning line direction. Conversely, in step 302, the threshold value E
If there is no scanning line exceeding B, it is determined that there is no vehicle in front as shown in step 305, and the process ends.

【0019】図3のステップ106では、車両側端抽出
手段6を用いて、処理領域を隣接車線を含む道路領域に
拡張し、前方車両候補領域の左右端の抽出を行う。なお
この時、車両下端抽出手段5で抽出した前方車両候補領
域の下端位置を処理領域の下限とする。この処理の一連
の流れを図6に示す。まずステップ401で、走査線に
垂直方向の各画素列上に存在するエッジ点の数をカウン
トし、図14に示すようなヒストグラムを作成する。次
にステップ402、403では、車両下端抽出手段5で
抽出した前方車両候補領域の走査線方向の重心位置から
左側に向かってヒストグラムの度数を調べ、エッジ点数
が閾値ES以下になる最初の位置を前方車両候補領域の
左端として抽出する。同様にステップ404、405で
は、重心位置から右側に向かってヒストグラムの度数を
調べ、エッジ点数が閾値ES以下になる最初の位置を前
方車両候補領域の右側として抽出する。逆に、ステップ
402あるいはステップ404において閾値ES以下に
なる位置が検出されない場合は、ステップ406で前方
車両は存在しないと判断して処理を終える。
In step 106 of FIG. 3, the vehicle side edge extraction means 6 is used to expand the processing area to a road area including an adjacent lane, and the left and right edges of the forward vehicle candidate area are extracted. At this time, the lower end position of the forward vehicle candidate region extracted by the vehicle lower end extraction unit 5 is set as the lower limit of the processing region. A series of flow of this process is shown in FIG. First, in step 401, the number of edge points existing on each pixel column in the direction perpendicular to the scanning line is counted, and a histogram as shown in FIG. 14 is created. Next, in steps 402 and 403, the frequency of the histogram is examined from the center of gravity in the scanning line direction of the forward vehicle candidate area extracted by the vehicle lower edge extraction means 5 to the left, and the first position where the edge score becomes equal to or less than the threshold value ES is determined. It is extracted as the left end of the forward vehicle candidate area. Similarly, in steps 404 and 405, the histogram frequency is examined from the center of gravity position to the right, and the first position where the edge score becomes equal to or less than the threshold value ES is extracted as the right side of the forward vehicle candidate region. On the contrary, if the position that is equal to or less than the threshold value ES is not detected in step 402 or step 404, it is determined in step 406 that there is no vehicle in front, and the process ends.

【0020】ステップ107では、車両下端抽出手段5
および車両側端抽出手段6によって切り出された前方車
両候補領域に関して、その領域が前方車両に該当するか
どうかの判断を行う。この場合、図15に示す凹型に切
り出された領域内において、水平エッジの数が閾値EH
を越える場合には、車両下端抽出手段5および車両側端
抽出手段6によって切り出された前方車両候補領域が、
自車両が走行している車線領域内に存在する前方車両に
該当すると判断する。逆に、水平エッジの数が閾値EH
以下である場合には、切り出された候補領域は路面上の
影であると判断する。
In step 107, the vehicle lower end extraction means 5
With respect to the front vehicle candidate area cut out by the vehicle side edge extraction means 6, it is determined whether or not the area corresponds to a front vehicle. In this case, the number of horizontal edges is equal to the threshold value EH in the recessed area shown in FIG.
When it exceeds, the front vehicle candidate area cut out by the vehicle lower end extraction means 5 and the vehicle side end extraction means 6 is
It is determined that the vehicle is a forward vehicle existing in the lane area in which the vehicle is traveling. On the contrary, the number of horizontal edges is the threshold value EH.
In the following cases, it is determined that the cut out candidate area is a shadow on the road surface.

【0021】このようにして、自車両の走行している車
線領域内で前方車両領域の下端と走査線方向の重心位置
を抽出した後、隣接車線を含む道路領域内において、前
方車両候補領域の走査線方向の重心位置から左右外側に
向かってエッジを探索することにより、前方車両が車線
変更を行っている場合や、隣接車線に他の車両が走行し
ているような場合においても、自車両の走行している車
線内に存在する前方車両のみを適切に抽出することがで
きる。
In this way, after extracting the lower end of the front vehicle area and the center of gravity in the scanning line direction within the lane area in which the host vehicle is traveling, the front vehicle candidate area within the road area including the adjacent lane is extracted. By searching for edges from the center of gravity in the scanning line direction to the outside on the left and right, even when the vehicle in front is changing lanes or when another vehicle is traveling in the adjacent lane, It is possible to appropriately extract only the forward vehicle existing in the traveling lane of the vehicle.

【0022】次に、本発明の第二の実施例について図面
を参照しながら説明する。図16は、本発明の第二の実
施例の基本構成を示すブロック図である。第二の実施例
の基本構成は、第一の実施例の基本構成に車両モデル適
応手段8を付加したものになっている。車両モデル適応
手段8は、車両領域判断手段7で判断された前方車両領
域に車両モデルを適応することによって車両上端部を抽
出し、最終的に前方車両に外接する矩形領域を切り出す
ものである。
Next, a second embodiment of the present invention will be described with reference to the drawings. FIG. 16 is a block diagram showing the basic configuration of the second embodiment of the present invention. The basic configuration of the second embodiment is the basic configuration of the first embodiment with vehicle model adaptation means 8 added. The vehicle model adaptation means 8 extracts the upper end portion of the vehicle by adapting the vehicle model to the front vehicle area determined by the vehicle area determination means 7, and finally cuts out a rectangular area circumscribing the front vehicle.

【0023】次に、車両モデル適応手段8を付加した本
発明の第二の実施例における車両認識装置の動作を、図
17に示すフローチャートにしたがって説明する。な
お、詳細な内容については第一の実施例と異なる部分に
ついてのみ示し、その他の部分は第一の実施例にしたが
うものとする。
Next, the operation of the vehicle recognition apparatus according to the second embodiment of the present invention to which the vehicle model adaptation means 8 is added will be described with reference to the flow chart shown in FIG. It should be noted that the detailed contents are shown only for the parts different from the first embodiment, and the other parts are according to the first embodiment.

【0024】まず、ステップ501から507までの処
理は、第一の実施例で示した図3のステップ101から
ステップ107の処理に対応しており、それぞれ同様の
処理を行い、ステップ508へと進む。
First, the processing from steps 501 to 507 corresponds to the processing from step 101 to step 107 in FIG. 3 shown in the first embodiment. The same processing is performed respectively, and the process proceeds to step 508. .

【0025】ステップ508では、車両領域判断手段7
において前方車両に該当すると判断された領域に車両モ
デルを適応することによって、前方車両の上端部を抽出
するとともに最終的に前方車両に外接する矩形領域の切
り出しを行う。一般に、前方車両の上端部分は様々な道
路構造物との重なりを持つために、下端部、左端部、お
よび右端部などに比べて抽出が困難である。そこで、普
通乗用車、軽自動車、バン、トラックなどの車両種別に
応じた様々な大きさの矩形モデルをあらかじめ用意して
おき、これをエッジ画像に当てはめることによって、前
方車両の上端部を抽出するとともに車両領域の切り出し
を行う。
In step 508, the vehicle area determination means 7
By adapting the vehicle model to the area determined to correspond to the front vehicle in (1), the upper end of the front vehicle is extracted and the rectangular area circumscribing the front vehicle is finally cut out. Generally, since the upper end portion of the vehicle ahead overlaps various road structures, it is more difficult to extract than the lower end portion, the left end portion, and the right end portion. Therefore, we prepare rectangular models of various sizes according to the vehicle type such as ordinary passenger cars, light cars, vans, trucks, etc. in advance, and apply this to the edge image to extract the upper end of the front vehicle. Cut out the vehicle area.

【0026】一般的に図19に示すように、自動車は普
通乗用車、軽自動車、バン、トラックなどの車両種別に
よって、その全幅と全高の比はそれぞれ異なる。そこ
で、平均的な普通乗用車の全幅Wnと全高Hnの比Sn
を式(1)のように定義し、平均的な軽自動車の全幅W
kと全高Hkの比Skを式(2)のように定義し、平均
的なバンの全幅Wvと全高Hvの比Svを式(3)のよ
うに定義し、平均的なトラックの全幅Wtと全高Htの
比Stを式(4)のように定義する。ただし、Sn、S
k、Sv、Stは式(5)にしたがうものとする。
Generally, as shown in FIG. 19, the ratio of the total width to the total height of an automobile differs depending on the vehicle type such as a normal passenger car, a light automobile, a van, and a truck. Therefore, the ratio Sn of the total width Wn and the total height Hn of an average ordinary passenger car is
Is defined as the formula (1), and the average width W of the average light vehicle is
The ratio Sk of the k and the total height Hk is defined by the formula (2), the ratio Sv of the average full width Wv of the van and the total height Hv is defined by the formula (3), and the average width Wt of the truck is The ratio St of the total height Ht is defined as in Expression (4). However, Sn, S
It is assumed that k, Sv, and St comply with the equation (5).

【0027】Hn/Wn=Sn (1) Hk/Wk=Sk (2) Hv/Wv=Sv (3) Ht/Wt=St (4) Sn<Sk<Sv<St (5) ここで、抽出された前方車両の画像上における横幅がW
であるとする。この場合、前方車両が普通乗用車である
と仮定すれば、その画像上における高さHは式(6)の
ように表すことができる。同様に、前方車両が軽自動
車、バン、トラックであると仮定すれば、その高さHは
式(7)、(8)、(9)のようにそれぞれ表すことが
できる。
Hn / Wn = Sn (1) Hk / Wk = Sk (2) Hv / Wv = Sv (3) Ht / Wt = St (4) Sn <Sk <Sv <St (5) The width on the image of the vehicle ahead is W
Suppose In this case, assuming that the vehicle in front is a normal passenger car, the height H on the image can be expressed by Expression (6). Similarly, assuming that the preceding vehicle is a light vehicle, a van, or a truck, its height H can be expressed as in equations (7), (8), and (9), respectively.

【0028】H=Sn×W (6) H=Sk×W (7) H=Sv×W (8) H=St×W (9) そこでまずステップ601では、車両側端抽出手段6に
よって抽出された前方車両の左右端に基づいて、画像上
における前方車両の横幅Wを算出する。次にステップ6
02では、式(6)〜(9)にしたがって、前方車両の
車両種別が普通乗用車、軽自動車、バン、トラックのそ
れぞれであった場合の画像上における高さHを算出し、
横幅Wと高さHをもった4種類の矩形モデルを作成す
る。さらにステップ603では、この4種類のモデルを
それぞれエッジ画像に当てはめる。この場合、矩形モデ
ルの下端、左端、右端が、車両領域判断手段で切り出さ
れた前方車両領域の下端、左端、右端にそれぞれ一致す
るように当てはめ、モデルの上辺に対応する走査線上の
エッジ点の数をカウントする。さらにステップ604で
は、4種類の矩形モデルの中で、カウントしたエッジ点
数が最も多いモデルを、前方車両の車両種別に適合した
モデルであると判断し、このモデルに囲まれた矩形領域
を前方車両に外接する領域として最終的に切り出す。図
20に、前方車両に外接する矩形領域を切り出した結果
を示す。
H = Sn × W (6) H = Sk × W (7) H = Sv × W (8) H = St × W (9) First, in step 601, the vehicle side end extraction means 6 extracts the data. The lateral width W of the front vehicle on the image is calculated based on the left and right ends of the front vehicle. Next step 6
In 02, the height H on the image when the vehicle type of the forward vehicle is each of a normal passenger car, a light vehicle, a van, and a truck is calculated according to the equations (6) to (9),
Four types of rectangular models having a width W and a height H are created. Further, in step 603, each of these four types of models is applied to the edge image. In this case, the bottom edge, left edge, and right edge of the rectangular model are fitted so as to match the bottom edge, left edge, and right edge of the front vehicle area cut out by the vehicle area determination means, respectively, and the edge points on the scanning line corresponding to the upper side of the model are Count the number. Further, in step 604, of the four types of rectangular models, the model with the largest number of edge points is determined to be the model that matches the vehicle type of the forward vehicle, and the rectangular area surrounded by this model is determined as the forward vehicle. Finally cut out as the area circumscribing. FIG. 20 shows a result of cutting out a rectangular area circumscribing the preceding vehicle.

【0029】このように、道路領域から抽出した前方車
両の下端および左右端に基づいて作成した車両モデルを
適用して車両上端部を抽出することにより、前方車両に
外接する矩形領域を適切に切り出すことができる。
As described above, the vehicle model created based on the lower end and the left and right ends of the front vehicle extracted from the road region is applied to extract the vehicle upper end, thereby appropriately cutting out the rectangular region circumscribing the front vehicle. be able to.

【0030】次に、本発明の第三の実施例について図面
を参照しながら説明する。図21は、本発明の第三の実
施例の基本構成を示すブロック図である。第三の実施例
の基本構成は、第二の実施例の基本構成における車両モ
デル適応手段8をリヤ・ウィンドウ抽出手段9に置き換
えたものになっている。一般に、乗用車のリヤ・ウィン
ドウは画像中に比較的顕著に現れる車両特徴であり、そ
の上端部分は車両の上端にほぼ一致する。さらに、その
形状および大きさは、普通乗用車あるいは軽自動車にお
いては車種によらずほぼ一定である。リヤ・ウィンドウ
抽出手段9は、車両領域判断手段7によって切り出され
た前方車両の下端、左端、右端、および画像上端によっ
て構成される矩形領域内から前方車両のリヤ・ウィンド
ウを抽出することによって前方車両の上端部を抽出し、
最終的に前方車両に外接する矩形領域の切り出し行うも
のである。
Next, a third embodiment of the present invention will be described with reference to the drawings. FIG. 21 is a block diagram showing the basic configuration of the third embodiment of the present invention. The basic configuration of the third embodiment is such that the vehicle model adaptation means 8 in the basic configuration of the second embodiment is replaced with rear window extraction means 9. Generally, the rear window of a passenger vehicle is a vehicle feature that appears relatively prominently in the image, and its upper end portion substantially coincides with the upper end of the vehicle. Furthermore, the shape and size of a passenger car or a light car are almost constant regardless of the vehicle type. The rear window extraction means 9 extracts the rear window of the front vehicle from the rectangular area formed by the lower edge, the left edge, the right edge, and the upper edge of the image of the front vehicle cut out by the vehicle area determination means 7. Extract the upper end of
Finally, the rectangular area circumscribing the vehicle in front is cut out.

【0031】次に、リヤ・ウィンドウ抽出手段9を有す
る本発明の第三の実施例における車両認識装置の動作
を、図22に示すフローチャートにしたがって説明す
る。なお、詳細な内容については第二の実施例と異なる
部分についてのみ示し、その他の部分は第二の実施例に
したがうものとする。
Next, the operation of the vehicle recognizing device according to the third embodiment of the present invention having the rear window extracting means 9 will be described with reference to the flow chart shown in FIG. It should be noted that the detailed contents are shown only for the parts different from the second embodiment, and the other parts are according to the second embodiment.

【0032】まず、ステップ701から707までの処
理は、第二の実施例で示した図17のステップ501か
ら507の処理に対応しており、それぞれ同様の処理を
行い、ステップ708へと進む。
First, the processing from step 701 to 707 corresponds to the processing from step 501 to 507 in FIG. 17 shown in the second embodiment, and the same processing is performed respectively, and the process proceeds to step 708.

【0033】ステップ708では、リヤ・ウィンドウ抽
出手段9を用いて前方車両のリヤ・ウィンドウを探索す
ることによって前方車両の上端部を抽出し、前方車両領
域の切り出しを行う。図23に、この処理の一連の流れ
を示す。まずステップ801では、車両側端抽出手段7
で抽出した前方車両領域の左右端から画像上における前
方車両の横幅Wを算出する。そしてステップ802で
は、図24に示すように上底W×β、下底W×γ、高さ
W×αの台形状のリヤ・ウィンドウ・モデルを作成す
る。ステップ803では、このモテルをテンプレートと
して、図24で示す前方車両の下端、左端、右端、およ
び画像上端で構成される矩形領域内を移動させ、エッジ
画像とのマッチングを行う。この場合、テンプレートと
エッジ画像との適合度を表す尺度としては、テンプレー
トの台形輪郭上に存在するエッジ点の数をカウントした
ものを用いる。さらにステップ804では、この適合度
の最大値を算出し、ステップ805においてこの最大値
が閾値Mwを越えているかどうかの判断を行う。適合度
の最大値が閾値Mwを越えている場合はステップ806
へと進み、適合度が最大値を示すテンプレートの位置を
前方車両のリヤ・ウィンドウとして抽出する。そして、
このリヤ・ウィンドウの上端部分を前方車両の上端位置
として近似する。さらにステップ807においては、こ
うして抽出された前方車両の上端、車両領域判断手段7
によって得られた下端、左端、および右端によって囲ま
れる矩形領域を前方車両に外接する領域として切り出
す。図20に前方車両を矩形領域として切り出した結果
を示す。逆に、適合度の最大値が閾値Mw以下である場
合、前方車両がバンあるいは大型トラックなどの車両で
あると判断し、ステップ808においてバン、トラック
用のモデルを適用することによって車両上端部を抽出す
る。まず、平均的なバンの全幅Wvと全高Hvの比S
v、平均的なトラックの全幅Wtと全高Htの比Stを
それぞれ式(3)、(4)、(5)のように定義する。
In step 708, the upper end portion of the front vehicle is extracted by searching the rear window of the front vehicle using the rear window extraction means 9 and the front vehicle region is cut out. FIG. 23 shows a flow of this processing. First, in step 801, the vehicle side edge extraction means 7
The lateral width W of the front vehicle on the image is calculated from the left and right ends of the front vehicle region extracted in step S3. Then, in step 802, as shown in FIG. 24, a trapezoidal rear window model having an upper bottom W × β, a lower bottom W × γ, and a height W × α is created. In step 803, using this motel as a template, the vehicle is moved within a rectangular area composed of the lower end, the left end, the right end, and the upper end of the image of the forward vehicle shown in FIG. 24, and matching with the edge image is performed. In this case, as a measure showing the degree of conformity between the template and the edge image, a number obtained by counting the number of edge points existing on the trapezoidal contour of the template is used. Further, in step 804, the maximum value of this fitness is calculated, and in step 805 it is judged whether or not this maximum value exceeds the threshold value Mw. If the maximum value of the goodness of fit exceeds the threshold Mw, step 806.
Go to and extract the position of the template with the maximum matching value as the rear window of the vehicle ahead. And
The upper end portion of this rear window is approximated as the upper end position of the vehicle ahead. Further, in step 807, the upper end of the preceding vehicle thus extracted, the vehicle area determination means 7
The rectangular region surrounded by the lower end, the left end, and the right end obtained by is cut out as a region circumscribing the front vehicle. FIG. 20 shows the result of cutting out the front vehicle as a rectangular area. On the contrary, if the maximum value of the conformity is equal to or less than the threshold value Mw, it is determined that the vehicle in front is a vehicle such as a van or a large truck, and in step 808, the vehicle upper end portion is detected by applying the model for the van or truck. Extract. First, the ratio S of the average van width Wv and height Hv
v, the ratio St of the total width Wt and the total height Ht of the average track is defined as in equations (3), (4), and (5), respectively.

【0034】Hv/Wv=Sv (3) Ht/Wt=St (4) Sv<St (5) さらに、ステップ801で算出した画像上における前方
車両の横幅Wを用いると、この前方車両がバンであると
仮定すれば、その画像上における高さHは式(8)のよ
うに、トラックであると仮定すれば式(9)のようにそ
れぞれ表すことができる。
Hv / Wv = Sv (3) Ht / Wt = St (4) Sv <St (5) Further, using the lateral width W of the front vehicle on the image calculated in step 801, this front vehicle is a van. Assuming that there is, the height H on the image can be expressed as in equation (8), and if it is assumed to be a track, in equation (9).

【0035】H=Sv×W (8) H=St×W (9) そこで、このようにして算出された横幅Wと高さHをも
った2種類の矩形モデルを作成し、それぞれをエッジ画
像に適用する。この場合、矩形モデルの下端、左端、右
端が、車両領域判断手段7で切り出された前方車両領域
の下端、左端、右端にそれぞれ一致するように当ては
め、モデルの上辺に対応する走査線上のエッジ点の数を
カウントする。
H = Sv × W (8) H = St × W (9) Therefore, two types of rectangular models having the width W and the height H thus calculated are created, and each of them is an edge image. Apply to. In this case, the lower end, the left end, and the right end of the rectangular model are fitted so as to match the lower end, the left end, and the right end of the front vehicle region cut out by the vehicle region determination means 7, respectively, and the edge points on the scanning line corresponding to the upper side of the model are fitted. To count the number of.

【0036】さらに、この2種類の矩形モデルの中で、
カウントしたエッジ点数が多い方のモデルを、前方車両
の車両識別に適合したモデルであると判断し、このモデ
ルに囲まれた矩形領域を前方車両に外接する領域として
最終的に切り出す。
Further, among these two types of rectangular models,
The model with the larger number of edge points is determined to be a model suitable for vehicle identification of the front vehicle, and the rectangular area surrounded by this model is finally cut out as an area circumscribing the front vehicle.

【0037】このようにして、リヤ・ウィンドウを特徴
量として用いることにより、前方車両が他の車両や様々
な道路構造物との重なりをもっている場合においても、
前方車両領域を適切に切り出すことができる。
In this way, by using the rear window as the feature quantity, even when the vehicle in front has an overlap with other vehicles and various road structures,
The front vehicle area can be appropriately cut out.

【0038】なお、上記実施例の自車線領域抽出手段3
における白線の直線近似処理にはHough変換を用い
るとしたが、最小二乗法などの他の直線近似手法を用い
てもよい。また、上記実施例の画像微分手段2における
エッジ成分の抽出にはSobelオペレータを用いると
したが、ラプラシアンなどの他のエッジ検出オペレータ
を用いてもよい。また、車両モデル適応手段8は、動的
輪郭モデルなどの手法を用いて車両の輪郭を抽出するも
のでも良い。
The vehicle lane area extracting means 3 of the above embodiment
Although the Hough transform is used for the linear approximation processing of the white line in, the linear approximation method such as the least square method may be used. Further, the Sobel operator is used to extract the edge component in the image differentiating means 2 of the above embodiment, but other edge detection operators such as Laplacian may be used. Further, the vehicle model adaptation means 8 may be one that extracts the contour of the vehicle using a method such as an active contour model.

【0039】なお、本発明の各手段は、コンピュータを
用いてソフトウェア的に実現し、あるいはそれら各機能
を有する専用のハードウェア回路を用いて実現すること
ができる。
Each means of the present invention can be realized by software using a computer, or can be realized by using a dedicated hardware circuit having each of these functions.

【0040】[0040]

【発明の効果】以上のように本発明によれば、自車両が
走行している車線領域を抽出する自車線抽出手段と、隣
接する車線領域を抽出する隣接車線抽出手段と、自車両
走行車線領域内のエッジ画像から前方車両候補領域の下
端を抽出する車両下端抽出手段と、隣接車線および車両
候補領域の下端によって限定される領域内におけるエッ
ジ画像から前方車両候補領域の左右端を抽出する車両側
端抽出手段と、前方車両候補領域の下端および前方車両
候補領域の左右端によって切り出される領域が前方車両
に該当するかどうかの判断を行う車両領域判断手段とを
備えることにより、まず自車両の走行している車線内で
前方車両の探索を行った後、隣接車線へと探索範囲を広
げていき、自車両の走行位置、および自車両と周辺車両
との相対位置に関係なく、自車両の走行している車線内
に存在する前方車両のみを適切に抽出することができ
る。
As described above, according to the present invention, the own lane extracting means for extracting the lane area in which the own vehicle is traveling, the adjacent lane extracting means for extracting the adjacent lane area, and the own vehicle traveling lane. Vehicle lower end extraction means for extracting the lower end of the forward vehicle candidate region from the edge image in the region, and vehicle for extracting the left and right ends of the forward vehicle candidate region from the edge image within the region defined by the adjacent lane and the lower end of the vehicle candidate region First, by providing the side edge extraction means and the vehicle area determination means for determining whether the area cut out by the lower end of the front vehicle candidate area and the left and right edges of the front vehicle candidate area corresponds to the front vehicle, After searching for a vehicle in front of you in the lane you are driving, expand the search range to the adjacent lane to determine the location of your vehicle and the relative position of your vehicle and surrounding vehicles. Without only forward vehicle present in the lane in which the vehicle traveling can be properly extracted.

【0041】また、エッジ画像に車両モデルを適応する
ことにより車両領域を切り出す車両モデル適応手段や、
エッジ画像から前方車両のリヤ・ウィンドウを抽出する
ことによって車両領域を切り出すリヤ・ウインドウ抽出
手段を備え、車両モデルやリヤ・リウィンドウ・モデル
などを用いて車両上端部を抽出することにより、他の車
両や様々な道路構造物との重なりをもつ場合において
も、前方車両のみを適切に抽出することができる。
Vehicle model adaptation means for cutting out the vehicle region by adapting the vehicle model to the edge image,
A rear window extraction unit that cuts out the vehicle region by extracting the rear window of the vehicle ahead from the edge image is provided, and the upper end portion of the vehicle is extracted by using the vehicle model or the rear window model. Even when there is an overlap with a vehicle or various road structures, only the vehicle in front can be appropriately extracted.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第一の実施例にかかる車両認識装置の
基本構成を示すブロック図
FIG. 1 is a block diagram showing a basic configuration of a vehicle recognition device according to a first embodiment of the present invention.

【図2】同車両認識装置の車両へのカメラの取り付け例
を示す平面図
FIG. 2 is a plan view showing an example of mounting the camera on the vehicle of the vehicle recognition device.

【図3】同車両認識装置の動作を示すフローチャート図FIG. 3 is a flowchart showing an operation of the vehicle recognition device.

【図4】同車両認識装置の自車線領域抽出処理の動作を
示すフローチャート図
FIG. 4 is a flowchart showing an operation of own lane area extraction processing of the vehicle recognition device.

【図5】同車両認識装置の車両領域下端抽出処理の動作
を示すフローチャート図
FIG. 5 is a flowchart showing an operation of vehicle region lower end extraction processing of the vehicle recognition device.

【図6】同車両認識装置の車両側端抽出処理の動作を示
すフローチャート
FIG. 6 is a flowchart showing an operation of vehicle side edge extraction processing of the vehicle recognition device.

【図7】同車両認識装置における入力画像の例を示す図FIG. 7 is a diagram showing an example of an input image in the vehicle recognition device.

【図8】同車両認識装置における入力画像から作成した
エッジ画像を示す図
FIG. 8 is a diagram showing an edge image created from an input image in the vehicle recognition device.

【図9】同車両認識装置における白線輪郭の抽出処理を
示す図
FIG. 9 is a diagram showing a white line contour extraction process in the vehicle recognition device.

【図10】同車両認識装置における白線輪郭の抽出結果を
示す図
FIG. 10 is a diagram showing a white line contour extraction result in the vehicle recognition device.

【図11】同車両認識装置における自車両の走行する車線
領域の抽出結果を示す図
FIG. 11 is a diagram showing an extraction result of a lane region in which the vehicle is traveling in the vehicle recognition device.

【図12】同車両認識装置における隣接車線領域の抽出処
理を示す図
FIG. 12 is a diagram showing an extraction process of an adjacent lane area in the vehicle recognition device.

【図13】同車両認識装置における前方車両の下端抽出処
理を示す図
FIG. 13 is a diagram showing a lower end extraction process of a front vehicle in the vehicle recognition device.

【図14】同車両認識装置における前方車両の左右端抽出
処理を示す図
FIG. 14 is a diagram showing a process of extracting left and right ends of a front vehicle in the vehicle recognition device.

【図15】同車両認識装置における前方車両候補領域の抽
出結果を示す図
FIG. 15 is a diagram showing a result of extracting a forward vehicle candidate region in the vehicle recognition device.

【図16】本発明の第二の実施例にかかる車両認識装置の
基本構成を示すブロック図
FIG. 16 is a block diagram showing a basic configuration of a vehicle recognition device according to a second embodiment of the present invention.

【図17】同車両認識装置の動作を示すフローチャート図FIG. 17 is a flowchart showing the operation of the vehicle recognition device.

【図18】同車両認識装置の車両モデル適応処理の動作を
示すフローチャート図
FIG. 18 is a flowchart showing an operation of vehicle model adaptation processing of the vehicle recognition device.

【図19】様々な車両種別ごとの矩形モデルを示す図FIG. 19 is a diagram showing rectangular models for various vehicle types.

【図20】同車両認識装置の前方車両に外接する矩形領域
の抽出結果を示す図
FIG. 20 is a view showing a result of extracting a rectangular area circumscribing a vehicle ahead of the vehicle recognition device.

【図21】本発明の第三の実施例にかかる車両認識装置の
基本構成を示すブロック図
FIG. 21 is a block diagram showing a basic configuration of a vehicle recognition device according to a third embodiment of the present invention.

【図22】同車両認識装置の動作を示すフローチャート図FIG. 22 is a flowchart showing the operation of the vehicle recognition device.

【図23】同車両認識装置のリヤ・ウィンドウ抽出処理の
動作を示すフローチャート図
FIG. 23 is a flowchart showing the operation of the rear window extraction process of the vehicle recognition device.

【図24】リヤ・ウィンドウのモデルを示す図[Figure 24] Diagram showing the model of the rear window

【符号の説明】[Explanation of symbols]

1 画像入力手段 2 画像微分手段 3 自車線抽出手段 4 隣接車線抽出手段 5 車両下端抽出手段 6 車両側端抽出手段 7 車両領域判断手段 8 車両モデル適応手段 9 リヤ・ウィンドウ抽出手段 1 Image Input Means 2 Image Differentiating Means 3 Own Lane Extracting Means 4 Adjacent Lane Extracting Means 5 Vehicle Lower Edge Extracting Means 6 Vehicle Side Edge Extracting Means 7 Vehicle Area Determining Means 8 Vehicle Model Adapting Means 9 Rear Window Extracting Means

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 車両に搭載した前方撮影用の画像入力手
段と、前記画像入力手段によって入力された道路画像に
微分処理を施すことによってエッジ画像を生成する画像
微分手段と、前記画像微分手段によって生成されたエッ
ジ画像から自車両が走行している車線領域を抽出する自
車線抽出手段と、前記画像微分手段によって生成された
エッジ画像から前記自車線抽出手段で抽出された自車両
の走行している車線に隣接する車線領域を抽出する隣接
車線抽出手段と、前記自車線抽出手段によって抽出され
た自車両が走行している車線領域内において前記画像微
分手段によって生成されたエッジ画像から前方車両候補
領域の下端を抽出する車両下端抽出手段と、前記隣接車
線抽出手段によって抽出された隣接車線および前記車両
下端抽出手段によって抽出された車両候補領域の下端に
よって限定される領域内において前記画像微分手段によ
って生成されたエッジ画像から前方車両候補領域の左右
端を抽出する車両側端抽出手段と、前記車両下端抽出手
段によって抽出された前方車両候補領域の下端および前
記車両側端抽出手段によって抽出された前方車両候補領
域の左右端によって切り出される領域が前方車両に該当
するかどうかの判断を行う車両領域判断手段とを備えた
車両認識装置。
1. An image input means for forward photography mounted on a vehicle, an image differentiating means for generating an edge image by subjecting a road image input by said image input means to differential processing, and said image differentiating means. Own lane extracting means for extracting the lane area in which the own vehicle is traveling from the generated edge image, and running of the own vehicle extracted by the own lane extracting means from the edge image generated by the image differentiating means. An adjacent lane extracting means for extracting a lane area adjacent to an existing lane, and a forward vehicle candidate from the edge image generated by the image differentiating means in the lane area in which the own vehicle extracted by the own lane extracting means is traveling. The vehicle lower edge extracting means for extracting the lower edge of the region, the adjacent lane extracted by the adjacent lane extracting means, and the vehicle lower edge extracting means. The vehicle side edge extracting means for extracting the left and right edges of the forward vehicle candidate area from the edge image generated by the image differentiating means in the area defined by the lower edge of the vehicle candidate area extracted by the vehicle lower edge extracting means. Vehicle region determining means for determining whether or not a region cut out by the lower end of the extracted forward vehicle candidate region and the left and right ends of the forward vehicle candidate region extracted by the vehicle side edge extracting means corresponds to a forward vehicle. Vehicle recognition device.
【請求項2】 車両領域判断手段によって前方車両に該
当すると判断された車両領域において画像微分手段によ
って生成されたエッジ画像に車両モデルを適応すること
により車両領域を切り出す車両モデル適応手段を備えた
請求項1記載の車両認識装置。
2. A vehicle model adaptation means for cutting out a vehicle area by applying a vehicle model to an edge image generated by an image differentiating means in a vehicle area determined to correspond to a forward vehicle by the vehicle area determination means. Item 1. The vehicle recognition device according to item 1.
【請求項3】 車両領域判断手段によって前方車両に該
当すると判断された車両領域において画像微分手段によ
って生成されたエッジ画像から前方車両のリヤ・ウィン
ドウを抽出することによって車両領域を切り出すリヤ・
ウインドウ抽出手段を備えた請求項1記載の車両認識装
置。
3. A rear area cut out from the vehicle area by extracting a rear window of the front vehicle from the edge image generated by the image differentiating means in the vehicle area determined to correspond to the front vehicle by the vehicle area determining means.
The vehicle recognition device according to claim 1, further comprising window extraction means.
JP5277217A 1993-05-25 1993-11-08 Vehicle recognition device Expired - Fee Related JP3004158B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP5277217A JP3004158B2 (en) 1993-11-08 1993-11-08 Vehicle recognition device
US08/246,634 US5487116A (en) 1993-05-25 1994-05-20 Vehicle recognition apparatus
EP94108082A EP0626655B1 (en) 1993-05-25 1994-05-25 Vehicle recognition apparatus
DE69428737T DE69428737T2 (en) 1993-05-25 1994-05-25 Vehicle detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5277217A JP3004158B2 (en) 1993-11-08 1993-11-08 Vehicle recognition device

Publications (2)

Publication Number Publication Date
JPH07129899A true JPH07129899A (en) 1995-05-19
JP3004158B2 JP3004158B2 (en) 2000-01-31

Family

ID=17580449

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5277217A Expired - Fee Related JP3004158B2 (en) 1993-05-25 1993-11-08 Vehicle recognition device

Country Status (1)

Country Link
JP (1) JP3004158B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10187930A (en) * 1996-12-19 1998-07-21 Hitachi Ltd Running environment recognizing device
US6163022A (en) * 1997-05-20 2000-12-19 Matsushita Electric Industrial Co., Ltd. Imaging apparatus, distance measurement apparatus and method for measuring distance
JP2009146407A (en) * 2007-12-13 2009-07-02 Alpine Electronics Inc Method and apparatus for segmenting object region
JP2010079472A (en) * 2008-09-25 2010-04-08 Mazda Motor Corp Vehicle traveling controller
KR101407901B1 (en) * 2010-12-06 2014-06-16 주식회사 만도 Vehicle Recognition System

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10187930A (en) * 1996-12-19 1998-07-21 Hitachi Ltd Running environment recognizing device
US6163022A (en) * 1997-05-20 2000-12-19 Matsushita Electric Industrial Co., Ltd. Imaging apparatus, distance measurement apparatus and method for measuring distance
JP2009146407A (en) * 2007-12-13 2009-07-02 Alpine Electronics Inc Method and apparatus for segmenting object region
JP2010079472A (en) * 2008-09-25 2010-04-08 Mazda Motor Corp Vehicle traveling controller
KR101407901B1 (en) * 2010-12-06 2014-06-16 주식회사 만도 Vehicle Recognition System

Also Published As

Publication number Publication date
JP3004158B2 (en) 2000-01-31

Similar Documents

Publication Publication Date Title
JP3169483B2 (en) Road environment recognition device
US7046822B1 (en) Method of detecting objects within a wide range of a road vehicle
US7623681B2 (en) System and method for range measurement of a preceding vehicle
EP0827127B1 (en) Local positioning apparatus, and method therefor
JP2002352225A (en) Obstacle detector and its method
JP4246766B2 (en) Method and apparatus for locating and tracking an object from a vehicle
US20020080019A1 (en) Apparatus and method for detecting traffic lane mark for automotive vehicle
US11430149B2 (en) Image processing device and image processing method
JP3230642B2 (en) Vehicle ahead detection device
JP2000136905A (en) Apparatus for measuring position of end of object, and judgment apparatus for passage of moving body
DE102006012914A1 (en) System and method for determining the distance to a preceding vehicle
JPH05298591A (en) Object recognition device
JP3157958B2 (en) Leading vehicle recognition method
JPH07129899A (en) Vehicle recognition device
JP2862199B2 (en) Vehicle recognition device
JP3319401B2 (en) Roadway recognition device
EP4177694A1 (en) Obstacle detection device and obstacle detection method
JP2883131B2 (en) Driving lane identification method
JP2001101420A (en) Device and method for detecting obstacle
JPH0986315A (en) Obstacle recognizing device
JP3032060B2 (en) Roadway recognition device for mobile vehicles
JP2662583B2 (en) On-vehicle distance detection device
JPH01265399A (en) Road recognizing device for vehicle
JPH07220194A (en) Road environment recognizing device
JPH0520593A (en) Travelling lane recognizing device and precedence automobile recognizing device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071119

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081119

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091119

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091119

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101119

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees