JPH0916782A - Object recognizing device - Google Patents

Object recognizing device

Info

Publication number
JPH0916782A
JPH0916782A JP7162003A JP16200395A JPH0916782A JP H0916782 A JPH0916782 A JP H0916782A JP 7162003 A JP7162003 A JP 7162003A JP 16200395 A JP16200395 A JP 16200395A JP H0916782 A JPH0916782 A JP H0916782A
Authority
JP
Japan
Prior art keywords
edge
area
vertical
preceding vehicle
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7162003A
Other languages
Japanese (ja)
Other versions
JP3267105B2 (en
Inventor
Hiroshi Tominaga
博 富永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP16200395A priority Critical patent/JP3267105B2/en
Publication of JPH0916782A publication Critical patent/JPH0916782A/en
Application granted granted Critical
Publication of JP3267105B2 publication Critical patent/JP3267105B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: To recognize an object with high accuracy by expanding an edge point extracted from image pickup data for the unit of a small area divided on a grid. CONSTITUTION: The image pickup area of a CCD camera 12 is divided in the shape of grid and expansion processing of the longitudinal and lateral edge points is performed for the unit of each small area. When the longitudinal edge point exists inside, each small area divided like this is grasped as an area expressing the longitudinal edge of the object existent in the photographic data and when the lateral edge point exists inside, the small area is grasped as an area expressing the lateral edge of the object existent in the photographic data. Then, the linear longitudinal edge area corresponding to the longitudinal edge of a preceding vehicle and the linear lateral edge area corresponding to the lateral edge of the preceding vehicle are respectively continuously and sharply formed in a longitudinal edge area picture. Therefore, the angle point of the object is specified based on the area where these longitudinal edge area group and lateral edge area group cross, the presence/absence of the preceding vehicle is judged and the size or the like of the preceding vehicle is detected.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、物体認識装置に係り、
特に、自動車において先行車両の認識に用いる装置とし
て好適な物体認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object recognition device,
In particular, the present invention relates to an object recognition device suitable as a device used for recognizing a preceding vehicle in an automobile.

【0002】[0002]

【従来の技術】従来より、画像センサの撮像データに基
づいて物体の認識を行う装置が知られている。かかる物
体認識装置では、撮像データ内から縦方向エッジ、及び
横方向エッジを検出し、得られたエッジ形状を基に物体
の認識を行う手法が一般に用いられている。撮像データ
内の縦方向エッジ、及び横方向エッジは、得られた撮像
データの輝度を画素単位で比較し、隣接する画素間に所
定値を超える輝度差が存在するか否かにより検出され
る。
2. Description of the Related Art Conventionally, a device for recognizing an object based on image data of an image sensor has been known. In such an object recognition device, a method is generally used in which vertical edges and horizontal edges are detected from imaged data and an object is recognized based on the obtained edge shape. The vertical edge and the horizontal edge in the imaged data are detected by comparing the luminances of the obtained imaged data on a pixel-by-pixel basis and determining whether or not there is a luminance difference exceeding a predetermined value between adjacent pixels.

【0003】具体的には、画像センサの各画素における
輝度を横方向に隣接する画素同士で比較し、所定値を超
える輝度差が存在する場合には、それらの画素が縦方向
のエッジ点として認識される。そして、縦方向のエッジ
点が縦方向に連続して検出されれば、それらの集合が縦
方向エッジとして認識される。同様に、画像センサの各
画素における輝度を縦方向に隣接する画素同士で比較
し、所定値を超える輝度差が存在する場合には、それら
の画素が横方向のエッジ点として認識され、更に、横方
向のエッジ点が横方向に連続して検出されれば、それら
の集合が横方向エッジとして認識される。
Specifically, the brightness of each pixel of the image sensor is compared between adjacent pixels in the horizontal direction, and if there is a brightness difference exceeding a predetermined value, those pixels are regarded as vertical edge points. Be recognized. When the vertical edge points are continuously detected in the vertical direction, the set of them is recognized as a vertical edge. Similarly, the brightness in each pixel of the image sensor is compared between pixels adjacent in the vertical direction, and when there is a brightness difference exceeding a predetermined value, those pixels are recognized as horizontal edge points, and further, When horizontal edge points are continuously detected in the horizontal direction, a set of them is recognized as a horizontal edge.

【0004】ところで、上記の手法を用いて物体の認識
を行う場合、対象物の輪郭が明確な直線状のエッジとし
て得られず、不連続なエッジとして検出される場合があ
る。このように対象物の輪郭が不連続なエッジとして検
出された場合、対象物の輪郭を表すエッジと、対象物の
輪郭以外の部分に対応して検出されるエッジとの区別が
困難となり、正確な物体認識を行い得ない事態が生ず
る。
When an object is recognized using the above method, the contour of the object may not be obtained as a clear linear edge, but may be detected as a discontinuous edge. When the contour of the object is detected as a discontinuous edge in this way, it is difficult to distinguish between the edge representing the contour of the object and the edge detected corresponding to a portion other than the contour of the object, and A situation occurs in which it is not possible to recognize various objects.

【0005】かかる問題に着目した物体認識装置として
は、特開昭62−126499号公報に開示される如
く、エッジ点が検出された場合、エッジ点として検出さ
れた画素の周囲に隣接する数画素、例えば隣接する4画
素又は8画素をエッジ領域として認識することで、得ら
れたエッジを膨張させる装置が知られている。かかる装
置によれば、対象物の輪郭が不連続的なエッジ点として
得られる場合でも、それらのエッジ点がそれぞれ膨張さ
れるため連続的なエッジ領域を得ることができる。従っ
て、上記の物体認識装置によれば、エッジ点から直接的
に物体の認識を行う場合に比して、高い物体認識精度を
得ることができる。
As an object recognition apparatus focusing on such a problem, as disclosed in Japanese Patent Laid-Open No. 62-126499, when an edge point is detected, several pixels adjacent to the pixel detected as the edge point are adjacent. There is known a device that expands the obtained edge by recognizing, for example, adjacent 4 pixels or 8 pixels as an edge region. According to such a device, even when the contour of the object is obtained as discontinuous edge points, since these edge points are respectively expanded, a continuous edge region can be obtained. Therefore, according to the above object recognition device, higher object recognition accuracy can be obtained as compared with the case where the object is directly recognized from the edge point.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、撮像デ
ータに基づいてエッジ点を検出した場合、縦方向エッジ
が横方向に近接して複数検出される場合がある。また、
同様に、横方向エッジが縦方向に近接して複数検出され
る場合がある。かかる状況下で、各エッジ点についてエ
ッジを膨張させる処理を施すと、縦方向エッジ領域、及
び横方向エッジ領域が不当に太い領域となる場合があ
る。
However, when the edge points are detected based on the image pickup data, there are cases where a plurality of vertical edges are detected close to each other in the horizontal direction. Also,
Similarly, a plurality of horizontal edges may be detected close to each other in the vertical direction. Under such a circumstance, if the edge expansion process is performed on each edge point, the vertical edge region and the horizontal edge region may become unreasonably thick regions.

【0007】撮像データ中で縦方向エッジ領域、及び横
方向エッジ領域を検出し、それらのエッジ領域に基づい
て物体の認識する場合、物体の輪郭を精度良く認識する
ためには、その輪郭に相当するエッジ領域は細いことが
望ましい。この点、不必要に太いエッジ領域が設定され
る可能性がある上記従来の物体認識装置は、物体認識精
度を常に良好に維持することができないという問題を有
するものであった。
When the vertical edge region and the horizontal edge region are detected in the imaged data and the object is recognized based on these edge regions, in order to accurately recognize the contour of the object, it corresponds to the contour. It is desirable that the edge region to be formed is thin. In this respect, the above-mentioned conventional object recognition device in which a thick edge region may be set unnecessarily has a problem that it is not possible to always maintain good object recognition accuracy.

【0008】本発明は、上述の点に鑑みてなされたもの
であり、撮像データ内に検出されるエッジを、所定の膨
張幅内で膨張させることにより上記の課題を解決する物
体認識装置を提供することを目的とする。
The present invention has been made in view of the above points, and provides an object recognizing device that solves the above problems by expanding an edge detected in imaged data within a predetermined expansion width. The purpose is to do.

【0009】[0009]

【課題を解決するための手段】上記の目的は、画像セン
サを用いて物体の認識を行う物体認識装置において、前
記画像センサの撮像領域を、所定の画素数を含む小領域
単位で格子状に区分する領域区分手段と、撮像データ中
の縦エッジ点、及び横エッジ点を検出するエッジ点検出
手段と、前記縦エッジ点を含む小領域を縦エッジ領域
と、前記横エッジ点を含む小領域を横エッジ領域とする
エッジ領域設定手段と、縦方向に連続する縦エッジ領域
群と、横方向に連続する横エッジ領域群とが交わる領域
を基に、前記物体の角点を特定する角点特定手段と、を
備える物体認識装置により達成される。
In the object recognition device for recognizing an object using an image sensor, the image pickup area of the image sensor is formed into a grid pattern in units of small areas including a predetermined number of pixels. Area dividing means for dividing, edge point detecting means for detecting vertical edge points and horizontal edge points in imaged data, a small area including the vertical edge points, a vertical edge area, and a small area including the horizontal edge points An edge point for specifying the corner point of the object based on an area where an edge area setting unit having a horizontal edge area, a vertical edge area group continuous in the vertical direction, and a horizontal edge area group continuous in the horizontal direction intersects each other. It is achieved by an object recognition device comprising: specifying means.

【0010】[0010]

【作用】本発明において、画像センサは、認識の対象た
る物体を含む画像を撮像する。エッジ点検出手段は、画
像センサによって取り込まれた撮像データ内から縦エッ
ジ点、及び横エッジ点を検出する。撮像データ内に認識
の対象たる物体が撮像されている場合、ほぼその物体の
輪郭に沿って、複数の縦エッジ点、及び複数の横エッジ
点が検出される。
In the present invention, the image sensor captures an image including an object to be recognized. The edge point detecting means detects a vertical edge point and a horizontal edge point from the imaged data captured by the image sensor. When an object to be recognized is imaged in the imaged data, a plurality of vertical edge points and a plurality of horizontal edge points are detected substantially along the contour of the object.

【0011】領域区分手段は、画像センサの撮像領域を
格子状に区分する。格子状に区分された各小領域内に縦
エッジ点が存在する場合、エッジ領域設定手段は、その
小領域を縦エッジ領域とする。また、格子状に区分され
た各小領域内に横エッジ点が存在する場合、エッジ領域
設定手段は、その小領域を横エッジ領域とする。縦エッ
ジ領域、及び横エッジ領域は、各小領域内に複数のエッ
ジ点が存在しても常に小領域の格子幅となる。従って、
縦エッジ点が近接して複数検出される部位、及び横エッ
ジ点が近接して複数検出される部位においても、エッジ
領域の幅が不当に拡がることはない。
The area dividing means divides the image pickup area of the image sensor into a grid pattern. When a vertical edge point exists in each of the small areas divided in a grid pattern, the edge area setting means sets the small area as a vertical edge area. Further, when a horizontal edge point exists in each of the small areas divided in a grid pattern, the edge area setting means sets the small area as a horizontal edge area. The vertical edge area and the horizontal edge area always have the grid width of the small area even if a plurality of edge points exist in each small area. Therefore,
The width of the edge region is not unduly widened even in a region where a plurality of vertical edge points are detected close to each other and a region where a plurality of horizontal edge points are detected close to each other.

【0012】角点特定手段は、縦方向に連続する縦エッ
ジ領域を縦エッジ領域群として認識し、また、横方向に
連続する横エッジ領域を横エッジ領域群として認識し、
更に縦エッジ領域群と横エッジ領域群とが交わる領域に
基づいて物体の角点を特定する。撮像データ内に、認識
の対象たる物体が撮像されている場合、物体の輪郭に対
応して、縦エッジ領域は縦方向に、また横エッジ領域は
横方向にそれぞれ連続して検出される。従って、角点特
定手段が認識する縦エッジ領域群および横エッジ領域群
は、撮像の対象たる物体の輪郭に相当し、それらの交点
は物体の角部に相当する。
The corner point specifying means recognizes vertical edge areas continuous in the vertical direction as a vertical edge area group, and recognizes horizontal edge areas continuous in the horizontal direction as a horizontal edge area group,
Further, the corner points of the object are specified based on the region where the vertical edge region group and the horizontal edge region group intersect. When the object to be recognized is imaged in the imaged data, the vertical edge regions are continuously detected in the vertical direction and the horizontal edge regions are continuously detected in the horizontal direction corresponding to the contour of the object. Therefore, the vertical edge region group and the horizontal edge region group recognized by the corner point specifying means correspond to the contour of the object to be imaged, and the intersections thereof correspond to the corner portions of the object.

【0013】[0013]

【実施例】図1は、本発明の一実施例である物体認識装
置のブロック構成図を示す。本実施例の物体認識装置
は、自動車において先行車の認識を行うことを目的とし
て構成された装置である。
1 is a block diagram of an object recognition apparatus according to an embodiment of the present invention. The object recognition device of this embodiment is a device configured to recognize a preceding vehicle in an automobile.

【0014】本実施例の物体認識装置は、車両前方を監
視領域とするレーダ10、及びCCDカメラ12を備え
ている。レーダ10は、車両前方に存在する物体との距
離を測定する装置であり、その出力信号はA/Dコンバ
ータ14を介して、ディジタル・シグナル・プロセッサ
(DSP)16に通じるバスライン18に供給されてい
る。
The object recognition apparatus of this embodiment is equipped with a radar 10 and a CCD camera 12 which have a monitoring area in front of the vehicle. The radar 10 is a device for measuring the distance to an object existing in front of the vehicle, and its output signal is supplied to a bus line 18 leading to a digital signal processor (DSP) 16 via an A / D converter 14. ing.

【0015】CCDカメラ12は、車両前方を撮像する
カメラであり、先行車を含む画像を撮像データとして取
り込む。CCDカメラ12の出力信号は、A/Dコンバ
ータ20を介して入力用ビデオRAM22に供給されて
いる。入力用ビデオRAM22は、バスライン18に接
続されており、CCDカメラ12によって取り込まれた
撮像データを記憶すると共に、DSP16の指令に従っ
て、撮像データをバスライン上に提供する。
The CCD camera 12 is a camera for picking up an image of the front of the vehicle, and takes in an image including the preceding vehicle as image pickup data. The output signal of the CCD camera 12 is supplied to the input video RAM 22 via the A / D converter 20. The input video RAM 22 is connected to the bus line 18, stores the image pickup data captured by the CCD camera 12, and provides the image pickup data on the bus line in accordance with a command from the DSP 16.

【0016】バスライン18には、上述したA/Dコン
バータ14、入力用ビデオRAM22の他に、メインR
AM24、ROM26、出力用ビデオRAM28、及び
データRAM30が接続されている。メインRAM24
は、DSP16が入力用ビデオRAM22から取り込ん
だ画像を処理した後の画像データを記憶するためのメモ
リである。本実施例においては、処理の過程で複数の画
像データを記憶する必要があることから、メインRAM
24には、所定枚数の画像データを記憶するためのメモ
リ容量が付与されている。ROM26は、DSP16で
実行すべきプログラムを記憶するためのメモリである。
本実施例の物体認識装置は、ROM26内に記憶されて
いるプログラムに従ってDSP16が実行する処理の内
容に特徴を有している。尚、その処理内容については、
後に詳説する。
The bus line 18 has a main R in addition to the A / D converter 14 and the input video RAM 22 described above.
The AM 24, the ROM 26, the output video RAM 28, and the data RAM 30 are connected. Main RAM 24
Is a memory for storing the image data after the DSP 16 processes the image captured from the input video RAM 22. In this embodiment, since it is necessary to store a plurality of image data in the process of processing, the main RAM
24 is provided with a memory capacity for storing a predetermined number of image data. The ROM 26 is a memory for storing a program to be executed by the DSP 16.
The object recognition apparatus of this embodiment is characterized by the contents of the processing executed by the DSP 16 according to the program stored in the ROM 26. Regarding the processing contents,
I will explain in detail later.

【0017】出力用ビデオRAM28は、先行車の有無
を判断するために最終的に得られた画像を記憶するため
のメモリである。出力用ビデオRAM28には、D/A
コンバータ32を介してビデオディプレイ34が接続さ
れている。ビデオディスプレイ34は、車両の乗員に対
して各種の表示を行うべく車室内に設けられたディスプ
レイである。DSP16は、CCDカメラ12で取り込
んだ撮像データに種々の処理を施して先行車の有無を判
断するための最終画像を形成した後、その画像データを
出力用ビデオRAM28に記憶させ、更にその画像デー
タをビデオディプレイ24を介して車両の乗員に表示す
る処理を行う。
The output video RAM 28 is a memory for storing an image finally obtained in order to determine whether or not there is a preceding vehicle. The output video RAM 28 has a D / A
A video display 34 is connected via the converter 32. The video display 34 is a display provided inside the vehicle compartment to display various kinds of information to an occupant of the vehicle. The DSP 16 performs various processes on the image data captured by the CCD camera 12 to form a final image for determining the presence / absence of a preceding vehicle, stores the image data in the output video RAM 28, and further stores the image data. Is displayed to the occupants of the vehicle via the video display 24.

【0018】データRAM30は、先行車の有無を判断
するために最終的に得られた画像から検出できる種々の
データ、例えば先行車の有無に関するデータ、先行車の
大きさに関するデータ等を記憶するためのメモリであ
る。データRAM16は、自動ブレーキ装置、警報装置
等を含む車両制御装置36に接続されている。車両制御
装置36は、データRAM16内に記憶されるデータを
用いて、自車の走行環境を検出し、その状態に応じて所
定の車両制御を実行する。
The data RAM 30 stores various data that can be detected from an image finally obtained to determine the presence or absence of a preceding vehicle, such as data regarding the presence or absence of a preceding vehicle and data regarding the size of the preceding vehicle. Is the memory of. The data RAM 16 is connected to a vehicle control device 36 including an automatic braking device, an alarm device and the like. The vehicle control device 36 detects the traveling environment of the own vehicle using the data stored in the data RAM 16 and executes predetermined vehicle control according to the state.

【0019】図2は、CCDカメラ12から取り込まれ
た撮像データの一例を示す。図2に示す撮像データ中に
は、車両の前方を走行する先行車40、緩やかな左カー
ブを描く路面42、路面上に描かれた路面白線44、路
面42の右側に延在するガードレール46、先行車40
と並走する大型車両48等が含まれている。撮像データ
内に存在する種々の物体は、その物体の色、表面状態、
物体とCCDカメラ12との角度等に応じて異なる輝度
で撮像される。従って、撮像データ中の隣り合う画素同
士で大きく輝度の異なる点を検出すると、撮像データ中
に存在する種々の物体の輪郭を抽出することができる。
FIG. 2 shows an example of image pickup data taken from the CCD camera 12. In the imaging data shown in FIG. 2, a preceding vehicle 40 traveling in front of the vehicle, a road surface 42 drawing a gentle left curve, a road white line 44 drawn on the road surface, a guardrail 46 extending to the right of the road surface 42, Preceding vehicle 40
A large vehicle 48 and the like running in parallel are included. Various objects existing in the image data include the color, surface state,
An image is captured with different brightness depending on the angle between the object and the CCD camera 12. Therefore, when a point having a large difference in brightness between adjacent pixels in the image pickup data is detected, the contours of various objects existing in the image pickup data can be extracted.

【0020】図3は、上記図2に示す撮像データを画面
横方向にスキャニングして、横方向に隣接する画素間で
所定値を超える大きな輝度差が存在する画素をエッジ点
として抽出した画像データを示す。図3に示す如く、か
かる手法でエッジ点を検出した場合、撮像データ中に存
在する物体の縦方向に延在するエッジがエッジ点として
検出される。以下、図3中に示される如く、物体の縦方
向のエッジを表すエッジ点を縦エッジ点と、また縦エッ
ジ点を表示する画面を縦エッジ画面と称す。
FIG. 3 is image data obtained by scanning the imaged data shown in FIG. 2 in the horizontal direction of the screen and extracting pixels having a large luminance difference exceeding a predetermined value between horizontally adjacent pixels as edge points. Indicates. As shown in FIG. 3, when the edge point is detected by such a method, the edge extending in the vertical direction of the object existing in the imaging data is detected as the edge point. Hereinafter, as shown in FIG. 3, an edge point representing a vertical edge of an object is referred to as a vertical edge point, and a screen displaying the vertical edge point is referred to as a vertical edge screen.

【0021】また、図4は、上記図2に示す撮像データ
を画面縦方向にスキャニングして、縦方向に隣接する画
素間で所定値を超える大きな輝度差が存在する画素をエ
ッジ点として抽出した画像データを示す。図4に示す如
く、かかる手法でエッジ点を検出した場合、撮像データ
中に存在する物体の横方向に延在するエッジがエッジ点
として検出される。以下、図4中に示される如く、物体
の横方向のエッジを表すエッジ点を横エッジ点と、また
横エッジ点を表示する画面を横エッジ画面と称す。
In addition, in FIG. 4, the image pickup data shown in FIG. 2 is scanned in the vertical direction of the screen, and pixels having a large luminance difference exceeding a predetermined value between adjacent pixels in the vertical direction are extracted as edge points. Image data is shown. As shown in FIG. 4, when the edge point is detected by such a method, the edge extending in the lateral direction of the object existing in the imaging data is detected as the edge point. Hereinafter, as shown in FIG. 4, an edge point representing an edge of the object in the horizontal direction is referred to as a horizontal edge point, and a screen displaying the horizontal edge point is referred to as a horizontal edge screen.

【0022】背面視による車両の輪郭には、縦方向に延
びる直線と、横方向に延びる直線とが多分に含まれてい
る。従って、図2に示す如く、自車の前方を先行車40
が走行している場合は、図3に示す縦エッジ画面中に
は、複数の縦エッジ点によって、先行車40の両端に相
当する位置それぞれに、縦方向に延在する直線(以下、
縦エッジ直線と称す)40Vが検出されると共に、図4
に示す横エッジ画面中に、複数の横エッジ点によって、
先行車40の車幅方向に延在する複数の直線(以下、横
エッジ直線と称す)40Hが検出される。一方、自車の
前方に先行車40が存在しない場合は、縦エッジ直線4
0Vおよび横エッジ直線40Hが、自車の前方に検出さ
れることはない。
The outline of the vehicle as viewed from the rear includes a straight line extending in the vertical direction and a straight line extending in the horizontal direction. Therefore, as shown in FIG.
When the vehicle is traveling, in the vertical edge screen shown in FIG. 3, a plurality of vertical edge points are used to extend straight lines extending in the vertical direction at positions corresponding to both ends of the preceding vehicle 40 (hereinafter,
As long as 40 V is detected (referred to as a vertical edge straight line),
In the horizontal edge screen shown in, by multiple horizontal edge points,
A plurality of straight lines (hereinafter, referred to as lateral edge straight lines) 40H extending in the vehicle width direction of the preceding vehicle 40 are detected. On the other hand, when the preceding vehicle 40 does not exist in front of the own vehicle, the vertical edge straight line 4
The 0V and the horizontal edge straight line 40H are not detected in front of the vehicle.

【0023】従って、CCDカメラ12から取り込んだ
撮像データを用いて、縦エッジ画面及び横エッジ画面を
形成し、それらの画面中の適当な位置に、適当な数の縦
エッジ直線40V及び横エッジ直線40Hが検出されて
いるか否かを判断することで、自車の前方に先行車40
が存在するか否かを判断することは可能である。
Therefore, the vertical edge screen and the horizontal edge screen are formed by using the image pickup data captured from the CCD camera 12, and a suitable number of vertical edge straight lines 40V and horizontal edge straight lines are formed at appropriate positions in these screens. By determining whether 40H is detected, the preceding vehicle 40
It is possible to determine whether or not exists.

【0024】しかし、先行車40の縦エッジ直線40
V、及び横エッジ直線40Hは、常に理想的な状態、す
なわち縦方向に連続する直線、及び横方向に連続する直
線として検出し得るものではなく、車両の走行環境によ
っては、不連続な直線として検出される場合がある。車
両の前方には、先行車40の他に種々の物体が存在し、
縦エッジ画面および横エッジ画面中には、それらの物体
の輪郭を表すエッジ直線も検出される。従って、縦エッ
ジ直線40V、横エッジ直線40Hが、不連続となる
と、それらが先行車40の輪郭を表しているのか、他の
物体の輪郭を表しているのかを判別することが必ずしも
容易ではない。このため、縦エッジ画面の画面データ、
および横エッジ画面の画面データから直接的に先行車4
0の有無を判断すると、良好な検出精度が維持できない
場合が生じ得る。
However, the vertical edge straight line 40 of the preceding vehicle 40
The V and the horizontal edge straight line 40H cannot always be detected as an ideal state, that is, a straight line continuous in the vertical direction and a straight line continuous in the horizontal direction, and as a discontinuous straight line depending on the traveling environment of the vehicle. May be detected. In front of the vehicle, there are various objects other than the preceding vehicle 40,
Edge straight lines representing the contours of these objects are also detected in the vertical edge screen and the horizontal edge screen. Therefore, if the vertical edge straight line 40V and the horizontal edge straight line 40H are discontinuous, it is not always easy to determine whether they represent the contour of the preceding vehicle 40 or the contour of another object. . Therefore, the screen data of the vertical edge screen,
And the preceding vehicle 4 directly from the screen data of the side edge screen
If the presence / absence of 0 is determined, good detection accuracy may not be maintained in some cases.

【0025】これに対して、図3及び図4に示す如き縦
エッジ画面、及び横エッジ画面を形成した後、それらの
画面中に検出される縦エッジ点、及び横エッジ点を膨張
させた画像データを形成すれば、縦エッジ直線40V、
及び横エッジ直線40Hの不連続点を連続させた新たな
画像データを得ることができる。従って、かかる画像デ
ータを基に先行車40の有無を判断することとすれば、
常に良好な検出精度を維持することが可能である。
On the other hand, an image obtained by forming vertical edge screens and horizontal edge screens as shown in FIGS. 3 and 4 and then expanding the vertical edge points and horizontal edge points detected in those screens. If data is formed, vertical edge straight line 40V,
It is possible to obtain new image data in which the discontinuity points of the horizontal edge straight line 40H are continuous. Therefore, if the presence or absence of the preceding vehicle 40 is determined based on the image data,
It is possible to always maintain good detection accuracy.

【0026】しかしながら、全ての縦エッジ点、及び横
エッジ点を均一に膨張させることとすると、例えば縦エ
ッジ点が横方向に複数点在して検出されている場合、又
は横エッジ点が縦方向に複数点在して検出されている場
合には、新たな画像データ中で先行車40の輪郭を表す
領域の幅が不必要に拡大される事態を生ずる。この場
合、新たな画像データを基に先行車40の大きさを正確
に把握することが困難となり、車両制御装置36におい
て必要とされるデータの検出精度が良好に維持できない
という問題が生ずる。
However, if all vertical edge points and horizontal edge points are uniformly expanded, for example, when a plurality of vertical edge points are detected in the horizontal direction, or the horizontal edge points are detected in the vertical direction. If a plurality of points are detected in the area, the width of the area representing the contour of the preceding vehicle 40 in the new image data is unnecessarily enlarged. In this case, it becomes difficult to accurately grasp the size of the preceding vehicle 40 based on the new image data, and there arises a problem that the detection accuracy of the data required by the vehicle control device 36 cannot be maintained satisfactorily.

【0027】これに対して、本実施例においては、図5
に示す如くCCDカメラ12の撮像領域を格子状に区分
して、各小領域12-n単位で縦エッジ点及び横エッジ点
の膨張処理を行うこととしている。図5に示される各小
領域12-nは、その内部に所定の画素数が確保されるよ
うに設定されている。このように区分された各小領域1
2-nは、その内部に縦エッジ点が存在する場合には、撮
像データ中に存在する物体の縦エッジを表す領域とし
て、また、その内部に横エッジ点が存在する場合には、
撮像データ中に存在する物体の横エッジを表す領域とし
て把握される。
On the other hand, in this embodiment, as shown in FIG.
As shown in FIG. 5, the image pickup area of the CCD camera 12 is divided into a lattice shape, and the vertical edge points and the horizontal edge points are expanded in units of each small area 12-n. Each of the small areas 12-n shown in FIG. 5 is set so that a predetermined number of pixels is secured inside. Each small area 1 divided in this way
2-n is a region representing a vertical edge of an object existing in the imaged data when a vertical edge point is present therein, and a horizontal edge point is present inside thereof.
It is grasped as an area representing a lateral edge of an object existing in the imaged data.

【0028】従って、縦エッジ点を検出した結果、例え
ば、図5に示す如く小領域12-kの右端部分の画素、小
領域12-k+1の左端部分の画素、及び小領域12-k+2の
左右端部の2つの画素が縦エッジとして検出された場合
には、縦方向に隣接する3つの小領域12-k〜12-k+2
が縦エッジ領域として把握されることになる。
Therefore, as a result of detecting the vertical edge points, for example, as shown in FIG. 5, the pixel at the right end of the small area 12-k, the pixel at the left end of the small area 12-k + 1, and the small area 12-k. When two pixels at the left and right ends of +2 are detected as vertical edges, three small areas 12-k to 12-k + 2 that are vertically adjacent to each other are detected.
Will be recognized as a vertical edge region.

【0029】この際、小領域12-k内に検出される縦エ
ッジ点と小領域12-k+1内に検出される縦エッジ点と
が、横方向にオフセットされているにも関わらず、それ
ら2つの縦エッジ点に起因する縦エッジ領域にはオフセ
ットが発生していない。つまり、本実施例の手法によれ
ば、先行車40の縦エッジ及び横エッジが僅かな曲率を
有している場合に、画像データ上では、直線的な縦エッ
ジ領域群および横エッジ領域群が得られることになる。
また、上記の例では、小領域12-k+2内に横方向にオフ
セットした複数の縦エッジ点が検出されているにも関わ
らず、縦エッジ領域の幅が拡大されていない。つまり、
本実施例の手法によれば、隣接してエッジ点が検出され
る場合においても、エッジの膨張幅が小領域12-nの格
子幅に規制され、エッジ領域幅の不当な拡大が防止され
ることになる。
At this time, although the vertical edge points detected in the small area 12-k and the vertical edge points detected in the small area 12-k + 1 are laterally offset, No offset is generated in the vertical edge region resulting from these two vertical edge points. That is, according to the method of the present embodiment, when the vertical edge and the horizontal edge of the preceding vehicle 40 have a slight curvature, the linear vertical edge area group and the horizontal edge area group are formed on the image data. Will be obtained.
In addition, in the above example, the width of the vertical edge region is not expanded even though a plurality of vertical edge points offset in the horizontal direction are detected in the small region 12-k + 2. That is,
According to the method of the present embodiment, even when the edge points are detected adjacent to each other, the expansion width of the edge is restricted to the grid width of the small area 12-n, and the unreasonable expansion of the edge area width is prevented. It will be.

【0030】図6は、上記図3に示す縦エッジ画面に上
述した膨張処理を施すことで得られる縦エッジ領域画面
を示す。また、図7は、上記図4に示す横エッジ画面に
上述した膨張処理を施すことで得られる横エッジ領域画
面を示す。図6及び図7に示す如く、縦エッジ領域画面
中には先行車40の縦エッジに相当する直線状の縦エッ
ジ領域40Vwが、先行車40の横エッジに相当する直
線状の横エッジ領域40Hwが、それぞれ連続的に、か
つシャープに形成されている。従って、かかる縦エッジ
領域画面、及び横エッジ領域画面を基に先行車40の有
無を判断し、また、先行車の大きさ等を検出することと
すれば、常に良好な判断精度、及び検出精度を維持する
ことができる。
FIG. 6 shows a vertical edge area screen obtained by subjecting the vertical edge screen shown in FIG. 3 to the expansion processing described above. Further, FIG. 7 shows a horizontal edge area screen obtained by performing the expansion processing described above on the horizontal edge screen shown in FIG. As shown in FIGS. 6 and 7, in the vertical edge area screen, a linear vertical edge area 40Vw corresponding to the vertical edge of the preceding vehicle 40 is a linear horizontal edge area 40Hw corresponding to the lateral edge of the preceding vehicle 40. Are formed continuously and sharply. Therefore, if the presence or absence of the preceding vehicle 40 is determined based on the vertical edge area screen and the horizontal edge area screen and the size of the preceding vehicle is detected, the determination accuracy and the detection accuracy are always good. Can be maintained.

【0031】以下、図8乃至図18を参照して、本実施
例の物体認識装置が、上記の手法により物体認識を行う
にあたって実行する処理の一例について説明する。図8
は、CCDカメラ12から取り込んだ撮像データを用い
て物体認識を行うにあたってDSP16が実行するメイ
ンルーチンのフローチャートを示す。また、図9乃至図
11は、それぞれDSP16が実行するサブルーチンの
フローチャートを示す。本実施例の物体認識装置におい
ては、DSP16が、図8に示すメインルーチン、及び
図9乃至図11に示すサブルーチンを実行することによ
り物体認識が行われる。
Hereinafter, with reference to FIGS. 8 to 18, an example of the processing executed by the object recognition apparatus of this embodiment for object recognition by the above method will be described. FIG.
4 is a flowchart of a main routine executed by the DSP 16 when recognizing an object using the image pickup data captured from the CCD camera 12. 9 to 11 are flowcharts of subroutines executed by the DSP 16, respectively. In the object recognition apparatus of this embodiment, the DSP 16 executes object recognition by executing the main routine shown in FIG. 8 and the subroutine shown in FIGS. 9 to 11.

【0032】図8に示すメインルーチンが起動すると、
先ずステップ100において、CCDカメラ12で取り
込んだ撮像データから、すなわち、入力用ビデオRAM
22に記憶されている撮像データから斜め方向線分抽出
する処理が実行される。CCDカメラ12の撮像画像中
には、通常、自車の走行車線を表す路上白線やガードレ
ール等が撮像されている。本ステップではこれらの輪郭
を抽出するため、撮像データ中から、画面右上がり方向
に傾斜する斜め方向線分と、画面右下がり方向に傾斜す
る斜め方向線分とを抽出する処理が行われる。
When the main routine shown in FIG. 8 is started,
First, in step 100, from the image data captured by the CCD camera 12, that is, the input video RAM.
A process of extracting diagonal line segments from the imaged data stored in 22 is executed. In the captured image of the CCD camera 12, a white line on the road, a guardrail, or the like, which represents the traveling lane of the vehicle, is usually captured. In this step, in order to extract these contours, a process of extracting an oblique line segment that inclines in the upward right direction of the screen and an oblique line segment that inclines in the downward right direction of the screen from the imaged data is performed.

【0033】ステップ100の処理は、具体的には図9
に示すサブルーチンによって行われる。図9に示すルー
チンが起動されると、先ずステップ200において、C
CDカメラ12が撮像した車両前方の画像が入力用ビデ
オRAM22に読み込まれる。次に、ステップ202に
おいて、撮像データをスキャニングする領域、及び方向
が設定される。斜め方向線分の抽出は、CCDカメラ1
2の撮像領域全域をスキャニング領域として行われる。
また、スキャニング方向は、画面右上がり方向の線分を
抽出する場合には画面右下がり方向に、一方、画面右下
がり方向の線分を抽出する場合には画面右上がり方向
に、それぞれ設定される。
The process of step 100 is specifically shown in FIG.
It is performed by the subroutine shown in. When the routine shown in FIG. 9 is started, first, at step 200, C
An image in front of the vehicle captured by the CD camera 12 is read into the input video RAM 22. Next, in step 202, the area and the direction for scanning the imaging data are set. The CCD camera 1 is used to extract diagonal line segments.
The entire imaging area of 2 is performed as a scanning area.
Further, the scanning direction is set to the screen lower right direction when extracting the line segment in the screen right upward direction, and is set to the screen right upward direction when extracting the line segment in the screen lower right direction. .

【0034】上記の如くスキャニングの領域及び方向を
設定したら、次にステップ204において、特定した領
域内に存在するエッジ点を抽出し、エッジ画像を作成す
る処理を行う。本実施例においては、CCDカメラ12
の各画素の輝度を256段階に区別しており、スキャニ
ング方向に隣接する2つの画素間に所定値を超える輝度
差、例えば200段階を超える輝度差が存在する場合
に、その画素をエッジ点として捕らえることとしてい
る。上記の処理が終了すると、右上がり線分の抽出処理
によっては、例えば図12に示す如きエッジ画像が、ま
た、右下がり線分の抽出処理によっては、例えば図13
に示す如きエッジ画像が、それぞれ作成される。このよ
うにして作成されたエッジ画像は、一時的にメインRA
M24に記憶される。
After the scanning area and direction are set as described above, in step 204, edge points existing in the specified area are extracted and an edge image is created. In this embodiment, the CCD camera 12
The brightness of each pixel is classified into 256 levels, and when there is a brightness difference exceeding a predetermined value, for example, a brightness difference exceeding 200 levels between two pixels adjacent in the scanning direction, the pixel is captured as an edge point. I have decided. When the above process is completed, the edge image as shown in FIG. 12, for example, may be obtained by the process of extracting the line segment to the right, and the edge image shown in FIG.
Edge images as shown in are respectively created. The edge image created in this way is temporarily
It is stored in M24.

【0035】次に、ステップ206では、エッジ画像を
小領域に分割する処理が行われる。小領域は、自車の前
方に存在する物体が先行車40である場合に、その縦エ
ッジ及び横エッジが一列の小領域列内に収まるように、
前方に存在する物体と自車との距離に応じて設定され
る。具体的には、前方物体との距離が短い場合は小領域
の幅が大きく、前方物体との距離が長い場合は小領域の
幅が小さく設定される。尚、前方物体と自車との距離
は、レーダ10の出力信号に基づいて計測される。
Next, at step 206, processing for dividing the edge image into small areas is performed. When the object existing in front of the own vehicle is the preceding vehicle 40, the small area is such that the vertical edges and the horizontal edges thereof are included in one small area row.
It is set according to the distance between the object existing in front and the own vehicle. Specifically, the width of the small area is set large when the distance to the front object is short, and the width of the small area is set small when the distance to the front object is long. The distance between the front object and the vehicle is measured based on the output signal of the radar 10.

【0036】エッジ画像を小領域に分割する処理が終了
すると、次にステップ208において、各小領域につい
て、その内部に存在する最大エッジ強度(隣接する画素
間の輝度差)が計算される。そして、続くステップ21
0において、各小領域を、それぞれの最大エッジ強度で
埋めた小領域画像が作成される。
When the process of dividing the edge image into small areas is completed, the maximum edge strength (luminance difference between adjacent pixels) existing inside each small area is calculated in step 208. And step 21 that follows
At 0, a small area image is created by filling each small area with the respective maximum edge strength.

【0037】上記の処理を終えたら、ステップ212へ
進み、小領域画像中から有効線分を抽出する処理を行
う。小領域画像中には、本来認識すべき物体の輪郭に対
応する領域の他に、種々の物体の輪郭等がノイズ的に重
畳されている。このため、本実施例においては、大きな
エッジ強度を有する小領域がスキャニング方向と垂直な
方向に所定数以上連続して検出されている場合にのみ、
それらの小領域群が、認識すべき物体の輪郭であると判
断し、それらの小領域群からなる線分を有効線分として
抽出することとしている。このため、ステップ212で
抽出される一連の小領域群は、明確に認識すべき物体の
輪郭を表していることになる。
After the above processing is completed, the routine proceeds to step 212, where the effective line segment is extracted from the small area image. In the small area image, in addition to the area corresponding to the contour of the object to be originally recognized, the contours of various objects are superimposed as noise. Therefore, in the present embodiment, only when a predetermined number or more of small areas having a large edge strength are continuously detected in the direction perpendicular to the scanning direction,
It is decided that these small area groups are the contours of the object to be recognized, and the line segment consisting of these small area groups is extracted as an effective line segment. Therefore, the series of small region groups extracted in step 212 clearly represent the outline of the object to be recognized.

【0038】ステップ212の処理は、具体的には図1
0に示すサブルーチンに沿って実行される。図10に示
すルーチンが起動すると、先ずステップ300におい
て、スキャニング方向が設定される。本ステップでは、
上記ステップ202で設定されたキャニング方向と同一
の方向が、有効線分抽出のためのスキャニング方向とし
て設定される。
The process of step 212 is specifically shown in FIG.
It is executed according to the subroutine shown in 0. When the routine shown in FIG. 10 is started, first in step 300, the scanning direction is set. In this step,
The same direction as the scanning direction set in step 202 is set as the scanning direction for extracting the effective line segment.

【0039】ステップ302では、スキャニングの対象
である小領域が、既に基準値を超える小領域(以下、線
分構成小領域と称す)として認識されているか否かが判
別される。その結果、既に線分構成小領域として認識さ
れていると判別された場合には、ステップ304〜31
2がジャンプされ、次いでステップ314の処理が実行
される。一方、その小領域は、未だ線分構成小領域とし
て認識されていないと判別された場合は、次にステップ
304の処理が実行される。
In step 302, it is judged whether or not the small area to be scanned has already been recognized as a small area exceeding the reference value (hereinafter referred to as a line segment forming small area). As a result, if it is determined that the segment is already recognized as the line segment configuration small area, steps 304 to 31.
2 is jumped, and then the process of step 314 is executed. On the other hand, when it is determined that the small area is not yet recognized as the line segment forming small area, the process of step 304 is executed next.

【0040】ステップ304では、小領域内のエッジ強
度が基準値を超えているか否かが判別される。その結
果、小領域内のエッジ強度が基準値を超えていないと判
別される場合は、その小領域は線分構成少領域ではない
と判断して、ステップ314へ進む。一方、その小領域
内のエッジ強度が基準値を超えていると判別される場合
は、その領域が線分構成少領域ではあると判断してステ
ップ316へ進む。
At step 304, it is judged if the edge strength in the small area exceeds the reference value. As a result, when it is determined that the edge strength in the small region does not exceed the reference value, it is determined that the small region is not the line segment-constituting small region, and the process proceeds to step 314. On the other hand, when it is determined that the edge strength in the small area exceeds the reference value, it is determined that the area is the line segment configuration small area, and the process proceeds to step 316.

【0041】ステップ316では、エッジ強度の調査対
象が、基準値を超えるエッジ強度の存在が確認された小
領域から、ステップ300で設定したスキャニング方向
に対して垂直な方向に隣接する小領域に変更される。次
いで、ステップ318では、新たに調査対象とされた小
領域内のエッジ強度が基準値を超えているか、即ち線分
構成小領域であるかが判別される。その結果、少領域内
のエッジ強度が基準値を超えている場合は、その領域も
線分構成小領域であると判断し、ステップ306へ戻
る。以後、繰り返しステップ306、308の処理が実
行される。一方、ステップ308で、新たに調査対象と
された小領域内のエッジ強度が基準値を超えていないと
判断された場合は、その小領域は線分構成小領域ではな
いと判断され、以後ステップ310の処理が実行され
る。従って、スキャニングの過程で、一つの線分構成小
領域が検出されると、スキャニング方向に対して垂直な
向きに線分構成小領域が連続している限りは、繰り返し
ステップ306,308の処理が実行され、線分構成小
領域が不連続となった時点で、ステップ310の処理が
実行されることになる。
In step 316, the target of the edge strength inspection is changed from the small area in which the existence of the edge strength exceeding the reference value is confirmed to the small area adjacent in the direction perpendicular to the scanning direction set in step 300. To be done. Next, at step 318, it is judged whether the edge strength in the small area newly investigated exceeds the reference value, that is, whether it is a line segment forming small area. As a result, when the edge strength in the small area exceeds the reference value, it is determined that the area is also the line segment forming small area, and the process returns to step 306. After that, the processes of repeating steps 306 and 308 are executed. On the other hand, when it is determined in step 308 that the edge strength in the newly investigated small area does not exceed the reference value, it is determined that the small area is not a line segment-constituting small area, and the following steps are performed. The process of 310 is executed. Therefore, when one line segment forming small area is detected in the process of scanning, the processes of the repeating steps 306 and 308 are repeated as long as the line segment forming small areas are continuous in the direction perpendicular to the scanning direction. When it is executed and the line segment constituent small areas become discontinuous, the process of step 310 is executed.

【0042】ステップ310では、上記の処理によって
検出された線分構成小領域の連続長さが、基準値を超え
ているか否かが判別される。線分構成小領域の連続長
は、それらの線分構成小領域が認識すべき対象物体の輪
郭である場合には比較的長く、一方、認識すべき対象物
体の輪郭でない場合には比較的短くなる。また、本ステ
ップ310で用いる基準値は、線分構成小領域が認識す
べき対象物体の輪郭である場合には、その連続長が基準
値に比して長くなるように、かつ、線分構成小領域が認
識すべき対象物体の輪郭でない場合には、その連続長が
基準値に比して短くなるように設定されている。従っ
て、連続長が基準値を超えている場合は、それらの線分
構成小領域は、認識すべき物体の輪郭であると判断でき
る。この場合、それらの線分構成小領域は有効線分とし
て把握され、以後、ステップ312においてその線分の
起点と長さが記録された後、ステップ314へ進行され
る。一方、ステップ310で連続長が基準値を満たない
と判断された場合は、それらの線分構成小領域は有効線
分とは把握されず、以後、直接ステップ314の処理が
実行される。
In step 310, it is judged whether or not the continuous length of the line segment forming small area detected by the above processing exceeds the reference value. The continuous length of the line segment structure small areas is relatively long when the line segment structure small areas are the contours of the target object to be recognized, while it is relatively short when they are not the contours of the target object to be recognized. Become. Further, the reference value used in this step 310 is such that, when the line segment forming small area is the contour of the target object to be recognized, its continuous length is longer than the reference value, and the line segment forming When the small area is not the contour of the target object to be recognized, the continuous length is set to be shorter than the reference value. Therefore, when the continuous length exceeds the reference value, it can be determined that the line segment forming small areas are the contours of the object to be recognized. In this case, the line segment constituent small areas are grasped as effective line segments, and thereafter, in step 312, the starting point and the length of the line segment are recorded, and then the process proceeds to step 314. On the other hand, if it is determined in step 310 that the continuous length does not satisfy the reference value, those line segment constituent small areas are not grasped as effective line segments, and the process of step 314 is directly executed thereafter.

【0043】ステップ314では、CCDカメラ12の
全撮像領域についてスキャニングが終了したか否かが判
別される。その結果、未だ全ての領域についてスキャニ
ングされていないと判別される場合は、ステップ316
へ進み、エッジ強度の検出対象とする小領域を、スキャ
ニング方向に一つ変更した後、上記ステップ302へ戻
る。従って、以後、ステップ314において全ての領域
についてスキャニグが終了したと判別されるまで、上記
ステップ302以降の処理が繰り返し実行される。一
方、ステップ314で全ての領域についてスキャニング
が終了したと判断されると、その時点で本ルーチンの処
理が終了される。
At step 314, it is judged if scanning has been completed for the entire image pickup area of the CCD camera 12. As a result, if it is determined that scanning is not yet performed on all the areas, step 316
The process proceeds to step 302, and after changing one small area in which the edge strength is to be detected in the scanning direction, the process returns to step 302. Therefore, thereafter, the processes in and after step 302 are repeatedly executed until it is determined in step 314 that the scanning has been completed for all the regions. On the other hand, if it is determined in step 314 that scanning has been completed for all areas, the processing of this routine is ended at that point.

【0044】図10に示すサブルーチンが終了すると、
図9に示すサブルーチンにおいて、ステップ214の処
理が実行される。ステップ214では、上記の如く抽出
された有効線分をメインRAM24に記憶する処理が行
われる。上記図10に示すサブルーチンによって、撮像
データ中に存在する画面右上がりの傾斜を有する斜め方
向線分、及び画面右下がりの傾斜を有する斜め方向の線
分が検出された場合は、例えば図14に示す如く、自車
の走行レーンの境界線に相当する線分が有効線分として
抽出された画像が記憶されることになる。
When the subroutine shown in FIG. 10 is completed,
In the subroutine shown in FIG. 9, the process of step 214 is executed. In step 214, the effective line segment extracted as described above is stored in the main RAM 24. When an oblique line segment having an inclination to the right of the screen and an oblique line segment having an inclination to the right of the screen, which are present in the image data, are detected by the subroutine shown in FIG. As shown, an image in which a line segment corresponding to the boundary line of the traveling lane of the own vehicle is extracted as an effective line segment is stored.

【0045】図9に示すサブルーチンは、上記ステップ
214の処理を終えた後、終了される。以後、上記図8
に示すメインルーチンの処理が再び開始される。図8に
示すメインルーチンでは、次にステップ102の処理が
実行される。ステップ102では、上述の如く抽出した
斜め方向線分を基に、すなわち、自車の境界線を基に、
先行車が存在すると予測される領域を特定する処理が行
われる。
The subroutine shown in FIG. 9 is ended after the processing of step 214 is completed. After that, as shown in FIG.
The processing of the main routine shown in is restarted. In the main routine shown in FIG. 8, the process of step 102 is then executed. In step 102, based on the diagonal line segment extracted as described above, that is, based on the boundary line of the vehicle,
A process of identifying a region where a preceding vehicle is predicted to exist is performed.

【0046】車両において検出すべき先行車の存在領域
は、自車の走行レーン上に限定される。このため、本ル
ーチンでは、上記の如く抽出された2本の斜め方向線分
の間を先行車の存在領域として限定する。このため、斜
め方向線分が、上記図14の如く抽出される場合には、
図15中にハッチングで示される領域が、先行車の存在
領域として特定されることになる。
The area where the preceding vehicle is to be detected in the vehicle is limited to the traveling lane of the own vehicle. For this reason, in this routine, the area between the two oblique direction line segments extracted as described above is limited as the area where the preceding vehicle exists. Therefore, when the diagonal line segment is extracted as shown in FIG.
The hatched area in FIG. 15 is specified as the area where the preceding vehicle exists.

【0047】次に、ステップ104では、上記の如く特
定した領域内で、CCDカメラ12の撮像データから縦
方向の線分を抽出する処理を行う。自車の前方に先行車
が存在すれば、撮像データ中には先行車の輪郭が撮像さ
れる。本ステップではその輪郭のうち、特に縦方向のエ
ッジを抽出する処理が行われる。本ステップの処理は、
具体的には上述した図9、及び図10に示すサブルーチ
ンによって実行される。この場合、図9中ステップ20
2では、メインRAM24内に記憶されている画像デー
タ中に抽出された2本の斜め方向線分の間がスキャニン
グ領域として設定されると共に、同ステップ202、及
び図10におけるステップ300では、CCDカメラ1
2の撮像領域の左右方向がスキャニング方向として設定
される。
Next, in step 104, a process of extracting a line segment in the vertical direction from the image data of the CCD camera 12 in the area specified as described above is performed. If a preceding vehicle exists in front of the host vehicle, the contour of the preceding vehicle is captured in the captured image data. In this step, a process of extracting an edge in the vertical direction of the contour is performed. The process of this step is
Specifically, it is executed by the above-mentioned subroutine shown in FIGS. 9 and 10. In this case, step 20 in FIG.
In 2, the space between the two oblique line segments extracted in the image data stored in the main RAM 24 is set as the scanning area, and in step 202 and step 300 in FIG. 1
The left and right directions of the second imaging area are set as the scanning direction.

【0048】かかる設定によれば、例えば図15に示す
如き画像データが得られている場合には、図16中に矢
線で示す如く、2本の斜め方向線分の間で、横方向に進
行するスキャニングが実行される。この際、撮像データ
中に横方向に隣接する画素間に大きな輝度差が存在する
と、その点がエッジ点として捕らえられる。従って、ス
キャニングされる領域内に先行車が存在していれば、先
行車の縦エッジが有効線分として検出されることにな
り、図9に示すステップ214では、図17に示す如
く、車幅方向に適当な距離だけ離間した位置に2本の有
効線分が抽出されたエッジ画像データがメインRAM2
4に記録されることになる。
According to this setting, when the image data as shown in FIG. 15 is obtained, for example, as shown by the arrow in FIG. Ongoing scanning is performed. At this time, if a large luminance difference exists between pixels adjacent in the horizontal direction in the imaged data, the point is captured as an edge point. Therefore, if the preceding vehicle exists in the area to be scanned, the vertical edge of the preceding vehicle is detected as the effective line segment, and in step 214 shown in FIG. 9, the vehicle width is changed as shown in FIG. The edge image data in which two effective line segments are extracted is separated from the main RAM 2 by a proper distance in the direction.
4 will be recorded.

【0049】縦方向線分の抽出が終了したら、図8に示
すメインルーチンがステップ106へ進行し、抽出され
た縦方向線分の中から、車両の縦エッジであると推定し
得る2本の縦方向線分の組を選択する処理が実行され
る。本ルーチンにおいては、2本の縦方向線分の起
点、及び終点が、画面データ上で大きく上下方向にオフ
セットしていないこと、及びそれら2本の縦方向線分
が車幅方向に適当な距離だけ離間していること、の2点
を満たす2本の縦方向線分の組が先行車の縦エッジ候補
として選択される。
When the extraction of the vertical line segment is completed, the main routine shown in FIG. 8 proceeds to step 106, and two vertical line segments that can be estimated to be vertical edges of the vehicle are extracted. A process of selecting a set of vertical line segments is executed. In this routine, the starting point and the ending point of the two vertical line segments are not largely offset in the vertical direction on the screen data, and the two vertical line segments have an appropriate distance in the vehicle width direction. A set of two vertical line segments that satisfy the above two points are selected as vertical edge candidates of the preceding vehicle.

【0050】上記の処理が終了すると、次にステップ1
08において、撮像データ内に存在する横方向の線分を
抽出する処理が実行される。自車の前方に先行車が存在
すれば、撮像データ中には先行車の横エッジが撮像され
る筈である。また、上記ステップ106で選択した2本
の縦方向線分の組が先行車の縦エッジであるとすれば、
撮像データ中に検出される横エッジは、それら2本の縦
方向線分間をつなぐように検出される筈である。このた
め、本ルーチンでは、ステップ106において選択され
た各縦エッジの組内を通過する横方向線分を抽出する処
理が行われる。
When the above processing is completed, next step 1
At 08, a process of extracting a horizontal line segment existing in the imaging data is executed. If there is a preceding vehicle ahead of the host vehicle, the lateral edge of the preceding vehicle should be captured in the captured image data. If the set of two vertical line segments selected in step 106 is the vertical edge of the preceding vehicle,
The horizontal edge detected in the imaged data should be detected so as to connect these two vertical line segments. Therefore, in this routine, a process of extracting a horizontal line segment passing through each vertical edge set selected in step 106 is performed.

【0051】本ステップの処理は、ステップ100およ
び104の処理と同様に、上述した図9および図10に
示すサブルーチンによって実行される。この場合、図9
中ステップ202では、選択された全ての縦方向線分を
含む適当な領域がスキャニング領域として設定されると
共に、同ステップ202、及び図10におけるステップ
300では、CCDカメラ12の撮像領域の縦方向がス
キャニング方向として設定される。
The processing of this step is executed by the subroutine shown in FIGS. 9 and 10 described above, similarly to the processing of steps 100 and 104. In this case, FIG.
In the middle step 202, an appropriate area including all the selected vertical line segments is set as the scanning area, and in the same step 202 and step 300 in FIG. 10, the vertical direction of the image pickup area of the CCD camera 12 is changed. It is set as the scanning direction.

【0052】かかる設定によれば、CCDカメラ12の
撮像データ中で上下方向に隣接する画素間に大きな輝度
差が存在すると、その点がエッジ点として捕らえられ
る。従って、スキャニングされる領域内に先行車が存在
していれば、先行車の横エッジが有効線分として検出さ
れることになり、図9に示すステップ214では、例え
ば図18に示す如く、車幅方向に延在する複数の有効線
分を含むエッジ画像データが、メインRAM24に記録
されることになる。
With this setting, if there is a large brightness difference between vertically adjacent pixels in the image data of the CCD camera 12, that point is captured as an edge point. Therefore, if the preceding vehicle exists in the area to be scanned, the lateral edge of the preceding vehicle is detected as the effective line segment, and in step 214 shown in FIG. 9, for example, as shown in FIG. The edge image data including a plurality of effective line segments extending in the width direction is recorded in the main RAM 24.

【0053】上記の処理が終了すると、図8に示すメイ
ンルーチンはステップ110へ進行する。ステップ11
0では、上記ステップ108の処理内でメインRAM2
4に記憶したエッジ画像データから、縦方向の有効線分
と横方向の有効線分との交点位置を抽出する処理が行わ
れる。
When the above processing is completed, the main routine shown in FIG. 8 proceeds to step 110. Step 11
In 0, the main RAM 2
From the edge image data stored in No. 4, processing for extracting the intersection point position of the vertical effective line segment and the horizontal effective line segment is performed.

【0054】上述の如く、縦方向の有効線分は先行車の
縦エッジであることを想定して抽出した線分である。ま
た、横方向の有効線分は先行車の横エッジであることを
想定して抽出した線分である。従って、それらの交点
は、背面視における車両の角部と考えることができる。
As described above, the effective line segment in the vertical direction is a line segment extracted assuming that it is the vertical edge of the preceding vehicle. Further, the effective line segment in the horizontal direction is a line segment extracted assuming that it is the horizontal edge of the preceding vehicle. Therefore, those intersections can be considered to be the corners of the vehicle in rear view.

【0055】一方、車両の背面視では、車両の最低地上
高付近の両端部2点、車両のルーフ位置における両端部
2点、トランクルーフ位置における両端部2点、及びバ
ンパ位置における両端部2点等が角部として検出され
る。従って、自車の前方に先行車が存在すれば、ステッ
プ110で少なくとも4つの交点が検出されると考えら
れる。また、先行車の角部は左右対象に検出されるた
め、検出された4つの交点からは長方形の形状が抽出で
きる筈である。
On the other hand, in a rear view of the vehicle, two end portions near the ground clearance of the vehicle, two end portions at the roof position of the vehicle, two end portions at the trunk roof position, and two end portions at the bumper position. Etc. are detected as corners. Therefore, if there is a preceding vehicle ahead of the own vehicle, it is considered that at least four intersections are detected in step 110. Moreover, since the corners of the preceding vehicle are detected symmetrically, a rectangular shape should be able to be extracted from the four detected intersections.

【0056】従って、ステップ110で車両の角部とし
て抽出された交点が、4点未満である場合、及び4点以
上の交点が検出されたとしても、それらの交点から長方
形が抽出できない場合は、共に検出された交点が、先行
車の角部ではないと判断することができる。
Therefore, if the number of intersections extracted as the corners of the vehicle in step 110 is less than four, or even if four or more intersections are detected, a rectangle cannot be extracted from those intersections, It can be determined that the intersections detected together are not the corners of the preceding vehicle.

【0057】そこで、図8に示すメインルーチンでは、
ステップ110の処理の後、ステップ112へ進み、抽
出された各交点が先行車の角部であるか否かを、それら
交点の数および配置を基準として判断することとしてい
る。ステップ110の処理は、具体的には図11に示す
サブルーチンによって実行される。
Therefore, in the main routine shown in FIG.
After the process of step 110, the process proceeds to step 112, and it is determined whether or not each of the extracted intersections is the corner of the preceding vehicle, based on the number and arrangement of the intersections. The process of step 110 is specifically executed by the subroutine shown in FIG.

【0058】図11に示すルーチンが起動すると、先ず
ステップ400において、上記ステップ110において
4点以上の交点が抽出されたか否かが判別される。その
結果、4点以上の交点が検出されていると判別される場
合は、ステップ402の処理が実行される。
When the routine shown in FIG. 11 is started, first, at step 400, it is judged if four or more intersections have been extracted at step 110. As a result, when it is determined that four or more intersections are detected, the process of step 402 is executed.

【0059】ステップ402では、抽出された交点から
長方形が抽出できるか否かが判別される。その結果、長
方形が抽出される場合は、ステップ110で抽出された
複数の交点が先行車の角部に相当すると判断して、ステ
ップ404へ進み、検出された物体が先行車であるとの
判断を下した後、本ルーチンを終了する。
At step 402, it is judged if a rectangle can be extracted from the extracted intersection. As a result, when the rectangle is extracted, it is determined that the plurality of intersections extracted in step 110 correspond to the corners of the preceding vehicle, the process proceeds to step 404, and it is determined that the detected object is the preceding vehicle. After this, the present routine ends.

【0060】一方、上記ステップ400において、抽出
された交点が4点未満であると判別された場合、又はス
テップ402において、交点から長方形が抽出できない
と判別された場合は、以後、ステップ406へ進み、検
出された物体は先行車ではないとの判断を下した後本ル
ーチンを終了する。このようにして、図11に示すサブ
ルーチンが終了されると、その後、図8に示すメインル
ーチンが終了される。以後、所定時間毎に上述したステ
ップ100以降の処理が繰り返し実行されることにな
る。
On the other hand, if it is determined in the above step 400 that the number of the extracted intersections is less than 4, or if it is determined in the step 402 that the rectangle cannot be extracted from the intersections, the process proceeds to step 406. After determining that the detected object is not the preceding vehicle, this routine ends. When the subroutine shown in FIG. 11 is completed in this way, the main routine shown in FIG. 8 is then completed. After that, the processing from step 100 onward described above is repeatedly executed at predetermined time intervals.

【0061】上述の如く、本実施例の物体認識装置は、
CCDカメラ12から取り込んだ撮像データからエッジ
点を抽出した後、そのエッジ点を格子上に区分した小領
域単位で膨張させることで得られたエッジ領域画像(上
記、図6、図7、図14〜図18に示す画像)を基に、
先行車の認識を行っている。このため、本実施例の物体
認識装置によれば、先行車の輪郭を明確に捕らえること
ができ、先行車の有無に関する判断精度、先行車の角点
の検出精度等を、常に良好に維持することができる。
As described above, the object recognition device of this embodiment is
An edge area image obtained by extracting an edge point from the imaged data captured from the CCD camera 12 and expanding the edge point in units of small areas divided on a grid (see FIGS. 6, 7, and 14 above). ~ Image shown in FIG. 18)
It recognizes the preceding vehicle. Therefore, according to the object recognition device of the present embodiment, the contour of the preceding vehicle can be clearly captured, and the accuracy of the determination regarding the presence or absence of the preceding vehicle, the detection accuracy of the corner points of the preceding vehicle, etc. are always maintained in good condition. be able to.

【0062】尚、上述した実施例においては、CCDカ
メラ12が前記した画像センサに相当している。また、
DSP16が、上記ステップ206の処理を実行するこ
とにより前記した領域区分手段が、上記ステップ104
および108内でステップ200〜204の処理を実行
することにより前記したエッジ点検出手段が、上記ステ
ップ104および108内でステップ208〜212の
処理を実行することにより前記したエッジ領域設定手段
が、また、ステップ110の処理を実行することにより
前記した角点特定手段が、それぞれ実現されている。
In the above-described embodiment, the CCD camera 12 corresponds to the above-mentioned image sensor. Also,
The DSP 16 executes the processing of the above step 206 so that the above-mentioned area dividing means performs the above step 104.
And 108, the edge point detecting means described above by executing the processing of steps 200 to 204, and the edge region setting means described above by executing the processing of steps 208 to 212 in steps 104 and 108, By executing the processing of step 110, the above-mentioned corner point specifying means is realized.

【0063】ところで、上述した実施例においては、画
像センサの撮像領域を信号処理の過程で格子状の小領域
に区分することとしているが、本発明はこれに限定され
るものではなく、画像センサの撮像領域を、予めハード
ウェア上で小領域に区分することも可能である。
By the way, in the above-mentioned embodiment, the image pickup area of the image sensor is divided into the grid-like small areas in the process of signal processing, but the present invention is not limited to this, and the image sensor is not limited to this. It is also possible to preliminarily divide the imaging region of No. 2 into small regions on the hardware.

【0064】[0064]

【発明の効果】上述の如く、本発明によれば、撮像デー
タ内に検出される縦エッジ点、及び横エッジ点を、小領
域の幅を限度として膨張させることができる。この場
合、認識の対称たる物体の輪郭に対応する縦エッジ点、
及び横エッジ点が離間して検出される状況下であって
も、物体の輪郭に対応して、連続的な縦エッジ領域群及
び横エッジ領域群を形成することができる。従って、そ
れら縦エッジ領域群及び横エッジ領域群に基づいて、高
精度に物体認識を行うことができる。
As described above, according to the present invention, the vertical edge points and the horizontal edge points detected in the image pickup data can be expanded within the width of the small area. In this case, the vertical edge points corresponding to the outline of the symmetrical object for recognition,
Even in a situation where the horizontal edge points are detected separately from each other, it is possible to form a continuous vertical edge area group and horizontal edge area group corresponding to the contour of the object. Therefore, object recognition can be performed with high accuracy based on the vertical edge region group and the horizontal edge region group.

【0065】更に、本発明によれば、縦エッジ点が近接
して複数検出される部位、及び横エッジ点が近接して複
数検出される部位においても、それらが同一の小領域内
に検出される限り、縦エッジ領域、横エッジ領域の幅が
拡大されることがない。従って、不必要に幅の広い縦エ
ッジ領域群、及び横エッジ領域群が形成されることがな
く、縦エッジ領域群と横エッジ領域群との交点から、精
度良く認識対称たる物体の角部を検出することができ
る。
Further, according to the present invention, even in a portion where a plurality of vertical edge points are detected in close proximity and in a portion where a plurality of horizontal edge points are detected in close proximity, they are detected in the same small area. As far as possible, the widths of the vertical edge region and the horizontal edge region are not expanded. Therefore, the vertical edge region group and the horizontal edge region group having an unnecessarily wide width are not formed, and the corners of the symmetric object are accurately recognized from the intersection of the vertical edge region group and the horizontal edge region group. Can be detected.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例である物体認識装置のブロッ
ク構成図である。
FIG. 1 is a block configuration diagram of an object recognition device that is an embodiment of the present invention.

【図2】本実施例の物体認識装置が備えるCCDカメラ
の撮像データの一例である。
FIG. 2 is an example of image pickup data of a CCD camera included in the object recognition device of the present embodiment.

【図3】CCDカメラの撮像データを基に認識対象物の
縦エッジを抽出した縦エッジ画面の一例である。
FIG. 3 is an example of a vertical edge screen in which vertical edges of a recognition target are extracted based on image pickup data of a CCD camera.

【図4】格子状に区分されることにより小領域単位に区
分されたCCDカメラの撮像領域の一例である。
FIG. 4 is an example of an image pickup area of a CCD camera divided into small areas by being divided into a lattice shape.

【図5】CCDカメラの撮像データを基に認識対象物の
横エッジを抽出した横エッジ画面の一例である。
FIG. 5 is an example of a horizontal edge screen in which a horizontal edge of a recognition target is extracted based on image pickup data of a CCD camera.

【図6】縦エッジ画面内に含まれる縦エッジ点を小領域
単位で膨張させることで形成される縦エッジ領域画面の
一例である。
FIG. 6 is an example of a vertical edge area screen formed by expanding vertical edge points included in the vertical edge screen in small area units.

【図7】横エッジ画面内に含まれる横エッジ点を小領域
単位で膨張させることで形成される横エッジ領域画面の
一例である。
FIG. 7 is an example of a horizontal edge area screen formed by expanding the horizontal edge points included in the horizontal edge screen in small area units.

【図8】本実施例の物体認識装置において実行されるメ
インルーチンのフローチャートの一例である。
FIG. 8 is an example of a flowchart of a main routine executed in the object recognition device of this embodiment.

【図9】本実施例の物体認識装置において実行される第
1のサブルーチンのフローチャートの一例である。
FIG. 9 is an example of a flowchart of a first subroutine executed in the object recognition device of the present embodiment.

【図10】本実施例の物体認識装置において実行される
第2のサブルーチンのフローチャートの一例である。
FIG. 10 is an example of a flowchart of a second subroutine executed in the object recognition device of this embodiment.

【図11】本実施例の物体認識装置において実行される
第3のサブルーチンのフローチャートの一例である。
FIG. 11 is an example of a flowchart of a third subroutine executed in the object recognition device of this embodiment.

【図12】本実施例の物体認識装置が右上がり傾斜の斜
め方向線分を抽出する際に形成するエッジ点画面の一例
である。
FIG. 12 is an example of an edge point screen formed when the object recognition device of the present embodiment extracts a diagonal line segment that is inclined upward to the right.

【図13】本実施例の物体認識装置が右下がり傾斜の斜
め方向線分を抽出する際に形成するエッジ点画面の一例
である。
FIG. 13 is an example of an edge point screen formed when the object recognition device of the present embodiment extracts a diagonal line segment having a downward slope.

【図14】本実施例の物体認識装置が斜め方向線分を抽
出する際に形成するエッジ領域画面の一例である。
FIG. 14 is an example of an edge area screen formed when the object recognition apparatus of the present embodiment extracts diagonal line segments.

【図15】本実施例の物体認識装置が縦方向線分を抽出
する際のスキャニング領域を表したエッジ領域画面であ
る。
FIG. 15 is an edge region screen showing a scanning region when the object recognition device of the present embodiment extracts a vertical line segment.

【図16】本実施例の物体認識装置が縦方向線分を抽出
する際のスキャニング方向を表したエッジ領域画面であ
る。
FIG. 16 is an edge region screen showing a scanning direction when the object recognition device of the present embodiment extracts a vertical line segment.

【図17】本実施例の物体認識装置が縦方向線分を抽出
する際に形成するエッジ領域画面である。
FIG. 17 is an edge area screen formed when the object recognition device of this embodiment extracts a vertical line segment.

【図18】本実施例の物体認識装置が横方向線分を抽出
する際に形成するエッジ領域画面である。
FIG. 18 is an edge area screen formed when the object recognition device of the present embodiment extracts a horizontal line segment.

【符号の説明】[Explanation of symbols]

10 レーダ 12 CCDカメラ 12-n,12-k,12-k+1,12-k+2 小領域 16 ディジタルシグナルプロセッサ(DSP) 22 入力用ビデオRAM 24 メインRAM 36 車両制御装置 40 先行車 40V 縦エッジ直線 40H 横エッジ直線 40Vw 縦エッジ領域 40Hw 横エッジ領域 10 radar 12 CCD camera 12-n, 12-k, 12-k + 1, 12-k + 2 small area 16 digital signal processor (DSP) 22 input video RAM 24 main RAM 36 vehicle controller 40 preceding vehicle 40V vertical Edge straight line 40H Horizontal edge straight line 40Vw Vertical edge area 40Hw Horizontal edge area

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 画像センサを用いて物体の認識を行う物
体認識装置において、 前記画像センサの撮像領域を、所定の画素数を含む小領
域単位で格子状に区分する領域区分手段と、 撮像データ中の縦エッジ点、及び横エッジ点を検出する
エッジ点検出手段と、 前記縦エッジ点を含む小領域を縦エッジ領域と、前記横
エッジ点を含む小領域を横エッジ領域とするエッジ領域
設定手段と、 縦方向に連続する縦エッジ領域群と、横方向に連続する
横エッジ領域群とが交わる領域を基に、前記物体の角点
を特定する角点特定手段と、 を備えることを特徴とする物体認識装置。
1. An object recognizing device for recognizing an object using an image sensor, comprising: an area dividing unit for dividing an image pickup area of the image sensor into a lattice shape in units of small areas including a predetermined number of pixels; and image pickup data. Edge point detection means for detecting a vertical edge point and a horizontal edge point therein, an edge area setting in which a small area including the vertical edge point is a vertical edge area, and a small area including the horizontal edge point is a horizontal edge area Means, and a corner point specifying means for specifying a corner point of the object based on a region where a vertical edge area group continuous in the vertical direction and a horizontal edge area group continuous in the horizontal direction intersect, Object recognition device.
JP16200395A 1995-06-28 1995-06-28 Object recognition device Expired - Fee Related JP3267105B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16200395A JP3267105B2 (en) 1995-06-28 1995-06-28 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16200395A JP3267105B2 (en) 1995-06-28 1995-06-28 Object recognition device

Publications (2)

Publication Number Publication Date
JPH0916782A true JPH0916782A (en) 1997-01-17
JP3267105B2 JP3267105B2 (en) 2002-03-18

Family

ID=15746199

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16200395A Expired - Fee Related JP3267105B2 (en) 1995-06-28 1995-06-28 Object recognition device

Country Status (1)

Country Link
JP (1) JP3267105B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6788817B1 (en) 1999-11-04 2004-09-07 Honda Giken Kogyo Kabushikikaisha Object recognition system
US7561720B2 (en) 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
US7561721B2 (en) 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7623681B2 (en) 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP2012038318A (en) * 2010-08-10 2012-02-23 Fujitsu Ltd Target detection method and device
JP2012243048A (en) * 2011-05-19 2012-12-10 Fuji Heavy Ind Ltd Environment recognition device and environment recognition method
CN104931024A (en) * 2014-03-19 2015-09-23 能晶科技股份有限公司 Obstacle detection device
CN112270708A (en) * 2020-10-26 2021-01-26 中国计量大学 Vegetable and fruit plant side branch point identification method based on different edge type intersection points

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6788817B1 (en) 1999-11-04 2004-09-07 Honda Giken Kogyo Kabushikikaisha Object recognition system
US7561720B2 (en) 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
US7561721B2 (en) 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7623681B2 (en) 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP2012038318A (en) * 2010-08-10 2012-02-23 Fujitsu Ltd Target detection method and device
JP2012243048A (en) * 2011-05-19 2012-12-10 Fuji Heavy Ind Ltd Environment recognition device and environment recognition method
CN104931024A (en) * 2014-03-19 2015-09-23 能晶科技股份有限公司 Obstacle detection device
CN112270708A (en) * 2020-10-26 2021-01-26 中国计量大学 Vegetable and fruit plant side branch point identification method based on different edge type intersection points
CN112270708B (en) * 2020-10-26 2024-02-02 中国计量大学 Vegetable and fruit plant lateral branch point identification method based on intersection points of different edge types

Also Published As

Publication number Publication date
JP3267105B2 (en) 2002-03-18

Similar Documents

Publication Publication Date Title
JP4981808B2 (en) Vehicle start control method and driver support system based on sensor
CN111563405B (en) Image processing apparatus and image processing method
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JP2001052171A (en) Surrounding environment recognizing device
JP3328711B2 (en) Vehicle height measuring device and vehicle monitoring system using the same
JP3267105B2 (en) Object recognition device
JP3812384B2 (en) Leading vehicle recognition device
US20210402987A1 (en) Image processor and image processing method
JPH0725286A (en) Preceding vehicle recognizing method
JP2007058282A (en) Image recognition processor
JP3260503B2 (en) Runway recognition device and runway recognition method
EP3329419A1 (en) Method for capturing an object on a road in the environment of a motor vehicle, camera system and motor vehicle using the same
JPH08315116A (en) Image processor
JPH05313736A (en) Obstacle recognizing device for moving vehicle
JPH0520593A (en) Travelling lane recognizing device and precedence automobile recognizing device
JP3331095B2 (en) In-vehicle image processing device
JP3380436B2 (en) Recognition method of vehicles, etc.
JPH09128548A (en) Vehicle detecting method
JP3436224B2 (en) Vehicle end detection device
JPH0268237A (en) Vision recognition system for vehicle
JP3198258B2 (en) Parked vehicle detection method and device
JPH01265399A (en) Road recognizing device for vehicle
JP2606409B2 (en) Vehicle monitoring method and device
JP2611325B2 (en) Road recognition device for vehicles
JP2962797B2 (en) Mobile vehicle environment recognition device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080111

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090111

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090111

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100111

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120111

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130111

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees