JPH07225126A - On-road object recognizing device for vehicle - Google Patents

On-road object recognizing device for vehicle

Info

Publication number
JPH07225126A
JPH07225126A JP6017698A JP1769894A JPH07225126A JP H07225126 A JPH07225126 A JP H07225126A JP 6017698 A JP6017698 A JP 6017698A JP 1769894 A JP1769894 A JP 1769894A JP H07225126 A JPH07225126 A JP H07225126A
Authority
JP
Japan
Prior art keywords
distance
vehicle
data
range
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP6017698A
Other languages
Japanese (ja)
Inventor
Kazuhiko Aono
和彦 青野
Toshiya Shinpo
俊也 真保
Yuichiro Hayashi
祐一郎 林
Kazuya Hayafune
一弥 早舩
Kiichi Yamada
喜一 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Motors Corp
Original Assignee
Mitsubishi Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Motors Corp filed Critical Mitsubishi Motors Corp
Priority to JP6017698A priority Critical patent/JPH07225126A/en
Publication of JPH07225126A publication Critical patent/JPH07225126A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE:To enable an on-road object recognizing device for vehicle to accurately recognize an object on a road ahead of its own vehicle by comparing the reference distance corresponding to a range which is decided at every line range and distance to an object detected by means of a distance measuring means. CONSTITUTION:Picture information from a stereo camera 2 is fetched to the forward distance measurement controller 3 of an object recognizing means 5. A distance measuring means 7 which measures the distance between the object, the picture of which is taken with the camera 2, and its own vehicle is connected to the controller 3. In addition, a range-corresponding object data eliminating means 8 compares range cutting distances (range-corresponding reference distances) which are decided at every window line (range) of the picture information and the distance to the object detected by the measuring means 7 and, when the distance to the object is longer than the reference distance, eliminates the object from object data. When the distance to the object is longer than the reference distance, the measuring means 7 recognizes the object as an object to be recognized.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、道路上の物体を認識し
て車両の自動操舵を行なう自動操舵車両に用いて好適
の、車両用路上物体認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle road object recognition device suitable for use in an automatic steering vehicle that recognizes an object on a road and automatically steers the vehicle.

【0002】[0002]

【従来の技術】近年、自動車の操舵機構において、車両
に種々のセンサを設け、これらのセンサからの情報に基
づいて操舵角制御信号を設定し、油圧や電動モータ等に
より操舵機構を積極的、且つ自動的に操舵させるような
自動操舵機構が多数提案されている。
2. Description of the Related Art In recent years, in a steering mechanism of an automobile, various sensors are provided on the vehicle, a steering angle control signal is set based on information from these sensors, and the steering mechanism is positively operated by hydraulic pressure or an electric motor. In addition, many automatic steering mechanisms that automatically steer have been proposed.

【0003】このような自動操舵車両のなかには、例え
ば上述のセンサの1つとして車両にステレオCCDカメ
ラ(以下、ステレオカメラという)をそなえ、このステ
レオカメラの画像情報から車両前方(側方を含む)の物
体を認識するとともに、この物体までの距離や物体の大
きさを判断して、これに応じて所要の操舵や制動を行な
うような車両が提案されている。
In such an automatic steering vehicle, for example, a stereo CCD camera (hereinafter referred to as a stereo camera) is provided in the vehicle as one of the above-mentioned sensors, and the vehicle front side (including the side) is obtained from the image information of the stereo camera. There is proposed a vehicle that recognizes the object, determines the distance to the object and the size of the object, and performs necessary steering and braking according to the determination.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、このよ
うなステレオカメラの画像情報は、路面状態や太陽光等
の微妙な変化に影響されやすく、又路面上の白線等も物
体と同様に距離測定をしてしまうため、物体の存在の正
確な把握が困難であり、このため物体の位置や大きさの
認識についても困難なものとなっているという課題があ
る。
However, the image information of such a stereo camera is easily affected by subtle changes such as the road surface condition and sunlight, and the white line on the road surface can be measured in the same manner as an object. Therefore, there is a problem that it is difficult to accurately grasp the existence of the object, which makes it difficult to recognize the position and size of the object.

【0005】本発明は、このような課題に鑑み創案され
たもので、ステレオカメラからの画像情報に各種の補正
処理を施して、車両前方の物体を正しく認識できるよう
にした、車両用路上物体認識装置を提供することを目的
とする。
The present invention was devised in view of the above problems, and various kinds of correction processing are applied to image information from a stereo camera so that an object in front of a vehicle can be correctly recognized. An object is to provide a recognition device.

【0006】[0006]

【課題を解決するための手段】このため、請求項1記載
の本発明の車両用路上物体認識装置は、車両の走行路面
上を撮影する横置きステレオカメラと、該横置きステレ
オカメラにより得られる画像情報に基づいて、該走行路
面上の物体を認識する物体認識手段とをそなえ、該物体
認識手段が、該横置きステレオカメラにより得られる撮
影画面を上下方向に複数の行レンジに分割し左右方向に
複数の列に分割することで多数のウインドゥに区画した
上で、該横置きステレオカメラの左右2つのカメラの各
画像情報から、上記の各ウインドゥ毎に、被写体までの
距離を測定する距離測定手段と、上記の各行レンジ毎に
決まるレンジ対応基準距離と該距離測定手段で検出され
た被写体までの距離とを比較して、該被写体までの距離
が該レンジ対応基準距離以内であればこの被写体を物体
又は物体候補として認識し、該被写体までの距離が該レ
ンジ対応基準距離よりも大きければこの被写体について
は物体でないものとして物体データから除外する、レン
ジ対応物体データ除外手段とをそなえていることを特徴
としている。
Therefore, the on-vehicle object recognition device for a vehicle according to the first aspect of the present invention is obtained by a horizontal stereo camera for photographing the traveling road surface of the vehicle, and the horizontal stereo camera. An object recognition means for recognizing an object on the road surface based on image information, and the object recognition means divides a photographing screen obtained by the horizontal stereo camera into a plurality of line ranges in the vertical direction, A distance for measuring the distance to the subject for each of the above-mentioned windows from the image information of the left and right two cameras of the horizontal stereo camera after being divided into a plurality of windows in the direction The measuring means is compared with the range-corresponding reference distance determined for each row range and the distance to the subject detected by the distance measuring means, and the distance to the subject is the range-corresponding base. If the distance is within the distance, the subject is recognized as an object or an object candidate, and if the distance to the subject is larger than the reference distance corresponding to the range, the subject is excluded from the object data as a non-object. It is characterized by having means.

【0007】また、請求項2記載の本発明の車両用路上
物体認識装置は、上記請求項1記載の構成に加えて、該
距離測定手段が、該横置きステレオカメラの左右の画像
情報から得られる同一被写体の左右方向へのずれ量に基
づいて、被写体までの距離を測定することを特徴として
いる。また、請求項3記載の本発明の車両用路上物体認
識装置は、上記請求項2記載の構成に加えて、該距離測
定手段が、該被写体までの距離Rを、該左右の2つのカ
メラのレンズの焦点距離fと、該左右2つのカメラの光
軸間の距離Lと、画像の画素ピッチPと、左右の画像が
整合するまでに左右どちらか一方の画像をシフトした画
素数nと、に基づいて、R=(f・L)/(n・P)の
式により算出することを特徴としている。
Further, in the on-vehicle object recognizing device for a vehicle according to a second aspect of the present invention, in addition to the configuration of the first aspect, the distance measuring means obtains the left and right image information of the horizontal stereo camera. The feature is that the distance to the subject is measured based on the amount of shift of the same subject in the left-right direction. Further, in the on-vehicle object recognition device for a vehicle according to a third aspect of the present invention, in addition to the configuration according to the second aspect, the distance measuring means determines a distance R to the subject from the two left and right cameras. The focal length f of the lens, the distance L between the optical axes of the two left and right cameras, the pixel pitch P of the images, and the number n of pixels obtained by shifting one of the left and right images until the left and right images are aligned, It is characterized in that it is calculated by the formula of R = (fL) / (nP) based on

【0008】また、請求項4記載の本発明の車両用路上
物体認識装置は、上記請求項1記載の構成に加えて、該
物体認識手段の処理対称とする画像領域が、該車両から
遠い部分では左右の端部領域を除去されて左右方向の中
央部の領域のみに限定されていることを特徴としてい
る。また、請求項5記載の本発明の車両用路上物体認識
装置は、上記請求項4記載の構成に加えて、該物体認識
手段が、処理対象とする画像領域を、該車両から遠い部
分で左右の端部領域を除去された左右方向の中央部分に
相当する第1の画像領域と、該車両から近い部分の左半
部分に相当する第2の画像領域と、該車両から近い部分
の右半部分に相当する第3の画像領域と、に区分して、
画像処理を行なうことを特徴としている。
According to a fourth aspect of the present invention, there is provided an on-vehicle object recognition device for a vehicle, in which, in addition to the configuration of the first aspect, an image area which is a processing symmetry of the object recognition means is far from the vehicle. Is characterized in that the left and right end regions are removed and limited to only the central region in the left and right direction. Further, in the on-vehicle object recognizing device for a vehicle according to a fifth aspect, in addition to the configuration according to the fourth aspect, the object recognizing means sets the left and right sides of an image area to be processed in a portion far from the vehicle. A first image area corresponding to the central portion in the left-right direction with the edge area removed, a second image area corresponding to the left half of the portion near the vehicle, and a right half of the portion near the vehicle. It is divided into a third image area corresponding to a part,
It is characterized by performing image processing.

【0009】また、請求項6記載の本発明の車両用路上
物体認識装置は、上記請求項1記載の構成に加えて、該
レンジ対応基準距離が、各レンジの最下部に映し出され
るべき該走行路の部分までの距離であることを特徴とし
ている。
Further, in the on-vehicle object recognizing device for a vehicle according to a sixth aspect of the present invention, in addition to the configuration according to the first aspect, the reference distance corresponding to the range is to be displayed at the bottom of each range. It is characterized by the distance to the road part.

【0010】[0010]

【作用】上述の請求項1記載の本発明の車両用路上物体
認識装置では、車両に設置された横置きステレオカメラ
により走行路面上が撮影されると、この横置きステレオ
カメラからの画像情報に基づいて、物体認識手段により
走行路面上の物体が認識される。
In the on-vehicle object recognizing device for a vehicle according to the first aspect of the present invention, when an image of the traveling road surface is taken by the horizontal stereo camera installed in the vehicle, the image information from the horizontal stereo camera is displayed. Based on this, the object recognition means recognizes the object on the road surface.

【0011】そして、物体認識手段における距離測定手
段により、横置きステレオカメラにからの撮影画面が上
下方向に複数の行レンジに分割されるとともに、左右方
向に複数の列に分割されることで多数のウインドゥに区
画された上で、横置きステレオカメラの左右2つのカメ
ラの各画像情報から、上記の各ウインドゥ毎に被写体ま
での距離が測定される。
The distance measuring means in the object recognizing means divides the photographic screen from the horizontal stereo camera into a plurality of row ranges in the vertical direction and a plurality of columns in the horizontal direction. Then, the distance to the subject is measured for each of the above windows from the image information of the left and right cameras of the horizontal stereo camera.

【0012】この後、上記の各行レンジ毎にレンジ対応
基準距離が設定される。そして、物体認識手段のレンジ
対応物体データ除外手段により、レンジ対応基準距離と
距離測定手段で検出された被写体までの距離とが比較さ
れて、被写体までの距離がレンジ対応基準距離以内であ
ればこの被写体が物体又は物体候補として認識され、被
写体までの距離がレンジ対応基準距離よりも大きければ
この被写体については物体でないものとして物体データ
から除外される。
After that, the range-corresponding reference distance is set for each row range. Then, the range corresponding object data excluding means of the object recognizing means compares the range corresponding reference distance with the distance to the subject detected by the distance measuring means, and if the distance to the subject is within the range corresponding reference distance, If the subject is recognized as an object or an object candidate and the distance to the subject is larger than the range-corresponding reference distance, this subject is excluded from the object data as a non-object.

【0013】また、上述の請求項2記載の本発明の車両
用路上物体認識装置では、横置きステレオカメラの左右
の画像情報から得られる同一被写体の左右方向へのずれ
量に基づいて、距離測定手段により、被写体までの距離
が測定される。また、上述の請求項3記載の本発明の車
両用路上物体認識装置では、距離測定手段により、被写
体までの距離Rは、左右の2つのカメラのレンズの焦点
距離fと、左右2つのカメラの光軸間の距離Lと、画像
の画素ピッチPと、左右の画像が整合するまでに左右ど
ちらか一方の画像をシフトした画素数nと、に基づい
て、R=(f・L)/(n・P)の式により算出され
る。
Further, in the on-vehicle object recognizing device for a vehicle according to the second aspect of the invention, the distance measurement is performed based on the shift amount in the left and right direction of the same subject obtained from the left and right image information of the horizontal stereo camera. The means measures the distance to the subject. In the on-vehicle object recognition device for a vehicle according to the third aspect of the present invention, the distance R to the subject is determined by the distance measuring means as to the focal length f of the left and right cameras and the left and right cameras. Based on the distance L between the optical axes, the pixel pitch P of the images, and the number of pixels n in which one of the left and right images is shifted until the left and right images are aligned, R = (fL) / ( n · P).

【0014】また、請求項4記載の本発明の車両用路上
物体認識装置では、物体認識手段の処理対称とする画像
領域が、車両から遠い部分では左右の端部領域を除去さ
れて左右方向の中央部の領域のみに限定される。また、
請求項5記載の本発明の車両用路上物体認識装置では、
物体認識手段により、処理対象とする画像領域が、車両
から遠い部分で左右の端部領域を除去された左右方向の
中央部分に相当する第1の画像領域と、車両から近い部
分の左半部分に相当する第2の画像領域と、車両から近
い部分の右半部分に相当する第3の画像領域と、に区分
されて、画像処理が行なわれる。
Further, in the on-vehicle object recognizing device for a vehicle according to the present invention, the left and right end regions of the image area which is the processing symmetry of the object recognizing means are removed in the left and right direction from the vehicle. Limited to the central area only. Also,
In the on-vehicle object recognizing device for a vehicle according to claim 5,
The first image area corresponding to the central portion in the left-right direction in which the image area to be processed by the object recognizing means is removed from the left and right end areas in the portion far from the vehicle, and the left half portion near the vehicle. The image processing is performed by being divided into a second image area corresponding to the second image area and a third image area corresponding to the right half portion near the vehicle.

【0015】また、請求項6記載の本発明の車両用路上
物体認識装置では、各レンジの最下部に映し出される走
行路の部分までの距離が、レンジ対応基準距離として設
定される。
Further, in the on-road object recognizing device for a vehicle according to the present invention, the distance to the portion of the traveling road imaged at the bottom of each range is set as the range corresponding reference distance.

【0016】[0016]

【実施例】以下、図面により、本発明の一実施例につい
て説明すると、図1はその全体構成を示す模式的なブロ
ック図、図2はその画像情報処理の概要を説明するため
のアルゴリズム、図3はその処理画像を示す模式図、図
4はその作用を説明するためのフローチャートであって
不正確データを削除するための処理について説明するた
めのフローチャート、図5はその作用を説明するための
フローチャートであってレンジカット処理について説明
するためのフローチャート、図6はレンジカット処理に
ついて説明するための模式図、図7はその作用を説明す
るためのフローチャートであってウインドゥ間の縦方向
処理について説明するためのフローチャート、図8はそ
の作用を説明するためのフローチャートであってウイン
ドゥ間の横方向処理について説明するためのフローチャ
ート、図9〜図11はともにウインドゥ間の横方向処理
についての処理画像の一例を示す模式図、図12はその
作用を説明するためのフローチャートであって物体まで
の距離の算出処理について説明するためのフローチャー
ト、図13はその横置きステレオカメラ(CCDカメ
ラ)の外観を示す模式図、図14はその横置きステレオ
カメラ(CCDカメラ)により撮像された画像を示す模
式図であって(a)はその横置きステレオカメラの左側
のカメラで撮像された車両を示す図(b)はその横置き
ステレオカメラの右側のカメラで撮像された車両を示す
図、図15はその横置きステレオカメラ(CCDカメ
ラ)の左右の画像から物体までの距離の算出を説明する
図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic block diagram showing the overall structure thereof, and FIG. 2 is an algorithm for explaining the outline of image information processing. 3 is a schematic diagram showing the processed image, FIG. 4 is a flow chart for explaining the action thereof, a flow chart for explaining the process for deleting inaccurate data, and FIG. 5 is a flow chart for explaining the action. FIG. 6 is a flowchart for explaining the range cut processing, FIG. 6 is a schematic diagram for explaining the range cut processing, and FIG. 7 is a flowchart for explaining the operation thereof, which describes vertical processing between windows. FIG. 8 is a flowchart for explaining the operation, and FIG. 8 is a flowchart for explaining the operation. 9 to 11 are schematic diagrams each showing an example of a processed image of the lateral processing between windows, and FIG. 12 is a flowchart for explaining the action thereof, showing the distance to the object. 13 is a flow chart for explaining the calculation process, FIG. 13 is a schematic diagram showing the appearance of the horizontal stereo camera (CCD camera), and FIG. 14 is a schematic diagram showing an image taken by the horizontal stereo camera (CCD camera). FIG. 15A is a diagram showing a vehicle imaged by the left camera of the horizontal stereo camera, and FIG. 15B is a diagram showing a vehicle imaged by the right camera of the horizontal stereo camera, and FIG. It is a figure explaining calculation of the distance to the object from the image on either side of a stationary stereo camera (CCD camera).

【0017】図1に示すように、車両1には、横置きス
テレオカメラ2が設置されている。このステレオカメラ
2は、図13に示すように、水平方向に左右各1つずつ
のカメラ(CCDカメラ)2L,2Rをそなえており、
これらの2つのカメラ2L,2Rから車両1の走行する
路面状況が撮像されると、この画像情報が物体認識手段
5の前方測距コントローラ3に取り込まれるようになっ
ている。
As shown in FIG. 1, a horizontal stereo camera 2 is installed in a vehicle 1. As shown in FIG. 13, this stereo camera 2 has one left and one right camera (CCD cameras) 2L and 2R in the horizontal direction.
When the road condition of the vehicle 1 is imaged by these two cameras 2L and 2R, this image information is taken into the front distance measuring controller 3 of the object recognition means 5.

【0018】また、この前方測距コントローラ3には、
距離測定手段7が接続されており、この距離測定手段7
において、ステレオカメラ2により撮像された物体と自
車両1との間の距離測定(測距)を行なうようになって
いる。そして、ここでは、物体の端部(エッジ部)を認
識して、このエッジ部までの距離を測定することによ
り、物体までの距離を測定するようになっている。
Further, the front distance measuring controller 3 includes
The distance measuring means 7 is connected, and the distance measuring means 7 is connected.
In, the distance measurement (distance measurement) between the object imaged by the stereo camera 2 and the host vehicle 1 is performed. Then, here, the distance to the object is measured by recognizing the end portion (edge portion) of the object and measuring the distance to the edge portion.

【0019】つまり、図1に示すように、距離測定手段
7には、物体のエッジ部に認識するエッジ認識手段10
が接続されており、実際には、エッジ認識手段10おい
て物体のエッジ部を認識する作業と、距離測定手段7に
おいて物体までの距離を測定する作業は同一のものであ
る。また、このステレオカメラ2は隣接する車両レーン
の道路状況を完全に把握できるような画角(ここでは4
6°)が確保されている。
That is, as shown in FIG. 1, the distance measuring means 7 has an edge recognizing means 10 for recognizing the edge portion of the object.
Are connected, and in reality, the work of recognizing the edge portion of the object by the edge recognizing means 10 and the work of measuring the distance to the object by the distance measuring means 7 are the same. In addition, this stereo camera 2 has an angle of view (4 in this case) that can completely grasp the road condition of the adjacent vehicle lane.
6 °) is secured.

【0020】ところで、このステレオカメラ2から前方
測距コントローラ3に入力された画像情報は、図3に示
すような3つの画像領域(これをエリアという)に分割
される。第1の画像領域としてのエリアIは、車両1か
ら比較的離れた前方の画像情報である。また、第2,第
3の画像領域としてのエリアII,III は、車両1の手前
側の画像情報であって、エリアIIは車両1側から見て前
方左側、エリアIII は前方右側である。このように車両
1の手前側の画像領域を広く採り、車両1から遠い画像
領域を狭く採っているのは、同じ大きさの物体でも遠く
離れる程小さく見え、狭い視野でも画像情報が得られる
からである。
By the way, the image information input from the stereo camera 2 to the front distance measuring controller 3 is divided into three image areas (this is called an area) as shown in FIG. Area I as the first image area is image information in front of the vehicle 1 which is relatively distant from the vehicle 1. Areas II and III as the second and third image areas are image information on the front side of the vehicle 1. Area II is the front left side when viewed from the vehicle 1 side, and area III is the front right side. In this way, the image area on the near side of the vehicle 1 is wide, and the image area far from the vehicle 1 is narrow, because even an object of the same size looks smaller at a distance, and image information can be obtained even in a narrow field of view. Is.

【0021】エリアI〜III は、図3に示すように、上
下方向(縦方向)の線と左右方向(横方向)の線とによ
り細かい区画(以下、ウインドゥという)に分割されて
いる。 図3に示すように、各ウインドゥには、それぞ
れに番号が付与されており、ウインドゥ〔x〕〔y〕と
いう形で各ウインドゥの位置を示すようになっている。
〔x〕は画像領域の一番上のウインドゥ行(左右方向へ
のウインドゥの一列並び)の番号を0として、下に向か
って番号が大きくなるように設定されている。また、
〔y〕は画像領域の左端のウインドゥ列(上下方向への
ウインドゥの一列並び)の番号を0として、図中右方向
に向かって番号が大きくなるように設定されている。
As shown in FIG. 3, the areas I to III are divided into fine sections (hereinafter referred to as windows) by vertical (vertical) lines and horizontal (horizontal) lines. As shown in FIG. 3, each window is given a number to indicate the position of each window in the form of windows [x] [y].
[X] is set so that the number of the top window row (a row of windows in the left-right direction) of the image area is 0, and the numbers increase downward. Also,
[Y] is set so that the number of the window row at the left end of the image area (a row of windows in the vertical direction) is 0, and the number increases toward the right in the drawing.

【0022】そして、エッジ認識手段10では、ステレ
オカメラ2からの画像情報に基づいて、各ウインドゥ列
毎に、画像が互いに異なるパターンの境界部として形成
される縦エッジ部分を認識して、この縦エッジ部分まで
の距離を測定するようになっている。なお、縦エッジと
は、具体的には、主に物体の左右端の部分である。そし
て、本装置は、これらのエリアI〜III 内の画像情報に
基づいて物体を認識するように構成されているものであ
る。
Then, the edge recognizing means 10 recognizes a vertical edge portion, which is formed as a boundary portion of patterns different from each other, for each window row based on the image information from the stereo camera 2, and the vertical edge portion is recognized. It is designed to measure the distance to the edge. The vertical edges are specifically the left and right ends of the object. The present apparatus is configured to recognize an object based on the image information in these areas I to III.

【0023】図1に示すように、認識処理手段5には、
デュアルポートRAM4とコンピュータ6とが設けられ
ており、各エリアI〜III の画像情報は、デュアルポー
トRAM4に入力されるようになっている。そして、こ
のデュアルポートRAM4からの情報がコンピュータ6
に入力されるようになっている。このコンピュータ6
は、物体認識のための各種の処理を行なうものであっ
て、コンピュータ6内には、図1に示すように、レンジ
対応物体データ除外手段8と物体推定手段11とが設け
られている。
As shown in FIG. 1, the recognition processing means 5 includes:
A dual port RAM 4 and a computer 6 are provided, and the image information of each area I to III is input to the dual port RAM 4. Information from the dual port RAM 4 is transferred to the computer 6
It is designed to be input to. This computer 6
Performs various kinds of processing for object recognition. As shown in FIG. 1, the computer 6 is provided with range corresponding object data excluding means 8 and object estimating means 11.

【0024】レンジ対応物体データ除外手段8は、画像
情報の各ウインドゥ行(又は、レンジという)毎に決ま
るレンジカット距離(レンジ対応基準距離)と距離測定
手段7で検出された被写体までの距離とを比較して、被
写体までの距離がレンジ対応基準距離よりも大きければ
この被写体については物体データから除外(これをレン
ジカット処理という)し、被写体までの距離が該レンジ
対応基準距離以内であればこの被写体を物体として認識
するものである。
The range-corresponding object data excluding means 8 determines the range cut distance (range-corresponding reference distance) determined for each window line (or range) of the image information and the distance to the object detected by the distance measuring means 7. If the distance to the subject is larger than the range-corresponding reference distance, this subject is excluded from the object data (this is called range cut processing), and if the distance to the subject is within the range-corresponding reference distance. This object is recognized as an object.

【0025】また、物体推定手段11は、前述したエッ
ジ認識手段10の認識情報に基づいて、画像情報の各ウ
インドゥ列単位で、縦エッジ部分の存在の有無を認識し
て、縦エッジ部分が存在する際にはその距離を追跡し
て、予め設定された左右の離隔範囲内のウインドゥ列間
に、縦エッジが一対存在し、且つこの対をなす各縦エッ
ジ部分までの距離がほぼ等しい場合に、この対をなす各
縦エッジ部分で規定される領域に、この縦エッジ部分ま
での距離だけ離れて物体が存在していると推定するもの
である。
Further, the object estimating means 11 recognizes the presence or absence of the vertical edge portion for each window row unit of the image information based on the recognition information of the edge recognizing means 10 described above, and the vertical edge portion exists. If there is a pair of vertical edges between the window rows within the preset left and right separation range, and the distance to each vertical edge part forming this pair is almost equal, It is estimated that an object exists in the area defined by the vertical edge portions forming the pair and is separated by the distance to the vertical edge portions.

【0026】以下、認識処理手段5の各機能について説
明していく。距離測定手段7は、上述したように、ステ
レオカメラ2の左右2つのカメラの各画像情報から、各
ウインドゥ毎に距離測定していくものである。このステ
レオカメラ2による測距は、次のようにして行なわれ
る。すなわち、ステレオカメラ2の2つのカメラ2L,
2Rからは、図14(a),(b)に示すように2つの
画像が得られる。右側の画像のウインドゥで囲まれた画
像と同じ画像は、左側の画像の中に少し横方向にずれた
位置にある。そこで、ウインドゥで囲んだ右側の画像
を、左側の画像のサーチ領域内で1画素ずつシフトしな
がら、最も整合する画の位置を求めるのである。このと
き、図15に示すように、カメラ2L,2Rのレンズの
焦点距離をf、左右カメラ11,12の光軸間の距離を
Lとし、CCDの画素ピッチ(画像の画素ピッチ)を
P、図14(a),(b)において左右の画像が整合す
るまでに右画像をシフトした画素数をnとすると、ステ
レオカメラ2により撮像された物体までの距離Rは、三
角測量の原理により、次式により算出される。 R=(f・L)/(n・P) そして、このような距離測定を行なうことにより、物体
のエッジ部が認識されるのである。
The functions of the recognition processing means 5 will be described below. As described above, the distance measuring means 7 measures the distance for each window from the image information of the left and right two cameras of the stereo camera 2. The distance measurement by the stereo camera 2 is performed as follows. That is, the two cameras 2L of the stereo camera 2,
Two images are obtained from 2R as shown in FIGS. 14 (a) and 14 (b). The same image as the image surrounded by the window in the right image is slightly laterally offset in the left image. Therefore, the image on the right side surrounded by the window is shifted pixel by pixel in the search area of the image on the left side, and the position of the image that is most matched is obtained. At this time, as shown in FIG. 15, the focal lengths of the lenses of the cameras 2L and 2R are f, the distance between the optical axes of the left and right cameras 11 and 12 is L, and the pixel pitch of the CCD (pixel pitch of the image) is P, In FIGS. 14A and 14B, if the number of pixels shifted in the right image until the left and right images are matched is n, the distance R to the object imaged by the stereo camera 2 is calculated by the triangulation principle. It is calculated by the following formula. R = (f · L) / (n · P) Then, by performing such distance measurement, the edge portion of the object is recognized.

【0027】ここで、コンピュータ6内の画像情報処理
の流れについて図2のアルゴリズムを用いて簡単に説明
する。まず、ステップSA1においてデュアルポートR
AM4から画像データが読み込まれる。このとき、画像
データは、図3に示すようなウインドゥに分割されてお
り、距離測定手段7により測定された各ウインドゥ毎の
距離データも取り込まれる。
Here, the flow of image information processing in the computer 6 will be briefly described using the algorithm of FIG. First, in step SA1, dual port R
Image data is read from AM4. At this time, the image data is divided into windows as shown in FIG. 3, and the distance data for each window measured by the distance measuring means 7 is also captured.

【0028】次に、ステップSA2で測距性能外のデー
タを排除して不正確なデータをカットする。そして、ス
テップSA3で路面上の白線や文字等の測距値を削除す
るレンジカット処理が行なわれる。これにより、路面上
の模様(白線や文字等)の測距値か削除されるようにな
っている。
Next, in step SA2, data outside the distance measuring performance is excluded to cut inaccurate data. Then, in step SA3, range cut processing is performed to delete distance measurement values such as white lines and characters on the road surface. As a result, the distance measurement value of the pattern (white line, character, etc.) on the road surface is deleted.

【0029】この後、ステップSA4で各ウインドゥ間
の縦方向処理が行なわれる。この縦方向処理により、ス
テレオカメラ2により撮像された被写体を物体候補とす
るか、物体データから除外するかが判断される。なお、
縦方向処理は図3に示すような、上下方向に処理してい
くものである。これらステップSA1〜ステップSA4
が、レンジ対応物体データ除外手段8により処理される
ようになっている。
After this, in step SA4, vertical processing between windows is performed. Through this vertical processing, it is determined whether the subject imaged by the stereo camera 2 is an object candidate or is excluded from the object data. In addition,
The vertical processing is processing in the vertical direction as shown in FIG. These steps SA1 to SA4
Are processed by the range corresponding object data excluding means 8.

【0030】そして、ステップSA5において各ウイン
ドゥ間の横方向処理が行なわれ、これにより、物体の認
識や物体の大きさの判別が行なわれるのである。この横
方向処理は、上述の縦方向処理とは逆に、縦方向のウイ
ンドゥ列を図3に示すように左右方向に処理していくも
のである。そして、この各ウインドゥ間の横方向処理
は、エッジ認識手段10と物体推定手段11とより処理
されるようになっている。
Then, in step SA5, horizontal processing is performed between the windows, thereby recognizing the object and determining the size of the object. In the horizontal direction processing, contrary to the vertical direction processing described above, the vertical window sequence is processed in the horizontal direction as shown in FIG. The horizontal processing between the windows is performed by the edge recognition means 10 and the object estimation means 11.

【0031】以下、上述のアルゴリズムの各ステップ毎
に説明する。 〔不正確データのカット〕まず、デュアルポートRAM
4からコンピュータ6に取り込まれた画像情報は、レン
ジ対応物体データ除外手段8により不正確データカット
の処理が行なわれる。
The steps of the above algorithm will be described below. [Cut of inaccurate data] First, dual port RAM
The image information taken into the computer 6 from 4 is subjected to inaccurate data cut processing by the range corresponding object data excluding means 8.

【0032】この不正確データのカット処理について説
明する。通常、カメラによる距離測定では、距離が大き
くなるほど(すなわち物体が小さく見えるほど)、デー
タの値は不正確なものとなる。そこで、本装置では、あ
る一定値(Lc)以上前方のデータ(ここでは、例えば
画角46°の場合Lc=35m)を予め排除するように
なっている。
The cut processing of this inaccurate data will be described. Usually, in the distance measurement by the camera, the larger the distance (that is, the smaller the object appears), the more inaccurate the data value. Therefore, in this apparatus, data ahead of a certain fixed value (Lc) or more (here, for example, when the angle of view is 46 °, Lc = 35 m) is eliminated in advance.

【0033】これを図4のフローチャートを用いて説明
すると、各ウインドゥの距離データがステップSB1に
入力されると、この距離データが所定値Lcよりも大き
いかどうかを判定する。各ウインドゥ〔x〕〔y〕の距
離データをdata〔x〕〔y〕で示すと、この判定は
次式(1)により行なわれる。
This will be described with reference to the flowchart of FIG. 4. When the distance data of each window is input to step SB1, it is determined whether or not this distance data is larger than a predetermined value Lc. When the distance data of each window [x] [y] is represented by data [x] [y], this determination is made by the following equation (1).

【0034】 data〔x〕〔y〕>Lc ・・・(1) そして、data〔x〕〔y〕がLcよりも大きいと、
Yesルートを通ってステップSB2に進み、data
〔x〕〔y〕=0として距離データが削除される。ま
た、data〔x〕〔y〕が所定値Lcよりも小さいと
Noルートを通って距離データは削除されずに、次のス
テップに進むのである。
Data [x] [y]> Lc (1) When data [x] [y] is larger than Lc,
Go to Step SB2 through the Yes route and data
Distance data is deleted with [x] [y] = 0. If data [x] [y] is smaller than the predetermined value Lc, the distance data is not deleted through the No route and the process proceeds to the next step.

【0035】なお、図3に示すように、エリアIの方が
エリアII,III よりも横方向のウインドゥがそれぞれ3
行ずつ少なくなっているので、必然的にエリアIの
〔y〕は3〜14までとなる。 〔レンジカット処理〕次に、レンジ対応物体データ除外
手段8では、ステップSA3のレンジカット処理を行な
う。このレンジカット処理は、路面上の白線や文字等の
測距値を削除して、不必要なデータを除外していく処理
である。
As shown in FIG. 3, the area I has three horizontal windows than the areas II and III.
Since the number of lines decreases, the area y [y] inevitably becomes 3 to 14. [Range Cut Processing] Next, the range corresponding object data excluding unit 8 performs the range cut processing in step SA3. This range cut processing is processing for deleting unnecessary data by deleting distance measurement values such as white lines and characters on the road surface.

【0036】ここで、レンジカット処理の考え方につい
て、図6を用いて説明する。車両前方の路面状況は、車
両1に設置されたステレオカメラ2により撮像される
が、図3に示すような画像情報をウインドゥ行毎にどの
程度前方までのデータを取り込むかを決定するものであ
る。例えば、図6では、ステレオカメラ2により撮像さ
れる領域が〜の領域(各領域はウインドゥ行に対応
するものである)に分割されており、この各領域〜
毎にそれぞれにレンジカット距離が設定されている。そ
して、設定されたレンジカット距離よりも画像情報の距
離データが遠方であると、このデータを削除するのであ
る。例えば、図6に示すの領域では、A地点より遠方
は測距しないようになっている。これと同様にの領域
ではB地点よりも遠方、の領域ではC地点よりも遠方
は測距しないようになっている。
Here, the concept of range cut processing will be described with reference to FIG. The road surface condition in front of the vehicle is captured by the stereo camera 2 installed in the vehicle 1, and determines how much data up to the front the image information as shown in FIG. 3 is fetched for each window. . For example, in FIG. 6, the area imaged by the stereo camera 2 is divided into areas (each area corresponds to a window row), and each area
A range cut distance is set for each. Then, if the distance data of the image information is farther than the set range cut distance, this data is deleted. For example, in the area shown in FIG. 6, distance measurement is not performed at a distance from point A. In the same manner as this, distance measurement is not performed in a region farther than the point B and in a region farther than the point C in the region.

【0037】これにより、図6に示すような状況では、
車両1の前方の物体(障害物)9はの領域で測距され
るようになっており、物体9の下方の道路上の模様や白
線等がの領域で測距されることがなく、物体9だけを
正しく認識できるようになっているのである。このレン
ジカット処理を図5のフローチャートを用いて説明する
と、各ウインドゥ行〔i〕毎に、路面上の被写体を拾わ
ない距離L(i) が設定されており、この距離L(i) 以上
のデータを削除(レンジカット)するようになってい
る。なお、各ウインドゥ行〔i〕のiの値は、上記のウ
インドゥ番号のx値に相当するものであって、例えば一
番上のウインドゥ行(x=0)の距離データは、dat
As a result, in the situation as shown in FIG.
The object (obstacle) 9 in front of the vehicle 1 is designed to be distance-measured in the area of, and the pattern or white line on the road below the object 9 is not measured in the area of Only 9 can be recognized correctly. This range cut processing will be described with reference to the flowchart of FIG. 5. A distance L (i) at which a subject on the road is not picked up is set for each window row [i], and the distance L (i) or more is set. It is designed to delete data (range cut). The value i of each window row [i] corresponds to the x value of the above window number. For example, the distance data of the uppermost window row (x = 0) is dat.
a

〔0〕〔y〕で示される。It is represented by [0] [y].

【0038】そして、各ウインドゥ行〔i〕の距離デー
タは、ステップSC1で以下の式(2)により判断され
る。 data〔i〕〔y〕>L(i) ・・・(2) そして、上記の式(2)が成り立つ場合は、ステップS
C2に進んでdata〔i〕〔y〕=0と設定される。
つまりウインドゥ列の距離データが削除されるのであ
る。
Then, the distance data of each window [i] is judged by the following equation (2) in step SC1. data [i] [y]> L (i) (2) If the above expression (2) is satisfied, step S
Proceeding to C2, data [i] [y] = 0 is set.
That is, the distance data of the window sequence is deleted.

【0039】また、data〔i〕〔y〕がL(i) より
も小さいときは、次の処理に進む。そして、このような
レンジカット処理を全ての列について行なう。 〔ウインドゥ間縦方向処理〕次に、物体推定手段11で
は、各ウインドゥ間の縦方向処理(図2に示すステップ
SA4)を行なう。この縦方向処理は、各ウインドゥの
各列毎に行なわれるものである。そして、この縦方向処
理により、ウインドゥの各縦列毎の物体の距離が決定さ
れる。
If data [i] [y] is smaller than L (i), the process proceeds to the next step. Then, such range cut processing is performed for all columns. [Longitudinal Processing Between Windows] Next, the object estimation unit 11 performs vertical processing between windows (step SA4 shown in FIG. 2). This vertical processing is performed for each column of each window. By this vertical processing, the distance of the object for each column of the window is determined.

【0040】この処理は各列〔j〕毎に行なわれるが、
各ウインドゥ列〔j〕のjの値は、上記のウインドゥ番
号のy値に相当するものであって、この実施例の場合、
j=1〜17となる。また、図3中左端のウインドゥ行
(y=0)の距離データは、data
This processing is performed for each column [j],
The value of j of each window sequence [j] corresponds to the y value of the above window number. In the case of this embodiment,
j = 1 to 17. The distance data of the window row (y = 0) at the left end in FIG. 3 is data.

〔0〕〔y〕で示
される。そして、このウインドゥ間の縦方向処理は、図
7に示すフローチャートにしたがって行なわれる。
It is represented by [0] [y]. The vertical processing between windows is performed according to the flowchart shown in FIG.

【0041】まず、最初にj=1の時について説明す
る。ステップSD1において、初期値がx=5,c:d
ata〔j〕=0と設定される。なお、c:data
〔j〕は各縦列の距離データである。次に、ステップS
D2に進んで、その時のウインドゥ〔x〕〔j〕の距離
データが、その真上のウインドゥ〔x−1〕〔j〕の距
離データに近い(±20%以内)かどうかが下式
(3),(4)にしたがって判断される。
First, the case of j = 1 will be described. In step SD1, the initial value is x = 5, c: d
ata [j] = 0 is set. Note that c: data
[J] is distance data of each column. Next, step S
Proceeding to D2, it is determined whether the distance data of the window [x] [j] at that time is close (within ± 20%) to the distance data of the window [x-1] [j] immediately above (3). ), (4).

【0042】 data〔x〕〔j〕<k1 ×data〔x−1〕〔j〕 ・・・(3) and data〔x〕〔j〕>k2 ×data〔x−1〕〔j〕 ・・・(4) (ただし、k2 <k1 ) なお、k1 ,k2 は、距離データのばらつき度合いによ
り設定される固定値である。
Data [x] [j] <k 1 × data [x-1] [j] (3) and data [x] [j]> k 2 × data [x-1] [j] (4) (where k 2 <k 1 ) Note that k 1 and k 2 are fixed values set according to the degree of variation in the distance data.

【0043】ここでは、x=5,j=1なので、図3の
左端の縦列において、一番したのウインドゥ(x=5)
の距離データが、その上に位置するウインドゥ(x=
4)の距離データに近いかどうかが判断されるのであ
る。そして、これが成り立つ場合、即ちその時のウイン
ドゥ〔x〕〔j〕と、この真上に位置するウインドゥ
〔x−1〕〔j〕との距離データが近いと判断できる場
合、ステップSD3に進んで、c:data〔j〕=d
ata〔x〕〔j〕と設定する。
Since x = 5 and j = 1 here, the window (x = 5) that has been the best in the leftmost column in FIG. 3 is used.
Distance data of the window (x =
It is determined whether the distance data is close to the distance data of 4). If this is true, that is, if it can be determined that the distance data between the window [x] [j] at that time and the window [x-1] [j] located immediately above this are close, the process proceeds to step SD3, c: data [j] = d
It is set as ata [x] [j].

【0044】つまり、この時比較された上下2つのウイ
ンドゥのうち、下側のウインドゥ〔x〕〔j〕の距離デ
ータが、その縦列の距離データc:data〔j〕とし
て設定されるのである。また、ステップSD2で、式
(3)又は(4)のどちらか一方でも成り立たない場合
は、Noルートを通ってステップSD4に進み、c:d
ata〔j〕が0かどうかが判断される。
That is, of the upper and lower windows compared at this time, the distance data of the lower window [x] [j] is set as the distance data c: data [j] of the column. In step SD2, if either one of the expressions (3) and (4) is not satisfied, the process proceeds to the step SD4 through the No route, and c: d.
It is determined whether or not ata [j] is 0.

【0045】各列の最初の処理時(x=5の時)は、ス
テップSD1でc:data〔j〕=0と設定されてい
るので、ステップSD5に進む。そして、この時のウイ
ンドゥの距離データが所定値Lfよりも大きいかどうか
が下式(5)により判断される。 data〔x〕〔j〕>Lf ・・・・(5) そして、このウインドゥの距離データがLfよりも大き
い場合は、ステップSD6に進んで、c:data
〔j〕=data〔x〕〔j〕と設定する。
At the time of the first processing of each column (when x = 5), since c: data [j] = 0 is set in step SD1, the process proceeds to step SD5. Then, whether or not the window distance data at this time is larger than the predetermined value Lf is determined by the following equation (5). data [x] [j]> Lf (5) If the distance data of the window is larger than Lf, the process proceeds to step SD6 and c: data.
Set [j] = data [x] [j].

【0046】つまり、ステップSD2で、式(3),
(4)を満足する距離データが得られなかった場合であ
っても、その距離データが所定値Lf以上の場合に限
り、下位行のデータを優先的に縦列データとして採用し
ているのである。これは、遠方の小さな物体の場合、1
つのウインドゥ内に収まってしまうことが考えられるか
らである。そして、どの程度の高さの物体までを認識す
るかでLfの値を設定する。例えば、本実施例の場合
は、車両程度の高さの物体を認識しようとするものであ
って、Lf=10mに設定されている。
That is, in step SD2, equations (3),
Even when the distance data satisfying (4) is not obtained, the data in the lower row is preferentially adopted as the column data only when the distance data is equal to or larger than the predetermined value Lf. This is 1 for small objects in the distance
This is because it is possible that they will fit in one window. Then, the value of Lf is set depending on the height of the object to be recognized. For example, in the case of the present embodiment, the object is to recognize an object as high as a vehicle, and Lf = 10 m is set.

【0047】そして、ステップSD6で、c:data
〔j〕が設定されると、ステップSD7に進む。また、
ステップSD4で、c:data〔j〕≠0の場合、又
ステップSD5でdata〔x〕〔j〕がLfよりも小
さい場合は、ともにNoルートを通ってステップSD7
に進む。このステップSD7では、xの大きさが判定さ
れる。ここで、jが0〜2又は15〜17にある時は、
x>3かどうかを判断し、jが3〜14にある時は、x
>1かどうかを判断する。つまり、図3に示すように、
左側3列(j=0〜2)と右側3列(j=15〜17)
は、ウインドゥがx=3〜5の範囲でしか存在しないか
らである。
Then, in step SD6, c: data
When [j] is set, the process proceeds to step SD7. Also,
If c: data [j] ≠ 0 in step SD4, or if data [x] [j] is smaller than Lf in step SD5, both steps go through the No route to step SD7.
Proceed to. In step SD7, the magnitude of x is determined. Here, when j is 0 to 2 or 15 to 17,
It is determined whether x> 3, and when j is 3 to 14, x
> 1 is judged. That is, as shown in FIG.
3 columns on the left side (j = 0 to 2) and 3 columns on the right side (j = 15 to 17)
Is because the window exists only in the range of x = 3 to 5.

【0048】そして、これが成り立つとステップSD7
からステップSD8に進んで、xの数を1つ減じてから
ステップSD2に戻るようになっている。また、ステッ
プSD7で上記の条件が成り立たない場合はNoルート
を通って、このウインドゥ間の縦方向処理を終了する。
このように、各縦方向の列毎に、一番下のウインドゥ
(x=5)から順次その真上にあるウインドゥと距離デ
ータの比較を行なっていき、各列毎に物体までの距離を
設定することにより、単発的に現れる不正確なデータを
取り除くことができるのである。
When this is established, step SD7
To SD8, the number of x is decremented by 1, and the process returns to SD2. If the above condition is not satisfied in step SD7, the No route is taken and the vertical processing between windows is completed.
In this way, for each column in the vertical direction, the window data at the bottom (x = 5) is sequentially compared with the window immediately above and the distance data is compared, and the distance to the object is set for each column. By doing so, it is possible to remove the inaccurate data that appears one by one.

【0049】〔ウインドゥ間横方向処理〕そして、さら
に物体推定手段11においては、各ウインドゥ間の横方
向処理が行なわれる。各ウインドゥ間の横方向処理は、
図3に示すように画像領域の左右方向への処理であり、
各縦列の距離データに応じて、その縦列が物体の端部か
どうかの認識が行なわれるものである。
[Horizontal processing between windows] Further, the object estimating means 11 further performs horizontal processing between windows. The horizontal processing between windows is
As shown in FIG. 3, the processing is in the left-right direction of the image area.
According to the distance data of each column, whether the column is the end of the object is recognized.

【0050】そして、この横方向処理では、各ウインド
ゥ列毎の距離データに応じて閾値が設定される。各縦列
データの側方に、その閾値以上の縦列データが現れない
(データ=0)場合、そこで物体が分かれていると判断
する。なお、縦列データに応じて閾値を変える理由は以
下である。 ・測距が可能となるのは縦方向に物体の縁部(縦エッ
ジ)がある部分のみで、物体の内部(左右の縦エッジの
中間部)は測距できないことが多い。 ・物体の内部では縦列データが現れなくなる場合、その
ウインドゥ数は、物体の大きさが同じであれば距離が近
くなる程、また、距離が同じであれば大きさ物体が大き
くなる程多くなる。
In this horizontal processing, a threshold value is set according to the distance data for each window row. When no column data equal to or more than the threshold value appears on the side of each column data (data = 0), it is determined that the object is divided there. The reason why the threshold value is changed according to the column data is as follows. -The distance can be measured only in the part where the edge (vertical edge) of the object is in the vertical direction, and it is often not possible to measure the distance inside the object (the middle part between the left and right vertical edges). When the column data does not appear inside the object, the number of windows increases as the distance between the objects is the same, and as the size is the same, the window size increases.

【0051】したがって、どの程度の小さな物体までを
認識するかを決めれば閾値は決まる。この実施例では、
車両程度の大きさの物体までを認識できるように、以下
のように閾値Wsを設定している。 縦列データ5m以下・・・・・閾値Ws=6 同 5m〜7m・・・・・閾値Ws=5 同 7m〜9m・・・・・閾値Ws=4 同 9m〜14m・・・・閾値Ws=3 同 14m以上・・・・・閾値Ws=2 なお、この閾値は、認識する物体の大きさやウインドゥ
の大きさにによって変わるものである。
Therefore, the threshold is determined by deciding how small an object is to be recognized. In this example,
The threshold value Ws is set as follows so that an object as small as a vehicle can be recognized. Column data 5 m or less ... Threshold value Ws = 6 same 5 m to 7 m ... threshold value Ws = 5 same 7 m to 9 m ... threshold value Ws = 4 same 9 m to 14 m ... threshold value Ws = 3 same 14 m or more ... Threshold value Ws = 2 This threshold value changes depending on the size of the object to be recognized and the size of the window.

【0052】そして、上記閾値に従い分かれた各物体に
ついて2番目に小さい縦列データを見つけ、その縦列デ
ータに近い最も左側と右側のウインドゥ間を物体として
認識するようになっている。また、縦列データが1つし
かない場合は、物体としては認識しない。以下、図8〜
図11を用いて横方向の処理を説明する。
Then, the second smallest column data is found for each object divided according to the above threshold, and the space between the leftmost and right windows close to the column data is recognized as an object. If there is only one column data, it is not recognized as an object. Below, FIG.
Processing in the horizontal direction will be described with reference to FIG.

【0053】例えば図9に示すように、ウインドゥ列
〔y=0,2,6,9〕にほぼ同じ距離データが現れた
場合、物体位置としては図9に示すもの以外に図10
(a)や図10(b)に示すような物体として認識して
しまうことが考えられる。そこで、本装置ではこの横方
向処理により認識する物体の大きさの範囲を限定するこ
とで、正確な物体認識を行なえるようになっている。
For example, as shown in FIG. 9, when almost the same distance data appears in the window sequence [y = 0, 2, 6, 9], the object positions other than those shown in FIG.
It may be recognized as an object as shown in (a) or FIG. 10 (b). Therefore, in the present apparatus, by limiting the range of the size of the object to be recognized by this lateral processing, accurate object recognition can be performed.

【0054】例えば、図9に示すウインドゥ2で測距さ
れた物体の距離データが大きい場合、図10(a)や図
10(b)のように物体を認識することは、非常に大き
な物体が認識されたことを意味している。そこで、物体
の大きさを例えば車両程度の大きさに限定することによ
り、ウインドゥ〔y=2〕の距離データからウインドゥ
〔y=2〕とウインドゥ〔y=6〕と物体のデータが、
同一の物体のデータか否かが判断可能となるのである。
For example, when the distance data of the object measured by the window 2 shown in FIG. 9 is large, it is difficult to recognize the object as shown in FIGS. 10 (a) and 10 (b). It means being recognized. Therefore, by limiting the size of the object to, for example, the size of a vehicle, the data of the window [y = 2], the window [y = 6], and the object can be obtained from the distance data of the window [y = 2].
It is possible to determine whether or not the data is for the same object.

【0055】そこで、図11に示すように、ウインドゥ
a,b,cのみに距離データが現れ、それ以外のデータ
が全て0の場合について、図8に示すフローチャートに
したがってその処理を説明する。まず、図8のステップ
SE1において、j=0,n=0,min
Therefore, as shown in FIG. 11, when the distance data appears only in the windows a, b, and c and all the other data are 0, the processing will be described with reference to the flowchart shown in FIG. First, in step SE1 of FIG. 8, j = 0, n = 0, min

〔0〕=0と
設定する。jはウインドゥ列の番号、nは画像情報にお
ける被写体の数−1、min〔n〕は物体候補の存在の
する可能性がある左端の位置(ウインドゥ列番号)であ
る。
Set [0] = 0. j is the window sequence number, n is the number of subjects in the image information −1, and min [n] is the leftmost position (window sequence number) where the object candidate may exist.

【0056】次にステップSE2に進んでカウンタがk
=0と設定される。そして、ステップSE3で、c:d
ata〔j〕=0かどうかが判断される。jの最初の値
は0であり、図11の場合、c:data
Next, in step SE2, the counter is set to k.
= 0 is set. Then, in step SE3, c: d
It is determined whether or not ata [j] = 0. The first value of j is 0, and in the case of FIG. 11, c: data

〔0〕=0で
あるので、Yesルートを通って図8のステップSE1
0に進んでjが1つ加算され、j=となる。次に、ステ
ップSE11に進んで、j>17かどうかが判定され
る。ここで、j=1なので、Noルートを通ってステッ
プSE2に戻る。
Since [0] = 0, the step SE1 in FIG. 8 is performed through the Yes route.
The process proceeds to 0, j is incremented by 1, and j =. Next, in step SE11, it is determined whether j> 17. Here, since j = 1, the process returns to step SE2 through the No route.

【0057】そして、図11の場合、このルートをj=
4になるまで繰り返し、j=4の時ステップSE3で
c:data〔4〕=a(≠0)となり、Noルートを
通ってステップSE4に進む。このステップSE4で
は、距離データaに応じて、閾値Wsが設定され、図8
のステップSE5に進む。ステップSE5では、kが1
つ加算されk(=k+1)=1と設定され、ステップS
E6に進む。ステップSE6ではj+kが算出され、こ
の値が17より大きいかどうかが判定される。この場合
j+k=4+1(≦17)であるので、Noルートによ
りステップSE9に進む。
In the case of FIG. 11, this route is j =
4 is repeated, and when j = 4, in step SE3, c: data [4] = a (≠ 0), and the process proceeds to step SE4 through the No route. In step SE4, the threshold value Ws is set according to the distance data a,
Go to step SE5. In step SE5, k is 1
Are added and k (= k + 1) = 1 is set, and step S
Proceed to E6. In step SE6, j + k is calculated, and it is determined whether this value is larger than 17. In this case, j + k = 4 + 1 (≦ 17), so the process proceeds to step SE9 by No route.

【0058】ステップSE9では、c:data〔j+
k〕=0かどうかが判定されるが、この場合、c:da
ta〔5〕=b(≠0)となるので、Noルートを通っ
てステップSE10に進み、このステップSE10でj
が1つ加算され(j=5)、ステップSE11を通っ
て、ステップSE2に戻る。そして、ステップSE2で
kの値が0にリセットされた後、ステップSE3に進
み、ここでc:data〔j〕の値が判定される。今度
はj=5となっているので、c:data〔5〕=bと
なり、YesルートでステップSE4に進み、距離デー
タbに応じた閾値Wsが再び設定される。
At step SE9, c: data [j +
It is determined whether or not k] = 0. In this case, c: da
Since ta [5] = b (≠ 0), the No route is taken to step SE10, and at step SE10, j
Is incremented by 1 (j = 5), the process returns to step SE2 through step SE11. Then, after the value of k is reset to 0 in step SE2, the process proceeds to step SE3, where the value of c: data [j] is determined. Since j = 5 this time, c: data [5] = b holds, and the process proceeds to step SE4 along the Yes route, and the threshold value Ws corresponding to the distance data b is set again.

【0059】次にステップSE5でk=1に設定された
後ステップSE6に進む。ステップSE6ではj+k
(=5+1)=6≦17となるので、Noルートを通っ
てステップSE9に進む。そして、図11に示すよう
に、c:data〔6〕=0であるので、Yesルート
を通ってステップSE12に進む。そして、このステッ
プSE12で、カウントkと閾値Wsとが比較される。
そしてk≦Wsの間は、ステップSE12からNoルー
トを通ってステップSE5に戻る。
Next, at step SE5, k = 1 is set, and then the routine proceeds to step SE6. J + k in step SE6
Since (= 5 + 1) = 6 ≦ 17, the process proceeds to step SE9 through the No route. Then, as shown in FIG. 11, since c: data [6] = 0, the process proceeds to the step SE12 through the Yes route. Then, in step SE12, the count k is compared with the threshold value Ws.
Then, while k≤Ws, the process returns from step SE12 to step SE5 through the No route.

【0060】図11に示す例の場合、c:data
〔6〕〜c:data
In the case of the example shown in FIG. 11, c: data
[6] to c: data

〔9〕=0であるので、距離デー
タbに応じた閾値Wsにしたがって、ステップSE5,
ステップSE6,ステップSE9,ステップSE12の
ループを回る。例えば、距離データbがb=10mだっ
たとすると、閾値Ws=3となり、上記のループを3度
回る。
Since [9] = 0, step SE5 is performed according to the threshold value Ws corresponding to the distance data b.
The loop of steps SE6, SE9, and SE12 is repeated. For example, if the distance data b is b = 10 m, the threshold value Ws = 3, and the above loop is repeated 3 times.

【0061】そして、k=4の時、ステップSE12で
k>Wsが成り立ち、Yesルートを通ってステップS
E13に進む。このステップSE13では、j=j+k
により新たjが設定される。したがって、ここではj=
5+4=9となり、ステップSE14に進む。ステップ
SE14では、max〔n〕=j,min〔n+1〕=
j+1と設定される。なお、max〔n〕は、画像情報
の左側から数えてn−1番目の物体候補の存在のする可
能性がある右端のウインドゥ列の位置である。
Then, when k = 4, k> Ws holds in step SE12, and the step S is performed through the Yes route.
Go to E13. In this step SE13, j = j + k
Sets a new j. Therefore, j =
Since 5 + 4 = 9, the process proceeds to step SE14. In step SE14, max [n] = j, min [n + 1] =
It is set as j + 1. It should be noted that max [n] is the position of the rightmost window row in which there is a possibility that the (n-1) th object candidate exists from the left side of the image information.

【0062】この場合は、j=9であるのでmax
In this case, since j = 9, max

〔0〕=9,min〔1〕=10となる。また、ステッ
プSE1で、初期値としてmin
[0] = 9, min [1] = 10. In step SE1, the initial value is min

〔0〕=0と設定され
ているので、左側から数えて最初の(即ちn=0番目
の)物体候補が、j=0からj=9までの間のウインド
ゥ列に存在する可能性があることを示し、次の2番目
(n=1)の物体候補がj=10以降のウインドゥ列に
存在する可能性があることを示している。
Since [0] = 0 is set, the first (ie, n = 0) th object candidate counting from the left side may be present in the window sequence between j = 0 and j = 9. This indicates that the next second (n = 1) object candidate may exist in the window sequence after j = 10.

【0063】この後ステップSE15でn=n+1と設
定され、nが1つ加算される(n=1)。そして、次に
ステップSE10に進んで、jが1つ加算されてj=1
0となり、ステップSE11からステップSE2に戻
り、上述したような処理を繰り返すのである。ところ
で、上述の距離データbが6mの場合にはどうなるかを
説明する。b=6mだとすると、閾値Ws=5となる。
したがって、上記のループを4度回ってk=5となった
後、ステップSE9でc:data〔10〕=cである
ので、ステップSE10へ進む。
Thereafter, at step SE15, n = n + 1 is set, and n is incremented by 1 (n = 1). Then, in step SE10, j is incremented by 1 and j = 1.
The value becomes 0, the process returns from step SE11 to step SE2, and the above-described processing is repeated. By the way, what happens when the distance data b is 6 m will be described. If b = 6 m, the threshold value Ws = 5.
Therefore, after the above loop is rotated 4 times and k = 5 is reached, since c: data [10] = c in step SE9, the process proceeds to step SE10.

【0064】したがって、maxTherefore, max

〔0〕は決まらなくな
り、j=5+1=6としてステップSE2に戻りmax
[0] cannot be decided, j = 5 + 1 = 6 is set, and the process returns to step SE2 to max.

〔0〕を引き続き検索する。以上のような処理をj>1
7又はj+k>17になるまで続け、最終的にn=(物
体数−1),min〔0〜n〕,max〔0〜n〕が得
られ、ステップSE8の物体(ここでは障害物としてい
る)までの距離の算出の処理に移るのである。
Continue searching for [0]. The above processing is performed as j> 1.
7 or j + k> 17 until n = (number of objects-1), min [0-n], max [0-n] is finally obtained, and the object in step SE8 (here, it is an obstacle) ) To the calculation of the distance.

【0065】次に、物体までの距離の算出処理につい
て、説明する。まず、上述のウインドゥ間横方向処理で
得られた、物体存在可能性の左端位置min
Next, the process of calculating the distance to the object will be described. First, the left end position min of the object existence possibility obtained by the above-described horizontal processing between windows.

〔0〕,右
端位置max
[0], right end position max

〔0〕の間で、2番目に小さい距離データ
を見つけだし、その距離データに近いウインドゥ距離デ
ータのみを有効データとして取り出す。
In [0], the second smallest distance data is found, and only window distance data close to the distance data is taken out as valid data.

【0066】そして、上述の有効データの左端ウインド
ゥ及び右端ウインドゥを物体の左右端と見なす。
Then, the left end window and the right end window of the above valid data are regarded as the left and right ends of the object.

【0067】ここで、minWhere min

〔0〕とmax[0] and max

〔0〕との
間で2番目に小さい距離データを探す理由は、ノイズ除
去のためである。物体の距離は、物体の左右端の様に縦
エッジが明確にあるところでは、正確に得られるが、こ
の左右の縦エッジの間では、誤測距が発生する可能性も
ある。したがって、2番目に小さいデータを利用するこ
とにより、物体の左右端のどちらか一方のデータに誤測
距があった場合でも、これを除去し、正確な距離データ
を得ることができるようにしている。
The reason for searching for the second smallest distance data with respect to [0] is to remove noise. The distance of the object can be accurately obtained where there is a clear vertical edge such as the left and right ends of the object, but erroneous distance measurement may occur between the left and right vertical edges. Therefore, by using the second smallest data, it is possible to obtain accurate distance data even if there is an erroneous distance measurement in either one of the left and right data of the object. There is.

【0068】また、minAlso, min

〔0〕,max[0], max

〔0〕の間で
測距データが1つしか得られない場合は、このデータを
ノイズと見なして無視する。以上の処理を物体の数(n
−1)分繰り返す。つまり、次にはmin〔1〕,ma
x〔1〕の間で、2番目に小さい距離データを見つけ
て、以下、上述と同様の処理が繰り返されるのである。
When only one distance measurement data is obtained during [0], this data is regarded as noise and ignored. The above processing is performed by the number of objects (n
-1) Repeat for minutes. That is, next, min [1], ma
The second smallest distance data is found in x [1], and the same processing as described above is repeated thereafter.

【0069】このような物体距離の算出処理をフローチ
ャートに示すと、図12のようになる。まず、ステップ
SF1でcnt1=0と設定される。次にステップSF
2に進んでcnt1>nかどうかが判定される。ここで
は、ステップSF1でcnt1=0と設定された直後で
あるので、NoルートによりステップSF3に進む。
FIG. 12 is a flow chart showing the calculation processing of such an object distance. First, in step SF1, cnt1 = 0 is set. Next step SF
The routine proceeds to 2 and it is determined whether or not cnt1> n. Here, since it is immediately after setting cnt1 = 0 in step SF1, the process proceeds to step SF3 by No route.

【0070】そして、ステップSF3では、min
〔n〕〜max〔n〕のウインドゥ列内に測距データが
2個以上あるかどうかが判断される。もし、測距データ
が2個未満であれば、Noルートを通ってステップSF
15に進み、ここでcnt1=cnt1+1と設定され
てステップSF2に戻る。また、測距データが2個以上
あれば、ステップSF4に進み、min〔n〕〜max
〔n〕のウインドゥ列の中で、2番目に小さい測距デー
タをobst:data〔n〕と設定し、ステップSF
5に進む。
Then, in step SF3, min
It is determined whether or not there are two or more distance measurement data in the window sequence of [n] to max [n]. If there are less than two pieces of distance measurement data, go through the No route to step SF
The process proceeds to step 15, where cnt1 = cnt1 + 1 is set, and the process returns to step SF2. If there are two or more pieces of distance measurement data, the process proceeds to step SF4 and min [n] -max
In the window sequence of [n], the second smallest distance measurement data is set as obst: data [n], and step SF
Go to 5.

【0071】そして、ステップSF5においてcnt2
=min〔n〕と設定される。つま、り物体存在可能性
の左端のウインドゥ列番号がcnt2と設定されるので
ある。次にステップSF6に進んで、下式(6)及び
(7)により、obst:data〔n〕の値がc:d
ata〔cnt2〕に近いデータかどうかが判定され
る。 obst:data〔n〕<k3 ×c:data〔cnt2〕 ・・(7) and obst:data〔n〕>k4 ×c:data〔cnt2〕 ・・(8) (ただし、k4 <k3 ) ここで、k3 ,k4 は、距離データのばらつき度合いに
より設定される固定値である。
Then, in step SF5, cnt2
= Min [n] is set. In other words, the window sequence number at the left end of the possibility of existence of a bite object is set to cnt2. Next, in step SF6, the value of obst: data [n] is changed to c: d by the following equations (6) and (7).
It is determined whether the data is close to ata [cnt2]. obst: data [n] <k 3 × c: data [cnt2] ··· (7) and obst: data [n]> k 4 × c: data [cnt2] ·· (8) (however, k 4 <k 3 ) Here, k 3 and k 4 are fixed values set by the degree of dispersion of the distance data.

【0072】つまり、min〔n〕〜max〔n〕のウ
インドゥ列の中で2番目に小さい測距データが、物体存
在可能性の左端測距データに近いかどうかが判定される
のである。ここで、この2番目に小さい測距データが左
端測距データに近い値でないと判断されると、ステップ
SF7に進んでcnt2=cnt2+1と設定され、再
びステップSF6に進む。そして、ステップSF6の式
(6),(7)が成り立つまで、ステップSF6,ステ
ップSF7のルーチンを繰り返す。この間ステップSF
7でcnt2の値が1ずつ増加していくので、この処理
は、2番目に小さい測距データとの比較を、図3に示す
ウインドゥ列の左側から順次行なっているのである。
That is, it is determined whether or not the second smallest distance measurement data in the window sequence of min [n] to max [n] is close to the left edge distance measurement data of the possibility of existence of an object. If it is determined that the second smallest distance measurement data is not close to the left end distance measurement data, the process proceeds to step SF7, cnt2 = cnt2 + 1 is set, and the process proceeds to step SF6 again. Then, the routines of step SF6 and step SF7 are repeated until the expressions (6) and (7) of step SF6 are satisfied. During this period step SF
Since the value of cnt2 is incremented by 1 at 7, this process sequentially compares the distance measurement data with the second smallest one from the left side of the window sequence shown in FIG.

【0073】ステップSF6で式(6),(7)が成り
立つと、次にステップSF8に進んで、min:win
〔n〕=cnt2と設定される。そして、ステップSF
9で新たにmax〔n〕をcnt2と設定し、ステップ
SF10で、obst:data〔n〕の値がc:da
ta〔cnt2〕に近いデータかどうかが判定される。
When equations (6) and (7) are established in step SF6, the process proceeds to step SF8, where min: win
[N] = cnt2 is set. And step SF
In step 9, max [n] is newly set to cnt2, and in step SF10, the value of obst: data [n] is c: da.
It is determined whether the data is close to ta [cnt2].

【0074】つまり、ここでは、2番目に小さい測距デ
ータが、物体存在可能性の右端測距データに近い値かど
うかが判定されるのである。ここで、この2番目に小さ
い測距データが右端測距データに近い値でないと判断さ
れると、ステップSF11に進んでcnt2=cnt2
−1と設定され、再びステップSF10に戻る。そし
て、ステップSF10の条件式〔ステップSF6内の式
(6),(7)と同じ〕が成り立つまで、ステップSF
10,ステップSF11のルーチンを繰り返す。
That is, here, it is determined whether or not the second smallest distance measurement data is a value close to the right edge distance measurement data of the possibility of object existence. If it is determined that the second smallest distance measurement data is not close to the right edge distance measurement data, the process proceeds to step SF11 and cnt2 = cnt2.
-1 is set, and the process returns to step SF10 again. Then, until the conditional expression of step SF10 [same as expressions (6) and (7) in step SF6] is satisfied, step SF
10. The routine of step SF11 is repeated.

【0075】このルーチンを繰り返す間に、ステップS
F11においてcnt2の値が1ずつ減算されていくの
で、この処理は、2番目に小さい測距データとの比較
を、図3に示すウインドゥ列の右側から順次行なってい
ることになる。そして、ステップSF10の条件が成り
立つと、ステップSF12に進み、このステップSF1
2において、このときのcnt2をmax:win
〔n〕と置く。
While repeating this routine, step S
Since the value of cnt2 is decremented by 1 in F11, this processing means that the comparison with the second smallest distance measurement data is sequentially performed from the right side of the window sequence shown in FIG. When the condition of step SF10 is satisfied, the process proceeds to step SF12, and this step SF1
2, cnt2 at this time is max: win
Put [n].

【0076】次にステップSF13に進んで、ステップ
SF8で設定されたmin:win〔n〕と上記ma
x:win〔n〕とが等しいかどうかが判定される。m
in:win〔n〕=max:win〔n〕の時は、Y
esルートを通ってステップSF14に進む。そして、
ステップSF14で、min:win〔n〕とmax:
win〔n〕との測距データを0に設定して、このデー
タを削除した後、ステップSF15に進む。これは、m
in:win〔n〕=max:win〔n〕が成り立つ
時は、左側から検索した縦エッジと右側から検索した縦
エッジとの測距データが等しい場合であり、このような
棒状の距離データをノイズとして消去しているのであ
る。
Next, in step SF13, the min: win [n] set in step SF8 and the above ma are set.
It is determined whether x: win [n] is equal. m
When in: win [n] = max: win [n], Y
Go to step SF14 through the es route. And
In step SF14, min: win [n] and max:
After setting the distance measurement data with win [n] to 0 and deleting this data, the process proceeds to step SF15. This is m
When in: win [n] = max: win [n] is satisfied, it means that the vertical edge searched from the left side and the vertical edge searched from the right side have the same distance measurement data. It is erased as noise.

【0077】また、ステップSF13でmin:win
〔n〕≠max:win〔n〕の時は、ステップSF1
5に進む。そして、このステップSF15で、cnt1
が1つ加算されて、ステップSF2に戻る。以降、ステ
ップSF2でcnt1>nとなるまでは、ステップSF
2からステップSF15のルーチンを繰り返す。
In step SF13, min: win
When [n] ≠ max: win [n], step SF1
Go to 5. Then, in this step SF15, cnt1
Is incremented by one and the process returns to step SF2. Thereafter, step SF2 is performed until cnt1> n in step SF2.
The routine from step 2 to step SF15 is repeated.

【0078】そして、ステップSF2でcnt1>nの
とき、Yesルートを通って物体の距離算出処理が終了
する。なお、本装置では物体が重なり合っている場合に
は、近い距離の物体のみが認識される。但し、距離デー
タは得られているので、物体が存在していることは判断
できるのである。
When cnt1> n in step SF2, the distance calculation process of the object is completed through the Yes route. It should be noted that in the present apparatus, when objects overlap each other, only objects at a short distance are recognized. However, since the distance data is obtained, it can be determined that the object exists.

【0079】本発明の一実施例としての車両用路上物体
認識装置は、上述のように構成されているので、車両1
に設置された横置きステレオカメラ2により走行路面上
が撮影されると、この横置きステレオカメラ2からの画
像情報は、物体認識手段5の前方測距コントローラ3に
取り込まれるようになっている。そして、この前方測距
コントローラ3でステレオカメラ2により撮像された画
面がエリアI〜III に分割されるとともに、さらに各エ
リアI〜III 内が細かなウインドゥに分割される。
Since the on-vehicle object recognition device for a vehicle as one embodiment of the present invention is constructed as described above, the vehicle 1
When the laterally mounted stereo camera 2 photographs the traveling road surface, the image information from the laterally mounted stereo camera 2 is taken into the front distance measurement controller 3 of the object recognition means 5. Then, the screen imaged by the stereo camera 2 by the front distance measuring controller 3 is divided into areas I to III, and the areas I to III are further divided into fine windows.

【0080】そして、エッジ認識手段10で、ステレオ
カメラ2からの画像情報に基づいて、各ウインドゥ列毎
に、縦エッジ部分を認識して、この縦エッジ部分までの
距離が測定され、これらの情報がデュアルポートRAM
4を介してコンピュータ6に入力される。そして、この
コンピュータ6のレンジ対応物体データ除外手段8によ
り、ステレオカメラ2で撮像された被写体を物体又は物
体候補として認識するか、この被写体を物体でないもの
として物体データから除外する処理が行なわれる。
Then, the edge recognition means 10 recognizes the vertical edge portion for each window row based on the image information from the stereo camera 2 and measures the distance to this vertical edge portion. Has dual port RAM
It is input to the computer 6 via 4. Then, the range corresponding object data excluding means 8 of the computer 6 recognizes the subject imaged by the stereo camera 2 as an object or an object candidate, or excludes the subject from the object data as a non-object.

【0081】この後、物体推定手段11において、前述
のエッジ認識手段10の認識情報に基づいて、画像情報
の各ウインドゥ列単位で、縦エッジ部分が存在する際に
はその距離を追跡して、予め設定された左右の離隔範囲
内のウインドゥ列間に、縦エッジが一対存在し、且つこ
の対をなす各縦エッジ部分までの距離がほぼ等しい場合
に、この対をなす各縦エッジ部分で規定される領域に、
この縦エッジ部分までの距離だけ離れて物体が存在して
いると推定する。
After that, in the object estimating means 11, the distances of the vertical edge portions, if any, are tracked for each window row unit of the image information based on the recognition information of the above-mentioned edge recognizing means 10, If there is a pair of vertical edges between the window rows within the preset left and right separation range, and if the distance to each vertical edge portion of this pair is approximately equal, then the vertical edge portion of this pair defines In the area
It is estimated that an object exists at a distance to the vertical edge portion.

【0082】したがって、路面上の文字や白線等を画像
データから除去することができ、物体の距離や位置を認
識することができる。また、縦エッジが、設定された画
像範囲内に1つしか表れない場合に、この縦エッジがノ
イズとして消去されるので、より正確な物体認識を行な
うことができるのである。
Therefore, it is possible to remove the characters and white lines on the road surface from the image data, and to recognize the distance and position of the object. Further, when only one vertical edge appears in the set image range, this vertical edge is erased as noise, so that more accurate object recognition can be performed.

【0083】また、前方測距コントローラ3によりステ
レオカメラ2により撮像された画面をエリアI〜III に
分割し、各エリアI〜III 毎に処理を行なうことで物体
認識を迅速に行なうことができる。さらに、各エリアI
〜III をほぼ同等の大きさに分割することにより、ほぼ
同様な小型の処理系を3つ用いて処理を行なうことがで
きる。
Further, by dividing the screen imaged by the stereo camera 2 by the front distance measuring controller 3 into areas I to III and performing the processing for each of the areas I to III, it is possible to quickly recognize the object. Furthermore, each area I
By dividing ~ III into substantially equal sizes, it is possible to perform processing by using three similar processing systems of small size.

【0084】[0084]

【発明の効果】以上詳述したように、請求項1記載の本
発明の車両用路上物体認識装置によれば、車両の走行路
面上を撮影する横置きステレオカメラと、該横置きステ
レオカメラにより得られる画像情報に基づいて、該走行
路面上の物体を認識する物体認識手段とをそなえ、該物
体認識手段が、該横置きステレオカメラにより得られる
撮影画面を上下方向に複数の行レンジに分割し左右方向
に複数の列に分割することで多数のウインドゥに区画し
た上で、該横置きステレオカメラの左右2つのカメラの
各画像情報から、上記の各ウインドゥ毎に、被写体まで
の距離を測定する距離測定手段と、上記の各行レンジ毎
に決まるレンジ対応基準距離と該距離測定手段で検出さ
れた被写体までの距離とを比較して、該被写体までの距
離が該レンジ対応基準距離以内であればこの被写体を物
体又は物体候補として認識し、該被写体までの距離が該
レンジ対応基準距離よりも大きければこの被写体につい
ては物体でないものとして物体データから除外する、レ
ンジ対応物体データ除外手段とをそなえているという構
成により、路面上の文字や白線等を画像データから除去
することができ、物体の距離や位置を正しく認識するこ
とができる。
As described in detail above, according to the on-vehicle object recognition device for a vehicle of the first aspect of the present invention, the horizontal stereo camera for photographing the traveling road surface of the vehicle and the horizontal stereo camera are used. An object recognition means for recognizing an object on the traveling road surface based on the obtained image information, and the object recognition means divides a photographing screen obtained by the horizontal stereo camera into a plurality of line ranges in the vertical direction. After dividing into multiple windows by dividing into multiple rows in the left-right direction, measure the distance to the subject for each of the above windows from the image information of the left and right two cameras of the horizontal stereo camera Distance measuring means and the range-corresponding reference distance determined for each row range and the distance to the subject detected by the distance measuring means are compared, and the distance to the subject corresponds to the range. If the object is within the quasi-distance, the object is recognized as an object or an object candidate, and if the distance to the object is larger than the reference distance corresponding to the range, the object is excluded from the object data as being not an object. With the configuration including the excluding means, it is possible to remove characters and white lines on the road surface from the image data, and correctly recognize the distance and position of the object.

【0085】また、請求項2記載の本発明の車両用路上
物体認識装置によれば、上記請求項1記載の構成に加え
て、該距離測定手段が、該横置きステレオカメラの左右
の画像情報から得られる同一被写体の左右方向へのずれ
量に基づいて、被写体までの距離を測定するという構成
により、被写体までの距離を簡単に測定することができ
る。
According to the on-vehicle object recognizing device for a vehicle of the second aspect, in addition to the configuration of the first aspect, the distance measuring means has left and right image information of the horizontal stereo camera. The distance to the subject can be easily measured by the configuration in which the distance to the subject is measured based on the shift amount of the same subject in the left-right direction obtained from the above.

【0086】また、請求項3記載の本発明の車両用路上
物体認識装置によれば、上記請求項2記載の構成に加え
て、該距離測定手段が、該被写体までの距離Rを、該左
右の2つのカメラのレンズの焦点距離fと、該左右2つ
のカメラの光軸間の距離Lと、画像の画素ピッチPと、
左右の画像が整合するまでに左右どちらか一方の画像を
シフトした画素数nと、に基づいて、R=(f・L)/
(n・P)の式により算出するという構成により、被写
体までの距離を簡単、且つ正確に測定することができ
る。
Further, according to the on-vehicle object recognizing device for a vehicle of the third aspect, in addition to the configuration of the second aspect, the distance measuring means determines the distance R to the subject from the left and right sides. The focal lengths f of the lenses of the two cameras, the distance L between the optical axes of the two left and right cameras, and the pixel pitch P of the image,
Based on the number of pixels n obtained by shifting one of the left and right images until the left and right images match, R = (f · L) /
With the configuration of (n · P), the distance to the subject can be measured easily and accurately.

【0087】また、請求項4記載の本発明の車両用路上
物体認識装置によれば、上記請求項1記載の構成に加え
て、該物体認識手段の処理対称とする画像領域が、該車
両から遠い部分では左右の端部領域を除去されて左右方
向の中央部の領域のみに限定されるという構成により、
物体認識が必要ではない部分では、画像処理が行なわれ
ず、画像処理の情報量を必要最小限にすることができ
る。これにより、必要な部分での画像処理を素早く行な
うことができる。
According to the on-vehicle object recognizing device for a vehicle of the present invention, the image area to be processed symmetrically by the object recognizing means can be seen from the vehicle in addition to the structure of the first aspect. With the configuration that the left and right end regions are removed in the distant part and it is limited to only the central region in the left and right direction,
The image processing is not performed in the portion where the object recognition is not necessary, and the information amount of the image processing can be minimized. As a result, it is possible to quickly perform image processing in a necessary part.

【0088】また、請求項5記載の本発明の車両用路上
物体認識装置によれば、上記請求項4記載の構成に加え
て、該物体認識手段が、処理対象とする画像領域を、該
車両から遠い部分で左右の端部領域を除去された左右方
向の中央部分に相当する第1の画像領域と、該車両から
近い部分の左半部分に相当する第2の画像領域と、該車
両から近い部分の右半部分に相当する第3の画像領域
と、に区分して、画像処理を行なうという構成により、
全体の画像処理領域を略同じ大きさの3つの領域に区分
でき、それぞれの画像領域毎に画像処理を行なうことに
より、全体が広い画像領域であっても画像処理を素早く
行なうことができる。
According to the on-vehicle object recognition device for a vehicle of the fifth aspect of the present invention, in addition to the configuration of the fourth aspect, the object recognition means defines the image area to be processed by the vehicle. From the vehicle, a first image area corresponding to the central portion in the left-right direction in which the left and right end areas are removed at a portion far from the vehicle, a second image area corresponding to the left half portion near the vehicle, and the vehicle. With the configuration in which the image processing is performed by dividing into a third image area corresponding to the right half portion of the near portion,
The entire image processing area can be divided into three areas having substantially the same size, and by performing image processing for each image area, it is possible to quickly perform image processing even if the entire image processing area is large.

【0089】また、請求項6記載の本発明の車両用路上
物体認識装置によれば、上記請求項1記載の構成に加え
て、該レンジ対応基準距離が、各レンジの最下部に映し
出されるべき該走行路の部分までの距離であるという構
成により、路面上の白線,文字等を物体として誤認識す
ることがなくなり、より正確な物体認識を行なうことが
できる。
According to the on-vehicle object recognizing device for a vehicle of the sixth aspect of the invention, in addition to the configuration of the first aspect, the reference distance corresponding to the range should be displayed at the bottom of each range. With the configuration of the distance to the portion of the traveling road, white lines, characters, etc. on the road surface are not erroneously recognized as objects, and more accurate object recognition can be performed.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例としての車両用路上物体認識
装置における全体構成を示す模式的なブロック図であ
る。
FIG. 1 is a schematic block diagram showing an overall configuration of a vehicle road object recognition device as an embodiment of the present invention.

【図2】本発明の一実施例としての車両用路上物体認識
装置における画像情報処理の概要を説明するためのアル
ゴリズムである。
FIG. 2 is an algorithm for explaining an outline of image information processing in the on-road object recognizing device for a vehicle as one embodiment of the present invention.

【図3】本発明の一実施例としての車両用路上物体認識
装置における処理画像を示す模式図である。
FIG. 3 is a schematic diagram showing a processed image in the on-vehicle object recognizing device for a vehicle as an embodiment of the present invention.

【図4】本発明の一実施例としての車両用路上物体認識
装置における作用を説明するためのフローチャートであ
って不正確データを削除するための処理について説明す
るためのフローチャートである。
FIG. 4 is a flowchart for explaining the operation of the on-road object recognizing device for a vehicle as one embodiment of the present invention, which is a flowchart for explaining a process for deleting inaccurate data.

【図5】本発明の一実施例としての車両用路上物体認識
装置における作用を説明するためのフローチャートであ
ってレンジカット処理について説明するためのフローチ
ャートである。
FIG. 5 is a flowchart for explaining the operation in the on-road object recognizing device for a vehicle as one embodiment of the present invention, which is a flowchart for explaining range cut processing.

【図6】本発明の一実施例としての車両用路上物体認識
装置におけるレンジカット処理について説明するための
模式図である。
FIG. 6 is a schematic diagram for explaining range cut processing in a vehicle road object recognition device as one embodiment of the present invention.

【図7】本発明の一実施例としての車両用路上物体認識
装置における作用を説明するためのフローチャートであ
ってウインドゥ間の縦方向処理について説明するための
フローチャートである。
FIG. 7 is a flowchart for explaining the operation of the on-vehicle object recognizing device for a vehicle as one embodiment of the present invention, which is a flowchart for explaining a vertical direction process between windows.

【図8】本発明の一実施例としての車両用路上物体認識
装置における作用を説明するためのフローチャートであ
ってウインドゥ間の横方向処理について説明するための
フローチャートである。
FIG. 8 is a flowchart for explaining the operation of the on-vehicle object recognizing device for a vehicle as one embodiment of the present invention, which is a flowchart for explaining lateral processing between windows.

【図9】本発明の一実施例としての車両用路上物体認識
装置におけるウインドゥ間の横方向処理についての処理
画像の一例を示す模式図である。
FIG. 9 is a schematic diagram showing an example of a processed image for lateral processing between windows in the vehicle road object recognition device as one embodiment of the present invention.

【図10】本発明の一実施例としての車両用路上物体認
識装置におけるウインドゥ間の横方向処理についての処
理画像の一例を示す模式図である。
FIG. 10 is a schematic diagram showing an example of a processed image for lateral processing between windows in the vehicle road object recognition device as one embodiment of the present invention.

【図11】本発明の一実施例としての車両用路上物体認
識装置におけるウインドゥ間の横方向処理についての処
理画像の一例を示す模式図である。
FIG. 11 is a schematic diagram showing an example of a processed image of lateral processing between windows in the vehicle road object recognition device as one embodiment of the present invention.

【図12】本発明の一実施例としての車両用路上物体認
識装置における作用を説明するためのフローチャートで
あって物体までの距離の算出処理について説明するため
のフローチャートである。
FIG. 12 is a flowchart for explaining the operation of the on-road object recognizing device for a vehicle as an embodiment of the present invention, and is a flowchart for explaining a process of calculating a distance to an object.

【図13】本発明の一実施例としての車両用路上物体認
識装置における横置きステレオカメラ(CCDカメラ)
の外観を示す模式図である。
FIG. 13 is a horizontal stereo camera (CCD camera) in a vehicle on-road object recognition apparatus according to an embodiment of the present invention.
It is a schematic diagram which shows the external appearance.

【図14】本発明の一実施例としての車両用路上物体認
識装置における横置きステレオカメラ(CCDカメラ)
により撮像された画像を示す模式図であって(a)はそ
の横置きステレオカメラの左側のカメラで撮像された車
両を示す図(b)はその横置きステレオカメラの右側の
カメラで撮像された車両を示す図である。
FIG. 14 is a horizontal stereo camera (CCD camera) in a vehicle on-road object recognition apparatus according to an embodiment of the present invention.
FIG. 6A is a schematic diagram showing an image taken by the camera, and FIG. 8A is a diagram showing a vehicle taken by a camera on the left side of the horizontal stereo camera, and FIG. 8B is an image taken by a camera on the right side of the horizontal stereo camera. It is a figure which shows a vehicle.

【図15】本発明の一実施例としての車両用路上物体認
識装置における横置きステレオカメラ(CCDカメラ)
の左右の画像から物体までの距離の算出を説明するため
の図である。
FIG. 15 is a horizontal stereo camera (CCD camera) in the on-road object recognition device for a vehicle according to an embodiment of the present invention.
It is a figure for demonstrating calculation of the distance to the object from the image on either side of.

【符号の説明】[Explanation of symbols]

1 車両 2 横置きステレオカメラ(CCDカメラ) 2L 左側カメラ 2R 右側カメラ 3 前方測距コントローラ 4 デュアルポートRAM 5 物体認識手段 6 コンピュータ 7 距離測定手段 8 レンジ対応物体データ除外手段 9 物体(障害物) 10 エッジ認識手段 11 物体推定手段 1 Vehicle 2 Horizontal Stereo Camera (CCD Camera) 2L Left Camera 2R Right Camera 3 Forward Distance Controller 4 Dual Port RAM 5 Object Recognition Means 6 Computer 7 Distance Measuring Means 8 Range Compatible Object Data Excluding Means 9 Objects (Obstacles) 10 Edge recognition means 11 Object estimation means

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 H04N 7/18 D // G05D 1/02 K (72)発明者 早舩 一弥 東京都港区芝五丁目33番8号 三菱自動車 工業株式会社内 (72)発明者 山田 喜一 東京都港区芝五丁目33番8号 三菱自動車 工業株式会社内─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location H04N 7/18 D // G05D 1/02 K (72) Inventor Kazuya Hayafune Shibago, Minato-ku, Tokyo 33-8, Mitsubishi Motors Co., Ltd. (72) Inventor, Kiichi Yamada 5-33-8, Shiba, Minato-ku, Tokyo Inside Mitsubishi Motors Co., Ltd.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 車両の走行路面上を撮影する横置きステ
レオカメラと、 該横置きステレオカメラにより得られる画像情報に基づ
いて、該走行路面上の物体を認識する物体認識手段とを
そなえ、 該物体認識手段が、 該横置きステレオカメラにより得られる撮影画面を上下
方向に複数の行レンジに分割し左右方向に複数の列に分
割することで多数のウインドゥに区画した上で、該横置
きステレオカメラの左右2つのカメラの各画像情報か
ら、上記の各ウインドゥ毎に、被写体までの距離を測定
する距離測定手段と、 上記の各行レンジ毎に決まるレンジ対応基準距離と該距
離測定手段で検出された被写体までの距離とを比較し
て、該被写体までの距離が該レンジ対応基準距離以内で
あればこの被写体を物体又は物体候補として認識し、該
被写体までの距離が該レンジ対応基準距離よりも大きけ
ればこの被写体については物体でないものとして物体デ
ータから除外する、レンジ対応物体データ除外手段とを
そなえていることを特徴とする、車両用路上物体認識装
置。
1. A horizontal stereo camera for photographing the traveling road surface of a vehicle, and an object recognizing means for recognizing an object on the traveling road surface based on image information obtained by the lateral stereo camera. The object recognition means divides the photographic screen obtained by the horizontal stereo camera into a plurality of row ranges in the vertical direction and a plurality of columns in the horizontal direction to divide the screen into a large number of windows, and then the horizontal stereo system. From each image information of the two cameras on the left and right of the camera, the distance measuring means for measuring the distance to the subject for each of the above windows, the reference distance corresponding to the range determined for each row range, and the distance measuring means are detected. If the distance to the subject is within the range-corresponding reference distance, the subject is recognized as an object or an object candidate, and the object is detected. If the distance is greater than the range corresponding reference distance for the object to exclude from the object data as not object, range characterized in that it includes a corresponding object data eliminating means, vehicle road object recognition device.
【請求項2】 該距離測定手段が、該横置きステレオカ
メラの左右の画像情報から得られる同一被写体の左右方
向へのずれ量に基づいて、被写体までの距離を測定する
ことを特徴とする、請求項1記載の車両用路上物体認識
装置。
2. The distance measuring means measures the distance to the subject based on a shift amount in the left-right direction of the same subject obtained from left and right image information of the horizontal stereo camera. The vehicle on-road object recognition device according to claim 1.
【請求項3】 該距離測定手段が、該被写体までの距離
Rを、該左右の2つのカメラのレンズの焦点距離fと、
該左右2つのカメラの光軸間の距離Lと、画像の画素ピ
ッチPと、左右の画像が整合するまでに左右どちらか一
方の画像をシフトした画素数nと、に基づいて、R=
(f・L)/(n・P)の式により算出することを特徴
とする、請求項2記載の車両用路上物体認識装置。
3. The distance measuring means sets the distance R to the subject to the focal lengths f of the lenses of the left and right two cameras,
Based on the distance L between the optical axes of the two left and right cameras, the pixel pitch P of the images, and the number of pixels n in which one of the left and right images is shifted until the left and right images match, R =
The on-vehicle object recognizing device for a vehicle according to claim 2, which is calculated by the formula (fL) / (nP).
【請求項4】 該物体認識手段の処理対称とする画像領
域が、該車両から遠い部分では左右の端部領域を除去さ
れて左右方向の中央部の領域のみに限定されていること
を特徴とする、請求項1記載の車両用路上物体認識装
置。
4. The image region which is the processing symmetry of the object recognizing means is limited to only the central region in the left-right direction by removing the left and right end regions in the portion far from the vehicle. The roadside object recognition device for a vehicle according to claim 1.
【請求項5】 該物体認識手段が、処理対象とする画像
領域を、該車両から遠い部分で左右の端部領域を除去さ
れた左右方向の中央部分に相当する第1の画像領域と、
該車両から近い部分の左半部分に相当する第2の画像領
域と、該車両から近い部分の右半部分に相当する第3の
画像領域と、に区分して、画像処理を行なうことを特徴
とする、請求項4記載の車両用路上物体認識装置。
5. A first image area corresponding to a central portion in the left-right direction in which the object recognition means processes an image area to be processed, the left and right end areas being removed from a portion far from the vehicle,
Image processing is performed by dividing into a second image area corresponding to a left half portion of a portion near the vehicle and a third image area corresponding to a right half portion of a portion near the vehicle. The roadside object recognition device for a vehicle according to claim 4.
【請求項6】 該レンジ対応基準距離が、各レンジの最
下部に映し出されるべき該走行路の部分までの距離であ
ることを特徴とする、請求項1記載の車両用路上物体認
識装置。
6. The on-vehicle object recognizing apparatus for a vehicle according to claim 1, wherein the range-corresponding reference distance is a distance to a portion of the traveling road to be displayed at the bottom of each range.
JP6017698A 1994-02-14 1994-02-14 On-road object recognizing device for vehicle Withdrawn JPH07225126A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6017698A JPH07225126A (en) 1994-02-14 1994-02-14 On-road object recognizing device for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6017698A JPH07225126A (en) 1994-02-14 1994-02-14 On-road object recognizing device for vehicle

Publications (1)

Publication Number Publication Date
JPH07225126A true JPH07225126A (en) 1995-08-22

Family

ID=11951023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6017698A Withdrawn JPH07225126A (en) 1994-02-14 1994-02-14 On-road object recognizing device for vehicle

Country Status (1)

Country Link
JP (1) JPH07225126A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07294251A (en) * 1994-04-22 1995-11-10 Nippon Soken Inc Obstacle detector
JPH10206118A (en) * 1997-01-23 1998-08-07 Naldec Kk Object recognizing device
WO2003015411A1 (en) * 2001-08-06 2003-02-20 Sumitomo Osaka Cement Co.,Ltd. Monitoring system using stereoscopic image and monitoring method
US6658137B1 (en) 1999-04-19 2003-12-02 Honda Giken Kogyo Kabushiki Kaisha Road sensor system
US6775395B2 (en) 2000-03-27 2004-08-10 Honda Giken Kogyo Kabushiki Kaisha Object recognition system
US6963657B1 (en) 1999-09-24 2005-11-08 Honda Giken Kogyo Kabushiki Kaisha Object recognition system
US7277559B2 (en) * 2002-11-19 2007-10-02 Honda Motor Co., Ltd. Mobile apparatus
WO2007129382A1 (en) * 2006-04-28 2007-11-15 Panasonic Corporation Navigation device and method
WO2016063545A1 (en) * 2014-10-24 2016-04-28 京セラ株式会社 Stereo camera apparatus and vehicle provided with stereo camera apparatus
US10180318B2 (en) 2014-05-28 2019-01-15 Kyocera Corporation Stereo camera apparatus, vehicle provided with stereo camera apparatus, and non-transitory recording medium
US10354148B2 (en) 2014-05-28 2019-07-16 Kyocera Corporation Object detection apparatus, vehicle provided with object detection apparatus, and non-transitory recording medium

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07294251A (en) * 1994-04-22 1995-11-10 Nippon Soken Inc Obstacle detector
JPH10206118A (en) * 1997-01-23 1998-08-07 Naldec Kk Object recognizing device
US6658137B1 (en) 1999-04-19 2003-12-02 Honda Giken Kogyo Kabushiki Kaisha Road sensor system
US6963657B1 (en) 1999-09-24 2005-11-08 Honda Giken Kogyo Kabushiki Kaisha Object recognition system
US6775395B2 (en) 2000-03-27 2004-08-10 Honda Giken Kogyo Kabushiki Kaisha Object recognition system
WO2003015411A1 (en) * 2001-08-06 2003-02-20 Sumitomo Osaka Cement Co.,Ltd. Monitoring system using stereoscopic image and monitoring method
US7277559B2 (en) * 2002-11-19 2007-10-02 Honda Motor Co., Ltd. Mobile apparatus
WO2007129382A1 (en) * 2006-04-28 2007-11-15 Panasonic Corporation Navigation device and method
US8103442B2 (en) 2006-04-28 2012-01-24 Panasonic Corporation Navigation device and its method
US10180318B2 (en) 2014-05-28 2019-01-15 Kyocera Corporation Stereo camera apparatus, vehicle provided with stereo camera apparatus, and non-transitory recording medium
US10354148B2 (en) 2014-05-28 2019-07-16 Kyocera Corporation Object detection apparatus, vehicle provided with object detection apparatus, and non-transitory recording medium
WO2016063545A1 (en) * 2014-10-24 2016-04-28 京セラ株式会社 Stereo camera apparatus and vehicle provided with stereo camera apparatus
JPWO2016063545A1 (en) * 2014-10-24 2017-06-29 京セラ株式会社 Stereo camera device and vehicle equipped with stereo camera device
US10595003B2 (en) 2014-10-24 2020-03-17 Kyocera Corporation Stereo camera apparatus and vehicle comprising the same

Similar Documents

Publication Publication Date Title
JP3169483B2 (en) Road environment recognition device
US11670087B2 (en) Training data generating method for image processing, image processing method, and devices thereof
US8406472B2 (en) Method and system for processing image data
JPH09319872A (en) Road white line detector, curvature radium calculator, and navigation device
JPH06107096A (en) Forward monitoring method for vehicle
JP2015207281A (en) Solid detector, solid detection method, solid detection program, and mobile body equipment control system
JP3562751B2 (en) Forward vehicle detection method and device
JP2002352225A (en) Obstacle detector and its method
JP2000357233A (en) Body recognition device
JP2003067752A (en) Vehicle periphery monitoring device
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
JP4407920B2 (en) Obstacle recognition method and obstacle recognition device
JP2009053818A (en) Image processor and method thereof
JP2003123197A (en) Recognition device for road mark or the like
JP3961584B2 (en) Lane marking detector
JPH07225126A (en) On-road object recognizing device for vehicle
CN111046719A (en) Apparatus and method for converting image
JP2002334330A (en) Vehicle recognition device
JP6548312B2 (en) Image processing device
JP3326988B2 (en) Road environment recognition device
JPH0935198A (en) Traveling road detector for vehicle
JPH07225127A (en) On-road object recognizing device for vehicle
JPH07294251A (en) Obstacle detector
JP2007286724A (en) Onboard information processing method, onboard information processing program, onboard information processor and onboard information processing system
JP3856798B2 (en) Navigation device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010508