JPH06266828A - Outside monitoring device for vehicle - Google Patents

Outside monitoring device for vehicle

Info

Publication number
JPH06266828A
JPH06266828A JP5052591A JP5259193A JPH06266828A JP H06266828 A JPH06266828 A JP H06266828A JP 5052591 A JP5052591 A JP 5052591A JP 5259193 A JP5259193 A JP 5259193A JP H06266828 A JPH06266828 A JP H06266828A
Authority
JP
Japan
Prior art keywords
side wall
data
road
vehicle
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5052591A
Other languages
Japanese (ja)
Other versions
JP3324821B2 (en
Inventor
Keiji Hanawa
圭二 塙
Keiji Saneyoshi
敬二 実吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP05259193A priority Critical patent/JP3324821B2/en
Publication of JPH06266828A publication Critical patent/JPH06266828A/en
Application granted granted Critical
Publication of JP3324821B2 publication Critical patent/JP3324821B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To surely detect a sidewall to be a continuous solid object as a boundary of a road such as a guard rail, a bush, and a pylon string and to detect the existence, position and direction of the sidewall by a data format to be easily processed. CONSTITUTION:A stereoscopic optical system 10 picks up an image of an object existing in a set range on the outside of a vehicle 1 and inputs the image to a stereoscopic image processor 20. The processor 20 processes the image picked up by the optical system 10 and calculates the distance distribution of the whole picture. A road/sidewall detector 100 calculates the three-dimensional positions of respective parts of the object correspondingly to the information of the distance distribution and detects a road shape and a sidewall by a sure and data format to be easily processed based on the information of these three- dimensional positions.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ガイドレール等の道路
の境界となる連続した立体物としての側壁を検出する車
輌用車外監視装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle exterior monitoring device for detecting a side wall as a continuous three-dimensional object which becomes a boundary of a road such as a guide rail.

【0002】[0002]

【従来の技術】人や物を運ぶ手段の1つである自動車等
の車輌は、その利便性と快適性から現代社会においてな
くてはならない存在となっている。そこで、自動車の持
つ優れた点を犠牲にすることなく、自動車の衝突や道路
からの逸脱等の事故発生の危険性を判断したり、これら
の事故を自動的に回避する技術が従来より進められてお
り、自車輌が走行して行く道筋や走行可能な道路の範囲
を認識することが重要な課題の1つとなっている。
2. Description of the Related Art Vehicles such as automobiles, which are one of means for transporting people and goods, have become indispensable in modern society because of their convenience and comfort. Therefore, technology has been developed to determine the risk of accidents such as car collisions and deviations from the road, and to automatically avoid these accidents, without sacrificing the advantages of cars. Therefore, recognizing the route along which the vehicle travels and the range of the road on which the vehicle can travel is one of the important issues.

【0003】道路の形状や走行可能範囲を認識する技術
としては、車輌に搭載したカメラ等の撮像装置により車
外の対象風景を撮像し、この撮像した画像を画像処理す
ることにより、道路上の白線、他の車輌、道路周辺の物
体を検出する技術が開発されており、さらに、道路の形
状や物体までの距離を求める計測技術が開発されてい
る。
As a technique for recognizing the shape of the road and the range in which the vehicle can travel, a white line on the road is obtained by taking an image of a target landscape outside the vehicle with an image pickup device such as a camera mounted on the vehicle and processing the picked-up image. , A technique for detecting an object around another vehicle or a road has been developed, and further, a measurement technique for obtaining a shape of the road and a distance to the object has been developed.

【0004】この画像による認識・計測技術は、単眼視
像からカメラ位置との関係を用いて対象物までの距離を
推定する技術と、複数のカメラにより、あるいは1つの
カメラの位置を変えることにより複数の画像を撮像し、
三角測量の原理で対象物までの距離を求める、いわゆる
ステレオ法による技術とに大別される。
This image recognition / measurement technique is based on a technique of estimating the distance to an object using the relationship between a monocular image and a camera position, and by using a plurality of cameras or changing the position of one camera. Take multiple images,
It is roughly divided into the so-called stereo method, which is the technique of finding the distance to an object based on the principle of triangulation.

【0005】単眼視像による二次元画像から障害物や道
路形状を検出する技術は、種々提案されており、例え
ば、特開平1−242916号公報には、1台のTVカ
メラを車内のフロントウインド中央上部付近に取り付
け、これから得られる画像を用いて、画像中のあるサー
ベイ・ライン上の輝度分布パターンや、二次元的な輝度
分布パターンから障害物や道路の白線を検出し、TVカ
メラの取り付け位置や、方向、視野等のパラメータから
カメラ位置を仮定し、障害物や白線の三次元位置を推定
する技術が開示されている。
Various techniques for detecting obstacles and road shapes from a two-dimensional image by a monocular view have been proposed. For example, in Japanese Patent Laid-Open No. 1-2242916, one TV camera is installed in a front window of a vehicle. It is installed near the center upper part, and using the image obtained from this, it detects obstacles and white lines on the road from the brightness distribution pattern on a survey line in the image and the two-dimensional brightness distribution pattern, and mounts the TV camera. A technique is disclosed in which a camera position is assumed from parameters such as a position, a direction, and a visual field, and a three-dimensional position of an obstacle or a white line is estimated.

【0006】しかしながら、実際の道路上で撮影される
画像には、周囲の建物や木々等の様々な物体や背景が写
っており、この中から、道路の白線を二次元的な特徴パ
ターンのみによって的確に検出することは困難である。
さらに、一般の道路では白線が整備されていない箇所も
多くあり、この場合には、この技術は使用できないこと
になる。
However, various objects and backgrounds such as surrounding buildings and trees are reflected in the image taken on the actual road, and the white line of the road is defined by only the two-dimensional characteristic pattern among them. It is difficult to detect accurately.
Furthermore, there are many places where white lines are not maintained on ordinary roads, and in this case, this technology cannot be used.

【0007】このように、白線が無い道路では、ガード
レール、植込み、パイロン列等、道路の境界となる連続
した立体物としての側壁を検出し、これによって道路の
形状や走行可能範囲を検出することが有効であると考え
られる。しかし、単眼視像を用いる技術では、このよう
な側壁を検出することは困難である。
As described above, on a road without a white line, a side wall as a continuous three-dimensional object, such as a guardrail, a plant, or a pylon row, which is a boundary of the road, can be detected to detect the shape of the road and the travelable range. Is considered to be effective. However, it is difficult to detect such a side wall with a technique using a monocular image.

【0008】一方、複数の画像から三角測量の原理で距
離を求めるステレオ法の技術は、左右画像における同一
物体の位置の相対的なずれから距離を求めるので、正確
な距離を求めることができる。
On the other hand, the technique of the stereo method for obtaining the distance from a plurality of images by the principle of triangulation obtains the distance from the relative displacement of the positions of the same object in the left and right images, so that the accurate distance can be obtained.

【0009】例えば、特開昭48−2927号公報、特
開昭55−27708号公報には、2台のTVカメラを
車輌前方に取り付け、まず、各々の画像を空間微分して
明暗変化点のみを抽出し、片方のカメラの画像の走査を
所定時間だけ遅延させてもう一方の画像と重ね合わせ、
2つの画像で一致する部分のうち、立体物が持つ明暗変
化の特徴から、立体物だけを抽出する技術が開示されて
おり、さらに、計測自動制御学会論文集Vol.21,
No.2(昭和60年2月)の中に発表されている「障
害物の2次元的な分布の認識手法」には、通路パターン
認識装置により道路脇のガードレールを検出する技術が
記載されている。
For example, in JP-A-48-2927 and JP-A-55-27708, two TV cameras are attached to the front of the vehicle, and first, each image is spatially differentiated so that only the light-dark change points are present. Is extracted, and the scanning of the image of one camera is delayed by a predetermined time and then superimposed on the other image,
A technique of extracting only a three-dimensional object from the characteristics of the change in light and shade of the three-dimensional object among the portions that match in two images is disclosed. 21,
No. 2 (February 1985), "A technique for recognizing a two-dimensional distribution of obstacles", which describes a technique for detecting a guardrail on the side of a road by a passage pattern recognition device is described.

【0010】しかしながら、この技術では、検出される
ガードレールは、細かい部分毎の位置のデータの集まり
として出力されるに留まり、側壁を連続的に存在する立
体物として認識していない。従って、この検出結果の出
力を使って、前述のような事故発生の危険性の判断や事
故回避を実現しようとすると、繁雑なデータ処理が必要
になる。
However, according to this technique, the detected guardrail is merely output as a collection of data of the positions of each fine portion, and the side wall is not recognized as a three-dimensional object that continuously exists. Therefore, if it is attempted to use the output of this detection result to determine the risk of accident occurrence or to avoid the accident as described above, complicated data processing is required.

【0011】また、車輌の側面や四隅に超音波センサー
を取り付け、ガードレール等を検出する技術も開発され
ているが、超音波センサーは計測可能な距離が短く、車
輌の近傍のガードレールしか検出できない。このため、
一般道路を通常速度で走行する場合には、検出能力が不
足し、さらには、植込み等のように超音波では検出困難
な側壁には対処することができない。
Further, a technique has been developed in which ultrasonic sensors are attached to the side surfaces and four corners of a vehicle to detect a guardrail or the like, but the ultrasonic sensor has a short measurable distance and can detect only the guardrail in the vicinity of the vehicle. For this reason,
When traveling on a general road at a normal speed, the detection ability is insufficient, and furthermore, it is impossible to deal with a side wall that is difficult to detect with ultrasonic waves such as implantation.

【0012】[0012]

【発明が解決しようとする課題】以上のように、実際の
複雑な状況においては、実際の道路上の画像には様々な
物が写っており、ガードレール、植込み、パイロン列等
の検出すべき物体を、前方にある別の物体が部分的に隠
している場合もある。このような状況下では、目的とす
る側壁だけを正確に検出することは極めて困難である。
As described above, in an actual complicated situation, various objects are shown in an image on an actual road, and an object to be detected such as a guardrail, a plant, a pylon row, etc. There is also a case where another object in front is partially hiding. Under such circumstances, it is extremely difficult to accurately detect only the desired side wall.

【0013】本発明は前記事情に鑑みてなされたもの
で、ガードレール、植え込み、パイロン列等の道路の境
界となる連続した立体物としての側壁を確実に検出する
ことができ、しかも、側壁の有無、位置、方向を処理が
容易なデータ形態で検出することのできる車輌用車外監
視装置を提供することを目的とする。
The present invention has been made in view of the above circumstances, and it is possible to reliably detect a side wall as a continuous three-dimensional object that becomes a boundary of a road such as a guardrail, a plant, a pylon row, and the presence or absence of the side wall. An object of the present invention is to provide a vehicle exterior monitoring device capable of detecting the position, the direction, and the like in a data format that can be easily processed.

【0014】[0014]

【課題を解決するための手段】第1の発明は、車外の設
定範囲の対象を検出し、この対象に対する位置情報を出
力する計測手段と、前記計測手段からの位置情報に基づ
き、道路の境界となる連続した立体物としての側壁の有
無と、この側壁の位置を近似する直線式とを検出する側
壁直線検出手段と、前記側壁直線検出手段で検出した直
線式の周囲に空間領域を設定し、この空間領域内のデー
タのみを抽出して前記側壁が存在する範囲を検出する側
壁範囲検出手段とを備えたことを特徴とする。
According to a first aspect of the present invention, there is provided a measuring means for detecting an object in a set range outside the vehicle and outputting position information for the object, and a road boundary based on the position information from the measuring means. The side wall straight line detecting means for detecting the presence or absence of a side wall as a continuous three-dimensional object and a linear type approximating the position of this side wall, and a space area is set around the straight line type detected by the side wall straight line detecting means. And a sidewall range detecting means for extracting only the data in the spatial region and detecting the range in which the sidewall exists.

【0015】第2の発明は、車外の設定範囲内の対象を
検出し、この対象に対する三次元位置情報を出力する計
測手段と、前記計測手段からの三次元位置情報に基づい
て道路モデルを決定し、この道路モデルを道路形状とし
て検出する道路検出手段と、前記道路モデルに基づい
て、前記三次元位置情報の中から道路表面より上にある
データのみを抽出するデータ抽出手段と、前記データ抽
出手段で抽出したデータから、道路の境界となる連続し
た立体物としての側壁の有無と、この側壁の位置を近似
する直線式とを検出する側壁直線検出手段と、前記側壁
直線検出手段で検出した直線式の周囲に空間領域を設定
し、この空間領域内のデータのみを抽出して前記側壁が
存在する範囲を検出する側壁範囲検出手段とを備えたこ
とを特徴とする。
A second aspect of the invention is to determine a road model based on measuring means for detecting an object within a setting range outside the vehicle and outputting three-dimensional position information for this object, and three-dimensional position information from the measuring means. Then, the road detection means for detecting this road model as a road shape, the data extraction means for extracting only the data above the road surface from the three-dimensional position information based on the road model, and the data extraction. From the data extracted by the means, the presence or absence of a side wall as a continuous three-dimensional object that becomes the boundary of the road, and a side wall straight line detecting means for detecting a straight line formula approximating the position of this side wall, and the side wall straight line detecting means are detected It is characterized by further comprising: a side wall range detecting means for setting a space area around the straight line type, extracting only data in the space area, and detecting a range in which the side wall exists.

【0016】第3の発明は、第2の発明において、前記
道路検出手段に、前記三次元位置情報に基づいて、道路
の白線の位置及び形状を推定する道路形状推定手段と、
前記道路形状推定手段で推定した道路の白線を包合する
三次元の空間領域を三次元ウインドウとして設定する三
次元ウインドウ設定手段と、前記三次元位置情報の中か
ら前記三次元ウインドウ内のデータのみを抽出し、前記
道路モデルを構成する三次元の直線要素を検出する直線
要素検出手段と、前記直線要素検出手段で検出した直線
要素の妥当性を判定し、判定基準に合致しない場合には
前記直線要素を修正あるいは変更して前記道路モデルを
決定する道路形状判定手段とを備えたことを特徴とす
る。
In a third aspect based on the second aspect, the road detecting means includes a road shape estimating means for estimating a position and a shape of a white line of the road based on the three-dimensional position information.
A three-dimensional window setting means for setting a three-dimensional space area that includes the white line of the road estimated by the road shape estimation means as a three-dimensional window, and only data in the three-dimensional window from the three-dimensional position information. A linear element detecting means for detecting a three-dimensional linear element forming the road model, and determining the validity of the linear element detected by the linear element detecting means, and if the determination criteria do not match, And a road shape determining means for determining the road model by correcting or changing the straight line element.

【0017】第4の発明は、第1の発明または第2の発
明において、前記側壁直線検出手段は、前記側壁の存在
を探索する探索領域を設定し、この探索領域内のデータ
のみを抽出してハフ変換を行なうことにより、前記側壁
の存在の有無と、前記直線式とを検出するものであるこ
とを特徴とする。
In a fourth aspect based on the first or second aspect, the side wall straight line detecting means sets a search area for searching for the existence of the side wall, and extracts only data in this search area. It is characterized in that the presence / absence of the side wall and the linear equation are detected by performing the Hough transform.

【0018】第5の発明は、第1の発明または第2の発
明において、前記側壁直線検出手段は、前記側壁の存在
を探索する探索領域を格子状に区分して設定し、この探
索領域内のデータのみを抽出して各格子内に含まれるデ
ータの個数を求め、各格子内のデータは各格子の中心位
置にまとまって存在するものとしてハフ変換を行なうこ
とにより、前記側壁の存在の有無と、前記直線式とを検
出するものであることを特徴とする。
In a fifth aspect based on the first or second aspect, the side wall straight line detecting means divides and sets a search region for searching the presence of the side wall in a grid pattern, and the search region is set within the search region. The number of data contained in each grid is obtained by extracting only the data of (1), and the Hough transform is performed assuming that the data in each grid exists at the central position of each grid. And the linear equation are detected.

【0019】第6の発明は、第1の発明または第2の発
明において、前記側壁範囲検出手段は、前記空間領域内
のデータの個数を縦軸とし、自車輌との距離を横軸とす
るヒストグラムを作成し、このヒストグラムの度数の大
小から前記側壁が存在する範囲を検出するものであるこ
とを特徴とする。
According to a sixth aspect of the invention, in the first or second aspect of the invention, the side wall range detecting means has a vertical axis that represents the number of data in the spatial area and a horizontal axis that represents the distance from the vehicle. A histogram is created, and the range in which the side wall exists is detected from the magnitude of the frequency of this histogram.

【0020】第7の発明は、第1の発明または第2の発
明において、前記側壁直線検出手段は、前記側壁の存在
を探索する探索領域を設定し、この探索領域内のデータ
のみを抽出してハフ変換を行なうことにより、前記側壁
の存在の有無と、前記直線式とを検出するものであり、
前記側壁範囲検出手段は、前記空間領域内のデータの個
数を縦軸とし、自車輌との距離を横軸とするヒストグラ
ムを作成し、このヒストグラムの度数の大小から前記側
壁が存在する範囲を検出するものであることを特徴とす
る。
In a seventh aspect based on the first or second aspect, the side wall straight line detecting means sets a search area for searching for the existence of the side wall, and extracts only data in this search area. By performing a Hough transform by detecting the presence or absence of the side wall and the linear equation,
The side wall range detection means creates a histogram with the number of data in the spatial region as the vertical axis and the distance to the vehicle as the horizontal axis, and detects the range in which the side wall exists from the magnitude of the frequency of this histogram. It is characterized by being

【0021】第8の発明は、第1の発明または第2の発
明において、前記側壁直線検出手段は、前記側壁の存在
を探索する探索領域を格子状に区分して設定し、この探
索領域内のデータのみを抽出して各格子内に含まれるデ
ータの個数を求め、各格子内のデータは各格子の中心位
置にまとまって存在するものとしてハフ変換を行なうこ
とにより、前記側壁の存在の有無と、前記直線式とを検
出するものであり、前記側壁範囲検出手段は、前記空間
領域内のデータの個数を縦軸とし、自車輌との距離を横
軸とするヒストグラムを作成し、このヒストグラムの度
数の大小から前記側壁が存在する範囲を検出するもので
あることを特徴とする。
In an eighth aspect based on the first or second aspect, the side wall straight line detecting means sets a search area for searching the existence of the side wall in a grid pattern and sets the search area within the search area. The number of data contained in each grid is obtained by extracting only the data of (1), and the Hough transform is performed assuming that the data in each grid exists at the central position of each grid. And the linear equation, the side wall range detection means creates a histogram with the vertical axis representing the number of data in the spatial region and the horizontal axis representing the distance to the vehicle, and this histogram The range in which the side wall exists is detected from the magnitude of the frequency.

【0022】第9の発明は、第1の発明または第2の発
明において、前記計測手段は、車外の設定範囲を撮像し
て画像処理することにより、車外の対象に対する前記位
置情報を出力するものであることを特徴とする。
In a ninth aspect based on the first or second aspect, the measuring means outputs the position information for an object outside the vehicle by picking up an image of a set range outside the vehicle and processing the image. Is characterized in that.

【0023】第10の発明は、第1の発明または第2の
発明において、前記計測手段は、車外の設定範囲を走査
してレーザ光を投射・受光することにより、車外の対象
に対する前記位置情報を出力するものであることを特徴
とする。
According to a tenth aspect of the present invention, in the first or second aspect of the invention, the measuring means scans a set range outside the vehicle and projects / receives a laser beam to obtain the position information for the object outside the vehicle. Is output.

【0024】[0024]

【作用】第1の発明では、車外の設定範囲の対象に対す
る位置情報に基づいて、道路の境界となる連続した立体
物としての側壁の有無と、この側壁の位置を近似する直
線式とを検出し、さらに、この直線式の周囲に空間領域
を設定し、この空間領域内のデータのみを抽出して前記
側壁が存在する範囲を検出する。
In the first aspect of the present invention, the presence or absence of the side wall as a continuous three-dimensional object that becomes the boundary of the road and the linear expression approximating the position of the side wall are detected based on the position information for the object in the set range outside the vehicle. Then, a space region is set around this linear equation, and only the data in this space region is extracted to detect the range where the side wall exists.

【0025】第2の発明では、車外の設定範囲内の対象
に対する三次元位置情報に基づいて道路モデルを決定
し、この道路モデルに基づいて、前記三次元位置情報の
中から道路表面より上にあるデータのみを抽出する。そ
して、抽出したデータから、道路の境界となる連続した
立体物としての側壁の有無と、この側壁の位置を近似す
る直線式とを検出し、さらに、この直線式の周囲に空間
領域を設定し、この空間領域内のデータのみを抽出して
前記側壁が存在する範囲を検出する。
In the second invention, the road model is determined based on the three-dimensional position information for the object within the set range outside the vehicle, and the road model is selected from the three-dimensional position information above the road surface based on the road model. Extract only certain data. Then, from the extracted data, the presence or absence of a side wall as a continuous three-dimensional object that becomes the boundary of the road and a linear equation approximating the position of this side wall are detected, and further, a spatial region is set around this linear equation. The range in which the side wall exists is extracted by extracting only the data in this spatial region.

【0026】第3の発明では、第2の発明において、前
記三次元位置情報に基づいて道路の白線の位置及び形状
を推定し、推定した道路の白線を包合する三次元の空間
領域を三次元ウインドウとして設定するとともに、前記
三次元位置情報の中から前記三次元ウインドウ内のデー
タのみを抽出して前記道路モデルを構成する三次元の直
線要素を検出し、検出した直線要素の妥当性を判定し、
判定基準に合致しない場合には前記直線要素を修正ある
いは変更して前記道路モデルを決定することにより、道
路形状を検出する。
According to a third invention, in the second invention, the position and shape of the white line of the road are estimated based on the three-dimensional position information, and the three-dimensional spatial area that includes the estimated white line of the road is cubically ordered. While setting as the original window, only the data in the three-dimensional window is extracted from the three-dimensional position information to detect a three-dimensional linear element that constitutes the road model, and the validity of the detected linear element is determined. Judge,
If it does not match the determination criteria, the road shape is detected by correcting or changing the linear element to determine the road model.

【0027】第4の発明では、第1の発明または第2の
発明において、前記側壁の存在を探索する探索領域を設
定し、この探索領域内のデータのみを抽出してハフ変換
を行なうことにより、前記側壁の存在の有無と、前記直
線式とを検出する。
According to a fourth aspect of the present invention, in the first or second aspect of the present invention, a search area for searching for the existence of the side wall is set, and only the data in the search area is extracted to perform the Hough transform. The presence or absence of the side wall and the linear equation are detected.

【0028】第5の発明では、第1の発明または第2の
発明において、前記側壁の存在を探索する探索領域を格
子状に区分して設定し、この探索領域内のデータのみを
抽出して各格子内に含まれるデータの個数を求め、各格
子内のデータは各格子の中心位置にまとまって存在する
ものとしてハフ変換を行なうことにより、前記側壁の存
在の有無と、前記直線式とを検出する。
According to a fifth aspect of the present invention, in the first or second aspect of the present invention, a search area for searching for the existence of the side wall is divided into grids and set, and only the data within the search area is extracted. The number of data included in each grid is obtained, and the data in each grid is subjected to a Hough transform assuming that the data exist in a central position of each grid, and thereby the presence or absence of the side wall and the linear equation are determined. To detect.

【0029】第6の発明では、第1の発明または第2の
発明において、前記空間領域内のデータの個数を縦軸と
し、自車輌との距離を横軸とするヒストグラムを作成
し、このヒストグラムの度数の大小から前記側壁が存在
する範囲を検出する。
According to a sixth aspect of the present invention, in the first or second aspect of the present invention, a histogram is created in which the vertical axis represents the number of data in the spatial area and the horizontal axis represents the distance to the vehicle. The range in which the side wall exists is detected from the magnitude of the frequency.

【0030】第7の発明では、第1の発明または第2の
発明において、前記側壁の存在を探索する探索領域を設
定し、この探索領域内のデータのみを抽出してハフ変換
を行なうことにより、前記側壁の存在の有無と、前記直
線式とを検出するとともに、前記空間領域内のデータの
個数を縦軸とし、自車輌との距離を横軸とするヒストグ
ラムを作成し、このヒストグラムの度数の大小から前記
側壁が存在する範囲を検出する。
According to a seventh invention, in the first or second invention, a search area for searching for the existence of the side wall is set, and only the data in the search area is extracted to perform the Hough transform. The presence or absence of the side wall and the linear equation are detected, and a histogram is created with the number of data in the spatial region as the vertical axis and the distance to the vehicle as the horizontal axis, and the frequency of this histogram. The range in which the side wall is present is detected from the size of.

【0031】第8の発明では、第1の発明または第2の
発明において、前記側壁の存在を探索する探索領域を格
子状に区分して設定し、この探索領域内のデータのみを
抽出して各格子内に含まれるデータの個数を求め、各格
子内のデータは各格子の中心位置にまとまって存在する
ものとしてハフ変換を行なうことにより、前記側壁の存
在の有無と、前記直線式とを検出するとともに、前記空
間領域内のデータの個数を縦軸とし、自車輌との距離を
横軸とするヒストグラムを作成し、このヒストグラムの
度数の大小から前記側壁が存在する範囲を検出する。
According to an eighth invention, in the first or second invention, the search area for searching for the existence of the side wall is divided and set in a grid pattern, and only the data in this search area is extracted. The number of data included in each grid is obtained, and the data in each grid is subjected to a Hough transform assuming that the data exist in a central position of each grid, and thereby the presence or absence of the side wall and the linear equation are determined. In addition to the detection, a histogram is created in which the vertical axis represents the number of data in the spatial area and the horizontal axis represents the distance to the vehicle, and the range in which the sidewall exists is detected from the magnitude of the histogram.

【0032】第9の発明は、第1の発明または第2の発
明において、車外の設定範囲を撮像して画像処理するこ
とにより、車外の対象に対する前記位置情報を出力す
る。
In a ninth aspect based on the first or second aspect, the position information for the object outside the vehicle is output by imaging the set range outside the vehicle and performing image processing.

【0033】第10の発明は、第1の発明または第2の
発明において、車外の設定範囲を走査してレーザ光を投
射・受光することにより、車外の対象に対する前記位置
情報を出力する。
According to a tenth aspect of the present invention, in the first or second aspect of the invention, the position information for an object outside the vehicle is output by scanning a set range outside the vehicle and projecting / receiving laser light.

【0034】[0034]

【実施例】以下、図面を参照して本発明の実施例を説明
する。図1〜図38は本発明の第1実施例に係り、図1
は車外監視装置の全体構成図、図2は車輌の正面図、図
3は車外監視装置の回路ブロック図、図4はカメラと被
写体との関係を示す説明図、図5はステレオ画像処理装
置の具体例を示す回路構成図、図6はシティブロック距
離計算回路の説明図、図7は最小値検出回路のブロック
図、図8は車載のCCDカメラで撮像した画像の例を示
す説明図、図9は距離画像の例を示す説明図、図10は
車輌の上面図、図11は車輌の側面図、図12は道路・
側壁検出装置の機能ブロック図、図13は道路モデルの
例を示す説明図、図14は三次元ウインドウの形状を示
す説明図、図15は二次元ウインドウの形状を示す説明
図、図16は直線要素とデータのずれ量を示す説明図、
図17はずれ量と重み係数の関係を示す説明図、図18
は検出した道路形状の例を示す説明図、図19は側壁検
出における探索領域の形状を示す説明図、図20は側壁
検出における画像の例を示す説明図、図21は立体物デ
ータの分布状況を示す説明図、図22はハフ変換での直
線の想定を示す説明図、図23はパラメータ空間の投票
領域を示す説明図、図24はパラメータ空間への投票結
果を示す説明図、図25は側壁候補領域を示す説明図、
図26はヒストグラムと側壁の存在範囲の関係を示す説
明図、図27はステレオ画像処理装置の動作を示すフロ
ーチャート、図28はシフトレジスタ内の保存順序を示
す説明図、図29はシティブロック距離計算回路の動作
を示すタイミングチャート、図30はずれ量決定部の動
作を示すタイミングチャート、図31はステレオ画像処
理装置の動作を示すタイミングチャート、図32〜図3
5は道路検出部の動作を示すフローチャートであり、図
32は道路形状推定処理のフローチャート、図33は三
次元ウインドウ発生処理のフローチャート、図34は直
線要素検出処理のフローチャート、図35は道路形状判
定処理のフローチャート、図36〜図38は側壁検出部
の動作を示すフローチャートであり、図36は立体物デ
ータ抽出処理のフローチャート、図37は側壁直線検出
処理のフローチャート、図38は側壁範囲検出処理のフ
ローチャートである。
Embodiments of the present invention will be described below with reference to the drawings. 1 to 38 relate to the first embodiment of the present invention, and FIG.
2 is an overall configuration diagram of the vehicle exterior monitoring device, FIG. 2 is a front view of the vehicle, FIG. 3 is a circuit block diagram of the vehicle exterior monitoring device, FIG. 4 is an explanatory diagram showing a relationship between a camera and a subject, and FIG. 5 is a stereo image processing device. FIG. 6 is a circuit configuration diagram showing a specific example, FIG. 6 is an explanatory diagram of a city block distance calculation circuit, FIG. 7 is a block diagram of a minimum value detection circuit, and FIG. 8 is an explanatory diagram showing an example of an image captured by a vehicle-mounted CCD camera. 9 is an explanatory view showing an example of a distance image, FIG. 10 is a top view of the vehicle, FIG. 11 is a side view of the vehicle, and FIG.
FIG. 13 is an explanatory diagram showing an example of a road model, FIG. 14 is an explanatory diagram showing the shape of a three-dimensional window, FIG. 15 is an explanatory diagram showing the shape of a two-dimensional window, and FIG. 16 is a straight line. Explanatory diagram showing the amount of deviation between elements and data,
FIG. 17 is an explanatory diagram showing the relationship between the shift amount and the weighting coefficient, and FIG.
Is an explanatory view showing an example of a detected road shape, FIG. 19 is an explanatory view showing a shape of a search region in the side wall detection, FIG. 20 is an explanatory view showing an example of an image in the side wall detection, and FIG. 21 is a distribution state of three-dimensional object data. 22 is an explanatory view showing the assumption of a straight line in the Hough transform, FIG. 23 is an explanatory view showing the voting area of the parameter space, FIG. 24 is an explanatory view showing the voting result in the parameter space, and FIG. 25 is Explanatory view showing the side wall candidate region,
FIG. 26 is an explanatory diagram showing the relationship between the histogram and the side wall existence range, FIG. 27 is a flowchart showing the operation of the stereo image processing device, FIG. 28 is an explanatory diagram showing the storage order in the shift register, and FIG. 29 is a city block distance calculation. 32 is a timing chart showing the operation of the circuit, FIG. 30 is a timing chart showing the operation of the deviation amount determining unit, FIG. 31 is a timing chart showing the operation of the stereo image processing apparatus, and FIGS.
5 is a flowchart showing the operation of the road detection unit, FIG. 32 is a flowchart of road shape estimation processing, FIG. 33 is a flowchart of three-dimensional window generation processing, FIG. 34 is a flowchart of linear element detection processing, and FIG. 35 is road shape determination. 36 to 38 are flowcharts showing the operation of the sidewall detection unit, FIG. 36 is a flowchart of solid object data extraction processing, FIG. 37 is a flowchart of sidewall straight line detection processing, and FIG. 38 is a sidewall range detection processing. It is a flowchart.

【0035】図1において、符号1は自動車等の車輌で
あり、この車輌1に、車外の設置範囲内の対象を認識し
て監視する車外監視装置2が搭載されている。この車外
監視装置2は、車外の設定範囲内の対象を撮像するステ
レオ光学系10と、このステレオ光学系10によって撮
像した画像を処理し、三次元の距離分布情報を算出する
ステレオ画像処理装置20と、このステレオ画像処理装
置20からの距離情報を入力し、その距離情報から、道
路形状、及び、ガードレール、植込み、パイロン列等の
道路の境界となる連続した立体物としての側壁の三次元
位置を高速で検出する道路・側壁検出装置100とを備
えており、例えば、図示しないアクチュエータ類を制御
する外部装置を接続することにより、認識された側壁に
車輌1が衝突あるいは接触する危険がある場合、運転者
に対する警告、車体の自動衝突回避等の動作を行なうこ
とができるようになっている。
In FIG. 1, reference numeral 1 is a vehicle such as an automobile, and an on-vehicle monitoring device 2 for recognizing and monitoring an object within an installation range outside the vehicle is mounted on the vehicle 1. The vehicle exterior monitoring device 2 processes a stereo optical system 10 for capturing an image of an object within a setting range outside the vehicle and a stereo image processing device 20 for processing an image captured by the stereo optical system 10 and calculating three-dimensional distance distribution information. And the distance information from the stereo image processing device 20, and based on the distance information, the road shape and the three-dimensional position of the side wall as a continuous three-dimensional object that becomes the boundary of the road such as a guardrail, a plant, and a pylon row. In the case where there is a risk that the vehicle 1 collides with or touches the recognized side wall by connecting an external device for controlling actuators (not shown) It is possible to perform operations such as warning of the driver and avoidance of automatic collision of the vehicle body.

【0036】前記ステレオ光学系10は、撮像した画像
を電気信号に変換する撮像装置として、例えば電荷結合
素子(CCD)等の固体撮像素子を用いたCCDカメラ
を用いて構成されており、図2に示すように、遠距離の
左右画像用としての2台のCCDカメラ11a,11b
(代表してCCDカメラ11と表記する場合もある)
が、それぞれ車室内の天井前方に一定の間隔をもって取
り付けられるとともに、近距離の左右画像用としての2
台のCCDカメラ12a,12b(代表してCCDカメ
ラ12と表記する場合もある)が、それぞれ、遠距離用
のCCDカメラ11a,11bの内側に一定の間隔をも
って取り付けられている。
The stereo optical system 10 is constituted by a CCD camera using a solid-state image pickup device such as a charge coupled device (CCD) as an image pickup device for converting a picked-up image into an electric signal. As shown in FIG. 2, two CCD cameras 11a and 11b for long-distance left and right images are provided.
(The CCD camera 11 may be described as a representative)
Are attached to the front of the ceiling in the passenger compartment at regular intervals, and are used for short-distance left and right images.
The CCD cameras 12a and 12b (sometimes referred to as the CCD camera 12 as a representative) are mounted inside the long distance CCD cameras 11a and 11b at regular intervals.

【0037】また、図3に示すように、前記ステレオ画
像処理装置20は、前記ステレオ光学系10からの左右
2枚の画像信号を入力し、画像の微小領域毎に2枚の画
像で同一の物体が写っている部分を検出し、その画像上
の位置のずれ量から物体までの距離を算出する処理を画
像全体に渡って実行する距離検出回路20a、この距離
検出回路20aの出力である距離情報を記憶する距離画
像メモリ20b等から構成されており、前記ステレオ光
学系10と前記ステレオ画像処理装置20とで、車外の
設定範囲の対象を検出し、この対象に対する位置情報を
出力する計測手段を構成するようになっている。
Further, as shown in FIG. 3, the stereo image processing device 20 inputs two image signals on the left and right from the stereo optical system 10, and the two images are the same for each minute area of the image. A distance detection circuit 20a that detects a part in which an object is captured and executes a process for calculating the distance to the object from the amount of displacement of the position on the image over the entire image, and the distance output by the distance detection circuit 20a. A measuring means including a distance image memory 20b for storing information and the like, and the stereo optical system 10 and the stereo image processing device 20 detect an object in a setting range outside the vehicle and output position information for the object. Is configured.

【0038】また、道路・側壁検出装置100は、距離
画像メモリ20bに書き込まれた距離情報を読み出して
各種の計算処理を行なうマイクロプロセッサ100aを
中心に構成され、制御プログラムを格納する読み出し専
用メモリ(ROM)100b、計算処理途中の各種パラ
メータを記憶する読み書き両用メモリ(RAM)100
c、インターフェース回路100d、処理結果のパラメ
ータを記憶する出力用メモリ100e等から構成されて
おり、前記インターフェース回路100dには、車輌1
に取り付けられた車速センサ3と、ステアリングの操舵
角を検出する舵角センサ4とが接続されている。
The road / sidewall detecting device 100 is mainly composed of a microprocessor 100a which reads out the distance information written in the distance image memory 20b and performs various calculation processes, and is a read-only memory for storing a control program ( ROM) 100b, read / write memory (RAM) 100 for storing various parameters during calculation processing
c, an interface circuit 100d, an output memory 100e for storing parameters of processing results, and the like. The interface circuit 100d includes the vehicle 1
A vehicle speed sensor 3 attached to the vehicle and a steering angle sensor 4 for detecting the steering angle of the steering wheel are connected.

【0039】前記マイクロプロセッサ100aは、前記
距離画像メモリ20bを介して距離画像を入力して計算
処理を実行し、処理結果である道路形状や側壁のパラメ
ータを出力用メモリ100eに出力する。道路・側壁検
出装置100に接続される外部機器は、前記出力用メモ
リ100eを介して、これらのパラメータを受け取るこ
とになる。
The microprocessor 100a inputs the distance image through the distance image memory 20b, executes the calculation process, and outputs the road shape and side wall parameters, which are the processing results, to the output memory 100e. The external device connected to the road / sidewall detection device 100 receives these parameters via the output memory 100e.

【0040】ここで、前記ステレオ光学系10として、
直近から例えば100m遠方までの距離計測を行なう場
合、車室内のCCDカメラ11、12の取付位置を、例
えば、車輌1のボンネット先端から2mとすると、実際
には前方2mから100mまでの位置を計測できれば良
い。
Here, as the stereo optical system 10,
When measuring the distance from the closest distance to 100 m, for example, assuming that the mounting positions of the CCD cameras 11 and 12 in the vehicle interior are, for example, 2 m from the tip of the hood of the vehicle 1, the position from 2 m to 100 m in front is actually measured. I wish I could.

【0041】すなわち、図4に示すように、遠距離用の
2台のCCDカメラ11a、11bの取付間隔をrとし
て、2台のカメラ11a,11bの設置面から距離Zに
ある点Pを撮影する場合、2台のカメラ11a,11b
の焦点距離を共にfとすると、点Pの像は、それぞれの
カメラについて焦点位置からfだけ離れた投影面に写
る。
That is, as shown in FIG. 4, a point P located at a distance Z from the installation surface of the two cameras 11a and 11b is photographed with the mounting interval of the two CCD cameras 11a and 11b for long distances set to r. When doing, two cameras 11a, 11b
If the focal lengths of and are both f, the image of the point P appears on the projection plane that is away from the focal position by f for each camera.

【0042】このとき、右のCCDカメラ11bにおけ
る像の位置から左のCCDカメラ11aにおける像の位
置までの距離は、r+δとなり、このδをずれ量とする
と、点Pまでの距離Zは、ずれ量δから以下の式で求め
ることができる。
At this time, the distance from the position of the image on the right CCD camera 11b to the position of the image on the left CCD camera 11a is r + δ, and if this δ is the shift amount, the distance Z to the point P shifts. It can be obtained from the amount δ by the following formula.

【0043】 Z=r×f/δ (1) この左右画像のずれ量δを検出するには、左右画像にお
ける同一物体の像を見つけ出す必要があり、本発明で
は、次に述べるステレオ画像処理装置20において、画
像を小領域に分割し、それぞれの小領域内の輝度あるい
は色のパターンを左右画像で比較して一致する領域を見
つけ出し、全画面に渡って距離分布を求める。従って、
従来のように、エッジ、線分、特殊な形等、何らかの特
徴を抽出し、それらの特徴が一致する部分を見つけ出す
ことによる情報量の低下を避けることができる。
Z = r × f / δ (1) In order to detect the shift amount δ of the left and right images, it is necessary to find the image of the same object in the left and right images. In the present invention, the stereo image processing device described below is used. At 20, the image is divided into small areas, and the luminance or color patterns in each small area are compared in the left and right images to find a matching area, and the distance distribution is obtained over the entire screen. Therefore,
As in the prior art, it is possible to avoid a decrease in the amount of information by extracting some feature such as an edge, a line segment, and a special shape and finding a portion where those features match.

【0044】左右画像の一致度は、右画像、左画像のi
番目画素の輝度(色を用いても良い)を、それぞれ、A
i、Biとすると、例えば、以下の(2)式に示すシティ
ブロック距離Hによって評価することができ、平均値の
採用による情報量の低下もなく、乗算がないことから演
算速度を向上させることができる。
The degree of coincidence between the left and right images is i of the right and left images.
The luminance of the th pixel (color may be used) is A
If i and Bi are used, for example, the city block distance H shown in the following equation (2) can be used for evaluation, and there is no reduction in the amount of information due to the adoption of the average value, and there is no multiplication, and therefore the calculation speed is improved. You can

【0045】 H=Σ|Ai−Bi| (2) また、分割すべき小領域の大きさとしては、大きすぎる
と、その領域内に遠方物体と近くの物体が混在する可能
性が高くなり、検出される距離が曖昧になる。画像の距
離分布を得るためにも領域は小さい方が良いが、小さす
ぎると、一致度を調べるための情報量が不足する。
H = Σ | Ai−Bi | (2) If the size of the small area to be divided is too large, there is a high possibility that a distant object and a nearby object are mixed in the area. The detected distance becomes ambiguous. It is preferable that the area is small in order to obtain the distance distribution of the image, but if it is too small, the amount of information for checking the degree of coincidence is insufficient.

【0046】このため、例えば、100m先にある幅
1.7mの車輌が、隣の車線の車輌と同じ領域内に含ま
れないように、4つに分割される画素数を領域横幅の最
大値とすると、前記ステレオ光学系10に対して4画素
となる。この値を基準に最適な画素数を実際の画像で試
行した結果、縦横共に4画素となる。
Therefore, for example, the number of pixels divided into four is set so that a vehicle with a width of 1.7 m located 100 m ahead is not included in the same region as a vehicle with an adjacent lane. Then, there are four pixels for the stereo optical system 10. As a result of trying an optimum number of pixels in an actual image with this value as a reference, the number of pixels is 4 in both length and width.

【0047】以下の説明では、画像を4×4の小領域で
分割して左右画像の一致度を調べるものとし、ステレオ
光学系10は、遠距離用のCCDカメラ11a,11b
で代表するものとする。
In the following description, it is assumed that the image is divided into small regions of 4 × 4 and the degree of coincidence between the left and right images is examined, and the stereo optical system 10 uses the CCD cameras 11a and 11b for long distance.
Shall be represented.

【0048】前記ステレオ画像処理装置20の具体的回
路例は、図5に示され、この回路例では、距離検出回路
20aに、前記ステレオ光学系10で撮像したアナログ
画像をデジタル画像に変換する画像変換部30、この画
像変換部30からの画像データに対し、左右画像のずれ
量δを決定するためのシティブロック距離Hを画素を一
つずつずらしながら次々と計算するシティブロック距離
計算部40、シティブロック距離Hの最小値HMIN 及び
最大値HMAX を検出する最小・最大値検出部50、この
最小・最大値検出部50で得られた最小値HMIN が左右
小領域の一致を示すものであるか否かをチェックしてず
れ量δを決定するずれ量決定部60が備えられており、
また、距離画像メモリ20bとして、デュアルポートメ
モリ90が採用されている。
A concrete circuit example of the stereo image processing apparatus 20 is shown in FIG. 5. In this circuit example, the distance detection circuit 20a is used to convert an analog image picked up by the stereo optical system 10 into a digital image. A conversion unit 30, a city block distance calculation unit 40 that sequentially calculates the city block distance H for determining the displacement amount δ of the left and right images with respect to the image data from the image conversion unit 30 while shifting pixels one by one. Is the minimum / maximum value detection unit 50 that detects the minimum value HMIN and maximum value HMAX of the city block distance H, and whether the minimum value HMIN obtained by this minimum / maximum value detection unit 50 indicates a match between the left and right small areas? A deviation amount determination unit 60 that checks whether or not the deviation amount δ is determined is provided,
A dual port memory 90 is used as the distance image memory 20b.

【0049】前記画像変換部30では、左右画像用のC
CDカメラ11a,11bに対応してA/Dコンバータ
31a,31bが備えられ、各A/Dコンバータ31
a,31bに、データテーブルとしてのルックアップテ
ーブル(LUT)32a,32b、前記CCDカメラ1
1a,11bで撮像した画像を記憶する画像メモリ33
a,33bが、それぞれ接続されている。
In the image conversion section 30, C for left and right images is displayed.
A / D converters 31a and 31b are provided corresponding to the CD cameras 11a and 11b, respectively.
a and 31b, lookup tables (LUTs) 32a and 32b as data tables, the CCD camera 1
Image memory 33 for storing the images captured by 1a and 11b
a and 33b are connected to each other.

【0050】A/Dコンバータ31a,31bは、例え
ば8ビットの分解能を有し、左右のCCDカメラ11
a,11bからのアナログ画像を、所定の輝度階調を有
するデジタル画像に変換する。すなわち、処理の高速化
のため画像の二値化を行なうと、左右画像の一致度を計
算するための情報が著しく失われるため、例えば256
階調のグレースケールに変換するのである。
The A / D converters 31a and 31b have a resolution of, for example, 8 bits, and the left and right CCD cameras 11 are provided.
The analog image from a, 11b is converted into a digital image having a predetermined brightness gradation. That is, if the image is binarized in order to speed up the processing, the information for calculating the degree of coincidence between the left and right images is significantly lost.
It is converted into a gray scale of gradation.

【0051】また、LUT32a,32bはROM上に
構成され、前記A/Dコンバータ31a,31bでデジ
タル量に変換された画像に対し、低輝度部分のコントラ
ストを上げたり、左右のCCDカメラ11a,11bの
特性の違いを補正する。そして、LUT32a,32b
で変換された信号は、一旦、画像メモリ33a,33b
に記憶される。
Further, the LUTs 32a and 32b are constructed on the ROM, and the contrast of the low luminance part is increased or the left and right CCD cameras 11a and 11b are increased with respect to the image converted into the digital amount by the A / D converters 31a and 31b. Correct the difference in the characteristics of. Then, the LUTs 32a and 32b
The signals converted by the above are temporarily stored in the image memories 33a and 33b.
Memorized in.

【0052】前記画像メモリ33a,33bは、後述す
るように、シティブロック距離計算部40で画像の一部
を繰り返し取り出して処理するため、比較的低速のメモ
リから構成することができ、コスト低減を図ることがで
きる。
As will be described later, the image memories 33a and 33b can be composed of relatively low speed memories because the city block distance calculation unit 40 repeatedly fetches and processes a part of the image, thus reducing the cost. Can be planned.

【0053】前記シティブロック距離計算部40では、
前記画像変換部30の左画像用の画像メモリ33aに、
共通バス80を介して2組の入力バッファメモリ41
a,41bが接続されるとともに、右画像用の画像メモ
リ33bに、共通バス80を介して2組の入力バッファ
メモリ42a,42bが接続されている。
In the city block distance calculator 40,
In the image memory 33a for the left image of the image conversion unit 30,
Two sets of input buffer memories 41 via the common bus 80
a and 41b are connected, and two sets of input buffer memories 42a and 42b are connected to the image memory 33b for the right image via the common bus 80.

【0054】前記左画像用の各入力バッファメモリ41
a,41bには、2組の例えば8段構成のシフトレジス
タ43a,43bが接続され、右画像用の各入力バッフ
ァメモリ42a,42bには、同様に、2組の例えば8
段構成のシフトレジスタ44a,44bが接続されてい
る。さらに、これら4組のシフトレジスタ43a,43
b,44a,44bには、シティブロック距離を計算す
るシティブロック距離計算回路45が接続されている。
Each input buffer memory 41 for the left image
Two sets of shift registers 43a and 43b having, for example, eight stages are connected to a and 41b, and two sets of eight shift registers 43a and 43b are similarly provided to the input buffer memories 42a and 42b for the right image.
The shift registers 44a and 44b having a stage configuration are connected. Further, these four sets of shift registers 43a, 43
A city block distance calculation circuit 45 that calculates a city block distance is connected to b, 44a, and 44b.

【0055】また、前記右画像用のシフトレジスタ44
a、44bには、後述するずれ量決定部60の2組の1
0段構成のシフトレジスタ64a,64bが接続されて
おり、次の小領域のデータ転送が始まると、シティブロ
ック距離Hの計算の終わった古いデータはこれらのシフ
トレジスタ64a,64bに送られ、ずれ量δの決定の
際に用いられる。
The right image shift register 44 is also provided.
a and 44b have two sets of 1 of a shift amount determination unit 60 described later.
The shift registers 64a and 64b of 0-stage configuration are connected, and when the data transfer of the next small area starts, the old data for which the calculation of the city block distance H has finished is sent to these shift registers 64a and 64b, and the shift occurs. Used in determining the quantity δ.

【0056】また、シティブロック距離計算回路45
は、加減算器に入出力ラッチをつなげてワンチップ化し
た高速CMOS型演算器46を組み合わせており、図6
に詳細が示されるように、演算器46を16個ピラミッ
ド状に接続したパイプライン構造で、例えば8画素分を
同時に入力して計算するようになっている。このピラミ
ッド型構造の初段は、絶対値演算器、2段〜4段は、そ
れぞれ、第1加算器、第2加算器、第3加算器を構成
し、最終段は総和加算器となっている。
Also, the city block distance calculation circuit 45
6 is a combination of an adder / subtractor and an input / output latch, which is combined with a high-speed CMOS type arithmetic unit 46 which is integrated into one chip.
As will be described in detail, a pipeline structure in which 16 calculators 46 are connected in a pyramid shape, for example, 8 pixels are simultaneously input and calculated. The first stage of the pyramid structure is an absolute value calculator, the second to fourth stages are first adder, second adder, and third adder, respectively, and the final stage is a sum adder. .

【0057】尚、図6においては、絶対値計算と1,2
段目の加算器は半分のみ表示している。
In FIG. 6, absolute value calculation and 1, 2
Only half of the adders in the first row are displayed.

【0058】また、前記各入力バッファメモリ41a,
41b,42a,42bは、シティブロック距離計算の
速度に応じた比較的小容量の高速タイプであり、入出力
が分離し、クロック発生回路85から供給されるクロッ
クに従って、#1アドレスコントローラ86によって発
生されるアドレスが共通に与えられる。また、4組のシ
フトレジスタ43a,43b,44a,44bとの転送
は、#2アドレスコントローラ87によって制御され
る。
Further, each of the input buffer memories 41a, 41a,
Reference numerals 41b, 42a, and 42b are high-speed types having a relatively small capacity according to the speed of the city block distance calculation, the input and output are separated, and generated by the # 1 address controller 86 according to the clock supplied from the clock generation circuit 85. The address to be given is commonly given. The transfer with the four sets of shift registers 43a, 43b, 44a, 44b is controlled by the # 2 address controller 87.

【0059】尚、シティブロック距離Hの計算をコンピ
ュータのソフトウエアで行なう場合、右画像の一つの小
領域に対して左画像の小領域を次々に探索し、これを右
画像の小領域全部について行なう必要があり、この計算
を例えば0.08秒で行なうとすると、一画素当たり例
えば5ステップのプログラムで、500MIPS(Mega
Instruction Per Second )の能力が要求される。これ
は現在の一般的なシスク(CISC)タイプのマイクロ
プロセッサでは実現不可能な数字であり、リスク(RI
SC)プロセッサ、デジタルシグナルプロセッサ(DS
P)、あるいは、並列プロセッサ等を用いなければなら
なくなる。
When the calculation of the city block distance H is performed by software of a computer, small areas of the left image are searched one after another for one small area of the right image, and this is searched for all the small areas of the right image. It is necessary to perform this calculation, and if this calculation is performed in, for example, 0.08 seconds, 500 MIPS (Mega
Instruction Per Second) ability is required. This is a number that cannot be realized by the current common SISC (CISC) type microprocessor, and the risk (RI
SC) processor, digital signal processor (DS)
P), or a parallel processor will have to be used.

【0060】前記最小・最大値検出部50は、シティブ
ロック距離Hの最小値HMIN を検出する最小値検出回路
51とシティブロック距離Hの最大値HMAX を検出する
最大値検出回路52とを備えており、前記シティブロッ
ク距離計算回路45で使用する演算器46を最小値、最
大値検出用として2個使用した構成となっており、シテ
ィブロック距離Hの出力と同期が取られるようになって
いる。
The minimum / maximum value detecting section 50 includes a minimum value detecting circuit 51 for detecting the minimum value HMIN of the city block distance H and a maximum value detecting circuit 52 for detecting the maximum value HMAX of the city block distance H. In this configuration, two arithmetic units 46 used in the city block distance calculation circuit 45 are used for detecting the minimum value and the maximum value, and are synchronized with the output of the city block distance H. .

【0061】図7に示すように、最小値検出回路51
は、具体的には、Aレジスタ46a、Bレジスタ46
b、及び、算術論理演算ユニット(ALU)46cから
なる演算器46に、Cラッチ53,ラッチ54,Dラッ
チ55を接続して構成され、シティブロック距離計算回
路45からの出力が、Aレジスタ46aと、Cラッチ5
3を介してBレジスタ46bとに入力され、ALU46
の出力の最上位ビット(MSB)がラッチ54に出力さ
れる。このラッチ54の出力は、Bレジスタ46b及び
Dラッチ55に出力され、演算器46での最小値計算の
途中の値が、Bレジスタ46bに保存されるとともに、
そのときのずれ量δがDラッチ55に保存されるように
なっている。
As shown in FIG. 7, the minimum value detection circuit 51
Are, specifically, A register 46a and B register 46
b, and an arithmetic unit 46 composed of an arithmetic logic operation unit (ALU) 46c, which is configured by connecting a C latch 53, a latch 54, and a D latch 55, and the output from the city block distance calculation circuit 45 is an A register 46a. And C latch 5
3 to the B register 46b and the ALU46
The most significant bit (MSB) of the output of is output to the latch 54. The output of the latch 54 is output to the B register 46b and the D latch 55, and the value in the middle of the minimum value calculation in the computing unit 46 is stored in the B register 46b.
The shift amount δ at that time is stored in the D latch 55.

【0062】尚、最大値検出回路52については、論理
が逆になることと、ずれ量δを保存しないこと以外は、
最小値検出回路51と同様の構成である。
Regarding the maximum value detection circuit 52, except that the logic is reversed and the deviation amount δ is not stored.
It has the same configuration as the minimum value detection circuit 51.

【0063】前述したようにシティブロック距離Hは、
一つの右画像小領域に対し、左画像小領域を1画素ずつ
ずらしながら順次計算されていく。そこで、シティブロ
ック距離Hの値が出力される毎に、これまでの値の最大
値HMAX 、最小値HMIN と比較、更新することによっ
て、最後のシティブロック距離Hの出力とほぼ同時に、
その小領域におけるシティブロック距離Hの最大値HMA
X 、最小値HMIN が求まるようになっている。
As described above, the city block distance H is
With respect to one right image small area, the left image small area is sequentially calculated by shifting the pixel by one pixel. Therefore, every time the value of the city block distance H is output, by comparing and updating the maximum value HMAX and the minimum value HMIN of the values so far, almost simultaneously with the output of the last city block distance H,
Maximum value HMA of city block distance H in the small area
X and the minimum value HMIN can be obtained.

【0064】前記ずれ量決定部60は、比較的小規模の
RISCプロセッサとして構成され、演算器61を中心
として、2本の16ビット幅データバス62a,62
b、ずれ量δを保持するラッチ63a、第1の規定値と
してのしきい値Haを保持するラッチ63b、第2の規
定値としてのしきい値Hbを保持するラッチ63c、第
3の規定値としてのしきい値Hcを保持するラッチ63
d、右画像の輝度データを保持する2組のシフトレジス
タ64a,64b、演算器61の出力を受けてずれ量δ
または”0”を出力するスイッチ回路65、そして出力
された結果を一時保存する出力バッファメモリ66a,
66b、回路の動作タイミングや演算器61の機能の制
御プログラムが書き込まれた16ビット幅のROM67
が備えられている。
The shift amount determining unit 60 is constructed as a RISC processor of a relatively small scale and has two 16-bit width data buses 62a and 62 centering on the arithmetic unit 61.
b, a latch 63a for holding the shift amount δ, a latch 63b for holding the threshold value Ha as a first specified value, a latch 63c for holding a threshold value Hb as a second specified value, a third specified value 63 for holding the threshold value Hc as
d, two sets of shift registers 64a and 64b for holding the luminance data of the right image, and the shift amount δ upon receiving the output of the arithmetic unit 61.
Alternatively, a switch circuit 65 that outputs "0", and an output buffer memory 66a that temporarily stores the output result,
66b, a ROM 67 of 16-bit width in which a control program of the operation timing of the circuit and the function of the arithmetic unit 61 is written
Is provided.

【0065】前記演算器61は、ALU70を中心とし
て、Aレジスタ71、Bレジスタ72、Fレジスタ7
3、及び、セレクタ74からなり、前記データバス62
a(以下、Aバス62aとする)にAレジスタ71が接
続されるとともに、前記データバス62b(以下、Bバ
ス62bとする)にBレジスタ72が接続され、ALU
70の演算結果で前記スイッチ回路65を作動し、ずれ
量δまたは“0”が前記出力バッファメモリ66a,6
6bに格納されるようになっている。
The arithmetic unit 61 has an ALU 70 as a center, and an A register 71, a B register 72, and an F register 7
3 and a selector 74, and the data bus 62
A (hereinafter, referred to as A bus 62a) is connected to the A register 71, and the data bus 62b (hereinafter, referred to as B bus 62b) is connected to the B register 72.
The switch circuit 65 is operated according to the calculation result of 70, and the shift amount δ or “0” is determined by the output buffer memories 66a and 66a.
6b is stored.

【0066】前記Aバス62aには、各しきい値Ha 、
Hb 、Hc を保持するラッチ63b,63c,63d、
前記最大値検出回路52が接続され、前記Bバス62b
には、前記最小値検出回路51が接続されている。さら
に、前記Aバス62a及びBバス62bには、前記各シ
フトレジスタ64a,64bが接続されている。
The A bus 62a has threshold values Ha,
Latches 63b, 63c, 63d for holding Hb, Hc,
The maximum value detection circuit 52 is connected to the B bus 62b.
The minimum value detection circuit 51 is connected to. Further, the shift registers 64a and 64b are connected to the A bus 62a and the B bus 62b.

【0067】また、前記スイッチ回路65には、前記演
算器61が接続されるとともに、前記ラッチ63aを介
して前記最小値検出回路51が接続され、後述する3つ
のチェック条件が演算器61で判定され、その判定結果
に応じて前記出力バッファメモリ66a,66bへの出
力が切り換えられる。
Further, the switch circuit 65 is connected to the arithmetic unit 61 and the minimum value detection circuit 51 via the latch 63a, and the arithmetic unit 61 determines three check conditions described later. The output to the output buffer memories 66a and 66b is switched according to the determination result.

【0068】このずれ量決定部60では、得られたシテ
ィブロック距離Hの最小値HMIN が本当に左右小領域の
一致を示しているものかどうかチェックを行い、条件を
満たしたもののみ、出力バッファメモリ66a,66b
の対応する画素の位置にずれ量δを出力する。
The shift amount determining unit 60 checks whether or not the obtained minimum value HMIN of the city block distances H really indicates a match between the left and right small areas, and only those satisfying the conditions are output buffer memory. 66a, 66b
The shift amount δ is output to the position of the corresponding pixel of.

【0069】すなわち、シティブロック距離Hが最小と
なるずれ量が求めるずれ量δとなる訳であるが、以下の
3つのチェック条件を満足した場合にずれ量δを出力
し、満足しない場合には、データを採用せずに“0”を
出力する。
That is, the shift amount that minimizes the city block distance H is the shift amount δ to be obtained. However, when the following three check conditions are satisfied, the shift amount δ is output, and when it is not satisfied, the shift amount δ is output. , Outputs "0" without adopting data.

【0070】(1)HMIN ≦Ha (HMIN >Ha のとき
には距離を検出できず。) (2)HMAX −HMIN ≧Hb (得られた最小値HMIN が
ノイズによる揺らぎより明らかに低くなっていることを
チェックするための条件であり、最小値HMINの近傍の
値との差でなく、最大値HMAX との差をチェック対象と
することにより、曲面等の緩やかに輝度の変わる物体に
対しても距離検出が行なえる。) (3)右画像の小領域内の横方向の隣接画素間の輝度差
>Hc (しきい値Hc を大きくするとエッジ検出となる
が、輝度が緩やかに変化している場合にも対応可能なよ
うに、しきい値Hc は通常のエッジ検出レベルよりはず
っと低くしてある。この条件は、輝度変化のない部分で
は、距離検出が行なえないという基本的な原理に基づい
ており、小領域中の画素毎に行なわれるため、小領域の
中でも実際に距離の検出された画素のみが採用されるこ
とになり、自然な結果が得られる。) 尚、このずれ量決定の処理も、通常のマイクロプロセッ
サでソフト的に行おうとすると、例えば27MIPSの
速さが必要となり、実行不可能である。
(1) HMIN ≤ Ha (When HMIN> Ha, the distance cannot be detected.) (2) HMAX-HMIN ≥ Hb (The obtained minimum value HMIN is obviously lower than the fluctuation due to noise. It is a condition for checking, and by detecting the difference with the maximum value HMAX instead of the difference with the value near the minimum value HMIN, the distance can be detected even for objects such as curved surfaces where the brightness changes gently. (3) Brightness difference between adjacent pixels in the horizontal direction in the small area of the right image> Hc (when the threshold value Hc is increased, edge detection is performed, but when the brightness changes gently The threshold value Hc is set to be much lower than the normal edge detection level, which is based on the basic principle that distance detection cannot be performed in a portion where there is no brightness change. , For each pixel in the small area Since this is performed, only the pixels whose distances have been actually detected are adopted even in the small area, and a natural result is obtained.) Note that the processing for determining the amount of deviation is also software-like with an ordinary microprocessor. , It requires a speed of, for example, 27 MIPS, which is infeasible.

【0071】以上のずれ量決定部60から出力される最
終結果である距離分布情報は、距離画像メモリ20bと
してのデュアルポートメモリ90へ共通バス80を介し
て書き込まれる。
The distance distribution information, which is the final result output from the deviation amount determining unit 60, is written to the dual port memory 90 as the distance image memory 20b via the common bus 80.

【0072】以上説明したステレオ画像処理装置20か
ら出力される距離分布情報は、画像のような形態をして
おり(距離画像)、左右2台のCCDカメラ11a,1
1bで撮影した画像、例えば図8に示すような画像(図
8は片方のカメラで撮像した画像を示す)を前記ステレ
オ画像処理装置20で処理すると、図9のような画像と
なる。
The distance distribution information output from the stereo image processing device 20 described above is in the form of an image (distance image), and two CCD cameras 11a, 1 on the left and right sides are provided.
When an image captured by 1b, for example, an image as shown in FIG. 8 (FIG. 8 shows an image captured by one camera) is processed by the stereo image processing apparatus 20, an image as shown in FIG. 9 is obtained.

【0073】図9に示す画像例では、画像サイズは横4
00画素×縦200画素であり、距離データを持ってい
るのは黒点の部分で、これは図8の画像の各画素のう
ち、左右方向に隣合う画素間で明暗変化が大きい部分で
ある。画像上の座標系は、図9に示すように、左上隅を
原点として横方向をi座標軸,縦方向をj座標軸とし、
単位は画素である。
In the image example shown in FIG. 9, the image size is horizontal 4.
The number of pixels is 00 pixels × 200 pixels in the vertical direction, and the portion having the distance data is a black dot portion. This is a portion of each pixel of the image in FIG. 8 in which the brightness change between adjacent pixels in the left-right direction is large. As shown in FIG. 9, the coordinate system on the image has an upper left corner as an origin, a horizontal direction as an i coordinate axis, and a vertical direction as a j coordinate axis.
The unit is a pixel.

【0074】この距離画像は、前記道路・側壁検出装置
100に読み込まれ、道路上の白線と、道路周辺に存在
する側壁が検出される。この場合、前記道路・側壁検出
装置100では、物体の三次元的な位置情報を利用し、
道路と側壁の区別は道路表面からの高さによって行い、
側壁と背景の区別は距離の値によって行なう。
The distance image is read by the road / side wall detecting device 100, and the white line on the road and the side walls existing around the road are detected. In this case, the road / sidewall detection device 100 uses the three-dimensional position information of the object,
The road and the side wall are distinguished by the height from the road surface,
The side wall and the background are distinguished by the distance value.

【0075】このため、前記道路・側壁検出装置100
では、まず、前記ステレオ画像処理装置20からの距離
画像の座標系を、自車(車輌1)を取り巻く実空間の座
標系に変換し、検出した道路形状や側壁に対し、位置や
大きさを計算する。
Therefore, the road / side wall detecting device 100
Then, first, the coordinate system of the distance image from the stereo image processing device 20 is converted into the coordinate system of the real space surrounding the own vehicle (vehicle 1), and the position and size are detected with respect to the detected road shape and side wall. calculate.

【0076】すなわち、図10及び図11に示すよう
に、実空間の座標系を車輌1固定の座標系とし、X軸を
車輌1の右側側方、Y軸を車輌1の上方、Z軸を車輌1
の前方、原点を2台のCCDカメラ11a(12b),
11b(12b)の中央の真下の道路面とすると、XZ
平面(Y=0)は、道路が平坦な場合、道路面と一致す
ることになり、画像中の距離情報(i,j,Z)から被
写体の三次元位置(X,Y,Z)を算出するには、以下
の(3),(4)式により一種の座標変換を行なう。
That is, as shown in FIGS. 10 and 11, the coordinate system of the real space is a fixed coordinate system of the vehicle 1, the X axis is on the right side of the vehicle 1, the Y axis is above the vehicle 1, and the Z axis is. Vehicle 1
In front of, the origin is two CCD cameras 11a (12b),
Assuming the road surface directly below the center of 11b (12b), XZ
When the road is flat, the plane (Y = 0) coincides with the road surface, and the three-dimensional position (X, Y, Z) of the subject is calculated from the distance information (i, j, Z) in the image. To do so, a kind of coordinate conversion is performed by the following equations (3) and (4).

【0077】 Y=CH−Z×PW×(j−JV) (3) X=r/2+Z×PW×(i−IV) (4) ここで、 CH :CCDカメラ11(CCDカメ
ラ12)の取付け高さ、 PW :1画素当たりの視野角、 JV,IV:車輌1の真正面の無限遠点の画像上の座標
である。
Y = CH-Z * PW * (j-JV) (3) X = r / 2 + Z * PW * (i-IV) (4) where: CH: Attachment of CCD camera 11 (CCD camera 12) Height, PW: viewing angle per pixel, JV, IV: coordinates on the image of the point at infinity in front of the vehicle 1.

【0078】また、実空間の三次元座標(X,Y,Z)
から画像上の位置(i,j)を算出する式も、前記
(3),(4)式を変形し、次のようになる。
Also, three-dimensional coordinates (X, Y, Z) in the real space
The equation for calculating the position (i, j) on the image from is also the following by modifying the equations (3) and (4).

【0079】 j=(CH−Y)/(Z×PW)+JV (5) i=(X−r/2)/(Z×PW)+IV (6) 尚、CCDカメラ11の取り付け位置を、前記実空間の
XYZ座標系で示すと、例えば、右側のCCDカメラ1
1bは、X=0.45m,Y=1.24m,Z=0.0
mであり、左側のCCDカメラ11aは、X=−0.4
5m,Y=1.24m,Z=0.0mとなる。
J = (CH−Y) / (Z × PW) + JV (5) i = (X−r / 2) / (Z × PW) + IV (6) In addition, the mounting position of the CCD camera 11 is as described above. In the XYZ coordinate system of the real space, for example, the CCD camera 1 on the right side
1b has X = 0.45 m, Y = 1.24 m, Z = 0.0
m, and the CCD camera 11a on the left side has X = −0.4.
5m, Y = 1.24m, Z = 0.0m.

【0080】前記道路・側壁検出装置100の認識機能
は、図12に示すように、道路検出部110と、側壁検
出部120とに大別され、処理結果が、道路・側壁パラ
メータ記憶部130としての出力メモリ100eに記憶
され、図示しない外部装置に読み込まれる。
As shown in FIG. 12, the recognition function of the road / sidewall detecting device 100 is roughly divided into a road detecting unit 110 and a sidewall detecting unit 120, and the processing result is stored in the road / sidewall parameter storage unit 130. Is stored in the output memory 100e of FIG.

【0081】前記道路検出部110は、前記距離画像に
含まれる距離分布の情報(三次元位置情報)に基づいて
道路モデルを決定し、この道路モデルを道路形状として
検出する道路検出手段としての機能を有し、道路形状推
定部111、三次元ウインドウ発生部112、直線要素
検出部113、及び、道路形状判定部114から構成さ
れている。また、前記側壁検出部120は、立体物デー
タ抽出部121、側壁直線検出部122、及び、側壁範
囲検出部123から構成されている。
The road detection unit 110 functions as road detection means for determining a road model based on the distance distribution information (three-dimensional position information) included in the distance image and detecting the road model as a road shape. And has a road shape estimation unit 111, a three-dimensional window generation unit 112, a linear element detection unit 113, and a road shape determination unit 114. The side wall detection unit 120 includes a three-dimensional object data extraction unit 121, a side wall straight line detection unit 122, and a side wall range detection unit 123.

【0082】道路形状推定部111は、前記距離画像に
含まれる距離分布の情報に基づいて、道路の白線の位置
及び形状を推定する道路形状推定手段としての機能を有
し、三次元ウインドウ発生部112は、推定した道路の
白線を包合する三次元の空間領域を三次元ウインドウと
して設定する三次元ウインドウ設定手段としての機能を
有している。
The road shape estimating unit 111 has a function as a road shape estimating unit for estimating the position and shape of the white line of the road based on the information of the distance distribution included in the distance image, and the three-dimensional window generating unit. Reference numeral 112 has a function as a three-dimensional window setting means for setting a three-dimensional space area that includes the estimated white line of the road as a three-dimensional window.

【0083】また、直線要素検出部113は、前記距離
分布の情報の中から前記三次元ウインドウ内のデータの
みを抽出し、前記道路モデルを構成する三次元の直線要
素を検出する直線要素検出手段としての機能を有し、道
路形状判定部114は、検出した直線要素の妥当性を判
定し、判定基準に合致しない場合には前記直線要素を修
正あるいは変更し、前記道路モデルを決定する道路形状
判定手段としての機能を有している。
Further, the linear element detecting unit 113 extracts only the data in the three-dimensional window from the information on the distance distribution, and detects the three-dimensional linear elements constituting the road model. The road shape determining unit 114 determines the adequacy of the detected straight line element, and corrects or changes the straight line element if the straight line element does not meet the determination criterion, and determines the road model. It has a function as a determination means.

【0084】また、立体物データ抽出部121は、決定
した道路モデルに基づいて、前記距離分布の情報の中か
ら道路表面より上にあるデータのみを抽出するデータ抽
出手段としての機能を有し、側壁直線検出部122は、
抽出した立体物データの中から、予め設定された側壁の
探索領域内のデータのみを抽出し、これをハフ変換で処
理して側壁の有無と側壁の位置を示す直線式とを検出す
る側壁直線検出手段としての機能を有している。
Further, the three-dimensional object data extracting unit 121 has a function as a data extracting means for extracting only the data above the road surface from the information of the distance distribution based on the determined road model, The sidewall straight line detection unit 122
From the extracted three-dimensional object data, only the data within the preset side wall search area is extracted, and this is processed by Hough transform to detect the presence or absence of the side wall and the linear expression indicating the position of the side wall. It has a function as a detection means.

【0085】また、側壁範囲検出部123は、側壁の位
置を示す直線式に基づいて、側壁が存在すると推定され
る側壁候補領域を設定し、この側壁候補領域内の立体物
データの分布状態から、側壁の前後端の位置を検出する
側壁範囲検出手段としての機能を有している。
Further, the side wall range detection unit 123 sets a side wall candidate area in which it is estimated that the side wall exists based on the linear expression indicating the position of the side wall, and based on the distribution state of the three-dimensional object data in this side wall candidate area. , And has a function as a side wall range detecting means for detecting the positions of the front and rear ends of the side wall.

【0086】前記道路検出部110では、距離画像メモ
リ20bに記憶された距離画像による三次元的な位置情
報を利用し、実際の道路上の白線だけを分離して抽出
し、内蔵した道路モデルのパラメータを、実際の道路形
状と合致するよう修正・変更して道路形状を認識する。
The road detection unit 110 utilizes the three-dimensional position information based on the distance image stored in the distance image memory 20b, separates and extracts only the white line on the actual road, and stores the built-in road model. The road shape is recognized by modifying / changing the parameters so that they match the actual road shape.

【0087】実際の画像では、道路上の白線に先行車等
が重なって写るが、画像に写った道路の白線を二次元的
な特徴を頼りに検出する従来の多くの装置では、白線と
立体物とを二次元的な特徴によって分離することは困難
な場合が多いが、本発明では白線の三次元的な位置情報
を利用することにより、確実に白線と立体物とを分離す
ることができる。
In the actual image, the white line on the road is overlapped by the preceding vehicle and the like, but in many conventional devices that detect the white line of the road reflected in the image by relying on the two-dimensional characteristics, the white line and the stereo It is often difficult to separate an object from a two-dimensional feature, but in the present invention, the white line and a three-dimensional object can be reliably separated by using the three-dimensional position information of the white line. .

【0088】すなわち、三次元空間では白線は道路の平
面上にあり、一方、先行車等の立体物は道路平面より高
い位置にある。そこで、道路面からの高さによって白線
と立体物を区別するのである。
That is, in the three-dimensional space, the white line is on the plane of the road, while the three-dimensional object such as the preceding vehicle is located higher than the plane of the road. Therefore, the white line and the three-dimensional object are distinguished by the height from the road surface.

【0089】さらに、道路検出部110には道路モデル
が内蔵されており、この道路モデルは、認識対象範囲ま
での道路の自車線を、設定した距離によって複数個の区
間に分け、各区間毎に左右の白線を、後述する三次元の
直線式で近似して折れ線状に連結したものであり、左右
の折れ線で囲まれた範囲を自分の走行車線と判断する。
道路形状の認識とは、三次元の直線式のパラメータを導
出するプロセスともいえる。
Further, the road detection unit 110 has a built-in road model, and this road model divides the own lane of the road to the recognition target range into a plurality of sections according to the set distance, and for each section. The left and right white lines are connected in a polygonal line shape by approximating them by a three-dimensional linear equation described later, and the range enclosed by the left and right polygonal lines is determined to be the driving lane.
It can be said that the recognition of the road shape is a process of deriving the three-dimensional linear equation parameters.

【0090】図13は道路モデルの例であり、例えば、
前方84mまでの道路を、第0区間R0,第1区間R1,
第2区間R2,…,第6区間R6の7区間に分け、左カー
ブを近似表現したものである。この道路モデルでは、7
個の区間で道路を近似表現することにより、直線路のみ
でなくカーブやS字路も十分な精度で表現でき、また、
各区間は直線で表現されるため、計算処理や取扱いが簡
単である。さらに、後述するように、各区間は、水平方
向及び垂直方向の直線式で表され、道路の上り下りや凹
凸等の、道路の上下方向の形状も表現できる。
FIG. 13 is an example of a road model. For example,
0m section R0, 1st section R1,
The left curve is approximated by being divided into seven sections of the second section R2, ..., And the sixth section R6. In this road model, 7
By approximating roads with individual sections, not only straight roads but also curves and S-shaped roads can be expressed with sufficient accuracy.
Since each section is represented by a straight line, calculation processing and handling are easy. Further, as will be described later, each section is represented by a linear expression in the horizontal direction and the vertical direction, and the shape in the up-down direction of the road such as up and down and unevenness of the road can also be expressed.

【0091】尚、前記道路モデルの各区間を区切る距離
の値は、走行する道路のカーブの曲率に応じて変更する
必要がある。一般の高速道路ではカーブの半径は最小で
230m程度に設計されているため、このような場合、
各区間の区切り距離を、10m,17m,25m,35
m,48m,64m,84mにすると良好な結果が得ら
れる。
The value of the distance separating each section of the road model needs to be changed according to the curvature of the curve of the road on which the vehicle travels. In general highways, the radius of the curve is designed to be a minimum of about 230m, so in such a case,
The division distance of each section is 10m, 17m, 25m, 35
Good results are obtained with m, 48 m, 64 m and 84 m.

【0092】次に、道路検出部110の機能を詳細に説
明する。道路形状推定部111では、前回(Δtsec
前)の道路形状の認識結果を基にし、車速センサ3、舵
角センサ4からの出力信号を使ってΔt秒間の車輌1の
動きを算出し、Δt秒後の車輌1の位置から見た道路形
状を推定する。
Next, the function of the road detector 110 will be described in detail. In the road shape estimation unit 111, the last time (Δtsec
Based on the result of the road shape recognition described above, the movement of the vehicle 1 for Δt seconds is calculated using the output signals from the vehicle speed sensor 3 and the steering angle sensor 4, and the road viewed from the position of the vehicle 1 after Δt seconds. Estimate the shape.

【0093】すなわち、車速センサ3の出力信号をV
(m/sec)、ステアリング・コラムに取り付けた舵
角センサ4の出力信号(操舵角)をη(rad)とする
と、Δt秒間の車輌1の前進量ΔZ(m)と回転角(ヨ
ー角)Δθ(rad)は、一般に次式で概算できる。
That is, the output signal of the vehicle speed sensor 3 is set to V
(M / sec), assuming that the output signal (steering angle) of the steering angle sensor 4 attached to the steering column is η (rad), the amount of forward movement ΔZ (m) and the rotation angle (yaw angle) of the vehicle 1 for Δt seconds. Δθ (rad) can be generally estimated by the following equation.

【0094】 ΔZ=V×Δt (7) Δθ=ΔZ×tan(η/rs)×1/wb (8) ここで、rs:ステアリングと前輪の回転比、 wb:車輌のホイールベースである。ΔZ = V × Δt (7) Δθ = ΔZ × tan (η / rs) × 1 / wb (8) Where, rs is the rotation ratio between the steering wheel and the front wheels, and wb is the wheel base of the vehicle.

【0095】従って、前回の処理で検出した道路形状を
ΔZだけ手前に移動し、さらに、Δθだけ車輌1の回転
と逆方向に道路形状を回転させることにより、Δt秒後
の道路の概略の位置と形状が推定できるのである。
Therefore, the road shape detected in the previous process is moved forward by ΔZ, and further the road shape is rotated in the opposite direction to the rotation of the vehicle 1 by Δθ, whereby the approximate position of the road after Δt seconds is reached. The shape can be estimated.

【0096】三次元ウインドウ発生部112では、推定
した道路形状RDを表す左右の折れ線の内の一つの直線
要素Ldを中心として、図14に示すような直方体状の
三次元空間領域すなわち三次元ウインドウWD3Aを設定
し、この設定した三次元ウインドウWD3Aが、図15に
示すように、二次元の画像上でどのように見えるかを計
算し、ウインドウ輪郭線の内側(図15中の斜線部分)
を二次元ウインドウWD2Aとし、この中のデータのみを
検出対象とする。
In the three-dimensional window generating unit 112, a rectangular parallelepiped three-dimensional space area, that is, a three-dimensional window as shown in FIG. 14 is centered on one straight line element Ld of the left and right broken lines representing the estimated road shape RD. WD3A is set, and how the set three-dimensional window WD3A looks on a two-dimensional image is calculated as shown in FIG. 15, and the inside of the window contour line (hatched portion in FIG. 15) is calculated.
Is a two-dimensional window WD2A, and only the data in this is the detection target.

【0097】三次元ウインドウWD3Aから二次元ウイン
ドウWD2Aを求めるには、三次元ウインドウWD3Aの8
個の頂点の各座標(Xn,Yn,Zn)から、前述した
(5)(6)式を用いて画像上の座標(in,jn)を
計算し、これらの点を包絡する多角形を計算する。
To obtain the two-dimensional window WD2A from the three-dimensional window WD3A, 8 of the three-dimensional window WD3A is used.
From the coordinates (Xn, Yn, Zn) of the respective vertices, the coordinates (in, jn) on the image are calculated by using the formulas (5) and (6) described above, and the polygon enclosing these points is calculated. To do.

【0098】この三次元ウインドウWD3Aは、長さを各
区間の区切り距離(例えば、第1区間R1では前方10
〜17m)と等しくし、一方、高さと幅は、車速等の状
況に応じて変化させるが、道路形状の推定に誤差があ
り、実際の白線の位置とのずれが予想される場合には、
高さや幅を大きくして検出する範囲を広くする。しか
し、ウインドウを大きくし過ぎると、道路周辺の縁石や
草木等も検出してしまい、誤認識の原因となるため、ウ
インドウの大きさを適切に選定することは重要である。
一般の高速道路の走行では、試験の結果、高さ0.4m
〜0.8m、幅0.4〜1.6mの範囲で変化させると
良いことがわかっている。
This three-dimensional window WD3A has a length that divides each section (for example, the front 10 in the first section R1).
-17 m), while the height and width are changed according to the situation such as the vehicle speed, but if there is an error in the estimation of the road shape and a deviation from the actual white line position is expected,
Increase the height and width to widen the detection range. However, if the window is made too large, curbs and vegetation around the road will also be detected, which may cause misrecognition. Therefore, it is important to properly select the size of the window.
When driving on general highways, the test results show that the height is 0.4 m.
It has been found that it is preferable to change the width within the range of 0.8 m and the width of 0.4 m to 1.6 m.

【0099】このように、二次元の画像上では道路の白
線と立体物が重なり合っていても、三次元ウィンドウを
設定して道路の表面付近のデータのみを抽出することに
より、白線を立体物と区別して検出できる。また、道路
周辺には縁石や草木等もあるが、三次元ウィンドウを設
定して白線があると推定される位置の近辺のデータのみ
を抽出することによって、道路上の白線をこれらの縁石
や草木等と区別して検出できる。さらには、二次元ウィ
ンドウを設定することにより、探索する領域及びデータ
数を少なくして処理時間を短縮することができるのであ
る。
As described above, even if the white line of the road and the three-dimensional object are overlapped on the two-dimensional image, the three-dimensional window is set to extract only the data near the surface of the road so that the white line becomes the three-dimensional object. It can be detected separately. Although there are curbs and vegetation around the road, white lines on the road can be removed by setting up a three-dimensional window and extracting only the data near the position where the white line is estimated. Etc. can be detected separately. Furthermore, by setting a two-dimensional window, it is possible to shorten the processing time by reducing the area to be searched and the number of data.

【0100】直線要素検出部113では、先に推定した
道路形状の直線要素Ldに対し、被写体の三次元位置の
X方向のずれ量ΔX、Y方向のずれ量ΔYを計算し、こ
のずれ量ΔX,ΔYに応じて設定した重み係数を各デー
タに掛け、最小自乗法により、水平方向(XZ方向)及
び垂直方向(YZ)方向の直線式を導出してパラメータ
を求める。
The linear element detection unit 113 calculates the deviation amount ΔX in the X direction and the deviation amount ΔY in the Y direction of the three-dimensional position of the subject with respect to the previously estimated linear element Ld of the road shape, and the deviation amount ΔX. , ΔY, each data is multiplied by a weighting coefficient, and linear equations in the horizontal direction (XZ direction) and the vertical direction (YZ) direction are derived by the least square method to obtain the parameters.

【0101】詳細には、まず、二次元ウインドウWD2A
内の画素を順次サーベイして行き、距離データを持って
いる画素について、前述の(3),(4)式を用いて被
写体の三次元位置(X,Y,Z)を計算し、距離Zの値
が三次元ウインドウWD3Aの長さの範囲(例えば、第1
区間R1ではZ=10〜17m)の外にある距離データ
は検出対象から除外する。
Specifically, first, the two-dimensional window WD2A
The pixels in the area are sequentially surveyed, and for the pixels having distance data, the three-dimensional position (X, Y, Z) of the object is calculated using the above equations (3) and (4), and the distance Z Is a range of the length of the three-dimensional window WD3A (for example, the first
Distance data outside Z = 10 to 17 m in the section R1 is excluded from the detection target.

【0102】すなわち、三次元ウインドウWD3Aの向こ
う側や手前側にある物体の画像は、二次元ウインドウW
D2A内に写り込むため、二次元ウインドウWD2A内でサ
ーベイされる被写体は、三次元ウインドウWD3Aに包含
されるとは限らない。そこで、各画素の被写体の三次元
位置(X,Y,Z)を計算し、三次元ウインドウWD3A
に含まれるか否かを判別するのである。
That is, the image of the object on the other side or the front side of the three-dimensional window WD3A is the two-dimensional window W.
Since the image is reflected in D2A, the subject surveyed in the two-dimensional window WD2A is not always included in the three-dimensional window WD3A. Therefore, the three-dimensional position (X, Y, Z) of the subject of each pixel is calculated, and the three-dimensional window WD3A
It is determined whether or not it is included in.

【0103】続いて、先に推定した道路形状の直線要素
Ldと被写体の三次元位置を比較して図16に示すよう
なデータDiのX方向、Y方向のずれ量ΔXi、ΔYiを
計算し、三次元ウインドウWD3Aの幅、高さの範囲内に
あるデータのみを選別した後、X方向、Y方向のずれ量
ΔXi、ΔYiに応じたデータDiの重み係数を決定す
る。
Then, the previously estimated linear element Ld of the road shape is compared with the three-dimensional position of the object to calculate the shift amounts ΔXi and ΔYi of the data Di in the X and Y directions as shown in FIG. After selecting only the data within the width and height of the three-dimensional window WD3A, the weighting coefficient of the data Di corresponding to the deviation amounts ΔXi and ΔYi in the X and Y directions is determined.

【0104】前記重み係数は、図17に示すように、例
えば、中心を1.0、周辺を0.0とする放物線状で、
X方向の重み係数fxとY方向の重み係数fyの積を、
そのデータDiの重み係数としている。また、重み係数
が0.0以上となるX方向、Y方向の範囲は、三次元ウ
インドウWD3Aの幅、高さと同一とするか、あるいは、
これらより大きくする。
As shown in FIG. 17, the weighting factor is, for example, parabolic with the center being 1.0 and the periphery being 0.0,
The product of the weighting factor fx in the X direction and the weighting factor fy in the Y direction is
The data Di is used as a weighting coefficient. The range in the X and Y directions where the weighting factor is 0.0 or more is the same as the width and height of the three-dimensional window WD3A, or
Make it larger than these.

【0105】各データDiに対して、前記重み係数を掛
けた後、最小自乗法を用いて、以下の(9),(10)
式に示す水平方向及び垂直方向の直線式を導出し、パラ
メータa,b,c,dを求め、これを新しい直線要素L
dの候補とする。
After multiplying each data Di by the weighting coefficient, the following (9) and (10) are obtained by using the least squares method.
The linear equations in the horizontal and vertical directions shown in the equation are derived, the parameters a, b, c, d are obtained, and the new linear elements L are obtained.
It is a candidate for d.

【0106】 水平方向:X=a×Z+b (9) 垂直方向:Y=c×Z+d (10) 同時に、重み係数が設定値(例えば、0.05〜0.1
程度)以上のデータについて、その個数と、それらのデ
ータが分布する距離Zの範囲を調べ、データ数が設定値
(例えば、10個程度)以下の場合、または距離Zの範
囲が三次元ウインドウWD3Aの長さ(例えば、第1区間
R1ではZ=10m〜17mの長さ7m)の1/2 以下の
場合には、正確な直線要素Ldの候補は得られていない
と判断し、前記で求めた直線式は棄却し、候補なしとす
る。
Horizontal direction: X = a × Z + b (9) Vertical direction: Y = c × Z + d (10) At the same time, the weighting factor is a set value (for example, 0.05 to 0.1).
For the above data, the number and the range of the distance Z over which the data are distributed are examined. When the number of data is less than a set value (for example, about 10), or the range of the distance Z is the three-dimensional window WD3A. Is less than 1/2 of the length (for example, the length 7 m of Z = 10 m to 17 m in the first section R1), it is determined that an accurate candidate for the linear element Ld has not been obtained, and the above is calculated as described above. The straight line formula is rejected and there is no candidate.

【0107】以上の処理を、左右および手前側から遠方
側の区間に向かって順次行い、道路モデルを構成する全
ての直線要素Ldの候補を求める。この場合、三次元ウ
ィンドウの幅の設定が大き過ぎると、道路周辺の縁石や
草木等が三次元ウィンドウの端に掛かって来る場合があ
るが、この直線要素検出部113では、各データに重み
係数を掛けて三次元ウィンドウの周辺部の重みを小さく
することにより、万一、縁石や草木等が掛かってきた場
合にも、これらの影響を小さくし、安定して白線の直線
式が導出できるのである。
The above processing is sequentially performed from the left and right sides and from the front side to the distant side section to obtain candidates for all the linear elements Ld constituting the road model. In this case, if the setting of the width of the three-dimensional window is too large, curbstones or vegetation around the road may hang on the edges of the three-dimensional window. Multiplying the weight of the peripheral part of the three-dimensional window to reduce the influence of curbs and vegetation, and to derive a stable straight line straight line formula. is there.

【0108】道路形状判定部114では、各区間につい
て、左右両方の直線要素Ldの候補について、水平方向
及び垂直方向の平行度から妥当性を判定する。その判定
の結果、妥当と判定した場合には、両方を新しい直線要
素Ldの候補として採用し、一方、左右いずれかの直線
要素Ldの候補が正確でないと判定した場合には、直線
要素Ldの代用、補完を行なう。そして、求められた各
直線要素Ldのパラメータを道路・側壁パラメータ記憶
部130に出力する。
The road shape determination unit 114 determines the validity of each of the left and right linear element Ld candidates for each section from the parallelism in the horizontal and vertical directions. If the result of the determination is that it is appropriate, both are adopted as candidates for the new linear element Ld, while if it is determined that the candidate for either the left or right linear element Ld is not correct, the linear element Ld Substitute and complement. Then, the obtained parameters of each linear element Ld are output to the road / sidewall parameter storage unit 130.

【0109】具体的には、まず、左側の直線要素Ldに
対する(9)式のパラメータ(以下、左側を表すL、右
側を表すRを各パラメータに付加して示す)aLと、右
側の直線要素Ldに対する(9)式のパラメータaRと
の差異から、水平方向の平行度を調べ、設定値(例え
ば、5°程度)以上の場合には、左右いずれかの直線要
素Ldは不正確であると判定する。同様にして、パラメ
ータcLとパラメータcRの差異から垂直方向の平行度
を調べ、設定値(例えば、1°程度)以上の場合は、い
ずれかの直線要素は不正確であると判定する。
Specifically, first, the parameters of the expression (9) for the left-side linear element Ld (hereinafter, L indicating the left side and R indicating the right side are added to each parameter) aL and the right-side linear element The parallelism in the horizontal direction is checked from the difference from the parameter aR of the equation (9) with respect to Ld, and when the value is equal to or more than the set value (for example, about 5 °), the linear element Ld on either the left or right side is inaccurate. judge. Similarly, the parallelism in the vertical direction is checked from the difference between the parameter cL and the parameter cR, and if it is equal to or larger than the set value (for example, about 1 °), it is determined that any of the linear elements is inaccurate.

【0110】この判定の結果、水平方向及び垂直方向い
ずれの平行度も条件を満たす場合には、両方が新しい直
線要素として採用されるが、左右いずれかの直線要素L
dが不正確と判定されると、左右の各々の直線要素Ld
の候補と先に推定した道路形状の位置とを比較し、ずれ
量が少ない方を新しい直線要素Ldとして採用し、他方
は棄却して候補なしとする。
If the result of this determination is that both the horizontal and vertical parallelisms satisfy the conditions, both are adopted as new linear elements, but either the left or right linear element L
When d is determined to be inaccurate, the left and right linear elements Ld
And the previously estimated position of the road shape are compared, and the one with the smaller deviation is adopted as the new linear element Ld, and the other is rejected and there is no candidate.

【0111】そして、平行度の判定により左右いずれか
の直線要素Ldが候補なしとされた場合、あるいは、道
路上の白線が破線状であったり、障害物に隠れて見えな
いためにデータが不足して左右いずれかの直線要素Ld
が候補なしと判定された場合には、検出された側の直線
要素Ldを車線の幅だけ並行移動して代用する。さら
に、左右両方の直線要素Ldが候補なしの場合には、先
に推定した道路形状の直線要素Ldを代用する。これに
より、部分的に直線要素の検出失敗や誤検出が発生して
も、全体としては安定した道路形状が得られるのであ
る。
If the straight line element Ld on either the left or right is determined as no candidate by the parallelism determination, or the white line on the road has a broken line shape or is hidden by an obstacle and cannot be seen, data is insufficient. And then either the left or right linear element Ld
If it is determined that there is no candidate, the linear element Ld on the detected side is moved in parallel by the width of the lane to substitute it. Furthermore, when there is no candidate for both the left and right linear elements Ld, the previously estimated linear element Ld of the road shape is substituted. As a result, a stable road shape can be obtained as a whole even if a detection failure or an erroneous detection of a linear element occurs partially.

【0112】図18は、道路検出部110によって検出
された道路形状を図式化した説明図あり、左右の白線に
沿って直線要素が検出されている。尚、左右の直線要素
の間の横線は、各区間の境界である。
FIG. 18 is an explanatory diagram showing the road shape detected by the road detection unit 110 in a schematic form, in which straight line elements are detected along the left and right white lines. The horizontal line between the left and right linear elements is the boundary of each section.

【0113】次に、側壁検出部120について説明す
る。この側壁検出部120では、側壁と道路との区別を
道路表面からの高さによって行ない、側壁と遠方の背景
との区別を、前後方向と横方向の距離によって行なうこ
とにより、側壁が存在すると推定される周辺のデータの
みを抽出し、続いて側壁のデータは水平方向に直線的に
並んでいる特徴に注目してこれをハフ変換によって検出
し、位置を求める。
Next, the side wall detector 120 will be described. In the side wall detection unit 120, the side wall is distinguished from the road by the height from the road surface, and the side wall and the distant background are distinguished by the front-rear direction and the lateral direction. Only the peripheral data to be extracted are extracted, and then the side wall data is detected by the Hough transform by paying attention to the features that are linearly aligned in the horizontal direction, and the position is obtained.

【0114】詳細には、側壁は立体物の一種であるか
ら、まず、立体物データ抽出部121で、前述した道路
検出部110における検出結果のパラメータを読み込ん
で道路表面の高さHを設定し、この道路表面の高さHよ
り上にある立体物のデータを、距離画像の中から抽出す
る。尚、白線が無い道路では、道路表面は車輌1に水平
であると仮定して道路表面の高さを設定する。
In detail, since the side wall is a kind of three-dimensional object, first, the three-dimensional object data extraction unit 121 reads the parameters of the detection result of the road detection unit 110 described above and sets the height H of the road surface. Data of a three-dimensional object located above the height H of the road surface is extracted from the distance image. In addition, on a road without a white line, the height of the road surface is set on the assumption that the road surface is horizontal to the vehicle 1.

【0115】距離画像における被写体は、画像上の座標
(i,j)と距離データZから、前述の(3),(4)
式を使って実空間の三次元位置(X,Y,Z)が算出さ
れ、さらに、先に検出した道路形状の式(10)を使っ
て、距離Zに於ける道路表面の高さYrが計算される。
被写体の道路表面からの高さHは、次の(11)式で計
算することができる。
The object in the distance image is obtained from the coordinates (i, j) on the image and the distance data Z from the above (3) and (4).
The three-dimensional position (X, Y, Z) in the real space is calculated using the formula, and the height Yr of the road surface at the distance Z is calculated using the formula (10) of the road shape detected previously. Calculated.
The height H of the subject from the road surface can be calculated by the following equation (11).

【0116】 H=Y−Yr (11) 高さHが0.1m程度以下の被写体は、道路上の白線や
汚れ、影等と考えられるため、この被写体のデータは棄
却する。また、車輌の高さより上にある被写体も、歩道
橋や標識等と考えられるので棄却し、道路上の立体物の
データのみを選別する。
H = Y−Yr (11) Since a subject whose height H is about 0.1 m or less is considered to be a white line, dirt, shadow, etc. on the road, the data of this subject is rejected. Also, subjects above the height of the vehicle are considered to be pedestrian bridges, signs, etc., and are therefore rejected, and only the data of three-dimensional objects on the road are selected.

【0117】前記立体物データ抽出部121では、画面
に写っている広範囲の立体物のデータが抽出される。こ
れら全てを処理することは合理的でないため、側壁直線
検出部122では、側壁を探索する領域に制限を設け
る。
The three-dimensional object data extraction unit 121 extracts a wide range of three-dimensional object data shown on the screen. Since it is not rational to process all of these, the side wall straight line detection unit 122 limits the region for searching the side wall.

【0118】この場合、距離画像が計測される範囲を上
から見ると、CCDカメラ11の視野に制限されて図1
9のようになっており、道路を通常走行している場合に
は、側壁は車輌1の左側と右側に、車輌1と概ね平行に
存在する。一方、遠くの側壁は、距離データの精度の面
から検出が困難になり、且つ、検出の必要性も小さい。
そこで、これらを考慮し、図示したような左側と右側の
2つの探索領域SL,SRを設定し、左側と右側の側壁
を別々に検出して行く。
In this case, when the range in which the distance image is measured is viewed from above, the field of view of the CCD camera 11 is limited and the range of FIG.
When the vehicle is normally traveling on the road, the side walls are present on the left side and the right side of the vehicle 1 and substantially parallel to the vehicle 1. On the other hand, the far side wall is difficult to detect from the viewpoint of accuracy of distance data, and the necessity of detection is small.
Therefore, in consideration of these, two left and right search regions SL and SR as shown in the figure are set, and the left and right side walls are detected separately.

【0119】すなわち、各探索領域SL,SRに含まれ
る立体物データを抽出するには、前記立体物データ抽出
部121で抽出された各データの被写体の三次元位置
(X,Z座標)を計算し、この三次元位置(X,Z)と
各探索領域SL,SRとを、それぞれ比較して判定する
のである。
That is, in order to extract the three-dimensional object data included in each of the search areas SL and SR, the three-dimensional position (X, Z coordinates) of the subject of each data extracted by the three-dimensional object data extracting unit 121 is calculated. Then, the three-dimensional position (X, Z) and the respective search areas SL, SR are compared and determined.

【0120】例えば図20に示すような状況では、画像
上に前記各探索領域SL,SRを図示すると破線枠のよ
うになり、これらの探索領域内にも、目的とする側壁の
他に歩行者や電柱等様々な立体物が存在する。さらに、
距離画像にはノイズ状の偽データも含まれており、実際
には物体が存在しない空間にデータのみが分散して存在
する。これらのデータを模式的に示すと図21のように
なり、この中で側壁は、そのデータが直線状に並んでい
る特徴がある。そこで、ハフ変換を使用してデータの列
の直線式を検出することによって側壁の検出を行なう。
For example, in the situation as shown in FIG. 20, the search areas SL and SR are shown on the image as a broken line frame, and the pedestrians other than the desired side wall are also included in these search areas. There are various three-dimensional objects such as electric poles. further,
The range image also contains noise-like fake data, and only the data exists in a space where no object actually exists. FIG. 21 schematically shows these data, and the side wall is characterized in that the data is linearly arranged. Therefore, the side wall is detected by using the Hough transform to detect the linear expression of the data column.

【0121】このハフ変換による直線式の検出について
説明すると、まず、図22の立体物データPi(座標X
i,Zi)に対し、このデータPiの点を通る直線Fiを想
定する。この直線の式は、以下の(12)式で示され
る。
The detection of the linear equation by the Hough transform will be described. First, the three-dimensional object data Pi (coordinate X
For i, Zi), assume a straight line Fi passing through the point of this data Pi. The equation of this straight line is shown by the following equation (12).

【0122】 X=afi×Z+bfi (12) 次に図23に示すように、縦軸が式(12)の傾きa
f、横軸が切片bfのパラメータ空間を設定し、式(1
2)のパラメータafi,bfiに相当する位置に投票を
行う。
X = afi × Z + bfi (12) Next, as shown in FIG. 23, the vertical axis indicates the slope a of the equation (12).
f, the horizontal axis is the parameter space of the intercept bf, and the equation (1
Votes are made at positions corresponding to the parameters afi and bfi in 2).

【0123】ここで、傾きafiの値は、前述したよう
に側壁は車輌1と概ね平行と考えられるため、高速道路
では、例えば±10゜(afi:±0.18)程度、一
般道路では、例えば±20゜(afi:±0.36)程度
の範囲で変化させれば実用上十分である。また、切片b
fi の値は、左側の側壁を検出する場合、車輌1の左脇
である例えばX=−1mから−10m程度の範囲、右側
の側壁を検出する場合には、例えばX=+1mから+1
0m程度の範囲に制限する。このように、制限範囲を例
えば±10m程度にするのは、あまり遠く離れた側壁の
検出は実用面の必要性が小さいためである。
Here, the side wall of the slope afi is considered to be substantially parallel to the vehicle 1 as described above. Therefore, on a highway, for example, about ± 10 ° (afi: ± 0.18), and on a general road, For example, it is practically sufficient to change it within a range of about ± 20 ° (afi: ± 0.36). Also, the intercept b
The value of fi is, for example, in the range of X = -1 m to -10 m, which is the left side of the vehicle 1 when detecting the left side wall, and when detecting the right side wall, for example, X = + 1 m to +1.
Limit to a range of about 0 m. Thus, the reason why the limit range is set to, for example, about ± 10 m is that there is little practical need to detect a side wall that is too far away.

【0124】このような制限により、パラメータ空間上
で投票が行われる範囲は、図23に示すような矩形領域
となり、この矩形領域はさらに格子状に分割されて各格
子毎に投票される。式(12)の傾きafiは、所定の
変化範囲内(例えば±10゜〜±20゜)であり、格子
間隔Δaf毎に順次変化させて設定する。切片bfi
は、設定された傾きafiと立体物データPiの座標(X
i,Zi)を式(12)に代入して算出され、これが前記
制限範囲内であればパラメータ空間の該当する格子に投
票される。
Due to such restrictions, the range of voting in the parameter space is a rectangular area as shown in FIG. 23, and this rectangular area is further divided into grids and votes are made for each grid. The slope afi of the equation (12) is within a predetermined change range (for example, ± 10 ° to ± 20 °), and is set by sequentially changing it for each lattice interval Δaf. Intercept bfi
Is the set inclination afi and the coordinates (X
i, Zi) is substituted into the equation (12), and if this is within the limit range, the corresponding lattice in the parameter space is voted.

【0125】検出される側壁の位置、すなわち直線式の
傾きと切片の検出精度は、格子間隔Δaf,Δbfによ
って決定され、格子間隔Δaf,Δbfの設定は、側壁
の情報を利用する外部装置側の要求に基づいて行なわれ
る。例えば、道路を通常走行する場合の衝突等の危険の
検知として利用する場合には、格子間隔Δafは1〜2
゜程度、格子間隔Δbfは0.3〜0.6m程度が良
い。
The position of the side wall to be detected, that is, the accuracy of detecting the slope and intercept of the linear equation is determined by the lattice spacings Δaf and Δbf, and the lattice spacings Δaf and Δbf are set by the external device utilizing the side wall information. It is done on demand. For example, when it is used to detect a danger such as a collision when traveling on a road normally, the lattice spacing Δaf is 1 to 2
And the lattice spacing Δbf is preferably about 0.3 to 0.6 m.

【0126】以上のようにして探索領域内の全立体物デ
ータに対してパラメータ空間への投票を行なう際、図2
2に示すように、直線的に並んだデータが存在すると、
このデータの列と一致するように設定した直線のパラメ
ータafi,bfiに相当するパラメータ空間の格子は多
くの得票を得て、左右の投票領域SL,SR毎に局所極
大値が現れる。図24は、図22に示した立体物データ
の例を処理してパラメータ空間に投票した結果を示し、
この例では局所極大値は43である。
As described above, when voting is performed on the parameter space for all the three-dimensional object data in the search area, as shown in FIG.
As shown in 2, if there are linearly arranged data,
The lattice of the parameter space corresponding to the linear parameters afi and bfi set so as to match the column of this data obtains many votes, and the local maximum value appears in each of the left and right voting regions SL and SR. FIG. 24 shows a result of processing the example of the three-dimensional object data shown in FIG. 22 and voting in the parameter space,
In this example, the local maximum is 43.

【0127】側壁が存在し、明確な立体物データの列が
あるとパラメータ空間の局所極大値は大きな値を示し、
一方、側壁が無く、複数の物体が分散して存在する状態
では局所極大値は小さい値を示す。従って、パラメータ
空間の左右の投票領域SL,SR毎に局所極大値を検出
し、検出した局所極大値が判定値以上であれば側壁が存
在すると判定することができる。判定値は設定する探索
領域の大きさや格子の間隔等を考慮して設定する。
If there is a side wall and there is a clear row of three-dimensional object data, the local maximum of the parameter space shows a large value,
On the other hand, the local maximum shows a small value in the state where there are no side walls and a plurality of objects are dispersed. Therefore, the local maximum value is detected for each of the left and right voting regions SL and SR of the parameter space, and if the detected local maximum value is equal to or larger than the determination value, it can be determined that the sidewall exists. The judgment value is set in consideration of the size of the search area to be set, the interval of the grid, and the like.

【0128】次に、前記側壁直線検出部122で側壁有
りと判定された場合には、側壁範囲検出部123で側壁
の前後端の位置を検出する。局所極大値の格子に相当す
るパラメータaf,bfを読み出すと、側壁は、次の直
線式(13)に沿って存在すると推定され、図22及び
図24の例で検出された直線式を図示すると図25に示
す直線Ffとなる。
Next, when the side wall straight line detecting section 122 determines that there is a side wall, the side wall range detecting section 123 detects the positions of the front and rear ends of the side wall. When the parameters af and bf corresponding to the grid of local maximum values are read, it is estimated that the side wall exists along the following linear equation (13), and the linear equation detected in the example of FIGS. 22 and 24 is illustrated. A straight line Ff shown in FIG. 25 is obtained.

【0129】 X=af×Z+bf (13) まず、直線Ffを中心として幅0.3m〜1.0m程度
の領域を側壁候補領域Tfとすると、この領域は、さら
に図25のようにZ方向に区分される。側壁候補領域T
fの幅は、前記パラメータ空間の格子の間隔Δbfにデ
ータの誤差等を考慮して設定する。
X = af × Z + bf (13) First, assuming that a region having a width of about 0.3 m to 1.0 m centering on the straight line Ff is a sidewall candidate region Tf, this region is further arranged in the Z direction as shown in FIG. Be divided. Sidewall candidate region T
The width of f is set in consideration of a data error or the like in the interval Δbf of the grid of the parameter space.

【0130】次に、前記探索領域内の立体物データを順
次サーベイし、側壁候補領域Tf内にあるデータのみを
抽出した後、区分毎に立体物データの個数をカウント
し、ヒストグラムを作成する。これを模式的に示すと図
26のようになり、側壁が存在する部分では大きな度数
を示す。従って、度数が判定値以上の区分を検出するこ
とによって、この範囲に側壁が存在すると判断すること
ができ、その両端の三次元位置を計算して側壁の前後端
位置とする。
Next, the three-dimensional object data in the search area are sequentially surveyed, only the data in the side wall candidate area Tf are extracted, and then the number of three-dimensional object data is counted for each section to create a histogram. This is schematically shown in FIG. 26, and shows a large frequency in the portion where the side wall exists. Therefore, it is possible to determine that the side wall exists in this range by detecting the section whose frequency is equal to or higher than the determination value, and the three-dimensional positions of both ends of the side wall are calculated and used as the front and rear end positions of the side wall.

【0131】左右両側の側壁を検出するには、まず、側
壁直線検出部122で左側の探索領域SLを設定して側
壁直線検出処理及び側壁範囲検出処理を行なって左側の
側壁を検出した後、再び側壁直線検出部122で右側の
探索領域SRを設定し、同様の処理を繰り返して右側の
側壁を検出する。
To detect the left and right side walls, first, the side wall straight line detection unit 122 sets the left side search area SL to perform the side wall straight line detection processing and the side wall range detection processing to detect the left side wall. The side wall straight line detection unit 122 sets the right side search region SR again, and the same process is repeated to detect the right side wall.

【0132】以上のようにして求められた道路の形状と
側壁の有無、位置等のパラメータは、道路・側壁パラメ
ータ記憶部130に出力され、記憶される。
The parameters such as the shape of the road, the presence / absence of the side wall, and the position obtained as described above are output to and stored in the road / side wall parameter storage unit 130.

【0133】次に、ステレオ画像処理装置20による距
離情報の算出、及び、道路・側壁検出装置100の動作
について説明する。
Next, the calculation of distance information by the stereo image processing apparatus 20 and the operation of the road / sidewall detecting apparatus 100 will be described.

【0134】まず、ステレオ画像処理装置20では、図
27に示すプログラムのステップS101で左右のCCDカ
メラ11a,11bによって撮像した画像を入力する
と、ステップS102で、入力した画像をA/D変換した
後、LUT32a,32bで補正し、画像メモリ33
a,33bに記憶する。
First, in the stereo image processing apparatus 20, when the images picked up by the left and right CCD cameras 11a and 11b are input in step S101 of the program shown in FIG. 27, the input image is A / D converted in step S102. , LUTs 32a, 32b, and image memory 33
It is stored in a and 33b.

【0135】これらの画像メモリ33a,33bに記憶
される画像は、CCDカメラ11a,11bのCCD素
子の全ラインのうち、その後の処理に必要なラインのみ
であり、例えば0.1秒に1回の割合(テレビ画像で3
枚に1枚の割合)で書き換えられる。
The images stored in these image memories 33a and 33b are only the lines necessary for subsequent processing out of all lines of the CCD elements of the CCD cameras 11a and 11b, for example, once every 0.1 seconds. Percentage (3 on TV image
It is rewritten at a ratio of 1 to 1.

【0136】次に、ステップS103へ進むと、左右画像用
の画像メモリ33a,33bから入力バッファメモリ4
1a,41b,42a,42bへ、共通バス80を介し
て、例えば4ラインずつ左右画像データが読み込まれ、
読み込んだ左右画像のマッチング、すなわち一致度の評
価が行なわれる。
Next, in step S103, the image memories 33a and 33b for the left and right images are input to the input buffer memory 4
1a, 41b, 42a, 42b are read via the common bus 80, for example, left and right image data by 4 lines,
The read left and right images are matched, that is, the matching degree is evaluated.

【0137】その際、左右の画像毎に、前記画像メモリ
33a,33bから前記入力バッファメモリ41a,4
1b,42a,42bへの読み込み動作と、シフトレジ
スタ43a,43b,44a,44bに対する書き込み
動作とが交互に行なわれる。例えば、左画像では、画像
メモリ33aから一方の入力バッファメモリ41aに画
像データが読み込まれている間に、他方の入力バッファ
メモリ41bからシフトレジスタ43bへ読み込んだ画
像データの書き出しが行なわれ、右画像では、画像メモ
リ33bから一方の入力バッファメモリ42aに画像デ
ータが読み込まれている間に、他方の入力バッファメモ
リ42bからシフトレジスタ44bへ読み込んだ画像デ
ータの書き出しが行なわれる。
At this time, for each of the left and right images, from the image memories 33a and 33b to the input buffer memories 41a and 4b.
The read operation to 1b, 42a and 42b and the write operation to shift registers 43a, 43b, 44a and 44b are alternately performed. For example, in the left image, while the image data is being read from the image memory 33a to the one input buffer memory 41a, the image data read from the other input buffer memory 41b to the shift register 43b is written, and the right image is written. Then, while the image data is being read from the image memory 33b to the one input buffer memory 42a, the image data read from the other input buffer memory 42b to the shift register 44b is written.

【0138】そして、図28に示すように、前記シフト
レジスタ43a,43b,44a,44bには、左右の
4×4画素の小領域の画像データ(1,1)…(4,
4)が保存され、一方のシフトレジスタ43a(44
a)には1、2ラインのデータが、もう一方のシフトレ
ジスタ43b(44b)には3、4ラインのデータが、
それぞれ1画素毎に奇数ライン、偶数ラインの順序で入
る。
Then, as shown in FIG. 28, the shift register 43a, 43b, 44a, 44b has image data (1, 1) ... (4) in the left and right small regions of 4 × 4 pixels.
4) is stored, and one shift register 43a (44
a) has 1 or 2 lines of data, and the other shift register 43b (44b) has 3 or 4 lines of data.
Each pixel has an odd line and an even line.

【0139】前記各シフトレジスタ43a,43b,4
4a,44bは、それぞれが独立した転送ラインを持
ち、4×4画素のデータは例えば8クロックで転送され
る。そして、これらのシフトレジスタ43a,43b,
44a,44bは、8段のうちの偶数段の内容を同時に
シティブロック距離計算回路45に出力し、シティブロ
ック距離Hの計算が始まると、右画像のデータはシフト
レジスタ44a,44b内に保持されて、クロック毎に
奇数ライン、偶数ラインのデータが交互に出力され、一
方、左画像のデータはシフトレジスタ43a,43bに
転送され続け、奇数ライン、偶数ラインのデータが交互
に出力されつつ、2クロック毎に1画素分右のほうにず
れたデータに置き換わっていく。この動作を、例えば1
00画素分ずれるまで(200クロック)繰り返す。
Each of the shift registers 43a, 43b, 4
Each of 4a and 44b has an independent transfer line, and 4 × 4 pixel data is transferred at, for example, 8 clocks. Then, these shift registers 43a, 43b,
44a and 44b simultaneously output the contents of even-numbered stages of eight stages to the city block distance calculation circuit 45, and when the calculation of the city block distance H starts, the data of the right image is held in the shift registers 44a and 44b. The data of the odd line and the even line are alternately output every clock, while the data of the left image is continuously transferred to the shift registers 43a and 43b, and the data of the odd line and the even line are alternately output and 2 It is replaced by data that is shifted to the right by one pixel every clock. This operation is
Repeat until there is a shift of 00 pixels (200 clocks).

【0140】その後、一つの小領域に対する転送が終了
すると、#2アドレスコントローラ87内の左画像用ア
ドレスカウンタに右画像用アドレスカウンタの内容(次
の4×4画素の小領域の先頭アドレス)がセットされ、
次の小領域の処理が始まる。シティブロック距離計算回
路45では、図29のタイミングチャートに示すよう
に、まず、ピラミッド型構造初段の絶対値演算器に8画
素分のデータを入力し、左右画像の輝度差の絶対値を計
算する。すなわち、右画素の輝度から対応する左画素の
輝度を引き算し、結果が負になった場合、演算命令を変
えることにより、引く方と引かれる方を逆にして再び引
き算を行なうことにより、絶対値の計算を行なう。従っ
て、初段では引き算を2回行なう場合がある。
After that, when the transfer to one small area is completed, the contents of the right image address counter (the leading address of the next 4 × 4 pixel small area) are stored in the left image address counter in the # 2 address controller 87. Set,
Processing of the next small area begins. In the city block distance calculation circuit 45, as shown in the timing chart of FIG. 29, first, eight pixels of data are input to the absolute value calculator at the first stage of the pyramid structure, and the absolute value of the brightness difference between the left and right images is calculated. . That is, if the brightness of the corresponding left pixel is subtracted from the brightness of the right pixel, and if the result is negative, the subtraction and subtraction are reversed by changing the operation instruction, and subtraction is performed again. Calculate the value. Therefore, the subtraction may be performed twice in the first stage.

【0141】次いで、初段を通過すると、2段目から4
段目までの第1ないし第3加算器で二つの同時入力デー
タを加算して出力する。そして、最終段の総和加算器で
二つの連続するデータを加え合わせて総和を計算し、必
要とする16画素分のシティブロック距離Hを2クロッ
ク毎に最小・最大値検出部50へ出力する。
Next, when passing through the first stage, 4 from the second stage
The first to third adders up to the second stage add two simultaneous input data and output. Then, in the final-stage total sum adder, two consecutive data are added together to calculate the total sum, and the required city block distance H for 16 pixels is output to the minimum / maximum value detection unit 50 every two clocks.

【0142】次に、ステップS104へ進み、前記ステップ
S103で算出したシティブロック距離Hの最大値HMAX 、
最小値HMIN を検出する。前述したように、この最大値
HMAX の検出と最小値HMIN の検出とは、互いに論理が
逆になることと、ずれ量を保存しないこと以外は、全く
同じであるため、以下、代表して最小値HMIN の検出に
ついて説明する。
Then, the process proceeds to step S104, and the step
The maximum value HMAX of the city block distance H calculated in S103,
Detect the minimum value HMIN. As described above, the detection of the maximum value HMAX and the detection of the minimum value HMIN are exactly the same except that the logics are opposite to each other and the deviation amount is not stored, and therefore, the minimum value will be representatively described below. The detection of the value HMIN will be described.

【0143】まず、最初に出力されてきたシティブロッ
ク距離H(ずれ量δ=0)が、図7に示す最小値検出回
路51のCラッチ53を介して、演算器46のBレジス
タ46bに入力される。次のクロックで出力されてきた
シティブロック距離H(ずれ量δ=1)は、Cラッチ5
3と演算器46のAレジスタ46aとに入れられ、演算
器46では、同時に、Bレジスタ46bとの比較演算が
始まる。
First, the initially output city block distance H (deviation amount δ = 0) is input to the B register 46b of the arithmetic unit 46 via the C latch 53 of the minimum value detection circuit 51 shown in FIG. To be done. The city block distance H (deviation amount δ = 1) output at the next clock is the C latch 5
3 and the A register 46a of the arithmetic unit 46, and the arithmetic unit 46 simultaneously starts the comparison operation with the B register 46b.

【0144】前記演算器46での比較演算の結果、Bレ
ジスタ46bの内容よりもAレジスタ46aの内容の方
が小さければ、次のクロックのときに、Cラッチ53の
内容(すなわちAレジスタ46aの内容)がBレジスタ
46bに送られ、このときのずれ量δがDラッチ55に
保存される。このクロックで同時に、次のシティブロッ
ク距離H(ずれ量δ=2)がAレジスタ46aとCラッ
チ53に入れられ、再び比較演算が始まる。
If the contents of the A register 46a are smaller than the contents of the B register 46b as a result of the comparison operation in the arithmetic unit 46, the contents of the C latch 53 (that is, the contents of the A register 46a at the next clock). (Contents) is sent to the B register 46b, and the shift amount δ at this time is stored in the D latch 55. At the same time with this clock, the next city block distance H (deviation amount δ = 2) is entered into the A register 46a and the C latch 53, and the comparison operation is started again.

【0145】このようにして、計算途中での最小値が常
にBレジスタ46bに、そのときのずれ量δがDラッチ
55に保存されながら、ずれ量δが100になるまで計
算が続けられる。計算が終了すると(最後のシティブロ
ック距離Hが出力されてから1クロック後)、Bレジス
タ46bとDラッチ55の内容はずれ量決定部60に読
み込まれる。
In this way, the minimum value during the calculation is always stored in the B register 46b, and the shift amount δ at that time is stored in the D latch 55, and the calculation is continued until the shift amount δ reaches 100. When the calculation is completed (1 clock after the last city block distance H is output), the contents of the B register 46b and the D latch 55 are read into the deviation amount determination unit 60.

【0146】この間に、前述したシティブロック距離計
算回路45では次の小領域の初期値が読み込まれ、時間
の無駄を生じないようになっており、一つのシティブロ
ック距離Hを計算するのに、例えば4クロックかかる
が、パイプライン構造をとっているため、2クロック毎
に新たな計算結果が得られる。
In the meantime, the city block distance calculation circuit 45 described above reads the initial value of the next small area so as not to waste time, and to calculate one city block distance H, For example, it takes 4 clocks, but since it has a pipeline structure, a new calculation result can be obtained every 2 clocks.

【0147】ステップS105では、前記ステップ104 でシ
ティブロック距離Hの最小値HMIN、最大値HMAX が確
定すると、ずれ量決定部60にて、前述した3つの条件
がチェックされ、ずれ量δが決定される。
In step S105, when the minimum value HMIN and maximum value HMAX of the city block distance H are determined in step 104, the deviation amount determining unit 60 checks the above-mentioned three conditions to determine the deviation amount δ. It

【0148】すなわち、図30のタイミングチャートに
示すように、Bバス62bを介して最小値HMIN が演算
器61のBレジスタ72にラッチされるとともに、この
Bレジスタ72の値と比較されるしきい値Ha がAバス
62aを介してAレジスタ71にラッチされる。そして
ALU70で両者が比較され、しきい値Ha よりも最小
値HMIN の方が大きければ、スイッチ回路65がリセッ
トされ、以後のチェックの如何に係わらず常に0が出力
されるようになる。
That is, as shown in the timing chart of FIG. 30, the minimum value HMIN is latched in the B register 72 of the arithmetic unit 61 via the B bus 62b and is compared with the value of the B register 72. The value Ha is latched in the A register 71 via the A bus 62a. Then, the two are compared by the ALU 70, and if the minimum value HMIN is larger than the threshold value Ha, the switch circuit 65 is reset and 0 is always output regardless of the subsequent checks.

【0149】次に、Aレジスタ71に最大値HMAX がラ
ッチされ、このAレジスタ71にラッチされた最大値H
MAX とBレジスタ72に保存されている最小値HMIN と
の差が計算されて、その結果がFレジスタ73に出力さ
れる。次のクロックでAレジスタ71にしきい値Hb が
ラッチされ、Fレジスタ73の値と比較される。Aレジ
スタ71にラッチされたしきい値Hb よりもFレジスタ
73の内容の方が小さければ同様にスイッチ回路65が
リセットされる。
Next, the maximum value HMAX is latched in the A register 71, and the maximum value H latched in this A register 71.
The difference between MAX and the minimum value HMIN stored in the B register 72 is calculated, and the result is output to the F register 73. At the next clock, the threshold value Hb is latched in the A register 71 and compared with the value in the F register 73. If the content of the F register 73 is smaller than the threshold value Hb latched in the A register 71, the switch circuit 65 is similarly reset.

【0150】次のクロックからは、隣接画素間の輝度差
の計算が始まる。輝度データが保存されている2組のシ
フトレジスタ64a,64bは10段構成であり、それ
ぞれ、シティブロック距離計算部40の1,2ライン用
のシフトレジスタ44aと、3,4ライン用のシフトレ
ジスタ44bの後段に接続されている。前記シフトレジ
スタ64a,64bの出力は最後の段とその2つ手前の
段から取り出され、それぞれが、Aバス62aとBバス
62bとに出力される。
From the next clock, the calculation of the brightness difference between adjacent pixels starts. The two sets of shift registers 64a and 64b in which the luminance data is stored have a 10-stage configuration, and the shift register 44a for the 1st and 2nd lines and the shift register for the 3rd and 4th lines of the city block distance calculation unit 40, respectively. It is connected to the subsequent stage of 44b. The outputs of the shift registers 64a and 64b are taken out from the last stage and the stage immediately before the last stage, and are output to the A bus 62a and the B bus 62b, respectively.

【0151】輝度差の計算が始まるとき、前記シフトレ
ジスタ64a,64bの各段には小領域中の各場所の輝
度データが保持されており、初めに前回の小領域の第4
行第1列の輝度データと、今回の小領域の第1行第1列
の輝度データとが、演算器61のAレジスタ71とBレ
ジスタ72とにラッチされる。
When the calculation of the brightness difference is started, the brightness data of each place in the small area is held in each stage of the shift registers 64a and 64b, and the brightness data of the fourth area of the previous small area is initially stored.
The brightness data of the first row and the first column and the brightness data of the first row and the first column of the small area this time are latched in the A register 71 and the B register 72 of the arithmetic unit 61.

【0152】そして、Aレジスタ71の内容とBレジス
タ72の内容の差の絶対値が計算され、結果がFレジス
タ73に保存される。次のクロックでAレジスタ71に
しきい値Hc がラッチされ、Fレジスタ73の値と比較
される。
Then, the absolute value of the difference between the contents of the A register 71 and the contents of the B register 72 is calculated, and the result is stored in the F register 73. At the next clock, the threshold value Hc is latched in the A register 71 and compared with the value in the F register 73.

【0153】前記演算器61での比較結果、Aレジスタ
の内容(しきい値Hc )よりもFレジスタ73の内容
(輝度差の絶対値)のほうが大きければ、前記スイッチ
回路65からずれ量δあるいは”0”が出力され、、A
レジスタの内容よりもFレジスタ73の内容のほうが小
さければ”0”が出力されて、出力バッファメモリ66
a,66bの該当する小領域の第1行第1列に当たる位
置に書き込まれる。
If the content of the F register 73 (absolute value of brightness difference) is larger than the content of the A register (threshold value Hc) as a result of the comparison in the arithmetic unit 61, the shift amount δ from the switch circuit 65 or "0" is output, A
If the content of the F register 73 is smaller than the content of the register, "0" is output and the output buffer memory 66
It is written in a position corresponding to the first row, first column of the corresponding small area of a, 66b.

【0154】前記演算器61で隣接画素間の輝度差とし
きい値Hc との比較が行なわれている間に、シフトレジ
スタ64a,64bは1段シフトする。そして今度は、
前回の小領域の第4行第2列と、今回の小領域の第1行
第2列の輝度データに対して計算を始める。このように
して小領域の第1列、第2列に対し交互に計算を行なっ
た後、第3列、第4列に対して同様に計算を進める。
While the arithmetic unit 61 compares the luminance difference between adjacent pixels and the threshold value Hc, the shift registers 64a and 64b shift one stage. And this time,
The calculation is started for the luminance data of the fourth row, second column of the previous small area and the first row, second column of the current small area. In this way, the calculation is alternately performed on the first column and the second column of the small region, and then the calculation is similarly performed on the third column and the fourth column.

【0155】計算中は、シフトレジスタ64a,64b
の最終段と最初の段がつながってリングレジスタになっ
ており、小領域全体を計算した後にシフトクロックが2
回追加されるとレジスタの内容が計算前の状態に戻り、
次の小領域の輝度データが転送され終わったときに、最
終段とその前の段に今回の小領域の第4行のデータが留
められる。
During the calculation, the shift registers 64a, 64b
The last stage and the first stage of are connected to form a ring register, and after calculating the entire small area, the shift clock becomes 2
Once added, the register contents return to the state before the calculation,
When the luminance data of the next small area has been transferred, the data of the fourth row of the current small area is retained in the final stage and the preceding stage.

【0156】このように、ずれ量決定のための計算中に
次のデータをAバス62a,Bバス62bに用意した
り、結果の書き込みを行なうため、計算に必要な2クロ
ックのみで一つのデータが処理される。この結果、初め
に行なう最小値HMIN 、最大値HMAX のチェックを含め
ても、例えば43クロックで全ての計算が終了し、一つ
の小領域に対して、シティブロック距離Hの最小値HMI
N 、最大値HMAX を求めるのに要する時間は充分に余裕
があり、さらに機能を追加することも可能となってい
る。
As described above, since the next data is prepared in the A bus 62a and the B bus 62b or the result is written during the calculation for determining the shift amount, one data is required only in two clocks required for the calculation. Is processed. As a result, even if the initial minimum value HMIN and maximum value HMAX checks are included, all calculations are completed in, for example, 43 clocks, and the minimum value HMI of the city block distance H is set for one small region.
The time required to obtain N and the maximum value HMAX is sufficiently long, and it is possible to add more functions.

【0157】そして、ずれ量δが決定されると、ステッ
プS106で、出力バッファメモリ66a,66bからデュ
アルポートメモリ90へ、ずれ量δを距離分布情報とし
て出力し、ステレオ画像処理装置20における処理が終
了する。
When the shift amount δ is determined, the shift amount δ is output as distance distribution information from the output buffer memories 66a and 66b to the dual port memory 90 in step S106, and the processing in the stereo image processing apparatus 20 is performed. finish.

【0158】この出力バッファメモリ66a,66b
は、前述した入力バッファメモリ41a,41b,43
a,43bと同様、例えば4ライン分の容量があり、2
組の一方に書き込んでいる間にもう一方から前記デュア
ルポートメモリ90へ距離分布情報を送り出す。
The output buffer memories 66a and 66b
Is the input buffer memories 41a, 41b, 43 described above.
As with a and 43b, for example, there is a capacity of 4 lines,
While writing to one of the sets, the other sends the distance distribution information to the dual port memory 90.

【0159】前記デュアルポートメモリ90へ書き込ま
れた距離分布情報からは、CCDカメラ11,12の取
付け位置と焦点距離等のレンズパラメータとから、各画
素に対応する物体のXYZ空間における三次元位置を算
出することができ、情報量の低下なく車外の対象物まで
の距離を正確に検出することができる。
From the distance distribution information written in the dual port memory 90, the three-dimensional position in the XYZ space of the object corresponding to each pixel is determined from the mounting positions of the CCD cameras 11 and 12 and the lens parameters such as the focal length. It can be calculated, and the distance to the object outside the vehicle can be accurately detected without a decrease in the amount of information.

【0160】次に、ステレオ画像処理装置20のタイミ
ングについて、図31に示すタイミングチャートに従っ
て説明する。
Next, the timing of the stereo image processing apparatus 20 will be described with reference to the timing chart shown in FIG.

【0161】まず初めに、同期を取っている左右のCC
Dカメラ11a,11bからのフィールド信号を0.1
秒毎(3画面に1画面の割合)に、画像メモリ33a,
33bに書き込む。
First, the left and right CCs which are synchronized
The field signals from the D cameras 11a and 11b are set to 0.1
Every second (one screen out of three screens), the image memory 33a,
Write to 33b.

【0162】次に、取り込み終了信号を受けて、4ライ
ン毎のブロック転送が始まる。この転送は、右画像、左
画像、結果の距離分布像の順に3ブロック転送する。
Next, in response to the capture end signal, block transfer for every four lines starts. In this transfer, three blocks are transferred in the order of the right image, the left image, and the resulting distance distribution image.

【0163】この間に、一方の入出力バッファメモリに
対してずれ量δの計算が行われる。そして、ずれ量δの
計算時間を考慮し、所定時間待機してからもう一方の入
出力バッファメモリに対して転送を始める。
During this time, the shift amount δ is calculated for one of the input / output buffer memories. Then, in consideration of the calculation time of the shift amount δ, the transfer is started to the other input / output buffer memory after waiting for a predetermined time.

【0164】一つの右画像の4×4画素の小領域に対す
るシティブロック距離Hの計算は、左画像について10
0画素ずらしながら計算するため、100回行われる。
一つの領域のシティブロック距離Hが計算されている間
に、その前の領域のずれ量δが各チェックを経て距離分
布として出力される。
The calculation of the city block distance H for a small region of 4 × 4 pixels in one right image is 10 for the left image.
The calculation is performed 100 times because the calculation is performed while shifting by 0 pixel.
While the city block distance H of one area is calculated, the shift amount δ of the area before that is output as a distance distribution through each check.

【0165】処理すべきライン数を200とすると4ラ
イン分の処理を50回繰り返すことになり、計算の開始
時に最初のデータを転送するための4ライン分の処理時
間、計算終了後に最後の結果を画像認識部に転送するた
めの4ライン分の処理時間と、計8ライン分の処理時間
がさらに必要となる。
When the number of lines to be processed is 200, the process for 4 lines is repeated 50 times, the processing time for 4 lines for transferring the first data at the start of the calculation, and the final result after the calculation is completed. Processing time for transferring 4 lines to the image recognition unit and a processing time for 8 lines in total are further required.

【0166】最初の入力画像ラインの転送を開始してか
ら最後の距離分布を転送し終わるまでの時間は、実際の
回路動作の結果、0.076秒である。
The time from the start of the transfer of the first input image line to the end of the transfer of the final distance distribution is 0.076 seconds as a result of the actual circuit operation.

【0167】次に、道路・側壁検出装置100の動作に
ついて、道路検出部110の動作を図32〜図35のフ
ローチャートに従って、また、側壁検出部120の動作
を図36〜図38のフローチャートに従って説明する。
Next, regarding the operation of the road / sidewall detecting device 100, the operation of the road detecting unit 110 will be described according to the flowcharts of FIGS. 32 to 35, and the operation of the sidewall detecting unit 120 will be described according to the flowcharts of FIGS. 36 to 38. To do.

【0168】道路検出部110では、まず、道路形状推
定処理を行なう。すなわち、図32に示すプログラムの
ステップS201で、前回(Δtsec前)の道路形状パラ
メータを読み込むと、次いで、ステップS202へ進み、車
速センサ3の出力信号V、舵角センサ4の出力信号ηを
読み込む。
The road detection unit 110 first performs road shape estimation processing. That is, when the previous road shape parameter (before Δtsec) is read in step S201 of the program shown in FIG. 32, the process proceeds to step S202, in which the output signal V of the vehicle speed sensor 3 and the output signal η of the steering angle sensor 4 are read. .

【0169】次に、ステップS203へ進むと、前記ステッ
プS202で読み込んだ車速センサ3の出力信号と舵角セン
サ4の出力信号ηを使ってΔt秒間の車輌1の動きを算
出し、ステップS204で、Δt秒後の車輌1の位置から見
た道路形状を推定して道路形状パラメータを修正する。
Next, in step S203, the movement of the vehicle 1 for Δt seconds is calculated using the output signal of the vehicle speed sensor 3 and the output signal η of the steering angle sensor 4 read in step S202, and in step S204. , Δt seconds later, the road shape viewed from the position of the vehicle 1 is estimated and the road shape parameter is corrected.

【0170】以上の道路形状推定処理が終わると、三次
元ウインドウ発生処理へ移行し、ステップS205で、道路
モデルの第1区間R1の左側の直線要素Ldのパラメー
タ(a,b,c,d)を読み込むと、ステップS206で、
この直線要素Ldを中心とする三次元ウインドウWD3A
を設定する。
When the above road shape estimation processing is completed, the process proceeds to the three-dimensional window generation processing, and in step S205, the parameters (a, b, c, d) of the straight line element Ld on the left side of the first section R1 of the road model. Is read, in step S206,
Three-dimensional window WD3A centered on this linear element Ld
To set.

【0171】その後、ステップS207へ進み、前記ステッ
プS206で設定した三次元ウインドウWD3Aから二次元画
像上での二次元ウインドウWD2Aを設定し、次のステッ
プS208以降へ進む。
After that, the process proceeds to step S207, the two-dimensional window WD2A on the two-dimensional image is set from the three-dimensional window WD3A set in step S206, and the process proceeds to the next step S208 and subsequent steps.

【0172】ステップS208〜ステップS217は、直線要素
検出処理であり、ステップS208で、二次元ウインドウW
D2A内のデータを読み込むと、ステップS209で、各デー
タの三次元位置を計算し、ステップS210で、距離Zの値
が三次元ウインドウWD3Aの長さの範囲内にあるデータ
を選別する。
Steps S208 to S217 are straight line element detection processing. In step S208, the two-dimensional window W
When the data in D2A is read, the three-dimensional position of each data is calculated in step S209, and in step S210, the data whose distance Z is within the length of the three-dimensional window WD3A is selected.

【0173】そして、ステップS211へ進み、先に推定し
た道路形状の直線要素Ldと被写体の三次元位置を比較
してX方向、Y方向の位置のずれ量ΔX、ΔYを計算
し、ステップS212で、これらのずれ量ΔX,ΔYが、三
次元ウインドウWD3Aの幅、高さの範囲内にあるデータ
のみを選別し、他は除外する。
Then, the process proceeds to step S211, and the previously estimated road-shaped linear element Ld is compared with the three-dimensional position of the object to calculate the positional deviation amounts ΔX and ΔY in the X and Y directions, and in step S212. , Only the data whose deviation amounts ΔX and ΔY are within the width and height of the three-dimensional window WD3A are selected, and the others are excluded.

【0174】その後、ステップS213へ進み、前記ステッ
プS212で計算したX方向、Y方向のずれ量ΔX,ΔYに
応じて、そのデータの重み係数を決定し、各データに、
ずれ量ΔX,ΔYに応じた重み係数を付加する。
After that, the process proceeds to step S213, the weighting coefficient of the data is determined according to the deviation amounts ΔX and ΔY in the X and Y directions calculated in step S212, and
Weighting factors corresponding to the deviation amounts ΔX and ΔY are added.

【0175】次に、ステップS214へ進むと、最小自乗法
を用いて水平方向(XZ平面)および垂直方向(YZ平
面)の直線式を導出し、パラメータ(a,b,c,d)
を求め、これを新しい直線要素Ldの候補とする。
Next, in step S214, linear equations in the horizontal direction (XZ plane) and the vertical direction (YZ plane) are derived using the least squares method, and parameters (a, b, c, d) are obtained.
Is set as a candidate for a new linear element Ld.

【0176】そして、ステップS215で、道路モデルの右
側のラインの直線要素Ldの候補が求められたか否かを
調べ、その結果がNOの場合には、ステップS216で、右
側の直線要素Ldのパラメータを読み込んで前述のステ
ップS206へ戻り、結果がYESの場合には、ステップS2
17へ進む。
Then, in step S215, it is checked whether or not a candidate for the straight line element Ld of the right side line of the road model is obtained. If the result is NO, in step S216, the parameter of the right straight line element Ld is determined. And returns to step S206 described above, and if the result is YES, step S2
Proceed to 17.

【0177】ステップS217では、求めた直線要素Ldの
候補が最終区間の右側のものであるか否かを調べ、最終
区間でない場合には、ステップS218で、次の区間の左側
の直線要素Ldのパラメータを読み込んで、前述のステ
ップS206へ戻り、同様の処理を繰り返す。
In step S217, it is checked whether or not the obtained candidate of the linear element Ld is on the right side of the final section. If it is not the final section, in step S218, the linear element Ld on the left side of the next section is selected. The parameters are read, the process returns to step S206 described above, and the same processing is repeated.

【0178】一方、前記ステップS217で、求めた直線要
素Ldの候補が最終区間の右側のものであり、道路モデ
ルを構成する全ての直線要素Ldの候補を求め終えた場
合には、前記ステップS217からステップS219以降へ進
み、道路形状判定処理を実行する。
On the other hand, if it is determined in step S217 that the candidates for the straight line element Ld are on the right side of the final section, and the candidates for all the straight line elements Ld forming the road model have been obtained, the above step S217 is performed. From step S219 onward, road shape determination processing is executed.

【0179】すなわち、ステップS219で、第1区間R1
の直線要素Ldのパラメータを読み込むと、ステップS2
20で、左右の直線要素Ldの水平方向の平行度を調べ
て、その妥当性を判定し、ステップS221で、左右の直線
要素Ldの垂直方向の平行度を調べ、その妥当性を判定
する。
That is, in step S219, the first section R1
When the parameter of the linear element Ld of is read, step S2
In step 20, the horizontal parallelism of the left and right linear elements Ld is checked to determine its validity, and in step S221, the vertical parallelism of the left and right linear elements Ld is checked to determine its validity.

【0180】その後、ステップS222へ進み、前記ステッ
プS220,S221における判定結果、左右いずれかの直線要
素が妥当でないと判定された場合、あるいは、道路上の
白線が破線状であったり、障害物に隠れて見えないため
にデータが不足して、左右いずれかの直線要素の候補が
ない場合に対し、検出された側の直線要素を車線の幅だ
け並行移動して代用することにより、欠落する直線要素
を補完し、ステップS223へ進む。
After that, the process proceeds to step S222, and if the result of the determination in steps S220 and S221 is that the left or right straight line element is not valid, or the white line on the road is broken or obstructed. When there is no candidate for a straight line element on either side because there is no data because it is hidden and cannot be seen, a straight line that is missing by moving the straight line element on the detected side in parallel by the width of the lane The elements are complemented, and the process proceeds to step S223.

【0181】尚、左右両方の直線要素が無しの場合に
は、先に推定した道路形状の直線要素を代用する。
When there are no left and right linear elements, the previously estimated linear element of the road shape is used instead.

【0182】ステップS223では、最終区間か否かを調
べ、最終区間でない場合には、ステップS224で、次の区
間の左右の直線要素Ldのパラメータを読み込んで前述
のステップS220へ戻り、最終区間の場合には、ステップ
S223からステップS225へ進んで、各直線要素Ldのパラ
メータを出力用メモリ100eへ書き込んでプログラム
を終了する。
In step S223, it is checked whether or not it is the final section, and if it is not the final section, in step S224, the parameters of the left and right linear elements Ld of the next section are read, and the process returns to step S220 to return to the final section. If you step
From S223 to S225, the parameters of each linear element Ld are written in the output memory 100e and the program is terminated.

【0183】次に、側壁検出部120の動作について説
明する。図36のプログラムにおけるステップS301〜S3
07は、立体物データ抽出処理であり、まず、ステップS3
01で道路形状パラメータを読み込むと、ステップS302
で、距離画像から最初の距離データを読み込む。
Next, the operation of the side wall detector 120 will be described. Steps S301 to S3 in the program of FIG. 36
07 is a three-dimensional object data extraction process. First, step S3
When the road shape parameter is read in 01, step S302
Then, the first distance data is read from the distance image.

【0184】次に、ステップS303へ進み、被写体の位置
(X,Z座標)と高さ(Y座標)とを計算し、ステップ
S304で、距離Zに於ける道路表面の高さH(Y座標)を
計算し、ステップS305で、道路面より上、且つ自車輌1
の高さ以下にあるデータを立体物データとして抽出す
る。
Next, in step S303, the position (X, Z coordinates) and height (Y coordinate) of the subject are calculated, and step
In step S304, the height H (Y coordinate) of the road surface at the distance Z is calculated, and in step S305, it is above the road surface and the vehicle 1
Data below the height of is extracted as three-dimensional object data.

【0185】そして、ステップS306へ進んで最終データ
か否かを調べ、最終データでない場合、ステップS307で
次の距離データを読み込むと前述のステップS303へ戻っ
て処理を繰り返し、最終データの場合にはステップS306
からステップS308へ進む。
Then, it proceeds to step S306 to check whether or not it is the final data, and if it is not the final data, the next distance data is read in step S307, the process returns to the above-mentioned step S303 and the processing is repeated. Step S306
To Step S308.

【0186】図37のステップS308〜ステップS317は、
側壁直線検出処理であり、ステップS308で、最初の立体
物データを読み込むと、ステップS309で、被写体の位置
(X,Z座標)を計算し、ステップS310で、計算した位
置(X,Z座標)が探索領域内か否かを調べる。
Steps S308 to S317 of FIG. 37 are
This is the side wall straight line detection processing, and when the first three-dimensional object data is read in step S308, the position (X, Z coordinates) of the subject is calculated in step S309, and the calculated position (X, Z coordinates) in step S310. Check whether is in the search area.

【0187】計算した位置(X,Z座標)が探索領域外
であるときには、前記ステップS310からステップS312へ
ジャンプし、探索領域内のとき、前記ステップS310から
ステップS311へ進んでパラメータ空間へ投票し、ステッ
プS312へ進む。
When the calculated position (X, Z coordinates) is outside the search area, the process jumps from step S310 to step S312. When it is within the search area, the process proceeds from step S310 to step S311 to vote in the parameter space. , Go to step S312.

【0188】ステップS312では、処理した立体物データ
が最終データか否かを調べ、最終データでないときに
は、ステップS313で、次の立体物データを読み込んで、
前述のステップS309からの処理を繰り返し、最終データ
のとき、ステップS314へ進んで、パラメータ空間上の局
所極大値を検出する。
In step S312, it is checked whether the processed three-dimensional object data is the final data. If it is not the final data, the next three-dimensional object data is read in step S313.
The process from step S309 described above is repeated, and when the data is the final data, the process proceeds to step S314 to detect the local maximum value in the parameter space.

【0189】次いで、ステップS315へ進むと、検出した
局所極大値が判定値以上か否かを調べ、判定値よりも小
さいとき、ステップS316で側壁は存在しないと判定し、
判定値以上のとき、ステップS317で、側壁が存在すると
判定して、ステップS318へ進む。
Next, when proceeding to step S315, it is checked whether or not the detected local maximum value is equal to or larger than the judgment value. When it is smaller than the judgment value, it is judged in step S316 that the sidewall does not exist,
When it is equal to or larger than the determination value, it is determined in step S317 that the sidewall exists, and the process proceeds to step S318.

【0190】図38のステップS318以下は、側壁範囲検
出処理であり、ステップS318で、前記ステップS314で検
出した局所極大値の格子に相当するパラメータ、すなわ
ち局所極大点が示す直線式のパラメータ(af,bf)
を読み込むと、ステップS319へ進んで、側壁候補領域を
設定する。
Step S318 and subsequent steps in FIG. 38 are the side wall range detection processing, and in step S318, the parameters corresponding to the grid of the local maximum values detected in step S314, that is, the linear parameters (af indicated by the local maximum points). , Bf)
When is read, the process proceeds to step S319 and a side wall candidate area is set.

【0191】そして、ステップS320で、探索領域内の最
初の立体物データを読み込み、ステップS321で、被写体
の位置(X,Z座標)を計算すると、ステップS322で、
側壁候補領域内にあるデータを抽出し、ステップS323
で、処理したデータが探索領域内の最終データか否かを
調べる。
Then, in step S320, the first three-dimensional object data in the search area is read, and in step S321 the position (X, Z coordinates) of the subject is calculated.
Data existing in the side wall candidate area is extracted, and step S323 is performed.
Then, it is checked whether the processed data is the final data in the search area.

【0192】探索領域内の最終データでないときには、
前記ステップS323からステップS324へ分岐して探索領域
内の次の立体物データを読み込んで、前述のステップS3
21へ戻り、探索領域内の最終データであるときには、前
記ステップS323からステップS325へ進んで、側壁候補領
域内のデータを使ってヒストグラムを作成する。
When it is not the final data in the search area,
After branching from step S323 to step S324, the next three-dimensional object data in the search area is read, and the above step S3 is performed.
Returning to step 21, when it is the final data in the search area, the process proceeds from step S323 to step S325 to create a histogram using the data in the side wall candidate area.

【0193】次に、ステップS326へ進むと、作成したヒ
ストグラムの度数が判定値以上の区分を検出し、ステッ
プS327で、ヒストグラムの度数が判定値以上の区間の両
端の三次元位置、すなわち側壁の前後端位置を算出し、
ステップS328で、側壁の有無、位置、方向、前後端の位
置等のパラメータを出力用メモリ100eへ書き込んで
プログラムを終了する。尚、このプログラムは、左側の
側壁について実行した後、右側の側壁について実行す
る。
Next, proceeding to step S326, a section whose frequency of the created histogram is equal to or higher than the judgment value is detected, and in step S327, three-dimensional positions at both ends of the section where the frequency of the histogram is equal to or higher than the judgment value, that is, on the side wall. Calculate the front and rear end positions,
In step S328, parameters such as the presence / absence of the side wall, the position, the direction, and the positions of the front and rear ends are written in the output memory 100e, and the program ends. It should be noted that this program is executed for the right side wall after being executed for the left side wall.

【0194】このように、本実施例においては、三次元
の位置に関する特徴を利用するため、側壁の色や形、材
質等の見掛け上の特徴に影響されにくく、一般的なガー
ドレールのみでなく、様々な手擦りや植え込み、道路工
事のパイロンの列等も側壁として検出でき、自動車の走
行を規制するものとしての側壁を的確に検出することが
でき、しかも、側壁の有無や位置を、直線式のパラメー
タや前後端の座標といった簡素なデータ形態に変換する
ため、利用側でのデータの取扱いや処理が容易となり、
外部装置を接続することにより、より高度な危険警報や
事故回避の機能を実現することができるのである。
As described above, in the present embodiment, since the feature relating to the three-dimensional position is utilized, it is not easily affected by the apparent feature such as the color, shape and material of the side wall, and not only the general guardrail, Various hand rubs, plantings, rows of pylon for road construction, etc. can be detected as side walls, and the side walls as the ones that regulate the running of automobiles can be accurately detected. Since it is converted to a simple data form such as the parameters and coordinates of the front and rear edges, it becomes easy for the user to handle and process the data.
By connecting an external device, more advanced hazard warning and accident avoidance functions can be realized.

【0195】図39及び図40は本発明の第2実施例に
係り、図39は探索領域と格子区分を示す説明図、図4
0は側壁直線検出処理のフローチャートである。
39 and 40 relate to the second embodiment of the present invention, and FIG. 39 is an explanatory view showing a search area and a grid section, and FIG.
Reference numeral 0 is a flowchart of the sidewall straight line detection processing.

【0196】本実施例は、前述の第1実施例に対し、側
壁直線検出におけるハフ変換の処理を変更するものであ
る。一般的に、ハフ変換は時間を要する処理であり、前
述の第1実施例においても処理時間を短縮するように種
々制限を設けているが、前述の第1実施例ではハフ変換
の処理を立体物データ毎に行うために、立体物データの
数が画像の状況によって変化すると処理時間も変化す
る。
This embodiment is different from the above-described first embodiment in that the Hough transform process in the sidewall straight line detection is changed. Generally, the Hough transform is a time-consuming process, and various restrictions are set so as to shorten the process time also in the first embodiment described above. Since the processing is performed for each object data, the processing time also changes when the number of three-dimensional object data changes depending on the image condition.

【0197】本実施例は、この点を改良するものであ
り、前述の第1実施例における側壁の探索領域SL,S
Rを、図39に示すように格子状に区分し、それぞれに
番号を付け、ハフ変換の処理を設定した格子の数だけ実
行する。ここで、区分の間隔は、X方向は、例えば0.
3m〜0.6m程度、Z方向は、距離データの精度や側
壁の情報を利用する装置側の要求を考慮して設定する
が、例えば、概ね1m〜5m程度である。
The present embodiment is to improve this point, and is to search the side wall search regions SL and S in the first embodiment.
As shown in FIG. 39, R is divided into grids, each is numbered, and the Hough transform process is executed by the set number of grids. Here, the interval between the sections is, for example, 0.
It is set to about 3 m to 0.6 m, and the Z direction is set in consideration of the accuracy of the distance data and the request from the device side that uses the information of the side wall, but is about 1 m to 5 m, for example.

【0198】以下、図40のフローチャートに従って、
側壁直線検出処理について説明する。尚、このフローチ
ャートは、前述の第1実施例の側壁直線検出処理のフロ
ーチャート(図37)に代わるものであり、その他の処
理は、前述の第1実施例と同じである。
Below, according to the flow chart of FIG.
The side wall straight line detection processing will be described. Note that this flowchart replaces the flowchart (FIG. 37) of the sidewall straight line detection processing of the above-described first embodiment, and the other processing is the same as that of the above-described first embodiment.

【0199】まず、前述の立体物データ抽出処理におい
て抽出された各データに対し、ステップS401で最初の立
体物データを読み込むと、ステップS402で、被写体の三
次元位置(X,Z座標)を計算し、これが探索領域S
L、SRに含まれる場合には、ステップS403で、該当す
る格子番号を計算し、ステップS404で、その格子内のデ
ータ数のカウントを更新する。
First, for each data extracted in the above-mentioned three-dimensional object data extraction processing, the first three-dimensional object data is read in step S401, and in step S402 the three-dimensional position (X, Z coordinates) of the subject is calculated. And this is the search area S
If it is included in L and SR, the corresponding lattice number is calculated in step S403, and the count of the number of data in the lattice is updated in step S404.

【0200】続いて、ステップS405で最終データか否か
を調べ、最終データでないときには、ステップS406で、
次の立体物データを読み込んで、同様にステップS402以
降の処理を繰り返し、格子毎のデータ数を求める。
Subsequently, it is checked in step S405 if it is the final data. If it is not the final data, in step S406.
The next three-dimensional object data is read, and the processing from step S402 is repeated in the same manner to obtain the data number for each grid.

【0201】そして、前記ステップS405で、最終データ
となったとき、前記ステップS405からステップS407へ進
んで最初の格子データを読み込むと、ステップS408で、
格子中心の位置(X,Z座標)を計算してステップS409
でパラメータ空間への投票を行ない、ステップS410へ進
む。
When the final data is obtained in step S405, the flow advances from step S405 to step S407 to read the first grid data, and in step S408,
The position (X, Z coordinates) of the center of the lattice is calculated and step S409
Voting for the parameter space is performed and the process proceeds to step S410.

【0202】すなわち、前述の第1実施例では、探索領
域内のデータ毎に直線の設定と投票を行なったが、本実
施例においては、各格子毎にデータが、その格子の中心
位置にまとまって存在するとして直線を設定し、投票は
格子のデータ数だけまとめて行なうのである。この場
合、設定する直線式(12)の傾きafi や切片bfi
の範囲は、前述の第1実施例と同じである。
That is, in the above-described first embodiment, the straight line is set and the voting is performed for each data in the search area, but in the present embodiment, the data for each grid is collected at the center position of the grid. Assuming that there are existing data, a straight line is set, and voting is performed collectively for the number of grid data. In this case, the slope afi and the intercept bfi of the linear equation (12) to be set are set.
The range of is the same as that of the first embodiment described above.

【0203】また、投票されたパラメータ空間から局所
極大値を求め、側壁の有無を判定するプロセスは、前述
の第1実施例と同じであり、ステップS410で、最終格子
か否かを調べ、最終格子でないときには、ステップS411
で次の格子データを読み込んでステップS408からの処理
を繰り返し、最終格子になったとき、ステップS412へ進
んで、パラメータ空間上の局所極大値を検出すると、ス
テップS413で、検出した局所極大値が判定値以上か否か
を調べ、判定値より小さいとき、ステップS414で、側壁
は存在しないと判定し、判定値以上のとき、ステップS4
15で、側壁が存在すると判定する。
The process of obtaining the local maximum value from the voted parameter space and determining the presence / absence of the side wall is the same as that of the first embodiment described above. If not a grid, step S411
Then, the next grid data is read and the processing from step S408 is repeated, and when the final grid is reached, the process proceeds to step S412, and if a local maximum in the parameter space is detected, the detected local maximum is determined in step S413. It is checked whether or not it is the judgment value or more. If it is smaller than the judgment value, it is judged in step S414 that the sidewall does not exist.
At 15, it is determined that the sidewall is present.

【0204】本実施例では、立体物データを格子状空間
毎にまとめ、ハフ変換の処理を設定した格子の数だけ実
行するため、側壁検出の際の処理時間を一定とすること
ができ、特に、立体物データの数が多い場合には、大幅
に処理時間を短縮できる効果がある。その他の作用・効
果は前述の第1実施例と同様である。
In the present embodiment, since the three-dimensional object data is collected for each grid-like space and the Hough transform processing is executed by the set number of grids, the processing time at the side wall detection can be made constant, When the number of three-dimensional object data is large, the processing time can be significantly shortened. Other functions and effects are similar to those of the first embodiment described above.

【0205】図41〜図45は本発明の第3実施例に係
り、図41は車外監視装置の全体構成図、図42は車外
監視装置の回路ブロック図、図43は側壁検出装置の機
能ブロック図、図44は画像の例を示す説明図、図45
は立体物の二次元分布の例を示す説明図である。
41 to 45 relate to the third embodiment of the present invention, FIG. 41 is an overall configuration diagram of the vehicle outside monitoring device, FIG. 42 is a circuit block diagram of the vehicle outside monitoring device, and FIG. 43 is a functional block of the side wall detecting device. FIG. 44 is an explanatory diagram showing an example of an image, FIG.
FIG. 4 is an explanatory diagram showing an example of a two-dimensional distribution of a three-dimensional object.

【0206】本実施例の車外監視装置200は、図41
に示すように、前述の第1実施例のステレオ画像処理装
置20に代えて、立体物の二次元的な位置分布を認識す
る通路パターン認識装置210を採用し、この通路パタ
ーン認識装置210に側壁検出装置220を接続したも
のであり、通路パターン認識装置210によって得られ
る立体物の二次元分布の位置情報を前述の第1の実施例
と同様の方法で処理し、側壁を検出するものである。
The vehicle exterior monitoring device 200 of this embodiment is shown in FIG.
As shown in FIG. 3, a passage pattern recognition device 210 for recognizing a two-dimensional position distribution of a three-dimensional object is adopted in place of the stereo image processing device 20 of the first embodiment, and the side wall of the passage pattern recognition device 210 is adopted. The detection device 220 is connected, and the side wall is detected by processing the position information of the two-dimensional distribution of the three-dimensional object obtained by the passage pattern recognition device 210 in the same manner as in the first embodiment described above. .

【0207】前記側壁検出装置220に接続する通路パ
ターン認識装置210は、周知の装置を適用することが
でき、例えば、計測自動制御学会論文集Vol.21,
No.2(昭和60年2月)「障害物の2次元的な分布
の認識手法」に記載されている通路パーン認識装置等を
適用することができる。
A known device can be applied to the passage pattern recognition device 210 connected to the side wall detection device 220, for example, the Institute of Instrument and Control Engineers Vol. 21,
No. 2 (February 1985) "Passage pattern recognition device" described in "Method of recognizing two-dimensional distribution of obstacles" can be applied.

【0208】前記通路パターン認識装置210は、第1
実施例のステレオ画像処理装置20と同様に2台のカメ
ラの画像を処理して被写体までの距離分布を検出するも
のであるが、装置内部のデータ処理方法が異なるため立
体物の情報のみが出力され、第1実施例のような白線に
よる道路形状の検出はできない。
The passage pattern recognition device 210 has a first
Similar to the stereo image processing device 20 of the embodiment, the image of two cameras is processed to detect the distance distribution to the object, but only the information of the three-dimensional object is output because the data processing method inside the device is different. However, the road shape cannot be detected by the white line as in the first embodiment.

【0209】また、本実施例では、車外の対象風景を撮
像するステレオ光学系201は、車輌230の前部に上
下一定の間隔をもって取り付けられる2台のCCDカメ
ラ201a,201bで構成されており、また、前記通
路パターン認識装置210は、図42に示すように、前
記ステレオ光学系201からの上下2枚の画像信号を入
力し、立体物の距離及び位置の二次元分布を算出する距
離検出回路210a、この距離検出回路210aからの
二次元分布情報を記憶する二次元分布メモリ210b等
から構成されている。
Further, in this embodiment, the stereo optical system 201 for photographing the target scenery outside the vehicle is composed of two CCD cameras 201a and 201b which are attached to the front part of the vehicle 230 at a fixed vertical interval. Further, the passage pattern recognition device 210, as shown in FIG. 42, inputs a pair of upper and lower image signals from the stereo optical system 201 and calculates a two-dimensional distribution of distance and position of a three-dimensional object. 210a, a two-dimensional distribution memory 210b for storing the two-dimensional distribution information from the distance detection circuit 210a, and the like.

【0210】前記側壁検出装置220は、前記二次元分
布メモリ210bに書き込まれた二次元分布情報を読み
出して各種の計算処理を行なうマイクロプロセッサ22
0aを中心に構成され、制御プログラムを格納する読み
出し専用メモリ(ROM)220b、計算処理途中の各
種パラメータを記憶する読み書き両用メモリ(RAM)
220c、処理結果のパラメータを記憶する出力用メモ
リ220d等から構成されている。前記マイクロプロセ
ッサ220aは、前記二次元分布メモリ210bを介し
て二次元分布情報を入力して計算処理を実行し、処理結
果である側壁のパラメータを出力用メモリ220dに出
力する。
The sidewall detecting device 220 reads the two-dimensional distribution information written in the two-dimensional distribution memory 210b and performs various calculation processes on the microprocessor 22.
A read-only memory (ROM) 220b mainly configured to store the control program 0a, a read / write memory (RAM) that stores various parameters during calculation processing
220c, an output memory 220d for storing parameters of the processing result, and the like. The microprocessor 220a inputs the two-dimensional distribution information through the two-dimensional distribution memory 210b, executes the calculation process, and outputs the sidewall parameter as the process result to the output memory 220d.

【0211】前記側壁検出装置220は、前述の第1実
施例における道路・側壁検出装置100の側壁検出部1
20と同様の機能構成であり、図43に示すように、前
記二次元分布メモリ210bに記憶されている立体物の
二次元分布情報の中から、予め設定された側壁の探索領
域内のデータのみを抽出し、これをハフ変換で処理して
側壁の有無と側壁の位置を示す直線式とを検出する側壁
直線検出部221、この側壁直線検出部221で検出さ
れた側壁の位置を示す直線式に基づいて、側壁が存在す
ると推定される側壁候補領域を設定し、この側壁候補領
域内の立体物データの分布状態から、側壁の前後端の位
置を検出する側壁範囲検出部222、処理結果を記憶す
る前記出力用メモリ220dからなる側壁パラメータ記
憶部223から構成されている。
The side wall detecting device 220 is the side wall detecting unit 1 of the road / side wall detecting device 100 in the first embodiment.
As shown in FIG. 43, only the data in the preset side wall search area is selected from the two-dimensional distribution information of the three-dimensional object stored in the two-dimensional distribution memory 210b as shown in FIG. A side wall straight line detection unit 221 for extracting the presence / absence of a side wall and a straight line expression indicating the position of the side wall by Hough transformation, and a straight line expression indicating the side wall position detected by the side wall straight line detection unit 221. Based on the above, a side wall candidate region in which a side wall is estimated to exist is set, and a side wall range detection unit 222 that detects the positions of the front and rear ends of the side wall based on the distribution state of the three-dimensional object data in the side wall candidate region, It is composed of a side wall parameter storage unit 223 composed of the output memory 220d for storing.

【0212】本実施例では、ステレオ光学系201で撮
像した画像、例えば、図44に示すような画像を通路パ
ターン認識装置210で処理すると、図45に示すよう
な立体物の二次元分布パターンが出力される。これは、
前述の第1実施例における立体物データ抽出処理で抽出
されるデータ(図21参照)と同様であり、このデータ
に対し、前述の第1実施例と同様の側壁直線検出処理、
側壁範囲検出処理を行なえば、左右の側壁の有無、位置
を検出することができる。
In this embodiment, when an image taken by the stereo optical system 201, for example, an image as shown in FIG. 44 is processed by the passage pattern recognition device 210, a two-dimensional distribution pattern of a three-dimensional object as shown in FIG. 45 is obtained. Is output. this is,
It is similar to the data (see FIG. 21) extracted by the three-dimensional object data extraction processing in the above-described first embodiment, and for this data, the sidewall straight line detection processing similar to that in the above-described first embodiment,
By performing the side wall range detection process, the presence or absence and the position of the left and right side walls can be detected.

【0213】このように、本実施例では、通路パターン
認識装置から出力される立体物の二次元分布の位置情報
を利用する場合のような、道路の白線を検出することが
困難で、しかも、この位置情報を利用する側である事故
の危険判断や走行制御におけるデータ処理が容易でない
場合であっても、側壁を確実に検出することができ、且
つ、側壁の有無や位置を、直線式のパラメータや前後端
の座標といった簡素なデータ形態に変換するため、利用
側でのデータの取扱いや処理が容易となる。
As described above, in this embodiment, it is difficult to detect the white line of the road as in the case of using the position information of the two-dimensional distribution of the three-dimensional object output from the passage pattern recognition device, and Even if it is not easy to perform accident risk judgment or data processing in traveling control on the side that uses this position information, the side wall can be reliably detected, and the presence or absence of the side wall and the position of Since the data is converted into a simple data form such as parameters and coordinates of front and rear ends, the user can easily handle and process the data.

【0214】図46〜図51は本発明の第4実施例に係
り、図46は車外監視装置の全体構成図、図47は車外
監視装置の回路ブロック図、図48は側壁検出装置の機
能ブロック図、図49はレーザビームの走査方法を側面
から示す説明図、図50はレーザビームの走査方法を上
面から示す説明図、図51はレーザレーダ測距装置で計
測される立体物の二次元分布の例を示す説明図である。
46 to 51 relate to the fourth embodiment of the present invention. FIG. 46 is an overall block diagram of the vehicle outside monitoring device, FIG. 47 is a circuit block diagram of the vehicle outside monitoring device, and FIG. 48 is a functional block of the side wall detecting device. 49, FIG. 49 is an explanatory view showing a laser beam scanning method from a side surface, FIG. 50 is an explanatory view showing a laser beam scanning method from an upper surface, and FIG. 51 is a two-dimensional distribution of a three-dimensional object measured by a laser radar range finder. It is an explanatory view showing an example of.

【0215】本実施例の車外監視装置300は、図46
に示すように、前述の第1実施例のステレオ画像処理装
置20に代えて、レーザビームによるレーザレーダ測距
装置310を採用し、このレーザレーダ測距装置310
に側壁検出装置320を接続したものであり、レーザレ
ーダ測距装置310によって得られる立体物の二次元分
布の位置情報を前述の第1,第2実施例と同様の方法で
処理し、側壁を検出するものである。
The vehicle outside monitoring system 300 of this embodiment is shown in FIG.
As shown in FIG. 7, a laser radar range finder 310 using a laser beam is adopted in place of the stereo image processing apparatus 20 of the first embodiment, and this laser radar range finder 310 is used.
The side wall detection device 320 is connected to the side wall of the three-dimensional object. The position information of the two-dimensional distribution of the three-dimensional object obtained by the laser radar range finder 310 is processed in the same manner as in the first and second embodiments described above to remove the side wall. It is something to detect.

【0216】前記レーザレーダ測距装置310は、レー
ザビームを投射し、このレーザビームが物体に当たって
反射してくる光を受光し、この所要時間から物体までの
距離を測定するものであり、本実施例の車外監視装置3
00には周知のレーザレーダ測距装置を適用することが
できる。
The laser radar range finder 310 projects a laser beam, receives light reflected by the laser beam upon an object, and measures the distance from the required time to the object. Example vehicle exterior monitoring device 3
A known laser radar range finder can be applied to 00.

【0217】すなわち、本実施例の車外監視装置300
では、レーザビームの投射・受光と左右方向への走査機
能を有するレーザ投光ユニット301が車輌330の前
部に取り付けられており、図47に示すように、レーザ
レーダ測距装置310には、レーザービームの投光受光
の所要時間から物体までの距離を計算し、また、レーザ
ビームを走査する方向から物体の二次元の位置を計算す
る距離検出回路310a、検出された物体の二次元の位
置を書き込む二次元分布メモリ310b等から構成され
ている。
That is, the vehicle exterior monitoring device 300 of this embodiment.
Then, a laser projecting unit 301 having a function of projecting / receiving a laser beam and scanning in the left / right direction is attached to the front part of the vehicle 330, and as shown in FIG. A distance detection circuit 310a that calculates the distance to the object from the time required to project and receive the laser beam, and also calculates the two-dimensional position of the object from the scanning direction of the laser beam, the two-dimensional position of the detected object The two-dimensional distribution memory 310b for writing

【0218】また、側壁検出装置320は、前記二次元
分布メモリ310bに書き込まれた二次元分布情報を読
み出して各種の計算処理を行なうマイクロプロセッサ3
20aを中心に構成され、制御プログラムを格納する読
み出し専用メモリ(ROM)320b、計算処理途中の
各種パラメータを記憶する読み書き両用メモリ(RA
M)320c、処理結果のパラメータを記憶する出力用
メモリ320d等から構成されている。前記マイクロプ
ロセッサ320aは、前記二次元分メモリ310bを介
して二次元分布情報を入力して計算処理を実行し、処理
結果である側壁のパラメータを出力用メモリ320dに
出力する。
Further, the side wall detecting device 320 reads the two-dimensional distribution information written in the two-dimensional distribution memory 310b and performs various kinds of calculation processing on the microprocessor 3.
20a, a read-only memory (ROM) 320b for storing a control program, and a read / write memory (RA) for storing various parameters during calculation processing.
M) 320c, an output memory 320d for storing parameters of processing results, and the like. The microprocessor 320a inputs the two-dimensional distribution information through the two-dimensional memory 310b, executes the calculation process, and outputs the sidewall parameter as the process result to the output memory 320d.

【0219】前記側壁検出装置320は、前述の第2実
施例の側壁検出装置220と同様の機能構成であり、図
48に示すように、前記二次元分布メモリ310bに記
憶されている立体物の二次元分情報の中から、予め設定
された側壁の探索領域内のデータのみを抽出し、これを
ハフ変換で処理して側壁の有無と側壁の位置を示す直線
式とを検出する側壁直線検出部321、この側壁直線検
出部321で検出された側壁の位置を示す直線式に基づ
いて、側壁が存在すると推定される側壁候補領域を設定
し、この側壁候補領域内の立体物データの分布状態か
ら、側壁の前後端の位置を検出する側壁範囲検出部32
2、処理結果を記憶する前記出力用メモリ320dから
なる側壁パラメータ記憶部323から構成されている。
The side wall detection device 320 has the same functional configuration as the side wall detection device 220 of the second embodiment described above, and as shown in FIG. 48, the three-dimensional object stored in the two-dimensional distribution memory 310b. Side wall straight line detection that extracts only the data within the preset side wall search area from the two-dimensional information and processes it by Hough transform to detect the presence or absence of the side wall and the linear expression indicating the position of the side wall. Section 321, a side wall candidate area in which a side wall is estimated to exist is set based on a linear expression indicating the position of the side wall detected by the side wall straight line detecting section 321, and the distribution state of three-dimensional object data in this side wall candidate area is set. From the side wall range detection unit 32 that detects the positions of the front and rear ends of the side wall.
2. A sidewall parameter storage unit 323 including the output memory 320d for storing the processing result.

【0220】図49に示すように、レーザ投光ユニット
301からはレーザビームが水平に投射され、道路表面
より高い位置にある立体物のみが検出される。また、図
50に示すように、レーザビームは左右方向に走査さ
れ、所定の走査範囲で一定の間隔毎にレーザビームが投
光・受光されて距離を検出する動作が繰り返され、立体
物の二次元分布が計測される。
As shown in FIG. 49, the laser beam is projected horizontally from the laser projecting unit 301, and only the three-dimensional object located at a position higher than the road surface is detected. Further, as shown in FIG. 50, the laser beam is scanned in the left-right direction, and the operation of projecting / receiving the laser beam at regular intervals in a predetermined scanning range to detect the distance is repeated, and the two-dimensional object is detected. The dimensional distribution is measured.

【0221】例えば、前述の図44に示すような、左側
にガードレール、右前方に他の車輌がある状況を前記レ
ーザレーダ測距装置310で計測すると、図51に示す
ような立体物の二次元分布の情報が得られる。これは、
前述の第1実施例における立体物データ抽出処理で抽出
されるデータ(図21参照)と同様である。従って、レ
ーザレーダ測距装置310の出力である立体物の二次元
分布に対し、第1、第2実施例と同様の側壁直線検出処
理及び側壁範囲検出処理を行なうことにより、左右の側
壁の有無、位置を検出することができる。
For example, when the laser radar range finder 310 measures a situation in which there is a guardrail on the left side and another vehicle on the right front side as shown in FIG. 44, the two-dimensional object as shown in FIG. Distribution information is obtained. this is,
This is the same as the data (see FIG. 21) extracted by the three-dimensional object data extraction processing in the above-described first embodiment. Therefore, the side wall straight line detection processing and the side wall range detection processing similar to those in the first and second embodiments are performed on the two-dimensional distribution of the three-dimensional object which is the output of the laser radar range finder 310 to determine the presence or absence of the left and right side walls. , The position can be detected.

【0222】本実施例においても、前述の第3実施例と
同様、道路の白線を検出することが困難な場合において
も、側壁を確実に検出することができ、しかも、側壁の
有無、位置、方向を処理が容易なデータ形態で検出する
ことができる。
Also in the present embodiment, as in the case of the above-mentioned third embodiment, even when it is difficult to detect the white line of the road, the side wall can be surely detected, and the presence / absence of the side wall, the position, The direction can be detected in the form of data that can be easily processed.

【0223】[0223]

【発明の効果】以上説明したように本発明によれば、車
外の設定範囲の対象に対する位置情報に基づいて、ガー
ドレール、植え込み、パイロン列等の道路の境界となる
連続した立体物としての側壁の有無と、この側壁の位置
を近似する直線式と、この側壁が存在する範囲とを検出
するため、道路の白線がない場合、あるいは白線を検出
することが困難な場合においても、側壁を確実に検出す
ることができ、しかも、側壁の有無、位置、方向を処理
が容易なデータ形態で検出するため、これらのデータを
用いて、より高度な危険警報や事故回避の機能を実現す
ることができる等優れた効果が得られる。
As described above, according to the present invention, based on the position information for the object in the set range outside the vehicle, the side wall of the continuous solid body that becomes the boundary of the road such as guardrail, planting, pylon row, etc. Since the presence / absence, a linear expression approximating the position of this side wall, and the range in which this side wall exists are detected, even if there is no white line on the road or if it is difficult to detect the white line, the side wall can be reliably detected. Moreover, since the presence / absence of the side wall, the position, and the direction are detected in a data format that can be easily processed, it is possible to realize more advanced danger warning and accident avoidance functions by using these data. And so on.

【図面の簡単な説明】[Brief description of drawings]

【図1】図1〜図38は本発明の第1実施例に係り、図
1は車外監視装置の全体構成図
1 to 38 relate to a first embodiment of the present invention, and FIG. 1 is an overall configuration diagram of a vehicle exterior monitoring device.

【図2】車輌の正面図[Fig. 2] Front view of the vehicle

【図3】車外監視装置の回路ブロック図FIG. 3 is a circuit block diagram of a vehicle exterior monitoring device.

【図4】カメラと被写体との関係を示す説明図FIG. 4 is an explanatory diagram showing a relationship between a camera and a subject.

【図5】ステレオ画像処理装置の具体例を示す回路構成
FIG. 5 is a circuit configuration diagram showing a specific example of a stereo image processing device.

【図6】シティブロック距離計算回路の説明図FIG. 6 is an explanatory diagram of a city block distance calculation circuit.

【図7】最小値検出回路のブロック図FIG. 7 is a block diagram of a minimum value detection circuit.

【図8】車載のCCDカメラで撮像した画像の例を示す
説明図
FIG. 8 is an explanatory diagram showing an example of an image taken by a vehicle-mounted CCD camera.

【図9】距離画像の例を示す説明図FIG. 9 is an explanatory diagram showing an example of a range image.

【図10】車輌の上面図FIG. 10 is a top view of the vehicle

【図11】車輌の側面図FIG. 11 is a side view of the vehicle.

【図12】道路・側壁検出装置の機能ブロック図FIG. 12 is a functional block diagram of a road / sidewall detection device.

【図13】道路モデルの例を示す説明図FIG. 13 is an explanatory diagram showing an example of a road model.

【図14】三次元ウインドウの形状を示す説明図FIG. 14 is an explanatory diagram showing the shape of a three-dimensional window.

【図15】二次元ウインドウの形状を示す説明図FIG. 15 is an explanatory diagram showing the shape of a two-dimensional window.

【図16】直線要素とデータのずれ量を示す説明図FIG. 16 is an explanatory diagram showing a deviation amount between a linear element and data.

【図17】ずれ量と重み係数の関係を示す説明図FIG. 17 is an explanatory diagram showing a relationship between a shift amount and a weighting coefficient.

【図18】検出した道路形状の例を示す説明図FIG. 18 is an explanatory diagram showing an example of a detected road shape.

【図19】側壁検出における探索領域の形状を示す説明
FIG. 19 is an explanatory diagram showing the shape of a search region in sidewall detection.

【図20】側壁検出における画像の例を示す説明図FIG. 20 is an explanatory diagram showing an example of an image in side wall detection.

【図21】立体物データの分布状況を示す説明図FIG. 21 is an explanatory diagram showing a distribution status of three-dimensional object data.

【図22】ハフ変換での直線の想定を示す説明図FIG. 22 is an explanatory diagram showing the assumption of a straight line in the Hough transform.

【図23】パラメータ空間の投票領域を示す説明図FIG. 23 is an explanatory diagram showing a voting area in a parameter space.

【図24】パラメータ空間への投票結果を示す説明図FIG. 24 is an explanatory diagram showing results of voting on a parameter space.

【図25】側壁候補領域を示す説明図FIG. 25 is an explanatory diagram showing sidewall candidate regions.

【図26】ヒストグラムと側壁の存在範囲の関係を示す
説明図
FIG. 26 is an explanatory diagram showing a relationship between a histogram and a side wall existence range.

【図27】ステレオ画像処理装置の動作を示すフローチ
ャート
FIG. 27 is a flowchart showing the operation of the stereo image processing apparatus.

【図28】シフトレジスタ内の保存順序を示す説明図FIG. 28 is an explanatory diagram showing a storage order in the shift register.

【図29】シティブロック距離計算回路の動作を示すタ
イミングチャート
FIG. 29 is a timing chart showing the operation of the city block distance calculation circuit.

【図30】ずれ量決定部の動作を示すタイミングチャー
FIG. 30 is a timing chart showing the operation of the deviation amount determination unit.

【図31】ステレオ画像処理装置の動作を示すタイミン
グチャート
FIG. 31 is a timing chart showing the operation of the stereo image processing apparatus.

【図32】図32〜図35は道路検出部の動作を示すフ
ローチャートであり、図32は道路形状推定処理のフロ
ーチャート
32 to 35 are flowcharts showing the operation of the road detection unit, and FIG. 32 is a flowchart of road shape estimation processing.

【図33】三次元ウインドウ発生処理のフローチャートFIG. 33 is a flowchart of a three-dimensional window generation process.

【図34】直線要素検出処理のフローチャートFIG. 34 is a flowchart of linear element detection processing.

【図35】道路形状判定処理のフローチャートFIG. 35 is a flowchart of road shape determination processing.

【図36】図36〜図38は側壁検出部の動作を示すフ
ローチャートであり、図36は立体物データ抽出処理の
フローチャート
36 to 38 are flowcharts showing the operation of the sidewall detection unit, and FIG. 36 is a flowchart of solid object data extraction processing.

【図37】側壁直線検出処理のフローチャートFIG. 37 is a flowchart of sidewall straight line detection processing.

【図38】側壁範囲検出処理のフローチャートFIG. 38 is a flowchart of sidewall range detection processing.

【図39】図39及び図40は本発明の第2実施例に係
り、図39は探索領域と格子区分を示す説明図
39 and 40 relate to the second embodiment of the present invention, and FIG. 39 is an explanatory diagram showing a search area and a grid section.

【図40】側壁直線検出処理のフローチャートFIG. 40 is a flowchart of sidewall straight line detection processing.

【図41】図41〜図45は本発明の第3実施例に係
り、図41は車外監視装置の全体構成図
41 to 45 relate to a third embodiment of the present invention, and FIG. 41 is an overall configuration diagram of a vehicle exterior monitoring device.

【図42】車外監視装置の回路ブロック図FIG. 42 is a circuit block diagram of the vehicle exterior monitoring device.

【図43】側壁検出装置の機能ブロック図FIG. 43 is a functional block diagram of a sidewall detection device.

【図44】画像の例を示す説明図FIG. 44 is an explanatory diagram showing an example of an image

【図45】立体物の二次元分布の例を示す説明図FIG. 45 is an explanatory diagram showing an example of a two-dimensional distribution of a three-dimensional object.

【図46】図46〜図51は本発明の第4実施例に係
り、図46は車外監視装置の全体構成図
46 to 51 relate to a fourth embodiment of the present invention, and FIG. 46 is an overall configuration diagram of a vehicle exterior monitoring device.

【図47】車外監視装置の回路ブロック図FIG. 47 is a circuit block diagram of the vehicle exterior monitoring device.

【図48】側壁検出装置の機能ブロック図FIG. 48 is a functional block diagram of a sidewall detection device.

【図49】レーザビームの走査方法を側面から示す説明
FIG. 49 is an explanatory view showing a scanning method of a laser beam from a side surface.

【図50】レーザビームの走査方法を上面から示す説明
FIG. 50 is an explanatory diagram showing a scanning method of a laser beam from above.

【図51】レーザレーダ測距装置で計測される立体物の
二次元分布の例を示す説明図
FIG. 51 is an explanatory diagram showing an example of a two-dimensional distribution of a three-dimensional object measured by a laser radar range finder.

【符号の説明】[Explanation of symbols]

1 車輌 2 車外監視装置 10 ステレオ光学系(計測手段) 20 ステレオ画像処理装置(計測手段) 110 道路検出部(道路検出手段) 111 道路形状推定部(道路形状推定手段) 112 三次元ウインドウ発生部(三次元ウインドウ発
生手段) 113 直線要素検出部(直線要素検出手段) 114 道路形状判定部(道路形状判定手段) 121 立体物データ抽出部(データ抽出手段) 122 側壁直線検出部(側壁直線検出手段) 123 側壁範囲検出部(側壁範囲検出手段)
1 vehicle 2 vehicle exterior monitoring device 10 stereo optical system (measurement means) 20 stereo image processing device (measurement means) 110 road detection unit (road detection means) 111 road shape estimation unit (road shape estimation means) 112 three-dimensional window generation unit ( Three-dimensional window generation means) 113 Linear element detection unit (linear element detection means) 114 Road shape determination unit (road shape determination means) 121 Three-dimensional object data extraction unit (data extraction means) 122 Side wall straight line detection unit (side wall straight line detection means) 123 Side Wall Range Detection Unit (Side Wall Range Detection Means)

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.5 識別記号 庁内整理番号 FI 技術表示箇所 // B60R 21/00 C 8812−3D ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 5 Identification code Office reference number FI technical display location // B60R 21/00 C 8812-3D

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 車外の設定範囲の対象を検出し、この対
象に対する位置情報を出力する計測手段と、 前記計測手段からの位置情報に基づき、道路の境界とな
る連続した立体物としての側壁の有無と、この側壁の位
置を近似する直線式とを検出する側壁直線検出手段と、 前記側壁直線検出手段で検出した直線式の周囲に空間領
域を設定し、この空間領域内のデータのみを抽出して前
記側壁が存在する範囲を検出する側壁範囲検出手段とを
備えたことを特徴とする車輌用車外監視装置。
1. A measuring means for detecting an object in a set range outside the vehicle and outputting position information for the object, and a side wall as a continuous three-dimensional object which becomes a boundary of a road based on the position information from the measuring means. Side wall straight line detecting means for detecting presence / absence and a straight line expression approximating the position of the side wall, and a space area is set around the straight line expression detected by the side wall straight line detecting means, and only data in this space area is extracted. And a side wall range detecting means for detecting a range where the side wall exists.
【請求項2】 車外の設定範囲内の対象を検出し、この
対象に対する三次元位置情報を出力する計測手段と、 前記計測手段からの三次元位置情報に基づいて道路モデ
ルを決定し、この道路モデルを道路形状として検出する
道路検出手段と、 前記道路モデルに基づいて、前記三次元位置情報の中か
ら道路表面より上にあるデータのみを抽出するデータ抽
出手段と、 前記データ抽出手段で抽出したデータから、道路の境界
となる連続した立体物としての側壁の有無と、この側壁
の位置を近似する直線式とを検出する側壁直線検出手段
と、 前記側壁直線検出手段で検出した直線式の周囲に空間領
域を設定し、この空間領域内のデータのみを抽出して前
記側壁が存在する範囲を検出する側壁範囲検出手段とを
備えたことを特徴とする車輌用車外監視装置。
2. A measuring means for detecting an object within a set range outside the vehicle and outputting three-dimensional position information for the object, and a road model is determined based on the three-dimensional position information from the measuring means, and the road model is determined. Road detection means for detecting a model as a road shape, data extraction means for extracting only data above the road surface from the three-dimensional position information based on the road model, and extracted by the data extraction means From the data, the presence / absence of a side wall as a continuous three-dimensional object that becomes the boundary of the road, and a side wall straight line detecting means for detecting a straight line expression approximating the position of this side wall, and the periphery of the straight line expression detected by the side wall straight line detecting means And a side wall range detecting means for detecting a range in which the side wall exists by extracting only data in the space area from the outside of the vehicle. Location.
【請求項3】 前記道路検出手段に、 前記三次元位置情報に基づいて、道路の白線の位置及び
形状を推定する道路形状推定手段と、 前記道路形状推定手段で推定した道路の白線を包合する
三次元の空間領域を三次元ウインドウとして設定する三
次元ウインドウ設定手段と、 前記三次元位置情報の中から前記三次元ウインドウ内の
データのみを抽出し、前記道路モデルを構成する三次元
の直線要素を検出する直線要素検出手段と、 前記直線要素検出手段で検出した直線要素の妥当性を判
定し、判定基準に合致しない場合には前記直線要素を修
正あるいは変更して前記道路モデルを決定する道路形状
判定手段とを備えたことを特徴とする請求項2記載の車
輌用車外監視装置。
3. The road shape estimating means for estimating the position and shape of a white line of the road based on the three-dimensional position information, and the road detecting means for combining the white line of the road estimated by the road shape estimating means. A three-dimensional window setting means for setting a three-dimensional spatial area as a three-dimensional window, and extracting only data in the three-dimensional window from the three-dimensional position information, and a three-dimensional straight line forming the road model. A straight line element detecting means for detecting an element and the validity of the straight line element detected by the straight line element detecting means are determined, and when the determination criteria are not met, the straight line element is modified or changed to determine the road model. The vehicle exterior monitoring device according to claim 2, further comprising a road shape determination unit.
【請求項4】 前記側壁直線検出手段は、 前記側壁の存在を探索する探索領域を設定し、この探索
領域内のデータのみを抽出してハフ変換を行なうことに
より、前記側壁の存在の有無と、前記直線式とを検出す
るものであることを特徴とする請求項1または2記載の
車輌用車外監視装置。
4. The presence / absence of the side wall is determined by the side wall straight line detecting means by setting a search area for searching for the existence of the side wall and extracting only data in the search area and performing Hough transform. The vehicle exterior monitoring device according to claim 1 or 2, wherein the linear type is detected.
【請求項5】 前記側壁直線検出手段は、 前記側壁の存在を探索する探索領域を格子状に区分して
設定し、この探索領域内のデータのみを抽出して各格子
内に含まれるデータの個数を求め、各格子内のデータは
各格子の中心位置にまとまって存在するものとしてハフ
変換を行なうことにより、前記側壁の存在の有無と、前
記直線式とを検出するものであることを特徴とする請求
項1または2記載の車輌用車外監視装置。
5. The side wall straight line detecting means divides and sets a search area for searching for the existence of the side wall in a grid shape, extracts only data in the search area, and extracts data included in each grid. The number of pieces is obtained, and the Hough transform is performed assuming that the data in each grid exist in the central position of each grid, thereby detecting the presence or absence of the side wall and the linear equation. The vehicle exterior monitoring device according to claim 1 or 2.
【請求項6】 前記側壁範囲検出手段は、 前記空間領域内のデータの個数を縦軸とし、自車輌との
距離を横軸とするヒストグラムを作成し、このヒストグ
ラムの度数の大小から前記側壁が存在する範囲を検出す
るものであることを特徴とする請求項1または2記載の
車輌用車外監視装置。
6. The side wall range detection means creates a histogram in which the vertical axis represents the number of data in the spatial area and the horizontal axis represents the distance to the vehicle, and the side wall is determined from the frequency of the histogram. The vehicle exterior monitoring device according to claim 1 or 2, which detects an existing range.
【請求項7】 前記側壁直線検出手段は、 前記側壁の存在を探索する探索領域を設定し、この探索
領域内のデータのみを抽出してハフ変換を行なうことに
より、前記側壁の存在の有無と、前記直線式とを検出す
るものであり、 前記側壁範囲検出手段は、 前記空間領域内のデータの個数を縦軸とし、自車輌との
距離を横軸とするヒストグラムを作成し、このヒストグ
ラムの度数の大小から前記側壁が存在する範囲を検出す
るものであることを特徴とする請求項1または2記載の
車輌用車外監視装置。
7. The presence / absence of the side wall is determined by the side wall straight line detection means by setting a search area for searching for the existence of the side wall, and extracting only data in the search area and performing Hough transform. , The linear equation is detected, the side wall range detection means creates a histogram with the number of data in the spatial region as the vertical axis and the distance to the vehicle as the horizontal axis, and The vehicle exterior monitoring device according to claim 1 or 2, wherein the range in which the side wall is present is detected from the magnitude of the frequency.
【請求項8】 前記側壁直線検出手段は、 前記側壁の存在を探索する探索領域を格子状に区分して
設定し、この探索領域内のデータのみを抽出して各格子
内に含まれるデータの個数を求め、各格子内のデータは
各格子の中心位置にまとまって存在するものとしてハフ
変換を行なうことにより、前記側壁の存在の有無と、前
記直線式とを検出するものであり、 前記側壁範囲検出手段は、前記空間領域内のデータの個
数を縦軸とし、自車輌との距離を横軸とするヒストグラ
ムを作成し、このヒストグラムの度数の大小から前記側
壁が存在する範囲を検出するものであることを特徴とす
る請求項1または2記載の車輌用車外監視装置。
8. The side wall straight line detecting means divides and sets a search area for searching for the existence of the side wall in a grid shape, extracts only data in the search area, and extracts data included in each grid. The number of pieces is obtained, and the data in each grid is subjected to a Hough transform assuming that the data exists in the central position of each grid, and the presence or absence of the side wall and the linear expression are detected. The range detecting means creates a histogram with the number of data in the spatial region as the vertical axis and the distance to the vehicle as the horizontal axis, and detects the range where the side wall exists from the magnitude of the histogram frequency. The vehicle exterior monitoring device according to claim 1 or 2, wherein:
【請求項9】 前記計測手段は、 車外の設定範囲を撮像して画像処理することにより、車
外の対象に対する前記位置情報を出力するものであるこ
とを特徴とする請求項1または2記載の車輌用車外監視
装置。
9. The vehicle according to claim 1, wherein the measuring means outputs the position information for an object outside the vehicle by imaging a set range outside the vehicle and performing image processing on the set range. Outside vehicle monitoring device.
【請求項10】 前記計測手段は、 車外の設定範囲を走査してレーザ光を投射・受光するこ
とにより、車外の対象に対する前記位置情報を出力する
ものであることを特徴とする請求項1記載の車輌用車外
監視装置。
10. The measuring means outputs the position information for an object outside the vehicle by scanning a set range outside the vehicle and projecting / receiving a laser beam. Vehicle exterior monitoring device.
JP05259193A 1993-03-12 1993-03-12 Vehicle exterior monitoring device Expired - Lifetime JP3324821B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05259193A JP3324821B2 (en) 1993-03-12 1993-03-12 Vehicle exterior monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05259193A JP3324821B2 (en) 1993-03-12 1993-03-12 Vehicle exterior monitoring device

Publications (2)

Publication Number Publication Date
JPH06266828A true JPH06266828A (en) 1994-09-22
JP3324821B2 JP3324821B2 (en) 2002-09-17

Family

ID=12919036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05259193A Expired - Lifetime JP3324821B2 (en) 1993-03-12 1993-03-12 Vehicle exterior monitoring device

Country Status (1)

Country Link
JP (1) JP3324821B2 (en)

Cited By (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08210848A (en) * 1995-02-07 1996-08-20 Fuji Electric Co Ltd Distance measuring instrument
JPH1075398A (en) * 1996-08-30 1998-03-17 Honda Motor Co Ltd Image sensor for monitoring front direction of vehicle and aspect ratio setting method for light receiving section for the image sensor for monitoring front direction of vehicle
JPH10143799A (en) * 1996-11-13 1998-05-29 Nissan Motor Co Ltd Preceding vehicle following device
JPH10283477A (en) * 1997-04-04 1998-10-23 Fuji Heavy Ind Ltd Outer-vehicle monitoring device
JPH10283461A (en) * 1997-04-04 1998-10-23 Fuji Heavy Ind Ltd Outer-vehicle monitoring device
JPH11148394A (en) * 1997-11-14 1999-06-02 Nissan Motor Co Ltd Vehicle controller
JPH11213138A (en) * 1998-01-30 1999-08-06 Fuji Heavy Ind Ltd Out-of-vehicle monitoring device
JPH11351862A (en) * 1998-06-09 1999-12-24 Yazaki Corp Foregoing vehicle detecting method and equipment
JP2000099896A (en) * 1998-09-22 2000-04-07 Denso Corp Traveling path detecting device and vehicle traveling controller and recording medium
JP2000331148A (en) * 1999-05-19 2000-11-30 Nissan Motor Co Ltd Obstacle detector
JP2001344607A (en) * 2000-06-01 2001-12-14 Natl Inst Of Advanced Industrial Science & Technology Meti Ellipse detecting method, computer-readable recording medium with detection program recorded thereon and detector
JP2003106859A (en) * 2001-09-28 2003-04-09 Equos Research Co Ltd Running trafic lane estimation device, method therefor and navigator
JP2003204546A (en) * 2002-09-20 2003-07-18 Fuji Heavy Ind Ltd Apparatus for monitoring outside vehicle
JP2003281552A (en) * 2002-03-25 2003-10-03 Toshiba Corp Image processor and method
JP2005092665A (en) * 2003-09-19 2005-04-07 Fuji Heavy Ind Ltd Entering decision apparatus and method for the same
JP2005121495A (en) * 2003-10-17 2005-05-12 Fuji Heavy Ind Ltd Information display device and information display method
JP2005242606A (en) * 2004-02-26 2005-09-08 Olympus Corp Image generation system, image generation program and image generation method
JP2006054662A (en) * 2004-08-11 2006-02-23 Mitsubishi Electric Corp Drive support device
US7120292B2 (en) 1999-02-18 2006-10-10 Matsushita Electric Industrial Co., Ltd. Method of object recognition, apparatus of the same and recording medium therefor
US7158664B2 (en) 2001-11-09 2007-01-02 Honda Giken Kogyo Kabushiki Kaisha Image recognition apparatus
JP2007240277A (en) * 2006-03-07 2007-09-20 Olympus Corp Distance measuring device/imaging device, distance measuring method/imaging method, distance measuring program/imaging program, and storage medium
WO2007111241A1 (en) 2006-03-28 2007-10-04 Pasco Corporation Road video image analyzing device and road video image analyzing method
JP2007280132A (en) * 2006-04-07 2007-10-25 Fuji Heavy Ind Ltd Travel guide obstacle detector, and controller for vehicle
WO2007138898A1 (en) * 2006-05-25 2007-12-06 Nec Corporation Recognizing system, recognizing metho and recognizing program
JP2008003941A (en) * 2006-06-23 2008-01-10 Nissan Motor Co Ltd Road end recognition device, automobile and road end recognition method
JP2008014814A (en) * 2006-07-06 2008-01-24 Mitsubishi Precision Co Ltd Method for detecting end of road
JP2008059323A (en) * 2006-08-31 2008-03-13 Fuji Heavy Ind Ltd Wall detection device
DE102008006375A1 (en) 2007-01-31 2008-08-21 Fuji Jukogyo Kabushiki Kaisha monitoring system
DE102008006951A1 (en) 2007-01-31 2008-09-04 Fuji Jukogyo Kabushiki Kaisha Detection system for vehicles in front
DE102008025723A1 (en) 2007-06-01 2009-01-02 Fuji Jukogyo K.K. Device for monitoring the environment of a vehicle
DE102008053460A1 (en) 2007-10-29 2009-06-10 Fuji Jukogyo K.K. Object detection system
DE102008053472A1 (en) 2007-10-29 2009-06-25 Fuji Jukogyo K.K. Object detection system
JP2009169619A (en) * 2008-01-15 2009-07-30 Nissan Motor Co Ltd Image-processing device for vehicle and image-processing method
DE102009005184A1 (en) 2008-01-22 2009-08-06 Fuji Jukogyo K.K. Fahrzeugabtastsystem
JP2009181310A (en) * 2008-01-30 2009-08-13 Toyota Central R&D Labs Inc Road parameter estimation device
DE102009005861A1 (en) 2008-01-25 2009-10-08 Fuji Jukogyo Kabushiki Kaisha Vehicle environment recognition system
DE102009005860A1 (en) 2008-01-25 2009-10-08 Fuji Jukogyo Kabushiki Kaisha Environment recognition system
DE102009010018A1 (en) 2008-02-27 2009-10-15 Fuji Jukogyo Kabushiki Kaisha Steering system
DE102009015142A1 (en) 2008-03-27 2009-12-17 Fuji Jukogyo K.K. Vehicle environment recognition device and control system for tracking a preceding vehicle
WO2010032523A1 (en) * 2008-09-17 2010-03-25 株式会社 日立製作所 Device for detecting/judging road boundary
JP2010221909A (en) * 2009-03-24 2010-10-07 Hitachi Automotive Systems Ltd Traveling environment recognition device and vehicle control device
WO2010137390A1 (en) * 2009-05-25 2010-12-02 株式会社 東芝 Radar system
JP2010271964A (en) * 2009-05-22 2010-12-02 Fuji Heavy Ind Ltd Road shape recognition device
JP2010271262A (en) * 2009-05-25 2010-12-02 Toshiba Corp Radar system
WO2011013586A1 (en) * 2009-07-29 2011-02-03 日立オートモティブシステムズ株式会社 Road shape recognition device
EP2333742A1 (en) 2009-12-10 2011-06-15 Hitachi, Ltd. Vehicle support systems for pedestrians to cross roads and support methods for pedestrians to cross roads
JP2011128844A (en) * 2009-12-17 2011-06-30 Fuji Heavy Ind Ltd Road shape recognition device
JP2012022574A (en) * 2010-07-15 2012-02-02 Fuji Heavy Ind Ltd White line recognition device for vehicle
WO2012081096A1 (en) * 2010-12-15 2012-06-21 トヨタ自動車株式会社 Travel assistance device, travel assistance method, and vehicle
DE102012101014A1 (en) 2011-02-16 2012-08-16 Fuji Jukogyo Kabushiki Kaisha Vehicle detection device
WO2014132729A1 (en) * 2013-03-01 2014-09-04 日立オートモティブシステムズ株式会社 Stereo camera device
JP2016043700A (en) * 2014-08-19 2016-04-04 日野自動車株式会社 Travel road edge estimation apparatus
JP2017004401A (en) * 2015-06-15 2017-01-05 富士重工業株式会社 Out-of-vehicle environment recognizing device
WO2017115732A1 (en) 2015-12-28 2017-07-06 株式会社リコー Image processing device, object recognition device, machinery control system, image processing method, and image processing program
WO2017158982A1 (en) 2016-03-18 2017-09-21 株式会社リコー Image processing device, image processing method, image processing program, object recognition device, and apparatus control system
JP2018026058A (en) * 2016-08-12 2018-02-15 パナソニックIpマネジメント株式会社 Road surface estimation device, vehicle controller, road surface estimation method, and program
JP2018060572A (en) * 2012-09-05 2018-04-12 ウェイモ エルエルシー Construction zone detection using plural information sources
WO2019039106A1 (en) * 2017-08-25 2019-02-28 日立オートモティブシステムズ株式会社 Image recognition device
JP2023121166A (en) * 2022-02-17 2023-08-31 本田技研工業株式会社 Outside world recognition device

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4043416B2 (en) 2003-07-30 2008-02-06 オリンパス株式会社 Safe movement support device
CN102985947B (en) 2010-07-29 2015-06-10 本田技研工业株式会社 Vehicle periphery monitoring device
EP3792656A1 (en) * 2019-09-12 2021-03-17 Continental Automotive GmbH Method for elevation angle estimation based on an ultrasound sensor

Cited By (99)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08210848A (en) * 1995-02-07 1996-08-20 Fuji Electric Co Ltd Distance measuring instrument
JPH1075398A (en) * 1996-08-30 1998-03-17 Honda Motor Co Ltd Image sensor for monitoring front direction of vehicle and aspect ratio setting method for light receiving section for the image sensor for monitoring front direction of vehicle
JPH10143799A (en) * 1996-11-13 1998-05-29 Nissan Motor Co Ltd Preceding vehicle following device
JPH10283477A (en) * 1997-04-04 1998-10-23 Fuji Heavy Ind Ltd Outer-vehicle monitoring device
JPH10283461A (en) * 1997-04-04 1998-10-23 Fuji Heavy Ind Ltd Outer-vehicle monitoring device
JPH11148394A (en) * 1997-11-14 1999-06-02 Nissan Motor Co Ltd Vehicle controller
JPH11213138A (en) * 1998-01-30 1999-08-06 Fuji Heavy Ind Ltd Out-of-vehicle monitoring device
US6370261B1 (en) 1998-01-30 2002-04-09 Fuji Jukogyo Kabushiki Kaisha Vehicle surroundings monitoring apparatus
US6888953B2 (en) 1998-01-30 2005-05-03 Fuji Jukogyo Kabushiki Kaisha Vehicle surroundings monitoring apparatus
JPH11351862A (en) * 1998-06-09 1999-12-24 Yazaki Corp Foregoing vehicle detecting method and equipment
JP2000099896A (en) * 1998-09-22 2000-04-07 Denso Corp Traveling path detecting device and vehicle traveling controller and recording medium
US7120292B2 (en) 1999-02-18 2006-10-10 Matsushita Electric Industrial Co., Ltd. Method of object recognition, apparatus of the same and recording medium therefor
JP2000331148A (en) * 1999-05-19 2000-11-30 Nissan Motor Co Ltd Obstacle detector
JP2001344607A (en) * 2000-06-01 2001-12-14 Natl Inst Of Advanced Industrial Science & Technology Meti Ellipse detecting method, computer-readable recording medium with detection program recorded thereon and detector
JP2003106859A (en) * 2001-09-28 2003-04-09 Equos Research Co Ltd Running trafic lane estimation device, method therefor and navigator
US7158664B2 (en) 2001-11-09 2007-01-02 Honda Giken Kogyo Kabushiki Kaisha Image recognition apparatus
US7474765B2 (en) 2001-11-09 2009-01-06 Honda Giken Kogyo Kabushiki Kaisha Image recognition apparatus
JP2003281552A (en) * 2002-03-25 2003-10-03 Toshiba Corp Image processor and method
JP2003204546A (en) * 2002-09-20 2003-07-18 Fuji Heavy Ind Ltd Apparatus for monitoring outside vehicle
JP2005092665A (en) * 2003-09-19 2005-04-07 Fuji Heavy Ind Ltd Entering decision apparatus and method for the same
JP4531366B2 (en) * 2003-09-19 2010-08-25 富士重工業株式会社 Approach determination device and approach determination method
JP2005121495A (en) * 2003-10-17 2005-05-12 Fuji Heavy Ind Ltd Information display device and information display method
JP4574157B2 (en) * 2003-10-17 2010-11-04 富士重工業株式会社 Information display device and information display method
JP2005242606A (en) * 2004-02-26 2005-09-08 Olympus Corp Image generation system, image generation program and image generation method
JP2006054662A (en) * 2004-08-11 2006-02-23 Mitsubishi Electric Corp Drive support device
JP2007240277A (en) * 2006-03-07 2007-09-20 Olympus Corp Distance measuring device/imaging device, distance measuring method/imaging method, distance measuring program/imaging program, and storage medium
US8126209B2 (en) 2006-03-28 2012-02-28 Pasco Corporation Road image analyzing apparatus and road image analyzing method
WO2007111241A1 (en) 2006-03-28 2007-10-04 Pasco Corporation Road video image analyzing device and road video image analyzing method
JP2007280132A (en) * 2006-04-07 2007-10-25 Fuji Heavy Ind Ltd Travel guide obstacle detector, and controller for vehicle
JP4577532B2 (en) * 2006-05-25 2010-11-10 日本電気株式会社 Recognition system, recognition method, and recognition program
JPWO2007138898A1 (en) * 2006-05-25 2009-10-01 日本電気株式会社 Recognition system, recognition method, and recognition program
US8208757B2 (en) 2006-05-25 2012-06-26 Nec Corporation Recognition system, recognition method, and recognition program
WO2007138898A1 (en) * 2006-05-25 2007-12-06 Nec Corporation Recognizing system, recognizing metho and recognizing program
JP2008003941A (en) * 2006-06-23 2008-01-10 Nissan Motor Co Ltd Road end recognition device, automobile and road end recognition method
JP2008014814A (en) * 2006-07-06 2008-01-24 Mitsubishi Precision Co Ltd Method for detecting end of road
JP2008059323A (en) * 2006-08-31 2008-03-13 Fuji Heavy Ind Ltd Wall detection device
US8194998B2 (en) 2007-01-31 2012-06-05 Fuji Jukogyo Kabushiki Kaisha Preceding vehicle detection system
DE102008006951A1 (en) 2007-01-31 2008-09-04 Fuji Jukogyo Kabushiki Kaisha Detection system for vehicles in front
DE102008006375A1 (en) 2007-01-31 2008-08-21 Fuji Jukogyo Kabushiki Kaisha monitoring system
DE102008006375B4 (en) 2007-01-31 2019-02-07 Subaru Corporation monitoring system
US7839272B2 (en) 2007-06-01 2010-11-23 Fuji Jukogyo Kabushiki Kaisha Vehicle surroundings monitoring apparatus
DE102008025723A1 (en) 2007-06-01 2009-01-02 Fuji Jukogyo K.K. Device for monitoring the environment of a vehicle
DE102008053460A1 (en) 2007-10-29 2009-06-10 Fuji Jukogyo K.K. Object detection system
US8174563B2 (en) 2007-10-29 2012-05-08 Fuji Jukogyo Kabushiki Kaisha Object detecting system
DE102008053472B4 (en) 2007-10-29 2018-10-04 Subaru Corporation Object detection system
DE102008053460B4 (en) * 2007-10-29 2020-09-03 Subaru Corporation Object detection system
US8233031B2 (en) 2007-10-29 2012-07-31 Fuji Jukogyo Kabushiki Kaisha Object detecting system
DE102008053472A1 (en) 2007-10-29 2009-06-25 Fuji Jukogyo K.K. Object detection system
JP2009169619A (en) * 2008-01-15 2009-07-30 Nissan Motor Co Ltd Image-processing device for vehicle and image-processing method
US8749631B2 (en) 2008-01-22 2014-06-10 Fuji Jukogyo Kabushiki Kaisha Vehicle detecting system
DE102009005184A1 (en) 2008-01-22 2009-08-06 Fuji Jukogyo K.K. Fahrzeugabtastsystem
US8437536B2 (en) 2008-01-25 2013-05-07 Fuji Jukogyo Kabushiki Kaisha Environment recognition system
DE102009005861B4 (en) 2008-01-25 2023-04-20 Subaru Corporation Vehicle environment detection system
DE102009005860B4 (en) 2008-01-25 2023-04-20 Subaru Corporation Environment Recognition System
DE102009005861A1 (en) 2008-01-25 2009-10-08 Fuji Jukogyo Kabushiki Kaisha Vehicle environment recognition system
US8244027B2 (en) 2008-01-25 2012-08-14 Fuji Jukogyo Kabushiki Kaisha Vehicle environment recognition system
DE102009005860A1 (en) 2008-01-25 2009-10-08 Fuji Jukogyo Kabushiki Kaisha Environment recognition system
JP2009181310A (en) * 2008-01-30 2009-08-13 Toyota Central R&D Labs Inc Road parameter estimation device
US8224550B2 (en) 2008-02-27 2012-07-17 Fuji Jukogyo Kabushiki Kaisha Steering assist system
DE102009010018A1 (en) 2008-02-27 2009-10-15 Fuji Jukogyo Kabushiki Kaisha Steering system
DE102009015142A1 (en) 2008-03-27 2009-12-17 Fuji Jukogyo K.K. Vehicle environment recognition device and control system for tracking a preceding vehicle
US8175334B2 (en) 2008-03-27 2012-05-08 Fuji Jukogyo Kabushiki Kaisha Vehicle environment recognition apparatus and preceding-vehicle follow-up control system
WO2010032523A1 (en) * 2008-09-17 2010-03-25 株式会社 日立製作所 Device for detecting/judging road boundary
JP2010072807A (en) * 2008-09-17 2010-04-02 Hitachi Ltd Device for detecting and determining road boundary
US8411900B2 (en) 2008-09-17 2013-04-02 Hitachi Automotive Systems, Ltd. Device for detecting/judging road boundary
JP2010221909A (en) * 2009-03-24 2010-10-07 Hitachi Automotive Systems Ltd Traveling environment recognition device and vehicle control device
JP2010271964A (en) * 2009-05-22 2010-12-02 Fuji Heavy Ind Ltd Road shape recognition device
DE102010020867B4 (en) * 2009-05-22 2017-12-28 Subaru Corporation Road shape recognition device
DE102010020867A1 (en) 2009-05-22 2011-05-19 Fuji Jukogyo Kabushiki Kaisha Road shape recognition device
US8340896B2 (en) 2009-05-22 2012-12-25 Fuji Jukogyo Kabushiki Kaisha Road shape recognition device
JP2010271262A (en) * 2009-05-25 2010-12-02 Toshiba Corp Radar system
WO2010137390A1 (en) * 2009-05-25 2010-12-02 株式会社 東芝 Radar system
CN101999084A (en) * 2009-05-25 2011-03-30 株式会社东芝 Radar system
US9074906B2 (en) 2009-07-29 2015-07-07 Hitachi Automotive Systems, Ltd. Road shape recognition device
WO2011013586A1 (en) * 2009-07-29 2011-02-03 日立オートモティブシステムズ株式会社 Road shape recognition device
JP2011028659A (en) * 2009-07-29 2011-02-10 Hitachi Automotive Systems Ltd Road shape recognition device
EP2333742A1 (en) 2009-12-10 2011-06-15 Hitachi, Ltd. Vehicle support systems for pedestrians to cross roads and support methods for pedestrians to cross roads
JP2011128844A (en) * 2009-12-17 2011-06-30 Fuji Heavy Ind Ltd Road shape recognition device
JP2012022574A (en) * 2010-07-15 2012-02-02 Fuji Heavy Ind Ltd White line recognition device for vehicle
WO2012081096A1 (en) * 2010-12-15 2012-06-21 トヨタ自動車株式会社 Travel assistance device, travel assistance method, and vehicle
JP5672310B2 (en) * 2010-12-15 2015-02-18 トヨタ自動車株式会社 Driving support device, driving support method, and vehicle
US8976999B2 (en) 2011-02-16 2015-03-10 Fuji Jukogyo Kabushiki Kaisha Vehicle detection apparatus
DE102012101014A1 (en) 2011-02-16 2012-08-16 Fuji Jukogyo Kabushiki Kaisha Vehicle detection device
JP2018060572A (en) * 2012-09-05 2018-04-12 ウェイモ エルエルシー Construction zone detection using plural information sources
JP2014170298A (en) * 2013-03-01 2014-09-18 Hitachi Automotive Systems Ltd Stereo camera device
US20160012283A1 (en) * 2013-03-01 2016-01-14 Hitachi Automotive Systems, Ltd. Stereoscopic Camera Apparatus
US9697421B2 (en) 2013-03-01 2017-07-04 Hitachi Automotive Systems, Ltd. Stereoscopic camera apparatus
WO2014132729A1 (en) * 2013-03-01 2014-09-04 日立オートモティブシステムズ株式会社 Stereo camera device
JP2016043700A (en) * 2014-08-19 2016-04-04 日野自動車株式会社 Travel road edge estimation apparatus
JP2017004401A (en) * 2015-06-15 2017-01-05 富士重工業株式会社 Out-of-vehicle environment recognizing device
WO2017115732A1 (en) 2015-12-28 2017-07-06 株式会社リコー Image processing device, object recognition device, machinery control system, image processing method, and image processing program
US10748014B2 (en) 2015-12-28 2020-08-18 Ricoh Company, Ltd. Processing device, object recognition apparatus, device control system, processing method, and computer-readable recording medium
US10733459B2 (en) 2016-03-18 2020-08-04 Ricoh Company, Ltd. Image processing device, image processing method, computer-readable recording medium, object recognition device, device control system, and movable body
WO2017158982A1 (en) 2016-03-18 2017-09-21 株式会社リコー Image processing device, image processing method, image processing program, object recognition device, and apparatus control system
WO2018030010A1 (en) * 2016-08-12 2018-02-15 パナソニックIpマネジメント株式会社 Road surface estimation device, vehicle control device, road surface estimation method, and program
JP2018026058A (en) * 2016-08-12 2018-02-15 パナソニックIpマネジメント株式会社 Road surface estimation device, vehicle controller, road surface estimation method, and program
WO2019039106A1 (en) * 2017-08-25 2019-02-28 日立オートモティブシステムズ株式会社 Image recognition device
JPWO2019039106A1 (en) * 2017-08-25 2020-04-09 日立オートモティブシステムズ株式会社 Image recognition device
JP2023121166A (en) * 2022-02-17 2023-08-31 本田技研工業株式会社 Outside world recognition device

Also Published As

Publication number Publication date
JP3324821B2 (en) 2002-09-17

Similar Documents

Publication Publication Date Title
JP3324821B2 (en) Vehicle exterior monitoring device
US5410346A (en) System for monitoring condition outside vehicle using imaged picture by a plurality of television cameras
US10832063B2 (en) Systems and methods for detecting an object
US5530420A (en) Running guide apparatus for vehicle capable of keeping safety at passing through narrow path and the method thereof
JP3167752B2 (en) Vehicle distance detection device
JP5441549B2 (en) Road shape recognition device
KR100201739B1 (en) Method for observing an object, apparatus for observing an object using said method, apparatus for measuring traffic flow and apparatus for observing a parking lot
EP1394761B1 (en) Obstacle detection device and method therefor
JP5145585B2 (en) Target detection device
US20030099377A1 (en) Vehicle surroundings monitoring apparatus
JP3727400B2 (en) Crossing detection device
JP2001004368A (en) Object recognizing apparatus
JP2000357233A (en) Body recognition device
JPH0845000A (en) Vehicle-to-vehicle distance controller
JP4937844B2 (en) Pedestrian detection device
US20230356743A1 (en) Real-time perception system for small objects at long range for autonomous vehicles
JP4296287B2 (en) Vehicle recognition device
JPH07225892A (en) Vehicle traveling controller
JP4956099B2 (en) Wall detector
Kellner et al. Multi-cue, model-based detection and mapping of road curb features using stereo vision
JP3324859B2 (en) Inter-vehicle distance control device
KR20190067578A (en) Collision warning device and method using heterogeneous cameras having overlapped capture area
JPH09106500A (en) Driving supporting device for vehicle
JP3762406B2 (en) Vehicle travel guidance device
JP2010176592A (en) Driving support device for vehicle

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080705

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080705

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090705

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090705

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100705

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110705

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110705

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120705

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120705

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130705

Year of fee payment: 11

EXPY Cancellation because of completion of term