JPH07120555A - Environment recognition device for vehicle - Google Patents

Environment recognition device for vehicle

Info

Publication number
JPH07120555A
JPH07120555A JP5287490A JP28749093A JPH07120555A JP H07120555 A JPH07120555 A JP H07120555A JP 5287490 A JP5287490 A JP 5287490A JP 28749093 A JP28749093 A JP 28749093A JP H07120555 A JPH07120555 A JP H07120555A
Authority
JP
Japan
Prior art keywords
optical axis
vehicle
axis direction
environment recognition
traveling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5287490A
Other languages
Japanese (ja)
Other versions
JP3146809B2 (en
Inventor
Toshihiro Yamamura
智弘 山村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP28749093A priority Critical patent/JP3146809B2/en
Publication of JPH07120555A publication Critical patent/JPH07120555A/en
Application granted granted Critical
Publication of JP3146809B2 publication Critical patent/JP3146809B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PURPOSE:To obtain a high direction accuracy for a vehicle even if the mounting angle accuracy of an environment recognition means is not set especially high. CONSTITUTION:The environment recognition means 1 mounted on a vehicle detects the relative direction and the distance to the object. A means 6 for determining the direction of an optical axis extracts information about the road shape from detection data, and determines the direction of the optical axis of the environment recognition means 1 assuming that the road shape is a straight line, and stores it in a means 7 for storing the estimation value on the direction of the optical axis. Then, when a means 5 for detecting straight- line driving detects that the straight-line driving state continues for a specified time based on the output of a steering angle detection means 3 and a driving vehicle speed detection means 4, a means 8 for updating optical axis direction data obtains the optical axis direction estimation value estimated before a specific time from the means 7 for storing the estimation value of the direction of optical axis, sets the optical axis direction estimation value as optical axis direction data, and then corrects the direction of the object detected by the environment recognition means 1 by a direction correction means 2.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、車両の自動走行や、追
突事故を防止する警報装置等に用いられる車両用環境認
識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an environment recognizing device for a vehicle which is used for an automatic running of a vehicle, an alarm device for preventing a rear-end collision accident and the like.

【0002】[0002]

【従来の技術】車両の自動走行や、追突事故防止の警報
装置などのための車両用環境認識装置としては、本願出
願人が先に特願平4−193993号で提案したような
ものがある。これは、障害物や先行車両など前方に存在
する物体までの距離と角度を検出するスキャニング型レ
ーザレーダ装置と、自車走行車線や先行車両の認識を行
うビデオカメラを用いた画像処理装置とを組み合わせた
ものである。
2. Description of the Related Art An environment recognition device for a vehicle, such as an automatic device for driving a vehicle or an alarm device for preventing a rear-end collision, is the one proposed by the applicant of the present application in Japanese Patent Application No. 4-199393. . This is a scanning laser radar device that detects the distance and angle to an object that exists ahead such as an obstacle or a preceding vehicle, and an image processing device that uses a video camera that recognizes the vehicle lane or the preceding vehicle. It is a combination.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記の
車両用環境認識装置にあっては、自車両に対する物体の
存在方向と、距離とを検出しているが、厳密には物体の
方向は環境認識手段に対する相対的な方向として検出さ
れ、自車両に対する方向は、環境認識手段の光軸方向が
確定されないと正確に求められない。しかし、環境認識
手段の光軸方向は、その装置の自車両に対する取付け精
度によって、ある程度の誤差が発生する。また、実際に
走行を重ねると、その間の振動等によって、取付け時の
光軸方向に対してずれも発生する。このような取付け時
の誤差や、経時的なずれを小さくするためには、車体へ
の取付け点において非常に高い精度や強度を確保する必
要があるとともに、工場等での組み付け時において、非
常に高精度での検査工程が必要となり、これらの要因か
ら原価が高くなってしまうという問題があった。
However, in the above-described vehicle environment recognition device, the direction of existence of an object and the distance to the own vehicle are detected, but strictly speaking, the direction of the object is environment recognition. The direction relative to the vehicle is detected as a relative direction to the means, and cannot be accurately obtained unless the optical axis direction of the environment recognition means is determined. However, some error occurs in the optical axis direction of the environment recognition means depending on the mounting accuracy of the device to the vehicle. Further, when the vehicle is actually run repeatedly, a vibration or the like during that time causes a deviation with respect to the optical axis direction at the time of mounting. In order to reduce such errors during mounting and time-dependent deviation, it is necessary to ensure extremely high accuracy and strength at the mounting points on the vehicle body, and at the time of assembly at the factory, etc. There is a problem that the inspection process with high accuracy is required, and the cost is increased due to these factors.

【0004】また、複数の環境認識手段を組み合わせて
使用することにより精度を向上させることもできるが、
その前提条件として、複数の環境認識手段の各光軸方向
が自車両に対してどの方向を向いているのかということ
が把握されていることが必須であり、とくにこのような
複数の環境認識手段を組み合わせてより精度の高い環境
認識を行うためには、それぞれの光軸方向を一層しっか
り把握する必要がある。本発明は、このような問題点に
着目してなされたものであり、高い認識精度を得るため
に、環境認識手段の取付角精度をとくに高くする必要が
なく、かつ取付点の強度を高くしたり、高精度の取付角
検査を必要としない車両用環境認識装置を提供すること
を目的とする。
Further, the accuracy can be improved by using a plurality of environment recognition means in combination,
As a prerequisite, it is essential to know which direction each optical axis of the plurality of environment recognition means faces the own vehicle, and in particular, such a plurality of environment recognition means. In order to perform more accurate environment recognition by combining the above, it is necessary to grasp the respective optical axis directions more firmly. The present invention has been made in view of such a problem, and in order to obtain high recognition accuracy, it is not necessary to particularly increase the mounting angle accuracy of the environment recognition means, and the mounting point strength is increased. Another object of the present invention is to provide a vehicle environment recognition device that does not require a highly accurate mounting angle inspection.

【0005】[0005]

【課題を解決するための手段】このため本発明は、図1
に示すように、車両進行方向に存在する物体の相対的な
方向と距離を検出する環境認識手段1と、環境認識手段
1で検出された物体の方向を光軸方向データによって補
正する方向補正手段2と、操舵角を検出する操舵角検出
手段3と、車両の走行速度を検出する走行車速検出手段
4と、操舵角検出値と走行車速検出値から直線走行状態
であることを検出する直線走行検出手段5と、直線走行
状態においては進行方向の道路形状が直線であると仮定
して、前記環境認識手段の光軸方向を推定する光軸方向
推定手段6と、該光軸方向推定手段6による光軸方向推
定値を記憶する光軸方向推定値記憶手段7と、直線走行
状態が所定時間連続したとき、前記光軸方向推定値記憶
手段7に記憶された前記所定時間前の光軸方向推定値に
より前記光軸方向データを更新する光軸方向データ更新
手段8とを有するものとした。
Therefore, the present invention is based on FIG.
As shown in, the environment recognition means 1 for detecting the relative direction and distance of the object existing in the vehicle traveling direction, and the direction correction means for correcting the direction of the object detected by the environment recognition means 1 by the optical axis direction data. 2, a steering angle detecting means 3 for detecting a steering angle, a traveling vehicle speed detecting means 4 for detecting a traveling speed of a vehicle, and a straight line traveling for detecting a straight traveling state from a steering angle detection value and a traveling vehicle speed detection value. The detecting means 5, the optical axis direction estimating means 6 for estimating the optical axis direction of the environment recognizing means on the assumption that the road shape in the traveling direction is a straight line in a straight running state, and the optical axis direction estimating means 6 Optical axis direction estimated value storage means 7 for storing the estimated optical axis direction value, and the optical axis direction before the predetermined time stored in the estimated optical axis direction value storage means 7 when the straight running state continues for a predetermined time. Based on the estimated value, the optical axis direction It was assumed to have an optical axis direction data updating means 8 to update the over data.

【0006】[0006]

【作用】環境認識手段は自車両に対する物体の相対的な
存在方向と距離を検出する。光軸方向推定手段は、上記
環境認識手段の検出データから道路形状を示す情報を抽
出し、その道路形状が直線であると仮定して、環境認識
手段の光軸方向を推定し、光軸方向推定値記憶手段に記
憶させる。そして、直線走行検出手段により自車両の直
線走行状態が所定時間連続して検出されると、当該所定
時間前に推定した光軸方向推定値を光軸方向推定値記憶
手段から引き出して、この光軸方向推定値を光軸方向デ
ータとして、環境認識手段で検出された物体の方向を補
正する。
The environment recognition means detects the relative direction and distance of the object with respect to the own vehicle. The optical axis direction estimating means extracts information indicating the road shape from the detection data of the environment recognizing means, estimates the optical axis direction of the environment recognizing means on the assumption that the road shape is a straight line, and determines the optical axis direction. It is stored in the estimated value storage means. When the straight running state of the host vehicle is continuously detected for a predetermined time by the straight running detection means, the estimated optical axis direction value estimated before the predetermined time is extracted from the estimated optical axis direction storage means, and the The direction of the object detected by the environment recognition means is corrected by using the axial direction estimated value as the optical axis direction data.

【0007】[0007]

【実施例】以下、本発明を図面に基づいて説明する。図
2は、本発明の実施例の構成を示すブロック図である。
車両にはまずレーザレーダ装置21が設けられ、レーザ
光掃引装置13およびレーダ信号処理回路31とに接続
されている。レーザレーダ装置21は、レーザ光を出力
する送光器15、この送光器15から出力されたレーザ
光の物体による反射光を受光する受光器17および送光
器15からのレーザ光の出力から受光器17における反
射光の受光までのレーザ光の伝播遅延時間により物体ま
での距離を検出する距離検出回路19を有している。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings. FIG. 2 is a block diagram showing the configuration of the embodiment of the present invention.
First, the vehicle is provided with a laser radar device 21, which is connected to the laser light sweep device 13 and the radar signal processing circuit 31. The laser radar device 21 includes a light transmitter 15 that outputs laser light, a light receiver 17 that receives reflected light of an object of the laser light output from the light transmitter 15, and a laser light output from the light transmitter 15. It has a distance detection circuit 19 for detecting the distance to the object based on the propagation delay time of the laser light until the reflected light is received by the light receiver 17.

【0008】このレーザレーダ装置21の送光器15か
ら出力されるレーザ光は、レーザ光掃引装置13により
車両の進行方向、すなわちここでは前方方向を中心に左
右に掃引されるように制御される。このレーザ光掃引装
置13は、例えば、ステップモータで駆動するミラーを
用いて、レーザ光を左右方向に、例えば振幅±10°程
度、周波数10Hzで掃引する。この掃引角度は、レー
ザ光掃引装置13に接続されたレーザ光掃引方向検出装
置11により検出され、レーダ信号処理回路31に供給
されるようになっている。レーザ光掃引方向検出装置1
1は、前記レーザ光掃引装置13のステップモータを駆
動する駆動パルス数に対応して、掃引角度を検出する。
The laser light output from the light transmitter 15 of the laser radar device 21 is controlled by the laser light sweeping device 13 so as to be swept left and right around the traveling direction of the vehicle, that is, the forward direction here. . The laser beam sweeping device 13 sweeps the laser beam in the left-right direction, for example, with an amplitude of about ± 10 ° and a frequency of 10 Hz, using a mirror driven by a step motor, for example. This sweep angle is detected by the laser light sweep direction detection device 11 connected to the laser light sweep device 13 and supplied to the radar signal processing circuit 31. Laser light sweep direction detector 1
1 detects the sweep angle corresponding to the number of drive pulses for driving the step motor of the laser beam sweeping device 13.

【0009】車両にはさらに、画像処理装置29が設け
られている。レーダ信号処理回路31は、レーザレーダ
装置21の距離検出回路19から供給される距離信号
と、レーザ光掃引方向検出装置11から供給された掃引
角度信号に基づき、画像処理装置29に対して画像処理
を行うべき画像領域を出力する。その際、距離検出回路
19に記憶されたレーザレーダ装置21の光軸方向デー
タに基づき、掃引角度を補正する。
The vehicle is further provided with an image processing device 29. The radar signal processing circuit 31 performs image processing on the image processing device 29 based on the distance signal supplied from the distance detection circuit 19 of the laser radar device 21 and the sweep angle signal supplied from the laser light sweep direction detection device 11. The image area to be processed is output. At that time, the sweep angle is corrected based on the optical axis direction data of the laser radar device 21 stored in the distance detection circuit 19.

【0010】画像処理装置29は、自車両前方の画像を
取り込むためのテレビカメラ23、取り込まれた画像を
処理するための画像処理回路25、および画像処理回路
25によって処理された画像から先行車両を認識するた
めの先行車両検出回路27で構成され、上記のレーダ信
号処理回路31からの画像処理領域の指令信号は画像処
理回路25に入力される。画像処理回路25は、得られ
た画像データのうち例えばレーンマーカ(道路白線)な
どのデータを用いて、テレビカメラ23の光軸方向推定
値を算出し、これをカメラ光軸方向記憶回路49へ出力
する。
The image processing device 29 detects the preceding vehicle from the television camera 23 for capturing an image in front of the host vehicle, the image processing circuit 25 for processing the captured image, and the image processed by the image processing circuit 25. The preceding vehicle detection circuit 27 for recognition is used, and the command signal of the image processing area from the radar signal processing circuit 31 is input to the image processing circuit 25. The image processing circuit 25 calculates the optical axis direction estimated value of the television camera 23 by using the data such as the lane marker (road white line) in the obtained image data and outputs it to the camera optical axis direction storage circuit 49. To do.

【0011】カメラ光軸方向記憶回路49は、画像処理
回路25からのテレビカメラ23の光軸方向推定値を逐
次記憶するようになっている。併せてレーダ信号処理回
路31は、路側リフレクタなど道路構造物からのデータ
を用いて、レーザレーダ装置21の光軸方向推定値を算
出し、レーダ光軸方向記憶回路47へと出力する。レー
ダ光軸方向記憶回路47は、レーザレーダ装置21から
の光軸方向推定値を逐次記憶する。
The camera optical axis direction storage circuit 49 is adapted to successively store the optical axis direction estimated value of the television camera 23 from the image processing circuit 25. At the same time, the radar signal processing circuit 31 calculates the optical axis direction estimated value of the laser radar device 21 using the data from the road structure such as the roadside reflector, and outputs it to the radar optical axis direction storage circuit 47. The radar optical axis direction storage circuit 47 sequentially stores the optical axis direction estimated value from the laser radar device 21.

【0012】直線走行検出回路45では、操舵角センサ
41および車速センサ43からの出力に基づいて、直線
走行状態を検出する。この直線走行状態の検出は、車速
が所定値以上で、操舵角がほぼ中立状態であり、さらに
単位時間当たりの操舵角の変化量が所定値以下であるこ
とを検出したとき直線走行状態にあるものとする。レー
ダ信号処理回路31および画像処理回路25は、それぞ
れ直線走行検出回路45からの直線走行状態が所定時間
連続したことを示す信号を受けると、先のレーダ光軸方
向記憶回路47およびカメラ光軸方向記憶回路49か
ら、上記所定時間前に算出され記憶された光軸方向推定
値を引き出して、これらをレーザレーダ装置21および
テレビカメラ23の各光軸方向として、光軸方向データ
を更新するようになっている。そしてレーダ信号処理回
路31および画像処理回路25は、それぞれの上記光軸
方向データにより、レーザ光掃引方向検出装置11で得
られる掃引角度データおよび画像処理回路25における
方向データを補正する。
The straight running detection circuit 45 detects the straight running state based on the outputs from the steering angle sensor 41 and the vehicle speed sensor 43. The straight running state is detected when the vehicle speed is equal to or higher than a predetermined value, the steering angle is substantially in the neutral state, and the straight running state is detected when the amount of change in the steering angle per unit time is less than or equal to the predetermined value. I shall. When the radar signal processing circuit 31 and the image processing circuit 25 respectively receive the signals from the straight line traveling detection circuit 45 indicating that the straight line traveling state has continued for a predetermined time, the radar optical axis direction storage circuit 47 and the camera optical axis direction described above. From the storage circuit 49, the optical axis direction estimated values calculated and stored a predetermined time before are retrieved, and these are used as the respective optical axis directions of the laser radar device 21 and the television camera 23 to update the optical axis direction data. Has become. Then, the radar signal processing circuit 31 and the image processing circuit 25 correct the sweep angle data obtained by the laser beam sweep direction detecting device 11 and the direction data in the image processing circuit 25 based on the respective optical axis direction data.

【0013】先行車両検出回路27は、画像処理回路2
5で処理された画像データから車両進行方向にある先行
車両などを認識し、それまでの距離、方向、速度などの
情報を車両運動制御回路33へ送出する。車両運動制御
回路33では、安全車間距離を保って先行車に追従走行
できるように、上記先行車両に関する情報に基づきアク
チュエータ35に対して指令値を出力し、アクチュエー
タ35を介してスロットル、ブレーキおよびハンドル系
のユニット37の制御を行なう。
The preceding vehicle detection circuit 27 is the image processing circuit 2
The preceding vehicle or the like in the vehicle traveling direction is recognized from the image data processed in 5, and information such as the distance, the direction, and the speed up to that point is sent to the vehicle motion control circuit 33. The vehicle motion control circuit 33 outputs a command value to the actuator 35 based on the information about the preceding vehicle so that the vehicle can follow the preceding vehicle while maintaining the safe inter-vehicle distance, and the throttle, the brake and the steering wheel are output via the actuator 35. The system unit 37 is controlled.

【0014】次に、レーザレーダ装置21および画像処
理装置29それぞれの光軸方向の推定要領について説明
する。図3は、レーザ光を一度掃引したときのレーダ信
号処理回路31で得られる直線走行時の距離(L)−角
度(θ)データを示す。そして図4は、このL−θデー
タを、座標変換により、車両前方をY方向、車両右側を
X方向とするX−Yデータに変換したものである。自動
車走行路においては、一般に路側のガードレールの支柱
等に反射器と呼ばれる反射体が設置されており、これら
の反射器からの反射波はレーザレーダ装置21で非常に
明瞭に検出される。例えば、図3および図4には、左側
の路側に規則的に配置された反射器によるデータ群が、
rr(n)という点列で示されている。
Next, a description will be given of how the laser radar device 21 and the image processing device 29 are estimated in the optical axis direction. FIG. 3 shows distance (L) -angle (θ) data during straight running obtained by the radar signal processing circuit 31 when the laser light is swept once. Then, in FIG. 4, the L-θ data is converted into XY data in which the front side of the vehicle is in the Y direction and the right side of the vehicle is in the X direction by coordinate conversion. In an automobile traveling path, reflectors called reflectors are generally installed on the support pillars of roadside guardrails and the reflected waves from these reflectors are very clearly detected by the laser radar device 21. For example, in FIGS. 3 and 4, the data group by the reflectors regularly arranged on the left side of the road is
It is shown by the sequence of points rr (n).

【0015】この点列rr(n)から、最小二乗法によ
って、この点列を模擬する直線を求めたものが、直線s
であり、この求められた直線sが、 X=a・Y+b …(1) で表されるとすると、この直線の傾きaは、反射器の点
列rr(n)が、レーザレーダ装置21の光軸に対し
て、どれだけ傾いているかを示しており、道路に対する
相対的な光軸の方向θrは次の式で求められる。 θr=−tan-1(a) …(2) これにより、直線走行状態でありかつ前方の道路形状が
直線であることが検出できれば、レーザレーダ装置21
の光軸の方向θrを求めることができる。
A straight line simulating this point sequence is obtained from this point sequence rr (n) by the method of least squares.
If the obtained straight line s is represented by X = a · Y + b (1), the slope a of this straight line is as follows: the point sequence rr (n) of the reflector is It shows how much it is inclined with respect to the optical axis, and the direction θr of the optical axis relative to the road is obtained by the following formula. θr = −tan −1 (a) (2) As a result, if it can be detected that the vehicle is traveling straight and the shape of the road ahead is straight, the laser radar device 21
The optical axis direction θr can be obtained.

【0016】一方、テレビカメラ23についても、以下
のようにして、その光軸方向が求められる。図5に示す
ように、道路座標系を(X、Y、Z)とし、X軸を車両
横方向、Y軸を車両前方向、Z軸を車両上方の向きにと
って、原点を道路中心にとることとする。また、テレビ
カメラに固定された座標系を(U、V、W)として、そ
の光軸方向にW軸をとり、撮像面に平行で水平方向にU
軸、垂直方向にV軸をとり、原点を道路からの高さH、
道路中心からのX方向のズレ量DX にあるテレビカメラ
位置とする。
On the other hand, also for the television camera 23, its optical axis direction is obtained as follows. As shown in FIG. 5, the road coordinate system is (X, Y, Z), the X axis is the vehicle lateral direction, the Y axis is the vehicle front direction, and the Z axis is the vehicle upward direction, and the origin is the road center. And Further, the coordinate system fixed to the television camera is (U, V, W), the W axis is set in the optical axis direction, and the U axis is set in the horizontal direction parallel to the imaging surface.
Axis, V axis in the vertical direction, the origin is the height H from the road,
It is assumed that the TV camera is located at the amount of deviation DX from the center of the road in the X direction.

【0017】ここで、テレビカメラの光軸方向が、ヨー
角θc(Z軸まわり)、ピッチ角φc(X軸まわり)を
向いているとすると、道路座標系で示された点は次のよ
うな式によって、カメラ座標系へ変換される。
Assuming that the optical axis of the television camera is oriented at the yaw angle θc (around the Z axis) and the pitch angle φc (around the X axis), the points indicated by the road coordinate system are as follows. Is converted to the camera coordinate system by using the following formula.

【数1】 但し、座標変換行列Rは、次の通りである。[Equation 1] However, the coordinate conversion matrix R is as follows.

【数2】 [Equation 2]

【0018】さらに、カメラ固定座標系で示される点
(U,V,W)は、カメラの焦点距離をFとして、次の
透視変換により、画像上の座標系(x、y)に変換され
る。 x=−FU/W …(5) y=−FV/W …(6)
Further, the point (U, V, W) shown in the camera fixed coordinate system is converted into the coordinate system (x, y) on the image by the following perspective conversion with the focal length of the camera as F. . x = -FU / W (5) y = -FV / W (6)

【0019】直線走行時にテレビカメラ23から取り込
まれた車両前方画像例が図6に示される。ここで、走行
車線の左右レーンマーカ(白線)LM1、LM2が検出
され、それぞれの画像座標系(x,y)における式を (LM1)… x=A1 ・y+B1 …(7) (LM2)… x=A2 ・y+B2 …(8) とする。この二つの直線が検出されると、これらの交点
である消失点の座標(xBP,yBP)は次のように求めら
れる。 xBP=(A2 B1 −A1 B2 )/(A2 −A1 ) …(9) yBP=(B1 −B2 )/(A2 −A1 ) …(10)
FIG. 6 shows an example of an image of the front of the vehicle taken from the TV camera 23 when traveling straight. Here, the left and right lane markers (white lines) LM1 and LM2 of the traveling lane are detected, and the equations in the respective image coordinate systems (x, y) are expressed as (LM1) ... x = A1 .y + B1 (7) (LM2) ... x = A2 · y + B2 (8) When these two straight lines are detected, the coordinates (xBP, yBP) of the vanishing point which is the intersection of these two straight lines are obtained as follows. xBP = (A2 B1-A1 B2) / (A2-A1) (9) yBP = (B1-B2) / (A2-A1) (10)

【0020】また、左右のレーンマーカLM1、LM2
は、道路座標系で表すと、 (LM1)… X=a1 ・Y+b1 、 Z=0 …(11) (LM2)… X=a2 ・Y+b2 、 Z=0 …(12) と表すことができる。ここで、直線走行であるというこ
とから、傾きa1 、a2はヨー角θcに対して、 a1 =a2 =−tanθc …(13) となる。この、式(11)または(12)を、式(3)
に代入し、さらに得られた結果を式(5)、(6)に代
入して、消失点座標を求めるために、Y→∞の極限値を
とると、次のようになる。 xBP=F・sin(2θc)(1−cosφc)/(2cosφc) …(14) yBP=F・tanφc …(15)
Further, the left and right lane markers LM1 and LM2
When expressed in the road coordinate system, it can be expressed as (LM1) ... X = a1.Y + b1, Z = 0 ... (11) (LM2) ... X = a2.Y + b2, Z = 0. Here, since the vehicle is traveling straight, the inclinations a1 and a2 are a1 = a2 = -tan θc (13) with respect to the yaw angle θc. This equation (11) or (12) is transformed into the equation (3)
Substituting into the equation (5) and (6), the obtained results are substituted into equations (5) and (6), and the limit value of Y → ∞ is obtained in order to obtain the vanishing point coordinates. xBP = F · sin (2θc) (1-cosφc) / (2cosφc) (14) yBP = F · tanφc (15)

【0021】これより、テレビカメラの光軸のピッチ角
φcとヨー角θcは、画像上の消失点座標から求めるこ
とができ、次のようになる。
From this, the pitch angle φc and yaw angle θc of the optical axis of the television camera can be obtained from the vanishing point coordinates on the image, and are as follows.

【数3】 以上のようにして求められたレーザレーダ装置21およ
びテレビカメラのそれぞれの光軸方向θr、θcを用い
てデータが補正される。
[Equation 3] The data is corrected using the optical axis directions θr and θc of the laser radar device 21 and the television camera obtained as described above.

【0022】図7、図8は、上記構成における処理手順
を示すフローチャートである。大別すると、レーザ光の
掃引角度毎の検出距離を算出し記憶する角度・距離算出
処理101と、得られた角度・距離情報に基づいてレー
ダの光軸を推定するレーダ光軸推定処理111と、テレ
ビカメラ23から自車両前方の画像を取り込む画像取り
込み処理103と、取り込まれた画像からテレビカメラ
23の光軸を推定するカメラ光軸推定処理113と、直
線走行状態が連続していることを判別して角度補正用の
光軸データを補正する直線連続判定処理115と、得ら
れた角度・距離情報の角度データを光軸データで補正す
るデータ補正処理117と、取り込まれた画像の画像処
理を行なう領域を決定して、その領域で画像処理を行な
って先行車を認識する先行車検出処理105と、先行車
がある場合には算出された先行車の位置を出力する先行
車位置出力処理107とに分けられる。
7 and 8 are flow charts showing the processing procedure in the above configuration. When roughly classified, an angle / distance calculation process 101 for calculating and storing a detection distance for each sweep angle of laser light, and a radar optical axis estimation process 111 for estimating the optical axis of the radar based on the obtained angle / distance information. The image capturing process 103 that captures an image of the front of the vehicle from the TV camera 23, the camera optical axis estimation process 113 that estimates the optical axis of the TV camera 23 from the captured image, and the straight running state are continuous. A straight line continuity determination process 115 for determining and correcting the optical axis data for angle correction, a data correction process 117 for correcting the angle data of the obtained angle / distance information with the optical axis data, and image processing of the captured image Determines the area in which the vehicle is to be performed, performs image processing in that area to detect the preceding vehicle, and outputs the calculated position of the preceding vehicle if there is a preceding vehicle. It is divided into a preceding vehicle position output process 107.

【0023】角度・距離算出処理101では、まずステ
ップ121、123において、処理用の変数k、jが0
にセットされる。レーザ光掃引装置13でのレーザの掃
引は角度−θM 〜θM の間を行われ、この間2θM /K
max毎にレーザ光を出力し、1回の掃引あたりKma
x回の出力が行われる。変数kはこの1回の掃引におけ
るレーザ出力の番号であり、最大値はKmaxである。
また、変数jは1回の掃引において、距離検出があった
回数を示す。
In the angle / distance calculation processing 101, first, in steps 121 and 123, the processing variables k and j are 0.
Is set to. The laser sweeping by the laser light sweeping device 13 is carried out between the angles −θM and θM, and 2θM / K during this period.
Laser light is output for each max and Kma per sweep
Output is performed x times. The variable k is the laser output number in this one sweep, and the maximum value is Kmax.
Further, the variable j indicates the number of times of distance detection in one sweep.

【0024】次のステップ125で、自車両の走行車速
vが車速センサ43から直線走行検出回路45に読み込
まれる。ステップ127〜141がループとなってお
り、このループが1回のレーザ出力毎に行われる。ステ
ップ127では、レーダ信号処理回路31において、レ
ーザ出力の番号kをk+1とし、ステップ129でレー
ザ光掃引装置13の掃引角θがレーザ光掃引方向検出装
置11から読み込まれ、ステップ131で距離検出回路
19から検出距離Lが読み込まれる。ステップ133で
は、反射体からのレーザ光反射に基づく実際の距離検出
があったかどうかがチェックされ、検出があればステッ
プ135に進み、なければステップ139に進む。
In the next step 125, the traveling vehicle speed v of the host vehicle is read from the vehicle speed sensor 43 into the straight traveling detection circuit 45. Steps 127 to 141 form a loop, and this loop is performed for each laser output. In step 127, in the radar signal processing circuit 31, the laser output number k is set to k + 1, in step 129 the sweep angle θ of the laser light sweep device 13 is read from the laser light sweep direction detection device 11, and in step 131 the distance detection circuit. The detection distance L is read from 19. In step 133, it is checked whether or not the actual distance detection based on the reflection of the laser beam from the reflector has been made. If there is the detection, the process proceeds to step 135, and if not, the process proceeds to step 139.

【0025】ステップ135では、距離検出回数jをj
+1とし、ステップ136で配列D(j)にデータが取
り込まれる。配列D(j)は、前記掃引角θと距離Lの
2つのデータを記憶するための配列であり、得られたθ
とLを入力する。その後、ステップ139に進み、次の
掃引角度指令値が出力される。そしてステップ141
で、k<Kmaxであるか否かがチェックされ、kがK
maxより小さければ掃引はまだ終りでないのでステッ
プ127に戻る。kがKmaxとなったときには、今回
の掃引によるデータが全て検出、取得されたものとし
て、ステップ143へ進む。ステップ143では、今回
の掃引における距離検出のあった回数をJmaxに代入
して角度・距離算出処理101を終了し、レーダ光軸推
定処理103へ進む。
In step 135, the number of times of distance detection j is set to j
It is set to +1 and the data is fetched into the array D (j) in step 136. The array D (j) is an array for storing two data of the sweep angle θ and the distance L, and the obtained θ
And L. Then, the process proceeds to step 139, and the next sweep angle command value is output. And step 141
, It is checked whether k <Kmax, and k is K
If it is smaller than max, the sweep is not finished yet, and thus the process returns to step 127. When k reaches Kmax, it is assumed that all the data obtained by the current sweep have been detected and acquired, and the process proceeds to step 143. In step 143, the number of times of distance detection in this sweep is substituted for Jmax, the angle / distance calculation process 101 is terminated, and the process proceeds to the radar optical axis estimation process 103.

【0026】レーダ光軸推定処理103では、図9のフ
ローチャートに従い、車両前方の反射器のデータを基に
レーダの光軸方向を推定する。まずステップ201にお
いて、角度・距離データの配列D(j)から、車両前方
の路側に設置された反射器のデータrr(n)が算出さ
れる。これには、例えば配列D(j)の時間変化から移
動速度を算出し、その移動速度が自車速度にほぼ一致す
る場合には、その反射物は停止していると考えられるの
でこれを反射器であると判別する方法や、反射器はほぼ
等間隔に連続して存在するので、データの間隔や位置が
規則的に連続しているものを抽出する方法など、適宜の
手法が使用できる。
In the radar optical axis estimation processing 103, the optical axis direction of the radar is estimated based on the data of the reflector in front of the vehicle according to the flowchart of FIG. First, in step 201, the data rr (n) of the reflector installed on the road side in front of the vehicle is calculated from the array D (j) of angle / distance data. For this purpose, for example, the moving speed is calculated from the time change of the array D (j), and when the moving speed is almost equal to the own vehicle speed, it is considered that the reflecting object is stopped, and this is reflected. An appropriate method can be used, such as a method for discriminating that the data is a vessel or a method in which the reflectors continuously exist at substantially equal intervals, and a method in which data are regularly and continuously spaced.

【0027】続いてステップ203で、得られた反射器
のデータrr(n)が次式でXY座標に変換される。 X=L・cosθ …(18) Y=L・sinθ …(19) この後、ステップ205でデータrr(n)を近似する
直線X=aY+bが求められ、ステップ207でこの直
線の傾きaから、前述した式(2)を用いてレーダの光
軸方向推定値θrが求められる。そして最後に、ステッ
プ209において、光軸方向推定値θrがレーダ光軸方
向記憶回路47に記憶されたあと、画像取り込み処理1
11に進む。
Subsequently, at step 203, the obtained reflector data rr (n) is converted into XY coordinates by the following equation. X = L · cos θ (18) Y = L · sin θ (19) Then, in step 205, a straight line X = aY + b that approximates the data rr (n) is obtained, and in step 207, from the slope a of this straight line, The estimated value θr of the optical axis direction of the radar is obtained by using the above-mentioned equation (2). Finally, in step 209, the optical axis direction estimated value θr is stored in the radar optical axis direction storage circuit 47, and then the image capturing process 1 is performed.
Proceed to 11.

【0028】画像取り込み処理111では、テレビカメ
ラ23から自車両前方の画像が取り込まれ、画像処理回
路25でのカメラ光軸推定処理113に進む。カメラ光
軸推定処理113では、図10に示すフローチャートに
従って、車両前方の画像からカメラの光軸方向が推定さ
れる。まずステップ211において、画像取り込み処理
111で取り込まれた画像に対しエッジ検出、2値化処
理等の前処理が行なわれ、ステップ213で自車両の走
行車線を構成する左右のレーンマーカLM1、LM2の
認識処理が行なわれる。
In the image capturing process 111, the image in front of the host vehicle is captured from the television camera 23, and the process proceeds to the camera optical axis estimation process 113 in the image processing circuit 25. In the camera optical axis estimation processing 113, the optical axis direction of the camera is estimated from the image in front of the vehicle according to the flowchart shown in FIG. First, in step 211, preprocessing such as edge detection and binarization processing is performed on the image captured in the image capturing process 111, and in step 213, recognition of the left and right lane markers LM1 and LM2 forming the driving lane of the host vehicle. Processing is performed.

【0029】続いて、ステップ215で前述した式
(9)、(10)を用いて消失点の座標(xBP、yBP)
が算出される。そしてステップ217で、この消失点座
標から式(16)、(17)を用いてカメラの光軸推定
値θcが算出され、これがステップ219でカメラ光軸
方向記憶回路49に記憶されたあと、直線連続判定処理
115に進む。ステップ201〜207、およびステッ
プ211〜217が発明の光軸方向推定手段を構成し、
ステップ209および219が光軸方向推定値記憶手段
を構成している。
Subsequently, in step 215, the coordinates (xBP, yBP) of the vanishing point are calculated by using the above equations (9) and (10).
Is calculated. Then, in step 217, the optical axis estimated value θc of the camera is calculated from the vanishing point coordinates using the equations (16) and (17), and this is stored in the camera optical axis direction storage circuit 49 in step 219, and then the straight line is calculated. The process proceeds to the continuous determination process 115. Steps 201 to 207 and steps 211 to 217 constitute the optical axis direction estimating means of the invention,
Steps 209 and 219 form an optical axis direction estimated value storage means.

【0030】直線連続判定処理115では、直線走行検
出回路45において、図11のフローチャートに従っ
て、直線走行状態が所定時間以上連続したことを判別す
る。すなわち、まずステップ221で、操舵角センサ4
1から操舵角δを読み込んでおき、ステップ223で、
車速センサ43から先に読み込まれた車速が所定値v0
以上であるかどうかがチェックされる。車速がv0 以上
であるときは、ステップ225へ進み、操舵角δの絶対
値が所定値δ0 以下であるかどうかがチェックされる。
さらにここでδ0 以下であるときはステップ227に進
む。
In the straight line continuation determination processing 115, the straight line traveling detection circuit 45 discriminates that the straight line traveling state has continued for a predetermined time or more in accordance with the flowchart of FIG. That is, first, at step 221, the steering angle sensor 4
The steering angle δ is read from 1, and in step 223,
The vehicle speed previously read from the vehicle speed sensor 43 is a predetermined value v0
It is checked whether or not the above. When the vehicle speed is equal to or higher than v0, the routine proceeds to step 225, where it is checked whether or not the absolute value of the steering angle δ is equal to or smaller than the predetermined value δ0.
If δ0 or less, the process proceeds to step 227.

【0031】ステップ227では、操舵角の単位時間当
たりの
In step 227, the steering angle per unit time is calculated.

【外1】 の絶対値が[Outer 1] Is the absolute value of

【外2】 以下であるかどうかがチェックされ、[Outside 2] Is checked to see if

【外3】 以下であればステップ231へ進む。[Outside 3] If the following, proceed to step 231.

【0032】そして、ステップ231で、直線走行の条
件が満されているものとしてタイマーTを増加させたあ
と、ステップ233へ進んで、タイマーTが所定値T0
以上であるかどうかがチェックされる。ここでTがT0
以上であるときは直線走行状態が連続しているので、そ
の旨の信号を出力してステップ235へ進む。
Then, at step 231, the timer T is incremented on the assumption that the straight running condition is satisfied, and then the routine proceeds to step 233, where the timer T has a predetermined value T0.
It is checked whether or not the above. Where T is T0
When the above is the case, the straight running state is continuous, so a signal to that effect is output and the routine proceeds to step 235.

【0033】ステップ235では、レーダ信号処理回路
31および画像処理回路25において、後のデータ補正
処理117で使用されるレーザレーダ装置21およびテ
レビカメラ23のそれぞれの光軸方向データθr0 、θ
c0 が更新される。この際、更新に使用されるデータ
は、所定時間T0 だけ前にレーダ光軸方向記憶回路4
7、カメラ光軸方向記憶回路49に記憶された光軸方向
推定値が用いられる。これにより、T0 だけ連続して直
線走行したときに、T0 だけ前の時点での自車両前方の
道路形状は間違いなく直線であるから、この道路形状よ
り推定された光軸方向推定値は正しい値を示しているこ
ととなる。更新が完了すると、このあとステップ237
で、タイマーTがリセットされて、次のデータ補正処理
117に進む。ステップ125とステップ221〜23
3が、発明の直線走行検出手段を構成し、ステップ23
5が光軸方向データ更新手段を構成している。
In step 235, in the radar signal processing circuit 31 and the image processing circuit 25, the optical axis direction data θr 0, θ of the laser radar device 21 and the television camera 23 used in the subsequent data correction processing 117, respectively.
c0 is updated. At this time, the data used for updating is the radar optical axis direction storage circuit 4 before the predetermined time T0.
7. The optical axis direction estimated value stored in the camera optical axis direction storage circuit 49 is used. As a result, when the vehicle continuously travels in a straight line for T0, the road shape in front of the own vehicle at the time point before T0 is definitely a straight line. Therefore, the estimated value in the optical axis direction estimated from this road shape is a correct value. Will be shown. When the update is complete, step 237
Then, the timer T is reset and the process proceeds to the next data correction process 117. Step 125 and Steps 221-23
3 constitutes the straight running detection means of the invention, and step 23
Reference numeral 5 constitutes an optical axis direction data updating means.

【0034】ステップ233のチェックでタイマーTが
T0 に達しない間は、ステップ221へ戻って上記のフ
ローが繰り返される。先のステップ223のチェックで
車速がv0 より小さいとき、ステップ225のチェック
で操舵角δの絶対値がδ0 より大きいとき、あるいはス
テップ227のチェックで操舵角の単位時間当たりの変
化量が
If the timer T does not reach T0 in the check in step 233, the process returns to step 221 and the above flow is repeated. When the vehicle speed is smaller than v0 in the previous step 223 check, the absolute value of the steering angle δ is larger than δ0 in the step 225 check, or the change amount of the steering angle per unit time is checked in the step 227.

【外4】 より大きいときには、直線走行の条件が満されていない
ものとして、それぞれステップ229でタイマーTがリ
セットされたあと、次の処理に移る。
[Outside 4] If it is larger, it is determined that the straight running condition is not satisfied, and the timer T is reset in step 229, and then the process proceeds to the next step.

【0035】データ補正処理117では、レーダ信号処
理回路と画像処理回路を通じて、図12に示すフローチ
ャートにしたがって、配列D(j)=(θ,L)の角度
データθを補正する。すなわち、ステップ241でまず
距離検出回数jが0にセットされる。そしてステップ2
43において、配列D(j)=(θ,L)の方向データ
(=角度データθ)が次式により補正される。 θ=θ+θr0 −θc0 …(20) このあとステップ245で、j<Jmaxであるかどう
かがチェックされ、Jmaxより小さい間は、ステップ
243へ戻って上記補正が繰り返される。そして、jが
Jmaxに達すると、次の先行車検出処理105に進
む。ステップ241〜245が発明の方向補正手段を構
成している。
In the data correction processing 117, the angle data θ of the array D (j) = (θ, L) is corrected through the radar signal processing circuit and the image processing circuit according to the flowchart shown in FIG. That is, the number j of times of distance detection is first set to 0 in step 241. And step 2
At 43, the direction data (= angle data θ) of the array D (j) = (θ, L) is corrected by the following equation. [theta] = [theta] + [theta] r0- [theta] c0 (20) Then, in step 245, it is checked whether j <Jmax. If it is smaller than Jmax, the process returns to step 243 and the above correction is repeated. When j reaches Jmax, the process proceeds to the next preceding vehicle detection process 105. Steps 241-245 constitute the direction correcting means of the invention.

【0036】先行車検出処理105では、まずステップ
145で処理のための変数jが0にセットされたあと、
ステップ147で、角度・距離情報の配列D(j)=
(θ,L)から画像処理を行う注目領域の範囲が算出さ
れる。この算出は次のように行なわれる。 中心点Pのx座標… x0 =K1 ×θ …(21) (K1 は定数) 中心点Pのy座標… y0 =K2 ×L+T1 …(22) (K2 、T1 は定数) 左右方向の幅… w=K3 /L …(23) 上下方向の幅… h=K4 /L …(24) (K3 、K4 は定数) 以上から、注目領域(長方形)の各頂点の座標が次のよ
うに算出される。 点A… (x0 −w/2,y0 −h/2) 点B… (x0 +w/2,y0 −h/2) 点C… (x0 +w/2,y0 +h/2) 点D… (x0 −w/2,y0 +h/2)
In the preceding vehicle detection processing 105, the variable j for processing is first set to 0 in step 145, and then
In step 147, the array of angle / distance information D (j) =
The range of the attention area in which the image processing is performed is calculated from (θ, L). This calculation is performed as follows. X-coordinate of the center point P ... x0 = K1 × θ (21) (K1 is a constant) y-coordinate of the center point P ... y0 = K2 × L + T1 (22) (K2 and T1 are constants) Horizontal width ... = K3 / L (23) Vertical width ... h = K4 / L (24) (K3 and K4 are constants) From the above, the coordinates of each vertex of the region of interest (rectangle) are calculated as follows. . Point A ... (x0-w / 2, y0-h / 2) Point B ... (x0 + w / 2, y0-h / 2) Point C ... (x0 + w / 2, y0 + h / 2) Point D ... (x0 -W / 2, y0 + h / 2)

【0037】次のステップ149において、上に算出決
定された注目領域に関して画像処理が行なわれる。ここ
では、例えばエッジ検出、2値化など次のステップで車
両の形状を認識しやすくするよう処理される。ステップ
151では、先行車両検出回路27において、画像処理
後の画像に車両の形状が含まれているかどうかの検出が
行なわれる。すなわち、あらかじめ車両に該当する例え
ば長方形などの形状パターンを記憶しておいて、画像処
理後の画像内における上記形状パターンの存否を判別す
ることにより、先行車両が認識されることになる。例え
ば、距離データが得られた反射体が、道路の路側帯に設
けられた反射器など車両以外のものであった場合には、
その周辺を注目領域として画像処理、先行車検出を行っ
ても記憶された形状パターンに合致する画像は得られな
いので、先行車両ではないと認識される。
In the next step 149, image processing is performed on the attention area calculated and determined above. Here, for example, edge detection and binarization are performed to facilitate recognition of the vehicle shape in the next step. In step 151, the preceding vehicle detection circuit 27 detects whether or not the shape of the vehicle is included in the image after the image processing. That is, the preceding vehicle is recognized by previously storing a shape pattern such as a rectangle corresponding to the vehicle and determining whether or not the shape pattern exists in the image after the image processing. For example, if the reflector for which the distance data was obtained is something other than a vehicle, such as a reflector provided in the roadside zone of the road,
Even if image processing and detection of the preceding vehicle are performed with the surrounding area as the attention area, an image that matches the stored shape pattern cannot be obtained, so that the vehicle is recognized as not the preceding vehicle.

【0038】この先行車認識が終了すると、次のステッ
プ153でjをj+1としたあと、ステップ155で、
j<Jmaxであるかどうかがチェックされる。j<J
maxであればステップ147に戻り、次の反射体デー
タに対して同じ処理が行なわれ、データが今回の掃引に
おける距離検出回数に達するまで繰り返される。そして
jがJmaxに達すると、この先行車検出処理は終了
し、次の先行車位置出力処理107に進む。
When the preceding vehicle recognition is completed, j is set to j + 1 in the next step 153, and then in step 155,
It is checked whether j <Jmax. j <J
If it is max, the process returns to step 147, the same process is performed on the next reflector data, and the process is repeated until the data reaches the number of distance detections in this sweep. When j reaches Jmax, the preceding vehicle detection processing ends, and the process proceeds to the next preceding vehicle position output processing 107.

【0039】先行車位置出力処理107では、ステップ
157において、先行車があったかどうかがチェックさ
れ、先行車がなければそのまま、また先行車があればス
テップ159に進んで、先行車の位置、すなわち角度・
距離情報D(j)が出力されて、全体処理フローの1サ
イクルが終わる。このあと最初の角度・距離算出処理1
01に戻って次の掃引に移る。ステップ121、12
3、127〜143、およびステップ111、145〜
159が発明の環境認識手段を構成している。
In the preceding vehicle position output processing 107, it is checked in step 157 whether or not there is a preceding vehicle. If there is no preceding vehicle, the process proceeds as it is, and if there is a preceding vehicle, the process proceeds to step 159, where the position of the preceding vehicle, that is, the angle.・
The distance information D (j) is output, and one cycle of the entire processing flow ends. After this, the first angle / distance calculation process 1
Return to 01 and move to the next sweep. Steps 121 and 12
3, 127-143, and steps 111, 145-
Reference numeral 159 constitutes the environment recognition means of the invention.

【0040】本実施例は以上のように構成され、テレビ
カメラで車両前方画像を得て、レーザレーダ装置で検出
した反射体データに基づいて定めた画像処理領域で先行
車両などを認識するようにし、その際、レーザレーダ装
置で掃引して得た路側の反射器などのデータから道路に
対するレーザレーダ装置の相対的な光軸の方向を求めて
記憶し、またテレビカメラによる車両前方画像から得た
走行車線の左右レーンマーカの消失点の座標に基づいて
テレビカメラの光軸方向を求めて記憶し、所定時間直線
走行状態が続いたとき上記記憶された同所定時間前のレ
ーザレーダ装置およびテレビカメラの各光軸方向をもっ
て光軸データとし、この光軸データで上記反射体データ
を補正するものとしたので、レーザレーダ装置やテレビ
カメラの取付角度の精度をとくに高くする必要がなく、
したがってまたこれらの取付部の強度・精度を高くした
り、高精度の検査工程が不要で、このためコストも低減
されるという効果がある。
The present embodiment is constructed as described above, and the front image of the vehicle is obtained by the television camera so that the preceding vehicle is recognized in the image processing area determined based on the reflector data detected by the laser radar device. At that time, the direction of the optical axis of the laser radar device relative to the road was obtained and stored from the data of the roadside reflector obtained by sweeping with the laser radar device, and it was also obtained from the vehicle front image by the TV camera. The optical axis direction of the television camera is obtained and stored based on the coordinates of the vanishing points of the left and right lane markers of the traveling lane, and when the straight running state continues for a predetermined time, the stored laser radar device and television camera before the same predetermined time. Since each optical axis direction is used as optical axis data, and the reflector data is corrected with this optical axis data, the mounting angle of the laser radar device or TV camera Especially there is no need for high precision,
Therefore, it is not necessary to increase the strength and accuracy of these mounting portions or to perform a highly accurate inspection process, which has the effect of reducing the cost.

【0041】なお、実施例ではレーザ光掃引装置として
ステップモータで駆動するミラー方式を例示したが、こ
れに限定されず、このほか例えばガルバノメータ方式の
ものを用いることもでき、この場合にはガルバノメータ
を制御する制御信号を掃引角度に対応した信号として使
用する。さらにまた、上記実施例では環境認識手段とし
てレーザレーダ装置と画像処理装置とを組み合わせたも
のを示したが、いずれか一方のみを用いたもの、あるい
は他の種類の環境認識手段を組み合わせた構成であって
も、同様の効果を得ることができる。
In the embodiment, the mirror system driven by the step motor is exemplified as the laser beam sweeping device, but the invention is not limited to this, and a galvanometer system may be used, and in this case, the galvanometer is used. The control signal to be controlled is used as the signal corresponding to the sweep angle. Furthermore, in the above embodiment, the combination of the laser radar device and the image processing device is shown as the environment recognition means, but it is possible to use only one of them or a combination of other kinds of environment recognition means. Even if there is, the same effect can be obtained.

【0042】[0042]

【発明の効果】以上のとおり、本発明は、自車両に対す
る物体の相対的な存在方向と距離を検出する環境認識手
段に対して、環境認識手段の検出データから抽出した道
路形状が直線であると仮定して環境認識手段の光軸方向
を推定してこれを逐次記憶し、自車両の直線走行状態が
所定時間連続したとき当該所定時間前に推定した光軸方
向推定値を環境認識手段の光軸方向データとして、これ
を用いて環境認識手段で検出された物体の方向を補正す
るようにしたので、環境認識手段の車両への取付角度の
精度を特に高くする必要がなく、したがって取付点につ
いて高い精度や強度を確保しないで済み、高精度の検査
工程も不要で、またコストも低減するという効果を有す
る。また、複数の環境認識手段を組み合わせて使用する
ことによって、さらに知的な認識を行う場合にも、各環
境認識手段ごとの光軸方向補正を的確に行うことができ
るので、一層認識精度を向上させることができるという
効果が得られる。
As described above, according to the present invention, the road shape extracted from the detection data of the environment recognizing means is a straight line with respect to the environment recognizing means for detecting the relative direction and distance of the object with respect to the own vehicle. It is assumed that the optical axis direction of the environment recognition means is estimated and sequentially stored, and when the straight running state of the vehicle continues for a predetermined time, the estimated value of the optical axis direction estimated before the predetermined time is stored in the environment recognition means. Since the direction of the object detected by the environment recognition means is corrected by using this as the optical axis direction data, it is not necessary to particularly increase the accuracy of the mounting angle of the environment recognition means to the vehicle. It is not necessary to secure high accuracy and strength, there is no need for a highly accurate inspection process, and there is an effect that the cost is reduced. Further, by using a plurality of environment recognition means in combination, even when more intelligent recognition is performed, the optical axis direction can be accurately corrected for each environment recognition means, further improving the recognition accuracy. The effect that it can be obtained is obtained.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の構成を示す機能ブロック図である。FIG. 1 is a functional block diagram showing a configuration of the present invention.

【図2】本発明の実施例の構成を示すブロック図であ
る。
FIG. 2 is a block diagram showing a configuration of an exemplary embodiment of the present invention.

【図3】直線走行時にレーザ光を一度掃引したときの距
離L〜角度θの関係を示す図である。
FIG. 3 is a diagram showing a relationship between a distance L and an angle θ when a laser beam is swept once when traveling straight.

【図4】図3における距離L〜角度θの関係を道路座標
に変換した図である。
4 is a diagram in which the relationship between the distance L and the angle θ in FIG. 3 is converted into road coordinates.

【図5】テレビカメラ座標系と道路座標系の関係を示す
説明図である。
FIG. 5 is an explanatory diagram showing a relationship between a television camera coordinate system and a road coordinate system.

【図6】直線走行時にテレビカメラから取り込まれた車
両前方画像を示す図である。
FIG. 6 is a diagram showing a vehicle front image captured from a television camera when traveling straight.

【図7】実施例における処理手順を示すフローチャート
である。
FIG. 7 is a flowchart showing a processing procedure in the embodiment.

【図8】レーダ光軸推定処理の詳細を示すフローチャー
トである。
FIG. 8 is a flowchart showing details of radar optical axis estimation processing.

【図9】レーダ光軸推定処理の詳細を示すフローチャー
トである。
FIG. 9 is a flowchart showing details of radar optical axis estimation processing.

【図10】カメラ光軸推定処理の詳細を示すフローチャ
ートである。
FIG. 10 is a flowchart showing details of camera optical axis estimation processing.

【図11】直線連続判定処理の詳細を示すフローチャー
トである。
FIG. 11 is a flowchart showing details of straight line continuity determination processing.

【図12】データ補正処理の詳細を示すフローチャート
である。
FIG. 12 is a flowchart showing details of data correction processing.

【符号の説明】[Explanation of symbols]

1 環境認識手段 2 方向補正手段 3 操舵角検出手段 4 走行車速検出手段 5 直線走行検出手段 6 光軸方向推定手段 7 光軸方向推定値記憶手段 8 光軸方向データ更新手段 11 レーザ光掃引方向検出装置 13 レーザ光掃引装置 14 レーザレーダ装置 15 送光器 17 受光器 19 距離検出回路 21 画像処理装置 23 テレビカメラ 25 画像処理回路 27 先行車両検出回路 31 レーダ信号処理回路 33 車両運動制御回路 35 アクチュエータ 37 ユニット 41 操舵角センサ 43 車速センサ 45 直線走行検出回路 47 レーダ光軸方向記憶回路 49 カメラ光軸方向記憶回路 1 environment recognition means 2 direction correction means 3 steering angle detection means 4 traveling vehicle speed detection means 5 straight line traveling detection means 6 optical axis direction estimation means 7 optical axis direction estimated value storage means 8 optical axis direction data updating means 11 laser light sweep direction detection Device 13 Laser light sweep device 14 Laser radar device 15 Light transmitter 17 Light receiver 19 Distance detection circuit 21 Image processing device 23 Television camera 25 Image processing circuit 27 Leading vehicle detection circuit 31 Radar signal processing circuit 33 Vehicle motion control circuit 35 Actuator 37 Unit 41 Steering angle sensor 43 Vehicle speed sensor 45 Straight running detection circuit 47 Radar optical axis direction storage circuit 49 Camera optical axis direction storage circuit

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 車両進行方向に存在する物体の相対的な
方向と距離を検出する環境認識手段と、環境認識手段で
検出された物体の方向を光軸方向データによって補正す
る方向補正手段と、操舵角を検出する操舵角検出手段
と、車両の走行速度を検出する走行車速検出手段と、操
舵角検出値と走行車速検出値から直線走行状態であるこ
とを検出する直線走行状態検出手段と、直線走行状態に
おいては進行方向の道路形状が直線であると仮定して、
前記環境認識手段の光軸方向を推定する光軸方向推定手
段と、該光軸方向推定手段による光軸方向推定値を記憶
する光軸方向推定値記憶手段と、直線走行状態が所定時
間連続したとき、前記光軸方向推定値記憶手段に記憶さ
れた前記所定時間前の光軸方向推定値により前記光軸方
向データを更新する光軸方向データ更新手段とを有する
ことを特徴とする車両用環境認識装置。
1. An environment recognition unit that detects a relative direction and a distance of an object existing in a vehicle traveling direction, and a direction correction unit that corrects the direction of the object detected by the environment recognition unit with optical axis direction data. Steering angle detecting means for detecting the steering angle, traveling vehicle speed detecting means for detecting the traveling speed of the vehicle, linear traveling state detecting means for detecting that the vehicle is in a linear traveling state from the steering angle detection value and the traveling vehicle speed detection value, Assuming that the road shape in the traveling direction is straight in a straight running state,
An optical axis direction estimating means for estimating the optical axis direction of the environment recognizing means, an optical axis direction estimated value storing means for storing the optical axis direction estimated value by the optical axis direction estimating means, and a straight running state for a predetermined time. And an optical axis direction data updating means for updating the optical axis direction data with the optical axis direction estimated value stored in the optical axis direction estimated value storage means a predetermined time before. Recognition device.
【請求項2】 前記環境認識手段が、自車両の進行方向
に電磁波を掃引しながら放射し、その反射波の伝播遅延
時間に基づいて前記物体位置の相対的な方向と距離を検
出するスキャニング型のレーダ装置であることを特徴と
する請求項1記載の車両用環境認識装置。
2. A scanning type in which the environment recognizing means emits an electromagnetic wave while sweeping it in the traveling direction of the vehicle and detects the relative direction and distance of the object position based on the propagation delay time of the reflected wave. 2. The vehicle environment recognition device according to claim 1, which is the radar device according to claim 1.
【請求項3】 前記環境認識手段が、自車両の進行方向
の映像を撮影し画像処理によって前記物体を認識する画
像処理装置であることを特徴とする請求項1記載の車両
用環境認識装置。
3. The environment recognition device for a vehicle according to claim 1, wherein the environment recognition means is an image processing device that recognizes the object by capturing an image of the traveling direction of the vehicle and performing image processing.
【請求項4】 前記光軸方向推定手段は、前記環境認識
手段で検出した路側反射器群の配列から前記道路形状を
求めるものであることを特徴とする請求項1または2記
載の車両用環境認識装置。
4. The vehicle environment according to claim 1, wherein the optical axis direction estimating means obtains the road shape from an array of roadside reflector groups detected by the environment recognizing means. Recognition device.
【請求項5】 前記光軸方向推定手段は、前記環境認識
手段で検出した走行車線両側のレーンマーカから前記道
路形状を求めるものであることを特徴とする請求項1ま
たは3記載の車両用環境認識装置。
5. The vehicle environment recognition according to claim 1 or 3, wherein the optical axis direction estimation means obtains the road shape from lane markers on both sides of the traveling lane detected by the environment recognition means. apparatus.
JP28749093A 1993-10-22 1993-10-22 Vehicle environment recognition device Expired - Lifetime JP3146809B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28749093A JP3146809B2 (en) 1993-10-22 1993-10-22 Vehicle environment recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28749093A JP3146809B2 (en) 1993-10-22 1993-10-22 Vehicle environment recognition device

Publications (2)

Publication Number Publication Date
JPH07120555A true JPH07120555A (en) 1995-05-12
JP3146809B2 JP3146809B2 (en) 2001-03-19

Family

ID=17718020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28749093A Expired - Lifetime JP3146809B2 (en) 1993-10-22 1993-10-22 Vehicle environment recognition device

Country Status (1)

Country Link
JP (1) JP3146809B2 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10267618A (en) * 1997-03-24 1998-10-09 Nissan Motor Co Ltd Distance measuring instrument
US5832407A (en) * 1996-04-12 1998-11-03 Mitsubishi Denki Kabushiki Kaisha Vehicle surrounding monitoring device
JPH1194946A (en) * 1997-07-23 1999-04-09 Denso Corp Obstacle recognition device for vehicle
US6025797A (en) * 1997-07-22 2000-02-15 Denso Corporation Angular shift determining apparatus for determining angular shift of central axis of radar used in automotive obstacle detection system
JP2001166051A (en) * 1999-12-10 2001-06-22 Fujitsu Ten Ltd Axis deviation detection device for vehicular radar device
US6301532B1 (en) 1998-12-17 2001-10-09 Daimlerchrysler Ag Method for correction of a signal of at least one sensor on the basis of which a path curve can be determined, on which the vehicle is moving
JP2002228749A (en) * 2001-02-02 2002-08-14 Hitachi Ltd On-vehicle millimeter wave radar device
JP2003207571A (en) * 2002-01-16 2003-07-25 Nissan Motor Co Ltd Axial deviation detection device of radar device for vehicle
JP2003307561A (en) * 2002-04-12 2003-10-31 Fuji Heavy Ind Ltd Drive support device for vehicle
JP2004205398A (en) * 2002-12-26 2004-07-22 Nissan Motor Co Ltd Vehicle radar device and optical axis adjustment method of radar
JP2004247979A (en) * 2003-02-14 2004-09-02 Hitachi Ltd On-vehicle camera apparatus
JP2007240208A (en) * 2006-03-06 2007-09-20 Toyota Central Res & Dev Lab Inc Environment recognition device
JP2015075382A (en) * 2013-10-08 2015-04-20 株式会社デンソー Object detection device
JP2019211339A (en) * 2018-06-05 2019-12-12 株式会社Soken Axis deviation angle detector
US10625735B2 (en) 2015-03-31 2020-04-21 Denso Corporation Vehicle control apparatus and vehicle control method
JP2021522507A (en) * 2018-05-04 2021-08-30 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Methods for measuring the angular position of photoelectric sensors, and test benches
JP2023506068A (en) * 2019-12-16 2023-02-14 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング A method for estimating the correction angle in automotive radar sensors

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6959849B2 (en) * 2017-12-07 2021-11-05 Toyo Tire株式会社 Ground plane observation method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5832407A (en) * 1996-04-12 1998-11-03 Mitsubishi Denki Kabushiki Kaisha Vehicle surrounding monitoring device
JPH10267618A (en) * 1997-03-24 1998-10-09 Nissan Motor Co Ltd Distance measuring instrument
US6025797A (en) * 1997-07-22 2000-02-15 Denso Corporation Angular shift determining apparatus for determining angular shift of central axis of radar used in automotive obstacle detection system
JPH1194946A (en) * 1997-07-23 1999-04-09 Denso Corp Obstacle recognition device for vehicle
US6301532B1 (en) 1998-12-17 2001-10-09 Daimlerchrysler Ag Method for correction of a signal of at least one sensor on the basis of which a path curve can be determined, on which the vehicle is moving
JP2001166051A (en) * 1999-12-10 2001-06-22 Fujitsu Ten Ltd Axis deviation detection device for vehicular radar device
JP2002228749A (en) * 2001-02-02 2002-08-14 Hitachi Ltd On-vehicle millimeter wave radar device
JP2003207571A (en) * 2002-01-16 2003-07-25 Nissan Motor Co Ltd Axial deviation detection device of radar device for vehicle
JP2003307561A (en) * 2002-04-12 2003-10-31 Fuji Heavy Ind Ltd Drive support device for vehicle
JP2004205398A (en) * 2002-12-26 2004-07-22 Nissan Motor Co Ltd Vehicle radar device and optical axis adjustment method of radar
JP2004247979A (en) * 2003-02-14 2004-09-02 Hitachi Ltd On-vehicle camera apparatus
JP2007240208A (en) * 2006-03-06 2007-09-20 Toyota Central Res & Dev Lab Inc Environment recognition device
JP2015075382A (en) * 2013-10-08 2015-04-20 株式会社デンソー Object detection device
US10625735B2 (en) 2015-03-31 2020-04-21 Denso Corporation Vehicle control apparatus and vehicle control method
JP2021522507A (en) * 2018-05-04 2021-08-30 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Methods for measuring the angular position of photoelectric sensors, and test benches
JP2019211339A (en) * 2018-06-05 2019-12-12 株式会社Soken Axis deviation angle detector
JP2023506068A (en) * 2019-12-16 2023-02-14 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング A method for estimating the correction angle in automotive radar sensors

Also Published As

Publication number Publication date
JP3146809B2 (en) 2001-03-19

Similar Documents

Publication Publication Date Title
JP3146809B2 (en) Vehicle environment recognition device
CN106909152B (en) Automobile-used environmental perception system and car
US10908257B2 (en) Signal processing apparatus, signal processing method, and program
JP2501010B2 (en) Mobile robot guidance device
CN107632308B (en) Method for detecting contour of obstacle in front of vehicle based on recursive superposition algorithm
US6670912B2 (en) Method for detecting stationary object located above road
US9863775B2 (en) Vehicle localization system
JP3123303B2 (en) Vehicle image processing device
JPH036472B2 (en)
JP2004534947A (en) Object location system for road vehicles
GB2379111A (en) On-board monitoring of a vehicle environment
JP2003149338A (en) Object recognition device and distance measuring device
JP3736520B2 (en) Obstacle recognition device for vehicles
JP2004317507A (en) Axis-adjusting method of supervisory device
US11941888B2 (en) Method and device for generating training data for a recognition model for recognizing objects in sensor data of a sensor, in particular, of a vehicle, method for training and method for activating
CN108061898B (en) Scanning lidar for automated vehicles
US11780436B2 (en) On-board sensor system
EP3572841A1 (en) Method of modelling a scanning distance sensor for prototyping parameters of such sensor and/or for prototyping software processing the output of such sensor
CN108061905A (en) A kind of pavement behavior detection method and device
CN108061902A (en) A kind of method and device of detecting object
JP2002334330A (en) Vehicle recognition device
JP3070277B2 (en) Preceding vehicle detection device
JP2002296350A (en) Object detector
JPH07296291A (en) Traveling lane detector for vehicle
US10249056B2 (en) Vehicle position estimation system

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20001205

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090112

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100112

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110112

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120112

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130112

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130112

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140112

Year of fee payment: 13

EXPY Cancellation because of completion of term