JP3402075B2 - Vehicle lane recognition device - Google Patents

Vehicle lane recognition device

Info

Publication number
JP3402075B2
JP3402075B2 JP16771296A JP16771296A JP3402075B2 JP 3402075 B2 JP3402075 B2 JP 3402075B2 JP 16771296 A JP16771296 A JP 16771296A JP 16771296 A JP16771296 A JP 16771296A JP 3402075 B2 JP3402075 B2 JP 3402075B2
Authority
JP
Japan
Prior art keywords
lane
vehicle
image
image pickup
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP16771296A
Other languages
Japanese (ja)
Other versions
JPH1011580A (en
Inventor
正文 辻
勝規 山田
千典 農宗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP16771296A priority Critical patent/JP3402075B2/en
Publication of JPH1011580A publication Critical patent/JPH1011580A/en
Application granted granted Critical
Publication of JP3402075B2 publication Critical patent/JP3402075B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、車載カメラにより
自車両の近傍領域を撮像し、得られた画像情報から車線
の形状を認識することができる車両用車線認識装置。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle lane recognition device capable of recognizing a shape of a lane from image information obtained by capturing an image of a region in the vicinity of a vehicle with an on-vehicle camera.

【0002】[0002]

【従来の技術】従来、車両側方に搭載されたカメラによ
り自車両の近傍を撮像して得られた画像情報の中から対
象物を検出する装置としては、例えば特開昭63−38
056号公報記載のものが知られている。この装置で
は、自動車の前部の右側と左側に設置された右側カメラ
と左側カメラで、それぞれ自動車の右側方、左側方を撮
影し、次に、それぞれの画像の中から対象物までの距離
を求め、車線変更時に自車両と対象物との接触が生じる
か否かを判定するものである。しかしながら、車線変更
時に接触の対象となる対象物が隣接車線上のものか否か
を判断するためには、前もって隣接車線の検出を行う必
要がある。
2. Description of the Related Art Conventionally, as a device for detecting an object from image information obtained by picking up an image of the vicinity of a vehicle with a camera mounted on the side of the vehicle, for example, Japanese Patent Laid-Open No. 63-38 is known.
The one described in Japanese Patent No. 056 is known. With this device, the right and left cameras installed on the right and left sides of the front of the vehicle capture the right and left sides of the vehicle, respectively, and then determine the distance to the object from each image. Then, it is determined whether or not the own vehicle comes into contact with the object when the lane is changed. However, it is necessary to detect the adjacent lane in advance in order to determine whether or not the contact target object is on the adjacent lane when the lane is changed.

【0003】通常、車両側方のカメラから撮影した場
合、右側カメラでは右側隣接車線、左側カメラでは左側
隣接車線が映り、自車両の走行車線に関してはカメラの
設置されている側に車線を区分するためのレーンマーク
が映る。この場合、左右別々のカメラから得られた画像
情報から車線形状を検出するには、左右別々の道路形状
モデルを用いてそれぞれ別々に車線形状を求めている。
即ち、図6に示すように、右側の画像情報に対するパラ
メータの推定と、左側のパラメータに対するパラメータ
の推定を独立に行っているので、左右別々の道路モデル
を必要としていた。
Normally, when the image is taken from the camera on the side of the vehicle, the right camera shows the right adjacent lane and the left camera shows the left adjacent lane, and the driving lane of the vehicle is divided into the lanes where the cameras are installed. A lane mark for it appears. In this case, in order to detect the lane shape from the image information obtained from the left and right cameras, the lane shape is separately obtained using the left and right road shape models.
That is, as shown in FIG. 6, the parameter estimation for the image information on the right side and the parameter estimation for the parameter on the left side are performed independently, so that separate left and right road models are required.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、このよ
うな従来の技術にあっては、右側と左側とで処理を独立
して行うため、例えば右側カメラからの画像情報に対応
する処理結果は、左側カメラの画像情報には関係がなか
った。従って、車両によるレーンマークの隠蔽等に起因
して左右どちらか一方の車線検出処理に誤差が生じた場
合、この誤差を取り除くことができないので、その結
果、この誤差が処理結果にも含まれてしまうことにな
る。
However, in such a conventional technique, since the processing is performed independently on the right side and the left side, for example, the processing result corresponding to the image information from the right camera is the left side. It had nothing to do with the image information of the camera. Therefore, if an error occurs in the left or right lane detection processing due to the hiding of the lane mark by the vehicle, etc., this error cannot be removed, and as a result, this error is also included in the processing result. Will end up.

【0005】さらに、両側の車線で隠蔽が起こった場
合、両方の車線検出結果に誤差が生じてしまうので、一
旦発生した誤差を後処理において取り除くことは極めて
困難になっている。本発明は上記に鑑みてなされたもの
で、その目的は、車線の検出精度の向上に寄与すること
ができる車両用車線認識設置を提供することにある。
Furthermore, if concealment occurs on both lanes, an error will occur in both lane detection results, so it is extremely difficult to remove an error that has occurred once in post-processing. The present invention has been made in view of the above, and an object thereof is to provide a vehicle lane recognition installation that can contribute to improvement in lane detection accuracy.

【0006】[0006]

【課題を解決するための手段】請求項1記載の発明は、
上記課題を解決するため、自車両の近傍を撮像する2つ
の撮像手段と、道路の形状を道路モデルとして記憶する
道路形状記憶手段と、前記道路形状記憶手段に記憶され
た1つの道路モデルの座標系を前記2つの撮像手段の撮
像姿勢パラメータを用いて変換して、各撮像手段に対応
した道路モデルの画像座標値をそれぞれ算出する座標変
換手段と、前記道路モデルの画像座標値を用いて走査範
囲を定め、前記2つの撮像手段により撮像された画像情
報をそれぞれ走査して、各画像情報から車線を表する特
徴点の位置座標をそれぞれ検出する特徴点座標検出手段
と、前記特徴点座標検出手段により検出された特徴点の
座標を参照して、直線或いは曲線を構成するように各特
徴点を表す画素を結んで構成される車線を抽出する車線
抽出手段と、前記特徴点座標検出手段により検出された
特徴点の座標値と、前記道路モデルの画像座標値とを比
較して、前記2つの撮像手段の撮像姿勢パラメータの変
化成分を算出する変化量算出手段と、前記変化量算出手
段で算出された2つの撮像手段の撮像姿勢パラメータの
変化成分が互いに等しくなるように各撮像手段の撮像姿
勢パラメータを更新し、前記車線抽出手段により抽出さ
れた車線の近似式を新たな道路モデルとして前記道路形
状記憶手段に記憶させるパラメータ更新手段とを備える
ことを要旨とする。
The invention according to claim 1 is
In order to solve the above problems, two image pickup means for picking up an image of the vicinity of the host vehicle, a road shape storage means for storing the shape of a road as a road model, and coordinates of one road model stored in the road shape storage means. Coordinate conversion means for converting the system using the image capturing attitude parameters of the two image capturing means to calculate the image coordinate values of the road model corresponding to each image capturing means, and scanning using the image coordinate values of the road model. Feature point coordinate detection means for defining a range, scanning the image information captured by the two image capturing means, and detecting the position coordinates of the feature points representing the lane from each image information, and the feature point coordinate detection Lane extracting means for extracting a lane constituted by connecting pixels representing each characteristic point so as to form a straight line or a curved line with reference to the coordinates of the characteristic point detected by the means; Change amount calculating means for comparing the coordinate values of the characteristic points detected by the coordinate point detecting means with the image coordinate values of the road model to calculate the change components of the image capturing attitude parameters of the two image capturing means; The image capturing attitude parameters of the image capturing means are updated so that the change components of the image capturing attitude parameters of the two image capturing means calculated by the change amount calculating means are equal to each other, and the approximate expression of the lane extracted by the lane extracting means is calculated. The gist of the present invention is to include a parameter updating unit for storing the new road model in the road shape storage unit.

【0007】請求項2記載の発明は、上記課題を解決す
るため、前記2つの撮像手段が、自車両のドアミラー部
分にそれぞれ搭載され、自車両走行車線の左右の隣接車
線領域を撮像することを要旨とする。
In order to solve the above-mentioned problems, the invention according to claim 2 is characterized in that the two image pickup means are respectively mounted on door mirror portions of the own vehicle and pick up images of adjacent lane regions on the left and right of the own vehicle's driving lane. Use as a summary.

【0008】請求項3記載の発明は、上記課題を解決す
るため、前記2つの撮像手段が、自車両の後方領域をそ
れぞれ撮像することを要旨とする。
In order to solve the above-mentioned problems, the invention according to claim 3 is characterized in that the two image pickup means respectively image the rear regions of the vehicle.

【0009】[0009]

【0010】[0010]

【0011】[0011]

【発明の効果】請求項1記載の発明によれば、複数の車
線の白線が平行して存在する場合には、左右別々に撮像
された画像情報を同時に用いることにより、両側の隣接
車線上に車両が存在する場合でも、少なくとも2本の白
線を検出することができるので、高精度な車線抽出を行
うことができ、車線の検出精度の向上に寄与することが
できる。
According to the first aspect of the present invention, when the white lines of a plurality of lanes are present in parallel, the image information captured separately on the left and right sides is used at the same time so that the lanes on both sides are adjacent to each other. Even if a vehicle exists, at least two white lines can be detected, so that highly accurate lane extraction can be performed, which contributes to improvement in lane detection accuracy.

【0012】また、左右別々に撮像された画像情報から
1つの道路モデルを用いて車線の形状を検出するため、
どちらか片方の画像に障害物によるレーンマークの隠蔽
が起こった場合でも、他方で撮像された画像情報によっ
て車線の形状を検出できるので、後処理に依存しないで
正確な道路形状の検出を行うことができ、車線の検出精
度の向上に寄与することができる。
Further, since the shape of the lane is detected by using one road model from the image information captured separately on the left and right sides,
Even if the lane mark is hidden by an obstacle in one of the images, the shape of the lane can be detected by the image information captured in the other, so accurate road shape detection can be performed without relying on post-processing. Therefore, it is possible to contribute to improvement in lane detection accuracy.

【0013】また、左右の道路モデルを共通にすること
で、道路モデルを記憶するための記憶容量が少なくてす
み、さらに、例えば1つのCPUを用いて高速に処理す
ることができる。
Further, by making the left and right road models common, the storage capacity for storing the road models can be small, and further, high-speed processing can be performed using, for example, one CPU.

【0014】また、画像の走査範囲を小さくすることが
できるので、高速に処理をすることができる。
Further, since the scanning range of the image can be reduced, the processing can be performed at high speed.

【0015】請求項2記載の発明によれば、撮像位置を
自車両から離れた位置にできるので、得られる画像情報
中に自車両後方の情報をも含むことができ、自車両の隣
接車線だけでなく、走行車線後方をも監視することがで
きる。
According to the second aspect of the present invention, since the image pickup position can be set at a position distant from the host vehicle, the obtained image information can include information behind the host vehicle, and only the lane adjacent to the host vehicle. Not only that, but also behind the driving lane can be monitored.

【0016】また、撮像手段をドアミラー部に埋め込む
ことにより、見た目にも気にならず、デザイン的にもメ
リットがある。
Further, by embedding the image pickup means in the door mirror portion, it does not bother the appearance and has a design advantage.

【0017】請求項3記載の発明によれば、自車両の後
方領域のような人の死角になりやすい領域を監視できる
ので、車線変更時に監視対象となる隣接車線上の後続車
を検出する領域を隣接車線上に設定することができる。
According to the third aspect of the present invention, it is possible to monitor an area such as a rear area of the own vehicle, which is likely to become a blind spot of a person. Therefore, when a lane is changed, an area for detecting a following vehicle on an adjacent lane to be monitored. Can be set on the adjacent lane.

【0018】[0018]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。図1は、本発明の第1の実施の形
態に係る車両用車線認識装置のシステム構成を示す図で
ある。同図に示すように、車両用車線認識装置は、撮像
部1と処理部8およびメモリ18から構成され、また、
処理部8は画像処理部9と判断部10とを備えている。
さらに、判断部10は車両状態センサ15と車両運動制
御装置16および警報装置17との間で信号のやりとり
を行う。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a system configuration of a vehicle lane recognition device according to a first embodiment of the present invention. As shown in the figure, the vehicle lane recognition device includes an image pickup unit 1, a processing unit 8 and a memory 18, and
The processing unit 8 includes an image processing unit 9 and a determination unit 10.
Further, the determination unit 10 exchanges signals between the vehicle state sensor 15, the vehicle motion control device 16 and the alarm device 17.

【0019】次に、車両用車線認識装置の各構成要素に
ついて説明する。
Next, each component of the vehicle lane recognition device will be described.

【0020】まず、撮像部1について説明する。右側撮
像器2において、CCDカメラ4は車両の近傍領域とし
て、例えば車両の右側後側方領域の画像を撮像して画像
情報を得るものであり、後方領域の被写体の画像情報を
アナログ画像信号に変換する。また、左側撮像器3にお
いても同様に、CCDカメラ6は、例えば自車両の左側
後側方領域の画像を撮像する。なお、CCDカメラ4,
6を車両に搭載する場合には、例えば車両のドアミラー
部等の視界の広い場所に設置すればよい。A/D変換器
5は、CCDカメラ4から出力されたアナログ画像信号
をデジタル画像信号に変換する。また、A/D変換器7
も同様に、CCDカメラ6から出力されたアナログ画像
信号をデジタル画像信号に変換する。
First, the image pickup section 1 will be described. In the right image pickup device 2, the CCD camera 4 obtains image information by picking up an image of a right rear side region of the vehicle as a region near the vehicle, for example, and converts image information of a subject in the rear region into an analog image signal. Convert. Similarly, in the left image pickup device 3, the CCD camera 6 also picks up an image of the left rear side region of the vehicle, for example. The CCD camera 4,
When 6 is mounted in a vehicle, it may be installed in a place with a wide field of view such as a door mirror section of the vehicle. The A / D converter 5 converts the analog image signal output from the CCD camera 4 into a digital image signal. In addition, the A / D converter 7
Similarly, the analog image signal output from the CCD camera 6 is converted into a digital image signal.

【0021】次に、処理部8の各構成要素の機能を概略
説明する。
Next, the function of each component of the processing unit 8 will be briefly described.

【0022】まず、画像処理部9の構成要素について説
明する。エッジ抽出処理回路11は、A/D変換器5お
よびA/D変換器7から出力されるデジタル画像信号に
対して、車線を表す特徴点の一例として、例えば空間微
分フィルタ等を用いてエッジ情報を含んだエッジ画像を
作成する。次に、メモリ18に記憶されている前回の処
理結果である道路形状およびカメラ姿勢に基づいて検出
点の画像座標を求め、この座標値を用いて予め設定され
た範囲だけエッジ画像を走査する。次に、予め設定され
た抽出条件に該当する画素を抽出し、その抽出画素に対
する位置座標データであるエッジ座標データを車線認識
部12に転送する。
First, the components of the image processing unit 9 will be described. The edge extraction processing circuit 11 uses, for example, a spatial differentiation filter or the like as edge information on the digital image signals output from the A / D converter 5 and the A / D converter 7 as an example of feature points representing lanes. Create an edge image that includes. Next, the image coordinates of the detection point are obtained based on the road shape and the camera posture, which are the previous processing results stored in the memory 18, and the edge image is scanned within a preset range using these coordinate values. Next, the pixels corresponding to the preset extraction conditions are extracted, and the edge coordinate data, which is the position coordinate data for the extracted pixels, is transferred to the lane recognition unit 12.

【0023】車線認識部12は、エッジ抽出処理回路1
1から転送されたエッジ座標データに基づいて自車両が
走行する走行車線の左右の隣接車線のエッジ座標データ
や、例えば後続車や障害物に対するエッジ座標データを
抽出し、抽出したエッジ座標データに基づいて右車線
や、左車線や、後続車や、障害物等を認識し、その認識
結果をメモリ18に記憶して判断部14に転送する。
The lane recognition unit 12 includes an edge extraction processing circuit 1
Based on the edge coordinate data transferred from 1, the edge coordinate data of adjacent lanes on the left and right of the traveling lane in which the vehicle is traveling, or edge coordinate data for a following vehicle or an obstacle, for example, is extracted, and based on the extracted edge coordinate data. The vehicle recognizes a right lane, a left lane, a following vehicle, an obstacle, etc., and stores the recognition result in the memory 18 and transfers it to the determination unit 14.

【0024】次に、判断部10の構成要素について説明
する。車両状態判断部13は、車両状態センサ15から
送られる信号により自車両の走行状態を判断し、その判
断結果を接近度判断部14に転送する。ここで、車両状
態センサ15は自車両の運動量や、運転者の操作意志等
を検出するものであり、例えば自車両の速度を計測する
車速度センサや、方向指示器や、ステアリング角度セン
サ等から構成される。
Next, the components of the judgment unit 10 will be described. The vehicle state determination unit 13 determines the traveling state of the host vehicle based on the signal sent from the vehicle state sensor 15, and transfers the determination result to the approach degree determination unit 14. Here, the vehicle state sensor 15 detects the momentum of the own vehicle, the driver's intention to operate, and the like. For example, from a vehicle speed sensor that measures the speed of the own vehicle, a direction indicator, a steering angle sensor, or the like. Composed.

【0025】接近度判断部14では、車線認識部12よ
り送られてきた自車両の走行車線に対する左右の隣接車
線の有無情報や形状情報等の情報や、他車両や、障害物
等の情報と、車両状態判断部13より転送された情報と
に基づいて自車両の車線逸脱や車線変更等を表す走行接
近度を判断する。例えば車速度センサが検出した自車両
の速度と、レーザレーダ等のセンサで計測した他車両の
速度の差である相対速度が所定値以上であり、かつ、方
向指示器が操作されている状態であり、かつ、当該方向
指示器の操作されている側の後側方の画像情報中で、隣
接車線上の特定位置に後続車等の存在を認識した場合、
これを接続状態と判断し、車両運動制御装置16や警報
装置17を駆動する。
In the approaching degree determining unit 14, information such as presence / absence information and shape information of the left and right adjacent lanes with respect to the traveling lane of the own vehicle sent from the lane recognizing unit 12 and information of other vehicles, obstacles and the like are stored. Based on the information transferred from the vehicle state determination unit 13, the vehicle proximity determination degree indicating the lane departure or lane change of the own vehicle is determined. For example, when the relative speed, which is the difference between the speed of the vehicle detected by the vehicle speed sensor and the speed of the other vehicle measured by a sensor such as a laser radar, is greater than or equal to a predetermined value, and the direction indicator is operated. Yes, and in the image information on the rear side of the operated side of the turn signal, when the presence of a following vehicle or the like is recognized at a specific position on an adjacent lane,
This is determined to be the connected state, and the vehicle motion control device 16 and the alarm device 17 are driven.

【0026】車両運動制御装置16は、駆動系や、制御
系や、操舵系等の制御を行う装置であり、例えば接近度
判断部14が接近の可能性があると判断した際に、自動
的にブレーキをかける自動ブレーキ等が考えられる。ま
た、警報装置17としては、運転者の聴覚や、視覚や、
触覚等の五感に訴えて、運転者に注意を喚起することが
可能なものであればよく、例えばチャイムの駆動やLE
Dでの表示、シートの振動等が考えられる。このよう
に、判断部10の構成例については様々な形態が考えら
れる。
The vehicle motion control device 16 is a device for controlling a drive system, a control system, a steering system, etc., and automatically when, for example, the approach determination unit 14 determines that there is a possibility of approach. It is possible to use an automatic brake that applies the brake to the. Further, as the alarm device 17, the driver's hearing, visual sense,
Anything that can appeal to the five senses such as the sense of touch and call attention to the driver may be used. For example, driving a chime or LE.
Display at D, vibration of the seat, etc. are conceivable. As described above, various forms can be considered for the configuration example of the determination unit 10.

【0027】メモリ18は、画像や処理データの初期条
件、道路モデルやカメラ姿勢を表すパラメータ等を格納
する。また、メモリ18は、車線認識部12等が処理を
行う際のワークエリアとしても機能する。
The memory 18 stores initial conditions of images and processed data, road models, parameters representing camera attitudes, and the like. The memory 18 also functions as a work area when the lane recognition unit 12 and the like perform processing.

【0028】次に、図1及び図2を用いて車両用車線認
識装置の動作を説明する。まず、ステップS2では、オ
ペレータの操作によって装置電源がON状態になると、
ステップS4では、初期設定処理が行われる。ここで、
初期設定とは、メモリ18のワークエリアのクリア処理
等である。また、オペレータが行う操作としては、撮像
部1の初期調整や、車線の形状を表す道路モデルパラメ
ータの初期値の設定や、CCDカメラの取付け位置や方
向を表すカメラ姿勢パラメータの初期値の設定である。
Next, the operation of the vehicle lane recognition device will be described with reference to FIGS. 1 and 2. First, in step S2, when the device power is turned on by the operation of the operator,
In step S4, initial setting processing is performed. here,
The initial setting is a process of clearing the work area of the memory 18. The operations performed by the operator include initial adjustment of the image pickup unit 1, setting of initial values of road model parameters indicating the shape of the lane, and setting of initial values of camera attitude parameters indicating the mounting position and direction of the CCD camera. is there.

【0029】次に、ステップS6では、CCDカメラ4
やCCDカメラ6によって撮像された後側方領域の画像
情報に対する信号をアナログ画像信号に変換する。次
に、ステップS8では、A/D変換器5とA/D変換器
7によって、上記アナログ画像信号をデジタル信号に変
換する。この時に得られる画像を図3(b),(c)に
示す。
Next, in step S6, the CCD camera 4
A signal corresponding to the image information of the rear side area imaged by the CCD camera 6 or the CCD camera 6 is converted into an analog image signal. Next, in step S8, the A / D converter 5 and the A / D converter 7 convert the analog image signal into a digital signal. Images obtained at this time are shown in FIGS. 3 (b) and 3 (c).

【0030】次に、ステップS10では、車線認識部1
2は車線認識処理として、エッジ抽出処理回路11から
送られたエッジ座標データに基づいて近似直線或いは近
似曲線を求めて車線を推定する。次に、各パラメータと
して道路形状パラメータとカメラ姿勢パラメータの前回
からの変化量を求め、この変化量から新たな道路モデル
を作成して、その結果をメモリ18に格納する。
Next, in step S10, the lane recognition unit 1
As a lane recognition process 2, a lane is estimated by obtaining an approximate straight line or an approximate curve based on the edge coordinate data sent from the edge extraction processing circuit 11. Next, the amount of change in the road shape parameter and the camera posture parameter from the previous time is obtained as each parameter, a new road model is created from this amount of change, and the result is stored in the memory 18.

【0031】次に、ステップS12では、接近度判断部
14は接近判定処理として、例えば車速度センサや方向
指示器等の車両状態センサ15からの信号により、自車
両の車速や車線変更等の走行状態を判断し、その判断結
果と、車線によって定められる走行可能な路面と、隣接
車線上の後続車の存在位置と自車両との相対速度との関
係に基づいて、自車両が接近状態にあるか否かを判定す
る。
Next, in step S12, the approaching degree determining unit 14 performs traveling such as changing the vehicle speed or the lane of the own vehicle in response to a signal from the vehicle state sensor 15 such as a vehicle speed sensor or a direction indicator as an approaching determination process. The vehicle is in an approaching state based on the result of the determination and the relationship between the result of the determination, the road surface that can be driven by the lane, the existing position of the following vehicle on the adjacent lane, and the relative speed of the vehicle. Or not.

【0032】ステップS14では、自車両と他車両と接
近状態を判断する。即ち、例えば車両状態センサ15で
得られた自車両と他車両との相対速度が所定値以上で、
かつ、隣接車線上の後続車の存在位置が所定の範囲内で
あり、かつ、方向指示器が後続車のいる側に操作されて
いる場合、これを接近状態として判断し、ステップS1
6に進む。一方、そうではない場合には次の画像情報を
得るためにステップS6に戻る。ステップS16では、
警報装置17は警報処理として、接近度判断部14で接
近状態と判断した場合には、自車両の運転者に自車両の
車線逸脱や車線変更等を行った場合に後続車に接近する
ことを表すチャイムの駆動や、LEDでの表示、シート
の振動等で報知する。なお、接近状態の警告に対して
も、運転者の操作が不十分であったと判断した場合に、
車両運動制御装置16を駆動するよう構成にしてもよ
い。
In step S14, the approaching state of the own vehicle and the other vehicle is determined. That is, for example, if the relative speed between the own vehicle and another vehicle obtained by the vehicle state sensor 15 is a predetermined value or more,
If the following vehicle on the adjacent lane is located within the predetermined range and the direction indicator is operated to the side where the following vehicle is present, it is determined as an approaching state, and step S1
Go to 6. On the other hand, if not, the process returns to step S6 to obtain the next image information. In step S16,
As an alarm process, the warning device 17 may approach the following vehicle when the driver of the own vehicle deviates from the lane or changes the lane when the approach degree determination unit 14 determines that the vehicle is approaching. The notification is made by driving the indicated chime, displaying with an LED, or vibration of the seat. Even if it is judged that the driver's operation was insufficient for the approach warning,
The vehicle motion control device 16 may be configured to be driven.

【0033】ステップS18では、車両運動制御装置1
6は回避処理として、接近度判断部14で接近状態と判
断した場合には、例えば自動的にブレーキをかける。次
に、ステップS6に戻り、これらの一連の処理を繰り返
す。
In step S18, the vehicle motion control system 1
6 is an avoidance process, for example, when the approach degree determination unit 14 determines that the vehicle is in the approaching state, the brake is automatically applied. Next, returning to step S6, a series of these processes is repeated.

【0034】ここで、図5に示す処理図を参照して、図
4に示すフローチャートを用いて画像処理部9での処理
内容に相当するステップS10での車線認識処理につい
て詳細に説明する。なお、図5に示すステップ番号は図
4に示すものと対応されているものとする。エッジ抽出
処理回路11は、まず、ステップS1002では、エッ
ジ画像作成処理によって、例えば3画素×3画素の空間
微分フィルタを用いて水平エッジ画像と垂直エッジ画像
を作成する。なお、空間微分フィルタとしては、例えば
SOBELフィルタを用いればよい。
Now, with reference to the processing diagram shown in FIG. 5, the lane recognition processing in step S10 corresponding to the processing content of the image processing unit 9 will be described in detail with reference to the flowchart shown in FIG. Note that the step numbers shown in FIG. 5 correspond to those shown in FIG. In step S1002, the edge extraction processing circuit 11 first creates a horizontal edge image and a vertical edge image by an edge image creation process using a spatial differential filter of 3 pixels × 3 pixels, for example. As the spatial differential filter, for example, a SOBEL filter may be used.

【0035】次に、ステップS1004では、座標変換
処理によって、メモリ18に格納されている道路モデル
において、道路座標系で所定距離だけ離れた対象点に対
して、カメラ姿勢パラメータ等を用いて画像座標系への
座標変換を行って対象点の画像座標値(以下、モデル座
標値という)を算出する。次に、ステップS1006で
は、マッチング処理によって、例えばCCDカメラの焦
点距離等を用いて道路座標系で一定距離に相当する画素
数を算出し、このモデル座標値を中心にして、算出され
た画素数分だけ左右または上下にエッジ画像を走査す
る。この時、走査方向と走査するエッジ画像の種類は車
線の形状に依存し、画像上で白線が垂直に近い場合は垂
直エッジ画像を水平方向に走査し、水平に近い場合は、
水平エッジ画像を垂直方向に走査する。次に、白線の幅
に相当する画素数だけ離れた一定値以上のプラスエッジ
と一定値以下のマイナスエッジの組み合わせを抽出し、
どちらかのエッジの座標値(以下、算出座標値とする)
を求める。この際、どちらのエッジの座標値を用いるか
は、処理を通して同一のものとすればよい。また、この
ようにして求められたエッジ座標データである算出座標
値とモデル座標値を車線認識部12に転送する。
Next, in step S1004, by the coordinate conversion process, in the road model stored in the memory 18, the image coordinates of the target point which is separated by a predetermined distance in the road coordinate system by using the camera posture parameter or the like. Image coordinate values of the target point (hereinafter referred to as model coordinate values) are calculated by performing coordinate conversion to the system. Next, in step S1006, the number of pixels corresponding to a certain distance in the road coordinate system is calculated by the matching process using, for example, the focal length of the CCD camera, and the calculated number of pixels is centered around this model coordinate value. The edge image is scanned left or right or up and down by a minute. At this time, the scanning direction and the type of edge image to be scanned depend on the shape of the lane.If the white line on the image is close to vertical, the vertical edge image is scanned horizontally, and if it is close to horizontal,
Scan the horizontal edge image vertically. Next, a combination of plus edges above a certain value and minus edges below a certain value separated by the number of pixels corresponding to the width of the white line is extracted,
Coordinate value of either edge (hereinafter, calculated coordinate value)
Ask for. At this time, which edge coordinate value is used may be the same throughout the processing. Further, the calculated coordinate values and the model coordinate values, which are the edge coordinate data obtained in this way, are transferred to the lane recognition unit 12.

【0036】次に、ステップS1008では、車線認識
部12は、まず、パラメータ推定処理によって、エッジ
抽出処理回路11が送られた算出座標値とモデル座標値
から、各パラメータの変化量を算出する。そこで、道路
幅やカメラ設定位置等の拘束条件を利用して、パラメー
タの変化量を調整することにより、図5に示すように、
左右同一の道路モデルを使用できるようにしている。
Next, in step S1008, the lane recognition unit 12 first calculates the amount of change of each parameter from the calculated coordinate value and the model coordinate value sent by the edge extraction processing circuit 11 by parameter estimation processing. Therefore, by using the constraint conditions such as the road width and the camera setting position to adjust the variation amount of the parameter, as shown in FIG.
The left and right road models can be used.

【0037】ここで、説明のために用いる記号を以下の
ように定義する。 Dx−r(Dx−1):右側(左側)カメラの基準位置
(例えば、自車両走行車線の中心)からの偏位 Dy−r(Dy−1):右側(左側)カメラの基準位置
(例えば、路面位置)からの高さ θr(θ1):右側(左側)カメラのヨー角 φr(φ1):右側(左側)カメラのピッチ角 ψr(ψ1):右側(左側)カメラのロール角 αr(α1):右側(左側)カメラの車両座標系におけ
るヨー角 βr(β1):右側(左側)カメラの車両座標系におけ
るピッチ角 γr(γ1):右側(左側)カメラの車両座標系におけ
るロール角 以上は、カメラ姿勢パラメータである。
Here, the symbols used for the explanation are defined as follows. Dx-r (Dx-1): Deviation from the reference position of the right (left) camera (for example, the center of the vehicle lane) Dy-r (Dy-1): Reference position of the right (left) camera (e.g. , Height from the road surface) θr (θ1): Right (left) camera yaw angle φr (φ1): Right (left) camera pitch angle ψr (ψ1): Right (left) camera roll angle αr (α1) ): Yaw angle βr (β1) in the vehicle coordinate system of the right (left) camera: Pitch angle γr (γ1) in the vehicle coordinate system of the right (left) camera: Roll angle in the vehicle coordinate system of the right (left) camera , Camera pose parameters.

【0038】ΔDx−r(ΔDx−1):Dx−r(D
x−1)の変化量 ΔDy−r(ΔDy−1):Dy−r(Dy−1)の変
化量 Δαr(Δα1):αr(α1)の変化量 Δβr(Δβ1):βr(β1)の変化量 Δγr(Δγ1):γr(γ1)の変化量 D1:右側カメラと左側カメラの設置間隔 Dw:車線の幅 ここで、拘束条件としてDwが一定であるとすると、D
x−rとDx−1の間には Dw=|Dx−r|+|Dx−1|+D1 という関係が成り立つ。
ΔDx-r (ΔDx-1): Dx-r (D
x-1) change amount ΔDy-r (ΔDy-1): Dy-r (Dy-1) change amount Δαr (Δα1): αr (α1) change amount Δβr (Δβ1): βr (β1) change amount Amount Δγr (Δγ1): Amount of change in γr (γ1) D1: Installation distance between the right camera and the left camera Dw: lane width Here, if Dw is constant as a constraint condition, D
The relationship of Dw = | Dx-r | + | Dx-1 | + D1 is established between x-r and Dx-1.

【0039】さらに、左右のカメラの設置時に調整する
ことにより、 Dy−r=Dy−1 となり、その他のカメラ姿勢パラメータについても同様
に左右で等しくすることが可能である。また、左右のカ
メラの方向が等しくなくても、その状態を初期設定時に
与えてやればよい。
Further, by adjusting the left and right cameras at the time of installation, Dy-r = Dy-1, and it is possible to make the other camera attitude parameters equal on the left and right as well. Further, even if the directions of the left and right cameras are not equal, that state may be given at the time of initial setting.

【0040】一方、変化量は初期設定とは関係なく、Δ
Dx−rとΔDx−1の間には、 |ΔDx−r|=|ΔDx−1| という関係が成り立つ。また、その他の各パラメータの
変化量も左右でほぼ同一である。
On the other hand, the amount of change has no relation to the initial setting, and Δ
A relationship of | ΔDx-r | = | ΔDx-1 | holds between Dx-r and ΔDx-1. In addition, the amount of change in each of the other parameters is substantially the same on the left and right.

【0041】次に、エッジ抽出処理回路11から送られ
た車線を表す算出座標値のエッジ座標データに基づい
て、例えば最小2乗法等によって、近似直線或いは近似
曲線を求め、これを認識車線とする。次に、ステップS
1010では、パラメータ更新処理によって、認識車線
の形状が左右で等しくなるように各パラメータを更新
し、この認識車線の近似式を新たな道路モデルとして、
メモリ18に格納する。
Next, based on the edge coordinate data of the calculated coordinate values representing the lane sent from the edge extraction processing circuit 11, an approximate straight line or an approximate curve is obtained by, for example, the method of least squares, and this is used as the recognition lane. . Next, step S
In 1010, each parameter is updated by the parameter update processing so that the shapes of the recognized lanes are equal on the left and right sides, and the approximate expression of the recognized lanes is set as a new road model.
It is stored in the memory 18.

【0042】このようにして、左右の側方カメラから得
られた画像情報から左右で同一の車線形状を求めるの
で、簡易な構成で、広い視野を確保しながら、左右の車
線間の認識形状のばらつきが少なく、精度の良い車線認
識が可能な装置を実現することができる。また、車両に
よる隠蔽等により部分的に車線が見えない場合でも、走
行環境における自車両の位置と道路の形状を精度良く検
出することができるので、例えば車線変更時に監視対象
となる隣接車線上の後続車を検出する領域を隣接車線上
に設定することができる。
In this way, the same lane shape is obtained on the left and right from the image information obtained from the left and right side cameras. Therefore, the recognition shape between the left and right lanes can be determined with a simple structure while ensuring a wide field of view. It is possible to realize a device that can recognize lanes with little variation and with high accuracy. Further, even if the lane is partially invisible due to concealment by the vehicle, it is possible to accurately detect the position of the own vehicle and the shape of the road in the traveling environment. An area for detecting a following vehicle can be set on the adjacent lane.

【0043】本発明はこのように、まず、エッジ抽出処
理回路11は、右側撮像器2及び左側撮像器3により撮
像された画像情報を走査して車線を表する特徴点の位置
座標を検出する。次に、車線認識部12は、検出された
特徴点の座標を参照して、直線或いは曲線を構成するよ
うに特徴点を表す画素を結んで構成される車線を抽出す
る。次に、車線認識部12は、抽出された特徴点の座標
値と、メモリ18に記憶されている道路モデルの座標系
を座標変換処理により変換した画像座標値とを比較し
て、道路形状を表す道路形状パラメータと右側撮像器2
及び左側撮像器3の姿勢を表す撮像姿勢パラメータのう
ち、少なくとも1つ以上の変化成分を算出する変化量算
出処理を行う。次に、算出された変化量と、抽出された
車線形状とに基づいて、メモリ18に記憶されている道
路モデルや座標変換処理の各パラメータを更新する。こ
の結果、右側撮像器2及び左側撮像器3から得られた複
数の画像情報を同時に参照することにより、車線抽出処
理での情報量を増やすことできる。
According to the present invention, the edge extraction processing circuit 11 first scans the image information picked up by the right side image pickup device 2 and the left side image pickup device 3 to detect the position coordinates of the characteristic points representing the lane. . Next, the lane recognition unit 12 refers to the coordinates of the detected feature points and extracts a lane formed by connecting pixels representing the feature points so as to form a straight line or a curved line. Next, the lane recognizing unit 12 compares the coordinate value of the extracted feature point with the image coordinate value obtained by converting the coordinate system of the road model stored in the memory 18 by the coordinate conversion process to determine the road shape. Road shape parameters and right imager 2
And a change amount calculation process for calculating at least one change component among the image pickup posture parameters representing the posture of the left image pickup device 3. Next, each parameter of the road model and the coordinate conversion process stored in the memory 18 is updated based on the calculated change amount and the extracted lane shape. As a result, the amount of information in the lane extraction process can be increased by simultaneously referring to the plurality of pieces of image information obtained from the right side image pickup device 2 and the left side image pickup device 3.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施の形態に係る車両用車線認
識装置のシステム構成を示す図である。
FIG. 1 is a diagram showing a system configuration of a vehicle lane recognition device according to a first embodiment of the present invention.

【図2】車両用車線認識装置の動作を説明するためのフ
ローチャートである。
FIG. 2 is a flowchart for explaining the operation of the vehicle lane recognition device.

【図3】後側方領域の撮像範囲(a)及び右側撮像器で
得られる画像モデル(b)及び左側撮像器で得られる画
像モデル(c)である。
FIG. 3 shows an imaging range (a) of a rear side area, an image model (b) obtained by the right side image pickup device, and an image model (c) obtained by the left side image pickup device.

【図4】車線認識処理の動作を説明するためのフローチ
ャートである。
FIG. 4 is a flowchart for explaining the operation of lane recognition processing.

【図5】車線認識処理を説明するための図である。FIG. 5 is a diagram for explaining lane recognition processing.

【図6】従来の車線認識処理を説明するための図であ
る。
FIG. 6 is a diagram for explaining a conventional lane recognition process.

【符号の説明】[Explanation of symbols]

1 撮像部 2 右側撮像器 3 左側撮像器 4 CCDカメラ 5 A/D変換器 6 CCDカメラ 7 A/D変換器 8 処理部 9 画像処理部 10 判断部 11 エッジ抽出処理回路 12 車線認識部 13 車両状態判断部 14 接近度判断部 15 車両状態センサ 16 車両運動制御装置 17 警報装置 18 メモリ 1 Imaging unit 2 Right imager 3 Left imager 4 CCD camera 5 A / D converter 6 CCD camera 7 A / D converter 8 processing units 9 Image processing section 10 Judgment section 11 Edge extraction processing circuit 12 lane recognition 13 Vehicle status determination unit 14 Proximity judgment part 15 Vehicle status sensor 16 Vehicle motion control device 17 Alarm device 18 memory

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平7−93693(JP,A) 特開 平5−265547(JP,A) 特開 平6−20189(JP,A) 特開 平6−266828(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60 B60R 21/00 G06T 1/00 G08G 1/00 - 1/16 H04N 7/18 ─────────────────────────────────────────────────── ─── Continuation of the front page (56) Reference JP-A-7-93693 (JP, A) JP-A-5-265547 (JP, A) JP-A-6-20189 (JP, A) JP-A-6- 266828 (JP, A) (58) Fields surveyed (Int.Cl. 7 , DB name) G06T 7 /00-7/60 B60R 21/00 G06T 1/00 G08G 1/00-1/16 H04N 7/18

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 自車両の近傍を撮像する2つの撮像手段
と、 道路の形状を道路モデルとして記憶する道路形状記憶手
段と、前記道路形状記憶手段に記憶された1つの道路モデルの
座標系を前記2つの撮像手段の撮像姿勢パラメータを用
いて変換して、各撮像手段に対応した道路モデルの画像
座標値をそれぞれ算出する座標変換手段と、 前記道路モデルの画像座標値を用いて走査範囲を定め、
前記2つの撮像手段により撮像された画像情報をそれぞ
れ走査して、各画像情報から車線を表する特徴点の位置
座標をそれぞれ検出する特徴点座標検出手段と、 前記特徴点座標検出手段により検出された特徴点の座標
を参照して、直線或いは曲線を構成するように各特徴点
を表す画素を結んで構成される車線を抽出する車線抽出
手段と、前記特徴点座標検出手段により検出された特徴点の座標
値と、前記道路モデルの画像座標値とを比較して、前記
2つの撮像手段の撮像姿勢パラメータの変化成分を算出
する変化量算出手段と、 前記変化量算出手段で算出された2つの撮像手段の撮像
姿勢パラメータの変化成分が互いに等しくなるように各
撮像手段の撮像姿勢パラメータを更新し、前記車線抽出
手段により抽出された車線の近似式を新たな道路モデル
として前記道路形状記憶手段に記憶させるパラメータ更
新手段とを備えること を特徴とする車両用車線認識装
置。
1. Two image pickup means for picking up an image of the vicinity of the own vehicle, a road shape storage means for storing a road shape as a road model, and one road model stored in the road shape storage means .
The coordinate system uses the imaging posture parameters of the two imaging means.
Image of the road model corresponding to each imaging means
A coordinate conversion means for calculating coordinate values respectively, and a scanning range is determined using the image coordinate values of the road model,
Image information picked up by the two image pickup means respectively
The position of the feature point that represents the lane from each image information
It is configured by connecting feature point coordinate detection means for detecting respective coordinates and pixels representing each feature point so as to form a straight line or a curve with reference to the coordinates of the feature points detected by the feature point coordinate detection means. Lane extracting means for extracting the lanes, and the coordinates of the characteristic points detected by the characteristic point coordinate detecting means.
The value and the image coordinate value of the road model are compared,
Calculates the change component of the imaging posture parameters of the two imaging means
Change amount calculating means and image pickup of the two image pickup means calculated by the change amount calculating means
Make sure that the change components of the posture parameters are equal to each other.
The image pickup attitude parameter of the image pickup means is updated to extract the lane.
Lane approximation formula extracted by means of a new road model
Parameter change stored in the road shape storage means as
A vehicle lane recognition device comprising: a new means .
【請求項2】 前記2つの撮像手段は、 自車両のドアミラー部分にそれぞれ搭載され、自車両走
行車線の左右の隣接車線領域を撮像すること を特徴とす
る請求項1記載の車両用車線認識装置。
2. The two image pickup means are respectively mounted on a door mirror portion of the own vehicle to drive the own vehicle.
The vehicle lane recognition device according to claim 1 , wherein images of adjacent lane regions on the left and right of the lane are imaged .
【請求項3】 前記2つの撮像手段は、 自車両の後方領域をそれぞれ撮像すること を特徴とする
請求項1または2記載の車両用車線認識装置。
3. The vehicle lane recognition device according to claim 1, wherein the two image pickup means respectively image a rear area of the vehicle.
JP16771296A 1996-06-27 1996-06-27 Vehicle lane recognition device Expired - Lifetime JP3402075B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP16771296A JP3402075B2 (en) 1996-06-27 1996-06-27 Vehicle lane recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP16771296A JP3402075B2 (en) 1996-06-27 1996-06-27 Vehicle lane recognition device

Publications (2)

Publication Number Publication Date
JPH1011580A JPH1011580A (en) 1998-01-16
JP3402075B2 true JP3402075B2 (en) 2003-04-28

Family

ID=15854814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP16771296A Expired - Lifetime JP3402075B2 (en) 1996-06-27 1996-06-27 Vehicle lane recognition device

Country Status (1)

Country Link
JP (1) JP3402075B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19722829A1 (en) * 1997-05-30 1998-12-10 Daimler Benz Ag Vehicle with a scanning system
US6888622B2 (en) 2002-03-12 2005-05-03 Nissan Motor Co., Ltd. Method for determining object type of reflective object on track
JP2004198159A (en) * 2002-12-17 2004-07-15 Nissan Motor Co Ltd Measuring device for axis misalignment of on-vehicle sensor
JP2006127383A (en) * 2004-11-01 2006-05-18 Auto Network Gijutsu Kenkyusho:Kk White line recognition method, white line recognition apparatus, and white line recognition system
KR100773870B1 (en) 2006-07-07 2007-11-06 주식회사 피엘케이 테크놀로지 Method for recognizing traffic lines by using two cameras
JP5136315B2 (en) * 2008-09-16 2013-02-06 トヨタ自動車株式会社 Driving assistance device
DE102011084674A1 (en) * 2011-10-18 2013-04-18 Robert Bosch Gmbh Construction of a lane map in multi-camera systems
JP7163829B2 (en) 2019-03-05 2022-11-01 トヨタ自動車株式会社 Vehicle Mounted Lidar Axis Deviation Detector
JP7063303B2 (en) * 2019-04-23 2022-05-09 株式会社デンソー Vehicle equipment, vehicle programs and storage media
CN110210303B (en) * 2019-04-29 2023-04-25 山东大学 Beidou vision fusion accurate lane identification and positioning method and implementation device thereof
CN113395663A (en) * 2021-07-19 2021-09-14 交通运输部公路科学研究所 Tunnel vehicle positioning method based on vehicle-road cooperation

Also Published As

Publication number Publication date
JPH1011580A (en) 1998-01-16

Similar Documents

Publication Publication Date Title
US6327536B1 (en) Vehicle environment monitoring system
JP3337197B2 (en) Outside monitoring device
US6789015B2 (en) Vehicle environment monitoring system
US6734787B2 (en) Apparatus and method of recognizing vehicle travelling behind
EP1982906B1 (en) Vehicle and steering control device for vehicle
JP4714104B2 (en) Object tilt detection device
US7710246B2 (en) Vehicle driving assist system
US20090010482A1 (en) Diagrammatizing Apparatus
JP4956374B2 (en) Object detection device and contact avoidance system
US7388476B2 (en) Vehicle surroundings monitoring apparatus
JP4901275B2 (en) Travel guidance obstacle detection device and vehicle control device
JP2001160137A (en) Device for correcting distance of monitoring system and device for correcting vanishing point of monitoring system
JP2007255979A (en) Object detection method and object detector
JP2001213254A (en) Side monitoring device for vehicle
JP2002197469A (en) Device for detecting traffic lane
JPH05265547A (en) On-vehicle outside monitoring device
JP3402075B2 (en) Vehicle lane recognition device
JP2002314989A (en) Peripheral monitor for vehicle
JP2001195698A (en) Device for detecting pedestrian
JP4256992B2 (en) Obstacle detection device
JP2008059323A (en) Wall detection device
JP3925285B2 (en) Road environment detection device
JP3235831B2 (en) Stereo exterior monitoring device
JP3882304B2 (en) Self-driving vehicle position detector
JP2007087203A (en) Collision determination system, collision determination method, and computer program

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080229

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090228

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090228

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100228

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100228

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110228

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120229

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120229

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130228

Year of fee payment: 10