JP2009252198A - Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus - Google Patents

Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus Download PDF

Info

Publication number
JP2009252198A
JP2009252198A JP2008103144A JP2008103144A JP2009252198A JP 2009252198 A JP2009252198 A JP 2009252198A JP 2008103144 A JP2008103144 A JP 2008103144A JP 2008103144 A JP2008103144 A JP 2008103144A JP 2009252198 A JP2009252198 A JP 2009252198A
Authority
JP
Japan
Prior art keywords
width
horizontal edge
coordinate system
unit
white line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008103144A
Other languages
Japanese (ja)
Inventor
Keiki Okamoto
桂喜 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Original Assignee
Suzuki Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp filed Critical Suzuki Motor Corp
Priority to JP2008103144A priority Critical patent/JP2009252198A/en
Publication of JP2009252198A publication Critical patent/JP2009252198A/en
Pending legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To continue to presume a stable travel environment even when a while line cannot be recognized by presuming the width of traveling road with the same accuracy as that of white line recognition. <P>SOLUTION: This travel environment presuming device includes: an onboard camera 10; a horizontal edge extracting part 12 for extracting an original image horizontal edge e with a camera coordinate system; a coordinate system transforming part 14 for transforming the original image horizontal edge e into a horizontal edge E in a world coordinate system 54 on the basis of a predetermined coordinate coefficient 56; a relation determining part 16 for calculating a target width W and a target distance L from the horizontal edge E and determining a relation 58 between the target width W and the travel width Wr of the travel environment on the basis of the predetermined assumed target width Wp; and a travel road width presuming part 18 for presuming the travel road width Wr on the basis of the relation 58 and the target width W. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、移動体に搭載され走行環境を推測する技術分野に関連し、特に、カメラからの入力画像に基づいて走行環境での車線幅等を推測する走行環境推測装置、その方法及びプログラムに関する。
本発明はまた、走行環境の推測に基づいて、車線からの逸脱を検出し警報する車線逸脱警報装置に関する。
本発明はさらに、走行環境の推測に基づいて、移動体の操舵をアシストする操舵アシスト装置に関する。
The present invention relates to a technical field that is mounted on a moving body and estimates a driving environment, and more particularly to a driving environment estimation device that estimates a lane width or the like in a driving environment based on an input image from a camera, a method thereof, and a program therefor. .
The present invention also relates to a lane departure warning device for detecting and warning a departure from a lane based on the estimation of the driving environment.
The present invention further relates to a steering assist device that assists steering of a moving body based on estimation of a traveling environment.

従来より道路の白線(白色に限らず道路の車線をドライバーに案内する道路上の線)を検出することで、走行環境の車線幅を検出し、車線からの逸脱を警報し、また、操舵のアシストをする技術がある。
特許文献1には、高速旋回走行時においてもドライバーに逸脱警報の違和感を与えないことを目的として、車体の横すべり角を考慮して車線逸脱警報を制御する手法が開示されている。
特許文献2には、走行車線の白線が検出できない場合でも車線に基づく運転支援を継続することを目的として、カメラの他にレーダーを備え、白線が検出されない際にはレーダーを使用して先行車を検出し、先行車両の移動軌跡から走行車線の仮想白線を計算する手法が開示されている。
特許文献3には、走行境界を高精度で検出することを目的として、自車両前方の画像から複数の特徴点を抽出し、各特徴点の移動速度及び配置に基づいて走行境界を検出する手法が開示されている。
Conventionally, by detecting the white line of the road (the line on the road that guides the driver to the road lane as well as the white line), it detects the lane width of the driving environment, warns of deviation from the lane, There is technology to assist.
Patent Document 1 discloses a method of controlling a lane departure warning in consideration of a side slip angle of a vehicle body in order to prevent the driver from feeling uncomfortable with a departure warning even during high-speed turning.
In Patent Document 2, a radar is provided in addition to a camera for the purpose of continuing driving support based on a lane even when a white line of a traveling lane cannot be detected. And a method of calculating a virtual white line of a traveling lane from a movement locus of a preceding vehicle is disclosed.
Patent Document 3 discloses a method for extracting a plurality of feature points from an image ahead of the host vehicle and detecting a travel boundary based on the moving speed and arrangement of each feature point for the purpose of detecting the travel boundary with high accuracy. Is disclosed.

特開2002-193055号公報Japanese Patent Laid-Open No. 2002-193055 特開2007-8281号公報JP 2007-8281 特開2007-316685号公報JP 2007-316685 JP

白線認識による車線逸脱の警報や操舵アシストでは、白線が不明確な場合や、道路汚れや、気象条件などによって、道路の両方の白線が検出出来ない場合がある。
上記特許文献1では、白線認識が不能の場合、車線逸脱の警報を停止させる為、逸脱警報装置としての商品価値が下がってしまう。
特許文献2では、白線検出部とは別に、レーダーによる先行車の検出を行い、逸脱の判定を行っている。しかし、レーダーによる先行車の検出では、横への分解能が低く、先行車の幅を正確に測定することが困難であり、同一車両である判定が出来ないため、自車前方の先行車であることを判定するには、不正確さが残ってしまう。この為、ドライバーのシステムへの不信を招き、商品価値が下がってしまう。また、別装置のレーダーを別途装着することにより、システムのコストが高くなるとの欠点がある。
特許文献3では、画像の特徴点の抽出、画素毎の速度算出、速度によるグループ化など膨大な画像処理が必要となる一方、多様な走行環境について車線幅をどのように安定的に推測し、又は推測不能を判定するかについては開示されていない。特に、走行路幅を推測可能な走行環境と不能な走行環境の相違がドライバーに判りづらい、という不都合がある。
In the lane departure warning and steering assist based on white line recognition, there are cases where the white line is unclear, or the white line on both roads cannot be detected due to road dirt or weather conditions.
In Patent Document 1, when white line recognition is not possible, the warning of lane departure is stopped, so the commercial value of the departure warning device is lowered.
In Patent Document 2, a preceding vehicle is detected by a radar separately from the white line detection unit, and a deviation is determined. However, in the detection of the preceding vehicle by the radar, the lateral resolution is low, it is difficult to accurately measure the width of the preceding vehicle, and it cannot be determined that the vehicle is the same vehicle. Inaccuracy remains to determine this. For this reason, the driver's distrust of the system is invited and the product value is lowered. In addition, there is a drawback that the cost of the system becomes high by separately mounting a radar of another device.
In Patent Document 3, while enormous image processing such as extraction of feature points of an image, speed calculation for each pixel, and grouping by speed is necessary, how to stably estimate the lane width for various driving environments, Or, it is not disclosed whether to determine unpredictable. In particular, there is an inconvenience that it is difficult for the driver to understand the difference between the driving environment in which the driving path width can be estimated and the driving environment in which the driving path width cannot be estimated.

[技術的課題1]このように、上記従来例では、走行路幅の検出精度を白線認識の場合と同等としつつレーダーや膨大な画像処理を使用せずに走行路幅を推測することができない、という不都合があった。
[技術的課題2]さらに、上記従来例では、推測不能とする処理をドライバーにとっても判りやすくすることでシステムへの信頼を増大させることができない、という不都合があった。
[技術的課題3]また、上記従来例では、走行路幅の推測処理について、白線の状態にかかわらず、かつ、低コストで、当該推測処理の稼働率を高めることができない、という不都合があった。
[Technical Problem 1] Thus, in the above-described conventional example, the road width cannot be estimated without using radar and enormous image processing while maintaining the detection accuracy of the road width equal to that of white line recognition. There was an inconvenience.
[Technical Problem 2] Further, the conventional example described above has a disadvantage that the reliability of the system cannot be increased by making it easy for the driver to understand the process of making the estimation impossible.
[Technical Problem 3] In addition, the above-described conventional example has a disadvantage that the operation rate of the estimation process cannot be increased at a low cost regardless of the state of the white line in the estimation process of the travel path width. It was.

[発明の目的]本発明の目的は、白線認識と同等の精度で走行路幅を推測することで、白線の認識が不能の際にも安定した走行環境の推測を継続することにある。
また、本発明の別の目的は、走行路幅の推測不能をドライバーにとっても判りやすい処理とすることにある。
[Object of the Invention] The object of the present invention is to estimate the traveling road width with the same accuracy as white line recognition, and to continue to estimate a stable driving environment even when white line recognition is impossible.
Another object of the present invention is to make it easy for the driver to understand that the travel path width cannot be estimated.

[着眼点]本発明の発明者は、白線認識と同等の精度で白線以外の情報から走行路幅を推測するには、先行車両の幅が良い、という点に着目した。そして、先行車両の幅を情報処理により算出するには、画像の水平エッジを抽出し、当該水平エッジに対して各種の情報処理をすることで、上記課題を解決できるのではないか、との着想に至った。   [Aspects] The inventor of the present invention has focused on the fact that the width of the preceding vehicle is good in order to estimate the traveling road width from information other than the white line with the same accuracy as the white line recognition. And, in order to calculate the width of the preceding vehicle by information processing, the above problem can be solved by extracting the horizontal edge of the image and performing various information processing on the horizontal edge. I came up with an idea.

[課題解決手段1]実施例1に対応する第1群の本発明は、運転者の視界に応じた走行環境を撮影するカメラと、撮影された画像の原画像水平エッジeをカメラ座標系で抽出する水平エッジ抽出部と、予め定められた座標変換係数に基づいて、前記カメラ座標系での原画像水平エッジeを世界座標系での水平エッジEに変換する座標系変換部と、前記水平エッジEから対象物幅W及び対象物距離Lを算出すると共に、予め定められた想定対象物幅Wpに基づいて、前記対象物幅Wと前記走行環境の走行路幅Wrとの関連を判定する関連判定部と、前記関連と前記対象物幅Wとに基づいて前記走行路幅Wrを推測する走行路幅推測部と、を備えた、という構成を採っている。
これにより、上記技術的課題1を解決した。
[Problem Solving Means 1] A first group of the present invention corresponding to Example 1 is a camera that captures a driving environment according to a driver's field of view, and an original image horizontal edge e of the captured image in a camera coordinate system. A horizontal edge extracting unit for extracting, a coordinate system converting unit for converting an original image horizontal edge e in the camera coordinate system into a horizontal edge E in the world coordinate system based on a predetermined coordinate conversion coefficient, and the horizontal The object width W and the object distance L are calculated from the edge E, and the relation between the object width W and the traveling road width Wr of the traveling environment is determined based on a predetermined assumed object width Wp. It has a configuration in which an association determination unit and a traveling path width estimation unit that estimates the traveling path width Wr based on the association and the object width W are provided.
Thereby, the technical problem 1 has been solved.

[課題解決手段2] 実施例2に対応する第2群の本発明は、第1群と同様に、カメラと、水平エッジ抽出部と、座標系変換部と、関連判定部と、走行路幅推測部とを備えている。
そして、課題解決手段2は、特に、撮影された画像から前記走行環境内のレーンを認識し走行路幅を算出する白線認識部と、前記白線認識部によって算出される走行路幅Wrと操舵角Φmとに基づいて車線逸脱時間TTLCを判定すると共に、前記白線認識部によって白線が認識されない際には、前記走行路幅推測部によって推測された前記走行路幅Wrから車線逸脱時間TTLCを判定する車線逸脱時間判定部と、前記車線逸脱時間TTLCに応じて警報を出力する警報出力部と、を備えた、という構成を採っている。
これにより、上記技術的課題1,2及び3を解決した。
[Problem Solving Means 2] The second group of the present invention corresponding to the second embodiment is similar to the first group in that the camera, the horizontal edge extracting unit, the coordinate system converting unit, the relation determining unit, the traveling road width, and the like. And an estimation unit.
The problem solving means 2 particularly recognizes a lane in the travel environment from the captured image and calculates a travel line width, a travel path width Wr calculated by the white line recognition unit, and a steering angle. A lane departure time TLC is determined based on Φm, and when a white line is not recognized by the white line recognition unit, a lane departure time TLC is determined from the traveling road width Wr estimated by the traveling road width estimation unit. The lane departure time determination unit and an alarm output unit that outputs an alarm in accordance with the lane departure time TLC are employed.
Thus, the above technical problems 1, 2 and 3 have been solved.

[課題解決手段3] 実施例3に対応する第3群の本発明は、第1群と同様に、カメラと、水平エッジ抽出部と、座標系変換部と、関連判定部と、走行路幅推測部とを備えている。
そして、課題解決手段3は、当該推測された走行路幅Wrに自車を案内する操舵量を算出する操舵量算出部と、当該操舵量に基づいて自車を操舵する操舵駆動制御部と、を備えた、という構成を採っている。
これにより、上記技術的課題1を解決した。
[Problem Solving Means 3] The third group of the present invention corresponding to the third embodiment is similar to the first group in that the camera, the horizontal edge extracting unit, the coordinate system converting unit, the relation determining unit, the traveling road width, and the like. And an estimation unit.
The problem solving means 3 includes a steering amount calculation unit that calculates a steering amount that guides the host vehicle to the estimated traveling road width Wr, a steering drive control unit that steers the host vehicle based on the steering amount, It has the structure of having.
Thereby, the technical problem 1 has been solved.

本発明は、本明細書の記載及び図面を考慮して各請求項記載の用語の意義を解釈し、各請求項に係る発明を認定すると、各請求項に係る発明は、上記背景技術等との関連において次の有利な効果を奏する。   The present invention interprets the meaning of the terms described in each claim in consideration of the description of the present specification and the drawings, and certifies the invention according to each claim. There are the following advantageous effects in relation to

[発明の作用効果1] 課題解決手段1の走行環境推測装置は、原画像水平エッジeから世界座標系での先行車の対象物幅を算出し、この先行車の幅から走行環境の走行路幅を算出する。
従って、路面の白線の情報を使用しなくとも白線の場合と同等の精度で走行路幅Wrを推測することができる。また、水平エッジを使用すると、走行環境でのコントラストが高く、輝度差が大きいため、レーダー等を使用せず比較的単純な画像処理にて幅情報を精度良く得ることができる。
[Operation Effect 1 of the Invention] The traveling environment estimation device of the problem solving means 1 calculates the object width of the preceding vehicle in the world coordinate system from the original image horizontal edge e, and the traveling path of the traveling environment from the width of the preceding vehicle. Calculate the width.
Therefore, the traveling road width Wr can be estimated with the same accuracy as the white line without using the information on the white line on the road surface. Further, when the horizontal edge is used, the contrast in the driving environment is high and the luminance difference is large. Therefore, the width information can be obtained with high accuracy by relatively simple image processing without using a radar or the like.

[発明の作用効果2] 課題解決手段2の車線逸脱警報装置は、道路の白線を認識出来ない時、画像処理のみによって前方車両の水平エッジを検出して、走行路幅を推測する。
従って、白線認識不能による逸脱警報システムの不作動状態を減らせる為、本システムへのドライバーの信頼感を増大させ、利便性を向上させることができる。
[Operation Effect 2] The lane departure warning device of Problem Solving Means 2 detects the horizontal edge of the preceding vehicle only by image processing when the white line of the road cannot be recognized, and estimates the traveling road width.
Accordingly, since the inoperative state of the departure warning system due to the inability to recognize the white line can be reduced, the driver's reliability to the system can be increased and the convenience can be improved.

[発明の作用効果3] 課題解決手段3の操舵アシスト装置は、先行車の対象物幅Wを用いて、走行路幅を推測し、先行車に自動追従走行する。
従って、工場等の敷地内の道路に白線を引かずに自動追従走行をすることができる。
[Operation Effect 3 of the Invention] The steering assist device of the problem solving means 3 estimates the travel path width using the object width W of the preceding vehicle, and automatically follows the preceding vehicle.
Accordingly, it is possible to automatically follow a road without drawing a white line on a road in a site such as a factory.

発明を実施するための最良の形態として、3つの実施例を開示する。実施例1は走行環境推測装置100、方法及びプログラムであり、実施例2は図11等に示す車線逸脱警報装置102、実施例3は図15に示す操舵アシスト装置104である。実施例1から3までを含めて実施形態という。   Three embodiments will be disclosed as the best mode for carrying out the invention. The first embodiment is a driving environment estimation device 100, a method and a program, the second embodiment is a lane departure warning device 102 shown in FIG. 11 and the like, and the third embodiment is a steering assist device 104 shown in FIG. Embodiments including Examples 1 to 3 are referred to as embodiments.

<1.1水平エッジから走行環境推測>
まず、本実施形態の実施例1を開示する。実施例1は、走行環境の白線を使用せずに白線認識による場合と同等の精度(正確さ及び精密さ)で走行環境の推測をしようとするものである。
図1を参照すると、実施例1の走行環境推測装置100は、カメラ10と、水平エッジ抽出部12と、座標系変換部14と、関連判定部16と、走行路幅推測部18とを備えている。
<1.1 Estimating driving environment from horizontal edge>
First, Example 1 of this embodiment is disclosed. In the first embodiment, the driving environment is estimated with the same accuracy (accuracy and precision) as the white line recognition without using the white line of the driving environment.
Referring to FIG. 1, the travel environment estimation device 100 according to the first embodiment includes a camera 10, a horizontal edge extraction unit 12, a coordinate system conversion unit 14, an association determination unit 16, and a travel path width estimation unit 18. ing.

カメラ10は、運転者(ドライバー)の視界に応じた走行環境を撮影し、カメラ座標系52での原画像10aを入力する。撮影の範囲は、ドライバーが前方を注視した際の視野と同等か、より広い範囲とすると良い。   The camera 10 captures the driving environment according to the driver's (driver) field of view, and inputs the original image 10 a in the camera coordinate system 52. The shooting range should be the same as or wider than the field of view when the driver gazes forward.

水平エッジ抽出部12は、撮影された原画像10aの原画像水平エッジeをカメラ座標系52で抽出する。原画像水平エッジeは、ドライバーの視界での垂直方向にて輝度値が変化し、この変化が水平方向に連続する部分である。カメラ座標系52は、カメラ10の撮影面の法線方向をz方向としたxy平面の座標系である。xyは例えば左上を原点とする。   The horizontal edge extraction unit 12 extracts the original image horizontal edge e of the photographed original image 10 a using the camera coordinate system 52. The original image horizontal edge e is a portion where the luminance value changes in the vertical direction in the driver's field of view, and this change continues in the horizontal direction. The camera coordinate system 52 is a coordinate system on the xy plane in which the normal direction of the imaging plane of the camera 10 is the z direction. xy has, for example, the upper left as the origin.

座標系変換部14は、予め定められた座標変換係数56に基づいて、カメラ座標系52での原画像水平エッジeを世界座標系54での原画像水平エッジeに変換する。座標変換係数56は、カメラ10のキャリブレーション(校正)により予め求めておく値である。世界座標系54は、撮影の対象物での座標系であり、走行環境の実測値に応じた座標値を持つ。対象物の幅に応じたカメラ座標系52での原画像水平エッジeの座標値(p1, p2)を、世界座標系54での座標値(P1, P2)に変換すると、原画像水平エッジeの長さは走行環境での当該対象物幅Wに変換される。   The coordinate system conversion unit 14 converts the original image horizontal edge e in the camera coordinate system 52 into the original image horizontal edge e in the world coordinate system 54 based on a predetermined coordinate conversion coefficient 56. The coordinate conversion coefficient 56 is a value obtained in advance by calibration of the camera 10. The world coordinate system 54 is a coordinate system for an object to be photographed, and has coordinate values corresponding to actual measured values of the traveling environment. When the coordinate value (p1, p2) of the original image horizontal edge e in the camera coordinate system 52 corresponding to the width of the object is converted into the coordinate value (P1, P2) in the world coordinate system 54, the original image horizontal edge e Is converted into the object width W in the traveling environment.

関連判定部16は、前記水平エッジEから対象物幅W及び対象物距離Lを算出すると共に、予め定められた想定対象物幅Wpに基づいて、当該対象物幅Wと前記走行環境の走行路幅Wrとの関連58を判定する。関連58は、関連あり又は関連なしの値をとる。例えば、水平エッジEが自車の前方を走行する先行車両であると判定した際に、関連ありとする。   The association determination unit 16 calculates the object width W and the object distance L from the horizontal edge E, and based on the predetermined assumed object width Wp, the object width W and the traveling path of the traveling environment A relation 58 with the width Wr is determined. The association 58 takes a value that is related or not related. For example, when it is determined that the horizontal edge E is a preceding vehicle that travels in front of the host vehicle, it is considered relevant.

関連判定部16は、世界座標系54の水平エッジEの座標値(P1, P2)から、対象物幅Wと対象物距離Lとを容易に算出することができる。そして、予め定められた想定対象物幅Wpと、対象物幅Wとを比較することで、当該水平エッジEによる対象物幅Wが車両によるものか否かの関連58を判定することができる。例えば、対象物幅Wが、車両として想定可能な幅(想定対象物幅Wp)以内であれば、当該原画像水平エッジeを先行車両と判定することができる。この場合、原画像水平エッジeの関連58を先行車両とする。   The association determination unit 16 can easily calculate the object width W and the object distance L from the coordinate values (P1, P2) of the horizontal edge E of the world coordinate system 54. Then, by comparing a predetermined assumed object width Wp with the object width W, it is possible to determine the relationship 58 regarding whether or not the object width W by the horizontal edge E is due to the vehicle. For example, if the object width W is within a width that can be assumed as a vehicle (assumed object width Wp), the original image horizontal edge e can be determined as a preceding vehicle. In this case, the relation 58 of the original image horizontal edge e is set as the preceding vehicle.

そして、走行路幅推測部18は、関連判定部16によって判定された前記関連58と前記対象物幅Wとに基づいて前記走行路幅Wrを推測する。すなわち、走行路幅推測部18は、関連58として先行車両とされた水平エッジEによる対象物幅Wに対して、先行車の幅を走行路幅Wrに拡大するための半車線幅W_COMを加算することで、走行路幅Wrを推定する。   Then, the traveling road width estimation unit 18 estimates the traveling road width Wr based on the association 58 determined by the association determination unit 16 and the object width W. In other words, the traveling road width estimation unit 18 adds the half lane width W_COM for expanding the width of the preceding vehicle to the traveling road width Wr with respect to the object width W by the horizontal edge E that is regarded as the preceding vehicle as the relation 58. Thus, the traveling road width Wr is estimated.

図2に、各実施例に共通するハードウエア資源の構成例を示す。実施例1との関係では、走行環境推測装置100は、例えばECUや画像処理専用チップ等の一又は複数のCPUを含むコントローラー30と、このコントローラー30によって使用されるメモリー31と、車載のカメラ10と、車速センサー32と、記憶装置42とを備えている。   FIG. 2 shows a configuration example of hardware resources common to the embodiments. In relation to the first embodiment, the driving environment estimation device 100 includes a controller 30 including one or more CPUs such as an ECU and an image processing dedicated chip, a memory 31 used by the controller 30, and the in-vehicle camera 10. And a vehicle speed sensor 32 and a storage device 42.

メモリー31は、原画像10aを記憶するフレームメモリー31Aと、複数の論理的なCPUの共有となる外部メモリー31B等とを備えると良い。カメラ10は、光学系と、CCDエリアセンサやCMOSエリアセンサとを備えると良い。そして、処理速度の向上及びフレームメモリー31Aの低減の為に、カメラ10からの画像(640×480)の奇数(又は偶数)ラインデータだけ(640×240)を採用しても良い。車速センサー32は、自車速度Vmをコントローラー30に入力する。記憶装置42は、不揮発性メモリーであり、コントローラー30を図1に示す各部として動作させるためのプログラムや、座標変換係数56、想定対象物幅Wp等を記憶する。   The memory 31 may include a frame memory 31A that stores the original image 10a, an external memory 31B that is shared by a plurality of logical CPUs, and the like. The camera 10 may include an optical system and a CCD area sensor or a CMOS area sensor. In order to improve the processing speed and reduce the frame memory 31A, only odd (or even) line data (640 × 240) of the image (640 × 480) from the camera 10 may be employed. The vehicle speed sensor 32 inputs the host vehicle speed Vm to the controller 30. The storage device 42 is a non-volatile memory, and stores a program for operating the controller 30 as each unit shown in FIG. 1, a coordinate conversion coefficient 56, an assumed object width Wp, and the like.

その他、本実施形態のハードウエア資源として、実施例2との関係で、操舵角センサー34、ウインカー制御部38、警報出力部40を備えている。また、実施例3との関係で、操舵角駆動制御部36を備えている。   In addition, as a hardware resource of the present embodiment, a steering angle sensor 34, a winker control unit 38, and an alarm output unit 40 are provided in relation to Example 2. In addition, a steering angle drive control unit 36 is provided in relation to the third embodiment.

図3に、実施例1のフローチャートを示す。カメラ10は、ドライバーの視界に応じた走行環境を撮影する(撮影工程S1)。続いて、水平エッジ抽出部12は、撮影された画像の原画像水平エッジeをカメラ座標系52で抽出する(水平エッジ抽出工程S2)。さらに、座標系変換部14は、予め定められた座標変換係数56と、前記カメラ座標系52での原画像水平エッジeとに基づいて、当該抽出された原画像水平エッジeを世界座標系54での原画像水平エッジeに変換する(座標系変換工程S3)。
そして、関連判定部16は、前記原画像水平エッジeから対象物幅W及び対象物距離Lを算出すると共に、予め定められた想定対象物幅Wpと当該対象物幅Wとに基づいて、前記対象物幅Wと前記走行環境の走行路幅Wrとの関連58を判定する(関連判定工程S4)。続いて、走行路幅推測部18は、前記関連58と前記対象物幅Wとに基づいて前記走行路幅Wrを推測する(走行路幅推測工程S8)。
FIG. 3 shows a flowchart of the first embodiment. The camera 10 captures the driving environment according to the driver's field of view (imaging step S1). Subsequently, the horizontal edge extraction unit 12 extracts the original image horizontal edge e of the photographed image with the camera coordinate system 52 (horizontal edge extraction step S2). Further, the coordinate system conversion unit 14 converts the extracted original image horizontal edge e into the world coordinate system 54 based on a predetermined coordinate conversion coefficient 56 and the original image horizontal edge e in the camera coordinate system 52. To the original image horizontal edge e at (coordinate system conversion step S3).
Then, the association determination unit 16 calculates the object width W and the object distance L from the original image horizontal edge e, and based on the predetermined assumed object width Wp and the object width W, A relationship 58 between the object width W and the travel road width Wr of the travel environment is determined (relevance determination step S4). Subsequently, the traveling road width estimation unit 18 estimates the traveling road width Wr based on the relation 58 and the object width W (traveling road width estimation step S8).

コントローラー30は、CPUとしてプログラムを実行することで、図1等に示す各部として動作し、図3等に示す各工程を処理する。以下、各部及び各工程の情報処理例を説明する。   The controller 30 operates as each unit shown in FIG. 1 and the like by executing a program as a CPU, and processes each process shown in FIG. 3 and the like. Hereinafter, information processing examples of each unit and each process will be described.

水平エッジ抽出処理S2[エッジ強度edge_Prewitt(Prewittフィルタ)]
水平エッジ抽出部12は、ディジタル画像の微分処理により画像の輝度勾配の大きさを計算することで、原画像水平エッジeを抽出すると良い。車載のカメラ10で走行環境を動的に撮影するため、ノイズの影響を効果的に除去することが望ましく、例えば、プレヴィット(Prewitt)の縦方向フィルタを使用すると良い。プレヴィット微分法では、座標(x,y)の画素の輝度値をf(x,y)とすると、水平エッジ強度edge_Prewittを次式(1)により求める。水平エッジ強度edge_Prewittが一定以上のエッジを原画像水平エッジeとして特定する。例えば、1画面中に複数の原画像水平エッジeがあれば、ラベリング等する。
Horizontal edge extraction processing S2 [Edge strength edge_Prewitt (Prewitt filter)]
The horizontal edge extracting unit 12 may extract the original image horizontal edge e by calculating the magnitude of the luminance gradient of the image by differential processing of the digital image. In order to dynamically capture the driving environment with the in-vehicle camera 10, it is desirable to effectively remove the influence of noise. For example, a Prewitt vertical filter may be used. In the Prewitt differential method, when the luminance value of the pixel at the coordinates (x, y) is f (x, y), the horizontal edge strength edge_Prewitt is obtained by the following equation (1). An edge having a horizontal edge strength edge_Prewitt of a certain level or more is specified as the original image horizontal edge e. For example, if there are a plurality of original image horizontal edges e in one screen, labeling or the like is performed.

座標系変換処理S3[水平エッジの幅Wと距離L]
図4を参照すると、カメラ座標系52の点p(x,y)は、世界座標系54の点P(X,Y,Z)に対応する。この場合、次式(2)の射影変換式が成立する。世界座標系を道路面上に想定しているので、Z=0となり、P(X,Y,Z)=P(X,Y,0)となる。式(2)のα,β,γ,u0,υ0,mはレンズなど撮像系に関係するカメラの内部パラメータ、r11,r12,r21,r22,r31,r32,Tx,Ty,Tz は、カメラの設置位置、向きなどに関係する外部パラメータである。これらの内部及び外部パラメータは、座標変換係数56であり、設置したカメラ10に対するキャリブレーションによって求める既知の値である。
式(2)に対して、次式(3)とすると、次式(4)になる。従って、座標系変換部14は、P(X,Y)を次式(5)によって求める。原画像の原画像水平エッジeから、水平方向での両端の座標値p(x, y)を抽出し、式(5)に従って、世界座標系54での座標値 P(X,Y) を計算する。
Coordinate system conversion processing S3 [horizontal edge width W and distance L]
Referring to FIG. 4, the point p (x, y) in the camera coordinate system 52 corresponds to the point P (X, Y, Z) in the world coordinate system 54. In this case, the projective transformation formula of the following formula (2) is established. Since the world coordinate system is assumed on the road surface, Z = 0 and P (X, Y, Z) = P (X, Y, 0). In the equation (2), α, β, γ, u 0 , υ 0 , m are internal parameters of the camera related to the imaging system such as a lens, r 11 , r 12 , r 21 , r 22 , r 31 , r 32 , T x , T y and T z are external parameters related to the installation position and orientation of the camera. These internal and external parameters are coordinate conversion coefficients 56 and are known values obtained by calibration with respect to the installed camera 10.
When the following expression (3) is given to the expression (2), the following expression (4) is obtained. Therefore, the coordinate system conversion unit 14 calculates P (X, Y) by the following equation (5). The coordinate value p (x, y) at both ends in the horizontal direction is extracted from the horizontal edge e of the original image, and the coordinate value P (X, Y) in the world coordinate system 54 is calculated according to equation (5). To do.

関連判定処理S4[対象物幅W及び距離L算出]
図5を参照すると、原画像水平エッジeは、世界座標系54での当該水平エッジの両端の座標P1(X1,Y1), P2(X2,Y2)により特定できる。そして、この座標P1(X1,Y1), P2(X2,Y2)から、先行車の対象物幅Wを次式(6)により、カメラ10からの距離Lを次式(7)により計算することができる。
Relevance determination processing S4 [object width W and distance L calculation]
Referring to FIG. 5, the original image horizontal edge e can be specified by coordinates P1 (X1, Y1), P2 (X2, Y2) at both ends of the horizontal edge in the world coordinate system 54. From the coordinates P1 (X1, Y1) and P2 (X2, Y2), the object width W of the preceding vehicle is calculated by the following equation (6), and the distance L from the camera 10 is calculated by the following equation (7). Can do.

関連判定処理S4[距離Lによる水平エッジEの特定]
複数の水平エッジEがある際には、距離Lが自車に最も近い水平エッジEを選択すると良い。対象物幅Wによる関連58の判定にて関連なしと判定される際には、次に距離Lが近い原画像水平エッジeを特定する。走行路幅Wrの推測のために水平エッジEを特定する処理であるため、予め定められた距離Lpよりも遠く、走行路幅Wrの推測に不適当な水平エッジEについては、関連なしと判定しても良い。この予め定められた距離Lpは、自車速度に応じて、早い場合には遠い距離を範囲内に含めるように可変としても良い。
Related judgment processing S4 [identification of horizontal edge E by distance L]
When there are a plurality of horizontal edges E, it is preferable to select the horizontal edge E whose distance L is closest to the vehicle. When it is determined that there is no relationship in the determination of the relationship 58 based on the object width W, the next horizontal edge e of the original image with the closest distance L is specified. Since the horizontal edge E is specified for estimating the travel path width Wr, it is determined that the horizontal edge E far from the predetermined distance Lp and inappropriate for the estimation of the travel path width Wr is not related. You may do it. This predetermined distance Lp may be variable according to the speed of the vehicle so that a far distance is included in the range if it is fast.

関連判定処理S4[対象物幅Wによる関連]
図6を参照すると、自車から一定距離内にある先行車の対象物幅Wは、走行環境の走行路幅Wrと関連する。求められた対象物幅Wが、想定対象物幅Wpの範囲内の場合、対象物幅Wは走行路幅Wrとの関連58があると判定する。この想定対象物幅Wp以外の場合、水平エッジEを自動車でないものとして除去する。想定対象物幅Wpは、例えば、想定対象物最小幅W_MIN = 1.4 [m](軽自動車) 〜 想定対象物最大幅W_MAX = 2.5 [m](貨物車)以内とすると良い。停止線など走行環境の進行方向に直行する水平エッジEは、後述する速度ベクトルによる静止物除去として処理しても良いし、この想定対象物幅Wpにより除去するようにしてもよい。
Relevance determination processing S4 [Relation by object width W]
Referring to FIG. 6, the object width W of a preceding vehicle within a certain distance from the host vehicle is related to the travel path width Wr of the travel environment. When the obtained object width W is within the range of the assumed object width Wp, it is determined that the object width W has an association 58 with the travel path width Wr. In cases other than the assumed object width Wp, the horizontal edge E is removed as not being an automobile. The assumed object width Wp may be, for example, within an assumed object minimum width W_MIN = 1.4 [m] (light vehicle) to an assumed object maximum width W_MAX = 2.5 [m] (freight vehicle). A horizontal edge E that goes straight in the traveling direction of the traveling environment such as a stop line may be processed as a stationary object removal by a speed vector, which will be described later, or may be removed by this assumed object width Wp.

走行路幅推測処理S8[対象物幅Wによる関連]
走行路幅推測部18は、先行車両は走行環境での走行路幅Wrの中心を目安に走行していると仮定し、Wrの中心位置を中心として予め定められた半車線幅W_CON等を用いて計算する。
Traveling path width estimation process S8 [relation with object width W]
The travel path width estimation unit 18 assumes that the preceding vehicle travels with the center of the travel path width Wr in the travel environment as a guide, and uses a predetermined half lane width W_CON around the center position of Wr. To calculate.

・1.1水平エッジから走行環境推測の効果
上述のように、原画像水平エッジeから走行環境を推測すると、先行車がある場合に、白線の情報を使用しなくとも、白線の場合と同等の精度で走行路幅Wrを推測することができる。また、水平エッジを使用すると、走行環境でのコントラストが高く、輝度差が大きいため、比較的単純な画像処理にて幅情報を精度良く得ることができる。
このように、画像処理による先行車両の原画像水平エッジeの抽出により走行路幅を推定すると、レーダーによる前方車両検出とは異なり、横方向の分解能が高いため、前方車両の幅を正確に計測でき、走行すべき領域を精度良く推測することができる。
さらに、システム構成に必要なハードウエア資源(部品)は、カメラ、コントローラー及びメモリーであり、レーダー等の先行車両検知装置を別途追加する必要はない為、低コストで実現できる。
-1.1 Effects of driving environment estimation from the horizontal edge As described above, when the driving environment is estimated from the horizontal edge e of the original image, the accuracy equivalent to that of the white line can be obtained even if there is a preceding vehicle without using the white line information. Thus, the travel path width Wr can be estimated. In addition, when the horizontal edge is used, the contrast in the driving environment is high and the luminance difference is large. Therefore, the width information can be obtained with high accuracy by relatively simple image processing.
In this way, if the road width is estimated by extracting the original image horizontal edge e of the preceding vehicle by image processing, the lateral resolution is high, unlike the forward vehicle detection by radar, so the width of the preceding vehicle is accurately measured. The region to be traveled can be estimated with high accuracy.
Furthermore, hardware resources (parts) necessary for the system configuration are a camera, a controller, and a memory, and it is not necessary to separately add a preceding vehicle detection device such as a radar, so that it can be realized at low cost.

<1.2複数フレームの相関で関連判定>
次に、実施例1で複数フレームの原画像を用いて関連58の判定を行う例を説明する。この例では、前記カメラ10が、予め定められた時間差tdで前記走行環境の変化を連続して撮影し、フレームメモリー31Aに格納する。再度図1を参照すると、この例では、前記関連判定部16が、同一性判定処理20と、速度算出処理22と、関連判定処理24とを備えている。
<1.2 Relevance determination by correlation of multiple frames>
Next, an example in which the association 58 is determined using a plurality of frames of original images in the first embodiment will be described. In this example, the camera 10 continuously captures changes in the driving environment at a predetermined time difference td and stores them in the frame memory 31A. Referring again to FIG. 1, in this example, the association determination unit 16 includes an identity determination process 20, a speed calculation process 22, and an association determination process 24.

再度図3を参照すると、同一性判定処理20は、前記時間差tdで連続する画像間での前記水平エッジEの同一性を判定する(同一性判定工程S5)。この同一性判定処理20は、時間差tdの間に生じた自車と先行車との相対的な位置関係の変化を前提として、連続する画像間での水平エッジEが同一の対象物であるか否か判定するものである。   Referring to FIG. 3 again, the identity determination processing 20 determines the identity of the horizontal edge E between images that are consecutive with the time difference td (identity determination step S5). This identity determination process 20 is based on the assumption that the horizontal edge E between successive images is the same object on the premise of a change in the relative positional relationship between the host vehicle and the preceding vehicle that occurred during the time difference td. It is determined whether or not.

速度算出処理22は、前記水平エッジEの同一性から当該水平エッジE(に応じた対象物)の前記世界座標系54での速度ベクトルVを算出する(速度算出工程S6)。速度算出処理22は、時間差tdと、原画像水平エッジeの世界座標系での移動距離とを使用して、対象物の速度ベクトルVを求める。速度ベクトルVは、例えば、先行車縦速度Vvと先行車横速度Vhとである。   The speed calculation process 22 calculates the speed vector V in the world coordinate system 54 of the horizontal edge E (the object corresponding to the horizontal edge E) from the identity of the horizontal edge E (speed calculation step S6). The speed calculation process 22 obtains the speed vector V of the object using the time difference td and the movement distance of the original image horizontal edge e in the world coordinate system. The speed vector V is, for example, a preceding vehicle longitudinal speed Vv and a preceding vehicle lateral speed Vh.

関連判定処理24は、予め定められた想定速度ベクトルVpと、算出された前記速度ベクトルVとから前記対象物幅Wと走行路幅Wrとの前記関連58を判定する(関連判定処理工程S7)。想定速度ベクトルVpは、レーンと平行で進行方向の縦成分と横方向の横成分についてそれぞれ予め定めた値を持つと良い。先行車縦速度Vvについては、水平エッジEの進行方向の速さが予め定められた想定速度ベクトルVpの縦成分より小さい場合には、静止物と判定し、走行路幅Wとの関連58をなしと判定する。また、先行車横速度Vhが、想定速度ベクトルVpの横成分より大きい場合には、先行車両が車線変更し、又は右左折するとして、走行路幅Wrとの関係58をなしと判定することができる。   The relationship determination process 24 determines the relationship 58 between the object width W and the travel road width Wr from a predetermined assumed speed vector Vp and the calculated speed vector V (relevance determination processing step S7). . The assumed velocity vector Vp is preferably parallel to the lane and has predetermined values for the vertical component in the traveling direction and the horizontal component in the horizontal direction. Regarding the preceding vehicle vertical speed Vv, if the speed in the traveling direction of the horizontal edge E is smaller than the predetermined vertical component of the assumed speed vector Vp, it is determined as a stationary object, and the relationship 58 with the traveling road width W is determined. Judged as none. Further, if the preceding vehicle lateral speed Vh is greater than the lateral component of the assumed speed vector Vp, it may be determined that the preceding vehicle changes lanes or turns left or right, and the relationship 58 with the traveling road width Wr is determined to be none. it can.

この図1及び図3に示す装置及び方法は、CPUを用いて実行するための走行環境推測用プログラムにより実現することができる。このプログラムは、図2に示す記憶装置42に格納され、コントローラーのCPUによって実行される。このプログラムは、図1等に示す各部及び図3等に示す各工程の情報処理を実現する。   The apparatus and method shown in FIGS. 1 and 3 can be realized by a traveling environment estimation program to be executed using a CPU. This program is stored in the storage device 42 shown in FIG. 2, and is executed by the CPU of the controller. This program realizes information processing of each unit shown in FIG. 1 and the like and each process shown in FIG.

図7は、図3に示す情報処理の詳細例を示す。図7を参照すると、実施例2では、まず、カメラ10からの画像を補正する(ステップS10)。次に、原画像水平エッジeをプレヴィットフィルタ等の使用により抽出し、世界座標系に変換することで水平エッジEを算出し、この水平エッジEの座標(X1,Y1), (X2, Y2) から対象物幅Wを求める(ステップS11,図3のステップS2)。   FIG. 7 shows a detailed example of the information processing shown in FIG. Referring to FIG. 7, in the second embodiment, first, an image from the camera 10 is corrected (step S10). Next, the original image horizontal edge e is extracted by using a Previt filter, etc., and converted to the world coordinate system to calculate the horizontal edge E, and the coordinates (X1, Y1), (X2, Y2) of this horizontal edge E are calculated. ) To obtain the object width W (step S11, step S2 in FIG. 3).

同一性判定処理S5[正規相関処理]
続いて、対象物幅Wが想定対象物幅Wpの範囲内であるか否かを確認する(ステップS12)。ここでは、想定対象物最小幅W_MIN < 対象物幅W < 想定対象物最大幅W_MAX を満たすか否かを確認する。満たす場合には、当該水平エッジEは走行路幅Wrと関連58を有すると判定し、続けて、前フレームデータがあるか否かを確認する(ステップS13)。
Identity determination processing S5 [normal correlation processing]
Subsequently, it is confirmed whether or not the object width W is within the range of the assumed object width Wp (step S12). Here, it is confirmed whether or not the minimum assumed object width W_MIN <the object width W <the maximum assumed object width W_MAX is satisfied. If it is satisfied, it is determined that the horizontal edge E has a relation 58 with the traveling road width Wr, and then it is confirmed whether there is previous frame data (step S13).

前フレームがあると、相関処理を行う(ステップS14)。図8を参照すると、現在の画像tの水平エッジEを検出した位置から、(幅、高)=(wx, wy)[画素]の相関ウィンドウ20aを設ける。前フレームの画像t-dtの水平エッジEの位置に、同じサイズのウィンドウを設ける。ウィンドウ内に各画素につき、以下の正規相関式(8)に従って、相関値rを求める。   If there is a previous frame, correlation processing is performed (step S14). Referring to FIG. 8, a correlation window 20a of (width, height) = (wx, wy) [pixel] is provided from the position where the horizontal edge E of the current image t is detected. A window of the same size is provided at the position of the horizontal edge E of the image t-dt of the previous frame. The correlation value r is obtained for each pixel in the window according to the normal correlation equation (8) below.

ここで、Iは時刻t画像のウィンドウ内の各画素の輝度値、Iaveはその平均値、Jは時刻t-dt画像のウィンドウ20a内の各画素の輝度値、Javeはその平均値を表し、N = wx * wyである。水平方向にウィンドウ20aを移動しながら、この正規化相関処理を行い、TH1=(全体処理数の例えば70%以上のrについて、r*100%値が例えば70%)以上の場合、同じ車両であると判断する(ステップS16)。式(8)のr群がしきい値未満の場合には、2つのフレームの水平エッジEに相関はないとして、同一車両ではないと判定し、ステップS20に進む。 Here, I is the luminance value of each pixel in the window of the time t image, I ave is the average value thereof, J is the luminance value of each pixel in the window 20a of the time t-dt image, and J ave is the average value thereof. N = wx * wy. This normalized correlation process is performed while moving the window 20a in the horizontal direction. If TH1 = (r * 100% value is 70% for r of 70% or more of the total number of processes), the same vehicle It is determined that there is (step S16). If the r group of Expression (8) is less than the threshold value, it is determined that there is no correlation between the horizontal edges E of the two frames.

また、このステップS15のNoに続いて、前フレームの想定対象物最小幅W_MIN < 対象物幅W < 想定対象物最大幅W_MAX条件を満たす水平エッジE群のうち、手前のエッジを採用して、再度、図8に示した相関処理で、同一車両かどうかのチェックするようにしても良い。同一車両ではないと判定し、かつ複数のエッジがある場合、再度、手前より遠い方向の水平エッジに対して、相関処理を行うと、先行車の認識率を向上させることができる。相関がある場合、ステップS16に進む。   Further, following the No in step S15, the front edge of the horizontal edge E group that satisfies the minimum expected object width W_MIN <the target object width W <the maximum target object width W_MAX of the previous frame is adopted, Again, the correlation process shown in FIG. 8 may be used to check whether the vehicles are the same. When it is determined that they are not the same vehicle and there are a plurality of edges, the recognition rate of the preceding vehicle can be improved by performing the correlation process again on the horizontal edge in the direction farther away. If there is a correlation, the process proceeds to step S16.

速度算出処理S6[速度算出]
続いて、先行車の速度Vを算出する。まず、自車速度の平均速度Vmを次式(9)により算出し、自車の移動距離Sを次式(10)により求める。対象物の進行方向の移動速度である先行車縦速度Vvは、次式(11)により算出される。ここで、Lt,Lt-dtは、時刻t、t-dt画像上での自車迄の距離を表す。また、先行車の横方向速度である先行車横速度Vhを次式(12)により求める。ここで、先行車幅中心Wct,Wct-dtは、時刻t、t-dt画像上での先行車両の幅方向の中心位置を表す。
Speed calculation process S6 [Speed calculation]
Subsequently, the speed V of the preceding vehicle is calculated. First, the average speed Vm of the own vehicle speed is calculated by the following equation (9), and the moving distance S of the own vehicle is obtained by the following equation (10). The preceding vehicle longitudinal speed Vv that is the moving speed of the object in the traveling direction is calculated by the following equation (11). Here, L t and L t-dt represent the distance to the host vehicle on the time t and t-dt images. Further, the preceding vehicle lateral speed Vh, which is the lateral speed of the preceding vehicle, is obtained by the following equation (12). Here, the preceding vehicle width center Wc t, Wc t-dt is the time t, represents the center position in the width direction of the preceding vehicle on t-dt image.

関連判定処理S7[速度ベクトルによる水平エッジ特定(静止物)]
先行車縦速度Vvの相対速度が自車に向かっている方向で、自車速度の±20%以内の場合、静止物と判定し(ステップS17)、関連58をなしとする。これは、路面上の文字からも、水平エッジEを検出されるところ、路面上の文字等の静止物からは走行路幅の推測をしない処理である。ここでは、路面上の文字は、幅が車両の幅と同じである場合、車両として検出されるが、この先行車縦速度Vvを用いて、静止物として除去する。静止物を除去する条件としては、先行車の速度に着目して予め定められた速度Vp以上の場合に先行車と判定して関連58をありとし、それ以外を静止物としても良い。
Related judgment processing S7 [Identify horizontal edge by velocity vector (stationary object)]
If the relative speed of the preceding vehicle vertical speed Vv is in the direction toward the host vehicle and is within ± 20% of the host vehicle speed, the vehicle is determined to be a stationary object (step S17), and the relation 58 is omitted. This is a process in which, when a horizontal edge E is detected from characters on the road surface, the traveling road width is not estimated from stationary objects such as characters on the road surface. Here, the character on the road surface is detected as a vehicle when the width is the same as the width of the vehicle, but is removed as a stationary object using the preceding vehicle longitudinal speed Vv. As a condition for removing a stationary object, it may be determined that the vehicle is a preceding vehicle when the speed is equal to or higher than a predetermined speed Vp by paying attention to the speed of the preceding vehicle.

関連判定処理[速度ベクトルによる水平エッジ特定(車線変更等)]
水平エッジEが静止物ではない場合、さらに、先行車横速度Vhが予め定められた横速度上限値Vh_MAX以上か否かを判定し、横速度上限値Vh_MAXを超える場合には、先行車は車線変更又は右左折と判定し、関連58をなしとする。すなわち、水平エッジEが横移動していない際に(ステップS18)、車両と判断して保存する。ステップS18では、先行車横速度が一定以上の場合には、当該水平エッジによる走行路幅の推測を行わない。横速度上限値Vh_MAXは、次式(13)によって算出することができる。図6を参照すると、Wr - W = 2 * Wtであり、 TTLC (Time To Lane Crossing) は先行車の車線逸脱時間である。
Related judgment processing [Horizontal edge identification by speed vector (lane change, etc.)]
When the horizontal edge E is not a stationary object, it is further determined whether or not the preceding vehicle lateral speed Vh is greater than or equal to a predetermined lateral speed upper limit value Vh_MAX. It is determined as a change or a left / right turn, and the relationship 58 is none. That is, when the horizontal edge E is not laterally moved (step S18), it is determined as a vehicle and stored. In step S18, if the preceding vehicle lateral speed is equal to or higher than a certain level, the traveling road width is not estimated by the horizontal edge. The lateral speed upper limit value Vh_MAX can be calculated by the following equation (13). Referring to FIG. 6, Wr−W = 2 * Wt, and TTLC (Time To Lane Crossing) is the lane departure time of the preceding vehicle.

この先行車の横速度による制限をすると、自動的に、走行環境がカーブの場合に先行車幅による走行路幅の推測を制限することができる。この先行車横速度Vhの上限値による制限によって、先行車速度に応じて予め算出されるカーブR値より小さいカーブを処理対象から除外することができる。この先行車横速度Vhによる制限により、大きく曲がるカーブでは先行車幅から走行路幅の推測をしないため、先行車幅から走行路幅と位置とを推測する正確さを確保することができる。
また、先行車が右左折する際には、先行車の速度が低下するため、先行車縦速度Vvの値によっても走行路幅の推測を制限することができる。
When the limitation is made by the lateral speed of the preceding vehicle, it is possible to automatically limit the estimation of the traveling path width by the preceding vehicle width when the traveling environment is a curve. By the restriction by the upper limit value of the preceding vehicle lateral speed Vh, a curve smaller than the curve R value calculated in advance according to the preceding vehicle speed can be excluded from the processing target. Due to the restriction by the preceding vehicle lateral speed Vh, the traveling road width is not estimated from the preceding vehicle width in the case of a curve that is largely bent, so that the accuracy of estimating the traveling road width and position from the preceding vehicle width can be ensured.
In addition, when the preceding vehicle makes a right or left turn, the speed of the preceding vehicle decreases, and therefore the estimation of the travel path width can be limited by the value of the preceding vehicle longitudinal speed Vv.

図7に示す2つのフレームの画像を用いた情報処理にて、水平エッジEが静止物であるか(ステップS17)、横移動している際には(ステップS18)、前フレーム及び今回のフレーム情報を削除し(ステップS20)、先行車両を未検出であるカウンターをカウントアップする(ステップS21)。この未検出カウンターの値は、走行路幅の推測処理が非動作であることを警報する際に使用できる。   In the information processing using the images of the two frames shown in FIG. 7, whether the horizontal edge E is a stationary object (step S17), or when moving horizontally (step S18), the previous frame and the current frame. The information is deleted (step S20), and the counter that has not detected the preceding vehicle is counted up (step S21). The value of the non-detection counter can be used when an alarm is given that the traveling width estimation process is not in operation.

関連判定処理[多数フレーム]
フレームメモリー31Aを5枚以上用意すると、先行車のウインカー情報や、ブレーキランプの情報を画像処理で測定し、使用することができる。例えば、ウインカーの点滅は、通常1〜2回/秒程度で、この時間間隔の画像の差分を取ることで、ウインカーの状態を検出することができる。先行車が車線変更のためのウインカーを点滅させる場合、工事や事故などのために車線自体が減少することがあり、走行路幅及び位置の推測に役立つ。また、ブレーキも同様に、画像間の差分を取ることにより、検出できる。ブレーキランプの位置は先行車の幅を示すため、先行車の影等の影響を除去して先行車幅を補正する等の利用が可能となる。
Association determination processing [multiple frames]
If five or more frame memories 31A are prepared, the blinker information of the preceding vehicle and the information of the brake lamp can be measured and used by image processing. For example, blinking of the blinker is normally about 1 to 2 times / second, and the state of the blinker can be detected by taking a difference between images at this time interval. When the preceding vehicle blinks the blinker for changing the lane, the lane itself may decrease due to construction or an accident, which is useful for estimating the travel path width and position. Similarly, the brake can be detected by taking the difference between the images. Since the position of the brake lamp indicates the width of the preceding vehicle, it is possible to use such as correcting the width of the preceding vehicle by removing the influence of the shadow of the preceding vehicle.

走行路幅推測S8
図7のステップS19にて車両として保存した水平エッジEは、自車位置に対して、水平エッジの相対距離の情報を有しており、その時系列データをプロットすると、図9のような走行図が得られる。黒い点は、自車位置、垂直線は、検出した水平エッジEを表す。
黒点の自車位置は、操舵角センサ34の操作角Φmと、車速センサー32の自車速度Vmとにより推測することができる。推測車線は、各時刻における水平エッジEの中心点から、半車線幅W_CONの分、両サイドに広げた点を繋げることで計算できる。半車線幅W_CONは、例えば、「道路構造令」で定めた半車線幅W_CON =3.5/2=1.75としてもよい。また、白線認識を併用する際には直近に認識した白線での幅を使用して半車線幅W_CONを可変としてもよい。ナビゲーションシステム等走行路の情報を外部から得られる際には、当該情報や予め記憶した道路毎の道路幅の情報から半車線幅W_CONを可変としても良い。
Runway width guess S8
The horizontal edge E stored as a vehicle in step S19 in FIG. 7 has information on the relative distance of the horizontal edge with respect to the vehicle position, and the time series data is plotted as shown in FIG. Is obtained. The black dot represents the vehicle position, and the vertical line represents the detected horizontal edge E.
The vehicle position of the black spot can be estimated from the operation angle Φm of the steering angle sensor 34 and the vehicle speed Vm of the vehicle speed sensor 32. The estimated lane can be calculated by connecting points spread on both sides by the half lane width W_CON from the center point of the horizontal edge E at each time. The half lane width W_CON may be, for example, the half lane width W_CON = 3.5 / 2 = 1.75 determined by the “Road Structure Ordinance”. In addition, when the white line recognition is used together, the half lane width W_CON may be variable using the width of the white line recognized most recently. When information on a travel route such as a navigation system can be obtained from the outside, the half lane width W_CON may be variable based on the information or information on road width for each road stored in advance.

・1.2複数フレームの相関で関連判定の効果
上述のように、2枚のフレームを用いる例では、静止物を除去し、右左折又は車線変更す先方車両を除去しつつ、前方車両の走行軌跡を計算し、前方車両の対象物幅Wから走行路幅Wrを計算する。このため、2枚のフレーム画像があれば情報処理をすることができ、レーダー等も不要で、低コストで高速処理をすることができる。また、図8に示す相関処理により前方車両の同一性を判定し、走行軌跡を特定するため、隣車線の車両を正確に区別することができる。
-1.2 Effect of determining the relationship with the correlation of multiple frames As described above, in the example using two frames, the stationary vehicle is removed, the left and right turn or the lane changing destination vehicle is removed, and the traveling locus of the preceding vehicle is determined. The travel road width Wr is calculated from the object width W of the vehicle ahead. For this reason, if there are two frame images, information processing can be performed, radar and the like are unnecessary, and high-speed processing can be performed at low cost. Further, since the identity of the preceding vehicle is determined by the correlation process shown in FIG. 8 and the traveling locus is specified, the vehicles in the adjacent lane can be accurately distinguished.

<2.1白線認識不能時に水平エッジ処理>
次に、実施例2を開示する。
図10を参照すると、実施例2の車線逸脱警報装置102は、実施例1と同様に、カメラ10と、水平エッジ抽出部12と、座標系変換部14と、関連判定部16と、走行路幅推測部18とを備えている。関連判定部16は、同一性判定処理20と、速度算出処理22と、関連判定処理24とを備えるようにしても良い。
実施例2では特に、車線逸脱警報装置102は、白線認識部60と、車線逸脱時間判定部62と、警報出力部40とを備えている。
<2.1 Horizontal edge processing when white line cannot be recognized>
Next, Example 2 is disclosed.
Referring to FIG. 10, the lane departure warning device 102 according to the second embodiment is similar to the first embodiment in that the camera 10, the horizontal edge extraction unit 12, the coordinate system conversion unit 14, the association determination unit 16, And a width estimation unit 18. The association determination unit 16 may include an identity determination process 20, a speed calculation process 22, and an association determination process 24.
Particularly in the second embodiment, the lane departure warning device 102 includes a white line recognition unit 60, a lane departure time determination unit 62, and a warning output unit 40.

白線認識部60は、撮影された画像から前記走行環境内のレーンを認識し走行路幅を算出する。レーンは、道路上の白色その他の色の白線である。白線認識部60は、微分処理によりエッジを抽出し、そのエッジの特徴から直線又は曲線の線(レーン)を認識し、走行環境の複数のレーンから走行路幅Wrを算出する。   The white line recognizing unit 60 recognizes a lane in the traveling environment from the captured image and calculates a traveling road width. A lane is a white line of white or other color on the road. The white line recognition unit 60 extracts an edge by differentiation, recognizes a straight line or a curved line (lane) from the feature of the edge, and calculates the traveling road width Wr from a plurality of lanes in the traveling environment.

車線逸脱時間判定部62は、前記白線認識部60によって算出される走行路幅Wrと操舵角Φmとに基づいて車線逸脱時間TTLCを判定する。また、車線逸脱時間判定部62は、前記白線認識部60によって白線が認識されない際には、前記走行路幅推測部18によって推測された前記走行路幅Wrから車線逸脱時間TTLCを判定する。すなわち、実施例2では、白線が認識されている際には白線認識によるレーン間の距離等から走行路幅Wrを算出する一方、白線が認識されない際に、前方車両の対象物幅Wを用いて走行路幅Wrを推測する。車線逸脱時間TTLCは、現在の操舵角Φm、自車の速度Vm及び走行路幅Wrを用いて、現在の走行状態で左右の車線を跨ぐまでの時間であり、その時間は、車線逸脱のレベルでもある。   The lane departure time determination unit 62 determines the lane departure time TLC based on the travel road width Wr and the steering angle Φm calculated by the white line recognition unit 60. Further, the lane departure time determination unit 62 determines the lane departure time TLC from the travel road width Wr estimated by the travel road width estimation unit 18 when the white line recognition unit 60 does not recognize a white line. That is, in the second embodiment, when the white line is recognized, the traveling road width Wr is calculated from the distance between the lanes by the white line recognition, while the object width W of the preceding vehicle is used when the white line is not recognized. To estimate the road width Wr. Lane departure time TLC is the time it takes to cross the left and right lanes in the current driving state using the current steering angle Φm, the speed Vm of the host vehicle and the road width Wr, and the time is the level of lane departure But there is.

警報出力部40は、前記車線逸脱時間TTLCに応じて警報を出力する。例えば、ウインカーが操作されていない際に、1秒以内に車線を跨ぐ可能性がある際に警報すると良い。これは、図2に示すウインカー制御部38からのウインカー制御信号38aとTTLCとの組み合わせによる制御となる。   The warning output unit 40 outputs a warning according to the lane departure time TLC. For example, when the turn signal is not operated, a warning may be given when there is a possibility of crossing a lane within one second. This is controlled by a combination of the winker control signal 38a from the winker control unit 38 shown in FIG.

白線抽出処理[エッジ強度edge_Sobel(Sobelフィルタ)]
白線認識部60は、ソーベル(Sobel)微分法とハフ(Hough)変換による直線検出とにより、原画像10aから白線となる直線を認識すると良い。原画像10aの各座標(x,y)の画素の輝度値をf(x,y)とし、x方向の輝度値変化dxを式(14)、y方向の輝度値変化dyを式(15)とすると、エッジ強度edge_Sobelは次式(16)により求められる。
White line extraction processing [edge strength edge_Sobel (Sobel filter)]
The white line recognizing unit 60 may recognize a straight line that becomes a white line from the original image 10a by the Sobel differential method and the straight line detection by the Hough transform. The luminance value of the pixel at each coordinate (x, y) of the original image 10a is defined as f (x, y), the luminance value change dx in the x direction is expressed by equation (14), and the luminance value change dy in the y direction is expressed by equation (15). Then, the edge strength edge_Sobel is obtained by the following equation (16).

図11(A)を参照すると、エッジ強度edge_Sobelとして、カメラ座標系の原画像10aに点P1からP3の直線が求められる。すると、原点(図中左下)から座標値P2までの距離ρと角度θとは容易に求められる。P1、P2、P3は、一つの直線上の点であり、座標を(x,y)と表現する。原点から直線への距離をρ、ρがX軸となす角度をθとすると、以下の関係式(17)が成り立つ。   Referring to FIG. 11A, straight lines from points P1 to P3 are obtained in the original image 10a of the camera coordinate system as the edge strength edge_Sobel. Then, the distance ρ and the angle θ from the origin (lower left in the figure) to the coordinate value P2 can be easily obtained. P1, P2, and P3 are points on one straight line, and the coordinates are expressed as (x, y). If the distance from the origin to the straight line is ρ, and the angle between ρ and the X axis is θ, the following relational expression (17) holds.

ハフ変換による直線検出方法では、P1、P2、P3の座標を式(17)に代入して、図11(B)に示すρ-θ座標系にプロットすると、右側のような3本の曲線が描ける。P1、P2、P3が一つの直線上にあれば、右図のような曲線の交点(ρ0, θ0)を求められる。実際の処理では、ソーベルフィルタで検出したエッジ点を式(16)に従って変換し、ρ-θ座標系にプロットし、出現頻度の高い交点(ρ0, θ0)を見つける。例えば、交点を検出した時、対応する直線式は、次式(18)及び次式(19)により求められる。 In the straight line detection method using the Hough transform, if the coordinates of P1, P2, and P3 are substituted into the equation (17) and plotted in the ρ-θ coordinate system shown in FIG. I can draw. If P1, P2, and P3 are on one straight line, the intersection (ρ 0 , θ 0 ) of the curves as shown in the right figure can be obtained. In actual processing, the edge points detected by the Sobel filter are converted according to the equation (16), plotted in the ρ-θ coordinate system, and intersections (ρ 0 , θ 0 ) with high appearance frequency are found. For example, when the intersection point is detected, the corresponding linear equation is obtained by the following equation (18) and the following equation (19).

曲線についても、エッジを適宜区切ることにより直線で近似し、このハフ変換での交点の探索によりレーンを求めることができる。   A curve can also be approximated by a straight line by appropriately dividing the edge, and a lane can be obtained by searching for an intersection by this Hough transform.

車線逸脱時間判定
図12を参照すると、車線逸脱時間TTLCは、実線で示す位置で現在の速度のまま現在の操舵角では、点線で示すように車線を逸脱するまでの時間をいう。すなわち、自車の現在位置から、現在の操舵角Φmと自車速度Vmとを用いて、左又は右の車線を跨る迄の時間TTLCを算出し、TTLC < TTh [秒] の場合、逸脱すると判定する。なお、TTLCは以下の式(20)により算出し、逸脱しきい値秒TTh は1秒に設定した。 逸脱しきい値TTh は、自車の速度に応じて可変としても良い。
Lane Departure Time Judgment Referring to FIG. 12, the lane departure time TLC is the time until the vehicle departs from the lane as shown by the dotted line at the current steering angle at the current speed at the position shown by the solid line. That is, using the current steering angle Φm and own vehicle speed Vm from the current position of the host vehicle, the time TLC until it crosses the left or right lane is calculated, and if TLC <T Th [sec] Judge that. The TLC was calculated by the following equation (20), and the departure threshold second T Th was set to 1 second. The departure threshold value T Th may be variable according to the speed of the host vehicle.

警報出力処理
逸脱しきい値TTh秒以内での左又は右への車線逸脱を判定すると、ドライバーがその方向のウインカーを出していない場合、例えばブザーによる警報を出力する。ブザー以外にも音声案内等本発明の実施時における望ましいヒューマン・インタフェース技術を適用することができる。
Warning output processing When a deviation from the lane to the left or right within a deviation threshold T Th seconds is determined, if the driver does not issue a turn signal in that direction, for example, a warning by a buzzer is output. In addition to the buzzer, a desirable human interface technique such as voice guidance when the present invention is implemented can be applied.

図13に画像の一例を示す。図13(A)にグレースケールで示す実際にはカラーの原画像に対して、水平エッジフィルタを行った場合のエッジ画像を図13(B)に示す。図13に示すように、走行車線の右側白線が薄くなり、エッジの検出が出来ない状況で、実施例2では、先行車の水平エッジEが検出出来た為、先行車の水平エッジEとして保存し、この水平エッジEを用いて走行路幅Wrを推測し、車線逸脱の判定をすることができる。   FIG. 13 shows an example of an image. FIG. 13B shows an edge image when a horizontal edge filter is applied to an actual color image shown in gray scale in FIG. As shown in FIG. 13, when the white line on the right side of the driving lane is thin and the edge cannot be detected, the horizontal edge E of the preceding vehicle can be detected in the second embodiment, and is stored as the horizontal edge E of the preceding vehicle. Then, it is possible to estimate the traveling road width Wr using the horizontal edge E and determine the lane departure.

・2.1白線認識不能時に水平エッジ処理の効果
上述のように、道路の白線を検出出来ない時、画像処理のみによって前方車両の水平エッジを検出して、保存し、時間的に連続した車両幅を持つ水平エッジから、走行路を推測する。そして、自車両が一定幅の逸脱を発生する可能性がある場合、警告を出すことができる。これによって、道路の白線認識不可能によるシステム不稼動時間を減らすことが可能となる。このように、従来の白線検出による車線逸脱警報システムとの併用により、システム稼動時間を大幅に増加させることができ、ユーザーの利便性並びに信頼性が向上する。特に、例えば、高速道路で、長時間、単調でほぼ直線道路の走行で、注意力が散漫になりやすく、疲労が蓄積されやすい状況の走行環境であっても、車線逸脱を警報可能な時間を増加させることができる。
2.1 Effect of horizontal edge processing when white line cannot be recognized As described above, when the white line of the road cannot be detected, the horizontal edge of the preceding vehicle is detected and stored only by image processing, and the continuous vehicle width in time Estimate the road from the horizontal edge. Then, when there is a possibility that the own vehicle will deviate within a certain range, a warning can be issued. As a result, the system downtime due to the inability to recognize the white line on the road can be reduced. Thus, the combined use with the conventional lane departure warning system based on white line detection can greatly increase the system operation time, improving the convenience and reliability of the user. In particular, for example, when driving on an expressway for a long time, running on a monotonous, almost straight road, the attention is likely to be distracted, and fatigue is likely to accumulate. Can be increased.

このように、実施例2では白線認識不能による逸脱警報システムの不作動状態を減らせる為、本システムへのドライバーの信頼感を増大させることができる。また、本システムの普及により、車線逸脱の減少や、ウインカーを出さずに車線を変更するケースを減少させることができる。特に、長時間の比較的単調な運転時に逸脱警報がなされると、ドライバーへのサポートとなるため、この技術は、四輪車購入の動機となる。   As described above, in the second embodiment, since the inoperative state of the departure warning system due to the inability to recognize the white line can be reduced, the reliability of the driver to the system can be increased. In addition, the spread of this system can reduce lane departures and cases where lanes are changed without taking out blinkers. In particular, when a departure warning is given during relatively long and relatively monotonous driving, it will be a support to the driver, and this technology will motivate the purchase of four-wheeled vehicles.

<2.2幅認識フラグDetと動作ステータスSta>
図14を参照すると、実施例2では、幅認識フラグDetを用いることで、白線認識処理(S32からS35,S40)と、前方車両の対象物幅Wによる走行路幅Wの推測処理(ステップS41からS46,S35)とを安定して並列処理することができる。幅認識フラグDetは、白線認識又は先行車両の水平エッジEから走行路幅Wrを認識できた際にオン(1)とし、認識できない場合にオフ(0)とする。また、動作ステータスStaは、幅認識フラグDetのオンオフに応じた動作状態を示す。この幅認識フラグDet及び動作ステータスStaは、外部メモリー31Bに格納し、白線認識処理と走行路幅推測処理とから共通してアクセス可能とすると良い。
<2.2 Width recognition flag Det and operation status Sta>
Referring to FIG. 14, in the second embodiment, by using the width recognition flag Det, white line recognition processing (S32 to S35, S40) and estimation processing of the traveling road width W based on the object width W of the preceding vehicle (step S41). To S46, S35) can be stably processed in parallel. The width recognition flag Det is turned on (1) when the white line is recognized or the traveling road width Wr can be recognized from the horizontal edge E of the preceding vehicle, and is turned off (0) when it cannot be recognized. Further, the operation status Sta indicates an operation state in accordance with the on / off of the width recognition flag Det. The width recognition flag Det and the operation status Sta are preferably stored in the external memory 31B and can be accessed in common from the white line recognition process and the travel path width estimation process.

図14で特徴的な処理は、次の通りである。すなわち、まず、前記白線認識部60が、前記白線を認識した際に(ステップS34)、幅認識フラグDetをオンとするとともに(ステップS35)、認識されない際には、当該幅認識フラグDetをオフとする(ステップS40)。そして、前記走行路幅推測部18が、前記幅認識フラグDetがオフの際に(ステップS41)、前記走行路幅Wrの推測処理をする(ステップS42からS46)。そして、推測できた際に前記幅認識フラグDetをオンとし(ステップS35)、認識できない際に幅認識フラグDetをオフとする(ステップS47)。そして、前記警報出力部40が、当該幅認識フラグDetのオンオフに応じて当該認識の動作ステータスStaを警報する(ステップS51)。   The characteristic processing in FIG. 14 is as follows. That is, first, when the white line recognition unit 60 recognizes the white line (step S34), the width recognition flag Det is turned on (step S35), and when the white line recognition unit 60 is not recognized, the width recognition flag Det is turned off. (Step S40). Then, when the width recognition flag Det is off (step S41), the travel path width estimation unit 18 performs an estimation process of the travel path width Wr (steps S42 to S46). Then, when it can be estimated, the width recognition flag Det is turned on (step S35), and when it cannot be recognized, the width recognition flag Det is turned off (step S47). Then, the alarm output unit 40 warns the recognition operation status Sta according to the on / off of the width recognition flag Det (step S51).

これにより、警報出力部40は、幅認識フラグDetがオン(又はオンが一定回数継続)である際に、当該車線逸脱警報装置が動作中である旨を警報し、幅認識フラグがオフ(又はオフが一定回数継続)である際に、非動作である旨の警報を出力することができる。図14に示す例では、一定数Cpだけ幅認識フラグDetのオフが繰り返された際に動作ステータスをオフにする。このため、未検出カウンタCntを使用する(ステップS48,S49,S39)。一方、非動作状態で幅認識フラグDetがオンとなると、動作状態とする(ステップS38)。   Thus, when the width recognition flag Det is on (or on for a certain number of times), the warning output unit 40 warns that the lane departure warning device is in operation, and the width recognition flag is off (or When it is off for a certain number of times, an alarm indicating that it is not operating can be output. In the example shown in FIG. 14, the operation status is turned off when the width recognition flag Det is repeatedly turned off by a certain number Cp. For this reason, the undetected counter Cnt is used (steps S48, S49, S39). On the other hand, when the width recognition flag Det is turned on in the non-operating state, the operating state is set (step S38).

実施例2では、コントローラ30は、マルチコア機能を有する画像処理専用チップを備えると良い。これらの画像処理チップは、ユーザーによるCPUの個数、相対性能を設定することができる。また、個々の論理的なCPUは、同じ外部メモリー31Aをアクセスできる。従って、2つのロジックを同時に処理する為に、2個のCPU設定を行い、それぞれの処理ステータスを表すフラグを外部メモリ31Bに設定し、常に監視することにより、デッドロックの発生を防止しつつ、ACID特性を満たすための待機やロックを最小限とすることで、CPUの能力に応じた高速な処理を実現することができる。また、2つのアルゴリズムの実際の処理量を応じて、それぞれのCPUの性能を設定することで、処理待ち状態を最小限に抑える最適化も可能である。
また、データ駆動型の画像処理チップを使用すると、データが流れている時にCPUが動作状態になるが、それ以外は、非動作状態になるため、速度範囲での非動作の際にはCPUは電力を消費しない。
In the second embodiment, the controller 30 may include a dedicated image processing chip having a multi-core function. These image processing chips can set the number of CPUs and relative performance by the user. Each logical CPU can access the same external memory 31A. Therefore, in order to process two logics simultaneously, two CPU settings are made, flags indicating the respective processing statuses are set in the external memory 31B, and constantly monitored to prevent the occurrence of a deadlock, By minimizing waits and locks to satisfy the ACID characteristics, high-speed processing according to the CPU capability can be realized. In addition, by setting the performance of each CPU according to the actual processing amount of the two algorithms, it is possible to optimize to minimize the waiting state for processing.
If a data driven image processing chip is used, the CPU will be in an operating state when data is flowing, but otherwise it will be in an inoperable state. Does not consume power.

図14のフローに従って各工程を説明する。まず、車速センサー32による自車の速度Vmを確認し(ステップS30)、例えば、車速Vm ≧ 60 [km/h]でオン、オンとなった後Vm ≦ 50 [km/h]の際にオフとする。オンとなると、ステップS32及びS41の並列処理をする。オフの場合、動作ステータスStaを0(オフ)とし、非動作となった旨を警報する(ステップS51)。この自車速度に応じた動作非動作の制御により、長時間の高速運転時の車線逸脱を警報しつつ、低速での市街地走行時には非稼働とすることができる。なお、自車が右左折する際には、車速が落ちる為、システムがオフになる。   Each process is demonstrated according to the flow of FIG. First, the speed Vm of the host vehicle is confirmed by the vehicle speed sensor 32 (step S30). For example, when the vehicle speed Vm ≧ 60 [km / h] is turned on and turned on, the vehicle speed Vm is turned off when Vm ≦ 50 [km / h]. And When turned on, parallel processing of steps S32 and S41 is performed. If it is off, the operation status Sta is set to 0 (off), and a warning is given to the effect that it has become non-operation (step S51). By controlling the operation and non-operation according to the own vehicle speed, it is possible to make the vehicle inoperable when traveling at a low speed in an urban area while warning a lane departure during a long high-speed operation. When the vehicle turns right or left, the system is turned off because the vehicle speed drops.

ステップS31では、カメラ10が撮影した画像をフレームメモリー31Aに格納する。この画像は、白線認識処理と、走行路推測処理との両処理に用いられる。白線認識処理では、まず、ソーベルフィルタ処理を行うことでエッジを抽出し(ステップS32)、ハフ変換等により白線であるレーンを抽出する(ステップS33)。このレーンが走行路幅Wrを示す白線であれば(ステップS34)、幅認識フラグDetを1(オン)にする(ステップS35)。幅認識フラグDetがオンの場合、水平エッジ抽出処理は行わない(ステップS41)。続いて、逸脱を判定し(ステップS36)、逸脱があれば、警報を発する(ステップS37)。逸脱がなければ、動作ステータスStaを読み出して、オフ(非動作,0)である際には1(オン,動作中)に更新する(ステップS38)。動作ステータスStaをオンにした際には、所定の未検出カウンタCntの値を0に初期化する(ステップS39)。   In step S31, the image taken by the camera 10 is stored in the frame memory 31A. This image is used for both the white line recognition process and the travel route estimation process. In the white line recognition processing, first, edges are extracted by performing Sobel filter processing (step S32), and lanes that are white lines are extracted by Hough transform or the like (step S33). If this lane is a white line indicating the traveling road width Wr (step S34), the width recognition flag Det is set to 1 (on) (step S35). When the width recognition flag Det is on, the horizontal edge extraction process is not performed (step S41). Subsequently, a deviation is determined (step S36), and if there is a deviation, a warning is issued (step S37). If there is no deviation, the operation status Sta is read and updated to 1 (on, in operation) when it is off (non-operation, 0) (step S38). When the operation status Sta is turned on, the value of a predetermined undetected counter Cnt is initialized to 0 (step S39).

続いて、今回の画像処理にて幅認識フラグDetがオンとなった場合には、動作状態に変化した旨を警報する(ステップS51)。例えば、車速低下時と同様、メータ内に、システムが非動作状態である旨の表示や、動作非動作の切り替え時に、一度「ぽん」のような状態変更を表す音を出すようにしても良い。逸脱警報S37,動作状態警報S51又は警報なしの後には、次の画像を待機する(ステップS30,S31)。   Subsequently, when the width recognition flag Det is turned on in the current image processing, a warning is given to the effect that the operation state has changed (step S51). For example, as in the case of a decrease in vehicle speed, a display indicating that the system is in a non-operating state or a sound indicating a state change such as “Pon” may be issued once when switching between non-operating and operating in the meter. . After the departure alarm S37, the operation state alarm S51 or no alarm, the next image is waited (steps S30 and S31).

ステップS34にて白線が認識されない場合、幅認識フラグDetを0(オフ)とする(ステップS40)。続いて、次の画像を待機する。次の画像の処理時には、幅認識フラグDetがオフとなっているため、ステップS41にてイエスとなり、水平エッジ抽出処理をする(ステップS42)。続いて、関連判定処理(ステップS43)、車両か否かの判定(ステップS44)をする。車両であれば、車両エッジ情報(例えば、対象物幅Wの座標値とその中心位置)と、原画像水平エッジeを抽出した原画像10aをフレームメモリー31Aに保存する(ステップS45)。続いて、前フレームのデータをも用いて、走行路幅Wrを推測する(ステップS46)。走行路幅の推測に成功すると、幅認識フラグDetをオンとする(ステップS35)。さらに、水平エッジEから求めた走行路幅Wに基づいて逸脱の判定をする(ステップS36)。   If no white line is recognized in step S34, the width recognition flag Det is set to 0 (off) (step S40). Subsequently, the next image is waited. At the time of processing the next image, since the width recognition flag Det is off, the answer is YES in step S41, and horizontal edge extraction processing is performed (step S42). Subsequently, a relevance determination process (step S43) and a determination as to whether or not the vehicle is present (step S44). If it is a vehicle, the vehicle edge information (for example, the coordinate value of the object width W and its center position) and the original image 10a from which the original image horizontal edge e is extracted are stored in the frame memory 31A (step S45). Subsequently, the traveling road width Wr is estimated using the data of the previous frame (step S46). If the estimation of the travel path width is successful, the width recognition flag Det is turned on (step S35). Further, the departure is determined based on the travel path width W obtained from the horizontal edge E (step S36).

ステップS34にて白線が認識されず、同一の又は次の画像の処理でのステップS44にて前方車両が検出されない場合、すなわち、走行環境の白線が摩耗しており、かつ、前方車両が存在しないか、存在しても遠方か、走行路が一定以上のカーブか、又は前方車が車線変更か右左折等の場合には、走行路幅Wを推測する手がかりがなく、幅認識フラグをオフとする(ステップS47)。この場合、幅認識フラグDetがオフとなる画像数が一定以上の際に非動作状態とすべく、未検出カウンタCntをインクリメントする(ステップS48)。直近の画像処理にて幅検出フラグDetがオンであれば、ステップS39にて未検出カウンタCntは0に初期化されており、ステップS48が初回であれば、未検出カウンタの値は1となる。この白線の未認識と車両の非検出とが連続して一定回数Cp以上繰り返された際、ステップS49にてイエスとなり、動作ステータスStaをオフにする(ステップS50)。動作状態警報S51では、動作状態から非動作状態に変化すると、この動作状態を警報する。また、ステップS51では、白線認識の有無や未検出カウンタのカウント値に応じて動作状態を良、悪化、不能等の3段階としてもよい。   If the white line is not recognized in step S34, and the preceding vehicle is not detected in step S44 in the processing of the same or the next image, that is, the white line in the driving environment is worn and there is no preceding vehicle. If the vehicle is far away even if it exists, the road is more than a certain curve, or the vehicle ahead is changing lanes or turning left or right, there is no clue to guess the road width W and the width recognition flag is turned off. (Step S47). In this case, the non-detection counter Cnt is incremented so as to be in the non-operating state when the number of images for which the width recognition flag Det is turned off is more than a certain value (step S48). If the width detection flag Det is on in the most recent image processing, the undetected counter Cnt is initialized to 0 in step S39, and if the step S48 is the first time, the value of the undetected counter is 1. . When the unrecognition of the white line and the non-detection of the vehicle are continuously repeated a predetermined number of times Cp or more, the answer is YES in step S49 and the operation status Sta is turned off (step S50). In the operation state alarm S51, when the operation state is changed to the non-operation state, this operation state is alarmed. Further, in step S51, the operation state may be set in three stages such as good, worse, and impossible according to the presence / absence of white line recognition and the count value of the undetected counter.

・2.2幅認識フラグと動作状態の効果
上述のように実施例2にて幅認識フラグ等を用いると、白線認識処理による走行路幅の測定と、水平エッジ抽出処理による走行路幅の推測とを安定して並列処理することができる。このため、走行環境の変換に応じて、
白線が未検出となっても、水平エッジによる走行路幅の推測を直ちに行うことができ、また、水平エッジの走行路幅の推測を継続しながら、白線抽出処理を試みることができる。そして、幅認識フラグを用い、外部メモリー31Aに格納すると、両方の並列処理の各CPUが必要な際に独立して読み出すことができ、デッドロックを防止し、不要な待ち時間の発生を抑止し、高速処理を確保することができる。
2.2 Effect of width recognition flag and operation state As described above, when the width recognition flag or the like is used in the second embodiment, the measurement of the road width by the white line recognition process and the estimation of the road width by the horizontal edge extraction process are performed. Stable parallel processing is possible. For this reason, according to the conversion of the driving environment,
Even if the white line is not detected, it is possible to immediately estimate the traveling road width by the horizontal edge, and it is possible to try the white line extraction process while continuing the estimation of the traveling road width of the horizontal edge. Then, if the width recognition flag is used and stored in the external memory 31A, both CPUs for parallel processing can read them independently when necessary, preventing deadlocks and suppressing unnecessary waiting time. High speed processing can be ensured.

そして、車線逸脱警報装置が非動作となるのは、走行環境の白線が摩耗している等ドライバーが目視で白線の悪化状態を認識でき、前方を走行する先行車両が存在せず、存在しても遠方か、前方車が車線変更か右左折等の場合か、白線認識不能でかつ走行路が一定以上のカーブである場合となる。これらの走行環境の変化は、ドライバーにとって判りやすく、車線逸脱警報装置の動作・非動作がどのようになるか、ドライバーにとって予測しやすいものであり、車線逸脱警報装置を利用する上での納得感を高いものとすることができる。稼働時間の向上と、不稼働の理由の明確さとによっても、ドライバーからの信頼を向上させることができる。   And the lane departure warning device becomes inoperable because the white line in the driving environment is worn and the driver can visually recognize the deterioration state of the white line, and there is no preceding vehicle running ahead, However, it may be far away, when the vehicle ahead is a lane change or right / left turn, etc., or when the white line cannot be recognized and the traveling road has a certain curve or more. These changes in the driving environment are easy for the driver to understand, and it is easy for the driver to predict how the lane departure warning device will operate or not, and there is a sense of satisfaction when using the lane departure warning device. Can be high. The reliability from the driver can also be improved by improving the operation time and clarifying the reason for non-operation.

<2.3走行路幅の補正処理>
実施例2では、水平エッジの抽出による走行路幅の推測に際して、補正をするようにしても良い。この例では、再度図10を参照すると、前記走行路幅推測部18が、前記白線認識部60によって直近に認識された前記走行路幅Wrと、前記原画像水平エッジeによる前記対象物幅Wとに基づいて当該走行路幅Wrを補正する補正処理64を備える。この補正処理64は、白線認識部60による白線の抽出が不能となった際に、その直前の画像まで認識されていた白線がある際には、当該白線による走行路幅Wrを特定する。補正処理64は、この直近に認識された前記走行路幅Wrから、Wrの中心位置を中心として予め定められた車線幅W_COMを算出する。そして、水平エッジEから求めた対象物幅Wに加算することで、走行路幅Wを求める。すなわち、補正処理64は、直近の白線による走行路幅Wrを使用して、半車線幅W_COMを補正する。
<2.3 Road width correction process>
In the second embodiment, correction may be made when estimating the travel path width by extracting the horizontal edge. In this example, referring to FIG. 10 again, the travel path width estimation unit 18 detects the travel path width Wr most recently recognized by the white line recognition unit 60 and the object width W based on the original image horizontal edge e. And a correction process 64 for correcting the travel road width Wr. When the white line extraction by the white line recognition unit 60 becomes impossible, the correction process 64 specifies the travel road width Wr by the white line when there is a white line recognized up to the immediately preceding image. The correction process 64 calculates a predetermined lane width W_COM centered on the center position of Wr from the travel road width Wr recognized most recently. Then, the traveling road width W is obtained by adding to the object width W obtained from the horizontal edge E. That is, the correction process 64 corrects the half lane width W_COM using the travel road width Wr of the latest white line.

また、白線ではなく、直近までの磁気ネイルにより測定した走行路幅や、ナビゲーションシステム等から得た走行路幅があれば、この走行路幅Wrにより半車線幅W_COMを補正してもよい。   In addition, if there is a road width measured by a magnetic nail up to the last time instead of a white line or a road width obtained from a navigation system or the like, the half-lane width W_COM may be corrected by this road width Wr.

・2.3走行路幅の補正処理の効果
実施例2にて水平エッジによる走行路幅を直近の走行路幅で補正すると、白線認識がオフとなり水平エッジによる走行路幅に切り替わる際に、走行路幅が不連続に変化することなく連続させることができ、車線逸脱判定を安定させることができる。
-2.3 Effect of correction processing of travel road width When the travel road width by the horizontal edge is corrected with the latest travel road width in Example 2, the white line recognition is turned off and the travel road width is switched to the travel road width by the horizontal edge. Can be continued without changing discontinuously, and the lane departure determination can be stabilized.

<3.1操舵アシスト装置>
実施例3の操舵アシスト装置は、工場や物流の敷地内等にて先行する車両と同一の走行路を自動的に運行させるための装置である。すなわち、先頭車両への追従走行を制御する。
図15を参照すると、実施例3の操舵アシスト装置は、実施例1及び2と同様に、カメラ10と、水平エッジ抽出部12と、座標系変換部14と、関連判定部16と、走行路幅推測部18とを備える。関連判定部は、同一性判定処理20と、速度算出処理22と、関連判定処理24とを備えるようにしても良い。
そして、実施例3では特に、当該推測された走行路幅Wrに自車を案内する操舵量を算出する操舵量算出部70と、当該操舵量に基づいて自車を操舵する操舵駆動制御部36とを備えている。操舵量算出部70は、再度図9を参照すると、前方の走行路幅Wrが図示の如く直進の際には、ハンドルの操舵角は0度である。前方の走行路幅Wrの連続がカーブとなる際には、その曲率に応じたハンドルの操舵角を算出する。操舵駆動制御部36は、この操舵量に応じてモーター等を用いてハンドルを制御する。速度については、先行車との車間Lを一定とする速度としても良いし、予め定めた速度としても良い。
<3.1 Steering assist device>
The steering assist device according to the third embodiment is a device for automatically operating the same traveling path as that of a preceding vehicle in a factory, a distribution site, or the like. That is, the follow-up traveling to the leading vehicle is controlled.
Referring to FIG. 15, the steering assist device of the third embodiment is similar to the first and second embodiments. The camera 10, the horizontal edge extraction unit 12, the coordinate system conversion unit 14, the association determination unit 16, and the travel path A width estimation unit 18. The association determination unit may include an identity determination process 20, a speed calculation process 22, and an association determination process 24.
In the third embodiment, in particular, a steering amount calculation unit 70 that calculates a steering amount for guiding the vehicle to the estimated traveling road width Wr, and a steering drive control unit 36 that steers the vehicle based on the steering amount. And. Referring to FIG. 9 again, the steering amount calculation unit 70 has a steering angle of 0 degree when the forward traveling road width Wr goes straight as shown in the drawing. When the continuation of the front traveling road width Wr becomes a curve, the steering angle of the steering wheel corresponding to the curvature is calculated. The steering drive control unit 36 controls the steering wheel using a motor or the like according to the steering amount. The speed may be a speed at which the distance L between the preceding vehicle and the preceding vehicle is constant, or may be a predetermined speed.

・3.1操舵アシスト装置の効果
実施例3の操舵アシスト装置を用いると、先頭車両への追従走行が可能となり、しかも、工場等の敷地内の道路に白線を引く必要がない。また、例えば、直線部分は白線を引かず、特定の停車位置等にのみ白線を引くようにして、実施例2と実施例3とを組み合わせても良い。
3.1 Effects of the steering assist device When the steering assist device of the third embodiment is used, it is possible to follow the leading vehicle, and it is not necessary to draw a white line on a road in a site such as a factory. Further, for example, the second embodiment may be combined with the third embodiment so that the straight line portion is not drawn with a white line but only with a specific stop position.

本発明の一実施形態の構成例を示すブロック図である。(実施例1)It is a block diagram which shows the structural example of one Embodiment of this invention. Example 1 本実施形態のハードウエア資源の構成例を示すブロック図である。(実施例1から3)It is a block diagram which shows the structural example of the hardware resource of this embodiment. (Examples 1 to 3) 本実施形態の情報処理の一例を示すフローチャートである。(実施例1から3)It is a flowchart which shows an example of the information processing of this embodiment. (Examples 1 to 3) カメラ座標系と世界座標系との関係を示す説明図である。(実施例1から3)It is explanatory drawing which shows the relationship between a camera coordinate system and a world coordinate system. (Examples 1 to 3) 世界座標系での水平エッジの一例を示す説明図である。(実施例1から3)It is explanatory drawing which shows an example of the horizontal edge in a world coordinate system. (Examples 1 to 3) 世界座標系での対象物幅と走行路幅の一例を示す説明図である。(実施例1から3)It is explanatory drawing which shows an example of the target object width in a world coordinate system, and a travel path width. (Examples 1 to 3) 複数フレームの相関を使用する情報処理の一例を示すフローチャートである。(実施例1から3)It is a flowchart which shows an example of the information processing which uses the correlation of several frames. (Examples 1 to 3) 図8(A)及び(B)はウインドウーを使用した関連判定処理の一例を示す説明図である。(実施例1から3)FIGS. 8A and 8B are explanatory diagrams illustrating an example of the association determination process using a window. (Examples 1 to 3) 自車と先行車と時間間隔との関係を示す説明図である。(実施例1から3)It is explanatory drawing which shows the relationship between the own vehicle, a preceding vehicle, and a time interval. (Examples 1 to 3) 本実施形態の構成例を示すブロック図である。(実施例2)It is a block diagram which shows the structural example of this embodiment. (Example 2) 図11(A)及び(B)は白線抽出処理の一例を示す説明図である。(実施例2)FIGS. 11A and 11B are explanatory diagrams showing an example of white line extraction processing. (Example 2) 車線逸脱時間の一例を示す説明図である。(実施例1から3)It is explanatory drawing which shows an example of lane departure time. (Examples 1 to 3) 図13(A)及び(B)は原画像と二値化画像との一例を示す説明図である。(実施例1から3)FIGS. 13A and 13B are explanatory diagrams illustrating an example of an original image and a binarized image. (Examples 1 to 3) 本実施形態の情報処理の一例を示すフローチャートである。(実施例2)It is a flowchart which shows an example of the information processing of this embodiment. (Example 2) 本実施形態の構成例を示すブロック図である。(実施例3)It is a block diagram which shows the structural example of this embodiment. (Example 3)

符号の説明Explanation of symbols

e 原画像水平エッジ
E 水平エッジ
W 対象物幅
Wp 想定対象物幅
Wr 走行路幅
Wt 走行路から自車までの距離
W_MIN 想定対象物最小幅
W_MAX 想定対象物最大幅
Wc 先行車幅中心
L 対象物距離
V 速度ベクトル
Vv 先行車縦速度
Vh 先行車横速度
Vh_MAX 横速度上限値
Vp 想定速度ベクトル
Vm 自車速度
r 水平エッジ相関係数
t 時刻
td 時間差
Det 幅認識フラグ
Sta 動作ステータス
Cnt 未検出カウンタ
TTLC 車線逸脱時間
Φm 操舵角
10 カメラ
12 水平エッジ抽出部
14 座標系変換部
16 関連判定部
18 走行路幅推測部
20 同一性判定処理
22 速度算出処理
24 関連判定処理
30 コントローラー
31 メモリー
31A フレームメモリー
31B 外部メモリー
32 車速センサー
34 操舵角センサー
36 操舵角駆動制御部
38 ウインカー制御部
40 警報出力部
52 カメラ座標系
54 世界座標系
56 座標変換係数
58 関連
60 白線認識部
62 車線逸脱時間判定部
64 補正処理
100 走行環境推測装置
102 車線逸脱警報装置
104 操舵アシスト装置
e Horizontal edge of the original image
E Horizontal edge
W Object width
Wp Expected object width
Wr Road width
Wt Distance from road to own vehicle
W_MIN Expected minimum object width
W_MAX Expected maximum object width
Wc leading vehicle width center
L Object distance
V velocity vector
Vv preceding vehicle vertical speed
Vh preceding vehicle lateral speed
Vh_MAX Lateral speed upper limit value
Vp assumed velocity vector
Vm Vehicle speed
r Horizontal edge correlation coefficient
t time
td time difference
Det width recognition flag
Sta operation status
Cnt undetected counter
TTLC Lane departure time Φm Steering angle 10 Camera 12 Horizontal edge extraction unit 14 Coordinate system conversion unit 16 Relevance determination unit 18 Traveling road width estimation unit 20 Identity determination process 22 Speed calculation process 24 Relevance determination process 30 Controller 31 Memory 31A Frame memory 31B External memory 32 Vehicle speed sensor 34 Steering angle sensor 36 Steering angle drive control unit 38 Turn signal control unit 40 Alarm output unit 52 Camera coordinate system 54 World coordinate system 56 Coordinate conversion coefficient 58 Related 60 White line recognition unit 62 Lane departure time determination unit 64 Correction processing 100 driving environment estimation device 102 lane departure warning device 104 steering assist device

Claims (8)

運転者の視界に応じた走行環境を撮影するカメラと、
撮影された画像の原画像水平エッジeをカメラ座標系で抽出する水平エッジ抽出部と、
予め定められた座標変換係数に基づいて、前記カメラ座標系での原画像水平エッジeを世界座標系での水平エッジEに変換する座標系変換部と、
前記水平エッジEから対象物幅W及び対象物距離Lを算出すると共に、予め定められた想定対象物幅Wpに基づいて、前記対象物幅Wと前記走行環境の走行路幅Wrとの関連を判定する関連判定部と、
前記関連と前記対象物幅Wとに基づいて前記走行路幅Wrを推測する走行路幅推測部と、
を備えたことを特徴とする走行環境推測装置。
A camera that captures the driving environment according to the driver's field of view;
A horizontal edge extraction unit for extracting the original image horizontal edge e of the captured image in the camera coordinate system;
A coordinate system conversion unit that converts an original image horizontal edge e in the camera coordinate system into a horizontal edge E in the world coordinate system based on a predetermined coordinate conversion coefficient;
While calculating the object width W and the object distance L from the horizontal edge E, based on the predetermined assumed object width Wp, the relationship between the object width W and the traveling road width Wr of the traveling environment An association determination unit for determining;
A traveling road width estimation unit that estimates the traveling road width Wr based on the relation and the object width W;
A travel environment estimation device comprising:
前記カメラが、予め定められた時間差tdで前記走行環境の変化を連続して撮影し、
前記関連判定部が、
前記時間差tdで連続する画像間での前記水平エッジEの同一性を判定する同一性判定処理20と、
前記水平エッジEの同一性から当該水平エッジEの前記世界座標系での速度ベクトルVを算出する速度算出処理と、
予め定められた想定速度ベクトルVpと、算出された前記速度ベクトルVとから前記対象物幅Wと走行路幅Wrとの前記関連を判定する関連判定処理と、
を備えたことを特徴とする請求項1記載の走行環境推測装置。
The camera continuously shoots the change in the driving environment at a predetermined time difference td,
The association determination unit
An identity determination process 20 for determining the identity of the horizontal edge E between consecutive images at the time difference td;
A speed calculation process for calculating a speed vector V in the world coordinate system of the horizontal edge E from the identity of the horizontal edge E;
A relation determination process for determining the relation between the object width W and the travel path width Wr from a predetermined assumed speed vector Vp and the calculated speed vector V;
The travel environment estimation device according to claim 1, further comprising:
運転者の視界に応じた走行環境を撮影する撮影工程と、
撮影された画像の原画像水平エッジeをカメラ座標系で抽出する水平エッジ抽出工程と、
予め定められた座標変換係数に基づいて、前記カメラ座標系での原画像水平エッジeを世界座標系での水平エッジEに変換する座標系変換工程と、
前記水平エッジEから対象物幅W及び対象物距離Lを算出すると共に、予め定められた想定対象物幅Wpに基づいて、前記対象物幅Wと前記走行環境の走行路幅Wrとの関連を判定する関連判定工程と、
前記関連と前記対象物幅Wとに基づいて前記走行路幅Wrを推測する走行路幅推測工程とを備え、
前記関連判定工程が、
前記時間差tdで連続する画像間での前記水平エッジEの同一性を判定する同一性判定処理工程と、
前記水平エッジEの同一性から当該水平エッジEの前記世界座標系での速度ベクトルVを算出する速度算出処理工程と、
予め定められた想定速度ベクトルVpと、算出された前記速度ベクトルVとから前記対象物幅Wと走行路幅Wrとの前記関連を判定する関連判定処理工程と、
を備えたことを特徴とする走行環境推測方法。
A shooting process for shooting the driving environment according to the driver's field of view;
A horizontal edge extraction step of extracting the original image horizontal edge e of the captured image in the camera coordinate system;
A coordinate system conversion step of converting the original image horizontal edge e in the camera coordinate system into a horizontal edge E in the world coordinate system based on a predetermined coordinate conversion coefficient;
While calculating the object width W and the object distance L from the horizontal edge E, based on the predetermined assumed object width Wp, the relationship between the object width W and the traveling road width Wr of the traveling environment A related determination step for determining;
A traveling road width estimation step of estimating the traveling road width Wr based on the relation and the object width W;
The association determination step includes
Identity determination processing step for determining the identity of the horizontal edge E between images consecutive at the time difference td,
A speed calculation processing step of calculating a speed vector V in the world coordinate system of the horizontal edge E from the identity of the horizontal edge E;
A relation determination processing step of determining the relation between the object width W and the travel path width Wr from a predetermined assumed speed vector Vp and the calculated speed vector V;
A driving environment estimation method comprising:
請求項3記載の方法をCPUを用いて実行するための走行環境推測用プログラム。   A running environment estimation program for executing the method according to claim 3 using a CPU. 運転者の視界に応じた走行環境を撮影するカメラと、
撮影された画像の原画像水平エッジeをカメラ座標系で抽出する水平エッジ抽出部と、
予め定められた座標変換係数に基づいて、前記カメラ座標系での原画像水平エッジeを世界座標系での水平エッジEに変換する座標系変換部と、
前記水平エッジEから対象物幅W及び対象物距離Lを算出すると共に、予め定められた想定対象物幅Wpに基づいて、前記対象物幅Wと前記走行環境の走行路幅Wrとの関連を判定する関連判定部と、
前記関連と前記対象物幅Wとに基づいて前記走行路幅Wrを推測する走行路幅推測部と、
撮影された画像から前記走行環境のレーンを認識し走行路幅を算出する白線認識部と、
前記白線認識部によって算出される走行路幅Wrと操舵角Φmとに基づいて車線逸脱時間TTLCを判定すると共に、前記白線認識部によって白線が認識されない際には、前記走行路幅推測部によって推測された前記走行路幅Wrから車線逸脱時間TTLCを判定する車線逸脱時間判定部と、
前記車線逸脱時間TTLCに応じて警報を出力する警報出力部と、
を備えたことを特徴とする車線逸脱警報装置。
A camera that captures the driving environment according to the driver's field of view;
A horizontal edge extraction unit for extracting the original image horizontal edge e of the captured image in the camera coordinate system;
A coordinate system conversion unit that converts an original image horizontal edge e in the camera coordinate system into a horizontal edge E in the world coordinate system based on a predetermined coordinate conversion coefficient;
While calculating the object width W and the object distance L from the horizontal edge E, based on the predetermined assumed object width Wp, the relationship between the object width W and the traveling road width Wr of the traveling environment An association determination unit for determining;
A traveling road width estimation unit that estimates the traveling road width Wr based on the relation and the object width W;
A white line recognition unit for recognizing a lane of the driving environment from a photographed image and calculating a traveling road width;
A lane departure time TLC is determined based on the travel road width Wr and the steering angle Φm calculated by the white line recognition unit, and when the white line is not recognized by the white line recognition unit, it is estimated by the travel road width estimation unit. A lane departure time determination unit for determining a lane departure time TLC from the travel road width Wr,
An alarm output unit that outputs an alarm according to the lane departure time TLC;
A lane departure warning device characterized by comprising:
前記白線認識部が、前記白線を認識した際に幅認識フラグDetをオンとするとともに、認識されない際に当該幅認識フラグDetをオフとし、
前記走行路幅推測部が、前記幅認識フラグDetがオフの際に前記走行路幅Wrの推測処理をし、推測できた際に前記幅認識フラグDetをオンとし、推測できない際に前記幅認識フラグDetをオフとし、
前記警報出力部が、当該幅認識フラグDetのオンオフに応じて当該認識の動作状態Staを警報することを特徴とする請求項5記載の車線逸脱警報装置。
The white line recognition unit turns on the width recognition flag Det when recognizing the white line, and turns off the width recognition flag Det when not recognized.
When the width recognition flag Det is off, the travel path width estimation unit performs the estimation process of the travel path width Wr. When the estimation is successful, the width recognition flag Det is turned on. Turn off the flag Det,
6. The lane departure warning device according to claim 5, wherein the warning output unit warns the recognition operating state Sta in accordance with on / off of the width recognition flag Det.
前記走行路幅推測部が、前記白線認識部によって直近に認識された前記走行路幅Wrと、前記原画像水平エッジeによる前記対象物幅Wとに基づいて当該走行路幅Wrを補正する補正処理を、
備えたことを特徴とする請求項5又は6記載の車線逸脱警報装置。
The travel road width estimation unit corrects the travel road width Wr based on the travel road width Wr most recently recognized by the white line recognition unit and the object width W by the original image horizontal edge e. Processing
The lane departure warning device according to claim 5 or 6, further comprising:
運転者の視界に応じた走行環境を撮影するカメラと、
撮影された画像の原画像水平エッジeをカメラ座標系で抽出する水平エッジ抽出部と、
予め定められた座標変換係数に基づいて、前記カメラ座標系での原画像水平エッジeを世界座標系での水平エッジEに変換する座標系変換部と、
前記水平エッジEから対象物幅W及び対象物距離Lを算出すると共に、予め定められた想定対象物幅Wpに基づいて、前記対象物幅Wと前記走行環境の走行路幅Wrとの関連を判定する関連判定部と、
前記関連と前記対象物幅Wとに基づいて前記走行路幅Wrを推測する走行路幅推測部と、
当該推測された走行路幅Wrに自車を案内する操舵量を算出する操舵量算出部と、
当該操舵量に基づいて自車を操舵する操舵駆動制御部と、
を備えたことを特徴とする操舵アシスト装置
A camera that captures the driving environment according to the driver's field of view;
A horizontal edge extraction unit for extracting the original image horizontal edge e of the captured image in the camera coordinate system;
A coordinate system conversion unit that converts an original image horizontal edge e in the camera coordinate system into a horizontal edge E in the world coordinate system based on a predetermined coordinate conversion coefficient;
While calculating the object width W and the object distance L from the horizontal edge E, based on the predetermined assumed object width Wp, the relationship between the object width W and the traveling road width Wr of the traveling environment An association determination unit for determining;
A traveling road width estimation unit that estimates the traveling road width Wr based on the relation and the object width W;
A steering amount calculation unit for calculating a steering amount for guiding the vehicle to the estimated traveling road width Wr;
A steering drive control unit that steers the vehicle based on the steering amount;
A steering assist device characterized by comprising
JP2008103144A 2008-04-11 2008-04-11 Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus Pending JP2009252198A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008103144A JP2009252198A (en) 2008-04-11 2008-04-11 Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008103144A JP2009252198A (en) 2008-04-11 2008-04-11 Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus

Publications (1)

Publication Number Publication Date
JP2009252198A true JP2009252198A (en) 2009-10-29

Family

ID=41312795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008103144A Pending JP2009252198A (en) 2008-04-11 2008-04-11 Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus

Country Status (1)

Country Link
JP (1) JP2009252198A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134139A (en) * 2009-12-24 2011-07-07 Mitsubishi Motors Corp Notification apparatus for vehicle
WO2013111310A1 (en) * 2012-01-26 2013-08-01 トヨタ自動車株式会社 Object recognition device and vehicle control device
JP2013203340A (en) * 2012-03-29 2013-10-07 Fuji Heavy Ind Ltd Drive assisting system of vehicle
KR20140004410A (en) * 2012-07-02 2014-01-13 현대모비스 주식회사 Reliability calaulation method of lane detection and apparatus for calcaulating for performing thereof
KR101405193B1 (en) * 2012-10-26 2014-06-27 현대자동차 주식회사 Driving lane recognition method and system
JP2015099496A (en) * 2013-11-19 2015-05-28 株式会社デンソー Target recognition device
US10332400B2 (en) 2015-07-01 2019-06-25 Denso Corporation Intra-lane travel control apparatus and intra-lane travel control method
CN110088807A (en) * 2016-12-16 2019-08-02 歌乐株式会社 Separator bar identification device
US20200331528A1 (en) * 2017-11-06 2020-10-22 Isuzu Motors Limited Steering control device, steering control method and recording medium
CN114495561A (en) * 2021-12-29 2022-05-13 苏州摩卡智行信息科技有限公司 Station path guiding method, system and storage medium in intelligent networking environment

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134139A (en) * 2009-12-24 2011-07-07 Mitsubishi Motors Corp Notification apparatus for vehicle
WO2013111310A1 (en) * 2012-01-26 2013-08-01 トヨタ自動車株式会社 Object recognition device and vehicle control device
CN104067329A (en) * 2012-01-26 2014-09-24 丰田自动车株式会社 Object recognition device and vehicle control device
JP2013203340A (en) * 2012-03-29 2013-10-07 Fuji Heavy Ind Ltd Drive assisting system of vehicle
KR20140004410A (en) * 2012-07-02 2014-01-13 현대모비스 주식회사 Reliability calaulation method of lane detection and apparatus for calcaulating for performing thereof
KR101912085B1 (en) 2012-07-02 2018-10-26 현대모비스 주식회사 Reliability calaulation method of lane detection and Apparatus for calcaulating for performing thereof
KR101405193B1 (en) * 2012-10-26 2014-06-27 현대자동차 주식회사 Driving lane recognition method and system
US9470788B2 (en) 2012-10-26 2016-10-18 Hyundai Motor Company Lane recognition method and system
US9540002B2 (en) 2013-11-19 2017-01-10 Denso Corporation Target recognition apparatus
JP2015099496A (en) * 2013-11-19 2015-05-28 株式会社デンソー Target recognition device
US10332400B2 (en) 2015-07-01 2019-06-25 Denso Corporation Intra-lane travel control apparatus and intra-lane travel control method
CN110088807A (en) * 2016-12-16 2019-08-02 歌乐株式会社 Separator bar identification device
CN110088807B (en) * 2016-12-16 2023-08-08 歌乐株式会社 Separation line identification device
US20200331528A1 (en) * 2017-11-06 2020-10-22 Isuzu Motors Limited Steering control device, steering control method and recording medium
CN114495561A (en) * 2021-12-29 2022-05-13 苏州摩卡智行信息科技有限公司 Station path guiding method, system and storage medium in intelligent networking environment
CN114495561B (en) * 2021-12-29 2023-11-10 苏州摩卡智行信息科技有限公司 Station path guiding method, system and storage medium in intelligent networking environment

Similar Documents

Publication Publication Date Title
JP7106664B2 (en) Intelligent driving control method and device, electronic device, program and medium
JP2009252198A (en) Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus
US9690996B2 (en) On-vehicle image processor
JP5966965B2 (en) Lane boundary departure control device and lane boundary departure suppression method
EP2871629B1 (en) Vehicle-mounted environment recognition device
JP5022609B2 (en) Imaging environment recognition device
JP4654163B2 (en) Vehicle surrounding environment recognition device and system
US7710291B2 (en) Apparatus and method for generating driver assistance information of traveling vehicle
EP2369552B1 (en) Approaching object detection system
US20160307054A1 (en) Surrounding Environment Recognition Device
US9257045B2 (en) Method for detecting a traffic lane by means of a camera
JP5904925B2 (en) Vehicle periphery monitoring device
US9965690B2 (en) On-vehicle control device
US11987239B2 (en) Driving assistance device
JP2008168811A (en) Traffic lane recognition device, vehicle, traffic lane recognition method, and traffic lane recognition program
KR101240499B1 (en) Device and method for real time lane recogniton and car detection
JP2002197470A (en) Device for detecting traffic lane
JP4541609B2 (en) Stop line recognition device and vehicle driving support device using the stop line recognition device
JP5355209B2 (en) Navigation device, determination method and determination program for traveling lane of own vehicle
JP6200780B2 (en) Lane recognition determination device
JP5125214B2 (en) Obstacle detection method and obstacle detection device
JP6253175B2 (en) Vehicle external environment recognition device
JP4092974B2 (en) Vehicle travel control device
JP2000315255A (en) Back side direction monitoring device for vehicle and back side direction monitoring alarm device for vehicle
JP4847303B2 (en) Obstacle detection method, obstacle detection program, and obstacle detection apparatus