JP2016016751A - Curve detection device - Google Patents
Curve detection device Download PDFInfo
- Publication number
- JP2016016751A JP2016016751A JP2014140806A JP2014140806A JP2016016751A JP 2016016751 A JP2016016751 A JP 2016016751A JP 2014140806 A JP2014140806 A JP 2014140806A JP 2014140806 A JP2014140806 A JP 2014140806A JP 2016016751 A JP2016016751 A JP 2016016751A
- Authority
- JP
- Japan
- Prior art keywords
- curve
- vehicle
- distance
- start point
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
この発明は、車両に搭載された撮像装置によって撮像された車線境界線(車線区画線ともいう。)を含む画像に基づいて車両前方のカーブを検出するカーブ検出装置に関し、例えば、電動パワーステアリング装置を備える自動操舵車両あるいは自動操舵アシスト車両等に搭載して好適なカーブ検出装置に関する。 The present invention relates to a curve detection device that detects a curve ahead of a vehicle based on an image including a lane boundary line (also referred to as a lane marking) imaged by an imaging device mounted on the vehicle, for example, an electric power steering device. The present invention relates to a curve detection device suitable for being mounted on an automatic steering vehicle or an automatic steering assist vehicle including
特許文献1には、操舵補助モータの実モータ駆動電流と実モータ駆動電圧から算出した回転角速度等及び検出車速に基づきファジールールに従ってファジー推論を行うことで車両の走行状態を推定し、走行状態の推定値に基づいて前記操舵補助モータの駆動電流を補正し、車両の実際の走行状態に適合した操舵力になるよう前記操舵補助モータを制御する電動パワーステアリング装置が開示されている(特許文献1の要約)。
In
特許文献1に開示された技術によれば、例えば長距離を長時間走行する走行状態のときには操舵力を軽くし、山道等の屈曲路では操舵力を少し重くして手応えを大きくしたいという要求のある走行状態のときにはその要求にスムーズに応えることができるとされている。
According to the technique disclosed in
しかしながら、上記従来技術に係るファジー推論を用いた電動パワーステアリング装置では、車両の実際の走行状態に適合した操舵力に制御するために、操舵補助モータの実モータ駆動電流と実モータ駆動電圧を検出する必要がある(特許文献1の[0011]、[0012])ので、カーブ進入前の車両に対しては適用することができない。 However, in the electric power steering apparatus using fuzzy inference according to the above-described prior art, the actual motor drive current and the actual motor drive voltage of the steering assist motor are detected in order to control the steering force in accordance with the actual running state of the vehicle. ([0011], [0012] of Patent Document 1), it cannot be applied to a vehicle before entering a curve.
つまり、上記従来技術では、カーブ進入前に車両前方のカーブを安定的に検出することができないので、特に、カーブ進入時における操舵アシスト制御について改良の余地がある。 In other words, in the above-described conventional technology, the curve ahead of the vehicle cannot be detected stably before entering the curve, so there is room for improvement in particular regarding steering assist control when entering the curve.
この発明はこのような課題を考慮してなされたものであり、カーブ進入前に車両前方のカーブ(カーブ開始点を含む。)を安定的に検出することを可能とするカーブ検出装置を提供することを目的とする。 The present invention has been made in consideration of such problems, and provides a curve detection device that can stably detect a curve ahead of a vehicle (including a curve start point) before entering the curve. For the purpose.
この発明に係るカーブ検出装置は、車両に搭載された撮像装置によって撮像された車線境界線を含む画像に基づいて車両前方のカーブを検出するカーブ検出装置において、前記車線境界線を含む画像に対して画像処理を行うことによって前記車両前方のカーブの可能性があるカーブ候補を検出するカーブ候補検出部と、前記カーブ候補検出部にて検出された前記カーブ候補が、カーブであるか否かを、ファジー推論を用いて決定するカーブ決定部と、を備えている。 The curve detection device according to the present invention is a curve detection device that detects a curve ahead of a vehicle based on an image including a lane boundary line imaged by an imaging device mounted on the vehicle. A curve candidate detection unit that detects a curve candidate that may be a curve ahead of the vehicle by performing image processing, and whether or not the curve candidate detected by the curve candidate detection unit is a curve. And a curve determination unit that determines using fuzzy inference.
この発明によれば、車線境界線を含む画像に対して画像処理を行うことによって検出された車両前方のカーブ候補が、カーブであるか否かを、ファジー推論を用いて決定するようにしたので、前記カーブを安定的に検出することができる。 According to the present invention, whether the curve candidate in front of the vehicle detected by performing image processing on the image including the lane boundary line is a curve is determined using fuzzy inference. The curve can be detected stably.
この場合、前記ファジー推論は、前記撮像装置によって撮像された異なるフレームの画像から算出される前記カーブ候補の前記車両への接近距離と、前記異なるフレーム間の時間と車速から算出される前記車両の移動距離とが略等しい場合、という前件部を有するルールからなる新規なメンバーシップ関数を含むことで、前記カーブを安定的に検出する、それなりに妥当な結果が得られる。 In this case, the fuzzy inference is calculated based on the approach distance of the curve candidate calculated from the images of different frames captured by the imaging device, the time between the different frames, and the vehicle speed. By including a new membership function consisting of a rule having an antecedent part in the case where the moving distance is substantially equal, a reasonable result for detecting the curve stably can be obtained.
より好ましくは、前記カーブ決定部は、前記ファジー推論に用いる4つのルールの内、少なくとも2つのルールを選択して前記カーブ中、カーブ開始点候補の正誤を決定するものであり、前記4つのルールは、現在フレームの画像から算出される前記カーブ開始点候補までの前記車両からの距離が、余りにも遠い距離である場合、又は余りにも近い距離である場合、誤とする第1ルール、現在フレームの画像から算出される前記カーブ開始点候補までの前記車両からの距離が、前記余りにも遠い距離と前記余りにも近い距離との間の中間の距離である場合、正とする第2ルール、現在フレームと過去フレームの画像から算出される前記カーブ開始点候補の前記車両への接近距離と、現在フレームと過去フレーム間の時間と車速とから算出される前記車両の移動距離との間に大きな隔たりがある場合には、誤とする第3ルール、及び、現在フレームと過去フレームの画像から算出される前記カーブ開始点候補の前記車両への接近距離と、現在フレームと過去フレーム間の時間と車速とから算出される前記車両の移動距離とが略同一である場合には、正とする第4ルールからなるように構成する。 More preferably, the curve determination unit selects at least two rules among the four rules used for the fuzzy inference, and determines the correctness of the curve start point candidate in the curve. The four rules Is the first rule that is erroneous if the distance from the vehicle to the curve start point candidate calculated from the image of the current frame is too far or too close A second rule that is positive if the distance from the vehicle to the curve start point candidate calculated from the image is an intermediate distance between the distance too far and the distance too close, Calculated from the approach distance of the curve start point candidate calculated from the image of the frame and the past frame to the vehicle, the time between the current frame and the past frame, and the vehicle speed. If there is a large gap between the moving distance of the vehicle and the third rule to be erroneous, and the approach distance of the curve start point candidate calculated from the images of the current frame and the past frame to the vehicle When the moving distance of the vehicle calculated from the time between the current frame and the past frame and the vehicle speed is substantially the same, the fourth rule is set to be positive.
このように、カーブ決定部が、ファジー推論に用いる4つのルールの内、少なくとも2つのルールを選択してカーブ開始点候補の正誤を決定するようにしたので、カーブ開始点である確からしさを高くすることができる。4つのルール全てを選択することでよりロバスト性の高いカーブ開始点を検出することができる。 In this way, the curve determination unit selects at least two of the four rules used for fuzzy inference and determines whether the curve start point candidate is correct or not. Therefore, the probability of being the curve start point is increased. can do. By selecting all four rules, a more robust curve start point can be detected.
なお、前記カーブ決定部は、選択した前記2つのルールの各メンバーシップ関数の合成出力重心と閾値とを比較してカーブを決定する際に、前記閾値を、撮像された前記画像の前記車線境界線を表す画像信号の大小に応じて増減することとすれば、車線境界線を表す画像信号の大小は、レーンマークの擦れ、天候等の道路周囲環境により変化するので、道路周囲環境によらず、カーブ候補からカーブを一定の確からしさで決定することができる。 The curve determining unit compares the threshold of the combined output centroid of each membership function of the two selected rules with a threshold to determine the threshold, and the threshold is used as the lane boundary of the captured image. If the image signal representing the line increases or decreases according to the size of the image signal representing the lane boundary line, the size of the image signal representing the lane boundary line changes depending on the surrounding environment of the road such as lane marks and weather. The curve can be determined with certain certainty from the curve candidates.
また、前記カーブ決定部が、前記カーブ又はカーブ開始点を決定した場合、前記カーブ又は前記カーブ開始点の手前から車両走行支援開始信号をさらに生成することが好ましい。カーブ開始点手前からの車両走行支援開始信号の生成により、好適な車両走行支援、例えば確実な自動操舵、違和感のない操舵アシスト、適時のアクセルペダル反力の付与等を実行することができる。 Moreover, when the said curve determination part determines the said curve or a curve start point, it is preferable to further generate | occur | produce a vehicle travel assistance start signal from before the said curve or the said curve start point. By generating a vehicle travel support start signal from before the curve start point, it is possible to execute suitable vehicle travel support, for example, reliable automatic steering, steering assistance without a sense of incongruity, timely application of accelerator pedal reaction force, and the like.
この発明によれば、カーブ進入前に車両前方のカーブ(カーブ開始点を含む。)を安定的に検出することができるという効果が達成される。 According to the present invention, the effect of being able to stably detect the curve ahead of the vehicle (including the curve start point) before entering the curve is achieved.
以下、この発明に係るカーブ検出装置について好適な実施形態を挙げ、添付の図面を参照して詳細に説明する。 Hereinafter, preferred embodiments of a curve detection device according to the present invention will be described in detail with reference to the accompanying drawings.
図1は、実施形態に係るカーブ検出装置10を備えるレーンマーク認識装置11が搭載された車両12の概略的構成を示している。
FIG. 1 shows a schematic configuration of a
レーンマーク認識装置11は、走行路上に設けられた車線境界線(以下、レーンマークという。)に沿って走行する車両12の運転者によるステアリングの操舵操作やブレーキペダル等による制動操作等を支援するために車両12に搭載された運転支援装置14の機能の一部として構成されている。
The lane mark recognizing device 11 supports a steering operation by a driver of a
なお、この実施形態では、カーブ検出装置10を備えるレーンマーク認識装置11を運転支援装置14に適用した例を示しているが、自動運転装置に適用してもよい。
In this embodiment, an example in which the lane mark recognition device 11 including the curve detection device 10 is applied to the
レーンマークは、車線境界(車線区画)を示すマークであり、レーンマークには、間隔を持って設けられた破線の白線(線分)からなる連続線(みなし連続線ともいう。)、実線の白線等の連続線の他、ボッツドットやキャッツアイ等からなる連続マーク(みなし連続線と考えることもできる。)も含まれる。 The lane mark is a mark indicating a lane boundary (lane division), and the lane mark is a continuous line (also referred to as a deemed continuous line) composed of broken white lines (segments) provided at intervals. In addition to continuous lines such as white lines, continuous marks made up of bots dots, cat's eyes, etc. (also considered as continuous lines) are also included.
この実施形態に係るカーブ検出装置10を備えるレーンマーク認識装置11は、基本的には、車両12の前方を撮像するカメラ16(撮像装置)と、カメラ16により撮像された画像からレーンマークを認識し、レーンマークからカーブ(カーブ開始点を含む)を検出する電子制御ユニット20(Electronic Control Unit:以下、ECU20という。)とから構成される。
A lane mark recognition device 11 including the curve detection device 10 according to this embodiment basically recognizes a lane mark from a camera 16 (imaging device) that images the front of the
カメラ16は、車両12内のフロントウインドシールド上部に搭載され、車両12の前方を、前記フロントウインドシールドを通して撮像し、車両前方の走行路を含む画像を撮像する。カメラ16は、例えば、デジタルビデオカメラであり、1秒間に、例えば数枚乃至数十枚の画像(一例としては、15フレームの画像)を撮像し画像信号(映像信号)Siを出力する。この場合、カメラ16には、その取付部を原点とし、車両12の車幅方向(水平方向)をX軸、車軸方向(進行方向、前方方向)をY軸、車高方向(垂直方向、鉛直方向)をZ軸とする実空間座標系が定義されている。
The
レーンマーク認識装置11は、上記したカメラ16及びECU20の他に、速度センサ22を備える。速度センサ22は、車両12の速度信号である車速v[m/s]を出力する。
The lane mark recognition device 11 includes a
ECU20は、マイクロコンピュータを含む計算機であり、CPU(中央処理装置)、メモリであるROM(EEPROMも含む。)、RAM(ランダムアクセスメモリ)、その他、A/D変換器、D/A変換器等の入出力装置、計時部としてのタイマ等を有しており、CPUがROMに記録されているプログラムを読み出し実行することで各種機能実現部(機能実現手段)として機能する。
The
この実施形態において、ECU20は、レーンマーク認識部36、カーブ候補検出部42、及びカーブ決定部44等として機能する。
In this embodiment, the
また、ECU20は、記憶装置として、画像メモリ30と、レーンマークメモリ34と、カーブ候補メモリ40とを備える。
The
運転支援装置14は、上記したカーブ検出装置10及びレーンマーク認識装置11に、舵角センサ26を備えて構成される。
The driving
舵角センサ26は、車両12の操向装置(ステアリング)の舵角信号である操舵角[deg]を出力する。
The
ECU20は、舵角センサ26の出力から車両12の進行方向{車両12の車幅方向をX軸とし、車両12の前方のY軸方向を0[deg](基準)とするXY平面上のX軸方向への傾き、すなわち舵角}を計算する。舵角センサ26をヨーレートセンサ(不図示)に代替してもよい。
The
運転支援装置14は、レーンマーク認識装置11により認識されたレーンマーク及びカーブ検出装置10により検出されたカーブ(カーブ開始点、曲率半径、カーブ終了点を含む。)に基づき、運転者がステアリング(不図示)を把持している等の所定条件下に、操舵装置50と制動装置52と加速装置54を制御することにより、車両12が、車両12の幅方向の両側のレーンマークに挟まれる走行路、すなわち車線から逸脱しないように、換言すれば車両12が車線の概ね中心を走れるよう、且つカーブ(カーブ開始点)の手前で制動装置52や図示しないアクセルペダル反力付与機構を働かせる等、運転者の走行支援を実行する。
Based on the lane mark recognized by the lane mark recognition device 11 and the curve detected by the curve detection device 10 (including the curve start point, the radius of curvature, and the curve end point), the driving
図2に概要を示すように、この実施形態の要部に係るカーブ決定部44は、ファジー推論に用いる第1、第2、第3、及び第4ルール(各ルールは、前件部と後件部とを有する。)からなる4つのルールを有するファジー推論部70と、脱ファジー化部(非ファジー化部)72とを備える。
As schematically shown in FIG. 2, the
ここで、ファジー推論部70の第1、第2、第3、及び4ルールについて概要を説明する。 Here, an outline of the first, second, third, and fourth rules of the fuzzy inference unit 70 will be described.
第1ルールは、カメラ16で撮像される現在フレームの画像から算出されるカーブ開始点候補までの車両12からの距離Dnが、余りにも遠い距離である場合、又は余りにも近い距離である場合、誤(誤検出:グレード「0」〜「−1」)とするルールである。
The first rule is that the distance Dn from the
第2ルールは、カメラ16で撮像される現在フレームの画像から算出されるカーブ開始点候補までの車両12からの距離Dnが、余りにも遠い距離と余りにも近い距離との間の中間の距離である場合、正(正検出:グレード「0」〜「1」)とするルールである。
The second rule is that the distance Dn from the
第3ルールは、カメラ16で撮像される現在フレームと過去フレームの画像から算出される前記カーブ開始点候補の車両12への接近距離Diと、現在フレームと過去フレーム間の時間ΔTに車速vを乗算して算出される車両12の移動距離Dr(Dr=ΔT×v)との間に大きな隔たりがある場合には、誤(誤検出:グレード「0」〜[−1])とする。
The third rule is that the vehicle speed v is determined by the approach distance Di of the candidate curve start point calculated from the images of the current frame and the past frame captured by the
なお、この実施形態において、過去フレームは、1フレーム前のフレームにしており、現在フレームと過去フレーム間の時間ΔT(以下、1フレーム時間、基準フレーム時間、経過時間あるいは単に時間という。)は、ΔT=0.066[sec]になる。従って、この第3ルールでは、画像から算出される前記カーブ開始点候補の車両12への接近距離Diと、直近の2フレーム間の時間ΔTと車速v(2フレーム間の平均車速、あるいは現在フレームの車速v、又は過去フレームの車速v)とから算出される車両12の移動距離Dr(Dr=ΔT×v)との間に大きな隔たりがある場合には、誤(誤検出:グレード「0」〜「−1」)とする。
In this embodiment, the past frame is a frame one frame before, and the time ΔT between the current frame and the past frame (hereinafter referred to as one frame time, reference frame time, elapsed time, or simply time) is ΔT = 0.066 [sec]. Therefore, in the third rule, the approach distance Di of the curve start point candidate calculated from the image to the
なお、車速vが36[km/h]であれば、車両12は、1秒[sec]間に10[m]進み、1フレーム間に6.6[m]進むことになるので、カーブ開始点の手前で減速を促すのに適当なタイミングとすることができる。また、6.6[m]は、車両12から近い距離であるのでカメラ16による前方距離の検出精度も高い。車速vに応じて過去フレームまでのフレーム数を変更して時間ΔTを変更するようにしてもよく、基準フレーム時間ΔT(ΔT=0.066[sec])を可変可能とし、時間ΔTを車速vに対して段階的又は連続的に可変するように変更してもよい。
If the vehicle speed v is 36 [km / h], the
第4ルールは、現在フレームと過去フレームの画像から算出される前記カーブ開始点候補の車両12への接近距離Diと、現在フレームと過去フレーム間の時間ΔTと車速vとから算出される車両12の移動距離Drとが略同一である場合には、正(正検出:グレード「0」〜「1」)とする。
The fourth rule is that the
カーブ決定部44は、第1、第2、第3、及び第4ルール中、少なくとも2つのルールを選択した後、脱ファジー化部72にて、重心法により重心を求めて、車両カーブ開始点までの距離Dnが正しいか否かを決定する。
The
次に、基本的には、以上のように構成される車両12の動作について、カーブ決定部44を含むカーブ検出装置10のファジー推論部70の動作を中心として、図3のフローチャートを参照しながらより詳しく説明する。
Next, basically, with respect to the operation of the
ステップS1にて、ECU20は、所定時間である基準フレーム時間ΔT(ΔT=0.066[sec])毎に、つまり、カメラ16による車両前方の画像の撮像毎に、撮像された画像(多値画像であるグレースケール画像)を画像メモリ30に取り込む(記憶する。)。
In step S <b> 1, the
次いで、ステップS2にて、レーンマーク認識部36によるレーンマーク認識処理を伴う画像処理が実行される。この場合、エッジ抽出部32は、カメラ16にて撮像された画像から所定輝度以上(路面上の明度が所定明度以上)の画像を取り込んで2値化処理を行った上で、画像全体を1ラインずつ水平方向に走査しながら微分処理を行って画像全体のエッジ(エッジ画像)を抽出する。
Next, in step S2, image processing involving lane mark recognition processing by the lane
また、このステップS2で、レーンマーク認識部36は、エッジ抽出部32で抽出された画像全体のエッジから、レーンマークとしての特徴を持つ画像を抽出し、レーンマークとして、レーンマークメモリ34に取り込む(記憶する。)。さらに、後述するように、カーブの開始点(変曲点)の特徴を持つと判定したレーンマークは、カーブ開始点候補として、カーブ候補メモリ40に取り込む(記憶する。)。レーンマークメモリ34及びカーブ候補メモリ40は、現在フレームで抽出されたレーンマークの他、所定数の過去フレームで抽出されたレーンマークを記憶する。
In step S2, the lane
なお、レーンマークメモリ34及びカーブ候補メモリ40にレーンマークとしての特徴を持つ画像を取り込む(記憶する)際には、鉛直上方から見たような平面視エッジ(平面視エッジ画像)に画像変換して取り込み、取り込んだ後は、平面視エッジ画像により処理を行うようにしている。
When an image having a feature as a lane mark is captured (stored) in the
図4A、図4B、及び図4Cは、それぞれレーンマークメモリ34に取り込んだ平面視エッジ画像59、60、61を示している。図4A、図4B、及び図4Cにおいて、それぞれ縦方向に並列的に延びる2本の太い破線は、車両12が走行する車線の左右に存するレーンマークを示しており、図4Bは、1フレーム前の過去の時点t0の過去フレームの平面視エッジ画像60、図4Cは、現在の時点t1の現在フレームの平面視エッジ画像61、図4Aは、2フレーム前の過去の時点(−t1)の平面視エッジ画像59をそれぞれ示している。
4A, FIG. 4B, and FIG. 4C show planar
図4A、図4B、及び図4C中、横軸の細い実線は、縦軸(距離軸)上でのカメラ16の取付位置、すなわち車両12の位置(前方距離=ゼロ値)を表している。
4A, 4B, and 4C, the thin solid line on the horizontal axis represents the mounting position of the
現在フレームよりも2フレーム前の過去の時点(−t1)の平面視エッジ画像59には、カーブ開始点Ccが撮像されていなく、過去フレームの平面視エッジ画像60には、カーブ開始点Ccが撮像され、現在フレームの平面視エッジ画像61では、カーブ開始点Ccがカメラ16の取付位置、すなわちカメラ16を搭載した車両12に接近している状態が撮像されていることが分かる。
The curve start point Cc is not captured in the planar
次に、ステップS3にて、平面視エッジ画像59、60、61のそれぞれが、レーンマークメモリ34に取り込まれる都度、カーブ候補検出部42により平面視エッジ画像59、60、61中にカーブ開始点Ccの候補(カーブ開始点Cc候補)が存在するか否か、換言すれば、カーブ開始点Cc候補の有無が判定される。
Next, every time each of the planar
カーブ開始点Ccの候補(カーブ開始点Cc候補)が存在するか否か(カーブ開始点Cc候補の有無)の判定は、カーブ候補(カーブ開始点候補)検出部42により、平面視エッジ画像59、60、61中、車線(左右のレーンマークの間の間隔・距離)の左側又は右側のいずれかの予め特定されたレーンマークに基づき判定する。この実施形態では、図4A、図4B、及び図4Cに、2点鎖線で囲んだ右側のレーンマークLMを特定して、カーブ開始点Cc候補を検出している。なお、車線の左右両側のレーンマークを利用してカーブ開始点Cc候補を検出してもよい。
It is determined by the curve candidate (curve start point candidate)
図5は、カーブ候補検出部42により平面視エッジ画像Ieからカーブ開始点Cc候補を検出する処理例の説明図である。
FIG. 5 is an explanatory diagram of a processing example in which the curve
カーブ開始点Cc候補の検出処理では、車両12の手前側で検出されているレーンマークLm1を奥側に延長した延長線Lpと、奥側で検出されているレーンマークLm2、Lm3、Lm4(必要であれば、前後のレーンマークの端点同士を接続した線も含める。)と、の横方向(車幅方向)の差(距離Ds)が0値から大きくなる位置を検出したら、その位置がカーブ開始点Cc候補であると検出(認識)する(ステップS3:YES)。カーブ開始点Cc候補が検出されたレーンマークLMが撮像されている平面視エッジ画像Ieを、カーブ候補メモリ40に取り込む(記憶する。)。
In the detection process of the curve start point Cc candidate, an extension line Lp obtained by extending the lane mark Lm1 detected on the front side of the
図6は、カーブ候補メモリ40に取り込まれた時点t0(過去フレーム)と、時点t1(現在フレーム)のレーンマークLMの平面視エッジ画像60、61(以下、単に、画像60、61ともいう。)を示している。
FIG. 6 shows planar
次いで、ステップS4にて、カーブ決定部44は、先ず、図6中、現在フレームの画像61に基づき車両12からのカーブ開始点Cc候補までの距離Dnを算出すると共に、過去フレームの画像60に基づき車両12からカーブ開始点Cc候補までの距離Dpを算出する。次に、現在フレームと過去フレームの画像61、60の距離Dn、Dpの差から求められるカーブ開始点Cc候補の1フレーム(ΔT=0.066[sec])の間での車両12への接近距離Di(Di=Dp−Dn)を算出する。
Next, in step S4, the
次に、ステップS5にて、カーブ決定部44は、現在フレームと過去フレーム間の時間ΔTと、車速vと、から車両12の移動距離DrをDr=ΔT×v=0.066vとして算出する。
Next, in step S5, the
次いで、ステップS6にて、カーブ決定部44は、第1、第2、第3、及び第4ルールのファジー推論を実行する。なお、ファジー推論は、第1、第2、第3、及び第4ルール中、少なくとも2つのルールを実行することで、それなりに妥当な結果が得られる。
Next, in step S6, the
図7Aは、実験(実走テスト)乃至シミュレーション(機械学習等)を含む経験則により生成した第1ルールのメンバーシップ関数fm1(Dn)を図形で示している。 FIG. 7A graphically shows the membership function fm1 (Dn) of the first rule generated by empirical rules including experiments (actual running tests) or simulations (machine learning, etc.).
横軸は、現在フレームの距離Dn[m](図6参照)が入力とされ、縦軸は、グレードG1(適合度、確率)とされている。実際上、グレードG1は、「誤(誤検出)」を表す0〜−1の値を採る。このため、入力である距離Dnに対して、他のルールとの比較・理解の便宜のために正負を逆にして描いた図7Aに示すメンバーシップ関数fm1(Dn)から返されるグレードG1には、負号を付ける。例えば、負号が付けられたグレードG1=−1は、−1のグレードで正しく検出(実際には、誤検出)された、と解釈する。 The horizontal axis is the current frame distance Dn [m] (see FIG. 6), and the vertical axis is the grade G1 (goodness of fit, probability). In practice, the grade G1 takes a value of 0 to −1 representing “false (false detection)”. For this reason, the grade G1 returned from the membership function fm1 (Dn) shown in FIG. 7A drawn with the positive and negative signs reversed for the convenience of comparison and understanding with other rules with respect to the input distance Dn. , Put a negative sign. For example, a grade G1 = −1 with a negative sign is interpreted as being correctly detected (actually a false detection) with a grade of −1.
図7A中、距離Dn[m]が0〜D1[m]の範囲ではG1=1(余りにも近い距離なので誤検出)、D1〜D2[m]の範囲ではy=−a11x+b11(yは関数、xは変数)の関数でグレードG1は1から0まで減少し、D2〜D3[m]の範囲ではG1=0が維持され、D3〜D5[m]の範囲では、y=a12x−b12の関数でグレードG1は0から1まで増加し、D5[m]を上回る範囲では、G1=1(余りにも遠い距離なので誤検出)に設定されている。距離D5は、例えば数十mに設定する。 In FIG. 7A, when the distance Dn [m] is in the range of 0 to D1 [m], G1 = 1 (false detection because the distance is too close), and in the range of D1 to D2 [m], y = −a11x + b11 (y is a function, x is a variable) and grade G1 decreases from 1 to 0, G1 = 0 is maintained in the range of D2 to D3 [m], and y = a12x−b12 in the range of D3 to D5 [m]. The grade G1 increases from 0 to 1, and in the range exceeding D5 [m], G1 = 1 is set (false detection because it is too far). The distance D5 is set to several tens of meters, for example.
上述したように、メンバーシップ関数fm1(Dn)から脱ファジー化部72に返される(出力される)グレードG1は、0〜D1[m]の範囲では、余りにも近い距離なので誤検出のG1=−1とされ、D1〜D2[m]の範囲では、G1は−1から誤検出なしの0まで増加し、D2〜D3[m]の範囲では、G1=0とされ、D3〜D5[m]の範囲では、G1は、0から−1まで減少し、D5[m]を上回ると、余りにも遠い距離なので誤検出のG1=−1になる。 As described above, the grade G1 returned (output) from the membership function fm1 (Dn) to the defuzzification unit 72 is too close in the range of 0 to D1 [m], so that the misdetected G1 = In the range of D1 to D2 [m], G1 increases from -1 to 0 without false detection, and in the range of D2 to D3 [m], G1 = 0 and D3 to D5 [m ], G1 decreases from 0 to −1, and when it exceeds D5 [m], G1 = −1 because of a false detection because it is too far away.
図7Bは、実験乃至シミュレーションを含む経験則により生成した第2ルールのメンバーシップ関数fm2(Dn)を図形で示している。 FIG. 7B graphically shows the membership function fm2 (Dn) of the second rule generated by an empirical rule including experiment or simulation.
横軸は、第1ルールと同様に、現在フレームの距離Dn[m]が入力とされ、縦軸は、グレードG2(適合度、確率)とされている。グレードG2は、「正(正検出)」を表す0〜1の値を採る。例えば、グレードG2=1は、1のグレードで正しく検出された、と解釈する。 As in the first rule, the horizontal axis is the current frame distance Dn [m], and the vertical axis is the grade G2 (compliance, probability). The grade G2 takes a value of 0 to 1 representing “positive (positive detection)”. For example, the grade G2 = 1 is interpreted as being correctly detected in the first grade.
図7B中、メンバーシップ関数fm2(Dn)から脱ファジー化部72に返される(出力される)グレードG2は、Dn[m]が0〜D1[m]の範囲ではG2=0とされ、D1〜D2[m]の範囲ではy=a21x−b21の関数でG2は0から1まで増加し、D2〜D4[m]の範囲ではG2=1(中間の距離なので正検出)とされ、D4〜D6[m]の範囲ではy=−a22x+b22の関数でG2は1から0まで減少し、D6[m]を上回る範囲では、G2=0に設定されている(0<D1<D2<D3<D4<D5<D6)。 In FIG. 7B, the grade G2 returned (output) from the membership function fm2 (Dn) to the defuzzification unit 72 is set to G2 = 0 when Dn [m] is in the range of 0 to D1 [m]. In the range of D2 [m], G2 increases from 0 to 1 by a function of y = a21x-b21, and in the range of D2 to D4 [m], G2 = 1 (positive detection because of intermediate distance), and D4 to In the range of D6 [m], G2 decreases from 1 to 0 by a function of y = −a22x + b22, and in the range exceeding D6 [m], G2 = 0 is set (0 <D1 <D2 <D3 <D4 <D5 <D6).
次に、図8Aは、第3ルールのメンバーシップ関数fm3(Dr)の図形を示している。 Next, FIG. 8A shows a figure of the membership function fm3 (Dr) of the third rule.
メンバーシップ関数fm3(Dr)の横軸は、現在フレームと過去フレーム間の時間ΔT{この実施形態では、現在フレームと1フレーム前のフレーム(過去フレーム)間の時間とされ、ΔT=0.066[sec]と車速vとから算出される車両12の移動距離Dr(Dr=ΔT×v=0.066v[m])で、メンバーシップ関数fm3(Dr)の関数値がゼロ値(グレードG3=0)とされる。
The horizontal axis of the membership function fm3 (Dr) is the time ΔT between the current frame and the past frame (in this embodiment, the time between the current frame and the previous frame (past frame), ΔT = 0.066). With the movement distance Dr of the
縦軸は、グレードG3(適合度、確率)とされている。メンバーシップ関数fm3(Dr)の形状が、1フレーム時間ΔTと車速vに依存していることに留意する。 The vertical axis is grade G3 (compliance, probability). Note that the shape of the membership function fm3 (Dr) depends on one frame time ΔT and the vehicle speed v.
上述したように、メンバーシップ関数fm3(Dr)は、移動距離Drが、Dr=0.066vで関数値fm3(0.066v)=0とされる。そして、実験乃至シミュレーションを含む経験則により生成した係数αをα=数倍(例示)として、メンバーシップ関数fm3(Dr)は、より具体的には、移動距離Drの正側に、0.066vからα×v×0.066=0.066αvまでy=a32x−b32の関数でグレードG3が0から1まで増加し、0.066αvを上回るとG3=1に設定される。また、移動距離Drの負側に向かって、0.066vから−α×v×0.066=−0.066αvまでy=−a31x+b31の関数でグレードG3が0から1まで増加し、−0.066αvを下回るとG3=1に設定される。 As described above, the membership function fm3 (Dr) has the movement distance Dr of Dr = 0.066v and the function value fm3 (0.066v) = 0. The coefficient α generated by an empirical rule including experiment or simulation is α = several times (exemplary), and more specifically, the membership function fm3 (Dr) is 0.066v on the positive side of the moving distance Dr. From grade .alpha..times.v.times.0.066 = 0.066.alpha.v, the grade G3 increases from 0 to 1 with the function y = a32x-b32, and when it exceeds 0.066.alpha.v, G3 = 1 is set. Further, toward the negative side of the moving distance Dr, the grade G3 increases from 0 to 1 with a function of y = −a31x + b31 from 0.066v to −α × v × 0.066 = −0.066αv, and −0. If it falls below 066αv, G3 = 1 is set.
このメンバーシップ関数fm3(Dr)に対する横軸の入力は、カメラ16で撮像される現在フレームの画像61(図6参照)と1フレーム前(0.066[sec])の過去フレームの画像60(図6参照)から算出されるカーブ開始点Cc候補の車両12への接近距離Di(Di=Dp−Dn)(図6参照)とされる。
The horizontal axis input to the membership function fm3 (Dr) is the current frame image 61 (see FIG. 6) captured by the
実際上、メンバーシップ関数fm3(Dr)のグレードG3は、距離差が大きい誤(誤検出)を表す0〜−1の値を採るので、移動距離Drに対して、他のルールとの比較・理解の便宜のために正負を逆にして描いた図8Aに示すメンバーシップ関数fm3(Dr)に、接近距離Diを入力として返されるグレードG3には、負号を付ける。例えば、負号が付けられたグレードG3=−1は、−1のグレードで正しく検出(実際には、誤検出)された、と解釈する。 In practice, the grade G3 of the membership function fm3 (Dr) takes a value of 0 to −1 representing a false (false detection) with a large distance difference, so that the moving distance Dr is compared with other rules. For the convenience of understanding, a negative sign is attached to the grade G3 that is returned with the approach distance Di as an input to the membership function fm3 (Dr) shown in FIG. For example, a grade G3 = −1 with a negative sign is interpreted as being correctly detected (actually a false detection) with a grade of −1.
この場合、メンバーシップ関数fm3(Dr)から脱ファジー化部72に返される(出力される)グレードG3は、画像61、60から算出された入力である接近距離Di[m]が、メンバーシップ関数fm3(Dr)の、1フレーム時間ΔTと車速vから算出された移動距離Dr=0.066vと同値(Di=Dr)である場合には、G3=0(誤検知された確率が一番低いと考える。)とされる。
In this case, the grade G3 returned (output) from the membership function fm3 (Dr) to the defuzzification unit 72 has an approach distance Di [m] calculated from the
画像61、60から算出された接近距離Di[m]が、1フレーム時間ΔTと車速vから算出された移動距離Dr=0.066vよりも長いα倍のDr=0.066αvになるまで、距離差が大きくなるので、グレードG3は、0から−1まで減少し、Dr=0.066αvを上回ると、グレードG3は、G3=−1(−1のグレードで正しく検出されたと解釈する。実際には、誤検出)になる。
The distance until the approach distance Di [m] calculated from the
画像61、60から算出された接近距離Di[m]が、1フレーム時間ΔTと車速vから算出された移動距離Dr=0.066vよりも短いDr=−0.066αvになるまで、距離差が大きくなるので、グレードG3は、0から−1まで減少し、Dr=−0.066αvを下回ると、グレードG3は、G3=−1(−1のグレードで正しく検出されたと解釈する。実際には、誤検出)になる。
The distance difference is until the approach distance Di [m] calculated from the
図8Bは、第4ルールのメンバーシップ関数fm4(Dr)を示している。 FIG. 8B shows the membership function fm4 (Dr) of the fourth rule.
メンバーシップ関数fm4(Dr)の横軸は、現在フレームと過去フレーム間の時間ΔTと車速vとから算出される車両12の移動距離DrがDr=ΔT×v=0.066v[m]で、メンバーシップ関数fm4(Dr)の関数値が1値(グレードG4=1)とされる。
The horizontal axis of the membership function fm4 (Dr) indicates that the moving distance Dr of the
縦軸は、グレードG4(適合度、確率)とされている。この場合にも、メンバーシップ関数fm4(Dr)の形状が、1フレーム時間ΔTと車速vに依存していることに留意する。 The vertical axis is grade G4 (compliance, probability). Also in this case, it should be noted that the shape of the membership function fm4 (Dr) depends on the one frame time ΔT and the vehicle speed v.
より具体的に、メンバーシップ関数fm4(Dr)は、係数βを例えば(0<β<1)として、Dr=(1−β)0.066vとDr=(1+β)0.066vとの間で関数値fm4((1−β)0.066v)=1とされ、実験乃至シミュレーションを含む経験則により生成した係数αをα=数倍として、移動距離Drの正側にα×v×0.066=0.066αvまで、y=−a42x+b42の関数でグレードG4が1から0まで減少し、0.066αvを上回るとG4=0に設定される。また、移動距離Drの負側に向かって−α×v×0.066=−0.066αvまで、y=a41x+b41の関数でグレードG4が1から0まで減少し、−0.066αvを下回るとG4=0に設定される。 More specifically, the membership function fm4 (Dr) has a coefficient β of (0 <β <1), for example, between Dr = (1−β) 0.066v and Dr = (1 + β) 0.066v. The function value fm4 ((1-β) 0.066v) = 1 is set, and the coefficient α generated by an empirical rule including experiment or simulation is set to α = several times, and α × v × 0. The grade G4 decreases from 1 to 0 by a function of y = −a42x + b42 until 066 = 0.066αv, and when it exceeds 0.066αv, G4 = 0 is set. Further, toward the negative side of the moving distance Dr, the grade G4 decreases from 1 to 0 with a function of y = a41x + b41 until −α × v × 0.066 = −0.066αv, and when it falls below −0.066αv, G4 = 0 is set.
このメンバーシップ関数fm4(Dr)に対する横軸の入力は、第3ルールと同様に、カメラ16で撮像される現在フレームの画像61(図6参照)と1フレーム(0.066[sec])前の過去フレームの画像60(図6参照)から算出されるカーブ開始点Cc候補の車両12への接近距離Di(Di=Dp−Dn)(図6参照)とされる。
Similar to the third rule, the horizontal axis for this membership function fm4 (Dr) is the current frame image 61 (see FIG. 6) captured by the
メンバーシップ関数fm4(Dr)のグレードG4は、距離差が小さい正(正検出)を表す0〜1の値を採るので、グレードG4=1は、1のグレードで正しく検出(正検出)されたとする。 Since the grade G4 of the membership function fm4 (Dr) takes a value of 0 to 1 indicating a positive (positive detection) with a small distance difference, it is assumed that the grade G4 = 1 is correctly detected (positive detection) in the first grade. To do.
すなわち、メンバーシップ関数fm4(Dr)から脱ファジー化部72に返される(出力される)グレードG4は、画像61、60から算出された入力である接近距離Di[m]が、メンバーシップ関数fm4(Dr)の、1フレーム時間ΔTと車速vから算出された移動距離Dr=0.066vに対し、Di=(1−β)0.066vからDi=(1+β)0.066vの間にある場合には、G4=1、すなわち、正検知された確率が一番高い、つまり正しく検知されたとする。
That is, the grade G4 returned (output) from the membership function fm4 (Dr) to the defuzzification unit 72 has an approach distance Di [m] calculated from the
画像61、60から算出された接近距離Di[m]が、1フレーム時間ΔTと車速vから算出された移動距離Dr=(1+β)0.066vよりも長いα倍のDr=0.066αvになるまで、距離差が小さくなくなるので、グレードG4は、1から0まで減少し、Dr=0.066αvを上回る範囲では、グレードG4は、G4=0(距離差が小さいとは言えない。)になる。
The approach distance Di [m] calculated from the
画像61、60から算出された接近距離Di[m]が、1フレーム時間ΔTと車速vから算出された移動距離Dr=(1−β)0.066vよりも短い移動距離Dr=−0.066αvになるまで、距離差が小さくなくなるので、グレードG4は、1から0まで減少し、移動距離DrがDr=−0.066αvを下回ると、グレードG4は、G4=0(距離差が小さいとは言えない。)になる。
The approach distance Di [m] calculated from the
このようにしてファジー推論が実行されると、次いで、ステップS7にて、カーブ決定部44は、脱ファジー化部72にて脱ファジー化処理、ここではカーブ開始点の決定処理を行う。
When the fuzzy inference is thus performed, in step S7, the
この脱ファジー化処理では、第1、第2、第3、及び第4ルールで求められた各グレードG1〜G4の合成値の平均(合成出力重心)Gmeanと閾値Thとを比較し、平均Gmeanが閾値Th以上(Gmean≧Th)であれば、現在フレームの画像61からカーブ開始点Cc候補までの車両12からの距離Dnは、正しい値であると同定し、カーブ開始点Cc候補をカーブ開始点Ccであると同定する。
In this defuzzification process, the average (synthetic output center of gravity) Gmean of the grades G1 to G4 obtained by the first, second, third, and fourth rules is compared with the threshold Th, and the average Gmean is compared. Is equal to or greater than the threshold Th (Gmean ≧ Th), the distance Dn from the
なお、ステップS6のファジー推論は、ステップS7にて、平均Gmeanを求めるために、少なくとも2つのルールを用いればよく、用いたルール毎に適合する閾値Thを予め設定しておく。 Note that the fuzzy inference in step S6 may use at least two rules in order to obtain the average Gmean in step S7, and a threshold Th that matches each rule used is set in advance.
また、平均Gmeanと閾値Thとを比較して、平均Gmeanが閾値Th以上(Gmean≧Th)であれば、現在フレームの画像61からカーブ開始点Cc候補までの車両12からの距離Dnは、正しい値であると同定し、カーブ開始点Cc候補をカーブ開始点C1であると同定する際に、レーンマークを表す画像信号Siの振幅(エッジの強度)が、晴天時やレーンマークが擦れていなくて境界が際だって見える等くっきりしている場合には、道路面画像とレーンマーク画像(車線境界線の画像)との輝度差(反射輝度差)が大きくなるので、距離Dnや接近距離Diをより確実に算出できることを考慮して、閾値Thを低下させるようにしてもよい。このように閾値Thを増減することにより、カーブ開始点Cc候補からカーブ開始点Ccを道路環境によらず、一定の確からしさで決定することができる。
If the average Gmean is compared with the threshold Th and the average Gmean is equal to or greater than the threshold Th (Gmean ≧ Th), the distance Dn from the
ステップS8にて、カーブ開始点C1を決定した(ステップS8:YES)とき、ステップS9にて、カーブ決定部44は、車両走行支援開始信号とカーブ開始点C1までの距離Dnを運転支援装置14に出力する。
When the curve start point C1 is determined in step S8 (step S8: YES), in step S9, the
これにより、運転支援装置14は、レーンマークメモリ34に格納されているレーンマークに沿って、車両12がレーンマーク間の車線から逸脱しないように、換言すれば、車両12がカーブ車線の中心を走れるように操舵装置50、制動装置52及び加速装置54等を制御して運転者の走行支援を実行する。また、車両12がカーブ開始点C1の手前で十分に減速してないと判断したときには、制動装置52を作動させアシストする。あるいは制動装置52を作動させることを促すために、アクセルペダル(不図示)に反力を付与する。
Accordingly, the driving
[実施形態のまとめ及び変形例]
(1)概要説明
以上説明したように、上述した実施形態に係るカーブ検出装置10は、車載のカメラ16の画像信号Siを画像処理して、カーブ開始点Ccの検出を行う。その際にカーブ開始点Ccを正しくできたか否かの判定を以下の、ファジー推論を使用する第1及び第2手法を用いている。
[Summary of Embodiment and Modifications]
(1) Outline Description As described above, the curve detection device 10 according to the above-described embodiment performs image processing on the image signal Si of the vehicle-mounted
先ず、時点t1での現在フレームの画像61から、車両12からカーブ開始点Ccの位置(図6の破線で示す補間線が交差する位置)を求めた後、画像61上で、車両12(カメラ16の取付位置)からカーブ開始点Ccまでの距離Dnを算出する。この場合、算出した距離Dnが余りにも遠方の場合、撮像画像の分解能(遠くは低く、近くは高い)との関係で正しく検出された可能性が低いと考える(第1ルール)。また、算出した距離Dnが余りにも近い場合、ノイズ等により正しく検出された可能性が低いと考える(第1ルール)。さらに、算出した距離Dnが中間の距離である場合、正しく検出された可能性が高いと考える(第2ルール)。以上、第1手法という。
First, from the
次に、画像60上で算出される過去フレーム(時点t0)のカーブ開始点Ccの距離Dpから、画像61上で算出される現在フレーム(時点t1)のカーブ開始点Ccの距離Dnまでの接近距離Di(Di=Dp−Dn)を求め、この接近距離Diと、車速vと両フレーム間の時間(1フレーム時間)ΔTとから求まる車両12の移動距離Dr(Dr=v×ΔT)とを比較し、距離差|Di−Dr|が大きい場合には正しく検出された可能性が低いと考え(第3ルール)、距離差|Di−Dr|が小さい場合には正しく検出された可能性が高いと考える(第4ルール)。以上、第2手法という。
Next, the approach from the distance Dp of the curve start point Cc of the past frame (time t0) calculated on the
上記の第1及び第2手法に関して、ファジー推論を用いて、カーブ開始点Ccを安定的に検出する。 With respect to the first and second methods, the curve start point Cc is stably detected using fuzzy inference.
(2)詳細説明
上述した実施形態に係るカーブ検出装置10は、車両12に搭載されたカメラ16によって撮像されたレーンマークを含む画像に基づいて車両前方のカーブ開始点Ccを検出する。
(2) Detailed Description The curve detection device 10 according to the above-described embodiment detects a curve start point Cc in front of the vehicle based on an image including a lane mark imaged by the
このカーブ検出装置10は、カーブ候補検出部42が、前記レーンマークを含む画像に対して画像処理を行った画像59、60、61から車両12前方のカーブ開始点Ccの可能性があるカーブ開始点Cc候補を検出し、カーブ決定部44が、カーブ候補検出部42にて検出された前記カーブ開始点Cc候補が、正しいカーブ開始点Ccであるか否かを、ファジー推論を用いて決定している。
In the curve detection device 10, the curve
このように、レーンマークを含む画像に対して画像処理を行うことによって検出された車両12の前方のカーブ開始点Cc候補が、正しいカーブ開始点Ccであるか否かを、ファジー推論を用いて決定するようにしたので、カーブ開始点Ccを安定的に検出することができる。
Thus, whether or not the curve start point Cc candidate ahead of the
この場合、前記ファジー推論は、カメラ16によって撮像された異なるフレーム(時点t1の現在フレームと、例えば、その1フレーム前の時点t0の過去フレーム)の画像61、60から算出されるカーブ開始点Cc候補の車両12への接近距離Diと、前記異なるフレーム(現在フレームと過去フレーム)間の時間ΔTと車速vから算出される車両12の移動距離Drとが略等しい場合、という前件部を有するルール(第3ルール及び/又は第4ルール)を含むことで、この新規なメンバーシップ関数{fm3(Dr)及び/又はfm4(Dr)}を含むことで、カーブ開始点Ccを安定的に検出する、それなりに妥当な結果が得られる。
In this case, the fuzzy inference is based on the curve start point Cc calculated from the
カーブ決定部44は、ファジー推論に用いる第1、第2、第3、及び第4の4つのルールの内、少なくとも2つのルールを選択してカーブ開始点Cc候補の正誤を決定するようにすることで、カーブ開始点Ccである確からしさを高くすることができる。
The
前記4つのルールは、第1ルールが、現在フレームの画像61から算出されるカーブ開始点Cc候補までの車両12からの距離Dnが、余りにも遠い距離である場合、又は余りにも近い距離である場合、誤とする、メンバーシップ関数fm1(Dn)等で表されるルールにしている。
In the four rules, when the distance Dn from the
第2ルールは、現在フレームの画像61から算出されるカーブ開始点Cc候補までの車両12からの距離Dnが、前記余りにも遠い距離と前記余りにも近い距離との間の中間の距離である場合、正とする、メンバーシップ関数fm2(Dn)等で表されるルールにしている。
The second rule is that the distance Dn from the
第3ルールは、現在フレームと過去フレームの画像61、60から算出されるカーブ開始点Cc候補の車両12への接近距離Diと、現在フレームと過去フレーム間の時間ΔTと車速vとから算出される車両12の移動距離Drとの間に大きな隔たりがある場合には、誤とする、メンバーシップ関数fm3(Dr)等で表されるルールにしている。
The third rule is calculated from the approach distance Di of the curve start point Cc candidate calculated from the
第4ルールは、現在フレームと過去フレームの画像61、60から算出されるカーブ開始点Cc候補の車両12への接近距離Diと、現在フレームと過去フレーム間の時間ΔTと車速vとから算出される車両12の移動距離Drとが略同一である場合には、正とする、メンバーシップ関数fm4(Dr)等で表されるルールにしている。
The fourth rule is calculated from the approach distance Di of the curve start point Cc candidate calculated from the
なお、カーブ決定部44は、選択した前記2つのルールの各メンバーシップ関数{fm1(Dn)、fm2(Dn)、fm3(Dr)、fm4(Dr)のうちの2つ}の合成出力重心Gmeanと閾値Thとを比較してカーブ開始点Ccを決定する際に、閾値Thを、撮像された画像の前記レーンマークを表す画像信号Siの大小に応じて増減するようにしてもよい。前記レーンマークを表す画像信号Siの振幅の大小が、前記レーンマークの擦れ、天候等の道路周囲環境により変化するので、画像信号Siの大小に応じて閾値Thを増減すれば、道路周囲環境によらず、カーブ開始点Cc候補からカーブ開始点Ccを一定の確からしさで決定することができる。
Note that the
そして、カーブ決定部44は、カーブ開始点Ccを決定した場合、カーブ開始点Ccの手前から車両走行支援開始信号をさらに生成することで、好適な車両12の走行支援、例えば確実な自動操舵、違和感のない操舵アシスト、適時のアクセルペダル反力の付与等を実行することができる。
When the
(3)変形例
図9に示すように、ファジー推論の新たなルールとして、地図情報から得られるカーブ104の曲率半径Rと、画像上のカーブ104の曲線と、カーブ104のカーブ開始点Ccの手前の直線路100の延長線102との間の水平方向の乖離距離106、108、110が正しく対応していれば、カーブ104が正しく検知されたとするルールを導入してもよい。新たなルールを導入することによりカーブ開始点Cc及びカーブ検出のロバスト性をさらに向上させることができる。
(3) Modification As shown in FIG. 9, as a new rule for fuzzy inference, the curvature radius R of the
また、この発明は、上述の実施形態に限らず、この明細書の記載内容に基づき、種々の構成を採り得ることはもちろんである。 Further, the present invention is not limited to the above-described embodiment, and it is needless to say that various configurations can be adopted based on the contents described in this specification.
10…カーブ検出装置 11…レーンマーク認識装置
12…車両 14…運転支援装置
16…カメラ 20…ECU
22…速度センサ 26…舵角センサ
36…レーンマーク認識部 40…カーブ候補メモリ
42…カーブ候補検出部 44…カーブ決定部
50…操舵装置 52…制動装置
54…加速装置
59…2フレーム前の過去の平面視エッジ画像
60…1フレーム前の過去フレームの平面視エッジ画像
61…現在フレームの平面視エッジ画像 70…ファジー推論部
72…脱ファジー化部
DESCRIPTION OF SYMBOLS 10 ... Curve detection apparatus 11 ... Lane
DESCRIPTION OF
Claims (5)
前記車線境界線を含む画像に対して画像処理を行うことによって前記車両前方のカーブの可能性があるカーブ候補を検出するカーブ候補検出部と、
前記カーブ候補検出部にて検出された前記カーブ候補が、カーブであるか否かを、ファジー推論を用いて決定するカーブ決定部と、
を備えることを特徴とするカーブ検出装置。 In a curve detection device for detecting a curve ahead of a vehicle based on an image including a lane boundary line imaged by an imaging device mounted on the vehicle,
A curve candidate detection unit for detecting a curve candidate that may be a curve ahead of the vehicle by performing image processing on an image including the lane boundary;
A curve determination unit that determines whether or not the curve candidate detected by the curve candidate detection unit is a curve, using fuzzy inference;
A curve detection device comprising:
前記ファジー推論は、前記撮像装置によって撮像された異なるフレームの画像から算出される前記カーブ候補の前記車両への接近距離と、前記異なるフレーム間の時間と車速から算出される前記車両の移動距離とが略等しい場合、という前件部を有するルールを含む
ことを特徴とするカーブ検出装置。 The curve detection device according to claim 1,
The fuzzy inference includes an approach distance to the vehicle of the curve candidate calculated from images of different frames imaged by the imaging device, a moving distance of the vehicle calculated from a time between the different frames and a vehicle speed. A curve detection device comprising a rule having an antecedent part when the two are substantially equal.
前記カーブ決定部は、
前記ファジー推論に用いる4つのルールの内、少なくとも2つのルールを選択して前記カーブ中、カーブ開始点候補の正誤を決定するものであり、
前記4つのルールは、
現在フレームの画像から算出される前記カーブ開始点候補までの前記車両からの距離が、余りにも遠い距離である場合、又は余りにも近い距離である場合、誤とする第1ルール、
現在フレームの画像から算出される前記カーブ開始点候補までの前記車両からの距離が、前記余りにも遠い距離と前記余りにも近い距離との間の中間の距離である場合、正とする第2ルール、
現在フレームと過去フレームの画像から算出される前記カーブ開始点候補の前記車両への接近距離と、現在フレームと過去フレーム間の時間と車速とから算出される前記車両の移動距離との間に大きな隔たりがある場合には、誤とする第3ルール、
及び、現在フレームと過去フレームの画像から算出される前記カーブ開始点候補の前記車両への接近距離と、現在フレームと過去フレーム間の時間と車速とから算出される前記車両の移動距離とが略同一である場合には、正とする第4ルール
からなることを特徴とするカーブ検出装置。 The curve detection device according to claim 1,
The curve determination unit
Among the four rules used for the fuzzy inference, at least two rules are selected to determine whether the curve start point candidate is correct or incorrect in the curve.
The four rules are:
A first rule that is false if the distance from the vehicle to the curve start point candidate calculated from the image of the current frame is too far or too close;
A second rule that is positive if the distance from the vehicle to the curve start point candidate calculated from the image of the current frame is an intermediate distance between the distance too far and the distance too close ,
There is a large difference between the approach distance of the curve start point candidate calculated from the images of the current frame and the past frame to the vehicle, and the moving distance of the vehicle calculated from the time and the vehicle speed between the current frame and the past frame. If there is a gap, the third rule is false,
Further, the approach distance of the curve start point candidate calculated from the images of the current frame and the past frame to the vehicle, and the moving distance of the vehicle calculated from the time between the current frame and the past frame and the vehicle speed are approximately. A curve detecting device comprising a fourth rule that is positive if they are the same.
前記カーブ決定部は、
選択した前記2つのルールの各メンバーシップ関数の合成出力重心と閾値とを比較してカーブを決定する際に、前記閾値を、撮像された前記画像の前記車線境界線を表す画像信号の大小に応じて増減する
ことを特徴とするカーブ検出装置。 In the curve detection device according to claim 3,
The curve determination unit
When the curve is determined by comparing the composite output centroid of each membership function of the two selected rules and the threshold value, the threshold value is set to the magnitude of the image signal representing the lane boundary line of the captured image. A curve detection device characterized by increasing or decreasing in response.
前記カーブ決定部は、
前記カーブ又はカーブ開始点を決定した場合、前記カーブ又は前記カーブ開始点の手前から車両走行支援開始信号をさらに生成する
ことを特徴とするカーブ検出装置。 In the curve detection apparatus according to any one of claims 1 to 4,
The curve determination unit
When the curve or the curve start point is determined, a vehicle travel support start signal is further generated from before the curve or the curve start point.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014140806A JP2016016751A (en) | 2014-07-08 | 2014-07-08 | Curve detection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014140806A JP2016016751A (en) | 2014-07-08 | 2014-07-08 | Curve detection device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016016751A true JP2016016751A (en) | 2016-02-01 |
Family
ID=55232317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014140806A Pending JP2016016751A (en) | 2014-07-08 | 2014-07-08 | Curve detection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016016751A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019151110A1 (en) * | 2018-01-31 | 2019-08-08 | パイオニア株式会社 | Road surface information acquisition method |
-
2014
- 2014-07-08 JP JP2014140806A patent/JP2016016751A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019151110A1 (en) * | 2018-01-31 | 2019-08-08 | パイオニア株式会社 | Road surface information acquisition method |
JPWO2019151110A1 (en) * | 2018-01-31 | 2021-01-28 | パイオニア株式会社 | Road surface information acquisition method |
JP2022068242A (en) * | 2018-01-31 | 2022-05-09 | パイオニア株式会社 | Road surface information acquisition method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106647776B (en) | Method and device for judging lane changing trend of vehicle and computer storage medium | |
US9245188B2 (en) | Lane detection system and method | |
US10147003B2 (en) | Lane detection device and method thereof, curve starting point detection device and method thereof, and steering assistance device and method thereof | |
KR101517181B1 (en) | System and method for warning lane departure | |
JP3925488B2 (en) | Image processing apparatus for vehicle | |
JP5716443B2 (en) | Lane boundary detection device and lane boundary detection method | |
JP6512920B2 (en) | Lane detection device and method thereof, lane display device and method thereof | |
WO2013136878A1 (en) | Object detection device | |
US9352746B2 (en) | Lane relative position estimation method and system for driver assistance systems | |
JP2018180663A (en) | Road parameter estimation device | |
JPWO2020090251A1 (en) | Object recognition device, object recognition method and object recognition program | |
JP2009237776A (en) | Vehicle drive supporting apparatus | |
JP5884635B2 (en) | Driving environment detection device, driving environment detection program, and light control device | |
JP2007220013A (en) | Device for detecting white line for vehicle | |
JP6189816B2 (en) | Traveling line recognition device | |
JP2009252198A (en) | Travel environment presuming device, method and program, and traffic lane deviation alarm device and steering assisting apparatus | |
JP2009143546A (en) | Vehicular travel speed controller and control method | |
JP6408935B2 (en) | Traveling line recognition device | |
JP5538098B2 (en) | Vehicle white line recognition device | |
JP2016016751A (en) | Curve detection device | |
JP5125214B2 (en) | Obstacle detection method and obstacle detection device | |
CN106355152A (en) | Method and system for identifying current road vehicles as well as car video recorder | |
JP6299171B2 (en) | Driving assistance device | |
EP3944141A1 (en) | Lane keeping assist system of vehicle and lane keeping method using the same | |
JP4847303B2 (en) | Obstacle detection method, obstacle detection program, and obstacle detection apparatus |