JP2015199423A - 走路推定装置及び走路推定プログラム - Google Patents

走路推定装置及び走路推定プログラム Download PDF

Info

Publication number
JP2015199423A
JP2015199423A JP2014079260A JP2014079260A JP2015199423A JP 2015199423 A JP2015199423 A JP 2015199423A JP 2014079260 A JP2014079260 A JP 2014079260A JP 2014079260 A JP2014079260 A JP 2014079260A JP 2015199423 A JP2015199423 A JP 2015199423A
Authority
JP
Japan
Prior art keywords
parameter
runway
estimation
filter
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014079260A
Other languages
English (en)
Other versions
JP6105509B2 (ja
Inventor
昌也 岡田
Masaya Okada
昌也 岡田
直輝 川嵜
Naoteru Kawasaki
直輝 川嵜
俊也 熊野
Toshiya Kumano
俊也 熊野
俊輔 鈴木
Shunsuke Suzuki
俊輔 鈴木
哲哉 高藤
Tetsuya Takato
哲哉 高藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Nippon Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc filed Critical Denso Corp
Priority to JP2014079260A priority Critical patent/JP6105509B2/ja
Priority to US14/676,931 priority patent/US20150285614A1/en
Publication of JP2015199423A publication Critical patent/JP2015199423A/ja
Application granted granted Critical
Publication of JP6105509B2 publication Critical patent/JP6105509B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Regulating Braking Force (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】走行環境が急変する場合に、適切なタイミングで走路パラメータの推定の応答性を高くすることが可能な走路推定装置を提供する。【解決手段】車載カメラ10により撮影された画像から、走路の区画線を構成するエッジ点の座標を算出する算出手段と、算出されたエッジ点の座標に基づき、所定のフィルタを用いて、走路パラメータを推定する推定手段と、所定のフィルタのパラメータであって、走路パラメータの推定の応答性に関するフィルタパラメータを設定する設定手段と、車両が進入する前に急カーブを予告する情報に基づいて、急カーブを検出する検出手段と、を備え、設定手段は、検出手段により急カーブが検出されてから車両が急カーブに進入するまでに、所定のフィルタのフィルタパラメータを、急カーブが検出される前よりも応答性が高くなるように設定する。【選択図】 図1

Description

本発明は、車載カメラにより撮影された画像に基づいて、走路パラメータを推定する走路推定装置及び走路推定プログラムに関する。
車載カメラで車両の前方を撮影した画像から、走路の区画線のエッジ点を抽出し、状態空間フィルタを用いて、曲率、ヨー角、ピッチ角等の走路パラメータを推定する装置が提案されている。
上記状態空間フィルタは、パラメータを推定するときのフィルタの応答性を高く設定すると、ノイズに対する応答性まで大きくなるために、走路パラメータの推定が不安定となり問題となる。一方、フィルタの応答性を低く設定すると、車両の状態や走路の形状が急変したときに、走路パラメータの推定の遅れが生じる。そこで、状態空間フィルタの追従特性を、車両の挙動に応じて設定することが提案されている。
例えば、特許文献1では、ステアリング操舵角の変化速度の大小に応じて、状態空間フィルタの駆動行列の動特性を高特性と低特性とで可変にし、状態空間フィルタの応答性を可変にしている。
特開2006−285493号公報
特許文献1では、ステアリング操舵角の変化速度が変化してから、状態空間フィルタの応答性を変更している。そのため、走行環境が急変する場合に、推定の応答性を高くするタイミングが遅れるおそれがある。
特に、急カーブでは、急カーブに進入してから状態空間フィルタの応答性が高く変更されるため、推定された走路パラメータに基づいて車両の走行支援を行うと、操舵が切り遅れて、車両が急カーブで膨らんで走行するおそれがある。
本発明は、上記実情に鑑み、走行環境が急変する場合に、適切なタイミングで走路パラメータの推定の応答性を高くすることが可能な走路推定装置を提供することを主たる目的とする。
上記課題を解決するため、請求項1に記載の発明は走路推定装置であって、車両の前方の走路を撮影する車載カメラにより撮影された画像から、前記走路の区画線を構成するエッジ点の座標を算出する算出手段と、前記算出手段により算出された前記エッジ点の座標に基づき、所定のフィルタを用いて、前記車両に対する前記走路の状態及び前記走路の形状に関する走路パラメータを推定する推定手段と、前記所定のフィルタのパラメータであって、前記推定手段による前記走路パラメータの推定の応答性に関するフィルタパラメータを設定する設定手段と、前記車両が進入する前に急カーブを予告する情報に基づいて、前記急カーブを検出する検出手段と、を備え、前記設定手段は、前記検出手段により急カーブが検出されてから前記車両が前記急カーブに進入するまでに、前記フィルタパラメータを、前記急カーブが検出される前よりも前記応答性が高くなるように設定する。
請求項1に記載の発明によれば、車載カメラにより撮影された画像から、走路の区画線を構成するエッジ点の座標が算出され、算出されたエッジ点の座標に基づき、所定のフィルタを用いて走路パラメータが推定される。
さらに、車両が進入する前に急カーブを予告する情報に基づいて、急カーブが検出される。そして、急カーブが検出されてから車両が急カーブに進入するまでに、走路パラメータの推定の応答性に関するフィルタパラメータが、急カーブが検出される前よりも推定の応答性が高くなるように設定される。
よって、車両が急カーブに進入する前に、走路パラメータの推定の応答性を高くすることができる。ひいては、走路パラメータに基づいて走行支援を行う場合でも、急カーブで操舵が切り遅れるおそれがない。すなわち、走路が急カーブになっている場合に、適切なタイミングで走路パラメータの推定の応答性を高くすることができる。
また、請求項3に記載の発明は走路推定装置であって、車両の前方の走路を撮影する車載カメラにより撮影された画像から、前記走路の区画線を構成するエッジ点の座標を算出する算出手段と、前記算出手段により算出された前記エッジ点の座標に基づき、所定のフィルタを用いて、前記車両に対する前記走路の状態及び前記走路の形状に関する走路パラメータを推定する推定手段と、前記所定のフィルタのパラメータであって、前記推定手段による前記走路パラメータの推定の応答性に関するフィルタパラメータを設定する設定手段と、前記車両が進入する前に前記区画線の状態が急変する急変部を予告する情報に基づいて、前記急変部を検出する検出手段と、を備え、前記設定手段は、前記検出手段により前記急変部が検出されてから前記車両が前記急変部に進入するまでに、前記フィルタパラメータを、前記急変部が検出される前よりも前記応答性が高くなるように設定する。
請求項3に記載の発明によれば、請求項1と同様に、車両が走行区画線の状態が急変する急変部に進入する前に、走路パラメータの推定の応答性を高くすることができる。ひいては、走路パラメータに基づいて走行支援を行う場合でも、急変部で操舵が切り遅れるおそれがない。すなわち、走路が急変している場合に、適切なタイミングで走路パラメータの推定の応答性を高くすることができる。
走路推定装置の構成を示すブロック図。 カルマンフィルタを用いた走路パラメータの算出を示すブロック図。 急カーブの予告情報を示す図。 走路パラメータを推定する処理手順を示すフローチャート。 急カーブを検出する処理手順を示すフローチャート。
以下、走路推定装置を具現化した実施形態について、図面を参照しつつ説明する。まず、本実施形態に係る走路推定装置20の構成について、図1を参照して説明する。走路推定装置20は、車載カメラ10により撮影された画像から、車両前方の道路(走路)の白線(区画線)を検出し、検出した白線に基づいて、レーンキーピング制御(LKA制御)に用いる走路パラメータを算出する。
車載カメラ10は、CCDカメラ、CMOSイメージセンサ、近赤外線カメラ等であり、車両の前方の道路を撮影するように、車両に搭載されている。詳しくは、車載カメラ10は、車両の中央前方側に取り付けられており、車両前方へ向けて所定角度範囲で広がる領域を撮影する。
走路推定装置20は、CPU、ROM、RAM、及びI/O等を備えたコンピュータとして構成されている。CPUが、RAM等のメモリにインストールされているプログラム(走路推定プログラム)を実行することにより、白線算出手段21、急カーブ検出手段22、フィルタパラメータ設定手段23、走路パラメータ推定手段24の各種手段を実現する。
白線算出手段21は、車載カメラ10により撮影された画像を取得し、取得した画像にsobelフィルタ等を適用して、エッジ点を抽出する。そして、白線算出手段21は、抽出したエッジ点をハフ変換して白線候補となる直線を検出し、検出した白線候補の中から、左右の白線として最も白線らしい白線候補を左右一本ずつ選択する。さらに、白線算出手段21は、選択した白線を構成するエッジ点の画像平面上の座標を算出する。画像平面座標は、画像処理画面の水平方向をm軸、垂直方向をn軸とした座標系である。
走路パラメータ推定手段24は、白線算出手段21により算出されたエッジ点の座標に基づき、カルマンフィルタ(詳しくは拡張カルマンフィルタ)を用いて、車両に対する走路の状態及び走路の形状に関する走路パラメータを算出する。車両に対する走路の状態に関するパラメータは、車線位置yc、車線傾きφ、ピッチング量βである。走路の形状に関するパラメータは、車線曲率ρ、車線幅Wlである。
車線位置ycは、車載カメラ10を中心として進行方向に伸びる中心線から、道路の幅方向の中心までの距離であり、車両の道路幅方向の変位を表す。車両が道路の中央を走行している場合に、車線位置ycは0となる。車線傾きφは、左右の白線の中央を通過する仮想的な中央線の接線の車両進行方向に対する傾きであり、車両のヨー角を表す。ピッチング量βは、車載カメラ10のピッチ角であり、道路に対する車両のピッチ角を表す。車線曲率ρは、左右の白線の中央を通過する仮想的な中央線の曲率である。車線幅Wlは、車両の中心線と直交する方向における左右の白線の間隔であり、道路の幅を表す。
走路パラメータ推定手段24は、算出されたエッジ点の座標を観測値として、カルマンフィルタを用いて上記走路パラメータを算出する。カルマンフィルタを用いた走路パラメータ算出の概要を、図2を参照して説明する。前回の走路パラメータの推定値を、所定の遷移行列245により今回の走路パラメータの予測値246に変換する。また、今回の走路パラメータの予測値246を、今回観測値241(n座標値)及び後述する式(1)を用いて、予測観測値242(m座標値)に変換する。さらに、観測値と予測値とのずれである差分243を、今回観測値241(m座標値)と予測観測値242とから算出し、算出した差分243をカルマンゲインで重み付け処理245する。そして、走路パラメータの予測値246と、カルマンゲインで重み付けした差分244とを合成処理247し、走路パラメータの今回推定値248を算出する。
次に、カルマンフィルタについて説明する。ここで、算出した白線エッジ点の座標P(m,n)と、推定すべき走路パラメータ(yc,φ,ρ,Wl,β)との関係を次の式(1)で示す。なお、h0は車載カメラ10の道路面からの高さを表し、fは車載カメラ10の焦点距離を表す。この式(1)は、カルマンフィルタを構成する際の観測方程式に用いられる。
Figure 2015199423
次に、時点k(k=0,1,…N)における状態ベクトルxkを式(2)のように表す。式中のTは転置行列であることを示す。
Figure 2015199423
このとき、状態方程式と観測方程式は、次の式(3)〜(4)で表される。
Figure 2015199423
Figure 2015199423
ここで、ykは観側ベクトル、Fkは遷移行列、Gkは駆動行列、wkはシステム雑音、hkは観測関数、vkは観測雑音である。
そして、式(3)〜(4)に適用するカルマンフィルタは、次の式(5)〜(9)として表される。
Figure 2015199423
Figure 2015199423
Figure 2015199423
Figure 2015199423
Figure 2015199423
式(5)〜(9)において、Kkはカルマンゲイン、Rkは観測雑音vkの共分散行列であり、Qkはシステム雑音wkの共分散行列で例えば式(10)で表される。Qkは、予測値に対する信頼度を表し、一般的にQkが大きいほど、システム雑音wkが大きいことを意味し、予測値に対する信頼度は低くなる。同様に、一般的にRkが大きいほど、観測値に対する信頼度は低くなる。また、Hkは式(11)で表される観測行列である。
Figure 2015199423
Figure 2015199423
式(5)で表されるように、所定時点kの走路パラメータは、一つ前の時点k−1の走路パラメータ、すなわち過去に推定した走路パラメータから予測した所定時点kの予測値と、所定時点kの観測値と予測値とのずれをカルマンゲインKkで加重した値と、の和となっている。よって、カルマンゲインKkは、走路パラメータの推定の応答性を表す。予測値に対して観測値の重みを大きくすれば、走路パラメータの推定の応答性、すなわち白線の状態の変化への追従性が向上する。一方、観測値に対して予測値の重みを大きくすれば、走路パラメータの推定の応答性が低下するとともに、耐ノイズ性が向上する。
カルマンゲインKkの値は、システム雑音wkの共分散行列Qk、及び観測雑音vkの共分散行列Rkを変更することで変化する。すなわち、システム雑音wkの共分散行列Qk及び観測雑音vkの共分散行列Rkは、走路パラメータの推定の応答性に関するフィルタパラメータであり、システム雑音wkの共分散行列Qk、及び観測雑音vkの共分散行列Rkを変更することで、走路パラメータの推定の応答性を変更できる。
急カーブ検出手段22は、車両が進入する前に急カーブを予告する情報に基づいて、車両前方の急カーブを検出する。急カーブを予告する情報としては、図3に示すように、道路面に描かれたペイント、道路標識、車線幅の増加、白線算出手段21により検出された白線の内側に描かれた補助線、先行車両のブレーキランプの点灯等がある。急カーブ検出手段22は、車載カメラ10により撮影された画像に基づいて、上記急カーブを予告する情報を検出する。
また、急カーブを予告する情報として、ナビ装置11により作成された経路案内情報において、進行方向で示される急カーブ情報がある。さらに、急カーブを予告する情報として、自車両の減速度が閾値よりも大きいこと、及び先行車両の減速度が閾値よりも大きいことがある。通常、急カーブの進入前では、操舵が行われる前に減速が行われる。よって、急カーブ検出手段22は、自車両の加速度及び減速度を検出する加速度センサ12の検出値、及び先行車両の速度を検出する超音波センサ13の検出値に基づいて、急カーブを予告する情報を検出する。
さらに、急カーブ検出手段22は、S=α・f1+β・f2+γ・f3+…の式を用いて、検出した複数の急カーブの予告情報を重み付けして統合し、複数の予告情報を統合した統合値S基づいて、車両が進入する前に急カーブを検出する。なお、α,β,γ,…は各予告情報に対する重みを示し、f1,f2,f3,…は各予告情報を検出した場合に1、検出しなかった場合に0とする。予告情報のうち、道路ペイント、道路標識、ナビ情報は、車両の進路に急カーブがある蓋然性が高いので、他の予告情報よりも重く重み付けする。
フィルタパラメータ設定手段23は、急カーブ検出手段22により急カーブが検出されてから、車両が検出された急カーブに進入するまでに、推定の応答性に関するフィルタパラメータを、急カーブが検出される前よりも応答性が高くなるように設定する。急カーブでは、操舵が切り遅れないように、道路の曲率を推定する応答性を高くする必要がある。そこで、フィルタパラメータ設定手段23は、急カーブが検出された場合、車両が急カーブに進入する前に、走路パラメータの推定の応答性が高くなるように、システム雑音wkの共分散行列Qk(a,b,c,d,e)を設定する。フィルタパラメータ設定手段23は、急カーブが検出された場合、同様に、観測雑音vkの共分散行列Rkを設定してもよいし、システム雑音wkの共分散行列Qkと、観測雑音vkの共分散行列Rkの両方を設定してもよい。これにより、車両が急カーブに進入する前に道路の曲率を推定する速度が向上するため、走路パラメータに基づいてLKA制御を行っても、操舵が切り遅れるおそれがない。
次に、走路パラメータを推定する処理手順について図4のフローチャートを参照して説明する。本処理手順は、車載カメラ10により画像が撮影される度に、走路推定装置20が実行する。
まず、車載カメラ10により撮影された画像を取得する(S10)。続いて、S10で取得した画像からエッジ点を抽出し、抽出したエッジ点から左右の白線を検出する。そして、検出した白線を構成するエッジ点の座標を算出する(S11)。
続いて、車両が進入する前に急カーブを検出する(S12)。急カーブの検出処理については後で説明する。急カーブの検出中は急カーブフラグをオンにし、急カーブを検出していない間は急カーブフラグをオフにする。
続いて、急カーブフラグがオンかオフか判定する(S13)。すなわち、急カーブの検出中か否か判定する。急カーブフラグがオン、すなわち急カーブ検出中の場合は(S13:ON)、カルマンフィルタのフィルタパラメータであるシステム雑音wkの共分散行列Qkを、急カーブ用の共分散行列Qkに設定する(S14)。急カーブ用の共分散行列Qkは、通常の共分散行列Qkよりも、観測値の重みを大きくし、走路パラメータの推定の応答性を向上させる。一方、急カーブフラグがオフ、すなわち急カーブを検出していない間は(S13:OFF)、システム雑音wkの共分散行列Qkを、通常の共分散行列Qkに設定する(S15)。通常の共分散行列Qkは、急カーブ用の共分散行列Qkよりも、予測値の重みを大きくし、走路パラメータの推定の安定性を向上させる。
続いて、S11で算出したエッジ点の座標に、S14又はS15で設定したフィルタパラメータを用いたカルマンフィルタを適用して、走路パラメータ、車線位置yc、車線傾きφ、ピッチング量β、車線曲率ρ、車線幅Wlを推定する。以上で本処理を終了する。
次に、車両が進入する前に急カーブを検出する処理(図4のS12)の手順について、図5のフローチャートを参照して説明する。
まず、急カーブ進入前の特徴、すなわち急カーブの予告情報を検出しているか否か判定する(S121)とともに、急カーブ終了時の特徴を検出しているか否か判定する(S124)。
急カーブ進入前の特徴を検出しているか否かの判定は、上述した統合値Sが第1閾値以上か否か判定して行う。統合値Sが第1閾値以上の場合は、進入前に急カーブを検出したと判定して(S121:YES)、急カーブ進入フラグをオンにする(S122)。一方、統合値Sが第1閾値よりも小さい場合は、急カーブを検出していないと判定して(S121:NO)、急カーブ進入フラグをオフにする(S123)。
また、急カーブ終了時の特徴を検出しているか否かの判定は、統合値S<第2閾値(第1閾値以下の値)の条件を満たしている継続時間tが、判定時間(例えば10秒)以上であるか否か判定して行う。統合値Sが判定時間以上続けて第2閾値よりも小さい場合に、急カーブの終了を検出したと判定して(S124:YES)、急カーブ終了フラグをオンにする(S125)。一方、統合値S<第2閾値の条件を満たしている継続時間tが判定時間未満の場合に、急カーブの終了を検出していないと判定して(S124:NO)、急カーブ終了フラグをオフにする(S126)。なお、急カーブ終了フラグがオンのときは、急カーブ進入フラグはオフになる。
続いて、急カーブフラグオンの状態で、急カーブ終了フラグがオンになった場合には、急カーブフラグをオフにする(S127)。また、急カーブフラグオフの状態で、急カーブ進入フラグオンになった場合には、急カーブフラグをオンにする(S128)。これにより、車両の進入前に急カーブを検出してから、急カーブが検出されなくなるまでの間、急カーブフラグがオンになる。その後、S13の処理に進む。
以上説明した本実施形態によれば、以下の効果を奏する。
・急カーブが検出されてから、検出された急カーブに車両が進入するまでに、走路パラメータの推定の応答性に関するフィルタパラメータが、急カーブが検出される前よりも、応答性が高くなるように設定される。よって、車両が急カーブに進入する前に、走路パラメータの推定の応答性を高くすることができる。ひいては、走路パラメータに基づいてLKA制御を行う場合でも、急カーブで操舵が切り遅れるおそれがない。すなわち、道路が急カーブになっている場合に、適切なタイミングで走路パラメータの推定の応答性を高くすることができる。
・車両が急カーブに進入する前に、急カーブ進入前を示す特徴である予告情報が複数検出され、検出された複数の予告情報はそれぞれ重み付けされて統合される。そして、統合された複数の予告情報に基づいて急カーブが検出される。よって、複数の予告情報に基づいて高精度に急カーブを検出することができる。ひいては、適切なタイミングで走路パラメータの推定の応答性を高くすることができる。
・カルマンフィルタを適用する場合、過去に推定された走路パラメータに基づいた時点kの予測値に対して、時点kの観測値の重みを大きくすることにより、走路パラメータの推定の応答性は高くなる。また、時点kの予測値に対して時点kの観測値の重みを小さくすることにより、走路パラメータの推定の応答性は低くなる。よって、急カーブが前方にある場合に、予測値と観測値との重みに関するフィルタパラメータを、通常時のフィルタパラメータから急カーブ用のフィルタパラメータに切り替えることで、走路パラメータの推定の応答性を高くすることができる。
(他の実施形態)
・車両が進入する前に、白線の状態が急変する急変部を予告する情報に基づいて、急変部を検出し、急変部が検出されてから、検出された急変部に車両が進入するまでに、推定の応答性に関するフィルタパラメータを応答性が高くなるように設定してもよい。急変部には、急カーブが含まれる。なお、推定の応答性に関するフィルタパラメータを設定する際に、応答性が段階的に高くなるように設定してもよい。
このようにすると、車両が白線の状態が急変する急変部に進入する前に、走路パラメータの推定の応答性を高くすることができる。ひいては、走路パラメータに基づいてLKA制御を行う場合でも、急変部で操舵が切り遅れるおそれがない。すなわち、道路が急変している場合に、適切なタイミングで走路パラメータの推定の応答性を高くすることができる。
・走路パラメータの算出に適用するフィルタは、カルマンフィルタに限らない。設定により、推定の応答性を調整できるフィルタであればよく、例えば、H∞フィルタ等の状態空間フィルタでもよい。
10…車載カメラ、20…走路推定装置、21…白線算出手段、22…急カーブ検出手段、23…フィルタパラメータ設定手段、24…走路パラメータ推定手段。

Claims (5)

  1. 車両の前方の走路を撮影する車載カメラ(10)により撮影された画像から、前記走路の区画線を構成するエッジ点の座標を算出する算出手段(21)と、
    前記算出手段により算出された前記エッジ点の座標に基づき、所定のフィルタを用いて、前記車両に対する前記走路の状態及び前記走路の形状に関する走路パラメータを推定する推定手段(24)と、
    前記所定のフィルタのパラメータであって、前記推定手段による前記走路パラメータの推定の応答性に関するフィルタパラメータを設定する設定手段(23)と、
    前記車両が進入する前に急カーブを予告する情報に基づいて、前記急カーブを検出する検出手段(22)と、を備え、
    前記設定手段は、前記検出手段により急カーブが検出されてから前記車両が前記急カーブに進入するまでに、前記フィルタパラメータを、前記急カーブが検出される前よりも前記応答性が高くなるように設定することを特徴とする走路推定装置。
  2. 前記検出手段は、前記急カーブを予告する情報を複数検出するとともに、検出した複数の前記情報をそれぞれ重み付けして統合し、統合した複数の前記情報に基づいて、前記車両が進入する前に急カーブを検出する請求項1に記載の走路推定装置。
  3. 車両の前方の走路を撮影する車載カメラにより撮影された画像から、前記走路の区画線を構成するエッジ点の座標を算出する算出手段と、
    前記算出手段により算出された前記エッジ点の座標に基づき、所定のフィルタを用いて、前記車両に対する前記走路の状態及び前記走路の形状に関する走路パラメータを推定する推定手段と、
    前記所定のフィルタのパラメータであって、前記推定手段による前記走路パラメータの推定の応答性に関するフィルタパラメータを設定する設定手段と、
    前記車両が進入する前に前記区画線の状態が急変する急変部を予告する情報に基づいて、前記急変部を検出する検出手段と、を備え、
    前記設定手段は、前記検出手段により前記急変部が検出されてから前記車両が前記急変部に進入するまでに、前記フィルタパラメータを、前記急変部が検出される前よりも前記応答性が高くなるように設定することを特徴とする走路推定装置。
  4. 前記所定のフィルタはカルマンフィルタであり、
    前記フィルタパラメータは、過去に推定された前記走路パラメータに基づいた所定時点の予測値と、前記所定時点の観測値との重みに関するパラメータである請求項1〜3のいずれかに記載の走路推定装置。
  5. コンピュータにインストールされるプログラムであって、
    前記コンピュータに、請求項1〜4のいずれかに記載の走路推定装置(20)が備える各手段を実現させることを特徴とする走路推定プログラム。
JP2014079260A 2014-04-08 2014-04-08 走路推定装置及び走路推定プログラム Active JP6105509B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014079260A JP6105509B2 (ja) 2014-04-08 2014-04-08 走路推定装置及び走路推定プログラム
US14/676,931 US20150285614A1 (en) 2014-04-08 2015-04-02 Travel path estimation apparatus and travel path estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014079260A JP6105509B2 (ja) 2014-04-08 2014-04-08 走路推定装置及び走路推定プログラム

Publications (2)

Publication Number Publication Date
JP2015199423A true JP2015199423A (ja) 2015-11-12
JP6105509B2 JP6105509B2 (ja) 2017-03-29

Family

ID=54209496

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014079260A Active JP6105509B2 (ja) 2014-04-08 2014-04-08 走路推定装置及び走路推定プログラム

Country Status (2)

Country Link
US (1) US20150285614A1 (ja)
JP (1) JP6105509B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10635911B2 (en) 2017-01-16 2020-04-28 Denso Corporation Apparatus and method for recognizing travel lane
US11120277B2 (en) 2018-10-10 2021-09-14 Denso Corporation Apparatus and method for recognizing road shapes

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6741603B2 (ja) 2017-01-16 2020-08-19 株式会社Soken 推定装置
DE102017204601A1 (de) * 2017-03-20 2018-09-20 Robert Bosch Gmbh Verfahren und Vorrichtung zum Ermitteln zumindest eines wahrscheinlichsten Weges für ein Fahrzeug
KR102296520B1 (ko) * 2020-12-18 2021-09-01 주식회사 카비 단안 카메라를 이용한 경로추정에 의한 곡선차선 검출 방법
US11787419B1 (en) * 2021-10-22 2023-10-17 Zoox, Inc. Robust numerically stable Kalman filter for autonomous vehicles
CN115782926B (zh) * 2022-12-29 2023-12-22 苏州市欧冶半导体有限公司 一种基于道路信息的车辆运动预测方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06300581A (ja) * 1993-04-15 1994-10-28 Fuji Heavy Ind Ltd 車輛の軌道追従制御装置
JPH07266920A (ja) * 1994-03-31 1995-10-17 Isuzu Motors Ltd カーブ路警報装置
JP2005276041A (ja) * 2004-03-26 2005-10-06 Clarion Co Ltd 車線位置検知システム
JP2006285493A (ja) * 2005-03-31 2006-10-19 Daihatsu Motor Co Ltd 道路モデル推定装置及び道路モデル推定方法
JP2007326534A (ja) * 2006-06-09 2007-12-20 Toyota Motor Corp 車両用車線維持支援装置
JP2008083816A (ja) * 2006-09-26 2008-04-10 Hitachi Ltd 自動車の走行制御システム、および、車両制御装置
JP2012131496A (ja) * 2003-12-24 2012-07-12 Automotive Systems Lab Inc 道路曲率推定システム
JP2012252406A (ja) * 2011-05-31 2012-12-20 Nissan Motor Co Ltd 道路形状予測装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7522091B2 (en) * 2002-07-15 2009-04-21 Automotive Systems Laboratory, Inc. Road curvature estimation system
US9090260B2 (en) * 2013-12-04 2015-07-28 Mobileye Vision Technologies Ltd. Image-based velocity control for a turning vehicle

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06300581A (ja) * 1993-04-15 1994-10-28 Fuji Heavy Ind Ltd 車輛の軌道追従制御装置
JPH07266920A (ja) * 1994-03-31 1995-10-17 Isuzu Motors Ltd カーブ路警報装置
JP2012131496A (ja) * 2003-12-24 2012-07-12 Automotive Systems Lab Inc 道路曲率推定システム
JP2005276041A (ja) * 2004-03-26 2005-10-06 Clarion Co Ltd 車線位置検知システム
JP2006285493A (ja) * 2005-03-31 2006-10-19 Daihatsu Motor Co Ltd 道路モデル推定装置及び道路モデル推定方法
JP2007326534A (ja) * 2006-06-09 2007-12-20 Toyota Motor Corp 車両用車線維持支援装置
JP2008083816A (ja) * 2006-09-26 2008-04-10 Hitachi Ltd 自動車の走行制御システム、および、車両制御装置
JP2012252406A (ja) * 2011-05-31 2012-12-20 Nissan Motor Co Ltd 道路形状予測装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10635911B2 (en) 2017-01-16 2020-04-28 Denso Corporation Apparatus and method for recognizing travel lane
US11120277B2 (en) 2018-10-10 2021-09-14 Denso Corporation Apparatus and method for recognizing road shapes

Also Published As

Publication number Publication date
JP6105509B2 (ja) 2017-03-29
US20150285614A1 (en) 2015-10-08

Similar Documents

Publication Publication Date Title
JP6105509B2 (ja) 走路推定装置及び走路推定プログラム
JP6134276B2 (ja) 走行区画線認識装置
WO2016129646A1 (ja) 走行軌跡選定装置、および走行軌跡選定方法
JP6538547B2 (ja) 道路曲率計測装置
JP6220327B2 (ja) 走行区画線認識装置、走行区画線認識プログラム
JP6412460B2 (ja) 走行路推定装置
US10691959B2 (en) Estimating apparatus
US20160314360A1 (en) Lane detection device and method thereof, curve starting point detection device and method thereof, and steering assistance device and method thereof
JP6140658B2 (ja) 走行区画線認識装置、走行区画線認識プログラム
JP6363518B2 (ja) 区画線認識装置
JP6272204B2 (ja) 道路区画線情報取得装置
JP2015179368A (ja) 走行区画線認識装置及び走行区画線認識プログラム
JP6693893B2 (ja) 走路認識装置
JP2014143547A (ja) 露出制御装置
JP6139465B2 (ja) 物体検出装置、運転支援装置、物体検出方法、および物体検出プログラム
JP2020071122A (ja) 自車位置推定装置
JP5977275B2 (ja) 分岐路認識装置
JP2017043279A (ja) 車両制御装置、及び走路信頼度判定方法
JP2018169888A (ja) 道路パラメータ推定装置
JP6408935B2 (ja) 走行区画線認識装置
US10442430B2 (en) Collision avoidance assistance device
US10953885B2 (en) Road surface detecting apparatus
JP2015154337A (ja) 対象範囲設定装置、および対象範囲設定プログラム
JP2006285493A (ja) 道路モデル推定装置及び道路モデル推定方法
JP2013160895A (ja) カメラ露出設定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170302

R150 Certificate of patent or registration of utility model

Ref document number: 6105509

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250