JP6336010B2 - 路上区画線認識装置、路上区画線認識方法、路上区画線認識装置を備えた運転支援装置、および路上区画線認識方法を備えた運転支援方法 - Google Patents

路上区画線認識装置、路上区画線認識方法、路上区画線認識装置を備えた運転支援装置、および路上区画線認識方法を備えた運転支援方法 Download PDF

Info

Publication number
JP6336010B2
JP6336010B2 JP2016222913A JP2016222913A JP6336010B2 JP 6336010 B2 JP6336010 B2 JP 6336010B2 JP 2016222913 A JP2016222913 A JP 2016222913A JP 2016222913 A JP2016222913 A JP 2016222913A JP 6336010 B2 JP6336010 B2 JP 6336010B2
Authority
JP
Japan
Prior art keywords
lane
shape
marking
moving body
lane marking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016222913A
Other languages
English (en)
Other versions
JP2018081471A (ja
Inventor
智能 小城戸
智能 小城戸
谷口 琢也
琢也 谷口
成晃 竹原
成晃 竹原
國雄 上田
國雄 上田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2016222913A priority Critical patent/JP6336010B2/ja
Priority to US15/582,948 priority patent/US10414396B2/en
Priority to DE102017209962.3A priority patent/DE102017209962A1/de
Publication of JP2018081471A publication Critical patent/JP2018081471A/ja
Application granted granted Critical
Publication of JP6336010B2 publication Critical patent/JP6336010B2/ja
Priority to US16/531,845 priority patent/US10821975B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/025Active steering aids, e.g. helping the driver by actively influencing the steering system after environment evaluation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D6/00Arrangements for automatically controlling steering depending on driving conditions sensed and responded to, e.g. control circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Description

この発明は、例えば車両等の移動体に設けられた撮像部により撮像した画像を用いて、移動体が移動する路面上の境界線である区画線の形状を認識する路上区画線認識装置、路上区画線認識方法、路上区画線認識装置を備えた運転支援装置、および路上区画線認識方法を備えた運転支援方法に関する。
従来の路上区画線認識装置は、移動体に搭載されたカメラ等の撮像部により、移動体が移動する路面上の区画線の形状を認識する。また、従来の運転支援装置は、路上区画線認識装置の認識結果に基づいて、ドライバが行うハンドル操作を支援したり、車両が区画線から逸脱する可能性が高い場合に、ドライバに警告したりする。
そのため、運転支援装置では、路上区画線認識装置による移動体が移動する路面上の区画線の形状の認識精度が重要になる。以下、ハンドル操作の支援を、LKA(Lane keep Assist)制御と称することがあり、ドライバへの警告を、LDW(Lane Departure Warning)制御と称することがある。
そこで、移動体の前方を撮像する撮像部で取得された画像について、移動体に近い路面上が写された画像領域では、直線近似によって区画線の形状を認識するとともに、移動体から遠い路面上が写された画像領域では、曲線近似によって区画線の形状を認識することで、区画線の形状の認識精度を向上させる技術が提案されている(例えば、特許文献1参照)。
特開2014−26396号公報
しかしながら、特許文献1に記載された従来技術では、移動体の前方に搭載された撮像部が、移動体から所定の距離に相当する画像を撮像することから、撮像した画像において、移動体の近傍部分の解像度があまり高くないという問題がある。
また、撮像された画像において、最も移動体に近い位置となる画像下端の位置でも、実際の位置は移動体の数m先となる。そのため、移動体の先端付近の区画線と移動体とのオフセット距離や傾きについて、認識誤差が生じるという問題もある。
さらに、移動体のフロントガラスの汚れ、悪天候、逆光等の環境において、移動体の前方に搭載された撮像部で撮像した画像を用いて、区画線の形状を認識した場合には、フロントガラスの汚れや環境の影響によって、形状認識制度が低下するという問題もある。
この発明は、上記のような課題を解決するためになされたものであり、移動体が移動する路面上の区画線の形状を高精度に認識することができる路上区画線認識装置を得ることを目的とする。
この発明に係る路上区画線認識装置は、移動体が移動する路面上の区画線の形状を認識する路上区画線認識装置であって、移動体の前方を撮像する前方撮像部と、前方撮像部が撮像した画像から、路面上の区画線の形状を前方区画線形状として検出するとともに、前方区画線形状の信頼度を第1信頼度として算出する前方区画線検出部と、移動体の周辺を撮像する周辺撮像部と、周辺撮像部が撮像した画像から、路面上の区画線の形状を周辺区画線形状として検出するとともに、周辺区画線形状の信頼度を第2信頼度として算出する周辺区画線検出部と、前方区画線形状と周辺区画線形状とを、第1信頼度および第2信頼度に基づいて選択または組み合わせることで、移動体が移動する路面上の区画線の形状を判定する区画線形状判定部と、を備え、区画線形状判定部は、路面上の区画線の形状を判定するにあたって、移動体と区画線とのオフセット距離および区画線の傾き成分については、前方区画線形状に対して周辺区画線形状が反映されやすいようにし、区画線の曲線成分については、前方区画線形状に対して周辺区画線形状が反映されにくいようにするものである。
この発明に係る路上区画線認識装置によれば、前方撮像部は、移動体の前方を撮像し、前方区画線検出部は、前方撮像部が撮像した画像から、路面上の区画線の形状を前方区画線形状として検出するとともに、前方区画線形状の信頼度を第1信頼度として算出し、周辺撮像部は、移動体の周辺を撮像し、周辺区画線検出部は、周辺撮像部が撮像した画像から、路面上の区画線の形状を周辺区画線形状として検出するとともに、周辺区画線形状の信頼度を第2信頼度として算出し、区画線形状判定部は、前方区画線形状と周辺区画線形状とを、第1信頼度および第2信頼度に基づいて選択または組み合わせることで、移動体が移動する路面上の区画線の形状を判定する。
そのため、移動体が移動する路面上の区画線の形状を高精度に認識することができる。
この発明の実施の形態1に係る路上区画線認識装置が適用された運転支援装置を示すブロック図である。 この発明の実施の形態1に係る路上区画線認識装置が適用された運転支援装置の動作を示すフローチャートである。 この発明の実施の形態2に係る路上区画線認識装置が適用された運転支援装置を示すブロック図である。 この発明の実施の形態2に係る路上区画線認識装置が適用された運転支援装置の動作を示すフローチャートである。
以下、この発明に係る路上区画線認識装置、路上区画線認識方法、路上区画線認識装置を備えた運転支援装置、および路上区画線認識方法を備えた運転支援方法の好適な実施の形態につき図面を用いて説明するが、各図において同一、または相当する部分については、同一符号を付して説明する。
なお、この発明は、例えば車両等に設けられ、自車の運転を支援する運転支援装置および運転支援方法に適している。また、以下の実施の形態では、運転支援装置が車両に設けられた場合を例に挙げて説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る路上区画線認識装置が適用された運転支援装置を示すブロック図である。図1において、この運転支援装置は、前方検知カメラ部1、周辺検知カメラ部2、前方走行車線検出部3、周辺走行車線検出部4、自車走行車線判定部5、車両状況通知部6、ハンドル操舵制御部7、車線逸脱判定部8、ハンドル制御部9、音声出力部10を備えている。
なお、前方走行車線検出部3、周辺走行車線検出部4、自車走行車線判定部5、ハンドル操舵制御部7および車線逸脱判定部8は、演算処理を実行するCPU(Central Processing Unit)により構成され、これらのブロックは、図示しない記憶部にソフトウェアとして記憶されている。
前方検知カメラ部1は、車内に取り付けられた単眼または複数の光学カメラを用いて、車両が移動する車両前方の画像を取得し、前方走行車線検出部3に通知する。
周辺検知カメラ部2は、車外に取り付けられたフロントカメラ、バックカメラ、サイドカメラ、サイドミラー用カメラ等の1つまたは複数台の光学カメラを用いて、車両周辺の画像を取得し、周辺走行車線検出部4に通知する。
前方走行車線検出部3は、前方検知カメラ部1から取り込んだ車両前方の画像に対して画像認識を行い、自車が走行している左右の区画線を自車前方車線形状(前方区画線形状)として検出するとともに、検出区画線結果の信頼度を前方車線検出信頼度(第1信頼度)として算出する。ここで、区画線の具体的な検出方法の一例として、横方向のソーベルフィルタ処理を行い、エッジの特徴点から区画線を検出し、検出した区画線の形状を算出する。
また、検出区画線結果の信頼度の算出方法の一例として、検出に用いたエッジ特徴点数や区画線形状の妥当性、左右の区画線形状の妥当性、過去に検出した区画線との妥当性等から、信頼度を0〜10の11段階で決定する。信頼度は、0が最も低く、検出結果の確からしさが低く、10が最も高く、検出結果が確からしいことを表している。
なお、この実施の形態1に記載した信頼度の算出方法および表現方法は、一例であるため、検出結果の確からしさを表す指標であれば、信頼度はこれに限定されない。前方走行車線検出部3は、算出した自車前方車線形状および前方車線検出信頼度を、自車走行車線判定部5に通知する。
周辺走行車線検出部4は、周辺検知カメラ部2から取り込んだ車両周辺の画像に対して画像認識を行い、自車が走行している左右の区画線を自車周辺車線形状(周辺区画線形状)として検出するとともに、検出区画線結果の信頼度を周辺車線検出信頼度(第2信頼度)として算出する。
ここで、区画線の具体的な検出方法の一例として、左右のサイドカメラやサイドミラー用カメラでは、車両の外側方向のソーベルフィルタ処理を行い、フロントカメラやバックカメラでは、横方向のソーベルフィルタ処理を行い、各カメラ画像からエッジの特徴点を抽出する。また、各カメラ画像から抽出したエッジの特徴点から区画線を検出し、検出した区画線の形状を算出する。
また、区画線の形状を算出する際は、サイドカメラ画像のエッジ特徴量から自車と区画線とのオフセット距離および区画線の傾きを求め、区画線の曲線成分については、フロントカメラ画像のエッジ特徴量から求める。
また、検出区画線結果の信頼度の算出方法の一例として、検出に用いたエッジ特徴点数や区画線形状の妥当性、左右の区画線形状の妥当性、過去に検出した区画線との妥当性等から、信頼度を0〜10の11段階で決定する。信頼度は、0が最も低く、検出結果の確からしさが低く、10が最も高く、検出結果が確からしいことを表している。
なお、この実施の形態1に記載した信頼度の算出方法および表現方法は、一例であるため、検出結果の確からしさを表す指標であれば、信頼度はこれに限定されない。周辺走行車線検出部4は、算出した自車周辺車線形状および周辺車線検出信頼度を、自車走行車線判定部5に通知する。
自車走行車線判定部5は、前方走行車線検出部3で算出した前方車線検出信頼度と周辺走行車線検出部4で算出した周辺車線検出信頼度とから、前方走行車線検出部3で算出した自車前方車線形状と、周辺走行車線検出部4で算出した自車周辺車線形状とを組み合わせて、自車走行車線の区画線形状を判定する。
ここで、区画線形状を判定する際に、周辺検知カメラ部2は、自車周辺を撮像の対象としており、自車と区画線とのオフセット距離および区画線の傾きについて、正確に算出することができる。そのため、自車と区画線とのオフセット距離および区画線の傾きについては、周辺車線検出信頼度に重みを付けて、すなわちオフセット距離および区画線の傾きの周辺車線検出信頼度の重み値を大きくし、信頼度を高め、自車周辺車線形状が反映されやすいようにする。
一方、区画線の曲線成分については、周辺検知カメラ部2は、精度が低いため、周辺車線検出信頼度の重みを軽くし、すなわち曲線成分の周辺車線検出信頼度の重み値を小さくし、自車周辺車線形状が反映されにくいようにする。
なお、自車走行車線の区画線形状判定の具体例として、自車と区画線とのオフセット距離および区画線の傾き成分の自車前方車線形状の反映割合を、自車前方車線形状反映割合=前方車線検出信頼度/(前方車線検出信頼度+周辺車線検出信頼度×オフセット距離と区画線の傾きの周辺車線検出信頼度の重み値)とする。
また、自車と区画線とのオフセット距離および区画線の傾き成分の自車周辺車線形状の反映割合を、自車周辺車線形状反映割合=(周辺車線検出信頼度×オフセット距離と区画線の傾きの周辺車線検出信頼度の重み値)/(前方車線検出信頼度+周辺車線検出信頼度×オフセット距離と区画線の傾きの周辺車線検出信頼度の重み値)とする。
また、区画線の曲線成分の自車前方車線形状の反映割合を、自車前方車線形状反映割合=前方車線検出信頼度/(前方車線検出信頼度+周辺車線検出信頼度×曲線成分の周辺車線検出信頼度の重み値)とする。
また、区画線の曲線成分の自車周辺車線形状の反映割合を、自車周辺車線形状反映割合=(周辺車線検出信頼度×曲線成分の周辺車線検出信頼度の重み値)/(前方車線検出信頼度+周辺車線検出信頼度×曲線成分の周辺車線検出信頼度の重み値)とする。
ここで、前方車線検出信頼度が11段階の4、周辺車線検出信頼度が11段階の8、自車と区画線とのオフセット距離および区画線の傾きの周辺車線検出信頼度の重み値を2、区画線の曲線成分の周辺車線検出信頼度の重み値を0.25とした場合を想定する。
このとき、自車と区画線とのオフセット距離および区画線の傾き成分の自車前方車線形状の反映割合は0.2、自車と区画線とのオフセット距離および区画線の傾き成分の自車周辺車線形状の反映割合は0.8、区画線の曲線成分の自車前方車線形状の反映割合は0.67、区画線の曲線成分の自車周辺車線形状の反映割合は0.33となる。
自車走行車線判定部5は、算出した反映割合に応じて、自車前方車線形状と自車周辺車線形状とを組み合わせて、自車走行車線の区画線形状を判定する。なお、自車前方車線形状および自車周辺車線形状のどちらか一方のみを選択する場合は、選択する形状の反映割合を1、選択しない形状の反映割合を0にすることで、選択可能となる。
また、この実施の形態1に記載した区画線形状判定方法は、一例であるため、前方車線検出信頼度および周辺車線検出信頼度から、自車前方車線形状と自車周辺車線形状とを組み合わせて、区画線形状を判定する方法は、これに限定されない。自車走行車線判定部5は、算出した自車車線形状を、ハンドル操舵制御部7および車線逸脱判定部8に通知する。
車両状況通知部6は、車速信号、ハンドル操舵角信号、ウインカ信号、バック信号等のCAN(Controller Area Network)信号を取得し、ハンドル操舵制御部7および車線逸脱判定部8に通知する。
ハンドル操舵制御部7は、自車走行車線判定部5から取得した自車車線形状と、車両状況通知部6から取得したCAN情報とに基づいて、左右の区画線の間の走行すべきエリアを自車両が安全に走行できるように、ハンドル操舵力を決定する。ハンドル操舵制御部7は、決定したハンドル操舵力をハンドル制御部9に通知する。
車線逸脱判定部8は、自車走行車線判定部5から取得した自車車線形状と、車両状況通知部6から取得したCAN情報とに基づいて、自車が左右の区画線の間の走行すべきエリアから逸脱しそうであると判断した場合や、逸脱すると判断した場合に、警告音の出力を音声出力部10に通知する。
ハンドル制御部9は、ハンドル操舵制御部7から指定されたハンドル操舵力になるようにハンドルの制御を行う。音声出力部10は、車線逸脱判定部8から警告音出力の通知があると、スピーカから警告音を出力する。
続いて、図2のフローチャートを参照しながら、この発明の実施の形態1に係る路上区画線認識装置が適用された運転支援装置の動作について説明する。
まず、車両の電源をONにすると(ステップS1−1)、車両前方カメラ画像、車両周辺カメラ画像、車両状況が取得される。
具体的には、車両前方カメラ画像は、単眼または複数の光学カメラで構成された前方検知カメラ部1で取得され(ステップS1−2)、前方走行車線検出部3に通知される。
また、車両周辺カメラ画像は、車外に取り付けられたフロントカメラ、バックカメラ、サイドカメラ、サイドミラー用カメラ等の1つまたは複数台の光学カメラで構成された周辺検知カメラ部2で取得され(ステップS1−3)、周辺走行車線検出部4に通知される。
また、車両状況は、車両から車速信号、ハンドル操舵角信号、ウインカ信号、バック信号が車両状況通知部6で取り込まれ、走行速度、進行方向、ウインカのON/OFF等の車両の状況が判定される(ステップS1−4)。また、判定された車両状況は、ハンドル操舵制御部7および車線逸脱判定部8に通知される。
続いて、前方走行車線検出部3は、前方検知カメラ部1から取り込んだ車両前方の画像に対して画像認識を行い、自車が走行している左右の区画線を自車前方車線形状として検出するとともに、検出区画線結果の信頼度を前方車線検出信頼度として算出する(ステップS1−5)。算出された自車前方車線形状および前方車線検出信頼度は、自車走行車線判定部5に通知される。
次に、周辺走行車線検出部4は、周辺検知カメラ部2から取り込んだ車両周辺の画像に対して画像認識を行い、自車が走行している左右の区画線を自車周辺車線形状として検出するとともに、検出区画線結果の信頼度を周辺車線検出信頼度として算出する(ステップS1−6)。算出された自車周辺車線形状および周辺車線検出信頼度は、自車走行車線判定部5に通知される。
自車走行車線判定部5は、前方走行車線検出部3で算出した前方車線検出信頼度と周辺走行車線検出部4で算出した周辺車線検出信頼度とから、前方走行車線検出部3で算出した自車前方車線形状と、周辺走行車線検出部4で算出した自車周辺車線形状とを組み合わせて、自車走行車線の区画線形状を特定する(ステップS1−7)。特定された自車車線形状は、ハンドル操舵制御部7および車線逸脱判定部8に通知される。
ハンドル操舵制御部7は、自車走行車線判定部5から取得した自車車線形状と、車両状況通知部6から取得したCAN情報とに基づいて、左右の区画線の間の走行すべきエリアを自車両が安全に走行できるように、ハンドル操舵力を決定する(ステップS1−8)。決定されたハンドル操舵力は、ハンドル制御部9に通知される。
車線逸脱判定部8は、自車走行車線判定部5から取得した自車車線形状と、車両状況通知部6から取得したCAN情報とに基づいて、自車が左右の区画線の間の走行すべきエリアから逸脱しそうであるか否かの車線逸脱判定を行う(ステップS1−9)。車線逸脱判定結果は、音声出力部10に通知される。
ハンドル制御部9は、ハンドル操舵制御部7から指定されたハンドル操舵力になるようにハンドルの制御を行う(ステップS1−10)。
音声出力部10は、車線逸脱判定部8から警告音出力の通知の判定を行い(ステップS1−11)、通知があった場合のみ、スピーカから警告音を出力する(ステップS1−12)。
上述したステップS1−10のLKA制御処理と、ステップS1−12のLDW制御処理の後は、車両の電源がOFFとなったか否かが判定され(ステップS1−13)、車両の電源がONのままなら、再びステップS1−2に戻り、ステップS1−2からの処理を車両の電源がOFFとなるまで繰り返す。また、車両の電源がOFFとなると、全処理が終了される。
このように、周辺検知カメラ部2が自車周辺を撮像の対象としているため、自車と区画線とのオフセット距離や自車と区画線との傾きを正確に算出することができる。そのため、前方検知カメラ部1と周辺検知カメラ部2とで撮像した画像から、それぞれ自車の走行車線形状を検出し、前方検知カメラ画像と周辺検知カメラ画像とから検出した走行車線形状を組み合わせることで、自車の走行車線形状を精度良く検出することができ、正確なLKA制御やLDW制御を実行することができる。
以上のように、実施の形態1によれば、前方撮像部は、移動体の前方を撮像し、前方区画線検出部は、前方撮像部が撮像した画像から、路面上の区画線の形状を前方区画線形状として検出するとともに、前方区画線形状の信頼度を第1信頼度として算出し、周辺撮像部は、移動体の周辺を撮像し、周辺区画線検出部は、周辺撮像部が撮像した画像から、路面上の区画線の形状を周辺区画線形状として検出するとともに、周辺区画線形状の信頼度を第2信頼度として算出し、区画線形状判定部は、前方区画線形状と周辺区画線形状とを、第1信頼度および第2信頼度に基づいて選択または組み合わせることで、移動体が移動する路面上の区画線の形状を判定する。
これにより、検知対象の距離およびカメラの画角が互いに異なる前方検知カメラ部1と周辺検知カメラ部2とで撮像した画像から、それぞれ自車の走行車線を検出し、前方検知カメラ画像と周辺検知カメラ画像とから検出した走行車線を組み合わせることで、自車の走行車線形状を精度良く検出することができる。
すなわち、移動体が移動する路面上の区画線の形状を高精度に認識することができる。
また、区画線形状判定部は、第1信頼度および第2信頼度に基づいて、前方区画線形状と周辺区画線形状との重みを変動させて、移動体が移動する路面上の区画線の形状を判定する。
これにより、自車前方車線と自車周辺車線との検知の信頼度の高い区画線形状が反映されやすいように、自車走行車線の区画線形状を算出することで、自車の走行車線形状を精度良く検出することができる。
また、区画線形状判定部は、前方区画線形状および周辺区画線形状に基づいて、移動体と区画線とのオフセット距離、および移動体と区画線との傾きを算出する。
これにより、周辺検知カメラ部2は、自車周辺を撮像の対象としているため、自車と区画線とのオフセット距離や自車と区画線との傾きを正確に算出することができるため、自車と区画線とのオフセット距離および自車と区画線との傾きを自車前方車線と自車周辺車線とに基づいて算出することで、自車の走行車線形状を精度良く検出することができる。
また、区画線形状判定部は、移動体の左側面または左ミラー、もしくは移動体の右側面または右ミラーに設けられた周辺撮像部が撮像した画像により算出された、移動体と区画線とのオフセット距離、および移動体と区画線との傾きの信頼度を高くして、重みを重くする。
これにより、左右のサイドカメラは、自車のタイヤ位置と区画線とを撮像することができるため、自車と区画線とのオフセット距離や自車と区画線との傾きを正確に算出することができるため、左右のサイドカメラ画像から算出した自車と区画線とのオフセット距離および傾き情報の信頼度を高くすることで、自車の走行車線形状を精度良く検出することができる。
また、区画線形状判定部で判定された、移動体が移動する路面上の区画線の形状に従って、移動体を移動させる操舵支援部と、区画線形状判定部で判定された、移動体が移動する路面上の区画線の形状に対して、移動体が逸脱することが予想される場合に、移動体のユーザに警告する逸脱警告部とをさらに備えている。
これにより、精度良く自車走行車線を検出した上で、LKA制御やLDW制御の性能を高めることができる。
実施の形態2.
図3は、この発明の実施の形態2に係る路上区画線認識装置が適用された運転支援装置を示すブロック図である。図3において、この運転支援装置は、図1に示した運転支援装置に加えて、ナビゲーション装置部11および太陽光入射角判断部12を備えている。なお、その他の構成は、上述した実施の形態1と同様なので、説明を省略する。
前方検知カメラ部1は、車内に取り付けられた単眼または複数の光学カメラを用いて、車両が移動する車両前方の画像を取得し、前方走行車線検出部3および太陽光入射角判断部12に通知する。
周辺検知カメラ部2は、車外に取り付けられたフロントカメラ、バックカメラ、サイドカメラ、サイドミラー用カメラ等の1つまたは複数台の光学カメラを用いて、車両周辺の画像を取得し、周辺走行車線検出部4および太陽光入射角判断部12に通知する。
車両状況通知部6は、車速信号、ハンドル操舵角信号、ウインカ信号、バック信号等のCAN信号を取得し、ハンドル操舵制御部7、車線逸脱判定部8および太陽光入射角判断部12に通知する。
ナビゲーション装置部11は、GPSレシーバで取得した経度緯度情報と地図データベースの地図情報とから現在位置情報を算出する。ナビゲーション装置部11は、算出した現在位置情報とGPSレシーバで取得した時刻情報とを太陽光入射角判断部12に通知する。
太陽光入射角判断部12は、前方検知カメラ部1から取り込んだ車両前方の画像に対して画像認識を行い、画像上の太陽の有無を検出する。太陽光入射角判断部12は、太陽が検出された場合に、画像上の検出位置から前方カメラに対する太陽光の入射角を算出する。
また、太陽光入射角判断部12は、周辺検知カメラ部2から取り込んだ車両周辺の画像に対して画像認識を行い、自車の影の方向と長さとを検出する。ここで、カメラと自車との位置関係は既知のため、太陽光入射角判断部12は、検出した自車の影の方向と長さとから、太陽の位置を推定し、前方カメラに対する太陽光の入射角を算出する。
さらに、太陽光入射角判断部12は、ナビゲーション装置部11から取得した現在位置情報および時刻情報と、車両状況通知部6から通知されたCAN情報とから、太陽の位置と車両の位置と車両の向きとを算出する。また、太陽光入射角判断部12は、算出した太陽の位置と車両の位置と車両の向きとから、前方カメラに対する太陽光の入射角を算出する。
このように、太陽光入射角判断部12は、画像上の太陽の位置から算出した太陽光の入射角と、自車の影の方向と長さとから算出した太陽光の入射角と、ナビゲーション情報を利用して算出した太陽光の入射角とを組み合わせて、前方カメラに対する太陽光の入射角を精度良く算出する。
なお、この実施の形態2では、3つの方法で算出した太陽光の入射角を組み合わせて、利用しているが、1つの方法のみから前方カメラに対する太陽光の入射角を算出してもよいし、3つの方法から2つの方法を組み合わせて、前方カメラに対する太陽光の入射角を算出してもよい。算出された太陽光の入射角は、自車走行車線判定部5に通知される。
自車走行車線判定部5は、前方走行車線検出部3で算出した前方車線検出信頼度と周辺走行車線検出部4で算出した周辺車線検出信頼度と、太陽光入射角判断部12で算出した太陽光の入射角とから、前方走行車線検出部3で算出した自車前方車線形状と、周辺走行車線検出部4で算出した自車周辺車線形状とを組み合わせて、自車走行車線の区画線形状を判定する。
ここで、区画線形状を判定する際に、太陽光の入射角から、前方カメラにとって、逆光で、撮像した画像全体が白く光ったようになり、区画線の特徴量が出にくく、検知精度が低下すると考えられる場合は、前方車線検出信頼度の重みを軽くし、自車前方車線形状が反映されにくいようにする。
具体的には、上述した実施の形態1で示した、自車と区画線とのオフセット距離および区画線の傾き成分の自車前方車線形状の反映割合と、区画線の曲線成分の自車前方車線形状の反映割合とに、前方車線検出信頼度の太陽入射角重み値、すなわち前方車線検出信頼度の重みを軽くする値を掛け合わせる。
また、上述した実施の形態1で示した、自車と区画線とのオフセット距離および区画線の傾き成分の自車周辺車線形状の反映割合と、区画線の曲線成分の自車周辺車線形状の反映割合をそれぞれ、1から上記で前方車線検出信頼度の太陽入射角重み値を反映させた自車と区画線とのオフセット距離および区画線の傾き成分の自車前方車線形状の反映割合を引いた値と、1から上記で前方車線検出信頼度の太陽入射角重み値を反映させた区画線の曲線成分の自車前方車線形状の反映割合を引いた値とする。これにより、自車前方車線形状の重みを軽くし、区画線形状を判定する。
なお、この実施の形態2に記載した区画線形状判定方法は、一例であるため、太陽光の入射角から、前方カメラにとって、検知精度が低下すると考えられる場合に、前方車線検出信頼度の重みを軽くし、自車前方車線形状が反映されにくいように区画線形状を判定する方法は、これに限定されない。自車走行車線判定部5は、算出した自車車線形状は、ハンドル操舵制御部7および車線逸脱判定部8に通知する。
続いて、図4のフローチャートを参照しながら、この発明の実施の形態2に係る路上区画線認識装置が適用された運転支援装置の動作について説明する。この実施の形態2では、上述した実施の形態1にステップS2−5〜ステップS2−6、ステップS2−9〜ステップS2−15が追加され、上述した実施の形態1のステップS1−7〜ステップS1−13が、ステップS2−16〜ステップS2−22に変更されている。したがって、ステップS2−5〜ステップS2−6とステップS2−9〜ステップS2−15の動作の流れ以外は、上述した実施の形態1のものと同一である。
まず、車両の電源をONにすると(ステップS2−1)、車両前方カメラ画像、車両周辺カメラ画像、車両状況、現在位置情報、時刻情報が取得される。
具体的には、車両前方カメラ画像は、単眼または複数の光学カメラで構成された前方検知カメラ部1で取得され(ステップS2−2)、前方走行車線検出部3および太陽光入射角判断部12に通知される。
また、車両周辺カメラ画像は、車外に取り付けられたフロントカメラ、バックカメラ、サイドカメラ、サイドミラー用カメラ等の1つまたは複数台の光学カメラで構成された周辺検知カメラ部2で取得され(ステップS2−3)、周辺走行車線検出部4および太陽光入射角判断部12に通知される。
また、車両状況は、車両から車速信号、ハンドル操舵角信号、ウインカ信号、バック信号が車両状況通知部6で取り込まれ、走行速度、進行方向、ウインカのON/OFF等の車両の状況が判定される(ステップS2−4)。また、判定された車両状況は、ハンドル操舵制御部7、車線逸脱判定部8および太陽光入射角判断部12に通知される。
また、現在位置情報は、ナビゲーション装置部11のGPSレシーバで経度緯度情報が取得され、経度緯度情報と地図データベースの地図情報とから現在位置情報が算出される(ステップS2−5)。また、算出された現在位置情報は、太陽光入射角判断部12に通知される。
また、現在時刻情報は、ナビゲーション装置部11のGPSレシーバで時刻情報が取得され、太陽光入射角判断部12に通知される(ステップS2−6)。
続いて、前方走行車線検出部3は、前方検知カメラ部1から取り込んだ車両前方の画像に対して画像認識を行い、自車が走行している左右の区画線を自車前方車線形状として検出するとともに、検出区画線結果の信頼度を前方車線検出信頼度として算出する(ステップS2−7)。算出された自車前方車線形状および前方車線検出信頼度は、自車走行車線判定部5に通知される。
次に、周辺走行車線検出部4は、周辺検知カメラ部2から取り込んだ車両周辺の画像に対して画像認識を行い、自車が走行している左右の区画線を自車周辺車線形状として検出するとともに、検出区画線結果の信頼度を周辺車線検出信頼度として算出する(ステップS2−8)。算出された自車周辺車線形状および周辺車線検出信頼度は、自車走行車線判定部5に通知される。
続いて、太陽光入射角判断部12は、前方検知カメラ部1から取り込んだ車両前方の画像に対して画像認識を行い、画像上の太陽の有無を判定する(ステップS2−9)。太陽が検出された場合に、画像上の検出位置から前方カメラに対する太陽光の入射角を算出する(ステップS2−10)。
また、太陽光入射角判断部12は、周辺検知カメラ部2から取り込んだ車両周辺の画像に対して画像認識を行い、自車の影の方向と長さとを検出する。また、太陽光入射角判断部12は、検出した自車の影の方向と長さとから、太陽の位置を推定し、前方カメラに対する太陽光の入射角を算出する(ステップS2−11)。
さらに、太陽光入射角判断部12は、ナビゲーション装置部11から取得した現在位置情報および時刻情報と、車両状況通知部6から通知されたCAN情報とから、太陽の位置と車両の位置と車両の向きとを算出する(ステップS2−12)。また、太陽光入射角判断部12は、算出した太陽の位置と車両の位置と車両の向きとから、前方カメラに対する太陽光の入射角を算出する。
次に、太陽光入射角判断部12は、画像上の太陽の位置から算出した太陽光の入射角と、自車の影の方向と長さとから算出した太陽光の入射角と、ナビゲーション情報を利用して算出した太陽光の入射角とを組み合わせて、前方カメラに対する太陽光の入射角を算出する(ステップS2−13)。算出された太陽光の入射角は、自車走行車線判定部5に通知される。
続いて、自車走行車線判定部5は、太陽光入射角判断部12から通知された前方カメラに対する太陽光の入射角が、自車前方車線形状の検知精度に悪影響があるか否かを判断する(ステップS2−14)。
また、自車走行車線判定部5は、検知精度が低下すると判断した場合には、前方走行車線検出部3で算出した前方車線検出信頼度と周辺走行車線検出部4で算出した周辺車線検出信頼度とから、前方走行車線検出部3で算出した自車前方車線形状と、周辺走行車線検出部4で算出した自車周辺車線形状とを組み合わせ、自車走行車線の区画線形状を特定する際に、前方車線検出信頼度の重みを軽くした上で(ステップS2−15)、自車走行車線の区画線形状を特定する(ステップS2−16)。
次に、自車走行車線判定部5は、検知精度が低下しないと判断した場合には、前方走行車線検出部3で算出した前方車線検出信頼度と周辺走行車線検出部4で算出した周辺車線検出信頼度とから、前方走行車線検出部3で算出した自車前方車線形状と、周辺走行車線検出部4で算出した自車周辺車線形状とを組み合わせて、自車走行車線の区画線形状を特定する(ステップS2−16)。特定された自車車線形状は、ハンドル操舵制御部7および車線逸脱判定部8に通知される。
ハンドル操舵制御部7は、自車走行車線判定部5から取得した自車車線形状と、車両状況通知部6から取得したCAN情報とに基づいて、左右の区画線の間の走行すべきエリアを自車両が安全に走行できるように、ハンドル操舵力を決定する(ステップS2−17)。決定されたハンドル操舵力は、ハンドル制御部9に通知される。
車線逸脱判定部8は、自車走行車線判定部5から取得した自車車線形状と、車両状況通知部6から取得したCAN情報とに基づいて、自車が左右の区画線の間の走行すべきエリアから逸脱しそうであるか否かの車線逸脱判定を行う(ステップS2−18)。車線逸脱判定結果は、音声出力部10に通知される。
ハンドル制御部9は、ハンドル操舵制御部7から指定されたハンドル操舵力になるようにハンドルの制御を行う(ステップS2−19)。
音声出力部10は、車線逸脱判定部8から警告音出力の通知の判定を行い(ステップS2−20)、通知があった場合のみ、スピーカから警告音を出力する(ステップS2−21)。
上述したステップS2−19のLKA制御処理と、ステップS2−21のLDW制御処理の後は、車両の電源がOFFとなったか否かが判定され(ステップS2−22)、車両の電源がONのままなら、再びステップS2−2に戻り、ステップS2−2からの処理を車両の電源がOFFとなるまで繰り返す。また、車両の電源がOFFとなると、全処理が終了される。
このように、太陽光入射角判断部12が前方検知カメラ部1に対する太陽の入射角を算出し、逆光等で前方検知カメラ部1の検知精度に影響が生じる場合に、周辺検知カメラ画像から検出した走行車線形状を利用することで、自車の走行車線形状を精度良く検出することができ、正確なLKA制御やLDW制御を実行することができる。
以上のように、実施の形態2によれば、前方撮像部に対する太陽光の入射角を検出する太陽光入射角判断部をさらに備え、区画線形状判定部は、前方区画線形状と周辺区画線形状とを、第1信頼度、第2信頼度および入射角に基づいて選択または組み合わせることで、移動体が移動する路面上の区画線の形状を判定する。
これにより、検知対象の距離およびカメラの画角が互いに異なる前方検知カメラ部1と周辺検知カメラ部2とで撮像した画像から、それぞれ自車の走行車線を検出し、前方検知カメラ画像と周辺検知カメラ画像とから検出した走行車線を組み合わせることで、前方カメラとって逆光の場合であっても、自車の走行車線形状を精度良く検出することができる。
また、区画線形状判定部は、入射角に基づいて前方区画線形状と周辺区画線形状との重みを変動させて、移動体が移動する路面上の区画線の形状を判定する。
これにより、前方カメラとって逆光の場合に、撮像した画像全体が白く光ったようになり、区画線の検知精度が低下するため、周辺カメラから算出した自車走行車線の重みを高くすることで、自車の走行車線形状を精度良く検出することができる。
また、太陽光入射角判断部は、前方撮像部が撮像した画像における太陽の位置を検知し、検知した位置から太陽光の入射角を算出する。
これにより、逆光の際に、自車前方車線の信頼度を低くするためには、逆光かどうかを判断することが必要であり、画像上の太陽の位置から太陽の入射角を算出し、前方カメラにとって、逆光かどうかを判断することができる。
また、太陽光入射角判断部は、周辺撮像部が撮像した画像における移動体の影の方向および長さに基づいて、太陽光の入射角を算出する。
これにより、撮像した画像上の自車の影の方向と長さとから、太陽の入射角を算出することができ、前方カメラにとって、逆光かどうかを判断することができる。
また、太陽光入射角判断部は、カーナビの地図情報と、GPSの位置情報および時刻情報と、車両のCAN情報とから、太陽光の入射角を算出する。
これにより、カーナビの位置情報から自車の位置情報を取得し、GPSの時刻情報から太陽の位置情報を取得し、車両のCAN情報からと自車の走行方向情報を取得し、自車の位置情報と走行方向情報と太陽の位置情報とから太陽の入射角を算出することができ、前方カメラにとって、逆光かどうかを判断することができる。
また、区画線形状判定部で判定された、移動体が移動する路面上の区画線の形状に従って、移動体を移動させる操舵支援部と、区画線形状判定部で判定された、移動体が移動する路面上の区画線の形状に対して、移動体が逸脱することが予想される場合に、移動体のユーザに警告する逸脱警告部とをさらに備えている。
これにより、精度良く自車走行車線を検出した上で、LKA制御やLDW制御の性能を高めることができる。
1 前方検知カメラ部(前方撮像部)、2 周辺検知カメラ部(周辺撮像部)、3 前方走行車線検出部(前方区画線検出部)、4 周辺走行車線検出部(周辺区画線検出部)、5 自車走行車線判定部(区画線形状判定部)、6 車両状況通知部、7 ハンドル操舵制御部(操舵支援部)、8 車線逸脱判定部(逸脱警告部)、9 ハンドル制御部、10 音声出力部、11 ナビゲーション装置部、12 太陽光入射角判断部。

Claims (26)

  1. 移動体が移動する路面上の区画線の形状を認識する路上区画線認識装置であって、
    前記移動体の前方を撮像する前方撮像部と、
    前記前方撮像部が撮像した画像から、路面上の区画線の形状を前方区画線形状として検出するとともに、前記前方区画線形状の信頼度を第1信頼度として算出する前方区画線検出部と、
    前記移動体の周辺を撮像する周辺撮像部と、
    前記周辺撮像部が撮像した画像から、路面上の区画線の形状を周辺区画線形状として検出するとともに、前記周辺区画線形状の信頼度を第2信頼度として算出する周辺区画線検出部と、
    前記前方区画線形状と前記周辺区画線形状とを、前記第1信頼度および前記第2信頼度に基づいて選択または組み合わせることで、前記移動体が移動する路面上の区画線の形状を判定する区画線形状判定部と、
    を備え、
    前記区画線形状判定部は、前記路面上の区画線の形状を判定するにあたって、
    前記移動体と前記区画線とのオフセット距離および区画線の傾き成分については、前記前方区画線形状に対して前記周辺区画線形状が反映されやすいようにし、
    前記区画線の曲線成分については、前記前方区画線形状に対して前記周辺区画線形状が反映されにくいようにする
    路上区画線認識装置。
  2. 前記区画線形状判定部は、前記第1信頼度および前記第2信頼度に基づいて、前記前方区画線形状と前記周辺区画線形状との選択または組み合わせる重みを変動させて、前記移動体が移動する路面上の区画線の形状を判定する
    請求項1に記載の路上区画線認識装置。
  3. 前記区画線形状判定部は、前記前方区画線形状および前記周辺区画線形状に基づいて、前記移動体と前記区画線とのオフセット距離、および前記移動体と前記区画線との傾きを算出する
    請求項1または請求項2に記載の路上区画線認識装置。
  4. 前記区画線形状判定部は、前記移動体の左側面または前記移動体の右側面に設けられた前記周辺撮像部が撮像した画像により算出された、前記移動体と前記区画線とのオフセット距離、および前記移動体と前記区画線との傾きの信頼度を高くして、選択または組み合わせる重みを重くする
    請求項3に記載の路上区画線認識装置。
  5. 前記前方撮像部に対する太陽光の入射角を検出する太陽光入射角判断部をさらに備え、
    前記区画線形状判定部は、前記前方区画線形状と前記周辺区画線形状とを、前記第1信頼度、前記第2信頼度および前記入射角に基づいて選択または組み合わせることで、前記移動体が移動する路面上の区画線の形状を判定する
    請求項1に記載の路上区画線認識装置。
  6. 前記区画線形状判定部は、前記入射角に基づいて前記前方区画線形状と前記周辺区画線形状との選択または組み合わせる重みを変動させて、前記移動体が移動する路面上の区画線の形状を判定する
    請求項5に記載の路上区画線認識装置。
  7. 前記太陽光入射角判断部は、前記前方撮像部が撮像した画像における太陽の位置を検知し、検知した位置から太陽光の入射角を算出する
    請求項5に記載の路上区画線認識装置。
  8. 前記太陽光入射角判断部は、前記周辺撮像部が撮像した画像における前記移動体の影の方向および長さに基づいて、太陽光の入射角を算出する
    請求項5に記載の路上区画線認識装置。
  9. 前記太陽光入射角判断部は、カーナビの地図情報と、GPSの位置情報および時刻情報と、車両のCAN情報とから、太陽光の入射角を算出する
    請求項5に記載の路上区画線認識装置。
  10. 前記区画線形状判定部は、前記第1信頼度があらかじめ設定された値よりも低い場合に、前記周辺区画線形状から、前記移動体が移動する路面上の区画線の形状を判定する
    請求項1から請求項9までのいずれか1項に記載の路上区画線認識装置。
  11. 移動体が移動する路面上の区画線の形状を認識する路上区画線認識方法であって、
    前記移動体の前方を撮像する前方撮像ステップと、
    前記前方撮像ステップで撮像された画像から、路面上の区画線の形状を前方区画線形状として検出するとともに、前記前方区画線形状の信頼度を第1信頼度として算出する前方区画線検出ステップと、
    前記移動体の周辺を撮像する周辺撮像ステップと、
    前記周辺撮像ステップで撮像された画像から、路面上の区画線の形状を周辺区画線形状として検出するとともに、前記周辺区画線形状の信頼度を第2信頼度として算出する周辺区画線検出ステップと、
    前記前方区画線形状と前記周辺区画線形状とを、前記第1信頼度および前記第2信頼度に基づいて選択または組み合わせることで、前記移動体が移動する路面上の区画線の形状を判定する区画線形状判定ステップと、
    を備え、
    前記区画線形状判定ステップでは、前記路面上の区画線の形状を判定するにあたって、
    前記移動体と前記区画線とのオフセット距離および区画線の傾き成分については、前記前方区画線形状に対して前記周辺区画線形状が反映されやすいようにし、
    前記区画線の曲線成分については、前記前方区画線形状に対して前記周辺区画線形状が反映されにくいようにする
    路上区画線認識方法。
  12. 前記区画線形状判定ステップでは、前記第1信頼度および前記第2信頼度に基づいて、前記前方区画線形状と前記周辺区画線形状との選択または組み合わせる重みを変動させて、前記移動体が移動する路面上の区画線の形状を判定する
    請求項11に記載の路上区画線認識方法。
  13. 前記区画線形状判定ステップでは、前記前方区画線形状および前記周辺区画線形状に基づいて、前記移動体と前記区画線とのオフセット距離、および前記移動体と前記区画線との傾きを算出する
    請求項11または請求項12に記載の路上区画線認識方法。
  14. 前記区画線形状判定ステップでは、前記移動体の左側面または前記移動体の右側面に設けられた前記周辺撮像ステップでの周辺撮像部が撮像した画像により算出された、前記移動体と前記区画線とのオフセット距離、および前記移動体と前記区画線との傾きの信頼度を高くして、選択または組み合わせる重みを重くする
    請求項13に記載の路上区画線認識方法。
  15. 前記前方撮像ステップでの前方撮像部に対する太陽光の入射角を検出する太陽光入射角判断ステップをさらに備え、
    前記区画線形状判定ステップでは、前記前方区画線形状と前記周辺区画線形状とを、前記第1信頼度、前記第2信頼度および前記入射角に基づいて選択または組み合わせることで、前記移動体が移動する路面上の区画線の形状を判定する
    請求項11に記載の路上区画線認識方法。
  16. 前記区画線形状判定ステップでは、前記入射角に基づいて前記前方区画線形状と前記周辺区画線形状との重みを変動させて、前記移動体が移動する路面上の区画線の形状を判定する
    請求項15に記載の路上区画線認識方法。
  17. 前記太陽光入射角判断ステップでは、前記前方撮像ステップでの前方撮像部が撮像した画像における太陽の位置を検知し、検知した位置から太陽光の入射角を算出する
    請求項15に記載の路上区画線認識方法。
  18. 前記太陽光入射角判断ステップでは、前記周辺撮像ステップでの周辺撮像部が撮像した画像における前記移動体の影の方向および長さに基づいて、太陽光の入射角を算出する
    請求項15に記載の路上区画線認識方法。
  19. 前記太陽光入射角判断ステップでは、カーナビの地図情報と、GPSの位置情報および時刻情報と、車両のCAN情報とから、太陽光の入射角を算出する
    請求項15に記載の路上区画線認識方法。
  20. 前記区画線形状判定ステップでは、前記第1信頼度があらかじめ設定された値よりも低い場合に、前記周辺区画線形状から、前記移動体が移動する路面上の区画線の形状を判定する
    請求項11から請求項19までのいずれか1項に記載の路上区画線認識方法。
  21. 請求項1から請求項10までのいずれか1項に記載の路上区画線認識装置と、
    前記区画線形状判定部で判定された、前記移動体が移動する路面上の区画線の形状に従って、前記移動体を移動させる操舵支援部を備えた
    運転支援装置。
  22. 前記区画線形状判定部で判定された、前記移動体が移動する路面上の区画線の形状に対して、前記移動体が逸脱することが予想される場合に、前記移動体のユーザに警告する逸脱警告部をさらに備えた
    請求項21に記載の運転支援装置。
  23. 請求項1から請求項10までのいずれか1項に記載の路上区画線認識装置と、
    前記区画線形状判定部で判定された、前記移動体が移動する路面上の区画線の形状に対して、前記移動体が逸脱することが予想される場合に、前記移動体のユーザに警告する逸脱警告部を備えた
    運転支援装置。
  24. 請求項11から請求項20までのいずれか1項に記載の路上区画線認識方法と、
    前記区画線形状判定ステップで判定された、前記移動体が移動する路面上の区画線の形状に従って、前記移動体を移動させる操舵支援ステップを備えた
    運転支援方法。
  25. 前記区画線形状判定ステップで判定された、前記移動体が移動する路面上の区画線の形状に対して、前記移動体が逸脱することが予想される場合に、前記移動体のユーザに警告する逸脱警告ステップをさらに備えた
    請求項24に記載の運転支援方法。
  26. 請求項11から請求項20までのいずれか1項に記載の路上区画線認識方法と、
    前記区画線形状判定ステップで判定された、前記移動体が移動する路面上の区画線の形状に対して、前記移動体が逸脱することが予想される場合に、前記移動体のユーザに警告する逸脱警告ステップを備えた
    運転支援方法。
JP2016222913A 2016-11-16 2016-11-16 路上区画線認識装置、路上区画線認識方法、路上区画線認識装置を備えた運転支援装置、および路上区画線認識方法を備えた運転支援方法 Active JP6336010B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016222913A JP6336010B2 (ja) 2016-11-16 2016-11-16 路上区画線認識装置、路上区画線認識方法、路上区画線認識装置を備えた運転支援装置、および路上区画線認識方法を備えた運転支援方法
US15/582,948 US10414396B2 (en) 2016-11-16 2017-05-01 Lane division line recognition apparatus, lane division line recognition method, driving assist apparatus including lane division line recognition apparatus, and driving assist method including lane division line recognition method
DE102017209962.3A DE102017209962A1 (de) 2016-11-16 2017-06-13 Spurtrennlinie-Erkennungsgerät, Spurtrennlinie-Erkennungsverfahren, Fahrunterstützungsgerät mit Spurtrennlinie-Erkennungsgerät und Fahrunterstützungsverfahren mit Spurtrennlinie-Erkennungsverfahren
US16/531,845 US10821975B2 (en) 2016-11-16 2019-08-05 Lane division line recognition apparatus, lane division line recognition method, driving assist apparatus including lane division line recognition apparatus, and driving assist method including lane division line recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016222913A JP6336010B2 (ja) 2016-11-16 2016-11-16 路上区画線認識装置、路上区画線認識方法、路上区画線認識装置を備えた運転支援装置、および路上区画線認識方法を備えた運転支援方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018087940A Division JP6815353B2 (ja) 2018-05-01 2018-05-01 路上区画線認識装置、路上区画線認識方法、路上区画線認識装置を備えた運転支援装置、および路上区画線認識方法を備えた運転支援方法

Publications (2)

Publication Number Publication Date
JP2018081471A JP2018081471A (ja) 2018-05-24
JP6336010B2 true JP6336010B2 (ja) 2018-06-06

Family

ID=62026786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016222913A Active JP6336010B2 (ja) 2016-11-16 2016-11-16 路上区画線認識装置、路上区画線認識方法、路上区画線認識装置を備えた運転支援装置、および路上区画線認識方法を備えた運転支援方法

Country Status (3)

Country Link
US (2) US10414396B2 (ja)
JP (1) JP6336010B2 (ja)
DE (1) DE102017209962A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6686873B2 (ja) * 2016-12-27 2020-04-22 トヨタ自動車株式会社 運転支援装置
JP6539304B2 (ja) * 2017-06-06 2019-07-03 株式会社Subaru 車両の走行制御装置
DE102018112177A1 (de) * 2018-05-22 2019-11-28 Connaught Electronics Ltd. Fahrspurdetektion auf der Basis von Fahrspurmodellenn
DE102018208739A1 (de) 2018-06-04 2019-12-05 Conti Temic Microelectronic Gmbh Abschätzung von Ortskoordinaten von Lichtquellen in Umgebungsbildern
US20190378055A1 (en) * 2018-06-06 2019-12-12 Lyft, Inc. Systems and methods for determining allocation of personal mobility vehicles
KR102675523B1 (ko) 2018-09-28 2024-06-14 삼성전자주식회사 차로를 결정하는 방법 및 장치
KR102034316B1 (ko) * 2019-01-29 2019-11-08 주식회사 만도 차량 위치 보정 시스템 및 방법, 그리고 카메라
KR20210005439A (ko) * 2019-07-05 2021-01-14 현대자동차주식회사 운전자 보조 장치, 그를 가지는 차량 및 그 제어 방법
JP2022039469A (ja) * 2020-08-28 2022-03-10 本田技研工業株式会社 車両走行制御装置
CN112319464B (zh) * 2020-11-09 2021-10-15 恒大新能源汽车投资控股集团有限公司 自动泊车方法、装置、设备及存储介质
CN114973299B (zh) * 2022-08-01 2023-01-10 万翼科技有限公司 建筑图纸构件识别方法、装置、电子设备及存储介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289121A (ja) * 1993-03-31 1994-10-18 Sony Corp 測位装置
EP1504276B1 (en) * 2002-05-03 2012-08-08 Donnelly Corporation Object detection system for vehicle
JP2008134165A (ja) * 2006-11-29 2008-06-12 Renesas Technology Corp ナビゲーションシステム
JP2008250904A (ja) * 2007-03-30 2008-10-16 Toyota Motor Corp 車線区分線情報検出装置、走行車線維持装置、車線区分線認識方法
JP5136314B2 (ja) * 2008-09-16 2013-02-06 トヨタ自動車株式会社 車線認識装置
JP5045628B2 (ja) * 2008-09-25 2012-10-10 トヨタ自動車株式会社 車線逸脱防止装置
JP5152019B2 (ja) * 2009-01-30 2013-02-27 株式会社デンソー 車両用制御装置
JP5286214B2 (ja) 2009-09-30 2013-09-11 日立オートモティブシステムズ株式会社 車両制御装置
US9090263B2 (en) * 2010-07-20 2015-07-28 GM Global Technology Operations LLC Lane fusion system using forward-view and rear-view cameras
JP2012073821A (ja) * 2010-09-29 2012-04-12 Panasonic Corp 車線検知装置
JP5910180B2 (ja) * 2012-03-06 2016-04-27 日産自動車株式会社 移動物体位置姿勢推定装置及び方法
JP2014026396A (ja) 2012-07-25 2014-02-06 Ricoh Co Ltd 移動面境界線認識装置、移動面境界線認識装置を備えた移動体、移動面境界線認識方法及び移動面境界線認識用プログラム
JP5981322B2 (ja) * 2012-11-27 2016-08-31 クラリオン株式会社 車載画像処理装置
KR20150009757A (ko) * 2013-07-17 2015-01-27 삼성전자주식회사 영상처리장치 및 그 제어방법
JP6330383B2 (ja) * 2014-03-12 2018-05-30 株式会社デンソー 合成画像生成装置、および合成画像生成プログラム
JP6458384B2 (ja) * 2014-07-24 2019-01-30 株式会社デンソー 車線検出装置および車線検出方法
JP6189815B2 (ja) * 2014-10-29 2017-08-30 株式会社Soken 走行区画線認識システム
US10102435B2 (en) * 2016-08-10 2018-10-16 Omnivision Technologies, Inc. Lane departure warning system and associated methods

Also Published As

Publication number Publication date
JP2018081471A (ja) 2018-05-24
US20190351902A1 (en) 2019-11-21
DE102017209962A1 (de) 2018-05-17
US10821975B2 (en) 2020-11-03
US20180134289A1 (en) 2018-05-17
US10414396B2 (en) 2019-09-17

Similar Documents

Publication Publication Date Title
JP6336010B2 (ja) 路上区画線認識装置、路上区画線認識方法、路上区画線認識装置を備えた運転支援装置、および路上区画線認識方法を備えた運転支援方法
US10878256B2 (en) Travel assistance device and computer program
EP1072863B1 (en) Image processing apparatus for navigation system
US7746221B2 (en) Method for preventing lane departure for use with vehicle
KR102004062B1 (ko) 자동차의 운전자 보조 시스템 조작 방법, 운전자 보조 시스템 및 자동차
US20120259546A1 (en) Apparatus and method for displaying road guide information on windshield
JP5890788B2 (ja) 駐車空間検知装置
JP5621589B2 (ja) ナビゲーション装置、ナビゲーション方法、及びナビゲーションプログラム
WO2007132860A1 (ja) 対象物認識装置
CN101808852A (zh) 用于泊车装置的显示装置的控制装置及用于显示的方法
KR101986166B1 (ko) 차선 인식 장치 및 방법
JP6376354B2 (ja) 駐車支援システム
JP2010078387A (ja) 車線判定装置
JP4297045B2 (ja) ヘッドアップディスプレイの表示制御装置およびプログラム
JP2007278813A (ja) 車両位置測位装置
JP5429565B2 (ja) 車高検出装置
JP2013036856A (ja) 運転支援装置
JP2010281781A (ja) 走行車線検出装置
GB2409921A (en) Method and system for assisting drivers to park a motor vehicle by measuring the parking space and showing the driver the optimum starting area.
JP4968369B2 (ja) 車載装置及び車両認識方法
JP6811497B1 (ja) 自動運転車
JP4687381B2 (ja) 車両認識方法及び車載装置
JP6815353B2 (ja) 路上区画線認識装置、路上区画線認識方法、路上区画線認識装置を備えた運転支援装置、および路上区画線認識方法を備えた運転支援方法
JP2010176592A (ja) 車両用運転支援装置
JP2007122395A (ja) 車両の方向転回判定方法及び車両の方向転回判定装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180501

R150 Certificate of patent or registration of utility model

Ref document number: 6336010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250