JP6568437B2 - 区画線認識装置 - Google Patents

区画線認識装置 Download PDF

Info

Publication number
JP6568437B2
JP6568437B2 JP2015183763A JP2015183763A JP6568437B2 JP 6568437 B2 JP6568437 B2 JP 6568437B2 JP 2015183763 A JP2015183763 A JP 2015183763A JP 2015183763 A JP2015183763 A JP 2015183763A JP 6568437 B2 JP6568437 B2 JP 6568437B2
Authority
JP
Japan
Prior art keywords
lane
vehicle
line
lane line
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015183763A
Other languages
English (en)
Other versions
JP2017059003A (ja
JP2017059003A5 (ja
Inventor
待井 君吉
君吉 待井
將裕 清原
將裕 清原
秀行 粂
秀行 粂
範安 長谷島
範安 長谷島
福田 大輔
大輔 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2015183763A priority Critical patent/JP6568437B2/ja
Priority to PCT/JP2016/075209 priority patent/WO2017047365A1/ja
Publication of JP2017059003A publication Critical patent/JP2017059003A/ja
Publication of JP2017059003A5 publication Critical patent/JP2017059003A5/ja
Application granted granted Critical
Publication of JP6568437B2 publication Critical patent/JP6568437B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、区画線認識装置に関する。
道路を走行中の車両の事故防止のために、車両が走行する領域を定めた路上の区画線を認識する技術が求められている。特許文献1には、自車両走行路の撮像画像内に第1画像処理領域を左右個別に設定して車線標示を検出する車線標示検出部31と、検出した撮像画像内の左右一方の車線標示及び車線幅に基づき撮像画像内において左右他方の車線標示位置を推定する車線標示位置推定部33と、自車両走行路の撮像画像内に第1画像処理領域を含みかつ第1画像処理領域よりも広い第2画像処理領域を設定して車線標示を検出する広域車線標示検出部34と、車線標示検出部31による車線標示の検出結果及び車線標示位置推定部33による車線標示位置の推定結果それぞれに対し広域車線標示検出部34による車線標示の検出結果とのマッチングを行う検出結果照合部35と、検出結果照合部35のマッチング結果に基づきレーンを認識するレーン認識状況判断部36とを備えるレーン認識装置が開示されている。
特開2013−61934号公報
特許文献1に記載されている発明では、路面から得られる情報に含まれるノイズの耐性に改良の余地がある。
本発明の第1の態様に係る区画線認識装置は、車両の左側の路面情報を取得する第1のセンサと、前記車両の右側の路面情報を取得する第2のセンサと、前記第1のセンサが取得した情報に基づき当該車両の左側の区画線の候補である左区画線候補を検出し、当該車両から前記左区画線候補までの距離を算出する左区画線位置算出部と、前記第2のセンサが取得した情報に基づき当該車両の右側の区画線の候補である右区画線候補を検出し、当該車両から前記右区画線候補までの距離を算出する右区画線位置算出部と、当該車両の左右に存在する区画線の間隔である第1車線幅を算出する車線幅算出部と、当該車両の幅を記憶する記憶部と、前記左区画線位置算出部が算出した当該車両から前記左区画線候補までの距離、前記右区画線位置算出部が算出した当該車両から前記右区画線候補までの距離、前記記憶部に記憶された当該車両の幅、および前記第1車線幅とに基づき、前記左区画線位置算出部が検出した前記左区画線候補、および前記右区画線位置算出部が検出した前記右区画線候補が当該車両の左右の区画線か否かを判断する区画線判定部と、を備え、前記区画線判定部は、前記左区画線位置算出部よって検知された前記左区画線候補の位置、前記記憶部に記憶された当該車両の幅、および前記車線幅算出部が算出した前記第1車線幅に基づき、前記第2のセンサが取得した情報における探索領域を推定し、前記右区画線位置算出部に前記探索領域内において前記右区画線候補を検出させ、前記右区画線位置算出部が前記探索領域内において前記右区画線候補を検出すると、当該左区画線候補および当該右区画線候補を当該車両の左右の区画線と判断する
本発明の第2の態様に係る区画線認識装置は、車両の左側の路面情報を取得する第1のセンサと、前記車両の右側の路面情報を取得する第2のセンサと、前記第1のセンサが取得した情報に基づき当該車両の左側の区画線の候補である左区画線候補を検出し、当該車両から前記左区画線候補までの距離を算出する左区画線位置算出部と、前記第2のセンサが取得した情報に基づき当該車両の右側の区画線の候補である右区画線候補を検出し、当該車両から前記右区画線候補までの距離を算出する右区画線位置算出部と、当該車両の左右に存在する区画線の間隔である第1車線幅を算出する車線幅算出部と、当該車両の幅を記憶する記憶部と、前記左区画線位置算出部が算出した当該車両から前記左区画線候補までの距離、前記右区画線位置算出部が算出した当該車両から前記右区画線候補までの距離、前記記憶部に記憶された当該車両の幅、および前記第1車線幅とに基づき、前記左区画線位置算出部が検出した前記左区画線候補、および前記右区画線位置算出部が検出した前記右区画線候補が当該車両の左右の区画線か否かを判断する区画線判定部と、を備え、前記左区画線位置算出部は、前記区画線判定部により当該車両の左の区画線であると判断された前記左区画線候補の位置、および前記車線幅算出部が算出した前記第1車線幅に基づき隣接区画線を構成する区画線を検出する左隣接区画線検出処理をさらに行い、前記右区画線位置算出部は、前記区画線判定部により当該車両の右の区画線であると判断された前記右区画線候補の位置、および前記車線幅算出部が算出した前記第1車線幅に基づき隣接区画線を構成する区画線を検出する右隣接区画線検出処理をさらに行う。
本発明によれば、路面から得られる情報に含まれるノイズに起因する区画線の誤検知を減少させることができる。
区画線認識装置1の構成を示す図 区画線認識装置1のプログラムの構成を示す図 記憶装置103に保存されるデータを示す図 自車線および隣接車線の定義を説明する図 区画線認識装置1の主たる動作を表すフローチャート 図5のステップS301における自車線の白線を検知する処理の詳細を示すフローチャート 図7(a)は車両2が白線をまたいでいない場合を示す図、図7(b)は車両2が白線702をまたいでいる場合を示す図 図6のステップS408に関連する、白線の検証例を示す図 図6のステップS401である車線幅算出処理の詳細を示すフローチャート 図9のステップS603における処理領域を示す図 図9のステップS604〜S606における処理例を示す図 図5のステップS302における隣接車線の白線検知処理を示すフローチャート 図12のステップS1203における交差点判定処理の詳細を示すフローチャート 図12のステップS1205における領域設定処理の詳細を示すフローチャート 領域設定処理が行われる状況を説明する図 領域設定処理の例を示す図 変形例1における自車線の白線を検知する処理の詳細を示すフローチャート 変形例2における自車線の白線を検知する処理の詳細を示すフローチャート 右隣接車線の白線検知を行うか否かの判断を示すフローチャート 第2の実施の形態における区画線認識装置1の構成を示す図 道路種別と道路幅員の関係を示す幅員データ2000を示す図 第3の実施の形態における区画線認識装置1の構成を示す図 第3の実施の形態における自車線の白線を検知する処理の詳細を示すフローチャート
(第1の実施の形態)
以下、図1〜図16を参照して、本発明にかかる区画線認識装置の第1の実施の形態を説明する。本実施の形態において、区画線とは、車道中央線、車線境界線、および車道外側線の全てを含む概念である。
図1は、車両2に搭載される区画線認識装置1の構成を示す図である。車両2は、区画線認識装置1と、車両制御ユニット108とを備える。区画線認識装置1と、車両制御ユニット108とは、CANバス107により接続される。区画線認識装置1が認識した区画線に関する情報は、車両制御ユニット108に送信される。
区画線認識装置1は、車両2の前方を撮影する前方カメラ101−Frと、車両2の後方を撮影する後方カメラ101−Rrと、車両2の左側方を監視する左サイドカメラ101−SLと、車両2の右側方を撮影する右サイドカメラ101−SRと、これらのカメラが撮影して得られた画像を処理する画像処理装置102と、記憶装置103と、CPU104と、メモリ105と、CAN I/F 106とを備える。
前方カメラ101−Fr、後方カメラ101−Rr、左サイドカメラ101−SL、および右サイドカメラ101−SRは広角レンズ、たとえば魚眼レンズを備えたカメラであり、所定時間ごとに撮影を行い、撮影して得られた画像に関する情報を画像処理装置102へ出力する。
画像処理装置102は、前方カメラ101−Fr、後方カメラ101−Rr、左サイドカメラ101−SL、および右サイドカメラ101−SRのそれぞれから受信した情報に基づき画像データを生成し、CPU104に出力する。すなわち、前方カメラ101−Frが撮影して得られた画像に関する情報を画像処理装置102が処理することによりCPU104が処理可能な画像データを得る。ただし以下では画像処理装置102の動作は特に言及せず、画像処理装置102が処理して得られた画像データを「前方カメラ101−Frが撮影して得られた画像」や「前方カメラ101−Frの画像」などと呼ぶ。
記憶装置103は不揮発性記憶媒体であり、記憶装置103には区画線認識装置1が実行するプログラム、車両2の幅、および後述するデータなどが記憶される。
CPU104は、画像処理装置102が出力する画像データを用いて、車両の自車線、隣接車線を構成する白線の情報、すなわち自車線や隣接車線を構成する白線の有無および自車両との位置関係を抽出し、その白線情報をメモリ105に蓄える。自車線、および隣接車線の情報は、CAN I/F 106、およびCANバス107を経由して、車両制御ユニット108に送られる。
なお、本実施の形態において後方カメラ101−Rrは必ずしも必要ではなく、前方カメラ101−Frがあれば区画線認識装置を実施可能である。
図2は、区画線認識装置1の構成を示す図である。図2に示すブロックは、画像処理装置102のROMに保存されているプログラムが有する機能をブロック図として示したものである。
左白線検知部201は、左サイドカメラ101−SLから得られた画像を処理して車両2の左側の白線候補を検知する。右白線検知部202は、サイドカメラ101−SRから得られた画像を処理して車両の右側の白線候補を検知する。左白線位置計算部203は、左白線検知部201が検知した白線候補について、車両2との相対位置を算出する。右白線位置計算部204は、右白線検知部202で検知した白線候補について、車両2との相対位置を算出する。また、左白線検知部201は車両2の左側に隣接する車線の検出を、右白線検知部202は車両2の右側に隣接する車線の検出をさらに行う。
車線幅算出部205は、後方カメラ101−Rrまたは前方カメラ101−Frから得られた画像を用いて車両2の左右両方の白線を検知し、車線幅を算出する。白線判定部206は、左白線位置計算部203、右白線位置計算部204、車線幅算出部205で得られた結果を用い、検出された白線候補の組み合わせが適切であるか否かを判定する。白線判定部206は、適切と判断した白線候補の組み合わせを白線として確定して車両制御ユニット108に出力する。
図3は、記憶装置103に保存されるデータを示す図である。記憶装置103には、検知時刻データ1501と、キャリブレーションデータ1502と、フロント情報1504と、右サイド情報1505と、左サイド情報1506とが保存される。
検知時刻データ1501は、各カメラの画像を処理した時刻であり、検知時刻データ1501には各カメラに対して共通の時刻が格納される。検知時刻データ1501には、少なくとも時刻とタイムゾーンが含まれる。
キャリブレーションデータ1502には、少なくともキャリブレーションを実行した時刻と4つのカメラそれぞれについてのカメラパラメータが含まれる。キャリブレーションとは、カメラパラメータを補正する処理である。工場出荷時のカメラパラメータは設計値が入力されている。一度もキャリブレーションが実行されていない場合には、時刻のデータは例えば1970年1月1日0時0分0秒等、工場出荷前の任意の日時を格納することで、工場出荷時の状態のままであることを示す。カメラパラメータは、カメラの内部パラメータ、外部パラメータを含む。内部パラメータとは、カメラの焦点距離、撮像素子の画素数、および撮像素子のサイズなどである。外部パラメータとは、カメラの取付け位置、および取付け姿勢である。そのため、カメラパラメータを用いることにより、それぞれのカメラが撮影して得られる画像上の位置と、実空間における位置との関係が算出できる。
なお、以下の説明にて用いる「距離」や「幅」などは原則として実空間におけるものをいい、カメラが撮影して得られる画像上におけるものを指す場合には「画像上の距離」や「画像上の幅」と呼ぶ。
フロント情報1504には、前方カメラ101−Frからの画像を処理して得られた白線の情報に基づいて演算された右側および左側の白線の線種、ならびにそれら左右白線の車両からの相対距離が含まれる。さらにフロント情報1504には、後述する演算処理により停止線を検知された場合は停止線までの距離、停止線が伸びている方向(右/左/無)が格納される。後述する演算処理により停止線が検知されなかった場合、停止線の有無は「無」となり、「伸び方向」、「距離」はそれぞれ「無」、「−1」となる。なお、後方カメラ101−Rrから得られた画像を処理した結果を同様にリア情報として保存してもよい。
右サイド情報1505は、右サイドカメラ101−SRで検知した白線に関する情報を含む。また、少なくとも自車線の白線、隣接車線の白線に関する情報を含み、それぞれ線種、車両からの距離を含む。左サイド情報1506は、左サイドカメラ101−SLで検知した白線に関する情報を含む。含まれるデータは、右サイド情報1505と同様であるため、説明は省略する。
(自車線と隣接車線の定義)
本実施の形態において、自車線とは車両の両側に存在する2本の白線をいう。隣接車線とは、隣接する走行レーンを構成する白線のうち、自車線を構成する白線を除く白線をいう。また、白線の太さ、すなわち白線の幅を白線幅と呼ぶ。この白線幅は区画線の種類、すなわち車道中央線、車線境界線、および車道外側線を問わず一定であり、白線幅は既知とする。具体例を図4を用いて説明する。
図4は、自車線および隣接車線の定義を説明する図である。図4は、片側4車線の車道を示しており、左から第1レーン、第2レーン、第3レーン、第4レーンと呼ぶ。車両2が第2レーンに居る場合、自車線とは白線Bおよび白線Cである。自車線の左に隣接する第1レーンは、白線Aと白線Bにより構成されるが、左の隣接車線とは白線Aのみである。同様に、右の隣接車線は白線Dであり、右の隣々接車線は白線Eである。
(画像処理装置の動作)
以下、フローチャートを用いて画像処理装置102の動作を説明する。
(メインフローチャート)
図5は、区画線認識装置1の主たる動作を表すフローチャートである。車両2のイグニッションキースイッチがONにされると動作が開始される。以下に説明する各ステップの動作主体は、区画線認識装置1のCPU104である。
ステップS301において、自車線の白線を検知する。自車線の白線の検知については、後に図6を用いて説明する。次にステップS302に進む。
ステップS302において、隣接車線の白線を検知する。隣接車線の白線の検知については、後に図12を用いて説明する。次にステップS303に進む。
ステップS303において、イグニッションキースイッチがOFFにされたか否かを判断する。イグニッションキースイッチがOFFにされたと判断する場合は、図5に示す処理を実行するプログラムを終了し、イグニッションキースイッチがOFFにされていないと判断する場合はステップS301に戻る。
すなわち画像処理装置102は、イグニッションキースイッチがOFFにされるまで自車線の白線の検知と隣接車線の白線の検知を繰り返す。
(自車線の白線検知)
図6は、図5のステップS301、すなわち自車線の白線を検知する処理の詳細を示すフローチャートである。以下に説明する各ステップの動作主体は、区画線認識装置1のCPU104である。
ステップS401において、車線幅wlaneを算出する。車線幅wlaneの算出については、後に図9を用いて説明する。車線幅wlaneを算出するとステップS402に進む。
ステップS402において、白線をまたいでいるか否かを判断する。これは、前方カメラ101−Fr又は後方カメラ101−Rrから得られた画像において、白線が中央付近の所定の範囲に存在するか否かにより判断が可能である。白線をまたいでいないと判断するとステップS404に進み、白線を跨いでいると判断するとステップS403に進む。また、前方カメラ101−Fr又は後方カメラ101−Rrの光軸が車両軸心方向に合致して設置されていれば、車幅に基づいて白線を跨いでいるか否かを判断することもできる。
白線を跨いでいないと判断されると実行されるステップS404では、第1車線幅wlineをステップS401において算出されるwlaneのままとし、ステップS405に進む。第1車線幅wlineとは後の処理で使用する変数であり、左サイドカメラ101−SLと右サイドカメラ101−SRのそれぞれで検知される白線同士の距離である。
白線を跨いでいると判断されると実行されるステップS403では、第1車線幅wlineをステップS401において算出されるwlaneの2倍とし、ステップS405に進む。
ステップS405では、左サイドカメラ101−SLと右サイドカメラ101−SRとからそれぞれ画像を取得しステップS406に進む。
ステップS406では、ステップS405において取得した画像それぞれから白線候補を検知する。白線の検知には、例えば輝度値が黒色相当と白色相当の境界エッジを用いる。このとき検知される白線候補には、白線以外が含まれる場合がある。たとえば、道路上に形成された轍に雨が溜まり、水溜りに太陽光が反射されることで白線候補として検知される場合がある。次にステップS407に進む。
ステップS407では、ステップS406において検知した白線候補のそれぞれの画像中の位置、およびカメラパラメータを用いて、当該車両の右端から右白線候補までの距離dと、当該車両の左端から左車線候補までの距離dを算出する。次にステップS408に進む。
ステップS408では、ステップS406において検知した白線候補の位置の整合性を以下のように検討する。すなわち、第1車線幅wlineと、車両から右白線候補までの距離d、左車線候補までの距離d、および車幅wの和(以下、第2車線幅)との差分が、予め定めた閾値dth以内であるか否かにより、上記整合性の判定を行う。整合する、すなわち第1車線幅wlineと第2車線幅との差が閾値dth以内であると判断する場合はステップS410に進む。整合しない、すなわち第1車線幅wlineと第2車線幅との差が閾値dthより大きいと判断する場合はステップS409に進む。
ステップS409では、ステップS407において算出した距離dと距離dの全てのペアをステップS408において検証したか否かを判断する。全てのペアを検証したと判断する場合はステップS411に進み、未検証のペアが残っていると判断する場合はステップS408に戻る。たとえば、ステップS406において左サイドカメラ101−SLから得られた画像から2つの白線候補が検知され、右サイドカメラ101−SRから得られた画像から3つの白線候補が検知された場合には、ステップS408が最大で6回実行される。
ステップS410では、直前にステップS408において検証された白線候補のペアを白線として確定し、自車線の白線検知処理を終了する。
ステップS411では、白線が存在しないとして確定し、自車線の白線検知処理を終了する。
(自車線の白線検知の具体例)
図7および図8を用いて、図6を用いて説明した自車線の白線検知の具体例を説明する。図7および図8のいずれも、車両2は片側2車線の車道を走行中であり、その車道は、車道外側線である白線701と、車線境界線である白線702と、車道中央線である白線703とを有する。図7および図8では、車道中央線を超えて存在する反対車線用の白線を省略している。
図7(a)は車両2が白線をまたいでいない場合、図7(b)は車両2が白線702をまたいでいる場合を示す図である。
図7(a)に示す白線をまたいでいない場合では、左サイドカメラ101−SLが路面を撮影して得られた画像には白線701が撮影されている蓋然性が高い。同様に、右サイドカメラ101−SRが路面を撮影して得られた画像には白線702と白線703が撮影されている蓋然性が高い。したがって、図6のステップS407において、距離dlは車両2から白線701までの距離、距離dは車両2から白線702までの距離となる。第2車線幅は距離d、距離d、および車幅wの和なので、第1車線幅wline第2車線幅とがほぼ一致すると想定できる。そのため、図6のステップS404では、第1車線幅がステップS401において算出した車線幅wlaneと等しく設定される(図6、S404)。
一方、図7(b)に示す白線をまたいでいる場合では、左サイドカメラ101−SLが路面を撮影して得られた画像には白線701が撮影されている蓋然性が高い。同様に、右サイドカメラ101−SRが路面を撮影して得られた画像には白線703が撮影されている蓋然性が高い。したがって図6のステップS407において、距離dは車両2から白線701までの距離、距離dは車両2から白線703までの距離となり、第1車線幅wlineは車線幅のほぼ2倍と想定できる。そのため、図6のステップS403では、第1車線幅はステップS401において算出した車線幅wlaneの2倍に設定される(図6、S403)。
図8は、図6のステップS408に関連する、白線の検証例を示す図である。ここで、右サイドカメラ101−SRが路面を撮影して得られた画像に轍801が撮影されており、右白線検知部202が轍801を白線候補として検知したとする。このとき、距離dは車両2から轍801までの距離となる。しかし、距離d、距離d、および車幅wの和である第2車線幅と、車線幅wlaneは一致しないので、閾値dthを適切に設定することにより、白線701と轍801のペアは白線として判定されることは無い。つまり、轍801を白線として誤検知することが無い。
また、図8では轍を誤検出の対象例として紹介したが、路肩を白線として誤検知することも同様に防ぐことができる。
(車線幅算出処理)
図9は、図6のステップS401である車線幅算出処理の詳細を示すフローチャートである。車線幅算出処理は、車線幅算出部205にて実行されるものである。なお、本実施の形態では前方カメラ101−Frの処理として示しているが、後方カメラ101−Rrでもよく、いずれかのカメラから得られる画像に対して処理が実行されればよい。以下に説明する各ステップの動作主体は、区画線認識装置1のCPU104である。
ステップS601では、前方カメラ101−Frが撮影して得られた画像を取得してステップS602に進む。
ステップS602では、ステップS601において取得した画像を対象として、図6のステップS406と同様の手法により白線を検知する。次にステップS603に進む。
ステップS603は、ステップS602において検知された白線が、以下の条件を満たすか否かを判断する。その条件とはすなわち、後述する左検知領域1002において1本のみ白線が検知され、後述する右検知領域1003において1本のみ白線が検知され、後述する中央検知領域1004において白線が検知されていないことである。これらの条件をすべて満たすと判断する場合はステップS60に進み、少なくとも1つの条件を満たさないと判断する場合はステップS607に進む。
ステップS604では、2本の白線の特徴点を検出して画像上の座標を算出する。例えば、予め定めた直線上において、輝度値が黒色相当と白色相当の境界を特徴点とする。次にステップS605に進む。
ステップS605では、ステップS604において得た特徴点のうち、それぞれの白線において画像の中央に近い方の特徴点を特定し、特定した特徴点の車両2からの相対位置を算出してステップS606に進む。
ステップS606では、ステップS605において相対位置を算出した2点間の距離を算出してこれを車線幅とし、車線幅算出処理を終了する。
ステップS603において否定判定をされると実行されるステップS607では、規定値、たとえば3mを車線幅とし、車線幅算出処理を終了する。
(車線幅算出処理の例)
図10は、図9のステップS603における処理領域を示す図である。符号1001は前方カメラ101−Frが撮影して得られた画像である。画像1001の左側であって上部を除いた領域が左検知領域1002、画像1001の右側であって上部を除いた領域が右検知領域1003、画像1001の中央であって上部を除いた領域が中央検知領域1004である。図9に戻って説明を続ける。
図11は、図9のステップS604〜S606における処理例を示す図である。符号1001は、図10と同様に前方カメラ101−Frが撮影して得られた画像を示す。図11に示すように、図示左右を画像1001のX軸方向、図示上下を画像1001のY軸方向と定義する。この画像には、カメラで撮影された車両2の左の白線1010と、車両2の右の白線1011が含まれている。
ステップS604において、区画線認識装置1はX軸に平行な直線であって予め定めたY座標を有する直線1016の上を探索し、特徴点1012〜1015を検出して画像上の座標を得る。次にステップS605において、区画線認識装置1はそれぞれの白線において画像の中央に近いほうの特徴点、すなわち特徴点1013および特徴点1014を特定する。そして、前方カメラ101−Frのカメラパラメータに基づき、それら特徴点の車両2からの相対位置を算出する。ステップS606において、区画線認識装置1はステップS605において算出した2つの相対距離の差分を算出することにより特徴点1013と特徴点1014の実空間における距離を算出し、これを車線幅とする。
(隣接車線の白線検知処理)
図12は、隣接車線における白線を検知するフローチャートであり、図5のステップS302の処理に相当するものである。以下に説明する各ステップの動作主体は、区画線認識装置1のCPU104である。
ステップS1201では、ステップS301の結果を取得して、自車線の白線を検知できたか否かを判断する。自車線の白線を検知できたと判断する場合はステップS1202に進み、検知できなかったと判断する場合は隣接車線の白線検知処理を終了する。
ステップS1202では、検知した両側の白線が実線であったか、それとも少なくとも一方が破線であったかを判断する。いずれも実線であると判断する場合はステップS1203に進み、それとも少なくとも一方が破線であると判断する場合はステップS1205に進む。本ステップでは、通常は車線境界線は破線で表現されるところ、交差点の手前では車線境界線も実線で表現されることを利用し、前方に交差点が存在する可能性を判断している。
ステップS1203では、後に図13を用いて説明する交差点判定処理を実行し、ステップS1204に進む。この交差点判定処理は、実線が車道中央線あるいは車道外側線なのか、交差点手前の白線なのかを判別するものである。
ステップS1204では、交差点判定処理の結果、交差点処理が必要であると判断する場合はステップS1205に進み、交差点処理が不要であると判断する場合は、隣接車線の白線検知処理を終了する。
ステップS1205では、後に図14を用いて説明する領域設定処理を実行し、ステップS1206に進む。
ステップS1206では、当該処理領域内で白線候補が検知されたか否かを判定する。検知されたと判断する場合はステップS1208に進んで白線ありと判定し、検知されていないと判断する場合はステップS1207に進んで白線無しと判定する。ステップS1207またはステップS1208が実行されると、白線検知処理を終了する。
(交差点判定処理)
図13は、図12のステップS1203における交差点判定処理の詳細を示すフローチャートである。以下に説明する各ステップの動作主体は、区画線認識装置1のCPU104である。
ステップS1301では、前方カメラ101−Frが撮影して得られた画像を取得し、ステップS1302に進む。
ステップS1302では、ステップS1301において取得した画像において、自車線に直交する白線が存在するか否かを判断する。自車線に直交する白線が存在すると判断する場合はステップS1303に進み、自車線に直交する白線が存在しないと判断する場合はステップS1305に進む。
ステップS1303では、自車線に直交する白線が自車線を構成する左側の白線にまで達しているか否かを判断する。自車線を構成する左側の白線にまで達していると判断する場合はステップS1304に進み、自車線を構成する左側の白線にまで達していないと判断する場合はステップS1305に進む。ステップS1302およびステップS1303では、停止線は区画線と直交する実線の白線であり、停止線は車道中央線から車道外側線まで伸びていることを利用している。
ステップS1304では、交差点処理が必要であると判断し、交差点判定処理を終了する。
ステップS1302またはステップS1303において否定判断がされると実行されるステップS1305では、交差点処理が不要であると判断し、交差点判定処理を終了する。
(領域設定処理)
図14は、図12のステップS1205における領域設定処理の詳細を示すフローチャートである。以下の処理では、画像上に白線の存在が推定される細長い矩形状の領域を設定する。この細長い矩形状の領域の長辺は、中心線と幅により定義され、長さ方向は画像の端部まで達する。以下に説明する各ステップの動作主体は、区画線認識装置1のCPU104である。
ステップS901では、画像上の領域の中心線、すなわち画像上に推定される白線の中心線を算出する。たとえば、右の隣接車線に関する推定領域の中心は、右サイドカメラ101−SRが撮影して得られた画像における自車線の位置、算出済みの車線幅wlane、白線幅、およびカメラパラメータに基づき算出される。次にステップS902に進む。
ステップS902では、記憶装置103からキャリブレーションデータ1502の時刻情報を取得し、ステップS903に進む。
ステップS903では、キャリブレーションの状態が初期状態か否かを判定する。前述のとおり、キャリブレーションデータ1502の時刻情報には、キャリブレーションが実行されている場合はキャリブレーションが実行された時刻が格納され、キャリブレーションが実行されていない場合はたとえば1970年1月1日0時0分0秒が格納される。そのため、キャリブレーションデータ1502の時刻情報が1970年1月1日0時0分0秒以外であればキャリブレーションがされている、すなわち初期状態ではないと判断してステップS90に進む。キャリブレーションデータ1502の時刻情報が1970年1月1日0時0分0秒であればキャリブレーションがされていない、すなわち初期状態であると判断してステップS90に進む。
ステップS904では、処理領域の幅を「4×画像上の白線幅」に設定し、領域設定処理を終了する。
ステップS905では、処理領域の幅を「2×画像上の白線幅」に設定し、領域設定処理を終了する。
ステップS904およびS905は、以下の考えに基づく処理である。すなわち、キャリブレーションが初期状態のままであれば、検知した白線候補の位置の精度が良くないと考えられるため処理領域を大きくし、走行中にキャリブレーションを実行済みであれば、検知した白線候補の位置の精度は初期状態に比べて良くなると考えられるため処理領域を小さくする。
(領域設定処理の具体例)
図15は、領域設定処理が行われる状況を説明する図である。図15は片側2車線の車道を車両2が走行している場面を示している。図示上方には不図示の交差点があり、交差点の存在を示す停止線1407が路上に描画されている。車道外側線1401および車道中央線1404は実線であるが、車線境界線1402、1403は、交差点付近では実線であり、交差点から所定距離以上離れると破線で表される。
車両2が図15の図示左側の位置(符号1405)にいる場合、右サイドカメラ101−SRにより破線で表される車線境界線1403が撮影される。車線境界線1403は破線であるため(図12、ステップS1202:NO)、領域設定処理(図12、ステップS1205)が実行される。領域設定処理では、区画線認識装置1が白線1402から右側にwlane離れた場所に隣接車線1404が存在すると推定し、右サイドカメラ101−SRの画像上の処理領域を設定する。
一方、車両2が図示右側の位置(符号1406)にいる場合、左サイドカメラ101−SLにより白線1402、右サイドカメラ101−SRにより白線1404がそれぞれ撮影される。白線1402、白線1404ともに実線であるため、前方カメラ101−Frを用いた交差点判定処理が実行される(図12、ステップS1202:YES、ステップS1203)。そして、停止線1407が自車線に直交する白線であり、自車線を構成する左側の白線、すなわち白線1402まで達していることから交差点処理が必要と判断する(図13、ステップS1302:YES、ステップS1303:YES)。
図16は、領域設定処理の例を示す図である。
図16は、車両2が図15の図示左側にいる状態において、右サイドカメラ101−SRにより撮影して得られた画像である。図16に示すように、図示上下方向がY座標である。図16の図示下側に示す破線が白線1403である。白線1403の中心線1410と、白線1404が存在する領域の中心線1411との実空間における距離d1は、既知である自車線の幅、すなわち第1車線幅と既知である白線幅との和に等しい。また、右サイドカメラ101−SRの内部パラメータおよび外部パラメータは既知なので、右サイドカメラ101−SRが撮影して得た画像上の距離と実空間における距離との換算が可能である。そのため、白線1404が存在する領域の中心線1411の画像上の位置は、白線1403の中心線1410の画像上の位置、および第1車線幅をカメラパラメータを用いて変換した画像上の第1車線幅などから算出される(図14、ステップS901)。
キャリブレーションの有無により、白線1404が存在する領域の幅、すなわち図16における距離d2が決定される。キャリブレーションがされていないと判断される場合は距離d2は線幅の4倍に設定され(図14、ステップS904)、キャリブレーションがされていると判断される場合は、距離d2は線幅の2倍に設定される(図14、ステップS905)。
上述した第1の実施の形態によれば、次の作用効果が得られる。
(1)区画線認識装置1は、車両2の左側の路面情報を取得する第1のセンサ、すなわち左サイドカメラ101−SLと、車両2の右側の路面情報を取得する第2のセンサ、すなわち右サイドカメラ101−SRと、第1のセンサが取得した情報に基づき当該車両の左側の区画線の候補である左区画線候補を検出し、当該車両から左区画線候補までの距離を算出する左区画線位置算出部、すなわち左白線検知部201および左白線位置計算部203と、第2のセンサが取得した情報に基づき当該車両の右側の区画線の候補である右区画線候補を検出し、当該車両から右区画線候補までの距離を算出する右区画線位置算出部、すなわち右白線検知部202および右白線位置計算部204と、当該車両の左右に存在する区画線の間隔である第1車線幅を算出する車線幅算出部205と、当該車両の幅を記憶する記憶部103と、左区画線位置算出部が算出した当該車両から左区画線候補までの距離、右区画線位置算出部が算出した当該車両から右区画線候補までの距離、記憶部に記憶された当該車両の幅、および第1車線幅とに基づき、左区画線位置算出部が検出した左区画線候補、および右区画線位置算出部が検出した右区画線候補が当該車両の左右の区画線か否かを判断する区画線判定部、すなわち白線判定部206と、を備える。
区画線認識装置1をこのように構成したので、路面から得られる情報に含まれるノイズに起因する区画線の誤検知を減少させることができる。
(2)区画線認識装置1は、当該車両の前方または後方の情報を取得する第3のセンサ、すなわち前方カメラ101−Fr、または後方カメラ101−Rrを備える。車線幅算出部は、第3のセンサが取得した情報に基づき当該車両の前方または後方における左右両側の区画線候補を検出して第1車線幅wlineを算出する。第3のセンサはカメラである。車線幅算出部205は、撮影して得られた画像の輝度情報に基づき区画線候補を検出する。
(3)区画線判定部、すなわち白線判定部206は、左区画線位置算出部が算出した当該車両から左区画線候補までの距離と、右区画線位置算出部が算出した当該車両から右区画線候補までの距離と、記憶部に記憶された当該車両の幅とを加算して第2車線幅を算出し、第2車線幅と車線幅算出部が算出した第1車線幅との差が予め定めた閾値dth以内である場合に、左区画線位置算出部が検出した左区画線候補と右区画線位置算出部が検出した右区画線候補とを当該車両の左右の区画線と判断する。
(4)左区画線位置算出部は、区画線判定部により当該車両の左の区画線であると判断された左区画線候補の位置、および車線幅算出部が算出した第1車線幅に基づき隣接区画線を構成する区画線を検出する左隣接区画線検出処理をさらに行い、右区画線位置算出部は、区画線判定部により当該車両の右の区画線であると判断された右区画線候補の位置、および車線幅算出部が算出した第1車線幅に基づき隣接区画線を構成する区画線を検出する右隣接区画線検出処理をさらに行う。
そのため、検出した自車線の位置に基づき隣接車線を検出することにより、隣接車線の誤検出を低減させることができる。
(5)車両2の前方または後方の情報を取得する第3のセンサ、すなわち前方カメラ101−Fr、または後方カメラ101−Rrを備える。車線幅算出部は、第3のセンサが取得した情報に基づき当該車両の前方または後方における左右両側の区画線候補を検出して第1車線幅wlineを算出する。第3のセンサはカメラである。車線幅算出部205は、撮影して得られた画像の輝度情報に基づき区画線候補を検出する。車線幅算出部205は、第3のセンサが取得した情報に基づき当該車両の両側の区画線候補を検出し、両側の区画線候補に直交し少なくとも両側の区画線候補を接続する白線を停止線として検出する交差点検出処理と、当該車線幅算出部が検出した区画線候補が実線か破線かを判断する線種判別処理とが実行可能である。車線幅算出部205は、交差点検出処理、および線種判別処理の少なくとも一方に基づき、左隣接区画線検出処理の実行の有無および右隣接区画線検出処理の実行の有無を決定する。
そのため、交差点検出処理、および線種判別処理の処理結果から隣接車線の存在が推定されない場合には隣接車線の検出を行わず、不要な処理を削減することができる。
(変形例1)
自車線の白線検知処理は、図6を用いて説明した手法に限定されない。第1の実施の形態における図6に示す手法の代わりに、以下の手法を用いてもよい。
図17は、変形例1における自車線の白線検知処理を示すフローチャートである。以下に説明する各ステップの動作主体は、区画線認識装置1のCPU104である。
ステップS401〜S404は第1の実施の形態と同様なので説明を省略する。
ステップS505では、右サイドカメラ101−SRが撮影した画像を取得し、続くステップS506では、当該画像から白線候補を検知し、車両2からの相対位置を算出してステップS507に進む。
ステップS507では、左サイドカメラ101−SLの画像における処理領域を設定する。本ステップにおける処理は、すでに図14のフローチャートを用いて説明した領域設定処理とほぼ同じである。ただし、ステップS901の領域中心算出処理が異なる。ここでは、その差異点のみ説明する。すなわち、算出済みの右サイドカメラ101−SRが撮影した画像における白線候補の位置、算出済みの車線幅wlane、および既知である車幅wに基づき、左サイドカメラ101−SLの画像において白線候補が検出される可能性がある領域を処理領域として設定する。ただし、この算出には左サイドカメラ101−SLのカメラパラメータも用いられる。また、キャリブレーションの有無により処理領域の高さが変化する点(ステップS902〜S904)も第1の実施の形態と同様である。
ステップS508では、左サイドカメラ101−SLが撮影した画像を取得して、ステップS507において設定した当該処理領域内において白線の検知を行い、検知されたか否かを判定する。白線を検知したと判断する場合はステップS510に進み、ステップS506とステップS508で検知した白線のペアを白線として確定する。ステップS508において白線を検知していないと判断する場合は、ステップS509に進む。
ステップS509では、ステップS506において検知した他の白線候補があるか否かを判断し、他に白線候補があると判断する場合はステップS507に戻って同様の処理を繰り返す。白線候補が無いと判断する場合は、ステップS511に進み白線無しとして判定して自車線の白線検知処理を終了する。
なお、ステップS505とステップS509で右サイドカメラ101−SRの画像を対象にし、ステップS507では左サイドカメラ101−SLの画像を対象としているが、これらは逆でも構わない。つまり、ステップS505とステップS509で左サイドカメラ101−SLの画像、ステップS507で右サイドカメラ101−SRの画像を対象としてもよい。
上述した変形例1によれば、次の作用効果が得られる。
(1)区画線判定部、すなわち白線判定部206は、左区画線位置算出部よって検知された左区画線候補の位置、記憶部に記憶された当該車両の幅、および車線幅算出部が算出した第1車線幅に基づき、第2のセンサが取得した情報における探索領域を推定し、右区画線位置算出部に探索領域内において右区画線候補を検出させ、右区画線位置算出部が探索領域内において右区画線候補を検出すると、当該左区画線候補および当該右区画線候補を当該車両の左右の区画線と判断する。
(2)記憶装置103のキャリブレーションデータ1502には、第1、および第2のセンサ(たとえばカメラ)のキャリブレーションが完了状態か否かが記憶される。区画線判定部は、記憶部に第1、および第2のセンサのキャリブレーションが完了状態ではないと記憶されている場合に、完了状態であると記憶されている場合に比べて、探索領域を広く設定する(図14、ステップS903:YES、ステップS904)。
そのため、キャリブレーションの完了の有無にあわせて探索領域を設定することができる。
(変形例2)
自車線の白線検知処理は、図6を用いて説明した手法に限定されない。第1の実施の形態における図6に示す手法の代わりに、以下の手法を用いてもよい。
図18は、変形例2における自車線の白線検知処理の一部を示すフローチャートである。図18は、左サイドカメラ101−SLにて取得した画像に対する処理を示しており、同様の処理を右サイドカメラ101−SRにて取得した画像に対しても実行することで自車線の白線検知処理が完結する。以下に説明する各ステップの動作主体は、区画線認識装置1のCPU104である。
ステップS1801では、車線位置を算出する。これは、図9のフローにおけるステップS601ないしステップS605の処理を実行することによって可能となる。次にステップS1802に進む。
ステップS1802では、左サイドカメラ101−SLにおける処理領域を設定する。本ステップにおける処理は、上述した変形例1におけるステップS507における処理と同様である。次にステップS1803に進む。
ステップS1803では、当該処理領域内にて白線を検知できたか否かを判定する。白線を検知できなかった場合は、ステップS1804にて白線無しとして確定し、白線を検知できた場合はステップS1805にて白線有りとして確定する。
(変形例3)
第1の実施の形態では、交差点処理が必要と判断される(図12、ステップS1204:YES)と、車両の左右両方を対象として隣接車線の検出が行われた。しかし、隣接車線の存在を左右別々に推定し、隣接車線の存在が推定される側だけ隣接車線を検出してもよい。
車道中央線、および車道外側線は路面に実線で描画され、車線境界線は原則として破線で描画される。そのため、破線で描画される白線を検出した場合には、その破線の奥に隣接車線が存在することが推定される。ただし、交差点の手前では車線境界線も実線で描画される。そこで、交差点の手前では停止線を利用して隣接車線の有無を判断する。停止線は走行方向が同一である全ての走行レーンに跨って存在するため、停止線の端部の有無により隣接車線の有無が推定できる。換言すると、停止線が自車線の右側の白線を越えて伸長している場合は右に隣接車線が存在し、停止線が自車線の左側の白線を越えて伸長している場合は左に隣接車線が存在すると推定できる。
このような処理により隣接車線が存在すると推定された右側の隣接車線のみ、左側の隣接車線のみ、または両側の隣接車線を対象として、図12のステップS1205〜S1208の処理により隣接車線を検出する。
(フローチャート)
上述した、隣接車線の白線検知を行うか否かの判断をフローチャートを用いて説明する。ただし、右隣接車線の白線検知を行うか否かの判断と、左隣接車線の白線検知を行うか否かの判断はほぼ同一なので、ここでは代表して右隣接車線の白線検知を行うか否かの判断を説明する。
図19は、右隣接車線の白線検知を行うか否かの判断を示すフローチャートである。
ステップS2201では、自車線の白線を検知したか否かを判断する。自車線の白線を検知したと判断する場合はステップS2202に進み、自車線の白線を検知していないと判断する場合はステップS2206に進む。
ステップS2202では、自車線の右の白線が実線か否かを判断する。実線であると判断する場合はステップS2203に進み、実線ではない、すなわち破線であると判断する場合はステップS2205に進む。
ステップS2203では、前方カメラ101−Frからの画像に基づき停止線を検出し、ステップS2204に進む。
ステップS2204では、ステップS2203において検出した停止線が自車線の右の白線を超えて伸長しているか否かを判断する。停止線が右の白線を越えて伸長していると判断する場合はステップS2205に進み、停止線が右の白線を超えていない、または停止線が検出されないと判断する場合はステップS2206に進む。
ステップS2205では、右隣接車線の白線を検知すると判断する。
ステップS2206では、右隣接車線の白線を検知しないと判断する。
なお、左隣接車線の白線検知を行うか否かの判断を行う場合は、ステップS2202を左の白線が実線か否かを判断するようにし、ステップS2204を自車線の左の白線を超えて伸長しているか否かを判断するように変更すればよい。
上述した変形例3によれば、次の作用効果が得られる。
(1)車線幅算出部は、交差点検出処理により停止線が検出され、停止線の端部が当該車両の右側の区画線候補を超えて伸長している場合、および線種判別処理により当該車両の右側の区画線候補が破線であると判断した場合の少なくとも一方の場合に右隣接区画線検出処理を実行させる。交差点検出処理により停止線が検出され、停止線の端部が当該車両の左側の区画線候補を超えて伸長している場合、および線種判別処理により当該車両の左側の区画線候補が破線であると判断した場合の少なくとも一方の場合に左隣接区画線検出処理を実行させる。
交差点の手前以外では、車線境界線は破線で表されるため、破線の存在により隣接車線の存在が推測できる。車線境界線が実線であっても、前方に停止線が存在する場合には隣接車線の存在が推認でき、左右のいずれに隣接車線が存在するか、または左右の両方に隣接車線が存在するかは、停止線の伸長により判断できる。そのため、隣接車線の存在を左右個別に推定し、隣接車線を検出させることができる。
(第2の実施の形態)
図20〜21を参照して、本発明にかかる区画線認識装置の第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、前方カメラ101−Frや後方カメラ101−Rrが撮影した画像から自車線の幅が算出できなかった場合に地図データに登録されている道路種別に基づき自車線の幅を決定する点で、第1の実施の形態と異なる。
(構成)
図20は、第2の実施の形態における区画線認識装置1aの構成を示す図である。区画線認識装置1aは、第1の実施の形態における区画線認識装置1の構成に加えて、カーナビゲーション装置1101をさらに備える。
カーナビゲーション装置1101は、衛星測位システム、地図データ、および幅員データ2000を備える。衛星測位システムは、複数の衛星からの信号に基づき緯度と経度を算出する。地図データでは、道路の交差点あるいは道路上の特定のポイントをノードと定義し、各ノード間を結ぶ道路をリンクと定義している。地図データには、ノードの緯度および経度、ならびにリンクの道路種別が記録されている。幅員データ2000には、道路種別と車線幅の関係が記載されているので、幅員データ2000は、道路種別とそれに対応する車線幅の関係を示すテキストデータあるいはデータベースである。そのため、カーナビゲーション装置1101が備える衛星測位システム、地図データ、および幅員データ2000により自車線の幅が算出できる。
図21は、幅員データ2000の一例を示す図である。道路種別とは、高速自動車国道、自動車専用道路、国道、県道、市町村道である。ただし、道路種別はこれに限定されず他の種別が用いられてもよい。幅員データ2000には、たとえば高速自動車国道の幅員が3.75mであり、自動車専用道路の幅員が3.25mである等の情報が記録されている。なお、ここでいう幅員とは1つの走行レーンの幅であり、車両2が当該道路を走行している場合には、自車線幅が当該道路の幅員と等しい。
(動作)
第2の実施の形態では、第1の実施の形態における動作を以下のように変更する。すなわち、図9に示した車線幅算出処理において、白線が2本検出されない場合に実行されるステップS607の代わりにカーナビゲーション装置1101を用いて自車線幅を算出する。
詳述すると、まずカーナビゲーション装置1101の衛星測位システムにより現在地、すなわち緯度と経度を算出する。次に地図データを用いて、車両2がいずれのノード上に存在しているかを判断し、そのノードの道路種別を特定する。最後に幅員データ2000を用いて、特定した道路種別に対応する幅員を特定し、これを自車線幅とする。
上述した第2の実施の形態によれば、次の作用効果が得られる。
(1)区画線認識装置1は、車両2が走行中の道路の種別である道路種別を判別する道路種別判別装置、すなわちカーナビゲーション装置1101を備える。カーナビゲーション装置1101の記憶部には、道路種別と車線幅の関係を示す幅員データ2000が記憶される。車線幅算出部は、道路種別判別装置が判別した道路種別、および幅員データ2000に基づき第1車線幅を算出する。
そのため、前方カメラ101−Frや後方カメラ101−Rrが汚れている場合や、渋滞により前方カメラ101−Frや後方カメラ101−Rrでは白線を良好に撮影できなかった場合でも車線幅を取得することができる。
(2)道路種別判別装置、すなわちカーナビゲーション装置1101は、当該車両の緯度および経度で特定される複数のノードに基づいて、特定された前記複数のノード同士を接続する道路を特定し、特定された道路の道路種別を地図データから読み出すで特定さ。
(第2の実施の形態の変形例)
第2の実施の形態では区画線認識装置1aはカーナビゲーション装置1101を備えたが、区画線認識装置1aはカーナビゲーション装置1101を備えなくてもよい。
別途設けられたカーナビゲーション装置1101から自車線の幅を受信してもよい。また、区画線認識装置1aの記憶部103に車線幅表、すなわち幅員データ2000が記憶され、別途設けられたカーナビゲーション装置1101から受信する道路種別と幅員データ2000とに基づき自車線の幅を算出してもよい。車両運行情報や地図データを管理するセンタサーバから種々の地図データを受信する方式でもよい。
(第3の実施の形態)
図22〜23を参照して、本発明にかかる区画線認識装置の第3の実施の形態を説明する。以下の説明では、第1の実施の形態、および第2の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第2の実施の形態と同じである。本実施の形態では、主に、カメラの代わりにレーザレンジファインダを用いる点で、第1の実施の形態と異なる。
図22は、第3の実施の形態における区画線認識装置1bの構成を示す図である。区画線認識装置1bは、車両2の左側方の情報を取得するレーザレンジファインダ1601−SLと、車両2の右側方の情報を取得するレーザレンジファインダ1601−SRとを備える。レーザレンジファインダ1601−SR、1601−SLは、レーザレーダを用いて白線とアスファルトの反射率の違いを検出し、白線を認識する。これによって車両左右の白線の位置を検出することが可能である。
区画線認識装置1bは、前方および後方の情報を取得するカメラおよびレーザレンジファインダを備えず、カーナビゲーション装置1101を用いて車線幅wlaneを算出する。
(自車線の白線検知処理)
図23は、レーザレンジファインダを用いた自車線の白線検知処理を示すフローチャートである。以下に説明する各ステップの動作主体は、区画線認識装置1bのCPU104である。
ステップS1701では、第2の実施の形態と同様に、カーナビゲーション装置1101を用いて車線幅wlaneを算出する。
続くステップS1702、およびステップS1703では、レーザレンジファインダ1601−SR、1601−SLを用いて車両側方の白線を検知し、当該車両の右端から右白線候補までの距離dと、当該車両の左端から左車線候補までの距離dを算出し、ステップS1704に進む。
ステップS1704では、当該の白線候補の位置の整合性を以下のように判定する。すなわち、車両から右白線候補までの距離d、左車線候補までの距離d、および車幅wの和である第2車線幅と、車線幅wlaneとの差分が、予め定めた閾値dth以内であるか否かにより整合するか否かを判定する。整合する、すなわち車線幅wlaneと第2車線幅との差が閾値dth以内であると判断する場合はステップS1706に進む。整合しない、すなわち車線幅wlaneと第2車線幅との差が閾値dthより大きいと判断する場合はステップS1705に進む。
ステップS1705では、ステップS1702〜S1703において算出した距離dと距離dの全てのペアをステップS1704において検証したか否かを判断する。全てのペアを検証したと判断する場合はステップS1707に進み、未検証のペアが残っていると判断する場合はステップS1704に戻る。
ステップS1706では、直前にステップS1704において検証された白線候補のペアを白線として確定し、自車線の白線検知処理を終了する。
ステップS1707では、白線が存在しないとして確定し、自車線の白線検知処理を終了する。
上述した各実施の形態および変形例では、白線を検出対象としたが線の色は白に限定されず、黄色等の線でも適用が可能である。
上述した各実施の形態および変形例では日本の交通標識を前提として隣接するレーンの存在や交差点の存在を検出したが、本発明にかかる区画線認識装置を使用する国や地域の交通標識ルールに基づき適宜変更してもよい。
上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。
上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
1 … 区画線認識装置
101−Fr … 前方カメラ
101−Rr … 後方カメラ
101−SL … 左サイドカメラ
101−SR … 右サイドカメラ
201 … 左白線検知部
202 … 右白線検知部
203 … 左白線位置計算部
204 … 右白線位置計算部
205 … 車線幅算出部
206 … 白線判定部
1101 … カーナビゲーション装置
2000 … 幅員データ

Claims (5)

  1. 車両の左側の路面情報を取得する第1のセンサと、
    前記車両の右側の路面情報を取得する第2のセンサと、
    前記第1のセンサが取得した情報に基づき当該車両の左側の区画線の候補である左区画線候補を検出し、当該車両から前記左区画線候補までの距離を算出する左区画線位置算出部と、
    前記第2のセンサが取得した情報に基づき当該車両の右側の区画線の候補である右区画線候補を検出し、当該車両から前記右区画線候補までの距離を算出する右区画線位置算出部と、
    当該車両の左右に存在する区画線の間隔である第1車線幅を算出する車線幅算出部と、
    当該車両の幅を記憶する記憶部と、
    前記左区画線位置算出部が算出した当該車両から前記左区画線候補までの距離、前記右区画線位置算出部が算出した当該車両から前記右区画線候補までの距離、前記記憶部に記憶された当該車両の幅、および前記第1車線幅とに基づき、前記左区画線位置算出部が検出した前記左区画線候補、および前記右区画線位置算出部が検出した前記右区画線候補が当該車両の左右の区画線か否かを判断する区画線判定部と、を備え、
    前記区画線判定部は、
    前記左区画線位置算出部よって検知された前記左区画線候補の位置、前記記憶部に記憶された当該車両の幅、および前記車線幅算出部が算出した前記第1車線幅に基づき、前記第2のセンサが取得した情報における探索領域を推定し、前記右区画線位置算出部に前記探索領域内において前記右区画線候補を検出させ、
    前記右区画線位置算出部が前記探索領域内において前記右区画線候補を検出すると、当該左区画線候補および当該右区画線候補を当該車両の左右の区画線と判断する区画線認識装置。
  2. 請求項に記載の区画線認識装置において、
    前記記憶部には、前記第1、および第2のセンサのキャリブレーションが完了状態か否かがさらに記憶され、
    前記区画線判定部は、前記記憶部に第1、および第2のセンサのキャリブレーションが完了状態ではないと記憶されている場合に、完了状態であると記憶されている場合に比べて、前記探索領域を広く設定する区画線認識装置。
  3. 車両の左側の路面情報を取得する第1のセンサと、
    前記車両の右側の路面情報を取得する第2のセンサと、
    前記第1のセンサが取得した情報に基づき当該車両の左側の区画線の候補である左区画線候補を検出し、当該車両から前記左区画線候補までの距離を算出する左区画線位置算出部と、
    前記第2のセンサが取得した情報に基づき当該車両の右側の区画線の候補である右区画線候補を検出し、当該車両から前記右区画線候補までの距離を算出する右区画線位置算出部と、
    当該車両の左右に存在する区画線の間隔である第1車線幅を算出する車線幅算出部と、
    当該車両の幅を記憶する記憶部と、
    前記左区画線位置算出部が算出した当該車両から前記左区画線候補までの距離、前記右区画線位置算出部が算出した当該車両から前記右区画線候補までの距離、前記記憶部に記憶された当該車両の幅、および前記第1車線幅とに基づき、前記左区画線位置算出部が検出した前記左区画線候補、および前記右区画線位置算出部が検出した前記右区画線候補が当該車両の左右の区画線か否かを判断する区画線判定部と、を備え、
    前記左区画線位置算出部は、前記区画線判定部により当該車両の左の区画線であると判断された前記左区画線候補の位置、および前記車線幅算出部が算出した前記第1車線幅に基づき隣接区画線を構成する区画線を検出する左隣接区画線検出処理をさらに行い、
    前記右区画線位置算出部は、前記区画線判定部により当該車両の右の区画線であると判断された前記右区画線候補の位置、および前記車線幅算出部が算出した前記第1車線幅に基づき隣接区画線を構成する区画線を検出する右隣接区画線検出処理をさらに行う区画線認識装置。
  4. 請求項に記載の区画線認識装置において、
    当該車両の前方または後方の情報を取得する第3のセンサをさらに備え、
    前記車線幅算出部は、前記第3のセンサが取得した情報に基づき当該車両の左右両側の区画線候補を検出して前記第1車線幅を算出し、
    前記第3のセンサはカメラまたはレーザレンジファインダであり、
    前記車線幅算出部は、撮影して得られた画像の輝度情報、または投影したレーザー光の反射率に基づき前記区画線候補を検出し、
    前記車線幅算出部は、前記第3のセンサが取得した情報に基づき当該車両の両側の区画線候補を検出し、前記両側の区画線候補に直交し少なくとも前記両側の区画線候補を接続する白線を停止線として検出する交差点検出処理と、当該車線幅算出部が検出した区画線候補が実線か破線かを判断する線種判別処理とが実行可能であり、
    前記車線幅算出部は、前記交差点検出処理、および前記線種判別処理の少なくとも一方に基づき、前記左隣接区画線検出処理の実行の有無および前記右隣接区画線検出処理の実行の有無を決定する区画線認識装置。
  5. 請求項に記載の区画線認識装置において、
    前記車線幅算出部は、
    前記交差点検出処理により停止線が検出され、前記停止線の端部が当該車両の右側の区画線候補を超えて伸長している場合、および前記線種判別処理により当該車両の右側の区画線候補が破線であると判断した場合の少なくとも一方の場合に前記右隣接区画線検出処理を実行させ、
    前記交差点検出処理により停止線が検出され、前記停止線の端部が当該車両の左側の区画線候補を超えて伸長している場合、および前記線種判別処理により当該車両の左側の区画線候補が破線であると判断した場合の少なくとも一方の場合に前記左隣接区画線検出処理を実行させる区画線認識装置。
JP2015183763A 2015-09-17 2015-09-17 区画線認識装置 Active JP6568437B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015183763A JP6568437B2 (ja) 2015-09-17 2015-09-17 区画線認識装置
PCT/JP2016/075209 WO2017047365A1 (ja) 2015-09-17 2016-08-29 区画線認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015183763A JP6568437B2 (ja) 2015-09-17 2015-09-17 区画線認識装置

Publications (3)

Publication Number Publication Date
JP2017059003A JP2017059003A (ja) 2017-03-23
JP2017059003A5 JP2017059003A5 (ja) 2018-04-19
JP6568437B2 true JP6568437B2 (ja) 2019-08-28

Family

ID=58288995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015183763A Active JP6568437B2 (ja) 2015-09-17 2015-09-17 区画線認識装置

Country Status (2)

Country Link
JP (1) JP6568437B2 (ja)
WO (1) WO2017047365A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3764060A1 (en) * 2017-06-14 2021-01-13 Mobileye Vision Technologies Ltd. Fusion framework of navigation information for autonomous navigation
JP6710190B2 (ja) * 2017-09-29 2020-06-17 クラリオン株式会社 区画線認識装置
JP6930368B2 (ja) * 2017-10-27 2021-09-01 トヨタ自動車株式会社 車両制御装置
JP7131131B2 (ja) * 2018-06-29 2022-09-06 マツダ株式会社 車両用ライン検出装置および該方法
JP7067574B2 (ja) 2020-01-30 2022-05-16 トヨタ自動車株式会社 距離推定装置及び距離推定用コンピュータプログラム
CN113327456A (zh) * 2020-02-28 2021-08-31 华为技术有限公司 一种车道结构检测方法及装置
CN113335442B (zh) * 2021-07-22 2023-08-29 上海锐承通讯技术有限公司 用于自行车的上锁方法及自行车
JP7419469B1 (ja) 2022-09-26 2024-01-22 株式会社デンソーテン 情報処理装置、情報処理方法およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4899351B2 (ja) * 2005-06-17 2012-03-21 株式会社デンソー 走行状況判定装置及び車載ナビゲーション装置
JP5300357B2 (ja) * 2008-07-22 2013-09-25 日立オートモティブシステムズ株式会社 衝突防止支援装置
JP5742676B2 (ja) * 2011-11-10 2015-07-01 トヨタ自動車株式会社 車線境界線認識装置

Also Published As

Publication number Publication date
WO2017047365A1 (ja) 2017-03-23
JP2017059003A (ja) 2017-03-23

Similar Documents

Publication Publication Date Title
JP6568437B2 (ja) 区画線認識装置
US20220067209A1 (en) Systems and methods for anonymizing navigation information
US7840331B2 (en) Travel support system and travel support method
KR101241651B1 (ko) 영상 인식 장치 및 그 방법, 영상 기록 장치 또는 그방법을 이용한 위치 판단 장치, 차량 제어 장치 및네비게이션 장치
JP6325806B2 (ja) 車両位置推定システム
JP4321821B2 (ja) 画像認識装置及び画像認識方法
US9123242B2 (en) Pavement marker recognition device, pavement marker recognition method and pavement marker recognition program
WO2020240274A1 (en) Systems and methods for vehicle navigation
US10964217B2 (en) Travel control method and travel control apparatus
JP7456536B2 (ja) 移動体追跡システム、移動体追跡方法及びプログラム
US10864906B2 (en) Method of switching vehicle drive mode from automatic drive mode to manual drive mode depending on accuracy of detecting object
CN108692719B (zh) 物体检测装置
JP2016014647A (ja) 自車位置認識装置及び方法
CN111448601B (zh) 车道网络数据生成装置、车道网络数据生成程序以及存储介质
JP6870475B2 (ja) 車線情報出力方法および車線情報出力装置
JP4677981B2 (ja) 自車位置特定方法及び自車位置特定装置
JP2006208223A (ja) 車両位置認識装置及び車両位置認識方法
JPWO2020066505A1 (ja) 認識装置
JP7255345B2 (ja) 走行車線認識装置、走行車線認識方法およびプログラム
JP2007241468A (ja) 車線変更検出装置
JP5097681B2 (ja) 地物位置認識装置
KR20200057513A (ko) 차량 위치 추정 장치 및 방법
JP2019146012A (ja) 撮像装置
KR102426583B1 (ko) 라이다 센서를 이용하여 이정표를 검출하는 방법 및 상기 방법을 수행하는 이정표 검출 장치
JP2007140992A (ja) 交差点での運転支援方法及び運転支援装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170315

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180308

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190802

R150 Certificate of patent or registration of utility model

Ref document number: 6568437

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150