JP6458384B2 - 車線検出装置および車線検出方法 - Google Patents

車線検出装置および車線検出方法 Download PDF

Info

Publication number
JP6458384B2
JP6458384B2 JP2014151052A JP2014151052A JP6458384B2 JP 6458384 B2 JP6458384 B2 JP 6458384B2 JP 2014151052 A JP2014151052 A JP 2014151052A JP 2014151052 A JP2014151052 A JP 2014151052A JP 6458384 B2 JP6458384 B2 JP 6458384B2
Authority
JP
Japan
Prior art keywords
lane
vehicle
camera
break
white line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014151052A
Other languages
English (en)
Other versions
JP2016024777A (ja
Inventor
謙二 岡野
謙二 岡野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014151052A priority Critical patent/JP6458384B2/ja
Priority to PCT/JP2015/003481 priority patent/WO2016013174A1/ja
Priority to US15/327,611 priority patent/US10140528B2/en
Publication of JP2016024777A publication Critical patent/JP2016024777A/ja
Application granted granted Critical
Publication of JP6458384B2 publication Critical patent/JP6458384B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Vascular Medicine (AREA)
  • Computing Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、車載カメラで得られた撮影画像を解析することによって、走行中の車線を検出する技術に関する。
車両が走行する道路は、白線などによって複数の車線に区切られており、車両は車線内を走行することが求められる。そこで、車載カメラで前方を撮影した画像から車線の区切り(白線や、縁石、中央分離帯など)を検出しておき、運転者の意図によらずに車両が車線を逸脱しそうになった場合には、運転者に警告することが行われている。
また、車両が車線を走行する以上、車両の前方で検出される車線の区切り(白線等)は、車両の側方を通過する。そこで、前方を撮影した画像から白線等を検出するのではなく、車両から側方を撮影した画像を解析することによって、車両の側方に存在する白線等を検出する技術も提案されている(特許文献1)。車両の側方の白線等は車両の近くに存在するので、前方の白線等よりも高い位置精度で検出することができると考えられる。
特開2010−79573号公報
しかし、車両から側方を撮影した画像を解析して白線等を検出する技術は、白線等を誤検出し易く十分な信頼性を確保することが困難であるという問題があった。
これは、次のような理由による。先ず、従来から白線等を検出していた撮影画像は車両の進行方向(前方)の比較的遠方を撮影した画像であり、検出された白線等は車両から遠方に存在している。これに対して、側方の撮影画像中の白線等は車両の近くに存在する。このため、前方の撮影画像中では、車両が高速で移動した場合でも撮影画像中では白線等の位置が大きく移動することはないが、側方の撮影画像中では、白線等の位置が大幅に且つ急激に移動し得る。その結果、側方の撮影画像では、車両の走行中に白線等を追跡することが困難となる。更に、側方の撮影画像中では、自車両の影や路面の繋ぎ目などが白線等と並行に写ることがある。白線等の追跡が難しい状況では、これらと白線等と区別することも困難となる。これらの理由から、側方の撮影画像中から白線等を検出しようとしても、白線等を見失ったり、白線以外のものを白線と誤検出したりすることがあるため、十分な信頼性を確保することが困難となっている。
この発明は、従来技術が有する上述した課題に鑑みてなされたものであり、車両から側方を撮影した画像を用いて、車線の区切りを高い信頼性で検出することが可能な技術の提供を目的とする。
上述した課題を解決するために本発明の車線検出装置および車線検出方法は、車両の側方の周辺領域を撮影する側方車載カメラで得られた画像に基づいて、車両の側方に存在する側方車線の区切りを検出する。また、車両の前方の周辺領域を撮影する前方車載カメラで得られた画像に基づいて、車両の前方に存在する前方車線の区切りを検出する。更に、前方車線の区切りの位置を、側方車載カメラと前方車載カメラとの撮影タイミングの時間差と、走行速度とに基づいて修正する。そして、修正した前方車線の区切りの位置と、側方車線の区切りの位置とを照合して、両者が整合する場合に、側方車線の区切りの位置の検出結果を、車線の検出結果として出力する。
こうすれば、車両から側方を撮影した画像に基づいて側方車線の区切りを検出した場合でも、誤検出する虞がない。このため、車両から側方を撮影した画像を用いて、車線の区切りを高い信頼性で検出することが可能となる。また、前方車線の区切りの位置を修正してから、側方車線の区切りの位置と比較しているので、車両が高速で走行している場合でも側方車線の区切りの位置を誤検出する虞がなく、車線の区切りを高い信頼性で検出することが可能となる。
尚、本発明の車線検出装置は次のような態様で把握することも可能である。すなわち、
複数の車載カメラで撮影した画像を解析することによって、車両(1)が走行している車線を検出する車線検出装置(100)であって、
前記車両の側方の周辺領域を撮影する側方車載カメラ(10L、10R)で得られた画像に基づいて、該車両の側方に存在する側方車線の区切りを検出する側方検出部(101)と、
前記車両の前方の周辺領域を撮影する前方車載カメラ(11F)で得られた画像に基づいて、該車両の前方に存在する前方車線の区切りを検出する前方検出部(102)と、
前記側方車線の区切りの位置と、前記前方車線の区切りの位置とを照合する照合部(109)と、
前記側方車線の区切りの位置と、前記前方車線の区切りの位置とが整合する場合に、該側方車線の区切りの位置を前記車線の検出結果として出力する出力部(110)と
を備える車線検出装置。
こうすれば、側方車線の区切りの位置を誤検出する虞がないので、車両から側方を撮影した画像を用いて、車線の区切りを高い信頼性で検出することが可能となる。
本実施例の車線検出装置100を搭載した車両1を示す説明図である。 車線検出装置100の大まかな内部構成を示す説明図である。 走行中の車両1が4つの車載カメラを用いて周辺領域の画像を撮影する様子を示す説明図である。 側方カメラ10Lから検出した車線区切り(白線2)の位置を、前方カメラ11Fおよび後方カメラ11Bで検出した車線区切り(白線2)の位置と照合する様子を示した説明図である。 高速走行中の車線移動時に車両1の周辺領域の画像を撮影する様子を示す説明図である。 高速走行中に車線移動時には車載カメラの撮影タイミングの違いが問題になり得る理由を示す説明図である。 本実施例の車線検出処理の前半部分のフローチャートである。 本実施例の車線検出処理の後半部分のフローチャートである。 左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11Bの撮影タイミングの違いを例示した説明図である。 車両1の前方、後方、左側方、右側方の各領域で車線区切り(白線2)の位置が検出される様子を示した説明図である。 前方で検出した車線区切り(白線2)の位置を修正する様子を示した説明図である。 車両1が車線区切り(白線2)を跨いでいる状態を例示した説明図である。 車両1が車線区切り(白線2)を跨いでいる状態で前方および後方での車線区切り(白線2)の位置を検出する様子を例示した説明図である。 車線区切り推定処理のフローチャートである。 車線区切り推定処理で車線区切り(白線2)の位置を修正する様子を示した説明図である。 車両1が車線区切り(白線2)を跨いでいる状態で車線区切り(白線2)の位置を推定する様子を示した説明図である。
以下では、上述した本願発明の内容を明確にするために実施例について説明する。
A.装置構成 :
図1には、車線検出装置100を搭載した車両1が示されている。図示されるように車両1には、車線検出装置100に加えて、車両1から左側方の周辺領域を撮影する左側方カメラ10Lと、右側方の周辺領域を撮影する右側方カメラ10Rと、車両1から前方の周辺領域を撮影する前方カメラ11Fと、後方の周辺領域を撮影する後方カメラ11Bと、車両1の走行速度を検出する車速センサー14とを備えている。
尚、本実施例では、左側方カメラ10Lおよび右側方カメラ10Rが、本発明の「側方車載カメラ」に対応する。また、前方カメラ11Fが本発明の「前方車載カメラ」に対応し、後方カメラ11Bが本発明の「後方車載カメラ」に対応する。
これら左側方カメラ10L、右側方カメラ10R、前方カメラ11Fおよび後方カメラ11Bで撮影した画像や、車速センサー14の出力は車線検出装置100に入力されており、後述する方法によって車線が検出される。そして、車線検出装置100は検出した車線の情報を、車両制御装置200に出力する。
車両制御装置200は、受け取った情報に基づいて、運転者が意図せずに車線を逸脱しそうになっていると判断した場合には、例えば、運転者に警告したり、あるいは車線を維持する方向にハンドルを操作したりする運転支援を行う。
図2には、本実施例の車線検出装置100の大まかな内部構成が示されている。図示されるように本実施例の車線検出装置100は、側方検出部101と、前方検出部102と、後方検出部103と、走行速度検出部104と、前方修正部105と、後方修正部106と、時間差取得部107と、時間差記憶部108と、照合部109と、出力部110とを備えている。
尚、これら10の「部」は、左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11Bの撮影画像を解析して車線を検出する車線検出装置100の機能に着目して、車線検出装置100の内部を便宜的に分類した抽象的な概念であり、車線検出装置100が物理的に10の部分に区分されることを表すものではない。従って、これらの「部」は、CPUで実行されるコンピュータープログラムとして実現することもできるし、LSIやメモリーを含む電子回路として実現することもできるし、更にはこれらを組合せることによって実現することもできる。
側方検出部101は、左側方カメラ10Lから、車両1の左側方を撮影した画像を取得し、また、右側方カメラ10Rからは、車両1の右側方を撮影した画像を取得する。そして、車両1の左側方を撮影した画像を解析して、車両1の左側方に存在する白線等の車線の区切り(以下、「車線区切り」と称する)の位置を検出し、車両1の右側方を撮影した画像を解析して、車両1の右側方に存在する車線区切りの位置を検出する。
尚、車両1の左側方あるいは右側方で検出した車線区切りは、本発明の「側方車線の区切り」に対応する。
前方検出部102は、前方カメラ11Fから取得した車両1の前方を撮影した画像を解析して、車両1の前方に存在する車線区切りの位置を検出する。
後方検出部103は、後方カメラ11Bから取得した車両1の後方を撮影した画像を解析して、車両1の後方に存在する車線区切りの位置を検出する。
尚、車両1の前方で検出した車線区切りは、本発明の「前方車線の区切り」に対応し、車両1の後方で検出した車線区切りは、本発明の「後方車線の区切り」に対応する。
時間差取得部107は、左側方カメラ10L、右側方カメラ10R、前方カメラ11Fおよび後方カメラ11Bの起動時に、これらのカメラ間での撮影タイミングの時間差に関する情報を取得する。また、取得した時間差に関する情報は、時間差記憶部108に記憶する。
走行速度検出部104は、左側方カメラ10L、右側方カメラ10R、前方カメラ11Fおよび後方カメラ11Bで画像を撮影した時点での車両1の走行速度を、車速センサー14から取得する。尚、左側方カメラ10L、右側方カメラ10R、前方カメラ11Fおよび後方カメラ11Bは、厳密には異なるタイミングで画像を撮影する。しかし、車両1の走行速度は、これらカメラ間での撮影タイミングの違いで大きく変化することはないので、走行速度検出部104は、何れかのカメラの撮影タイミングで、車速センサー14から走行速度を取得すればよい。
前方修正部105は、左側方カメラ10Lに対する前方カメラ11Fの撮影タイミングの違いを考慮して、あるいは、右側方カメラ10Rに対する前方カメラ11Fの撮影タイミングの違いを考慮して、前方検出部102で検出した車線区切り(白線など)の位置を修正する。
左側方カメラ10Lに対する前方カメラ11Fの撮影タイミングの違いを修正する際には、左側方カメラ10Lと前方カメラ11Fとの時間差の情報を時間差記憶部108から読み出して、走行速度検出部104で取得した走行速度を考慮して修正する。また、右側方カメラ10Rに対する前方カメラ11Fの撮影タイミングの違いを修正する際には、右側方カメラ10Rと前方カメラ11Fとの時間差の情報を時間差記憶部108から読み出して、走行速度検出部104で取得した走行速度を考慮して修正する。
後方修正部106は、左側方カメラ10Lに対する後方カメラ11Bの撮影タイミングの違いを考慮して、あるいは、右側方カメラ10Rに対する後方カメラ11Bの撮影タイミングの違いを考慮して、後方検出部103で検出した車線区切りの位置を修正する。
左側方カメラ10Lに対する後方カメラ11Bの撮影タイミングの違いを修正する際には、左側方カメラ10Lと後方カメラ11Bとの時間差の情報を時間差記憶部108から読み出して、走行速度検出部104で取得した走行速度を考慮して修正する。また、右側方カメラ10Rに対する後方カメラ11Bの撮影タイミングの違いを修正する際には、右側方カメラ10Rと後方カメラ11Bとの時間差の情報を時間差記憶部108から読み出して、走行速度検出部104で取得した走行速度を考慮して修正する。
尚、本実施例の前方修正部105および後方修正部106は、本発明の「位置修正部」に対応する。
照合部109は、側方検出部101で検出した車線区切りの位置と、前方修正部105で修正した車線区切りの位置と、後方修正部106で修正した車線区切りの位置とを照合して、これらの車線区切りの位置が整合するか否かを判断する。
そして、これらの車線区切りの位置が整合すると判断した場合に、側方検出部101で検出した車線区切りの位置を、車線の検出結果として車両制御装置200に向かって出力する。
B.車両1の側方の車線区切りを検出する基本原理 :
図3には、上述した車線検出装置100を搭載した車両が、車線区切り(ここでは、白線2)で区画された車線を走行する様子が例示されている。また、前方カメラ11F、後方カメラ11B、左側方カメラ10L、右側方カメラ10Rには、いわゆる魚眼レンズのような広角レンズが装着されており、前方カメラ11Fは、車両1の前方の周辺領域を、後方カメラ11Bは車両1の後方の周辺領域を撮影する。同様に、左側方カメラ10Lは車両1の左側方の周辺領域を、右側方カメラ10Rは右側方の周辺領域を撮影する。
従って、これら4つの車載カメラの画像を解析することにより、車両1の前方、後方、左側方、右側方での白線2を検出することができる。
図4(a)には、左側方カメラ10Lから得られた撮影画像が例示されており、図4(b)には、前方カメラ11Fから得られた撮影画像が、図4(c)には、後方カメラ11Bから得られた撮影画像が例示されている。
当然ながら、左側方カメラ10Lに写った白線2は、前方部分が前方カメラ11Fにも写っており、後方部分が後方カメラ11Bにも写っている。従って、車両1に対する白線2の位置は、左側方カメラ10L、前方カメラ11F、後方カメラ11Bの何れから得られた撮影画像を用いて検出した場合でも、誤差の範囲内で一致すると考えられる。また、右側方カメラ10Rと前方カメラ11F、後方カメラ11Bとについても、全く同様なことが成立する。
このことから、左側方カメラ10Lおよび右側方カメラ10Rによる撮影画像に基づいて、車両1の側方で検出した白線2の検出結果の妥当性を、前方カメラ11Fあるいは後方カメラ11Bの撮影画像に基づく白線2の検出結果を用いて確認することができる。
すなわち、図4(a)に示したように、左側方カメラ10Lの撮影画像に基づいて、車両1から左側の白線2までの距離がLlと求められたとする。また、車両1から左側の白線2までの距離は、前方カメラ11FからはLfと求められ(図4(b)参照)、後方カメラ11BからはLbと求められたとする(図4(c)参照)。
前方カメラ11Fあるいは後方カメラ11Bから得られた距離Lfあるいは距離Lbが、左側方カメラ10Lから得られた距離Llと誤差の範囲内で一致すれば、車両1の左側の白線2を正しく検出できていると判断できる。車両1の右側の白線2についても全く同様なことが成立する。
従って、図2に示した本実施例の車線検出装置100によれば、左側方カメラ10Lおよび右側方カメラ10Rによる撮影画像から、誤検出することなく、十分な信頼性で白線2を検出することができる。
尚、上述した説明は、理想的な場合として、4つの車載カメラ(左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11B)が、同じタイミングで(若しくは、同じタイミングと見なせるほどの僅かな時間差で)画像を撮影する場合を想定して説明した。しかし、4つの車載カメラは同じタイミングで画像を撮影しているわけではない。そして、車両1は、4つの車載カメラが画像を撮影している間も移動する。
従って、実際には、4つの車載カメラ(左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11B)が画像を撮影する位置は、図3中に破線で示すように、少しずつ異なっている。
もっとも、車両1の走行速度がそれほど高くはない場合、あるいは車両1が車線に沿って走行している場合は、各車載カメラの撮影位置が、図3中の破線で示すように少しずつ違っても、大まかには、図4に示すような撮影画像を得ることができる。このため、各車載カメラの撮影タイミングが異なっていても、上述した説明が当て嵌まることとなり、左側方カメラ10Lおよび右側方カメラ10Rによる撮影画像から十分な信頼性で白線2を検出することができる。
しかし、車両1が高速走行中に車線を変更する場合などには、各車載カメラで撮影タイミングが違うことによる影響は、無視できない程に大きくなることがある。
図5には、車両1が高速走行中に車線を変更する場合に、各車載カメラが画像を撮影する位置の違いが例示されている。
例えば、車両1に搭載された4つの車載カメラ(左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11B)のうちで、前方カメラ11F、後方カメラ11B、左側方カメラ10L、右側方カメラ10Rの順番で画像を撮影するものとする。図5中では、前方カメラ11Fが画像を撮影した時の車両1の位置が実線で示されており、その後、後方カメラ11B、左側方カメラ10L、右側方カメラ10Rが画像を撮影した時の車両1の位置が、細い破線で示されている。
図6(a)には、前方カメラ11Fで撮影した画像(図5中の実線で示した車両1の位置で撮影した画像)が示されており、図6(b)には、左側方カメラ10Lで撮影した画像が示されている。図5を用いて前述したように、車両1は高速で白線2に向かって斜めに近付いているので、前方カメラ11Fで画像を撮影してから、左側方カメラ10Lで画像を撮影するまでの間に、車両1は白線2に大きく接近する。このため、前方カメラ11Fの画像から検出した車両1の左側の白線2の位置と、左側方カメラ10Lの画像から検出した白線2の位置とは、一致しなくなる。尚、図6(a)および図6(b)では、車両1から白線2までの距離として、車両1の先端から左方向に測った距離が示されている。また、図6(b)中には、図6(a)で検出された左側の白線2が、細い破線で表示されている。
従って、図5に示したように、車両1が高速走行中に車線を変更するような場合には、車両1の側方での白線2の検出結果の妥当性を、前方あるいは後方での白線2の検出結果に基づいて確認できなくなる場合がある。
そこで、本実施例の車線検出装置100は、車両1の側方での白線2の検出結果の妥当性を、次のような方法で確認することにより、車両1が高速走行中に車線を変更するような場合でも、十分な信頼性で車線を検出可能としている。
C.車線検出処理 :
図7および図8には、本実施例の車線検出装置100で実施される車線検出処理のフローチャートが示されている。
図示されるように、車線検出処理を開始すると、車線検出装置100は先ず始めに、4つの車載カメラ(左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11B)を起動した後、それぞれの車載カメラが画像を撮影するタイミングの時間差を取得する(S100)。すなわち、左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11Bは、起動された後は一定の撮影周期で画像を撮影して、車線検出装置100に出力する。ここで、各車載カメラの撮影周期は同じであるが、完全に同じタイミングで起動されるわけではない。従って、左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11Bは、起動時に決まった互いの位相差を保って、周期的に画像を撮影し続けることになる。
図9には、左側方カメラ10L、前方カメラ11F、後方カメラ11B、右側方カメラ10Rが、一定の位相差を保って同じ撮影周期で画像を撮影する様子が例示されている。
本実施例の車線検出装置100は、図7の車線検出処理を開始して4つの車載カメラを起動すると、左側方カメラ10Lに対する前方カメラ11Fの撮影タイミングの時間差Tlfと、左側方カメラ10Lに対する後方カメラ11Bの撮影タイミングの時間差Tlbとを取得する。また、右側方カメラ10Rに対する前方カメラ11Fの撮影タイミングの時間差Trfと、右側方カメラ10Rに対する後方カメラ11Bの撮影タイミングの時間差Trbとを取得する。更に、後方カメラ11Bに対する前方カメラ11Fの撮影タイミングの時間差Tbfも取得する。こうして取得された各種の時間差は、図2に示した時間差記憶部108に記憶される。
続いて、左側方カメラ10Lから車両1の左側方の周辺領域を撮影した画像と、右側方カメラ10Rから車両1の右側方の周辺領域を撮影した画像と、前方カメラ11Fから車両1の前方の周辺領域を撮影した画像と、後方カメラ11Bから車両1の後方の周辺領域を撮影した画像とを取得する(S101)。
そして、左側方カメラ10Lの撮影画像を解析することにより、車両1の左側方に写った車線区切り(ここでは、白線2)を検出し(S102)、右側方カメラ10Rの撮影画像を解析して、車両1の右側方に写った車線区切り(白線2)を検出する(S103)。
また、同様にして、前方カメラ11Fの撮影画像から車両1の前方での車線区切り(白線2)を検出し(S104)、後方カメラ11Bの撮影画像から車両1の後方での車線区切り(白線2)を検出する(S105)。
図10(a)には、前方カメラ11Fの撮影画像から、車両1の前方での白線2が検出された様子が例示されている。図示されているように白線2の位置は、車両1の位置を原点とするXY座標での直線を表す式として検出される。
また、図10(b)には、後方カメラ11Bの撮影画像から車両1の後方での白線2が、図10(c)には、左側方カメラ10Lの撮影画像から車両1の左側方での白線2が、図10(d)には、右側方カメラ10Rの撮影画像から車両1の右側方での白線2が、それぞれXY座標での直線を表す式として検出された様子が例示されている。
次に、車両1の前方および後方で車線区切り(ここでは白線2)が検出されたか否かを判断する(図7のS106)。通常、車両1が車線を走行中であれば、車両1の前方および後方では、白線2に限らず何らかの車線区切りは検出することができるから、車両1の前方および後方で車線区切りが検出されない場合は、何らかの異常が発生したものと考えられる。
そこで、車両1の前方および後方で車線区切りが検出されなかった場合は(S106:no)、図示しないスピーカーから警告音を出力することにより、あるいは図示しないランプを点灯させることによって、異常の発生を報知する(S110)。
これに対して、車両1の前方および後方で車線区切りが検出されていた場合は(S106:yes)、車速センサー14から車両1の走行速度を取得する(S107)。尚、走行速度は、S101で車載カメラから撮影画像を取得する際に併せて取得するようにしても良い。
そして、車両1の左側方および右側方で車線区切り(ここでは白線2)が検出されたか否かを判断する(S108)。
その結果、車両1の左側方および右側方で車線区切りが検出されていた場合は(S108:yes)、左側方カメラ10Lに対する前方カメラ11Fの撮影タイミングの時間差Tlf(図9参照)と、左側方カメラ10Lに対する後方カメラ11Bの撮影タイミングの時間差Tlb(図9参照)とを取得する(S109)。これらの時間差は、車線検出処理の開始時に、S100で予め取得されて時間差記憶部108(図2参照)に記憶されている。
その後、車両1の前方および後方で検出された車線区切り(白線2)の位置を、S107で取得した車両1の走行速度およびS109で取得した時間差に基づいて修正する(図8のS111)。
図11には、車両1の前方で検出された車線区切り(白線2)の位置を修正する様子が示されている。車両1の前方で検出された車線区切り(白線2)の位置は、車両1の左側方で検出された車線区切り(白線2)に比べると、時間差Tlfだけ早いタイミングで取得されており、その間に車両1は、(走行速度V)×(時間差Tlf)の距離だけ白線2に近付く方向に移動する。従って、図11(a)に示した車両1の前方の車線区切り(白線2)の位置は、車両1の進行方向とは逆方向に(走行速度V)×(時間差Tlf)だけ移動させることによって、図11(b)に示した位置に修正される。
車両1の後方で検出された車線区切り(白線2)の位置についても同様にして修正することができる。すなわち、車両1の後方で検出された車線区切り(白線2)の位置は、車両1の左側方で検出された車線区切り(白線2)に比べると、時間差Tlbだけ早いタイミングで取得されている。従って、車両1の後方の車線区切り(白線2)の位置は、車両1の進行方向に(走行速度V)×(時間差Tlb)だけ移動させる。
続いて、車両1の左側方で検出した車線区切り(白線2)の位置が、車両1の前方および後方で修正した車線区切り(白線2)の位置と整合するか否かを判断する(図8のS112)。
図10を用いて前述したように、車両1の左側方の車線区切り(白線2)の位置も、車両1の前方および後方の車線区切り(白線2)の位置も、XY座標で直線を表す式として検出されている。更に、車両1の前方および後方の車線区切り(白線2)の位置は、XY座標でX方向に直線をシフトさせるように修正されている。従って、XY座標上で表された直線を比較することになるので、それらの直線が整合するか否か(すなわち、誤差の範囲内で一致するか否か)を判断することができる。
その結果、車両1の左側方と、前方と、後方の3箇所で検出された車線区切り(白線2)の位置が整合すると判断した場合は(S112:yes)、左側方の車線区切り(白線2)は正しく検出されたものと考えることができるので、今度は、右側方の車線区切り(白線2)に対して同様な操作を開始する。
これに対して、車両1の左側方、前方および後方の3箇所で検出された車線区切り(白線2)の位置が整合しないと判断した場合は(S112:no)、左側方の車線区切り(白線2)は誤検出された可能性が高い。そこで、左側方の車線区切り(白線2)の位置を、前回の処理で検出された車両1の左側方での車線区切り(白線2)の位置に基づいて推定した位置に差し替える(S113)。
尚、本実施例では、車両1の左側方で検出された車線区切り(白線2)の位置を、車両1の前方で検出された車線区切り(白線2)の位置と比較し、更に、車両1の後方で検出された車線区切り(白線2)の位置とも比較している。しかし、簡易には、車両1の左側方での車線区切り(白線2)の位置を、車両1の前方あるいは後方の何れか一方での車線区切り(白線2)の位置と比較して、整合するか否かを判断しても良い。こうすれば、車線検出装置100での処理負荷を軽減することができる。
もっとも、本実施例のように、車両1の左側方での車線区切り(白線2)の位置を、車両1の前方および後方での車線区切り(白線2)の位置と比較すれば、いわゆるダブルチェックとなるので、誤検出を確実に排除することが可能となる。
以上のようにして、左側方での車線区切り(白線2)に対する処理が終わったら、右側方での車線区切り(白線2)に対しても同様な処理を開始する。すなわち、右側方カメラ10Rに対する前方カメラ11Fの撮影タイミングの時間差Trf(図9参照)と、右側方カメラ10Rに対する後方カメラ11Bの撮影タイミングの時間差Trb(図9参照)とを取得する(S1114)。
続いて、車両1の前方および後方で検出された車線区切り(白線2)の位置を修正する(S115)。修正に際しては、車両1の前方で検出された車線区切り(白線2)の位置を、車両1の進行方向とは逆方向に(走行速度V)×(時間差Trf)だけ移動させる。また、車両1の後方で検出された車線区切り(白線2)の位置については、車両1の進行方向に(走行速度V)×(時間差Trb)だけ移動させることによって修正する。
そして、車両1の右側方で検出した車線区切り(白線2)の位置が、車両1の前方および後方で修正した車線区切り(白線2)の位置と整合するか否かを判断する(S116)。車両1の右側方で検出した車線区切り(白線2)の位置についても、左側方で検出した車線区切り(白線2)の位置と同様に、XY座標で直線を表す式として検出されている。従って、車両1の右側方、前方および後方で検出した車線区切り(白線2)の位置が整合するか否かは容易に判断することができる。
その結果、それらの車線区切り(白線2)の位置が整合しないと判断した場合は(S116:no)、右側方の車線区切り(白線2)は誤検出された可能性が高い。そこで、その右側方の車線区切り(白線2)の位置を、前回の処理で検出された右側方の車線区切り(白線2)を元に推定した位置に差し替える(S117)。
これに対して、車両1の右側方、前方および後方での車線区切り(白線2)の位置が整合する場合は(S116:yes)、右側方の車線区切り(白線2)は正しく検出されたものと考えられるので、前回の検出結果から推定した位置に差し替える処理(S117)は省略する。
尚、車両1の右側方で検出された車線区切り(白線2)の位置についても、車両1の前方あるいは後方の何れか一方で検出された車線区切り(白線2)の位置と比較して、整合するか否かを判断しても良いことはもちろんである。
その後、以上の処理によって得られた左側方での車線区切り(白線2)の位置、および右側方での車線区切り(白線2)の位置を、車線の検出結果として、車両制御装置200に向かって出力する(S118)。
そして、車線の検出を終了するか否かを判断する(S119)。その結果、車線の検出を終了しない場合は(S119:no)、図7のS101に戻って、再び4つの車載カメラ(左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11B)から撮影画像を取得した後、上述した続く一連の処理を開始する。
以上では、車両1の前後で車線区切り(白線2)が検出され(図7のS106:yes)、且つ、車両1の左右でも検出された場合(S108:yes)の処理について説明した。
これに対して、車両1の前後では車線区切り(白線2)が検出されたが(S106:yes)、車両1の左右では検出されなかった場合は(S108:no)、図12に例示したように車両1が車線区切り(白線2)を跨いでいるものと考えられる。
そこでこのような場合、車線検出装置100は、以下に説明する車線区切り推定処理(S200)を開始する。
尚、図10を用いて前述したように、通常の場合(車両1が白線2を跨いでいない場合)は、前方カメラ11Fおよび後方カメラ11Bの撮影画像からは、車両1の左側と右側とに1本ずつの合計2本の車線区切り(白線2)が、それぞれ検出される。この場合は、図7のS104およびS105では、2本検出された車線区切り(白線2)の内側を、車線区切り(白線2)の位置として検出した(図10(a)および図10(b)参照)。
これに対して、図12に例示したように、車両1が車線区切り(白線2)を跨ぐ場合は、前方カメラ11Fおよび後方カメラ11Bの何れの撮影画像からも、1本の車線区切り(白線2)が検出される。このような場合は、検出された車線区切り(白線2)の中心線の位置を、車線区切り(白線2)の位置として検出している。すなわち、図7のS104では、図13(a)に例示したように、前方カメラ11Fの撮影画像中の車線区切り(白線2)の中心線の位置が、車線区切り(白線2)の位置として検出されている。また、図7のS105では、図13(b)に例示したように、後方カメラ11Bの撮影画像中の車線区切り(白線2)の中心線の位置が、車線区切り(白線2)の位置として検出されている。
図14には、車線区切り推定処理のフローチャートが示されている。
図示されるように車線区切り推定処理では、先ず始めに、後方カメラ11Bに対する前方カメラ11Fの撮影タイミングの時間差Tbfを取得する(S201)。
図9を用いて前述したように、時間差Tbfは、図7および図8の車線検出処理の起動時に取得されて、時間差記憶部108に予め記憶されている。
続いて、車両1の前方で検出された車線区切り(白線2)の位置を、図7のS107で検出した走行速度と、時間差Tbfとに基づいて修正する(S202)。すなわち、図15に例示したように、車両1の前方で検出された車線区切り(白線2)の位置を、車両1の進行方向とは逆方向に(走行速度V)×(時間差Tbf)だけ移動させる。こうすることによって、図15(a)に例示した車線区切り(白線2)の位置が、図15(b)に例示した車線区切り(白線2)の位置に修正される。
その後、修正した前方での車線区切り(白線2)の位置が、後方での車線区切り(白線2)の位置と整合するか否か(誤差の範囲内で一致するか否か)を判断する(S203)。
その結果、整合すると判断した場合は(S203:yes)、車両1の後方で検出した車線区切り(白線2)の位置と、車両1の前方の修正した車線区切り(白線2)の位置とに基づいて、車両1の下面での車線区切り(白線2)の位置を推定する(S204)。すなわち、車両1の後方の車線区切り(白線2)の位置も、車両1の前方の修正された車線区切り(白線2)の位置も、XY座標上の直線として表されているから、それらの直線の中間的な直線は容易に求めることができる。そこで、このような直線を求めることによって、車両1の下面での車線区切り(白線2)の位置を推定する。図16には、このようにして車線区切り(白線2)の位置を推定する様子が例示されている。
尚、本実施例では、前方カメラ11Fは後方カメラ11Bよりも前のタイミングで画像を撮影するものとして説明しているが(図9参照)、前方カメラ11Fが後方カメラ11Bよりも後のタイミングで画像を撮影する場合は、時間差Tbfが負の値となる。従って、この場合は、車両1の前方の車線区切り(白線2)の移動方向が逆方向となって、車両1の前方の車線区切り(白線2)の位置が、車両1の進行方向に(走行速度V)×(時間差Tbf)だけ移動することになる。
また、本実施例では、修正する車線区切り(白線2)は、前方カメラ11Fの画像から検出された車両1の前方の車線区切り(白線2)であるものとして説明した。しかし、常に、前方カメラ11Fの画像による車線区切り(白線2)を修正するのではなく、前方カメラ11Fまたは後方カメラ11Bの何れか先に撮影した方の画像による車線区切り(白線2)を修正するようにしても良い。例えば、前方カメラ11Fが後方カメラ11Bよりも前のタイミングで画像を撮影している場合は、(前方カメラ11Fの画像による)車両1の前方の車線区切り(白線2)を、車両1の進行方向とは逆方向に移動させる。これに対して、前方カメラ11Fが後方カメラ11Bよりも後のタイミングで画像を撮影している場合は、(後方カメラ11Bの画像による)車両1の後方の車線区切り(白線2)を、車両1の進行方向に移動させるようにしてもよい。
こうすれば、前方カメラ11Fの撮影タイミングまたは後方カメラ11Bの撮影タイミングの新しい方の撮影タイミングで得られた画像を基準として、車線区切り(2)の位置を推定することができるので、より精度良く推定することが可能となる。
以上のようにして、車両1の下面での車線区切り(白線2)の位置を推定したら(図14のS204)、推定した車線区切り(白線2)の位置を、車両制御装置200に向かって出力した後(S205)、図14の車線区切り推定処理を終了して、図7および図8の車線検出処理に復帰する。
これに対して、図14のS203の判断で、修正した前方での車線区切り(白線2)の位置が、後方での車線区切り(白線2)の位置と整合しないと判断した場合は(S203:no)、車両1の下面での車線区切り(白線2)が推定できない旨を、車両制御装置200に向かって出力した後(S206)、図14の車線区切り推定処理を終了して、図7および図8の車線検出処理に復帰する。
そして、図7に示すように車線検出処理では、車線区切り推定処理(S200)から復帰すると、車線の検出を終了するか否かを判断する(図8のS119)。
その結果、車線の検出を終了しない場合は(S119:no)、図7のS101に戻って、再び4つの車載カメラ(左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11B)から撮影画像を取得した後、上述した続く一連の処理を開始する。これに対して、車線の検出を終了する場合は(S119:yes)、図7および図8に示した車線検出処理を終了する。
以上に説明したように、本実施例の車線検出装置100では、車両1の左側方および右側方で検出した車線区切り(白線2)の位置の妥当性を、車両1の前方あるいは後方で検出した車線区切り(白線2)の位置によって確認することができる。また、車両1が高速で移動中に車線変更するような場合でも、車両1の前方あるいは後方で検出した車線区切り(白線2)の位置を修正するので、左側方および右側方で検出した車線区切り(白線2)の位置の妥当性を確認することができる。このため、左側方カメラ10Lや右側方カメラ10Rの撮影画像から、十分な信頼性で車線区切り(白線2)の位置を検出することが可能となる。
以上、本実施例について説明したが、本発明は上記の実施例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することができる。
1…車両、 2…白線、 10L…左側方カメラ、 10R…右側方カメラ、
11B…後方カメラ、 11F…前方カメラ、 14…車速センサー、
100…車線検出装置、 101…側方検出部、 102…前方検出部、
103…後方検出部、 104…走行速度検出部、 105…前方修正部、
106…後方修正部、 107…時間差取得部、 108…時間差記憶部、
109…照合部、 110…出力部、 200…車両制御装置。

Claims (6)

  1. 複数の車載カメラを備える車両に搭載され、前記複数の車載カメラで撮影した画像を解析することによって、車両(1)が走行している車線を検出する車線検出装置(100)であって、
    前記車両の側方の周辺領域を撮影する側方車載カメラ(10L、10R)で得られた画像に基づいて、該車両の側方に存在する側方車線の区切りを検出する側方検出部(101)と、
    前記車両の前方の周辺領域を撮影する前方車載カメラ(11F)で得られた画像に基づいて、該車両の前方に存在する前方車線の区切りを検出する前方検出部(102)と、
    前記車両の走行速度を検出する走行速度検出部(104)と、
    前記前方車線の区切りの位置を、前記側方車載カメラと前記前方車載カメラとの撮影タイミングの時間差と、前記走行速度とに基づいて修正する位置修正部(105)と、
    前記側方車線の区切りの位置と、前記修正した前方車線の区切りの位置とを照合する照合部(109)と、
    前記側方車線の区切りの位置と、前記修正した前方車線の区切りの位置とが整合する場合に、該側方車線の区切りの位置を前記車線の検出結果として出力する出力部(110)と
    を備える車線検出装置。
  2. 請求項1に記載の車線検出装置であって、
    前記複数の車載カメラの起動時に、該複数の車載カメラ間での撮影タイミングの時間差を取得する時間差取得部(107)を備える
    車線検出装置。
  3. 請求項1または請求項2に記載の車線検出装置であって、
    前記車両から後方の周辺領域を撮影する後方車載カメラで得られた画像に基づいて、該車両の後方に存在する後方車線の区切りを検出する後方検出部(103)を備え、
    前記位置修正部は、前記後方車線の区切りの位置については、前記側方車載カメラと前記後方車載カメラとの撮影タイミングの時間差と、前記走行速度とに基づいて修正する修正部(106)であり、
    前記照合部は、前記側方車線の区切りの位置と前記修正した前方車線の区切りの位置とを照合するとともに、該側方車線の区切りの位置と前記修正した後方車線の区切りの位置とを照合する照合部であり、
    前記出力部は、前記側方車線の区切りの位置と前記修正した前方車線の区切りの位置とが整合し、尚且、該側方車線の区切りの位置と前記修正した後方車線の区切りの位置とが整合する場合に、該側方車線の区切りの位置前記車線検出結果として出力する出力部である
    車線検出装置。
  4. 請求項3に記載の車線検出装置であって、
    前記位置修正部は、前記前方車線の区切りおよび前記後方車線の区切りは検出されているが、前記側方車線の区切りは検出されていない場合は、前記前方車線の区切りまたは前記後方車線の区切りの何れか一方の位置を、前記前方車載カメラと前記後方車載カメラとの撮影タイミングの時間差と、前記走行速度とに基づいて修正する修正部であり、
    前記照合部は、前記前方車線の区切りまたは後方車線の区切りの修正した方の位置と、前記前方車線の区切りまたは後方車線の区切りの修正しなかった方の位置とを照合する照合部であり、
    前記照合部が、前記修正した方の区切りの位置と、前記修正しなかった方の区切りの位置とが整合すると判断した場合に、前記車両の下面での車線の区切りの位置を推定する車線区切り推定部(S204)を備え、
    前記出力部は、前記車線区切り推定部によって推定された前記車線の区切りの位置を、前記車線の検出結果として出力する出力部である
    車線検出装置。
  5. 請求項4に記載の車線検出装置であって、
    前記位置修正部は、前記前方車載カメラが前記後方車載カメラよりも早いタイミングで画像を撮影する場合には、前記前方車線の区切りを修正し、前記後方車載カメラが前記前方車載カメラよりも早いタイミングで画像を撮影する場合には、前記後方車線の区切りを修正する修正部である
    車線検出装置。
  6. 複数の車載カメラで撮影した画像を解析することによって、車両(1)が走行している車線を検出する車線検出方法であって、
    前記車両の側方の周辺領域を撮影する側方車載カメラ(10L、10R)で得られた画像に基づいて、該車両の側方に存在する側方車線の区切りを検出する側方検出工程(S102、S103)と、
    前記車両の前方の周辺領域を撮影する前方車載カメラ(11F)で得られた画像に基づいて、該車両の前方に存在する前方車線の区切りを検出する前方検出工程(S104)と、
    前記車両の走行速度を検出する走行速度検出工程(S107)と、
    前記前方車線の区切りの位置を、前記側方車載カメラと前記前方車載カメラとの撮影タイミングの時間差と、前記走行速度とに基づいて修正する位置修正工程(S111)と、
    前記側方車線の区切りの位置と、前記修正した前方車線の区切りの位置とを照合する照合工程(S112、S116)と、
    前記側方車線の区切りの位置と、前記修正した前方車線の区切りの位置とが整合する場合に、該側方車線の区切りの位置を前記車線の検出結果として出力する出力工程(S118)と
    を備える車線検出方法。
JP2014151052A 2014-07-24 2014-07-24 車線検出装置および車線検出方法 Active JP6458384B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014151052A JP6458384B2 (ja) 2014-07-24 2014-07-24 車線検出装置および車線検出方法
PCT/JP2015/003481 WO2016013174A1 (ja) 2014-07-24 2015-07-09 車線検出装置および車線検出方法
US15/327,611 US10140528B2 (en) 2014-07-24 2015-07-09 Lane detection apparatus and lane detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014151052A JP6458384B2 (ja) 2014-07-24 2014-07-24 車線検出装置および車線検出方法

Publications (2)

Publication Number Publication Date
JP2016024777A JP2016024777A (ja) 2016-02-08
JP6458384B2 true JP6458384B2 (ja) 2019-01-30

Family

ID=55162720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014151052A Active JP6458384B2 (ja) 2014-07-24 2014-07-24 車線検出装置および車線検出方法

Country Status (3)

Country Link
US (1) US10140528B2 (ja)
JP (1) JP6458384B2 (ja)
WO (1) WO2016013174A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9305929B1 (en) 2015-02-17 2016-04-05 Micron Technology, Inc. Memory cells
JP6593263B2 (ja) * 2016-07-08 2019-10-23 株式会社デンソー 区画線認識装置
JP6336010B2 (ja) * 2016-11-16 2018-06-06 三菱電機株式会社 路上区画線認識装置、路上区画線認識方法、路上区画線認識装置を備えた運転支援装置、および路上区画線認識方法を備えた運転支援方法
JPWO2018173907A1 (ja) * 2017-03-23 2019-11-07 日立オートモティブシステムズ株式会社 車両制御装置
JP7118836B2 (ja) * 2018-09-25 2022-08-16 フォルシアクラリオン・エレクトロニクス株式会社 区画線認識装置
JP7077910B2 (ja) * 2018-10-22 2022-05-31 トヨタ自動車株式会社 区画線検出装置及び区画線検出方法
KR102034316B1 (ko) * 2019-01-29 2019-11-08 주식회사 만도 차량 위치 보정 시스템 및 방법, 그리고 카메라
US11093761B2 (en) * 2019-03-06 2021-08-17 GM Global Technology Operations LLC Lane position sensing and tracking in a vehicle
KR20210005439A (ko) * 2019-07-05 2021-01-14 현대자동차주식회사 운전자 보조 장치, 그를 가지는 차량 및 그 제어 방법
WO2021037350A1 (en) 2019-08-28 2021-03-04 Toyota Motor Europe Method and system for processing a plurality of images so as to detect lanes on a road
JP7490483B2 (ja) * 2020-07-22 2024-05-27 キヤノン株式会社 システム、情報処理方法、物品の製造方法、プログラム及び記録媒体

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5157067B2 (ja) * 2006-01-06 2013-03-06 トヨタ自動車株式会社 自動走行用マップ作成装置、及び自動走行装置。
JP4654208B2 (ja) * 2007-02-13 2011-03-16 日立オートモティブシステムズ株式会社 車載用走行環境認識装置
JP4748082B2 (ja) 2007-02-23 2011-08-17 トヨタ自動車株式会社 車両用周辺監視装置及び車両用周辺監視方法
JP5045628B2 (ja) * 2008-09-25 2012-10-10 トヨタ自動車株式会社 車線逸脱防止装置

Also Published As

Publication number Publication date
WO2016013174A1 (ja) 2016-01-28
US20170147889A1 (en) 2017-05-25
US10140528B2 (en) 2018-11-27
JP2016024777A (ja) 2016-02-08

Similar Documents

Publication Publication Date Title
JP6458384B2 (ja) 車線検出装置および車線検出方法
US10445596B2 (en) Camera device for vehicle
US10795370B2 (en) Travel assist apparatus
US9120486B1 (en) Vehicle lane keeping techniques
US9545922B1 (en) Lane keeping assistance system and method thereof
US20150248588A1 (en) Lane line recognition apparatus
US20150275840A1 (en) Idling stop control system for vehicle
JP6261832B1 (ja) 走行路認識装置及び走行路認識方法
JP6778620B2 (ja) 区画線検出装置、区画線検出システム、及び区画線検出方法
US11560174B2 (en) Automatic steering control device
JP2010225075A (ja) 運転支援装置
WO2016035252A1 (ja) 運転支援装置および運転支援方法
JP2012166705A (ja) 車載カメラレンズ用異物付着判定装置
JP6105524B2 (ja) 走行区画線認識装置及び走行区画線認識プログラム
JP2012176656A (ja) 駐車支援装置
US20160003628A1 (en) Branching and merging determination apparatus
JP2008130059A (ja) 先行車両離脱判定装置
JP4850963B1 (ja) 車両の運転支援装置
US8213684B2 (en) Motion estimating device
JP6243319B2 (ja) 逸脱判定装置
JP2019133445A (ja) 区画線検出装置、区画線検出システム、及び区画線検出方法
JP5717416B2 (ja) 運転支援制御装置
JP5359152B2 (ja) 操舵制御装置
JP6370249B2 (ja) 車載警告装置
JP6048384B2 (ja) 画像判定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181210

R151 Written notification of patent or utility model registration

Ref document number: 6458384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250