JP6458384B2 - 車線検出装置および車線検出方法 - Google Patents
車線検出装置および車線検出方法 Download PDFInfo
- Publication number
- JP6458384B2 JP6458384B2 JP2014151052A JP2014151052A JP6458384B2 JP 6458384 B2 JP6458384 B2 JP 6458384B2 JP 2014151052 A JP2014151052 A JP 2014151052A JP 2014151052 A JP2014151052 A JP 2014151052A JP 6458384 B2 JP6458384 B2 JP 6458384B2
- Authority
- JP
- Japan
- Prior art keywords
- lane
- vehicle
- camera
- break
- white line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims description 101
- 238000000926 separation method Methods 0.000 claims description 39
- 230000002093 peripheral effect Effects 0.000 claims description 22
- 238000012937 correction Methods 0.000 claims description 19
- 238000000034 method Methods 0.000 description 31
- 230000011218 segmentation Effects 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 4
- 230000005856 abnormality Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
- G06V10/811—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/188—Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/167—Driving aids for lane monitoring, lane changing, e.g. blind spot detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Vascular Medicine (AREA)
- Computing Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
これは、次のような理由による。先ず、従来から白線等を検出していた撮影画像は車両の進行方向(前方)の比較的遠方を撮影した画像であり、検出された白線等は車両から遠方に存在している。これに対して、側方の撮影画像中の白線等は車両の近くに存在する。このため、前方の撮影画像中では、車両が高速で移動した場合でも撮影画像中では白線等の位置が大きく移動することはないが、側方の撮影画像中では、白線等の位置が大幅に且つ急激に移動し得る。その結果、側方の撮影画像では、車両の走行中に白線等を追跡することが困難となる。更に、側方の撮影画像中では、自車両の影や路面の繋ぎ目などが白線等と並行に写ることがある。白線等の追跡が難しい状況では、これらと白線等と区別することも困難となる。これらの理由から、側方の撮影画像中から白線等を検出しようとしても、白線等を見失ったり、白線以外のものを白線と誤検出したりすることがあるため、十分な信頼性を確保することが困難となっている。
複数の車載カメラで撮影した画像を解析することによって、車両(1)が走行している車線を検出する車線検出装置(100)であって、
前記車両の側方の周辺領域を撮影する側方車載カメラ(10L、10R)で得られた画像に基づいて、該車両の側方に存在する側方車線の区切りを検出する側方検出部(101)と、
前記車両の前方の周辺領域を撮影する前方車載カメラ(11F)で得られた画像に基づいて、該車両の前方に存在する前方車線の区切りを検出する前方検出部(102)と、
前記側方車線の区切りの位置と、前記前方車線の区切りの位置とを照合する照合部(109)と、
前記側方車線の区切りの位置と、前記前方車線の区切りの位置とが整合する場合に、該側方車線の区切りの位置を前記車線の検出結果として出力する出力部(110)と
を備える車線検出装置。
A.装置構成 :
図1には、車線検出装置100を搭載した車両1が示されている。図示されるように車両1には、車線検出装置100に加えて、車両1から左側方の周辺領域を撮影する左側方カメラ10Lと、右側方の周辺領域を撮影する右側方カメラ10Rと、車両1から前方の周辺領域を撮影する前方カメラ11Fと、後方の周辺領域を撮影する後方カメラ11Bと、車両1の走行速度を検出する車速センサー14とを備えている。
尚、本実施例では、左側方カメラ10Lおよび右側方カメラ10Rが、本発明の「側方車載カメラ」に対応する。また、前方カメラ11Fが本発明の「前方車載カメラ」に対応し、後方カメラ11Bが本発明の「後方車載カメラ」に対応する。
車両制御装置200は、受け取った情報に基づいて、運転者が意図せずに車線を逸脱しそうになっていると判断した場合には、例えば、運転者に警告したり、あるいは車線を維持する方向にハンドルを操作したりする運転支援を行う。
尚、これら10の「部」は、左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11Bの撮影画像を解析して車線を検出する車線検出装置100の機能に着目して、車線検出装置100の内部を便宜的に分類した抽象的な概念であり、車線検出装置100が物理的に10の部分に区分されることを表すものではない。従って、これらの「部」は、CPUで実行されるコンピュータープログラムとして実現することもできるし、LSIやメモリーを含む電子回路として実現することもできるし、更にはこれらを組合せることによって実現することもできる。
尚、車両1の左側方あるいは右側方で検出した車線区切りは、本発明の「側方車線の区切り」に対応する。
後方検出部103は、後方カメラ11Bから取得した車両1の後方を撮影した画像を解析して、車両1の後方に存在する車線区切りの位置を検出する。
尚、車両1の前方で検出した車線区切りは、本発明の「前方車線の区切り」に対応し、車両1の後方で検出した車線区切りは、本発明の「後方車線の区切り」に対応する。
走行速度検出部104は、左側方カメラ10L、右側方カメラ10R、前方カメラ11Fおよび後方カメラ11Bで画像を撮影した時点での車両1の走行速度を、車速センサー14から取得する。尚、左側方カメラ10L、右側方カメラ10R、前方カメラ11Fおよび後方カメラ11Bは、厳密には異なるタイミングで画像を撮影する。しかし、車両1の走行速度は、これらカメラ間での撮影タイミングの違いで大きく変化することはないので、走行速度検出部104は、何れかのカメラの撮影タイミングで、車速センサー14から走行速度を取得すればよい。
左側方カメラ10Lに対する前方カメラ11Fの撮影タイミングの違いを修正する際には、左側方カメラ10Lと前方カメラ11Fとの時間差の情報を時間差記憶部108から読み出して、走行速度検出部104で取得した走行速度を考慮して修正する。また、右側方カメラ10Rに対する前方カメラ11Fの撮影タイミングの違いを修正する際には、右側方カメラ10Rと前方カメラ11Fとの時間差の情報を時間差記憶部108から読み出して、走行速度検出部104で取得した走行速度を考慮して修正する。
左側方カメラ10Lに対する後方カメラ11Bの撮影タイミングの違いを修正する際には、左側方カメラ10Lと後方カメラ11Bとの時間差の情報を時間差記憶部108から読み出して、走行速度検出部104で取得した走行速度を考慮して修正する。また、右側方カメラ10Rに対する後方カメラ11Bの撮影タイミングの違いを修正する際には、右側方カメラ10Rと後方カメラ11Bとの時間差の情報を時間差記憶部108から読み出して、走行速度検出部104で取得した走行速度を考慮して修正する。
尚、本実施例の前方修正部105および後方修正部106は、本発明の「位置修正部」に対応する。
そして、これらの車線区切りの位置が整合すると判断した場合に、側方検出部101で検出した車線区切りの位置を、車線の検出結果として車両制御装置200に向かって出力する。
図3には、上述した車線検出装置100を搭載した車両が、車線区切り(ここでは、白線2)で区画された車線を走行する様子が例示されている。また、前方カメラ11F、後方カメラ11B、左側方カメラ10L、右側方カメラ10Rには、いわゆる魚眼レンズのような広角レンズが装着されており、前方カメラ11Fは、車両1の前方の周辺領域を、後方カメラ11Bは車両1の後方の周辺領域を撮影する。同様に、左側方カメラ10Lは車両1の左側方の周辺領域を、右側方カメラ10Rは右側方の周辺領域を撮影する。
従って、これら4つの車載カメラの画像を解析することにより、車両1の前方、後方、左側方、右側方での白線2を検出することができる。
当然ながら、左側方カメラ10Lに写った白線2は、前方部分が前方カメラ11Fにも写っており、後方部分が後方カメラ11Bにも写っている。従って、車両1に対する白線2の位置は、左側方カメラ10L、前方カメラ11F、後方カメラ11Bの何れから得られた撮影画像を用いて検出した場合でも、誤差の範囲内で一致すると考えられる。また、右側方カメラ10Rと前方カメラ11F、後方カメラ11Bとについても、全く同様なことが成立する。
すなわち、図4(a)に示したように、左側方カメラ10Lの撮影画像に基づいて、車両1から左側の白線2までの距離がLlと求められたとする。また、車両1から左側の白線2までの距離は、前方カメラ11FからはLfと求められ(図4(b)参照)、後方カメラ11BからはLbと求められたとする(図4(c)参照)。
従って、図2に示した本実施例の車線検出装置100によれば、左側方カメラ10Lおよび右側方カメラ10Rによる撮影画像から、誤検出することなく、十分な信頼性で白線2を検出することができる。
従って、実際には、4つの車載カメラ(左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11B)が画像を撮影する位置は、図3中に破線で示すように、少しずつ異なっている。
しかし、車両1が高速走行中に車線を変更する場合などには、各車載カメラで撮影タイミングが違うことによる影響は、無視できない程に大きくなることがある。
例えば、車両1に搭載された4つの車載カメラ(左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11B)のうちで、前方カメラ11F、後方カメラ11B、左側方カメラ10L、右側方カメラ10Rの順番で画像を撮影するものとする。図5中では、前方カメラ11Fが画像を撮影した時の車両1の位置が実線で示されており、その後、後方カメラ11B、左側方カメラ10L、右側方カメラ10Rが画像を撮影した時の車両1の位置が、細い破線で示されている。
従って、図5に示したように、車両1が高速走行中に車線を変更するような場合には、車両1の側方での白線2の検出結果の妥当性を、前方あるいは後方での白線2の検出結果に基づいて確認できなくなる場合がある。
そこで、本実施例の車線検出装置100は、車両1の側方での白線2の検出結果の妥当性を、次のような方法で確認することにより、車両1が高速走行中に車線を変更するような場合でも、十分な信頼性で車線を検出可能としている。
図7および図8には、本実施例の車線検出装置100で実施される車線検出処理のフローチャートが示されている。
図示されるように、車線検出処理を開始すると、車線検出装置100は先ず始めに、4つの車載カメラ(左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11B)を起動した後、それぞれの車載カメラが画像を撮影するタイミングの時間差を取得する(S100)。すなわち、左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11Bは、起動された後は一定の撮影周期で画像を撮影して、車線検出装置100に出力する。ここで、各車載カメラの撮影周期は同じであるが、完全に同じタイミングで起動されるわけではない。従って、左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11Bは、起動時に決まった互いの位相差を保って、周期的に画像を撮影し続けることになる。
本実施例の車線検出装置100は、図7の車線検出処理を開始して4つの車載カメラを起動すると、左側方カメラ10Lに対する前方カメラ11Fの撮影タイミングの時間差Tlfと、左側方カメラ10Lに対する後方カメラ11Bの撮影タイミングの時間差Tlbとを取得する。また、右側方カメラ10Rに対する前方カメラ11Fの撮影タイミングの時間差Trfと、右側方カメラ10Rに対する後方カメラ11Bの撮影タイミングの時間差Trbとを取得する。更に、後方カメラ11Bに対する前方カメラ11Fの撮影タイミングの時間差Tbfも取得する。こうして取得された各種の時間差は、図2に示した時間差記憶部108に記憶される。
そして、左側方カメラ10Lの撮影画像を解析することにより、車両1の左側方に写った車線区切り(ここでは、白線2)を検出し(S102)、右側方カメラ10Rの撮影画像を解析して、車両1の右側方に写った車線区切り(白線2)を検出する(S103)。
また、同様にして、前方カメラ11Fの撮影画像から車両1の前方での車線区切り(白線2)を検出し(S104)、後方カメラ11Bの撮影画像から車両1の後方での車線区切り(白線2)を検出する(S105)。
また、図10(b)には、後方カメラ11Bの撮影画像から車両1の後方での白線2が、図10(c)には、左側方カメラ10Lの撮影画像から車両1の左側方での白線2が、図10(d)には、右側方カメラ10Rの撮影画像から車両1の右側方での白線2が、それぞれXY座標での直線を表す式として検出された様子が例示されている。
そこで、車両1の前方および後方で車線区切りが検出されなかった場合は(S106:no)、図示しないスピーカーから警告音を出力することにより、あるいは図示しないランプを点灯させることによって、異常の発生を報知する(S110)。
そして、車両1の左側方および右側方で車線区切り(ここでは白線2)が検出されたか否かを判断する(S108)。
その結果、車両1の左側方および右側方で車線区切りが検出されていた場合は(S108:yes)、左側方カメラ10Lに対する前方カメラ11Fの撮影タイミングの時間差Tlf(図9参照)と、左側方カメラ10Lに対する後方カメラ11Bの撮影タイミングの時間差Tlb(図9参照)とを取得する(S109)。これらの時間差は、車線検出処理の開始時に、S100で予め取得されて時間差記憶部108(図2参照)に記憶されている。
図11には、車両1の前方で検出された車線区切り(白線2)の位置を修正する様子が示されている。車両1の前方で検出された車線区切り(白線2)の位置は、車両1の左側方で検出された車線区切り(白線2)に比べると、時間差Tlfだけ早いタイミングで取得されており、その間に車両1は、(走行速度V)×(時間差Tlf)の距離だけ白線2に近付く方向に移動する。従って、図11(a)に示した車両1の前方の車線区切り(白線2)の位置は、車両1の進行方向とは逆方向に(走行速度V)×(時間差Tlf)だけ移動させることによって、図11(b)に示した位置に修正される。
車両1の後方で検出された車線区切り(白線2)の位置についても同様にして修正することができる。すなわち、車両1の後方で検出された車線区切り(白線2)の位置は、車両1の左側方で検出された車線区切り(白線2)に比べると、時間差Tlbだけ早いタイミングで取得されている。従って、車両1の後方の車線区切り(白線2)の位置は、車両1の進行方向に(走行速度V)×(時間差Tlb)だけ移動させる。
図10を用いて前述したように、車両1の左側方の車線区切り(白線2)の位置も、車両1の前方および後方の車線区切り(白線2)の位置も、XY座標で直線を表す式として検出されている。更に、車両1の前方および後方の車線区切り(白線2)の位置は、XY座標でX方向に直線をシフトさせるように修正されている。従って、XY座標上で表された直線を比較することになるので、それらの直線が整合するか否か(すなわち、誤差の範囲内で一致するか否か)を判断することができる。
これに対して、車両1の左側方、前方および後方の3箇所で検出された車線区切り(白線2)の位置が整合しないと判断した場合は(S112:no)、左側方の車線区切り(白線2)は誤検出された可能性が高い。そこで、左側方の車線区切り(白線2)の位置を、前回の処理で検出された車両1の左側方での車線区切り(白線2)の位置に基づいて推定した位置に差し替える(S113)。
もっとも、本実施例のように、車両1の左側方での車線区切り(白線2)の位置を、車両1の前方および後方での車線区切り(白線2)の位置と比較すれば、いわゆるダブルチェックとなるので、誤検出を確実に排除することが可能となる。
これに対して、車両1の右側方、前方および後方での車線区切り(白線2)の位置が整合する場合は(S116:yes)、右側方の車線区切り(白線2)は正しく検出されたものと考えられるので、前回の検出結果から推定した位置に差し替える処理(S117)は省略する。
尚、車両1の右側方で検出された車線区切り(白線2)の位置についても、車両1の前方あるいは後方の何れか一方で検出された車線区切り(白線2)の位置と比較して、整合するか否かを判断しても良いことはもちろんである。
そして、車線の検出を終了するか否かを判断する(S119)。その結果、車線の検出を終了しない場合は(S119:no)、図7のS101に戻って、再び4つの車載カメラ(左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11B)から撮影画像を取得した後、上述した続く一連の処理を開始する。
これに対して、車両1の前後では車線区切り(白線2)が検出されたが(S106:yes)、車両1の左右では検出されなかった場合は(S108:no)、図12に例示したように車両1が車線区切り(白線2)を跨いでいるものと考えられる。
そこでこのような場合、車線検出装置100は、以下に説明する車線区切り推定処理(S200)を開始する。
図示されるように車線区切り推定処理では、先ず始めに、後方カメラ11Bに対する前方カメラ11Fの撮影タイミングの時間差Tbfを取得する(S201)。
図9を用いて前述したように、時間差Tbfは、図7および図8の車線検出処理の起動時に取得されて、時間差記憶部108に予め記憶されている。
その結果、整合すると判断した場合は(S203:yes)、車両1の後方で検出した車線区切り(白線2)の位置と、車両1の前方の修正した車線区切り(白線2)の位置とに基づいて、車両1の下面での車線区切り(白線2)の位置を推定する(S204)。すなわち、車両1の後方の車線区切り(白線2)の位置も、車両1の前方の修正された車線区切り(白線2)の位置も、XY座標上の直線として表されているから、それらの直線の中間的な直線は容易に求めることができる。そこで、このような直線を求めることによって、車両1の下面での車線区切り(白線2)の位置を推定する。図16には、このようにして車線区切り(白線2)の位置を推定する様子が例示されている。
こうすれば、前方カメラ11Fの撮影タイミングまたは後方カメラ11Bの撮影タイミングの新しい方の撮影タイミングで得られた画像を基準として、車線区切り(2)の位置を推定することができるので、より精度良く推定することが可能となる。
その結果、車線の検出を終了しない場合は(S119:no)、図7のS101に戻って、再び4つの車載カメラ(左側方カメラ10L、右側方カメラ10R、前方カメラ11F、後方カメラ11B)から撮影画像を取得した後、上述した続く一連の処理を開始する。これに対して、車線の検出を終了する場合は(S119:yes)、図7および図8に示した車線検出処理を終了する。
11B…後方カメラ、 11F…前方カメラ、 14…車速センサー、
100…車線検出装置、 101…側方検出部、 102…前方検出部、
103…後方検出部、 104…走行速度検出部、 105…前方修正部、
106…後方修正部、 107…時間差取得部、 108…時間差記憶部、
109…照合部、 110…出力部、 200…車両制御装置。
Claims (6)
- 複数の車載カメラを備える車両に搭載され、前記複数の車載カメラで撮影した画像を解析することによって、車両(1)が走行している車線を検出する車線検出装置(100)であって、
前記車両の側方の周辺領域を撮影する側方車載カメラ(10L、10R)で得られた画像に基づいて、該車両の側方に存在する側方車線の区切りを検出する側方検出部(101)と、
前記車両の前方の周辺領域を撮影する前方車載カメラ(11F)で得られた画像に基づいて、該車両の前方に存在する前方車線の区切りを検出する前方検出部(102)と、
前記車両の走行速度を検出する走行速度検出部(104)と、
前記前方車線の区切りの位置を、前記側方車載カメラと前記前方車載カメラとの撮影タイミングの時間差と、前記走行速度とに基づいて修正する位置修正部(105)と、
前記側方車線の区切りの位置と、前記修正した前方車線の区切りの位置とを照合する照合部(109)と、
前記側方車線の区切りの位置と、前記修正した前方車線の区切りの位置とが整合する場合に、該側方車線の区切りの位置を前記車線の検出結果として出力する出力部(110)と
を備える車線検出装置。 - 請求項1に記載の車線検出装置であって、
前記複数の車載カメラの起動時に、該複数の車載カメラ間での撮影タイミングの時間差を取得する時間差取得部(107)を備える
車線検出装置。 - 請求項1または請求項2に記載の車線検出装置であって、
前記車両から後方の周辺領域を撮影する後方車載カメラで得られた画像に基づいて、該車両の後方に存在する後方車線の区切りを検出する後方検出部(103)を備え、
前記位置修正部は、前記後方車線の区切りの位置については、前記側方車載カメラと前記後方車載カメラとの撮影タイミングの時間差と、前記走行速度とに基づいて修正する修正部(106)であり、
前記照合部は、前記側方車線の区切りの位置と前記修正した前方車線の区切りの位置とを照合するとともに、該側方車線の区切りの位置と前記修正した後方車線の区切りの位置とを照合する照合部であり、
前記出力部は、前記側方車線の区切りの位置と前記修正した前方車線の区切りの位置とが整合し、尚且、該側方車線の区切りの位置と前記修正した後方車線の区切りの位置とが整合する場合に、該側方車線の区切りの位置を前記車線の検出結果として出力する出力部である
車線検出装置。 - 請求項3に記載の車線検出装置であって、
前記位置修正部は、前記前方車線の区切りおよび前記後方車線の区切りは検出されているが、前記側方車線の区切りは検出されていない場合は、前記前方車線の区切りまたは前記後方車線の区切りの何れか一方の位置を、前記前方車載カメラと前記後方車載カメラとの撮影タイミングの時間差と、前記走行速度とに基づいて修正する修正部であり、
前記照合部は、前記前方車線の区切りまたは後方車線の区切りの修正した方の位置と、前記前方車線の区切りまたは後方車線の区切りの修正しなかった方の位置とを照合する照合部であり、
前記照合部が、前記修正した方の区切りの位置と、前記修正しなかった方の区切りの位置とが整合すると判断した場合に、前記車両の下面での車線の区切りの位置を推定する車線区切り推定部(S204)を備え、
前記出力部は、前記車線区切り推定部によって推定された前記車線の区切りの位置を、前記車線の検出結果として出力する出力部である
車線検出装置。 - 請求項4に記載の車線検出装置であって、
前記位置修正部は、前記前方車載カメラが前記後方車載カメラよりも早いタイミングで画像を撮影する場合には、前記前方車線の区切りを修正し、前記後方車載カメラが前記前方車載カメラよりも早いタイミングで画像を撮影する場合には、前記後方車線の区切りを修正する修正部である
車線検出装置。 - 複数の車載カメラで撮影した画像を解析することによって、車両(1)が走行している車線を検出する車線検出方法であって、
前記車両の側方の周辺領域を撮影する側方車載カメラ(10L、10R)で得られた画像に基づいて、該車両の側方に存在する側方車線の区切りを検出する側方検出工程(S102、S103)と、
前記車両の前方の周辺領域を撮影する前方車載カメラ(11F)で得られた画像に基づいて、該車両の前方に存在する前方車線の区切りを検出する前方検出工程(S104)と、
前記車両の走行速度を検出する走行速度検出工程(S107)と、
前記前方車線の区切りの位置を、前記側方車載カメラと前記前方車載カメラとの撮影タイミングの時間差と、前記走行速度とに基づいて修正する位置修正工程(S111)と、
前記側方車線の区切りの位置と、前記修正した前方車線の区切りの位置とを照合する照合工程(S112、S116)と、
前記側方車線の区切りの位置と、前記修正した前方車線の区切りの位置とが整合する場合に、該側方車線の区切りの位置を前記車線の検出結果として出力する出力工程(S118)と
を備える車線検出方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014151052A JP6458384B2 (ja) | 2014-07-24 | 2014-07-24 | 車線検出装置および車線検出方法 |
PCT/JP2015/003481 WO2016013174A1 (ja) | 2014-07-24 | 2015-07-09 | 車線検出装置および車線検出方法 |
US15/327,611 US10140528B2 (en) | 2014-07-24 | 2015-07-09 | Lane detection apparatus and lane detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014151052A JP6458384B2 (ja) | 2014-07-24 | 2014-07-24 | 車線検出装置および車線検出方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016024777A JP2016024777A (ja) | 2016-02-08 |
JP6458384B2 true JP6458384B2 (ja) | 2019-01-30 |
Family
ID=55162720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014151052A Active JP6458384B2 (ja) | 2014-07-24 | 2014-07-24 | 車線検出装置および車線検出方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10140528B2 (ja) |
JP (1) | JP6458384B2 (ja) |
WO (1) | WO2016013174A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9305929B1 (en) | 2015-02-17 | 2016-04-05 | Micron Technology, Inc. | Memory cells |
JP6593263B2 (ja) * | 2016-07-08 | 2019-10-23 | 株式会社デンソー | 区画線認識装置 |
JP6336010B2 (ja) * | 2016-11-16 | 2018-06-06 | 三菱電機株式会社 | 路上区画線認識装置、路上区画線認識方法、路上区画線認識装置を備えた運転支援装置、および路上区画線認識方法を備えた運転支援方法 |
JPWO2018173907A1 (ja) * | 2017-03-23 | 2019-11-07 | 日立オートモティブシステムズ株式会社 | 車両制御装置 |
JP7118836B2 (ja) * | 2018-09-25 | 2022-08-16 | フォルシアクラリオン・エレクトロニクス株式会社 | 区画線認識装置 |
JP7077910B2 (ja) * | 2018-10-22 | 2022-05-31 | トヨタ自動車株式会社 | 区画線検出装置及び区画線検出方法 |
KR102034316B1 (ko) * | 2019-01-29 | 2019-11-08 | 주식회사 만도 | 차량 위치 보정 시스템 및 방법, 그리고 카메라 |
US11093761B2 (en) * | 2019-03-06 | 2021-08-17 | GM Global Technology Operations LLC | Lane position sensing and tracking in a vehicle |
KR20210005439A (ko) * | 2019-07-05 | 2021-01-14 | 현대자동차주식회사 | 운전자 보조 장치, 그를 가지는 차량 및 그 제어 방법 |
WO2021037350A1 (en) | 2019-08-28 | 2021-03-04 | Toyota Motor Europe | Method and system for processing a plurality of images so as to detect lanes on a road |
JP7490483B2 (ja) * | 2020-07-22 | 2024-05-27 | キヤノン株式会社 | システム、情報処理方法、物品の製造方法、プログラム及び記録媒体 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5157067B2 (ja) * | 2006-01-06 | 2013-03-06 | トヨタ自動車株式会社 | 自動走行用マップ作成装置、及び自動走行装置。 |
JP4654208B2 (ja) * | 2007-02-13 | 2011-03-16 | 日立オートモティブシステムズ株式会社 | 車載用走行環境認識装置 |
JP4748082B2 (ja) | 2007-02-23 | 2011-08-17 | トヨタ自動車株式会社 | 車両用周辺監視装置及び車両用周辺監視方法 |
JP5045628B2 (ja) * | 2008-09-25 | 2012-10-10 | トヨタ自動車株式会社 | 車線逸脱防止装置 |
-
2014
- 2014-07-24 JP JP2014151052A patent/JP6458384B2/ja active Active
-
2015
- 2015-07-09 WO PCT/JP2015/003481 patent/WO2016013174A1/ja active Application Filing
- 2015-07-09 US US15/327,611 patent/US10140528B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2016013174A1 (ja) | 2016-01-28 |
US20170147889A1 (en) | 2017-05-25 |
US10140528B2 (en) | 2018-11-27 |
JP2016024777A (ja) | 2016-02-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6458384B2 (ja) | 車線検出装置および車線検出方法 | |
US10445596B2 (en) | Camera device for vehicle | |
US10795370B2 (en) | Travel assist apparatus | |
US9120486B1 (en) | Vehicle lane keeping techniques | |
US9545922B1 (en) | Lane keeping assistance system and method thereof | |
US20150248588A1 (en) | Lane line recognition apparatus | |
US20150275840A1 (en) | Idling stop control system for vehicle | |
JP6261832B1 (ja) | 走行路認識装置及び走行路認識方法 | |
JP6778620B2 (ja) | 区画線検出装置、区画線検出システム、及び区画線検出方法 | |
US11560174B2 (en) | Automatic steering control device | |
JP2010225075A (ja) | 運転支援装置 | |
WO2016035252A1 (ja) | 運転支援装置および運転支援方法 | |
JP2012166705A (ja) | 車載カメラレンズ用異物付着判定装置 | |
JP6105524B2 (ja) | 走行区画線認識装置及び走行区画線認識プログラム | |
JP2012176656A (ja) | 駐車支援装置 | |
US20160003628A1 (en) | Branching and merging determination apparatus | |
JP2008130059A (ja) | 先行車両離脱判定装置 | |
JP4850963B1 (ja) | 車両の運転支援装置 | |
US8213684B2 (en) | Motion estimating device | |
JP6243319B2 (ja) | 逸脱判定装置 | |
JP2019133445A (ja) | 区画線検出装置、区画線検出システム、及び区画線検出方法 | |
JP5717416B2 (ja) | 運転支援制御装置 | |
JP5359152B2 (ja) | 操舵制御装置 | |
JP6370249B2 (ja) | 車載警告装置 | |
JP6048384B2 (ja) | 画像判定装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170307 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180718 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181127 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181210 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6458384 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |