JP5687712B2 - レーン認識装置 - Google Patents

レーン認識装置 Download PDF

Info

Publication number
JP5687712B2
JP5687712B2 JP2012548707A JP2012548707A JP5687712B2 JP 5687712 B2 JP5687712 B2 JP 5687712B2 JP 2012548707 A JP2012548707 A JP 2012548707A JP 2012548707 A JP2012548707 A JP 2012548707A JP 5687712 B2 JP5687712 B2 JP 5687712B2
Authority
JP
Japan
Prior art keywords
lane
voting
linear element
straight line
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012548707A
Other languages
English (en)
Other versions
JPWO2012081359A1 (ja
Inventor
洋介 坂本
洋介 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2012548707A priority Critical patent/JP5687712B2/ja
Publication of JPWO2012081359A1 publication Critical patent/JPWO2012081359A1/ja
Application granted granted Critical
Publication of JP5687712B2 publication Critical patent/JP5687712B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • H04N1/4092Edge or detail enhancement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、撮像装置により撮影した車両前方の撮像画像に基いてレーンを認識するレーン認識装置に関する。
運転支援のために、車両に撮像装置を搭載して、車両前方の道路状況を撮影し、その撮像画像からレーンマークを画像処理により検出することが行われている。従来のレーンマーク検出用の画像処理として、Hough変換を利用したものが知られている。
特許文献1は、Hough変換とは別の方式により車両前方の撮像画像からレーンマーク(車線表示ライン)を検出する道路形状推定装置を開示している。該道路形状推定装置は、車線表示ラインが含まれるように複数の台形型ウィンドウを撮像画像内に設定するとともに、エッジ抽出処理により撮像画像内のエッジ点を検出する。次に、該道路形状推定装置は、各ウィンドウの上底の一点と下底の一点と(車線方向へ向かい合う2点)を両端とする全部の線分について、該線分上のエッジ点の個数を調べ、エッジ点が最大数の線分を該ウィンドウの検出直線として検出する。そして、該道路形状推定装置は、自車走行車線への隣接車線からの車両の割り込みのあるウィンドウであるか否かを、該ウィンドウの検出直線のエッジ点数が閾値以上であるか否かに基いて判断し、車両割り込みのないにウィンドウに絞り込んで、撮像画像全体の車線表示ラインを検出する。
特許第3721594号公報
Hough変換による撮像画像からのレーンマーク抽出では、(a)演算負荷が大きいこと、(b)点情報に基づくためノイズを拾い易いこと、及び(c)カーブ路(曲線路)を検出できないことという問題がある。
特許文献1の道路形状推定装置は、検出直線上のエッジ点の個数と所定の閾値との対比により、各ウィンドウの検出直線が割り込み車両に起因するときには、該検出直線をレーン境界線の認識対象から適切に排除することができる。しかし、該道路形状推定装置では、検出直線が、割り込み車両以外でかつレーンマーク以外のものに由来しているときには、そのことを識別して、該検出直線をレーン境界線の認識対象から排除することは難しい。
本発明の目的は、非レーンマーク由来の線状要素とレーンマーク由来の線状要素とが混在している線状要素抽出画像からレーンマーク由来の線状要素を的確に抽出して、レーン境界線を認識することができるレーン認識装置を提供することである。
かかる目的を達成するために、本発明のレーン認識装置は、撮像装置による車両前方の撮像画像に基いてレーンを認識するレーン認識装置であって、前記撮像画像に含まれる線状要素を抽出した線状要素抽出画像を生成する線状要素抽出画像生成部と、前記線状要素抽出画像において垂直方向所定範囲のレーン抽出エリアを設定するエリア設定部と、前記レーン抽出エリア内の各局所領域に対し各局所領域内の線状要素部分に基づいて各局所領域の局所直線を決定する局所直線決定部と、各局所直線と垂直方向所定位置の基準水平線との交点を算出する交点算出部と、方向及び交点を座標成分とする投票空間において、各局所直線の方向と交点とを投票する投票部と、前記投票空間における投票結果に基いて検出直線を検出する検出部と、前記検出直線に基いてレーン境界線を認識する認識部とを備えることを特徴とする(第1発明)。
第1発明によれば、各局所領域から決定された各局所直線について、方向と、基準水平線との交点とが算出され、投票空間において各局所直線の方向と交点とが投票される。ここで、道路に連続して敷設されるレーンマーク由来の局所直線の方向及び交点に対応付けられる投票空間上の座標には、道路に局所的に存在する他車両等の非レーンマーク由来の局所直線の方向及び交点に対応付けられる投票空間上の座標よりも投票が集まる。したがって、両者の投票数の差が顕著となるので、非レーンマーク由来の線状要素を的確に排除して、レーン境界線を認識することができる。
第1発明において、好ましくは、前記エリア設定部は、前記線状要素抽出画像を垂直方向に複数のレーン抽出エリアに分割し、前記投票部は、各レーン抽出エリアに対応付けられている各投票空間に対し、当該投票空間に対応するレーン抽出エリアの各局所直線に基いて投票し、前記検出部は、各投票空間の投票結果に基いて各レーン抽出エリアごとの検出直線を検出し、前記認識部は、各レーン抽出エリアの検出直線のつなぎ合わせに基いて線状要素抽出画像内のレーン境界線を認識する(第2発明)。
第2発明によれば、垂直方向の各レーン抽出エリアの検出直線の垂直方向のつなぎ合わせにより、曲線のレーン境界線を的確に認識することができる。
第2発明において、好ましくは、前記エリア設定部は、垂直方向の上側のレーン抽出エリアほど、その垂直方向寸法が小さくなるように、前記線状要素抽出画像を垂直方向に複数のレーン抽出エリアに分割する(第3発明)。
撮像画像では、その垂直方向上側の範囲ほど、該範囲における隣接画素点間の長さに対応する実空間上の長さが増大する。第3発明によれば、垂直方向の上側のレーン抽出エリアほど、その垂直方向寸法を小さくすることで、垂直方向寸法が等しい複数のレーン抽出エリアに分割する場合に比して、検出直線の垂直方向つなぎ合わせにおける各検出直線に対応付けられる実空間上の距離が均一化され、つなぎ合わせ後の検出直線の各部位の精度を均一化することができる。
第2発明において、好ましくは、前記局所直線決定部は、所定範囲の方向を第1所定数の方向区分に分割して、各局所直線の方向を、該当するいずれかの方向区分に割り当てて決定し、前記交点算出部は、前記基準水平線を第2所定数の位置区分に分割して、各局所直線と前記基準水平線との交点を、該当する位置区分としての交点区分に割り当てて決定し、前記投票部は、前記投票空間に定義する方向及び交点の座標成分を、前記方向区分及び交点区分に一致させる(第4発明)。
第4発明によれば、投票部が定義する投票空間の方向及び交点の座標成分が、局所直線の方向及び交点について定義されている第1及び第2所定数の方向区分及び交点区分に一致させられることにより、局所直線の方向区分及び交点区分と投票空間の方向及び交点の座標成分との整合が図られる。この結果、所望の検出精度の検出直線を検出する処理負荷の軽減を図ることができる。
第4発明において、好ましくは、前記第1所定数又は前記第2所定数は、上側のレーン抽出エリアでは、下側のレーン抽出エリアよりも小さく設定されている(第5発明)。
上側のレーン抽出エリアの画像は、対応する実空間上の位置までの自車両からの距離が、下側のレーン抽出エリアの画像よりも遠くなっているので、上側のレーン抽出エリアの画像から検出できる実空間の位置の差異の精度は、下側のレーン抽出エリアから検出できる実空間の位置の差異の精度よりも低くなる。第5発明によれば、第1所定数又は第2所定数は、上側のレーン抽出エリアでは、下側のレーン抽出エリアよりも小さく設定されることにより、各画像からの実空間の位置の検出精度に応じた粗さで局所直線について方向又は交点についての算出処理が行われる。この結果、方向又は交点について検出精度の低いレーン抽出エリアに対して必要以上に高精度で処理する無駄を排除することができる。
第1発明において、好ましくは、前記検出部は、前記投票空間において投票数が極大である座標に対応付けられる方向及び交点をもつ直線を検出直線として検出する(第発明)。
発明によれば、投票空間において投票数と所定の閾値との対比ではなく、投票数の極大に基いて検出直線を検出することにより、破線型レーンマークと連続線型レーンマークとの線状要素が混在する線状要素抽出画像からもレーンマーク由来の検出直線を的確に検出することができる。
第1発明において、好ましくは、前記撮像画像の水平方向は実空間における車両の左右方向に相当し、前記認識部は、時系列の線状要素抽出画像に基いて検出直線が前記線状要素抽出画像上で水平方向へ閾値以上の速度で変化していると判断したときは、レーン境界線がカーブしていると認識する(第発明)。
発明によれば、検出直線の水平方向速度からレーンがカーブであることを的確に認識することができる。
第1発明において、好ましくは、前記線状要素抽出画像生成部は、前記撮像画像に含まれる線状要素を抽出した第1中間抽出画像を生成する中間抽出画像生成部と、該第1中間抽出画像に含まれる各線状要素を、その水平方向幅又は傾斜角度の垂直方向における変化に基づいて1つ又は複数の線分に置換することにより、前記第1中間抽出画像から前記線状要素抽出画像を生成する線分置換部とを備える(第発明)。
カーブ走行時では、レーン境界線が曲線となるため、1つのレーン境界線に対してレーン抽出エリア内の複数の局所領域の局所直線の方向及び交点が分散する。このような分散は、投票先の投票空間の座標を分散させて、投票による検出直線の検出を難しくする原因になる。第発明によれば、前記中間抽出画像生成部が、撮像画像に含まれる線状要素を抽出した第1中間抽出画像を生成し、前記線分置換部が、該第1中間抽出画像に含まれる各線状要素を、その水平方向幅又は傾斜角度の垂直方向における変化に基づいて、1つ又は複数の線分に置換して線状要素抽出画像を生成する。この結果、局所直線決定部は、曲線状の線状要素が置き換えられた線分に基づいて局所直線を決定することになるので、投票空間における投票先の分散が抑制される。そのため、前記検出部は投票空間の投票結果に基いて検出直線を円滑に検出することができる。
発明において、好ましくは、前記中間抽出画像生成部は、前記撮像画像に含まれる線状要素を、前記撮像画像における位置と同一位置に保持しつつ前記撮像画像から抽出した第2中間抽出画像を生成し、該第2中間抽出画像を上方視の画像に射影変換して前記第1中間抽出画像を生成する(第発明)。
発明によれば、第2中間抽出画像を、上方視の画像に射影変換した第1中間抽出画像を生成することにより、第1中間抽出画像上の線状要素の形状は、車両からの遠近による形状歪みが解消され、実空間における形状に近いものになる。この結果、各線状要素を適切な線分に置換して、置換した線分に基づいて決定される局所直線の正確化を図ることができる。
第1発明において、好ましくは、前記投票部は、時系列の撮像画像に対応付けて生成された時系列の前記線状要素抽出画像に対して設定された時系列のレーン抽出エリアごとに前記投票空間を設定して、時系列の各投票空間ごとに、当該投票空間が設定されたレーン抽出エリアにおける各局所領域の局所直線の方向と交点とを投票し、前記検出部は、時系列の投票空間の投票結果に基づいて検出直線を検出する(第10発明)。
10発明によれば、線状要素抽出画像におけるレーンマーク由来の線状要素は、時系列の線状要素抽出画像において出現の継続性が高いのに対し、線状要素抽出画像における非レーンマーク由来の線状要素は、時系列の線状要素抽出画像において出現の継続性が低い。したがって、時系列の線状要素抽出画像に対して設定された時系列のレーン抽出エリアごとに投票空間を設定して、時系列の各投票空間ごとに、各局所領域の局所直線に対応付けられる座標に投票して、時系列の投票空間の投票結果に基づいて検出直線を検出することにより、レーンマークに対応する検出直線の検出精度を高めることができる。
10発明において、好ましくは、前記検出部は、各座標の投票数が、時系列の各投票空間における対応座標の投票数を合計した合計値となる合計投票空間を作成し、合計投票空間において投票数が極大となっている座標に基づいて前記検出直線を検出する(第11発明)。
11発明によれば、線状要素抽出画像におけるレーンマーク由来の線状要素は、時系列の線状要素抽出画像において出現の継続性が高いので、合計投票空間においてレーンマークに対応する座標の投票数は、一時的なノイズ等に対応する座標の投票数より大幅に大きくなる。また、合計投票空間において、レーンマークに対応する座標の投票数は、その周囲の座標の投票数より大となって、投票数に関してレーンマークに対応する座標の投票数は極大となっている。そのため、合計投票空間において投票数が極大となっている座標に基づいて検出直線を検出することにより、レーンマークに対応する検出直線の検出精度を高めることができる。
11発明において、好ましくは、前記検出部は、各投票空間において投票数が閾値未満である座標については該投票数を減少させてから、時系列の各投票空間の各座標の投票数を合計する(第12発明)。
各投票空間において、ノイズ等に対応する座標の投票数は、レーンマークに対応する座標の投票数に比して小さい。しかしながら、各投票空間の各座標の投票が蓄積される合計空間では、無視できない投票数に達することがある。第12発明によれば、これに対処して、前記検出部は、各投票空間において投票数が閾値未満である座標については該投票数を減少させてから、時系列の各投票空間の各座標の投票数を合計する。これにより、合計投票空間では、ノイズ由来の投票数はレーンマーク由来の投票数に対して十分に小さい値となり、合計投票空間からノイズ由来の検出直線が検出されることを抑制することができる。
12発明において、好ましくは、前記検出部は、時系列上の別時刻の第1及び第2投票空間の投票結果を対比し、第1投票空間において投票数が極大となっている座標から所定の距離範囲内の座標が第2投票空間では投票数が極大になっていないときは、第1投票空間における該座標の投票数は合計投票空間における合計から除外する(第13発明)。
ノイズ等の非レーンマーク由来の線状要素は、時系列の直線要素抽出画像における連続的な出現性が低い。そのため、時系列上の別時刻の第1及び第2投票空間の投票結果を対比した場合、第1投票空間において投票数が極大となっている座標から所定の距離範囲内の座標が第2投票空間において投票数が極大になっていないことが多い。第13発明によれば、第1投票空間の第1座標から所定の距離範囲内の第2座標の投票数が第2投票空間では極大になっていないときに、第1投票空間における該第1座標の投票数は合計投票空間における合計から除外することにより、ノイズ等に由来する検出直線が合計投票空間から検出されてしまうのを防止することができる。
車両走行支援装置を搭載する車両の模式図。 車両走行支援装置が装備するレーン認識装置のブロック図。 図2のレーン認識装置が実施するレーン認識方法についてのフローチャート。 撮像画像及びその線状要素抽出画像を上下に並べて示す図。 投票空間の模式図。 各座標における投票数を高さにして投票空間を三次元形態で示した図。 別のレーン認識装置のブロック図。 図7の別のレーン認識装置が実施するレーン認識方法についてのフローチャート。 線分置換部による線分置換処理の説明図。 線状要素抽出画像を射影変化した射影変換画像を示す図。 曲線のレーン境界線についての別の認識方法のフローチャート。 図11の別の認識方法におけるレーン抽出エリアについての説明図。 図11の別の認識方法における各レーン抽出エリアごとに生成される複数の投票空間を示す図。 図11の別の認識方法において各レーン抽出エリアから検出される検出直線を示す図。 1つのレーン抽出エリア内で局所領域の位置に応じて局所直線の方向の区分数を調整することについての説明図。 さらに別のレーン認識装置のブロック図。 図16のレーン認識装置が実施するレーン認識方法についてのフローチャート。 時系列の投票空間についての説明図。 図16のレーン認識装置による投票空間に対する処理の説明図。
図1に示されている車両(四輪自動車)10には、CCDカメラ、CMOSイメージセンサや近赤外線カメラ等のカメラ(撮像装置)11と、車両走行支援装置12とが搭載されている。カメラ11は車両10の前方の様子をフロントウィンドウ越しに撮影するように車内空間に取り付けられている。なお、カメラ11の配置箇所は車両10のダッシュボードの上又はフロント部分等に適宜変更されてもよい。
図2において、車両走行支援装置12に装備されるレーン認識装置20は、撮像画像メモリ21、線状要素抽出画像処理部22、分解能決定部23、投票処理部24、直線検出部25及び認識部26を備える。
線状要素抽出画像処理部22は、本発明における線状要素抽出画像生成部、エリア設定部、局所直線決定部及び交点算出部に相当する。投票処理部24は本発明における投票部に相当する。直線検出部25は本発明における検出部に相当する。
レーン認識装置20は、演算用メモリやプログラム格納用メモリを装備するコンピュータ(図示せず)を含み、線状要素抽出画像処理部22、分解能決定部23、投票処理部24、直線検出部25及び認識部26の各機能をコンピュータにおけるソフトウェアの情報処理により実現する。なお、後述のレーン認識装置65(図7),100(図16)において、それらを構成する各部の機能も、コンピュータにおけるソフトウェアの情報処理により実現される。
図3は、レーン認識装置20が実施するレーン認識方法のフローチャートである。図3のフローチャートを参照しつつ、レーン認識装置20の作動について説明する。
本発明における線状要素抽出画像生成部の処理はSTEP12の処理に相当する。本発明におけるエリア設定部、局所直線決定部及び交点算出部の処理はSTEP13の処理に相当する。本発明における投票部の処理はSTEP14の処理に相当する。本発明における検出部の処理はSTEP15の処理に相当する。
STEP11では、レーン認識装置20は、撮像画像30のデータを撮像画像メモリ21に記憶する。撮像画像30について図4を参照して説明する。なお、図4並びに後述の図9、図12、図14及び図15の撮像画像30及びその線状要素抽出画像40において、水平方向(横軸方向又は左右方向)をx軸方向、垂直方向(上下方向又は縦軸方向)をy軸方向とし、原点は、処理の便宜上、各矩形画像の左下の頂点と定義する。x軸方向は実空間における車両10の左右方向に相当する。y軸は実空間における車両10の進行方向及び垂直方向に相当する。したがって、実空間において車両10の前方へ車両10から遠方の箇所ほど、及び上下方向へ上方の箇所ほど、y軸方向へ上の位置になる。この例では、車両10は右側のレーンを走行している。
図4において、上半部はカメラ11が車両10の前方を撮影した撮像画像30であり、下半部は撮像画像30に対しエッジ処理等の線状要素抽出処理を行って生成した線状要素抽出画像40である。カメラ11は車両10の前方の撮像画像30を一定時間間隔で出力する。各撮像画像30は1つのフレームに相当する。線状要素抽出画像40における各線状要素は、撮像画像30から抽出された画素点の集合から成り、具体的には、線状要素抽出画像40に分布する抽出画素点の内、線状に高密度で又は連続して集まった複数の抽出画素点の領域となっている。
撮像画像30には、車両10が現在走行している道路29について、自車から見て左側から右側へ順番に左レーンマーク32、中央レーンマーク31及び右レーンマーク33が撮像されている。この例では、中央レーンマーク31は破線型であるのに対し、左右のレーンマーク32,33は連続線型になっている。この撮像画像30には、さらに、複数の木立ちの幹35が、道路29の右側において道路29に沿って撮像されている。
STEP12では、線状要素抽出画像処理部22は、撮像画像30からエッジ又はレーンマークを抽出する。具体的には、撮像画像30に対してエッジ処理やレーンマーク抽出処理を行って、線状要素抽出画像40を生成する。エッジ処理の具体例では、撮像画像30の各座標G(x,y)に対して例えばSobelオペレータによりフィルタ処理してx軸方向の一次微分を求め、その値Sx(x,y)をG(x,y)の濃度値とする。次に閾値CsとSx(x,y)とを対比し、Sx(x,y)>Csである画素点を抽出し、この画素点をエッジ点と判断し、該画素点を背景色とは別の色で表示したものが線状要素抽出画像40とされる。
レーンマーク抽出処理の具体例では、撮像画像30から白色(レーンマークの色)の画素点のみを抽出するか、輝度が所定の閾値以上となっている画素点を抽出し、こうして抽出した画素点を背景色(例:黒)と別色(例:白)で表示したものが線状要素抽出画像40とされる。
線状要素抽出画像40では、撮像画像30の中央レーンマーク31及び右レーンマーク33はそれぞれ線状要素41,42として抽出される。線状要素抽出画像40の複数の線状要素55は、撮像画像30において遠景に含まれている木立ちの幹35に相当するものである。レーン抽出エリア45は、線状要素抽出画像40においてy軸方向所定寸法の範囲として設定されている。レーン抽出エリア45のy軸方向寸法は、固定したものとせず、車両10の運転状況や走行状況等により適宜調整することができる。道路29が直線路の場合には、撮像画像30には、例えば車両10の前方、数mから数十mまでの道路範囲が撮影されるように、カメラ11の向き等の各種調整が行われている。
基準水平線46は、線状要素抽出画像40内においてレーン抽出エリア45の上辺より上のy軸方向位置に設定され、x軸に対して平行に延在している。なお、基準水平線46はレーン抽出エリア45内に設定することもできるし、演算処理上は、線状要素抽出画像40外の、例えば線状要素抽出画像40の上辺より上に設定することもできる。
複数の局所領域47は、相互に重ならないように、また各線状要素を含む範囲では相互に隣接するように、レーン抽出エリア45内に設定される。なお、局所領域47は、前述の特許文献1のウィンドウに相当する。図4の例では、局所領域47は、相互に合同の矩形輪郭となっているが、矩形以外の形状にしたり、各局所領域47に対して後述の投票空間56(図5)への1票の投票権を割り当てつつ、局所領域47ごとに形状や寸法を異ならせることもできる。
局所領域47は、レーン抽出エリア45の全面にわたり密に分布させることも可能であるが、典型的には、局所領域47は、レーン抽出エリア45内において、各線状要素の部位に絞って、かつ各線状要素が1以上の局所領域47に完全に覆われるように設定する。線状要素の存在しない範囲への局所領域47の設定は省略する。なお、局所領域47をレーン抽出エリア45の全面にわたり格子状に分布させる場合に、線状要素部分が含まれないために後述の局所直線54が抽出できない局所領域47に対しては、後述の投票空間56への投票権を0票、すなわち投票権無しにする。なお、局所直線54が抽出できた局所領域47は投票空間56への投票権はこの実施例では1票である。
図4には、局所領域47が線状要素41に対して2つしか図示されていないが、実際の処理では、局所領域47はレーン抽出エリア45内において線状要素41の他の部位や線状要素42の部位にも設定される。目標検出線分51,52,53は、レーン抽出エリア45内の線状要素41,42,43の各部位からの検出が望まれる検出直線部分に相当し、直線検出部25が検出すべき理想の検出直線として参考に示している。線状要素55は、レーン抽出エリア45の外に存在しており、レーン抽出エリア45に対する後述の局所直線決定処理の対象から外される。また、目標検出線分53は、後述するように、対応座標の投票数が閾値V1未満となるため、レーン抽出エリア45の検出直線から外される。
STEP13では、線状要素抽出画像処理部22は、局所直線44を計算する。具体的には、各局所領域47に対し、その領域内の抽出画素点の分布に基いて1つの直線を局所直線44として決定する。局所直線44とは、各局所領域47を通過しているとともに、傾斜角度(後述のθ)が局所領域47内の線状要素部分の傾斜角度として該線状要素部分から抽出した傾斜角度をもつ直線と、定義される。
各局所領域47の局所直線44は、例えば該局所領域47における各抽出画素点の座標に対し最小二乗法等を適用することにより算出することができる。例えば、ラベリングされた線状要素の内、各局所領域47内に存在する線状要素部分を構成する全画素点と直線との距離を二乗した値の合計を計算し、合計が最小となる直線を探し出し、探し出した直線が該局所領域47における局所直線44とされる。
また、特許文献1の装置のように、局所領域47の上辺の一点と下辺の一点とを結ぶ全部の線分を考え、各線分上の抽出画素点が最大値となる線分に対し、該線分と重なる直線を該局所領域47の局所直線44とすることも可能である。
局所直線44はx=a・y+bで表わされる。aは局所直線44の傾きと定義し、a=x軸方向増加分/y軸方向増加分である。STEP13における局所直線44の計算では、線状要素抽出画像処理部22は、前述の最小二乗法等によりaのみを最初に求め、次に、局所直線44を通す局所領域内の所定点を決めてから、bを求める。bの求め方については後述する。
後述の投票空間56(図5)における投票処理に使用されるψに関連するθは、y軸の正方向に対して時計方向への局所直線44の傾斜角度と定義し、tanθ=aの関係がある。θは、0〜πの範囲で定義され、局所直線44の「方向」に相当する。
線状要素抽出画像処理部22は、次に、各局所直線44に対し、それが基準水平線46と交わる交点のx座標(以下、適宜「x交点」という。)を算出する。具体的な算出の仕方は次のSTEP131〜133のとおりである。なお、線状要素抽出画像処理部22は、STEP131〜133を図3のSTEP13のサブステップとして実行する。
STEP131:局所直線をx=a・y+bとして、bを次の式(1)により算出する。
b=xc−a・yc・・・式(1)
ここで、(xc,yc)は、各局所直線44の生成元の局所領域47内の所定点、例えば中心点49の座標である。
STEP132:式(1)で算出したbを使って、局所直線44と基準水平線46との交点(ux,uy)のx座標ux(x交点)を次の式(2)により算出する。
ux=a・uy+b・・・式(2)
uyは、前述のように、基準水平線46が通る所定位置のy座標として既定の値である。
STEP133:ux,θから次の式(3)及び(4)に基づいてψ,vxを算出する。
ψ=(θ/(θについて想定される最大値))×(ψの区分数Nc)・・・(3)
vx=(ux/(uxについて想定される最大値))×(vxの区分数Nx)・・・(4)
式(3)及び(4)におけるNc,Nxは撮像画像30の注目領域の位置分解能に応じて決められる。なお、撮像画像30の注目領域の位置分解能とは、撮像画像30における当該注目領域に対応する実空間での位置の差異を当該注目領域の画像情報により識別する際の分解能をいう。撮像画像30の注目領域の位置分解能が高いほど、Nc,Nxは増大することができる。Nc,Nxはそれぞれ例えば32,64である。
式(3)及び(4)におけるψ,vxは、1未満を切り下げられるとともに、ψ=Ncのときは、ψは1だけ減少され、vx=Nxのときは、vxは1だけ減少される。したがって、ψは[0,Nc−1]の範囲の整数により表わされ、vxは[0,Nx−1]の範囲の整数により表わされる。
分解能決定部23は、撮像画像30の分解能に応じてNc,Nxを決定し、線状要素抽出画像処理部22へ出力する。線状要素抽出画像処理部22は、分解能決定部23からのNc,Nxに基いて各局所領域47の局所直線44のvx及びψを算出し、算出したvx及びψを各局所領域47に対応付けて線状要素抽出画像処理部22のメモリに記憶する。
図5は投票空間56を示している。投票空間56は、横軸及び縦軸がそれぞれψ及びvxで定義されている。なお、ψは、傾斜角度θに対応付けられるので、投票空間56におけるψの軸としての横軸を方向軸と呼ぶ。また、vxは、前述の式(4)で定義したように、x交点としてのuxに対応付けられるので、投票空間56におけるvxの軸としての縦軸は交点軸と呼ぶ。
STEP14では、投票処理部24は、線状要素抽出画像処理部22のメモリに記憶されている各局所領域47のvx及びψを参照して、参照値に基いて投票空間56への投票を行う。すなわち、各局所領域47に対して1票を割り当て、各局所領域47の局所直線44のvx及びψと一致する、投票空間56の座標(vx,ψ)に各1票を投票する。
投票空間56における投票結果としての各座標(vx,ψ)への投票数vote(vx,ψ)は図6のように示される。投票空間56の各座標への投票数vote(vx,ψ)は図6において高さで表されている。投票数vote(vx,ψ)を高さで表わした投票空間56では、複数の山59が現れる。山59は、投票数vote(vx,ψ)が周囲に対して増大している座標領域に出現する。投票数vote(vx,ψ)の結果は、レーンマークに該当する局所直線44については通常、高さが極大値となっている座標を頂上として、その周囲に裾野が広がる山の形状となる。
投票空間56においてvote(vx,ψ)が極大値となる座標への投票数は、レーン抽出エリア45に図示した線状要素41,42,43に対して割り振られた局所領域47の個数に十分に近くなる。
STEP15では、直線検出部25は、投票空間56における投票結果に基いて検出直線を検出する。検出直線は、投票数vote(vx,ψ)が閾値V1以上でかつ極大値になっている座標(vx,ψ)に対し、x交点が前述の式(4)によりvxに対応付けられるuxとなり、方向が前述の式(3)によりψに対応付けられるθとなる直線とされる。なお、投票空間56において極大値が上位2個又は3個というように、上位所定数の極大値の座標(vx,ψ)であることを条件に付加して、上位所定数の座標に限定して、その座標に対応付けられる直線を検出直線とすることもできる。
線状要素43に由来する局所直線は、投票空間56におけるvote(vx,ψ)の極大値がV1未満であるので、検出直線として検出されない。図4の線状要素抽出画像40の例では、線状要素41,42に由来する局所直線のみが線状要素抽出画像40内の2本の検出直線として投票空間56から検出される。
認識部26は、各検出直線を撮像画像30上の中央レーンマーク31及び右レーンマーク33と認識して、車両10に対する道路29のレーン境界線の相対位置や輪郭を認識する。
認識部26は、道路29のレーン境界線の認識とは別に、単に、車両10が走行している道路29がカーブであるか否かを判断することもできる。その具体的な判断処理について説明する。
図3の直線のレーン境界線の認識方法では、カメラ11が撮影した各撮像画像30ごとに、図3の一連の処理が実施される。カメラ11は、一定時間間隔で車両10の前方を撮影するので、時系列の撮像画像30が得られる。認識部26は時系列の所定数の撮像画像30から車両10の現在走行中の道路が直線かカーブかを判断する。
すなわち、認識部26は、時系列の所定数の撮像画像30から認識されるレーン境界線がx軸方向へ閾値D未満の平均速度(該平均速度は撮像画像30における平均速度であっても、実空間へ換算した平均速度であってもよい。)で移動していると判断したときは、道路29は直線であると認識する。これに対し、該レーン境界線がx軸方向へ閾値D以上の平均速度で移動していると判断したときは、道路29はカーブしていると認識する。
図7は別のレーン認識装置65のブロック図である。図2のレーン認識装置20に関連して説明した図4の線状要素抽出画像40において、線状要素42のような曲線の線状要素については、該線状要素の領域を占める複数の局所領域47における局所直線の傾斜角度θが分散するため、投票空間56における投票が分散し、投票空間56からの線状要素42に対応付けられる検出直線の決定が困難になる。レーン認識装置65は、これに対処するため、線状要素抽出画像40の曲線の線状要素に由来する局所直線44に基づく投票が投票空間56において分散するのを抑制するようになっている。
レーン認識装置20に対するレーン認識装置65の相違点は、レーン認識装置65は、線状要素抽出画像処理部22において中間抽出画像生成部66及び線分置換部67を備えることである。なお、中間抽出画像生成部66は、図2のレーン認識装置20の線状要素抽出画像処理部22が図3のSTEP12,13において行っていた処理の内、STEP12の処理をするものであり、レーン認識装置20の線状要素抽出画像処理部22に対して新規な処理をするものではない。すなわち、中間抽出画像生成部66は、STEP12を実施して、図4の線状要素抽出画像40を生成するだけである。
図8は、レーン認識装置65により実施されるレーン認識方法のフローチャートである。図8のフローチャートでは、図3のフローチャートに対してSTEP21がSTEP12と13との間に追加される。図7及び図8において、図2及び図3との同一部分は説明を省略し、相違点についてのみ説明する。
STEP21では、線分置換部67が、線状要素抽出画像40に含まれる各線状要素を、垂直方向の連結性に基づいて1つ又は複数の線分に置換する。
STEP21における処理の具体例を、図9を参照して、説明する。図9は、図4と同様に、上半部はカメラ11が車両10の前方を撮影した撮像画像30を示し、下半部は撮像画像30に対しエッジ処理等の線状要素抽出処理を行って生成した線状要素抽出画像40を示している。
なお、レーン認識装置65において、撮像画像30に対しエッジ処理等の線状要素抽出処理を行って生成しかつSTEP21の線分置換処理前の状態になっている線状要素抽出画像40は、本発明の中間抽出画像生成部が生成する第1中間抽出画像に相当する。また、STEP21の線分置換処理後の線状要素抽出画像40は本発明の線分置換部が生成した線状要素抽出画像に相当する。
図9の線状要素抽出画像40では、線分置換部67による線分置換処理を説明する便宜上、撮像画像30の中央レーンマーク31及び右レーンマーク33に相当する線状要素について、符号を付け直している。図9において、線状要素41a〜41cは、撮像画像30の破線型の中央レーンマーク31由来の複数の線状要素41について車両10の近い方から順番にa,b,cの添え字を付けたものである。線状要素42は連続線型の右レーンマーク33由来の線状要素である。
図9の線状要素抽出画像40において、線状要素41a,41cは直線状の線状要素として示している。線状要素41b,42は曲線状の線状要素として示している。曲線状の線状要素について注目するために、線状要素41b,42は囲い86,88により囲っている。囲い86,88は、説明の便宜上、図9に図示しただけであり、実際の線状要素抽出画像40に存在するものではない。
線状要素抽出画像40において、すべての線状要素は、水平画素列が垂直方向に連続する集合から構成されている。また、図9の線状要素抽出画像40では、線状要素41a〜41c,42は、中央レーンマーク31及び右レーンマーク33から抽出されたものとなっている。したがって、線状要素41a〜41c,42の各々を構成する水平画素列の集合は、水平方向幅及び傾斜角度について線状要素抽出画像40上で垂直方向の連続性を有している。
垂直方向の連続性について具体的に説明すると、例えば、線状要素を構成し垂直方向へ隣接する水平方向画素列に対し、(a)両水平方向画素列の水平方向幅の差が所定の閾値以内であれば、両水平方向画素列は水平方向幅について垂直方向の連続性が有るとする。また、(b)両水平方向画素列の水平方向中心点の水平方向位置の差が所定の閾値以内であれば、両水平方向画素列は傾斜角度について垂直方向の連続性が有るとする。なお、両水平方向画素列の水平方向中心点を結ぶ直線について、図4において局所直線44について定義した傾斜角度θと同一の傾斜角度を定義することができる。
垂直方向へ隣接する水平方向画素列同士について、垂直方向の連続性をいう場合に、両水平方向画素列だけを対比して、連続性の有無を判定する代わりに、垂直方向へ連続する所定数の水平方向画素列の群に基づいて連続性の有無を判定してもよい。具体的には、群において垂直方向へ隣接する水平方向画素列同士の全部の対について水平方向幅の差の平均値又は中心点の水平方向位置の差の平均値を算出する。そして、それら平均値が所定の閾値以内であれば、該群における全部の水平方向画素列同士は、垂直方向の連続性が有ると判定する。
線分置換部67は、STEP21での処理の一つとして、線状要素抽出画像40内の各線状要素に対し、それを構成する水平方向画素列について垂直方向の連結性が有る垂直方向範囲の集合部分に対して、1つのラベルを付与するラベリングを行う。ここで「垂直方向の連結性」とは例えば前述の「垂直方向の連続性」のことである。前述の「垂直方向の連続性」では、傾斜角度について水平方向画素列の中心点を結ぶ直線の傾斜角度から垂直方向の連続性を判断したが、水平方向画素列の中心点に限定することなく、左端同士や右端同士を結ぶ直線の傾斜角度から垂直方向の連結性を判断することも可能である。
線分置換部67は、STEP21において、図9の線状要素抽出画像40の線状要素41a〜41c,42に対し、1つずつ識別用のラベルを付与し、置換線分85a〜85c,89に置換する。なお、線分置換部67は、線状要素抽出画像40内の全部の線状要素に対してSTEP21の処理を行うことなく、線状要素抽出画像40内のレーン抽出エリア45(図4)に限定して、STEP21の処理を行って、処理負荷の軽減を図ることもできる。
線分置換部67は、線状要素42のように、垂直方向寸法の長い湾曲線状要素に対しては、垂直方向の連結性が有る水平方向画素列の集合部分であっても、垂直方向へ所定の長さの集合部分に分割し、各分割部分ごとに別のラベルを付与して、各分割部分ごとに1つの線分に置換することもできる。後述の図10の置換線分891a〜891cはこの方針に従って生成したものとなっている。
湾曲線状要素を線分に置換する意義は、STEP14の投票処理における投票先の分散を抑制して、STEP15における直線検出を容易化するためであったが、長い湾曲線状要素を1つの置換線分に置換すると、湾曲線状要素の個々の要素部分の傾斜角度と置換線分の傾斜角度との差が増大し、STEP14における投票の分散は抑制されても、STEP15において検出する直線の方向が実空間のレーンマークの方向から大きくずれてしまう。そこで、線分置換部67は、各分割部分ごとに別のラベルを付与して、各分割部分ごとに対応の線分に置換することによりこの問題を克服している。
線分置換部67が置換線分85a〜85c,89を具体的に決める決め方について説明する。線分置換部67は、置換線分85a〜85c,89の垂直方向長さを、線状要素41a〜41c,42の垂直方向長さにそれぞれ等しくする。なお、図9では、置換線分89の上端を、置換線分89の由来元の線状要素42が垂直方向上方へ続いている途中であって、線状要素42の水平方向幅が所定の閾値未満になる箇所にしている。これは、レーンマークの十分に遠方の部分については、認識する意義が少ないとともに、認識処理を省略した方が処理負荷を軽減できるからである。
線分置換部67は、置換線分85a〜85c,89の幅を、置換線分85a〜85c,89の由来元の線状要素41a〜41c,42の幅に関係なく、等しくするとともに、両端範囲にわたり均一にする。
線分置換部67は、各線分の由来元の線状要素が直線状の線状要素である場合には、由来先の置換線分85a,85cの傾斜角度を、由来元の線状要素の傾斜角度とする。線分置換部67は、線状要素の複数の異なる垂直方向位置における水平方向画素列に対し、下側の水平方向画素列の中心から次に下側の水平方向画素列の中心に線分を引く処理を、垂直方向下から上へ順番に繰り返す。そして、この処理による各線分の傾斜角度の変化から、当該線状要素が直線の線状要素であるか曲線の線状要素であるかを判断することができる。
線分置換部67は、曲線状の線状要素41b,42に対しては、それらに置換する置換線分85b,89の傾斜角度を、その由来元の線状要素が各部位においてもつ傾斜角度の最大値と最小値との間の範囲の適切な傾斜角度に選定することができる。具体的には、線分置換部67は置換線分85b,89の傾斜角度を例えば次の(a)により算出する。あるいは、以下の(b)〜(d)のような他の仕方により算出してもよい。次の算出の仕方は、線状要素41b,42に対して共通であるので、線状要素41bのみについて説明する。
(a)線状要素41bを構成する画素を分布点として最小二乗法により近似曲線を作成するとともに、該近似曲線の垂直方向両端は線状要素41bの垂直方向両端に一致させる。そして、該近似曲線の長さの中心点における接線の傾斜角度を置換線分85bの傾斜角度にする。
(b)上記(a)の近似曲線の両端における接線の傾斜角度の平均値を置換線分85bの傾斜角度にする。
(c)上記(a)の近似曲線上に等間隔に区分点を設定し、各区分点における接線の傾斜角度の平均値を置換線分85bの傾斜角度にする。
(d)線状要素41bの上下の端における水平方向画素列の中心画素を結ぶ線分の傾斜角度の平均値を置換線分85bの傾斜角度にする。
線分置換部67は、線状要素とそれに置換する置換線分との位置関係については例えば次のように設定する。置換線分の垂直方向両端は線状要素の垂直方向両端に揃えられているので、置換線分の垂直方向位置は一義に決まる。置換線分の水平方向位置は、線状要素の垂直方向範囲の任意の1つ(例:垂直方向の中心点の垂直方向位置)、又は可能であれば、複数の垂直方向位置で、置換線分の幅の中心を線状要素の幅の中心に揃えたものにする。端的に言えば、置換線分の水平方向位置は、該置換線分がその少なくとも1箇所において由来元の線状要素と重なることを条件とする。
図9では、由来元の線状要素41a〜41c,42と由来先の置換線分85a〜85c,89とは、水平方向に少し離れているが、これは図面において見易くするための便宜上、そのようにしたものであり、実際の処理では、由来元の線状要素41a〜41c,42と由来先の置換線分85a〜85c,89とは重なっている。
レーン認識装置65は、線状要素抽出画像40の各線状要素41a〜41c,42に対して置換する置換線分85a〜85c,89の代わりに図10の置換線分851a〜851c,891a〜89cを採用することもできる。図10は中間抽出画像生成部66が線状要素抽出画像40を上方視の射影変換により生成した射影変換画像70を示している。
線状要素抽出画像40が生成される撮像画像30は、カメラ11からの車両10の前方を見た画像となっているので、撮像画像30上の中央レーンマーク31及び右レーンマーク33等は、遠方の部位ほど、撮像画像30上の中央に寄って来たり、撮像画像30における縮小率が増加する。これは、線状要素抽出画像40上の線状要素の形状と、実空間の路面に描かれているレーンマークの形状との差異を増大させ、不的確な置換線分が設定されてしまう原因になる。
射影変換画像70は、このように不的確な置換線分が設定されることを防止するために、生成されるものである。線状要素抽出画像40から射影変換画像70への変換は中間抽出画像生成部66がSTEP21内の処理の一部として実施する。射影変換画像70では、線状要素抽出画像40の線状要素41a〜41c,42は、上方視の射影変換により、それぞれ線状要素部分411a〜411c,421に変換されている。射影変換画像70における線状要素部分411a〜411c,421は、車両10からの距離の相違による形状の歪みが解消されている。
射影変換を実施するレーン認識装置65において、線状要素抽出画像40は本発明の第2中間抽出画像に相当し、各線状要素を置換線分への置換処理する前の射影変換画像70は本発明の第1中間抽出画像に相当し、各線状要素を置換線分への置換処理した後の射影変換画像70は、局所直線の決定のために局所領域を設定する、本発明の線状要素抽出画像に相当する。
線状要素421は連続線型の右レーンマーク33由来のものであるので、線分置換部67が、線状要素421に対して、垂直方向連結性によりラベリング処理して、1つのラベルを付けて、1つの置換線分に置換すると、該置換線分の傾斜角度と線状要素421の個々の要素部分の傾斜角度との差が大きくなってしまう。これに対処するため、線分置換部67は、線状要素421に対し、中心線に沿って区切り91a〜91cにより等長の複数の線状要素421a〜421cに分割し、線状要素421a〜421cごとにラベリングし、置換線分891a〜891cに置換する。
レーン認識装置65は、置換線分851a〜851c,891a〜891cに置換した射影変換画像70を線状要素抽出画像40にSTEP21において置き換えてから、置き換え後の射影変換画像70に対して図8のSTEP13以降の処理を実施する。
次に、図11〜図14を参照して、図2のレーン認識装置20によるカーブ道路におけるレーン境界線の別の認識方法について説明する。なお、図11〜図14のレーン認識方法は、図2のレーン認識装置20が処理対象としている図4の線状要素抽出画像40を用いて説明しているが、レーン認識装置65(図7)が作成した図10の射影変換画像70を線状要素抽出画像40に置き換えれば、レーン認識装置65にも、図11〜図14のレーン認識方法を適用することができる。
図11〜図14において、図2〜図5の要素又はSTEPと同一のものについては、図2〜図5の要素又はSTEPに付けた符号と同一の符号で指示する。
図11のSTEP11〜13は図3のSTEP11〜13と同一の処理内容であるので、説明は省略する。STEP37では、線状要素抽出画像処理部22は、各レーン抽出エリア45の垂直方向寸法(y軸方向寸法)を設定する。具体的に述べると、図12に示すように、線状要素抽出画像40においてその所定範囲をy軸方向へ5つのレーン抽出エリア45に分割し、上側のレーン抽出エリア45ほど、y軸方向寸法を短くしている。各レーン抽出エリア45のy軸方向寸法は、それを実空間寸法に換算したしたときに、相互に等しく(例:10〜15m内の所定値に)なるように、設定されている。
各レーン抽出エリア45のy軸方向寸法は、固定したものとしてもよいが、好ましくは、車両10の走行状況(該走行状況には運転状況を含ませる。)に応じて調整する。車両10の運転開始時の各レーン抽出エリア45のy軸方向寸法の初期値としては、各レーン抽出エリア45のy軸方向寸法が、実空間において車両10の車両中心線上で例えば10mずつの長さになるように設定される。
その後、各レーン抽出エリア45のy軸方向寸法は、車速に応じて変更される。一般的には、各レーン抽出エリア45のy軸方向寸法は、高車速時ほど増大させる。レーン抽出エリア45のy軸方向寸法の増大に伴い、レーン抽出エリア45の個数は減少させることもできる。また、各レーン抽出エリア45のy軸方向寸法は、道路29が直線である場合は最大とし、道路29の曲率の増大に連れて、減少させる。
各レーン抽出エリア45には、処理上、上側のものから下側の方へ順番にレベル1,2,・・・,5が付けられる。図13に示すように、各レーン抽出エリア45ごとに1つの投票空間を設定する。図13の投票空間Q1〜Q5は、図12のレベル1〜5のレーン抽出エリア45にそれぞれ対応付けられている。レベル数値が小さいレーン抽出エリア45ほど(上側のレーン抽出エリア45ほど)、撮像画像30及び線状要素抽出画像40の注目領域の位置分解能が低下している。
なお、線状要素抽出画像40の注目領域の位置分解能とは、前述のSTEP133の式(3)及び(4)に関連して説明した撮像画像30の注目領域の位置分解能と同様に定義する。すなわち、線状要素抽出画像40の注目領域の位置分解能とは、当該注目領域に対応する実空間での位置の差異を線状要素抽出画像40における当該注目領域の画像情報により識別する際の分解能をいう。線状要素抽出画像40の注目領域の方向分解能とは、当該注目領域に対応する実空間での方向の差異を線状要素抽出画像40における当該注目領域の画像情報により識別する際の分解能をいう。線状要素抽出画像40の注目領域の交点分解能とは、基準水平線46が当該注目領域に設定された場合に、実空間において基準水平線46に対応する直線上の位置の差異を線状要素抽出画像40における当該注目領域の画像情報により識別する際の分解能をいう。
撮像画像30及び線状要素抽出画像40では、注目領域が車両10より遠方を映した画像部分である場合ほど、位置分解能が低下する。したがって、交点分解能及び方向分解能も、注目領域が車両10より遠方を映した画像部分である場合ほど、低下する。各線状要素抽出画像40の各画像部分の局所直線44と基準水平線46との交点に対し、当該画像部分から検出する際の検出精度であって、交点に対応する実空間の位置の検出精度は、交点分解能が低い画像部分の局所直線44に係る交点ほど低下する。各線状要素抽出画像40の各画像部分の直線(局所直線44を含む。)の方向に対し、当該画像部分から検出する際の検出精度であって、当該直線に対応する実空間の直線の方向の検出精度は、方向分解能が低い画像部分の局線の方向ほど低下する。
線状要素抽出画像40上の各部位の位置分解能に交点分解能及び方向分解能を整合させるために、上側のレーン抽出エリア45ほど、そこの交点分解能及び方向分解能を低下させて、vx,ψを算出する。さらに、交点分解能及び方向分解能と投票空間の座標成分とを整合させるために、各投票空間Q1〜Q5の座標成分の値は、該投票空間が対応しているレベルのレーン抽出エリア45の局所直線についての傾斜角度θ及びx交点の離散値に対応付けて定義される。
STEP38では、投票処理部24は、各レーン抽出エリア45ごとに対応の投票空間Q1〜Q5へ投票を行う。これにより、各投票空間Q1〜Q5ごとに、投票数vote(vx,ψ)が得られる。
STEP39では、直線検出部25は、各投票空間Q1〜Q5ごとの投票数vote(vx,ψ)に基いて各レーン抽出エリア45ごとに検出直線を検出する。図14は、直線検出部25が各レーン抽出エリア45ごとに検出した検出直線を示している。投票空間Q1(=レベル1の投票空間56)では、左検出直線76a及び右検出直線79aが検出され、投票空間Q2(=レベル2の投票空間56)では、左検出直線76b及び右検出直線79bが検出され、投票空間Q3(=レベル3の投票空間56)では、右検出直線79cが検出され、投票空間Q4(=レベル4の投票空間56)では、右検出直線79dが検出され、投票空間Q5(=レベル5の投票空間56)では、左検出直線76e及び右検出直線79eが検出される。
STEP40では、認識部26は、各レーン抽出エリア45の検出直線を、レーン抽出エリア45間でつなぎ合わせる。なお、ここでレーン抽出エリア45を越えてのつなぎ合わせには、y軸方向へ隣接するレーン抽出エリア45同士の検出直線のつなぎ合わせに限定されず、y軸方向へ途中の1以上のレーン抽出エリア45を飛び越えて行うレーン抽出エリア45間の検出直線のつなぎ合わせも含むものとする。レーンマークが中央レーンマーク31のような破線型である場合には、y軸方向へ途中の1以上のレーン抽出エリア45には、つなぎ合わせられる検出直線が存在しないことがあり得るからである。
STEP41では、認識部26は、STEP40の検出直線のつなぎ合わせに基いてカーブのレーン境界線を認識する。すなわち、左側の左検出直線76a,76b,76eのつなぎ合わせからは破線型レーンマークの中央レーンマーク31に対応するレーン境界線77が認識される。また、右側の右検出直線79a〜79eのつなぎ合わせからは連続線型レーンマークの右レーンマーク33に対応するレーン境界線80が認識される。
図15は、図4に関連して説明した、レーン認識装置20(図2)による局所直線の方向算出処理を改良例についての説明図である。なお、該改良例は、図15の線状要素抽出画像40を図10の射影変換画像70に置き換えれば、レーン認識装置65(図7)にも適用可能である。
図15では、1つのレーン抽出エリア45内の局所領域47について傾斜角度θの区分数を局所領域47のy座標に応じて変更している。したがって、前述の(3)により、ψの区分数も局所領域47のy座標に応じて変化する。局所領域47のy座標とは、前述したように、局所領域47内の所定点、例えば中心点のy座標である。線状要素抽出画像40では、上側の局所領域47ほど、1画素のもつ情報量は増えるので、方向分解能は低下する。
例えば、傾斜角度θの範囲0〜πについて、実空間において車両10の40mまでの位置に対応する局所領域47(例:図15において下側の2つの局所領域47)の局所直線に対応付けるψの区分数は32とし、40mを超える位置に対応する局所領域47(例:図15において一番上の局所領域47)の局所直線に対応付けるψの区分数は16とする。
vxの区分数はy軸方向位置に関係なく固定しておき、ψのみの区分数をy軸方向位置に応じて変更して検出直線を検出することに対処する検出方式の2つの具体例を説明する。第1の検出方式では、図12に説明したように、各区分形態(区分数が異なるものごとに1つの区分形態と勘定する。)ごとに、すなわち同一区分形態のレーン抽出エリア部分ごとに1つの投票空間56を定義して、同一区分形態のレーン抽出エリア部分ごとに検出直線を検出する。その場合は、検出直線をy軸方向へつなぎ合わせて、1つのレーン抽出エリア45の中におけるレーン境界線を認識する。
検出直線の第2の検出方式は、ψの区分数に関係なく、1つの投票空間56を定義するものである。例えば、ψが16個に区分化されている局所領域47の局所直線のψの離散値は、32個に区分化されている局所領域47の局所直線のψの離散値(例:ψ=1,3,5,・・・,29,31)を1つ置きに定義したものとすれば、32個に区分化されている局所領域47の離散値(例:ψ=0,1,2,3,・・・,28,29,30.31)に完全に含まれる。そのため、ψについての32個対処用の1つの投票空間56を、ψについて16区分用と32区分用とに共用することができる。
そして、第2の認定方式では、ψが32区分で表わされる局所領域47の局所直線に対しては、そのψに該当する投票空間56の座標に1票が投票される。ψが16区分で表わされる局所領域47の局所直線に対しては、そのψに該当する、投票空間56の座標とそれより1つ上又は下の離散値の座標との計2つの座標に、1票を均等化したそれぞれ1/2票ずつが投票される。ψが16区分になっている局所直線に対しては、1/2ずつの投票に代えて、、そのψに該当する、投票空間56の座標とそれより1つ上及び下の離散値の座標との計3つの座標に、1票を均等化した1/3票ずつが投票されるようにしてもよい。
すなわち、ψの区分数に関係になく、1つの局所領域47に対しては1票が割り当てられ、区分数の少ない区分形態の局所領域47の票は、1票を区分数に応じて割ることにより減じた値にされて、複数の該当座標に分配される。そして、投票空間56におけるvote(vx,ψ)が計算されて、極大値になっているvote(vx,ψ)に対応する検出直線が検出される。
図16はさらに別のレーン認識装置100のブロック図である、レーン認識装置100の構成要素の内、図2のレーン認識装置20の構成要素と同一のものについては、レーン認識装置20の同一の構成要素に付けた符号と同一の符号を付けて、説明は省略する。レーン認識装置100は、レーン認識装置20の投票処理部24及び直線検出部25に代えて、エリア特定部101、データ退避部102、投票重ね合わせ部103及び直線検出部104を備える。
図17はレーン認識装置100が実施するレーン認識方法のフローチャートである。図17のフローチャートにおいて、前述の図3のフローチャートのSTEPと処理内容が同一であるSTEPについては、図3のフローチャートにおける、処理内容が同一であるSTEPに付けたSTEP番号と同一のSTEP番号を付けている。
図17のフローチャートでは、図3のフローチャートのSTEP14の後に、STEP51〜54が追加されている。STEP51,52,53,54はそれぞれエリア特定部101、データ退避部102、投票重ね合わせ部103及び直線検出部104が実施する。
図18はレーン認識装置100において処理される時系列の投票空間K1〜Kn(例:n=5)を示している。図2のレーン認識装置20は、図18の左側に図示する1つの投票空間56に対して個々に道路29のレーン境界線を認識する。これに対し、図16のレーン認識装置100は、図18の右側に図示する時系列のn個の投票空間K1〜Knから道路29のレーン境界線を認識する。時系列上、隣接する投票空間同士の生成時間間隔はほぼ撮像画像30の撮像時間間隔に等しい。図18では、投票空間K1〜Knは、由来元の撮像画像30の撮像時刻順になっている。
時系列の投票空間K1〜Knは、新規の撮像画像30が生成されるごとに、最古の撮像画像30由来の投票空間が最新の撮像画像30由来の投票空間に置き換えられるとともに、古い順に投票空間K1〜Knと並べ替えられる。したがって、時系列の投票空間K1〜Knは、常時、最新のn個の投票空間となっている。
また、典型的には、レーン認識装置100は、新規の撮像画像30が生成されるごとに、道路29のレーン境界線の認識を更新するので、レーン認識装置20におけるレーン境界線の認識の更新間隔は撮像画像30の撮像間隔と同一になる。レーン認識装置100によるレーン境界線の認識の更新間隔は、撮像画像30の生成間隔の整数(2以上の整数)倍にして、適当に長くすることもできる。
レーン認識装置100が実施する処理について、図17のフローチャートを参照して、説明する。なお、図17のSTEP11〜STEP14の処理内容は図3のSTEP11〜14の処理内容と同一であるので、説明は省略する。
STEP51では、エリア特定部101は、STEP14による処理の結果としての投票空間56における投票結果に基づいて投票空間56上のエリアを絞り込む。投票空間56において、極大値の投票数vote(vx,ψ)の内、閾値W1(W1>1)に達しないものは、レーンマーク由来の投票ではなく、一時的なノイズ由来の投票と考えられる。
そこで、極大値の投票数vote(vx,ψ)が閾値W1(W1>1)に達しないものは、それを頂上として裾野状に広がる投票エリアとしての座標エリア、すなわち図19(a)におけるエリアBに含まれる全座標の投票数vote(vx,ψ)をクリアする(0にする)。なお、投票数vote(vx,ψ)をクリアする代わりに、投票数vote(vx,ψ)を適当量、減少させることもできる。
また、極大値の投票数vote(vx,ψ)が閾値W1以上である座標エリア、すなわち図19(a)におけるエリアAについてはクリアすることなく、投票数vote(vx,ψ)をそのまま維持する。なお、W1は、典型的には、図3のSTEP14に関連して説明した閾値V1以下とするが、閾値V1より大きい値にしたり、運転状況(例:車速、天候、時間帯又は道路曲率)に応じて可変としたりすることもできる。
STEP52では、データ退避部102は、エリア特定部101により処理後の投票空間56のデータを所定のメモリに退避する。エリア特定部101により処理後の投票空間56のデータとは、単一の線状要素抽出画像40における検出直線のエリアAのみの投票数vote(vx,ψ)のデータとなる。なお、1つの線状要素抽出画像40は1つの線状要素抽出画像40に相当する。該所定のメモリに投票数vote(vx,ψ)が退避される線状要素抽出画像40の個数は所定数(例えば、前述のn)に制限し、退避線状要素抽出画像40の個数がすでに所定数に達している場合には、最古の線状要素抽出画像40のデータを最新の線状要素抽出画像40のデータへ置き換えて、必要なメモリ容量の節約を図ることもできる。
図17のSTEP11〜14及び51,52の処理の結果、図18の右側に図示されているように、時系列の投票空間K1〜Knが生成される。なお、各線状要素抽出画像40において定義されているレーン抽出エリア45のy軸方向範囲は線状要素抽出画像40に関係なく同一となっている。したがって、投票空間K1〜Knのレーン抽出エリア45のy軸寸法に対応付けられる実空間の車両前後方向長さは、車速が同一であれば、等しくなっている。
投票重ね合わせ部103がSTEP53において実施する処理及び直線検出部104がSTEP54において実施する処理は、各線状要素抽出画像40由来の投票空間56についての個別処理ではなく、時系列のn個の線状要素抽出画像40由来の投票空間K1〜Knに対して設定された合計投票空間についての処理となる。
STEP53では、投票重ね合わせ部103は、時系列の各線状要素抽出画像40に対して定義した投票空間K1〜Knを重ね合わせる。投票空間K1〜Knを重ね合わせるとは、具体的には、後述の図19(b)で説明する合計投票空間を生成することである。
各時系列における投票空間K1〜Knの個数nは、典型的には、車両10の走行状況に関係なく固定するが、車速や道路29の曲率に応じて調整することもできる。線状要素抽出画像40の時間間隔は一定であるので、個数nは、高車速時ほど減少させて、レーン境界線の認識の更新間隔を早めることができる。また、個数nは、曲率の変化が大きい道路29を走行しているときほど、減少させて、道路29の曲率の変化をもつレーン境界線を速やかに認識できるようにすることができる。
図19(b)はSTEP53における投票重ね合わせ部103による処理の結果、生成される合計投票空間の具体例を示している。以下、合計投票空間のvote(vx,ψ)を、個別のvote(vx,ψ)と区別するために、t−vote(vx,ψ)で示すことにする。なお、"t"は、totalを意味するものとして使用した。
t−vote(vx,ψ)は、データ退避部102により又はSTEP52において所定のメモリに一時的に退避しておいた複数の線状要素抽出画像40(時系列の投票空間)のvote(vx,ψ)の合計である。すなわち、t−vote(vx,ψ)は、図19(a)のノイズエリアBのvote(vx,ψ)を除外しエリアAのvote(vx,ψ)に絞り込む処理をした各投票空間56のvote(vx,ψ)に対し、時系列の投票空間K1〜Knにおけるvote(vx,ψ)を合計した値となっている。
ここで、注意すべきは、投票空間K1〜Knに対応付けられる実空間は、同一の範囲となっておらず、車両10の走行に伴い、車両走行方向へ車速に応じて少しずつ車両前方の範囲へ変化していくことである。したがって、投票空間K1〜Knにおける座標(vx,ψ)に対応付けられる実空間の位置及び方向は投票空間K1〜Kn間においてずれる。
同様に、道路29が曲線道路である場合には、投票空間K1〜Knに対応付けられる実空間は、車両10に対する相対領域では同一となるが、時間的に最先の投票空間K1を基準にして、投票空間K1が由来する撮像画像30のx軸方向及びy軸方向に対して少しずつずれていく。
時系列において最古の投票空間K1と最新の投票空間Knとが由来している撮像画像30の撮像時刻の差が小さい場合には、投票空間K1〜Knの同一の座標(vx,ψ)に対応付けられる実空間の位置及び方向のずれは小さいので、投票空間K1〜Knにおいて同一の座標(vx,ψ)同士のvote(vx,ψ)を単純に合計して、合計投票空間のt−vote(vx,ψ)とすればよい。
時系列において最古の投票空間K1と最新の投票空間Knとが由来している撮像画像30の撮像時刻の差が大きい場合には、投票空間K1〜Kn間の同一の座標(vx,ψ)同士に対応付けられる実空間の位置のずれが無視できなくなる。これに対処するため、投票空間K1〜Knの中の1つ(例:K1、Kn又は真ん中の投票空間)を基準投票空間に設定するとともに、該基準投票空間が由来する線状要素抽出画像40のxy座標を基準座標に設定する。
そして、時系列における基準投票空間以外の投票空間が由来する線状要素抽出画像40のxy座標を基準投票空間の基準座標に変換し、時系列のn個の投票空間間において、同一座標が実空間の同一位置に対応付けられるようにする。その後、基準投票空間のxy座標に変換後のxy座標として(vx,ψ)を算出し、各投票空間の(vx,ψ)に投票して、合計投票空間のt−vote(vx,ψ)を得る。なお、線状要素抽出画像40のxy座標を基準投票空間の基準座標に変換するときの変換式には、車両10の車速や旋回角速度が計算因子とされる。
STEP54では、直線検出部104が合計投票空間の投票結果に基づいて検出直線を検出する。認識部26は、直線検出部104が検出した検出直線に基づいてレーン境界線の認識する。直線検出部104による検出直線の具体的な検出の仕方について次に説明する。
合計投票空間では、ノイズに係る直線のt−vote(vx,ψ)とレーンマークに対応する直線のt−vote(vx,ψ)との差が、より顕著になる。なぜならば、一般に、レーンマーク由来の投票は、時系列の撮像画像30に連続して出現する傾向があるのに対し、ノイズ由来の投票は、時系列の撮像画像30に断続的又は1回限りで出現する傾向があるからである。直線検出部104は、合計投票空間において、閾値W2(W2>W1)を設定し、t−vote(vx,ψ)が閾値W2以上でかつ極大値になっている座標(vx,ψ)に対し、そのvx,ψにそれぞれ対応付けられるx交点及び傾斜角度θとする直線を検出直線として検出する。
なお、時系列の投票空間において前述の基準投票空間を定めた場合には、検出直線を検出する基にした(vx,ψ)は基準投票空間の基準座標で表わされていることになる。
単一の線状要素抽出画像40に対する1つの投票空間56におけるvote(vx,ψ)の場合と同様に、t−vote(vx,ψ)に対しても、合計投票空間において極大値が上位所定数内に含まれている極大値のt−vote(vx,ψ)の座標に限定して、限定した座標に対応付けられる直線のみを検出直線とすることもできる。
直線検出部104はさらに次の処理を行うことができる。時系列において時間的に前後する前の線状要素抽出画像40及び後ろの線状要素抽出画像40を定義する。なお、前の線状要素抽出画像40及び後ろの線状要素抽出画像40は、時系列上の隣同士の線状要素抽出画像40でなくてもよい。前の線状要素抽出画像40に対応する投票空間56において投票数が極大となっている前座標(vx,ψ)と、時間上の後ろの線状要素抽出画像40に対応する投票空間56において投票数が極大となっている後ろ座標(vx,ψ)との投票空間56上の距離L(該距離Lの代わりに、該距離Lの実空間換算の距離を使用してもよい。)を算出し、距離Lが閾値L1以上であるときは、前の線状要素抽出画像40の投票空間56における前座標(vx,ψ)の投票数vote(vx,ψ)をクリアする。
この結果、合計投票空間において、前座標(vx,ψ)に相当する座標の投票数は大幅に減少する。前述したように、ノイズ由来の投票は、時系列の撮像画像30に断続的又は1回限りで出現する傾向がある。したがって、たとえ、1つの線状要素抽出画像40に由来する投票空間56における投票数がW1以上である極大値の前座標があっても、その投票がノイズ由来のものである場合には、時間的にそれより後ろの線状要素抽出画像40に由来する投票空間56において、後ろ座標から所定距離内に、投票数がW1以上であると極大値の座標が出現しない傾向が強い。したがって、そのような場合には、前の線状要素抽出画像40の前座標(vx,ψ)の投票数は、合計投票空間における合計から除外することにより、ノイズ由来の検出直線が検出されてしまうことを抑制することができる。
以上、本発明を実施の形態について説明したが、本発明は、その要旨を逸脱しない範囲で種々の設計変更を行うことが可能である。
なお、「投票空間」を使用しているが、これはあくまで処理上の名前であり、すなわち、レーン抽出エリアの複数の局所直線に対し、その特徴(実施例では、vx,ψ)を同じくする各局所直線の個数を集計する処理に使用する場所名として使用していることは当業者が明確に理解するとおりである。したがって、処理内容を同一とするものであれば、別名であっても、本発明の要旨の範囲内である。
本発明のレーン認識装置は、自動車に装備され、自動車が走行している道路やレーンの位置を検出する。また、本発明のレーン認識装置に従い検出した道路やレーンに基づいて、道路上の所定対象物との衝突回避や自動走行等の様々な制御に使用することができる。
10・・・車両、11・・・カメラ(撮像装置)、20,65,100・・・レーン認識装置、21・・・画像メモリ、22・・・線状要素抽出画像処理部、23・・・分解能決定部、24・・・投票処理部、25,104・・・直線検出部、26・・・認識部、29・・・道路、30・・・撮像画像、31・・・中央レーンマーク、32・・・左レーンマーク、33・・・右レーンマーク、40・・・線状要素抽出画像、41,42・・・線状要素、44・・・局所直線、45・・・レーン抽出エリア、46・・・基準水平線、47・・・局所領域、56・・・投票空間、66・・・中間抽出画像生成部、67・・・線分置換部、70・・・射影変換画像、76・・・左検出直線、77,80・・・レーン境界線、79・・・右検出直線、101・・・エリア特定部、102・・・データ退避部、103・・・投票重ね合わせ部。

Claims (13)

  1. 撮像装置による車両前方の撮像画像に基いてレーンを認識するレーン認識装置であって、
    前記撮像画像に含まれる線状要素を抽出した線状要素抽出画像を生成する線状要素抽出画像生成部と、
    前記線状要素抽出画像において垂直方向所定範囲のレーン抽出エリアを設定するエリア設定部と、
    前記レーン抽出エリア内の各局所領域に対し各局所領域内の線状要素部分に基づいて各局所領域の局所直線を決定する局所直線決定部と、
    各局所直線と垂直方向所定位置の基準水平線との交点を算出する交点算出部と、
    方向及び交点を座標成分とする投票空間において、各局所直線の方向と交点とを投票する投票部と、
    前記投票空間における投票結果に基いて検出直線を検出する検出部と、
    前記検出直線に基いてレーン境界線を認識する認識部と
    を備えることを特徴とするレーン認識装置。
  2. 請求項1記載のレーン認識装置において、
    前記エリア設定部は、前記線状要素抽出画像を垂直方向に複数のレーン抽出エリアに分割し、
    前記投票部は、各レーン抽出エリアに対応付けられている各投票空間に対し、当該投票空間に対応するレーン抽出エリアの各局所直線に基いて投票し、
    前記検出部は、各投票空間の投票結果に基いて各レーン抽出エリアごとの検出直線を検出し、
    前記認識部は、各レーン抽出エリアの検出直線のつなぎ合わせに基いて線状要素抽出画像内のレーン境界線を認識することを特徴とするレーン認識装置。
  3. 請求項2記載のレーン認識装置において、
    前記エリア設定部は、垂直方向の上側のレーン抽出エリアほど、その垂直方向寸法が小さくなるように、前記線状要素抽出画像を垂直方向に複数のレーン抽出エリアに分割することを特徴とするレーン認識装置。
  4. 請求項2記載のレーン認識装置において、
    前記局所直線決定部は、所定範囲の方向を第1所定数の方向区分に分割して、各局所直線の方向を、該当するいずれかの方向区分に割り当てて決定し、
    前記交点算出部は、前記基準水平線を第2所定数の位置区分に分割して、各局所直線と前記基準水平線との交点を、該当する位置区分としての交点区分に割り当てて決定し、
    前記投票部は、前記投票空間に定義する方向及び交点の座標成分を、前記方向区分及び交点区分に一致させることを特徴とするレーン認識装置。
  5. 請求項4記載のレーン認識装置において、
    前記第1所定数又は前記第2所定数は、上側のレーン抽出エリアでは、下側のレーン抽出エリアよりも小さく設定されていることを特徴とするレーン認識装置。
  6. 請求項1記載のレーン認識装置において、
    前記検出部は、前記投票空間において投票数が極大である座標に対応付けられる方向及び交点をもつ直線を検出直線として検出することを特徴とするレーン認識装置。
  7. 請求項1記載のレーン認識装置において、
    前記撮像画像の水平方向は実空間における車両の左右方向に相当し、
    前記認識部は、時系列の線状要素抽出画像に基いて検出直線が前記線状要素抽出画像上で水平方向へ閾値以上の速度で変化していると判断したときは、レーン境界線がカーブしていると認識することを特徴とするレーン認識装置。
  8. 請求項1記載のレーン認識装置において、
    前記線状要素抽出画像生成部は、
    前記撮像画像に含まれる線状要素を抽出した第1中間抽出画像を生成する中間抽出画像生成部と、
    該第1中間抽出画像に含まれる各線状要素を、その水平方向幅又は傾斜角度の垂直方向における変化に基づいて1つ又は複数の線分に置換することにより、前記第1中間抽出画像から前記線状要素抽出画像を生成する線分置換部とを備えることを特徴とするレーン認識装置。
  9. 請求項記載のレーン認識装置において、
    前記中間抽出画像生成部は、前記撮像画像に含まれる線状要素を、前記撮像画像における位置と同一位置に保持しつつ前記撮像画像から抽出した第2中間抽出画像を生成し、該第2中間抽出画像を上方視の画像に射影変換して前記第1中間抽出画像を生成することを特徴とするレーン認識装置。
  10. 請求項1記載のレーン認識装置において、
    前記投票部は、時系列の撮像画像に対応付けて生成された時系列の前記線状要素抽出画像に対して設定された時系列のレーン抽出エリアごとに前記投票空間を設定して、時系列の各投票空間ごとに、当該投票空間が設定されたレーン抽出エリアにおける各局所領域の局所直線の方向と交点とを投票し、
    前記検出部は、時系列の投票空間の投票結果に基づいて検出直線を検出することを特徴とするレーン認識装置。
  11. 請求項10記載のレーン認識装置において、
    前記検出部は、各座標の投票数が、時系列の各投票空間における対応座標の投票数を合計した合計値となる合計投票空間を作成し、合計投票空間において投票数が極大となっている座標に基づいて前記検出直線を検出することを特徴とするレーン認識装置。
  12. 請求項11記載のレーン認識装置において、
    前記検出部は、各投票空間において投票数が閾値未満である座標については該投票数を減少させてから、時系列の各投票空間の各座標の投票数を合計することを特徴とするレーン認識装置。
  13. 請求項11記載のレーン認識装置において、
    前記検出部は、時系列上の別時刻の第1及び第2投票空間の投票結果を対比し、第1投票空間において投票数が極大となっている座標から所定の距離範囲内の座標が第2投票空間では投票数が極大になっていないときは、第1投票空間における該座標の投票数は合計投票空間における合計から除外することを特徴とするレーン認識装置。
JP2012548707A 2010-12-15 2011-11-18 レーン認識装置 Active JP5687712B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012548707A JP5687712B2 (ja) 2010-12-15 2011-11-18 レーン認識装置

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2010279631 2010-12-15
JP2010279631 2010-12-15
JP2010279630 2010-12-15
JP2010279630 2010-12-15
JP2011230110 2011-10-19
JP2011230110 2011-10-19
PCT/JP2011/076664 WO2012081359A1 (ja) 2010-12-15 2011-11-18 レーン認識装置
JP2012548707A JP5687712B2 (ja) 2010-12-15 2011-11-18 レーン認識装置

Publications (2)

Publication Number Publication Date
JPWO2012081359A1 JPWO2012081359A1 (ja) 2014-05-22
JP5687712B2 true JP5687712B2 (ja) 2015-03-18

Family

ID=46244472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012548707A Active JP5687712B2 (ja) 2010-12-15 2011-11-18 レーン認識装置

Country Status (5)

Country Link
US (1) US9076046B2 (ja)
EP (1) EP2615597B1 (ja)
JP (1) JP5687712B2 (ja)
CN (1) CN103262139B (ja)
WO (1) WO2012081359A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170021090A (ko) * 2015-08-17 2017-02-27 엘지이노텍 주식회사 차선상태 판단 장치 및 이를 이용한 차선상태 판단 방법

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101279712B1 (ko) * 2011-09-09 2013-06-27 연세대학교 산학협력단 실시간 차선 검출 장치 및 방법과 이에 관한 기록매체
CN103164851B (zh) * 2011-12-09 2016-04-20 株式会社理光 道路分割物检测方法和装置
CN103177236B (zh) * 2011-12-22 2016-06-01 株式会社理光 道路区域检测方法和装置、分道线检测方法和装置
US9469297B2 (en) * 2011-12-28 2016-10-18 Toyota Jidosha Kabushiki Kaisha Driving assistance apparatus for vehicle
JP2013196454A (ja) * 2012-03-21 2013-09-30 Honda Elesys Co Ltd 画像処理装置、画像処理方法および画像処理プログラム
CN104240228B (zh) * 2013-06-24 2017-10-24 阿里巴巴集团控股有限公司 一种应用于网站的特定图片的检测方法及装置
JP6087858B2 (ja) * 2014-03-24 2017-03-01 株式会社日本自動車部品総合研究所 走行区画線認識装置及び走行区画線認識プログラム
JP6185418B2 (ja) * 2014-03-27 2017-08-23 トヨタ自動車株式会社 走路境界区画線検出装置
GB2528028B (en) 2014-05-13 2017-08-09 String Labs Ltd Border tracing
GB2528233B (en) 2014-05-13 2017-02-22 String Labs Ltd Identifying features
GB2528027B (en) 2014-05-13 2016-12-14 String Labs Ltd Perimeter detection
GB2528429B (en) 2014-05-13 2016-12-14 String Labs Ltd Border detection
CN103978978B (zh) * 2014-05-26 2016-06-22 武汉理工大学 基于逆投影变换的车道保持方法
JP6140658B2 (ja) * 2014-08-20 2017-05-31 株式会社Soken 走行区画線認識装置、走行区画線認識プログラム
JP6483446B2 (ja) * 2015-01-15 2019-03-13 トヨタ自動車株式会社 複合線判定装置及び複合線判定方法
US10576974B2 (en) * 2015-06-29 2020-03-03 The Regents Of The University Of California Multiple-parts based vehicle detection integrated with lane detection for improved computational efficiency and robustness
KR101694347B1 (ko) * 2015-08-31 2017-01-09 현대자동차주식회사 차량 및 차선인지방법
US9761000B2 (en) * 2015-09-18 2017-09-12 Qualcomm Incorporated Systems and methods for non-obstacle area detection
US10325339B2 (en) * 2016-04-26 2019-06-18 Qualcomm Incorporated Method and device for capturing image of traffic sign
TWI611961B (zh) 2016-06-01 2018-01-21 緯創資通股份有限公司 車道線影像分析方法、影像分析裝置及其電腦可讀取式媒體
JP6723836B2 (ja) * 2016-06-03 2020-07-15 株式会社デンソーテン レーダ装置および信号処理方法
JP6606472B2 (ja) * 2016-07-04 2019-11-13 株式会社Soken 走路形状認識装置、走路形状認識方法
TWI621073B (zh) * 2016-12-08 2018-04-11 Road lane detection system and method thereof
KR101864066B1 (ko) * 2017-01-11 2018-07-05 숭실대학교산학협력단 차선 인식 장치, 차선 이탈 판단 장치, 차선 인식 방법 및 차선 이탈 판단 방법
CN107730520B (zh) * 2017-09-22 2020-10-27 智车优行科技(北京)有限公司 车道线检测方法及系统
JP2019154018A (ja) * 2018-03-06 2019-09-12 パナソニックIpマネジメント株式会社 車両周辺表示システム、表示制御装置およびコンピュータプログラム
CN110765812B (zh) * 2018-07-26 2021-02-19 北京图森智途科技有限公司 一种图像数据车道线的标定方法和装置
US11518384B2 (en) * 2018-12-07 2022-12-06 Thinkware Corporation Method for displaying lane information and apparatus for executing the method
KR20200090527A (ko) * 2019-01-21 2020-07-29 현대자동차주식회사 차선 인식 장치 및 그 방법
CN110060266B (zh) * 2019-04-24 2021-04-13 百度在线网络技术(北京)有限公司 车道线提取方法及装置、服务器及计算机可读介质
CN110619651B (zh) * 2019-09-09 2023-01-17 博云视觉(北京)科技有限公司 一种基于监控视频的行车道路分割方法
CN113515973A (zh) * 2020-04-09 2021-10-19 北京地平线机器人技术研发有限公司 数据获取方法、训练方法、调整方法以及装置
CN111860319B (zh) * 2020-07-20 2024-03-26 阿波罗智能技术(北京)有限公司 车道线的确定方法、定位精度的评测方法、装置、设备
JP2022142510A (ja) * 2021-03-16 2022-09-30 パナソニックIpマネジメント株式会社 車両用周辺警戒装置および車両用周辺警戒方法
CN112949769B (zh) * 2021-04-07 2022-09-06 中国科学技术大学 一种目标检测方法及目标检测系统
JP7149385B1 (ja) 2021-07-12 2022-10-06 株式会社デンソーテン 車線検出装置、車線検出方法および車線検出プログラム
CN113435427B (zh) * 2021-08-27 2021-11-09 湖北亿咖通科技有限公司 车道线的聚合方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076147A (ja) * 1999-09-03 2001-03-23 Nec Corp 道路白線検出システム、道路白線検出方法および道路白線検出用プログラムを記録した記録媒体
JP2001092970A (ja) * 1999-09-22 2001-04-06 Fuji Heavy Ind Ltd 車線認識装置
JP2003331295A (ja) * 2002-05-14 2003-11-21 Nissan Motor Co Ltd 道路白線認識装置
JP2004271404A (ja) * 2003-03-10 2004-09-30 Nissan Motor Co Ltd 車両用障害物検出装置
JP2005182407A (ja) * 2003-12-18 2005-07-07 Nissan Motor Co Ltd 車線逸脱防止装置
JP2008027046A (ja) * 2006-07-19 2008-02-07 Fuji Heavy Ind Ltd 車線認識装置
JP2010225125A (ja) * 2009-03-25 2010-10-07 Ihi Corp 通路検出プログラム、通路検出装置及び方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5359666A (en) * 1988-09-28 1994-10-25 Honda Giken Kogyo Kabushiki Kaisha Driving way judging device and method
EP0361914B1 (en) * 1988-09-28 1995-12-13 Honda Giken Kogyo Kabushiki Kaisha A driving way judging device and method
JP3721594B2 (ja) 1995-03-15 2005-11-30 日産自動車株式会社 道路形状推定装置
JP3733875B2 (ja) * 2000-09-29 2006-01-11 日産自動車株式会社 道路白線認識装置
JP4703136B2 (ja) * 2004-06-02 2011-06-15 トヨタ自動車株式会社 線図形化処理装置
JP4801821B2 (ja) * 2007-09-21 2011-10-26 本田技研工業株式会社 道路形状推定装置
JP4697480B2 (ja) * 2008-01-11 2011-06-08 日本電気株式会社 車線認識装置、車線認識方法および車線認識プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001076147A (ja) * 1999-09-03 2001-03-23 Nec Corp 道路白線検出システム、道路白線検出方法および道路白線検出用プログラムを記録した記録媒体
JP2001092970A (ja) * 1999-09-22 2001-04-06 Fuji Heavy Ind Ltd 車線認識装置
JP2003331295A (ja) * 2002-05-14 2003-11-21 Nissan Motor Co Ltd 道路白線認識装置
JP2004271404A (ja) * 2003-03-10 2004-09-30 Nissan Motor Co Ltd 車両用障害物検出装置
JP2005182407A (ja) * 2003-12-18 2005-07-07 Nissan Motor Co Ltd 車線逸脱防止装置
JP2008027046A (ja) * 2006-07-19 2008-02-07 Fuji Heavy Ind Ltd 車線認識装置
JP2010225125A (ja) * 2009-03-25 2010-10-07 Ihi Corp 通路検出プログラム、通路検出装置及び方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170021090A (ko) * 2015-08-17 2017-02-27 엘지이노텍 주식회사 차선상태 판단 장치 및 이를 이용한 차선상태 판단 방법
KR102384580B1 (ko) 2015-08-17 2022-04-08 엘지이노텍 주식회사 차선상태 판단 장치 및 이를 이용한 차선상태 판단 방법

Also Published As

Publication number Publication date
CN103262139A (zh) 2013-08-21
EP2615597B1 (en) 2017-05-10
JPWO2012081359A1 (ja) 2014-05-22
EP2615597A4 (en) 2014-06-18
US20130272577A1 (en) 2013-10-17
EP2615597A1 (en) 2013-07-17
WO2012081359A1 (ja) 2012-06-21
CN103262139B (zh) 2015-06-24
US9076046B2 (en) 2015-07-07

Similar Documents

Publication Publication Date Title
JP5687712B2 (ja) レーン認識装置
JP6896044B2 (ja) 道路の垂直輪郭検出
JP6519262B2 (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
EP2958054B1 (en) Hazard detection in a scene with moving shadows
US10755116B2 (en) Image processing apparatus, imaging apparatus, and device control system
JP6550881B2 (ja) 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム
JP4956452B2 (ja) 車両用環境認識装置
JP6274557B2 (ja) 移動面情報検出装置、及びこれを用いた移動体機器制御システム並びに移動面情報検出用プログラム
US20170287108A9 (en) Dense structure from motion
US20170124725A1 (en) Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium
US20120327189A1 (en) Stereo Camera Apparatus
US20070084655A1 (en) Device for detecting a road traveling lane
JP6156400B2 (ja) 走行路面検出装置及び走行路面検出方法
JP4416039B2 (ja) 縞模様検知システム、縞模様検知方法および縞模様検知用プログラム
JP4872769B2 (ja) 路面判別装置および路面判別方法
JP5180126B2 (ja) 道路認識装置
US20170116743A1 (en) Image processing device and image processing method
EP2642364B1 (en) Method for warning the driver of a motor vehicle about the presence of an object in the surroundings of the motor vehicle, camera system and motor vehicle
EP3557527A1 (en) Object detection device
JP6687039B2 (ja) 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム
JP6753134B2 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及び画像処理プログラム
EP3545464A1 (en) Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium
JP2016206801A (ja) 物体検出装置、移動体機器制御システム及び物体検出用プログラム
CN110809766B (zh) 高级驾驶员辅助系统和方法
CN109522779B (zh) 图像处理装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140812

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150122

R150 Certificate of patent or registration of utility model

Ref document number: 5687712

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150