JP2009029171A - 車両用画像処理装置 - Google Patents

車両用画像処理装置 Download PDF

Info

Publication number
JP2009029171A
JP2009029171A JP2007192277A JP2007192277A JP2009029171A JP 2009029171 A JP2009029171 A JP 2009029171A JP 2007192277 A JP2007192277 A JP 2007192277A JP 2007192277 A JP2007192277 A JP 2007192277A JP 2009029171 A JP2009029171 A JP 2009029171A
Authority
JP
Japan
Prior art keywords
feature point
white line
detection
image data
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007192277A
Other languages
English (en)
Other versions
JP4937030B2 (ja
Inventor
Junko Amasaki
純子 尼崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Electronics Corp
Original Assignee
NEC Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Electronics Corp filed Critical NEC Electronics Corp
Priority to JP2007192277A priority Critical patent/JP4937030B2/ja
Priority to US12/219,432 priority patent/US8116523B2/en
Priority to DE102008034304.8A priority patent/DE102008034304B4/de
Publication of JP2009029171A publication Critical patent/JP2009029171A/ja
Application granted granted Critical
Publication of JP4937030B2 publication Critical patent/JP4937030B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Abstract

【課題】走査を行うときの処理数を削減すること。
【解決手段】本発明の車両用画像処理装置は、道路上の車両の前方を表すm行n列の画素を含む画像データに対して検出用画像データを生成し、検出用画像データに基づいて道路上の特徴点を検出する。その特徴点は、白線特徴点と分岐特徴点と行き止まり障害物特徴点とを含んでいる。検出用画像データは、白線特徴点、分岐特徴点、行き止まり障害物特徴点がそれぞれ検出される走査領域A101、A102、A103を含んでいる。検出用画像データのm行n列の画素に対応する地点と車両との距離は、1行目からm行目までこの順に短い。1<m<m<mである場合、走査領域A103、A102、A101は、それぞれ、検出用画像データのm行n列の画素のうちの、1行目からm行目までの画素、(m+1)行目からm行目までの画素、(m+1)行目からm行目までの画素に対応する。
【選択図】図5

Description

本発明は、車両に取り付けられたカメラにより車両の前方を撮影し、その車両の前方の画像を表す画像データにより道路上の特徴点を構成するエッジを抽出(検出)し、車両の自動操縦を行う自動操縦システムを支援する車両用画像処理装置に関する。
車両の自動操縦を行う自動操縦システムを実現するために、車両用画像処理装置が開発されている。この車両用画像処理装置に関して、以下3点が求められる。
第1に、車両の走行路を認識するために、車両に取り付けられたCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等のカメラにより車両の前方を撮影し、その車両の前方の画像を表す画像データをリアルタイムに処理する必要がある。
第2に、自動操縦システムが安全な自動操縦を行うために、車両の走行路を正確に認識する必要がある。そのためには誤認識が少なくなるような情報を自動操縦システムに与える必要がある。
第3に、上記の情報として、上記の画像データにより道路上に描かれた白線や前方に存在する障害物の有無、道路分岐の有無を表す道路上の特徴点を構成するエッジを抽出(検出)する処理が必要となる。
ここで、従来の車両用画像処理装置を紹介する。
特開2003−308534号公報には、白線認識装置が記載されている。白線認識装置では、走行するレーンを含む前方の路面画像を撮り、撮られた路面画像を横方向へ走査する。これにより、画像の明度が相対的に所定以上高く変化するアップエッジと、画像の明度が相対的に所定以上低く変化するダウンエッジとを検出して路面の白線による明部を抽出する。このとき、路面画像の縦方向の各位置で前記レーンの側縁部を代表する白線位置候補点を決定する。この場合、路面画像の縦方向の同じ位置で、明部に対応するアップエッジとダウンエッジとからなるペアエッジが一つだけ検出されたときには、ペアエッジに対して予め設定した所定の相対位置を取る点を白線位置候補点とする。また、複数のペアエッジが検出されたときには、該複数のペアエッジの配列に基づいて、複数のペアエッジに対して予め設定した所定の相対位置を取る点を白線位置候補点とする。このように、白線認識装置では、白線が複数配列する道路部分でも、当該道路部分の白線が単一の道路部分であると仮定したときの白線位置候補点が得られる。
また、特許第2712809号公報には、車両用障害物検出装置が記載されている。車両用障害物検出装置では、入力画像から画面下部になるほど長く連続した水平エッジ、鉛直エッジのみを抽出し、それらに囲まれた領域を障害物として認識するように構成することにより、カメラ1台のみで測距システムを構成できるようにしている。
特開2003−308534号公報 特許第2712809号公報
しかし、従来の車両用画像処理装置(特に白線認識装置)では、白線、分岐、行き止まりや障害物を検出する処理として、それらを検出するための固定テンプレートを用意し、画像の全領域を走査している。この場合、全領域を走査するため、画像のフレームサイズに応じて、走査を行うときの処理数が多くなってしまうという問題点がある。
以下に、発明を実施するための最良の形態・実施例で使用される符号を括弧付きで用いて、課題を解決するための手段を記載する。この符号は、特許請求の範囲の記載と発明を実施するための最良の形態・実施例の記載との対応を明らかにするために付加されたものであり、特許請求の範囲に記載されている発明の技術的範囲の解釈に用いてはならない。
本発明の車両用画像処理装置(M100)は、撮像装置(M101)と、エッジ検出部(M104)と、特徴点検出部(M111)とを具備している。
撮像装置(M101)は、道路上の車両の前方を撮影し、車両の前方を表すm行n列(m、nは3以上の整数である)の画素を含む画像データを生成する。
エッジ検出部(M104)は、画像データに対して、道路上の特徴点を検出するための検出用画像データを生成する。
特徴点検出部(M111)は、検出用画像データに基づいて上記の特徴点を検出し、出力装置(M200)に出力する。
上記の特徴点は、道路上に描かれた白線を表す白線特徴点と、道路の分岐を表す分岐特徴点と、道路が行き止まり又は障害物により遮断されていることを表す行き止まり障害物特徴点とを含んでいる。
検出用画像データは、白線特徴点を検出するための白線検出用走査領域(A101)と、分岐特徴点を検出するための分岐検出用走査領域(A102)と、行き止まり障害物特徴点を検出するための行き止まり障害物検出用走査領域(A103)とを含んでいる。
検出用画像データのm行n列の画素に対応する地点と車両との距離は、1行目からm行目までこの順に短い。
そこで、1<m<m<mである場合、行き止まり障害物検出用走査領域(A103)、分岐検出用走査領域(A102)、白線検出用走査領域(A101)は、それぞれ、検出用画像データのm行n列の画素のうちの、1行目からm行目までの画素、(m+1)行目からm行目までの画素、(m+1)行目からm行目までの画素に対応する。
以上により、本発明の車両用画像処理装置(M100)では、検出用画像データ(特徴点検出用画像データ)に対して道路の特徴点(白線、分岐、行き止まりや障害物)毎に専用の走査領域を設けることにより、走査を行うときの処理数が従来よりも削減できる。
また、本発明の車両用画像処理装置(M100)では、撮像される画像の特徴(手前が大きく遠くは小さい遠近法)を利用し、検出内容による走査領域を特定することで、走査領域においてノイズの影響を受けにくく、道路上の特徴点を得る際の誤検出が少なくすることができる。
また、本発明の車両用画像処理装置(M100)では、白線検出用走査領域(A101)を最も手前(画像領域の下側)で設定することで、車両が大きく外れるケースやカーブ走行時にも、白線が一部分だけでも撮像されるため、走行位置を算出するための処理が容易となる。
また、本発明の車両用画像処理装置(M100)では、行き止まり障害物検出用走査領域(A103)が撮像される画像の特徴から、遠くの部分を走査するため、行き止まりや障害物の有無を分岐の有無よりも早い時刻で検出できる。そのため、例えば出力装置(M200)が車両を走行させるときの走行制御、操舵制御等の処理判断が容易となる。
以下に添付図面を参照して、本発明の車両用画像処理装置について詳細に説明する。
[構成]
図1は、本発明の車両用画像処理装置M100の構成を示している。本発明の車両用画像処理装置M100は、例えば、車両の自動操縦を行う自動操縦システムM200と共に、車両に搭載されている。この車両用画像処理装置は、撮像装置M101と、アナログ/ディジタル(A/D)コンバータM102と、画像処理装置M110とを具備している。
撮像装置M101は、CCDやCMOSイメージセンサ等のカメラを有し、車両の前方に取り付けられている。A/DコンバータM102は、撮像装置M101と画像処理装置M110とに接続されている。画像処理装置M110は、コンピュータであり、ハードウェア(例示;回路)、ソフトウェア(例示;コンピュータプログラム)により実現される。
画像処理装置M110は、メモリM103と、エッジ検出部M104と、エッジ補正・ノイズ除去部M105と、特徴点検出部M111とを具備している。特徴点検出部M111は、白線検出部M106と、分岐検出部M107と、行き止まり障害物検出部M108と、走行位置算出部M109とを具備している。メモリM103は、A/DコンバータM102とエッジ検出部M104とに接続されている。エッジ検出部M104は、エッジ補正・ノイズ除去部M105に接続されている。エッジ補正・ノイズ除去部M105は、白線検出部M106と分岐検出部M107と行き止まり障害物検出部M108とに接続されている。白線検出部M106は、走行位置算出部M109に接続されている。走行位置算出部M109と分岐検出部M107と行き止まり障害物検出部M108は、例えば出力装置として上記の自動操縦システムM200に接続されている。
[動作]
図2A〜2Dは、本発明の車両用画像処理装置M100の動作を示すフローチャートである。
撮像装置M101は、カメラにより道路上の車両の前方を撮影し、その車両の前方の画像を表すアナログ画像データを生成する。A/DコンバータM102は、そのアナログ画像データに対してアナログ/ディジタル変換を施し、ディジタル画像データを生成してメモリM103に格納する(ステップS101)。このディジタル画像データは、車両の前方を表すm行n列の画素を含んでいる。ここで、m、nは3以上の整数である。
エッジ検出部M104は、メモリM103に格納されたディジタル画像データのm行n列の画素に対して、2次元空間フィルタ処理を施して2次元空間フィルタ処理済画像データを生成する。
2次元空間フィルタ処理とは、ある点g(i、j)を中心とした任意の平方又は矩形領域の各点の濃度の平均値として濃度平均値を求め、その濃度平均値に基づいて点g(i、j)における新しい濃度f(i、j)を算出する方法である。例えば、3×3の平方領域の場合は、ディジタル画像データのm行n列の画素の各々に対して、注目画素g(i、j)とその周辺の周辺画素とを含む9個の画素g(i−1、j−1)、g(i、j−1)、g(i+1、j−1)、g(i−1、j)、g(i、j)、g(i+1、j)、g(i−1、j+1)、g(i、j+1)、g(i+1、j+1)が表す色の濃度の平均値として濃度平均値を求め、その濃度平均値に基づいて注目画素g(i、j)の新規の濃度として算出濃度f(i、j)を算出する。
ここで、i、jはそれぞれ2≦i≦(m−1)、2≦j≦(n−1)を満たす整数であるとき、算出濃度f(i、j)は、
f(i、j)=g(i、j)×M(i、j)
により表される。ここで、M(i、j)は、空間フィルタ係数行列であり、数1により表される。
Figure 2009029171
一般的に2次元空間フィルタ処理は、M(i、j)が表す係数値を様々な値に変えることができる。この2次元空間フィルタ処理としては、それぞれ、図3A、図3Bに示されるような3×3のマスクフィルタを用いた平滑化フィルタ処理(ステップS102)、ラプラシアンフィルタ処理(ステップS103)が例示される。
まず、平滑化フィルタ処理では、注目画素g(i、j)とその周辺の周辺画素とを含む9個の画素g(i−1、j−1)、g(i、j−1)、g(i+1、j−1)、g(i−1、j)、g(i、j)、g(i+1、j)、g(i−1、j+1)、g(i、j+1)、g(i+1、j+1)がそれぞれ表す色の濃度f(i−1、j−1)、f(i、j−1)、f(i+1、j−1)、f(i−1、j)、f(i、j)、f(i+1、j)、f(i−1、j+1)、f(i、j+1)、f(i+1、j+1)に対して、濃度平均値f(i、j)を求める。具体的には、濃度平均値f(i、j)は、f={1×f(i−1、j−1)、1×f(i、j−1)、1×f(i+1、j−1)、1×f(i−1、j)、1×f(i、j)、1×f(i+1、j)、1×f(i−1、j+1)、1×f(i、j+1)、1×f(i+1、j+1)}/9により表される。このとき、fの前にかかる係数は、空間フィルタ係数行列M(i、j)により数2により表される。
Figure 2009029171
次に、ラプラシアンフィルタ処理では、注目画素g(i、j)が表す濃度f(i、j)と、その周辺の画素である8個の周辺画素g(i−1、j−1)、g(i、j−1)、g(i+1、j−1)、g(i−1、j)、g(i+1、j)、g(i−1、j+1)、g(i、j+1)、g(i+1、j+1)がそれぞれ表す濃度f(i−1、j−1)、f(i、j−1)、f(i+1、j−1)、f(i−1、j)、f(i+1、j)、f(i−1、j+1)、f(i、j+1)、f(i+1、j+1)との差分を取る。このとき、空間フィルタ係数行列M(i、j)は数3により表される。
Figure 2009029171
エッジ検出部M104は、2次元空間フィルタ処理済画像データのm行n列の画素に対して、2値化処理を施して2値化処理済画像データを生成する(ステップS104)。
この2値化処理では、2次元空間フィルタ処理済画像データのm行n列の画素の各々に対して、算出濃度が設定濃度以下である場合は黒を表す2値数として“1”と“0”との一方の値を設定し、その算出濃度が設定濃度よりも大きい場合は白を表す2値数として“1”と“0”との他方の値を設定して、2値化処理済画像データを生成する。例えば、一方の値を“1”とし、他方の値を“0”とする。エッジ検出部M104は、2値化処理済画像データをノイズ検出用画像データとしてエッジ補正・ノイズ除去部M105に出力する。
エッジ補正・ノイズ除去部M105は、ノイズ検出用画像データのm行n列の画素に対して、エッジ補正・ノイズ除去処理を施して特徴点検出用画像データを生成する(ステップS105)。
このエッジ補正・ノイズ除去処理では、ノイズ検出用画像データのm行n列の画素の各々に対して注目画素の周辺の周辺画素が表す2値数“0”、“1”をそれぞれカウントし、カウントした“0”、“1”の数の比率と予め決められた配列条件とに基づいて、注目画素が表す2値数を置換する。この一連の処理を全画素に対して行う。
配列条件として、例えば、以下の3つが挙げられる。
(条件1); 注目画素が表す2値数が黒“1”であり、周辺画素のうちの4画素以上が白“0”を表す2値数である場合、注目画素が表す2値数を黒“1”から白“0”へ置換する。
(条件2); 注目画素が表す2値数が白“0”又は黒“1”であり、周辺画素のうちの1画素以上3画素以下が白“0”を表す2値数である場合、注目画素が表す2値数を既存の値とする。
(条件3); 注目画素が表す2値数が白“0”又は黒“1”であり、周辺画素の全てが黒“1”を表す2値数である場合、注目画素が表す2値数を黒“1”へ置換する。
上記の配列条件は一例であり、上述の他にも、任意に設定することができる。
ステップS102〜S105の処理により得られた特徴点検出用画像データは、ステップS101により得られたディジタル画像データに比べて、コントラストが強調され、ノイズ部分が削除されている。コントラストが強調されることにより、エッジが強調され、道路上の特徴点の抽出が容易となる。エッジ補正・ノイズ除去部M105は、特徴点検出用画像データを特徴点検出部M111に出力する。
特徴点検出部M111は、特徴点検出用画像データのm行n列の画素を行単位で走査して、そのm行n列の画素のうちの、2値数が黒“1”を表す画素を検出し、その黒“1”を表す画素を用いて、道路上の特徴点を検出する。その特徴点は、道路上に描かれた白線を表す白線特徴点と、道路の分岐を表す分岐特徴点と、道路が行き止まり又は障害物により遮断されていることを表す行き止まり障害物特徴点とを含んでいる。白線は、車線を表す白線の他に、追い越し禁止の車線を表す黄色い線や、法定速度、進路などの交通ルールを表す文字も含んでいる。例えば、白線の場合、図4Aに示されるように、特徴点検出用画像データのm行n列の画素のうちの、黒“1”を表す画素が白線を表している。
特徴点検出部M111は、特徴点検出用画像データのm行n列の画素を行単位で走査するとき、図4A、図4Bに示されるように、(n/2)列目から1列目までの画素をこの順に走査し、(n/2)列目からn列目までの画素をこの順に走査する。このとき、第1画素群が表す白“0”から、第2画素群が表す黒“1”に変わるときの第1画素群“0”と第2画素群“1”との境目をアップエッジと称する。同様に、第2画素群が表す黒“1”から、第3画素群が表す白“0”に変わるときの第2画素群“1”と第3画素群“0”との境目をダウンエッジと称する。
特徴点検出部M111の白線検出部M106、分岐検出部M107、行き止まり障害物検出部M108は、それぞれ、白線検出用固定テンプレート(図示しない)、分岐検出用固定テンプレート(図示しない)、行き止まり障害物検出用固定テンプレート(図示しない)を備えている。白線検出用固定テンプレート、分岐検出用固定テンプレート、行き止まり障害物検出用固定テンプレートは、それぞれ、白線検出部M106、分岐検出部M107、行き止まり障害物検出部M108が上記の白線特徴点、分岐特徴点、行き止まり障害物特徴点を検出するための設定白線特徴点、設定分岐特徴点、設定行き止まり障害物特徴点を表している。設定白線特徴点、設定分岐特徴点、設定行き止まり障害物特徴点は、アップエッジ、ダウンエッジのペアにより構成されている。
図5に示されるように、特徴点検出用画像データは、白線検出用走査領域A101、分岐検出用走査領域A102、行き止まり障害物検出用走査領域A103を含んでいる。特徴点検出用画像データのm行n列の画素に対応する地点と車両との距離は、1行目からm行目までこの順に短いものとする。また、1<m<m<mであるものとする。この場合、行き止まり障害物検出用走査領域A103、分岐検出用走査領域A102、白線検出用走査領域A101は、それぞれ、特定の走査領域として、特徴点検出用画像データのm行n列の画素のうちの、1行目からm行目までの画素、(m+1)行目からm行目までの画素、(m+1)行目からm行目までの画素に対応する。
白線検出部M106は、白線検出用走査領域A101として(m+1)行目からm行目までの画素を行単位で画像の中心位置から左方向に走査する。即ち、(n/2)列目から1列目までの左側画素をこの順に走査する。このとき、白線検出部M106は、(m+1)行目からm行目までの画素のうちの、2値数が黒“1”を表す画素を候補白線特徴点として検出し、白線検出用固定テンプレートを用いてパタンマッチングを行う。そのパタンマッチングにおいて、候補白線特徴点“1”が、白線検出用固定テンプレートが表す設定白線特徴点と一致した場合、白線検出部M106は、候補白線特徴点を左側白線特徴点として検出する(ステップS106)。
白線検出部M106は、白線検出用走査領域A101として(m+1)行目からm行目までの画素を行単位で画像の中心位置から右方向に走査する。即ち、(n/2)列目からn列目までの右側画素をこの順に走査する。このとき、白線検出部M106は、(m+1)行目からm行目までの画素のうちの、2値数が黒“1”を表す画素を候補白線特徴点として検出し、白線検出用固定テンプレートを用いてパタンマッチングを行う。そのパタンマッチングにおいて、候補白線特徴点“1”が、白線検出用固定テンプレートが表す設定白線特徴点と一致した場合、白線検出部M106は、候補白線特徴点を右側白線特徴点として検出する(ステップS107)。
白線検出部M106は、白線検出用走査領域A101の画素を行単位で走査して、白線特徴点を検出できなかった箇所に対して補間する補間処理を行う(ステップS112)。この補間処理では、白線検出部M106が白線検出用走査領域A101の画素を行単位で走査したとき、白線特徴点として、左側白線特徴点と右側白線特徴点との一方の白線特徴点が検出され、その他方の白線特徴点が検出されなかったものとする。この場合、他方の白線特徴点が検出されなかった左側画素又は右側画素の中から中心画素を補間白線特徴点として補間する。
例えば、白線検出部M106は、白線検出用走査領域A101の画素を行単位で走査して、右側白線特徴点が検出され、左側白線特徴点が検出されなかったものとする。この場合、左側白線特徴点が検出できなかった左側画素の中から、中心画素として、(n/2)列目の画素を補間白線特徴点として補間する。同様に、白線検出部M106は、白線検出用走査領域A101の画素を行単位で走査して、左側白線特徴点が検出され、右側白線特徴点が検出されなかったものとする。この場合、右側白線特徴点が検出できなかった右側画素の中から、中心画素として、(n/2)列目の画素を補間白線特徴点として補間する。
白線検出部M106は、白線検出用走査領域A101の画素を行単位で走査したときの白線特徴点(左側白線特徴点と右側白線特徴点)(左側白線特徴点と補間右側白線特徴点)(右側白線特徴点と補間左側白線特徴点)を走行位置算出部M109に送る。
走行位置算出部M109は、白線検出部M106により行単位で検出された白線特徴点(左側白線特徴点と右側白線特徴点)(左側白線特徴点と補間右側白線特徴点)(右側白線特徴点と補間左側白線特徴点)に基づいて、道路上の車両の位置を表す車両位置を、道路上の特徴点として推定する(ステップS113)。
具体的には、図6に示されるように、白線検出用走査領域A101である(m+1)行目からm行目までの画素を座標に置き換え、(m+1)行目1列目の画素を表す座標を(0、0)とし、m行目n列目の画素を表す座標を(Xmax、Ymax)とする。また、左側白線特徴点又は補間左側白線特徴点に対応する画素を表す座標をline_Lとし、右側白線特徴点又は補間右側白線特徴点に対応する画素を表す座標をline_Rとする。1ラインにおける現在の車両位置をcenter_posとしたとき、走行位置算出部M109は、
center_pos=line_L+{(line_R−line_L)/2}
により、1ラインにおける現在の車両位置center_posを算出する。
次に、(m+1)行目〜m行目と(n/2)列目の画素を表す座標(0、Xmax/2)〜(Ymax、Xmax/2)を1ラインにおける画像の中心位置とし、その中心位置をCENTERとし、車両位置center_posに対する中心位置CENTERからのずれ量をline_deltaとしたとき、走行位置算出部M109は、
line_delta=CENTER−center_pos
により、1ラインにおける画像の中心位置CENTERからのずれ量line_deltaを算出する。これを白線検出用走査領域A101の(m+1)〜m行目の画素に対して行う。
次いで、走行位置算出部M109は、(m+1)〜m行目の全てのラインに対して求めた中心位置CENTERからのずれ量line_deltaの平均値を算出し、その平均値に基づいて、現在の車両位置を求める(ステップS114)。
具体的には、(m+1)〜m行目の全てのラインに対する中心位置CENTERからのずれ量line_deltaの合計値をΣline_deltaとし、そのずれ量line_deltaの平均値をframe_deltaとしたとき、走行位置算出部M109は、
frame_delta=(Σline_delta)/Ymax
により、平均値frame_deltaを算出する。また、現在の車両走行位置をCurrent_CENTERとしたとき、走行位置算出部M109は、
Current_CENTER=CENTER−frame_delta
により、現在の車両走行位置Current_CENTERを算出する。ここで、Current_CENTER>0である場合、画像の中央位置より右寄りを表し、Current_CENTER<0である場合、画像の中央位置より左寄りを表している。
また、ステップS114において、走行位置算出部M109は、現在の車両位置を走行位置情報として自動操縦システムM200に出力する。又は、現在の車両位置と白線特徴点(右側白線特徴点、左側白線特徴点)とを走行位置情報として自動操縦システムM200に出力してもよい。
分岐検出部M107は、分岐検出用走査領域A102として(m+1)行目からm行目までの画素を行単位で画像の中心位置から左方向に走査する。即ち、(n/2)列目から1列目までの画素をこの順に走査する。このとき、分岐検出部M107は、(m+1)行目からm行目までの画素のうちの、2値数が黒“1”を表す画素を候補分岐特徴点として検出し、分岐検出用固定テンプレートを用いてパタンマッチングを行う。そのパタンマッチングにおいて、候補分岐特徴点“1”が、分岐検出用固定テンプレートが表す設定分岐特徴点と一致した場合、分岐検出部M107は、候補分岐特徴点を左側分岐特徴点として検出する(ステップS108)。
分岐検出部M107は、分岐検出用走査領域A102として(m+1)行目からm行目までの画素を行単位で画像の中心位置から右方向に走査する。即ち、(n/2)列目からn列目までの画素をこの順に走査する。このとき、分岐検出部M107は、(m+1)行目からm行目までの画素のうちの、2値数が黒“1”を表す画素を候補分岐特徴点として検出し、分岐検出用固定テンプレートを用いてパタンマッチングを行う。そのパタンマッチングにおいて、候補分岐特徴点“1”が、分岐検出用固定テンプレートが表す設定分岐特徴点と一致した場合、分岐検出部M107は、候補分岐特徴点を右側分岐特徴点として検出する(ステップS109)。
分岐検出部M107は、得られた分岐特徴点(右側分岐特徴点と左側分岐特徴点)が、画像の中心位置より右に存在するか、左に存在するか、左右どちらにも存在するか、あるいは左右どちらにも存在しないかを表す分岐情報を生成して、自動操縦システムM200に出力する(ステップS115)。
行き止まり障害物検出部M108は、行き止まり障害物検出用走査領域A103として1行目からm行目までの画素を行単位で画像の中心位置から左方向に走査する。即ち、(n/2)列目から1列目までの画素をこの順に走査する。このとき、行き止まり障害物検出部M108は、1行目からm行目までの画素のうちの、2値数が黒“1”を表す画素を候補行き止まり障害物特徴点として検出し、行き止まり障害物検出用固定テンプレートを用いてパタンマッチングを行う。そのパタンマッチングにおいて、候補行き止まり障害物特徴点“1”が、行き止まり障害物検出用固定テンプレートが表す設定行き止まり障害物特徴点と一致した場合、行き止まり障害物検出部M108は、候補行き止まり障害物特徴点を左側行き止まり障害物特徴点として検出する(ステップS110)。
行き止まり障害物検出部M108は、行き止まり障害物検出用走査領域A103として1行目からm行目までの画素を行単位で画像の中心位置から右方向に走査する。即ち、(n/2)列目からn列目までの画素をこの順に走査する。このとき、行き止まり障害物検出部M108は、1行目からm行目までの画素のうちの、2値数が黒“1”を表す画素を候補行き止まり障害物特徴点として検出し、行き止まり障害物検出用固定テンプレートを用いてパタンマッチングを行う。そのパタンマッチングにおいて、候補行き止まり障害物特徴点“1”が、行き止まり障害物検出用固定テンプレートが表す設定行き止まり障害物特徴点と一致した場合、行き止まり障害物検出部M108は、候補行き止まり障害物特徴点を右側行き止まり障害物特徴点として検出する(ステップS111)。
行き止まり障害物検出部M108は、得られた行き止まり障害物特徴点(右側行き止まり障害物特徴点と左側行き止まり障害物特徴点)が、画像の中心位置より右に存在するか、左に存在するか、左右どちらにも存在するか、あるいは左右どちらにも存在しないかを表す行き止まり/障害物情報を生成して、自動操縦システムM200に出力する(ステップS116)。
[対比]
ここで、本発明の車両用画像処理装置M100と、従来の車両用画像処理装置(白線認識装置、車両用障害物検出装置)とを対比する。
(対比1)
本発明の車両用画像処理装置M100では、検出用画像データ(特徴点検出用画像データ)に対して道路の特徴点(白線、分岐、行き止まりや障害物)毎に専用の走査領域を設けているので、走査を行うときの処理数が従来よりも削減できる。
従来の車両用画像処理装置(特に白線認識装置)では、白線、分岐、行き止まりや障害物を検出する処理として、それらを検出するための固定テンプレートを用意し、画像の全領域を走査している。この場合、全領域を走査するため、画像のフレームサイズに応じて、走査を行うときの処理数が多くなってしまうという問題点がある。
一方、本発明の車両用画像処理装置M100では、検出用画像データを特定の走査領域として白線検出用走査領域A101、分岐検出用走査領域A102、行き止まり障害物検出用走査領域A103に分け、白線検出部M106、分岐検出部M107、行き止まり障害物検出部M108がそれぞれ白線検出用走査領域A101、分岐検出用走査領域A102、行き止まり障害物検出用走査領域A103の画素を行単位で走査する。このように、本発明の車両用画像処理装置M100では、検出用画像データを白線検出用走査領域A101、分岐検出用走査領域A102、行き止まり障害物検出用走査領域A103に分けることにより、走査を行うときの処理数が従来よりも削減できる。
また、検出用画像データのm行n列の画素に対応する地点と車両との距離は、1行目からm行目までこの順に短く、1<m<m<mであるものとする。この場合、行き止まり障害物検出用走査領域A103、分岐検出用走査領域A102、白線検出用走査領域A101は、それぞれ、検出用画像データのm行n列の画素のうちの、1行目からm行目までの画素、(m+1)行目からm行目までの画素、(m+1)行目からm行目までの画素に対応する。これにより、以下に示す利点がある。
まず、第1に、撮像される画像の特徴(手前が大きく遠くは小さい遠近法)を利用し、検出内容による走査領域を特定することで、走査領域においてノイズの影響を受けにくく、道路上の特徴点を得る際の誤検出が少なくすることができる。
第2に、白線検出用走査領域A101を最も手前(画像領域の下側)で設定することで、車両が大きく外れるケースやカーブ走行時にも、白線が一部分だけでも撮像されるため、走行位置を算出するための処理が容易となる。
第3に、行き止まり障害物検出用走査領域A103が撮像される画像の特徴から、遠くの部分を走査するため、行き止まりや障害物の有無を分岐の有無よりも早い時刻で検出できる。そのため、例えば自動操縦システムM200が車両を走行させるときの走行制御、操舵制御等の処理判断が容易となる。
このように、本発明の車両用画像処理装置M100では、走査領域の位置と順番により、ノイズの影響を受けにくく、誤検出が少ないながら、処理数を削減できる。例えば、走査領域を画像全体の1/3とした際は処理数も1/3となる。
(対比2)
本発明の車両用画像処理装置M100では、白線特徴点が検出できなかった左側画素又は右側画素に対し、中心画素を補間白線特徴点として補間することにより、実際に車両が存在する位置に対して、現在推定される車両の走行位置を従来よりも近づけることができる。
従来の車両用画像処理装置では、車両が走行しているときに、車両の左側には右上がりの白線が撮像され、車両の右側には左上がりの白線が撮像される。このとき、左右のペアエッジを用いて固定テンプレートにより算出された2つの白線の位置を基に、画像中心からのずれ量を求めることにより、現在の車両の位置を割り出している。ところが、車両が大きく道を外れるようなケースや、車両がカーブしながら走行しているときには、画像の中心から左右どちらか片方の白線のみしか撮影されなくなるため、固定テンプレートによる左右のペアエッジは検出されず、車両の位置が計算できないという問題点がある。
ここで、従来の車両用画像処理装置(特に白線認識装置)では、アップエッジとダウンエッジとよりなるペアエッジを検出した位置を仮白線位置と定義している。しかし、更に左右へペアエッジを走査するなどの補間回路を設けない限り、白線の位置を得ることはできず、走行不能となってしまう。また、補間回路を設けると、回路規模は増大するという問題がある。
一方、本発明の車両用画像処理装置M100では、白線検出用走査領域A101の画素を行単位で走査したとき、白線特徴点として、左側白線特徴点と右側白線特徴点との一方の白線特徴点が検出され、その他方の白線特徴点が検出されなかったものとする。この場合、他方の白線特徴点が検出できなかった左側画素{(n/2)列目から1列目までの画素}又は右側画素{(n/2)列目からn列目までの画素}の中から中心画素を補間白線特徴点として補間し、一方の白線特徴点と前記補間白線特徴点とに基づいて、道路上の車両の位置を推定する。このように、本発明の車両用画像処理装置M100では、白線特徴点が検出できなかった左側画素又は右側画素に対し、中心画素を補間白線特徴点として補間することにより、実際に車両が存在する位置に対して、現在推定される車両の走行位置を従来よりも近づけることができる。これにより、以下に示す利点がある。
まず、第1に、図7Aに示されるように、エッジが欠けた画像に対して、ずれが少なくなる。
第2に、図7B、図7Cに示されるように、カーブ走行時や、道から大きくずれた場合やカーブ走行時にも、補間したエッジを用いて算出した車両の走行位置を実際に走行することで、より走行したい方向に近い位置での走行が可能になる。例えば、図7Bのカーブでの画像や図7Cの走行路から外れた画像のように、車両が道路に対して右側の領域に位置しており、左にハンドルを切らねばならない場合であっても、従来の車両用画像処理装置では左側の領域に位置していると判断される。しかし、本発明の車両用画像処理装置M100では、本来の車両の位置からは多少のずれはあるものの、車両が道路に対して右側の領域に位置しているとの判断ができる。
このように、本発明の車両用画像処理装置M100では、ノイズや、走行位置のずれ、カメラの設置方向のずれにも許容範囲が広くなり、従来のような固定テンプレートを用いたエッジ検出方法に変更及び例外処理用の付加回路や付加処理を必要とせずに、車両の走行位置の算出が可能となる。
(対比3)
本発明の車両用画像処理装置M100では、エッジ検出用のフィルタ処理を実現する回路の数が従来よりも減るので、回路規模が従来よりも削減できる。
従来の車両用画像処理装置(特に車両用障害物検出装置)では、水平エッジ検出用フィルタ処理と鉛直エッジ検出用フィルタ処理との2種類の1次元空間フィルタ処理を実行している。従って、従来の車両用画像処理装置では、2種類の1次元空間フィルタ処理を実現するための回路が必要となり、回路規模が増大するという問題点がある。
一方、本発明の車両用画像処理装置M100では、上記のフィルタ処理を2次元空間フィルタ処理のみで実現することができ、その2次元空間フィルタ処理を実現する回路のみで可能となるので、回路規模が従来よりも削減できる。
また、本発明では、注目画素と周辺8画素とが表す濃度のみで上記の2次元空間フィルタ処理が可能である。そこで、2次元空間フィルタ処理を実現するためには、3つのラインバッファを用意すればよく、従来よりも1/2のサイズで実現することができる。例えば、従来の車両用画像処理装置に必要なラインバッファの数を6個とした場合、本発明の車両用画像処理装置M100に必要なラインバッファの数を3個でよい。ここで、1つのラインバッファは、1frameにおける画像サイズ(横幅)に応じて必要なフリップフロップ数が増加するため、1frame あたり1000*1000[pixcel]の画像サイズの場合、3000個のフリップフロップ数の削減となる。
また、空間フィルタ処理回路の数を減らしているということは、画像処理の精度が落ちることが懸念されるが、本発明の車両用画像処理装置M100によるエッジの補正とノイズ除去を同時に実施可能な処理を取り入れることにより、従来の車両用画像処理装置と同様に道路上の特徴点を誤動作なく検出できるよう、エッジの欠けや、ドットノイズのない精度の高い画像を得ることが可能となる。
更に、従来の車両用画像処理装置(特に車両用障害物検出装置)では、水平エッジ検出用フィルタ処理と鉛直エッジ検出用フィルタ処理との2種類の1次元空間フィルタ処理を実行した後に、その実行結果に基づいて斜線エッジ検出処理(障害物判断手段109)により斜線を検出している。従って、従来の車両用画像処理装置では、2種類の1次元空間フィルタ処理と斜線検出処理とを実現するための回路が必要となり、回路規模が増大するという問題点がある。
一方、本発明の車両用画像処理装置M100では、上記の斜線エッジ検出処理が不要となるため、処理数、回路規模を削減できる。
[効果]
以上の説明により、本発明の車両用画像処理装置M100によれば、検出用画像データ(特徴点検出用画像データ)に対して道路の特徴点(白線、分岐、行き止まりや障害物)毎に専用の走査領域を設けているので、走査を行うときの処理数が従来よりも削減できる。
本発明の車両用画像処理装置M100では、白線特徴点が検出できなかった左側画素又は右側画素に対し、中心画素を補間白線特徴点として補間することにより、実際に車両が存在する位置に対して、現在推定される車両の走行位置を従来よりも近づけることができる。
本発明の車両用画像処理装置M100によれば、エッジ検出用のフィルタ処理を実現する回路の数が従来よりも減るので、回路規模が従来よりも削減できる。
図1は、本発明の車両用画像処理装置の構成を示している。 図2Aは、本発明の車両用画像処理装置の動作を示すフローチャートである。 図2Bは、本発明の車両用画像処理装置の動作を示すフローチャートである。 図2Cは、本発明の車両用画像処理装置の動作を示すフローチャートである。 図2Dは、本発明の車両用画像処理装置の動作を示すフローチャートである。 図3Aは、本発明の車両用画像処理装置の動作として、2次元空間フィルタ処理(平滑化フィルタ処理)を説明するための図である。 図3Bは、本発明の車両用画像処理装置の動作として、2次元空間フィルタ処理(プラシアンフィルタ処理)を説明するための図である。 図4Aは、本発明の車両用画像処理装置の動作として、白線特徴点の検出について説明するための図である。 図4Bは、本発明の車両用画像処理装置の動作として、白線特徴点の検出について説明するための図である。 図5は、本発明の車両用画像処理装置の動作を説明するための図であり、特徴点検出用画像データの白線検出用走査領域A101、分岐検出用走査領域A102、行き止まり障害物検出用走査領域A103を示している。 図6は、本発明の車両用画像処理装置の動作として、現在の車両位置の算出について説明するための図である。 図7Aは、本発明の車両用画像処理装置の動作であるステップS112が実行されたときの効果について説明するための図である。 図7Bは、本発明の車両用画像処理装置の動作であるステップS112が実行されたときの効果について説明するための図である。 図7Cは、本発明の車両用画像処理装置の動作であるステップS112が実行されたときの効果について説明するための図である。
符号の説明
M100 車両用画像処理装置、
M101 撮像装置、
M102 A/Dコンバータ、
M103 メモリ、
M104 エッジ検出部、
M105 エッジ補正・ノイズ除去部、
M106 白線検出部、
M107 分岐検出部、
M108 行き止まり障害物検出部、
M109 走行位置推定部、
M110 画像処理装置、
M111 特徴点検出部、
M200 自動操縦システム、
A101 白線検出用走査領域、
A102 分岐検出用走査領域、
A103 行き止まり障害物検出用走査領域、

Claims (11)

  1. 道路上の車両の前方を撮影し、前記車両の前方を表すm行n列(m、nは3以上の整数である)の画素を含む画像データを生成する撮像装置と、
    前記画像データに対して、前記道路上の特徴点を検出するための検出用画像データを生成するエッジ検出部と、
    前記検出用画像データに基づいて前記特徴点を検出し、出力装置に出力する特徴点検出部と
    を具備し、
    前記特徴点は、前記道路上に描かれた白線を表す白線特徴点と、前記道路の分岐を表す分岐特徴点と、前記道路が行き止まり又は障害物により遮断されていることを表す行き止まり障害物特徴点とを含み、
    前記検出用画像データは、前記白線特徴点を検出するための白線検出用走査領域と、前記分岐特徴点を検出するための分岐検出用走査領域と、前記行き止まり障害物特徴点を検出するための行き止まり障害物検出用走査領域とを含み、
    前記検出用画像データのm行n列の画素に対応する地点と前記車両との距離は、1行目からm行目までこの順に短く、
    1<m<m<mである場合、前記行き止まり障害物検出用走査領域、前記分岐検出用走査領域、前記白線検出用走査領域は、それぞれ、前記検出用画像データのm行n列の画素のうちの、1行目からm行目までの画素、(m+1)行目からm行目までの画素、(m+1)行目からm行目までの画素に対応する
    車両用画像処理装置。
  2. 前記特徴点検出部は、
    前記白線検出用走査領域の画素を行単位で走査して、前記白線特徴点を検出する白線検出部と、
    前記分岐検出用走査領域の画素を行単位で走査して、前記分岐特徴点を検出する分岐検出部と、
    前記行き止まり障害物検出用走査領域の画素を行単位で走査して、前記行き止まり障害物特徴点を検出する行き止まり障害物検出部と
    を具備する
    車両用画像処理装置。
  3. 前記白線検出部は、前記白線検出用走査領域の画素を行単位で走査し、前記白線特徴点として、(n/2)列目から1列目までの左側画素を走査したときの左側白線特徴点と、(n/2)列目からn列目までの右側画素を走査したときの右側白線特徴点とを検出し、
    前記特徴点検出部は、
    前記白線検出部により行単位で検出された前記左側白線特徴点と前記右側白線特徴点とに基づいて、前記道路上の前記車両の位置を推定し、前記出力装置に出力する走行位置推定部
    を更に具備する請求項2に記載の車両用画像処理装置。
  4. 前記白線検出部は、
    前記白線検出用走査領域の画素を行単位で走査して、前記白線特徴点として、前記左側白線特徴点と前記右側白線特徴点との一方の白線特徴点が検出され、その他方の白線特徴点が検出されない場合、前記他方の白線特徴点が検出できなかった前記左側画素又は前記右側画素の中から中心画素を補間白線特徴点として補間し、
    前記走行位置推定部は、
    前記白線検出部により行単位で検出された前記一方の白線特徴点と前記補間白線特徴点とに基づいて、前記道路上の前記車両の位置を推定し、前記出力装置に出力する
    請求項3に記載の車両用画像処理装置。
  5. 前記エッジ検出部は、
    前記画像データのm行n列の画素の各々に対して、注目画素とその周辺の周辺画素とが表す色の濃度の平均値として濃度平均値を求め、前記濃度平均値に基づいて前記注目画素の新規の濃度として算出濃度を算出して、2次元空間フィルタ処理済画像データを生成する2次元空間フィルタ処理を施し、
    前記2次元空間フィルタ処理済画像データのm行n列の画素の各々に対して、前記算出濃度が設定濃度以下である場合は2値数として1と0との一方の値を設定し、前記算出濃度が前記設定濃度よりも大きい場合は2値数として1と0との他方の値を設定して、前記検出用画像データを生成する2値化処理を施す
    請求項1〜4のいずれかに記載の車両用画像処理装置。
  6. 前記エッジ検出部は、
    前記2次元空間フィルタ処理として平滑化フィルタ処理とラプラシアンフィルタ処理とを実行する
    請求項5に記載の車両用画像処理装置。
  7. 前記白線検出部は、前記白線検出用走査領域の画素を行単位で走査して、前記一方の値を表す画素を候補白線特徴点として検出し、前記候補白線特徴点が設定白線特徴点と一致した場合、前記候補白線特徴点を前記白線特徴点として検出し、
    前記分岐検出部は、前記分岐検出用走査領域の画素を行単位で走査して、前記一方の値を表す画素を候補分岐特徴点として検出し、前記候補分岐特徴点が設定分岐特徴点と一致した場合、前記候補分岐特徴点を前記分岐特徴点として検出し、
    前記行き止まり障害物検出部は、前記行き止まり障害物検出用走査領域の画素を行単位で走査して、前記一方の値を表す画素を候補行き止まり障害物特徴点として検出し、前記候補行き止まり障害物特徴点が設定行き止まり障害物特徴点と一致した場合、前記候補行き止まり障害物特徴点を前記行き止まり障害物特徴点として検出する
    請求項5又は6に記載の車両用画像処理装置。
  8. 前記検出用画像データのm行n列の画素の各々に対して前記注目画素の周辺の前記周辺画素が表す2値数0、1をそれぞれカウントし、カウントした0、1の数の比率と予め決められた配列条件とに基づいて、前記注目画素が表す2値数を置換するエッジ補正・ノイズ除去処理を施して特徴点検出用画像データを生成し、前記特徴点検出用画像データを前記検出用画像データとして前記特徴点検出部に出力するエッジ補正・ノイズ除去部
    を更に具備する請求項5〜7のいずれかに記載の車両用画像処理装置。
  9. メモリと、
    前記撮像装置により生成された前記画像データに対してアナログ/ディジタル(A/D)変換を施し、前記メモリに格納するA/Dコンバータと
    を更に具備し、
    前記エッジ検出部は、
    前記メモリに格納された前記画像データに対して前記検出用画像データを生成する
    請求項1〜8のいずれかに記載の車両用画像処理装置。
  10. 前記出力装置は、前記車両の自動操縦を行う自動操縦システムである
    請求項1〜9のいずれかに記載の車両用画像処理装置。
  11. 道路上の車両の前方を表すm行n列(m、nは3以上の整数である)の画素を含む画像データに対して、前記道路上の特徴点を検出するための検出用画像データを生成するエッジ検出部と、
    前記検出用画像データに基づいて前記特徴点を検出し、出力装置に出力する特徴点検出部と
    を具備し、
    前記特徴点は、前記道路上に描かれた白線を表す白線特徴点と、前記道路の分岐を表す分岐特徴点と、前記道路が行き止まり又は障害物により遮断されていることを表す行き止まり障害物特徴点とを含み、
    前記検出用画像データは、前記白線特徴点を検出するための白線検出用走査領域と、前記分岐特徴点を検出するための分岐検出用走査領域と、前記行き止まり障害物特徴点を検出するための行き止まり障害物検出用走査領域とを含み、
    前記検出用画像データのm行n列の画素に対応する地点と前記車両との距離は、1行目からm行目までこの順に短く、
    1<m<m<mである場合、前記行き止まり障害物検出用走査領域、前記分岐検出用走査領域、前記白線検出用走査領域は、それぞれ、前記検出用画像データのm行n列の画素のうちの、1行目からm行目までの画素、(m+1)行目からm行目までの画素、(m+1)行目からm行目までの画素に対応する
    画像処理装置。
JP2007192277A 2007-07-24 2007-07-24 車両用画像処理装置 Active JP4937030B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007192277A JP4937030B2 (ja) 2007-07-24 2007-07-24 車両用画像処理装置
US12/219,432 US8116523B2 (en) 2007-07-24 2008-07-22 On-vehicle image processing apparatus
DE102008034304.8A DE102008034304B4 (de) 2007-07-24 2008-07-23 Bildverarbeitungsgerät

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007192277A JP4937030B2 (ja) 2007-07-24 2007-07-24 車両用画像処理装置

Publications (2)

Publication Number Publication Date
JP2009029171A true JP2009029171A (ja) 2009-02-12
JP4937030B2 JP4937030B2 (ja) 2012-05-23

Family

ID=40295386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007192277A Active JP4937030B2 (ja) 2007-07-24 2007-07-24 車両用画像処理装置

Country Status (3)

Country Link
US (1) US8116523B2 (ja)
JP (1) JP4937030B2 (ja)
DE (1) DE102008034304B4 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015210618A (ja) * 2014-04-25 2015-11-24 本田技研工業株式会社 車線認識装置
CN109389026A (zh) * 2017-08-09 2019-02-26 三星电子株式会社 车道检测方法和设备

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8699754B2 (en) * 2008-04-24 2014-04-15 GM Global Technology Operations LLC Clear path detection through road modeling
JP4780534B2 (ja) * 2009-01-23 2011-09-28 トヨタ自動車株式会社 道路区画線検出装置
DE102009003697A1 (de) * 2009-03-30 2010-10-07 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Fahrspurerkennung
JP5461065B2 (ja) * 2009-05-21 2014-04-02 クラリオン株式会社 現在位置特定装置とその現在位置特定方法
JP5365440B2 (ja) * 2009-09-15 2013-12-11 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
KR101219730B1 (ko) * 2010-10-29 2013-01-08 재단법인대구경북과학기술원 카메라를 이용한 운전 부주의 경보 방법 및 장치
TWI452540B (zh) * 2010-12-09 2014-09-11 Ind Tech Res Inst 影像式之交通參數偵測系統與方法及電腦程式產品
KR20120127830A (ko) * 2011-05-16 2012-11-26 삼성전자주식회사 차량용 단말을 위한 사용자 인터페이스 방법 및 장치
WO2012169029A1 (ja) * 2011-06-08 2012-12-13 トヨタ自動車株式会社 車線逸脱防止支援装置、区分線表示方法、プログラム
US10678259B1 (en) * 2012-09-13 2020-06-09 Waymo Llc Use of a reference image to detect a road obstacle
JP6328369B2 (ja) * 2012-11-27 2018-05-23 クラリオン株式会社 車載用制御装置
KR20150042417A (ko) * 2013-10-11 2015-04-21 주식회사 만도 촬영부를 이용한 차선검출방법 및 차선검출시스템
US9205835B2 (en) * 2014-01-30 2015-12-08 Mobileye Vision Technologies Ltd. Systems and methods for detecting low-height objects in a roadway
EP2918974B1 (en) * 2014-03-11 2019-01-16 Volvo Car Corporation Method and system for determining a position of a vehicle
FR3019359B1 (fr) 2014-03-31 2017-10-06 Continental Automotive France Procede de determination d'un etat d'obstruction d'au moins une camera embarquee dans un systeme stereoscopique
CN104504382B (zh) * 2015-01-13 2018-01-19 东华大学 一种基于图像处理技术的火焰识别算法
EP3098753A1 (en) * 2015-05-28 2016-11-30 Tata Consultancy Services Limited Lane detection
US9478137B1 (en) * 2015-06-17 2016-10-25 Ford Global Technologies, Llc Detecting and communicating lane splitting maneuver
US10181266B2 (en) * 2015-09-11 2019-01-15 Sony Corporation System and method to provide driving assistance
JP6466811B2 (ja) * 2015-09-30 2019-02-06 株式会社Soken 走行区画線認識装置
CN105426864B (zh) * 2015-12-04 2018-09-04 华中科技大学 一种基于等距边缘点匹配的多车道线检测方法
CN105740805B (zh) * 2016-01-27 2019-06-07 大连楼兰科技股份有限公司 一种基于多区域联合车道线检测方法
US10962982B2 (en) * 2016-07-21 2021-03-30 Mobileye Vision Technologies Ltd. Crowdsourcing the collection of road surface information
US10860021B2 (en) * 2017-12-15 2020-12-08 Wipro Limited Method and system for guiding an autonomous vehicle in a forward path in real-time
CN109034047B (zh) * 2018-07-20 2021-01-22 京东方科技集团股份有限公司 一种车道线检测方法及装置
TWI705011B (zh) * 2019-03-12 2020-09-21 緯創資通股份有限公司 車載鏡頭偏移檢測方法與車載鏡頭偏移檢測系統
DE102020120405A1 (de) 2020-08-03 2022-02-03 Valeo Schalter Und Sensoren Gmbh Klassifizieren einer Straßenmarkierung
US11315429B1 (en) * 2020-10-27 2022-04-26 Lear Corporation System and method for providing an alert to a driver of a host vehicle
JP2022123238A (ja) * 2021-02-12 2022-08-24 本田技研工業株式会社 区画線認識装置
CN114143517A (zh) * 2021-10-26 2022-03-04 深圳华侨城卡乐技术有限公司 一种基于重叠区域的融合蒙板计算方法、系统及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000062636A (ja) * 1998-08-18 2000-02-29 Mitsubishi Motors Corp 運転支援装置
JP2003081037A (ja) * 2001-09-14 2003-03-19 Toshiba Corp 交通事故防止装置
JP2005004370A (ja) * 2003-06-10 2005-01-06 Nissan Motor Co Ltd 車載情報提供装置
JP2006344133A (ja) * 2005-06-10 2006-12-21 Toyota Motor Corp 道路区画線検出装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0361914B1 (en) 1988-09-28 1995-12-13 Honda Giken Kogyo Kabushiki Kaisha A driving way judging device and method
US4970653A (en) * 1989-04-06 1990-11-13 General Motors Corporation Vision method of detecting lane boundaries and obstacles
JP2712809B2 (ja) 1990-10-15 1998-02-16 日産自動車株式会社 車両用障害物検出装置
US5309137A (en) * 1991-02-26 1994-05-03 Mitsubishi Denki Kabushiki Kaisha Motor car traveling control device
US5448484A (en) * 1992-11-03 1995-09-05 Bullock; Darcy M. Neural network-based vehicle detection system and method
JPH06213660A (ja) 1993-01-19 1994-08-05 Aisin Seiki Co Ltd 像の近似直線の検出方法
JP3374570B2 (ja) * 1995-01-31 2003-02-04 いすゞ自動車株式会社 車線逸脱警報装置
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
JP2887039B2 (ja) * 1993-03-26 1999-04-26 三菱電機株式会社 車両周辺監視装置
JP3169483B2 (ja) * 1993-06-25 2001-05-28 富士通株式会社 道路環境認識装置
JP3059035B2 (ja) * 1993-12-14 2000-07-04 三菱電機株式会社 距離測定装置
JP3205477B2 (ja) * 1994-02-17 2001-09-04 富士フイルムマイクロデバイス株式会社 車間距離検出装置
JP3246243B2 (ja) * 1994-12-26 2002-01-15 いすゞ自動車株式会社 車線逸脱警報装置
JPH0995194A (ja) * 1995-09-29 1997-04-08 Aisin Seiki Co Ltd 車両前方の物体検出装置
JPH1153694A (ja) * 1997-07-31 1999-02-26 Toyota Motor Corp 交差点警報装置
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
JP3575346B2 (ja) 1999-09-03 2004-10-13 日本電気株式会社 道路白線検出システム、道路白線検出方法および道路白線検出用プログラムを記録した記録媒体
JP3671825B2 (ja) * 2000-09-22 2005-07-13 日産自動車株式会社 車間距離推定装置
JP3645177B2 (ja) * 2000-11-29 2005-05-11 三菱電機株式会社 車両周辺監視装置
KR20020053346A (ko) 2000-12-27 2002-07-05 이계안 차선 모델링 시스템의 곡선로 인식방법
KR100435650B1 (ko) * 2001-05-25 2004-06-30 현대자동차주식회사 카메라가 장착된 차량의 도로정보 추출 및 차간거리 탐지방법
JP4016735B2 (ja) * 2001-11-30 2007-12-05 株式会社日立製作所 レーンマーク認識方法
JP3930366B2 (ja) 2002-04-18 2007-06-13 株式会社デンソー 白線認識装置
JP4037722B2 (ja) * 2002-09-18 2008-01-23 富士重工業株式会社 車外監視装置、及び、この車外監視装置を備えた走行制御装置
JP3868876B2 (ja) * 2002-09-25 2007-01-17 株式会社東芝 障害物検出装置及び方法
JP3982503B2 (ja) * 2004-01-21 2007-09-26 日産自動車株式会社 車両用走行制御装置
JP2005215985A (ja) 2004-01-29 2005-08-11 Fujitsu Ltd 走行車線判定プログラムおよびその記録媒体、走行車線判定装置ならびに走行車線判定方法
JP2006268097A (ja) * 2005-03-22 2006-10-05 Nissan Motor Co Ltd 車載物体検出装置、および物体検出方法
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
JP4791262B2 (ja) * 2006-06-14 2011-10-12 本田技研工業株式会社 運転支援装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000062636A (ja) * 1998-08-18 2000-02-29 Mitsubishi Motors Corp 運転支援装置
JP2003081037A (ja) * 2001-09-14 2003-03-19 Toshiba Corp 交通事故防止装置
JP2005004370A (ja) * 2003-06-10 2005-01-06 Nissan Motor Co Ltd 車載情報提供装置
JP2006344133A (ja) * 2005-06-10 2006-12-21 Toyota Motor Corp 道路区画線検出装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015210618A (ja) * 2014-04-25 2015-11-24 本田技研工業株式会社 車線認識装置
CN109389026A (zh) * 2017-08-09 2019-02-26 三星电子株式会社 车道检测方法和设备
CN109389026B (zh) * 2017-08-09 2023-10-17 三星电子株式会社 车道检测方法和设备

Also Published As

Publication number Publication date
US20090028388A1 (en) 2009-01-29
DE102008034304B4 (de) 2023-08-10
DE102008034304A1 (de) 2009-04-16
US8116523B2 (en) 2012-02-14
JP4937030B2 (ja) 2012-05-23

Similar Documents

Publication Publication Date Title
JP4937030B2 (ja) 車両用画像処理装置
JP5083658B2 (ja) 車両用車線認識装置、車両、及び車両用車線認識プログラム
JP5693994B2 (ja) 車両検出装置
CN107273788B (zh) 在车辆中执行车道检测的成像系统与车辆成像系统
JP5402828B2 (ja) 車線境界検出装置、車線境界検出プログラム
JP4780534B2 (ja) 道路区画線検出装置
EP2642364B1 (en) Method for warning the driver of a motor vehicle about the presence of an object in the surroundings of the motor vehicle, camera system and motor vehicle
JP2006018751A (ja) 車両用画像処理装置
JPH11203445A (ja) 車両用画像処理装置
JP6377970B2 (ja) 視差画像生成装置及び視差画像生成方法
JP5937832B2 (ja) 車載カメラ用露出制御装置
JP6086424B2 (ja) 車載画像処理装置
JP2016133838A (ja) 複合線判定装置及び複合線判定方法
JP5073700B2 (ja) 物体検出装置
JP2012252501A (ja) 走行路認識装置及び走行路認識用プログラム
JP2007264717A (ja) 車線逸脱判定装置、車線逸脱防止装置および車線追従支援装置
JP4532372B2 (ja) 道路区画線検出装置
JP6981850B2 (ja) 運転支援システム
JP6674959B2 (ja) 視差算出装置、ステレオカメラ装置、車両および視差算出方法
JP5493705B2 (ja) 車両位置検出装置、車両位置検出方法、及び車両位置検出プログラム
JP2007141167A (ja) 車線検出装置、車線検出方法、及び車線検出プログラム
JP2015011665A (ja) 走行路面標示検知装置および走行路面標示検知方法
JP5891751B2 (ja) 画像間差分装置および画像間差分方法
JP2022148338A (ja) 車線境界検出装置、車線境界検出方法及び車線境界検出用コンピュータプログラム
JP3331095B2 (ja) 車載用画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120210

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120221

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4937030

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250