JP6085212B2 - 運転支援装置 - Google Patents

運転支援装置 Download PDF

Info

Publication number
JP6085212B2
JP6085212B2 JP2013070605A JP2013070605A JP6085212B2 JP 6085212 B2 JP6085212 B2 JP 6085212B2 JP 2013070605 A JP2013070605 A JP 2013070605A JP 2013070605 A JP2013070605 A JP 2013070605A JP 6085212 B2 JP6085212 B2 JP 6085212B2
Authority
JP
Japan
Prior art keywords
image
lane marking
imaging
unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013070605A
Other languages
English (en)
Other versions
JP2014195170A (ja
Inventor
洋介 坂本
洋介 坂本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2013070605A priority Critical patent/JP6085212B2/ja
Publication of JP2014195170A publication Critical patent/JP2014195170A/ja
Application granted granted Critical
Publication of JP6085212B2 publication Critical patent/JP6085212B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

この発明は、運転支援装置に関するものである。
従来、自動車等の車両用の運転支援装置として、例えば車両に搭載された複数のカメラにより撮像される複数の画像を処理して合成し、車両が走行する道路上の車道中央線や車道外側線等の走行区分線をディスプレイに表示することにより、車両の進路誘導等を行うものが知られている。
ところで、車両には、乗車人数や走行状態等に対応して、車両の左右方向を中心軸として車両が前後方向に傾斜するいわゆるピッチングや、車両の前後方向を中心軸として左右方向に傾斜するローリングが発生する。また、例えば車両の経年劣化等により、複数のカメラの位置ずれが発生するおそれがある。そして、車両のピッチングやローリング、カメラの位置ずれ等に起因して、複数のカメラの撮像方向にずれが発生するため、得られる走行区分線データの画像に誤差が発生し、車両の進路誘導等を精度よく行うことができないおそれがある。
上述の問題を解決するために、例えば特許文献1には、撮像手段と、その撮像手段の撮像画像を変換して変換画像を出力する画像変換手段と、撮像画像を分析する画像分析手段とを有し、画像分析手段の分析結果を基に画像変換手段の有する撮像手段の撮像方向パラメータを補正して、補正された変換画像を出力させるよう構成した画像変換装置が記載されている。
より具体的には、撮像された画像が画像変換手段に入力され、鳥瞰画像(俯瞰画像)に変換されて画像分析手段に出力される。画像分析手段は、レーンマーク検出部により、平行な白色線として標示されるべきレーンマーク(走行区分線)を検出する。次に、レーンマークに傾きが生じている場合に、撮像手段のピッチ角の補正量を算出して出力し、撮像手段のピッチ角の補正量を基に再度画像変換を行う。そして、鳥瞰画像中の平行な白色線として標示されるべきレーンマークの傾きが無くなるまでルーチンを繰り返し、正しい鳥瞰画像となった後に出力している。
特許文献1に記載の発明によれば、撮像手段が設定通りの撮像方向を向いていない場合においても、撮像手段自体を調整することなく、画像変換手段における撮像方向パラメータを補正することにより、補正された変換画像を得ることができるとされている。
特開2002−140696号公報
しかしながら、特許文献1においては、画像内の走行区分線データの傾きが無くなるまでルーチンを繰り返し、平行な走行区分線データとなるように補正を行うため、走行区分線が平行ではない道路に関しても、画像内の走行区分線データが平行となるように補正を行う。このため、走行区分線データに対して、誤った補正が行われるおそれがある。また、平行な一対の走行区分線のうち、いずれか一方の走行区分線のみしか検出できない場合には、補正自体が行えないおそれがある。したがって、走行区分線データのずれを精度よく補正できず、運転支援装置による運転支援が適切に行われないおそれがある。
そこで本発明は、上述した事情に鑑みてなされたものであって、撮像部により撮像された画像内のデータのずれを精度よく補正できる運転支援装置の提供を課題とする。
上記の課題を解決するため、本発明の請求項1に記載の運転支援装置(例えば、実施形態における運転支援装置10)は、自車両(例えば、実施形態における自車両1)の前後方向に対向するように搭載され、前記自車両の周辺を撮像する少なくとも一対の撮像部(例えば、実施形態における前方カメラ21および後方カメラ22)と、少なくとも一対の前記撮像部により撮像された少なくとも一対の画像を分析する画像分析部(例えば、実施形態における画像分析部31)と、を備えた運転支援装置において、前記自車両の走行時における複数の時点の前記画像を蓄積可能な記憶部(例えば、実施形態における記憶部35)を備え、前記画像分析部は、前記一対の撮像部により撮像された前記画像のうち、第一時点において前方撮像部(例えば、実施形態における前方カメラ21)で撮像した第一画像と、前記第一時点よりも後の第二時点において前記前方撮像部で撮像した領域と同じ前記領域を後方撮像部(例えば、実施形態における後方カメラ22)で撮像した第二画像と、を比較することにより分析を行い、前記画像の分析結果に基づいて、前記撮像部の撮像方向のずれを検出することを特徴としている。
本発明によれば、自車両の前後方向および左右方向の少なくともいずれかの方向に対向するように搭載された少なくとも一対の撮像部と、撮像部により撮像された画像を分析する画像分析部とを備え、画像分析部は、画像の分析結果に基づいて、撮像部の撮像方向のずれを検出するので、複数の撮像部により撮像された画像の分析結果に基づいて精度よく撮像方向のずれを検出できる。
また、本発明の請求項2に記載の発明は、前記画像を補正する補正部(例えば、実施形態における補正部33)を備え、前記画像分析部は、前記画像から道路(例えば、実施形態における道路W)上の走行区分線(例えば、実施形態における車道外側線L1)を走行区分線データ(例えば、実施形態における走行区分線データD1,D2)として検出する走行区分線検出処理を行い、前記補正部は、前記画像分析部による前記画像の分析結果に基づいて、前記撮像部の前記撮像方向のずれに起因する前記走行区分線データのずれを補正することを特徴としている。
本発明によれば、自車両に対向するように搭載された少なくとも一対の撮像部により得られた画像の分析結果に基づいて、撮像部の撮像方向のずれに起因する走行区分線データのずれを補正するので、高精度に走行区分線データを補正することができる。特に、走行区分線が平行であるか否かに関わらず走行区分線データを補正することができるとともに、平行な一対の走行区分線のうちいずれか一方の走行区分線のみを一対の撮像部により撮像するだけで走行区分線データを補正することができるので、従来技術よりも精度よく走行区分線データを補正することができる。
また、本発明の請求項3に記載の発明は、前記一対の撮像部は、前記自車両の前記前後方向を撮像し、前記画像分析部は、道路上の走行区分線を検出するとともに、前記一対の撮像部により撮像された一対の前記画像を一対の俯瞰画像(例えば、実施形態における俯瞰画像21a,21b)に変換し、前記一対の俯瞰画像に基づいて、前記撮像部の撮像方向のずれを検出することを特徴としている。
本発明によれば、走行区分線を検出した一対の画像を一対の俯瞰画像に変換し、一対の俯瞰画像中で撮像方向のずれを検出するので、撮像部の撮像方向のずれを迅速に検出できる。
また、本発明の請求項4に記載の発明は、前記画像を補正する補正部を備え、前記画像分析部は、前記画像から前記走行区分線を走行区分線データとして検出する走行区分線検出処理を行い、前記補正部は、前記一対の俯瞰画像における前記走行区分線データがそれぞれ同一の仮想直線(例えば、実施形態における仮想直線K)と平行になるように補正することにより、前記撮像部の前記撮像方向のずれに起因する前記走行区分線データのずれを補正することを特徴としている。
本発明によれば、撮像部の撮像方向のずれを迅速に検出するとともに、一対の俯瞰画像における走行区分線データが理想データに沿う同一の仮想直線と平行になるように補正する際に、迅速に処理できる。
また、本発明の請求項5に記載の発明は、前記記憶部は、前記自車両の走行時における複数の時点の前記俯瞰画像を、複数の俯瞰画像データ情報として蓄積可能とされ、前記画像分析部は、複数の時点の前記俯瞰画像データ情報に基づいて、前記撮像部の前記撮像方向のずれを検出することを特徴としている。
本発明によれば、複数の俯瞰画像データ情報として蓄積可能な記憶部を備えているので、複数の時点の俯瞰画像データ情報に基づいて撮像部の撮像方向のずれを確実に検出できる。
また、本発明の請求項6に記載の発明は、前記画像を補正する補正部を備え、前記画像分析部は、前記画像から前記走行区分線を走行区分線データとして検出する走行区分線検出処理を行い、前記補正部は、複数の時点の前記俯瞰画像データ情報に基づいて、前記撮像部の前記撮像方向のずれに起因する前記走行区分線データのずれを補正することを特徴としている。
本発明によれば、複数の時点の俯瞰画像データ情報に基づいて撮像部の撮像方向のずれに起因する走行区分線データのずれを確実に検出するとともに、走行区分線データのずれを精度よく補正できる。
また、本発明の請求項7に記載の発明は、前記画像分析部は、前記画像から前記走行区分線を走行区分線データとして検出する走行区分線検出処理を行い、前記画像分析部は、複数の時点の前記俯瞰画像における前記走行区分線データに基づいて、前記走行区分線の基準データを生成するとともに、前記基準データに対する前記撮像部の撮像方向のずれを検出することを特徴としている。
本発明によれば、複数の時点の俯瞰画像における走行区分線データに基づいて、走行区分線の基準データを生成するので、基準データを精度よく作成できる。また、画像分析部は、基準データに対する撮像部の撮像方向のずれを検出するので、基準データの生成後に例えば自車両のピッチング等に起因して撮像部の撮像方向のずれが発生している場合でも、撮像部の撮像方向のずれを精度よく検出できる。
また、本発明の請求項7に記載の発明は、前記画像を補正する補正部を備え、前記補正部は、仮想直線に対する前記基準データの傾斜角度が所定範囲内である場合に、前記基準データに対応して、前記基準データの生成後における前記撮像部の前記撮像方向のずれに起因する前記走行区分線データのずれを補正することを特徴としている。
本発明によれば、基準データの生成後における撮像部の撮像方向のずれを精度よく検出できるとともに、撮像部の撮像方向のずれに起因する走行区分線データのずれを精度よく補正できる。
本発明によれば、自車両の前後方向および左右方向の少なくともいずれかの方向に対向するように搭載された少なくとも一対の撮像部と、撮像部により撮像された画像を分析する画像分析部とを備え、画像分析部は、画像の分析結果に基づいて、撮像部の撮像方向のずれを検出するので、複数の撮像部により撮像された画像の分析結果に基づいて精度よく撮像方向のずれを検出できる。したがって、検出された撮像方向のずれ量に基づいて、撮像部により撮像された画像内のデータのずれを精度よく補正できる。
運転支援装置のシステム構成図である。 運転支援装置を搭載した自車両の平面図である。 画像分析部による分析および走行区分線検出処理の説明図である。 画像分析部による分析および走行区分線検出処理の説明図である。 第一実施形態に係る運転支援装置が行う画像の補正のフローチャートである。 第二実施形態に係る運転支援装置が行う画像の補正の説明図である。 第三実施形態に係る運転支援装置が行う画像の補正の説明図である。
(第一実施形態)
以下、第一実施形態に係る運転支援装置について、図面を参照して説明をする。
図1は、運転支援装置10のシステム構成図であり、図2は、運転支援装置10を搭載した自車両1の平面図である。
図1に示すように、本実施形態に係る運転支援装置10は、主に外界カメラユニット25と、ナビゲーションシステム40と、画像分析部31、補正部33および記憶部35を含む制御装置30と、を備えている。図2に示すように、運転支援装置10は、自車両1に搭載されており、自車両1の周辺の画像を運転者に対して表示するものである。以下に、運転支援装置10を構成する各部品の詳細について説明する。なお、以下の説明における前後左右等の向きは、特に記載が無ければ、図2に示す自車両1における向きと同一とする。
運転支援装置10は、自車両1が進行する道路Wに設けられた車道外側線L1や車道中央線L2等の走行区分線に沿って自車両1を走行させるためのものであって、不図示の電動パワーステアリングユニットに対して必要な操舵アシストトルクを出力するとともに、車道外側線L1や車道中央線L2から自車両1がはみ出した場合には、運転者に対して警報を出力するものである。すなわち、運転支援装置10は、いわゆるLKAS(Lane Keeping Assistance System)制御およびLDW(Lane Departure Warning)制御を行う装置である。
外界カメラユニット25は、自車両1の周辺における異なる方向を撮像するためのものであって、例えば、自車両1の前方の周辺領域を撮像領域とする前方カメラ21(請求項の「撮像部」に相当。)と、自車両1の後方の周辺領域を撮像領域とする後方カメラ22(請求項の「撮像部」に相当。)と、自車両1の左側方の周辺領域を撮像領域とする左側方カメラ23(請求項の「撮像部」に相当。)と、自車両1の右側方の周辺領域を撮像領域とする右側方カメラ24(請求項の「撮像部」に相当。)とを備えている。前方カメラ21と後方カメラ22とは、自車両1の前後方向において、対向するように搭載されている。また、左側方カメラ23と右側方カメラ24とは、自車両1の左右方向において、対向するように搭載されている。各カメラ21〜24は、それぞれ例えばCCD(Charge−Coupled Device、電荷結合素子)やCMOS(Complementary Metal Oxide Semiconductor、相補性金属酸化膜半導体)等の撮像素子を備えたカメラである。
図1に示すように、外界カメラユニット25は、各カメラ21〜24の撮像により得られた画像を制御装置30へ出力する。各カメラ21〜24の撮像により得られた各々の画像は、制御装置30に設けられた後述の画像分析部31により合成される。これにより、自車両1(図2参照)を俯瞰するように視点変換を行った画像(以下「俯瞰画像」という。)が得られる。ここで、一般に俯瞰画像とは、車両を真上から見た画像であって、正しい取付位置および取付角度にカメラを設置した場合、公知の方法で車両を真上から見たように変換した画像である。俯瞰画像は、制御装置30を介してナビゲーションシステム40に出力されて、ディスプレイ43に表示される。
ナビゲーションシステム40は、自車両1(図2参照)の現在位置を表示したり、現在位置から目的地までの経路を探索して自車両1(図2参照)を誘導したりするためのものであって、ナビゲーション制御部41と、ディスプレイ43と、を主に備えている。図2に示すように、ナビゲーションシステム40は、例えば自車両1の不図示のインストルメントパネルに収容されている。
ナビゲーション制御部41は、図示しない現在位置検出部と、地図データ記憶部と、ナビゲーション処理部と、を主に備えている。
現在位置検出部は、人工衛星を利用したGPS(Global Positioning System)信号等の測位信号を受信して、自車両1の現在位置を検出する。
地図データ記憶部は、ハードディスク装置等の磁気ディスク装置や、CD−ROMやDVD−ROM等の光ディスク装置等のコンピュータ読み取り可能な記憶媒体に、地図データを記録して構成されている。その地図データとして、例えば道路や交差点の位置および形状等の道路データや、建物の位置および形状等の建物データ、駐車場の位置および形状等の駐車場データ等が格納されている。
ナビゲーション処理部は、現在位置検出部で検出された現在位置やナビゲーションシステム40に入力された目的地、地図データ記憶部から読み出された地図データ等に基づいて、自車両1の走行経路を探索する。
ディスプレイ43は、例えば液晶ディスプレイであって、自車両1の不図示のインストルメントパネル内に運転者が視認可能なように設置される。ディスプレイ43には、ナビゲーション制御部41の地図データに基づく画像や、制御装置30から出力される自車両1の俯瞰画像等が表示される。
図1に示すように、制御装置30は、画像分析部31と、補正部33と、記憶部35とを備えて構成されており、上述した外界カメラユニット25およびナビゲーションシステム40が接続されている。
外界カメラユニット25が接続されることにより、制御装置30には、各カメラ21〜24により得られた自車両1(図2参照)の周囲の画像が入力される。また、制御装置30は、自車両1の周囲の画像をナビゲーションシステム40に出力し、ディスプレイ43に表示させている。
図3および図4は、画像分析部31(図1参照)による分析および走行区分線検出処理の説明図である。なお、図3および図4では、各カメラ21〜24により撮像された各々の画像のうち、自車両1の前後方向に搭載された一対のカメラ21,22(前方カメラ21および後方カメラ22)により撮像された一対の画像を一対の俯瞰画像21a,22aに変換している状態を模式的に図示している。また、自車両1の左右方向に搭載された一対のカメラ23,24(左側方カメラ23および右側方カメラ24)により撮像された一対の画像に基づく俯瞰画像については、図示を省略している。また、図3および図4における紙面上側が自車両1の進行方向となっている。
図3に示すように、画像分析部31(図1参照)は、前方カメラ21および後方カメラ22により撮像された一対の画像を分析等行っている。
より具体的には、画像分析部31(図1参照)は、前方カメラ21および後方カメラ22により撮像された一対の画像から、例えば自車両1が進行する道路Wに設けられた車道外側線L1や車道中央線L2を分析し、走行区分線データD1,D2として検出する走行区分検出処理を行う。なお、図3においては、車道外側線L1、車道外側線L1に沿う仮想直線Kおよび車道中央線L2を二点鎖線で図示するとともに、一対の俯瞰画像21a,22a中の走行区分線データD1,D2をそれぞれ実線で図示している。ここで、仮想直線Kは、自車両1から自車両1の前後方向へ自車両1の車長方向と平行になるように延長した直線であって、図3においては、車道外側線L1に沿う仮想直線Kである。
また、画像分析部31は、例えば左側方の車道外側線L1を走行区分線データD1,D2として検出するとともに、前方カメラ21および後方カメラ22により撮像された一対の画像を一対の俯瞰画像21a,22aに変換している。
さらに、画像分析部31は、一対の俯瞰画像21a,22a中の走行区分線データD1,D2の比較を行う分析を行い、例えば自車両1のピッチングや各カメラ21〜24の取付誤差等に起因する前方カメラ21および後方カメラ22の撮像方向のずれを検出している。ここで、ピッチングとは、自車両1の乗車人数や走行状態等に起因して、自車両1の左右方向を中心軸として、自車両1が前後方向に傾斜することをいう。
例えば、図3に示す例においては、前方カメラ21の俯瞰画像21a中の走行区分線データD1は、自車両1の進行方向の上流側から下流側(図3の紙面下側から上側)に向かって、車道外側線L1の内側において道路Wの外側から内側に角度θ1だけ傾斜している。また、後方カメラ22の俯瞰画像22a中の走行区分線データD2は、自車両1の進行方向の上流側から下流側(図3の紙面下側から上側)に向かって、車道外側線L1の外側において道路Wの外側から内側に角度θ2だけ傾斜している。このように、前方カメラ21の俯瞰画像21a中の走行区分線データD1および後方カメラ22の俯瞰画像22a中の走行区分線データD2が前後方向で異なる方向に傾斜している場合、画像分析部31(図1参照)は、自車両1のピッチング(図3の例においては、後方へのピッチング)に起因して、前方カメラ21および後方カメラ22の撮像方向がずれていると検出するとともに、検出した走行区分線データD1,D2を仮想直線Kと平行にすることで、撮像方向のずれ量を算出する。すなわち、角度θ1および角度θ2に基づいて、前方カメラ21および後方カメラ22の撮像方向のずれ量を算出することとなる。
これに対して、例えば、図4に示す例においては、自車両1の進行方向の上流側から下流側に向かって、前方カメラ21の俯瞰画像21a中の走行区分線データD1が、車道外側線L1の内側において道路Wの外側から内側に角度θ1だけ傾斜している。これに対して、後方カメラ22の俯瞰画像22a中の走行区分線データD2は、車道外側線L1に対して傾斜していない。このように、前方カメラ21の俯瞰画像21a中の走行区分線データD1のみが傾斜している場合、画像分析部31(図1参照)は、自車両1の前方カメラ21の取付誤差に起因して前方カメラ21の撮像方向がずれているか、車道外側線L1が実際に傾斜していることとなる。
図1に示すように、補正部33は、各カメラ21〜24により撮像された画像を補正する。例えば、図3に示す例においては、補正部33(図1参照)は、画像分析部31で算出した前方カメラ21および後方カメラ22の撮像方向のずれ量を撮像方向の補正量として、再度俯瞰画像21a,22aを生成する際の演算に用いることで、前方カメラ21および後方カメラ22の撮像方向のずれに起因する走行区分線データD1,D2のずれを補正する。
図1に示すように、記憶部35は、例えば、フラッシュメモリやROM(Read Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、RAM(Random Access Memory)等のメモリにより構成される。記憶部35は、例えば各カメラ21〜24により撮像された各々の画像やナビゲーションシステム40等から制御装置30に対して出力される種々のデータを記憶している。
図5は、第一実施形態に係る運転支援装置が行う画像の補正のフローチャートである。
続いて、図5に示すフローチャートを用いて、本実施形態の運転支援装置が行う画像の補正について説明する。なお、以下では、前方カメラ21および後方カメラ22の撮像方向のずれに起因する走行区分線データD1,D2のずれを補正する場合のフローを説明する。また、以下の説明における各部品等の符号については、図1から図4を参照されたい。
ステップS11では、前方カメラ21および後方カメラ22により撮像された画像を、例えば制御装置30の記憶部35に記憶する。
ステップS13では、画像分析部31により、走行区分線検出処理および俯瞰画像変換を行う。具体的には、前方カメラ21および後方カメラ22により撮像された一対の画像から、車道外側線L1に対応する走行区分線データD1,D2として検出するとともに、前方カメラ21および後方カメラ22により撮像された一対の画像を一対の俯瞰画像21a,22aに変換する。
ステップS15では、画像分析部31により、走行区分線データD1,D2の比較を行う。具体的には、前方カメラ21の俯瞰画像21a中の走行区分線データD1および後方カメラ22の俯瞰画像22a中の走行区分線データD2が、それぞれ車道外側線L1に対して傾斜しているか否かの分析を行う。その後、前方カメラ21の俯瞰画像21a中の走行区分線データD1および後方カメラ22の俯瞰画像22a中の走行区分線データD2における傾斜の方向についての比較を行う。
ステップS17では、画像分析部31により、前方カメラ21および後方カメラ22の撮像方向の補正量を算出する。前方カメラ21および後方カメラ22の撮像方向の補正量は、例えば図3に示す例においては、車道外側線L1に沿う仮想直線Kに対する前方カメラ21の俯瞰画像21a中の走行区分線データD1の傾斜角度θ1、および車道外側線L1に沿う仮想直線Kに対する後方カメラ22の俯瞰画像22a中の走行区分線データD2の傾斜角度θ2に基づく角度とされる。
ステップS19では、補正部33により、画像分析部31で算出した前方カメラ21および後方カメラ22の撮像方向の補正量を、再度俯瞰画像21a,22aを生成する際の演算に用いることで、前方カメラ21および後方カメラ22の撮像方向のずれに起因する走行区分線データD1,D2のずれを補正する。
走行区分線データD1,D2の補正が終了した時点で、本実施形態の運転支援装置10が行う補正のフローチャートが終了する。
本実施形態によれば、自車両1の前後方向に対向するように搭載された一対のカメラ21,22(前方カメラ21および後方カメラ22)と、一対のカメラ21,22により撮像された画像を分析する画像分析部31とを備え、画像分析部31は、画像の分析結果に基づいて、一対のカメラ21,22の撮像方向のずれを検出するので、一対のカメラ21,22により撮像された画像の分析結果に基づいて精度よく撮像方向のずれを検出できる。したがって、検出された撮像方向のずれ量に基づいて、一対のカメラ21,22により撮像された画像内の走行区分線データD1,D2のずれを精度よく補正できる。
また、自車両1に対向するように搭載された一対のカメラ21,22により得られた画像の分析結果に基づいて、一対のカメラ21,22の撮像方向のずれに起因する走行区分線データD1,D2のずれを補正するので、高精度に走行区分線データD1,D2を補正することができる。特に、車道外側線L1が平行であるか否かに関わらず走行区分線データD1,D2を補正することができるとともに、平行な一対の車道外側線のうち一方(実施形態では左側方)の車道外側線L1のみを一対のカメラ21,22により撮像するだけで走行区分線データD1,D2を補正することができるので、従来技術よりも精度よく走行区分線データD1,D2を補正することができる。
また、一対の画像を一対の俯瞰画像21a,22aに変換するので、一対の俯瞰画像21a,22aにおける走行区分線データD1,D2の理想データに沿う仮想直線Kに対する傾斜角度θ1,θ2を容易に算出できる。したがって、一対の俯瞰画像21a,22aにおける走行区分線データD1,D2が理想データに沿う仮想直線Kと平行になるように補正する際に、迅速に処理できる。
(第二実施形態)
続いて、第二実施形態に係る運転支援装置が行う画像の補正について説明をする。
図6は、第二実施形態に係る運転支援装置が行う画像の補正の説明図である。なお、図6(a)は、第一時点における自車両1の前方カメラ21および後方カメラ22による俯瞰画像21a,22aを模式的に図示しており、図6(b)は、第一時点よりも後の第二時点における自車両1の前方カメラ21および後方カメラ22による俯瞰画像21a,22aを模式的に図示している。また、図6(a)の第一時点における前方カメラ21による俯瞰画像21a中の走行区分線データD1A、および図6(b)の第二時点における後方カメラ22による俯瞰画像22a中の走行区分線データD2Bは、それぞれ車道外側線L1における同一の領域を撮像した結果得られたデータである。
第一実施形態では、補正部33は、画像分析部31による画像の分析結果に基づいて、前方カメラ21および後方カメラ22の撮像方向のずれに起因する走行区分線データD1,D2のずれを補正していた(図1から図4参照)。
これに対して、第二実施形態では、図6に示すように、補正部33(図1参照)は、複数の時点の俯瞰画像データ情報に基づいて、前方カメラ21および後方カメラ22の撮像方向のずれに起因する走行区分線データD1,D2のずれを補正する点で、第一実施形態とは異なっている。なお、以下では、第一実施形態と同様の構成部分については説明を省略し、異なる部分についてのみ説明する。
記憶部35(図1参照)は、自車両1の走行時における複数の時点の俯瞰画像を、複数の俯瞰画像データ情報として蓄積する。
補正部33(図1参照)は、複数の時点の俯瞰画像データ情報に基づいて、前方カメラ21および後方カメラ22の撮像方向のずれに起因する走行区分線データD1,D2のずれを補正する。具体的には、以下のように補正を行う。
図6(a)に示すように、第一時点において、自車両1の進行方向の上流側から下流側(図6(a)の紙面下側から上側)に向かって、前方カメラ21の俯瞰画像21a中の走行区分線データD1Aは、車道外側線L1の内側において道路Wの外側から内側に角度θ1だけ傾斜している。また、図6(b)に示すように、第一時点よりも後の第二時点において、後方カメラ22の俯瞰画像22a中の走行区分線データD2Bは、車道外側線L1に対して傾斜していない。このとき、画像分析部31(図1参照)は、自車両1の前方カメラ21の取付誤差に起因して前方カメラ21の撮像方向がずれていると検出するとともに、検出した走行区分線データD1を仮想直線Kと平行にすることで、撮像方向のずれ量を算出する。すなわち、角度θ1に基づいて、前方カメラ21の撮像方向のずれ量を算出する。そして、補正部33(図1参照)は、画像分析部31で算出した前方カメラ21の撮像方向のずれ量を撮像方向の補正量として、再度俯瞰画像21aを生成する際の演算に用いることで、前方カメラ21の撮像方向のずれに起因する走行区分線データD1のずれを補正する。
第二実施形態によれば、複数の俯瞰画像データ情報として蓄積可能な記憶部35を備え、補正部33は、複数の時点の俯瞰画像データ情報に基づいて補正を行うので、複数の時点における俯瞰画像データ情報を比較して走行区分線データD1,D2のずれを確実に検出できる。したがって、走行区分線データD1,D2のずれを精度よく補正できる。
(第三実施形態)
続いて、第三実施形態に係る運転支援装置が行う画像の補正について説明をする。
図7は、第三実施形態に係る運転支援装置が行う画像の補正の説明図である。なお、図7(a)は、第一時点における自車両1の前方カメラ21および後方カメラ22による俯瞰画像21a,22aを模式的に図示しており、図7(b)は、第一時点よりも後の第二時点における自車両1の前方カメラ21および後方カメラ22による俯瞰画像21a,22aを模式的に図示している。また、図7(a)の第一時点における前方カメラ21による俯瞰画像21a中の走行区分線データD1A、および図7(b)の第二時点における後方カメラ22による俯瞰画像22a中の走行区分線データD2Bは、それぞれ車道外側線L1における同一の領域を撮像した結果得られたデータである。
第一実施形態では、補正部33は、画像分析部31による画像の分析結果に基づいて、前方カメラ21および後方カメラ22の撮像方向のずれに起因する走行区分線データD1,D2のずれを補正していた(図1から図4参照)。
これに対して、第三実施形態では、図7に示すように、補正部33(図1参照)は、複数の時点の俯瞰画像データ情報に基づいて、車道外側線L1の基準データを作成し、基準データに対応して、前方カメラ21および後方カメラ22の撮像方向のずれに起因する走行区分線データD1,D2のずれを補正する点で、第一実施形態とは異なっている。なお、以下では、第一実施形態と同様の構成部分については説明を省略し、異なる部分についてのみ説明する。
第三実施形態では、例えば自車両1にピッチングが発生しており、このピッチングに起因する前方カメラ21および後方カメラ22の撮像方向のずれを検出して、走行区分線データD1,D2のずれを補正する。具体的には、以下のように補正を行う。
図7(a)に示す第一時点においては、前方カメラ21の俯瞰画像21a中の走行区分線データD1Aは、自車両1の進行方向の上流側から下流側(図7(a)の紙面下側から上側)に向かって、車道外側線L1の内側において道路Wの外側から内側に角度θ1だけ傾斜している。また、後方カメラ22の俯瞰画像22a中の走行区分線データD2Aは、自車両1の進行方向の上流側から下流側(図7(a)の紙面下側から上側)に向かって、車道外側線L1の外側において道路Wの外側から内側に角度θ2だけ傾斜している。
また、図7(b)に示す第二時点においては、前方カメラ21の俯瞰画像21a中の走行区分線データD1Bは、自車両1の進行方向の上流側から下流側(図7(b)の紙面下側から上側)に向かって、車道外側線L1の外側において道路Wの内側から外側に角度θ3だけ傾斜している。また、後方カメラ22の俯瞰画像22a中の走行区分線データD2Bは、自車両1の進行方向の上流側から下流側(図7(b)の紙面下側から上側)に向かって、車道外側線L1の内側において道路Wの内側から外側に角度θ4だけ傾斜している。
ここで、画像分析部31(図1参照)は、第一時点および第二時点の俯瞰画像における走行区分線データD1,D2に基づいて、車道外側線L1の基準データを生成する。前方カメラ21に対応する基準データは、例えば、第一時点における前方カメラ21の俯瞰画像21a中の走行区分線データD1A(図7(a)参照)と、第二時点における前方カメラ21の俯瞰画像21a中の走行区分線データD1B(図7(b)参照)との傾斜角度の平均化処理を行うことで生成される。すなわち、前方カメラ21に対応する基準データの仮想直線Kに対する傾斜角度をθとしたとき、
θ=(θ1+θ3)/2・・・(1)
により算出でき、これにより、前方カメラ21に対応する基準データを生成することができる。
続いて、画像分析部31は、仮想直線Kに対する前方カメラ21に対応する基準データの傾斜角度θが所定範囲内である場合に、基準データが信頼できるものであると判断し、信頼できると判断した場合に、前方カメラ21に対応する基準データと、基準データの生成後における時点で検出した走行区分線データD1の傾斜が異なる場合にピッチングが発生していると判断するとともに、前方カメラ21に対応する基準データを基準データの生成後における時点で検出した走行区分線データD1と平行にすることで、撮像方向のずれ量を算出する。すなわち、前方カメラ21に対応する基準データと、基準データの生成後における時点で検出した走行区分線データD1との角度差に基づいて、前方カメラ21の撮像方向のずれ量を算出する。
続いて、補正部33は、画像分析部31で算出した前方カメラ21の撮像方向のずれ量を前方カメラ21の撮像方向の補正量として、再度俯瞰画像21aを生成する際の演算に用いることで、前方カメラ21の撮像方向のずれに起因する走行区分線データD1のずれの補正を行う。
なお、後方カメラ22についても、前方カメラ21と同様に、撮像方向のずれ量を算出し、その後方カメラ22の撮像方向のずれ量を後方カメラ22の撮像方向の補正量として、再度俯瞰画像22aを生成する際の演算に用いることで、後方カメラ22の撮像方向のずれに起因する走行区分線データD2のずれの補正を行ってもよい。
第三実施形態によれば、複数の時点の俯瞰画像21a,21bにおける走行区分線データD1,D2に基づいて、走行区分線である車道外側線L1の基準データを生成するので、基準データを精度よく作成できる。また、補正部33は、前方カメラ21および後方カメラ22の撮像方向のずれ量を前方カメラ21および後方カメラ22の撮像方向の補正量として、前方カメラ21および後方カメラ22の撮像方向のずれに起因する走行区分線データD1,D2のずれを補正するので、基準データの生成後における走行区分線データD1,D2のずれを精度よく補正できる。
なお、この発明の技術範囲は上記の実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。
各実施形態では、前方カメラ21および後方カメラ22の撮像方向のずれに起因する走行区分線データD1,D2のずれを補正する場合について説明した。これに対して、例えば自車両1のローリングによる左側方カメラ23および右側方カメラ24の撮像方向のずれに起因する走行区分線データのずれを補正する場合についても、同様の処理を行うことで実現できる。
各実施形態では、走行区分線のうち左側方の車道外側線L1に対応するデータを走行区分線データD1,D2として検出していた。これに対して、例えば、走行区分線のうち、右側の車道外側線や車道中央線等に対応するデータを走行区分線データとして検出してもよい。また、走行区分線以外にも、例えば駐車場の白線等を走行区分線データとして検出してもよい。
運転支援装置10のシステム構成は、各実施形態に限定されない。例えば、外界カメラユニット25の個数は4個に限定されない。また、各カメラ21〜24により撮像された画像を表示する手段として、ナビゲーションシステム40のディスプレイ43に限定されることはなく、例えば、いわゆるヘッドアップディスプレイ等であってもよい。
また、第二実施形態では、図6(a)の第一時点における前方カメラ21の俯瞰画像21a中の走行区分線データD1Aおよび図6(b)の第二時点における前方カメラ21の俯瞰画像21a中の走行区分線データD1Bが、それぞれ仮想直線Kに対して同じ角度θ1だけ傾斜している場合について説明をした。これに対して、図6(a)の第一時点における前方カメラ21の俯瞰画像21a中の走行区分線データD1Aおよび図6(b)の第二時点における前方カメラ21の俯瞰画像21a中の走行区分線データD1Bが、それぞれ仮想直線Kに対して異なる角度だけ傾斜している場合には、平均化を行って仮想直線Kに対する平均の傾斜角度θを算出し、その平均の傾斜角度θに基づいて前方カメラ21の撮像方向のずれ量を算出してもよい。
また、第三実施形態では、第一時点および第二時点の二時点の俯瞰画像における走行区分線データD1,D2に基づいて、車道外側線L1の基準データを生成していたが、時点の数は二時点に限定されることはなく、二以上の多数の時点の俯瞰画像における走行区分線データに基づいて、車道外側線L1の基準データを生成してもよい。
その他、本発明の趣旨を逸脱しない範囲で、上記した実施の形態における構成要素を周知の構成要素に置き換えることは適宜可能である。
1 自車両
10 運転支援装置
21 前方カメラ(撮像部)
21a 俯瞰画像
22 後方カメラ(撮像部)
22a 俯瞰画像
23 左側方カメラ(撮像部)
24 右側方カメラ(撮像部)
31 画像分析部
33 補正部
35 記憶部
D1 走行区分線データ
D2 走行区分線データ
K 仮想直線
L1 車道外側線(走行区分線)
L2 車道中央線(走行区分線)
W 道路

Claims (8)

  1. 自車両の前後方向に対向するように搭載され、前記自車両の周辺を撮像する少なくとも一対の撮像部と、少なくとも一対の前記撮像部により撮像された少なくとも一対の画像を分析する画像分析部と、を備えた運転支援装置において、
    前記自車両の走行時における複数の時点の前記画像を蓄積可能な記憶部を備え、
    前記画像分析部は、前記一対の撮像部により撮像された前記画像のうち、
    第一時点において前方撮像部で撮像した第一画像と、前記第一時点よりも後の第二時点において前記前方撮像部で撮像した領域と同じ前記領域を後方撮像部で撮像した第二画像と、を比較することにより分析を行い、
    前記画像の分析結果に基づいて、前記撮像部の撮像方向のずれを検出することを特徴とする運転支援装置。
  2. 請求項1に記載の運転支援装置であって、
    前記画像を補正する補正部を備え、
    前記画像分析部は、前記画像から道路上の走行区分線を走行区分線データとして検出する走行区分線検出処理を行い、
    前記補正部は、前記画像分析部による前記画像の分析結果に基づいて、前記撮像部の前記撮像方向のずれに起因する前記走行区分線データのずれを補正することを特徴とする運転支援装置。
  3. 請求項1に記載の運転支援装置であって、
    前記一対の撮像部は、前記自車両の前記前後方向を撮像し、
    前記画像分析部は、道路上の走行区分線を検出するとともに、前記一対の撮像部により撮像された一対の前記画像を一対の俯瞰画像に変換し、前記一対の俯瞰画像に基づいて、前記撮像部の撮像方向のずれを検出することを特徴とする運転支援装置。
  4. 請求項3に記載の運転支援装置であって、
    前記画像を補正する補正部を備え、
    前記画像分析部は、前記画像から前記走行区分線を走行区分線データとして検出する走行区分線検出処理を行い、
    前記補正部は、前記一対の俯瞰画像における前記走行区分線データがそれぞれ同一の仮想直線と平行になるように補正することにより、前記撮像部の前記撮像方向のずれに起因する前記走行区分線データのずれを補正することを特徴とする運転支援装置。
  5. 請求項3に記載の運転支援装置であって、
    前記記憶部は、前記自車両の走行時における複数の時点の前記俯瞰画像を、複数の俯瞰画像データ情報として蓄積可能とされ、
    前記画像分析部は、複数の時点の前記俯瞰画像データ情報に基づいて、前記撮像部の前記撮像方向のずれを検出することを特徴とする運転支援装置。
  6. 請求項5に記載の運転支援装置であって、
    前記画像を補正する補正部を備え、
    前記画像分析部は、前記画像から前記走行区分線を走行区分線データとして検出する走行区分線検出処理を行い、
    前記補正部は、複数の時点の前記俯瞰画像データ情報に基づいて、前記撮像部の前記撮像方向のずれに起因する前記走行区分線データのずれを補正することを特徴とする運転支援装置。
  7. 請求項5に記載の運転支援装置であって、
    前記画像分析部は、前記画像から前記走行区分線を走行区分線データとして検出する走行区分線検出処理を行い、
    前記画像分析部は、複数の時点の前記俯瞰画像における前記走行区分線データに基づいて、前記走行区分線の基準データを生成するとともに、前記基準データに対する前記撮像部の撮像方向のずれを検出することを特徴とする運転支援装置。
  8. 請求項7に記載の運転支援装置であって、
    前記画像を補正する補正部を備え、
    前記補正部は、仮想直線に対する前記基準データの傾斜角度が所定範囲内である場合に、前記基準データに対応して、前記基準データの生成後における前記撮像部の前記撮像方向のずれに起因する前記走行区分線データのずれを補正することを特徴とする運転支援装置。
JP2013070605A 2013-03-28 2013-03-28 運転支援装置 Expired - Fee Related JP6085212B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013070605A JP6085212B2 (ja) 2013-03-28 2013-03-28 運転支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013070605A JP6085212B2 (ja) 2013-03-28 2013-03-28 運転支援装置

Publications (2)

Publication Number Publication Date
JP2014195170A JP2014195170A (ja) 2014-10-09
JP6085212B2 true JP6085212B2 (ja) 2017-02-22

Family

ID=51840140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013070605A Expired - Fee Related JP6085212B2 (ja) 2013-03-28 2013-03-28 運転支援装置

Country Status (1)

Country Link
JP (1) JP6085212B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5971223B2 (ja) * 2013-10-16 2016-08-17 株式会社デンソー 合成画像生成装置
WO2017122552A1 (ja) 2016-01-15 2017-07-20 ソニー株式会社 画像処理装置および方法、プログラム、並びに画像処理システム
JP6614042B2 (ja) * 2016-06-15 2019-12-04 株式会社Jvcケンウッド 姿勢変化判定装置、俯瞰映像生成装置、俯瞰映像生成システム、姿勢変化判定方法およびプログラム
CN108052910A (zh) * 2017-12-19 2018-05-18 深圳市保千里电子有限公司 一种车辆全景成像系统的自动调整方法、装置及存储介质
WO2020165934A1 (ja) * 2019-02-12 2020-08-20 三菱電機株式会社 距離測定装置及び距離測定方法
CN110415298B (zh) * 2019-07-22 2023-02-03 昆山伟宇慧创智能科技有限公司 一种用于车道偏离的计算方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4710653B2 (ja) * 2005-03-03 2011-06-29 日産自動車株式会社 車載画像処理装置及び車両用画像処理方法
JP4859652B2 (ja) * 2006-12-15 2012-01-25 アルパイン株式会社 画像表示装置
JP4697480B2 (ja) * 2008-01-11 2011-06-08 日本電気株式会社 車線認識装置、車線認識方法および車線認識プログラム
JP5112131B2 (ja) * 2008-03-25 2013-01-09 アルパイン株式会社 車両用異常検出装置
US10179543B2 (en) * 2013-02-27 2019-01-15 Magna Electronics Inc. Multi-camera dynamic top view vision system

Also Published As

Publication number Publication date
JP2014195170A (ja) 2014-10-09

Similar Documents

Publication Publication Date Title
JP6085212B2 (ja) 運転支援装置
JP6565769B2 (ja) 車載カメラの取付角度検出装置、取付角度較正装置、取付角度検出方法、取付角度較正方法、およびコンピュータープログラム
US9448074B2 (en) Curve modeling device, curve modeling method, and vehicular navigation device
JP4377284B2 (ja) 車載ナビゲーション装置
WO2018179616A1 (ja) 車両位置推定装置
US9508258B2 (en) Intersection guide system, method, and program
JP6350374B2 (ja) 路面検出装置
US20110128138A1 (en) On-vehicle device and recognition support system
US20140218509A1 (en) Lane guidance display system, lane guidance display method, and lane guidance display program
WO2010035781A1 (ja) 車線判定装置及びナビゲーションシステム
JP6261832B1 (ja) 走行路認識装置及び走行路認識方法
JP5440012B2 (ja) 分岐路進入判断装置及び分岐路進入判断方法
JP6342104B1 (ja) 車両位置推定装置
US20180286247A1 (en) Travel Control Method and Travel Control Apparatus
JP2012171562A (ja) 車線逸脱警報装置および車線逸脱警報システム
JP4832489B2 (ja) 車線判定装置
WO2015029443A1 (ja) 舵角補正方法、舵角補正装置、撮像装置、および舵角補正システム
US20140236473A1 (en) Lane guidance display system, lane guidance display method, and lane guidance display program
JP6364869B2 (ja) 運転支援装置
WO2015186294A1 (ja) 車載画像処理装置
JP4670528B2 (ja) 撮像装置のずれ検出方法、撮像装置のずれ補正方法及び撮像装置
JP5994574B2 (ja) 位置案内システム、方法およびプログラム
JP2008298699A (ja) 自車位置認識装置及び自車位置認識方法
JP2016053748A (ja) 運転支援装置および運転支援方法
JP2011169728A (ja) ヨーレート補正装置、及びその方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170127

R150 Certificate of patent or registration of utility model

Ref document number: 6085212

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees