JP2004147083A - Driving support apparatus - Google Patents
Driving support apparatus Download PDFInfo
- Publication number
- JP2004147083A JP2004147083A JP2002309831A JP2002309831A JP2004147083A JP 2004147083 A JP2004147083 A JP 2004147083A JP 2002309831 A JP2002309831 A JP 2002309831A JP 2002309831 A JP2002309831 A JP 2002309831A JP 2004147083 A JP2004147083 A JP 2004147083A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- driving support
- trajectory
- monitor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は車載カメラで撮像した画像を車載モニタに表示し車両運転を支援する運転支援装置に係り、特に、車両が進行する領域をモニタ画面上で直感的に把握させることが可能な運転支援装置に関する。
【0002】
【従来の技術】
車載カメラを車両のリアトランク部等に後ろ向きに設置し、この車載カメラで撮影した車両後方の撮像画像を運転者に提示する運転支援装置が普及し始めている。従来の特開2001―180405号公報(特許文献1)に記載された操舵支援装置は、車載カメラによる撮像画像に加え、車幅ラインを示すガイド線を車両後方に延びる様にモニタ画面上に重畳表示し、このガイド線の向きをハンドル操作に合わせて移動させ、車両進行方向を運転者が容易に認識できるようにしている。
【0003】
また、この従来技術では、車幅ラインを示すガイド線のうち車両が曲がる内側すなわち他車と接触する可能性の高い側のガイド線を、地面からバンパ位置まで立ち上がる曲面で表示し、車両の最も出っ張っている部分であるバンパが障害物に接触するか否かの判断を容易にしようとしている。
【0004】
【特許文献1】
特開2001―180405号公報(図7)
【0005】
【発明が解決しようとする課題】
しかしながら、車載モニタにガイド線を重畳表示する場合、そのガイド線が何を意味しているのか、見た瞬間に直感的に認識できるものである必要がある。上述した従来技術に係るガイド線、特に、地面上のガイド線からバンパ位置まで立ち上がる三次元の曲面で表示しようとしたガイド線は、これが車載モニタの二次元画面上に表示されたとき、このガイド線を見た運転者が三次元の曲面であると直感的に把握するか否かの保証はなく、道路の表面上に描かれた面であると誤認識する虞がある。
【0006】
本発明の目的は、車両進行方向の予測軌跡を三次元表示したときモニタ画面上で運転者等がこの軌跡を三次元表示されているということを容易に把握することができる運転支援装置を提供することにある。
【0007】
【課題を解決するための手段】
上記目的を達成する運転支援装置は、車載カメラと、前記車載カメラの撮像画像を表示する車載モニタと、前記車載モニタに前記撮像画像を表示するとき車両の進行予測方向を示す車両軌跡画像を前記撮像画像に重畳する画像合成手段と、前記車両軌跡画像を車両進行方向の地面上の軌跡面と車両両側面の軌跡面とでなるU字形状で表示するとき前記車両両側面の軌跡面間を前記地面上の軌跡面から浮いた位置の1本または2本の線で結んで前記車載モニタに表示させる運転支援データ生成手段とを備えたことを特徴とする。
【0008】
この構成により、車両両側面の軌跡面が地面から立ち上がる面として認識容易となり、モニタ画面上で車両軌跡を立体として把握することができ、車両軌跡と重なる障害物との干渉の判断が容易となる。
【0009】
好適には、上記において、前記撮像画像及び前記車両軌跡画像は視点変換した画像として前記車載モニタに表示されることを特徴とする。この構成により、モニタの表示画像を様々な視点から見た画像に変換し運転者に提供可能となる。
【0010】
更に好適には、上記において、前記車両両側面の軌跡面は、高さを車高またはバンパ位置までとすることを特徴とする。この構成により、高さ方向の距離感が出て立体感が強調される。
【0011】
更に好適には、上記において、前記車両両側面の軌跡面中にバンパ位置を強調表示したことを特徴とする。この構成により、車両側部で最も出っ張る位置に対して注意が喚起され、バンパと他車などの障害物との干渉の有無の判断が容易となる。
【0012】
更に好適には、上記において、前記バンパ位置の強調表示は、所定幅の面で表示されることを特徴とする。この構成により、バンパ位置に対する注意喚起が更に強まると共に、立体感が更に向上する。
【0013】
更に好適には、上記において、前記地面上の軌跡面中は距離表示を非表示としたことを特徴とする。この構成により、画面中の煩雑さが軽減され、見やすい画面となる。
【0014】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
【0015】
図1は、本発明の一実施の形態に係る運転支援装置の構成を示すブロック図である。本実施の形態に係る運転支援装置は、画角内の景色をカラー撮影するカメラ10と、車両のハンドルの切れ角を検出するハンドル角度センサ20と、ハンドル角度センサ20の検出値から操舵角を演算して求める操舵角演算部30と、カメラ10の撮像画像と操舵角演算部30の演算結果とを取り込んで後述するように運転支援画像データを生成する画像処理部40と、画像処理部40で生成された運転支援画像データを映像信号に変換する表示制御部50と、表示制御部50からの映像信号を画面に表示するカラー液晶等のモニタ60とを備える。
【0016】
画像処理部40は、画像処理全体を司るCPU(中央処理装置)41と、CPU41の制御プログラムを記憶するプログラムメモリ42と、CPU41による画像処理作業に使用される作業メモリ43とで構成される。
【0017】
作業メモリ43は、カメラ10に接続された画像記憶部44と、画像記憶部44に接続された視点変換マップデータ格納部45と、操舵角演算部30及び視点変換マップデータ格納部45に接続された運転支援データ生成部46と、運転支援データ生成部46に接続された軌跡マップデータ格納部47と、画像記憶部44及び運転支援データ生成部46に接続された画像合成部48とからなる。
【0018】
視点変換マップデータ格納部45には、視点変換に用いられる所定の視点変換マップデータが格納されている。視点変換とは、カメラ10の実視点で撮影された画像を所望する他の仮想視点位置から観た画像に変換することをいう。また、視点変換マップデータは、視点変換とレンズの歪補正の両方を含めた変換マップデータとしてもよい。
【0019】
画像記憶部44は、カメラ10で撮影された実画像を取り込んだとき、この実画像の画素データを、視点変換マップデータ格納部45に格納されている視点変換マップデータに従って配置し直し、視点変換画像として記憶する。
【0020】
軌跡マップデータ格納部47には、軌跡マップデータが車輪の操舵角毎にそれぞれ格納されており、運転支援データ生成部46は、操舵角演算部30で演算された車輪の操舵角に従って、対応する軌跡マップデータを軌跡マップデータ格納部47から取得する。
【0021】
また、運転支援データ生成部46は、画像記憶部44で行った処理と同様に、視点変換マップデータ格納部45に格納されている視点変換マップデータに従って、軌跡マップデータに対し所定の視点変換を施した軌跡画像を生成する。
【0022】
画像合成部48は、画像記憶部44で生成された視点変換画像と運転支援データ生成部46で生成された軌跡画像とを合成して運転支援画像データを生成し、所定のタイミングで表示制御部50へ出力する。
【0023】
典型的には、プログラムメモリ42、視点変換マップデータ格納部45及び軌跡マップデータ格納部47は、リードオンリーメモリのような読み出し専用メモリで構成され、画像記憶部44、画像支援データ生成部46及び画像合成部48は、ランダムアクセスメモリの様な読み書き可能なメモリで構成される。
【0024】
図2は、図1で説明した運転支援装置を車両1に搭載したときのイメージ図である。この車両1には、その後方の周囲を撮影するカメラ10が後方上部に設置されている。また、カメラ10は、その撮影範囲(視界範囲)内に、車両後部バンパー3等の車両1の一部が写り込むように設置されている。
【0025】
車両1の運転席には、モニタ60が設けられている。車両1にナビゲーション装置が搭載されている場合、モニタ60は、ナビゲーション装置の表示部としても機能する。またこの場合、モニタ60は、通常はナビゲーション装置の表示部として使用され、運転席に設けられたシフトレバー5がバック走行位置に操作されたとき、カメラ10で撮影される画像が表示可能な状態に切り換えられるようになっている。
【0026】
同様に、画像処理部40は、シフトレバー5がバック走行位置に操作された場合だけ、上述した画像処理を所定の周期(例えば、1秒間に30フレームの画像を処理する周期)で行う。なお、シフトレバー5がバック走行位置に操作されたか否かは、シフトレバー5の位置を検知するスイッチを別途設けて判断すれば容易である。
【0027】
操舵輪である前輪7a及び7bは、ハンドル8の操作によって操舵される。ハンドル角度センサ20は、ハンドル8に対して所定の位置に設けられ、運転者によって操作されたハンドル8の切れ角θを検出する。操舵角演算部30は、ハンドル角度センサ20で検出された切れ角θから、前輪7a及び7bの操舵角(タイヤ切れ角)βを演算する。この操舵角βは、切れ角θに所定の係数Kを掛けることで求められる(β=Kθ)。
【0028】
図1に示す画像処理部40、操舵角演算部30、表示制御部50は、車両1内部の電子機器搭載に適した適宜箇所に設置される(図2には図示省略)。
【0029】
次に、軌跡マップデータ格納部47に予め格納される軌跡マップデータの作成方法について説明する。
【0030】
まず、図3に示す世界座標系による地面上の軌跡面データが設計される。図3において、車両1の車幅をWと、ホイールベース長をLと、後輪7c及び7dの中心間距離をTrとすると、リヤアクスル中央(後輪7cと後輪7dとの中点)Ovの転回半径Rmid 、リヤアクスル中心線Axと転回中心Oに対して車体外側(後輪7cの外側)との交点の転回半径Rout 、及びリヤアクスル中心線Axと転回中心Oに対して車体内側(後輪7dの内側)との交点の転回半径Rinは、操舵角βを含む次式(1)〜(3)でそれぞれ表される。
【0031】
Rmid = (L/tanβ)−(Tr/2) (1)
Rout = Rmid+W/2
= (L/tanβ)−(Tr/2)+W/2 (2)
Rin = Rmid−W/2
= (L/tanβ)−(Tr/2)−W/2 (3)
【0032】
そして、世界座標系での軌跡データ、すなわち車両が後退する予測進路Gin及びGout は、中点Ovが転回半径Rmid の軌跡Gmid 上を0〜300cm後退する範囲において、後輪7c及び7dの移動位置が25cm間隔でそれぞれ13箇所計算されることで求められる。この予測進路Gin及びGout を、操舵角βが取り得る値の範囲(例えば、0度〜37度の左右方向)について、1度刻みで求める。なお、計算の範囲及び箇所数については、上記の例以外であってもよい。また、操舵角βを刻む単位は、1度以外であっても構わない。
【0033】
これにより、図4(a)(b)のような地面上の軌跡面データが作成される。図4(a)は直進後退の軌跡面データであり、図4(b)はカーブして後退するときの軌跡面データである。図4(a)(b)の例では、図3に示す予測進路Gin及びGout をライン101及び102で、車両後部バンパー3の後端が1m、2m及び3m後退した時の位置を、それぞれライン103、ライン104及びライン105で表現している。
【0034】
次に、この作成された地面上の軌跡面データの予測進路Gin及びGout 上に、図5(a)(b)のように、車両1の両側面の予測軌跡面110、111を表現する。この軌跡面110、111は、地面から車両1の車体最頂部までの高さを示すが、地面から車両1のバンパ位置までの高さとすることでもよい。尚、車両1の側面の軌跡は、車両側面の形状に忠実に倣う必要はなく、この例では、車両側面の外接線の軌跡とする。
【0035】
上記の様にして作成された世界座標系での地面上の軌跡面データ及び両側面の軌跡面データが軌跡マップデータ格納部47に格納されており、運転支援データ生成部46は、この世界座標系での軌跡面データを視点変換マップデータに基づいて視点変換及びレンズ歪み補正を行い、カメラ10の撮像画像を視点変換した画像に画像合成部48が合成することで、運転支援画像を生成する。
【0036】
この場合、本実施の形態では、世界座標系での軌跡面データを視点変換及びレンズ歪み補正するとき、単に視点変換やレンズ歪み補正を行うのではなく、モニタ60の画面上で車両軌跡を三次元的に直感的に把握しやすい画像に強調補正を行うこととしている。
【0037】
図6は、世界座標系での直進後退の車両軌跡データを単に視点変換及びレンズ歪み補正した画像である。仮想視点位置は、図2に示すカメラ10の実設置位置より約50cm上方としている。この図6の画像に表されている軌跡データは、車両の車幅を示す線101a、102aと、地面上の車両後方1m、2m、3mを夫々示す線103a、104a、105aと、車両両側面の軌跡面110a、111aである。
【0038】
この図6の画像は、三次元の図形であると意識して見れば三次元の車両軌跡として見ることができる。しかし、この画像がモニタ60の二次元画面に表示されたとき、瞬時に三次元の画像であると把握するのは難しく、車両両側面の軌跡面110a、111aも地面に描かれた画像として認識されてしまう虞が高い。
【0039】
そこで、本実施の形態では、この図6の画像を直感的に三次元の軌跡であると瞬時に把握できるように、図7で説明する様に強調補正し、この強調補正を施した車両軌跡の画像をカメラの撮像画像に重畳表示することとしている。
【0040】
図7は、図6の画像を強調補正した画像である。本実施の形態では、車両の側面軌跡を示す軌跡面110aと軌跡面111aとを結ぶ立体視補助用の強調線115を1本だけ表示している。この強調線115が表示されることで、軌跡面110aと軌跡面111aとが地面から立ち上がった三次元的な面として直感的に把握可能となる。この例では、立体視補助用の強調線115の始点と終点は、地面上の軌跡面から浮いた位置の車高を示す高さの、面110a、111aの手前側上端位置としているが、これに限るものではない。
【0041】
本実施の形態では更に、軌跡面110aと軌跡面111aの端線すなわち、車両後端0mを示す端線110b、111bと、地面上の車幅を示す線101a、102aとを結ぶ車両後端0mを示す線106aも表示し、地面上の軌跡面すなわち線101a、102a、105a、106aで囲まれる枠内は空白とし、中間の距離データの表示は削除している。
【0042】
即ち、図6に示す線103a、104aに相当する距離データ用の線は非表示としている。これらの線103a、104aはそれぞれ車両後端1m、2mを示すものであるが、図7に示す例では、車両両側の軌跡面110a、111aの中の縦線110c、111cが50cm毎の距離表示となっている。
【0043】
更に、本実施の形態では、車両側部で最も出っ張っている箇所すなわちバンパ位置を示すバンパ線120a、121aを、車両側面の軌跡面110a、111a中に輝線表示あるいは色替え表示することで、運転者に注意を喚起するようにしている。この例では、バンパ線120a、121aはガードレールの様にある程度幅のある面として強調表示し、バンパ位置が立体として容易に把握できるようにしている。
【0044】
また、強調表示する場合、このガードレール状の帯部分を輝線表示や色分け表示する代わりに、この帯部分を窓の様に開けることで強調することも可能である。このようにすると、帯部分内に来るカメラの撮像画像が邪魔されずに見える利点がある。
【0045】
図8は、運転支援装置の画像処理部40で行われる処理手順を示すフローチャートである。車両1のシフトレバー5がバック走行位置に切り換えられたとき、ハンドル角度センサ20で検出されたハンドル8の切れ角θに応じた操舵角βが、操舵角演算部30で演算される(ステップS81)。次に、運転支援データ生成部46において、操舵角βに対応する軌跡マップデータが、軌跡マップデータ格納部47から読み出される(ステップS82)。
【0046】
次に、運転支援データ生成部46において、必要な視点変換と図7で説明した強調補正が行われて車両軌跡画像が生成される(ステップS83)。次に、カメラ10で撮影されかつ必要な視点変換が行われた視点変換画像が、画像記憶部44から画像合成部48に書き込まれたか否かが判断される(ステップS84)。この書き込みが完了すると、画像合成部48において、車両軌跡画像が視点変換画像に重畳されて表示制御部50へ出力される(ステップS85,S86)。以上の処理は、車両1のシフトレバー5がバック走行位置にある間、繰り返して行われる(ステップS87)。
【0047】
以上のように、本発明の一実施の形態に係る運転支援装置によれば、車両の軌跡をモニタ60の二次元画面に直感的に立体視可能な画像として表示されるため、車両後退時に近接する他車両と自車両との距離感や障害物の地面からの高さを、運転者に容易に把握させることが可能となる。
【0048】
図9は、本発明の別実施の形態に係る強調補正例を示す車両軌跡画像である。この実施の形態では、車両の側面軌跡を示す面110a、111aの中にバンパ位置を強調するバンパ線122a、123aを表示し、更に、線122a、123aの端点同士を接続する立体視補助用の強調線125a、126aを表示することで、車両側面の軌跡面110a、111a間を結び、軌跡面110a、111aが地面から立ち上がった面であることを容易に把握可能としている。
【0049】
また、この実施の形態でも、図7に示す実施の形態と同様に、U字形状の車両軌跡の上面部を閉塞するような多数の線や面は表示していない。これにより、車両軌跡の上面部を通して地面上の状態が良く見えるようになり、見やすい画像を運転者に提供することができる。
【0050】
車両側面の軌跡面110a、111aの高さは、上記実施の形態では車高としているが、必ずしも車高とする必要はなく、車両側部に最も出っ張るバンパ位置までの高さとすることでもよい。
【0051】
尚、上述した実施の形態に係る運転支援装置では、1台のカメラ10で撮影された実画像を用いた場合を説明したが、2台以上のカメラで撮影された実画像を合成した画像を用いることも可能である。また、カメラは、カラー撮影できるものに限られず、白黒撮影用のカメラでも十分であり、モニタも白黒表示用のもので十分である。この場合、上述した各線や各面を色別表示する代わりに、輝度の違いや線幅の違いで表現すればよい。
【0052】
更に、車両を後退させるときを例に説明したが、車両を前進させるときに車両進行予測軌跡をモニタ画面上で立体視させる場合にも上述した実施の形態を適用可能である。また、実施の形態では、カメラの撮像画像や軌跡データに対して視点変換及びレンズ歪み補正を行ったが、視点変換やレンズ歪み補正は必ずしも必要な訳ではない。しかし、視点変換等と組み合わせることで、運転者に様々な視点からの映像を見やすい画像にして提供することが可能となる。
【0053】
【発明の効果】
本発明によれば、車両軌跡画像を二次元のモニタ画面上で直感的に立体視することが可能な運転支援装置を提供可能となる。
【図面の簡単な説明】
【図1】本発明の一実施の形態に係る運転支援装置の構成を示すブロック図
【図2】本発明の一実施の形態に係る運転支援装置を車両に搭載したときのイメージ図
【図3】本発明の一実施の形態に係る運転支援装置で世界座標系における地面上の軌跡面データを算出するときの説明図
【図4】本発明の一実施の形態に係る運転支援装置で算出した地面上の軌跡面データの画面表示例を示す図
【図5】本発明の一実施の形態に係る運転支援装置で算出した車両側面の軌跡面データを地面上の軌跡データに合成した図
【図6】本発明の一実施の形態に係る運転支援装置で算出した車両軌跡データを画面に表示した画像例を示す図
【図7】本発明の一実施の形態に係る運転支援装置で算出した車両軌跡データを強調補正した画像例を示す図
【図8】本発明の一実施の形態に係る運転支援装置における処理手順を示すフローチャート
【図9】本発明の別実施の形態に係る運転支援装置における車両軌跡データの強調補正例を示す図
【符号の説明】
1 車両
3 車両後部バンパ
5 シフトレバー
7a〜7d 車輪
8 ハンドル
10 カメラ
20 ハンドル角度センサ
30 操舵角演算部
40 画像処理部
41 CPU
42 プログラムメモリ
43 作業メモリ
44 画像記憶部
45 視点変換マップデータ格納部
46 運転支援データ生成部
47 軌跡マップデータ格納部
48 画像合成部
50 表示制御部
60 モニタ
110a、111a 車両側面の軌跡面
115、125a、126a 立体視補助用の強調線
120a、121a、122a、123a バンパ位置を示す強調線[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a driving support device that displays an image captured by a vehicle-mounted camera on a vehicle-mounted monitor to support vehicle driving, and in particular, a driving support device that allows an intuitive grasp of an area where a vehicle is traveling on a monitor screen. About.
[0002]
[Prior art]
2. Description of the Related Art Driving support devices in which an in-vehicle camera is installed rearward in a rear trunk portion of a vehicle and the like, and an image captured behind the vehicle taken by the in-vehicle camera is presented to a driver have begun to spread. A conventional steering assist device described in Japanese Patent Application Laid-Open No. 2001-180405 (Patent Document 1) superimposes a guide line indicating a vehicle width line on a monitor screen so as to extend to the rear of the vehicle in addition to an image captured by an on-vehicle camera. It is displayed and the direction of this guide line is moved in accordance with the operation of the steering wheel so that the driver can easily recognize the traveling direction of the vehicle.
[0003]
Further, in this conventional technique, of the guide lines indicating the vehicle width line, the guide line on the inside where the vehicle turns, that is, the guide line on the side that is likely to come into contact with another vehicle, is displayed on a curved surface rising from the ground to the bumper position, and the most It is intended to make it easy to determine whether or not the projecting bumper contacts an obstacle.
[0004]
[Patent Document 1]
JP 2001-180405 A (FIG. 7)
[0005]
[Problems to be solved by the invention]
However, when a guide line is superimposed and displayed on an in-vehicle monitor, it is necessary to be able to intuitively recognize what the guide line means at the moment of viewing. The guide line according to the related art described above, in particular, a guide line that is to be displayed on a three-dimensional curved surface rising from the guide line on the ground to the bumper position, when this is displayed on the two-dimensional screen of the vehicle-mounted monitor, There is no guarantee whether the driver who sees the line intuitively grasps the surface as a three-dimensional curved surface, and may erroneously recognize it as a surface drawn on the surface of a road.
[0006]
SUMMARY OF THE INVENTION An object of the present invention is to provide a driving support device that enables a driver or the like to easily understand that a predicted trajectory in the vehicle traveling direction is three-dimensionally displayed on a monitor screen when the predicted trajectory is three-dimensionally displayed. Is to do.
[0007]
[Means for Solving the Problems]
A driving support device that achieves the above object includes an in-vehicle camera, an in-vehicle monitor that displays a captured image of the in-vehicle camera, and a vehicle trajectory image that indicates a predicted traveling direction of the vehicle when displaying the captured image on the in-vehicle monitor. Image synthesizing means for superimposing on the captured image, and when the vehicle trajectory image is displayed in a U-shape including a trajectory surface on the ground in the vehicle traveling direction and a trajectory surface on both sides of the vehicle, a distance between the trajectory surfaces on both sides of the vehicle is displayed. Driving assistance data generating means for displaying the information on the in-vehicle monitor by connecting one or two lines at positions floating from the track surface on the ground.
[0008]
With this configuration, the trajectory surfaces on both sides of the vehicle can be easily recognized as surfaces rising from the ground, the vehicle trajectory can be grasped as a three-dimensional shape on the monitor screen, and the interference with an obstacle overlapping the vehicle trajectory can be easily determined. .
[0009]
Preferably, in the above, the captured image and the vehicle trajectory image are displayed on the on-vehicle monitor as viewpoint-converted images. With this configuration, it is possible to convert the display image on the monitor into an image viewed from various viewpoints and provide the image to the driver.
[0010]
More preferably, in the above, the height of the trajectory surfaces on both sides of the vehicle is set to a vehicle height or a bumper position. With this configuration, a sense of distance in the height direction appears, and a three-dimensional effect is emphasized.
[0011]
More preferably, in the above, the bumper position is highlighted in the trajectory plane on both sides of the vehicle. With this configuration, attention is drawn to the most protruding position on the side of the vehicle, and it is easy to determine whether there is interference between the bumper and an obstacle such as another vehicle.
[0012]
More preferably, in the above, the highlighting of the bumper position is displayed on a plane having a predetermined width. With this configuration, the attention to the bumper position is further enhanced, and the three-dimensional effect is further improved.
[0013]
More preferably, in the above, the distance display is not displayed in the track surface on the ground. With this configuration, complexity on the screen is reduced, and the screen is easy to see.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0015]
FIG. 1 is a block diagram showing a configuration of a driving support device according to one embodiment of the present invention. The driving support device according to the present embodiment includes a
[0016]
The
[0017]
The
[0018]
The viewpoint conversion map
[0019]
When a real image captured by the
[0020]
The trajectory map
[0021]
Further, similarly to the processing performed in the
[0022]
The
[0023]
Typically, the program memory 42, the viewpoint conversion map
[0024]
FIG. 2 is an image diagram when the driving support device described in FIG. In this vehicle 1, a
[0025]
The driver's seat of the vehicle 1 is provided with a
[0026]
Similarly, the
[0027]
The
[0028]
The
[0029]
Next, a method of creating locus map data stored in advance in the locus map
[0030]
First, trajectory plane data on the ground in the world coordinate system shown in FIG. 3 is designed. In FIG. 3, assuming that the width of the vehicle 1 is W, the length of the wheel base is L, and the distance between the centers of the
[0031]
Rmid = (L / tanβ) − (Tr / 2) (1)
Rout = Rmid + W / 2
= (L / tanβ)-(Tr / 2) + W / 2 (2)
Rin = Rmid-W / 2
= (L / tanβ)-(Tr / 2) -W / 2 (3)
[0032]
Then, the trajectory data in the world coordinate system, that is, the predicted courses Gin and Gout where the vehicle retreats, are the movement positions of the
[0033]
As a result, trajectory plane data on the ground as shown in FIGS. 4A and 4B is created. FIG. 4A shows trajectory surface data of rectilinear receding, and FIG. 4B shows trajectory surface data of curving and retreating. In the example of FIGS. 4A and 4B, the predicted courses Gin and Gout shown in FIG. 3 are indicated by
[0034]
Next, the predicted trajectory planes 110 and 111 on both sides of the vehicle 1 are expressed on the predicted paths Gin and Gout of the generated trajectory plane data on the ground as shown in FIGS. The trajectory surfaces 110 and 111 indicate the height from the ground to the top of the vehicle 1 of the vehicle 1, but may be the height from the ground to the bumper position of the vehicle 1. Note that the locus of the side surface of the vehicle 1 does not need to faithfully follow the shape of the side surface of the vehicle, and in this example, is the locus of an external tangent to the side surface of the vehicle.
[0035]
The trajectory plane data on the ground and the trajectory plane data on both sides in the world coordinate system created as described above are stored in the trajectory map
[0036]
In this case, according to the present embodiment, when the trajectory plane data in the world coordinate system is subjected to the viewpoint transformation and the lens distortion correction, the vehicle trajectory is tertiarily transformed on the screen of the
[0037]
FIG. 6 is an image obtained by simply performing viewpoint transformation and lens distortion correction on vehicle trajectory data of rectilinear backward movement in the world coordinate system. The virtual viewpoint position is about 50 cm above the actual installation position of the
[0038]
The image in FIG. 6 can be viewed as a three-dimensional vehicle trajectory if it is consciously viewed as a three-dimensional figure. However, when this image is displayed on the two-dimensional screen of the
[0039]
Therefore, in the present embodiment, the emphasis correction is performed as described with reference to FIG. 7 so that the image in FIG. 6 can be instantly grasped intuitively as a three-dimensional trajectory. Is superimposed on the image captured by the camera.
[0040]
FIG. 7 is an image obtained by enhancing and correcting the image of FIG. In this embodiment, only one
[0041]
Further, in the present embodiment, the vehicle rear end 0m connecting the end lines of the
[0042]
That is, distance data lines corresponding to the
[0043]
Further, in the present embodiment, driving is performed by displaying brightest lines or changing colors on the locus surfaces 110a, 111a on the side surfaces of the vehicle, by displaying
[0044]
In addition, in the case of highlighting, instead of displaying the guardrail-shaped band portion with a bright line or color-coded display, it is possible to emphasize the band by opening the band portion like a window. In this way, there is an advantage that the captured image of the camera coming in the band portion can be seen without being disturbed.
[0045]
FIG. 8 is a flowchart illustrating a processing procedure performed by the
[0046]
Next, in the driving support
[0047]
As described above, according to the driving support apparatus according to the embodiment of the present invention, the trajectory of the vehicle is displayed on the two-dimensional screen of the
[0048]
FIG. 9 is a vehicle locus image showing an example of enhancement correction according to another embodiment of the present invention. In this embodiment,
[0049]
Also, in this embodiment, as in the embodiment shown in FIG. 7, many lines and surfaces that block the upper surface of the U-shaped vehicle trajectory are not displayed. Thereby, the state on the ground can be seen well through the upper surface portion of the vehicle trajectory, and an easy-to-view image can be provided to the driver.
[0050]
Although the heights of the locus surfaces 110a and 111a on the side surfaces of the vehicle are the vehicle heights in the above-described embodiment, the heights are not necessarily required to be the vehicle heights, and may be the heights up to the bumper positions most protruding to the side of the vehicle.
[0051]
In the driving assistance apparatus according to the above-described embodiment, a case has been described in which a real image taken by one
[0052]
Further, the case where the vehicle is moved backward is described as an example. However, the above-described embodiment can be applied to a case where the vehicle traveling prediction trajectory is stereoscopically viewed on the monitor screen when the vehicle is moved forward. Further, in the embodiment, the viewpoint conversion and the lens distortion correction are performed on the captured image of the camera and the trajectory data, but the viewpoint conversion and the lens distortion correction are not always necessary. However, in combination with viewpoint conversion or the like, it is possible to provide a driver with images that are easy to see from various viewpoints.
[0053]
【The invention's effect】
According to the present invention, it is possible to provide a driving support device that can intuitively stereoscopically view a vehicle locus image on a two-dimensional monitor screen.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a driving support device according to one embodiment of the present invention; FIG. 2 is an image diagram when the driving support device according to one embodiment of the present invention is mounted on a vehicle; FIG. 4 is an explanatory diagram when the driving support device according to one embodiment of the present invention calculates trajectory plane data on the ground in a world coordinate system. FIG. 4 is a diagram illustrating the ground calculated by the driving support device according to one embodiment of the present invention. FIG. 5 is a view showing an example of a screen display of the upper trajectory data. FIG. 5 is a diagram in which trajectory data on the side of the vehicle calculated by the driving support device according to one embodiment of the present invention is combined with trajectory data on the ground. FIG. 7 is a view showing an example of an image in which vehicle trajectory data calculated by the driving support device according to one embodiment of the present invention is displayed on a screen. FIG. 7: A vehicle trajectory calculated by the driving support device according to one embodiment of the present invention. FIG. 8 is a diagram showing an example of an image in which data has been enhanced and corrected. [EXPLANATION OF SYMBOLS] shows an enhancement correction example of a vehicle trajectory data in the driving support apparatus according to another embodiment of the flow chart Figure 9] the invention showing a processing procedure in the driving support apparatus according to an embodiment of the invention
Reference Signs List 1
42
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002309831A JP2004147083A (en) | 2002-10-24 | 2002-10-24 | Driving support apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002309831A JP2004147083A (en) | 2002-10-24 | 2002-10-24 | Driving support apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004147083A true JP2004147083A (en) | 2004-05-20 |
Family
ID=32455527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002309831A Pending JP2004147083A (en) | 2002-10-24 | 2002-10-24 | Driving support apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004147083A (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007266930A (en) * | 2006-03-28 | 2007-10-11 | Aisin Aw Co Ltd | Driving assist method and driving support apparatus |
JP2009166663A (en) * | 2008-01-16 | 2009-07-30 | Honda Motor Co Ltd | External circumstance display device for vehicle |
WO2009136559A1 (en) * | 2008-05-08 | 2009-11-12 | アイシン精機株式会社 | Vehicle peripheral display device |
JP2010001020A (en) * | 2008-05-08 | 2010-01-07 | Aisin Seiki Co Ltd | Vehicle peripheral display device |
WO2011013813A1 (en) * | 2009-07-30 | 2011-02-03 | クラリオン株式会社 | In-vehicle device and image processing program |
WO2011105107A1 (en) * | 2010-02-26 | 2011-09-01 | パナソニック株式会社 | Driving assistance device |
JP2012066614A (en) * | 2010-09-21 | 2012-04-05 | Aisin Seiki Co Ltd | Parking support system |
KR101405816B1 (en) | 2008-11-21 | 2014-06-12 | 현대자동차일본기술연구소 | Device and Method for Forward Driving Support |
EP2813388A3 (en) * | 2011-06-28 | 2015-03-11 | Volkswagen Aktiengesellschaft | Method and device for parking a vehicle |
JP2015214224A (en) * | 2014-05-09 | 2015-12-03 | 日産自動車株式会社 | Parking assist system and parking assist method |
JP2016060222A (en) * | 2014-09-12 | 2016-04-25 | アイシン精機株式会社 | Delivery support device, and delivery support metho |
CN107950022A (en) * | 2015-09-30 | 2018-04-20 | 爱信精机株式会社 | Image processor for vehicles |
WO2018105417A1 (en) * | 2016-12-09 | 2018-06-14 | 京セラ株式会社 | Imaging device, image processing device, display system, and vehicle |
JP2018098567A (en) * | 2016-12-09 | 2018-06-21 | 京セラ株式会社 | Imaging apparatus, image processing apparatus, display system, and vehicle |
JP2018101850A (en) * | 2016-12-19 | 2018-06-28 | 京セラ株式会社 | Imaging device, image processing apparatus, display system, and vehicle |
WO2020090339A1 (en) * | 2018-10-29 | 2020-05-07 | 京セラ株式会社 | Image processing device, camera, mobile body, and image processing method |
-
2002
- 2002-10-24 JP JP2002309831A patent/JP2004147083A/en active Pending
Cited By (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007266930A (en) * | 2006-03-28 | 2007-10-11 | Aisin Aw Co Ltd | Driving assist method and driving support apparatus |
JP2009166663A (en) * | 2008-01-16 | 2009-07-30 | Honda Motor Co Ltd | External circumstance display device for vehicle |
JP4623394B2 (en) * | 2008-05-08 | 2011-02-02 | アイシン精機株式会社 | Vehicle periphery display device |
KR101326364B1 (en) * | 2008-05-08 | 2013-11-11 | 아이신세이끼가부시끼가이샤 | Vehicle peripheral display device |
JP2010042811A (en) * | 2008-05-08 | 2010-02-25 | Aisin Seiki Co Ltd | Vehicle peripheral display |
JP2010045808A (en) * | 2008-05-08 | 2010-02-25 | Aisin Seiki Co Ltd | Vehicle periphery display device |
JP2010047253A (en) * | 2008-05-08 | 2010-03-04 | Aisin Seiki Co Ltd | Vehicle periphery display device |
JP4623395B2 (en) * | 2008-05-08 | 2011-02-02 | アイシン精機株式会社 | Vehicle periphery display device |
JP4623393B2 (en) * | 2008-05-08 | 2011-02-02 | アイシン精機株式会社 | Vehicle periphery display device |
JP4623396B2 (en) * | 2008-05-08 | 2011-02-02 | アイシン精機株式会社 | Vehicle periphery display device |
US10315568B2 (en) | 2008-05-08 | 2019-06-11 | Aisin Seiki Kabushiki Kaisha | Vehicle peripheral display device |
US10744942B2 (en) | 2008-05-08 | 2020-08-18 | Aisin Seiki Kabushiki Kaisha | Vehicle peripheral display device |
WO2009136559A1 (en) * | 2008-05-08 | 2009-11-12 | アイシン精機株式会社 | Vehicle peripheral display device |
JP2010001020A (en) * | 2008-05-08 | 2010-01-07 | Aisin Seiki Co Ltd | Vehicle peripheral display device |
KR101238109B1 (en) | 2008-05-08 | 2013-02-27 | 아이신세이끼가부시끼가이샤 | Vehicle peripheral display device |
KR101405816B1 (en) | 2008-11-21 | 2014-06-12 | 현대자동차일본기술연구소 | Device and Method for Forward Driving Support |
WO2011013813A1 (en) * | 2009-07-30 | 2011-02-03 | クラリオン株式会社 | In-vehicle device and image processing program |
WO2011105107A1 (en) * | 2010-02-26 | 2011-09-01 | パナソニック株式会社 | Driving assistance device |
JP2012066614A (en) * | 2010-09-21 | 2012-04-05 | Aisin Seiki Co Ltd | Parking support system |
EP2813388A3 (en) * | 2011-06-28 | 2015-03-11 | Volkswagen Aktiengesellschaft | Method and device for parking a vehicle |
US9807352B2 (en) | 2011-06-28 | 2017-10-31 | Volkswagen Ag | Method and device for parking a vehicle |
JP2015214224A (en) * | 2014-05-09 | 2015-12-03 | 日産自動車株式会社 | Parking assist system and parking assist method |
JP2016060222A (en) * | 2014-09-12 | 2016-04-25 | アイシン精機株式会社 | Delivery support device, and delivery support metho |
CN107950022A (en) * | 2015-09-30 | 2018-04-20 | 爱信精机株式会社 | Image processor for vehicles |
EP3358840A4 (en) * | 2015-09-30 | 2018-09-12 | Aisin Seiki Kabushiki Kaisha | Image processing device for vehicles |
US10474898B2 (en) | 2015-09-30 | 2019-11-12 | Aisin Seiki Kabushiki Kaisha | Image processing apparatus for vehicle |
US11587267B2 (en) | 2016-12-09 | 2023-02-21 | Kyocera Corporation | Imaging apparatus, image processing apparatus, display system, and vehicle |
WO2018105417A1 (en) * | 2016-12-09 | 2018-06-14 | 京セラ株式会社 | Imaging device, image processing device, display system, and vehicle |
US11010934B2 (en) | 2016-12-09 | 2021-05-18 | Kyocera Corporation | Imaging apparatus, image processing apparatus, display system, and vehicle |
US11961162B2 (en) | 2016-12-09 | 2024-04-16 | Kyocera Corporation | Imaging apparatus, image processing apparatus, display system, and vehicle |
JP2018098567A (en) * | 2016-12-09 | 2018-06-21 | 京セラ株式会社 | Imaging apparatus, image processing apparatus, display system, and vehicle |
JP2018101850A (en) * | 2016-12-19 | 2018-06-28 | 京セラ株式会社 | Imaging device, image processing apparatus, display system, and vehicle |
JP2020071521A (en) * | 2018-10-29 | 2020-05-07 | 京セラ株式会社 | Image processing device, camera, mobile body, and image processing method |
JP7088807B2 (en) | 2018-10-29 | 2022-06-21 | 京セラ株式会社 | Image processing equipment, cameras, moving objects and image processing methods |
US11433810B2 (en) | 2018-10-29 | 2022-09-06 | Kyocera Corporation | Image processing apparatus, camera, moveable body, and image processing method |
CN112912944B (en) * | 2018-10-29 | 2023-02-21 | 京瓷株式会社 | Image processing device, camera, moving object, and image processing method |
CN112912944A (en) * | 2018-10-29 | 2021-06-04 | 京瓷株式会社 | Image processing device, camera, moving object, and image processing method |
US11924578B2 (en) | 2018-10-29 | 2024-03-05 | Kyocera Corporation | Image processing apparatus, camera, moveable body, and image processing method |
WO2020090339A1 (en) * | 2018-10-29 | 2020-05-07 | 京セラ株式会社 | Image processing device, camera, mobile body, and image processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2974909B1 (en) | Periphery surveillance apparatus and program | |
JP5003946B2 (en) | Parking assistance device | |
US20190255999A1 (en) | Vehicle control apparatus and program | |
JP4914458B2 (en) | Vehicle periphery display device | |
JP5035284B2 (en) | Vehicle periphery display device | |
EP2981077B1 (en) | Periphery monitoring device and program | |
JP4067424B2 (en) | Vehicle peripheral image processing apparatus, program, and recording medium | |
EP2990265A1 (en) | Vehicle control apparatus | |
JP2004147083A (en) | Driving support apparatus | |
CN110877572A (en) | Periphery monitoring device | |
EP3664014B1 (en) | Display control device | |
JP5516988B2 (en) | Parking assistance device | |
US20190244324A1 (en) | Display control apparatus | |
US10848724B2 (en) | Display control device | |
JP4374850B2 (en) | Moving object periphery monitoring device | |
CN112298038A (en) | Periphery monitoring device | |
WO2019073938A1 (en) | Parking assistance device | |
US11601621B2 (en) | Vehicular display system | |
JP2006050246A (en) | Device for visually recognizing around vehicle | |
JP2004336613A (en) | Vehicle surroundings display device and vehicle surroundings display program | |
JP6876236B2 (en) | Display control device | |
JP7006460B2 (en) | Vehicle display control device, vehicle display system, vehicle display control method, and program | |
JP2009056848A (en) | Driving support system | |
JP2003259356A (en) | Apparatus for monitoring surrounding of vehicle | |
JP2004252837A (en) | Vehicle periphery display device and vehicle periphery display program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051011 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20060325 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071114 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071121 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20071128 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071205 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20071212 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080109 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080430 |