JP2004147083A - Driving support apparatus - Google Patents

Driving support apparatus Download PDF

Info

Publication number
JP2004147083A
JP2004147083A JP2002309831A JP2002309831A JP2004147083A JP 2004147083 A JP2004147083 A JP 2004147083A JP 2002309831 A JP2002309831 A JP 2002309831A JP 2002309831 A JP2002309831 A JP 2002309831A JP 2004147083 A JP2004147083 A JP 2004147083A
Authority
JP
Japan
Prior art keywords
vehicle
image
driving support
trajectory
monitor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002309831A
Other languages
Japanese (ja)
Inventor
Kazufumi Mizusawa
水澤 和史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2002309831A priority Critical patent/JP2004147083A/en
Publication of JP2004147083A publication Critical patent/JP2004147083A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To intuitively and three-dimensionally view the track of a vehicle on a two-dimensional monitor screen. <P>SOLUTION: The apparatus is provided with: an on-vehicle camera; an on-vehicle monitor which displays the picked up image of the on-vehicle camera; an image composing means which superimposes a vehicle track image showing the predictive moving direction of a vehicle on the picked up image in the case of displaying the picked up image on the on-vehicle monitor; and a driving support data generation means which displays the vehicle track image by a U-shape consisting of a track surface on a ground surface in the moving direction of the vehicle and the track surfaces of both side faces of the vehicle and connecting the track surfaces of both side surfaces of the vehicle by one or two lines 115 to display it on the on-vehicle monitor. Since the lines 115 exits, the track surfaces of both side faces of the vehicle can intuitively grasped as a surface rising from the ground surface, thereby the vehicle track image can intuitively and three-dimensionally be viewed. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は車載カメラで撮像した画像を車載モニタに表示し車両運転を支援する運転支援装置に係り、特に、車両が進行する領域をモニタ画面上で直感的に把握させることが可能な運転支援装置に関する。
【0002】
【従来の技術】
車載カメラを車両のリアトランク部等に後ろ向きに設置し、この車載カメラで撮影した車両後方の撮像画像を運転者に提示する運転支援装置が普及し始めている。従来の特開2001―180405号公報(特許文献1)に記載された操舵支援装置は、車載カメラによる撮像画像に加え、車幅ラインを示すガイド線を車両後方に延びる様にモニタ画面上に重畳表示し、このガイド線の向きをハンドル操作に合わせて移動させ、車両進行方向を運転者が容易に認識できるようにしている。
【0003】
また、この従来技術では、車幅ラインを示すガイド線のうち車両が曲がる内側すなわち他車と接触する可能性の高い側のガイド線を、地面からバンパ位置まで立ち上がる曲面で表示し、車両の最も出っ張っている部分であるバンパが障害物に接触するか否かの判断を容易にしようとしている。
【0004】
【特許文献1】
特開2001―180405号公報(図7)
【0005】
【発明が解決しようとする課題】
しかしながら、車載モニタにガイド線を重畳表示する場合、そのガイド線が何を意味しているのか、見た瞬間に直感的に認識できるものである必要がある。上述した従来技術に係るガイド線、特に、地面上のガイド線からバンパ位置まで立ち上がる三次元の曲面で表示しようとしたガイド線は、これが車載モニタの二次元画面上に表示されたとき、このガイド線を見た運転者が三次元の曲面であると直感的に把握するか否かの保証はなく、道路の表面上に描かれた面であると誤認識する虞がある。
【0006】
本発明の目的は、車両進行方向の予測軌跡を三次元表示したときモニタ画面上で運転者等がこの軌跡を三次元表示されているということを容易に把握することができる運転支援装置を提供することにある。
【0007】
【課題を解決するための手段】
上記目的を達成する運転支援装置は、車載カメラと、前記車載カメラの撮像画像を表示する車載モニタと、前記車載モニタに前記撮像画像を表示するとき車両の進行予測方向を示す車両軌跡画像を前記撮像画像に重畳する画像合成手段と、前記車両軌跡画像を車両進行方向の地面上の軌跡面と車両両側面の軌跡面とでなるU字形状で表示するとき前記車両両側面の軌跡面間を前記地面上の軌跡面から浮いた位置の1本または2本の線で結んで前記車載モニタに表示させる運転支援データ生成手段とを備えたことを特徴とする。
【0008】
この構成により、車両両側面の軌跡面が地面から立ち上がる面として認識容易となり、モニタ画面上で車両軌跡を立体として把握することができ、車両軌跡と重なる障害物との干渉の判断が容易となる。
【0009】
好適には、上記において、前記撮像画像及び前記車両軌跡画像は視点変換した画像として前記車載モニタに表示されることを特徴とする。この構成により、モニタの表示画像を様々な視点から見た画像に変換し運転者に提供可能となる。
【0010】
更に好適には、上記において、前記車両両側面の軌跡面は、高さを車高またはバンパ位置までとすることを特徴とする。この構成により、高さ方向の距離感が出て立体感が強調される。
【0011】
更に好適には、上記において、前記車両両側面の軌跡面中にバンパ位置を強調表示したことを特徴とする。この構成により、車両側部で最も出っ張る位置に対して注意が喚起され、バンパと他車などの障害物との干渉の有無の判断が容易となる。
【0012】
更に好適には、上記において、前記バンパ位置の強調表示は、所定幅の面で表示されることを特徴とする。この構成により、バンパ位置に対する注意喚起が更に強まると共に、立体感が更に向上する。
【0013】
更に好適には、上記において、前記地面上の軌跡面中は距離表示を非表示としたことを特徴とする。この構成により、画面中の煩雑さが軽減され、見やすい画面となる。
【0014】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
【0015】
図1は、本発明の一実施の形態に係る運転支援装置の構成を示すブロック図である。本実施の形態に係る運転支援装置は、画角内の景色をカラー撮影するカメラ10と、車両のハンドルの切れ角を検出するハンドル角度センサ20と、ハンドル角度センサ20の検出値から操舵角を演算して求める操舵角演算部30と、カメラ10の撮像画像と操舵角演算部30の演算結果とを取り込んで後述するように運転支援画像データを生成する画像処理部40と、画像処理部40で生成された運転支援画像データを映像信号に変換する表示制御部50と、表示制御部50からの映像信号を画面に表示するカラー液晶等のモニタ60とを備える。
【0016】
画像処理部40は、画像処理全体を司るCPU(中央処理装置)41と、CPU41の制御プログラムを記憶するプログラムメモリ42と、CPU41による画像処理作業に使用される作業メモリ43とで構成される。
【0017】
作業メモリ43は、カメラ10に接続された画像記憶部44と、画像記憶部44に接続された視点変換マップデータ格納部45と、操舵角演算部30及び視点変換マップデータ格納部45に接続された運転支援データ生成部46と、運転支援データ生成部46に接続された軌跡マップデータ格納部47と、画像記憶部44及び運転支援データ生成部46に接続された画像合成部48とからなる。
【0018】
視点変換マップデータ格納部45には、視点変換に用いられる所定の視点変換マップデータが格納されている。視点変換とは、カメラ10の実視点で撮影された画像を所望する他の仮想視点位置から観た画像に変換することをいう。また、視点変換マップデータは、視点変換とレンズの歪補正の両方を含めた変換マップデータとしてもよい。
【0019】
画像記憶部44は、カメラ10で撮影された実画像を取り込んだとき、この実画像の画素データを、視点変換マップデータ格納部45に格納されている視点変換マップデータに従って配置し直し、視点変換画像として記憶する。
【0020】
軌跡マップデータ格納部47には、軌跡マップデータが車輪の操舵角毎にそれぞれ格納されており、運転支援データ生成部46は、操舵角演算部30で演算された車輪の操舵角に従って、対応する軌跡マップデータを軌跡マップデータ格納部47から取得する。
【0021】
また、運転支援データ生成部46は、画像記憶部44で行った処理と同様に、視点変換マップデータ格納部45に格納されている視点変換マップデータに従って、軌跡マップデータに対し所定の視点変換を施した軌跡画像を生成する。
【0022】
画像合成部48は、画像記憶部44で生成された視点変換画像と運転支援データ生成部46で生成された軌跡画像とを合成して運転支援画像データを生成し、所定のタイミングで表示制御部50へ出力する。
【0023】
典型的には、プログラムメモリ42、視点変換マップデータ格納部45及び軌跡マップデータ格納部47は、リードオンリーメモリのような読み出し専用メモリで構成され、画像記憶部44、画像支援データ生成部46及び画像合成部48は、ランダムアクセスメモリの様な読み書き可能なメモリで構成される。
【0024】
図2は、図1で説明した運転支援装置を車両1に搭載したときのイメージ図である。この車両1には、その後方の周囲を撮影するカメラ10が後方上部に設置されている。また、カメラ10は、その撮影範囲(視界範囲)内に、車両後部バンパー3等の車両1の一部が写り込むように設置されている。
【0025】
車両1の運転席には、モニタ60が設けられている。車両1にナビゲーション装置が搭載されている場合、モニタ60は、ナビゲーション装置の表示部としても機能する。またこの場合、モニタ60は、通常はナビゲーション装置の表示部として使用され、運転席に設けられたシフトレバー5がバック走行位置に操作されたとき、カメラ10で撮影される画像が表示可能な状態に切り換えられるようになっている。
【0026】
同様に、画像処理部40は、シフトレバー5がバック走行位置に操作された場合だけ、上述した画像処理を所定の周期(例えば、1秒間に30フレームの画像を処理する周期)で行う。なお、シフトレバー5がバック走行位置に操作されたか否かは、シフトレバー5の位置を検知するスイッチを別途設けて判断すれば容易である。
【0027】
操舵輪である前輪7a及び7bは、ハンドル8の操作によって操舵される。ハンドル角度センサ20は、ハンドル8に対して所定の位置に設けられ、運転者によって操作されたハンドル8の切れ角θを検出する。操舵角演算部30は、ハンドル角度センサ20で検出された切れ角θから、前輪7a及び7bの操舵角(タイヤ切れ角)βを演算する。この操舵角βは、切れ角θに所定の係数Kを掛けることで求められる(β=Kθ)。
【0028】
図1に示す画像処理部40、操舵角演算部30、表示制御部50は、車両1内部の電子機器搭載に適した適宜箇所に設置される(図2には図示省略)。
【0029】
次に、軌跡マップデータ格納部47に予め格納される軌跡マップデータの作成方法について説明する。
【0030】
まず、図3に示す世界座標系による地面上の軌跡面データが設計される。図3において、車両1の車幅をWと、ホイールベース長をLと、後輪7c及び7dの中心間距離をTrとすると、リヤアクスル中央(後輪7cと後輪7dとの中点)Ovの転回半径Rmid 、リヤアクスル中心線Axと転回中心Oに対して車体外側(後輪7cの外側)との交点の転回半径Rout 、及びリヤアクスル中心線Axと転回中心Oに対して車体内側(後輪7dの内側)との交点の転回半径Rinは、操舵角βを含む次式(1)〜(3)でそれぞれ表される。
【0031】
Rmid = (L/tanβ)−(Tr/2)       (1)
Rout = Rmid+W/2
= (L/tanβ)−(Tr/2)+W/2   (2)
Rin = Rmid−W/2
= (L/tanβ)−(Tr/2)−W/2   (3)
【0032】
そして、世界座標系での軌跡データ、すなわち車両が後退する予測進路Gin及びGout は、中点Ovが転回半径Rmid の軌跡Gmid 上を0〜300cm後退する範囲において、後輪7c及び7dの移動位置が25cm間隔でそれぞれ13箇所計算されることで求められる。この予測進路Gin及びGout を、操舵角βが取り得る値の範囲(例えば、0度〜37度の左右方向)について、1度刻みで求める。なお、計算の範囲及び箇所数については、上記の例以外であってもよい。また、操舵角βを刻む単位は、1度以外であっても構わない。
【0033】
これにより、図4(a)(b)のような地面上の軌跡面データが作成される。図4(a)は直進後退の軌跡面データであり、図4(b)はカーブして後退するときの軌跡面データである。図4(a)(b)の例では、図3に示す予測進路Gin及びGout をライン101及び102で、車両後部バンパー3の後端が1m、2m及び3m後退した時の位置を、それぞれライン103、ライン104及びライン105で表現している。
【0034】
次に、この作成された地面上の軌跡面データの予測進路Gin及びGout 上に、図5(a)(b)のように、車両1の両側面の予測軌跡面110、111を表現する。この軌跡面110、111は、地面から車両1の車体最頂部までの高さを示すが、地面から車両1のバンパ位置までの高さとすることでもよい。尚、車両1の側面の軌跡は、車両側面の形状に忠実に倣う必要はなく、この例では、車両側面の外接線の軌跡とする。
【0035】
上記の様にして作成された世界座標系での地面上の軌跡面データ及び両側面の軌跡面データが軌跡マップデータ格納部47に格納されており、運転支援データ生成部46は、この世界座標系での軌跡面データを視点変換マップデータに基づいて視点変換及びレンズ歪み補正を行い、カメラ10の撮像画像を視点変換した画像に画像合成部48が合成することで、運転支援画像を生成する。
【0036】
この場合、本実施の形態では、世界座標系での軌跡面データを視点変換及びレンズ歪み補正するとき、単に視点変換やレンズ歪み補正を行うのではなく、モニタ60の画面上で車両軌跡を三次元的に直感的に把握しやすい画像に強調補正を行うこととしている。
【0037】
図6は、世界座標系での直進後退の車両軌跡データを単に視点変換及びレンズ歪み補正した画像である。仮想視点位置は、図2に示すカメラ10の実設置位置より約50cm上方としている。この図6の画像に表されている軌跡データは、車両の車幅を示す線101a、102aと、地面上の車両後方1m、2m、3mを夫々示す線103a、104a、105aと、車両両側面の軌跡面110a、111aである。
【0038】
この図6の画像は、三次元の図形であると意識して見れば三次元の車両軌跡として見ることができる。しかし、この画像がモニタ60の二次元画面に表示されたとき、瞬時に三次元の画像であると把握するのは難しく、車両両側面の軌跡面110a、111aも地面に描かれた画像として認識されてしまう虞が高い。
【0039】
そこで、本実施の形態では、この図6の画像を直感的に三次元の軌跡であると瞬時に把握できるように、図7で説明する様に強調補正し、この強調補正を施した車両軌跡の画像をカメラの撮像画像に重畳表示することとしている。
【0040】
図7は、図6の画像を強調補正した画像である。本実施の形態では、車両の側面軌跡を示す軌跡面110aと軌跡面111aとを結ぶ立体視補助用の強調線115を1本だけ表示している。この強調線115が表示されることで、軌跡面110aと軌跡面111aとが地面から立ち上がった三次元的な面として直感的に把握可能となる。この例では、立体視補助用の強調線115の始点と終点は、地面上の軌跡面から浮いた位置の車高を示す高さの、面110a、111aの手前側上端位置としているが、これに限るものではない。
【0041】
本実施の形態では更に、軌跡面110aと軌跡面111aの端線すなわち、車両後端0mを示す端線110b、111bと、地面上の車幅を示す線101a、102aとを結ぶ車両後端0mを示す線106aも表示し、地面上の軌跡面すなわち線101a、102a、105a、106aで囲まれる枠内は空白とし、中間の距離データの表示は削除している。
【0042】
即ち、図6に示す線103a、104aに相当する距離データ用の線は非表示としている。これらの線103a、104aはそれぞれ車両後端1m、2mを示すものであるが、図7に示す例では、車両両側の軌跡面110a、111aの中の縦線110c、111cが50cm毎の距離表示となっている。
【0043】
更に、本実施の形態では、車両側部で最も出っ張っている箇所すなわちバンパ位置を示すバンパ線120a、121aを、車両側面の軌跡面110a、111a中に輝線表示あるいは色替え表示することで、運転者に注意を喚起するようにしている。この例では、バンパ線120a、121aはガードレールの様にある程度幅のある面として強調表示し、バンパ位置が立体として容易に把握できるようにしている。
【0044】
また、強調表示する場合、このガードレール状の帯部分を輝線表示や色分け表示する代わりに、この帯部分を窓の様に開けることで強調することも可能である。このようにすると、帯部分内に来るカメラの撮像画像が邪魔されずに見える利点がある。
【0045】
図8は、運転支援装置の画像処理部40で行われる処理手順を示すフローチャートである。車両1のシフトレバー5がバック走行位置に切り換えられたとき、ハンドル角度センサ20で検出されたハンドル8の切れ角θに応じた操舵角βが、操舵角演算部30で演算される(ステップS81)。次に、運転支援データ生成部46において、操舵角βに対応する軌跡マップデータが、軌跡マップデータ格納部47から読み出される(ステップS82)。
【0046】
次に、運転支援データ生成部46において、必要な視点変換と図7で説明した強調補正が行われて車両軌跡画像が生成される(ステップS83)。次に、カメラ10で撮影されかつ必要な視点変換が行われた視点変換画像が、画像記憶部44から画像合成部48に書き込まれたか否かが判断される(ステップS84)。この書き込みが完了すると、画像合成部48において、車両軌跡画像が視点変換画像に重畳されて表示制御部50へ出力される(ステップS85,S86)。以上の処理は、車両1のシフトレバー5がバック走行位置にある間、繰り返して行われる(ステップS87)。
【0047】
以上のように、本発明の一実施の形態に係る運転支援装置によれば、車両の軌跡をモニタ60の二次元画面に直感的に立体視可能な画像として表示されるため、車両後退時に近接する他車両と自車両との距離感や障害物の地面からの高さを、運転者に容易に把握させることが可能となる。
【0048】
図9は、本発明の別実施の形態に係る強調補正例を示す車両軌跡画像である。この実施の形態では、車両の側面軌跡を示す面110a、111aの中にバンパ位置を強調するバンパ線122a、123aを表示し、更に、線122a、123aの端点同士を接続する立体視補助用の強調線125a、126aを表示することで、車両側面の軌跡面110a、111a間を結び、軌跡面110a、111aが地面から立ち上がった面であることを容易に把握可能としている。
【0049】
また、この実施の形態でも、図7に示す実施の形態と同様に、U字形状の車両軌跡の上面部を閉塞するような多数の線や面は表示していない。これにより、車両軌跡の上面部を通して地面上の状態が良く見えるようになり、見やすい画像を運転者に提供することができる。
【0050】
車両側面の軌跡面110a、111aの高さは、上記実施の形態では車高としているが、必ずしも車高とする必要はなく、車両側部に最も出っ張るバンパ位置までの高さとすることでもよい。
【0051】
尚、上述した実施の形態に係る運転支援装置では、1台のカメラ10で撮影された実画像を用いた場合を説明したが、2台以上のカメラで撮影された実画像を合成した画像を用いることも可能である。また、カメラは、カラー撮影できるものに限られず、白黒撮影用のカメラでも十分であり、モニタも白黒表示用のもので十分である。この場合、上述した各線や各面を色別表示する代わりに、輝度の違いや線幅の違いで表現すればよい。
【0052】
更に、車両を後退させるときを例に説明したが、車両を前進させるときに車両進行予測軌跡をモニタ画面上で立体視させる場合にも上述した実施の形態を適用可能である。また、実施の形態では、カメラの撮像画像や軌跡データに対して視点変換及びレンズ歪み補正を行ったが、視点変換やレンズ歪み補正は必ずしも必要な訳ではない。しかし、視点変換等と組み合わせることで、運転者に様々な視点からの映像を見やすい画像にして提供することが可能となる。
【0053】
【発明の効果】
本発明によれば、車両軌跡画像を二次元のモニタ画面上で直感的に立体視することが可能な運転支援装置を提供可能となる。
【図面の簡単な説明】
【図1】本発明の一実施の形態に係る運転支援装置の構成を示すブロック図
【図2】本発明の一実施の形態に係る運転支援装置を車両に搭載したときのイメージ図
【図3】本発明の一実施の形態に係る運転支援装置で世界座標系における地面上の軌跡面データを算出するときの説明図
【図4】本発明の一実施の形態に係る運転支援装置で算出した地面上の軌跡面データの画面表示例を示す図
【図5】本発明の一実施の形態に係る運転支援装置で算出した車両側面の軌跡面データを地面上の軌跡データに合成した図
【図6】本発明の一実施の形態に係る運転支援装置で算出した車両軌跡データを画面に表示した画像例を示す図
【図7】本発明の一実施の形態に係る運転支援装置で算出した車両軌跡データを強調補正した画像例を示す図
【図8】本発明の一実施の形態に係る運転支援装置における処理手順を示すフローチャート
【図9】本発明の別実施の形態に係る運転支援装置における車両軌跡データの強調補正例を示す図
【符号の説明】
1 車両
3 車両後部バンパ
5 シフトレバー
7a〜7d 車輪
8 ハンドル
10 カメラ
20 ハンドル角度センサ
30 操舵角演算部
40 画像処理部
41 CPU
42 プログラムメモリ
43 作業メモリ
44 画像記憶部
45 視点変換マップデータ格納部
46 運転支援データ生成部
47 軌跡マップデータ格納部
48 画像合成部
50 表示制御部
60 モニタ
110a、111a 車両側面の軌跡面
115、125a、126a 立体視補助用の強調線
120a、121a、122a、123a バンパ位置を示す強調線
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a driving support device that displays an image captured by a vehicle-mounted camera on a vehicle-mounted monitor to support vehicle driving, and in particular, a driving support device that allows an intuitive grasp of an area where a vehicle is traveling on a monitor screen. About.
[0002]
[Prior art]
2. Description of the Related Art Driving support devices in which an in-vehicle camera is installed rearward in a rear trunk portion of a vehicle and the like, and an image captured behind the vehicle taken by the in-vehicle camera is presented to a driver have begun to spread. A conventional steering assist device described in Japanese Patent Application Laid-Open No. 2001-180405 (Patent Document 1) superimposes a guide line indicating a vehicle width line on a monitor screen so as to extend to the rear of the vehicle in addition to an image captured by an on-vehicle camera. It is displayed and the direction of this guide line is moved in accordance with the operation of the steering wheel so that the driver can easily recognize the traveling direction of the vehicle.
[0003]
Further, in this conventional technique, of the guide lines indicating the vehicle width line, the guide line on the inside where the vehicle turns, that is, the guide line on the side that is likely to come into contact with another vehicle, is displayed on a curved surface rising from the ground to the bumper position, and the most It is intended to make it easy to determine whether or not the projecting bumper contacts an obstacle.
[0004]
[Patent Document 1]
JP 2001-180405 A (FIG. 7)
[0005]
[Problems to be solved by the invention]
However, when a guide line is superimposed and displayed on an in-vehicle monitor, it is necessary to be able to intuitively recognize what the guide line means at the moment of viewing. The guide line according to the related art described above, in particular, a guide line that is to be displayed on a three-dimensional curved surface rising from the guide line on the ground to the bumper position, when this is displayed on the two-dimensional screen of the vehicle-mounted monitor, There is no guarantee whether the driver who sees the line intuitively grasps the surface as a three-dimensional curved surface, and may erroneously recognize it as a surface drawn on the surface of a road.
[0006]
SUMMARY OF THE INVENTION An object of the present invention is to provide a driving support device that enables a driver or the like to easily understand that a predicted trajectory in the vehicle traveling direction is three-dimensionally displayed on a monitor screen when the predicted trajectory is three-dimensionally displayed. Is to do.
[0007]
[Means for Solving the Problems]
A driving support device that achieves the above object includes an in-vehicle camera, an in-vehicle monitor that displays a captured image of the in-vehicle camera, and a vehicle trajectory image that indicates a predicted traveling direction of the vehicle when displaying the captured image on the in-vehicle monitor. Image synthesizing means for superimposing on the captured image, and when the vehicle trajectory image is displayed in a U-shape including a trajectory surface on the ground in the vehicle traveling direction and a trajectory surface on both sides of the vehicle, a distance between the trajectory surfaces on both sides of the vehicle is displayed. Driving assistance data generating means for displaying the information on the in-vehicle monitor by connecting one or two lines at positions floating from the track surface on the ground.
[0008]
With this configuration, the trajectory surfaces on both sides of the vehicle can be easily recognized as surfaces rising from the ground, the vehicle trajectory can be grasped as a three-dimensional shape on the monitor screen, and the interference with an obstacle overlapping the vehicle trajectory can be easily determined. .
[0009]
Preferably, in the above, the captured image and the vehicle trajectory image are displayed on the on-vehicle monitor as viewpoint-converted images. With this configuration, it is possible to convert the display image on the monitor into an image viewed from various viewpoints and provide the image to the driver.
[0010]
More preferably, in the above, the height of the trajectory surfaces on both sides of the vehicle is set to a vehicle height or a bumper position. With this configuration, a sense of distance in the height direction appears, and a three-dimensional effect is emphasized.
[0011]
More preferably, in the above, the bumper position is highlighted in the trajectory plane on both sides of the vehicle. With this configuration, attention is drawn to the most protruding position on the side of the vehicle, and it is easy to determine whether there is interference between the bumper and an obstacle such as another vehicle.
[0012]
More preferably, in the above, the highlighting of the bumper position is displayed on a plane having a predetermined width. With this configuration, the attention to the bumper position is further enhanced, and the three-dimensional effect is further improved.
[0013]
More preferably, in the above, the distance display is not displayed in the track surface on the ground. With this configuration, complexity on the screen is reduced, and the screen is easy to see.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0015]
FIG. 1 is a block diagram showing a configuration of a driving support device according to one embodiment of the present invention. The driving support device according to the present embodiment includes a camera 10 that captures a color image of a scene within an angle of view, a steering wheel angle sensor 20 that detects a turning angle of a steering wheel of a vehicle, and a steering angle based on a detection value of the steering wheel angle sensor 20. A steering angle calculation unit 30 obtained by calculation, an image processing unit 40 which takes in a captured image of the camera 10 and a calculation result of the steering angle calculation unit 30 and generates driving assistance image data as described later, and an image processing unit 40 The display control unit 50 converts the driving assistance image data generated in the step (1) into a video signal, and a monitor 60 such as a color liquid crystal display that displays the video signal from the display control unit 50 on a screen.
[0016]
The image processing unit 40 includes a CPU (central processing unit) 41 that controls the entire image processing, a program memory 42 that stores a control program of the CPU 41, and a work memory 43 that is used for image processing by the CPU 41.
[0017]
The working memory 43 is connected to the image storage unit 44 connected to the camera 10, the viewpoint conversion map data storage unit 45 connected to the image storage unit 44, the steering angle calculation unit 30, and the viewpoint conversion map data storage unit 45. The driving support data generation unit 46, a trajectory map data storage unit 47 connected to the driving support data generation unit 46, and an image synthesis unit 48 connected to the image storage unit 44 and the driving support data generation unit 46.
[0018]
The viewpoint conversion map data storage unit 45 stores predetermined viewpoint conversion map data used for viewpoint conversion. Viewpoint conversion refers to converting an image captured from a real viewpoint of the camera 10 into an image viewed from another desired virtual viewpoint position. The viewpoint conversion map data may be conversion map data including both viewpoint conversion and lens distortion correction.
[0019]
When a real image captured by the camera 10 is captured, the image storage unit 44 rearranges the pixel data of the real image in accordance with the viewpoint conversion map data stored in the viewpoint conversion map data storage unit 45, and performs viewpoint conversion. Store as an image.
[0020]
The trajectory map data storage unit 47 stores the trajectory map data for each wheel steering angle, and the driving support data generation unit 46 responds according to the wheel steering angle calculated by the steering angle calculation unit 30. The trajectory map data is acquired from the trajectory map data storage 47.
[0021]
Further, similarly to the processing performed in the image storage unit 44, the driving support data generation unit 46 performs a predetermined viewpoint conversion on the trajectory map data according to the viewpoint conversion map data stored in the viewpoint conversion map data storage unit 45. The generated locus image is generated.
[0022]
The image synthesizing unit 48 generates driving assistance image data by synthesizing the viewpoint converted image generated by the image storage unit 44 and the trajectory image generated by the driving assistance data generation unit 46, and displays the display control unit at a predetermined timing. Output to 50.
[0023]
Typically, the program memory 42, the viewpoint conversion map data storage unit 45, and the trajectory map data storage unit 47 are configured by a read-only memory such as a read-only memory, and include an image storage unit 44, an image support data generation unit 46, The image synthesizing unit 48 is configured by a readable / writable memory such as a random access memory.
[0024]
FIG. 2 is an image diagram when the driving support device described in FIG. In this vehicle 1, a camera 10 for photographing the surrounding area behind the vehicle 1 is installed at an upper rear portion. Further, the camera 10 is installed so that a part of the vehicle 1 such as the rear bumper 3 of the vehicle is reflected in the photographing range (viewing range).
[0025]
The driver's seat of the vehicle 1 is provided with a monitor 60. When the navigation device is mounted on the vehicle 1, the monitor 60 also functions as a display unit of the navigation device. In this case, the monitor 60 is normally used as a display unit of the navigation device, and is capable of displaying an image captured by the camera 10 when the shift lever 5 provided in the driver's seat is operated to the reverse traveling position. It can be switched to.
[0026]
Similarly, the image processing section 40 performs the above-described image processing at a predetermined cycle (for example, a cycle of processing an image of 30 frames per second) only when the shift lever 5 is operated to the reverse travel position. It is easy to determine whether or not the shift lever 5 has been operated to the reverse running position by separately providing a switch for detecting the position of the shift lever 5.
[0027]
The front wheels 7a and 7b, which are steered wheels, are steered by operating the steering wheel 8. The steering wheel angle sensor 20 is provided at a predetermined position with respect to the steering wheel 8, and detects the turning angle θ of the steering wheel 8 operated by the driver. The steering angle calculation unit 30 calculates a steering angle (tire turning angle) β of the front wheels 7a and 7b from the turning angle θ detected by the steering wheel angle sensor 20. The steering angle β is obtained by multiplying the turning angle θ by a predetermined coefficient K (β = Kθ).
[0028]
The image processing unit 40, the steering angle calculation unit 30, and the display control unit 50 shown in FIG. 1 are installed at appropriate places suitable for mounting electronic devices inside the vehicle 1 (not shown in FIG. 2).
[0029]
Next, a method of creating locus map data stored in advance in the locus map data storage unit 47 will be described.
[0030]
First, trajectory plane data on the ground in the world coordinate system shown in FIG. 3 is designed. In FIG. 3, assuming that the width of the vehicle 1 is W, the length of the wheel base is L, and the distance between the centers of the rear wheels 7c and 7d is Tr, the center of the rear axle (the midpoint between the rear wheels 7c and 7d) Ov. , The turning radius Rout of the intersection of the rear axle center line Ax and the turning center O with the outside of the vehicle (outside the rear wheel 7c), and the turning radius Rout of the rear axle center line Ax and the turning center O inside the vehicle body (the rear wheel). The turning radius Rin at the intersection with (inside 7d) is represented by the following equations (1) to (3) including the steering angle β.
[0031]
Rmid = (L / tanβ) − (Tr / 2) (1)
Rout = Rmid + W / 2
= (L / tanβ)-(Tr / 2) + W / 2 (2)
Rin = Rmid-W / 2
= (L / tanβ)-(Tr / 2) -W / 2 (3)
[0032]
Then, the trajectory data in the world coordinate system, that is, the predicted courses Gin and Gout where the vehicle retreats, are the movement positions of the rear wheels 7c and 7d in a range where the middle point Ov retreats 0 to 300 cm on the trajectory Gmid of the turning radius Rmid. Is calculated at 13 points at 25 cm intervals. The predicted courses Gin and Gout are obtained in increments of 1 degree in a range of values that the steering angle β can take (for example, in the left-right direction from 0 to 37 degrees). Note that the calculation range and the number of locations may be other than the above example. In addition, the unit for incrementing the steering angle β may be other than 1 degree.
[0033]
As a result, trajectory plane data on the ground as shown in FIGS. 4A and 4B is created. FIG. 4A shows trajectory surface data of rectilinear receding, and FIG. 4B shows trajectory surface data of curving and retreating. In the example of FIGS. 4A and 4B, the predicted courses Gin and Gout shown in FIG. 3 are indicated by lines 101 and 102, and the positions when the rear end of the vehicle rear bumper 3 is retracted by 1 m, 2 m and 3 m are indicated by lines. 103, a line 104, and a line 105.
[0034]
Next, the predicted trajectory planes 110 and 111 on both sides of the vehicle 1 are expressed on the predicted paths Gin and Gout of the generated trajectory plane data on the ground as shown in FIGS. The trajectory surfaces 110 and 111 indicate the height from the ground to the top of the vehicle 1 of the vehicle 1, but may be the height from the ground to the bumper position of the vehicle 1. Note that the locus of the side surface of the vehicle 1 does not need to faithfully follow the shape of the side surface of the vehicle, and in this example, is the locus of an external tangent to the side surface of the vehicle.
[0035]
The trajectory plane data on the ground and the trajectory plane data on both sides in the world coordinate system created as described above are stored in the trajectory map data storage unit 47, and the driving support data generation unit 46 The driving support image is generated by performing the viewpoint conversion and the lens distortion correction on the trajectory plane data in the system based on the viewpoint conversion map data, and combining the captured image of the camera 10 with the image obtained by performing the viewpoint conversion. .
[0036]
In this case, according to the present embodiment, when the trajectory plane data in the world coordinate system is subjected to the viewpoint transformation and the lens distortion correction, the vehicle trajectory is tertiarily transformed on the screen of the monitor 60 instead of simply performing the viewpoint transformation and the lens distortion correction. Originally, emphasis correction is performed on an image that is easy to grasp intuitively.
[0037]
FIG. 6 is an image obtained by simply performing viewpoint transformation and lens distortion correction on vehicle trajectory data of rectilinear backward movement in the world coordinate system. The virtual viewpoint position is about 50 cm above the actual installation position of the camera 10 shown in FIG. The trajectory data shown in the image of FIG. 6 includes lines 101a and 102a indicating the vehicle width of the vehicle, lines 103a, 104a and 105a indicating 1m, 2m and 3m behind the vehicle on the ground, and both sides of the vehicle. Trajectory planes 110a and 111a.
[0038]
The image in FIG. 6 can be viewed as a three-dimensional vehicle trajectory if it is consciously viewed as a three-dimensional figure. However, when this image is displayed on the two-dimensional screen of the monitor 60, it is difficult to instantaneously grasp the image as a three-dimensional image, and the track surfaces 110a and 111a on both sides of the vehicle are also recognized as images drawn on the ground. There is a high possibility that it will be done.
[0039]
Therefore, in the present embodiment, the emphasis correction is performed as described with reference to FIG. 7 so that the image in FIG. 6 can be instantly grasped intuitively as a three-dimensional trajectory. Is superimposed on the image captured by the camera.
[0040]
FIG. 7 is an image obtained by enhancing and correcting the image of FIG. In this embodiment, only one emphasis line 115 for stereoscopic vision assistance connecting the trajectory plane 110a indicating the side trajectory of the vehicle and the trajectory plane 111a is displayed. By displaying the emphasis line 115, the trajectory plane 110a and the trajectory plane 111a can be intuitively grasped as a three-dimensional plane rising from the ground. In this example, the start point and the end point of the enhancement line 115 for stereoscopic vision assistance are the upper end positions on the front side of the surfaces 110a and 111a at the height indicating the vehicle height at the position floating from the track surface on the ground. It is not limited to.
[0041]
Further, in the present embodiment, the vehicle rear end 0m connecting the end lines of the locus plane 110a and the locus plane 111a, that is, the end lines 110b and 111b indicating the vehicle rear end 0m and the lines 101a and 102a indicating the vehicle width on the ground. Is also displayed, the trajectory plane on the ground, that is, the frame surrounded by the lines 101a, 102a, 105a, and 106a is blank, and the display of the intermediate distance data is deleted.
[0042]
That is, distance data lines corresponding to the lines 103a and 104a shown in FIG. 6 are not displayed. These lines 103a and 104a indicate the rear end 1m and 2m of the vehicle, respectively, but in the example shown in FIG. 7, the vertical lines 110c and 111c in the locus surfaces 110a and 111a on both sides of the vehicle indicate the distance by 50 cm. It has become.
[0043]
Further, in the present embodiment, driving is performed by displaying brightest lines or changing colors on the locus surfaces 110a, 111a on the side surfaces of the vehicle, by displaying bumper lines 120a, 121a indicating the most protruding portions on the vehicle side, that is, the bumper positions. We call attention to person. In this example, the bumper lines 120a and 121a are highlighted as surfaces having a certain width, such as guardrails, so that the bumper position can be easily grasped as a three-dimensional object.
[0044]
In addition, in the case of highlighting, instead of displaying the guardrail-shaped band portion with a bright line or color-coded display, it is possible to emphasize the band by opening the band portion like a window. In this way, there is an advantage that the captured image of the camera coming in the band portion can be seen without being disturbed.
[0045]
FIG. 8 is a flowchart illustrating a processing procedure performed by the image processing unit 40 of the driving support device. When the shift lever 5 of the vehicle 1 is switched to the reverse travel position, the steering angle β corresponding to the steering angle θ of the steering wheel 8 detected by the steering wheel angle sensor 20 is calculated by the steering angle calculation unit 30 (step S81). ). Next, in the driving support data generation unit 46, the trajectory map data corresponding to the steering angle β is read from the trajectory map data storage unit 47 (Step S82).
[0046]
Next, in the driving support data generation unit 46, necessary viewpoint conversion and enhancement correction described with reference to FIG. 7 are performed to generate a vehicle locus image (step S83). Next, it is determined whether or not a viewpoint converted image captured by the camera 10 and subjected to necessary viewpoint conversion has been written from the image storage unit 44 to the image synthesizing unit 48 (step S84). When the writing is completed, the image compositing section 48 superimposes the vehicle locus image on the viewpoint converted image and outputs it to the display control section 50 (steps S85 and S86). The above processing is repeatedly performed while the shift lever 5 of the vehicle 1 is in the reverse traveling position (Step S87).
[0047]
As described above, according to the driving support apparatus according to the embodiment of the present invention, the trajectory of the vehicle is displayed on the two-dimensional screen of the monitor 60 as an image that can be intuitively viewed stereoscopically. The driver can easily understand the sense of distance between the host vehicle and the other vehicle and the height of the obstacle from the ground.
[0048]
FIG. 9 is a vehicle locus image showing an example of enhancement correction according to another embodiment of the present invention. In this embodiment, bumper lines 122a and 123a for emphasizing the bumper position are displayed on surfaces 110a and 111a indicating the side trajectory of the vehicle, and further, a stereoscopic assisting line connecting end points of lines 122a and 123a is connected. By displaying the emphasis lines 125a and 126a, the trajectory surfaces 110a and 111a on the side of the vehicle are connected, and it is possible to easily grasp that the trajectory surfaces 110a and 111a are surfaces rising from the ground.
[0049]
Also, in this embodiment, as in the embodiment shown in FIG. 7, many lines and surfaces that block the upper surface of the U-shaped vehicle trajectory are not displayed. Thereby, the state on the ground can be seen well through the upper surface portion of the vehicle trajectory, and an easy-to-view image can be provided to the driver.
[0050]
Although the heights of the locus surfaces 110a and 111a on the side surfaces of the vehicle are the vehicle heights in the above-described embodiment, the heights are not necessarily required to be the vehicle heights, and may be the heights up to the bumper positions most protruding to the side of the vehicle.
[0051]
In the driving assistance apparatus according to the above-described embodiment, a case has been described in which a real image taken by one camera 10 is used. However, an image obtained by combining real images taken by two or more cameras is used. It is also possible to use. In addition, the camera is not limited to a camera capable of shooting in color, but a camera for shooting in black and white is sufficient, and a monitor for displaying in black and white is sufficient. In this case, instead of displaying each line or each surface by color, the difference may be represented by a difference in luminance or a difference in line width.
[0052]
Further, the case where the vehicle is moved backward is described as an example. However, the above-described embodiment can be applied to a case where the vehicle traveling prediction trajectory is stereoscopically viewed on the monitor screen when the vehicle is moved forward. Further, in the embodiment, the viewpoint conversion and the lens distortion correction are performed on the captured image of the camera and the trajectory data, but the viewpoint conversion and the lens distortion correction are not always necessary. However, in combination with viewpoint conversion or the like, it is possible to provide a driver with images that are easy to see from various viewpoints.
[0053]
【The invention's effect】
According to the present invention, it is possible to provide a driving support device that can intuitively stereoscopically view a vehicle locus image on a two-dimensional monitor screen.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a driving support device according to one embodiment of the present invention; FIG. 2 is an image diagram when the driving support device according to one embodiment of the present invention is mounted on a vehicle; FIG. 4 is an explanatory diagram when the driving support device according to one embodiment of the present invention calculates trajectory plane data on the ground in a world coordinate system. FIG. 4 is a diagram illustrating the ground calculated by the driving support device according to one embodiment of the present invention. FIG. 5 is a view showing an example of a screen display of the upper trajectory data. FIG. 5 is a diagram in which trajectory data on the side of the vehicle calculated by the driving support device according to one embodiment of the present invention is combined with trajectory data on the ground. FIG. 7 is a view showing an example of an image in which vehicle trajectory data calculated by the driving support device according to one embodiment of the present invention is displayed on a screen. FIG. 7: A vehicle trajectory calculated by the driving support device according to one embodiment of the present invention. FIG. 8 is a diagram showing an example of an image in which data has been enhanced and corrected. [EXPLANATION OF SYMBOLS] shows an enhancement correction example of a vehicle trajectory data in the driving support apparatus according to another embodiment of the flow chart Figure 9] the invention showing a processing procedure in the driving support apparatus according to an embodiment of the invention
Reference Signs List 1 vehicle 3 vehicle rear bumper 5 shift levers 7a to 7d wheels 8 handle 10 camera 20 handle angle sensor 30 steering angle calculation unit 40 image processing unit 41 CPU
42 program memory 43 work memory 44 image storage unit 45 viewpoint conversion map data storage unit 46 driving support data generation unit 47 trajectory map data storage unit 48 image synthesis unit 50 display control unit 60 monitors 110a and 111a trajectory surfaces 115 and 125a on the side of the vehicle , 126a Emphasis lines for stereoscopic vision assistance 120a, 121a, 122a, 123a Emphasis lines indicating bumper positions

Claims (6)

車載カメラと、前記車載カメラの撮像画像を表示する車載モニタと、前記車載モニタに前記撮像画像を表示するとき車両の進行予測方向を示す車両軌跡画像を前記撮像画像に重畳する画像合成手段と、前記車両軌跡画像を車両進行方向の地面上の軌跡面と車両両側面の軌跡面とでなるU字形状で表示すると共に前記車両両側面の軌跡面間を前記地面上の軌跡面から浮いた位置の1本または2本の線で結んで前記車載モニタに表示させる運転支援データ生成手段とを備えたことを特徴とする運転支援装置。An in-vehicle camera, an in-vehicle monitor that displays a captured image of the in-vehicle camera, and an image synthesizing unit that superimposes, on the captured image, a vehicle trajectory image indicating a predicted traveling direction of a vehicle when displaying the captured image on the in-vehicle monitor. The vehicle locus image is displayed in a U-shape including a locus surface on the ground in the vehicle traveling direction and a locus surface on both sides of the vehicle, and a position floating between the locus surfaces on the ground on both sides of the vehicle. And a driving support data generating means for displaying the driving support data on the in-vehicle monitor connected by one or two lines. 前記撮像画像及び前記車両軌跡画像は視点変換した画像として前記車載モニタに表示されることを特徴とする請求項1に記載の運転支援装置。The driving support device according to claim 1, wherein the captured image and the vehicle locus image are displayed on the on-vehicle monitor as viewpoint-converted images. 前記車両両側面の軌跡面は、高さを車高またはバンパ位置までとすることを特徴とする請求項1または請求項2に記載の運転支援装置。The driving support device according to claim 1 or 2, wherein the locus surfaces on both sides of the vehicle have a height up to a vehicle height or a bumper position. 前記車両両側面の軌跡面中にバンパ位置を強調表示したことを特徴とする請求項1乃至請求項3のいずれかに記載の運転支援装置。The driving support device according to any one of claims 1 to 3, wherein a bumper position is highlighted in a locus plane on both sides of the vehicle. 前記バンパ位置の強調表示は、所定幅の面で表示されることを特徴とする請求項4に記載の運転支援装置。The driving support apparatus according to claim 4, wherein the highlighting of the bumper position is displayed on a plane having a predetermined width. 前記地面上の軌跡面中は距離表示を非表示としたことを特徴とする請求項1乃至請求項5のいずれかに記載の運転支援装置。The driving support device according to any one of claims 1 to 5, wherein a distance display is not displayed in the track surface on the ground.
JP2002309831A 2002-10-24 2002-10-24 Driving support apparatus Pending JP2004147083A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002309831A JP2004147083A (en) 2002-10-24 2002-10-24 Driving support apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002309831A JP2004147083A (en) 2002-10-24 2002-10-24 Driving support apparatus

Publications (1)

Publication Number Publication Date
JP2004147083A true JP2004147083A (en) 2004-05-20

Family

ID=32455527

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002309831A Pending JP2004147083A (en) 2002-10-24 2002-10-24 Driving support apparatus

Country Status (1)

Country Link
JP (1) JP2004147083A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007266930A (en) * 2006-03-28 2007-10-11 Aisin Aw Co Ltd Driving assist method and driving support apparatus
JP2009166663A (en) * 2008-01-16 2009-07-30 Honda Motor Co Ltd External circumstance display device for vehicle
WO2009136559A1 (en) * 2008-05-08 2009-11-12 アイシン精機株式会社 Vehicle peripheral display device
JP2010001020A (en) * 2008-05-08 2010-01-07 Aisin Seiki Co Ltd Vehicle peripheral display device
WO2011013813A1 (en) * 2009-07-30 2011-02-03 クラリオン株式会社 In-vehicle device and image processing program
WO2011105107A1 (en) * 2010-02-26 2011-09-01 パナソニック株式会社 Driving assistance device
JP2012066614A (en) * 2010-09-21 2012-04-05 Aisin Seiki Co Ltd Parking support system
KR101405816B1 (en) 2008-11-21 2014-06-12 현대자동차일본기술연구소 Device and Method for Forward Driving Support
EP2813388A3 (en) * 2011-06-28 2015-03-11 Volkswagen Aktiengesellschaft Method and device for parking a vehicle
JP2015214224A (en) * 2014-05-09 2015-12-03 日産自動車株式会社 Parking assist system and parking assist method
JP2016060222A (en) * 2014-09-12 2016-04-25 アイシン精機株式会社 Delivery support device, and delivery support metho
CN107950022A (en) * 2015-09-30 2018-04-20 爱信精机株式会社 Image processor for vehicles
WO2018105417A1 (en) * 2016-12-09 2018-06-14 京セラ株式会社 Imaging device, image processing device, display system, and vehicle
JP2018098567A (en) * 2016-12-09 2018-06-21 京セラ株式会社 Imaging apparatus, image processing apparatus, display system, and vehicle
JP2018101850A (en) * 2016-12-19 2018-06-28 京セラ株式会社 Imaging device, image processing apparatus, display system, and vehicle
WO2020090339A1 (en) * 2018-10-29 2020-05-07 京セラ株式会社 Image processing device, camera, mobile body, and image processing method

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007266930A (en) * 2006-03-28 2007-10-11 Aisin Aw Co Ltd Driving assist method and driving support apparatus
JP2009166663A (en) * 2008-01-16 2009-07-30 Honda Motor Co Ltd External circumstance display device for vehicle
JP4623394B2 (en) * 2008-05-08 2011-02-02 アイシン精機株式会社 Vehicle periphery display device
KR101326364B1 (en) * 2008-05-08 2013-11-11 아이신세이끼가부시끼가이샤 Vehicle peripheral display device
JP2010042811A (en) * 2008-05-08 2010-02-25 Aisin Seiki Co Ltd Vehicle peripheral display
JP2010045808A (en) * 2008-05-08 2010-02-25 Aisin Seiki Co Ltd Vehicle periphery display device
JP2010047253A (en) * 2008-05-08 2010-03-04 Aisin Seiki Co Ltd Vehicle periphery display device
JP4623395B2 (en) * 2008-05-08 2011-02-02 アイシン精機株式会社 Vehicle periphery display device
JP4623393B2 (en) * 2008-05-08 2011-02-02 アイシン精機株式会社 Vehicle periphery display device
JP4623396B2 (en) * 2008-05-08 2011-02-02 アイシン精機株式会社 Vehicle periphery display device
US10315568B2 (en) 2008-05-08 2019-06-11 Aisin Seiki Kabushiki Kaisha Vehicle peripheral display device
US10744942B2 (en) 2008-05-08 2020-08-18 Aisin Seiki Kabushiki Kaisha Vehicle peripheral display device
WO2009136559A1 (en) * 2008-05-08 2009-11-12 アイシン精機株式会社 Vehicle peripheral display device
JP2010001020A (en) * 2008-05-08 2010-01-07 Aisin Seiki Co Ltd Vehicle peripheral display device
KR101238109B1 (en) 2008-05-08 2013-02-27 아이신세이끼가부시끼가이샤 Vehicle peripheral display device
KR101405816B1 (en) 2008-11-21 2014-06-12 현대자동차일본기술연구소 Device and Method for Forward Driving Support
WO2011013813A1 (en) * 2009-07-30 2011-02-03 クラリオン株式会社 In-vehicle device and image processing program
WO2011105107A1 (en) * 2010-02-26 2011-09-01 パナソニック株式会社 Driving assistance device
JP2012066614A (en) * 2010-09-21 2012-04-05 Aisin Seiki Co Ltd Parking support system
EP2813388A3 (en) * 2011-06-28 2015-03-11 Volkswagen Aktiengesellschaft Method and device for parking a vehicle
US9807352B2 (en) 2011-06-28 2017-10-31 Volkswagen Ag Method and device for parking a vehicle
JP2015214224A (en) * 2014-05-09 2015-12-03 日産自動車株式会社 Parking assist system and parking assist method
JP2016060222A (en) * 2014-09-12 2016-04-25 アイシン精機株式会社 Delivery support device, and delivery support metho
CN107950022A (en) * 2015-09-30 2018-04-20 爱信精机株式会社 Image processor for vehicles
EP3358840A4 (en) * 2015-09-30 2018-09-12 Aisin Seiki Kabushiki Kaisha Image processing device for vehicles
US10474898B2 (en) 2015-09-30 2019-11-12 Aisin Seiki Kabushiki Kaisha Image processing apparatus for vehicle
US11587267B2 (en) 2016-12-09 2023-02-21 Kyocera Corporation Imaging apparatus, image processing apparatus, display system, and vehicle
WO2018105417A1 (en) * 2016-12-09 2018-06-14 京セラ株式会社 Imaging device, image processing device, display system, and vehicle
US11010934B2 (en) 2016-12-09 2021-05-18 Kyocera Corporation Imaging apparatus, image processing apparatus, display system, and vehicle
US11961162B2 (en) 2016-12-09 2024-04-16 Kyocera Corporation Imaging apparatus, image processing apparatus, display system, and vehicle
JP2018098567A (en) * 2016-12-09 2018-06-21 京セラ株式会社 Imaging apparatus, image processing apparatus, display system, and vehicle
JP2018101850A (en) * 2016-12-19 2018-06-28 京セラ株式会社 Imaging device, image processing apparatus, display system, and vehicle
JP2020071521A (en) * 2018-10-29 2020-05-07 京セラ株式会社 Image processing device, camera, mobile body, and image processing method
JP7088807B2 (en) 2018-10-29 2022-06-21 京セラ株式会社 Image processing equipment, cameras, moving objects and image processing methods
US11433810B2 (en) 2018-10-29 2022-09-06 Kyocera Corporation Image processing apparatus, camera, moveable body, and image processing method
CN112912944B (en) * 2018-10-29 2023-02-21 京瓷株式会社 Image processing device, camera, moving object, and image processing method
CN112912944A (en) * 2018-10-29 2021-06-04 京瓷株式会社 Image processing device, camera, moving object, and image processing method
US11924578B2 (en) 2018-10-29 2024-03-05 Kyocera Corporation Image processing apparatus, camera, moveable body, and image processing method
WO2020090339A1 (en) * 2018-10-29 2020-05-07 京セラ株式会社 Image processing device, camera, mobile body, and image processing method

Similar Documents

Publication Publication Date Title
EP2974909B1 (en) Periphery surveillance apparatus and program
JP5003946B2 (en) Parking assistance device
US20190255999A1 (en) Vehicle control apparatus and program
JP4914458B2 (en) Vehicle periphery display device
JP5035284B2 (en) Vehicle periphery display device
EP2981077B1 (en) Periphery monitoring device and program
JP4067424B2 (en) Vehicle peripheral image processing apparatus, program, and recording medium
EP2990265A1 (en) Vehicle control apparatus
JP2004147083A (en) Driving support apparatus
CN110877572A (en) Periphery monitoring device
EP3664014B1 (en) Display control device
JP5516988B2 (en) Parking assistance device
US20190244324A1 (en) Display control apparatus
US10848724B2 (en) Display control device
JP4374850B2 (en) Moving object periphery monitoring device
CN112298038A (en) Periphery monitoring device
WO2019073938A1 (en) Parking assistance device
US11601621B2 (en) Vehicular display system
JP2006050246A (en) Device for visually recognizing around vehicle
JP2004336613A (en) Vehicle surroundings display device and vehicle surroundings display program
JP6876236B2 (en) Display control device
JP7006460B2 (en) Vehicle display control device, vehicle display system, vehicle display control method, and program
JP2009056848A (en) Driving support system
JP2003259356A (en) Apparatus for monitoring surrounding of vehicle
JP2004252837A (en) Vehicle periphery display device and vehicle periphery display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051011

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060325

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071114

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071121

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071128

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071205

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20071212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080109

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080430