JP3961969B2 - Vehicle periphery image processing system - Google Patents

Vehicle periphery image processing system Download PDF

Info

Publication number
JP3961969B2
JP3961969B2 JP2003051013A JP2003051013A JP3961969B2 JP 3961969 B2 JP3961969 B2 JP 3961969B2 JP 2003051013 A JP2003051013 A JP 2003051013A JP 2003051013 A JP2003051013 A JP 2003051013A JP 3961969 B2 JP3961969 B2 JP 3961969B2
Authority
JP
Japan
Prior art keywords
bird
eye view
view image
vehicle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003051013A
Other languages
Japanese (ja)
Other versions
JP2004260694A (en
Inventor
竜也 植木
勝之 今西
博彦 柳川
加藤  久仁夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Nippon Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Nippon Soken Inc filed Critical Denso Corp
Priority to JP2003051013A priority Critical patent/JP3961969B2/en
Publication of JP2004260694A publication Critical patent/JP2004260694A/en
Application granted granted Critical
Publication of JP3961969B2 publication Critical patent/JP3961969B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、過去の鳥瞰図画像と現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成して表示するように構成された車両周辺画像処理システムに関する。
【0002】
【従来の技術】
従来より、車両の後部に設置されている後方カメラにより車両後方の状況を撮影し、撮影された画像を座標変換して鳥瞰図(上空から見た平面図)画像を生成し、生成された鳥瞰図画像を車両図形と共に車載モニタに表示するものが供されている(例えば特許文献1参照)。
【0003】
【特許文献1】
特開平10−211849号公報
【0004】
【発明が解決しようとする課題】
ところで、上記した特許文献1に記載したものでは、車両後方の状況を鳥瞰図画像として表示することができるので、車両と例えば駐車スペース(駐車枠)との位置関係をユーザに容易に認識させることができるものの、現在の後方カメラの撮影視野外の領域までをも車載モニタに表示することはできない。そこで、出願人は、現在の後方カメラの撮影視野外の領域までをも車載モニタに表示可能とするために、過去の鳥瞰図画像と現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成して表示するものを特願2001−394419号として出願した。
【0005】
特願2001−394419号のものでは、過去の鳥瞰図画像と現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成して表示するので、現在の後方カメラの撮影視野外の領域を過去に後方カメラが撮影していれば、過去に後方カメラにより撮影された領域を合成して表示するので、現在の後方カメラの撮影視野外の領域までをも車載モニタに表示することができる。
【0006】
しかしながら、特願2001−394419号に記載されているものでは、過去の鳥瞰図画像と現在の鳥瞰図画像とを区別して表示する構成ではないので、過去の鳥瞰図画像と現在の鳥瞰図画像とが混同してしまい、現在の状況をユーザに認識させることができないという問題がある。また、過去の鳥瞰図画像での時間経過の段階的な変化をユーザに認識させることができないという問題もある。また、現在の後方カメラの撮影視野外の領域をユーザに認識させることができるものの、過去の後方カメラの撮影視野外の領域までをもユーザに認識させることができないという問題もある。さらに、車両から障害物までの距離をユーザに認識させることができないという問題もある。
【0007】
本発明は、上記した事情に鑑みてなされたものであり、その目的は、過去の鳥瞰図画像と現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成して表示するものにおいて、適切な情報をユーザに提供することにより、ユーザの運転を適切に支援することができる車両周辺画像処理システムを提供することにある。
【0010】
【課題を解決するための手段】
請求項に記載した車両周辺画像処理システムによれば、撮影手段が車両周辺を撮影すると、鳥瞰図画像生成手段は、撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成し、鳥瞰図画像記憶手段は、鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する。また、車両移動状態検出手段が車両の移動状態を検出すると、鳥瞰図画像移動手段は、車両移動状態検出手段により検出された車両の移動状態に基づいて鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させ、合成鳥瞰図画像生成手段は、鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、撮影手段により撮影された画像が鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する。
【0011】
そして、表示制御手段は、このようにして合成鳥瞰図画像が生成されると、生成された合成鳥瞰図画像内の過去の鳥瞰図画像に濃淡や階調やモザイクなどによる時間経過の段階的な変化を付けて合成鳥瞰図画像を表示手段に表示させる。これにより、過去の鳥瞰図画像に濃淡や階調やモザイクなどによる時間経過の段階的な変化を付けることにより、過去の鳥瞰図画像での時間経過の段階的な変化をユーザに適切に認識させることができ、ユーザの運転を適切に支援することができる。
【0012】
請求項に記載した車両周辺画像処理システムによれば、撮影手段が車両周辺を撮影すると、鳥瞰図画像生成手段は、撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成し、鳥瞰図画像記憶手段は、鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する。また、車両移動状態検出手段が車両の移動状態を検出すると、鳥瞰図画像移動手段は、車両移動状態検出手段により検出された車両の移動状態に基づいて鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させ、合成鳥瞰図画像生成手段は、鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、撮影手段により撮影された画像が鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する。
【0013】
そして、表示制御手段は、このようにして合成鳥瞰図画像が生成されると、表示手段の表示領域にあって撮影手段の撮影視野外の領域に所定の色を付けて合成鳥瞰図画像生成手段により生成された合成鳥瞰図画像を表示手段に表示させる。これにより、過去の後方カメラの撮影視野外の領域を明確にすることにより、過去の後方カメラの撮影視野外の領域までをもユーザに適切に認識させることができ、過去の後方カメラの撮影視野外の領域に対する注意を適切に促すことができ、ユーザの運転を適切に支援することができる。
【0014】
請求項に記載した車両周辺画像処理システムによれば、撮影手段が車両周辺を撮影すると、鳥瞰図画像生成手段は、撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成し、鳥瞰図画像記憶手段は、鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する。また、車両移動状態検出手段が車両の移動状態を検出すると、鳥瞰図画像移動手段は、車両移動状態検出手段により検出された車両の移動状態に基づいて鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させ、合成鳥瞰図画像生成手段は、鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、撮影手段により撮影された画像が鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する。
【0015】
そして、表示制御手段は、このようにして合成鳥瞰図画像が生成されると、生成された合成鳥瞰図画像に少なくとも車両側方および車両後方を含む方向について車両からの距離を示す目印を描画して合成鳥瞰図画像を表示手段に表示させる。これにより、少なくとも車両側方および車両後方を含む方向について車両からの距離を示す目印を描画することにより、車両から障害物までの距離をユーザに適切に認識させることができると共に、障害物に対する注意を適切に促すことができ、ユーザの運転を適切に支援することができる。
請求項4に記載した車両周辺画像処理システムによれば、表示制御手段は、合成鳥瞰図画像生成手段により生成された合成鳥瞰図画像に少なくとも車両側方および車両後方を含む方向について車両図形の外形を基準として車両からの距離を示す目印を描画して合成鳥瞰図画像を表示手段に表示させる。また、請求項5に記載した車両周辺画像処理システムによれば、表示制御手段は、合成鳥瞰図画像生成手段により生成された合成鳥瞰図画像に少なくとも車両側方および車両後方を含む方向について当該車両の所定部位に設置されているソナーの設置位置を基準として車両からの距離を示す目印を描画して合成鳥瞰図画像を表示手段に表示させる。
【0016】
請求項に記載した車両周辺画像処理システムによれば、撮影手段が車両周辺を撮影すると、鳥瞰図画像生成手段は、撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成し、鳥瞰図画像記憶手段は、鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する。また、車両移動状態検出手段が車両の移動状態を検出すると、鳥瞰図画像移動手段は、車両移動状態検出手段により検出された車両の移動状態に基づいて鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させ、合成鳥瞰図画像生成手段は、鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、撮影手段により撮影された画像が鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する。
【0017】
そして、表示制御手段は、このようにして合成鳥瞰図画像が生成されると、生成された合成鳥瞰図画像に車両図形の外形に沿うように枠を描画して合成鳥瞰図画像を表示手段に表示させる。これにより、車両図形の外形に沿うように枠を描画することにより、車両の位置をユーザに適切に認識させることができると共に、障害物に対する注意を適切に促すことができ、ユーザの運転を適切に支援することができる。
【0018】
【発明の実施の形態】
(第1実施例)
以下、本発明の第1実施例について、図1ないし図4を参照して説明する。尚、この第1実施例は、本発明でいう請求項1および請求項に対応する。まず、図2は、車両周辺画像処理システムの構成を概略的に示している。車両周辺画像処理システム1は、車両2の後方の状況を撮影する後方カメラ3(本発明でいう撮影手段)と、車室4内の例えばダッシュボード上に配置された車載モニタ5(本発明でいう表示手段)と、画像処理を行う画像処理ユニット6とを備えて構成されている。
【0019】
図1は、車両周辺画像処理システム1の機能ブロック図を示している。車両周辺画像処理システム1は、機能ブロックとして、システム全体の動作を制御するCPU7(本発明でいう車両移動状態検出手段、鳥瞰図画像移動手段、合成鳥瞰図画像生成手段、表示制御手段)と、後方カメラ3と、鳥瞰図画像生成回路8(本発明でいう鳥瞰図画像生成手段)と、第1の画像メモリ9(本発明でいう鳥瞰図画像記憶手段)と、第2の画像メモリ10と、表示用画像メモリ11と、車載モニタ5と、ハンドル角信号入力回路12と、車速信号入力回路13と、ヨーレイト信号入力回路14と、超音波センサ信号入力回路15と、シフトポジション信号入力回路16とを備えて構成されている。
【0020】
鳥瞰図画像生成回路8は、後方カメラ3から画像が入力されると、入力された画像を座標変換して鳥瞰図画像を生成し、生成された鳥瞰図画像を第1の画像メモリ9に出力する。第1の画像メモリ9は、鳥瞰図画像生成回路8から鳥瞰図画像が入力されると、入力された鳥瞰図画像を現在の鳥瞰図画像として一時的に記憶する。
【0021】
第2の画像メモリ10は、第1の画像メモリ9から鳥瞰図画像が転送されると、転送された鳥瞰図画像を過去の鳥瞰図画像として記憶する。表示用画像メモリ11は、第1の画像メモリ9に記憶されている現在の鳥瞰図画像と第2の画像メモリ10に記憶されている過去の鳥瞰図画像とが合成された合成鳥瞰図画像を表示用画像として記憶する。車載モニタ5は、表示用画像メモリ11に表示用画像として記憶されている合成鳥瞰図画像を表示する。
【0022】
ハンドル角信号入力回路12は、ユーザのハンドル操作に関するデータをCPU7に入力させる。車速信号入力回路13は、車速に関するデータをCPU7に入力させる。ヨーレイト信号入力回路14は、車両2の旋回状況に関するデータをCPU7に入力させる。超音波センサ信号入力回路15は、車両2の周辺に存在する障害物の有無を検出し、障害物の有無に関するデータや障害物と車両2との間の距離などに関するデータをCPU7に入力させる。シフトポジション信号入力回路16は、ユーザのシフトレバー操作に関するデータをCPU7に入力させる。
【0023】
尚、上記した構成では、CPU7、鳥瞰図画像生成回路8、第1の画像メモリ9、第2の画像メモリ10、表示用画像メモリ11、ハンドル角信号入力回路12、車速信号入力回路13、ヨーレイト信号入力回路14、超音波センサ信号入力回路15およびシフトポジション信号入力回路16は、それらの全体または一部を一体化して1つのLSIで構成することも可能である。また、鳥瞰図画像を生成する専用の画像処理回路として鳥瞰図画像生成回路8を備える代わりに、CPU7がソフトウェア的に鳥瞰図画像を生成することも可能である。また、車載モニタ5は、ナビゲーション装置のディスプレイで兼用することも可能である。
【0024】
ここで、鳥瞰図画像生成回路8が鳥瞰図画像を生成する手順について簡単に説明する。尚、前提条件として、後方カメラ3は、オートフォーカス機能を有すると共に、その取付け高さや取付け角度が予め設定されているものとする。また、地面は、平面であることを計算上の前提条件としている。ここでは、後方カメラ3により撮影された画像を画素単位に分解し、車両2の後端を基準線として各画素までの距離および幅方向位置を算出し、各画素の鳥瞰変換後の位置座標を算出する。そして、算出された位置座標に基づいて各画素を再配置する。これにより、後方カメラ3により撮影された画像から鳥瞰図画像を生成することができる。
【0025】
尚、このようにして鳥瞰変換を行うことにより、鳥瞰図画像では、画素と画素との間に隙間が生じたり、画素と画素とが重なったりする場合が想定されるが、車両2を車庫入れするときなどでは、車載モニタ5に表示される画像が多少間引きされた様な画像であったとして、後方カメラ3により撮影された元々の画像(生の画像)が表示されるよりも、操作性が良いものである。
【0026】
次に、上記した構成の作用について、図3および図4を参照して説明する。 CPU7は、第1の画像メモリ9、第2の画像メモリ10および表示用画像メモリ11を初期化すると共に、各種のパラメータを初期化する(ステップS1)。次いで、CPU7は、後方カメラ3により撮影された画像が鳥瞰図画像生成回路8で座標変換されて鳥瞰図画像が生成され、鳥瞰図画像が第1の画像メモリ9に記憶された旨を検出すると(ステップS2)、鳥瞰図画像が第2の画像メモリ10に記憶されているか否かを判定する(ステップS3)。
【0027】
ここで、CPU7は、鳥瞰図画像が第2の画像メモリ10に記憶されている旨を検出すると(ステップS3にて「YES」)、ハンドル角信号入力回路12から入力されているデータ、車速信号入力回路13から入力されているデータ、ヨーレイト信号入力回路14から入力されているデータおよび超音波センサ信号入力回路15から入力されているデータに基づいて車両2が移動しているか否かを判定する(ステップS4)。
【0028】
そして、CPU7は、車両2が移動している旨を検出すると(ステップS4にて「YES」)、第2の画像メモリ10から過去の鳥瞰図画像として記憶されている鳥瞰図画像を読出し(ステップS5)、読出された鳥瞰図画像を車両2の移動状態に基づいて回転移動または平行移動させる画像処理を行う(ステップS6)。このとき、CPU7は、車両2がカーブして移動していれば、第2の画像メモリ10に記憶されている鳥瞰図画像を回転移動させる画像処理を行うことになり、車両2が直進して移動していれば、第2の画像メモリ10に記憶されている鳥瞰図画像を平行移動させる画像処理を行うことになる。
【0029】
次いで、CPU7は、第1の画像メモリ9から現在の鳥瞰図画像として記憶されている鳥瞰図画像を読出し(ステップS7)、第2の画像メモリ10から読出されて画像処理が行われた過去の鳥瞰図画像と、第1の画像メモリ9から読出された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する(ステップS8)。
【0030】
さて、ここで、CPU7は、このようにして合成鳥瞰図画像が生成されると、生成された合成鳥瞰図画像内の最新の過去の鳥瞰図画像に色を付ける(ステップS9)。具体的に説明すると、CPU7は、最新の過去の鳥瞰図画像に例えばR値を一定量増加させてRGBカラーフィルタをかけることにより、最新の過去の鳥瞰図画像に赤みがかった色を付ける。このとき、最新の過去の鳥瞰図画像に付ける色は、ユーザの注意を引付けるような色であることが望ましい。
【0031】
次いで、CPU7は、車載モニタ5の表示領域にあって後方カメラ3の撮影視野外の領域が存在するか否かを判定し(ステップS10)、車載モニタ5の表示領域にあって後方カメラ3の撮影視野外の領域が存在する旨を検出すると(ステップS10にて「YES」)、後方カメラ3の撮影視野外の領域に色を付ける(ステップS11)。具体的に説明すると、CPU7は、後方カメラ3の撮影視野外の領域に例えばB値を一定量増加させてRGBカラーフィルタをかけることにより、後方カメラ3の撮影視野外の領域に青みがかった色を付ける。このとき、後方カメラ3の撮影視野外の領域に付ける色も、ユーザの注意を引付けるような色であることが望ましい。
【0032】
そして、CPU7は、このようにして最新の過去の鳥瞰図画像や後方カメラ3の撮影視野外の領域に色が付けられた合成鳥瞰図画像を表示用画像メモリ11に出力させて車載モニタ5に表示させ(ステップS12)、その合成鳥瞰図画像を第2の画像メモリ10に過去の鳥瞰図画像として記憶させ(ステップS13)、上記したステップS2に戻り、ステップS2以降の処理を繰返して行う。
【0033】
以上に説明した一連の処理により、CPU7は、図4に示すように、現在の鳥瞰図画像を車両図形17の後方の表示領域(図4では「P」にて示す領域)に表示させ、赤みがかった色が付けられた過去の鳥瞰図画像を車両図形17の側方の表示領域(図4では「Q1」,「Q2」にて示す領域)に表示させ、青みがかった色が付けられた後方カメラ3の撮影視野外の領域を所定の表示領域(図4では「R1」,「R2」にて示す領域)に表示させる。
【0034】
また、この場合、CPU7は、最新の過去の鳥瞰図画像に所定の色を付けるので、上記した一連の処理を繰返して行うことにより、過去の鳥瞰図画像を濃淡による時間経過の段階的な変化を付けて表示させることにもなる。つまり、CPU7は、過去の鳥瞰図画像内の時間経過が相対的に大きい領域については色を濃くして表示させ、過去の鳥瞰図画像内の時間経過が相対的に小さい領域については色を薄くして表示させる(図4では、色が濃い領域をハッチングを密にして示しており、色が薄い領域をハッチングを粗にして示している)。
【0035】
尚、CPU7は、鳥瞰図画像が第2の画像メモリ10に記憶されていない旨を検出すると(ステップS3にて「NO」)、第1の画像メモリ9に現在の鳥瞰図画像として記憶されている鳥瞰図画像を第2の画像メモリ10に転送させ(ステップS14)、上記したステップS2に戻り、ステップS2以降の処理を繰返して行う。
【0036】
また、CPU7は、車両2が移動していない旨を検出すると(ステップS4にて「NO」)、第2の画像メモリ10から読出されて画像処理が行われた鳥瞰図画像と、第1の画像メモリ9から読出された鳥瞰図画像とを合成して合成鳥瞰図画像を生成することなく、第1の画像メモリ9に現在の鳥瞰図画像として記憶されている鳥瞰図画像をそのまま車両図形17の後方の表示領域に表示させ(ステップS15)、上記したステップS2に戻り、ステップS2以降の処理を繰返して行う。
【0037】
また、CPU7は、車載モニタ5の表示領域にあって後方カメラ3の撮影視野外の領域が存在していない旨を検出すると(ステップS10にて「NO」)、後方カメラ3の撮影視野外の領域に色を付けることなく、最新の過去の鳥瞰図画像のみに色が付けられた合成鳥瞰図画像を表示用画像メモリ11に出力させて車載モニタ5に表示させ(ステップS12)、その合成鳥瞰図画像を第2の画像メモリ10に過去の鳥瞰図画像として記憶させる(ステップS13)。
【0038】
ところで、以上は、過去の鳥瞰図画像に色を付ける場合に、濃淡による時間経過の段階的な変化を付ける場合を説明したが、階調やモザイクなどによる時間経過の段階的な変化を付けても良い。また、これら過去の鳥瞰図画像に色を付ける処理および後方カメラ3の撮影視野外の領域に色を付ける処理のうちいずれかを選択的に行うようにしても良い。
【0039】
以上に説明したように第1実施例によれば、車両周辺画像処理システム1において、過去の鳥瞰図画像と現在の鳥瞰図画像とが合成されて生成された合成鳥瞰図画像内の過去の鳥瞰図画像に色を付けて合成鳥瞰図画像を表示するように構成したので、過去の鳥瞰図画像と現在の鳥瞰図画像との境界を明確にすることにより、現在の状況を適切にユーザに認識させることができると共に、過去の鳥瞰図画像が表示されている領域に対する注意を適切に促すことができ、ユーザの運転を適切に支援することができる。
【0040】
また、合成鳥瞰図画像内の過去の鳥瞰図画像に濃淡や階調やモザイクなどによる時間経過の段階的な変化を付けて合成鳥瞰図画像を表示するように構成したので、過去の鳥瞰図画像の領域での時間経過をユーザに適切に認識させることができ、ユーザの運転を適切に支援することができる。
【0041】
さらに、車載モニタ5の表示領域にあって後方カメラ5の撮影視野外の領域に色を付けて合成鳥瞰図画像を表示するように構成したので、後方カメラ5の撮影視野外の領域を明確にすることにより、過去の後方カメラ5の撮影視野外の領域をユーザに適切に認識させることができ、過去の後方カメラ5の撮影視野外の領域に対する注意を適切に促すことでき、ユーザの運転を適切に支援することができる。
【0042】
(第2実施例)
次に、本発明の第2実施例について、図5ないし図8を参照して説明する。尚、この第2実施例は、本発明でいう請求項3ないし請求項5に対応する。ここでは、上記した第1実施例と同一部分については説明を省略し、異なる部分について説明する。
【0043】
この第2実施例では、CPU7は、第2の画像メモリ10から読出されて画像処理が行われた鳥瞰図画像と、第1の画像メモリ9から読出された鳥瞰図画像とを合成して合成鳥瞰図画像を生成した後に(ステップS8)、生成された合成鳥瞰図画像に車両2からの距離を示す目印を描画する(ステップS21)。そして、CPU7は、このようにして車両2からの距離を示す目印が描画された合成鳥瞰図画像を表示用画像メモリ11に出力させて車載モニタ5に表示させる(ステップS22)。
【0044】
以上に説明した一連の処理により、CPU7は、例えば車両2の後端を基準とする場合であれば、図6に示すように、車両図形17の後端を基準として車両2からの距離を示す目印(図6では「A1」〜「A4」にて示す線)を描画させ、また、例えば車両2の外形を基準とする場合であれば、図7に示すように、車両図形17の外形を基準として車両2からの距離を示す目印(図7では「B1」〜「B4」にて示す線)を描画させ、さらに、例えば車両2の所定部位に設定されているソナーの設置位置を基準とする場合であれば、図8に示すように、ソナーの設置位置(図8では左右の後端)を基準として車両2からの距離を示す目印(図8では「C1」,「C2」,「D1」,「D2」にて示す円)を描画させ、これら車両2からの距離を示す目印が描画された合成鳥瞰図画像を表示させる。
【0045】
以上に説明したように第2実施例によれば、車両周辺画像処理システム1において、過去の鳥瞰図画像と現在の鳥瞰図画像とが合成されて生成された合成鳥瞰図画像に車両2からの距離を示す目印を描画して合成鳥瞰図画像を表示するように構成したので、車両2からの距離を示す目印を描画することにより、車両2から障害物までの距離をユーザに適切に認識させることができると共に、障害物に対する注意を適切に促すことができ、ユーザの運転を適切に支援することができる。
【0046】
(第3実施例)
次に、本発明の第3実施例について、図9および図10を参照して説明する。尚、この第3実施例は、本発明でいう請求項に対応する。ここでも、上記した第1実施例と同一部分については説明を省略し、異なる部分について説明する。
【0047】
この第3実施例では、CPU7は、第2の画像メモリ10から読出されて画像処理が行われた鳥瞰図画像と、第1の画像メモリ9から読出された鳥瞰図画像とを合成して合成鳥瞰図画像を生成した後に(ステップS8)、生成された合成鳥瞰図画像に車両図形17の外形に沿うように枠を描画する(ステップS31)。そして、CPU7は、このようにして車両図形17の外形に沿うように枠が描画された合成鳥瞰図画像を表示用画像メモリ11に出力させて車載モニタ5に表示させる(ステップS32)。
【0048】
以上に説明した一連の処理により、CPU7は、図10に示すように、車両図形17の外形に沿うように枠(図10では「E」にて示す)を描画させ、車両図形17の外形に沿うように枠が描画された合成鳥瞰図画像を表示させる。
【0049】
以上に説明したように第3実施例によれば、車両周辺画像処理システム1において、過去の鳥瞰図画像と現在の鳥瞰図画像とが合成されて生成された合成鳥瞰図画像に車両図形17の外形に沿うように枠を描画して合成鳥瞰図画像を表示するように構成したので、車両図形17の外形に沿うように枠を描画することにより、車両2の位置をユーザに適切に認識させることができると共に、障害物に対する注意を適切に促すことができ、ユーザの運転を適切に支援することができる。
【0050】
(その他の実施例)
本発明は、上記した実施例にのみ限定されるものではなく、以下のように変形または拡張することができる。
第1実施例、第2実施例および第3実施例のうち幾つかを組合わせた構成であっても良い。
第2実施例において、ユーザが描画モードを選択することにより、車両図形17の後端を基準として車両2からの距離を示す目印を描画する処理、車両図形17の外形を基準として車両2からの距離を示す目印を描画する処理、ソナーの設置位置を基準として車両2からの距離を示す目印を描画する処理を選択可能な構成であっても良い。
【図面の簡単な説明】
【図1】 本発明の第1実施例を示す機能ブロック図
【図2】 システムの全体構成を概略的に示す図
【図3】 フローチャート
【図4】 車載モニタの表示画面の一例を示す図
【図5】 本発明の第2実施例を示すフローチャート
【図6】 図4相当図
【図7】 図4相当図
【図8】 図4相当図
【図9】 本発明の第3実施例を示すフローチャート
【図10】 図4相当図
【符号の説明】
図面中、1は車両周辺画像処理システム、2は車両、3は後方カメラ(撮影手段)、5は車載モニタ(表示手段)、7はCPU(車両移動状態検出手段、鳥瞰図画像移動手段、合成鳥瞰図画像生成手段、表示制御手段)、8は鳥瞰図画像生成回路(鳥瞰図画像生成手段)、9は第1の画像メモリ(鳥瞰図画像記憶手段)である。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a vehicle periphery image processing system configured to combine a past bird's-eye view image and a current bird's-eye view image to generate and display a combined bird's-eye view image.
[0002]
[Prior art]
Conventionally, the situation behind the vehicle is photographed by a rear camera installed at the rear of the vehicle, and a bird's-eye view (plan view seen from the sky) image is generated by coordinate conversion of the photographed image, and the generated bird's-eye view image Is displayed on a vehicle-mounted monitor together with a vehicle figure (see, for example, Patent Document 1).
[0003]
[Patent Document 1]
Japanese Patent Laid-Open No. 10-211849
[Problems to be solved by the invention]
By the way, in what was described in the above-mentioned patent document 1, since the situation behind the vehicle can be displayed as a bird's-eye view image, the user can easily recognize the positional relationship between the vehicle and, for example, a parking space (parking frame). Although it is possible, even the area outside the field of view of the current rear camera cannot be displayed on the in-vehicle monitor. Therefore, the applicant generates a synthesized bird's-eye view image by combining the past bird's-eye view image and the current bird's-eye view image in order to be able to display even the area outside the shooting field of view of the current rear camera on the in-vehicle monitor. The application to be displayed was filed as Japanese Patent Application No. 2001-394419.
[0005]
In Japanese Patent Application No. 2001-394419, a past bird's-eye view image and a current bird's-eye view image are synthesized and a combined bird's-eye view image is generated and displayed. Since the area captured by the rear camera in the past is combined and displayed, even the area outside the field of view of the current rear camera can be displayed on the vehicle-mounted monitor.
[0006]
However, since what is described in Japanese Patent Application No. 2001-394419 is not configured to distinguish between a past bird's-eye view image and a current bird's-eye view image, the past bird's-eye view image and the current bird's-eye view image are confused. Therefore, there is a problem that the current situation cannot be recognized by the user. There is also a problem in that the user cannot recognize a gradual change in the time lapse in past bird's-eye view images. In addition, although the user can recognize an area outside the imaging field of view of the current rear camera, there is also a problem that the user cannot recognize an area outside the imaging field of view of the past rear camera. Furthermore, there is a problem that the user cannot recognize the distance from the vehicle to the obstacle.
[0007]
The present invention has been made in view of the circumstances described above, and its purpose is to generate a combined bird's-eye view image by combining a past bird's-eye view image and a current bird's-eye view image, and display appropriate information. It is to provide a vehicle periphery image processing system capable of appropriately supporting the user's driving by providing the user.
[0010]
[Means for Solving the Problems]
According to the vehicle periphery image processing system described in claim 1 , when the imaging unit captures the periphery of the vehicle, the bird's-eye view image generation unit generates a bird's-eye view image by performing coordinate conversion on the image captured by the imaging unit. The storage means stores the bird's eye view image generated by the bird's eye view image generation means. Further, when the vehicle movement state detection unit detects the movement state of the vehicle, the bird's eye view image movement unit stores the past bird's eye view stored in the bird's eye view image storage unit based on the movement state of the vehicle detected by the vehicle movement state detection unit. The synthesized bird's-eye view image generating means converts the past bird's-eye view image rotated and / or translated by the bird's-eye view image moving means and the image taken by the photographing means by the coordinate conversion by the bird's-eye view image generating means. Are combined with the current bird's-eye view image generated in this manner to generate a combined bird's-eye view image.
[0011]
Then, when the composite bird's-eye view image is generated in this way, the display control means attaches a gradual change in the time lapse due to shading, gradation, mosaic, etc. to the past bird's-eye view image in the generated composite bird's-eye view image. The synthesized bird's-eye view image is displayed on the display means. This allows the user to appropriately recognize the gradual change of the time lapse in the past bird's-eye view image by attaching the gradual change of the time lapse due to the shade, gradation, mosaic, etc. to the past bird's-eye view image. It is possible to appropriately support the user's driving.
[0012]
According to the vehicle periphery image processing system described in claim 2 , when the photographing unit photographs the vehicle periphery, the bird's-eye view image generation unit performs coordinate conversion on the image photographed by the photographing unit to generate a bird's-eye view image, and The storage means stores the bird's eye view image generated by the bird's eye view image generation means. Further, when the vehicle movement state detection unit detects the movement state of the vehicle, the bird's eye view image movement unit stores the past bird's eye view stored in the bird's eye view image storage unit based on the movement state of the vehicle detected by the vehicle movement state detection unit. The synthesized bird's-eye view image generating means converts the past bird's-eye view image rotated and / or translated by the bird's-eye view image moving means and the image taken by the photographing means by the coordinate conversion by the bird's-eye view image generating means. Are combined with the current bird's-eye view image generated in this manner to generate a combined bird's-eye view image.
[0013]
When the composite bird's-eye view image is generated in this way, the display control means adds a predetermined color to the area outside the shooting field of view of the photographing means and is generated by the synthetic bird's-eye view image generating means. The displayed synthesized bird's-eye view image is displayed on the display means. As a result, by clarifying the area outside the imaging field of view of the past rear camera, it is possible to allow the user to appropriately recognize the area outside the imaging field of view of the past rear camera. It is possible to appropriately call attention to the outside area, and to appropriately support the user's driving.
[0014]
According to the vehicle periphery image processing system described in claim 3 , when the photographing unit photographs the vehicle periphery, the bird's-eye view image generation unit generates a bird's-eye view image by performing coordinate conversion on the image photographed by the photographing unit, The storage means stores the bird's eye view image generated by the bird's eye view image generation means. Further, when the vehicle movement state detection unit detects the movement state of the vehicle, the bird's eye view image movement unit stores the past bird's eye view stored in the bird's eye view image storage unit based on the movement state of the vehicle detected by the vehicle movement state detection unit. The synthesized bird's-eye view image generating means converts the past bird's-eye view image rotated and / or translated by the bird's-eye view image moving means and the image taken by the photographing means by the coordinate conversion by the bird's-eye view image generating means. Are combined with the current bird's-eye view image generated in this manner to generate a combined bird's-eye view image.
[0015]
Then, when the composite bird's-eye view image is generated in this way, the display control means draws a mark indicating the distance from the vehicle in the direction including at least the side of the vehicle and the rear of the vehicle on the generated composite bird's-eye view image and combines it. A bird's eye view image is displayed on the display means. Thus, by drawing a mark indicating the distance from the vehicle in a direction including at least the side of the vehicle and the rear of the vehicle, the user can appropriately recognize the distance from the vehicle to the obstacle and be careful about the obstacle. Can be promoted appropriately, and the user's driving can be appropriately supported.
According to the vehicle periphery image processing system of the fourth aspect, the display control means is based on the outer shape of the vehicle figure in a direction including at least the side of the vehicle and the rear of the vehicle in the synthesized bird's-eye view image generated by the synthesized bird's-eye view image generating means. As a result, a mark indicating the distance from the vehicle is drawn, and the synthesized bird's-eye view image is displayed on the display means. According to the vehicle periphery image processing system of the fifth aspect, the display control means is configured to determine the vehicle in the direction including at least the side of the vehicle and the rear of the vehicle in the synthesized bird's-eye view image generated by the synthesized bird's-eye view image generating means. A mark indicating the distance from the vehicle is drawn on the basis of the installation position of the sonar installed at the site, and the composite bird's-eye view image is displayed on the display means.
[0016]
According to the vehicle periphery image processing system described in claim 6 , when the photographing unit photographs the periphery of the vehicle, the bird's-eye view image generation unit generates a bird's-eye view image by performing coordinate conversion on the image photographed by the photographing unit, The storage means stores the bird's eye view image generated by the bird's eye view image generation means. Further, when the vehicle movement state detection unit detects the movement state of the vehicle, the bird's eye view image movement unit stores the past bird's eye view stored in the bird's eye view image storage unit based on the movement state of the vehicle detected by the vehicle movement state detection unit. The synthesized bird's-eye view image generating means converts the past bird's-eye view image rotated and / or translated by the bird's-eye view image moving means and the image taken by the photographing means by the coordinate conversion by the bird's-eye view image generating means. Are combined with the current bird's-eye view image generated in this manner to generate a combined bird's-eye view image.
[0017]
Then, when the composite bird's-eye view image is generated in this way, the display control means draws a frame on the generated composite bird's-eye view image along the outer shape of the vehicle figure, and displays the composite bird's-eye view image on the display means. Thus, by drawing a frame along the outline of the vehicle figure, it is possible to appropriately recognize the position of the vehicle and to prompt the user to pay attention to the obstacle, and to appropriately drive the user. Can help.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
(First embodiment)
A first embodiment of the present invention will be described below with reference to FIGS. The first embodiment corresponds to claims 1 and 2 according to the present invention. First, FIG. 2 schematically shows the configuration of the vehicle periphery image processing system. The vehicle periphery image processing system 1 includes a rear camera 3 (photographing means referred to in the present invention) for photographing the situation behind the vehicle 2 and an in-vehicle monitor 5 (for example, on the dashboard) in the passenger compartment 4 (in the present invention). Display means) and an image processing unit 6 for performing image processing.
[0019]
FIG. 1 shows a functional block diagram of the vehicle periphery image processing system 1. The vehicle periphery image processing system 1 includes, as functional blocks, a CPU 7 (vehicle movement state detection means, bird's-eye view image movement means, synthetic bird's-eye view image generation means, display control means) that controls the operation of the entire system, and a rear camera. 3, a bird's eye view image generation circuit 8 (bird's eye view image generation means referred to in the present invention), a first image memory 9 (bird's eye view image storage means referred to in the present invention), a second image memory 10, and a display image memory 11, an in-vehicle monitor 5, a steering wheel angle signal input circuit 12, a vehicle speed signal input circuit 13, a yaw rate signal input circuit 14, an ultrasonic sensor signal input circuit 15, and a shift position signal input circuit 16. Has been.
[0020]
When an image is input from the rear camera 3, the bird's eye view image generation circuit 8 generates a bird's eye view image by performing coordinate conversion on the input image, and outputs the generated bird's eye view image to the first image memory 9. When the bird's eye view image is input from the bird's eye view image generation circuit 8, the first image memory 9 temporarily stores the input bird's eye view image as the current bird's eye view image.
[0021]
When the bird's-eye view image is transferred from the first image memory 9, the second image memory 10 stores the transferred bird's-eye view image as a past bird's-eye view image. The display image memory 11 displays a composite bird's-eye view image obtained by combining the current bird's-eye view image stored in the first image memory 9 and the past bird's-eye view image stored in the second image memory 10. Remember as. The in-vehicle monitor 5 displays the synthesized bird's-eye view image stored as the display image in the display image memory 11.
[0022]
The handle angle signal input circuit 12 causes the CPU 7 to input data related to the user's handle operation. The vehicle speed signal input circuit 13 causes the CPU 7 to input data related to the vehicle speed. The yaw rate signal input circuit 14 causes the CPU 7 to input data relating to the turning situation of the vehicle 2. The ultrasonic sensor signal input circuit 15 detects the presence / absence of an obstacle around the vehicle 2 and causes the CPU 7 to input data relating to the presence / absence of the obstacle and data relating to the distance between the obstacle and the vehicle 2. The shift position signal input circuit 16 causes the CPU 7 to input data related to the user's shift lever operation.
[0023]
In the above configuration, the CPU 7, the bird's eye view image generation circuit 8, the first image memory 9, the second image memory 10, the display image memory 11, the steering wheel angle signal input circuit 12, the vehicle speed signal input circuit 13, and the yaw rate signal. The input circuit 14, the ultrasonic sensor signal input circuit 15, and the shift position signal input circuit 16 can be configured as a single LSI by integrating all or part of them. Further, instead of including the bird's eye view image generation circuit 8 as a dedicated image processing circuit for generating the bird's eye view image, the CPU 7 can also generate the bird's eye view image by software. The in-vehicle monitor 5 can also be used as a display of the navigation device.
[0024]
Here, a procedure for the bird's eye view image generation circuit 8 to generate the bird's eye view image will be briefly described. As a precondition, the rear camera 3 has an autofocus function and its mounting height and mounting angle are set in advance. Further, it is assumed that the ground is a plane as a precondition for calculation. Here, the image captured by the rear camera 3 is decomposed into pixels, the distance to each pixel and the position in the width direction are calculated using the rear end of the vehicle 2 as a reference line, and the position coordinates after bird's-eye conversion of each pixel are calculated. calculate. Then, the pixels are rearranged based on the calculated position coordinates. Thereby, a bird's-eye view image can be generated from an image photographed by the rear camera 3.
[0025]
In addition, by performing bird's-eye view conversion in this manner, in the bird's-eye view image, it is assumed that there is a gap between the pixels or the pixels overlap, but the vehicle 2 is put in the garage. In some cases, it is assumed that the image displayed on the in-vehicle monitor 5 is somewhat thinned out, and the operability is higher than when the original image (raw image) taken by the rear camera 3 is displayed. It ’s good.
[0026]
Next, the effect | action of an above-described structure is demonstrated with reference to FIG. 3 and FIG. The CPU 7 initializes the first image memory 9, the second image memory 10, and the display image memory 11 and initializes various parameters (step S1). Next, the CPU 7 detects that the image captured by the rear camera 3 is coordinate-converted by the bird's eye view image generation circuit 8 to generate the bird's eye view image and the bird's eye view image is stored in the first image memory 9 (step S2). ), It is determined whether or not the bird's eye view image is stored in the second image memory 10 (step S3).
[0027]
Here, when the CPU 7 detects that the bird's-eye view image is stored in the second image memory 10 (“YES” in step S3), the data input from the steering wheel angle signal input circuit 12, the vehicle speed signal input It is determined whether or not the vehicle 2 is moving based on the data input from the circuit 13, the data input from the yaw rate signal input circuit 14, and the data input from the ultrasonic sensor signal input circuit 15 ( Step S4).
[0028]
When the CPU 7 detects that the vehicle 2 is moving ("YES" in step S4), the CPU 7 reads out the bird's-eye view image stored as the past bird's-eye view image from the second image memory 10 (step S5). Then, image processing for rotating or translating the read bird's-eye view image based on the movement state of the vehicle 2 is performed (step S6). At this time, if the vehicle 2 is moving in a curve, the CPU 7 performs image processing for rotating and moving the bird's eye view image stored in the second image memory 10, and the vehicle 2 moves straight ahead. If so, image processing for translating the bird's eye view image stored in the second image memory 10 is performed.
[0029]
Next, the CPU 7 reads the bird's-eye view image stored as the current bird's-eye view image from the first image memory 9 (step S7), and the past bird's-eye view image that has been read from the second image memory 10 and subjected to image processing. Are combined with the current bird's-eye view image read from the first image memory 9 to generate a synthesized bird's-eye view image (step S8).
[0030]
Now, when the synthesized bird's-eye view image is generated in this way, the CPU 7 colors the latest past bird's-eye view image in the generated synthesized bird's-eye view image (step S9). More specifically, the CPU 7 adds a reddish color to the latest past bird's-eye view image by applying an RGB color filter to the latest past bird's-eye view image by increasing the R value by a certain amount, for example. At this time, it is desirable that the color added to the latest past bird's-eye view image is a color that attracts the user's attention.
[0031]
Next, the CPU 7 determines whether or not there is an area outside the field of view of the rear camera 3 in the display area of the in-vehicle monitor 5 (step S10). If it is detected that there is a region outside the field of view (“YES” in step S10), the region outside the field of view of the rear camera 3 is colored (step S11). More specifically, the CPU 7 applies an RGB color filter to the region outside the photographing field of the rear camera 3 by, for example, increasing the B value by a certain amount, thereby giving a bluish color to the region outside the photographing field of the rear camera 3. wear. At this time, it is desirable that the color applied to the area outside the field of view of the rear camera 3 is also a color that attracts the user's attention.
[0032]
Then, the CPU 7 outputs the latest past bird's-eye view image and the synthesized bird's-eye view image colored in the area outside the photographing field of view of the rear camera 3 in this way to the display image memory 11 for display on the in-vehicle monitor 5. (Step S12), the synthesized bird's-eye view image is stored in the second image memory 10 as a past bird's-eye view image (Step S13), the process returns to Step S2, and the processes after Step S2 are repeated.
[0033]
Through the series of processes described above, the CPU 7 causes the current bird's-eye view image to be displayed in the display area behind the vehicle graphic 17 (the area indicated by “P” in FIG. 4) as shown in FIG. The past bird's-eye view image that has been colored is displayed in the display area (the area indicated by “Q1” and “Q2” in FIG. 4) on the side of the vehicle graphic 17 and the rear camera 3 with a bluish color is attached. A region outside the field of view is displayed in a predetermined display region (regions indicated by “R1” and “R2” in FIG. 4).
[0034]
In this case, since the CPU 7 adds a predetermined color to the latest past bird's-eye view image, the past bird's-eye view image is subjected to a gradual change in time due to shading by repeating the series of processes described above. It will also be displayed. That is, the CPU 7 displays a dark color for an area with a relatively large time passage in the past bird's-eye view image, and a light color for an area with a relatively small time passage in the past bird's-eye view image. (In FIG. 4, dark areas are shown with dense hatching, and light areas are shown with rough hatching).
[0035]
When the CPU 7 detects that the bird's-eye view image is not stored in the second image memory 10 (“NO” in step S3), the bird's-eye view stored as the current bird's-eye view image in the first image memory 9. The image is transferred to the second image memory 10 (step S14), the process returns to the above step S2, and the processes after step S2 are repeated.
[0036]
When the CPU 7 detects that the vehicle 2 is not moving (“NO” in step S4), the bird's-eye view image read from the second image memory 10 and subjected to image processing, and the first image are displayed. The bird's-eye view image stored as the current bird's-eye view image in the first image memory 9 is used as it is without being combined with the bird's-eye view image read from the memory 9 to generate a composite bird's-eye view image. Is displayed (step S15), the process returns to the above-described step S2, and the processes after step S2 are repeated.
[0037]
Further, when the CPU 7 detects that there is no area outside the shooting field of view of the rear camera 3 in the display area of the in-vehicle monitor 5 ("NO" in step S10), the CPU 7 is out of the shooting field of view of the rear camera 3. The synthetic bird's-eye view image in which only the latest past bird's-eye view image is colored is output to the display image memory 11 and displayed on the in-vehicle monitor 5 without coloring the region (step S12), and the synthesized bird's-eye view image is displayed. It is stored in the second image memory 10 as a past bird's-eye view image (step S13).
[0038]
By the way, the above has described the case of adding a gradual change in time lapse due to shading when coloring a bird's eye view image in the past, but even if a gradual change in time lapse due to gradation, mosaic, etc. good. Further, any one of the process of coloring the past bird's-eye view image and the process of coloring the area outside the field of view of the rear camera 3 may be selectively performed.
[0039]
As described above, according to the first embodiment, in the vehicle periphery image processing system 1, the past bird's-eye view image in the synthesized bird's-eye view image generated by combining the past bird's-eye view image and the current bird's-eye view image is colored. Since the composite bird's-eye view image is displayed with a mark, the current situation can be properly recognized by the user by clarifying the boundary between the past bird's-eye view image and the current bird's-eye view image. It is possible to appropriately call attention to the area where the bird's-eye view image is displayed, and to appropriately support the user's driving.
[0040]
In addition, since the past bird's-eye view image in the past bird's-eye view image in the region of the past bird's-eye view image is configured to display the past bird's-eye view image with a gradual change of the time lapse due to shading, gradation, mosaic, etc. The user can appropriately recognize the passage of time, and can appropriately support the user's driving.
[0041]
Further, since the composite bird's-eye view image is displayed by coloring a region outside the photographing field of the rear camera 5 in the display region of the in-vehicle monitor 5, the region outside the photographing field of the rear camera 5 is clarified. Thus, it is possible to make the user appropriately recognize a region outside the shooting field of view of the past rear camera 5, and to appropriately call attention to a region outside the shooting field of view of the past rear camera 5. Can help.
[0042]
(Second embodiment)
Next, a second embodiment of the present invention will be described with reference to FIGS. The second embodiment corresponds to claims 3 to 5 according to the present invention. Here, the description of the same parts as those in the first embodiment will be omitted, and different parts will be described.
[0043]
In the second embodiment, the CPU 7 combines the bird's eye view image read from the second image memory 10 and subjected to image processing and the bird's eye view image read from the first image memory 9 to synthesize the bird's eye view image. (Step S8), a mark indicating the distance from the vehicle 2 is drawn on the generated synthesized bird's-eye view image (step S21). Then, the CPU 7 outputs the composite bird's-eye view image on which the mark indicating the distance from the vehicle 2 is drawn in this manner to the display image memory 11 and displays it on the in-vehicle monitor 5 (step S22).
[0044]
By the series of processes described above, the CPU 7 indicates the distance from the vehicle 2 with reference to the rear end of the vehicle graphic 17 as shown in FIG. If a mark (lines indicated by “A1” to “A4” in FIG. 6) is drawn, and the outer shape of the vehicle 2 is used as a reference, for example, the outer shape of the vehicle figure 17 is shown in FIG. As a reference, a mark indicating the distance from the vehicle 2 (lines indicated by “B1” to “B4” in FIG. 7) is drawn, and for example, a sonar installation position set at a predetermined part of the vehicle 2 is used as a reference. If so, as shown in FIG. 8, marks (“C1”, “C2”, “ D1 ”and“ D2 ”) are drawn, and the distance from these vehicles 2 And displays the synthesized bird's-eye view marker has been drawn showing.
[0045]
As described above, according to the second embodiment, the vehicle periphery image processing system 1 shows the distance from the vehicle 2 to the synthesized bird's-eye view image generated by combining the past bird's-eye view image and the current bird's-eye view image. Since the mark is drawn and the composite bird's-eye view image is displayed, drawing the mark indicating the distance from the vehicle 2 allows the user to appropriately recognize the distance from the vehicle 2 to the obstacle. Therefore, it is possible to appropriately call attention to the obstacle and to appropriately support the user's driving.
[0046]
(Third embodiment)
Next, a third embodiment of the present invention will be described with reference to FIGS. This third embodiment corresponds to claim 6 in the present invention. Again, the description of the same parts as in the first embodiment will be omitted, and different parts will be described.
[0047]
In the third embodiment, the CPU 7 synthesizes the bird's eye view image read from the second image memory 10 and subjected to image processing and the bird's eye view image read from the first image memory 9 to synthesize the bird's eye view image. (Step S8), a frame is drawn on the generated synthesized bird's-eye view image so as to follow the outer shape of the vehicle figure 17 (step S31). Then, the CPU 7 causes the display image memory 11 to output the composite bird's-eye view image in which the frame is drawn so as to follow the outer shape of the vehicle figure 17 to be displayed on the in-vehicle monitor 5 (step S32).
[0048]
Through the series of processes described above, the CPU 7 draws a frame (indicated by “E” in FIG. 10) along the outer shape of the vehicle graphic 17 as shown in FIG. A synthetic bird's-eye view image in which a frame is drawn along is displayed.
[0049]
As described above, according to the third embodiment, in the vehicle peripheral image processing system 1, the outline of the vehicle graphic 17 is applied to the synthesized bird's-eye view image generated by combining the past bird's-eye view image and the current bird's-eye view image. In this way, the frame is drawn and the composite bird's-eye view image is displayed, so that by drawing the frame along the outer shape of the vehicle figure 17, the user can appropriately recognize the position of the vehicle 2. Therefore, it is possible to appropriately call attention to the obstacle and to appropriately support the user's driving.
[0050]
(Other examples)
The present invention is not limited to the embodiments described above, and can be modified or expanded as follows.
The structure which combined some of 1st Example, 2nd Example, and 3rd Example may be sufficient.
In the second embodiment, when the user selects a drawing mode, a process for drawing a mark indicating the distance from the vehicle 2 with the rear end of the vehicle graphic 17 as a reference, and from the vehicle 2 with the outer shape of the vehicle graphic 17 as a reference. A configuration in which a process of drawing a mark indicating the distance and a process of drawing a mark indicating the distance from the vehicle 2 on the basis of the installation position of the sonar may be selected.
[Brief description of the drawings]
FIG. 1 is a functional block diagram showing a first embodiment of the present invention. FIG. 2 is a diagram schematically showing the overall configuration of the system. FIG. 3 is a flowchart. FIG. 4 is a diagram showing an example of a display screen of an in-vehicle monitor. FIG. 5 is a flowchart showing a second embodiment of the present invention. FIG. 6 is a diagram corresponding to FIG. 4. FIG. 7 is a diagram corresponding to FIG. Flowchart [FIG. 10] FIG. 4 equivalent diagram [Explanation of symbols]
In the drawings, 1 is a vehicle peripheral image processing system, 2 is a vehicle, 3 is a rear camera (photographing means), 5 is an in-vehicle monitor (display means), 7 is a CPU (vehicle movement state detecting means, bird's eye view image moving means, and synthetic bird's eye view). Image generating means, display control means), 8 is a bird's eye view image generating circuit (bird's eye view image generating means), and 9 is a first image memory (bird's eye view image storage means).

Claims (6)

車両周辺を撮影する撮影手段と、
前記撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成する鳥瞰図画像生成手段と、
前記鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する鳥瞰図画像記憶手段と、
車両の移動状態を検出する車両移動状態検出手段と、
前記車両移動状態検出手段により検出された車両の移動状態に基づいて前記鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させる鳥瞰図画像移動手段と、
前記鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、前記撮影手段により撮影された画像が前記鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する合成鳥瞰図画像生成手段とを備えた車両周辺画像処理システムであって、
前記合成鳥瞰図画像生成手段により生成された合成鳥瞰図画像内の過去の鳥瞰図画像に濃淡や階調やモザイクなどによる時間経過の段階的な変化を付けて合成鳥瞰図画像を表示手段に表示させる表示制御手段を備えたことを特徴とする車両周辺画像処理システム。
Photographing means for photographing the periphery of the vehicle;
A bird's-eye view image generation means for generating a bird's-eye view image by performing coordinate conversion on the image photographed by the photographing means;
A bird's eye view image storage means for storing the bird's eye view image generated by the bird's eye view image generation means;
Vehicle moving state detecting means for detecting the moving state of the vehicle;
A bird's eye view image moving means for rotating or translating a past bird's eye view image stored in the bird's eye view image storage means based on the movement state of the vehicle detected by the vehicle movement state detecting means;
A past bird's-eye view image that has been rotated or translated by the bird's-eye view image moving means and a current bird's-eye view image that is generated by coordinate-transforming the image taken by the photographing means by the bird's-eye view image generating means are synthesized. A vehicle periphery image processing system comprising a synthetic bird's-eye view image generating means for generating a synthetic bird's-eye view image,
Display control means for displaying the synthesized bird's-eye view image on the display means by adding a stepwise change of time due to lightness, gradation, mosaic, etc. to the past bird's-eye view image in the synthesized bird's-eye view image generated by the synthesized bird's-eye view image generating means A vehicle periphery image processing system comprising:
車両周辺を撮影する撮影手段と、
前記撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成する鳥瞰図画像生成手段と、
前記鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する鳥瞰図画像記憶手段と、
車両の移動状態を検出する車両移動状態検出手段と、
前記車両移動状態検出手段により検出された車両の移動状態に基づいて前記鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させる鳥瞰図画像移動手段と、
前記鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、前記撮影手段により撮影された画像が前記鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する合成鳥瞰図画像生成手段とを備えた車両周辺画像処理システムであって、
表示手段の表示領域にあって前記撮影手段の撮影視野外の領域に所定の色を付けて前記合成鳥瞰図画像生成手段により生成された合成鳥瞰図画像を前記表示手段に表示させる表示制御手段を備えたことを特徴とする車両周辺画像処理システム。
Photographing means for photographing the periphery of the vehicle;
A bird's-eye view image generation means for generating a bird's-eye view image by performing coordinate conversion on the image photographed by the photographing means;
A bird's eye view image storage means for storing the bird's eye view image generated by the bird's eye view image generation means;
Vehicle moving state detecting means for detecting the moving state of the vehicle;
A bird's eye view image moving means for rotating or translating a past bird's eye view image stored in the bird's eye view image storage means based on the movement state of the vehicle detected by the vehicle movement state detecting means;
A past bird's-eye view image that has been rotated or translated by the bird's-eye view image moving means and a current bird's-eye view image that is generated by coordinate-transforming the image taken by the photographing means by the bird's-eye view image generating means are synthesized. A vehicle periphery image processing system comprising a synthetic bird's-eye view image generating means for generating a synthetic bird's-eye view image,
A display control means for displaying the synthetic bird's eye view image generated by the region outside the field of view of said imaging means in the display area with a predetermined color the composite bird's eye view image generating means of the display means on said display means The vehicle periphery image processing system characterized by the above.
車両周辺を撮影する撮影手段と、
前記撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成する鳥瞰図画像生成手段と、
前記鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する鳥瞰図画像記憶手段と、
車両の移動状態を検出する車両移動状態検出手段と、
前記車両移動状態検出手段により検出された車両の移動状態に基づいて前記鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させる鳥瞰図画像移動手段と、
前記鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、前記撮影手段により撮影された画像が前記鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する合成鳥瞰図画像生成手段とを備えた車両周辺画像処理システムであって、
記合成鳥瞰図画像生成手段により生成された合成鳥瞰図画像に少なくとも車両側方および車両後方を含む方向について車両からの距離を示す目印を描画して合成鳥瞰図画像を表示手段に表示させる表示制御手段を備えたことを特徴とする車両周辺画像処理システム。
Photographing means for photographing the periphery of the vehicle;
A bird's-eye view image generation means for generating a bird's-eye view image by performing coordinate conversion on the image photographed by the photographing means;
A bird's eye view image storage means for storing the bird's eye view image generated by the bird's eye view image generation means;
Vehicle moving state detecting means for detecting the moving state of the vehicle;
A bird's eye view image moving means for rotating or translating a past bird's eye view image stored in the bird's eye view image storage means based on the movement state of the vehicle detected by the vehicle movement state detecting means;
A past bird's-eye view image that has been rotated or translated by the bird's-eye view image moving means and a current bird's-eye view image that is generated by coordinate-transforming the image taken by the photographing means by the bird's-eye view image generating means are synthesized. A vehicle periphery image processing system comprising a synthetic bird's-eye view image generating means for generating a synthetic bird's-eye view image,
Display control means for displaying the previous SL composite bird's eye view composite bird's eye view image by drawing a mark indicating a distance image generation unit composite bird's eye view image generated by the vehicle to the direction in which at least the side of the vehicle and the vehicle rearward Viewing means A vehicle periphery image processing system comprising:
請求項3に記載した車両周辺画像処理システムにおいて、
前記表示制御手段は、前記合成鳥瞰図画像生成手段により生成された合成鳥瞰図画像に少なくとも車両側方および車両後方を含む方向について車両図形の外形を基準として車両からの距離を示す目印を描画して合成鳥瞰図画像を前記表示手段に表示させることを特徴とする車両周辺画像処理システム。
In the vehicle periphery image processing system according to claim 3,
The display control means draws a mark indicating a distance from the vehicle on the basis of the outer shape of the vehicle figure in a direction including at least the side of the vehicle and the rear of the vehicle in the synthesized bird's eye view image generated by the synthesized bird's eye view image generating means A vehicle periphery image processing system , wherein a bird's eye view image is displayed on the display means .
請求項3に記載した車両周辺画像処理システムにおいて、
前記表示制御手段は、前記合成鳥瞰図画像生成手段により生成された合成鳥瞰図画像に少なくとも車両側方および車両後方を含む方向について当該車両の所定部位に設置されているソナーの設置位置を基準として車両からの距離を示す目印を描画して合成鳥瞰図画像を前記表示手段に表示させることを特徴とする車両周辺画像処理システム。
In the vehicle periphery image processing system according to claim 3,
The display control means is based on the installation position of the sonar installed at a predetermined part of the vehicle in a direction including at least the side of the vehicle and the rear of the vehicle in the composite bird's-eye view image generated by the synthetic bird's-eye view image generation means. A vehicle periphery image processing system characterized in that a composite bird's-eye view image is displayed on the display means by drawing a mark indicating the distance of the vehicle.
車両周辺を撮影する撮影手段と、Photographing means for photographing the periphery of the vehicle;
前記撮影手段により撮影された画像を座標変換して鳥瞰図画像を生成する鳥瞰図画像生成手段と、A bird's-eye view image generation means for generating a bird's-eye view image by performing coordinate conversion on the image photographed by the photographing means;
前記鳥瞰図画像生成手段により生成された鳥瞰図画像を記憶する鳥瞰図画像記憶手段と、A bird's eye view image storage means for storing the bird's eye view image generated by the bird's eye view image generation means;
車両の移動状態を検出する車両移動状態検出手段と、Vehicle moving state detecting means for detecting the moving state of the vehicle;
前記車両移動状態検出手段により検出された車両の移動状態に基づいて前記鳥瞰図画像記憶手段に記憶されている過去の鳥瞰図画像を回転移動または平行移動させる鳥瞰図画像移動手段と、  A bird's eye view image moving means for rotating or translating a past bird's eye view image stored in the bird's eye view image storage means based on the movement state of the vehicle detected by the vehicle movement state detecting means;
前記鳥瞰図画像移動手段により回転移動または平行移動された過去の鳥瞰図画像と、前記撮影手段により撮影された画像が前記鳥瞰図画像生成手段により座標変換されて生成された現在の鳥瞰図画像とを合成して合成鳥瞰図画像を生成する合成鳥瞰図画像生成手段とを備えた車両周辺画像処理システムであって、A past bird's-eye view image that has been rotated or translated by the bird's-eye view image moving means and a current bird's-eye view image that is generated by coordinate conversion of the image taken by the photographing means by the bird's-eye view image generating means are synthesized. A vehicle periphery image processing system comprising a synthetic bird's-eye view image generating means for generating a synthetic bird's-eye view image,
前記合成鳥瞰図画像生成手段により生成された合成鳥瞰図画像に車両図形の外形に沿うように枠を描画して合成鳥瞰図画像を表示手段に表示させる表示制御手段を備えたことを特徴とする車両周辺画像処理システム。A vehicle surrounding image comprising display control means for drawing a frame on the synthetic bird's eye view image generated by the synthetic bird's eye view image generating means so as to follow the outer shape of the vehicle figure and displaying the composite bird's eye view image on the display means. Processing system.
JP2003051013A 2003-02-27 2003-02-27 Vehicle periphery image processing system Expired - Fee Related JP3961969B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003051013A JP3961969B2 (en) 2003-02-27 2003-02-27 Vehicle periphery image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003051013A JP3961969B2 (en) 2003-02-27 2003-02-27 Vehicle periphery image processing system

Publications (2)

Publication Number Publication Date
JP2004260694A JP2004260694A (en) 2004-09-16
JP3961969B2 true JP3961969B2 (en) 2007-08-22

Family

ID=33116275

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003051013A Expired - Fee Related JP3961969B2 (en) 2003-02-27 2003-02-27 Vehicle periphery image processing system

Country Status (1)

Country Link
JP (1) JP3961969B2 (en)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006298258A (en) * 2005-04-22 2006-11-02 Aisin Aw Co Ltd Parking supporting method and parking supporting device
JP4595680B2 (en) * 2005-05-27 2010-12-08 アイシン・エィ・ダブリュ株式会社 Parking support method and parking support device
JP4622806B2 (en) * 2005-10-27 2011-02-02 アイシン・エィ・ダブリュ株式会社 Parking support method and parking support device
JP4321543B2 (en) 2006-04-12 2009-08-26 トヨタ自動車株式会社 Vehicle periphery monitoring device
JP4846545B2 (en) * 2006-11-29 2011-12-28 株式会社デンソー Driving assistance device
JP5549235B2 (en) * 2010-01-20 2014-07-16 株式会社デンソー Driving assistance device
JP2012001126A (en) * 2010-06-18 2012-01-05 Clarion Co Ltd Vehicle surroundings monitoring device
JP6328368B2 (en) * 2012-09-28 2018-05-23 アイシン精機株式会社 Parking assistance device and control method
JP6375633B2 (en) * 2014-02-12 2018-08-22 株式会社デンソー Vehicle periphery image display device and vehicle periphery image display method
JP5776995B2 (en) * 2014-03-11 2015-09-09 クラリオン株式会社 Vehicle periphery monitoring device
DE102014223941A1 (en) * 2014-11-25 2016-05-25 Robert Bosch Gmbh Method for marking camera images of a parking maneuver assistant
JP6642306B2 (en) * 2016-06-29 2020-02-05 アイシン精機株式会社 Perimeter monitoring device

Also Published As

Publication number Publication date
JP2004260694A (en) 2004-09-16

Similar Documents

Publication Publication Date Title
JP4254887B2 (en) Image display system for vehicles
US8514282B2 (en) Vehicle periphery display device and method for vehicle periphery image
JP5251947B2 (en) Image display device for vehicle
JP4611899B2 (en) Camera lens dirt detection device and image display system
JP4739122B2 (en) In-vehicle camera image composition apparatus and image composition method
CN110877572A (en) Periphery monitoring device
JP2014089513A (en) Image generation apparatus and image generation program
KR20120118073A (en) Vehicle periphery monitoring device
JP3961969B2 (en) Vehicle periphery image processing system
JP2009253571A (en) Monitor video image generation device for vehicle
JP2008279875A (en) Parking support device
JP7426174B2 (en) Vehicle surrounding image display system and vehicle surrounding image display method
JP4579132B2 (en) Vehicle / Ambient Image Providing Device
JP2011049735A (en) Vehicle periphery image providing device
JP5195776B2 (en) Vehicle periphery monitoring device
US10821900B2 (en) Image processing device
JP2007302238A (en) Vehicular image processing device
JP2007088577A (en) Vehicle surrounding image processing system
JP4679816B2 (en) Vehicle periphery display control device
JP7314518B2 (en) Perimeter monitoring device
JP2007149011A (en) Vehicle circumference viewing device
JP5077286B2 (en) Vehicle peripheral image display device
JP4814752B2 (en) Display control device
JP4846627B2 (en) Display control device
JP4832272B2 (en) Vehicle periphery image display device and display method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050422

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070517

R150 Certificate of patent or registration of utility model

Ref document number: 3961969

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120525

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120525

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130525

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140525

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees