JP4581294B2 - Vehicle display device - Google Patents

Vehicle display device Download PDF

Info

Publication number
JP4581294B2
JP4581294B2 JP2001171444A JP2001171444A JP4581294B2 JP 4581294 B2 JP4581294 B2 JP 4581294B2 JP 2001171444 A JP2001171444 A JP 2001171444A JP 2001171444 A JP2001171444 A JP 2001171444A JP 4581294 B2 JP4581294 B2 JP 4581294B2
Authority
JP
Japan
Prior art keywords
vehicle
image
road surface
video data
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001171444A
Other languages
Japanese (ja)
Other versions
JP2002369185A (en
Inventor
浩 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2001171444A priority Critical patent/JP4581294B2/en
Publication of JP2002369185A publication Critical patent/JP2002369185A/en
Application granted granted Critical
Publication of JP4581294B2 publication Critical patent/JP4581294B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、車両に搭載されたカメラ装置により車両周囲を撮像して運転者から死角となる領域を表示する車両用表示装置に関する。
【0002】
【従来の技術】
従来より、自車両が走行しているときにおいて、自車両に搭載されたカメラ装置により車両周囲を撮像して映像データを生成し、生成した映像データのうち、運転者から死角となる領域を表示する車両用表示装置が知られている。
【0003】
従来の車両用表示装置としては、例えば特開平2001−10432号公報や、特開平2000−229547号公報に開示されているように、自車両に搭載されたカメラ装置により生成した映像データを、カメラ装置の視点とは異なる視点から見た映像に座標変換して、運転者にとっての死角領域を見やすくして提示することが提案されている。
【0004】
【発明が解決しようとする課題】
従来の車両用表示装置では、自車両を真上から見下ろす視点に変換して座標変換をし、座標変換をした映像データに自車両を示すアイコン状の自車両図形画像を描画して表示しているが、車両周囲と自車両との位置関係を運転者が把握しやすいように、実際の車両サイズに応じた大きさで自車両図形画像を描画することが望ましい。
【0005】
しかし、車両周囲に対して自車両図形画像を実際の車両サイズに応じた大きさで描画すると、図13に示すように、自車両画像101が自車両図形画像102よりも大きくなり、自車両画像101が自車両図形画像102からはみ出してしまうという問題が発生する。
【0006】
これは、図14及び図15に示すように車体111とタイヤ112とからなる車両の後方にカメラ装置113A、113Bを搭載した場合に、カメラ装置113A、113Bで路面114を撮像すると、図14の背面図に示すように車両の左右方向ではカメラ装置の撮像点Aが路面114上の点A’に投影され、図15の側面図に示すように車両の後方ではカメラ装置の撮像点Bが路面114の点B’に投影されることによる。
【0007】
この状態で撮像した映像データを座標変換すると、車両の左右方向ではδ1だけ大きく車両サイズが変換され、車両の後方ではδ2だけ大きく車両サイズが変換されることにより、図13に示すように自車両が拡大した画像に変換されてしまう。
【0008】
これに対し、変換することで拡大された車両を隠蔽して表示するように、車両図形画像を実際の車両サイズよりも大きくすると、車両に側近の溝や障害物などが車両図形画像により隠蔽されてしまうために、表示した内容と実際の車両周囲とが異なる結果となってしまう。
【0009】
そこで、本発明は、上述した実情に鑑みて提案されたものであり、撮像した映像のうちカメラ装置にとって死角となる領域を画像で表示することができる車両用表示装置を提供するものである。
【0010】
【課題を解決するための手段】
請求項1に係る発明では、車両に搭載され、車両周囲を第1視点で撮像した映像データを生成する1又は複数の撮像手段と、上記撮像手段で撮像して生成した映像データを上記第1視点とは異なる第2視点から見た映像データに変換する映像データ変換手段と、上記映像データ変換手段により変換された映像データに自車両を示す自車両画像を描画すると共に、上記第1視点から路面を見たときに自車両によって遮蔽される路面部分の少なくとも一部を表す路面遮蔽領域を路面遮蔽画像として描画する描画手段と、上記描画手段で描画された映像データを表示する表示手段とを備えることで上述の課題を解決する。
【0011】
請求項2に係る発明では、上記描画手段は、上記自車両画像を上記車両の大きさに応じて描画する。
【0012】
請求項3に係る発明では、上記撮像手段で撮像して生成した映像データの輝度情報を検出して映像の明るさを判定する判定手段を更に備え、上記描画手段は、上記判定手段での判定結果に基づいて、上記自車両画像及び路面遮蔽画像の明るさを調整して描画する。
【0013】
請求項4に係る発明では、上記描画手段は、上記判定手段により車両周囲の映像の明るさが所定の明るさよりも明るいと判定された場合には、路面遮蔽画像を車両周囲の映像よりも暗く描画し、自車両画像を路面遮蔽画像よりも明るく描画し、上記判定手段により車両周囲の映像の明るさが所定の明るさよりも暗いと判定された場合には、路面遮蔽画像を車両周囲の映像よりも明るく描画し、自車両画像を路面遮蔽画像よりも暗く描画する。
【0014】
請求項5に係る発明では、車両に搭載されたライトの状態を検出するライト状態検出手段を更に備え、上記描画手段は、上記ライト状態検出手段での検出結果に基づいて、上記自車両画像及び路面遮蔽画像の明るさを調整して描画する。
【0015】
請求項6に係る発明では、上記描画手段は、上記ライト状態検出手段でライトがオン状態であると検出された場合には、路面遮蔽画像を車両周囲の映像より明るく描画し、自車両画像を路面遮蔽画像よりも暗く描画し、上記ライト状態検出手段でライトがオフ状態であると検出された場合には、路面遮蔽画像を車両周囲の映像より暗く描画し、自車両画像を路面遮蔽画像よりも明るく描画する。
【0016】
【発明の効果】
請求項1に係る発明によれば、撮像手段で撮像して生成した映像データを第1視点とは異なる第2視点から見た映像データに変換し、変換された映像データに自車両を示す自車両画像を描画すると共に、第1視点から路面を見たときに自車両によって遮蔽される路面部分の少なくとも一部を表す路面遮蔽領域を路面遮蔽画像として描画するので、撮像した映像のうち死角となる領域を正確に画像で表示することができる。したがって、この請求項1に係る発明によれば、映像データの変換や撮像手段から死角となる領域を車両運転者に提示して、直視やミラーによる間接視によって注意を払う必要があることを喚起することができる。
【0017】
請求項2に係る発明によれば、描画手段により自車両画像を車両の大きさに応じて描画するので、請求項1に係る発明の効果に加えて、車両運転者にとって自車両と周囲との相対関係を把握しやすくして表示することができる。
【0018】
請求項3に係る発明によれば、映像の明るさを判定する判定手段での判定結果に基づいて、自車両画像及び路面遮蔽画像の明るさを調整して描画するので、外部環境の明るさによらず、車両運転者から識別しやすいコントラストで路面遮蔽画像及び自車両画像を描画することができ、運転者にとって認識しやすい表示画面を提示することができる。
【0019】
請求項4に係る発明によれば、車両周囲の映像の明るさが所定の明るさよりも明るいと判定された場合には自車両画像を路面遮蔽画像よりも明るく描画し、車両周囲の映像の明るさが所定の明るさよりも暗いと判定された場合には、自車両画像を路面遮蔽画像よりも暗く描画するので、外部環境の明るさによらず、車両運転者から識別しやすいコントラストで路面遮蔽画像及び自車両画像を描画することができ、運転者にとって認識しやすい表示画面を提示することを実現することができる。
【0020】
請求項5に係る発明によれば、車両に搭載されたライトの状態を検出するライト状態検出手段での検出結果に基づいて、自車両画像及び路面遮蔽画像の明るさを調整して描画するので、簡単な構成で、外部環境の明るさによらず、車両運転者から識別しやすいコントラストで路面遮蔽画像及び自車両画像を描画することができ、車両運転者にとって認識しやすい表示画面を提示することができる。
【0021】
請求項6に係る発明によれば、ライトがオン状態であると検出された場合には、自車両画像を路面遮蔽画像よりも暗く描画し、ライトがオフ状態であると検出された場合には、自車両画像を路面遮蔽画像よりも明るく描画するので、簡単な構成で、外部環境の明るさによらず、車両運転者から識別しやすいコントラストで路面遮蔽画像及び自車両画像を描画することができ、車両運転者にとって認識しやすい表示画面を提示することを実現することができる。
【0022】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。
【0023】
本発明は、例えば図1に示すように構成された第1実施形態に係る車両用表示装置に適用される。
【0024】
[第1実施形態に係る車両用表示装置]
『第1実施形態に係る車両用表示装置の構成』
図1に、第1実施形態に係る車両用表示装置の構成を示すブロック図を示す。この車両用表示装置は、車体の後端における左右に設けられるカメラ装置1A、1B(以下、総称するときには単に「カメラ装置1」と呼ぶ。)と、車両内部に設けられる画像変換合成部2、路面遮蔽領域描画部3、車両図形描画部4と、車両運転者から視認可能な位置に設けられた表示部5と、車両操作に応じて動作する起動・解除部6とを備えて構成されている。
【0025】
カメラ装置1A、1Bは、車両後方端における左右に設けられ、車両用表示装置が起動することに応じて車両後方における周囲を撮像し、撮像して得た映像データを画像変換合成部2に出力する。
【0026】
画像変換合成部2は、カメラ装置1A、1Bからの各映像データを入力し、入力した各映像データに座標変換処理(透視変換)をすることでカメラ装置1で撮像した視点とは異なる視点の座標変換映像データにする。これにより、画像変換合成部2は、車両の真上から見るような視点の座標変換映像データを得る。
【0027】
また、この画像変換合成部2は、座標変換した各座標変換映像データを表示部5において一画面に表示するように合成処理をして、一つの合成映像データにする。画像変換合成部2は、合成して得た合成映像データを路面遮蔽領域描画部3に出力する。
【0028】
路面遮蔽領域描画部3は、画像変換合成部2からの合成映像データに、画像変換合成部2による座標変換処理によって発生した車両映像の変形により生じる路面遮蔽領域に遮蔽領域画像を貼り付けるようにして描画する合成映像データを生成して、車両図形描画部4に出力する。なお、この路面遮蔽領域描画部3により合成映像データに貼り付けられる遮蔽領域画像は、例えば路面遮蔽領域描画部3内に設けられたメモリ領域に予め格納しておき、路面遮蔽領域描画部3により読み出されることで合成映像データに貼り付けられる。
【0029】
車両図形描画部4は、路面遮蔽領域描画部3からの合成映像データに、車体の形状や視点位置に従って貼り付け位置を決定して、自車両を示す自車両図形画像を貼り付けるようにして描画する合成映像データを生成して、表示部5に出力する。なお、この車両図形描画部4により合成映像データに貼り付けられる自車両図形画像は、例えば車両図形描画部4内に設けられたメモリ領域に予め格納されて、車両図形描画部4により読み出されることで合成映像データに貼り付けられる。
【0030】
表示部5は、運転者に各種映像を提示する表示モニタを備え、車両図形描画部4からの合成映像データを表示する。
【0031】
起動・解除部6は、外部から運転者が車両を操作する操作入力信号が入力され、車両用表示装置を起動させることで、カメラ装置1により映像データを取り込んで表示部5に合成映像データを表示させ、また、車両用表示装置による合成映像データの表示を解除する。この起動・解除部6には、車両をバック運転するために、シフトレバー(ギア)をリバースに入れたことによる操作入力信号が入力される。
【0032】
『第1実施形態に係る車両用表示装置の車両周囲表示処理』
図2に、上述の車両用表示装置による車両周囲表示処理の処理手順を示す。
【0033】
この車両用表示装置は、先ず、ステップS1において、例えば車両が駐車動作を行うに際して、運転者によりギア(シフトレバー)がリバースに操作されることにより、起動・解除部6に操作入力信号が入力され、車両用表示装置を起動してステップS2に処理を進める。
【0034】
ステップS2において、カメラ装置1A、1Bにより車両後方の映像データを撮像することで、2枚の映像データI(x,y)、I(x,y)を取得して画像変換合成部2に出力し、次のステップS3において画像変換合成部2内のメモリに一時的に映像データI(x,y)、映像データI(x,y)を記憶して、次のステップS4に処理を進める。
【0035】
ステップS4においては、ステップS2においてカメラ装置1A、1Bで撮像した時の視点とは異なる、自車両を真上から見下ろしたような視点から見た映像データとする座標変換処理を画像変換合成部2により行って2枚の座標変換映像データを生成し、次いで、各座標変換映像データを合成処理することで一枚の合成映像データT(x,y)とする。なお、このステップS4における座標変換処理、合成処理の処理内容については後述する。
【0036】
次のステップS5において、路面遮蔽領域描画部3によりカメラ装置1A、1Bの取り付け位置、画像変換合成部2により変換した後の合成映像データT(x,y)の視点位置及び車体形状に基づいて路面遮蔽領域の位置を決定する。このステップS5では、路面遮蔽領域の位置を合成映像データT(x,y)の絵柄に基づいて計算して求めても良く、予め座標変換映像データを作成し、変形した車体端を包含する領域を手作業により抽出してテンプレートとして保持しておいて合成映像データT(x,y)に合成しても良い。
【0037】
次に、ステップS4により発生した車体により路面を遮蔽する領域である路面遮蔽領域に遮蔽領域画像を貼り付けるように描画する合成映像データT(x,y)とする。このとき、路面遮蔽領域描画部3により内部のメモリに遮蔽領域画像として所定のテクスチャを格納しておき、合成映像データT(x,y)の所定位置に貼り付ける。
【0038】
これにより、図3に示すように、右側後方映像11A、左側後方映像11B、路面遮蔽画像12からなる合成映像データT(x,y)を作成して、ステップS6に処理を進める。図3に示す一例では、車両図形描画部4により矩形状の路面遮蔽画像12を所定のテクスチャとして格納している場合を示している。
【0039】
ステップS6において、車両図形描画部4により、画像変換合成部2により変換した視点位置及び車体形状に基づいて自車両図形画像についての貼り付け位置、貼り付けサイズを決定し、路面遮蔽領域描画部3からの合成映像データT(x,y)に対し、自車両図形画像を貼り付ける処理をしてステップS7に処理を進める。このとき、車両図形描画部4により予めメモリに格納したテンプレートを自車両図形画像として用意しておく。
【0040】
これにより、図4に示すように、右側後方映像11A、左側後方映像11B、路面遮蔽画像12上に貼り付けられた自車両図形画像13からなる合成映像データT(x,y)を作成して表示部5に出力して、ステップS7に処理を進める。ここで、図4に示す一例では、予めメモリに矩形状の自車両図形画像13を格納している場合を示している。
【0041】
ステップS7において、車両図形描画部4から出力された合成映像データT(x,y)を表示モニタに表示するように表示部5により表示処理をしてステップS8に処理を進める。
【0042】
ステップS8において、起動・解除部6により、シフトレバー(ギア)がリバース位置以外となっているか否かの判定をする。起動・解除部6によりリバース位置以外となっていると判定したときにはステップS9に処理を進め、リバース位置以外となっていないと判定したときにはステップS6で生成した合成映像データT(x,y)に従って表示部5により表示する処理を継続すると共にステップS2に処理を戻してステップS2以降の処理を繰り返して行う。
【0043】
ステップS9において、起動・解除部6により、表示部5による合成映像データT(x,y)を表示する処理を解除して処理を終了する。
【0044】
つぎに、上述のステップS4における座標変換処理について説明する。
【0045】
路面遮蔽領域描画部3の座標変換処理により自車両を真上から見下ろした映像データに変換するには、カメラ装置1A、カメラ装置1Bの幾何学的配置である配設位置、光学的な情報であるレンズ画角、焦点位置に基づいて、カメラ装置1A、1Bで撮像して得た各映像データを構成する画素データの座標を変換する演算をする。
【0046】
本例におけるステップS4では、演算量の削減を図り、予め各画素データの座標を変換するための座標変換マップを作成して画像変換合成部2に格納しておき、画像変換合成部2に各映像データが入力されると座標変換マップを読み出して参照することで各映像データの座標変換をする。
【0047】
この座標変換マップは、上述のカメラ装置1の配設位置及び光学的な情報に基づいて、カメラ装置1A、カメラ装置1Bにより生成された映像データの各画素の座標位置と、変換先の座標位置とが対応づけられて構成されている。
【0048】
座標変換マップM(x、y)は、カメラ装置1Aにより生成された映像データI(x,y)を構成する各画素のx座標を変換するための第1x座標変換マップMx1(x、y)、カメラ装置1Aにより生成された映像データI(x,y)を構成する各画素のy座標を変換するための第1y座標変換マップMy1(x、y)、カメラ装置1Bにより生成された映像データI(x,y)を構成する各画素のx座標を変換するための第2x座標変換マップMx2(x、y)、カメラ装置1Bにより生成された映像データI(x,y)を構成する各画素のy座標を変換するための第2y座標変換マップMy2(x、y)からなる。
【0049】
図5に、路面遮蔽領域描画部3により座標変換マップを使用して座標変換処理を行うときの処理手順を示す。
【0050】
図5によれば、先ず、ステップS11において、映像データI(x,y)及び映像データI(x,y)の画面左上、すなわち映像データI(x,y)、映像データI(x,y)のぞれぞれについてx座標値が「0」、y座標値が「0」の画素からラスタ方向にスキャンを開始して、ステップS12に処理を進める。
【0051】
ステップS12において、映像データI(x,y)におけるx座標値、y座標値における画素値、映像データI(x,y)におけるx座標値、y座標値における画素値を取得してステップS13に処理を進める。
【0052】
具体的には、ステップS12では、図6(a)に示すように、映像データI(x,y)のある画素I(i,j)における画素値a、映像データI(x,y)のある画素I(k,l)における画素値bを得る。
【0053】
ステップS13において、座標変換マップM(x、y)を参照して、ステップS12で取得した映像データI(x,y)を構成する画素のx座標値、y座標値に対する座標変換後の合成映像データT(x,y)のx座標値、y座標値を得て、ステップS14に処理を進める。
【0054】
具体的には、図6(b)に示すように、第1x座標変換マップMx1(x、y)を参照して変換前の画素I(i,j)に対する変換後のx座標値p(Mx1(i,j)=p)、第1y座標変換マップMy1(x、y)を参照して変換前の画素I(i,j)に対する変換後のy座標値q(My1(i,j)=q)を得る。更に、第2x座標変換マップMx2(x、y)を参照して変換前の画素I(k,l)に対する変換後のx座標値r(Mx2(k,l)=r)、第2y座標変換マップMy2(x、y)を参照して変換前の画素I(k,l)に対する変換後のy座標値s(My2(k,l)=s)を得る。
【0055】
ステップS14において、ステップS13で得た映像データI(x,y)、映像データI(x,y)についての変換後のx座標値、y座標値から合成映像データT(x,y)上の各座標値を得る。次いで、この合成映像データT(x,y)上の各座標値の画素の画素値を、映像データI(x,y)の画素値、映像データI(x,y)の画素値にして、合成映像データの生成をして、ステップS15に処理を進める。
【0056】
具体的には、図6(c)に示すように、ステップS13で得た画素I(i,j)の変換後のx座標値p、y座標値qから合成映像データT(x,y)における座標値T(p,q)を得る。次いで、この座標値T(p,q)における画素の画素値を、画素I(x,y)の画素値aにする(T(p,q)=a)。また、ステップS13で得た画素I(i,j)の変換後のx座標値r、y座標値sから合成映像データT(x,y)における座標値T(r,s)を得る。次いで、この座標値T(r,s)における画素の画素値を、画素I(k,l)の画素値bにする(T(r,s)=b)。
【0057】
ステップS15において、映像データI(x,y)、映像データI(x,y)の全ての画素についてステップS12〜ステップS14の処理を行ったか否かの判定をする。全画素についてステップS12〜ステップS14の処理を行っていないと判定したときにはステップS12に戻って次の画素についてステップS12〜ステップS14の処理を行い、全画素についてステップS12〜ステップS14の処理を行ったと判定したときには処理を終了する。
【0058】
『第1実施形態に係る車両用表示装置の効果』
以上説明したように、第1実施形態に係る車両用表示装置によれば、車両に搭載したカメラ装置1A、1Bで撮像した映像データを座標変換して自車両図形画像の周囲に車両周囲の画像を表示するに際して、車両形状に基づいて路面遮蔽画像、自車両図形画像を合成映像データ上に貼り付けて描画する構成にしたので、カメラ装置1にとって自車両により死角となる領域を正確に表示することができ、運転者にカメラ装置1の死角領域を提示して、直視やミラーによる間接視によって注意を払う必要があることを喚起することができる。
【0059】
また、第1実施形態に係る車両用表示装置によれば、自車両図形画像を実サイズで描画するため、運転者にとって自車両と周囲との相対関係を把握しやすくして表示することができる。
【0060】
[第2実施形態に係る車両用表示装置]
『第2実施形態に係る車両用表示装置の構成』
図7に、第2実施形態に係る車両用表示装置の構成を示すブロック図を示す。なお、以下の第2実施形態に係る車両用表示装置の説明では、上述した第1実施形態に係る車両用表示装置と同一の部分については同一符号を付することによりその詳細な説明を省略する。
【0061】
第2実施形態に係る車両用表示装置は、上述した第1実施形態に係る車両用表示装置とは、画像変換合成部2からの合成映像データに基づいて合成映像データの平均明度情報を算出する画像平均明度算出部7と、画像平均明度算出部7からの平均明度情報に基づいて路面遮蔽画像及び画像図形画像の描画色を決定する描画色決定部8とを更に備える点で異なる。
【0062】
画像平均明度算出部7は、画像変換合成部2からの合成映像データを構成する各画素の輝度情報を検出し、検出した輝度情報の平均値を算出することで画像の明るさを示す平均明度情報を作成する。
【0063】
描画色決定部8は、画像平均明度算出部7からの平均明度情報に基づいて路面遮蔽領域描画部3で描画する路面遮蔽画像の描画色を決定すると共に、車両図形描画部4で描画する自車両図形画像の描画色を決定して、路面遮蔽領域描画部3及び車両図形描画部4に描画色決定情報を出力する。
【0064】
これにより、路面遮蔽領域描画部3及び車両図形描画部4は、それぞれ、描画色決定情報に従った描画色で路面遮蔽画像及び自車両図形画像を描画して、表示部5に向かって出力する。
【0065】
『第2実施形態に係る車両用表示装置の車両周囲表示処理』
図8に、第2実施形態に係る車両用表示装置による車両周囲表示処理の処理手順を示す。この車両用表示装置では、ギアがリバースに操作されていることにより、図2と同様にステップS1〜ステップS4の処理を行って、ステップS11に処理を進める。
【0066】
ステップS11において、画像平均明度算出部7によりステップS4で生成した合成映像データの画素値(輝度情報)を検出して、全画素値から平均値を求めて平均明度情報を算出して描画色決定部8に出力してステップS12に処理を進める。このステップS11における平均明度情報を算出するときには、路面遮蔽領域、自車両図形画像を描画する領域の画素値を除外する。
【0067】
なお、このステップS11において路面遮蔽画像、自車両図形画像を描画する領域を求める処理はカメラ装置1の取り付け位置、ステップS4で変換する視点位置及び車体形状により決定する。路面遮蔽領域、自車両図形画像を描画する領域は計算により求めても良く、更には予め実際に変換画像データを作成しておき変形した車体端を包含する領域を手作業で切り出してテンプレートとして保持しておいても良い。
【0068】
ステップS12において、平均明度情報から合成映像データが予め設定した所定明度よりも大きい、すなわち合成映像データが所定の明るさよりも明るいときには描画色決定部8により路面遮蔽画像を暗い色に決定すると共に自車両図形画像を明るい色に決定する。一方、平均明度情報から合成映像データが予め設定した所定明度よりも小さい、すなわち合成映像データが所定の明るさよりも暗いときには描画色決定部8により路面遮蔽画像を明るい色に決定すると共に自車両図形画像を暗い色に決定する。
【0069】
これにより、図9に示すように右側後方映像11A及び左側後方映像11Bが明るい時には、路面遮蔽画像12を自車両図形画像13よりも明るい色で表示する。また、図10に示すように右側後方映像11A及び左側後方映像11Bが暗い時には、路面遮蔽画像12を自車両図形画像13よりも暗い色で表示する。
【0070】
路面遮蔽画像及び自車両図形画像を決定するときには、描画色決定部8により合成映像データの明るさと路面遮蔽画像及び自車両図形画像を描画する明るさとの関係を、予めルックアップテーブルとして保持して参照する。
【0071】
そして、描画色決定部8により決定した描画色決定情報を路面遮蔽領域描画部3及び車両図形描画部4に出力する。なお、路面遮蔽領域描画部3及び車両図形描画部4により路面遮蔽画像及び自車両図形画像を明るい色で描画するには入力された合成映像データを構成する各画素についての色の明度又は彩度を高く設定し、路面遮蔽画像及び自車両図形画像を暗い色で描画するには入力された合成映像データを構成する各画素についての色の明度又は彩度を低く設定する。
【0072】
『第2実施形態に係る車両用表示装置の効果』
以上説明したように、第2実施形態に係る車両用表示装置によれば、上述した第1実施形態での効果に加えて、合成映像データの明るさに基づいて路面遮蔽画像及び自車両図形画像の明るさを決定するので、外部環境の明るさによらず、運転者から識別しやすいコントラストで路面遮蔽画像及び自車両図形画像を描画することができ、運転者にとって認識しやすい表示画面を提示することができる。
【0073】
[第3実施形態に係る車両用表示装置]
『第3実施形態に係る車両用表示装置の構成』
図11に、第3実施形態に係る車両用表示装置の構成を示すブロック図を示す。なお、以下の第3実施形態に係る車両用表示装置の説明では、上述した実施形態に係る車両用表示装置と同一の部分については同一符号を付することによりその詳細な説明を省略する。
【0074】
第3実施形態に係る車両用表示装置は、上述した第1実施形態に係る車両用表示装置とは、車両に搭載されているライトのオン、オフ状態を示すライト状態検出情報を取得するライトSW情報取得部9と、ライトSW情報取得部9からのライト状態検出情報に基づいて路面遮蔽画像及び自車両図形画像の描画色を決定する描画色決定部10とを更に備える点で異なる。
【0075】
ライトSW情報取得部9は、図示しないライト機構又は運転者が操作するライトスイッチと接続され、ライトのオン、オフ状態を示すライト状態検出情報を取得して描画色決定部10に出力する。
【0076】
描画色決定部10は、ライトSW情報取得部9からのライト状態検出情報に基づいて路面遮蔽領域描画部3で描画する路面遮蔽画像の描画色を決定すると共に、車両図形描画部4で描画する自車両図形画像の描画色を決定して、路面遮蔽領域描画部3及び車両図形描画部4に描画色決定情報を出力する。
【0077】
これにより、路面遮蔽領域描画部3及び車両図形描画部4は、それぞれ、描画色決定情報に従った描画色で路面遮蔽画像及び自車両図形画像を描画して、表示部5に向かって出力する。
【0078】
『第3実施形態に係る車両用表示装置の車両周囲表示処理』
図12に、上述の車両用表示装置による車両周囲表示処理の処理手順を示す。この車両用表示装置では、ギアがリバースに操作されていることにより、図2と同様にステップS1〜ステップS4の処理を行って、ステップS21に処理を進める。
【0079】
ステップS21において、ライトSW情報取得部9によりライト状態検出情報を取得して、ライトSWがオン状態にあるか否かの判定をする。ライトSWがオン状態であると判定したときにはステップS22に処理を進め、ライトSWがオフ状態であると判定したときにはステップS23に処理を進める。
【0080】
ステップS22において、ライトがオン状態である時の路面遮蔽画像及び自車両図形画像の描画色を決定して描画色決定情報を作成する。車両前部に設けられているライトがオン状態である時には、車両の後部に設けられているカメラ装置1の映像が暗い場合が多い。したがって、図10に示すように、自車両図形画像13を路面遮蔽画像12よりも暗く、路面遮蔽画像12を合成映像データよりも明るく描画するように描画色決定部10により描画色決定情報を生成する。
【0081】
ステップS23において、ライトがオフ状態である時の路面遮蔽画像及び自車両図形画像の描画色を決定して描画色決定情報を作成してステップS5に処理を進める。車両前部に設けられているライトがオフ状態である時には、車両の後部に設けられているカメラ装置1の映像が明るい場合が多い。したがって、図9に示すように、路面遮蔽画像12を合成映像データよりも暗く、自車両図形画像13を路面遮蔽画像12よりも明るく描画するように描画色決定部10により描画色決定情報を生成する。
【0082】
路面遮蔽画像及び自車両図形画像を決定するときには、描画色決定部10により合成映像データの明るさと路面遮蔽画像及び自車両図形画像を描画する明るさとの関係を、予めルックアップテーブルとして保持して参照する。
【0083】
『第3実施形態に係る車両用表示装置の効果』
以上説明したように、第3実施形態に係る車両用表示装置によれば、ライトのオン、オフ状態に基づいて自車両図形画像と路面遮蔽画像の明るさを決定するので、上述した第1実施形態での効果に加えて、簡単な構成で、外部環境の明るさによらず、運転者から識別しやすいコントラストで路面遮蔽画像及び自車両図形画像を描画することができ、運転者にとって認識しやすい表示画面を提示することができる。
【0084】
なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。
【0085】
すなわち、上述した実施形態では、カメラ装置1が車両後方に設けられた一例について説明したが、カメラ装置1の配設位置が異なっていても本発明が適用可能であることは勿論である。
【0086】
また、上述した実施形態では、路面遮蔽画像12と自車両図形画像13との色の明暗を区別するように路面遮蔽画像12及び自車両図形画像13の描画色を決定する一例について説明したが、これに限らず、路面遮蔽画像12及び自車両図形画像13の輝度(明るさ)を区別して表示しても良い。
【図面の簡単な説明】
【図1】本発明を適用した第1実施形態に係る車両用表示装置の構成を示すブロック図である。
【図2】本発明を適用した第1実施形態に係る車両用表示装置による車両周囲表示処理の処理手順を示すフローチャートである。
【図3】表示部により表示する路面遮蔽画像について説明するための図である。
【図4】表示部により表示する路面遮蔽画像及び自車両図形画像について説明するための図である。
【図5】路面遮蔽領域描画部により座標変換マップを使用して座標変換処理を行うときの処理手順を示すフローチャートである。
【図6】座標変換マップを使用した座標変換処理について説明するための図であり、(a)は2枚の映像データから画素値を検出することを示す図であり、(b)は座標変換マップを参照して変換後の座標値を得ることを示す図であり、(c)は合成映像データの画素値を得ることを示す図である。
【図7】本発明を適用した第2実施形態に係る車両用表示装置の構成を示すブロック図である。
【図8】本発明を適用した第2実施形態に係る車両用表示装置による車両周囲表示処理の処理手順を示すフローチャートである。
【図9】本発明を適用した第2実施形態において合成映像データが明るいときの路面遮蔽画像及び自車両図形画像の描画例を説明するための図、本発明を適用した第3実施形態に係る車両用表示装置においてライトSWがオフ状態であるときの路面遮蔽画像及び自車両図形画像の描画例を説明するための図である。
【図10】本発明を適用した第2実施形態において合成映像データが暗いときの路面遮蔽画像及び自車両図形画像の描画例を説明するための図、本発明を適用した第3実施形態に係る車両用表示装置においてライトSWがオン状態であるときの路面遮蔽画像及び自車両図形画像の描画例を説明するための図である。
【図11】本発明を適用した第3実施形態に係る車両用表示装置の構成を示すブロック図である。
【図12】本発明を適用した第3実施形態に係る車両用表示装置による車両周囲表示処理の処理手順を示すフローチャートである。
【図13】従来の車両用表示装置による自車両画像及び自車両図形画像の描画例を説明するための図である。
【図14】車両用表示装置におけるカメラ装置の配設位置を示す背面図である。
【図15】車両用表示装置におけるカメラ装置の配設位置を示す側面図である。
【符号の説明】
1 カメラ装置
2 画像変換合成部
3 路面遮蔽領域描画部
4 車両図形描画部
5 表示部
6 起動・解除部
7 画像平均明度算出部
8 描画色決定部
9 ライトSW情報取得部
10 描画色決定部
11A 右側後方映像
11B 左側後方映像
12 路面遮蔽画像
13 自車両図形画像
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a display device for a vehicle that displays an area that becomes a blind spot from a driver by imaging the surroundings of the vehicle with a camera device mounted on the vehicle.
[0002]
[Prior art]
Conventionally, when the host vehicle is traveling, a camera device mounted on the host vehicle captures the surroundings of the vehicle to generate video data, and displays a blind spot from the driver in the generated video data. A vehicular display device is known.
[0003]
As a conventional vehicle display device, as disclosed in, for example, Japanese Patent Application Laid-Open No. 2001-10432 and Japanese Patent Application Laid-Open No. 2000-229547, video data generated by a camera device mounted on the host vehicle is used as a camera. It has been proposed that coordinates are converted into an image viewed from a viewpoint different from the viewpoint of the device, and the blind spot area is presented to the driver in an easy-to-see manner.
[0004]
[Problems to be solved by the invention]
In a conventional vehicle display device, the vehicle is converted into a viewpoint that looks down from directly above, coordinate conversion is performed, and an icon-shaped vehicle graphic image representing the vehicle is drawn and displayed on the coordinate-converted video data. However, it is desirable to draw the own vehicle graphic image in a size corresponding to the actual vehicle size so that the driver can easily grasp the positional relationship between the vehicle periphery and the own vehicle.
[0005]
However, when the own vehicle graphic image is drawn around the vehicle in a size corresponding to the actual vehicle size, the own vehicle image 101 becomes larger than the own vehicle graphic image 102 as shown in FIG. There arises a problem that 101 protrudes from the own vehicle graphic image 102.
[0006]
As shown in FIGS. 14 and 15, when the camera devices 113A and 113B are mounted on the rear side of the vehicle including the vehicle body 111 and the tires 112, when the road surface 114 is imaged by the camera devices 113A and 113B, FIG. As shown in the rear view, in the left-right direction of the vehicle, the imaging point A of the camera device is projected onto a point A ′ on the road surface 114, and as shown in the side view of FIG. By projecting to 114 point B ′.
[0007]
When the image data captured in this state is coordinate-converted, the vehicle size is converted by δ1 larger in the left-right direction of the vehicle, and the vehicle size is converted by δ2 behind the vehicle. Will be converted to an enlarged image.
[0008]
On the other hand, if the vehicle graphic image is made larger than the actual vehicle size so as to conceal and display the vehicle enlarged by the conversion, grooves and obstacles close to the vehicle are hidden by the vehicle graphic image. As a result, the displayed content differs from the actual vehicle periphery.
[0009]
Therefore, the present invention has been proposed in view of the above-described circumstances, and is an area that is a blind spot for the camera device in the captured image. The picture The present invention provides a display device for a vehicle that can display an image.
[0010]
[Means for Solving the Problems]
In the invention according to claim 1, one or a plurality of imaging means mounted on a vehicle and generating video data obtained by imaging the periphery of the vehicle from a first viewpoint, and the video data generated by imaging with the imaging means is the first. A video data converting means for converting the video data to be viewed from a second viewpoint different from the viewpoint; a host vehicle image representing the host vehicle is drawn on the video data converted by the video data converting means; A road surface shielding area representing at least a part of a road surface portion shielded by the own vehicle when the road surface is viewed from the first viewpoint. Road shielding image As The above-described problems are solved by providing drawing means for drawing and display means for displaying video data drawn by the drawing means.
[0011]
In the invention which concerns on Claim 2, the said drawing means draws the said own vehicle image according to the magnitude | size of the said vehicle.
[0012]
According to a third aspect of the present invention, the image processing apparatus further includes a determination unit that detects brightness information of the video data generated by imaging with the imaging unit and determines the brightness of the video, and the drawing unit performs the determination by the determination unit. Based on the result, the brightness of the vehicle image and the road surface shielding image is adjusted and drawn.
[0013]
In the invention according to claim 4, the drawing means makes the road surface shielding image darker than the image around the vehicle when the determination means determines that the brightness of the image around the vehicle is brighter than the predetermined brightness. The vehicle image is drawn brighter than the road surface shielding image, and when the brightness of the image around the vehicle is determined to be darker than the predetermined brightness by the determination means, the road surface shielding image is displayed as the image around the vehicle. The vehicle image is drawn darker than the road surface shielding image.
[0014]
The invention according to claim 5 further includes light state detection means for detecting a state of a light mounted on the vehicle, wherein the drawing means is configured to detect the vehicle image and the vehicle image based on a detection result of the light state detection means. Draw by adjusting the brightness of the road shielding image.
[0015]
In the invention according to claim 6, when the light state detecting means detects that the light is on, the drawing means draws a road surface shielding image brighter than the video around the vehicle, and displays the own vehicle image. If the light is detected to be darker than the road surface shielding image and the light state detection means detects that the light is off, the road surface shielding image is rendered darker than the surrounding image of the vehicle, and the own vehicle image is drawn from the road surface shielding image. Even draw brighter.
[0016]
【The invention's effect】
According to the first aspect of the present invention, the video data generated by imaging by the imaging means is converted into video data viewed from a second viewpoint different from the first viewpoint, and the vehicle indicating the own vehicle is displayed in the converted video data. While drawing the vehicle image, A road surface shielding area representing at least a part of a road surface portion shielded by the own vehicle when the road surface is viewed from the first viewpoint. Road shielding image As Since the drawing is performed, it is possible to accurately display an area that becomes a blind spot in the captured image. Therefore, according to the first aspect of the present invention, it is necessary to present the vehicle driver with a blind spot area from the video data conversion and imaging means, and to pay attention by direct view or indirect view using a mirror. can do.
[0017]
According to the second aspect of the present invention, since the own vehicle image is drawn according to the size of the vehicle by the drawing means, in addition to the effect of the first aspect of the invention, for the vehicle driver, The relative relationship can be easily displayed.
[0018]
According to the invention of claim 3, since the brightness of the host vehicle image and the road surface shielding image is adjusted and drawn based on the determination result of the determination means for determining the brightness of the video, the brightness of the external environment Regardless of this, it is possible to draw the road surface shielding image and the own vehicle image with a contrast that can be easily identified by the vehicle driver, and to present a display screen that is easy for the driver to recognize.
[0019]
According to the fourth aspect of the present invention, when it is determined that the brightness of the image around the vehicle is brighter than the predetermined brightness, the subject vehicle image is drawn brighter than the road surface shielding image, and the brightness of the image around the vehicle is increased. If it is determined that the vehicle is darker than the predetermined brightness, the vehicle image is drawn darker than the road shielding image. Therefore, the road surface shielding is performed with a contrast that is easy to identify from the driver regardless of the brightness of the external environment. An image and a vehicle image can be drawn, and a display screen that can be easily recognized by the driver can be presented.
[0020]
According to the fifth aspect of the present invention, the brightness of the host vehicle image and the road surface shielding image is adjusted and drawn based on the detection result of the light state detection means for detecting the state of the light mounted on the vehicle. The road screen image and the vehicle image can be drawn with a contrast that is easy to identify from the vehicle driver regardless of the brightness of the external environment, and a display screen that is easy for the vehicle driver to recognize is presented. be able to.
[0021]
According to the invention of claim 6, when it is detected that the light is on, the vehicle image is rendered darker than the road surface shielding image, and when the light is detected to be off. Since the host vehicle image is drawn brighter than the road surface shielding image, the road surface shielding image and the host vehicle image can be drawn with a simple configuration and with a contrast that is easy to identify from the driver regardless of the brightness of the external environment. It is possible to realize a display screen that can be easily recognized by the vehicle driver.
[0022]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0023]
The present invention is applied, for example, to the vehicle display device according to the first embodiment configured as shown in FIG.
[0024]
[Vehicle Display Device According to First Embodiment]
“Configuration of Vehicle Display Device According to First Embodiment”
FIG. 1 is a block diagram showing the configuration of the vehicle display device according to the first embodiment. The vehicle display device includes camera devices 1A and 1B (hereinafter simply referred to as “camera device 1” when collectively referred to as “camera device 1”) provided on the left and right sides of the rear end of the vehicle body, and an image conversion / synthesis unit 2 provided inside the vehicle. The road surface shielding area drawing unit 3, the vehicle figure drawing unit 4, a display unit 5 provided at a position visible from the vehicle driver, and an activation / release unit 6 that operates according to the vehicle operation. Yes.
[0025]
The camera devices 1A and 1B are provided on the left and right sides at the rear end of the vehicle, take an image of the surroundings in the rear of the vehicle in response to the start of the vehicle display device, and output video data obtained by the imaging to the image conversion / synthesis unit 2 To do.
[0026]
The image conversion / synthesizing unit 2 inputs each video data from the camera devices 1A and 1B, and performs a coordinate conversion process (perspective transformation) on each input video data, so that a viewpoint different from the viewpoint captured by the camera device 1 is obtained. Use coordinate conversion video data. As a result, the image conversion / synthesis unit 2 obtains coordinate-converted video data of a viewpoint as seen from directly above the vehicle.
[0027]
In addition, the image conversion / synthesis unit 2 performs synthesis processing so that each coordinate-converted video data subjected to coordinate conversion is displayed on one screen on the display unit 5, thereby obtaining one composite video data. The image conversion synthesis unit 2 outputs the synthesized video data obtained by the synthesis to the road surface shielding area drawing unit 3.
[0028]
The road surface shielding area drawing unit 3 pastes the shielding area image on the road surface shielding area generated by the deformation of the vehicle image generated by the coordinate conversion processing by the image conversion synthesis unit 2 to the synthesized video data from the image conversion synthesis unit 2. The composite video data to be drawn is generated and output to the vehicle figure drawing unit 4. The shielding area image pasted on the composite video data by the road surface shielding area drawing unit 3 is stored in advance in, for example, a memory area provided in the road surface shielding area drawing unit 3, and the road surface shielding area drawing unit 3 By being read, it is pasted on the composite video data.
[0029]
The vehicle graphic drawing unit 4 determines the pasting position on the composite video data from the road surface shielding area drawing unit 3 according to the shape of the vehicle body and the viewpoint position, and draws the own vehicle graphic image indicating the own vehicle. The synthesized video data to be generated is generated and output to the display unit 5. The vehicle figure image pasted on the composite video data by the vehicle figure drawing unit 4 is stored in advance in a memory area provided in the vehicle figure drawing unit 4 and read by the vehicle figure drawing unit 4, for example. Is pasted into the composite video data.
[0030]
The display unit 5 includes a display monitor that presents various images to the driver, and displays the composite image data from the vehicle graphic drawing unit 4.
[0031]
The start / release unit 6 receives an operation input signal for a driver to operate the vehicle from the outside and activates the display device for the vehicle, thereby capturing the video data by the camera device 1 and displaying the composite video data on the display unit 5. In addition, the display of the composite video data by the vehicle display device is canceled. An operation input signal is input to the start / release unit 6 when the shift lever (gear) is put in reverse to drive the vehicle back.
[0032]
“Vehicle Surrounding Display Processing of Vehicle Display Device According to First Embodiment”
FIG. 2 shows a processing procedure of vehicle surroundings display processing by the vehicle display device described above.
[0033]
In the vehicle display device, first, in step S1, for example, when the vehicle performs a parking operation, an operation input signal is input to the start / release unit 6 when the driver reversely operates the gear (shift lever). Then, the vehicle display device is activated and the process proceeds to step S2.
[0034]
In step S2, the image data behind the vehicle is captured by the camera devices 1A and 1B, whereby two pieces of image data I 1 (X, y), I 2 (X, y) is acquired and output to the image conversion / synthesis unit 2, and the video data I is temporarily stored in the memory in the image conversion / synthesis unit 2 in the next step S3. 1 (X, y), video data I 2 (X, y) is stored, and the process proceeds to the next step S4.
[0035]
In step S4, the image conversion synthesis unit 2 performs coordinate conversion processing for converting video data viewed from a viewpoint such that the own vehicle is looked down from above, which is different from the viewpoint when captured by the camera devices 1A and 1B in step S2. To generate two pieces of coordinate-converted video data, and then synthesize each coordinate-converted video data into one piece of composite video data T (x, y). The contents of the coordinate conversion process and the synthesis process in step S4 will be described later.
[0036]
In the next step S5, based on the attachment positions of the camera devices 1A and 1B by the road surface shielding area drawing unit 3, the viewpoint position of the composite video data T (x, y) converted by the image conversion synthesis unit 2, and the vehicle body shape. The position of the road surface shielding area is determined. In this step S5, the position of the road surface shielding area may be obtained by calculation based on the pattern of the composite video data T (x, y), or the area including the deformed vehicle body end by creating the coordinate conversion video data in advance. May be extracted manually and held as a template to be synthesized with the synthesized video data T (x, y).
[0037]
Next, the combined video data T (x, y) is drawn so as to paste the shielding area image on the road surface shielding area which is the area shielding the road surface by the vehicle body generated in step S4. At this time, a predetermined texture is stored as a shielding area image in the internal memory by the road surface shielding area drawing unit 3 and pasted at a predetermined position of the composite video data T (x, y).
[0038]
Thereby, as shown in FIG. 3, the composite video data T (x, y) composed of the right rear video 11A, the left rear video 11B, and the road surface shielding image 12 is created, and the process proceeds to step S6. In the example illustrated in FIG. 3, a case where the rectangular road surface shielding image 12 is stored as a predetermined texture by the vehicle figure drawing unit 4 is illustrated.
[0039]
In step S6, the vehicle figure drawing unit 4 determines the paste position and paste size for the vehicle graphic image based on the viewpoint position and the vehicle body shape converted by the image conversion synthesis unit 2, and the road surface shielding area drawing unit 3 A process of pasting the own vehicle graphic image is performed on the synthesized video data T (x, y) and the process proceeds to step S7. At this time, the template previously stored in the memory by the vehicle graphic drawing unit 4 is prepared as the vehicle graphic image.
[0040]
As a result, as shown in FIG. 4, composite video data T (x, y) composed of the right rear video 11A, the left rear video 11B, and the own vehicle graphic image 13 pasted on the road surface shielding image 12 is created. The data is output to the display unit 5, and the process proceeds to step S7. Here, in the example shown in FIG. 4, the case where the rectangular own vehicle figure image 13 is previously stored in the memory is shown.
[0041]
In step S7, display processing is performed by the display unit 5 so as to display the composite video data T (x, y) output from the vehicle figure drawing unit 4 on the display monitor, and the process proceeds to step S8.
[0042]
In step S8, the start / release unit 6 determines whether or not the shift lever (gear) is in a position other than the reverse position. When the start / cancel unit 6 determines that the position is not the reverse position, the process proceeds to step S9. When it is determined that the position is not the reverse position, the synthesized video data T (x, y) generated in step S6 is determined. The process of displaying on the display unit 5 is continued, and the process is returned to step S2 to repeat the processes after step S2.
[0043]
In step S9, the start / cancel unit 6 cancels the process of displaying the composite video data T (x, y) by the display unit 5 and ends the process.
[0044]
Next, the coordinate conversion process in step S4 will be described.
[0045]
In order to convert the own vehicle into video data looking down from directly above by the coordinate conversion processing of the road surface shielding area drawing unit 3, the geometrical arrangement of the camera device 1A and the camera device 1B is determined using the optical information. Based on a certain lens angle of view and focal position, an operation is performed to convert coordinates of pixel data constituting each video data obtained by imaging with the camera devices 1A and 1B.
[0046]
In step S4 in this example, the amount of calculation is reduced, a coordinate conversion map for converting the coordinates of each pixel data is created in advance and stored in the image conversion composition unit 2, and each image conversion composition unit 2 stores each coordinate conversion map. When video data is input, the coordinate conversion map is read and referenced to convert the coordinate of each video data.
[0047]
This coordinate conversion map is based on the above-described arrangement position of the camera device 1 and optical information, and the coordinate position of each pixel of the video data generated by the camera device 1A and the camera device 1B and the coordinate position of the conversion destination. Are associated with each other.
[0048]
The coordinate conversion map M (x, y) is the video data I generated by the camera device 1A. 1 First x-coordinate conversion map M for converting the x-coordinate of each pixel constituting (x, y) x1 (X, y), video data I generated by the camera device 1A 1 First y-coordinate conversion map M for converting the y-coordinate of each pixel constituting (x, y) y1 (X, y), video data I generated by the camera device 1B 2 Second x-coordinate conversion map M for converting the x-coordinate of each pixel constituting (x, y) x2 (X, y), video data I generated by the camera device 1B 2 Second y-coordinate conversion map M for converting the y-coordinate of each pixel constituting (x, y) y2 (X, y).
[0049]
FIG. 5 shows a processing procedure when the road surface shielding area drawing unit 3 performs the coordinate conversion process using the coordinate conversion map.
[0050]
According to FIG. 5, first, in step S11, the video data I 1 (X, y) and video data I 2 The upper left corner of the screen (x, y), that is, video data I 1 (X, y), video data I 2 For each of (x, y), scanning is started in the raster direction from a pixel whose x coordinate value is “0” and y coordinate value is “0”, and the process proceeds to step S12.
[0051]
In step S12, video data I 1 X coordinate value at (x, y), pixel value at y coordinate value, video data I 2 The x-coordinate value at (x, y) and the pixel value at the y-coordinate value are acquired, and the process proceeds to step S13.
[0052]
Specifically, in step S12, as shown in FIG. 1 Pixel I with (x, y) 1 Pixel value a and video data I at (i, j) 2 Pixel I with (x, y) 2 The pixel value b at (k, l) is obtained.
[0053]
In step S13, the video data I acquired in step S12 with reference to the coordinate conversion map M (x, y). 1 The x coordinate value and y coordinate value of the composite video data T (x, y) after coordinate conversion with respect to the x coordinate value and y coordinate value of the pixels constituting (x, y) are obtained, and the process proceeds to step S14.
[0054]
Specifically, as shown in FIG. 6B, the first x-coordinate transformation map M x1 Pixel I before conversion with reference to (x, y) 1 X coordinate value p (M) after conversion for (i, j) x1 (I, j) = p), first y-coordinate transformation map M y1 Pixel I before conversion with reference to (x, y) 1 Y coordinate value q (M) after conversion for (i, j) y1 (I, j) = q) is obtained. Further, the second x coordinate conversion map M x2 Pixel I before conversion with reference to (x, y) 2 X coordinate value r (M) after conversion for (k, l) x2 (K, l) = r), the second y coordinate transformation map M y2 Pixel I before conversion with reference to (x, y) 2 Y coordinate value s (M) after conversion for (k, l) y2 (K, l) = s).
[0055]
In step S14, the video data I obtained in step S13. 1 (X, y), video data I 2 Each coordinate value on the composite video data T (x, y) is obtained from the converted x-coordinate value and y-coordinate value for (x, y). Next, the pixel value of each coordinate value on the composite video data T (x, y) is converted into the video data I 1 Pixel value of (x, y), video data I 2 The composite video data is generated with the pixel value of (x, y), and the process proceeds to step S15.
[0056]
Specifically, as shown in FIG. 6C, the pixel I obtained in step S13. 1 A coordinate value T (p, q) in the synthesized video data T (x, y) is obtained from the converted x-coordinate value p and y-coordinate value q of (i, j). Next, the pixel value of the pixel at this coordinate value T (p, q) is determined as the pixel I 1 The pixel value a is set to (x, y) (T (p, q) = a). Further, the pixel I obtained in step S13. 2 A coordinate value T (r, s) in the synthesized video data T (x, y) is obtained from the converted x-coordinate value r and y-coordinate value s of (i, j). Next, the pixel value of the pixel at the coordinate value T (r, s) is determined as the pixel I. 2 The pixel value b of (k, l) is set (T (r, s) = b).
[0057]
In step S15, the video data I 1 (X, y), video data I 2 It is determined whether or not the processing of step S12 to step S14 has been performed for all the pixels of (x, y). When it is determined that the processing of step S12 to step S14 is not performed for all pixels, the process returns to step S12, the processing of step S12 to step S14 is performed for the next pixel, and the processing of step S12 to step S14 is performed for all the pixels. When it is determined, the process is terminated.
[0058]
“Effect of the vehicle display device according to the first embodiment”
As described above, according to the vehicular display device according to the first embodiment, the image data captured by the camera devices 1A and 1B mounted on the vehicle is coordinate-transformed, and the image around the vehicle is displayed around the vehicle graphic image. Since the road surface shielding image and the own vehicle graphic image are pasted and drawn on the composite video data based on the vehicle shape, the camera device 1 accurately displays the blind spot area by the own vehicle. It is possible to present the blind spot area of the camera device 1 to the driver and alert the driver that attention needs to be paid by direct view or indirect view using a mirror.
[0059]
Further, according to the vehicle display device according to the first embodiment, since the own vehicle graphic image is drawn in an actual size, it is possible for the driver to easily display the relative relationship between the own vehicle and the surroundings. .
[0060]
[Vehicle Display Device According to Second Embodiment]
“Configuration of Vehicle Display Device According to Second Embodiment”
FIG. 7 is a block diagram showing the configuration of the vehicle display device according to the second embodiment. In the following description of the vehicular display device according to the second embodiment, the same parts as those in the vehicular display device according to the first embodiment described above are denoted by the same reference numerals, and detailed description thereof is omitted. .
[0061]
The vehicle display device according to the second embodiment calculates the average brightness information of the composite video data based on the composite video data from the image conversion / synthesis unit 2 with the vehicle display device according to the first embodiment described above. The difference is that an image average brightness calculation unit 7 and a drawing color determination unit 8 that determines the drawing color of the road surface shielding image and the image graphic image based on the average brightness information from the image average brightness calculation unit 7 are different.
[0062]
The average image brightness calculation unit 7 detects the luminance information of each pixel constituting the composite video data from the image conversion / synthesis unit 2, and calculates the average value of the detected luminance information to indicate the average brightness of the image. Create information.
[0063]
The drawing color determination unit 8 determines the drawing color of the road surface shielding image to be drawn by the road surface shielding region drawing unit 3 based on the average lightness information from the image average lightness calculation unit 7, and automatically draws it by the vehicle figure drawing unit 4. The drawing color of the vehicle graphic image is determined, and the drawing color determination information is output to the road surface shielding area drawing unit 3 and the vehicle graphic drawing unit 4.
[0064]
Thereby, the road surface shielding area drawing unit 3 and the vehicle figure drawing unit 4 draw the road surface shielding image and the own vehicle figure image with the drawing color according to the drawing color determination information, respectively, and output the image to the display unit 5. .
[0065]
“Vehicle display processing of the vehicle display device according to the second embodiment”
FIG. 8 shows a processing procedure of vehicle surroundings display processing by the vehicle display device according to the second embodiment. In this vehicular display device, since the gear is operated in reverse, the processing of step S1 to step S4 is performed as in FIG. 2, and the processing proceeds to step S11.
[0066]
In step S11, the pixel value (luminance information) of the composite video data generated in step S4 is detected by the image average brightness calculation unit 7, the average value is calculated from all pixel values, and the average brightness information is calculated to determine the drawing color. It outputs to the part 8 and advances a process to step S12. When calculating the average brightness information in step S11, the pixel values of the road surface shielding area and the area in which the vehicle graphic image is drawn are excluded.
[0067]
In this step S11, the process for obtaining the area for drawing the road surface shielding image and the own vehicle graphic image is determined by the mounting position of the camera device 1, the viewpoint position converted in step S4, and the vehicle body shape. The road surface shielding area and the area where the vehicle graphic image is drawn may be obtained by calculation. Furthermore, the converted image data is actually created in advance, and the area including the deformed body edge is manually cut out and held as a template. You can keep it.
[0068]
In step S12, when the composite video data is larger than the predetermined brightness set in advance from the average brightness information, that is, when the composite video data is brighter than the predetermined brightness, the drawing color determination unit 8 determines the road surface shielding image to be a dark color and automatically. The vehicle graphic image is determined to be a bright color. On the other hand, when the synthesized video data is smaller than the predetermined brightness set in advance from the average brightness information, that is, when the synthesized video data is darker than the predetermined brightness, the drawing color determining unit 8 determines the road surface shielding image to be a bright color and the own vehicle figure. Determine the image to be dark.
[0069]
As a result, as shown in FIG. 9, when the right rear video 11 </ b> A and the left rear video 11 </ b> B are bright, the road surface shielding image 12 is displayed in a brighter color than the vehicle graphic image 13. Further, as shown in FIG. 10, when the right rear image 11 </ b> A and the left rear image 11 </ b> B are dark, the road surface shielding image 12 is displayed in a darker color than the vehicle graphic image 13.
[0070]
When determining the road surface shielding image and the own vehicle graphic image, the drawing color determining unit 8 holds in advance a relationship between the brightness of the synthesized video data and the brightness for rendering the road surface shielding image and the own vehicle graphic image as a lookup table. refer.
[0071]
Then, the drawing color determination information determined by the drawing color determination unit 8 is output to the road surface shielding region drawing unit 3 and the vehicle figure drawing unit 4. In order to render the road surface shielding image and the own vehicle graphic image in a bright color by the road surface shielding area drawing unit 3 and the vehicle graphic drawing unit 4, the lightness or saturation of the color for each pixel constituting the input composite video data Is set high, and in order to draw the road surface shielding image and the own vehicle graphic image in a dark color, the lightness or saturation of the color for each pixel constituting the input composite video data is set low.
[0072]
“Effects of the vehicle display device according to the second embodiment”
As described above, according to the vehicle display device according to the second embodiment, in addition to the effects of the first embodiment described above, the road surface shielding image and the vehicle graphic image are based on the brightness of the composite video data. Because the brightness of the vehicle is determined, the road screen image and the vehicle graphic image can be drawn with a contrast that is easily discernable by the driver, regardless of the brightness of the external environment, and a display screen that is easy for the driver to recognize is presented. can do.
[0073]
[Vehicle Display Device According to Third Embodiment]
“Configuration of Vehicle Display Device According to Third Embodiment”
FIG. 11 is a block diagram showing the configuration of the vehicle display device according to the third embodiment. In the following description of the vehicular display device according to the third embodiment, the same parts as those in the vehicular display device according to the above-described embodiment will be denoted by the same reference numerals, and detailed description thereof will be omitted.
[0074]
The vehicle display device according to the third embodiment is different from the vehicle display device according to the first embodiment described above in that the light SW that acquires the light state detection information indicating the on / off state of the light mounted on the vehicle. The difference is that the information acquisition unit 9 further includes a drawing color determination unit 10 that determines the drawing color of the road surface shielding image and the vehicle graphic image based on the light state detection information from the light SW information acquisition unit 9.
[0075]
The light SW information acquisition unit 9 is connected to a light mechanism (not shown) or a light switch operated by the driver, acquires light state detection information indicating the on / off state of the light, and outputs it to the drawing color determination unit 10.
[0076]
The drawing color determination unit 10 determines the drawing color of the road surface shielding image drawn by the road surface shielding region drawing unit 3 based on the light state detection information from the light SW information acquisition unit 9 and draws it by the vehicle figure drawing unit 4. The drawing color of the own vehicle figure image is determined, and the drawing color determination information is output to the road surface shielding area drawing unit 3 and the vehicle figure drawing unit 4.
[0077]
Thereby, the road surface shielding area drawing unit 3 and the vehicle figure drawing unit 4 draw the road surface shielding image and the own vehicle figure image with the drawing color according to the drawing color determination information, respectively, and output the image to the display unit 5. .
[0078]
“Vehicle Surrounding Display Processing of Vehicle Display Device According to Third Embodiment”
FIG. 12 shows a processing procedure of vehicle surroundings display processing by the vehicle display device described above. In this vehicle display device, since the gear is operated in reverse, the processing of step S1 to step S4 is performed similarly to FIG. 2, and the processing proceeds to step S21.
[0079]
In step S21, the light SW information acquisition unit 9 acquires the light state detection information, and determines whether or not the light SW is in an on state. When it is determined that the light SW is on, the process proceeds to step S22. When it is determined that the light SW is off, the process proceeds to step S23.
[0080]
In step S22, drawing color determination information is created by determining the drawing color of the road surface shielding image and the vehicle graphic image when the light is on. When the light provided in the front part of the vehicle is in the on state, the image of the camera device 1 provided in the rear part of the vehicle is often dark. Therefore, as shown in FIG. 10, the drawing color determination unit 10 generates drawing color determination information so that the vehicle graphic image 13 is drawn darker than the road shielding image 12 and the road shielding image 12 is drawn brighter than the composite video data. To do.
[0081]
In step S23, the drawing color determination information is generated by determining the drawing color of the road surface shielding image and the vehicle graphic image when the light is off, and the process proceeds to step S5. When the light provided at the front part of the vehicle is in the off state, the image of the camera device 1 provided at the rear part of the vehicle is often bright. Therefore, as shown in FIG. 9, the drawing color determination unit 10 generates the drawing color determination information so that the road surface shielding image 12 is darker than the composite video data and the vehicle graphic image 13 is drawn brighter than the road surface shielding image 12. To do.
[0082]
When determining the road surface shielding image and the own vehicle graphic image, the drawing color determination unit 10 holds in advance a relationship between the brightness of the synthesized video data and the brightness for rendering the road surface shielding image and the own vehicle graphic image as a lookup table. refer.
[0083]
“Effects of the vehicle display device according to the third embodiment”
As described above, according to the display device for a vehicle according to the third embodiment, the brightness of the vehicle graphic image and the road surface shielding image is determined based on the on / off state of the light. In addition to the effects of the form, it is possible to draw the road surface shielding image and the vehicle graphic image with a simple configuration and with a contrast that is easily discernable by the driver, regardless of the brightness of the external environment. An easy display screen can be presented.
[0084]
The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.
[0085]
That is, in the above-described embodiment, an example in which the camera device 1 is provided on the rear side of the vehicle has been described, but it is needless to say that the present invention can be applied even if the arrangement position of the camera device 1 is different.
[0086]
In the above-described embodiment, an example in which the drawing colors of the road surface shielding image 12 and the host vehicle graphic image 13 are determined so as to distinguish between the light and dark colors of the road surface shielding image 12 and the host vehicle graphic image 13 has been described. Not only this but the brightness | luminance (brightness) of the road surface shielding image 12 and the own vehicle figure image 13 may be distinguished and displayed.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a vehicle display device according to a first embodiment to which the present invention is applied.
FIG. 2 is a flowchart showing a processing procedure of vehicle surroundings display processing by the vehicle display device according to the first embodiment to which the present invention is applied.
FIG. 3 is a diagram for explaining a road surface shielding image displayed by a display unit.
FIG. 4 is a diagram for explaining a road surface shielding image and a host vehicle graphic image displayed by a display unit.
FIG. 5 is a flowchart illustrating a processing procedure when a coordinate conversion process is performed using a coordinate conversion map by a road surface shielding area drawing unit;
6A and 6B are diagrams for explaining a coordinate conversion process using a coordinate conversion map, in which FIG. 6A is a diagram illustrating detection of pixel values from two pieces of video data, and FIG. 6B is a coordinate conversion process; It is a figure which shows obtaining the coordinate value after conversion with reference to a map, (c) is a figure which shows obtaining the pixel value of synthetic | combination video data.
FIG. 7 is a block diagram showing a configuration of a vehicle display device according to a second embodiment to which the present invention is applied.
FIG. 8 is a flowchart showing a processing procedure of vehicle surroundings display processing by the vehicle display device according to the second embodiment to which the present invention is applied.
FIG. 9 is a diagram for explaining a drawing example of a road surface shielding image and a vehicle graphic image when the synthesized video data is bright in the second embodiment to which the present invention is applied, and relates to the third embodiment to which the present invention is applied; It is a figure for demonstrating the example of a drawing of a road surface shielding image and the own vehicle figure image when light SW is an OFF state in the display apparatus for vehicles.
FIG. 10 is a diagram for explaining a drawing example of a road surface shielding image and a vehicle graphic image when the synthesized video data is dark in the second embodiment to which the present invention is applied, and relates to the third embodiment to which the present invention is applied. It is a figure for demonstrating the example of a drawing of a road surface shielding image and the own vehicle figure image when light SW is an ON state in the display apparatus for vehicles.
FIG. 11 is a block diagram showing a configuration of a vehicle display device according to a third embodiment to which the present invention is applied.
FIG. 12 is a flowchart showing a processing procedure of vehicle surroundings display processing by the vehicle display device according to the third embodiment to which the present invention is applied.
FIG. 13 is a diagram for explaining a drawing example of a host vehicle image and a host vehicle graphic image by a conventional vehicle display device.
FIG. 14 is a rear view showing the arrangement position of the camera device in the vehicle display device.
FIG. 15 is a side view showing the arrangement position of the camera device in the vehicle display device.
[Explanation of symbols]
1 Camera device
2 Image conversion / synthesis unit
3 Road surface shielding area drawing part
4 Vehicle figure drawing part
5 display section
6 start-up / release part
7 Image average brightness calculator
8 Drawing color determination part
9 Light SW information acquisition unit
10 Drawing color decision section
11A Rear right video
11B Left rear video
12 Road shielding image
13 Vehicle graphic image

Claims (6)

車両に搭載され、車両周囲を第1視点で撮像した映像データを生成する1又は複数の撮像手段と、
上記撮像手段で撮像して生成した映像データを上記第1視点とは異なる第2視点から見た映像データに変換する映像データ変換手段と、
上記映像データ変換手段により変換された映像データに自車両を示す自車両画像を描画すると共に、上記第1視点から路面を見たときに自車両によって遮蔽される路面部分の少なくとも一部を表す路面遮蔽領域を路面遮蔽画像として描画する描画手段と、
上記描画手段で描画された映像データを表示する表示手段とを備えることを特徴とする車両用表示装置。
One or a plurality of imaging means mounted on a vehicle and generating video data obtained by imaging the periphery of the vehicle from a first viewpoint;
Video data conversion means for converting video data generated by imaging with the imaging means into video data viewed from a second viewpoint different from the first viewpoint;
A road surface representing at least a part of a road surface portion that is drawn by the host vehicle when the host vehicle image showing the host vehicle is drawn on the video data converted by the video data conversion unit and the road surface is viewed from the first viewpoint. A drawing means for drawing the shielding area as a road surface shielding image;
A vehicle display device comprising: display means for displaying video data drawn by the drawing means.
上記描画手段は、上記自車両画像を上記車両の大きさに応じて描画することを特徴とする請求項1記載の車両用表示装置。The vehicle display device according to claim 1, wherein the drawing means draws the own vehicle image according to a size of the vehicle. 上記撮像手段で撮像して生成した映像データの輝度情報を検出して映像の明るさを判定する判定手段を更に備え、
上記描画手段は、上記判定手段での判定結果に基づいて、上記自車両画像及び路面遮蔽画像の明るさを調整して描画することを特徴とする請求項1記載の車両用表示装置。
A determination means for detecting brightness information of video data generated by imaging by the imaging means and determining brightness of the video;
The vehicle display device according to claim 1, wherein the drawing means draws by adjusting the brightness of the host vehicle image and the road surface shielding image based on the determination result of the determination means.
上記描画手段は、上記判定手段により車両周囲の映像の明るさが所定の明るさよりも明るいと判定された場合には、路面遮蔽画像を車両周囲の映像よりも暗く描画し、自車両画像を路面遮蔽画像よりも明るく描画し、上記判定手段により車両周囲の映像の明るさが所定の明るさよりも暗いと判定された場合には、路面遮蔽画像を車両周囲の映像よりも明るく描画し、自車両画像を路面遮蔽画像よりも暗く描画することを特徴とする請求項3記載に車両用表示装置。When the determining unit determines that the brightness of the image around the vehicle is brighter than the predetermined brightness, the drawing unit draws the road surface shielding image darker than the image around the vehicle, and the vehicle image is displayed on the road surface. When the determination unit determines that the brightness of the video around the vehicle is darker than the predetermined brightness, the road surface shielding image is drawn brighter than the video around the vehicle. The vehicle display device according to claim 3, wherein the image is drawn darker than the road surface shielding image. 車両に搭載されたライトの状態を検出するライト状態検出手段を更に備え、
上記描画手段は、上記ライト状態検出手段での検出結果に基づいて、上記自車両画像及び路面遮蔽画像の明るさを調整して描画することを特徴とする請求項1記載の車両用表示装置。
A light state detecting means for detecting the state of the light mounted on the vehicle;
2. The vehicle display device according to claim 1, wherein the drawing means draws the image of the own vehicle and the road surface shielding image by adjusting brightness based on a detection result of the light state detection means.
上記描画手段は、上記ライト状態検出手段でライトがオン状態であると検出された場合には、路面遮蔽画像を車両周囲の映像より明るく描画し、自車両画像を路面遮蔽画像よりも暗く描画し、上記ライト状態検出手段でライトがオフ状態であると検出された場合には、路面遮蔽画像を車両周囲の映像より暗く描画し、自車両画像を路面遮蔽画像よりも明るく描画することを特徴とする請求項5記載の車両用表示装置。When the light state detection means detects that the light is on, the drawing means draws the road shielding image brighter than the image around the vehicle and draws the own vehicle image darker than the road shielding image. When the light state detecting means detects that the light is off, the road surface shielding image is rendered darker than the image around the vehicle, and the host vehicle image is rendered lighter than the road surface shielding image. The vehicle display device according to claim 5.
JP2001171444A 2001-06-06 2001-06-06 Vehicle display device Expired - Lifetime JP4581294B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001171444A JP4581294B2 (en) 2001-06-06 2001-06-06 Vehicle display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001171444A JP4581294B2 (en) 2001-06-06 2001-06-06 Vehicle display device

Publications (2)

Publication Number Publication Date
JP2002369185A JP2002369185A (en) 2002-12-20
JP4581294B2 true JP4581294B2 (en) 2010-11-17

Family

ID=19013212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001171444A Expired - Lifetime JP4581294B2 (en) 2001-06-06 2001-06-06 Vehicle display device

Country Status (1)

Country Link
JP (1) JP4581294B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4579132B2 (en) * 2005-11-01 2010-11-10 アルパイン株式会社 Vehicle / Ambient Image Providing Device
JP5090126B2 (en) 2007-10-23 2012-12-05 アルパイン株式会社 In-vehicle imaging device
JP5132249B2 (en) * 2007-10-23 2013-01-30 アルパイン株式会社 In-vehicle imaging device
KR102270578B1 (en) * 2014-11-18 2021-06-29 현대모비스 주식회사 Apparatus and method for controlling displaying forward information of vehicle
DE102016223391A1 (en) * 2016-11-25 2018-05-30 Conti Temic Microelectronic Gmbh METHOD AND DEVICE FOR PRODUCING A VEHICLE ENVIRONMENT VIEW ON A VEHICLE

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001028250A1 (en) * 1999-10-12 2001-04-19 Matsushita Electric Industrial Co., Ltd. Monitor camera, method of adjusting camera, and vehicle monitor system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001028250A1 (en) * 1999-10-12 2001-04-19 Matsushita Electric Industrial Co., Ltd. Monitor camera, method of adjusting camera, and vehicle monitor system

Also Published As

Publication number Publication date
JP2002369185A (en) 2002-12-20

Similar Documents

Publication Publication Date Title
JP4248570B2 (en) Image processing apparatus and visibility support apparatus and method
US8878934B2 (en) Image display device
JP4315968B2 (en) Image processing apparatus and visibility support apparatus and method
JP3300334B2 (en) Image processing device and monitoring system
US7728879B2 (en) Image processor and visual field support device
JP4254887B2 (en) Image display system for vehicles
JP4874280B2 (en) Image processing apparatus and method, driving support system, and vehicle
JP5953824B2 (en) Vehicle rear view support apparatus and vehicle rear view support method
WO2011111701A1 (en) Vehicle surroundings monitoring device
WO2000064175A1 (en) Image processing device and monitoring system
JP2008077628A (en) Image processor and vehicle surrounding visual field support device and method
JP3778849B2 (en) Vehicle periphery image processing apparatus and recording medium
JP2007109166A (en) Driving assistance system
US11528453B2 (en) Sensor fusion based perceptually enhanced surround view
JP2013207637A (en) Image processing apparatus and method, and computer program
JP4581294B2 (en) Vehicle display device
JP2012138876A (en) Image generating apparatus, image display system, and image display method
JP3961969B2 (en) Vehicle periphery image processing system
JP5338374B2 (en) Display device for vehicle and display method for vehicle
JP4633023B2 (en) User interface device
JP7029350B2 (en) Image processing device and image processing method
JP2007149011A (en) Vehicle circumference viewing device
JP4945315B2 (en) Driving support system and vehicle
JP4696825B2 (en) Blind spot image display device for vehicles
JPH06113308A (en) Picture processing method in on-vehicle image pickup device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100816

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140910

Year of fee payment: 4

S801 Written request for registration of abandonment of right

Free format text: JAPANESE INTERMEDIATE CODE: R311801

ABAN Cancellation due to abandonment
R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350