JP4581294B2 - Vehicle display device - Google Patents
Vehicle display device Download PDFInfo
- Publication number
- JP4581294B2 JP4581294B2 JP2001171444A JP2001171444A JP4581294B2 JP 4581294 B2 JP4581294 B2 JP 4581294B2 JP 2001171444 A JP2001171444 A JP 2001171444A JP 2001171444 A JP2001171444 A JP 2001171444A JP 4581294 B2 JP4581294 B2 JP 4581294B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- image
- road surface
- video data
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、車両に搭載されたカメラ装置により車両周囲を撮像して運転者から死角となる領域を表示する車両用表示装置に関する。
【0002】
【従来の技術】
従来より、自車両が走行しているときにおいて、自車両に搭載されたカメラ装置により車両周囲を撮像して映像データを生成し、生成した映像データのうち、運転者から死角となる領域を表示する車両用表示装置が知られている。
【0003】
従来の車両用表示装置としては、例えば特開平2001−10432号公報や、特開平2000−229547号公報に開示されているように、自車両に搭載されたカメラ装置により生成した映像データを、カメラ装置の視点とは異なる視点から見た映像に座標変換して、運転者にとっての死角領域を見やすくして提示することが提案されている。
【0004】
【発明が解決しようとする課題】
従来の車両用表示装置では、自車両を真上から見下ろす視点に変換して座標変換をし、座標変換をした映像データに自車両を示すアイコン状の自車両図形画像を描画して表示しているが、車両周囲と自車両との位置関係を運転者が把握しやすいように、実際の車両サイズに応じた大きさで自車両図形画像を描画することが望ましい。
【0005】
しかし、車両周囲に対して自車両図形画像を実際の車両サイズに応じた大きさで描画すると、図13に示すように、自車両画像101が自車両図形画像102よりも大きくなり、自車両画像101が自車両図形画像102からはみ出してしまうという問題が発生する。
【0006】
これは、図14及び図15に示すように車体111とタイヤ112とからなる車両の後方にカメラ装置113A、113Bを搭載した場合に、カメラ装置113A、113Bで路面114を撮像すると、図14の背面図に示すように車両の左右方向ではカメラ装置の撮像点Aが路面114上の点A’に投影され、図15の側面図に示すように車両の後方ではカメラ装置の撮像点Bが路面114の点B’に投影されることによる。
【0007】
この状態で撮像した映像データを座標変換すると、車両の左右方向ではδ1だけ大きく車両サイズが変換され、車両の後方ではδ2だけ大きく車両サイズが変換されることにより、図13に示すように自車両が拡大した画像に変換されてしまう。
【0008】
これに対し、変換することで拡大された車両を隠蔽して表示するように、車両図形画像を実際の車両サイズよりも大きくすると、車両に側近の溝や障害物などが車両図形画像により隠蔽されてしまうために、表示した内容と実際の車両周囲とが異なる結果となってしまう。
【0009】
そこで、本発明は、上述した実情に鑑みて提案されたものであり、撮像した映像のうちカメラ装置にとって死角となる領域を画像で表示することができる車両用表示装置を提供するものである。
【0010】
【課題を解決するための手段】
請求項1に係る発明では、車両に搭載され、車両周囲を第1視点で撮像した映像データを生成する1又は複数の撮像手段と、上記撮像手段で撮像して生成した映像データを上記第1視点とは異なる第2視点から見た映像データに変換する映像データ変換手段と、上記映像データ変換手段により変換された映像データに自車両を示す自車両画像を描画すると共に、上記第1視点から路面を見たときに自車両によって遮蔽される路面部分の少なくとも一部を表す路面遮蔽領域を路面遮蔽画像として描画する描画手段と、上記描画手段で描画された映像データを表示する表示手段とを備えることで上述の課題を解決する。
【0011】
請求項2に係る発明では、上記描画手段は、上記自車両画像を上記車両の大きさに応じて描画する。
【0012】
請求項3に係る発明では、上記撮像手段で撮像して生成した映像データの輝度情報を検出して映像の明るさを判定する判定手段を更に備え、上記描画手段は、上記判定手段での判定結果に基づいて、上記自車両画像及び路面遮蔽画像の明るさを調整して描画する。
【0013】
請求項4に係る発明では、上記描画手段は、上記判定手段により車両周囲の映像の明るさが所定の明るさよりも明るいと判定された場合には、路面遮蔽画像を車両周囲の映像よりも暗く描画し、自車両画像を路面遮蔽画像よりも明るく描画し、上記判定手段により車両周囲の映像の明るさが所定の明るさよりも暗いと判定された場合には、路面遮蔽画像を車両周囲の映像よりも明るく描画し、自車両画像を路面遮蔽画像よりも暗く描画する。
【0014】
請求項5に係る発明では、車両に搭載されたライトの状態を検出するライト状態検出手段を更に備え、上記描画手段は、上記ライト状態検出手段での検出結果に基づいて、上記自車両画像及び路面遮蔽画像の明るさを調整して描画する。
【0015】
請求項6に係る発明では、上記描画手段は、上記ライト状態検出手段でライトがオン状態であると検出された場合には、路面遮蔽画像を車両周囲の映像より明るく描画し、自車両画像を路面遮蔽画像よりも暗く描画し、上記ライト状態検出手段でライトがオフ状態であると検出された場合には、路面遮蔽画像を車両周囲の映像より暗く描画し、自車両画像を路面遮蔽画像よりも明るく描画する。
【0016】
【発明の効果】
請求項1に係る発明によれば、撮像手段で撮像して生成した映像データを第1視点とは異なる第2視点から見た映像データに変換し、変換された映像データに自車両を示す自車両画像を描画すると共に、第1視点から路面を見たときに自車両によって遮蔽される路面部分の少なくとも一部を表す路面遮蔽領域を路面遮蔽画像として描画するので、撮像した映像のうち死角となる領域を正確に画像で表示することができる。したがって、この請求項1に係る発明によれば、映像データの変換や撮像手段から死角となる領域を車両運転者に提示して、直視やミラーによる間接視によって注意を払う必要があることを喚起することができる。
【0017】
請求項2に係る発明によれば、描画手段により自車両画像を車両の大きさに応じて描画するので、請求項1に係る発明の効果に加えて、車両運転者にとって自車両と周囲との相対関係を把握しやすくして表示することができる。
【0018】
請求項3に係る発明によれば、映像の明るさを判定する判定手段での判定結果に基づいて、自車両画像及び路面遮蔽画像の明るさを調整して描画するので、外部環境の明るさによらず、車両運転者から識別しやすいコントラストで路面遮蔽画像及び自車両画像を描画することができ、運転者にとって認識しやすい表示画面を提示することができる。
【0019】
請求項4に係る発明によれば、車両周囲の映像の明るさが所定の明るさよりも明るいと判定された場合には自車両画像を路面遮蔽画像よりも明るく描画し、車両周囲の映像の明るさが所定の明るさよりも暗いと判定された場合には、自車両画像を路面遮蔽画像よりも暗く描画するので、外部環境の明るさによらず、車両運転者から識別しやすいコントラストで路面遮蔽画像及び自車両画像を描画することができ、運転者にとって認識しやすい表示画面を提示することを実現することができる。
【0020】
請求項5に係る発明によれば、車両に搭載されたライトの状態を検出するライト状態検出手段での検出結果に基づいて、自車両画像及び路面遮蔽画像の明るさを調整して描画するので、簡単な構成で、外部環境の明るさによらず、車両運転者から識別しやすいコントラストで路面遮蔽画像及び自車両画像を描画することができ、車両運転者にとって認識しやすい表示画面を提示することができる。
【0021】
請求項6に係る発明によれば、ライトがオン状態であると検出された場合には、自車両画像を路面遮蔽画像よりも暗く描画し、ライトがオフ状態であると検出された場合には、自車両画像を路面遮蔽画像よりも明るく描画するので、簡単な構成で、外部環境の明るさによらず、車両運転者から識別しやすいコントラストで路面遮蔽画像及び自車両画像を描画することができ、車両運転者にとって認識しやすい表示画面を提示することを実現することができる。
【0022】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。
【0023】
本発明は、例えば図1に示すように構成された第1実施形態に係る車両用表示装置に適用される。
【0024】
[第1実施形態に係る車両用表示装置]
『第1実施形態に係る車両用表示装置の構成』
図1に、第1実施形態に係る車両用表示装置の構成を示すブロック図を示す。この車両用表示装置は、車体の後端における左右に設けられるカメラ装置1A、1B(以下、総称するときには単に「カメラ装置1」と呼ぶ。)と、車両内部に設けられる画像変換合成部2、路面遮蔽領域描画部3、車両図形描画部4と、車両運転者から視認可能な位置に設けられた表示部5と、車両操作に応じて動作する起動・解除部6とを備えて構成されている。
【0025】
カメラ装置1A、1Bは、車両後方端における左右に設けられ、車両用表示装置が起動することに応じて車両後方における周囲を撮像し、撮像して得た映像データを画像変換合成部2に出力する。
【0026】
画像変換合成部2は、カメラ装置1A、1Bからの各映像データを入力し、入力した各映像データに座標変換処理(透視変換)をすることでカメラ装置1で撮像した視点とは異なる視点の座標変換映像データにする。これにより、画像変換合成部2は、車両の真上から見るような視点の座標変換映像データを得る。
【0027】
また、この画像変換合成部2は、座標変換した各座標変換映像データを表示部5において一画面に表示するように合成処理をして、一つの合成映像データにする。画像変換合成部2は、合成して得た合成映像データを路面遮蔽領域描画部3に出力する。
【0028】
路面遮蔽領域描画部3は、画像変換合成部2からの合成映像データに、画像変換合成部2による座標変換処理によって発生した車両映像の変形により生じる路面遮蔽領域に遮蔽領域画像を貼り付けるようにして描画する合成映像データを生成して、車両図形描画部4に出力する。なお、この路面遮蔽領域描画部3により合成映像データに貼り付けられる遮蔽領域画像は、例えば路面遮蔽領域描画部3内に設けられたメモリ領域に予め格納しておき、路面遮蔽領域描画部3により読み出されることで合成映像データに貼り付けられる。
【0029】
車両図形描画部4は、路面遮蔽領域描画部3からの合成映像データに、車体の形状や視点位置に従って貼り付け位置を決定して、自車両を示す自車両図形画像を貼り付けるようにして描画する合成映像データを生成して、表示部5に出力する。なお、この車両図形描画部4により合成映像データに貼り付けられる自車両図形画像は、例えば車両図形描画部4内に設けられたメモリ領域に予め格納されて、車両図形描画部4により読み出されることで合成映像データに貼り付けられる。
【0030】
表示部5は、運転者に各種映像を提示する表示モニタを備え、車両図形描画部4からの合成映像データを表示する。
【0031】
起動・解除部6は、外部から運転者が車両を操作する操作入力信号が入力され、車両用表示装置を起動させることで、カメラ装置1により映像データを取り込んで表示部5に合成映像データを表示させ、また、車両用表示装置による合成映像データの表示を解除する。この起動・解除部6には、車両をバック運転するために、シフトレバー(ギア)をリバースに入れたことによる操作入力信号が入力される。
【0032】
『第1実施形態に係る車両用表示装置の車両周囲表示処理』
図2に、上述の車両用表示装置による車両周囲表示処理の処理手順を示す。
【0033】
この車両用表示装置は、先ず、ステップS1において、例えば車両が駐車動作を行うに際して、運転者によりギア(シフトレバー)がリバースに操作されることにより、起動・解除部6に操作入力信号が入力され、車両用表示装置を起動してステップS2に処理を進める。
【0034】
ステップS2において、カメラ装置1A、1Bにより車両後方の映像データを撮像することで、2枚の映像データI1(x,y)、I2(x,y)を取得して画像変換合成部2に出力し、次のステップS3において画像変換合成部2内のメモリに一時的に映像データI1(x,y)、映像データI2(x,y)を記憶して、次のステップS4に処理を進める。
【0035】
ステップS4においては、ステップS2においてカメラ装置1A、1Bで撮像した時の視点とは異なる、自車両を真上から見下ろしたような視点から見た映像データとする座標変換処理を画像変換合成部2により行って2枚の座標変換映像データを生成し、次いで、各座標変換映像データを合成処理することで一枚の合成映像データT(x,y)とする。なお、このステップS4における座標変換処理、合成処理の処理内容については後述する。
【0036】
次のステップS5において、路面遮蔽領域描画部3によりカメラ装置1A、1Bの取り付け位置、画像変換合成部2により変換した後の合成映像データT(x,y)の視点位置及び車体形状に基づいて路面遮蔽領域の位置を決定する。このステップS5では、路面遮蔽領域の位置を合成映像データT(x,y)の絵柄に基づいて計算して求めても良く、予め座標変換映像データを作成し、変形した車体端を包含する領域を手作業により抽出してテンプレートとして保持しておいて合成映像データT(x,y)に合成しても良い。
【0037】
次に、ステップS4により発生した車体により路面を遮蔽する領域である路面遮蔽領域に遮蔽領域画像を貼り付けるように描画する合成映像データT(x,y)とする。このとき、路面遮蔽領域描画部3により内部のメモリに遮蔽領域画像として所定のテクスチャを格納しておき、合成映像データT(x,y)の所定位置に貼り付ける。
【0038】
これにより、図3に示すように、右側後方映像11A、左側後方映像11B、路面遮蔽画像12からなる合成映像データT(x,y)を作成して、ステップS6に処理を進める。図3に示す一例では、車両図形描画部4により矩形状の路面遮蔽画像12を所定のテクスチャとして格納している場合を示している。
【0039】
ステップS6において、車両図形描画部4により、画像変換合成部2により変換した視点位置及び車体形状に基づいて自車両図形画像についての貼り付け位置、貼り付けサイズを決定し、路面遮蔽領域描画部3からの合成映像データT(x,y)に対し、自車両図形画像を貼り付ける処理をしてステップS7に処理を進める。このとき、車両図形描画部4により予めメモリに格納したテンプレートを自車両図形画像として用意しておく。
【0040】
これにより、図4に示すように、右側後方映像11A、左側後方映像11B、路面遮蔽画像12上に貼り付けられた自車両図形画像13からなる合成映像データT(x,y)を作成して表示部5に出力して、ステップS7に処理を進める。ここで、図4に示す一例では、予めメモリに矩形状の自車両図形画像13を格納している場合を示している。
【0041】
ステップS7において、車両図形描画部4から出力された合成映像データT(x,y)を表示モニタに表示するように表示部5により表示処理をしてステップS8に処理を進める。
【0042】
ステップS8において、起動・解除部6により、シフトレバー(ギア)がリバース位置以外となっているか否かの判定をする。起動・解除部6によりリバース位置以外となっていると判定したときにはステップS9に処理を進め、リバース位置以外となっていないと判定したときにはステップS6で生成した合成映像データT(x,y)に従って表示部5により表示する処理を継続すると共にステップS2に処理を戻してステップS2以降の処理を繰り返して行う。
【0043】
ステップS9において、起動・解除部6により、表示部5による合成映像データT(x,y)を表示する処理を解除して処理を終了する。
【0044】
つぎに、上述のステップS4における座標変換処理について説明する。
【0045】
路面遮蔽領域描画部3の座標変換処理により自車両を真上から見下ろした映像データに変換するには、カメラ装置1A、カメラ装置1Bの幾何学的配置である配設位置、光学的な情報であるレンズ画角、焦点位置に基づいて、カメラ装置1A、1Bで撮像して得た各映像データを構成する画素データの座標を変換する演算をする。
【0046】
本例におけるステップS4では、演算量の削減を図り、予め各画素データの座標を変換するための座標変換マップを作成して画像変換合成部2に格納しておき、画像変換合成部2に各映像データが入力されると座標変換マップを読み出して参照することで各映像データの座標変換をする。
【0047】
この座標変換マップは、上述のカメラ装置1の配設位置及び光学的な情報に基づいて、カメラ装置1A、カメラ装置1Bにより生成された映像データの各画素の座標位置と、変換先の座標位置とが対応づけられて構成されている。
【0048】
座標変換マップM(x、y)は、カメラ装置1Aにより生成された映像データI1(x,y)を構成する各画素のx座標を変換するための第1x座標変換マップMx1(x、y)、カメラ装置1Aにより生成された映像データI1(x,y)を構成する各画素のy座標を変換するための第1y座標変換マップMy1(x、y)、カメラ装置1Bにより生成された映像データI2(x,y)を構成する各画素のx座標を変換するための第2x座標変換マップMx2(x、y)、カメラ装置1Bにより生成された映像データI2(x,y)を構成する各画素のy座標を変換するための第2y座標変換マップMy2(x、y)からなる。
【0049】
図5に、路面遮蔽領域描画部3により座標変換マップを使用して座標変換処理を行うときの処理手順を示す。
【0050】
図5によれば、先ず、ステップS11において、映像データI1(x,y)及び映像データI2(x,y)の画面左上、すなわち映像データI1(x,y)、映像データI2(x,y)のぞれぞれについてx座標値が「0」、y座標値が「0」の画素からラスタ方向にスキャンを開始して、ステップS12に処理を進める。
【0051】
ステップS12において、映像データI1(x,y)におけるx座標値、y座標値における画素値、映像データI2(x,y)におけるx座標値、y座標値における画素値を取得してステップS13に処理を進める。
【0052】
具体的には、ステップS12では、図6(a)に示すように、映像データI1(x,y)のある画素I1(i,j)における画素値a、映像データI2(x,y)のある画素I2(k,l)における画素値bを得る。
【0053】
ステップS13において、座標変換マップM(x、y)を参照して、ステップS12で取得した映像データI1(x,y)を構成する画素のx座標値、y座標値に対する座標変換後の合成映像データT(x,y)のx座標値、y座標値を得て、ステップS14に処理を進める。
【0054】
具体的には、図6(b)に示すように、第1x座標変換マップMx1(x、y)を参照して変換前の画素I1(i,j)に対する変換後のx座標値p(Mx1(i,j)=p)、第1y座標変換マップMy1(x、y)を参照して変換前の画素I1(i,j)に対する変換後のy座標値q(My1(i,j)=q)を得る。更に、第2x座標変換マップMx2(x、y)を参照して変換前の画素I2(k,l)に対する変換後のx座標値r(Mx2(k,l)=r)、第2y座標変換マップMy2(x、y)を参照して変換前の画素I2(k,l)に対する変換後のy座標値s(My2(k,l)=s)を得る。
【0055】
ステップS14において、ステップS13で得た映像データI1(x,y)、映像データI2(x,y)についての変換後のx座標値、y座標値から合成映像データT(x,y)上の各座標値を得る。次いで、この合成映像データT(x,y)上の各座標値の画素の画素値を、映像データI1(x,y)の画素値、映像データI2(x,y)の画素値にして、合成映像データの生成をして、ステップS15に処理を進める。
【0056】
具体的には、図6(c)に示すように、ステップS13で得た画素I1(i,j)の変換後のx座標値p、y座標値qから合成映像データT(x,y)における座標値T(p,q)を得る。次いで、この座標値T(p,q)における画素の画素値を、画素I1(x,y)の画素値aにする(T(p,q)=a)。また、ステップS13で得た画素I2(i,j)の変換後のx座標値r、y座標値sから合成映像データT(x,y)における座標値T(r,s)を得る。次いで、この座標値T(r,s)における画素の画素値を、画素I2(k,l)の画素値bにする(T(r,s)=b)。
【0057】
ステップS15において、映像データI1(x,y)、映像データI2(x,y)の全ての画素についてステップS12〜ステップS14の処理を行ったか否かの判定をする。全画素についてステップS12〜ステップS14の処理を行っていないと判定したときにはステップS12に戻って次の画素についてステップS12〜ステップS14の処理を行い、全画素についてステップS12〜ステップS14の処理を行ったと判定したときには処理を終了する。
【0058】
『第1実施形態に係る車両用表示装置の効果』
以上説明したように、第1実施形態に係る車両用表示装置によれば、車両に搭載したカメラ装置1A、1Bで撮像した映像データを座標変換して自車両図形画像の周囲に車両周囲の画像を表示するに際して、車両形状に基づいて路面遮蔽画像、自車両図形画像を合成映像データ上に貼り付けて描画する構成にしたので、カメラ装置1にとって自車両により死角となる領域を正確に表示することができ、運転者にカメラ装置1の死角領域を提示して、直視やミラーによる間接視によって注意を払う必要があることを喚起することができる。
【0059】
また、第1実施形態に係る車両用表示装置によれば、自車両図形画像を実サイズで描画するため、運転者にとって自車両と周囲との相対関係を把握しやすくして表示することができる。
【0060】
[第2実施形態に係る車両用表示装置]
『第2実施形態に係る車両用表示装置の構成』
図7に、第2実施形態に係る車両用表示装置の構成を示すブロック図を示す。なお、以下の第2実施形態に係る車両用表示装置の説明では、上述した第1実施形態に係る車両用表示装置と同一の部分については同一符号を付することによりその詳細な説明を省略する。
【0061】
第2実施形態に係る車両用表示装置は、上述した第1実施形態に係る車両用表示装置とは、画像変換合成部2からの合成映像データに基づいて合成映像データの平均明度情報を算出する画像平均明度算出部7と、画像平均明度算出部7からの平均明度情報に基づいて路面遮蔽画像及び画像図形画像の描画色を決定する描画色決定部8とを更に備える点で異なる。
【0062】
画像平均明度算出部7は、画像変換合成部2からの合成映像データを構成する各画素の輝度情報を検出し、検出した輝度情報の平均値を算出することで画像の明るさを示す平均明度情報を作成する。
【0063】
描画色決定部8は、画像平均明度算出部7からの平均明度情報に基づいて路面遮蔽領域描画部3で描画する路面遮蔽画像の描画色を決定すると共に、車両図形描画部4で描画する自車両図形画像の描画色を決定して、路面遮蔽領域描画部3及び車両図形描画部4に描画色決定情報を出力する。
【0064】
これにより、路面遮蔽領域描画部3及び車両図形描画部4は、それぞれ、描画色決定情報に従った描画色で路面遮蔽画像及び自車両図形画像を描画して、表示部5に向かって出力する。
【0065】
『第2実施形態に係る車両用表示装置の車両周囲表示処理』
図8に、第2実施形態に係る車両用表示装置による車両周囲表示処理の処理手順を示す。この車両用表示装置では、ギアがリバースに操作されていることにより、図2と同様にステップS1〜ステップS4の処理を行って、ステップS11に処理を進める。
【0066】
ステップS11において、画像平均明度算出部7によりステップS4で生成した合成映像データの画素値(輝度情報)を検出して、全画素値から平均値を求めて平均明度情報を算出して描画色決定部8に出力してステップS12に処理を進める。このステップS11における平均明度情報を算出するときには、路面遮蔽領域、自車両図形画像を描画する領域の画素値を除外する。
【0067】
なお、このステップS11において路面遮蔽画像、自車両図形画像を描画する領域を求める処理はカメラ装置1の取り付け位置、ステップS4で変換する視点位置及び車体形状により決定する。路面遮蔽領域、自車両図形画像を描画する領域は計算により求めても良く、更には予め実際に変換画像データを作成しておき変形した車体端を包含する領域を手作業で切り出してテンプレートとして保持しておいても良い。
【0068】
ステップS12において、平均明度情報から合成映像データが予め設定した所定明度よりも大きい、すなわち合成映像データが所定の明るさよりも明るいときには描画色決定部8により路面遮蔽画像を暗い色に決定すると共に自車両図形画像を明るい色に決定する。一方、平均明度情報から合成映像データが予め設定した所定明度よりも小さい、すなわち合成映像データが所定の明るさよりも暗いときには描画色決定部8により路面遮蔽画像を明るい色に決定すると共に自車両図形画像を暗い色に決定する。
【0069】
これにより、図9に示すように右側後方映像11A及び左側後方映像11Bが明るい時には、路面遮蔽画像12を自車両図形画像13よりも明るい色で表示する。また、図10に示すように右側後方映像11A及び左側後方映像11Bが暗い時には、路面遮蔽画像12を自車両図形画像13よりも暗い色で表示する。
【0070】
路面遮蔽画像及び自車両図形画像を決定するときには、描画色決定部8により合成映像データの明るさと路面遮蔽画像及び自車両図形画像を描画する明るさとの関係を、予めルックアップテーブルとして保持して参照する。
【0071】
そして、描画色決定部8により決定した描画色決定情報を路面遮蔽領域描画部3及び車両図形描画部4に出力する。なお、路面遮蔽領域描画部3及び車両図形描画部4により路面遮蔽画像及び自車両図形画像を明るい色で描画するには入力された合成映像データを構成する各画素についての色の明度又は彩度を高く設定し、路面遮蔽画像及び自車両図形画像を暗い色で描画するには入力された合成映像データを構成する各画素についての色の明度又は彩度を低く設定する。
【0072】
『第2実施形態に係る車両用表示装置の効果』
以上説明したように、第2実施形態に係る車両用表示装置によれば、上述した第1実施形態での効果に加えて、合成映像データの明るさに基づいて路面遮蔽画像及び自車両図形画像の明るさを決定するので、外部環境の明るさによらず、運転者から識別しやすいコントラストで路面遮蔽画像及び自車両図形画像を描画することができ、運転者にとって認識しやすい表示画面を提示することができる。
【0073】
[第3実施形態に係る車両用表示装置]
『第3実施形態に係る車両用表示装置の構成』
図11に、第3実施形態に係る車両用表示装置の構成を示すブロック図を示す。なお、以下の第3実施形態に係る車両用表示装置の説明では、上述した実施形態に係る車両用表示装置と同一の部分については同一符号を付することによりその詳細な説明を省略する。
【0074】
第3実施形態に係る車両用表示装置は、上述した第1実施形態に係る車両用表示装置とは、車両に搭載されているライトのオン、オフ状態を示すライト状態検出情報を取得するライトSW情報取得部9と、ライトSW情報取得部9からのライト状態検出情報に基づいて路面遮蔽画像及び自車両図形画像の描画色を決定する描画色決定部10とを更に備える点で異なる。
【0075】
ライトSW情報取得部9は、図示しないライト機構又は運転者が操作するライトスイッチと接続され、ライトのオン、オフ状態を示すライト状態検出情報を取得して描画色決定部10に出力する。
【0076】
描画色決定部10は、ライトSW情報取得部9からのライト状態検出情報に基づいて路面遮蔽領域描画部3で描画する路面遮蔽画像の描画色を決定すると共に、車両図形描画部4で描画する自車両図形画像の描画色を決定して、路面遮蔽領域描画部3及び車両図形描画部4に描画色決定情報を出力する。
【0077】
これにより、路面遮蔽領域描画部3及び車両図形描画部4は、それぞれ、描画色決定情報に従った描画色で路面遮蔽画像及び自車両図形画像を描画して、表示部5に向かって出力する。
【0078】
『第3実施形態に係る車両用表示装置の車両周囲表示処理』
図12に、上述の車両用表示装置による車両周囲表示処理の処理手順を示す。この車両用表示装置では、ギアがリバースに操作されていることにより、図2と同様にステップS1〜ステップS4の処理を行って、ステップS21に処理を進める。
【0079】
ステップS21において、ライトSW情報取得部9によりライト状態検出情報を取得して、ライトSWがオン状態にあるか否かの判定をする。ライトSWがオン状態であると判定したときにはステップS22に処理を進め、ライトSWがオフ状態であると判定したときにはステップS23に処理を進める。
【0080】
ステップS22において、ライトがオン状態である時の路面遮蔽画像及び自車両図形画像の描画色を決定して描画色決定情報を作成する。車両前部に設けられているライトがオン状態である時には、車両の後部に設けられているカメラ装置1の映像が暗い場合が多い。したがって、図10に示すように、自車両図形画像13を路面遮蔽画像12よりも暗く、路面遮蔽画像12を合成映像データよりも明るく描画するように描画色決定部10により描画色決定情報を生成する。
【0081】
ステップS23において、ライトがオフ状態である時の路面遮蔽画像及び自車両図形画像の描画色を決定して描画色決定情報を作成してステップS5に処理を進める。車両前部に設けられているライトがオフ状態である時には、車両の後部に設けられているカメラ装置1の映像が明るい場合が多い。したがって、図9に示すように、路面遮蔽画像12を合成映像データよりも暗く、自車両図形画像13を路面遮蔽画像12よりも明るく描画するように描画色決定部10により描画色決定情報を生成する。
【0082】
路面遮蔽画像及び自車両図形画像を決定するときには、描画色決定部10により合成映像データの明るさと路面遮蔽画像及び自車両図形画像を描画する明るさとの関係を、予めルックアップテーブルとして保持して参照する。
【0083】
『第3実施形態に係る車両用表示装置の効果』
以上説明したように、第3実施形態に係る車両用表示装置によれば、ライトのオン、オフ状態に基づいて自車両図形画像と路面遮蔽画像の明るさを決定するので、上述した第1実施形態での効果に加えて、簡単な構成で、外部環境の明るさによらず、運転者から識別しやすいコントラストで路面遮蔽画像及び自車両図形画像を描画することができ、運転者にとって認識しやすい表示画面を提示することができる。
【0084】
なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。
【0085】
すなわち、上述した実施形態では、カメラ装置1が車両後方に設けられた一例について説明したが、カメラ装置1の配設位置が異なっていても本発明が適用可能であることは勿論である。
【0086】
また、上述した実施形態では、路面遮蔽画像12と自車両図形画像13との色の明暗を区別するように路面遮蔽画像12及び自車両図形画像13の描画色を決定する一例について説明したが、これに限らず、路面遮蔽画像12及び自車両図形画像13の輝度(明るさ)を区別して表示しても良い。
【図面の簡単な説明】
【図1】本発明を適用した第1実施形態に係る車両用表示装置の構成を示すブロック図である。
【図2】本発明を適用した第1実施形態に係る車両用表示装置による車両周囲表示処理の処理手順を示すフローチャートである。
【図3】表示部により表示する路面遮蔽画像について説明するための図である。
【図4】表示部により表示する路面遮蔽画像及び自車両図形画像について説明するための図である。
【図5】路面遮蔽領域描画部により座標変換マップを使用して座標変換処理を行うときの処理手順を示すフローチャートである。
【図6】座標変換マップを使用した座標変換処理について説明するための図であり、(a)は2枚の映像データから画素値を検出することを示す図であり、(b)は座標変換マップを参照して変換後の座標値を得ることを示す図であり、(c)は合成映像データの画素値を得ることを示す図である。
【図7】本発明を適用した第2実施形態に係る車両用表示装置の構成を示すブロック図である。
【図8】本発明を適用した第2実施形態に係る車両用表示装置による車両周囲表示処理の処理手順を示すフローチャートである。
【図9】本発明を適用した第2実施形態において合成映像データが明るいときの路面遮蔽画像及び自車両図形画像の描画例を説明するための図、本発明を適用した第3実施形態に係る車両用表示装置においてライトSWがオフ状態であるときの路面遮蔽画像及び自車両図形画像の描画例を説明するための図である。
【図10】本発明を適用した第2実施形態において合成映像データが暗いときの路面遮蔽画像及び自車両図形画像の描画例を説明するための図、本発明を適用した第3実施形態に係る車両用表示装置においてライトSWがオン状態であるときの路面遮蔽画像及び自車両図形画像の描画例を説明するための図である。
【図11】本発明を適用した第3実施形態に係る車両用表示装置の構成を示すブロック図である。
【図12】本発明を適用した第3実施形態に係る車両用表示装置による車両周囲表示処理の処理手順を示すフローチャートである。
【図13】従来の車両用表示装置による自車両画像及び自車両図形画像の描画例を説明するための図である。
【図14】車両用表示装置におけるカメラ装置の配設位置を示す背面図である。
【図15】車両用表示装置におけるカメラ装置の配設位置を示す側面図である。
【符号の説明】
1 カメラ装置
2 画像変換合成部
3 路面遮蔽領域描画部
4 車両図形描画部
5 表示部
6 起動・解除部
7 画像平均明度算出部
8 描画色決定部
9 ライトSW情報取得部
10 描画色決定部
11A 右側後方映像
11B 左側後方映像
12 路面遮蔽画像
13 自車両図形画像[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a display device for a vehicle that displays an area that becomes a blind spot from a driver by imaging the surroundings of the vehicle with a camera device mounted on the vehicle.
[0002]
[Prior art]
Conventionally, when the host vehicle is traveling, a camera device mounted on the host vehicle captures the surroundings of the vehicle to generate video data, and displays a blind spot from the driver in the generated video data. A vehicular display device is known.
[0003]
As a conventional vehicle display device, as disclosed in, for example, Japanese Patent Application Laid-Open No. 2001-10432 and Japanese Patent Application Laid-Open No. 2000-229547, video data generated by a camera device mounted on the host vehicle is used as a camera. It has been proposed that coordinates are converted into an image viewed from a viewpoint different from the viewpoint of the device, and the blind spot area is presented to the driver in an easy-to-see manner.
[0004]
[Problems to be solved by the invention]
In a conventional vehicle display device, the vehicle is converted into a viewpoint that looks down from directly above, coordinate conversion is performed, and an icon-shaped vehicle graphic image representing the vehicle is drawn and displayed on the coordinate-converted video data. However, it is desirable to draw the own vehicle graphic image in a size corresponding to the actual vehicle size so that the driver can easily grasp the positional relationship between the vehicle periphery and the own vehicle.
[0005]
However, when the own vehicle graphic image is drawn around the vehicle in a size corresponding to the actual vehicle size, the
[0006]
As shown in FIGS. 14 and 15, when the
[0007]
When the image data captured in this state is coordinate-converted, the vehicle size is converted by δ1 larger in the left-right direction of the vehicle, and the vehicle size is converted by δ2 behind the vehicle. Will be converted to an enlarged image.
[0008]
On the other hand, if the vehicle graphic image is made larger than the actual vehicle size so as to conceal and display the vehicle enlarged by the conversion, grooves and obstacles close to the vehicle are hidden by the vehicle graphic image. As a result, the displayed content differs from the actual vehicle periphery.
[0009]
Therefore, the present invention has been proposed in view of the above-described circumstances, and is an area that is a blind spot for the camera device in the captured image. The picture The present invention provides a display device for a vehicle that can display an image.
[0010]
[Means for Solving the Problems]
In the invention according to
[0011]
In the invention which concerns on
[0012]
According to a third aspect of the present invention, the image processing apparatus further includes a determination unit that detects brightness information of the video data generated by imaging with the imaging unit and determines the brightness of the video, and the drawing unit performs the determination by the determination unit. Based on the result, the brightness of the vehicle image and the road surface shielding image is adjusted and drawn.
[0013]
In the invention according to
[0014]
The invention according to
[0015]
In the invention according to
[0016]
【The invention's effect】
According to the first aspect of the present invention, the video data generated by imaging by the imaging means is converted into video data viewed from a second viewpoint different from the first viewpoint, and the vehicle indicating the own vehicle is displayed in the converted video data. While drawing the vehicle image, A road surface shielding area representing at least a part of a road surface portion shielded by the own vehicle when the road surface is viewed from the first viewpoint. Road shielding image As Since the drawing is performed, it is possible to accurately display an area that becomes a blind spot in the captured image. Therefore, according to the first aspect of the present invention, it is necessary to present the vehicle driver with a blind spot area from the video data conversion and imaging means, and to pay attention by direct view or indirect view using a mirror. can do.
[0017]
According to the second aspect of the present invention, since the own vehicle image is drawn according to the size of the vehicle by the drawing means, in addition to the effect of the first aspect of the invention, for the vehicle driver, The relative relationship can be easily displayed.
[0018]
According to the invention of
[0019]
According to the fourth aspect of the present invention, when it is determined that the brightness of the image around the vehicle is brighter than the predetermined brightness, the subject vehicle image is drawn brighter than the road surface shielding image, and the brightness of the image around the vehicle is increased. If it is determined that the vehicle is darker than the predetermined brightness, the vehicle image is drawn darker than the road shielding image. Therefore, the road surface shielding is performed with a contrast that is easy to identify from the driver regardless of the brightness of the external environment. An image and a vehicle image can be drawn, and a display screen that can be easily recognized by the driver can be presented.
[0020]
According to the fifth aspect of the present invention, the brightness of the host vehicle image and the road surface shielding image is adjusted and drawn based on the detection result of the light state detection means for detecting the state of the light mounted on the vehicle. The road screen image and the vehicle image can be drawn with a contrast that is easy to identify from the vehicle driver regardless of the brightness of the external environment, and a display screen that is easy for the vehicle driver to recognize is presented. be able to.
[0021]
According to the invention of
[0022]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0023]
The present invention is applied, for example, to the vehicle display device according to the first embodiment configured as shown in FIG.
[0024]
[Vehicle Display Device According to First Embodiment]
“Configuration of Vehicle Display Device According to First Embodiment”
FIG. 1 is a block diagram showing the configuration of the vehicle display device according to the first embodiment. The vehicle display device includes
[0025]
The
[0026]
The image conversion /
[0027]
In addition, the image conversion /
[0028]
The road surface shielding
[0029]
The vehicle
[0030]
The
[0031]
The start /
[0032]
“Vehicle Surrounding Display Processing of Vehicle Display Device According to First Embodiment”
FIG. 2 shows a processing procedure of vehicle surroundings display processing by the vehicle display device described above.
[0033]
In the vehicle display device, first, in step S1, for example, when the vehicle performs a parking operation, an operation input signal is input to the start /
[0034]
In step S2, the image data behind the vehicle is captured by the
[0035]
In step S4, the image
[0036]
In the next step S5, based on the attachment positions of the
[0037]
Next, the combined video data T (x, y) is drawn so as to paste the shielding area image on the road surface shielding area which is the area shielding the road surface by the vehicle body generated in step S4. At this time, a predetermined texture is stored as a shielding area image in the internal memory by the road surface shielding
[0038]
Thereby, as shown in FIG. 3, the composite video data T (x, y) composed of the right
[0039]
In step S6, the vehicle
[0040]
As a result, as shown in FIG. 4, composite video data T (x, y) composed of the right
[0041]
In step S7, display processing is performed by the
[0042]
In step S8, the start /
[0043]
In step S9, the start / cancel
[0044]
Next, the coordinate conversion process in step S4 will be described.
[0045]
In order to convert the own vehicle into video data looking down from directly above by the coordinate conversion processing of the road surface shielding
[0046]
In step S4 in this example, the amount of calculation is reduced, a coordinate conversion map for converting the coordinates of each pixel data is created in advance and stored in the image
[0047]
This coordinate conversion map is based on the above-described arrangement position of the
[0048]
The coordinate conversion map M (x, y) is the video data I generated by the
[0049]
FIG. 5 shows a processing procedure when the road surface shielding
[0050]
According to FIG. 5, first, in step S11, the video data I 1 (X, y) and video data I 2 The upper left corner of the screen (x, y), that is, video data I 1 (X, y), video data I 2 For each of (x, y), scanning is started in the raster direction from a pixel whose x coordinate value is “0” and y coordinate value is “0”, and the process proceeds to step S12.
[0051]
In step S12, video data I 1 X coordinate value at (x, y), pixel value at y coordinate value, video data I 2 The x-coordinate value at (x, y) and the pixel value at the y-coordinate value are acquired, and the process proceeds to step S13.
[0052]
Specifically, in step S12, as shown in FIG. 1 Pixel I with (x, y) 1 Pixel value a and video data I at (i, j) 2 Pixel I with (x, y) 2 The pixel value b at (k, l) is obtained.
[0053]
In step S13, the video data I acquired in step S12 with reference to the coordinate conversion map M (x, y). 1 The x coordinate value and y coordinate value of the composite video data T (x, y) after coordinate conversion with respect to the x coordinate value and y coordinate value of the pixels constituting (x, y) are obtained, and the process proceeds to step S14.
[0054]
Specifically, as shown in FIG. 6B, the first x-coordinate transformation map M x1 Pixel I before conversion with reference to (x, y) 1 X coordinate value p (M) after conversion for (i, j) x1 (I, j) = p), first y-coordinate transformation map M y1 Pixel I before conversion with reference to (x, y) 1 Y coordinate value q (M) after conversion for (i, j) y1 (I, j) = q) is obtained. Further, the second x coordinate conversion map M x2 Pixel I before conversion with reference to (x, y) 2 X coordinate value r (M) after conversion for (k, l) x2 (K, l) = r), the second y coordinate transformation map M y2 Pixel I before conversion with reference to (x, y) 2 Y coordinate value s (M) after conversion for (k, l) y2 (K, l) = s).
[0055]
In step S14, the video data I obtained in step S13. 1 (X, y), video data I 2 Each coordinate value on the composite video data T (x, y) is obtained from the converted x-coordinate value and y-coordinate value for (x, y). Next, the pixel value of each coordinate value on the composite video data T (x, y) is converted into the video data I 1 Pixel value of (x, y), video data I 2 The composite video data is generated with the pixel value of (x, y), and the process proceeds to step S15.
[0056]
Specifically, as shown in FIG. 6C, the pixel I obtained in step S13. 1 A coordinate value T (p, q) in the synthesized video data T (x, y) is obtained from the converted x-coordinate value p and y-coordinate value q of (i, j). Next, the pixel value of the pixel at this coordinate value T (p, q) is determined as the pixel I 1 The pixel value a is set to (x, y) (T (p, q) = a). Further, the pixel I obtained in step S13. 2 A coordinate value T (r, s) in the synthesized video data T (x, y) is obtained from the converted x-coordinate value r and y-coordinate value s of (i, j). Next, the pixel value of the pixel at the coordinate value T (r, s) is determined as the pixel I. 2 The pixel value b of (k, l) is set (T (r, s) = b).
[0057]
In step S15, the video data I 1 (X, y), video data I 2 It is determined whether or not the processing of step S12 to step S14 has been performed for all the pixels of (x, y). When it is determined that the processing of step S12 to step S14 is not performed for all pixels, the process returns to step S12, the processing of step S12 to step S14 is performed for the next pixel, and the processing of step S12 to step S14 is performed for all the pixels. When it is determined, the process is terminated.
[0058]
“Effect of the vehicle display device according to the first embodiment”
As described above, according to the vehicular display device according to the first embodiment, the image data captured by the
[0059]
Further, according to the vehicle display device according to the first embodiment, since the own vehicle graphic image is drawn in an actual size, it is possible for the driver to easily display the relative relationship between the own vehicle and the surroundings. .
[0060]
[Vehicle Display Device According to Second Embodiment]
“Configuration of Vehicle Display Device According to Second Embodiment”
FIG. 7 is a block diagram showing the configuration of the vehicle display device according to the second embodiment. In the following description of the vehicular display device according to the second embodiment, the same parts as those in the vehicular display device according to the first embodiment described above are denoted by the same reference numerals, and detailed description thereof is omitted. .
[0061]
The vehicle display device according to the second embodiment calculates the average brightness information of the composite video data based on the composite video data from the image conversion /
[0062]
The average image
[0063]
The drawing
[0064]
Thereby, the road surface shielding
[0065]
“Vehicle display processing of the vehicle display device according to the second embodiment”
FIG. 8 shows a processing procedure of vehicle surroundings display processing by the vehicle display device according to the second embodiment. In this vehicular display device, since the gear is operated in reverse, the processing of step S1 to step S4 is performed as in FIG. 2, and the processing proceeds to step S11.
[0066]
In step S11, the pixel value (luminance information) of the composite video data generated in step S4 is detected by the image average
[0067]
In this step S11, the process for obtaining the area for drawing the road surface shielding image and the own vehicle graphic image is determined by the mounting position of the
[0068]
In step S12, when the composite video data is larger than the predetermined brightness set in advance from the average brightness information, that is, when the composite video data is brighter than the predetermined brightness, the drawing
[0069]
As a result, as shown in FIG. 9, when the right
[0070]
When determining the road surface shielding image and the own vehicle graphic image, the drawing
[0071]
Then, the drawing color determination information determined by the drawing
[0072]
“Effects of the vehicle display device according to the second embodiment”
As described above, according to the vehicle display device according to the second embodiment, in addition to the effects of the first embodiment described above, the road surface shielding image and the vehicle graphic image are based on the brightness of the composite video data. Because the brightness of the vehicle is determined, the road screen image and the vehicle graphic image can be drawn with a contrast that is easily discernable by the driver, regardless of the brightness of the external environment, and a display screen that is easy for the driver to recognize is presented. can do.
[0073]
[Vehicle Display Device According to Third Embodiment]
“Configuration of Vehicle Display Device According to Third Embodiment”
FIG. 11 is a block diagram showing the configuration of the vehicle display device according to the third embodiment. In the following description of the vehicular display device according to the third embodiment, the same parts as those in the vehicular display device according to the above-described embodiment will be denoted by the same reference numerals, and detailed description thereof will be omitted.
[0074]
The vehicle display device according to the third embodiment is different from the vehicle display device according to the first embodiment described above in that the light SW that acquires the light state detection information indicating the on / off state of the light mounted on the vehicle. The difference is that the
[0075]
The light SW
[0076]
The drawing
[0077]
Thereby, the road surface shielding
[0078]
“Vehicle Surrounding Display Processing of Vehicle Display Device According to Third Embodiment”
FIG. 12 shows a processing procedure of vehicle surroundings display processing by the vehicle display device described above. In this vehicle display device, since the gear is operated in reverse, the processing of step S1 to step S4 is performed similarly to FIG. 2, and the processing proceeds to step S21.
[0079]
In step S21, the light SW
[0080]
In step S22, drawing color determination information is created by determining the drawing color of the road surface shielding image and the vehicle graphic image when the light is on. When the light provided in the front part of the vehicle is in the on state, the image of the
[0081]
In step S23, the drawing color determination information is generated by determining the drawing color of the road surface shielding image and the vehicle graphic image when the light is off, and the process proceeds to step S5. When the light provided at the front part of the vehicle is in the off state, the image of the
[0082]
When determining the road surface shielding image and the own vehicle graphic image, the drawing
[0083]
“Effects of the vehicle display device according to the third embodiment”
As described above, according to the display device for a vehicle according to the third embodiment, the brightness of the vehicle graphic image and the road surface shielding image is determined based on the on / off state of the light. In addition to the effects of the form, it is possible to draw the road surface shielding image and the vehicle graphic image with a simple configuration and with a contrast that is easily discernable by the driver, regardless of the brightness of the external environment. An easy display screen can be presented.
[0084]
The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.
[0085]
That is, in the above-described embodiment, an example in which the
[0086]
In the above-described embodiment, an example in which the drawing colors of the road
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a vehicle display device according to a first embodiment to which the present invention is applied.
FIG. 2 is a flowchart showing a processing procedure of vehicle surroundings display processing by the vehicle display device according to the first embodiment to which the present invention is applied.
FIG. 3 is a diagram for explaining a road surface shielding image displayed by a display unit.
FIG. 4 is a diagram for explaining a road surface shielding image and a host vehicle graphic image displayed by a display unit.
FIG. 5 is a flowchart illustrating a processing procedure when a coordinate conversion process is performed using a coordinate conversion map by a road surface shielding area drawing unit;
6A and 6B are diagrams for explaining a coordinate conversion process using a coordinate conversion map, in which FIG. 6A is a diagram illustrating detection of pixel values from two pieces of video data, and FIG. 6B is a coordinate conversion process; It is a figure which shows obtaining the coordinate value after conversion with reference to a map, (c) is a figure which shows obtaining the pixel value of synthetic | combination video data.
FIG. 7 is a block diagram showing a configuration of a vehicle display device according to a second embodiment to which the present invention is applied.
FIG. 8 is a flowchart showing a processing procedure of vehicle surroundings display processing by the vehicle display device according to the second embodiment to which the present invention is applied.
FIG. 9 is a diagram for explaining a drawing example of a road surface shielding image and a vehicle graphic image when the synthesized video data is bright in the second embodiment to which the present invention is applied, and relates to the third embodiment to which the present invention is applied; It is a figure for demonstrating the example of a drawing of a road surface shielding image and the own vehicle figure image when light SW is an OFF state in the display apparatus for vehicles.
FIG. 10 is a diagram for explaining a drawing example of a road surface shielding image and a vehicle graphic image when the synthesized video data is dark in the second embodiment to which the present invention is applied, and relates to the third embodiment to which the present invention is applied. It is a figure for demonstrating the example of a drawing of a road surface shielding image and the own vehicle figure image when light SW is an ON state in the display apparatus for vehicles.
FIG. 11 is a block diagram showing a configuration of a vehicle display device according to a third embodiment to which the present invention is applied.
FIG. 12 is a flowchart showing a processing procedure of vehicle surroundings display processing by the vehicle display device according to the third embodiment to which the present invention is applied.
FIG. 13 is a diagram for explaining a drawing example of a host vehicle image and a host vehicle graphic image by a conventional vehicle display device.
FIG. 14 is a rear view showing the arrangement position of the camera device in the vehicle display device.
FIG. 15 is a side view showing the arrangement position of the camera device in the vehicle display device.
[Explanation of symbols]
1 Camera device
2 Image conversion / synthesis unit
3 Road surface shielding area drawing part
4 Vehicle figure drawing part
5 display section
6 start-up / release part
7 Image average brightness calculator
8 Drawing color determination part
9 Light SW information acquisition unit
10 Drawing color decision section
11A Rear right video
11B Left rear video
12 Road shielding image
13 Vehicle graphic image
Claims (6)
上記撮像手段で撮像して生成した映像データを上記第1視点とは異なる第2視点から見た映像データに変換する映像データ変換手段と、
上記映像データ変換手段により変換された映像データに自車両を示す自車両画像を描画すると共に、上記第1視点から路面を見たときに自車両によって遮蔽される路面部分の少なくとも一部を表す路面遮蔽領域を路面遮蔽画像として描画する描画手段と、
上記描画手段で描画された映像データを表示する表示手段とを備えることを特徴とする車両用表示装置。One or a plurality of imaging means mounted on a vehicle and generating video data obtained by imaging the periphery of the vehicle from a first viewpoint;
Video data conversion means for converting video data generated by imaging with the imaging means into video data viewed from a second viewpoint different from the first viewpoint;
A road surface representing at least a part of a road surface portion that is drawn by the host vehicle when the host vehicle image showing the host vehicle is drawn on the video data converted by the video data conversion unit and the road surface is viewed from the first viewpoint. A drawing means for drawing the shielding area as a road surface shielding image;
A vehicle display device comprising: display means for displaying video data drawn by the drawing means.
上記描画手段は、上記判定手段での判定結果に基づいて、上記自車両画像及び路面遮蔽画像の明るさを調整して描画することを特徴とする請求項1記載の車両用表示装置。A determination means for detecting brightness information of video data generated by imaging by the imaging means and determining brightness of the video;
The vehicle display device according to claim 1, wherein the drawing means draws by adjusting the brightness of the host vehicle image and the road surface shielding image based on the determination result of the determination means.
上記描画手段は、上記ライト状態検出手段での検出結果に基づいて、上記自車両画像及び路面遮蔽画像の明るさを調整して描画することを特徴とする請求項1記載の車両用表示装置。A light state detecting means for detecting the state of the light mounted on the vehicle;
2. The vehicle display device according to claim 1, wherein the drawing means draws the image of the own vehicle and the road surface shielding image by adjusting brightness based on a detection result of the light state detection means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001171444A JP4581294B2 (en) | 2001-06-06 | 2001-06-06 | Vehicle display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001171444A JP4581294B2 (en) | 2001-06-06 | 2001-06-06 | Vehicle display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002369185A JP2002369185A (en) | 2002-12-20 |
JP4581294B2 true JP4581294B2 (en) | 2010-11-17 |
Family
ID=19013212
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001171444A Expired - Lifetime JP4581294B2 (en) | 2001-06-06 | 2001-06-06 | Vehicle display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4581294B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4579132B2 (en) * | 2005-11-01 | 2010-11-10 | アルパイン株式会社 | Vehicle / Ambient Image Providing Device |
JP5090126B2 (en) | 2007-10-23 | 2012-12-05 | アルパイン株式会社 | In-vehicle imaging device |
JP5132249B2 (en) * | 2007-10-23 | 2013-01-30 | アルパイン株式会社 | In-vehicle imaging device |
KR102270578B1 (en) * | 2014-11-18 | 2021-06-29 | 현대모비스 주식회사 | Apparatus and method for controlling displaying forward information of vehicle |
DE102016223391A1 (en) * | 2016-11-25 | 2018-05-30 | Conti Temic Microelectronic Gmbh | METHOD AND DEVICE FOR PRODUCING A VEHICLE ENVIRONMENT VIEW ON A VEHICLE |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001028250A1 (en) * | 1999-10-12 | 2001-04-19 | Matsushita Electric Industrial Co., Ltd. | Monitor camera, method of adjusting camera, and vehicle monitor system |
-
2001
- 2001-06-06 JP JP2001171444A patent/JP4581294B2/en not_active Expired - Lifetime
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2001028250A1 (en) * | 1999-10-12 | 2001-04-19 | Matsushita Electric Industrial Co., Ltd. | Monitor camera, method of adjusting camera, and vehicle monitor system |
Also Published As
Publication number | Publication date |
---|---|
JP2002369185A (en) | 2002-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4248570B2 (en) | Image processing apparatus and visibility support apparatus and method | |
US8878934B2 (en) | Image display device | |
JP4315968B2 (en) | Image processing apparatus and visibility support apparatus and method | |
JP3300334B2 (en) | Image processing device and monitoring system | |
US7728879B2 (en) | Image processor and visual field support device | |
JP4254887B2 (en) | Image display system for vehicles | |
JP4874280B2 (en) | Image processing apparatus and method, driving support system, and vehicle | |
JP5953824B2 (en) | Vehicle rear view support apparatus and vehicle rear view support method | |
WO2011111701A1 (en) | Vehicle surroundings monitoring device | |
WO2000064175A1 (en) | Image processing device and monitoring system | |
JP2008077628A (en) | Image processor and vehicle surrounding visual field support device and method | |
JP3778849B2 (en) | Vehicle periphery image processing apparatus and recording medium | |
JP2007109166A (en) | Driving assistance system | |
US11528453B2 (en) | Sensor fusion based perceptually enhanced surround view | |
JP2013207637A (en) | Image processing apparatus and method, and computer program | |
JP4581294B2 (en) | Vehicle display device | |
JP2012138876A (en) | Image generating apparatus, image display system, and image display method | |
JP3961969B2 (en) | Vehicle periphery image processing system | |
JP5338374B2 (en) | Display device for vehicle and display method for vehicle | |
JP4633023B2 (en) | User interface device | |
JP7029350B2 (en) | Image processing device and image processing method | |
JP2007149011A (en) | Vehicle circumference viewing device | |
JP4945315B2 (en) | Driving support system and vehicle | |
JP4696825B2 (en) | Blind spot image display device for vehicles | |
JPH06113308A (en) | Picture processing method in on-vehicle image pickup device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100518 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100706 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100803 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100816 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130910 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140910 Year of fee payment: 4 |
|
S801 | Written request for registration of abandonment of right |
Free format text: JAPANESE INTERMEDIATE CODE: R311801 |
|
ABAN | Cancellation due to abandonment | ||
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |