JP2017154613A - 車両用表示装置 - Google Patents

車両用表示装置 Download PDF

Info

Publication number
JP2017154613A
JP2017154613A JP2016039837A JP2016039837A JP2017154613A JP 2017154613 A JP2017154613 A JP 2017154613A JP 2016039837 A JP2016039837 A JP 2016039837A JP 2016039837 A JP2016039837 A JP 2016039837A JP 2017154613 A JP2017154613 A JP 2017154613A
Authority
JP
Japan
Prior art keywords
display image
display
vehicle
recognition
vanishing point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016039837A
Other languages
English (en)
Other versions
JP6617610B2 (ja
Inventor
敏和 大岩
Toshikazu Oiwa
敏和 大岩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2016039837A priority Critical patent/JP6617610B2/ja
Publication of JP2017154613A publication Critical patent/JP2017154613A/ja
Application granted granted Critical
Publication of JP6617610B2 publication Critical patent/JP6617610B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Instrument Panels (AREA)

Abstract

【課題】物体の存在を運転者が認識すること、および、物体と車両との距離が変化していることを運転者が認識することを補助可能とする車両用表示装置を提供する。【解決手段】表示画像が表示される表示面での消失点を車両前方の撮像画像から算出する消失点処理部21Bと、表示画像における各位置から消失点に向かう方向を消失点方向とし、消失点方向に従って色が濃くなる第2表示画像53を生成すると共に、撮像画像から検出された物体と車両との距離が大きいほど、第2表示画像53の輝度が高いこと、透明度が低いこと、および、拡散度が高いことの少なくとも1つを満たす第2表示画像53を生成する表示処理部とを備える。【選択図】図1

Description

本発明は、認識対象物の存在を運転者が認識することを補助するための画像を表示する車両用表示装置に関する。
フロントウインドウのシールドガラスに画像を表示する車両用表示装置が知られている。車両用表示装置は、例えば、注意喚起対象物に対する注意を運転者に喚起させることを目的として、注意喚起対象物と表示画像とが運転者の視界で重畳するように画像を表示する。また、注意喚起対象物の位置と表示画像の位置とが運転者の視線方向において一致することを図るため、運転者の眼球が位置すると推定された範囲に基づき、表示画像のサイズを調整する提案もなされている(例えば、特許文献1を参照)。
特開2015−048040号公報
一方、運転操作の選択に必要とされる情報は、単に、注意喚起対象物が車両の前方に存在することのみならず、通常、注意喚起対象物と車両との距離が変化したか否かも含む。そこで、運転者の視界において注意喚起物と重畳する上述の画像には、注意喚起対象物に対する注意を運転者に喚起させるための情報に加え、さらに、注意喚起対象物と車両との距離の変化を運転者に認識させるための情報を備えることが望まれている。
なお、車両前方に物体が存在することを認識すること、および、物体と車両との距離が変化していることを認識すること、これらに対する補助の要請は、注意喚起対象物の認識に対する補助に限らず、例えば、運転者に覚醒を促す物体の認識に対する補助など、各種の対象物の認識に対して共通する。
本発明は、物体の存在を運転者が認識すること、および、物体と車両との距離が変化していることを運転者が認識することを補助可能とする車両用表示装置を提供することを目的とする。
上記課題を解決するための車両用表示装置は、フロントウインドウを通して車内から見える物体に対して、運転者から前記物体に向けた方向で、表示画像を重畳させる車両用表示装置であって、前記表示画像が表示される表示面での消失点を車両前方の撮像画像から算出する消失点算出部を備える。そして、前記表示画像内の位置から前記消失点に向かう方向を消失点方向とし、前記消失点方向に従って色が濃くなる前記表示画像を前記表示面で表示すると共に、前記物体と前記車両との距離が大きいほど、前記表示画像の輝度が高いこと、透明度が低いこと、および、拡散度が高いことの少なくとも1つを満たす前記表示画像を表示する表示処理部を備える。
上記車両用表示装置によれば、表示画像の示す色が消失点方向に移るに連れて濃くなる。そのため、物体の存在を運転者が認識することを補助することができ、また、消失点方向における奥行き感、ひいては、物体までの距離を正しく把握させる感覚を、表示画像において高めることが可能にもなる。そのうえ、表示画像における輝度、透明度、および、拡散度の少なくとも1つが、物体と車両との距離の変化に応じて変わるため、物体と車両との距離が変化していることを運転者が認識することを、表示画像の変化によって補助することが可能ともなる。
車両用表示装置の一実施の形態における装置構成を投影領域に区画された区画領域と共に示すブロック図。 第1表示画像、および、第2表示画像のそれぞれの構成を示す画像図。 第2表示画像におけるグラデーションの一例を示す図。 第2表示画像におけるグラデーションの他の例を示す図。 第2表示画像におけるグラデーションの分岐点を示す図であり、(a)車両の走行速度が高い場合の例を示し、(b)車両の走行速度が低い場合の例を示す図。 物体までの距離と表示画像の縮小率との関係を示すグラフ。 画像表示処理の手順を示すフローチャート。 (a)認識対象物と消失点との位置関係を撮影画像の画像座標系で示す画像図、(b),(c)表示画像と消失点との位置関係を表示面の座標系で示す透視投影図。 2つの表示画像が重なるときの表示の態様を表示面の座標系で示す透視投影図。
図1から図8を参照して車両用表示装置の一実施の形態を説明する。
図1が示すように、車両用表示装置20は、画像情報処理部21、車両情報処理部22、変換情報記憶部23、表示画像データ生成部24、および、表示画像投影部25を備える。表示画像投影部25は、フロントウインドウのシールドガラス50Wを表示面として、表示面に区画された投影領域51の一部に、第1表示画像52、および、第2表示画像53を投影し、それによって、第1表示画像52、および、第2表示画像53を運転者に向けて表示する。表示画像データ生成部24、および、表示画像投影部25は、表示処理部の一例である。
画像情報処理部21は、例えば、CPU、ROM、RAMなどから構成されたマイクロコンピュータを備え、物体認識部21A、消失点処理部21B、表示空間算出部21C、および、平均色算出部21Dとして機能する。消失点処理部21B、および、表示空間算出部21Cは、消失点算出部の一例である。画像情報処理部21は、車両の前景を撮影する撮影部11から撮影画像データを取得する処理を繰り返す。撮影画像データは、車両の前景を画素ごとの輝度値として示すデータである。また、画像情報処理部21は、車内を撮影する可視光カメラ12から車内画像データを取得する処理を繰り返す。車内画像データは、運転者を含む車内の風景を画素ごとの輝度値として示すデータである。
物体認識部21Aは、撮影画像に認識対象物が含まれるか否かを識別する。認識対象物は、車両の前方にそれが存在することを運転者に認識させる対象物であり、車両と対象物との距離の大きさの変化を運転者に認識させるための対象物でもある。認識対象物は、例えば、走行中の車両、駐車中の車両、停車中の車両、歩行者、走行中の自転車、駐輪中の自転車、案内標識や警戒標識を含む道路標識などであり、物体認識部21Aに予め設定されている。物体認識部21Aは、認識対象物の識別に、例えば、撮影画像データから特徴量を抽出する機械学習法を用いる。物体認識部21Aは、識別された認識対象物の位置、認識された認識対象物と車両との距離、および、認識された認識対象物の領域を、複数の撮影画像データから算出する。認識対象物と車両との距離の算出に用いられる撮影画像データは、ステレオカメラから取得された画像情報であってもよいし、単眼カメラから取得された画像情報であってもよい。物体認識部21Aは、認識対象物と車両との距離を示す情報を、識別された認識対象物ごとに、表示画像データ生成部24に入力する。また、物体認識部21Aは、撮影画像の画像座標系において認識対象物の位置を示す情報、および、撮影画像の画像座標系で認識対象物の領域を示す情報を、識別された認識対象物ごとに、表示空間算出部21Cに入力する。
消失点処理部21Bは、撮影画像からエッジ線分を抽出するエッジ処理を撮影画像データに対して行う。撮影画像に含まれる路面の境界は、例えば、道路の側端における段差や、道路の側端におけるバリアなどの物理的な境界であり、撮影画像におけるエッジ線分に含まれる。消失点処理部21Bは、抽出された複数のエッジ線分におけるエッジ線分同士の交点の位置を特定する処理を行う。また、消失点処理部21Bは、撮影画像を複数の領域に分割し、各領域に含まれる交点の数を算出する処理を行う。そして、消失点処理部21Bは、領域に含まれる交点の数が所定値を超える領域に対して、それが消失点を含む領域であると判定する処理を行う。消失点処理部21Bは、消失点が存在すると判定された領域を消失領域とし、撮影画像の画像座標系で消失領域の位置を示す情報を、表示空間算出部21Cに入力する。
表示空間算出部21Cは、車内画像データの解析から得られた運転者の眼球の位置に基づき、運転者の視点の位置を特定する。そして、表示空間算出部21Cは、撮影画像の画像座標系における認識対象物の位置、認識対象物の領域、および、消失領域の位置を、表示面の二次元座標系における認識対象物の位置、認識対象物の領域、および、消失領域の位置へ変換する。表示空間算出部21Cは、変換された認識対象物の位置を示す情報を、表示画像データ生成部24に表示位置として入力する。また、表示空間算出部21Cは、変換された認識対象物の領域のサイズを示す情報を、表示画像データ生成部24に表示サイズとして入力する。そして、表示空間算出部21Cは、変換された消失領域の位置を示す情報を、表示画像データ生成部24に消失点の位置として入力する。
この際、表示空間算出部21Cは、撮影部11の視点の位置を運転者の視点とすると共に、撮影部11の視点の位置から認識対象物に向けた方向を、運転者の視点の位置から認識対象物に向けた方向とするための視野変換を行う。なお、運転者の視点の位置から認識対象物に向けた方向とは、シールドガラス50Wを通して車内から見える物体に対して、運転者から物体に向けた方向である。そして、表示空間算出部21Cは、運転者の視点の位置から認識対象物に向けた方向を透視投影方向として、視野変換後の撮影画像を表示面上の画像に変換するための投影変換を行う。表示空間算出部21Cは、これら視野変換と投影変換とを用い、表示面の二次元座標系における認識対象物の位置、認識対象物の領域、および、消失領域の位置を算出する。
平均色算出部21Dは、投影領域51を複数の区画領域に区画し、それぞれの区画領域における平均色を算出する。本実施の形態での投影領域51は、4つの区画領域である上側区画領域51A、左側区画領域51B、下側区画領域51C、右側区画領域51Dに区画される。平均色算出部21Dは、上述した視野変換、および、投影変換後の画像データに基づき、区画領域に含まれる全てのR画素の輝度値の平均値、全てのG画素の輝度値の平均値、および、全てのB画素の輝度値の平均値を算出し、これによって、区画領域における平均色を算出する。なお、区画領域における平均色の算出に際して、平均色算出部21Dは、例えば、4×4個の画素の中から1つの画素を用いる、あるいは、16×16個の画素の中から1つの画素を用いるように、画像データの解像度を縮小してもよい。平均色算出部21Dは、各区画領域の平均色を示す情報を、領域平均色として表示画像データ生成部24に入力する。
車両情報処理部22は、車両の走行速度を測定する速度センサ13Aから走行速度を取得する処理を繰り返し、取得された走行速度を表示画像データ生成部24に入力する処理を繰り返す。また、車両情報処理部22は、ナビゲーションシステム13Bから、車両のグローバル座標や進行方位を取得する処理を繰り返す。そして、車両情報処理部22は、取得されたグローバル座標、進行方位、および、現在時刻に基づき、表示面に対して太陽光の射す方向を推定する。車両情報処理部22は、推定された太陽光の射す方向を示す情報を、外光方向として表示画像データ生成部24に入力する。
変換情報記憶部23は、輝度情報23A、透明度情報23B、拡散度情報23C、分岐点情報23D、および、サイズ情報23Eを備える。これら各種の情報は、表示画像データ生成部24に読み出され、第1表示画像52と第2表示画像53とを表示するための表示画像データの生成に用いられる。
図2が示すように、第1表示画像52は、認識対象物を囲う環状を有し、認識対象物の存在の認識を補助する機能を有する。第1表示画像52は、外光方向SLに従い、光が射す部分52Aで輝度が高く、光が射さない部分52Bで輝度が低い。これによって、第1表示画像52は、外光方向SLに準じた立体感を有し、車両の前方における風景と第1表示画像52との違和感を抑える。第2表示画像53は、認識対象物と重なり、かつ、色濃度のグラデーションが付された矩形状を有し、これもまた認識対象物の存在の認識を補助する機能を有する。第2表示画像53は、消失点方向53Fに従い、徐々に濃い色を有する。消失点方向53Fは、第2表示画像53の縁である各辺から、消失点FOEに向けた方向である。
例えば、図3が示すように、第2表示画像53のなかの図中左上に消失点FOEが偏在する場合、消失点方向53Fとは、第2表示画像53の縁である各辺から、図中左上に位置する消失点FOEに向けた方向である。そして、第2表示画像53の有する色は、図中左上の消失点FOEに向けて徐々に濃くなり、消失点FOEにおいて最も濃い。なお、図3に示す例では、車両と認識対象物M2との距離が、図2に示す例よりも大きい。これに伴い、図2に示す例での輝度(図3のグラフに示す破線)よりも、それの輝度(図3のグラフに示す実線)は高い。反対に、図2に示す例での透明度(図3のグラフに示す破線)よりも、それの透明度(図3のグラフに示す実線)は低い。
また、例えば、図4が示すように、第2表示画像53よりも図中右上外側に消失点FOEが位置する場合、消失点方向53Fとは、第2表示画像53における縁のなかで消失点FOEから最も離れた部位から、消失点FOEに向けた方向である。そして、第2表示画像53の有する色は、図中右上外側の消失点FOEに向けて濃くなり、消失点FOEに最も近い位置で最も濃い。なお、図4に示す例では、車両と認識対象物M2との距離が、図2に示す例よりも小さい。これに伴い、図2に示す例での輝度(図4のグラフに示す破線)よりも、それの輝度(図4のグラフに示す実線)は低い。反対に、図2に示す例での透明度(図4のグラフに示す破線)よりも、それの透明度(図4のグラフに示す実線)は高い。
図1に戻り、輝度情報23Aは、第2表示画像53の輝度を定めるために、表示画像データ生成部24で用いられる情報である。輝度情報23Aは、車両と認識対象物との距離が大きいほど、第2表示画像53に高い輝度を対応付けるための情報である。透明度情報23Bは、第2表示画像53の透明度を定めるために、表示画像データ生成部24で用いられる情報である。透明度情報23Bは、車両と認識対象物との距離が大きいほど、第2表示画像53に低い透明度を対応付けるための情報である。拡散度情報23Cは、第2表示画像53の拡散度を定めるために、表示画像データ生成部24で用いられる情報である。拡散度情報23Cは、車両と認識対象物との距離が大きいほど、第2表示画像53に高い拡散度を対応付けるための情報である。これら輝度情報23A、透明度情報23B、および、拡散度情報23Cは、表示画像データを構成する輝度値を表示画像データ生成部24が算出するために、表示画像データ生成部24で用いられる情報である。
分岐点情報23Dは、第2表示画像53におけるグラデーションの分岐点の位置を定めるために、表示画像データ生成部24で用いられる情報である。分岐点情報23Dは、車両の走行速度が高いほど、消失点FOEに近い位置に分岐点を定めるための情報である。分岐点とは、色濃度のグラデーションの設定に際して、相互に隣り合う設定濃度の分岐となる位置である。分岐点情報23Dにおいて、分岐点の位置は、例えば、「(画像範囲H/分岐点数N)×定数R」によって定められる。画像範囲Hは、消失点方向53Fにおける第2表示画像53の幅である。分岐点数Nは、消失点方向53Fに従って順に数えられる分岐点の番号である。定数Rは、車両の走行速度に基づき定められる定数であり、例えば、走行速度が0km/h以上40km/h未満であれば「0.5」が定められ、走行速度が40km/h以上60km/h未満であれば「0.6」が定められる。また、例えば、走行速度が60km/h以上80km/h未満であれば「0.7」が定められ、走行速度が80km/h以上100km/h未満であれば「0.8」が定められ、走行速度が100km/h以上であれば「0.9」が定められる。
例えば、図5(a)が示すように、走行速度が100km/h以上であって、1つの分岐点(N=1)が設定される場合、グラデーションの分岐点Pは、消失点方向53Fにおいて、第2表示画像53の中央よりも消失点FOEとの距離が小さい。反対に、図5(b)が示すように、例えば、走行速度が0km/h以上40km/h未満である場合、グラデーションの分岐点Pは、消失点方向53Fにおいて、第2表示画像53の中央よりも消失点FOEとの距離が大きい。このような色濃度のグラデーションを有した第2表示画像53は、走行速度を正しく把握させる感覚を高める。そして、第2表示画像53から運転者が認識する走行速度と、第2表示画像53以外の風景などから運転者が認識する走行速度との差異を抑えることも可能となる。
図1に戻り、サイズ情報23Eは、第1表示画像52のサイズ、および、第2表示画像53のサイズを表示画像データ生成部24が定めるための情報である。認識対象物の存在が物体認識部21Aで認識されたとき、第1表示画像52のサイズ、および、第2表示画像53のサイズは、まず、認識対象物のサイズに合わせて定められる。なお、認識対象物のサイズに合わせたサイズとは、表示面の二次元座標系において、第1表示画像52の枠内に認識対象物が入る大きさである。一方、第1表示画像52、および、第2表示画像53が一度表示されて以降は、サイズ情報23Eに基づき、それぞれのサイズは変更される。サイズ情報23Eは、車両と認識対象物との距離が大きいほど、各表示画像52,53に大きいサイズを対応付けるための情報である。例えば、図6が示すように、サイズ情報23Eは、認識対象物が認識されたときの車両と認識対象物との距離Dが第1距離D1であるとき、縮小率R1を与える情報であって、認識対象物が認識されたときの車両と認識対象物との距離が第1距離D1よりも短い第2距離D2であるとき、縮小率R1よりも大きい縮小率R2を与える情報である。こうした縮小率R1に基づくサイズの変更が、各表示画像52,53に適用されることによって、認識対象物と車両との距離の変化を、各表示画像52,53から運転者は認識する。そして、各表示画像52,53から運転者が認識する距離の変化と、各表示画像52,53以外の風景などから運転者が認識する距離の変化との差異を抑えることが可能ともなる。
次に、表示画像データ生成部24の構成を、それが繰り返して行う画像表示処理の流れと共に説明する。なお、表示画像データ生成部24が行う画像表示処理は、各表示画像52,53を投影するための各画素の位置を特定し、特定された各画素の輝度値を算出して画像データを生成する処理である。
図7が示すように、表示画像データ生成部24は、物体認識部21Aが新たな認識対象物を認識したか否かを判断し(ステップS11)、物体認識部21Aが新たな認識対象物を認識した場合(ステップS11においてYES)、表示画像データ生成部24は、平均色算出部21Dから入力する領域平均色のなかから、認識対象物が位置する区画領域の領域平均色を特定する処理を行う。そして、表示画像データ生成部24は、特定された領域平均色を、各表示画像52,53において基準となる色に設定する(ステップS12)。次いで、表示画像データ生成部24は、表示空間算出部21Cから表示サイズを入力し、第1表示画像52が認識対象物を囲うような、各表示画像52,53のサイズを算出する処理を行う(ステップS13A)。次いで、表示画像データ生成部24は、認識対象物と車両との距離を示す情報を物体認識部21Aから入力し、消失点FOEの位置を示す情報を表示空間算出部21Cから入力する(ステップS14)。
一方、物体認識部21Aが新たな認識対象物を認識していない場合(ステップS11においてNO)、表示画像データ生成部24は、認識対象物と車両との距離を示す情報を、物体認識部21Aから入力すると共に、サイズ情報23Eを変換情報記憶部23から読み出す処理を行う。そして、表示画像データ生成部24は、認識対象物と車両との距離に対応する縮小率を、入力された距離とサイズ情報23Eとに基づき算出し、算出された縮小率に基づき、各表示画像52,53のサイズを変更する(ステップS13B)。次いで、表示画像データ生成部24は、表示空間算出部21Cから消失点の位置を示す情報を入力する(ステップS14)。すなわち、表示画像データ生成部24は、新たな認識対象物が認識されるごとに、各表示画像52,53の色とサイズを設定する。一方で、新たな認識対象物が認識されるまでは、各表示画像52,53のサイズを変更し、各表示画像52,53における基準となる色を保つ。こうした色の設定によれば、各表示画像52,53の色が頻繁に変わることを抑え、各表示画像52,53の色が頻繁に変わることによる違和感を抑えられる。そして、表示画像データ生成部24は、認識された認識対象物ごとに以下の処理を繰り返す。
まず、表示画像データ生成部24は、車両情報処理部22から外光方向を入力し、入力された外光方向に基づき、第1表示画像52における陰影を設定する。すなわち、表示画像データ生成部24は、第1表示画像52を投影するための画素のうち、光が射す部分52Aに対応する各画素に高輝度値を設定し、反対に、光が射さない部分52Bに対応する各画素に低輝度値を設定する(ステップS15)。
次いで、表示画像データ生成部24は、表示空間算出部21Cから表示位置を入力すると共に、表示位置から消失点の位置に向かう方向である消失点方向53Fを算出する(ステップS16)。
また、表示画像データ生成部24は、輝度情報23A、透明度情報23B、拡散度情報23C、および、分岐点情報23Dを、変換情報記憶部23から読み出す処理を行う。次いで、表示画像データ生成部24は、車両と認識対象物との距離に対応する輝度、透明度、および、拡散度を、輝度情報23A、透明度情報23B、および、拡散度情報23Cに基づき算出する。また、表示画像データ生成部24は、予め設定されている分岐点の個数、車両情報処理部22から入力された走行速度、および、分岐点情報23Dに基づき、分岐点の位置を算出する。次いで、表示画像データ生成部24は、算出された輝度、透明度、拡散度、分岐点の位置に従い、算出された消失点方向53Fに向けて、基準となる色から徐々に色が濃くなるように、第2表示画像53を投影するための各画素の輝度値を算出する(ステップS17)。
そして、表示画像データ生成部24は、算出された輝度値を各画素が有する表示画像データを生成し、その表示画像データを表示画像投影部25に出力することによって、各表示画像52,53を表示面に表示する(ステップS18)。
次に、車両用表示装置20が行う画像表示処理による作用を以下に説明する。なお、以下では、一定速度で走行する車両の前方に道路標識M1が位置し、その道路標識M1と重畳する各表示画像52,53を表示する例を説明する。
図8(a)が示すように、撮影画像DPのなかに道路標識M1が含まれると認識されると、表示画像データ生成部24は、道路標識M1の位置、道路標識M1の表示サイズ、および、道路標識M1よりも右斜め上方に位置する消失点FOEの位置を、表示空間算出部21Cから入力する。また、表示画像データ生成部24は、道路標識M1と車両との距離を示す情報を、物体認識部21Aから入力する。さらに、表示画像データ生成部24は、道路標識M1が位置する上側区画領域51Aの領域平均色を、平均色算出部21Dから入力する。
図8(b)が示すように、表示画像データ生成部24は、各表示画像52,53の基準となる色を、入力された領域平均色に設定する。また、表示画像データ生成部24は、道路標識M1の表示サイズに基づき、第1表示画像52が道路標識M1を囲うように、各表示画像52,53のサイズを設定する。また、表示画像データ生成部24は、道路標識M1の位置から消失点FOEの位置に向けた方向を、消失点方向53Fとして設定する。また、表示画像データ生成部24は、消失点方向53Fに向けて、基準となる色から徐々に色が濃くなるように、かつ、道路標識M1と車両との距離に対応する輝度、透明度、拡散度、および、分岐点の位置に基づき、第2表示画像53における色濃度のグラデーションを設定する。そして、車両用表示装置20は、運転者から道路標識M1に向けた方向において、道路標識M1を囲うような第1表示画像52を表示すると共に、消失点FOEに向けて色が徐々に濃くなる第2表示画像53を道路標識M1に重ねて表示する。
図8(c)が示すように、道路標識M1と車両との距離が小さくなると、車両用表示装置20は、道路標識M1と車両との距離に対応する大きさで、道路標識M1を囲うような第1表示画像52を表示し、また、消失点FOEに向けて色が徐々に濃くなる第2表示画像53を道路標識M1に重ねて表示する。この際、車両用表示装置20は、道路標識M1と車両との距離が小さくなったことに伴い、第2表示画像53の輝度を低下させ、また、第2表示画像53の透明度を上昇させ、さらに、第2表示画像53の拡散度を低下させる。
上記実施の形態によれば、以下の効果を得ることができる。
(1)第2表示画像53の示す色が、消失点方向53Fに従って徐々に濃くなるため、認識対象物に対する奥行き感を、第2表示画像53によって演出できる。
(2)認識対象物と車両との距離が短縮していることに関して、第2表示画像53における輝度の低下、透明度の上昇、および、拡散度の低下は、運転者によるそれの認識を補助する。
(3)認識対象物と車両との距離が延長していることに関して、第2表示画像53における輝度の上昇、透明度の低下、および、拡散度の上昇は、運転者によるそれの認識を補助する。
上記実施の形態は、以下のように変更して実施することもできる。
・図9が示すように、車両用表示装置20が、一度の表示で複数の認識対象物M2を認識し、かつ、各認識対象物M2に対する第1表示画像52が、表示面において重なる場合、車両用表示装置20は、以下のように、各第1表示画像52を表示してもよい。すなわち、車両と認識対象物M2との距離が小さいほど、その認識対象物M2に対して高い優先度を定め、第1表示画像52同士が重なる領域52Wでは、優先度が高い認識対象物M2に対する第1表示画像52を表示してもよい。そして、車両との距離が小さい認識対象物M2に対する第1表示画像52が、車両との距離が大きい認識対象物M2に対する第1表示画像52を遮蔽するように、車両用表示装置20が各第1表示画像52を表示してもよい。また、相互に異なる認識対象物M2において、第1表示画像52と第2表示画像53とが表示面において重なる場合、また、相互に異なる第2表示画像53が重なる場合も同様に、相互に異なる表示画像が重なる領域52Wでは、優先度が高い表示画像を表示してもよい。こうした表示画像の表示によれば、認識対象物M2間における車両と認識対象物M2との距離の差異に関し、運転者による認識を補助することが可能ともなる。
・また、車両用表示装置20が、一度の表示で複数の認識対象物M2を認識する場合、車両用表示装置20は、車両と認識対象物との距離が小さいほど、その認識対象物に対する表示画像の色が濃くなるように、各表示画像の色を設定してもよい。こうした表示画像の表示によっても、認識対象物M2間における車両と認識対象物M2との距離の差異に関し、運転者による認識を補助することが可能である。
・表示画像データ生成部24は、第2表示画像53を表示するための表示画像データの生成に際して、認識対象物と車両との距離に基づき、輝度のみを設定する構成であってもよく、透明度のみを設定する構成であってもよく、また、拡散度のみを設定する構成であってもよい。要は、表示画像データ生成部24は、認識対象物と車両との距離が大きいほど、表示画像の輝度が高いこと、透明度が低いこと、および、拡散度が高いことの少なくとも1つを満たす表示画像を生成する構成であればよい。
・車両用表示装置20は、第2表示画像53における色濃度のグラデーションと同様のグラデーションを、第1表示画像52に付す構成であってもよい。この際、車両用表示装置20は、消失点方向53Fに従って色が濃くなる表示画像であって、上述のグラデーションが付された表示画像を表示する構成であれば、第1表示画像52のみを表示する構成であってもよいし、第2表示画像53のみを表示する構成であってもよい。
・第2表示画像53が有する形状は、例えば、認識対象物の全体を囲う矩形枠状であってもよく、認識対象物を囲う矩形枠の四隅に位置する形状であってもよい。また、第2表示画像53において色濃度のグラデーションが付される領域は、第2表示画像53の一部であってもよいし、グラデーションの付される領域が第2表示画像53のなかに複数備えられてもよい。この際、第2表示画像53が備える複数の領域において、それぞれが消失点方向に従って濃くなる色を呈し、かつ、認識対象物と車両との距離が大きいほど、輝度が高いこと、透明度が低いこと、および、拡散度が高いことの少なくとも1つを満たす構成であればよい。
・物体認識部21Aは、複数の撮影画像から、車両と認識対象物との相対速度を測定し、相対速度が所定範囲内である認識対象物を静的認識対象物とし、相対速度が所定範囲外である認識対象物を動的認識対象物としてもよい。この際、物体認識部21Aは、認識された認識対象物が静的認識対象物であるか、あるいは、動的認識対象物であるかを識別するための情報を、表示画像データ生成部24に入力する。そして、表示画像データ生成部24は、例えば、静的認識対象物に対してのみ、上述した第2表示画像53を適用する構成であってもよい。
M1…道路標識、M2…認識対象物、P…分岐点、DP…撮影画像、D1,D2…距離、R1,R2…縮小率、SL…方向、FOE…消失点、11…撮影部、12…可視光カメラ、13A…速度センサ、13B…ナビゲーションシステム、20…車両用表示装置、21…画像情報処理部、21A…物体認識部、21B…消失点処理部、21C…表示空間算出部、21D…平均色算出部、22…車両情報処理部、23…変換情報記憶部、23A…輝度情報、23B…透明度情報、23C…拡散度情報、23D…分岐点情報、23E…サイズ情報、24…表示画像データ生成部、25…表示画像投影部、50W…シールドガラス、51…投影領域、51A…上側区画領域、51B…左側区画領域、51C…下側区画領域、51D…右側区画領域、52…第1表示画像、53…第2表示画像、53F…消失点方向。

Claims (1)

  1. フロントウインドウを通して車内から見える物体に対して、運転者から前記物体に向けた方向で、表示画像を重畳させる車両用表示装置であって、
    前記表示画像が表示される表示面での消失点を車両前方の撮像画像から算出する消失点算出部と、
    前記表示画像内の位置から前記消失点に向かう方向を消失点方向とし、前記消失点方向に従って色が濃くなる前記表示画像を前記表示面で表示すると共に、前記撮像画像から検出された前記物体と前記車両との距離が大きいほど、前記表示画像の輝度が高いこと、透明度が低いこと、および、拡散度が高いことの少なくとも1つを満たす前記表示画像を表示する表示処理部とを備える
    ことを特徴とする車両用表示装置。
JP2016039837A 2016-03-02 2016-03-02 車両用表示装置 Active JP6617610B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016039837A JP6617610B2 (ja) 2016-03-02 2016-03-02 車両用表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016039837A JP6617610B2 (ja) 2016-03-02 2016-03-02 車両用表示装置

Publications (2)

Publication Number Publication Date
JP2017154613A true JP2017154613A (ja) 2017-09-07
JP6617610B2 JP6617610B2 (ja) 2019-12-11

Family

ID=59809107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016039837A Active JP6617610B2 (ja) 2016-03-02 2016-03-02 車両用表示装置

Country Status (1)

Country Link
JP (1) JP6617610B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019031291A1 (ja) * 2017-08-10 2019-02-14 日本精機株式会社 車両用表示装置
CN110803169A (zh) * 2018-08-02 2020-02-18 通用汽车环球科技运作有限责任公司 用于在车辆中显示信息的系统和方法
WO2020040276A1 (ja) * 2018-08-23 2020-02-27 日本精機株式会社 表示装置
CN114067757A (zh) * 2020-07-31 2022-02-18 京东方科技集团股份有限公司 数据处理方法及装置、显示装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010234851A (ja) * 2009-03-30 2010-10-21 Mazda Motor Corp 車両用表示装置
WO2013108371A1 (ja) * 2012-01-17 2013-07-25 パイオニア株式会社 画像処理装置、画像処理サーバ、画像処理方法、画像処理プログラム、及び記録媒体
JP2015011666A (ja) * 2013-07-02 2015-01-19 株式会社デンソー ヘッドアップディスプレイ及びプログラム
JP2015221664A (ja) * 2013-10-10 2015-12-10 パナソニックIpマネジメント株式会社 表示制御装置、投影装置、表示制御プログラム、および記録媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010234851A (ja) * 2009-03-30 2010-10-21 Mazda Motor Corp 車両用表示装置
WO2013108371A1 (ja) * 2012-01-17 2013-07-25 パイオニア株式会社 画像処理装置、画像処理サーバ、画像処理方法、画像処理プログラム、及び記録媒体
JP2015011666A (ja) * 2013-07-02 2015-01-19 株式会社デンソー ヘッドアップディスプレイ及びプログラム
JP2015221664A (ja) * 2013-10-10 2015-12-10 パナソニックIpマネジメント株式会社 表示制御装置、投影装置、表示制御プログラム、および記録媒体

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019031291A1 (ja) * 2017-08-10 2019-02-14 日本精機株式会社 車両用表示装置
US11170537B2 (en) 2017-08-10 2021-11-09 Nippon Seiki Co., Ltd. Vehicle display device
CN110803169A (zh) * 2018-08-02 2020-02-18 通用汽车环球科技运作有限责任公司 用于在车辆中显示信息的系统和方法
WO2020040276A1 (ja) * 2018-08-23 2020-02-27 日本精機株式会社 表示装置
JPWO2020040276A1 (ja) * 2018-08-23 2021-08-12 日本精機株式会社 表示装置
CN114067757A (zh) * 2020-07-31 2022-02-18 京东方科技集团股份有限公司 数据处理方法及装置、显示装置
CN114067757B (zh) * 2020-07-31 2023-04-14 京东方科技集团股份有限公司 数据处理方法及装置、显示装置

Also Published As

Publication number Publication date
JP6617610B2 (ja) 2019-12-11

Similar Documents

Publication Publication Date Title
US8514282B2 (en) Vehicle periphery display device and method for vehicle periphery image
JP5706874B2 (ja) 車両の周辺監視装置
US10183621B2 (en) Vehicular image processing apparatus and vehicular image processing system
EP2544449B1 (en) Vehicle perimeter monitoring device
JP5577398B2 (ja) 車両の周辺監視装置
JP6379779B2 (ja) 車両用表示装置
KR102490272B1 (ko) 차량의 주변 영역을 표시하기 위한 방법
KR101093316B1 (ko) 차량주행중 영상정합 방법 및 그 시스템
KR102404149B1 (ko) 물체 검출과 통지를 위한 운전자 보조 시스템 및 방법
US11518390B2 (en) Road surface detection apparatus, image display apparatus using road surface detection apparatus, obstacle detection apparatus using road surface detection apparatus, road surface detection method, image display method using road surface detection method, and obstacle detection method using road surface detection method
JP6617610B2 (ja) 車両用表示装置
JP5171723B2 (ja) 障害物検知装置、および当該装置を搭載した車両
EP2723060A1 (en) Vehicle-mounted camera device
US20110157184A1 (en) Image data visualization
US10099617B2 (en) Driving assistance device and driving assistance method
JP2013168063A (ja) 画像処理装置、画像表示システム及び画像処理方法
US10733464B2 (en) Method, system and device of obtaining 3D-information of objects
JP2006338594A (ja) 歩行者認識装置
KR101748780B1 (ko) 스테레오 카메라를 이용한 도로객체 인식방법 및 장치
JP2010044561A (ja) 乗物搭載用監視装置
JP2007323578A (ja) 車両周辺監視装置
JP2014015127A (ja) 情報表示装置、情報表示方法およびプログラム
JP2009230225A (ja) 車両用周囲監視装置
JP2017212633A (ja) 撮像装置、撮像表示方法および撮像表示プログラム
KR102023863B1 (ko) 이동체 주위 표시 방법 및 이동체 주위 표시 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191028

R151 Written notification of patent or utility model registration

Ref document number: 6617610

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151