JP5590684B2 - 情報表示装置及び情報表示方法 - Google Patents

情報表示装置及び情報表示方法 Download PDF

Info

Publication number
JP5590684B2
JP5590684B2 JP2011545089A JP2011545089A JP5590684B2 JP 5590684 B2 JP5590684 B2 JP 5590684B2 JP 2011545089 A JP2011545089 A JP 2011545089A JP 2011545089 A JP2011545089 A JP 2011545089A JP 5590684 B2 JP5590684 B2 JP 5590684B2
Authority
JP
Japan
Prior art keywords
information
optical flow
image
vehicle
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011545089A
Other languages
English (en)
Other versions
JPWO2011070783A1 (ja
Inventor
健士 野上
和彦 岩井
有紀 脇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2011545089A priority Critical patent/JP5590684B2/ja
Publication of JPWO2011070783A1 publication Critical patent/JPWO2011070783A1/ja
Application granted granted Critical
Publication of JP5590684B2 publication Critical patent/JP5590684B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、運転者の運転を支援するための情報を表示する情報表示装置及び情報表示方法に関する。
近年、車両に搭載される機器又は機能が増大する中で、運転者は、当該車両を運転する際、当該車両の内外から得られる様々な情報を処理する必要がある。
運転者が処理する様々な情報は、例えば、車両の速度情報、エンジンの回転数、センターコンソールに表示されるラジオの局番、音楽のトラックナンバーの情報、カーナビゲーションシステム(Car Navigation System)の画面に表示される地図若しくは経路案内の情報、又は当該車両周囲の危険性の警告等の安全運転を支援するための情報がある。
従来、運転者は、主にインストルメントパネル又はセンターコンソールパネルに表示される情報を、視覚を通じて取得することが多かった。しかし、運転者の視線方向と、当該情報が表示される方向とが大きく異なる場合、又は運転者と当該情報が表示される位置との距離が離れている場合には、運転者は、当該情報の内容を確認するために、視線を移動したり又は焦点を調節したりしていた。
このような運転者の視線の移動量又は焦点の調節量を極力減らすために、ヘッドアップディスプレイ(HUD:Head−Up Display)が開発されている。HUDは、車両のダッシュボードの上部からフロントガラスにかけての特定の範囲に所定の情報を表示するディスプレイである。
HUDには、液晶ディスプレイやOELD(Organic ElectroLuminecsent Display:有機ELディスプレイ)等の表示デバイスを直接視認するタイプや、液晶ディスプレイ又はOELD又はレーザー光源を含んだ表示デバイスから出力された光をフロントガラスに投影させるタイプ等がある。
HUDを用いることにより、前方を見ながら運転している状態からディスプレイを見るための視線移動時間が、従来のインストルメントパネルやセンターコンソールを見る場合と比較して短縮できる。
更に、フロントガラスに投影されるタイプでは、表示情報が車両の前景に重畳されるという特徴があり、運転者と表示デバイスとの間の光学的距離をより長くすることができる。これにより、運転者は、焦点調節のためにほとんど時間をかけずに表示情報を視認することができる。
このようなHUDにより、運転者の視野の中心に近い位置に情報を表示することが可能となり、運転者の表示情報への気付き易さが大きく向上することが期待される。また、視覚機能の低下した高齢者に対しては特に有効であると考えられる。
その一方で、運転者の視野の中心に近い位置へ情報を表示することにより、運転者が煩わしさを感じる可能性がある。このため、気付き易く、かつ運転者が煩わしさを感じにくい情報の表示方法が望まれている。そこで、運転者(作業者)の視野の周辺に情報の表示を行い、何らかのタイミングで当該表示情報に対する誘目効果を付加することにより表示情報への気付き易さを向上させるための先行技術が開示されている(例えば、非特許文献1参照)。
例えば、非特許文献1では、前述した誘目効果として、縦振動又は横振動という運動効果を表示情報に付加することにより、作業者が気付き易く、かつ作業者が煩わしさを感じにくいという結果が開示されている。また、車両の運転中に、前述した振動を用いた誘目効果を応用した例として、横振動によって運転者の気付き易さを向上させる方法が特許文献1に開示されている。
特許文献1では、車両の走行に連動した移動速度を持つ光の流れを運転者の視野内に発生させ、この流れの中に他車両の存在を示す非表示領域を設ける車両用表示装置及び方法が開示されている。また、この特許文献1では、運転者がこの非表示領域の存在に慣れることを防止するために、非表示領域の存在が一定期間継続された場合には、非表示領域を横振動させている。
HUDを用いて所定の画像を振動させた状態でフロントガラス上に表示する場合、時間的に変化する車両の前景と当該画像とが重畳表示されるため、特許文献1で開示された表示方法を応用し、気付き易く、かつ煩わしさを感じにくくすることが可能である。
より具体的に説明すると、例えば、車両の進路上の歩行者等(注意対象)の存在を知らせる画像に水平方向の振動の誘目効果を付加してHUDに表示することにより、注意対象の存在を短時間で確実に運転者に伝えることができる。
特開2006−264507号公報
木室俊一他著「マルチディスプレイ環境における頭部姿勢を用いた適応的誘目法」電子情報通信学会・信学技報、HIP2006−135、P.43−48
しかしながら、本発明の発明者の考察によれば、注意対象の存在を知らせる画像を水平方向へ画一的に振動させた場合に、どのような走行状況においても気付き易く且つ運転者が煩わしさを感じにくいわけでは無い。
具体的には、交差点等で車両が右左折又は転回を行っている最中では、車両の前景のオプティカルフローは水平方向が主体となり、当該オプティカルフローと表示画像の振動方向とが略平行になるため、運転者にとって充分な誘目効果が得られないという課題があった。
本発明は、前記従来の課題に鑑みてなされたもので、その目的は、車両の走行状態に影響を受けず、運転者が表示情報に気付き易く、かつ煩わしさを感じにくい情報表示装置及び情報表示方法を提供することを目的とする。
本発明の一態様の情報表示装置は、車両周辺に存在する対象物を検出する第1のセンサを備える車両において用いられる情報表示装置であって、前記車両の前景のオプティカルフローのベクトル情報を算出するオプティカルフロー算出部と、前記オプティカルフローのベクトル情報において、ベクトルの水平成分の大きさがベクトルの鉛直成分の大きさより大きい場合には、前記第1のセンサによって検出された前記対象物に関するシンボル画像を表示する際に運転者に気付かせるための運動のパターンを示す第1の運動効果を決定し、前記ベクトルの水平成分の大きさが前記ベクトルの鉛直成分の大きさ以下である場合には、前記対象物に関するシンボル画像を表示する際に前記運転者に気付かせるための運動のパターンであって、前記第1の運動効果に対して垂直な方向の運動のパターンを示す第2の運動効果を決定する運動効果決定部と、前記対象物に関するシンボル画像を、決定された前記第1又は第2の運動効果に基づいて運動させて表示する表示部と、を具備する。
本発明の情報表示装置及び情報表示方法によれば、車両の走行状態に影響を受けず、運転者が気付き易く、かつ煩わしさを感じにくい情報表示を実現することができる。
第1の実施形態に係る情報表示装置を含む情報表示システムが搭載された車両が走行している様子を示す図 第1の実施形態に係る情報表示装置を含む情報表示システムが搭載された車両内部の運転席付近の様子を示す図 第1の実施形態に係る情報表示装置を含む情報表示システムの構成を示すシステム構成図 シンボル画像管理テーブルの一例を示す図 運動効果決定テーブルの一例を示す図 第1の実施形態に係る情報表示装置の動作を説明するフローチャート 第1の実施形態の自車両のセンサにより歩行者が検出される前における自車両と歩行者との位置関係を示す図 第1の実施形態の自車両のセンサにより歩行者が検出された後における自車両と歩行者との位置関係を示す図 オプティカルフローの算出の様子を示した図 カメラにより撮影されたカメラ画像におけるオプティカルフローのベクトル成分がZ=−fの平面に投影された様子を示す図、(a)Z=−fの平面を示す図、(b)当該ベクトルのx、y成分への分解を示す図 車両の直進時のオプティカルフローに関する図、(a)車両内に設置されたカメラにより撮影されたカメラ画像とオプティカルフローの例とを示す図、(b)オプティカルフローのベクトルのx、y成分への分解を示す図 車両の右折時のオプティカルフローに関する図、(a)車両内に設置されたカメラにより撮影された画像とオプティカルフローの例とを示す図、(b)オプティカルフローのベクトルのx、y成分への分解を示す図 運動効果の具体例を示す図、(a)正弦波を示す図、(b)矩形波を示す図、(c)三角波を示す図、(d)鋸状の波形を示す図、(e)鋸状の波形を示す図 第2の実施形態に係る情報表示装置を含む情報表示システムの構成を示すシステム構成図 速度センサ及びヨーレートセンサによりそれぞれ出力された速度情報及び角速度情報に基づいて算出されるオプティカルフローのベクトルの算出過程を説明する図、(a)は仮想カメラのレンズ中心を基準とした座標系における前景の相対的な移動の様子を示す図、(b)は仮想カメラを基準とした前景の相対的な移動を平行移動と回転運動との各成分に分解した様子を示す図、(c)は投影面上のオプティカルフローのベクトルを示す図 仮想カメラを用いた場合にオプティカルフローのベクトルの水平成分、鉛直成分のなす角度を求めるためのテーブルの一例を示す図、(a)は車速、角速度に対するオプティカルフローのベクトルの水平成分、鉛直成分のなす角度が関連付けられたテーブル、(b)は重畳領域の位置座標、車速、角速度に対するオプティカルフローのベクトルの水平成分、鉛直成分のなす角度が関連付けられたテーブル 重畳領域の位置座標を設定するためのテーブルの一例を示す図 経路案内の画像の一例を示す図 表示部に表示される表示画像の一例を示す図、(a)はシンボル画像のみの画像、(b)はシンボル画像と背景画像とで構成された画像 表示倍率条件情報の一例を示す図 シンボル画像の縦又は横への拡大又は縮小の運動のパターンの一例を示す図、(a)正弦波の拡大又は縮小の運動のパターンの一例を示す図、(b)正弦波の値の正の部分の繰り返しの拡大又は縮小の運動のパターンの一例、(c)矩形波の拡大又は縮小の運動のパターンの一例を示す図、(d)三角波の拡大又は縮小の運動のパターンの一例を示す図、(e)鋸状の波形の拡大又は縮小の運動のパターンの一例、(f)鋸状の波形の拡大又は縮小の運動のパターンの一例 シンボル画像が回転しているように見える画像の縦又は横の運動のパターンの一例を示す図、(a)正弦波の方向に回転するように運動させたパターンの一例を示す図、(b)矩形波の方向に回転するように運動させたパターンの一例を示す図、(c)三角波の方向に回転するように運動させたパターンの一例を示す図、(d)鋸状の波形の方向に回転するように運動させたパターンの一例を示す図、(e)鋸状の波形の方向に回転するように運動させたパターンの一例を示す図 シンボル画像が回転しているように見える画像の変化の一例を示す図、(a)〜(m)変化する一連のフレーム画像をそれぞれ示した図 前景画像のうちの重畳領域近傍のオプティカルフローのベクトルを算出する情報表示装置を含む情報表示システムの構成を示すシステム構成図 運転者の眼球位置と重畳領域の位置関係とを説明するための図、(a)HUDに表示されているシンボル画像を運転者の視点から見た図、(b)車両の横方向の断面図 第3の実施形態に係る情報表示装置である車載情報表示装置を含む車載情報表示システムの構成を示すシステム構成図 第3の実施形態に係る情報表示装置である車載情報表示装置の内部構成を示すブロック図 対象車載情報の一例を示す図 運動効果条件情報の一例を示す図 第3の実施形態に係る情報表示装置である車載情報表示装置の動作を説明するフローチャート 運動効果の具体例を示す図、(a)は正弦波を示す図、(b)は矩形波を示す図、(c)は三角波を示す図、(d)は鋸状の波形を示す図 第4の実施形態に係る情報表示装置である車載情報表示装置を含む情報表示システムの構成を示すシステム構成図 第4の実施形態に係る情報表示装置である車載情報表示装置の内部構成を示すブロック図 眼球位置と重畳領域の位置関係とを説明するための図、(a)上から見た位置関係を示す図、(b)横から見た位置関係を示す図
以下、本発明の実施の形態について、図面を参照しながら説明する。
(第1の実施形態)
図1は、第1の実施形態に係る情報表示装置を含む情報表示システムが搭載された車両が走行している様子を示す図である。図2は、第1の実施形態に係る情報表示装置を含む情報表示システムが搭載された車両内部の運転席付近の様子を示す図である。以下、情報表示装置を含む情報表示システムは自動車等の車両に搭載されるものとして説明し、当該車両を「自車両5」、当該自車両5の運転者を「運転者」と記載する。
自車両5には、1つ又は複数のセンサ6a〜6dを含むセンサ部が搭載されている。但し、センサの搭載数は図1に示すように4つに限定されない。センサ6a〜6dは、自車両5の周辺の所定の検出範囲7に存在する人物又は物体を検出する。そして、センサ6a〜6dから出力される検出情報に基づいて、自車両5内に設置されたHUDの表示領域21上に表示情報が表示される。
例えば、図1において、センサ6a〜6dによって歩行者1の存在が検出されると、「歩行者」が検出されたことを示す検出情報に基づいて、歩行者1を示すシンボル画像が選択される。そして、更にそのシンボル画像に運動効果を付加した表示画像が生成され、表示領域21に表示される。
また、図1に示すように、自車両5には、カメラ8(第1のカメラ)が搭載されている。カメラ8は、自車両5の外部環境を撮影する。本実施の形態においては、カメラ8は、自車両5の前景を撮影する場合を説明するが、その限りではない。カメラ8は、例えば、図2に示すルームミラー23の裏側に設置される。
カメラ8は、図1に示すように、自車両5の前景のうち、カメラ8の画角に基づいて定まる所定の撮影範囲9を、所定のフレームレートで撮影して、前景画像を取得する。前景画像は、オプティカルフローを算出するために用いられる。
図3は、第1の実施形態に係る情報表示装置30aを含む情報表示システム10aの構成を示すシステム構成図である。第1の実施形態の情報表示システム10aは、センサ6a〜6d、カメラ8、表示部90及び情報表示装置30aを備える。情報表示装置30aは、センサ6a〜6d及びカメラ8と接続されている。情報表示装置30aは、記憶部31、注意対象検出部32、シンボル画像選択部33、オプティカルフロー算出部34a、運動効果決定部35、表示画像生成部36及び表示制御部37を備える。
図7は自車両5が右折する直前、図8は自車両5が右折している最中の様子を示す。図7において、自車両5から見ると、センサ6a〜6dによる所定の検出範囲7の外から中に歩行者1が進入してくる。センサ6a〜6dは、自車両5の周辺の所定の検出範囲7の中に人物又は物体等の存在を検出する。
センサ6a〜6dは、具体的には、撮像装置やレーダー装置、無線タグリ−ダ、路車間通信装置等であり、人物、車両といった具体的な種別ごとに検出するセンサであってもよく、又は、単に物体の存在を検出する機能を持つセンサであってもよい。
センサ6a〜6dは、所定の検出範囲7の中に人物又は物体等の被検出対象の存在が検出された場合、検出された人物又は物体に関する情報を含む検出情報を注意対象検出部32に出力する。
カメラ8は、自車両5の前景における所定の撮影範囲9を撮影する。撮影範囲9は、カメラ8の性能、たとえば画角等によって定まる。カメラ8は、撮影された前景画像をオプティカルフロー算出部34aに出力する。
表示部90は、例えば、自車両5のフロントガラス22の一部の表示領域21である。第1の実施形態の情報表示システム10aの表示部90には、HUDが用いられている。表示部90には、情報表示装置30aにより生成された、運転者に対して通知する必要のある情報に運動効果が付加された画像が表示される。
以下、各実施形態において、表示部への表示に使用される画像であり、運動効果が付加される前の画像を「シンボル画像」、シンボル画像に運動効果が付加された画像を「表示画像」と定義する。シンボル画像は、所定の情報であってもよい。
記憶部31は、運転者に通知する必要のある検出対象種別及びシンボル画像を含むシンボル画像選択テーブル40と、シンボル画像に所定の運動効果を付加するための条件を示す運動効果決定テーブル50とを少なくとも記憶している。
図4は、シンボル画像選択テーブル40の一例を示す図である。図5は、運動効果決定テーブルの一例を示す図である。以下、シンボル画像選択テーブル40について図4を参照して説明し、運動効果決定テーブル50について図5を参照して説明する。
図4に示すように、シンボル画像選択テーブル40は、検出情報種別とシンボル画像が関連付けられたものである。例えば、検出情報種別の「歩行者」には、シンボル画像として「歩行者の画像」が割り当てられている。また、検出情報種別の「自転車」には、シンボル画像として「自転車の画像」が割り当てられている。また、検出情報種別の「車両」には、シンボル画像として「車両の画像」が割り当てられている。なお、シンボル画像選択テーブル40の内容はこれらに限定されない。
図5に示すように、運動効果決定テーブル50は、オプティカルフローの条件を識別するID、後述するオプティカルフロー算出部34aにより算出されたオプティカルフローの条件、及び付加される運動効果が関連付けられたものである。
例えば、運動効果決定テーブル50のID「001」では、オプティカルフロー条件が「オプティカルフローのベクトルの大きさがαより小さい」である場合には運動効果が付加されないことを示している。パラメータαは予め設定された値である。この場合、自車両5がほとんど動いておらず、危険ではないと考えられるため、運動効果を付加する必要がない。
運動効果決定テーブル50のID「002」では、オプティカルフロー条件が「オプティカルフローのベクトルの大きさがα以上で、かつオプティカルフローのベクトルの水平成分の大きさがオプティカルフローのベクトルの鉛直成分の大きさより大きい」である場合には、縦振動の運動効果が付加されることを示している。
運動効果決定テーブル50のID「003」では、オプティカルフロー条件が「オプティカルフローのベクトルの大きさがα以上で、かつオプティカルフローの鉛直成分の大きさがオプティカルフローの水平成分の大きさ以上で、かつ水平成分の大きさにパラメータβを加算した値以下」である場合には、横振動の運動効果が付加されることを示している。
運動効果決定テーブル50のID「004」では、オプティカルフロー条件が「オプティカルフローの水平成分の大きさにパラメータβを加算した値がオプティカルフローの鉛直成分の大きさ未満」である場合には、横振動及び拡大の運動効果が付加されることを示している。
なお、運動効果決定テーブル50の内容はこれらに限定されない。運動効果にデフォルトの方向及び振幅を設定しておき、オプティカルフローのベクトルの大きさが所定値以下の場合にはデフォルトの方向及び振幅で運動させるようにしてもよい。
すなわち、運動効果は、振動方法であってもよく、運動効果決定部35は、オプティカルフローのベクトル情報に基づいて、所定の情報の振動方法を決定する。また、運動効果は、伸縮方法であってもよく、運動効果決定部35は、オプティカルフローのベクトル情報に基づいて、所定の情報の伸縮方法を決定する。
次に、情報表示装置30aの動作について図6〜図8を参照して説明する。図6は、第1の実施形態に係る情報表示装置30aの動作を説明するフローチャートである。図7は、自車両5のセンサ6a〜6dにより歩行者1が検出される前における自車両5と歩行者1との位置関係を示す図である。
図8は、自車両5のセンサ6a〜6dにより歩行者1が検出された後における自車両5と歩行者1との位置関係を示す図である。自車両5のセンサ6a〜6dにより、歩行者1が検出される。
自車両5の周辺の所定の検出範囲7の中に人物又は物体等の存在がセンサ6a〜6dにより検出された場合には、注意対象検出部32は、センサ6a〜6dによりそれぞれ出力された検出情報を取得する。注意対象検出部32は、この取得された検出情報が、図4に示したシンボル画像選択テーブル40の検出情報種別の中に含まれるか否かを判定する(S401)。
具体的には、注意対象検出部32は、記憶部31に記憶されているシンボル画像選択テーブル40と、センサ6a〜6dから取得された検出情報とを比較し、図4に示したシンボル画像選択テーブル40の検出情報種別の中に前述した検出情報が含まれているか否かを判定する。
含まれている場合には(S401のYES)、注意対象検出部32は、検出情報の検出情報種別がシンボル画像選択テーブル40の検出情報種別に含まれている旨の情報をシンボル画像選択部33に通知する。
シンボル画像選択部33は、シンボル画像選択テーブル40の検出情報種別に検出情報が含まれている旨の情報を注意対象検出部32より取得し、該当するシンボル画像を選択する(S402)。シンボル画像選択部33は、選択したシンボル画像を表示画像生成部36に出力する。
図9は、オプティカルフローの算出の様子を示した図である。
図10は、カメラ8により撮影されたカメラ画像におけるオプティカルフローのベクトル成分がZ=−fの平面に投影された様子を示す図であり、同図(a)はZ=−fの平面を示す図であり、同図(b)は当該ベクトルのx、y成分への分解を示す図である。
図11は、車両の直進時のオプティカルフローに関する図であり、(a)は車両内に設置されたカメラ8により撮影されたカメラ画像とオプティカルフローの例とを示す図であり、(b)はオプティカルフローのベクトルのx、y成分への分解を示す図である。
図12は、車両の右折時のオプティカルフローに関する図であり、(a)は車両内に設置されたカメラ8により撮影されたカメラ画像とオプティカルフローの例とを示す図であり、(b)はオプティカルフローのベクトルのx、y成分への分解を示す図である。
以下、オプティカルフロー算出部34aの動作について図9〜図12を参照して説明する。
本実施の形態において、カメラ8は、常時、自車両5の前景における所定の撮影範囲9を撮影し、撮影された前景画像をオプティカルフロー算出部34aに出力する。オプティカルフロー算出部34aは、カメラ8により出力された複数の前景画像の時間的変化に基づいて、当該画像内のオプティカルフローを算出する。
オプティカルフロー算出部34aは、カメラ8により出力された第1の前景画像と、第1の前景画像の次のフレームの第2の前景画像とを比較し、互いに対応する座標点を推定する。ここで、互いに対応する座標点とは、第1の前景画像に含まれる第1の座標点、及び、第2の前景画像において、当該第1の座標点が示す背景情報を示す第2の座標点のことである。
オプティカルフロー算出部34aは、第1の前景画像における第1の座標点と、第2の前景画像における第2の座標点との差分(移動ベクトル)をオプティカルフローのベクトルとして算出する(S403)。画像間での同一点を推定するための方法としては、勾配法、ブロックマッチング法等の方法が用いられている。
例えば、勾配法では、前景画像の水平方向にx軸、前景画像の鉛直方向にy軸をとり、当該画像中の同一の点における位置及び輝度が時間に対して滑らかに変化すると仮定してオプティカルフローが求められる。
具体的には、前景画像中の(x,y)の時刻tでの輝度をE(x,y,t)、画像中のオプティカルフローのベクトルの水平成分であるx成分をu、当該ベクトルの鉛直成分であるy成分をvとすると、数式(1)が成り立つ。
Figure 0005590684
数式(1)から数式(2)が導き出され、画像中の画素(x、y)近傍の拘束方程式からの最小自乗解がオプティカルフローのベクトルとして算出される。数式(2)は拘束方程式である。
Figure 0005590684
また、現実の物体の移動と、それを画像上に投影したオプティカルフローとの関係を、図9を参照して説明する。
図9に示すように、自車両5の進行方向を向いたカメラ8を基準とした座標系として、カメラ8のレンズの中心131を原点Oとし、自車両5の水平右方向をX軸、鉛直上方向Y軸、進行方向と反対向きをZ軸とした直交座標系をとる。
カメラ8の光軸が水平でZ軸と重なるものとし、カメラ8の焦点距離をfとすれば、実際の撮像面はZ=fの平面上に倒立像を結像するが、像の反転を考慮すると、Z=−fの平面上で順方向の結像をするものと見做すことができる。
また、路面を平面とし、路面からのカメラ8の高さをhとすると、路面はY=−hの平面で表わされる。カメラ8の視野内の路面上のある地点P(X、Y、Z)が次のフレームにおいて地点P’(X、Y、Z)に移動し、それらの点がそれぞれZ=−fの投影面上の点Q(x,y)、点Q’(x,y)にそれぞれ投影されたとすると、数式(3)及び数式(4)の関係が成り立つ。地点P’と点Q’のZ=−fの平面への投影についても同様である。
Figure 0005590684
Figure 0005590684
従って、図10に示したオプティカルフローのベクトル132を(u,v)で表すと、数式(5)及び数式(6)が成立し、実際の移動ベクトル133がオプティカルフローベクトル132に投影されることになる。但し、オプティカルフローの算出方法は、前述した方法に限定されない。
Figure 0005590684
Figure 0005590684
オプティカルフロー算出部34aは、前述した方法で算出されたオプティカルフローを運動効果決定部35に出力する。運動効果決定部35は、オプティカルフロー算出部34aにより出力されたオプティカルフローを取得する。運動効果決定部35は、記憶部31に記憶されている運動効果決定テーブル50を参照し、当該取得されたオプティカルフローに応じた運動効果を決定する(S404〜S408、S410〜S412)。
なお、本実施形態においては、カメラ8により撮影された前景画像のオプティカルフローの代表値を、オプティカルフロー算出部34aが出力するオプティカルフローとして採用してもよい。
なお、前景の各点においてオプティカルフローのベクトルは異なるため、オプティカルフローはベクトル分布情報である。オプティカルフローの算出においては、前景のうち、特に運転者から見える表示画像が重畳する領域(以下、「重畳領域」という)におけるオプティカルフローが重要である。
このため、オプティカルフロー算出部34aは、前景画像のうち重畳領域にのみ基づいてオプティカルフローを算出してもよい。オプティカルフローの代表値としては、重畳領域内の数点のオプティカルフローの平均を用いても良いし、重畳領域内でも実際に表示画像の表示される近傍に限定したオプティカルフローの平均値を用いても良い。
ここで、重畳領域について説明する。図24は、フロントガラス22のうち重畳領域近傍のオプティカルフローのベクトルを算出する情報表示装置30eを含む情報表示システム10eの構成を示す図である。
図24に示す情報表示システム10eは、運転者の顔画像を撮影するカメラ2401(第2のカメラ)と、カメラ2401から取得された画像から運転者の眼球位置を検出し、カメラ2401の設置位置を示す設置情報に基づいて、運転者の眼球の三次元位置情報を算出する眼球位置算出部2402と、算出された眼球位置と、フロントガラス22におけるシンボル画像20の表示位置とに基づいて、重畳領域を算出する重畳領域算出部2403と、を備える。
なお、カメラ2401の設置位置を示す設置情報は、情報表示システム10eに含まれるメモリ(不図示)が記憶する。
図25は、運転者80の眼球位置と重畳領域の位置関係とを説明するための図である。図25(a)はHUDに表示されているシンボル画像を運転者80の視点から見た図であり、フロントガラス22における下部領域にシンボル画像20が表示されている。本図においては、シンボル画像20の近傍領域が重畳領域86である。
図25(b)は、図25(a)に対応した、車両の横方向の断面図である。HUDユニット81の射出光82がフロントガラス22に到達し、反射光が運転者80の方向に向かい、運転者80の視野に入ることでシンボル画像20の表示が運転者80の目に映る。運転者80がシンボル画像20を見る場合には、運転者80の視線83はシンボル画像20を通る。
フロントガラス22は透過的であるため、運転者80の視線83はシンボル画像20を通過し、更に路面85に到達する。図25(b)においては、シンボル画像20を中心とした所定の近傍領域が切り取る路面85の一部の領域が重畳領域86である。
すなわち、重畳領域86とは、運転者80の眼球位置と、フロントガラス22におけるシンボル画像20を含む所定の領域とを結ぶ直線84によって切り取られた前景と、カメラ8(第1のカメラ)が撮影する前景画像とが重畳する領域である。
以下、図24および及び図25により、重畳領域86の前景画像に基づいてオプティカルフローの算出方法を説明する。
カメラ2401は、運転者80の顔画像を所定の時間間隔で撮影している。このカメラ2401にて撮影された画像データが眼球位置算出部2402に入力される。ここで、カメラ2401は例えばステレオカメラであり、同時に撮影した画像を眼球位置算出部2402に入力する。
眼球位置算出部2402では、入力された画像から運転者80の二つの眼球の位置を検出する。ステレオカメラでは三角測量の原理に基づき、少しずれた位置から撮影した画像の視差を利用して物体(ここでは眼球)までの距離を算出する。ステレオカメラを用いた基本的な測距技術は公知であるため、ここでは特に説明はしない。ステレオカメラを用いた測距技術において、実際には人間の目は二つあるため、例えば、検出された運転者80の両目の位置の中点を眼球位置とみなせばよい。
次に、図34を用いて、眼球位置と重畳領域の位置関係とを説明する。図34は、眼球位置と重畳領域の位置関係とを説明するための図であり、図25を模式的に表した図である。同図(a)は上から見た位置関係を示し、同図(b)は横から見た位置関係を示している。座標系については、各座標軸の向きは図9と同様とするが、シンボル画像20の表示位置を原点としている。
この座標系において眼球位置87を(e、e、e)とし、重畳領域86を(x、y、h)とすれば、xは数式(7)、yは数式(8)で表せる。
Figure 0005590684
Figure 0005590684
したがって、シンボル画像20の表示位置と眼球位置87が分かれば、重畳領域86の位置を算出することが可能である。シンボル画像20の表示位置については、予め幾何学的関係を記憶しておくことで、カメラ8を基準とした座標系の位置座標に変換することは容易である。
そして、数式(7)、数式(8)によって求めたx、yを、カメラ8を基準とした座標系に変換することによって、前述の方法に従って、オプティカルフローのベクトルを算出できる。オプティカルフローのベクトルを算出した後の動作は、上述しているため説明を省略する。
以上のように、図24に示すシステム構成にすることで、重畳領域86のオプティカルフローのベクトルを算出することが可能である。
なお、運動効果決定部35は、前述の重畳領域86に含まれるオプティカルフローのベクトル情報に基づいて運動効果を決定してもよい。
例えば、図6において、自車両5が停止している場合又は当該自車両5が低速度で走行している場合等、オプティカルフローのベクトルの大きさが予め設定された所定値α(例えばα=−2)未満である場合には(S404のNO)、運動効果決定部35は、オプティカルフローがないと見做し、シンボル画像選択部33により選択されたシンボル画像に対して運動効果を付与しないように決定する(S405)。したがって、その場合にはシンボル画像20が動かずにHUDの表示領域に表示される(S406)。
ここで、予め設定された所定値は、図5に示した運動効果決定テーブル50におけるパラメータαである。
オプティカルフローのベクトルの大きさが所定値α以上の場合には(S404のNO)、運動効果決定部35は、当該オプティカルフローの水平成分、鉛直成分のそれぞれの大きさに基づいた比較を行い、その結果に応じて運動効果を決定する。
例えば、図12(a)に示すように自車両5が右折動作を行っている場合に、運動効果決定部35はオプティカルフローのベクトル111を図12(b)のように分解する。その結果、水平成分及び鉛直成分(u、v)=(−10、−2)が得られたとする。そして、運動効果決定部35は、uとvの大きさに関して比較する。
図12(b)に示す例の場合、運転者から見たオプティカルフローの水平成分uの大きさが鉛直成分vの大きさよりも大きいため(S407のYES)、運転効果決定部35は、図5に示した運動効果決定テーブル50に従って、シンボル画像に対して「縦振動」の運動効果を付加するように決定する(S408)。
これにより、運転者が気付き易く、かつ煩わしさを感じにくい表示とすることができる。
また、例えば、図11(a)に示すように自車両5が略直進走行を行っている場合に、図11(b)に示すようにオプティカルフローのベクトル121の水平成分及び鉛直成分(u、v)=(−3、−20)が得られたとする。なお、この例では所定値βの値によって運動効果決定部35における決定内容が異なるため、例えばβ=−7とする。
この場合には、運転者から見たオプティカルフローの鉛直成分vの大きさが水平成分uの大きさよりも大きく、更にその大きさの差が7より大きいため(S410のYES)、運転効果決定部35は、図5に示した運動効果決定テーブル50に従って、シンボル画像20に対して「横振動」の運動効果を付加することに加えて拡大表示の効果も付加するように決定する(S411)。なお、その際の拡大倍率は予め固定的に設定されているものでもよいし、何らかの方法で別途算出されるものでもよい。
これにより、運転者が気付き易く、かつ煩わしさを感じにくい表示とすることができる。
また、図示していないが、図11(b)のようにオプティカルフローのベクトルの鉛直成分vの方が水平成分uよりも大きく、かつ、その差がβより小さい場合には(S410のNO)、運動効果決定部35はシンボル画像に対して横振動の運動効果のみを付与する(S412)。
表示画像生成部36は、シンボル画像選択部33により選択されたシンボル画像に、運動効果決定部35により決定された運動効果を付加した表示画像を生成する(S409)。そして、表示制御部37は、表示画像生成部36によって前記運動効果を付加された表示画像を取得し、表示部90に表示する(S406)。
前述したように、運動効果の種類としては、例えば縦方向の一次元的な振動、横方向の一次元的な振動、拡大、又は縮小等があり得る。振動の振幅や周期等の属性は、予め設定された所定の値を用いるが、任意に編集することも可能である。運動効果の種類として、周期的な運動であれば良い。
例えば、縦又は横の一次元的な振動であれば、図13(a)〜(e)に示すように、位置の変化のパターンが正弦波、矩形波、三角波又は、更には表示位置の移動が不連続な鋸状の波形でも良い。図13は、運動効果の具体例を示す図である。同図(a)は、正弦波を示す図である。同図(b)は、矩形波を示す図である。同図(c)は、三角波を示す図である。同図(d)は、鋸状の波形を示す図である。同図(e)は、鋸状の波形を示す図である。
また、縦又は横の一次元的な拡大又は縮小であれば、図21(a)〜(f)に示すように、拡大、縮小方向の幅の変化が正弦波、正弦波の値の正の部分の繰り返し、矩形波、三角波、鋸状の波形でもよい。図21は、シンボル画像20の縦又は横への拡大又は縮小の運動のパターンの一例を示す図である。同図(a)は、正弦波の拡大又は縮小の運動のパターンの一例を示す図である。同図(b)は、正弦波の値の正の部分の繰り返しの拡大又は縮小の運動のパターンの一例を示す図である。同図(c)は、矩形波の拡大又は縮小の運動のパターンの一例を示す図である。同図(d)は、三角波の拡大又は縮小の運動のパターンの一例を示す図である。同図(e)は、鋸状の波形の拡大又は縮小の運動のパターンの一例を示す図である。同図(f)は、鋸状の波形の拡大又は縮小の運動のパターンの一例を示す図である。
また、拡大、縮小に類似した運動効果として、運転者にとってあたかも画像が縦又は横方向に回転しているように見える表示方法でもよい。具体的には、例えば図23の(a)〜(m)のように画像が変化すれば、自転車のシンボル画像が鉛直方向の中心線を回転軸にして水平方向に回転しているように見える。図23は、シンボル画像が回転しているように見える画像の変化の一例を示す図である。同図(a)〜(m)は、変化する一連のフレーム画像をそれぞれ示している。
図22は、シンボル画像が回転しているように見える画像の縦又は横の運動のパターンの一例を示す図である。同図(a)〜(e)は、横軸に時刻、縦軸に表示画像の回転方向の幅をとったグラフであり、正弦波、矩形波、三角波、鋸状の波形等の方法で変化をさせた例を示す図である。具体的には、同図(a)は、正弦波の方向に回転するように運動させたパターンの一例を示す図である。同図(b)は、矩形波の方向に回転するように運動させたパターンの一例を示す図である。同図(c)は、三角波の方向に回転するように運動させたパターンの一例を示す図である。同図(d)は、鋸状の波形の方向に回転するように運動させたパターンの一例を示す図である。同図(e)は、鋸状の波形の方向に回転するように運動させたパターンの一例を示す図である。なお、グラフの縦軸におけるマイナス符号は、元のシンボル画像に対して表示画像が反転した状態であることを示している。
このようにして表示領域21に歩行者1の表示画像が表示されると、たとえ歩行者1そのものが運転者の視野に入っていなくとも、運転者は煩わしさを感じずに表示に気付き易くなり、その結果、当該歩行者1との接触を回避する動作までの時間も短縮することができる。
従って、第1の実施形態の情報表示装置30aでは、自車両5の周囲の所定の検出範囲7に運転者の注意対象となる歩行者1等の存在が検出される。
ここで検出された検出情報がシンボル画像管理テーブルに属する検出情報種別に該当する場合には、自車両5のオプティカルフローが算出されることによりシンボル画像に対する運動効果が決定される。
自車両5のオプティカルフローは、カメラ8により撮影された自車両5の前景画像に基づいて算出される。この決定された運動効果がシンボル画像に付加され、表示画像として自車両5の表示部90に表示される。
以上のように、第1の実施形態の情報表示装置30aは、前景画像を撮影するカメラ8を備える車両に搭載された、所定の情報を表示する情報表示装置であって、所定の情報を運動させて表示する表示部と、カメラ8が撮影した複数の前景画像を取得し、取得された複数の前景画像に基づいて、前景のオプティカルフローのベクトル情報を算出するオプティカルフロー算出部と、オプティカルフロー算出部からオプティカルフローのベクトル情報を取得し、取得されたオプティカルフローのベクトル情報に基づいて、所定の情報の運動効果を決定する運動効果決定部と、を備える情報表示装置であり、車両の走行状態に影響を受けず、運転者が気付き易く、かつ煩わしさを感じにくい情報表示を実現できる効果を奏する。
なお、本実施形態では人物又は物体を検出する場合の例を示したが、センサ6a〜6dが単に何かの物体(人物なのか、特定の物体なのかまでは分からない)を検出する機能しかなくても構わない。その場合には、シンボル画像選択部による選択手順は行わず、決められた画像を表示すればよい。
また、本実施形態では検出された注意対象に対応するシンボル画像のある場合の例を示したが、シンボル画像選択テーブル40内に対応するシンボル画像20の存在しない場合もある。予め「その他」の場合のシンボル画像をシンボル画像選択テーブル40に準備しておけば、不明な物体が検出された場合には「その他」を選択した上で表示画像を生成すればよい。
また、第1の実施形態の情報表示装置30aは、時間的に連続して撮影された車両の前景画像に基づいて、車両の前景のオプティカルフローを算出することができる。
また、算出されたオプティカルフローのベクトル主体成分と交差する方向に表示画像が運動するため、運転者は、表示画像に容易に気づくことができる。また、付加される運動効果は周期的な運動であるため、表示画像の運動する軌道が予測し易くなり、当該表示画像の表示に気付いてからシンボル画像の内容を理解するまでの時間も短縮することができる。
なお、本実施形態では、オプティカルフローの鉛直方向と水平方向の成分の大きさの差に基づいてシンボル画像に付加する運動効果を決定したが、オプティカルフローの鉛直方向の成分と水平方向の成分の大きさの比に基づいてシンボル画像に付加する運動効果を決定してもよい。
(第2の実施形態)
次に、第2の実施形態の情報表示装置を含む情報表示システムについて図14を参照して説明する。図14は、第2の実施形態に係る情報表示装置30bを含む情報表示システム10bの構成を示すシステム構成図である。図14において、図3と同じ構成要素については同じ符号を用いる。
以下、第2の実施形態では、第1の実施形態と異なる構成要素及び当該構成要素の動作について説明し、同一の内容については説明を省略する。第1の実施形態における情報表示システム10aと異なるのは、カメラ8の代わりに、速度センサ14及びヨーレートセンサ15がオプティカルフロー算出部34bに接続されている点、及びオプティカルフロー算出部34bのオプティカルフローの算出過程である。
速度センサ14は、常時、自車両5の速度を検出し、この検出された速度に関する速度情報をオプティカルフロー算出部34bに出力する。ヨーレートセンサ15は、常時、自車両5の回転速度を検出し、この検出された回転速度に関する回転速度情報をオプティカルフロー算出部34bに出力する。
オプティカルフロー算出部34bの算出過程について、図15を参照して説明する。図15は、速度センサ14及びヨーレートセンサ15によりそれぞれ出力された速度情報及び回転速度情報に基づいて算出されるオプティカルフローの算出過程を説明する図である。実際に移動するのは自車両5であるが、運転者から見ると前景が移動するように見え、ここでは運転者を基準とした座標系で考える。
同図(a)は、仮想カメラのレンズ中心を基準とした座標系における前景の相対的な移動の様子を示す図である。同図(b)は、仮想カメラを基準とした前景の相対的な移動を平行移動と回転運動との各成分に分解した様子を示す図である。同図(c)は、投影面上のオプティカルフローのベクトルを示す図である。
図15(a)において、運転者からは、前景の任意の領域156が点P(X、Y、Z)から点Q(X、Y、Z)へ移動しているように見える。その際の点Pから点Qへの移動は移動ベクトル152で表される。
図15(b)において、ベクトル153は仮想カメラ151からの視点で見たときの直進運動による直進成分、ベクトル154は回転運動による回転成分である。
図15(c)において、図15(a)の移動ベクトル152を仮想カメラ151で写したと仮定すると、ベクトル155は移動ベクトル152が画像に投影されたもの、すなわちオプティカルフローのベクトルである。
図15(a)に示すように、自車両5の走行中に、点P(X、Y、Z)の座標に位置していた前景の任意の領域156が、所定の時間Δtの後に、点Q(X、Y、Z)に移動した場合について説明する。
自車両5の走行方向の前方を向いた仮想カメラ151を考えると、オプティカルフローは、当該仮想カメラ151の撮像面に投影された画像をもとに算出される。
第1の実施形態における図9に示す座標系と同様の仮想カメラ151の座標系を考え、ある仮想カメラ151における画像の撮像時刻の自車両5の速度をa、角速度である回転速度をωとする。
車両の前景の任意の点P(X、Y、Z)に位置する前景の任意の領域156が、時間Δt後に任意の点Q(X、Y、Z)に移動したとすれば、点Pから点Qへの移動ベクトル152は、図15(b)の直進運動による直進成分(ベクトル)153と仮想カメラ151を中心とした回転運動による回転成分(ベクトル)154の和と見做すことができる。このため、点Pと点Qとの関係は、数式(9)、数式(10)、数式(11)の様に表すことができる。
Figure 0005590684
Figure 0005590684
Figure 0005590684
数式(9)と数式(11)を数式(5)に代入し、また、数式(9)と数式(11)を数式(6)に代入することで、オプティカルフローのベクトル155を算出することが可能である。
このようにして算出したオプティカルフローのベクトル155に基づいて、第1の実施形態と同様に、シンボル画像20に対する運動効果を決定することが可能である。
以上のように、第2の実施形態の情報表示装置30bでは、自車両5の周囲の所定の検出範囲7に運転者の注意対象となる歩行者1等の存在が検出される。
ここで検出された検出情報がシンボル画像管理テーブル40に属する検出情報種別に該当する場合には、自車両5のオプティカルフローが算出されることにより当該シンボル画像20に対する運動効果が決定される。自車両5のオプティカルフローは、速度センサ14及びヨーレートセンサ15により出力された値に基づいて算出される。
この決定された運動効果がシンボル画像20に付加され、表示画像として自車両5の表示部90に表示される。
従って、第2の実施形態の情報表示装置30bは、車両の走行状態に影響を受けず、運転者が気付き易く、かつ煩わしさを感じにくい情報表示を実現することができる。
また、車両に備え付けられている速度センサ14及びヨーレートセンサ15等により出力された速度情報及び回転速度情報に基づいて車両の前景のオプティカルフローを算出するため、カメラ8を使用せずとも同様な効果を得ることができる。
また、表示画像が周期的に運動するため、運転者は、表示画像の運動する軌道を予測し易くなる。これにより、当該画像の表示に気付いてからシンボル画像の内容を理解するまでの時間が短縮される。
(第3の実施形態)
第3の実施形態に係る情報表示装置を含む情報表示システムについて説明する。第3の実施形態に係る情報表示装置としての車載情報表示装置を含む車載情報表示システムが搭載された車両の走行状態の様子は、実施の形態1における図1と同様である。また、車載情報表示装置を含む車載情報表示システムが搭載された自車両5内部の様子は、実施の形態1における図2と同様である。したがって、図1および及び図2を用いて、実施の形態3における情報表示システムについて説明する。
自車両5には、1又は複数のセンサ6a〜6dが搭載されている。但し、センサ6a〜6dの搭載数は図1に示すように4つに限定されない。センサ6a〜6dは、当該自車両5の周辺の所定の検出範囲7に人又は物体等の存在を検出し、この検出により生成された検出情報を取得する。例えば、この検出情報には、図1に示すように、歩行者1の存在を示す旨の情報等である。センサ6a〜6dは、それぞれ生成された検出情報を車載情報表示装置に出力する。
また、図1に示すように、自車両5には、カメラ8が搭載されている。カメラ8は、図1に示すように、当該自車両5の走行方向の前方における所定の撮影範囲9の前景を撮影する。カメラ8は、当該撮影された前景画像を車載情報表示装置に出力する。また、図2に示すように、自車両5には、運転者から見てルームミラー23の右下方向であって、フロントガラス22の下部に表示部90としての表示領域21が配置されている。センサ6a〜6dにより歩行者1の存在を示す旨が検出された場合、車載情報表示装置は、当該検出された歩行者1のシンボル画像20を運転者に通知させる必要のある車載情報として表示領域21内に表示する。
図26は、第3の実施形態に係る情報表示装置である車載情報表示装置30cを含む車載情報表示システム10cの構成を示すシステム構成図である。第3の実施形態の車載情報表示システム10cは、センサ6a〜6d、カメラ8、表示部90及び車載情報表示装置30cを備える。車載情報表示装置30cは、センサ6a〜6d及びカメラ8にそれぞれ接続されている。図27は、第3の実施形態に係る情報表示装置である車載情報表示装置30cの内部構成を示すブロック図である。図27に示すように、車載情報表示装置30cは、記憶部31c、表示対象検出部2601、表示画像選択部2602、オプティカルフロー算出部34c、運動効果決定部35、画像生成部2603及び表示制御部37を備える。なお、表示対象検出部2601は、実施の形態1における注意対象検出部32に相当し、表示画像選択部2602は、実施の形態1におけるシンボル画像選択部33に相当し、画像生成部2603は、実施の形態1における表示画像生成部36に相当する。
センサ6a〜6dは、自車両5の周辺の所定の検出範囲7の中に人又は物体等の存在を検出する。センサ6a〜6dは、所定の検出範囲7の中に当該人又は物体等の存在が検出された場合、当該検出された人又は物体等に関する情報を含む検出情報を表示対象検出部2601に出力する。カメラ8は、自車両5の走行方向の前方における所定の撮影範囲9の前景を撮影する。カメラ8は、この撮影された前景画像をオプティカルフロー算出部34cに出力する。表示部90は、例えば、自車両5のフロントガラス22の一部の表示領域21である。第3の実施形態の車載情報表示システム10cの表示部90には、HUDが用いられている。表示部90には、車載情報表示装置30cにより生成された、自車両5の運転者に対して通知させる必要のある情報の画像が表示される。以下、各実施形態において、自車両5の運転者に対して通知させる必要のある情報を「車載情報」、当該車載情報を示す画像を「車載情報画像」と定義する。
記憶部31cは、本実施の形態において、車載情報の種別及び画像を含む対象車載情報2800と、車載情報画像に所定の運動効果を付与するための条件情報を示す運動効果条件情報2900とを少なくとも記憶している。対象車載情報2800について図28を参照して説明し、運動効果条件情報2900について図29を参照して説明する。図28は、対象車載情報2800の一例を示す図面である。図29は、運動効果条件情報2900の一例を示す図面である。なお、記憶部31cが記憶している情報は一例であり、実施の形態1における記憶部31の記憶する情報であってもよい。また、本実施の形態における対象車載情報2800は、実施の形態1におけるシンボル画像選択テーブル40に相当し、本実施の形態における運動効果条件情報2900は、実施の形態1における運動効果決定テーブル50に相当する。
図28に示すように、対象車載情報2800は、当該対象車載情報2800を識別するID、当該対象車載情報2800の対象種別、及び車載情報画像が関連付けられたものである。例えば、ID「001」の対象車載情報2800では、車載情報種別が「歩行者」で、車載情報画像として「歩行者の画像」が割り当てられている。ID「002」の対象車載情報2800では、車載情報種別が「自転車」で、車載情報画像として「自転車の画像」が割り当てられている。ID「003」の対象車載情報2800では、車載情報種別が「車両」で、車載情報画像として「車両の画像」が割り当てられている。なお、対象車載情報2800の内容はこれらに限定されない。
図29に示すように、運動効果条件情報2900は、当該運動効果条件情報2900を識別するID、後述するオプティカルフロー算出部34cにより算出されたオプティカルフローの条件、及び付与される運動効果が関連付けられたものである。例えば、ID「001」の運動効果条件情報2900では、オプティカルフロー条件が「オプティカルフローのベクトルの大きさ<α」である場合には、運動効果は付与されないことが示される。パラメータαは、運動効果を付与して良いか否かを決める閾値である。ID「002」の運動効果条件情報2900では、オプティカルフロー条件が「オプティカルフローのベクトルの水平成分の大きさがオプティカルフローのベクトルの鉛直成分の大きさより大きい」である場合には、縦振動の運動効果が付与される。ID「003」の運動効果条件情報2900では、オプティカルフロー条件が「オプティカルフローの水平成分の大きさがオプティカルフローの鉛直成分の大きさ以下」である場合には、横振動の運動効果が付与される。ID「004」の運動効果条件情報2900では、オプティカルフロー条件が「オプティカルフローの水平成分の大きさにパラメータβを加算した値がオプティカルフローの鉛直成分の大きさ未満」である場合には、横振動及び拡大の運動効果が付与される。なお、運動効果条件情報2900の内容はこれらに限定されない。
次に、車載情報表示装置30cの動作について図30、および及び図7および及び図8を参照して説明する。図30は、第3の実施形態に係る情報表示装置である車載情報表示装置30cの動作を説明するフローチャートである。図7は、実施の形態1において説明したとおり、自車両5のセンサ6a〜6dにより歩行者1が検出される前における自車両5と歩行者1との位置関係を示す図面である。図8は、実施の形態1において説明したとおり、自車両5のセンサ6a〜6dにより歩行者1が検出された後における自車両5と歩行者1との位置関係を示す図面である。図8では、走行している自車両5が交差点を右折する際に接近してきた歩行者1の存在を運転者に注意喚起する状態を示している。自車両5のセンサ6a〜6dにより、歩行者1が検出される。
自車両5の周辺の所定の検出範囲7の中に人又は物体等の存在がセンサ6a〜6dにより検出された場合には、表示対象検出部2601は、センサ6a〜6dによりそれぞれ出力された検出情報を取得する。表示対象検出部2601は、この取得された検出情報の中に、図28に示した対象車載情報2800の有無を判定する(S3001)。具体的には、表示対象検出部2601は、記憶部31cに記憶されている対象車載情報2800と、センサ6a〜6dから取得された検出情報とを比較し、図28に示した対象車載情報2800の対象種別が前述した検出情報に含まれているか否かを判定する。対象車載情報2800の対象種別が検出情報に含まれている場合には(S3001のYES)、表示対象検出部2601は、対象車載情報2800の対象種別が検出情報に含まれている旨の情報を表示画像選択部2602に出力する。
表示画像選択部2602は、対象車載情報2800の対象種別が検出情報に含まれている旨の情報を表示対象検出部2601より取得し、検出情報に含まれている対象車載情報2800の対象種別に対応する車載情報画像を選択する(S3002)。表示画像選択部2602は、車載情報画像が選択された旨を画像生成部2603に出力する。
オプティカルフロー算出部34cの動作については、実施の形態1におけるオプティカルフロー算出部34aと同様であるため、図9から図12を参照して説明する。図9は、実施の形態1において説明したとおり、オプティカルフローの算出の様子を示した図面である。図10は、実施の形態1において説明したとおり、カメラ画像におけるオプティカルフローのベクトル成分がZ=−fの平面に投影された様子を示す図面であり、(a)はZ=−fの平面を示す図面であり、(b)はベクトルのx、y成分への分解を示す図面である。図11は、実施の形態1において説明したとおり、車両の直進時のオプティカルフローに関する図面であり、(a)は車両内に載置されたカメラ8により撮影された画像を示す図面であり、(b)はオプティカルフローに基づくベクトルのx、y成分への分解を示す図面である。図12は、車両の右折時にオプティカルフローに関する図面であり、(a)は車両内に載置されたカメラ8により撮影された画像を示す図面であり、(b)はオプティカルフローに基づくベクトルのx、y成分への分解を示す図面である。
カメラ8は、常時、自車両5の走行方向の前方における所定の撮影範囲9の前景を撮影し、この撮影された前景の画像をオプティカルフロー算出部34cに出力する。オプティカルフロー算出部34cは、カメラ8により出力された前景の画像の時間的変化に基づいて、当該画像内のオプティカルフローを算出する。また、第3の実施形態において、カメラ8により撮影された前景の画像のオプティカルフローを、オプティカルフローの代表値として用いることとする。また、カメラ8により撮影された画像内の各点においてオプティカルフローのベクトルは異なるが、特に運転者から見える車載情報画像の表示領域21におけるオプティカルフローが重要である。このため、オプティカルフローの代表値としては、表示領域21内の数点のオプティカルフローの平均を用いても良いし、表示領域21内でも実際に画像の表示される近傍の局所的なオプティカルフローの平均値を用いても良い。
オプティカルフロー算出部34cは、カメラ8により出力された2枚の前景の画像の当該画像フレームにおける同一点を推定し、当該点の移動ベクトルをオプティカルフローのベクトルとして導出する(S3003)。画像フレーム間での同一点を推定するための方法としては、勾配法、ブロックマッチング法等の方法が用いられている。
例えば、勾配法では、前景の画像の水平方向にx軸、前景の画像の鉛直方向にy軸をとり、当該画像中の同一の点における位置及び輝度が時間に対して滑らかに変化すると仮定してオプティカルフローが求められる。具体的には、前景の画像中の(x,y)の時刻tでの輝度をE(x,y,t)、画像中のオプティカルフローのベクトルの水平成分であるx成分をu、当該ベクトルの鉛直成分であるy成分をvとすると、実施の形態1において示した数式(1)が成り立つ。
数式(1)より、実施の形態1において示した数式(2)の拘束方程式が導き出され、画像中の画素(x、y)近傍の拘束方程式からの最小自乗解がオプティカルフローのベクトルとして算出される。
また、現実の物体の移動と、それを画像上に投影したオプティカルフローとの関係を、図9を参照して説明する。図9に示すように、自車両5の進行方向を向いたカメラ8を基準とした座標系として、カメラ8のレンズの中心131を原点Oとし、自車両5の水平右方向をX軸、鉛直上方向Y軸、進行方向と反対向きをZ軸とした直交座標系をとる。カメラ8の光軸が水平でZ軸と重なるものとし、カメラ8の焦点距離をfとすれば、実際の撮像面はZ=fの平面上に倒立像を結像するが、像の反転を考慮すると、Z=−fの平面上で順方向の結像をすると見做することができる。また、路面を平面とし、路面からのカメラ8の高さをhとすると、路面はY=−hの平面で表わされ、カメラ8の視野内の路面上のある地点P(X、Y、Z)が次のフレームにおいて地点P’(X、Y、Z)に移動し、それらの点がそれぞれZ=−fの投影面上の点Q(x,y)、点Q’(x,y)にそれぞれ投影されたとすると、実施の形態1において示した数式(3)及び数式(4)の関係が成り立つ。地点P’と点Q’の投影についても同様である。
従って、図10に示したオプティカルフローのベクトル132を(u,v)で表すと、実施の形態1において示した数式(5)及び数式(6)が成立し、実際の移動ベクトル133がオプティカルフローベクトル132に投影されることになる。
但し、オプティカルフローの算出方法は、前述した方法に限定されない。
オプティカルフロー算出部34cは、前述した方法で導出されたオプティカルフローを運動効果決定部35に出力する。運動効果決定部35は、オプティカルフロー算出部34cにより出力されたオプティカルフローを取得する。運動効果決定部35は、記憶部31cに記憶されている運動効果条件情報2900を参照し、当該取得されたオプティカルフローに応じた運動効果を設定する(S3004〜S3008)。例えば、自車両5が停止している場合又は当該自車両5が低速度で走行している場合等、オプティカルフローのベクトルの大きさが予め設定された所定値α未満である場合には(S3004のYES)、運動効果決定部35は、オプティカルフローがないと見做し、表示画像選択部2602により選択された車載情報画像に対して運動効果を付与しないように決定する(S3005)。ここで、予め設定された所定値は、図29に示した運動効果条件情報2900におけるパラメータαである。
オプティカルフローのベクトルの大きさが所定値α以上の場合には(S3004のNO)、運動効果決定部35は、当該オプティカルフローの水平成分、鉛直成分のそれぞれの大きさに応じて運動効果を決定する。例えば、図11(a)に示すように自車両5が直進に近い走行を行っている場合に、オプティカルフローのベクトル111の水平成分及び鉛直成分が(u、v)=(−3、−20)が得られたとする。運動効果決定部35は、このオプティカルフローのベクトル111を図11(b)に示すように、画像の水平成分であるx軸成分と鉛直成分であるy軸成分とに分解し、当該水平成分及び鉛直成分のそれぞれの大きさを比較する。
図11(b)に示す例の場合、運転者から見たオプティカルフローの鉛直成分vの大きさが水平成分uの大きさよりも大きいため(S3006のYES)、運転効果決定部35は、図29に示した運動効果条件情報2900に従って、車載情報画像に対して「横振動」の運動効果を付与するように決定する(S3007)。この「横振動」の運動効果は、水平成分主体の運動効果である。また、自車両5が図11に示す走行を行っている場合では鉛直成分の大きいオプティカルフローに対して略垂直の方向に車載情報画像が表示されるため、「横振動」の運動効果が車載情報画像に付与されることにより、運転者に煩わしさを感じさせず、容易に気づき易い車載情報を表示することができる。
また、例えば、図12(a)に示すように自車両5が右折動作を行う場合に、オプティカルフローのベクトル121の水平成分及び鉛直成分が(u、v)=(−10、2)が得られたとする。この場合、自車両5は旋回運動に近い走行となる。この場合には、運転者から見たオプティカルフローの水平成分uの大きさが鉛直成分vの大きさよりも大きいため(S3006のNO)、運転効果決定部35は、図29に示した運動効果条件情報2900に従って、車載情報画像に対して「縦振動」の運動効果を付与するように決定する(S3008)。この「縦振動」の運動効果は、鉛直成分主体の運動効果である。また、自車両5が図12に示す走行を行っている場合では水平成分の大きいオプティカルフローに対して略垂直の方向に車載情報画像が表示されるため、「縦振動」の運動効果が車載情報画像に付与されることにより、運転者に煩わしさを感じさせず、容易に気づき易く車載情報を表示することができる。
画像生成部2603は、表示画像選択部2602により選択された車載情報画像に、運動効果決定部35により決定された運動効果を付与した車載情報画像を生成する(S3009)。画像生成部2603は、この生成された車載情報画像を表示制御部37に出力する。表示制御部37は、画像生成部2603により出力された車載情報画像を取得し、当該取得された車載情報画像を表示部90に表示するように制御する(S3010)。
前述したように、運動効果の種類としては、例えば縦方向の一次元的な振動、横方向の一次元的な振動、拡大、又は縮小等があり得る。振動の振幅や周期等の属性は、予め設定された所定の値を用いるが、任意に編集することも可能である。運動効果の種類として、周期的な運動であれば良い。例えば、図31(a)〜(d)に示すように、位置又は形状の変化のパターンが正弦波、矩形波、三角波又は、更には表示位置の移動が不連続な鋸状の波形でも良い。図31は、運動効果の具体例を示す図である。同図(a)正弦波を示す図である。同図(b)は、矩形波を示す図である。同図(c)は、三角波を示す図である。同図(d)は、鋸状の波形を示す図である。また、実施の形態1において示した図13(a)〜(e)の波形でも良い。
このようにして表示領域21に歩行者1のシンボル画像20が表示されると、自車両5の運転者は、たとえ歩行者1そのものが視野に入っていなくても、煩わしさを感じずに表示に気付き易くなり、その結果、当該歩行者1との接触を回避する動作までの時間も短縮することができる。
以上のように、第3の実施形態に係る情報表示装置である車載情報表示装置30cでは、自車両5の周囲の所定の検出範囲7に車載情報の画像の対象となる歩行者1等の存在が検出される。この検出により生成された検出情報の中に車載情報の画像の対象がある場合には、自車両5のオプティカルフローが算出されることにより当該車載情報の画像に対する運動効果が決定される。自車両5のオプティカルフローは、カメラ8により撮影された自車両5の走行方向の前景の画像に基づいて算出される。この決定された運動効果が車載情報の画像に付与された車載情報の画像が自車両5の表示部90に表示される。
従って、第3の実施形態に係る情報表示装置である車載情報表示装置30cは、車両の走行状態に影響を受けず、運転者が煩わしさを感じずに気付き易く車載情報を表示することができる。また、第3の実施形態の車載情報表示装置30cは、予め設定された対象車載情報2800に基づいて、車両の周囲に運転者に対して通知させる必要のある車載情報の対象が見つかるか否かを高精度に判定することができる。また、第3の実施形態の車載情報表示装置30cは、導出されたオプティカルフローの水平成分及び鉛直成分の大きさにより、車両が直進している場合又は旋回等の回転している場合のいずれであるのかを高精度に判定することができる。また、第3の実施形態の車載情報表示装置30cは、連続的に撮影された車両の走行方向における画像に基づいて、車両の走行方向のオプティカルフローを算出することができる。また、運転効果は、周期的な運動であるため、車載情報の画像の表示する軌道が予測し易くなり、当該画像の表示に気付いた後でさえ表示内容を容易に理解することができる。また、導出されたオプティカルフローのベクトル主体成分と交差する方向に車載情報の画像が周期的に運動するため、運転者は、車載情報の画像の表示する軌道がより予測し易くなり、当該画像の表示に気付いた後でさえ表示内容を容易に理解することができる。また、導出されたオプティカルフローのベクトル主体成分と交差する方向に車載情報の画像が周期的に運動するため、運転者は、車載情報の画像の表示に気づいた後の視線の移動量を小さくすることができると共に、更に表示内容を容易に理解することができる。
(第4の実施形態)
次に、第4の実施形態の車載情報表示装置を含む車載情報表示システムについて図32を参照して説明する。図32は、第4の実施形態に係る情報表示装置である車載情報表示装置30dを含む車載情報表示システム10dの構成を示すシステム構成図である。図32において、図26と同じ構成要素については同じ符号を用いる。以下、第4の実施形態では、第3の実施形態と異なる構成要素及び当該構成要素の動作について説明し、同一の内容については説明を省略する。第3の実施形態における車載情報表示システム10cと異なるのは、カメラ8の代わりに、速度センサ14及びヨーレートセンサ15がオプティカルフロー算出部34dに接続されている点、及びオプティカルフロー算出部34dのオプティカルフローの算出過程である。図33は、第4の実施形態に係る情報表示装置である車載情報表示装置30dの内部構成を示すブロック図である。なお、速度センサ14および及びヨーレートセンサ15は、実施の形態2において説明した速度センサ14および及びヨーレートセンサ15と同じものである。
速度センサ14は、常時、自車両5の速度を検出し、この検出された速度に関する速度情報をオプティカルフロー算出部34dに出力する。ヨーレートセンサ15は、常時、自車両5の回転速度を検出し、この検出された回転速度に関する回転速度情報をオプティカルフロー算出部34dに出力する。
オプティカルフロー算出部34dの導出過程について、実施の形態2におけるオプティカルフロー算出部34bの導出過程と同様であるため、図15を参照して説明する。図15は、速度センサ14及びヨーレートセンサ15によりそれぞれ出力された速度情報及び回転速度情報に基づいて導出されるオプティカルフローの算出過程を説明する図面である。図15(a)において、151は仮想カメラであり、152は前景の任意の領域156が点P(X、Y、Z)から点Q(X、Y、Z)へ移動した際の移動ベクトルである。図15(b)において、153は移動ベクトル152を仮想カメラ151の視点で見たときに分解した直進成分、154は移動ベクトル152を仮想カメラ151の視点で見たときに分解した回転成分である。図15(c)において、155は前景の任意の領域156の移動が仮想カメラ151により投影された像のオプティカルフローのベクトルである。
図15(a)に示すように、自車両5の走行中に、点P(X、Y、Z)の座標に位置していた前景の任意の領域156が、所定の時間Δtの後に、点Q(X、Y、Z)に移動した場合について説明する。自車両5の走行方向の前方を向いた仮想カメラ151を考え、当該仮想カメラ151の撮像面に対して導出されるオプティカルフローを考える。第3の実施形態における図9に示す座標系と同様の仮想カメラ151の座標系を考え、ある仮想カメラ151における画像の撮像時刻の自車両5の速度をa、角速度である回転速度をωとし、前方視野内の任意の点P(X、Y、Z)に位置する任意の領域156が、時間Δt後に任意の点Q(X、Y、Z)に移動したとすれば、点Pから点Qへの移動ベクトル152は、速度方向の直進成分153と仮想カメラ151を中心とした回転成分154の和と見做すことができる。このため、点Pと点Qの間には、実施の形態2において示した数式(9)、数式(10)及び数式(11)が成立する。
数式(9)と数式(11)とを数式(5)に代入し、また、数式(9)と数式(11)とを数式(6)に代入することで、オプティカルフローのベクトル155を算出することが可能である。このようにして算出したオプティカルフローのベクトル155により、第3の実施形態と同様に、車載情報画像に対する運動効果を決定することが可能である。
以上のように、第4の実施形態に係る情報表示装置である車載情報表示装置30dでは、自車両5の周囲の所定の検出範囲7に車載情報の画像の対象となる歩行者1等の存在が検出される。この検出により生成された検出情報の中に車載情報の画像の対象がある場合には、自車両5のオプティカルフローが算出されることにより当該車載情報の画像に対する運動効果が決定される。自車両5のオプティカルフローは、速度センサ14及びヨーレートセンサ15により出力された値に基づいて導出される。この決定された運動効果が車載情報の画像に付与された車載情報の画像が自車両5の表示部90に表示される。
従って、第4の実施形態に係る情報表示装置である車載情報表示装置30dは、車両の走行状態に影響を受けず、運転者が煩わしさを感じずに気付き易く車載情報を表示することができる。また、第4の実施形態の車載情報表示装置30dは、予め設定された対象車載情報2800に基づいて、車両の周囲に運転者に対して通知させる必要のある車載情報の対象が見つかるか否かを高精度に判定することができる。また、導出されたオプティカルフローの水平成分及び鉛直成分の絶対値により、車両が直進している場合又は回転している場合のいずれであるのかを高精度に判定することができる。また、車両に備え付けられている速度センサ14及びヨーレートセンサ15等により出力された速度情報及び回転速度情報に基づいて、車両の走行方向のオプティカルフローを算出することができる。また、運転者は、車載情報の画像の表示する軌道が予測し易くなり、当該画像の表示に気付いた後でさえ表示内容を容易に理解することができる。また、導出されたオプティカルフローのベクトル主体成分と交差する方向に車載情報の画像が周期的に運動するため、運転者は、車載情報の画像の表示する軌道がより予測し易くなり、当該画像の表示に気付いた後でさえ表示内容を容易に理解することができる。また、導出されたオプティカルフローのベクトル主体成分と交差する方向に車載情報の画像が周期的に運動するため、運転者は、車載情報の画像の表示に気づいた後の視線の移動量を小さくすることができると共に、更に表示内容を容易に理解することができる。
以上、図面を参照しながら各種の実施形態について説明したが、本発明の情報表示装置はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。例えば、前述した各実施形態は、適宜、組み合わせて構成することにより、車両の走行状態に影響を受けず、運転者が気付き易く、かつ運転者に煩わしさを与えにくい情報表示を実現することができる。
なお、速度センサ14とヨーレートセンサ15を用いた第4の実施形態では、カメラ8で撮影した画像がなくともオプティカルフローのベクトルを算出することができる。したがって、予め速度センサ14の出力値とヨーレートセンサ15の出力値の組み合わせに対するオプティカルフローのベクトルの水平成分であるx成分と、鉛直成分であるy成分と、当該x成分及びy成分で形成される角度とを、図16(a)に示すテーブルに予め記憶しておくことにより、当該テーブルに基づいてシンボル画像に対する運動効果の最適な運動方向を決定することができる。また、予めHUDの重畳領域が重なる路面の位置座標が分かる場合には、当該位置座標をもパラメータとして含んだ図16(b)のテーブルに基づいてシンボル画像に対する運動効果の最適な運動方向を決定してもよい。図16は、仮想カメラを用いた場合にオプティカルフローのベクトルの水平成分、鉛直成分のなす角度を求めるためのテーブルの一例を示す図である。同図(a)は、車速、角速度に対するオプティカルフローのベクトルの水平成分、鉛直成分のなす角度が関連付けられたテーブルを示す図である。同図(b)は、HUDの重畳領域が重なる路面の位置座標、車速、角速度に対するオプティカルフローのベクトルの水平成分、鉛直成分のなす角度が関連付けられたテーブルである。
また、運転者の眼球位置を特定し、カメラ8を基準とした座標系から運転者の眼球位置(又は左右の眼球位置の中点)を基準とした座標系に座標変換を行うことにより、運転者視点のオプティカルフローを算出してもよい。図24は、運転者の眼球位置を算出し、運転者の視点に応じたオプティカルフローを算出する情報表示システムのシステム構成を示す図である。運転者の眼球位置算出は、インカメラを用いた公知の測位技術を用いることにより可能である。また、画像の視点変換の技術も公知である。したがって、カメラ8で撮影した画像を運転者視点の画像に変換し、変換後の画像の中でHUDの表示領域と重なる部分のオプティカルフローを算出することが可能である。
更に、運転席のシートの位置及び角度を考慮してもよい。運転席のシートの位置及び角度によって、運転者から見たHUDの表示位置の背景(重畳領域)も変化する。したがって、シートの位置及び角度で決まる運転者の眼球位置を予めテーブルとして記録しておけば、シートの位置及び角度に連動して運転者の眼球位置が定まり、更にその眼球位置から見たHUDの表示領域の先にある路面上の位置のオプティカルフローのベクトルも算出することが可能である。
また、運転者に見やすいようにHUDの表示位置を手動又は自動で調整することも可能である。この場合に、図17に示すように、HUDの表示位置(設定位置)と、その表示位置を運転者から見たときの背景となる路面上の位置の関係を予めテーブルとして記録しておくことによって、HUDの表示位置が決まった時に当該テーブルに基づいてオプティカルフローのベクトルを算出することもできる。図17は、HUDの重畳領域が重なる路面の位置座標を設定するためのテーブルの一例を示す図である。
具体的には、例えば自車両5が直進している場合でも、表示位置の背景となる路面上の位置がより遠い場合にはオプティカルフローのベクトルの大きさが小さく、より近い場合にはベクトルの大きさが大きくなる。車両が右折又は左折しているときにも、直進時とはオプティカルフローのベクトルの方向が異なるが、ベクトルの大きさについては同様である。
また、前述した各実施形態においては、仮想カメラ151を含むカメラ8の光軸をZ軸と平行であるとして説明したが、カメラ8は俯角を持っても良い。その場合にも幾何学的な関係から同様にオプティカルフローを算出することが可能である。
また、自車両5の走行中にセンサ6a〜6d及びカメラ8が常時、動作を行っているものとして説明した。しかし、センサ6a〜6d及びカメラ8の動作は所定の速度以上の場合にのみ動作するようにしても良い。所定の速度とは、例えば、時速5km以上等である。また、センサ6a〜6d及びカメラ8は、自車両5のエンジンの始動と同時に動作を開始しても良いし、運転者により予め設定された動作条件を満たす速度のときのみ、動作するように設定しても良い。
また、前述した各実施形態では歩行者1が検出された例を説明した。しかし、自転車や車両が検出された場合も同様に、シンボル画像管理テーブルに登録された検出対象種別であれば、シンボル画像が選択され、表示画像が表示される。また、自車両5と特定の種別の物体との距離が所定の条件を満たす場合にのみ、検出情報種別として選択されるようにしても構わない。所定の条件とは、例えば、「自車両5と特定の種別の物体との距離が10[m]以下」等である。また、センサ6a〜6dは、自車両5の右左折の動作を検出し、例えば、右折中の場合には当該自車両5の右側で検出された接近物体のみを検出することも可能である。
なお、前述した各実施形態では歩行者1や自転車、車両等を検出して注意喚起する安全運転支援のアプリケーションの例を説明した。しかし、カーナビゲーション装置に表示される右折時の経路案内表示画像(図18)をシンボル画像として、経路案内アプリケーションに用いること等も可能である。図18は、経路案内の画像の一例を示す図である。この場合には、例えば右左折地点が近付いたらシンボル画像を振動させることで、運転者に煩わしさを感じさせずに右左折地点の接近に早期に気付かせることができる。
更には、運転情報(計器の情報、車両異常警報の情報等)、運転支援情報(走行環境の情報、標識の情報、視覚を補強するための情報、死角の情報、障害物警告の情報、車線逸脱や交通違反、居眠り等の警報、推奨速度の情報等)、車内環境情報(時計、エアコン、マルチメディアの情報等)、ナビゲーション情報(経路案内の情報、経済走行支援の情報等)等の表示情報についても同様に適用可能である。
また、前述した各実施形態ではオプティカルフローによるシンボル画像に付加する運動効果を水平方向又は鉛直方向のどちらかに決定される方法を説明した。しかし、例えば運転者から見た上〜下、左〜右、右上〜左下、左上〜右下の4方向の中でオプティカルフローの方向に最も垂直に近い方向に運動効果を付加する等、シンボル画像の運動方向の選択肢を細分化してもよい。また、付加する運動効果の方向の選択肢を更に細分化し、例えば図9に示すように、オプティカルフローのベクトル132が前述したx成分の方向となす角度をθとし、当該θの値に基づいて、オプティカルフローのベクトルに対して最も垂直に近い方向に運動効果を付加してもよい。
また、前述した各実施形態では、図19(a)に示すように、シンボル画像を単一の画像70として運動効果が付加されるものとして説明した。しかし、これまでシンボル画像70と捉えていた画像を、たとえば図19(b)に示すように、運転者に対して通知させる必要のある第1の画像71と、運転者に対する誘目性及び視認性を高めるための第2の画像(背景画像)72とから構成されてもよい。図19は、表示部に表示される表示画像の一例を示す図である。同図(a)は、シンボル画像のみの画像である。同図(b)は、シンボル画像と背景画像とで構成された画像である。この場合、第1の画像71と第2の画像72が同じ運動を行えば、運転者が気付けたとしても、第1の画像71は運動しているため、運転者の視認性が低下する。したがって、表示制御部37において、第2の画像72のみを運動を付加し、第1の画像71については運動効果を付加しないことにより、シンボル画像70の視認性を高めることができる。
また、前述した各実施形態では、オプティカルフローの算出をカメラ8により撮影された画像から行う方法と、速度センサ14及びヨーレートセンサ15の各出力値を組み合わせて算出する方法について説明したが、GPS(Global Positioning System)情報やステアリング、ウィンカ、自車両5の走行状態に基づいてオプティカルフローを推定しても良い。
また、前述した各実施形態では、運転者個人の視覚特性を考慮していないが、視覚特性には年齢差、個人差がある。例えば、運転者の年齢情報取得手段、年齢別視覚特性情報テーブルを設ければ、年齢による視覚特性(例えば視力、視野範囲、分光視感度、色コントラスト感度、輝度コントラスト感度等)に基づいて、特定の年齢によって比較的画像が見え易くなるような色、大きさを決定し、誘目のための運動効果をシンボル画像に付加することも可能である。更には、予め運転者個人の視覚特性が把握できていれば、運転者個人の視覚特性データに基づき、且つ運転者の状態に応じた画像表示を行うことにより、より各運転者個人に適した、気付き易く、かつ煩わしさを感じにくい表示になる。
なお、シンボル画像に付加する運動効果を時間の経過に応じて変化させても良い。例えば、シンボル画像の表示開始時刻からの時間の経過に応じて、シンボル画像の運動の振幅を大きく、周期を短くする等、運動効果を徐々に激しくなるよう変化させて表示することも可能である。
また、前述した各実施形態では、運動の振幅や周期が自車両5の速度によらず一律であるが、速度センサ14の出力値に応じて、例えば、自車両5の速度が大きくなるとシンボル画像の大きさを大きくし、又は当該シンボル画像に付加する運動効果の運動周期を短くする等、自車両5の速度に応じて当該シンボル画像の大きさ又は運動周期を変化させてもよい。
また、前述した各実施形態では、自車両5の車体の振動を考慮していないが、自車両5の車体の垂直方向の振動を検出することにより、自車両5の垂直方向の振動が大きい場合にはシンボル画像の振動の振幅を大きくすることも可能である。
また、第1の実施形態および及び第3の実施形態では、センサ6a〜6d及びカメラ8を情報表示装置30aに含めていない構成であるが、センサ6a〜6d及びカメラ8を情報表示装置30aに含めるようにしても良い。同様に、第2の実施形態および及び第4の実施形態では、速度センサ14及びヨーレートセンサ15を情報表示装置30bに含めていない構成であるが、速度センサ14及びヨーレートセンサ15を情報表示装置30bに含めるようにしても良い。また前述した各実施形態では、表示部90は情報表示装置30に含めていない構成として説明した。しかし、表示部90を情報表示装置30にそれぞれ含めるようにしても構わない。
なお、図28に示したシンボル画像管理テーブル40において、検出情報種別の形式はテキストデータであり、シンボル画像の形式はイメージデータであるが、これに限定されない。例えば、シンボル画像のイメージデータが他の記憶部に記憶されている場合、シンボル画像管理テーブル40は、検出情報種別と、更に、当該シンボル画像の記憶されている他の記憶部へのアクセスする際のアドレス等を記憶していても良い。
また、自車両5を基準とした検出物体の相対位置や相対速度の情報を活用すれば、距離や速度に応じて、相対距離が小さいほど表示画像の表示サイズを大きく、相対速度が大きいほど表示画像の表示サイズを大きくする等、表示画像の大きさを変えることも可能である。例えば、図20に示す表示倍率条件情報60を記憶部31に記憶させることにより、情報表示装置30は、自車両5と歩行者1等との相対距離に応じて、シンボル画像の表示倍率を決定し、表示することができる。図20では、自車両5と歩行者1等との相対距離が、A[m]未満の場合には、予め設定されている表示対象の画像の大きさの3倍の大きさで表示される。A[m]〜B[m]の場合には、2.0倍の大きさで表示され、B[m]〜C[m]の場合には、1.0倍(通常の大きさ)で表示される。
また、例えば自車両5と検出対象との相対距離が短くなるにつれて緑→黄→赤のように色相の異なるシンボル画像を割り当てたり、相対距離が短くなるにつれて明度の高いシンボル画像を割り当てたり、相対距離が短くなるにつれて彩度の高いシンボル画像を割り当てたり、輝度の高いシンボル画像を割り当てたりすることも可能である。また、自車両5と検出対象との相対距離と相対速度の値から算出したTTC(Time To Collision)の値によって異なるシンボル画像を割り当てても良い。また、例えば左から近付く自転車には右向き自転車のシンボル画像、右から近付く自転車には左向き自転車のシンボル画像を割り当てる等、自車両5に対する検出対象の相対位置に応じて異なるシンボル画像を用いてもよい。
また、本発明では、検出された注意対象に基づいてシンボル画像を選択するものとしたが、取得したカメラ画像から注意対象の部分をトリミングし、シンボル画像の代わりにトリミングした注意対象の画像をHUD上に表示させてもよい。
また、本発明では、HUDによって表示画像をフロントガラス越しの背景に重畳表示させる例を示したが、運転者前方に設置された不透過の小型のディスプレイに表示画像を表示させてもよい。
なお、本出願は、2009年12月10日出願の日本特許出願(特願2009−280559)に基づくものであり、その内容はここに参照として取り込まれる。
本発明にかかる情報表示装置及び情報表示方法は、車両に搭載される安全運転支援システムの一部となる装置又は方法として有用である。また、カーナビゲーション装置の一部として組み込んで経路案内画像をシンボル画像として使用する等、経路案内アプリケーションに用いることも可能である。
1 歩行者
5 自車両
6a〜6d センサ
7 検出範囲
8、2401 カメラ
9 撮影範囲
10a〜10e 情報表示システム
14 速度センサ
15 ヨーレートセンサ
20、70 シンボル画像
21 表示領域
22 フロントガラス
23 ルームミラー
30a〜30e 情報表示装置
31 記憶部
32 注意対象検出部
33 シンボル画像選択部
34a〜34e オプティカルフロー算出部
35 運動効果決定部
36 表示画像生成部
37 表示制御部
40 シンボル画像選択テーブル
50 運動効果決定テーブル
60 表示倍率条件情報
71 第1の画像
72 第2の画像
80 運転者
81 HUDユニット
82 HUDの射出光
83 視線
84 直線
85 路面
86 重畳領域
87 眼球位置
90 表示部
111、121、132、155 オプティカルフローのベクトル
131 レンズの中心
133 移動ベクトル
151 仮想カメラ
152 移動ベクトル
153 直進成分
154 回転成分
156 前景の任意の領域
2402 眼球位置算出部
2403 重畳領域算出部
2601 表示対象検出部
2602 表示画像選択部
2603 画像生成部
2800 対象車載情報
2900 運動効果条件情報

Claims (11)

  1. 車両周辺に存在する対象物を検出する第1のセンサを備える車両において用いられる情報表示装置であって、
    前記車両の前景のオプティカルフローのベクトル情報を算出するオプティカルフロー算出部と、
    前記オプティカルフローのベクトル情報において、ベクトルの水平成分の大きさがベクトルの鉛直成分の大きさより大きい場合には、前記第1のセンサによって検出された前記対象物に関するシンボル画像を表示する際に運転者に気付かせるための運動のパターンを示す第1の運動効果を決定し、前記ベクトルの水平成分の大きさが前記ベクトルの鉛直成分の大きさ以下である場合には、前記対象物に関するシンボル画像を表示する際に前記運転者に気付かせるための運動のパターンであって、前記第1の運動効果に対して垂直な方向の運動のパターンを示す第2の運動効果を決定する運動効果決定部と、
    前記対象物に関するシンボル画像を、決定された前記第1又は第2の運動効果に基づいて運動させて表示する表示部と、
    を備える情報表示装置。
  2. 前記オプティカルフロー算出部は、前記車両に備えられた第1のカメラによって撮影された複数の前景画像に基づいて前記オプティカルフローのベクトル情報を算出する、
    請求項1に記載の情報表示装置。
  3. 前記オプティカルフロー算出部は、前記車両に備えられた第2のセンサによって検出された速度情報及び回転速度情報に基づいて、前記前景のオプティカルフローのベクトル情報を算出する、
    請求項1に記載の情報表示装置。
  4. 前記第1の運動効果は前記シンボル画像を鉛直方向に振動させる縦振動であり、前記第2の運動効果は前記シンボル画像を水平方向に振動させる横振動である、
    請求項1に記載の情報表示装置。
  5. 決定された前記第1又は第2の運動効果は、前記シンボル画像を水平方向又は鉛直方向に運動させる振動方法であって、
    前記運動効果決定部は、前記オプティカルフローのベクトル情報に基づいて、前記シンボル画像の振動方法を決定する、
    請求項1に記載の情報表示装置。
  6. 決定された前記第1又は第2の運動効果は、前記シンボル画像を水平方向又は鉛直方向に運動させる伸縮方法であって、
    前記運動効果決定部は、前記オプティカルフローのベクトル情報に基づいて、前記シンボル画像の伸縮方法を決定する、
    請求項1に記載の情報表示装置。
  7. 注意対象である注意対象物を予め記憶する記憶部と、
    前記第1のセンサによって検出された前記対象物の情報と、前記記憶部に記憶された前記注意対象物の情報とを比較し、前記第1のセンサによって検出された対象物が前記記憶部に記憶された注意対象物であるか否かを判定する注意対象検出部と、
    前記注意対象検出部において、前記第1のセンサによって検出された対象物が前記注意対象物であると判定された場合に、前記第1のセンサによって検出された対象物に応じたシンボル画像を選択するシンボル画像選択部と、
    を更に備え、
    前記表示部は、前記運動効果決定部によって決定された前記運動効果に基づいて、前記シンボル画像を前記対象物に関する画像として表示する、
    請求項1に記載の情報表示装置。
  8. 前記車両は、前記車両の運転者の画像を撮影する第2のカメラを更に備え、
    前記情報表示装置は、前記第2のカメラによって撮影された前記運転者の画像に基づいて、前記運転者の視線方向を検出する検出部を更に備え、
    前記運動効果決定部は、前記オプティカルフローのベクトル情報のうち、前記視線方向を含む所定の領域と前記前景との重畳領域に含まれるベクトル情報に基づいて、前記所定の画像の運動効果を決定する、
    請求項1に記載の情報表示装置。
  9. 前記運動効果決定部は、前記オプティカルフローのベクトル情報において、ベクトルの大きさが所定の閾値以上である場合には、前記対象物に関する画像の運動効果を決定し、前記ベクトルの大きさが所定の閾値未満である場合には、前記対象物に関する画像の運動効果を付加しないことを決定する、
    請求項1に記載の情報表示装置。
  10. 車両周辺に存在する対象物を検出する第1のセンサを備える車両における情報表示方法であって、
    オプティカルフロー算出部は、前記車両の前景のオプティカルフローのベクトル情報を算出し、
    運動効果決定部は、前記オプティカルフローのベクトル情報において、ベクトルの水平成分の大きさがベクトルの鉛直成分の大きさより大きい場合には、前記第1のセンサによって検出された前記対象物に関するシンボル画像を表示する際に運転者に気付かせるための運動のパターンを示す第1の運動効果を決定し、前記ベクトルの水平成分の大きさが前記ベクトルの鉛直成分の大きさ以下である場合には、前記対象物に関するシンボル画像を表示する際に前記運転者に気付かせるための運動のパターンであって、前記第1の運動効果に対して垂直な方向の運動のパターンを示す第2の運動効果を決定し、
    表示部は、前記対象物に関するシンボル画像を、決定された前記第1又は第2の運動効果に基づいて表示する、
    情報表示方法。
  11. 車両周辺に存在する対象物を検出する第1のセンサを備える車両において用いられる情報表示装置であって、
    前記車両の前景のオプティカルフローのベクトル情報を算出するオプティカルフロー算出部と、
    前記オプティカルフローのベクトル情報において、ベクトルの大きさが所定の閾値以上である場合には、前記第1のセンサによって検出された前記対象物に関するシンボル画像を表示する際に運転者に気付かせるための運動のパターンを示す運動効果を決定し、前記ベクトルの大きさが所定の閾値未満である場合には、前記対象物に関する前記シンボル画像に対して前記運動効果を付加しないことを決定する運動効果決定部と、
    前記対象物に関するシンボル画像を、決定された前記運動効果に基づいて運動させて表示する表示部と、
    を備える情報表示装置。
JP2011545089A 2009-12-10 2010-12-08 情報表示装置及び情報表示方法 Expired - Fee Related JP5590684B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011545089A JP5590684B2 (ja) 2009-12-10 2010-12-08 情報表示装置及び情報表示方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009280559 2009-12-10
JP2009280559 2009-12-10
PCT/JP2010/007156 WO2011070783A1 (ja) 2009-12-10 2010-12-08 情報表示装置及び情報表示方法
JP2011545089A JP5590684B2 (ja) 2009-12-10 2010-12-08 情報表示装置及び情報表示方法

Publications (2)

Publication Number Publication Date
JPWO2011070783A1 JPWO2011070783A1 (ja) 2013-04-22
JP5590684B2 true JP5590684B2 (ja) 2014-09-17

Family

ID=44145342

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011545089A Expired - Fee Related JP5590684B2 (ja) 2009-12-10 2010-12-08 情報表示装置及び情報表示方法

Country Status (5)

Country Link
US (1) US8536995B2 (ja)
EP (1) EP2511893A4 (ja)
JP (1) JP5590684B2 (ja)
CN (1) CN102378998B (ja)
WO (1) WO2011070783A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180058417A (ko) * 2016-11-24 2018-06-01 현대자동차주식회사 차량 및 그 제어방법

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10018703B2 (en) * 2012-09-13 2018-07-10 Conduent Business Services, Llc Method for stop sign law enforcement using motion vectors in video streams
US9230501B1 (en) * 2012-01-06 2016-01-05 Google Inc. Device control utilizing optical flow
CN104160434A (zh) * 2012-03-12 2014-11-19 本田技研工业株式会社 车辆周围监视装置
JP5783155B2 (ja) 2012-10-05 2015-09-24 株式会社デンソー 表示装置
KR102118438B1 (ko) 2013-01-28 2020-06-04 한국전자통신연구원 차량용 헤드업 디스플레이 장치 및 그 방법
US9975483B1 (en) * 2013-02-08 2018-05-22 Amazon Technologies, Inc. Driver assist using smart mobile devices
US9514650B2 (en) * 2013-03-13 2016-12-06 Honda Motor Co., Ltd. System and method for warning a driver of pedestrians and other obstacles when turning
US9064420B2 (en) * 2013-03-14 2015-06-23 Honda Motor Co., Ltd. Augmented reality heads up display (HUD) for yield to pedestrian safety cues
JP6241762B2 (ja) * 2013-03-28 2017-12-06 パナソニックIpマネジメント株式会社 画像表示装置
TW201500735A (zh) * 2013-06-18 2015-01-01 Nat Applied Res Laboratories 行動式影像流速辨識之方法及其裝置
JP6032195B2 (ja) * 2013-12-26 2016-11-24 トヨタ自動車株式会社 センサ異常検出装置
KR20150087985A (ko) 2014-01-23 2015-07-31 한국전자통신연구원 안전운행정보 표출 장치 및 그 방법
JP6233599B2 (ja) 2014-02-25 2017-11-22 マツダ株式会社 車両用表示制御装置
JPWO2015128985A1 (ja) * 2014-02-27 2017-03-30 パイオニア株式会社 表示装置、制御方法、プログラム、及び記憶媒体
JP6273976B2 (ja) * 2014-03-31 2018-02-07 株式会社デンソー 車両用表示制御装置
US9626811B2 (en) 2014-06-19 2017-04-18 Atieva, Inc. Vehicle fault early warning system
US9495814B2 (en) * 2014-06-19 2016-11-15 Atieva, Inc. Vehicle fault early warning system
JP5935858B2 (ja) * 2014-11-18 2016-06-15 株式会社デンソー 表示装置
US10309797B2 (en) * 2014-12-19 2019-06-04 Here Global B.V. User interface for displaying navigation information in a small display
US9718405B1 (en) 2015-03-23 2017-08-01 Rosco, Inc. Collision avoidance and/or pedestrian detection system
JP2017003414A (ja) * 2015-06-10 2017-01-05 株式会社Jvcケンウッド レーザレーダ装置および検知方法
JP2019059245A (ja) * 2016-02-05 2019-04-18 マクセル株式会社 ヘッドアップディスプレイ装置及びその表示制御方法
CN108604412B (zh) * 2016-02-12 2021-02-12 三菱电机株式会社 信息显示装置及信息显示方法
JP6784058B2 (ja) * 2016-05-23 2020-11-11 株式会社リコー 情報表示装置
FR3056775B1 (fr) * 2016-09-29 2021-08-20 Valeo Vision Procede de projection d'images par un systeme de projection d'un vehicule automobile, et systeme de projection associe
FR3056490B1 (fr) * 2016-09-29 2018-10-12 Valeo Vision Procede de projection d'une image par un systeme de projection d'un vehicule automobile, et systeme de projection associe
KR102581779B1 (ko) 2016-10-11 2023-09-25 주식회사 에이치엘클레무브 교차로충돌방지시스템 및 교차로충돌방지방법
JP2018151940A (ja) * 2017-03-14 2018-09-27 株式会社デンソーテン 障害物検出装置および障害物検出方法
JP2019109656A (ja) * 2017-12-18 2019-07-04 東芝情報システム株式会社 軽車両・軽二輪車の情報管理システム
JP7077616B2 (ja) * 2017-12-28 2022-05-31 トヨタ自動車株式会社 表示制御装置および表示制御方法
JP2020013274A (ja) * 2018-07-17 2020-01-23 富士通株式会社 表示プログラム、表示装置及び表示方法
WO2020256764A1 (en) * 2019-06-17 2020-12-24 Google Llc Vehicle occupant engagement using three-dimensional eye gaze vectors
US11580833B2 (en) * 2020-03-24 2023-02-14 Object Video Labs, LLC Camera detection of human activity with co-occurrence
KR102347423B1 (ko) * 2020-03-25 2022-01-12 주식회사 만도모빌리티솔루션즈 차량 후측방 경보 장치 및 그 방법
US11292398B2 (en) * 2020-04-20 2022-04-05 Hyundai Mobis Co., Ltd. Apparatus for displaying forward blind spot situation
CN111767844B (zh) 2020-06-29 2023-12-29 阿波罗智能技术(北京)有限公司 用于三维建模的方法和装置
CN112925241A (zh) * 2021-01-25 2021-06-08 常州机电职业技术学院 一种汽车开关门自动响应系统及控制方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257378A (ja) * 2007-04-03 2008-10-23 Honda Motor Co Ltd 物体検出装置
JP2009017572A (ja) * 2008-08-04 2009-01-22 Mitsubishi Motors Corp ノーズビューモニタ装置
JP2009277021A (ja) * 2008-05-15 2009-11-26 Hitachi Ltd 接近物検出装置および接近物検出方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6727807B2 (en) * 2001-12-14 2004-04-27 Koninklijke Philips Electronics N.V. Driver's aid using image processing
US7266220B2 (en) * 2002-05-09 2007-09-04 Matsushita Electric Industrial Co., Ltd. Monitoring device, monitoring method and program for monitoring
US7190282B2 (en) * 2004-03-26 2007-03-13 Mitsubishi Jidosha Kogyo Kabushiki Kaisha Nose-view monitoring apparatus
JP4639921B2 (ja) * 2004-06-11 2011-02-23 日産自動車株式会社 運転支援装置
JP4899340B2 (ja) * 2004-08-02 2012-03-21 日産自動車株式会社 運転感覚調整装置及び運転感覚調整方法
JP4701773B2 (ja) 2005-03-24 2011-06-15 日産自動車株式会社 車両用表示装置及び方法
JP2009009446A (ja) * 2007-06-29 2009-01-15 Denso Corp 車両用情報表示装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257378A (ja) * 2007-04-03 2008-10-23 Honda Motor Co Ltd 物体検出装置
JP2009277021A (ja) * 2008-05-15 2009-11-26 Hitachi Ltd 接近物検出装置および接近物検出方法
JP2009017572A (ja) * 2008-08-04 2009-01-22 Mitsubishi Motors Corp ノーズビューモニタ装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180058417A (ko) * 2016-11-24 2018-06-01 현대자동차주식회사 차량 및 그 제어방법
US10220844B2 (en) 2016-11-24 2019-03-05 Huyndai Motor Company Vehicle and control method thereof

Also Published As

Publication number Publication date
WO2011070783A1 (ja) 2011-06-16
US8536995B2 (en) 2013-09-17
US20120235805A1 (en) 2012-09-20
EP2511893A4 (en) 2018-01-31
CN102378998A (zh) 2012-03-14
EP2511893A1 (en) 2012-10-17
CN102378998B (zh) 2014-12-10
JPWO2011070783A1 (ja) 2013-04-22

Similar Documents

Publication Publication Date Title
JP5590684B2 (ja) 情報表示装置及び情報表示方法
JP6485732B2 (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
US8692739B2 (en) Dynamic information presentation on full windshield head-up display
JP6379779B2 (ja) 車両用表示装置
JP2019011017A (ja) 表示システム、情報提示システム、表示システムの制御方法、プログラム、及び移動体
JP6968676B2 (ja) 車両用表示装置
JP6883759B2 (ja) 表示システム、表示システムの制御方法、プログラム、及び移動体
JP2009196630A (ja) 表示装置
JP6504431B2 (ja) 画像表示装置、移動体、画像表示方法及びプログラム
JP6876277B2 (ja) 制御装置、表示装置、表示方法及びプログラム
JP6796806B2 (ja) 表示システム、情報提示システム、表示システムの制御方法、プログラム、及び移動体
JP2013174667A (ja) 車両用表示装置
JP2019116229A (ja) 表示システム
JP2016107947A (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
JP7459883B2 (ja) 表示制御装置、ヘッドアップディスプレイ装置、及び方法
JP2019202589A (ja) 表示装置
JP2014234139A (ja) 車載表示装置およびプログラム
JP6814416B2 (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム
JP7223283B2 (ja) 画像処理ユニット及びそれを備えるヘッドアップディスプレイ装置
JP2021037916A (ja) 表示制御装置及び表示制御プログラム
JP2016176983A (ja) ヘッドアップディスプレイ装置及び表示方法
JP7434894B2 (ja) 車両用表示装置
JP2019206262A (ja) 表示装置
JP6726412B2 (ja) 画像表示装置、移動体、画像表示方法及びプログラム
JP7054483B2 (ja) 情報提供装置、情報提供方法及び情報提供用制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130423

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20140130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140304

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140725

R151 Written notification of patent or utility model registration

Ref document number: 5590684

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees