JP2006142897A - 車両用表示装置、および車両用表示装置の制御方法 - Google Patents
車両用表示装置、および車両用表示装置の制御方法 Download PDFInfo
- Publication number
- JP2006142897A JP2006142897A JP2004332935A JP2004332935A JP2006142897A JP 2006142897 A JP2006142897 A JP 2006142897A JP 2004332935 A JP2004332935 A JP 2004332935A JP 2004332935 A JP2004332935 A JP 2004332935A JP 2006142897 A JP2006142897 A JP 2006142897A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- occupant
- display
- display device
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims description 32
- 238000006073 displacement reaction Methods 0.000 claims abstract description 70
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 68
- 238000001514 detection method Methods 0.000 claims abstract description 38
- 210000001508 eye Anatomy 0.000 claims description 10
- 238000005259 measurement Methods 0.000 claims description 9
- 239000011521 glass Substances 0.000 abstract description 12
- 210000003128 head Anatomy 0.000 description 29
- 238000012937 correction Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 9
- 238000012546 transfer Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000003068 static effect Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000009530 blood pressure measurement Methods 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Landscapes
- Instrument Panels (AREA)
Abstract
【課題】乗員に提供する情報を車外風景に重畳させて表示する車両用表示装置において、表示情報と車外風景との間の変位を抑制するように情報の表示位置を補正する。
【解決手段】車両用表示装置100は、乗員が着座した状態で体圧測定を行い、人体データベース部104を検索して乗員の体格および着座姿勢を推定する。車両用表示装置100は、推定した体格および姿勢に類似する人の頭部振動伝達関数を読出し、車両運動の検出データを用いて、乗員の頭部(とくに眼球)運動の推定値を算出する。車両用表示装置100は、車両運動を示す検出データを用いて、車両の回転運動にともなうフロントガラスのピッチ方向(上下方向)の移動量を算出する。車両用表示装置100は、乗員の眼球位置およびフロントガラスの位置を用いて両者の相対変位を求め、相対変位の変化に起因する投影画像の相対移動をキャンセルするように、画像表示部109によってフロントガラスに投影する画像の位置を上記相対移動の向きと逆方向に移動させる。
【選択図】図1
【解決手段】車両用表示装置100は、乗員が着座した状態で体圧測定を行い、人体データベース部104を検索して乗員の体格および着座姿勢を推定する。車両用表示装置100は、推定した体格および姿勢に類似する人の頭部振動伝達関数を読出し、車両運動の検出データを用いて、乗員の頭部(とくに眼球)運動の推定値を算出する。車両用表示装置100は、車両運動を示す検出データを用いて、車両の回転運動にともなうフロントガラスのピッチ方向(上下方向)の移動量を算出する。車両用表示装置100は、乗員の眼球位置およびフロントガラスの位置を用いて両者の相対変位を求め、相対変位の変化に起因する投影画像の相対移動をキャンセルするように、画像表示部109によってフロントガラスに投影する画像の位置を上記相対移動の向きと逆方向に移動させる。
【選択図】図1
Description
本発明は、車両のガラスなどに像を投影する車両用表示装置に関する。
車両のフロントガラスなどに光学像を投影する車両用表示装置において、車両の乗員の目の位置を検出し、検出位置に基づいて投影する画像を変更する技術が知られている(特許文献1参照)。特許文献1には、ルームミラーに配設した角度検出器による角度検出信号に基づいて乗員の目の位置を推定し、推定した目の位置に適した画像をフロントガラスに投影する技術が開示されている。
特許文献1に記載の技術は、乗員の目の位置を車両走行前の静的な初期位置として推定するものであり、実際の車両走行における車両の揺動に起因する乗員の頭部(とくに目)および車両間の相対変位の変動については考慮されていない。このため、静的状態で乗員の目に適した画像が投影されていても、車両が揺動するとフロントガラス越しに観察される外部前景とフロントガラスに投影される画像との間に位置ずれが生じ、表示が見づらく、表示内容も分かり難くなってしまう。
本発明は、車両の乗員の眼球位置を計測もしくは推定し、乗員の眼球位置情報を用いて、乗員に提供する情報を車外風景に重畳させて表示する表示手段によって重畳表示される情報と車外風景との間の変位を抑制するように、表示手段による情報の表示位置を補正するものである。
本発明によれば、乗員に提供する情報を車外風景に重畳させて表示する表示手段が重畳表示する情報と車外風景との間の変位を抑制するように、表示手段による情報の表示位置を補正したので、車外風景と重畳表示される情報とが正しく重ねられる結果、乗員にとって見易く、分かり易い表示を行うことができる。
以下、図面を参照して本発明を実施するための最良の形態について説明する。
(第一の実施形態)
図1は、本発明の第一の実施形態による車両用表示装置の構成を説明する図である。図1において、車両用表示装置100は、眼球初期位置推定部101と、車両運動検出部102と、座面圧力検出部103と、人体データベース部104と、乗員運動推定部105と、表示画像生成部106と、制御部107と、画像変位部108と、画像表示部109とを有する。車両の乗員である観察者(運転者)は、車両内の座席(不図示)に着座して画像表示部109によって表示される情報を観察する。
(第一の実施形態)
図1は、本発明の第一の実施形態による車両用表示装置の構成を説明する図である。図1において、車両用表示装置100は、眼球初期位置推定部101と、車両運動検出部102と、座面圧力検出部103と、人体データベース部104と、乗員運動推定部105と、表示画像生成部106と、制御部107と、画像変位部108と、画像表示部109とを有する。車両の乗員である観察者(運転者)は、車両内の座席(不図示)に着座して画像表示部109によって表示される情報を観察する。
眼球初期位置推定部101は、ルームミラー(不図示)の調節角度を検出する角度センサを含む。角度センサ(不図示)は、着座した乗員の運転姿勢に応じて向きが調節されたルームミラーの向きを示す角度検出信号を出力する。角度検出信号は、たとえば、左右方向(水平面内)の角度を示す信号、および上下方向(鉛直面内)の角度を示す信号によって構成される。眼球初期位置推定部101は、上記角度検出信号に基づいて乗員の眼球の静的な初期位置を推定し、推定した眼球の初期位置を示す情報を制御部107へ送出する。ここで、静的とは、車両が揺動しておらず、静止している状態に対応する。車両運動検出部102は、車両の並進運動および車両の回転運動をそれぞれ検出し、検出信号を乗員運動推定部105および制御部107の双方へ出力する。
座面圧力検出部103は、乗員が着座した座席上の体圧分布を検出し、検出信号を乗員運動推定部105へ出力する。人体データベース部104は、体圧分布と乗員の体格との関係を示すデータ、体圧分布と乗員の着座姿勢との関係を示すデータ、および車両揺動に対する人体頭部の振動伝達関数を示すデータをそれぞれ格納する。格納データは、あらかじめ体格が異なる複数の被験者に関して計測したデータがデータベース化されたものである。車両揺動は、車両運動の検出値によって示される。
乗員運動推定部105は、車両運動を示す検出信号、ならびに乗員による耐圧分布を示す検出信号を用いて、当該乗員の体格および姿勢と類似する人の頭部運動を示す情報を人体データベース部104から読み出し、乗員の頭部、とくに眼球の運動(変位)を推定する。乗員運動推定部105は、推定した眼球の変位を示す情報を制御部107へ送出する。
表示画像生成部106は、画面表示部109で表示すべき元の画像を生成し、生成した画像信号(表示データ)を画像変位部108へ送出する。制御部107は、乗員の眼球初期位置、車両運動および乗員の眼球の変位に基づいて、画像表示部109によって表示される画像の表示位置および画像の変位量を決定する。画像の変位量は、画像表示部109の表示画面内で画像の表示位置をリアルタイムに移動させる(画像シフトする)移動量である。制御部107は、画像の表示位置および変位量を決定する他に、車両表示装置100の各部を制御するように構成されている。
画像変位部108は、制御部107によって決定された表示位置および変位量にしたがって、画像表示部109による画像の表示位置が移動する(画像シフトする)ように表示データを加工する。データ加工後の表示データは、画像表示部109の入力インターフェイスに応じた表示信号として画像表示部109へ出力される。
画像表示部109は、インストルメントパネル内の表示体からフロントシールドガラスに光学像を投影するHUD(head up display)によって構成される。画像表示部109は、入力された表示信号による画像などをフロントガラスに投影表示する。
上述した車両用表示装置100の制御部107で行われる投影表示処理の流れについて、図2のフローチャートを参照して説明する。ステップS10において、制御部107は、画像表示部109の画面電源がオンされているか否かを判定する。制御部107は、画面電源がオンされている場合にステップS10を肯定判定してステップS20へ進み、画面電源がオンされていない場合にはステップS10を否定判定し、ステップS10の判定処理を繰り返す。
ステップS20において、制御部107は、眼球初期位置推定部101にルームミラー(不図示)の向きを示す角度を測定するように指令を出してステップS30へ進む。ステップS30において、制御部107は、角度検出信号に基づいて乗員の静的な眼球初期位置を推定するように眼球初期位置推定部101へ指令を出してステップS40へ進む。
ステップS40において、制御部107は、座面圧力検出部103に指令を出力し、乗員が着座している座席上の体圧分布を検出させて(体圧測定)ステップS50へ進む。ステップS50において、制御部107は、乗員運動推定部105に指令を出力し、乗員の体格および姿勢を推定させてステップS60へ進む。これにより、乗員運動推定部105が人体データベース部104を検索し、検出された体圧分布に最も近い体圧分布に対応する体格および姿勢を、乗員の体格および姿勢の推定値とする。
ステップS60において、制御部107は、車両運動検出部102に指令を出力し、車両の運動を検出させて(運動測定)ステップS70へ進む。これにより、車両運動検出部102が車両の並進運動および回転運動をそれぞれ検出する。ステップS70において、制御部107は、乗員の姿勢変化があるか否かを判定する。制御部107は、前回の姿勢推定値と今回の姿勢推定値とを比較し、両者が異なる場合にステップS70を肯定判定してステップS80へ進み、両者が一致する場合にはステップS70を否定判定してステップS90へ進む。
ステップS80において、制御部107は、乗員運動推定部105に指令を出力し、人体振動伝達関数を選択させてステップS90へ進む。これにより、乗員運動推定部105が人体データベース部104を検索し、現在推定されている乗員の体格・姿勢、ならびに最新の車両運動の検出値(振動特性)に対応する人体振動伝達関数をデータベースより選択する。なお、乗員の体格・姿勢および車両運動の検出値の少なくとも1つに応じて人体振動伝達関数を選択する構成としてもよい。
ステップS90において、制御部107は、乗員運動推定部105に指令を出力し、乗員の頭部の運動を推定させてステップS100へ進む。これにより、乗員運動推定部105が人体振動伝達関数、ならびに車両運動の検出値を用いて乗員の頭部(とくに眼球)運動の推定値を算出する。ステップS100において、制御部107は、車両運動を示す検出信号を用いて車両の回転運動にともなうフロントガラスの上下方向の移動量を算出し、ステップS110へ進む。この場合のフロントガラスの移動量は、画像表示部109による投影面の移動量に対応する。
ステップS110において、制御部107は、フロントガラスおよび眼球間の相対変位を算出し、ステップS120へ進む。ステップS120において、制御部107は、フロントガラスの上下移動量および上記相対変位を用いて、フロントガラスに投影表示されている画像を乗員の視線上で前方風景(目標物)と一致させる(重畳させる)ために必要な投影画像の変位量を算出し、ステップS130へ進む。
ステップS130において、制御部107は、算出した画像変位量を示す情報を画像変位部108へ送るとともに、画像シフトを行うように指令を出力してステップS140へ進む。これにより、画像変位部108が表示画像生成部106から入力された表示データに対し、上記変位量に応じて表示データを加工する。
ステップS140において、制御部107は、画像表示部109へ指令を送り、加工後の表示データによる画像を投影表示させてステップS150へ進む。これにより、フロントガラスの投影面を移動した画像が投影表示される。ステップS150において、制御部107は、画像表示部109の画面電源がオフされたか否かを判定する。制御部107は、画面電源がオフされた場合にステップS150を肯定判定し、図2による処理を終了する。一方、制御部107は、画面電源がオフされていない場合にはステップS150を否定判定し、ステップS20へ戻って上述した処理を繰り返す。
投影画像シフトの詳細について説明する。車両の加減速にともなうピッチ方向の回転運動について着目する場合、乗員の眼球とフロントガラスとの相対位置の変位は、次の2つに大別される。
〔1〕車両側に生じるピッチ動(上下動)に起因するもの
〔2〕乗員側(とくに眼球)に生じるピッチ動(上下動)に起因するもの
〔1〕車両側に生じるピッチ動(上下動)に起因するもの
〔2〕乗員側(とくに眼球)に生じるピッチ動(上下動)に起因するもの
上記〔1〕について、投影画像と前景目標物との位置ずれ(変位)を説明する図3(a)を参照して説明する。一般に、車両が減速すると車両の前部が沈むノーズダイブ現象が生じる。画像表示部109がフロントガラスに投影するHUDによって構成される場合は、乗員に対してフロントガラスが車両の進行方向に位置するので、ノーズダイブによってフロントガラスにピッチ方向(この場合下向き)の回転運動が生じる。このため、乗員の頭部(とくに眼球)の位置が移動しない場合には、乗員には投影画像が前方風景に対して下方に移動するように見える。
図3(b)は、前景(目標物)と重畳された投影画像を説明する図である。重畳像31は車両静止時の重畳像であり、重畳像32はノーズダイブ時の重畳像であり、重畳像33はスクワット時の重畳像である。制御部107は、ノーズダイブに起因して重畳像32において下方に相対移動する投影画像(図の例では☆印)の移動をキャンセルするように、投影画像を反対方向(この場合上向き)に変位させるための表示データ加工を行う。これにより、静止時の重畳像31と同様に、投影画像が前景目標物(図の例では直方体)と一致するようになる。
車両減速時のノーズダイブと反対に、車両が加速すると車両の後部が沈むスクワット現象が生じる。この場合はスクワットによってフロントガラスにピッチ方向(この場合上向き)の回転運動が生じる。このため、乗員の頭部(とくに眼球)の位置が移動しない場合には、乗員には投影画像が前方風景に対して上方に移動するように見える。制御部107は、スクワットに起因して重畳像33において上方に相対移動する投影画像(☆印)の移動をキャンセルするように、投影画像を反対方向(この場合下向き)に変位させるための表示データ加工を行う。これにより、静止時の重畳像31と同様に、投影画像が前景目標物(直方体)と一致するようになる。
上記〔2〕について、投影画像と前景目標物との位置ずれ(変位)を説明する図4(a)を参照して説明する。実際の車両減速時・加速時においては、乗員の頭部にもピッチ方向の回転運動が生じる。車両加速時に乗員の頭部が後方に回転すると、フロントガラスの位置が移動しない場合には乗員の頭部(とくに眼球)の相対位置が高くなるため、乗員には投影画像が前方風景に対して下方に移動するように見える。
図4(b)は、前景(目標物)と重畳された投影画像を説明する図である。重畳像41は車両静止時の重畳像であり、重畳像42は頭部後方回転時の重畳像であり、重畳像43は頭部前方回転時の重畳像である。制御部107は、頭部後方回転(相対位置が上方へ移動)によって重畳像42において下方に相対移動する投影画像(☆印)の移動をキャンセルするように、投影画像を反対方向(この場合上向き)に変位させるための表示データ加工を行う。これにより、静止時の重畳像41と同様に、投影画像が前景目標物(直方体)と一致するようになる。
車両加速時と反対に、車両が減速すると乗員の頭部が前方に回転する。フロントガラスの位置が移動しない場合には、乗員の頭部(とくに眼球)の相対位置が低くなるため、乗員には投影画像が前方風景に対して上方に移動するように見える。制御部107は、頭部前方回転(相対位置が下方へ移動)によって重畳像43において上方に相対移動する投影画像(☆印)の移動をキャンセルするように、投影画像を反対方向(この場合下向き)に変位させるための表示データ加工を行う。これにより、静止時の重畳像41と同様に、投影画像が前景目標物(直方体)と一致するようになる。
乗員頭部(とくに眼球)の上下動は、上述した頭部の回転の他に、乗員が座席上で上下に振動した場合にも生じる。制御部107は、この場合にも乗員の上下振動によって生じる投影画像(☆印)の相対移動をキャンセルするように、投影画像を反対方向に変位させるための表示データ加工を行う。
以上説明した第一の実施形態によれば、次の作用効果が得られる。
(1)乗員が着座した状態で体圧測定を行い、人体データベース部104を検索して乗員の体格および着座姿勢を推定するようにしたので、大人や子供、男性や女性などの個人差、ならびに着座姿勢にかかわらず、適切な人体頭部の振動伝達関数を選択することができる。
(1)乗員が着座した状態で体圧測定を行い、人体データベース部104を検索して乗員の体格および着座姿勢を推定するようにしたので、大人や子供、男性や女性などの個人差、ならびに着座姿勢にかかわらず、適切な人体頭部の振動伝達関数を選択することができる。
(2)上記(1)による振動伝達関数と、車両運動の検出データとを用いて、乗員の頭部(とくに眼球)運動の推定値を算出するので、乗員の頭部などに運動検出センサを設けなくても、乗員の眼球位置を得ることができる。乗員に検出センサを取り付けないので、コスト上昇が抑えられる上に、乗員に負担を与えることもない。
(3)車両運動を示す検出データを用いて、車両の回転運動にともなうフロントガラスのピッチ方向(上下方向)の移動量を算出するので、フロントガラスに運動検出センサを設けなくても、画像表示部109による投影画像の位置を得ることができる。
(4)上記(2)の眼球位置および上記(3)のフロントガラスの位置を用いて両者の相対変位を求めるので、それぞれが異なる運動状態であっても、両者間の変位を得ることができる。
(5)フロントガラスのピッチ方向(上下方向)の移動量、ならびに、上記(4)の相対変位の変化に起因する投影画像の相対移動をキャンセルするように、画像表示部109によってフロントガラスに投影する画像の位置を上記相対移動の向きと逆方向に移動させた(画像シフトした)ので、乗員にとってフロントガラス越しに見える前方風景に重畳される投影画像が、前景の目標物と一致して見えるようになる。投影画像が目標物と正しく重なった状態で観察されるため、乗員にとって見易く、分かり易い表示を行うことができる。
上述した人体データベース部104は、車両揺動に対する人体各部(とくに頭部)の振動の情報として伝達関数を示すデータを格納するようにした。この代わりに、実際に人体各部(とくに頭部)の振動特性を計測したデータをテーブル化して格納してもよい。具体的には、LUT(look up table)を構成し、車両の運動を示す値をLUTに入力すると、当該車両運動に対応する人体振動を示す値が推定値として当該LUTから出力されるようにする。
車両の回転運動にともなうフロントガラスの上下方向の移動量を実際に計測した数値モデル(車両挙動予測モデル)をテーブル化してもよい。この場合には、車両の運動を示す値をLUTに入力すると、当該車両運動に対応するフロントガラスの上下方向の移動量を示す値が推定値として当該LUTから出力されるようにする。
以上の説明では、車両および乗員頭部のピッチ動(上下動)に起因する前方風景(目標物)と投影画像との間の位置ずれ(変位)の補正を中心に説明したが、車両および乗員頭部のロール、ヨー、左右動に起因する前景の目標物と投影画像との間の位置ずれ(変位)についても、同様の方法にて補正することができる。これにより、車両および乗員頭部の運動態様にかかわらず、投影画像が目標物と正しく重なった状態で観察されるように補正できるため、乗員にとって見易く、分かり易い表示を行うことができる。
(第二の実施形態)
図5は、本発明の第二の実施形態による車両用表示装置の構成を説明する図である。図5において、車両用表示装置200は、眼球位置計測部201と、車両運動検出部202と、乗員運動推定部203と、目標物距離算出部204と、表示画像生成部205と、制御部206と、画像変位部207と、画像表示部208とを有する。車両の乗員である観察者(運転者)は、車両内の座席(不図示)に着座して画像表示部208によって表示される情報を観察する。
図5は、本発明の第二の実施形態による車両用表示装置の構成を説明する図である。図5において、車両用表示装置200は、眼球位置計測部201と、車両運動検出部202と、乗員運動推定部203と、目標物距離算出部204と、表示画像生成部205と、制御部206と、画像変位部207と、画像表示部208とを有する。車両の乗員である観察者(運転者)は、車両内の座席(不図示)に着座して画像表示部208によって表示される情報を観察する。
眼球位置計測部201は、乗員の顔面を撮影するカメラ(不図示)を含む。眼球位置計測部201は、カメラで撮影した顔面画像のデータを用いて乗員の眼球の初期位置を算出し、算出した眼球の初期位置を示す情報を制御部206および乗員運動推定部203へそれぞれ送出する。
車両運動検出部202は、車両の並進運動および車両の回転運動をそれぞれ検出し、検出信号を乗員運動推定部203および制御部206の双方へ出力する。
乗員運動推定部203には人体振動応答モデル(振動特性データ)が格納されている。乗員運動推定部203は、車両運動を示す検出信号、眼球の初期位置を示す情報、および人体振動応答モデルを用いて、乗員の頭部運動、とくに動的な眼球位置を推定する。乗員運動推定部203は、推定した眼球の位置を示す情報を制御部206へ送出する。
目標物距離算出部204は、前方目標物までの距離を測定する。たとえば、車両の前方へ電波を送信し、この送信波と受信される目標物からの反射波との間の位相差に基づいて、目標物までの距離を算出する。目標物距離算出部204は、算出した距離を示す情報を制御部206へ送出する。
表示画像生成部205は、画面表示部208で表示すべき元の画像を生成し、生成した画像信号(表示データ)を画像変位部207へ送出する。制御部206は、乗員の眼球位置、および車両運動データに基づいて、画像表示部208によって表示される画像の表示位置および画像の変位量を決定する。制御部208は、画像の表示位置および変位量を決定する他に、車両表示装置200の各部を制御するように構成されている。
画像変位部207は、制御部206によって決定された表示位置および変位量にしたがって、画像表示部208による画像の表示位置が移動する(画像シフトする)ように表示データを加工する。データ加工後の表示データは、画像表示部208の入力インターフェイスに応じた表示信号として画像表示部208へ出力される。
画像表示部208はHUDによって構成され、入力された表示信号による画像などをフロントガラスに投影表示する。
上述した車両用表示装置200の制御部206で行われる投影表示処理の流れについて、図6のフローチャートを参照して説明する。ステップS210において、制御部206は、画像表示部208の画面電源がオンされているか否かを判定する。制御部206は、画面電源がオンされている場合にステップS210を肯定判定してステップS220へ進み、画面電源がオンされていない場合にはステップS210を否定判定し、ステップS210の判定処理を繰り返す。
ステップS220において、制御部206は眼球位置計測部201に対し、乗員の眼球の初期位置を算出するように指令を出してステップS230へ進む。ステップS230において、制御部206は、車両運動検出部202に指令を出力し、車両の運動を検出させて(運動測定)ステップS240へ進む。これにより、車両運動検出部202が車両の並進運動および回転運動をそれぞれ検出する。
ステップS240において、制御部206は、乗員運動推定部203に指令を出力し、乗員の頭部の運動を推定させてステップS250へ進む。これにより、乗員運動推定部203が乗員の眼球の初期位置、車両運動の検出値、ならびに人体振動応答モデルを用いて乗員の動的な眼球位置を推定する。
ステップS250において、制御部206は、動的な眼球位置の推定値(振動特性)とステップS220で算出された眼球の初期位置との偏差D1を算出してステップS260へ進む。ステップS260において、制御部206は|D1|>|D0|が成立するか否かを判定する。制御部206は、偏差D1の大きさが所定値D0の大きさより大の場合にステップS260を肯定判定してステップS270へ進み、偏差D1の大きさが所定値D0の大きさ以下の場合にはステップS260を否定判定し、ステップS280へ進む。
ステップS270において、制御部206は、乗員運動推定部203に人体振動応答モデルのパラメータを修正(補正)させてステップS280へ進む。これにより、乗員運動推定部203で推定される動的な眼球位置が補正される。
ステップS280において、制御部206は、目標物距離算出部204に指令を出力し、目標物までの距離を算出させてステップS290へ進む。ステップS290において、制御部206は、車両運動を示す検出信号を用いて車両の回転運動にともなうフロントガラスの上下方向の移動量を算出し、ステップS300へ進む。この場合のフロントガラスの移動量は、画像表示部208による投影面の移動量に対応する。
ステップS300において、制御部206は、フロントガラスおよび眼球間の相対変位を算出し、ステップS310へ進む。ステップS310において、制御部206は、フロントガラスの上下移動量、上記相対変位および目標物までの距離を用いて、フロントガラスに投影表示されている画像を乗員の視線上で前方目標物と一致させる(重畳させる)ために必要な投影画像の変位量を算出し、ステップS320へ進む。
ステップS320において、制御部206は、算出した画像変位量を示す情報を画像変位部207へ送るとともに、画像シフトを行うように指令を出力してステップS330へ進む。これにより、画像変位部207が表示画像生成部205から入力された表示データに対し、上記変位量に応じて表示データを加工する。
ステップS330において、制御部206は、画像表示部208へ指令を送り、加工後の表示データによる画像を投影表示させてステップS340へ進む。これにより、フロントガラスの投影面を移動した画像が投影表示される。ステップS340において、制御部206は、画像表示部208の画面電源がオフされたか否かを判定する。制御部206は、画面電源がオフされた場合にステップS340を肯定判定し、図6による処理を終了する。一方、制御部206は、画面電源がオフされていない場合にはステップS340を否定判定し、ステップS220へ戻って上述した処理を繰り返す。
ステップS310による処理について、図7および図8を参照してさらに詳細に説明する。図7は、車両(フロントガラス)と乗員(眼球)との間の相対変位が0の場合を説明する図である。図7において、車両自体に上下動が生じ、乗員の眼球およびフロントガラスが一体として(相対変位0を保持しながら)上下方向に変位している。この場合、目標物と投影画像との間の位置ずれ(変位)を補正するために必要な補正量(画像シフト量)は、目標物が遠距離にあるほど小さくなり、目標物が近距離にあるほど大きくなる。制御部206は、このようにフロントガラスの上下移動量が検出され、フロントガラスおよび眼球間の相対変位が0もしくは0に近い場合には、目標物までの距離に反比例して補正量の大きさを変化させる。
図8は、車両(フロントガラス)と乗員(眼球)との間の相対変位が0でない場合を説明する図である。図8において、シート上で乗員(眼球)に上下動が生じ、乗員の眼球およびフロントガラス間に上下方向の相対変位が生じている。この場合、目標物と投影画像との間の位置ずれ(変位)を補正するために必要な補正量(画像シフト量)は、目標物が遠距離にあるほど大きくなり、目標物が近距離にあるほど小さくなる。目標物がフロントガラス位置の場合は、補正量は0でよい。制御部206は、このようにフロントガラスの上下移動量が0もしくは0に近く、フロントガラスおよび眼球間の相対変位が検出された場合には、目標物までの距離に比例して補正量の大きさを変化させる。なお、車両のピッチ動に対しては、目標物までの距離に関係なくピッチ動と同一量の補正を行う。
以上説明した第二の実施形態によれば、次の作用効果が得られる。
(1)フロントガラスの上下移動量、フロントガラスおよび眼球間の相対変位、目標物までの距離のそれぞれを用いて、フロントガラスに投影表示されている画像を乗員の視線上で前方目標物と一致させる(重畳させる)ために必要な投影画像の変位量(補正量)を算出するようにした。これにより、乗員にとってフロントガラス越しに見える前方風景に重畳される投影画像が、前景の目標物と常に正しく重なって見えるようになる。この結果、乗員にとって見易く、分かり易い表示を行うことができる。
(1)フロントガラスの上下移動量、フロントガラスおよび眼球間の相対変位、目標物までの距離のそれぞれを用いて、フロントガラスに投影表示されている画像を乗員の視線上で前方目標物と一致させる(重畳させる)ために必要な投影画像の変位量(補正量)を算出するようにした。これにより、乗員にとってフロントガラス越しに見える前方風景に重畳される投影画像が、前景の目標物と常に正しく重なって見えるようになる。この結果、乗員にとって見易く、分かり易い表示を行うことができる。
(2)眼球位置計測部201による眼球の初期位置を示す情報を、初期位置計測時(ステップS20)および人体振動応答モデルのパラメータを補正するための処理(ステップS50)のみに用いるようにした。したがって、カメラで撮影した顔面画像のデータを用いて眼球の初期位置を算出する処理にタイムラグが生じたとしても、投影画像の投影位置および移動量を制御する処理に遅延などの影響を及ぼすことがなく、リアルタイムに投影画像を変位(補正)制御できる。
(3)人体振動応答モデルのパラメータを補正可能に構成したので、人体振動応答に個人差があっても、各人の応答特性に応じたパラメータを適用することができる。
第二の実施形態では、フロントガラスの上下移動量(車両の動き)、フロントガラスおよび眼球間の相対変位(車両内における乗員の動き)、目標物までの距離のそれぞれを用いて、投影画像の補正量を決定したが、フロントガラスの上下移動量、フロントガラスおよび眼球間の相対変位、目標物までの距離の少なくとも1つを用いて投射画像を補正量を決定してもよい。
以上の説明では、車両のフロントシールドガラスに光学像を投影するHUDを例に説明したが、フロントガラスの代わりにリアガラスやサイドガラスなどに投影するものでもよい。
画像表示部は、上述したHUDの他に、風防ガラスの前方(外側)、後方(内側)もしくは風防ガラスと同一面に配設される透過型液晶ディスプレイや透過型スクリーンなどによって構成してもよい。
特許請求の範囲における各構成要素と、発明を実施するための最良の形態における各構成要素との対応について説明する。
(第一の実施形態)
車外風景は、たとえば、前方風景が対応する。表示手段は、たとえば、画像表示部109によって構成される。眼球位置検出手段は、たとえば、制御部107および乗員運動推定部105によって構成される。表示位置補正手段は、たとえば、制御部107および画像変位部108によって構成される。人体振動応答モデルは、たとえば、データベース部104によって構成される。なお、以上の説明はあくまで一例であり、発明を解釈する上で、実施形態の構成要素と本発明の構成要素との対応関係に何ら限定されるものではない。
(第一の実施形態)
車外風景は、たとえば、前方風景が対応する。表示手段は、たとえば、画像表示部109によって構成される。眼球位置検出手段は、たとえば、制御部107および乗員運動推定部105によって構成される。表示位置補正手段は、たとえば、制御部107および画像変位部108によって構成される。人体振動応答モデルは、たとえば、データベース部104によって構成される。なお、以上の説明はあくまで一例であり、発明を解釈する上で、実施形態の構成要素と本発明の構成要素との対応関係に何ら限定されるものではない。
(第二の実施形態)
車外風景は、たとえば、前方風景が対応する。表示手段は、たとえば、画像表示部208によって構成される。眼球位置検出手段は、たとえば、制御部206および乗員運動推定部203によって構成される。表示位置補正手段は、たとえば、制御部206および画像変位部207によって構成される。人体振動応答モデルは、たとえば、乗員運動推定部203内の格納データによって構成される。なお、以上の説明はあくまで一例であり、発明を解釈する上で、実施形態の構成要素と本発明の構成要素との対応関係に何ら限定されるものではない。
車外風景は、たとえば、前方風景が対応する。表示手段は、たとえば、画像表示部208によって構成される。眼球位置検出手段は、たとえば、制御部206および乗員運動推定部203によって構成される。表示位置補正手段は、たとえば、制御部206および画像変位部207によって構成される。人体振動応答モデルは、たとえば、乗員運動推定部203内の格納データによって構成される。なお、以上の説明はあくまで一例であり、発明を解釈する上で、実施形態の構成要素と本発明の構成要素との対応関係に何ら限定されるものではない。
100、200…車両用表示装置
101…眼球初期位置推定部
102、202…車両運動検出部
103…座面圧力検出部
104…人体データベース部
105、203…乗員運動推定部
106、205…表示画像生成部
107、206…制御部
108、207…画像変位部
109、208…画像表示部
201…眼球位置計測部
204…目標物距離算出部
101…眼球初期位置推定部
102、202…車両運動検出部
103…座面圧力検出部
104…人体データベース部
105、203…乗員運動推定部
106、205…表示画像生成部
107、206…制御部
108、207…画像変位部
109、208…画像表示部
201…眼球位置計測部
204…目標物距離算出部
Claims (6)
- 乗員に提供する情報を車外風景に重畳させて表示する表示手段と、
前記乗員の眼球位置を計測もしくは推定する眼球位置検出手段と、
前記眼球位置検出手段により検出された乗員の眼球位置情報を用いて、前記表示手段によって重畳表示される情報と前記車外風景との間の変位を抑制するように、前記表示手段による情報の表示位置を補正する表示位置補正手段とを備えることを特徴とする車両用表示装置。 - 請求項1に記載の車両用表示装置において、
車両の動きを検出する車両運動検出手段をさらに備え、
前記眼球位置検出手段は、前記車両運動検出手段による車両運動検出データおよび人体振動応答モデルを用いて前記乗員の眼球位置を推定し、
前記表示位置補正手段は、前記推定した乗員の眼球位置情報、および前記車両運動検出データもしくは車両挙動予測モデルを用いて、前記重畳表示される情報と前記車外風景との間の変位を予測することを特徴とする車両用表示装置。 - 請求項2に記載の車両用表示装置において、
前記人体振動応答モデルは、乗員の体格、着座姿勢、および実際に計測された車両の振動特性の少なくとも一つに応じて、前記モデルのパラメータが補正される、もしくは複数のモデルから1つのモデルが選択されることを特徴とする車両用表示装置。 - 請求項3に記載の車両用表示装置において、
前記表示位置補正手段は、前記車両の動き、前記車両内での前記乗員の動き、および前記車両から前記車外風景における所定の目標物までの距離の少なくとも一つを用いて、前記重畳表示される情報と前記車外風景との間の変位を補正することを特徴とする車両用表示装置。 - 請求項1〜4のいずれか一項に記載の車両用表示装置において、
前記表示手段は、風防ガラスの前方、後方、もしくは同一面に配設された透過型表示装置、もしくは、インストルメントパネル内の表示体から投影される表示情報を前記風防ガラスの反射体で反射させる投影表示装置によって構成されることを特徴とする車両用表示装置。 - 車両の乗員の眼球位置を計測もしくは推定によって取得し、
前記取得した乗員の眼球位置情報を用いて、乗員に提供する情報を車外風景に重畳させて表示する表示手段によって重畳表示される前記情報と前記車外風景との間の変位を抑制するように、前記表示手段による情報の表示位置を補正することを特徴とする車両用表示装置の制御方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004332935A JP2006142897A (ja) | 2004-11-17 | 2004-11-17 | 車両用表示装置、および車両用表示装置の制御方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004332935A JP2006142897A (ja) | 2004-11-17 | 2004-11-17 | 車両用表示装置、および車両用表示装置の制御方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006142897A true JP2006142897A (ja) | 2006-06-08 |
Family
ID=36623091
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004332935A Withdrawn JP2006142897A (ja) | 2004-11-17 | 2004-11-17 | 車両用表示装置、および車両用表示装置の制御方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006142897A (ja) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009095246A1 (fr) * | 2008-01-29 | 2009-08-06 | Johnson Controls Technoloy Company | Dispositif d'affichage, notamment pour vehicule automobile, et procede d'affichage |
WO2010061272A1 (en) * | 2008-11-25 | 2010-06-03 | Toyota Jidosha Kabushiki Kaisha | Vehicle display device and display method |
WO2010113788A1 (ja) * | 2009-03-30 | 2010-10-07 | 株式会社エクォス・リサーチ | 情報表示装置 |
JP2011240813A (ja) * | 2010-05-18 | 2011-12-01 | Toshiba Alpine Automotive Technology Corp | 車両用ディスプレイ装置及び車両用ディスプレイ方法 |
JP2014219682A (ja) * | 2014-06-23 | 2014-11-20 | 株式会社デンソー | 表示制御システム及びプログラム |
JP2016101805A (ja) * | 2014-11-27 | 2016-06-02 | パイオニア株式会社 | 表示装置、制御方法、プログラム、及び記憶媒体 |
JP2017149182A (ja) * | 2016-02-22 | 2017-08-31 | 株式会社デンソー | 車両用表示装置 |
WO2018063572A1 (en) * | 2016-10-01 | 2018-04-05 | Intel Corporation | Technologies for motion-compensated virtual reality |
WO2018088362A1 (ja) * | 2016-11-11 | 2018-05-17 | 日本精機株式会社 | ヘッドアップディスプレイ |
WO2018179724A1 (ja) * | 2017-03-31 | 2018-10-04 | パナソニックIpマネジメント株式会社 | 表示装置、及び表示装置を有する移動体 |
US10649207B1 (en) | 2017-06-30 | 2020-05-12 | Panasonic Intellectual Property Management Co., Ltd. | Display system, information presentation system, method for controlling display system, recording medium, and mobile body |
JP2020160340A (ja) * | 2019-03-27 | 2020-10-01 | パナソニックIpマネジメント株式会社 | 映像表示システム、映像表示方法、プログラム、及び、移動体 |
-
2004
- 2004-11-17 JP JP2004332935A patent/JP2006142897A/ja not_active Withdrawn
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009095246A1 (fr) * | 2008-01-29 | 2009-08-06 | Johnson Controls Technoloy Company | Dispositif d'affichage, notamment pour vehicule automobile, et procede d'affichage |
US8653961B2 (en) | 2008-11-25 | 2014-02-18 | Toyota Jidosha Kabushiki Kaisha | Vehicle display device and display method |
WO2010061272A1 (en) * | 2008-11-25 | 2010-06-03 | Toyota Jidosha Kabushiki Kaisha | Vehicle display device and display method |
CN102224443B (zh) * | 2008-11-25 | 2015-04-15 | 丰田自动车株式会社 | 车辆显示装置和显示方法 |
CN102224443A (zh) * | 2008-11-25 | 2011-10-19 | 丰田自动车株式会社 | 车辆显示装置和显示方法 |
CN102365187A (zh) * | 2009-03-30 | 2012-02-29 | 株式会社爱考斯研究 | 信息显示装置 |
EP2415625A4 (en) * | 2009-03-30 | 2018-03-14 | Equos Research Co., Ltd. | Information display apparatus |
US8558758B2 (en) | 2009-03-30 | 2013-10-15 | Equos Research Co., Ltd | Information display apparatus |
JP2010256878A (ja) * | 2009-03-30 | 2010-11-11 | Equos Research Co Ltd | 情報表示装置 |
WO2010113788A1 (ja) * | 2009-03-30 | 2010-10-07 | 株式会社エクォス・リサーチ | 情報表示装置 |
JP2011240813A (ja) * | 2010-05-18 | 2011-12-01 | Toshiba Alpine Automotive Technology Corp | 車両用ディスプレイ装置及び車両用ディスプレイ方法 |
JP2014219682A (ja) * | 2014-06-23 | 2014-11-20 | 株式会社デンソー | 表示制御システム及びプログラム |
JP2016101805A (ja) * | 2014-11-27 | 2016-06-02 | パイオニア株式会社 | 表示装置、制御方法、プログラム、及び記憶媒体 |
JP2017149182A (ja) * | 2016-02-22 | 2017-08-31 | 株式会社デンソー | 車両用表示装置 |
WO2018063572A1 (en) * | 2016-10-01 | 2018-04-05 | Intel Corporation | Technologies for motion-compensated virtual reality |
WO2018088362A1 (ja) * | 2016-11-11 | 2018-05-17 | 日本精機株式会社 | ヘッドアップディスプレイ |
JPWO2018088362A1 (ja) * | 2016-11-11 | 2019-10-03 | 日本精機株式会社 | ヘッドアップディスプレイ |
US11215819B2 (en) | 2016-11-11 | 2022-01-04 | Nippon Seiki Co., Ltd. | Head-up display |
WO2018179724A1 (ja) * | 2017-03-31 | 2018-10-04 | パナソニックIpマネジメント株式会社 | 表示装置、及び表示装置を有する移動体 |
JP2018172088A (ja) * | 2017-03-31 | 2018-11-08 | パナソニックIpマネジメント株式会社 | 表示装置、及び表示装置を備える移動体 |
US10754154B2 (en) | 2017-03-31 | 2020-08-25 | Panasonic Intellectual Property Management Co., Ltd. | Display device and moving body having display device |
US10649207B1 (en) | 2017-06-30 | 2020-05-12 | Panasonic Intellectual Property Management Co., Ltd. | Display system, information presentation system, method for controlling display system, recording medium, and mobile body |
JP2020160340A (ja) * | 2019-03-27 | 2020-10-01 | パナソニックIpマネジメント株式会社 | 映像表示システム、映像表示方法、プログラム、及び、移動体 |
JP7145509B2 (ja) | 2019-03-27 | 2022-10-03 | パナソニックIpマネジメント株式会社 | 映像表示システム、映像表示方法、プログラム、及び、移動体 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI642972B (zh) | 抬頭顯示系統及其控制方法 | |
JP4300818B2 (ja) | 車載表示装置および携帯表示装置 | |
US10976545B2 (en) | Display device and adjustment method | |
JP4702437B2 (ja) | 車両用表示装置 | |
JP6756327B2 (ja) | 姿勢検出装置、及び姿勢検出プログラム | |
JP5723106B2 (ja) | 車両用ディスプレイ装置及び車両用ディスプレイ方法 | |
JP2006142897A (ja) | 車両用表示装置、および車両用表示装置の制御方法 | |
JP2010018201A (ja) | 運転者支援装置、運転者支援方法および運転者支援処理プログラム | |
CN114025983B (zh) | 显示控制装置及方法、图像显示系统、移动体、记录介质 | |
US20210031776A1 (en) | Display control unit and non-transitory tangible computer readable storage medium | |
JP2019089354A (ja) | 表示制御装置、及び表示制御プログラム | |
JP2019148491A (ja) | 乗員監視装置 | |
JP4175167B2 (ja) | 車載情報提供装置 | |
CN115050089B (zh) | 校正装置、校正方法、行车记录仪、车辆以及存储介质 | |
JP4501518B2 (ja) | 車載情報提供装置および車載情報提供装置の制御方法 | |
CN117981297A (zh) | 显示控制装置、平视显示装置及显示控制方法 | |
JP4972959B2 (ja) | 画像情報提供装置、画像情報提供方法および画像情報提供装置付き車両 | |
JP2018084767A (ja) | 表示制御装置、制御方法、プログラム及び記憶媒体 | |
JP6813437B2 (ja) | 表示システム | |
JP7111655B2 (ja) | 挙動報知システム、挙動報知装置、挙動報知方法、及び挙動報知制御プログラム | |
JP2017149182A (ja) | 車両用表示装置 | |
JP2005306269A (ja) | 車載情報提供装置 | |
WO2021251117A1 (ja) | 表示システム、及び、振動検出システム | |
JP4311080B2 (ja) | 車載情報提供装置 | |
JP2021092609A (ja) | ウィンドシールド表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071029 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090907 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090915 |