JP2023050904A - 視認性情報取得装置の制御方法および視認性情報取得装置 - Google Patents

視認性情報取得装置の制御方法および視認性情報取得装置 Download PDF

Info

Publication number
JP2023050904A
JP2023050904A JP2021161259A JP2021161259A JP2023050904A JP 2023050904 A JP2023050904 A JP 2023050904A JP 2021161259 A JP2021161259 A JP 2021161259A JP 2021161259 A JP2021161259 A JP 2021161259A JP 2023050904 A JP2023050904 A JP 2023050904A
Authority
JP
Japan
Prior art keywords
identifier
visibility
display
subject
information acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021161259A
Other languages
English (en)
Inventor
大輔 根岸
Daisuke Negishi
英則 堀田
Hidenori Hotta
克典 岡嶋
Katsunori Okajima
峻平 大貫
Shumpei Onuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Yokohama National University NUC
Original Assignee
Suzuki Motor Corp
Yokohama National University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp, Yokohama National University NUC filed Critical Suzuki Motor Corp
Priority to JP2021161259A priority Critical patent/JP2023050904A/ja
Priority to PCT/JP2022/012970 priority patent/WO2023053517A1/ja
Priority to KR1020247007968A priority patent/KR20240035929A/ko
Priority to CN202280064035.4A priority patent/CN117980987A/zh
Publication of JP2023050904A publication Critical patent/JP2023050904A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】視点が移動する際に、現実空間の見え方に近い視認性を実現した仮想空間画像を生成可能にするために必要な情報を高い精度で取得できるようにする。【解決手段】視認性情報取得装置1では、表示制御部32が、被験者Sの前方の第1位置に第1識別子を表示させた後、第1位置に対して前後方向に間隔を空けた第2位置に第2識別子を表示させて、被験者Sの視点を第1位置から第2位置に移動させる。そして、表示制御部32が、遷移条件に従って第2識別子の表示状態を制御して、第2識別子の視認性を基準状態から該基準状態とは異なる目標状態に遷移させ、遷移中における第2識別子の視認性情報が情報取得部34により被験者Sから取得される。【選択図】図1

Description

本発明は、視認性情報取得装置の制御方法および視認性情報取得装置に関する。
例えば、特許文献1には、ユーザが視認する仮想空間画像をヘッドマウントディスプレイ(HMD:Head Mounted Display)に提供する仮想空間画像提供方法が開示されている。この仮想空間画像提供方法では、HMDの回転方向および回転速度が取得され、回転方向に対応する画面上の方向における仮想空間画像の両側の端部領域に、回転速度に応じた範囲および強さでぼかし処理が施されることにより、VR(Virtual Reality)酔いが低減されている。
特開2017-138701号公報
ところで、車両開発等においては、仮想空間画像上に評価対象となるオブジェクトを表示して、現実空間における該オブジェクトの視認性を評価する場合がある。この場合、仮想空間画像上に表示されるオブジェクトの見え方が、現実空間の見え方に近づくようにする必要がある。例えば、現実空間において、ユーザの視点が変化した直後や視野内の物体の配置または距離が変化した直後には、視点や物体の周辺領域がぼやけて見える。このような視点等の移動に伴う周辺領域のぼやけ方は、眼の焦点調整特性やユーザの状態、車両周辺の状態などに応じて、時間の経過とともに変化する。このため、仮想空間画像上にオブジェクトを表示して視認性を評価する際にも、上記のような現実空間でのぼやけ方の時間的な変化が再現されるようにするのが望ましい。
しかしながら、前述したような従来の技術では、HMDの回転速度に応じて仮想空間画像に施されるぼかし処理の範囲および強さが設定されているだけで、該設定された範囲に対して施されるぼかし処理の状態の時間的な変化までは考慮されていない。通常、画像データのぼかし処理は、画像処理を担うハードウェアの性能に応じた速度で実行され、眼の焦点調整速度よりも高速に、所望の強さでぼやけた状態の画像データが生成される。このため、従来の技術では、HMDの回転、つまりユーザの頭部の向きが変化して仮想空間画像上の視点が移動したときに、HMDに表示される仮想空間画像のぼやけ方の時間的な変化が現実空間の見え方とは異なってしまう。仮想空間画像に表示されるオブジェクトの視認性を現実空間の見え方に近づけるためには、現実空間でのぼやけ方の時間的な変化を正確に把握し得るような情報を取得して、該取得した情報を仮想空間画像のぼかし処理に反映させることが重要である。
本発明は上記の点に着目してなされたもので、視点が移動する際に、現実空間の見え方に近い視認性を実現した仮想空間画像を生成可能にするために必要な情報を高い精度で取得することができる視認性情報取得装置の制御方法および視認性情報取得装置を提供することを目的とする。
上記の目的を達成するため本発明の一態様は、被験者の前方の第1位置に第1識別子を表示するとともに、前記第1位置に対して前後方向に間隔を空けた第2位置に第2識別子を表示して、前記被験者の視点を前記第1位置から前記第2位置に移動させたときの前記第2識別子の視認性情報を取得する視認性情報取得装置の制御方法を提供する。この制御方法は、前記被験者の焦点が前記第1位置に合わされた状態となるように、前記第1位置に前記第1識別子を表示する第1表示ステップと、前記第2位置に前記第2識別子を表示して、前記被験者の視点を前記第1位置から前記第2位置に移動させる第2表示ステップと、予め設定した遷移条件に従って前記第2識別子の表示状態を制御して、前記第2識別子の視認性を基準状態から該基準状態とは異なる目標状態に遷移させる制御ステップと、前記第2識別子の視認性の基準状態から目標状態への遷移中における前記第2識別子の視認性情報を前記被験者から取得する取得ステップと、を含む。
本発明に係る視認性情報取得装置の制御方法によれば、被験者の視点が移動した際に、現実空間の見え方に近い視認性を実現した仮想空間画像を生成可能にするために必要な情報を高い精度で取得することができる。
本発明の一実施形態に係る視認性情報取得装置の構成を示す概念図である。 上記実施形態において現実空間に実現された表示部の一例を示す概念図である。 上記実施形態において仮想空間に実現された表示部の一例を示す概念図である。 上記実施形態において視点が遠ざかる方向に移動する場合の視認性情報の取得処理の一例を示すフローチャートである。 上記実施形態において視点が遠ざかる方向の移動する場合に仮想空間画像に表示される識別子の一例を示す図である。 上記実施形態において遷移条件に従って表示状態が制御される第2識別子の視認性の時間的な変化の一例を示すグラフである。 上記実施形態において視点が近づく方向に移動する場合の視認性情報の取得処理の一例を示すフローチャートである。 上記実施形態において視点が近づく方向に移動する場合に仮想空間画像に表示される識別子の一例を示す図である。 上記実施形態の視認性情報取得装置で取得された視認性情報を基に運転シミュレータシステムに好適な遷移条件を決定し、該遷移条件に従って仮想空間画像の表示制御を実施した一例を示す図である。
以下、本発明の実施の形態について添付図面を参照しながら詳細に説明する。
図1は、本発明の一実施形態に係る視認性情報取得装置の構成を示す概念図である。
図1において、本実施形態の視認性情報取得装置1は、例えば、表示部2と、情報処理部3とを備える。表示部2は、所定位置に着座した被験者Sの前方の第1位置に第1識別子を表示可能であり、かつ、第1位置に対して前後方向に間隔を空けた第2位置に第2識別子を表示可能である。第1位置および第2位置のそれぞれは、現実空間内の位置だけでなく、仮想空間内の位置を含む。本実施形態による表示部11は、例えば、現実空間に2つの表示装置を配置して実現してもよく、或いは、ヘッドマウントディスプレイ(HMD)等を利用して仮想空間に2つの表示領域を設定して実現してもよい。
図2は、現実空間に実現された表示部2の一例を示す概念図である。
図2において、表示部2は、被験者Sの前方の近い位置(以下、「近位置」とする)Pnに配置されたタブレット端末21と、被験者Sの前方の遠い位置(以下、「遠位置」とする)Pfに配置されたディスプレイ22とを有している。タブレット端末21およびディスプレイ22は、被験者Sの概ね正面にそれぞれ配置されている。タブレット端末21は、被験者Sの前方斜め下側で画面を被験者S側に向けて設置されている。タブレット端末21の画面には、略中央に位置する領域に識別子Inが表示される。ディスプレイ22は、被験者Sの視野内でタブレット端末21とは重ならない高さに設置されている。ディスプレイ22の画面には、略中央に位置する領域に識別子Ifが表示される。本実施形態では、被験者Sからタブレット端末21までの距離Dn(図1)が、例えば0.2mに設定されており、被験者Sからディスプレイ22までの距離Df(図1)が、例えば5mに設定されている。ただし、タブレット端末21およびディスプレイ22の配置は上記の一例に限定されない。
上記表示部2において、近位置Pnに配置されたタブレット端末21から遠位置Pfに配置されたディスプレイ22に被験者Sの視点を移動させる場合(以下、「遠ざかる方向の視点移動」とする)、近位置Pn、識別子Inおよびタブレット端末21が、本発明の第1位置、第1識別子および第1表示装置に相当するとともに、遠位置Pf、識別子Ifおよびディスプレイ22が、本発明の第2位置、第2識別子および第2表示装置に相当する。一方、遠位置Pfに配置されたディスプレイ22から近位置Pnに配置されたタブレット端末21に被験者Sの視点を移動させる場合(以下、「近づく方向の視点移動」とする)、遠位置Pf、識別子Ifおよびディスプレイ22が、本発明の第1位置、第1識別子および第1表示装置に相当するとともに、近位置Pn、識別子Inおよびタブレット端末21が、本発明の第2位置、第2識別子および第2表示装置に相当する。
図3は、仮想空間に実現された表示部2’の一例を示す概念図である。
図3において、表示部2’は、被験者Sの頭部に装着されたHMDに表示される仮想空間画像VR上で実現されている。仮想空間画像VRには、左右方向の中央部下側に第1領域21’が形成されているとともに、左右方向の中央部上側に第2領域22’が形成されている。第1領域21’および第2領域22’は、仮想空間において、奥行方向(被験者Sから見た前後方向)に間隔を空けた配置となるように設定されている。第1領域21’は、図2に示した現実空間におけるタブレット端末21の画面を仮想的に実現したものである。また、第2領域22’は、図2に示した現実空間におけるディスプレイ22の画面を仮想的に実現したものである。したがって、HMDに表示される仮想空間画像VRには、第1領域21’の奥行情報として、近位置Pn(被験者Sからの距離Dn)に対応する情報が設定されているとともに、第2領域22’の奥行情報として、遠位置Pf(被験者Sからの距離Df)に対応する情報が設定されている。第1領域21’の略中央には識別子Inが表示され、第2領域22’の略中央には識別子Ifが表示される。
図1に戻って、情報処理部3は、その機能ブロックとして、例えば、記憶部31と、表示制御部32と、報知部33と、情報取得部34と、条件変更部35とを備える。情報処理部3のハードウェア構成は、ここでは図示を省略するが、例えば、プロセッサ、メモリ、ユーザ入力インターフェースおよび通信インターフェースを含むコンピュータシステムを用いて構成されている。つまり、情報処理部3は、コンピュータシステムのプロセッサがメモリに格納されたプログラムを読み出して実行することによって、上記各ブロックの機能が実現される。
記憶部31は、被験者Sの視点が移動した際に、移動先の視点周辺領域に表示させる第2識別子(識別子InまたはIf)の視認性を基準状態から該基準状態とは異なる目標状態に遷移させる遷移条件を記憶している。視認性の基準状態は、所望の視認レベルを設定することができ、該視認レベルの高低を調整可能としてもよい。本実施形態では、視認性の目標状態が基準状態よりも高くなるように設定されている一例を説明する。ただし、視認性の基準状態および目標状態の設定は上記の一例に限定されるものではなく、基準状態よりも低い目標状態を設定することも可能である。上記遷移条件には、例えば、第2識別子の表示を継続する表示時間T、被験者Sの視点移動が完了してから第2識別子の視認性の状態遷移を開始するまでの遅延時間L、第2識別子の視認性の基準状態から目標状態への遷移に要する遷移時間α、および第2識別子の視認性を上昇させる際の上昇度合の時間的な変化を決める時間定数τなどが含まれている。また、記憶部31は、表示部2に表示させる識別子In,Ifの画像データを記憶している。さらに、記憶部31には、情報取得部34で取得される第2識別子の視認性情報なども記憶され蓄積される。なお、遷移条件は、予め記憶部31に記憶されていてもよく、或いは、図示しない外部装置から受信した遷移条件を一時的に記憶部31に記憶して表示制御部32出力してもよい。遷移条件、識別子In,Ifの画像データ、および第2識別子の視認性情報の詳細については後述する。
表示制御部32は、表示部2に第1識別子を表示させた後に第2識別子を表示させるとともに、記憶部31に記憶されている遷移条件に従って、第2識別子の表示状態を制御する。具体的に、遠ざかる方向の視点移動に対応した視認性情報が取得される場合、表示制御部32は、表示部2のタブレット端末21(または表示部2’の第1領域21’)に識別子Inを表示させた後に、表示部2のディスプレイ22(または表示部2’の第2領域22’)に識別子Ifを表示させ、該識別子Ifの表示状態を遷移条件に従って制御する。一方、近づく方向の視点移動に対応した視認性情報が取得される場合、表示制御部32は、表示部2のディスプレイ22(または表示部2’の第2領域22’)に識別子Ifを表示させた後に、表示部2のタブレット端末21(または表示部2’の第1領域21’)に識別子Inを表示させ、該識別子Inの表示状態を遷移条件に従って制御する。
第2識別子の視認性の状態は、例えば、第2識別子として表示する画像にぼかし処理を施すことで制御される。ぼかし処理は、画像データの情報量を変化させて当該画像がぼやけて見える状態にする処理である。言い換えると、ぼかし処理は、被験者Sが視覚を通して確認できる情報量を減らす画像処理である。具体的なぼかし処理の例としては、第2識別子として表示する画像について、情報量を減らす処理、解像度を下げる処理、または表示面積を段階的に小さくする処理、表示面積を段階的に大きくする処理、或いはこれら処理の組み合わせなどがある。処理の組み合わせの例として、表示面積を段階的に大きくする処理と表示面積を段階的に小さくする処理とを順番に、またはこれらを交互に行うことでピントが合っていない状態を再現し易くなる。したがって、第2識別子の視認性の基準状態は、例えばぼかし処理を施した後のピントが合っていないぼやけた状態であり、当該画像についてユーザUが視覚を通して確認できる情報量が少ない状態を表している。また、第2識別子の視認性の目標状態は、例えばぼかし処理を施す前のピントが合った状態であり、当該画像についてユーザUが視覚を通して確認できる情報量が多い状態を表している。
報知部33は、例えば、被験者Sに対して第1位置から第2位置への視点の移動を促すためのアラート音を、表示部2,2’または情報処理部3に設けられている図示しないスピーカ等を介して出力する。報知部33は、表示制御部32と連動してアラート音を生成する。具体的には、表示制御部32により表示部2に第1識別子が表示されてから所定の時間(例えば、2~5秒)が経過した後に、報知部33からアラート音が出力される。報知部33からアラート音が出力されるタイミングは、表示制御部32により表示部2,2’に第2識別子が表示されるタイミングと略一致している。なお、報知部33による被験者Sへの報知手段は、アラート音に限定されない。例えば、表示部2,2’に表示する画像上に、視点の移動を促す文字等を表示したり、実験管理者のかけ声で被験者Sの視点の移動を促す報知を行ったりしてもよい。また、事前に被験者Sに報知内容の意味を伝えておけば、第1位置から第2位置への移動を促す旨の情報を含んでいない報知が行われても構わない。
情報取得部34は、第2識別子の視認性の基準状態から目標状態への遷移中における第2識別子の視認性情報を被験者Sから取得する。第2識別子の視認性情報は、例えば、視認性が基準状態から目標状態に遷移する第2識別子の見え方を被験者Sが評価した結果を示す情報や、第2識別子の視認性の遷移中における被験者Sの焦点位置を図示しないセンサ等で検出した結果を示す情報などである。つまり、被験者Sによる第2識別子の見え方の評価結果を示す情報が、情報処理部3に接続されている図示しないユーザ入力インターフェースを介して情報取得部34に入力されるか、或いは、被験者Sの焦点位置を検出するセンサ等の出力信号が情報取得部34に入力され、該情報取得部34への入力情報が第2識別子の視認性情報として取得される。情報取得部34で取得された視認性情報は、対応する遷移条件と関連付けて記憶部31に記憶される。
条件変更部35は、情報取得部34で取得された第2識別子の視認性情報に基づいて、記憶部31に記憶されている遷移条件を変更する。条件変更部35により変更された遷移条件は、次回以降に視認性情報を取得する際に使用される。なお、条件変更部35は、必要に応じて設ければよく、省略することも可能である。
次に、本実施形態による視認性情報取得装置1の動作について説明する。ここでは、被験者Sの視点移動の方向(遠ざかる方向、近づく方向)ごとに具体例を挙げながら視認性情報の取得処理を詳しく説明する。
図4は、視点が遠ざかる方向に移動する場合の視認性情報の取得処理の一例を示すフローチャートである。また、図5は、視点が遠ざかる方向に移動する場合に表示部2’(仮想空間画像VR)に表示される識別子の一例を示す図である。
遠ざかる方向の視点移動の場合、本実施形態の視認性情報取得装置1では、まず図4のステップS10において、表示制御部32が、表示部2のタブレット端末21、または表示部2’の仮想空間画像VR上の第1領域21’に、識別子In(第1識別子)を表示させる。このとき表示される識別子Inとしては、例えば、被験者Sの視点を当該位置に固定しやすい「+」などの固視指標を用いるのが好ましい。図5の上段は、ステップS10の処理により、仮想空間画像VR上の第1領域21’に「+」の固視指標を用いた識別子Inが表示された状態を示している。なお、ステップS10の段階において、表示部2のディスプレイ22、または表示部2’の仮想空間画像VR上の第2領域22’に識別子Ifは表示されていない。被験者Sは、識別子Inが表示されたことにより該識別子Inを注視するようになり、被験者Sの焦点が近位置Pn(第1位置)に合わされた状態が形成される。
続くステップS20では、表示制御部32が、表示部2のディスプレイ22、または表示部2’の仮想空間画像VR上の第2領域22’に、識別子If(第2識別子)を表示させるとともに、報知部33が、被験者Sの視点移動を促すためのアラート音を出力する。ステップS20における識別子Ifの表示、およびアラート音の出力は、上記ステップS10における識別子Inの表示が完了した後、2~5秒程度の時間が経過するのを待って行われるようにするのがよい。このような待機時間を設けることで、被験者Sの焦点が近位置Pnに合わされた状態を確実に形成することができる。
ステップS20において表示される識別子Ifとしては、ランダム指標を用いるのが好ましい。ランダム指標は、例えば、複数の数字の中からランダムに選ばれた数字や、道路標識の画像、アイコン、文字などとすることが可能である。本実施形態では、0~5の6個の数字の中からランダムに選ばれた数字(ランダム指標)が識別子Ifとして使用される。図5の中段は、ステップS20の処理により、仮想空間画像VR上の第2領域22’に「0」のランダム指標を用いた識別子Ifが表示された状態を示している。ただし、この段階での識別子Ifの表示は、識別子Ifの視認性が基準状態、すなわち、ぼかし処理を施した後のピントが合っていないぼやけた状態である。このようなステップS20の処理により、被験者Sは、アラート音に反応して視点を近位置Pnから遠位置Pfに移動し、遠位置Pfに表示されているランダム指標を用いた識別子Ifを視認するようになる。
次のステップS30では、表示制御部32が、記憶部31に記憶されている遷移条件に従って識別子Ifの表示状態を制御し、識別子Ifの視認性を基準状態から目標状態(ピントが合った状態)に遷移させる。図5の下段は、視認性の遷移が完了して目標状態となった識別子Ifが仮想空間画像VR上の第2領域22’に表示されている状態を示している。
ステップS40では、情報取得部34が、識別子Ifの視認性の基準状態から目標状態への遷移中における識別子Ifの視認性情報を被験者Sから取得する。情報取得部34による識別子Ifの視認性情報の取得は、被験者Sによる識別子Ifの見え方の評価結果を示す情報がユーザ入力インターフェースを介して情報取得部34に入力されたり、被験者Sの焦点位置を検出するセンサ等の出力信号が情報取得部34に入力されたりすることによって行われる。
具体的に、被験者Sによる識別子Ifの見え方の評価は、例えば、次のような6段階の評価基準に沿って行われるようにしてもよい。
6:非常に読みやすい
5:読みやすい
4:苦労せずに読める
3:多少読みにくいが読める
2:やっと読める
1:読めない
被験者Sは、識別子Ifの視認性が基準状態から目標状態に遷移する間、該識別子Ifの見え方が上記6段階の評価基準のうちのいずれに該当するかを評価し、その評価結果を情報取得部34に入力する。情報取得部34への評価結果の入力は、識別子Ifの視認性の遷移中、遷移が完了した時、遷移が完了してから識別子Ifの表示が終了するまでの間のいずれのタイミングであってもよい。ただし、遷移が開始されてから少なくとも完了するまでの間における識別子Ifの視認性を評価した結果が情報取得部34に入力されるようにすれば、より正確な視認性情報が情報取得部34で取得できるようになる。
ここで、遷移条件について具体的に説明する。前述したように遷移条件は、第2識別子の表示を継続する表示時間T、被験者Sの視点移動が完了してから第2識別子の視認性の遷移を開始するまでの遅延時間L、第2識別子の視認性の基準状態から目標状態への遷移に要する遷移時間α、および第2識別子の視認性を上昇させる際の上昇度合の時間的な変化を決める時間定数τなどを含んでいる。表示時間Tは、例えば、1.0秒、0.5秒、0.35秒、0.25秒の4種類から選択した時間を遷移条件の1つとして設定することが可能である。遅延時間L、遷移時間α、および時間定数τについては、被験者Sの年齢、性別、視力、眼の健康度、開眼度、利き目などに関する条件や、現実空間または仮想空間の環境に関する条件等を考慮して適宜に設定することが可能である。
図6は、遠ざかる方向の視点移動において、遷移条件に従って表示状態が制御される第2識別子(識別子If)の視認性の時間的な変化の一例を示すグラフである。図6のグラフの縦軸は視認性Vの状態を表し、横軸は時間tを表す。縦軸の視認性Vの状態は、横軸との交点(原点)から離れるほど高くなる。視認性V=V0の状態が基準状態に対応し、V=V1の状態が目標状態に対応している。時間t=0は、被験者Sの視点移動が完了したタイミングを示している。
図6のグラフ中の実線は、遷移条件に従って表示状態が制御される第2識別子の視認性の時間的な変化を表している。ここでは、遷移条件の1つである時間定数τの値を0.1,0.2,0.3の3通りで変えた場合の一例が図6のグラフに示されている。第2識別子視認性の時間的な変化は、被験者Sの視点移動が完了してから所定の遅延時間Lが経過するまでの期間(ここでは、遅延時間L=0.2秒)、視認性が基準状態V0に維持され、その後に視認性が上昇し始める。時間t=0.2秒以降、第2識別子の視認性は、時間の経過に従って漸次変化して目標状態V1まで上昇する。遅延時間Lの経過後、目標状態V1への遷移が完了するまでに要する時間が遷移時間αである。
遷移時間αに亘る曲線Cは、第2識別子の視認性を目標状態V1に上昇させる際の当該視認性の時間的な変化を表しており、この曲線Cの形状が、例えば、次の(1)式に示す関数に従うようにすることによって、被験者Sの眼の焦点調整機能による焦点距離の時間的な変化に近づけることができる。
Figure 2023050904000002
上記(1)式において、tは、遷移を開始してからの時間[s]を表している。Fは、時間tでの焦点距離[m]を表している。Doは、視点移動開始時の焦点距離の逆数であるディオプター(diopter)を表している。Dtは、視点移動終了時の焦点距離の逆数であるディオプターを表している。eは、ネイピア数(自然対数の底)を表している。τは、時間定数を表している。図5のように視点が遠ざかる方向に移動する場合、視点移動開始時の焦点距離として被験者Sから近位置Pnまでの距離Dnを用いるとともに、視点移動終了時の焦点距離として被験者Sから遠位置Pfまでの距離Dfを用いることができる。この場合、上記(1)式におけるDoは1/Dnを意味し、Dtは1/Dfを意味する。
上記(1)式における焦点距離Fは、時間tでの視認性Vの状態に対応する。時間定数τは、遷移条件に合わせて設定され、時間定数τに応じて遷移時間αの長さ(曲線Cの形状)が変化する。図6の例では、時間定数τの値をτ=0.1としたときの遷移時間αよりもτ=0.2としたときの遷移時間α’の方が長くなり、該遷移時間α’よりもτ=0.3としたときの遷移時間α’’の方が更に長くなっている。このように、遷移条件の設定に応じて第2識別子の視認性の時間的な変化の仕方が変わるので、遷移条件の設定ごとに第2識別子の視認性情報を取得して比較することで、被験者Sが第2識別子を読み取りやすい遷移条件を判断することができるようになる。
なお、図6のグラフ中の破線は、上述したような従来の技術において仮想空間画像に施されるぼかし処理に対応した視認性の時間的な変化を表している。従来の技術では、仮想空間画像に施されるぼかし処理が、画像処理を担うハードウェアの性能に応じた速度で実行される。このため、視認性の基準状態V0から目標状態V1への遷移が、視点の移動と略同時の短期間で完了している。
また、遷移条件には、上記のような表示時間T、遅延時間L、遷移時間α、および時間定数τの他にも、例えば、視認性情報の取得を、図2に示したような現実空間で行うか、或いは、図3に示したような仮想空間で行うかの条件が設定されていてもよい。さらに、視認性情報の取得を仮想空間で行う場合には、ぼかし処理の有無や遅延時間Lの有無が遷移条件の1つとして設定されていてもよい。このように想定される被験者Sや環境などの条件を考慮して多様な遷移条件を設定することで、精度の高い視認性情報を取得できるようになる。
図4に戻って、ステップS50では、情報取得部34が、取得した識別子Ifの視認性情報を、それに対応する遷移条件と関連付けて、記憶部31に記憶する。これにより、遷移条件に従って識別子Ifの視認性の状態を遷移させたときの該識別子Ifの見え方に関する情報(視認性情報)が記憶部31に蓄積されるようになる。
ステップS60では、条件変更部35が、情報取得部34で取得された識別子Ifの視認性情報に基づいて、記憶部31に記憶されている遷移条件を変更する。この遷移条件の変更は、例えば、情報取得部34で取得された識別子Ifの視認性情報が前述した評価基準の2に該当しているような場合に、遷移条件として設定されていた表示時間Tや遅延時間Lなどを異なる値に変更して、次回以降に取得される視認性情報が改善されるようにする。条件変更部35による遷移条件の変更処理が完了すると、ステップS10に戻って、上記一連の処理が繰り返し実行される。なお、ここでは、取得された視認性情報に基づいて遷移条件を変更する一例を説明したが、互いに異なる複数の遷移条件を記憶部31に予め記憶させておき、複数の遷移条件を順番に切り替えながら視認性情報を取得するようにしてもよい。
次に、近づく方向の視点移動における視認性情報取得装置1の動作を説明する。
図7は、視点が近づく方向に移動する場合の視認性情報の取得処理の一例を示すフローチャートである。また、図8は、視点が近づく方向に移動する場合に表示部2’(仮想空間画像VR)に表示される識別子の一例を示す図である。
近づく方向の視点移動の場合、本実施形態の視認性情報取得装置1では、まず図7のステップS110において、表示制御部32が、表示部2のディスプレイ端末22、または表示部2’の仮想空間画像VR上の第2領域22’に、「+」の固視指標を用いた識別子If(第1識別子)を表示させる。図8の上段は、ステップS110の処理により、仮想空間画像VR上の第2領域22’に識別子Ifが表示された状態を示している。なお、ステップS110の段階において、表示部2のタブレット端末21、または表示部2’の仮想空間画像VR上の第1領域21’に識別子Inは表示されていない。被験者Sは、識別子Ifが表示されたことにより該識別子Ifを注視するようになり、被験者Sの焦点が遠位置Pf(第1位置)に合わされた状態が形成される。
続くステップS120では、表示制御部32が、表示部2のタブレット端末21、または表示部2’の仮想空間画像VR上の第1領域21’に、ランダム指標を用いた識別子In(第2識別子)を表示させるとともに、報知部33が、被験者Sの視点移動を促すためのアラート音を出力する。ステップS120における識別子Inの表示、およびアラート音の出力は、前述した遠ざかる方向の視点移動の場合と同様に、上記ステップS110における識別子Inの表示が完了した後、2~5秒程度の時間が経過するのを待って行われるようにするのがよい。
図8の中段は、ステップS120の処理により、仮想空間画像VR上の第1領域21’に「0」のランダム指標を用いた識別子Inが表示された状態を示している。ただし、この段階での識別子Inの表示は、識別子Inの視認性が基準状態、すなわち、ぼかし処理を施した後のピントが合っていないぼやけた状態である。このようなステップS120の処理により、被験者Sは、アラート音に反応して視点を遠位置Pfから近位置Pnに移動し、近位置Pnに表示されているランダム指標を用いた識別子Inを視認するようになる。
次のステップS130では、表示制御部32が、記憶部31に記憶されている遷移条件に従って識別子Inの表示状態を制御し、識別子Inの視認性を基準状態から目標状態(ピントが合った状態)に遷移させる。図8の下段は、視認性の遷移が完了して目標状態となった識別子Inが仮想空間画像VR上の第1領域21’に表示されている状態を示している。
ステップS140では、情報取得部34が、識別子Inの視認性の基準状態から目標状態への遷移中における識別子Inの視認性情報を被験者Sから取得する。情報取得部34による識別子Inの視認性情報の取得処理は、前述した遠ざかる方向の視点移動における識別子Ifの視認性情報の取得処理と同様にして行われる。近づく方向の視点移動の場合、前述した(1)式におけるDoは1/Dfを意味し、Dtは1/Dnを意味する。
ステップS150では、情報取得部34が、取得した識別子Inの視認性情報を、それに対応する遷移条件と関連付けて、記憶部31に記憶する。これにより、遷移条件に従って識別子Inの視認性の状態を遷移させたときの該識別子Inの見え方に関する情報(視認性情報)が記憶部31に蓄積されるようになる。
ステップS160では、条件変更部35が、情報取得部34で取得された識別子Inの視認性情報に基づいて、記憶部31に記憶されている遷移条件を変更する。条件変更部35による遷移条件の変更処理が完了すると、ステップS110に戻って、上記一連の処理が繰り返し実行される。
なお、前述した遠ざかる方向の視点移動における一連の処理(図4のステップS10~S60)と、近づく方向の視点移動における一連の処理(図7のステップS110~S160)とは、交互に繰り返して実行することも可能である。また、遷移条件が異なる複数のセットが所定の順番またはランダムに繰り返し実行されるようにしてもよい。例えば、遷移条件の異なる2つのセットが交互に実行されるようにすれば、一方のセットから他方のセットへ視点が移動する場合の視認性情報と、他方のセットから一方のセットへ視点が移動する場合の視認性情報とを取得することができ、所望の遷移条件を評価しやすくなる。
上記のようにして本実施形態の視認性情報取得装置1によって取得された視認性情報とそれに関連付けられた遷移条件に関する情報は、例えば、自動車等の車両開発における各種オブジェクトの視認性評価や車両運転の模擬体験などに利用される運転シミュレータシステムにおいて、ユーザの視点が移動した際に実施される仮想空間画像の表示制御などに活用できる。図9は、本実施形態の視認性情報取得装置1で取得された視認性情報を基に運転シミュレータシステムに好適な遷移条件を決定し、該遷移条件に従って仮想空間画像の表示制御を実施した一例を示している。
図9に示す仮想空間画像は、ユーザが装着するHMD等に表示される画像であって、ユーザが車両の運転席から見ることのできる仮想空間内の光景が表現されている。図示の例では、仮想空間画像は、車両を表すオブジェクトとして、ステアリングホイールの上部、ダッシュボードの上部、右側のフロントピラー、ルーフの前端部、ルームミラー、および右側のサイドミラー等を含んでいる。仮想空間画像の下部中央に表示されている数字の「8」は、ステアリングホイールの上端部付近の視認性を評価するためのオブジェクトである。また、仮想空間画像は、車外の静止物体を表すオブジェクトとして、道路、歩道、建物、および道路標識(一時停止)等を含んでいる。
図9の上段に示す仮想空間画像は、ユーザの視点(□印)がステアリングホイールの上端部付近に表示されている数字の「8」のオブジェクト上の近位置Pnにあり、図中の破線で囲んだ視点周辺領域Anの内側に位置するオブジェクトにピントが合い、視点周辺領域Anの外側に位置するオブジェクトにはピントが合っていないぼやけた状態となっている。図中の白抜き矢印は、ユーザの視点の移動方向を示しており、ここでは、ユーザの視点が近位置Pnから車両前方の左側歩道上に設置されている道路標識のオブジェクト上の遠位置Pfに移動する。なお、ユーザの視点を示す□印は、実際の仮想空間画像には表示されない。
ユーザの視点が近位置Pnから遠位置Pfに移動すると、視認性情報取得装置1で取得された視認性情報を基に決定した遷移条件に従って、移動先の視点周辺領域Af内のオブジェクトの表示状態が制御され、該オブジェクトの視認性がぼやけた状態(基準状態)からピントが合った状態(目的状態)に遷移する。図9の下段に示す仮想空間画像は、視認性の遷移が完了した状態を示している。また、図9の例では、移動先の視点周辺領域Af内におけるオブジェクトの視認性の遷移とは反対に、移動元の視点周辺領域An内におけるオブジェクトの視認性がピントの合った状態からぼやけた状態に遷移するように、該オブジェクトの表示状態が制御されている。
上記のように本実施形態の視認性情報取得装置1で取得された視認性情報を基に遷移条件を決定し、該遷移条件に従って運転シミュレータシステムにおける仮想空間画像の表示制御を行うようにすれば、車両開発等において、仮想空間画像上に表示したオブジェクトの現実空間における視認性を正確に評価することが可能になる。また、運転シミュレータシステムを利用して車両運転の模擬体験を行えば、ユーザに対してよりリアルな運転体験を提供できるようになる。
以上説明したように、本実施形態の視認性情報取得装置1では、表示制御部32が、被験者Sの前方の第1位置に第1識別子を表示させた後、該第1位置に対して前後方向に間隔を空けた第2位置に第2識別子を表示させて、被験者Sの視点を第1位置から第2位置に移動させる。そして、表示制御部32が、遷移条件に従って第2識別子の表示状態を制御して、前記第2識別子の視認性を基準状態から目標状態に遷移させ、遷移中における第2識別子の視認性情報が情報取得部34により被験者Sから取得される。これにより、被験者S(ユーザ)の視点が移動した際に、現実空間の見え方に近い視認性を実現した仮想空間画像を生成可能にするために必要な情報を高い精度で取得することができる。
また、本実施形態の視認性情報取得装置1では、第1識別子の表示から視認性情報の取得に至る一連の処理を1セットとし、互いに異なる遷移条件により複数セットが繰り返し実行される。これにより、多様な遷移条件に対応した視認性情報を容易に取得することができる。
また、本実施形態の視認性情報取得装置1では、第2識別子の表示時間Tが1秒以内に設定されている。眼の焦点調整機能において、視点が移動した際に移動先で焦点を合わせるのに要する時間は概ね1秒以内である。このような眼の性質を考慮して第2識別子の表示時間Tを設定することにより、第2識別子の視認性情報を取得するための一連の処理を効率的に行うことができる。
また、本実施形態の視認性情報取得装置1では、取得された視認性情報に基づいて遷移条件が変更される。これにより、多様な遷移条件を効率的に設定することができ、幅広い視認性情報を取得しやすくなる。
また、本実施形態の視認性情報取得装置1において、第1および第2識別子が第1および第2表示装置(タブレット端末21、ディスプレイ22)に表示されるようにすれば、HMD等の仮想空間表示装置を用意する必要がなくなり、低コストで視認性情報を取得することができる。さらに、被験者に対して視点の移動を促す報知(アラート音の出力)が行われるようにすれば、被験者Sの視点移動が確実に行われるようになり、より精度の高い視認性情報を取得することが可能になる。
以上、本発明の実施形態について述べたが、本発明は既述の実施形態に限定されるものではなく、本発明の技術的思想に基づいて各種の変形および変更が可能である。例えば、既述の実施形態では、被験者Sの視点移動が完了してから遅延時間Lが経過するまでの期間、第2識別子の視認性が基準状態に維持される一例を説明したが、遅延時間Lの間に視認性が微増するように第2識別子の表示状態を制御するようにしてもよい。
また、既述の実施形態では、第2識別子の視認性の基準状態から目標状態への遷移が(1)式の関数に従って行われる一例を示したが、任意の関数、或いは視認性の状態と焦点距離とを関連付けたマップなどに従って、第2識別子の視認性の状態遷移が行われるようにしてもよい。
第2識別子の視認性の状態遷移が(1)式に示した関数に従うようにした場合に、該(1)式のディオプターDo,Dtとして、既述の実施形態では、距離Dn,Dfの逆数を用いる一例を示したが、被験者Sから近位置Pnに表示される識別子Inまでの距離(焦点距離)の逆数や、被験者Sから遠位置Pfに表示される識別子Ifまでの距離(焦点距離)の逆数を、ディオプターDo,Dtとして用いるようにしてもよい。加えて、第2識別子の視認性の変化度合は、視点移動開始時の焦点距離と視点移動終了時の焦点距離との偏差に応じて変化させるようにすることも可能である。
さらに、既述の実施形態では、記憶部31、表示制御部32、報知部33、情報取得部34、および条件変更部35の各機能(ブロック)が1つの情報処理部3(コンピュータシステム)内で実現される一例を説明した。しかし、上記各機能を実現する対象(制御装置)は、単一または複数の対象(制御装置)とすることが可能である。また、上記各機能は、複数の情報処理装置にそれぞれ分散させて実現するようにしてもよい。
1…視認性情報取得装置
2,2’…表示部
3…情報処理部
21…タブレット端末
21’…仮想空間画像の第1領域
22…ディスプレイ
22’…仮想空間画像の第2領域
31…記憶部
32…表示制御部
33…報知部
34…情報取得部
35…条件変更部
An,Af…視点周辺領域
L…遅延時間
Pn…近位置
Pf…遠位置
S…被験者
V0…視認性の基準状態
V1…視認性の目標状態
VR…仮想空間画像
α…遷移時間
τ…時間定数

Claims (7)

  1. 被験者の前方の第1位置に第1識別子を表示するとともに、前記第1位置に対して前後方向に間隔を空けた第2位置に第2識別子を表示して、前記被験者の視点を前記第1位置から前記第2位置に移動させたときの前記第2識別子の視認性情報を取得する視認性情報取得装置の制御方法において、
    前記被験者の焦点が前記第1位置に合わされた状態となるように、前記第1位置に前記第1識別子を表示する第1表示ステップと、
    前記第2位置に前記第2識別子を表示して、前記被験者の視点を前記第1位置から前記第2位置に移動させる第2表示ステップと、
    予め設定した遷移条件に従って前記第2識別子の表示状態を制御して、前記第2識別子の視認性を基準状態から該基準状態とは異なる目標状態に遷移させる制御ステップと、
    前記第2識別子の視認性の基準状態から目標状態への遷移中における前記第2識別子の視認性情報を前記被験者から取得する取得ステップと、
    を含むことを特徴とする視認性情報取得装置の制御方法。
  2. 前記第1表示ステップ、前記第2表示ステップ、前記制御ステップ、および前記取得ステップを1セットとして複数セットを繰り返し実行し、
    前記複数セットのそれぞれは、前記制御ステップにおける前記遷移条件が互いに異なることを特徴とする請求項1に記載の視認性情報取得装置の制御方法。
  3. 前記複数セットのそれぞれは、前記第2識別子の表示時間が1秒以内に設定されていることを特徴とする請求項2に記載の視認性情報取得装置の制御方法。
  4. 前記取得ステップで取得した前記視認性情報に基づいて、次セットの前記制御ステップで用いる前記遷移条件を変更するステップを含むことを特徴とする請求項2または3に記載の視認性情報取得装置の制御方法。
  5. 前記第1表示ステップは、前記第1位置に配置される第1表示装置に前記第1識別子を表示し、
    前記第2表示ステップは、前記第2位置に配置される第2表示装置に前記第2識別子を表示するとともに、前記被験者に対して視点の移動を促す報知を行う、ことを特徴とする請求項1~4のいずれか1つに記載の視認性情報取得装置の制御方法。
  6. 被験者の前方の第1位置に第1識別子を表示するとともに、前記第1位置に対して前後方向に間隔を空けた第2位置に第2識別子を表示して、前記被験者の視点を前記第1位置から前記第2位置に移動させたときの前記第2識別子の視認性情報を取得する視認性情報取得装置において、
    前記第1位置に前記第1識別子を表示可能であり、かつ、前記第2位置に前記第2識別子を表示可能な表示部と、
    前記第2識別子の視認性を基準状態から該基準状態とは異なる目標状態に遷移させる遷移条件を記憶した記憶部と、
    前記表示部に前記第1識別子を表示させた後に前記第2識別子を表示させるとともに、前記記憶部に記憶されている前記遷移条件に従って、前記第2識別子の表示状態を制御する表示制御部と、
    前記被験者に対して視点の移動を促す報知部と、
    前記第2識別子の視認性の基準状態から目標状態への遷移中における前記第2識別子の視認性情報を前記被験者から取得する情報取得部と、
    を備えることを特徴とする視認性情報取得装置。
  7. 前記情報取得部で取得された前記視認性情報に基づいて、前記記憶部に記憶されている前記遷移条件を変更する条件変更部を備えることを特徴とする請求項6に記載の視認性情報取得装置。
JP2021161259A 2021-09-30 2021-09-30 視認性情報取得装置の制御方法および視認性情報取得装置 Pending JP2023050904A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2021161259A JP2023050904A (ja) 2021-09-30 2021-09-30 視認性情報取得装置の制御方法および視認性情報取得装置
PCT/JP2022/012970 WO2023053517A1 (ja) 2021-09-30 2022-03-22 視認性情報取得装置の制御方法および視認性情報取得装置
KR1020247007968A KR20240035929A (ko) 2021-09-30 2022-03-22 시인성 정보 취득 장치의 제어 방법 및 시인성 정보 취득 장치
CN202280064035.4A CN117980987A (zh) 2021-09-30 2022-03-22 视认性信息取得装置的控制方法和视认性信息取得装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021161259A JP2023050904A (ja) 2021-09-30 2021-09-30 視認性情報取得装置の制御方法および視認性情報取得装置

Publications (1)

Publication Number Publication Date
JP2023050904A true JP2023050904A (ja) 2023-04-11

Family

ID=85782155

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021161259A Pending JP2023050904A (ja) 2021-09-30 2021-09-30 視認性情報取得装置の制御方法および視認性情報取得装置

Country Status (4)

Country Link
JP (1) JP2023050904A (ja)
KR (1) KR20240035929A (ja)
CN (1) CN117980987A (ja)
WO (1) WO2023053517A1 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH045948A (ja) * 1990-04-24 1992-01-09 Nissan Motor Co Ltd 認知機能測定装置
JP2000245697A (ja) * 1999-03-04 2000-09-12 Nippon Hoso Kyokai <Nhk> 視機能測定装置および視機能測定用記憶媒体
JP6036291B2 (ja) * 2012-12-28 2016-11-30 セイコーエプソン株式会社 表示装置、表示システム、および、表示装置の制御方法
JP2017059196A (ja) * 2015-12-22 2017-03-23 株式会社コロプラ 仮想現実空間映像表示方法、及び、プログラム
JP6092437B1 (ja) 2016-02-02 2017-03-08 株式会社コロプラ 仮想空間画像提供方法、及びそのプログラム
US10740876B1 (en) * 2018-01-23 2020-08-11 Facebook Technologies, Llc Systems and methods for generating defocus blur effects
EP3530174A1 (en) * 2018-02-23 2019-08-28 Essilor International (Compagnie Generale D'optique) Method for altering the visual performance of a subject, method for measuring the spherical refraction correction need of a subject and optical system for implementing these methods
CN112806952B (zh) * 2020-12-31 2021-08-24 北京大学第三医院(北京大学第三临床医学院) 一种动态离焦曲线测试系统及其测试方法

Also Published As

Publication number Publication date
CN117980987A (zh) 2024-05-03
WO2023053517A1 (ja) 2023-04-06
KR20240035929A (ko) 2024-03-18

Similar Documents

Publication Publication Date Title
US9771083B2 (en) Cognitive displays
US10479202B2 (en) Vehicle display system and method of controlling vehicle display system
CN109849788B (zh) 信息提供方法、装置及系统
US20240087491A1 (en) Projection Method and Apparatus, Vehicle, and AR-HUD
JP2017030737A (ja) 車両用表示装置、および車両用表示方法
JP6796806B2 (ja) 表示システム、情報提示システム、表示システムの制御方法、プログラム、及び移動体
EP3575926A1 (en) Method and eye tracking system for providing an approximate gaze convergence distance of a user
JP2021140785A (ja) 注意に基づいた通知
CN114026603B (zh) 渲染计算机生成现实文本
CN112384883A (zh) 可穿戴设备及其控制方法
WO2023053517A1 (ja) 視認性情報取得装置の制御方法および視認性情報取得装置
WO2023053515A1 (ja) 仮想空間画像生成装置および方法
CN106095375B (zh) 显示控制方法和装置
Sudkamp et al. The role of eye movements in perceiving vehicle speed and time-to-arrival at the roadside
JP2007280203A (ja) 情報提示装置、自動車、及び情報提示方法
CN113960788B (zh) 图像显示方法、装置、ar眼镜及存储介质
WO2023053516A1 (ja) 仮想空間画像生成装置および方法
JP7261370B2 (ja) 情報処理装置、情報処理システム、情報処理方法、および、コンピュータプログラム
WO2021205430A1 (en) Generation and presentation of stimuli
JP2021056358A (ja) ヘッドアップディスプレイ装置
Ledezma Espino et al. Implementing a Gaze Tracking Algorithm for Improving Advanced Driver Assistance Systems
CN113360109A (zh) 车载显示方法、设备及车辆
WO2018139433A1 (ja) 車両用表示装置
EP3306373A1 (en) Method and device to render 3d content on a head-up display
JP2021160409A (ja) 表示制御装置、画像表示装置、及び方法