JP2022167200A - 表示装置、及び表示プログラム - Google Patents

表示装置、及び表示プログラム Download PDF

Info

Publication number
JP2022167200A
JP2022167200A JP2021072839A JP2021072839A JP2022167200A JP 2022167200 A JP2022167200 A JP 2022167200A JP 2021072839 A JP2021072839 A JP 2021072839A JP 2021072839 A JP2021072839 A JP 2021072839A JP 2022167200 A JP2022167200 A JP 2022167200A
Authority
JP
Japan
Prior art keywords
display
sight
line
user
blur
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021072839A
Other languages
English (en)
Inventor
敏行 田口
Toshiyuki Taguchi
拓 依田
Hiroshi Yoda
彩 兵藤
Aya Hyodo
豪軌 杉浦
Toshiki Sugiura
勝徳 山田
Katsunori Yamada
明弘 吉田
Akihiro Yoshida
克昌 西井
Katsumasa Nishii
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Central R&D Labs Inc
Original Assignee
Denso Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Central R&D Labs Inc filed Critical Denso Corp
Priority to JP2021072839A priority Critical patent/JP2022167200A/ja
Publication of JP2022167200A publication Critical patent/JP2022167200A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

【課題】本開示は、反射的な視線の移動を考慮して、表示対象の視認性を向上させることができる表示装置、及び表示プログラムを提供することを目的とする。【解決手段】表示装置は、表示対象が表示されている表示部を視認しているユーザの状況に関する状況情報を検出する検出部と、状況情報を用いて、ユーザの頭部の動揺を推定する頭部動揺推定部と、頭部の動揺を用いて、表示部の代表点と、ユーザの視線の位置と、の差分である視線ブレを推定する視線ブレ推定部と、視線ブレに応じて表示対象の間隔を制御して表示する表示制御部と、を備えている。【選択図】図2

Description

本発明は、表示装置、及び表示プログラムに関する。
近年、スマートフォン、タブレット、及びカーナビゲーション等のユーザによって携帯されることによって移動可能な表示装置が普及している。当該表示装置は、ユーザの頭部、及びモニタの相対的な位置の変化に応じて、モニタに表示されている文字の大きさ、画像の大きさ、及び表示位置を変えることによって、文字、及び画像等の視認性を向上させる技術が提案されている。
例えば、モニタとユーザの顔との位置に応じて文字の大きさを変更する技術が提案されている(特許文献1参照)。特許文献1に記載の技術では、カメラで撮影されたユーザの顔の画像からユーザの顔とモニタとの距離を算出し、当該距離に応じてユーザが視認している文字の表示サイズを変更している。
また、例えば、モニタとユーザの目との相対的な距離を検出して、当該距離に応じてモニタに表示されている画像の表示位置を変更する技術が提案されている(特許文献2参照)。特許文献2に記載の技術では、カメラによって撮影された画像からユーザの目の位置を検出し、当該位置に応じて、モニタに表示されている画像の表示位置を変更している。
また、例えば、車室内から乗員が視認可能な位置に画像を表示するモニタを備えた表示装置において、乗員の目とモニタとの相対変位を推定して、相対変位を打ち消すように表示されている画像の表示位置を変更する技術が提案されている(特許文献3参照)。特許文献3に記載の技術では、車両運動から乗員の頭部運動を推定し、当該頭部運動から乗員の目とモニタとの相対変位を推定し、相対変位に応じてモニタにおける画像の表示位置を変更している。
特開2006-023953号公報 特開2004-317813号公報 特許第5338054号公報
ところで、人間は、頭部が揺れても同一箇所を視認できるように、例えば、前庭動眼反射(VOR:Vestibulo Ocular Reflex)という生理機構を備えている。前庭動眼反射は、頭部が動いても視認していた対象がぶれないように、頭部動揺に応じて視線の位置を補正するように眼球が動く反射運動である。人間は、頭部が回転すると、前庭動眼反射によって眼球が頭部とは反対方向に同程度回転して、頭部が回転する前に視認していた対象を頭部が回転しても引き続き視認することができる。
特許文献1に記載の技術では、モニタとユーザの顔との位置を考慮するのに留まり、頭部動揺に伴う生理的な眼球運動が考慮されていないため、前庭動眼反射による反射的な視線の移動を考慮して、表示対象の視認性を向上できるとは限らなかった。
特許文献2に記載の技術では、ユーザの目とモニタとの相対的な距離を考慮するのに留まり、頭部動揺に伴う生理的な眼球運動が考慮されていないため、前庭動眼反射による反射的な視線の移動を考慮して、表示対象の視認性を向上できるとは限らなかった。
特許文献3に記載の技術では、車両におけるユーザの目とモニタとの相対変位をキャンセルするようにユーザの眼球の位置に応じて、モニタにおける画像の表示位置が変わり、ユーザの目とモニタとの相対的な位置が固定される。しかしながら、例えば、車両の振動によって、ユーザの頭部が動揺した場合、ユーザの眼球は、前庭動眼反射によって振動が起こる前に表示されていた位置を見ていることがある。したがって、ユーザの目の位置に応じて表示位置を変更することによって、ユーザが視認していた箇所と、画像の表示位置とがずれることがある。つまり、特許文献3に記載の技術では、前庭動眼反射による反射的な視線の移動を考慮して、表示対象の視認性を向上できるとは限らなかった。
本開示は、以上の事情を鑑みて成されたものであり、反射的な視線の移動を考慮して、表示対象の視認性を向上させることができる表示装置、及び表示プログラムを提供することを目的とする。
上記目的を達成するために、第1の態様に係る表示装置は、表示対象が表示されている表示部を視認しているユーザの状況に関する状況情報を検出する検出部と、状況情報を用いて、ユーザの頭部の動揺を推定する頭部動揺推定部と、頭部の動揺を用いて、表示部の代表点と、ユーザの視線の位置と、の差分である視線ブレを推定する視線ブレ推定部と、視線ブレに応じて表示対象の間隔を制御して表示する表示制御部と、を備えている。
また、第2の態様に係る表示装置において、検出部は、ユーザを撮影した撮影画像を取得し、状況情報として、撮影画像からユーザの位置、及びユーザの動作を検出する。
また、第3の態様に係る表示装置において、検出部は、状況情報として、ユーザが乗車している車両の振動を検出し、頭部動揺推定部は、車両の振動を用いて頭部の動揺を推定する。
また、第4の態様に係る表示装置において、頭部動揺推定部は、車両、及びユーザをバネマス質点系で近似した場合における車両の振動がユーザの頭部に伝搬する伝搬関数を用いて、振動による頭部の動揺を推定する。
また、第5の態様に係る表示装置において、検出部は、表示部の動揺をさらに検出し、視線ブレ推定部は、表示部の動揺を用いて視線ブレを推定する。
また、第6の態様に係る表示装置において、視線ブレ推定部は、ヨー方向、及びピッチ方向の少なくとも一方の視線ブレを推定する。
また、第7の態様に係る表示装置において、表示制御部は、間隔が視線ブレの大きさより大きくなるように制御する。
また、第8の態様に係る表示装置において、表示制御部は、予め定められた視線ブレの範囲において、表示対象の間隔を変更しない制御を行う。
一方、上記目的を達成するために、第9の態様に係る表示プログラムにおいて、表示対象が表示されている表示部を視認しているユーザの状況に関する状況情報を検出する検出ステップと、状況情報を用いて、ユーザの頭部の動揺を推定する頭部動揺推定ステップと、頭部の動揺を用いて、表示部の代表点と、ユーザの視線の位置と、の差分である視線ブレを推定する視線ブレ推定ステップと、視線ブレに応じて表示対象の間隔を制御して表示する表示制御ステップと、をコンピュータに実行させる。
第1の態様の表示装置、及び第9の態様の表示プログラムによれば、反射的な視線の移動を考慮して、視認性を向上させることができる。
また、第2の態様の表示装置によれば、現に検出したユーザの状況に基づいて、視線ブレを推定できる。
また、第3の態様の表示装置によれば、ユーザが検出できない場合であっても視線ブレを推定できる。
また、第4の態様の表示装置によれば、ユーザが検出できない場合であっても、頭部の動揺を推定できる。
また、第5の態様の表示装置によれば、表示部の動揺によって誘起される視線ブレが推定できる。
また、第6の態様の表示装置によれば、各々の方向の動揺に対応する視線ブレの大きさを推定できる。
また、第7の態様の表示装置によれば、隣接する表示対象の混同を抑制できる。
また、第8の態様の表示装置によれば、表示対象の重複が生じない許容可能な視線ブレ、及び表示部の表示領域の大きさを考慮して表示対象を表示できる。
各実施形態に係る表示装置のハードウェア構成の一例を示すブロック図である。 第1実施形態に係る表示装置の機能的な構成の一例を示すブロック図である。 各実施形態に係る視線ブレの推定の説明に供する生体反応の入出力の一例を示すブロック図である。 各実施形態に係る頭部の動揺の説明に供するユーザの頭部の一例を示す模式図である。 各実施形態に係る時間経過に伴う頭部の動揺と視線ブレとの関係の一例を示すグラフである。 各実施形態に係る表示の制御の説明に供する表示対象の一例を示す図である。 各実施形態に係る視線ブレと文字間隔との関係の一例を示すグラフである。 各実施形態に係る最小限の情報量の説明に供する表示対象の一例を示すブロック図である。 第1実施形態に係る表示処理の一例を示すフローチャートである。 第2実施形態に係る表示装置の機能的な構成の一例を示すブロック図である。 第2実施形態に係るバネマス質点系に近似したモデルの一例を示す模式図である。 第2実施形態に係る表示処理の一例を示すフローチャートである。
[第1実施形態]
以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。なお、本実施形態は、スマートフォン、又はタブレット等の携帯端末に表示装置が搭載されている形態について説明する。しかし、これに限定されない。表示装置は、パーソナルコンピュータ等の端末、又はサーバに搭載されていてもよいし、車載器、及びECU(Electronic Control Unit)を備える車両等の移動体に搭載されていてもよい。
図1を参照して、表示装置10の構成について説明する。図1は、表示装置10の構成の一例を示すブロック図である。図1に示すように、本実施形態に係る表示装置10は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、ストレージ14、入力部15、モニタ16、通信インターフェース(通信I/F)17、センサ18、及びカメラ19を含んで構成されている。CPU11、ROM12、RAM13、ストレージ14、入力部15、モニタ16、通信I/F17、センサ18、及びカメラ19の各々はバス20により相互に接続されている。
CPU11は、表示装置10の全体を統括し、制御する。ROM12は、本実施形態で用いる表示プログラムを含む各種プログラム及びデータ等を記憶している。RAM13は、各種プログラムの実行時のワークエリアとして用いられるメモリである。CPU11は、ROM12に記憶されたプログラムをRAM13に展開して実行することにより、表示対象の間隔を調節して表示する処理を行う。なお、本実施形態に係る表示対象は、文章等の複数の文字である。
ストレージ14は、一例としてHDD(Hard Disk Drive)、SSD(Solid State Drive)、又はフラッシュメモリ等である。なお、ストレージ14には、表示プログラム等を記憶してもよい。
入力部15は、文字等の入力を行うマウス、キーボード、及びタッチパネル等である。
モニタ16は、画像データ及び文字等を表示するモニタである。なお、モニタ16は「表示部」の一例である。
通信I/F17は、ネットワークを介して外部装置とデータの送受信を行う。
センサ18は、表示装置10の並進運動を検出する加速度センサ、及び回転運動を検出するジャイロセンサである。
カメラ19は、視対象を視認しているユーザを撮影するインカメラである。なお、本実施形態に係る視対象とは、表示装置10が備えるモニタ16である。
次に、図2を参照して、表示装置10の機能構成について説明する。図2は、本実施形態に係る表示装置10の機能的な構成の一例を示すブロック図である。
図2に示すように、表示装置10は、状況検出部31A、頭部動揺推定部32A、視対象動揺検出部33、視線ブレ推定部34、取得部35、及び表示制御部36を備えている。CPU11が表示プログラムを実行することで、状況検出部31A、頭部動揺推定部32A、視対象動揺検出部33、視線ブレ推定部34、取得部35、及び表示制御部36として機能する。なお、本実施形態に係る状況検出部31A、及び視対象動揺検出部33は、「検出部」の一例である。
状況検出部31Aは、表示対象(例えば、文字)が表示されている視対象(例えば、モニタ16)を視認しているユーザの状況に関する情報(以下、「状況情報」という。)を検出する。具体的には、状況検出部31Aは、カメラ19によって撮影された複数の撮影画像を取得して、状況情報として、ユーザの動作及び位置を検出する。例えば、撮影画像からユーザを示す特徴点を抽出して特徴点の変化量を検出することによって、状況情報としてユーザの動作及び位置が検出される。
なお、本実施形態に係る状況検出部31Aは、状況情報として、ユーザの動作及び位置を検出する形態について説明した。しかし、これに限定されない。ユーザの状況を示す情報であれば、如何なる情報を検出してもよい。例えば、ユーザが車両等の移動体に乗車している場合、状況情報として車両の振動を検出してもよいし、表示装置10がヘッドマウントディスプレイ等に搭載されている場合、状況情報としてヘッドマウントディスプレイの並進運動及び回転運動を検出してもよい。
頭部動揺推定部32Aは、検出した状況情報を用いて、ユーザの頭部の動揺(以下、「頭部動揺」という。)を推定する。具体的には、頭部動揺推定部32Aは、状況情報が示すユーザの動作からユーザの頭部の速度を算出し、ユーザの位置からユーザと、視対象と、の距離を算出する。頭部動揺推定部32Aは、頭部の速度、及びユーザと視対象との距離から頭部動揺の角速度を推定する。
視対象動揺検出部33は、ユーザが視認している視対象の動揺(例えば、振動、及び運動)を検出する。具体的には、視対象動揺検出部33は、表示装置10が備えるセンサ18を用いて視対象(表示装置10が備えるモニタ16)の並進運動、及び回転運動を検出し、視対象の動揺の角速度を検出する。
視線ブレ推定部34は、推定した頭部動揺、及び検出した視対象の動揺を用いて、視線ブレを推定する。ここで、視線ブレとは、ユーザが視認していた視対象の代表点(例えば、モニタ16の中心等)とユーザの視線の位置とのずれであり、換言すると、視線ブレは、視対象の代表点の位置を基準とした視対象上におけるユーザの視線の位置である。
具体的には、視線ブレ推定部34は、頭部動揺による視線の角度の変化量から前庭動眼反射によって生じる視線の角度の移動量、及び視機性眼球反応によって生じる視線の角度の移動量を差し引いて、ユーザの視線の位置を推定する。視線ブレ推定部34は、視線ブレとして、推定したユーザの視線の位置と、視対象の代表点の位置と、の差分を推定する。ここで、ユーザの視線の位置と視対象の代表点の位置との差分(視線ブレ)とは、例えば、ユーザの視線の位置と視対象の代表点の位置との距離である
ここで、一例として図3に示すように、ユーザの目は、頭部動揺が生じた場合、前庭動眼反射が誘起され、頭部動揺前に視認していた視対象を視認するために、頭部動揺とは反対方向に眼球運動を行う。なお、本実施形態に係る前庭動眼反射は、頭部動揺によって誘起されるフィードフォワード制御である。また、一例として図3に示すように、ユーザの目は、視認していた視対象の動揺が生じた場合、視機性眼球反応が誘起され、視線ブレを緩和するために視対象を追いかける眼球運動を行う。なお、本実施形態に係る視機性眼球反応は、視対象の動揺、及び前庭眼球反射による眼球運動によって誘起されるフィードバック制御である。
また、視線ブレ推定部34は、頭部動揺、及び視対象の動揺における方向を区別して視線ブレを推定する。一例として図4に示すように、視線ブレ推定部34は、頭部動揺、及び視対象の動揺において、ピッチ方向、及びヨー方向の各々の方向を識別して、ピッチ方向、及びヨー方向の各々の視線ブレを推定する。
ここで、同一の大きさの頭部動揺及び視対象の動揺であっても、ピッチ方向、及びヨー方向では、生じる視線ブレの大きさは異なっている。
一例として図5に示すように、ヨー方向の頭部動揺に対して、ヨー方向の視線ブレは、頭部動揺している方向とは反対方向に角速度が生じる。また、ピッチ方向の頭部動揺に対して、ピッチ方向の視線ブレも同様に頭部動揺している方向とは反対方向に角速度が生じる。一方、ヨー方向、及びピッチ方向の視線ブレの大きさを比較すると、ピッチ方向の視線ブレが、ヨー方向の視線ブレより大きくなる傾向がある。したがって、ヨー方向、及びピッチ方向の頭部動揺、及び視対象の動揺を識別することによって、各々の方向の視線ブレが精度よく推定される。
取得部35は、モニタ16に表示する複数の文字を表示対象として取得する。
表示制御部36は、推定した視線ブレに応じて表示対象の間隔を制御して、モニタ16に表示されている表示対象を表示する制御を行う。具体的には、表示制御部36は、各々の方向において、表示対象である隣接する文字の間隔が、視線ブレの大きさより大きくなるように調整する。表示対象の間隔は、以下の数式によって表される。
Figure 2022167200000002
Figure 2022167200000003
Figure 2022167200000004
Figure 2022167200000005
ここで、D’xは、調整後のx軸方向の文字間隔(字送り)であり、Kxは、x軸方向の文字間隔の制御係数であり、Dxは、調整前のx軸方向の文字間隔(字送り)である。また、Wxは、1文字当たりの字幅であり、Sxは、x軸方向の視線ブレの大きさである。また、D’yは、調整後のy軸方向の文字間隔(行送り)であり、Kyは、y軸方向の文字間隔の制御係数であり、Dyは、調整前のy軸方向の文字間隔(行送り)である。また、Wyは、1文字当たりの字高であり、Syは、y軸方向の視線ブレの大きさである。ここで、ヨー方向の視線ブレは、x軸方向の視線ブレに対応しており、ピッチ方向の視線ブレは、y軸方向の視線ブレに対応している。
上述した式(1)及び式(3)は、調整後の文字間隔が、調整前の文字間隔に制御係数を積算して制御されることを示し、上述した式(2)及び(4)は、調整による文字間隔の変化量が、視線ブレより大きくなるように制御されることを示している。
表示制御部36は、一例として図6に示すように、ヨー方向の視線ブレが生じた場合において、上述した式(2)を満たすように、式(1)における制御係数Kxの値を変更して、x軸方向の文字間隔(字送り)を調整する。また、表示制御部36は、同様にピッチ方向の視線ブレが生じた場合において、上述した式(4)を満たすように、式(3)における制御係数Kyの値を変更して、y軸方向の文字間隔(行送り)を調整する。また、表示制御部36は、ピッチ方向、及びヨー方向の視線ブレが生じた場合において、上述した式(2)及び式(4)を満たすように、式(1)及び式(3)における制御係数Kx及びKyの値を変更して、x軸方向の文字間隔(字送り)、及びy軸方向の文字間隔(行送り)を調整する。
なお、本実施形態に係る文字間隔は、視線ブレに応じて、上述した式(1)から式(4)によって制御される形態について説明した。しかし、これに限定されない。視線ブレが生じた場合であっても文字間隔を調整しない許容範囲、及び必要最小限の情報量の表示を確保する調整限度を設けてもよい。
一例として図7に示すように、表示制御部36は、視線ブレの大きさに応じて、x軸方向、及びy軸方向の文字間隔を制御する。表示制御部36は、文字間隔を調整する際において、視線ブレの大きさが許容範囲内であるか否かの判定を行い、視線ブレの大きさが許容範囲内である場合、文字間隔の調整を行わないように制御する。一方、表示制御部36は、視線ブレの大きさが許容範囲内でない場合、文字間隔の調整を行うように制御する。許容範囲を設けることによって、頭部動揺等によって表示対象が重複して見えるほどの視線ブレが生じた場合、文字間隔を調整する制御が行われる。
また、表示制御部36は、視線ブレの大きさに応じてx軸方向、及びy軸方向の文字間隔を拡大した場合において、視線ブレの大きさが調整限度に達したか否かの判定を行う。表示制御部36は、視線ブレの大きさが調整限度に達した場合、調整限度における文字間隔より拡大しない制御を行い、視線ブレの大きさが調整限度に達していない場合、視線ブレの大きさに応じて、文字間隔を調整する制御を行う。調整限度を設けることによって、必要最小限の情報量が確保され、情報の可読性が向上する。
なお、必要最小限の情報量は、文字が表示される文字表示領域の大きさに応じて異なっていることが想定される。ここで、図8を参照して、表示装置10のモニタ16における文字表示領域40に表示される表示対象について説明する。図8(a)は、許容範囲における表示対象の一例であり、図8(b)は、調整限度における表示対象の一例である。
例えば、図8(b)に示すように、モニタ16の文字表示領域40に、総文字数N=20、及び最大行数R=2である必要最小限の情報を表示する場合、1行当たりの文字数は10文字となるように、x軸方向、及びy軸方向の文字間隔が調整される。ここで、文字表示領域40、及び必要最小限の情報量を考慮した文字間隔は、以下の数式によって表される。
Figure 2022167200000006
Figure 2022167200000007
ここで、Axは、文字表示領域40のx軸方向の表示サイズ(表示幅)であり、Nは、総文字数(必要最小限の情報量)であり、Rは、最大行数であり、Ayは、文字表示領域40のy軸方向の表示サイズ(表示高)である。
上述した式(5)は、調整後のx軸方向の文字間隔が、必要最小限の情報量を表示する場合における1文字当たりの表示幅以下になるように調整されることを示している。また、上述した式(6)は、調整後のy軸方向の文字間隔が、必要最小限の情報量を表示する場合における1行当たりの表示高以下になるように調整されることを示している。なお、本実施形態に係る必要最小限の情報量を表示する場合における文字間隔は、上述した式(5)及び式(6)によって制御される形態について説明した。しかし、これに限定されない。表示する文章に応じて制御してもよい。例えば、必要最小限の情報量に係る文章において、1文節を1つの単位とし、1文節が行間を跨がないように表示する制御を行ってもよい。
次に、図9を参照して、本実施形態に係る表示装置10の作用について説明する。図9は、第1実施形態に係る表示処理の一例を示すフローチャートである。CPU11がROM12又はストレージ14から表示プログラムを読み出し、実行することによって、図9に示す表示処理が実行される。図9に示す表示処理は、例えば、表示対象が入力された場合、表示装置10に表示処理の実行指示が入力され、実行される。
ステップS101において、CPU11は、表示対象が入力されたか否かの判定を行う。表示対象が入力された場合(ステップS101:YES)、CPU11は、ステップS102に移行する。一方、表示対象が入力されていない場合(ステップS101:NO)、CPU11は、表示対象が入力されるまで待機する。
ステップS102において、CPU11は、表示対象を取得する。
ステップS103において、CPU11は、ユーザを撮影した撮影画像を取得し、状況情報として、撮影画像からユーザの動作及び位置を検出する。
ステップS104において、CPU11は、状況情報から頭部動揺の角速度を推定する。
ステップS105において、CPU11は、表示装置10の並進運動、及び回転運動を検出し、視対象の動揺の角速度を検出する。
ステップS106において、CPU11は、検出した頭部動揺の角速度、及び視対象の動揺の角速度を用いて、視線ブレを推定する。
ステップS107において、CPU11は、推定した視線ブレが許容範囲内であるか否かの判定を行う。視線ブレが許容範囲内である場合(ステップS107:YES)、CPU11は、ステップS111に移行する。一方、推定した視線ブレが許容範囲内でない場合(ステップS107:NO)、CPU11は、ステップS108に移行する。
ステップS108において、CPU11は、推定した視線ブレが調整限度以上であるか否かの判定を行う。視線ブレが調整限度以上である場合(ステップS108:YES)、CPU11は、ステップS109に移行する。一方、推定した視線ブレが調整限度以上でない(調整限度未満である)場合(ステップS108:NO)、CPU11は、ステップS110に移行する。
ステップS109において、CPU11は、表示する文字間隔を調整限度における視線ブレに対応する文字間隔に調整する。
ステップS110において、CPU11は、表示する文字間隔を推定した視線ブレに対応する文字間隔に調整する。
ステップS111において、CPU11は、表示対象を表示する。ここで、表示対象は、視線ブレが許容範囲内である場合、文字間隔を調整しない初期設定の文字間隔で表示され、視線ブレが調整限度である場合、調整限度に対応する視線ブレに対応する文字間隔で表示される。また、表示対象は、視線ブレが許容範囲内でない場合、かつ調整限度でない場合、視線ブレに応じた文字間隔で表示される。
以上説明したように、本実施形態によれば、反射的な視線の移動を考慮して、視認性を向上させることができる。
[第2実施形態]
第1実施形態では、表示装置10は携帯端末であり、表示装置10に搭載されたカメラ19によって撮影された撮影画像から頭部動揺を推定する形態について説明した。本実施形態では、表示装置10は車両に搭載され、車両の振動から頭部動揺を推定する形態について説明する。
なお、本実施形態に係る表示装置10のハードウェア構成(図1参照)、視線ブレの推定における生体反応モデル(図3参照)、及び頭部動揺におけるモデル(図4参照)は、第1実施形態と同様であるため、説明を省略する。また、本実施形態に係る頭部動揺と視線ブレとの関係を示すグラフ(図5参照)、及び表示対象の表示の一例(図6参照)は、第1実施形態と同様であるため、説明を省略する。また、本実施形態に係る視線ブレと文字間隔との関係を示すグラフ(図7参照)、及び必要最小限の情報量の説明に供する表示対象の例(図9参照)は、第1実施形態と同様であるため、説明を省略する。
本実施形態では、図10を参照して、表示装置10の機能構成について説明する。図10は、本実施形態に係る表示装置10の機能的な構成の一例を示すブロック図である。なお、図10における図2に示す表示装置10の機能構成と同一の機能については、図2と同一の符号を付して、その説明を省略する。
図10に示すように、表示装置10は、着座位置検出部31B、車両振動検出部31C、頭部動揺推定部32B、視対象動揺検出部33、視線ブレ推定部34、取得部35、及び表示制御部36を備えている。CPU11が表示プログラムを実行することで、着座位置検出部31B、車両振動検出部31C、頭部動揺推定部32B、視対象動揺検出部33、視線ブレ推定部34、及び表示制御部36として機能する。なお、本実施形態に係る着座位置検出部31B、車両振動検出部31Cは、「検出部」の一例である。
着座位置検出部31Bは、状況情報として、車両に乗車している乗員(運転者)の着座位置を検出する。具体的には、着座位置検出部31Bは、車両の座席に設置されている図示しない着座センサを用いて、乗員が着座している位置を検出する。
車両振動検出部31Cは、状況情報として、車両の振動を検出する。具体的には、センサ18を用いて、車両における振動の加速度を検出する。なお、本実施形態では、表示装置10に搭載されているセンサ18を用いて、車両の振動を検出する形態について説明した。しかし、これに限定されない。車両に搭載されている図示しない車載器から車両における振動を取得してもよい。
頭部動揺推定部32Bは、検出した乗員の着座位置、及び車両の振動を用いて、乗員の頭部動揺を推定する。具体的には、頭部動揺推定部32Bは、一例として図11に示すユーザの頭部をバネマス質点系に近似したモデルから導出した伝搬関数を用いて頭部動揺に係る加速度を推定する。伝搬関数は、以下の数式によって表される。
Figure 2022167200000008
ここで、a1は、ユーザの頭部の加速度であり、a2は、車両の振動による着座位置における加速度である。また、cは、ユーザの身体の粘性に係るダンピング係数であり、sは、ラプラス演算子であり、kはユーザの身体の剛体に係るバネ係数であり、mは、ユーザの頭部の質量である。
ユーザの頭部と着座位置との関係を図11に示すモデルとして、近似することによって、上述した式(7)の伝搬関数が導出される。上述した式(7)は、ユーザの着座位置における振動(加速度)が伝搬することによって、ユーザの頭部動揺が誘起され、ユーザの頭部に加速度が生じることを示している。
頭部動揺推定部32Bは、着座位置から乗員と視対象との距離を算出し、上述した式(7)によって導出される頭部の加速度、及びユーザと視対象との距離を用いて、ユーザの頭部の角速度を推定する。
次に、図12を参照して、本実施形態に係る表示装置10の作用について説明する。図12は、第2実施形態に係る表示処理の一例を示すフローチャートである。CPU11がROM12又はストレージ14から表示プログラムを読み出し、実行することによって、図12に示す表示処理が実行される。図12に示す表示処理は、例えば、表示対象が入力された場合、表示装置10に表示処理の実行指示が入力され、実行される。なお、図12における図9に示す表示処理と同一のステップについては、図9と同一の符号を付して、その説明を省略する。
ステップS112において、CPU11は、ユーザの着座位置を検出し、状況情報として、当該着座位置からユーザと視対象との距離を検出する。
ステップS113において、CPU11は、状況情報として、車両の振動を検出し、着座位置における加速度を検出する。
ステップS114において、CPU11は、ユーザの着座位置、及び車両の振動からユーザの頭部動揺の加速度を推定し、推定した加速度及びユーザと視対象との距離を用いて、頭部動揺の角速度を推定する。
以上説明したように、本実施形態によれば、カメラ19を用いらずとも車両の振動からユーザの頭部動揺が推定される。本実施形態によれば、第1実施形態と同様の効果を奏することができる。
なお、上記実施形態では、センサ18によって、視対象の動揺を検出する形態について説明した。しかし、これに限定されない。撮影画像から視対象の動揺を検出してもよい。例えば、表示装置10は、撮影画像からユーザの頭部に係る特徴点と、ユーザ以外の背景等に係る特徴点と、を抽出する。表示装置10は、複数の撮影画像を比較して、ユーザの頭部に係る特徴点と、背景等に係る特徴点と、の変化量が同程度であれば、視対象が振動しているとして、当該特徴点の変化量から振動を検出してもよい。また、表示装置10は、ユーザの頭部に係る特徴点の変化量が、背景等の特徴点の変化量より大きい場合、ユーザの頭部が動揺しているとして、当該ユーザの頭部に係る特徴点の変化量から頭部動揺を検出してもよい。
また、上記実施形態に係る視対象の代表点は、モニタ16の中心である形態について説明した。しかし、これに限定されない。視対象の代表点は、文字表示領域40の中心であってもよいし、表示されている表示対象の中心であってもよい。
また、上記実施形態に係る視線ブレは、視対象の代表点と、ユーザの視線の位置と、の距離である形態について説明した。しかし、これに限定されない。視線ブレは、角度であってもよい。例えば、視対象の代表点及びユーザの目を結ぶ線と、ユーザの視線と、のなす角を視線ブレとしてもよい。
(その他)
その他、上記実施形態で説明した表示装置10の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。
また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。
なお、上記各実施形態でCPUがソフトウェア(プログラム)を読み込んで実行した表示処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、検出した情報から文字の表示を制御する処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路である。
また、上記各実施形態では、表示プログラムがROM12又はストレージ14に予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
10 表示装置
11 CPU
12 ROM
13 RAM
14 ストレージ
15 入力部
16 モニタ
17 通信I/F
18 センサ
19 カメラ
20 バス
31A 状況検出部
31B 着座位置検出部
31C 車両振動検出部
32A、32B 頭部動揺推定部
33 視対象動揺検出部
34 視線ブレ推定部
35 取得部
36 表示制御部
40 文字表示領域

Claims (9)

  1. 表示対象が表示されている表示部を視認しているユーザの状況に関する状況情報を検出する検出部と、
    前記状況情報を用いて、ユーザの頭部の動揺を推定する頭部動揺推定部と、
    前記頭部の動揺を用いて、前記表示部の代表点と、ユーザの視線の位置と、の差分である視線ブレを推定する視線ブレ推定部と、
    前記視線ブレに応じて前記表示対象の間隔を制御して表示する表示制御部と、
    を備える表示装置。
  2. 前記検出部は、前記ユーザを撮影した撮影画像を取得し、前記状況情報として、前記撮影画像から前記ユーザの位置、及び前記ユーザの動作を検出する請求項1に記載の表示装置。
  3. 前記検出部は、前記状況情報として、前記ユーザが乗車している車両の振動を検出し、
    前記頭部動揺推定部は、前記車両の振動を用いて前記頭部の動揺を推定する請求項1又は請求項2に記載の表示装置。
  4. 前記頭部動揺推定部は、前記車両、及び前記ユーザをバネマス質点系で近似した場合における車両の振動が前記ユーザの頭部に伝搬する伝搬関数を用いて、前記振動による前記頭部の動揺を推定する請求項3に記載の表示装置。
  5. 前記検出部は、前記表示部の動揺をさらに検出し、
    前記視線ブレ推定部は、前記表示部の動揺を用いて視線ブレを推定する請求項1から請求項4の何れか1項に記載の表示装置。
  6. 前記視線ブレ推定部は、ヨー方向、及びピッチ方向の少なくとも一方の視線ブレを推定する請求項1から請求項5の何れか1項に記載の表示装置。
  7. 前記表示制御部は、前記間隔が前記視線ブレの大きさより大きくなるように制御する請求項1から請求項6の何れか1項に記載の表示装置。
  8. 前記表示制御部は、予め定められた視線ブレの範囲において、前記表示対象の間隔を変更しない制御を行う請求項1から請求項7の何れか1項に記載の表示装置。
  9. 表示対象が表示されている表示部を視認しているユーザの状況に関する状況情報を検出する検出ステップと、
    前記状況情報を用いて、ユーザの頭部の動揺を推定する頭部動揺推定ステップと、
    前記頭部の動揺を用いて、前記表示部の代表点と、ユーザの視線の位置と、の差分である視線ブレを推定する視線ブレ推定ステップと、
    前記視線ブレに応じて前記表示対象の間隔を制御して表示する表示制御ステップと、
    をコンピュータに実行させるための表示プログラム。
JP2021072839A 2021-04-22 2021-04-22 表示装置、及び表示プログラム Pending JP2022167200A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021072839A JP2022167200A (ja) 2021-04-22 2021-04-22 表示装置、及び表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021072839A JP2022167200A (ja) 2021-04-22 2021-04-22 表示装置、及び表示プログラム

Publications (1)

Publication Number Publication Date
JP2022167200A true JP2022167200A (ja) 2022-11-04

Family

ID=83852475

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021072839A Pending JP2022167200A (ja) 2021-04-22 2021-04-22 表示装置、及び表示プログラム

Country Status (1)

Country Link
JP (1) JP2022167200A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323255A (ja) * 2005-05-20 2006-11-30 Nippon Telegr & Teleph Corp <Ntt> 表示装置
JP2017524996A (ja) * 2014-04-23 2017-08-31 ノキア テクノロジーズ オサケユイチア ヘッド・マウント・ディスプレイ上の情報表示
WO2018198447A1 (ja) * 2017-04-24 2018-11-01 ソニー株式会社 情報処理装置および情報処理方法
WO2019176009A1 (ja) * 2018-03-14 2019-09-19 マクセル株式会社 携帯情報端末

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006323255A (ja) * 2005-05-20 2006-11-30 Nippon Telegr & Teleph Corp <Ntt> 表示装置
JP2017524996A (ja) * 2014-04-23 2017-08-31 ノキア テクノロジーズ オサケユイチア ヘッド・マウント・ディスプレイ上の情報表示
WO2018198447A1 (ja) * 2017-04-24 2018-11-01 ソニー株式会社 情報処理装置および情報処理方法
WO2019176009A1 (ja) * 2018-03-14 2019-09-19 マクセル株式会社 携帯情報端末

Similar Documents

Publication Publication Date Title
US11068048B2 (en) Method and device for providing an image
JP6098874B2 (ja) 撮像装置および画像処理装置
JP6015743B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR20160046495A (ko) 외부 물체의 움직임과 연관된 이벤트에 응답하여 화면을 디스플레이하는 장치 및 방법
US10877562B2 (en) Motion detection system, motion detection method and computer-readable recording medium thereof
WO2016163183A1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
JP6098873B2 (ja) 撮像装置および画像処理装置
US9557781B2 (en) Adjusting coordinates of touch input
US11720178B2 (en) Information processing device, information processing method, and computer-readable recording medium
JP2006323255A (ja) 表示装置
US20180024661A1 (en) Method for performing display stabilization control in an electronic device with aid of microelectromechanical systems, and associated apparatus
WO2020075825A1 (ja) 動き推定装置、電子機器、制御プログラム及び動き推定方法
CN106293046B (zh) 信息处理方法、信息处理装置及用户设备
JP5270016B1 (ja) 電子機器および表示制御方法
US20230047470A1 (en) Information processing apparatus, information processing method, and computer-readable recording medium
CN111801239A (zh) 显示系统
JP2022167200A (ja) 表示装置、及び表示プログラム
JP2014016451A (ja) 撮像装置、手振れ補正量算出方法、手振れ補正量算出プログラム
CN112513784A (zh) 自动隐藏显示内容的、用于车辆的数据眼镜
EP3440532B1 (en) Improving readability of content displayed on a screen
JP4118773B2 (ja) 視線方向検出装置及び視線方向検出方法
KR101710364B1 (ko) 부하 추정 피드백을 받는 무인비행체용 원격 조종 시스템
EP4075786A1 (en) Image processing device, system, image processing method and image processing program
WO2013132885A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2014082648A (ja) 電子機器、画像補正方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220728

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231003