JP2024012898A - 電子機器 - Google Patents
電子機器 Download PDFInfo
- Publication number
- JP2024012898A JP2024012898A JP2022114695A JP2022114695A JP2024012898A JP 2024012898 A JP2024012898 A JP 2024012898A JP 2022114695 A JP2022114695 A JP 2022114695A JP 2022114695 A JP2022114695 A JP 2022114695A JP 2024012898 A JP2024012898 A JP 2024012898A
- Authority
- JP
- Japan
- Prior art keywords
- user
- virtual object
- control means
- electronic device
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 79
- 238000000034 method Methods 0.000 claims abstract description 67
- 230000033001 locomotion Effects 0.000 claims description 9
- 230000006866 deterioration Effects 0.000 abstract description 5
- 210000001508 eye Anatomy 0.000 description 75
- 238000001514 detection method Methods 0.000 description 35
- 238000003384 imaging method Methods 0.000 description 19
- 230000002093 peripheral effect Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 210000001747 pupil Anatomy 0.000 description 14
- 210000005252 bulbus oculi Anatomy 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 7
- 210000004087 cornea Anatomy 0.000 description 5
- 230000003190 augmentative effect Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000004907 flux Effects 0.000 description 2
- 230000005043 peripheral vision Effects 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
Images
Abstract
【課題】ユーザーが望んでいない仮想オブジェクトの表示による視認性の悪化を抑制することのできる技術を提供する。【解決手段】本発明の電子機器は、ユーザーの視線に関する視線情報を取得する取得手段と、前記視線情報に基づいて、仮想オブジェクトを表示するように制御する制御手段とを有し、前記制御手段は、優先度が第1の閾値よりも高い仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、前記優先度が前記第1の閾値よりも低い仮想オブジェクトを前記中央部分の外側に表示するように制御することを特徴とする。【選択図】図7
Description
本発明は、ユーザーの視線に基づいて仮想オブジェクトを表示するように制御することが可能な電子機器に関する。
仮想オブジェクト(付加情報)を現実空間に重ねて(配置して)ユーザーに提示する技術が知られている。そのような技術は拡張現実(AR、Augmented Reality)と呼ばれる。特許文献1には、ユーザーの視線に基づいて仮想オブジェクトの優先度を決定し、決定した優先度に従って仮想オブジェクトを表示する技術が開示されている。
しかしながら、特許文献1に開示の技術では、仮想オブジェクトの位置が予め決まっており、ユーザーが望んでいない仮想オブジェクトの表示によって視認性が悪化することがある。
本発明は、ユーザーが望んでいない仮想オブジェクトの表示による視認性の悪化を抑制することのできる技術を提供することを目的とする。
本発明の第1の態様は、ユーザーの視線に関する視線情報を取得する取得手段と、前記視線情報に基づいて、仮想オブジェクトを表示するように制御する制御手段とを有し、前記制御手段は、優先度が第1の閾値よりも高い仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、前記優先度が前記第1の閾値よりも低い仮想オブジェクトを前記中央部分の外側に表示するように制御することを特徴とする電子機器である。
本発明の第2の態様は、仮想オブジェクトを表示するように制御する制御手段を有し、前記制御手段は、第1の種類の仮想オブジェクトをユーザーの視野の中央部分に表示し、第2の種類の仮想オブジェクトを前記中央部分の外側に表示するように制御することを特徴とする電子機器である。
本発明の第3の態様は、仮想オブジェクトを表示するように制御する制御手段を有し、前記制御手段は、ユーザーがオブジェクトを見た際に、前記ユーザーが前記オブジェクトを見た回数が第1の回数であれば、前記オブジェクトに対応する仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、前記ユーザーが前記オブジェクトを見た時間が第1の時間であれば、前記オブジェクトに対応する前記仮想オブジェクトを前記中央部分に表示し、前記ユーザーが前記オブジェクトを見た回数が前記第1の回数よりも少ない第2の回数であり、且つ、前記ユーザーが前記オブジェクトを見た時間が前記第1の時間よりも短い第2の時間であれば、前記オブジェクトに対応する前記仮想オブジェクトを前記中央部分の外側に表示するように制御することを特徴とする電子機器である。
本発明の第4の態様は、仮想オブジェクトを表示するように制御する制御手段を有し、
前記制御手段は、第1の使用回数の仮想オブジェクトをユーザーの視野の中央部分に表示し、前記第1の使用回数よりも少ない第2の使用回数の仮想オブジェクトを前記中央部分の外側に表示するように制御することを特徴とする電子機器である。
前記制御手段は、第1の使用回数の仮想オブジェクトをユーザーの視野の中央部分に表示し、前記第1の使用回数よりも少ない第2の使用回数の仮想オブジェクトを前記中央部分の外側に表示するように制御することを特徴とする電子機器である。
本発明の第5の態様は、仮想オブジェクトを表示するように制御する制御手段を有し、前記制御手段は、ユーザーの見た回数が第1の回数である仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、前記ユーザーの見た回数が前記第1の回数よりも少ない第2の回数である仮想オブジェクトを前記中央部分の外側に表示するように制御することを特徴とする電子機器である。
本発明の第6の態様は、仮想オブジェクトを表示するように制御する制御手段を有し、前記制御手段は、ユーザーの見た時間が第1の時間である仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、前記ユーザーの見た時間が前記第1の時間よりも短い第2の時間である仮想オブジェクトを前記中央部分の外側に表示するように制御することを特徴とする電子機器である。
本発明の第7の態様は、ユーザーの視線に関する視線情報を取得する取得ステップと、前記視線情報に基づいて、仮想オブジェクトを表示するように制御する制御ステップとを有し、前記制御ステップでは、優先度が第1の閾値よりも高い仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、前記優先度が前記第1の閾値よりも低い仮想オブジェクトを前記中央部分の外側に表示するように制御することを特徴とする電子機器の制御方法である。
本発明の第8の態様は、コンピュータを、上述した電子機器の各手段として機能させるためのプログラムである。本発明の第9の態様は、コンピュータを、上述した電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体である。
本発明によれば、ユーザーが望んでいない仮想オブジェクトの表示による視認性の悪化を抑制することができる。
<<実施形態1>>
本発明の実施形態1について説明する。実施形態1では、光学シースルー方式の表示装置に本発明を適用した例を説明するが、本発明は、例えば、ビデオシースルー方式の表示
装置にも適用可能である。光学シースルー方式の表示装置は、例えば、表示面(現実空間(外界)からの光を透過する表示面)に仮想オブジェクトを表示する。この場合に、ユーザーは、表示面に表示された仮想オブジェクトを見ることができる。さらに、ユーザーは、表示面を介して現実空間(外界)を直接見ることもできる。ビデオシースルー方式の表示装置は、現実空間を撮像した画像(仮想空間)を、必要に応じて仮想オブジェクトを合成して表示面(現実空間からの光を透過しない表示面)に表示する。この場合に、ユーザーは、現実空間を直接見ることはできないが、表示された画像を見ることで現実空間を間接的に見ることができる。
本発明の実施形態1について説明する。実施形態1では、光学シースルー方式の表示装置に本発明を適用した例を説明するが、本発明は、例えば、ビデオシースルー方式の表示
装置にも適用可能である。光学シースルー方式の表示装置は、例えば、表示面(現実空間(外界)からの光を透過する表示面)に仮想オブジェクトを表示する。この場合に、ユーザーは、表示面に表示された仮想オブジェクトを見ることができる。さらに、ユーザーは、表示面を介して現実空間(外界)を直接見ることもできる。ビデオシースルー方式の表示装置は、現実空間を撮像した画像(仮想空間)を、必要に応じて仮想オブジェクトを合成して表示面(現実空間からの光を透過しない表示面)に表示する。この場合に、ユーザーは、現実空間を直接見ることはできないが、表示された画像を見ることで現実空間を間接的に見ることができる。
仮想オブジェクトは、例えば、現実オブジェクト(現実空間に存在するオブジェクト)の情報(説明)または場所の情報(説明)を示すグラフィック(例えばテキストまたはアイコン)である。仮想オブジェクトは広告のグラフィックであってもよい。仮想オブジェクトはアバター(ユーザー(自分または他人)を模したキャラクター)であってもよい。仮想オブジェクトは、ユーザーがAR(Augmented Reality)機器を操作するためのGUI(Graphical User Interface、例えばメニューまたはアイコン)であってもよい。AR機器は、ARに使用される電子機器である。ユーザーがGUIを使って操作するAR機器は、仮想オブジェクトを表示する表示装置とは別体の装置であってもよい。例えば、ユーザーがGUIを使って操作するAR機器は、表示装置に接続された制御装置(例えばコントローラーまたはPC(パーソナルコンピュータ))であってもよい。
また、実施形態1では、頭部装着型表示装置に本発明を適用した例を説明するが、本発明は、例えば、ハンドヘルド型表示装置、および据え置き型表示装置にも適用可能である。頭部装着型表示装置は、例えば、スマートグラス(AR(Augmented Reality)グラス)またはヘッドマウントディスプレイ(HMD)である。ハンドヘルド型表示装置は、例えば、スマートフォンまたはタブレット端末である。ヘッドマウントアダプタ(例えばVR(Virtual Reality)ゴーグル)に装着されたスマートフォンは、頭部装着型表示装置の一種である。
また、本発明は、表示装置以外の電子機器にも適用可能である。本発明は、ユーザーの視線に基づいて仮想オブジェクトを表示するように制御することが可能な各種電子機器に適用可能である。例えば、本発明は、表示装置に接続された制御装置(例えばコントローラーまたはPC)にも適用可能である。また、実施形態1では、ARに本発明を適用した例を説明するが、本発明は、例えば、MR(Mixed Reality)およびVRといった他のXR(Cross Reality)にも適用可能である。
<構成の説明>
図1(a),1(b)は、実施形態1に係る表示装置100の概略図である。表示装置100は透過型ARグラスである。図1(a)は、表示装置100を上側から見た断面図である。図1(b)は、表示装置100を背面側から見た外観図である。図1(c)は、表示装置100を正面側から見た外観図である。
図1(a),1(b)は、実施形態1に係る表示装置100の概略図である。表示装置100は透過型ARグラスである。図1(a)は、表示装置100を上側から見た断面図である。図1(b)は、表示装置100を背面側から見た外観図である。図1(c)は、表示装置100を正面側から見た外観図である。
表示装置100は、CPU101a,101b、眼撮像部102a,102b、光源103a,104a,103b,104b、表示部105a,105b、投影レンズ106a,106b、ハーフミラー107a,107b、センサ部108a,108b、ネットワークI/F部109a,109b、メモリ部110a,110b、メガネレンズ111a,111b、および現実空間撮像部112を有する。符号に「a」を含んだ構成要素は左目用の構成要素であり、符号に「b」を含んだ構成要素は右目用の構成要素である。
眼撮像部102aと眼撮像部102bのそれぞれは、受光レンズと撮像素子(眼撮像素
子)を有し、表示装置100を装着したユーザーの眼(目)を撮像する。以後、「表示装置100を装着したユーザー」を単に「ユーザー」と記載する。
子)を有し、表示装置100を装着したユーザーの眼(目)を撮像する。以後、「表示装置100を装着したユーザー」を単に「ユーザー」と記載する。
CPU(Central Processing Unit)101a,101bは表示装置100全体を制御する。例えば、CPU101aとCPU101bのそれぞれは、視線検出処理、およびARオブジェクト(仮想オブジェクト)の表示制御を行う。なお、表示装置100は、両目(左目と右目)に対して1つのCPUを有していてもよい。
光源103a、光源104a、光源103b、および光源104bは、光の角膜反射による反射像(角膜反射像)と瞳孔の関係から視線を検出するためにユーザーの眼球を照明する光源である。光源103a、光源104a、光源103b、および光源104bは、例えば、ユーザーに対して不感の赤外光を発する赤外発光ダイオードである。光源103a,104aは眼撮像部102aの周辺に配置されており、光源103b,104bは眼撮像部102bの周辺に配置されている。
表示部105aは、CPU101aからの指示に従ってARオブジェクトを表示する。表示されたARオブジェクトの光は、投影レンズ106aを通って、メガネレンズ111aに入射する。メガネレンズ111aにはハーフミラー107aが埋め込まれており、ARオブジェクトの光は、ハーフミラー107aの反射面で反射して、ユーザーの左目に入射する。同様に、表示部105bは、CPU101bからの指示に従ってARオブジェクトを表示する。表示されたARオブジェクトの光は、投影レンズ106bを通って、メガネレンズ111bに入射する。メガネレンズ111bにはハーフミラー107bが埋め込まれており、ARオブジェクトの光は、ハーフミラー107bの反射面で反射して、ユーザーの左目に入射する。また、現実空間からの光はハーフミラー107a,107bの非反射面を通って、ユーザーの眼に入射する。このような構成により、ARオブジェクトを現実空間に重ねてユーザーに提示する(視認させる)ことができる。
センサ部108aとセンサ部108bのそれぞれは、加速度センサ(例えばジャイロセンサ)を有する。CPU101a,101bは、加速度センサの出力信号に基づいて、ユーザーの頭部の動きを検出することができる。また、センサ部108aとセンサ部108bのそれぞれは、GPS(Global Positioning System)受信部も有する。GPS受信部は、GPSアンテナでGPS信号を受信する。CPU101a,101bは、GPS信号に基づいてユーザーの位置を検出し、検出した位置を含む地域のARオブジェクト情報(ARオブジェクトの情報)を外部機器(例えば、ネットワーク上にある外部サーバー)から取得することができる。なお、表示装置100は、両目(左目と右目)に対して1つのセンサ部を有していてもよい。
ネットワークI/F(Interface)部109a,109bは、外部機器との通信を行う。ネットワークI/F部109aは、現実空間撮像部112から得た現実空間画像(現実空間を撮像した画像)と、CPU101aから得たユーザーの位置情報(位置の情報)とを、ネットワークを介して外部サーバーに送信し、ARオブジェクト情報を取得する。同様に、ネットワークI/F部109bは、現実空間撮像部112から得た現実空間画像と、CPU101bから得たユーザーの位置情報とを、ネットワークを介して外部サーバーに送信し、ARオブジェクト情報を取得する。なお、表示装置100は、両目(左目と右目)に対して1つのネットワークI/F部を有していてもよい。
メモリ部110a,110bは、現実空間画像、眼画像(眼を撮像した画像)、ARオブジェクト情報、視線情報(視線の情報)といった様々な情報を記憶する記憶部である。なお、表示装置100は、両目(左目と右目)に対して1つのメモリ部を有していてもよい。
現実空間撮像部112は、表示装置100の正面に配置されている。現実空間撮像部112は、撮像素子を有し、現実空間(表示装置100の正面方向)を撮像する。
図2は、CPU101aの機能構成を示すブロック図である。CPU101bの機能構成は、CPU101aの機能構成と同様である。CPU101aは、現実空間画像取得部201、ARオブジェクト情報取得部202、ARオブジェクト生成部203、視線検出部204、表示領域分割部205、優先度判断部206、表示制御部207、および位置情報取得部208を有する。
現実空間画像取得部201は、現実空間撮像部112から現実空間画像(画像データ、画像信号)を取得する。そして、現実空間画像取得部201は、現実空間画像をメモリ部110aに記録したり、ネットワークI/F109aとネットワーク209を介して外部サーバー210に送信したりする。より詳細には、現実空間画像取得部201は、現実空間撮像部112から現像前の現実空間画像を取得し、現実空間画像の現像を行い、現像後の現実空間画像を記録したり送信したりする。
ARオブジェクト情報取得部202は、外部サーバー210からネットワーク209とネットワークI/F109aを介してARオブジェクト情報を取得する。
ARオブジェクト生成部203は、ARオブジェクト情報取得部202により取得されたARオブジェクト情報に基づいてARオブジェクト(画像データ、画像信号)を生成する。
視線検出部204は、眼撮像部102aから眼画像(画像データ、画像信号)を取得し、取得した眼画像に基づいてユーザーの視線(左目の視線)を検出する。
表示領域分割部205は、視線検出部204で検出された視線(視線情報)に基づいて表示領域(表示部105aがARオブジェクトを表示することのできる領域)を複数の分割領域に分割する。
優先度判断部206は、ARオブジェクト情報取得部202により取得されたARオブジェクト情報に基づいてARオブジェクトの優先度を判断する。優先度判断部206は、現実空間画像取得部201により取得された現実空間画像と、視線検出部204で検出された視線(視線情報)とに基づいて、ARオブジェクトの優先度を判断してもよい。
表示制御部207は、視線情報に基づいて表示部105aにARオブジェクトを表示させる。例えば、表示制御部207は、ARオブジェクト生成部203からARオブジェクトを取得し、表示領域分割部205から分割領域情報(複数の分割領域の情報、視線情報に基づく情報)を取得し、優先度判断部206からARオブジェクトの優先度を取得する。そして、表示制御部207は、分割領域情報と優先度に基づいて、表示部105aにARオブジェクトを表示させる。
位置情報取得部208は、センサ部108a(GPS受信部)からGPS信号を取得し、GPS信号に基づいてユーザーの位置を検出する。そして、位置情報取得部208は、検出した位置の情報(ユーザーの位置情報)を、ネットワークI/F109aとネットワーク209を介して外部サーバー210に送信する。
<視線検出方法の説明>
図3,4(a),4(b),5を用いて、左目の視線検出方法について説明する。右目
の視線検出方法は、左目の視線検出方法と同様である。図3は、視線検出方法の原理を説明するための図であり、視線検出部204の処理(視線検出処理)を行うための光学系の概略図である。図3に示すように、光源103a,104aは受光レンズ305の光軸に対して略対称に配置され、ユーザーの眼球301を照らす。光源103a,104aから発せられて眼球301で反射した光の一部は、受光レンズ305によって、眼撮像素子304に集光する。図4(a)は、眼撮像素子304で撮像された眼画像(眼撮像素子304に投影された眼の光学像)の概略図であり、図4(b)は眼撮像素子304の出力強度を示す図である。図5は、視線検出処理のフローチャートである。
図3,4(a),4(b),5を用いて、左目の視線検出方法について説明する。右目
の視線検出方法は、左目の視線検出方法と同様である。図3は、視線検出方法の原理を説明するための図であり、視線検出部204の処理(視線検出処理)を行うための光学系の概略図である。図3に示すように、光源103a,104aは受光レンズ305の光軸に対して略対称に配置され、ユーザーの眼球301を照らす。光源103a,104aから発せられて眼球301で反射した光の一部は、受光レンズ305によって、眼撮像素子304に集光する。図4(a)は、眼撮像素子304で撮像された眼画像(眼撮像素子304に投影された眼の光学像)の概略図であり、図4(b)は眼撮像素子304の出力強度を示す図である。図5は、視線検出処理のフローチャートである。
図5の視線検出処理が開始すると、ステップS501で、視線検出部204(CPU101a)は、ユーザーの眼球301に向けて赤外光を発するように、光源103a,104aを制御する。赤外光によって照明されたユーザーの眼の光学像は、受光レンズ305を通って眼撮像素子304上に結像し、眼撮像素子304により光電変換される。これにより、処理可能な眼画像の電気信号が得られる。
ステップS502では、視線検出部204は、眼撮像素子304から眼画像(画像データ、画像信号)を取得する。
ステップS503では、視線検出部204は、ステップS502で得られた眼画像から、光源103a,104aの角膜反射像Pd,Peと瞳孔中心cに対応する点の座標を検出する。
光源103a,104aより発せられた赤外光は、ユーザーの眼球301の角膜303を照明する。このとき、角膜303の表面で反射した赤外光の一部により形成される角膜反射像Pd,Peは、受光レンズ305により集光され、眼撮像素子304上に結像して、眼画像における角膜反射像Pd’,Pe’となる。同様に瞳孔302の端部a,bからの光束も眼撮像素子304上に結像して、眼画像における瞳孔端像a’,b’となる。
図4(b)は、図4(a)の眼画像における領域αの輝度情報(輝度分布)を示す。図4(b)では、眼画像の水平方向をX軸方向、垂直方向をY軸方向とし、X軸方向の輝度分布が示されている。実施形態1では、角膜反射像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとし、瞳孔端像a’,b’のX軸方向の座標をXa,Xbとする。図4(b)に示すように、角膜反射像Pd’,Pe’の座標Xd,Xeでは、極端に高いレベルの輝度が得られる。瞳孔302の領域(瞳孔302からの光束が眼撮像素子304上に結像して得られる瞳孔像の領域)に相当する、座標Xaから座標Xbまでの領域では、座標Xd,Xeを除いて、極端に低いレベルの輝度が得られる。そして、瞳孔302の外側の虹彩306の領域(虹彩306からの光束が結像して得られる、瞳孔像の外側の虹彩像の領域)では、上記2種類の輝度の中間の輝度が得られる。具体的には、X座標(X軸方向の座標)が座標Xaより大きい領域と、X座標が座標Xbより小さい領域とで、上記2種類の輝度の中間の輝度が得られる。
図4(b)に示すような輝度分布から、角膜反射像Pd’,Pe’のX座標Xd,Xeと、瞳孔端像a’,b’のX座標Xa,Xbを得ることができる。具体的には、輝度が極端に高い座標を角膜反射像Pd’,Pe’の座標として得ることができ、輝度が極端に低い座標を瞳孔端像a’,b’の座標として得ることができる。また、受光レンズ305の光軸に対する眼球301の光軸の回転角θxが小さい場合には、瞳孔中心cからの光束が眼撮像素子304上に結像して得られる瞳孔中心像c’(瞳孔像の中心)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。つまり、瞳孔端像a’,b’のX座標Xa,Xbから、瞳孔中心像c’の座標Xcを算出できる。このようにして、角膜反射像Pd’,Pe’の座標と、瞳孔中心像c’の座標とを見積もることができる。
ステップS504では、視線検出部204は、眼画像の結像倍率βを算出する。結像倍率βは、受光レンズ305に対する眼球301の位置により決まる倍率で、角膜反射像Pd’,Pe’の間隔(Xd-Xe)の関数を用いて算出することができる。
ステップS505では、視線検出部204は、受光レンズ305の光軸に対する眼球301の光軸の回転角を算出する。角膜反射像Pdと角膜反射像Peの中点のX座標と角膜303の曲率中心OのX座標とはほぼ一致する。このため、角膜303の曲率中心Oから瞳孔302の中心cまでの標準的な距離をOcとすると、Z-X平面(Y軸に垂直な平面)内での眼球301の回転角θxは、以下の式1で算出できる。Z-Y平面(X軸に垂直な平面)内での眼球301の回転角θyも、回転角θxの算出方法と同様の方法で算出できる。
β×Oc×SINθx≒{(Xd+Xe)/2}-Xc ・・・(式1)
β×Oc×SINθx≒{(Xd+Xe)/2}-Xc ・・・(式1)
ステップS506では、視線検出部204は、ステップS505で算出した回転角θx,θyを用いて、メガネレンズ111a上でのユーザーの視点(視線が注がれた位置)を推定する。視点の座標(Hx,Hy)が瞳孔中心cに対応する座標であるとすると、視点の座標(Hx,Hy)は以下の式2,3で算出できる。視点は、ユーザーが見ている位置と捉えたり、視線位置と捉えたりすることもできる。
Hx=m×(Ax×θx+Bx) ・・・(式2)
Hy=m×(Ay×θy+By) ・・・(式3)
Hx=m×(Ax×θx+Bx) ・・・(式2)
Hy=m×(Ay×θy+By) ・・・(式3)
式2,3のパラメータmは、視線検出処理を行うための光学系の構成で定まる定数であり、回転角θx,θyをメガネレンズ111a上での瞳孔中心cに対応する座標に変換する変換係数である。パラメータmは、予め決定されてメモリ部110aに格納されるとする。パラメータAx,Bx,Ay,Byは、視線の個人差を補正する視線補正パラメータであり、視線検出のキャリブレーションを行うことで取得される。視線補正パラメータAx,Bx,Ay,Byは、視線検出処理が開始する前にメモリ部110aに格納されるとする。
ステップS507では、視線検出部204は、視点の座標(Hx,Hy)をメモリ部110aに格納し、視線検出処理を終える。
なお、視線検出方法は上記方法に限られず、例えば、眼画像から視線情報(視線に関する情報)を取得する方法であれば、どのような方法であってもよい。最終的な視線情報として、視点を示す情報ではなく、視線方向(視線の方向)を示す情報が得られてもよい。例えば、視点の座標(Hx,Hy)を得ずに、回転角(Ax×θx+BxおよびAy×θy+By)を得るまでの処理が行われてもよい。
<表示領域の分割方法の説明>
図6(a),6(b)は、表示領域(ARオブジェクトを表示可能な領域)の分割方法を説明するための図である。図6(a),6(b)では、簡単のために、ユーザーから各位置までの距離(奥行き)の違いは省略している。図6(a),6(b)に示すように、ユーザーの両目での注視位置は、両目の視線が交わる位置であり、両目の視線情報から推定することができる。実施形態1では、両目の視線情報に基づいて、表示領域を、ユーザーの視野の中央部分に対応する分割領域と、当該中央部分の外側に対応する分割領域とに
分割するとする。
図6(a),6(b)は、表示領域(ARオブジェクトを表示可能な領域)の分割方法を説明するための図である。図6(a),6(b)では、簡単のために、ユーザーから各位置までの距離(奥行き)の違いは省略している。図6(a),6(b)に示すように、ユーザーの両目での注視位置は、両目の視線が交わる位置であり、両目の視線情報から推定することができる。実施形態1では、両目の視線情報に基づいて、表示領域を、ユーザーの視野の中央部分に対応する分割領域と、当該中央部分の外側に対応する分割領域とに
分割するとする。
図6(a)では、注視位置601に基づいて、3種類の分割領域602~604が設定されている。分割領域602は、注視位置601を含み、視野の中央部分(視野の中で最も視認感度が高い中央視野)に対応する。ユーザーは、分割領域602内のオブジェクト(現実オブジェクトまたはARオブジェクト)を鮮明に見ることができる。分割領域603,604は、視野の中央部分の外側(周辺視野)に対応する。人間の視認感度は注視位置から遠ざかるにつれて低くなる。そのため、分割領域603,604内のオブジェクトは、ぼけて見える。分割領域602に対して分割領域603は分割領域604よりも近いため、分割領域603のぼけ量は分割領域604のぼけ量よりも小さい。
図6(a)の状態から、ユーザーが頭部を動かさずに注視位置601を左に動かす(眼球を左に回転させる)と、図6(b)に示すように分割領域602~604が更新される。分割領域602,603は、注視位置601に追従するように左側に移動する。それに伴い、左側の分割領域604は狭くなり、右側の分割領域604は広くなる。ここで、注視位置601が表示領域の中心から遠いほど、分割領域602,603のサイズを小さくするとする。このため、図6(b)では、分割領域602,603が図6(a)よりも狭くなっている。
なお、分割領域の種類数は特に限定されない。例えば、2種類の分割領域(視野の中央部分に対応する分割領域、および当該中央部分の外側に対応する分割領域)が設定されてもよいし、4種類以上の分割領域が設定されてもよい。視野の中央部分に対応する分割領域として複数種類の分割領域が設定されてもよい。
最も外側の分割領域でない分割領域(例えば、視野の中央部分に対応する分割領域)のサイズは固定サイズであってもよいし、ユーザーが適宜設定(変更)できてもよい。最も外側の分割領域でない分割領域のサイズは、注視位置に存在する現実オブジェクトまでの距離が近いほど狭くてもよい。
矩形の表示領域を上下方向の分割線(境界線)で複数の矩形領域に分割する例を示したが、分割線、および分割領域の形状はこれらに限られない。例えば、表示領域を、円形の分割線で、円形領域と、当該円形領域と同心円のリング状領域とに分割してもよい。注視位置に存在する現実オブジェクトの輪郭を画像処理(例えばエッジ検出)で検出し、当該輪郭と相似の関係にある分割線で表示領域を複数の矩形領域に分割してもよい。表示領域の形状も特に限定されない。例えば、表示領域の形状は、円形、楕円形、略台形、または略八角形であってもよい。
<ARオブジェクト表示方法の説明>
図7,8(a),8(b)を用いて、実施形態1に係るARオブジェクト表示方法について説明する。図7は、実施形態1に係るARオブジェクト表示処理のフローチャートである。図8(a),8(b)は、図7のARオブジェクト表示処理によってARオブジェクトが表示された状態を示す図である。例えば、表示装置100が起動すると、図7のARオブジェクト表示処理が開始する。CPU101aは、図7のARオブジェクト表示処理を繰り返し行う。CPU101aが図7のARオブジェクト表示処理を行う際に、CPU101bも同様のARオブジェクト表示処理を行う。
図7,8(a),8(b)を用いて、実施形態1に係るARオブジェクト表示方法について説明する。図7は、実施形態1に係るARオブジェクト表示処理のフローチャートである。図8(a),8(b)は、図7のARオブジェクト表示処理によってARオブジェクトが表示された状態を示す図である。例えば、表示装置100が起動すると、図7のARオブジェクト表示処理が開始する。CPU101aは、図7のARオブジェクト表示処理を繰り返し行う。CPU101aが図7のARオブジェクト表示処理を行う際に、CPU101bも同様のARオブジェクト表示処理を行う。
図7のARオブジェクト表示処理が開始すると、ステップS701で、CPU101a(ARオブジェクト情報取得部202)は、外部サーバー210からARオブジェクト情報を取得する。なお、メモリ部110aにARオブジェクト情報を予め格納し、メモリ部110aからARオブジェクト情報を読み出してもよい。
ステップS702では、CPU101a(視線検出部204)は、図5の視線検出処理を行い、左目の視線情報を取得する。
ステップS703では、CPU101a(表示領域分割部205)は、両目の視線情報に基づいて、表示領域(表示部105aがARオブジェクトを表示することのできる領域)を、複数の分割領域に分割する。例えば、上述したように、表示領域が3種類の分割領域602~604に分割される。
ステップS704では、CPU101a(優先度判断部206)は、現実空間画像、および両目の視線情報に基づいて、注目オブジェクトが存在するか否かを判定する。注目オブジェクトが存在する場合はステップS705に進み、そうでない場合はステップS708に進む。
例えば、CPU101a(優先度判断部206)は、現実空間画像から1つ以上の現実オブジェクトを検出し、両目の視線情報に基づいて、両眼での注視位置に現実オブジェクトが存在するか否かを判定する。現実オブジェクトの検出には、様々な公知技術を用いることができる。CPU101a(優先度判断部206)は、各現実オブジェクトの注目回数と注目時間を管理しており、注視位置に現実オブジェクトが存在するか否かの判定結果に基づき、各現実オブジェクトの注目回数と注目時間を更新する。現実オブジェクトの注目回数は、ユーザーが当該現実オブジェクトを見た回数であり、現実オブジェクトの注目時間は、ユーザーが当該現実オブジェクトを見た時間(累積時間)である。そして、CPU101a(優先度判断部206)は、両目の視線情報に基づいて、注視位置に存在し且つ注目回数と注目時間の少なくとも一方が閾値以上である現実オブジェクトを、注目オブジェクトとして決定する。
CPU101a(優先度判断部206)は、各現実オブジェクトの注目回数と注目時間を適宜初期値(0回および0秒)にリセットする。例えば、CPU101a(優先度判断部206)は、ユーザーが現実オブジェクトを見ない状態が所定時間継続した場合に、当該現実オブジェクトの注目回数と注目時間を初期値にリセットする。CPU101a(優先度判断部206)は、ユーザーが現実オブジェクトに対応する所定のエリアの外に出た場合に、当該現実オブジェクトの注目回数と注目時間を初期値にリセットしてもよい。
なお、注目オブジェクトの決定方法は上記方法に限られず、例えば、注目時間を考慮せずに、注視位置に存在し且つ注目回数が閾値以上である現実オブジェクトを、注目オブジェクトとして決定してもよい。注目回数を考慮せずに、注視位置に存在し且つ注目時間が閾値以上である現実オブジェクトを、注目オブジェクトとして決定してもよい。また、注目回数と注目時間は、オブジェクトごとに管理しなくてもよい。例えば、注目回数と注目時間は、オブジェクトの種類(例えば、家電量販店、飲食店、洋服店、本屋、神社、公園、駅、山、および星座)ごとに管理してもよい。また、現実オブジェクトに対応するエリアの決定方法は特に限定されない。例えば、現実オブジェクトに対応するエリアは、現実オブジェクトの位置に基づいて定められてもよいし、特定のオブジェクト(例えば駅)の位置に基づいて定められてもよい。現実オブジェクトの種類に依って、現実オブジェクトに対応するエリアの広さが異なってもよい。例えば、星座に対するエリアとして、家電量販店に対応するエリアよりもはるかに広いエリアが定められてもよい。現実オブジェクトに対応するエリアは、他の現実オブジェクトに対応するエリアに重なってもよい。
図7の説明に戻る。ステップS705では、CPU101aは、ARオブジェクト情報と分割領域情報に基づいて、優先度が閾値以上のARオブジェクトを、中央視野(視野の中央部分)に対応する分割領域に表示する。
ステップS706では、CPU101aは、ARオブジェクト情報と分割領域情報に基づいて、優先度が閾値未満のARオブジェクトを、周辺視野(視野の中央部分の外側)に対応する分割領域に表示する。優先度が閾値と等しいARオブジェクトを、周辺視野に対応する分割領域に表示してもよい。
ステップS705,S706では、例えば、ARオブジェクト生成部203がARオブジェクト情報に基づいてARオブジェクトを生成し、優先度判断部206がARオブジェクト情報に基づいてARオブジェクトの優先度を判断する。そして、表示制御部207が、分割領域情報と優先度に基づいてARオブジェクトを表示する。
実施形態1では、ARオブジェクトの優先度が予め定められており、優先度がARオブジェクト情報に含まれているとする。優先度判断部206がARオブジェクト情報から優先度を読み出す。優先度は、例えば、ARオブジェクトの種類ごとに定められる。この場合は、例えば、ユーザーがいる場所に限って有益な情報を示すARオブジェクトの優先度として、注目頻度の低いARオブジェクトの優先度よりも高い優先度が定められる。ユーザーがいる場所に限って有益な情報を示すARオブジェクトは、例えば、現実オブジェクトの情報を示すARオブジェクトである。注目頻度の低いARオブジェクトは、例えば、電池残量または現在時刻を示すARオブジェクトである。
なお、優先度に対応する情報がARオブジェクト情報に含まれていれば、優先度はARオブジェクト情報に含まれていなくてもよい。例えば、ARオブジェクトの種類の情報がARオブジェクト情報に含まれており、優先度判断部206は当該種類の情報に応じて優先度を判断してもよい。優先度は、ARオブジェクトの種類ごとに定められなくてもよい。例えば、優先度は、ARオブジェクトごとに定められてもよい。優先度は予め定められた固定値であってもよいし、そうでなくてもよい。例えば、ユーザーが適宜設定(変更)できてもよい。現実オブジェクトの注目回数が多いほど高い優先度が設定されるように、注目回数に応じて優先度を自動で変更してもよい。同様に、現実オブジェクトの注目時間が長いほど高い優先度が設定されるように、注目時間に応じて優先度を自動で変更してもよい。
ステップS705,S706の処理が行われた場合には、例えば、図8(a)に示すような表示が行われる。図8(a)では、現実オブジェクトの情報を示すARオブジェクト801,802(第1の種類のARオブジェクト)が、中央視野に対応する分割領域602に表示されている。そして、電池残量を示すARオブジェクト805(第2の種類のARオブジェクト)と、現在時刻を示すARオブジェクト806(第2の種類のARオブジェクト)とが、周辺視野に対応する分割領域604に表示されている。
なお、第1の種類と第2の種類は上記種類に限られない。また、分割領域603にもARオブジェクトが表示されてよい。例えば、優先度が高いARオブジェクトを分割領域602に表示し、優先度が中程度のARオブジェクトを分割領域603に表示し、優先度が低いARオブジェクトを分割領域604に表示してもよい。優先度が高いほど注視位置に近く且つ優先度が低いほど注視位置から遠い位置に、ARオブジェクトを表示してもよい。実施形態1では分割領域603を周辺視野に対応する分割領域として扱うが、分割領域603は、中央視野に対応する分割領域として扱ってもよいし、中央視野と周辺視野の両方に対応する分割領域として扱ってもよい。このため、分割領域603には、優先度が閾値以上のARオブジェクトも、優先度が閾値未満のARオブジェクトも表示され得る。
図7の説明に戻る。ステップS707では、CPU101aは、ARオブジェクト情報と分割領域情報に基づいて、注目オブジェクトに対応するARオブジェクトを、中央視野
に対応する分割領域に表示する。この処理は、注目オブジェクトに対応するARオブジェクトの優先度が閾値以上であるとみなした処理と捉えることができる。ステップS707では、例えば、ARオブジェクト生成部203が、ARオブジェクト情報に基づいて、注目オブジェクトに対応するARオブジェクトを生成する。そして、表示制御部207が、分割領域情報に基づいて、注目オブジェクトに対応するARオブジェクトを表示する。
に対応する分割領域に表示する。この処理は、注目オブジェクトに対応するARオブジェクトの優先度が閾値以上であるとみなした処理と捉えることができる。ステップS707では、例えば、ARオブジェクト生成部203が、ARオブジェクト情報に基づいて、注目オブジェクトに対応するARオブジェクトを生成する。そして、表示制御部207が、分割領域情報に基づいて、注目オブジェクトに対応するARオブジェクトを表示する。
ステップS708では、CPU101a(表示制御部207)は、ARオブジェクト情報と分割領域情報に基づいて、注目オブジェクトに対応するARオブジェクトに類似のARオブジェクトを、中央視野に対応する分割領域に表示する。この処理は、類似のARオブジェクトの優先度が閾値以上であるとみなした処理と捉えることができる。例えば、類似のARオブジェクトは、注目オブジェクトに対応しないARオブジェクトであり、注目オブジェクトと同じ種類の現実オブジェクトに対応するARオブジェクトである。ステップS708では、例えば、ARオブジェクト生成部203がARオブジェクト情報に基づいて類似のARオブジェクトを生成し、表示制御部207が分割領域情報に基づいて類似のARオブジェクトを表示する。
ステップS709では、CPU101a(表示制御部207)は、ARオブジェクト情報と分割領域情報に基づいて、他のARオブジェクトを、周辺視野に対応する分割領域に表示する。この処理は、他のARオブジェクトの優先度が閾値未満であるとみなした処理と捉えることができる。他のARオブジェクトは、注目オブジェクトに対応するARオブジェクトに非類似のARオブジェクトである。例えば、他のARオブジェクトは、注目オブジェクトに対応しないARオブジェクトであり、注目オブジェクトと異なる種類の現実オブジェクトに対応するARオブジェクトである。他のARオブジェクトは、現実オブジェクトに対応しないARオブジェクトであってもよい。ステップS709では、例えば、ARオブジェクト生成部203がARオブジェクト情報に基づいて他のARオブジェクトを生成し、表示制御部207が分割領域情報に基づいて他のARオブジェクトを表示する。
ステップS707~S709の処理が行われた場合には、例えば、図8(b)に示すような表示が行われる。図8(b)では、注視位置601の現実オブジェクト(家電量販店A)の情報を示すARオブジェクト801と、家電量販店Bの情報を示すARオブジェクト802とが中央視野に対応する分割領域602に表示されている。カフェCの情報を示すARオブジェクト803が、周辺視野に対応する分割領域603に表示されている。そして、古着屋Dの情報を示すARオブジェクト804、電池残量を示すARオブジェクト805、および現在時刻を示すARオブジェクト806が、周辺視野に対応する分割領域604に表示されている。
なお、ステップS708の処理を省略し、注目オブジェクトに対応するARオブジェクトに類似のARオブジェクトを、(優先度が閾値以上のARオブジェクトとみなして、)周辺視野に対応する分割領域に表示してもよい。また、ステップS707~S709の処理を省略して、常にステップS705,S706の処理を行ってもよい。ステップS705,S706の処理を省略して、常にステップS707~S709の処理を行ってもよい。
常にステップS707~S709の処理を行う場合について説明する。例えば、ユーザーが現実オブジェクトを見た際に、当該現実オブジェクトの注目回数が第1の回数であれば、当該現実オブジェクトに対応するARオブジェクトは、中央視野に対応する分割領域に表示される。ユーザーが現実オブジェクトを見た際に、当該現実オブジェクトの注目時間が第1の時間であれば、当該現実オブジェクトに対応するARオブジェクトは、中央視野に対応する分割領域に表示される。その他の場合には、ユーザーが見た現実オブジェク
トに対応するARオブジェクトは、周辺視野に対応する分割領域に表示される。その他の場合とは、ユーザーが現実オブジェクトを見た際に、当該現実オブジェクトの注目回数が第1の回数よりも少ない第2の回数であり、且つ、当該現実オブジェクトの注目時間が第1の時間よりも短い第2の時間であるような場合である。
トに対応するARオブジェクトは、周辺視野に対応する分割領域に表示される。その他の場合とは、ユーザーが現実オブジェクトを見た際に、当該現実オブジェクトの注目回数が第1の回数よりも少ない第2の回数であり、且つ、当該現実オブジェクトの注目時間が第1の時間よりも短い第2の時間であるような場合である。
<まとめ>
以上述べたように、実施形態1によれば、優先度が低い仮想オブジェクト(ARオブジェクト)が周辺視野に表示される。これにより、ユーザーが望んでいない仮想オブジェクトの表示による視認性の悪化を抑制することができる。さらに、実施形態1によれば、優先度が高い仮想オブジェクトが中央視野に表示される。これにより、ユーザーにとって有益な仮想オブジェクトを、高い視認性で表示することができる。また、優先度が低い仮想オブジェクトを非表示にしないことで、ユーザーは、優先度が高い仮想オブジェクトだけでなく、優先度が低い仮想オブジェクトも見ることができるようになり、利便性が向上する。
以上述べたように、実施形態1によれば、優先度が低い仮想オブジェクト(ARオブジェクト)が周辺視野に表示される。これにより、ユーザーが望んでいない仮想オブジェクトの表示による視認性の悪化を抑制することができる。さらに、実施形態1によれば、優先度が高い仮想オブジェクトが中央視野に表示される。これにより、ユーザーにとって有益な仮想オブジェクトを、高い視認性で表示することができる。また、優先度が低い仮想オブジェクトを非表示にしないことで、ユーザーは、優先度が高い仮想オブジェクトだけでなく、優先度が低い仮想オブジェクトも見ることができるようになり、利便性が向上する。
<<実施形態2>>
本発明の実施形態2について説明する。なお、以下では、実施形態1と同じ点(例えば実施形態1と同じ構成および処理)についての説明は省略し、実施形態1と異なる点について説明する。実施形態1では、現実オブジェクトの情報を示すARオブジェクトを表示する例を説明した。実施形態2では、ユーザーが操作可能なARオブジェクトを表示する例を説明する。
本発明の実施形態2について説明する。なお、以下では、実施形態1と同じ点(例えば実施形態1と同じ構成および処理)についての説明は省略し、実施形態1と異なる点について説明する。実施形態1では、現実オブジェクトの情報を示すARオブジェクトを表示する例を説明した。実施形態2では、ユーザーが操作可能なARオブジェクトを表示する例を説明する。
図9,10(a),10(b)を用いて、実施形態2に係るARオブジェクト表示方法について説明する。図9は、実施形態2に係るARオブジェクト表示処理のフローチャートである。図10(a),10(b)は、図9のARオブジェクト表示処理によってARオブジェクトが表示された状態を示す図である。例えば、表示装置100が起動すると、図9のARオブジェクト表示処理が開始する。CPU101aは、図9のARオブジェクト表示処理を繰り返し行う。CPU101aが図9のARオブジェクト表示処理を行う際に、CPU101bも同様のARオブジェクト表示処理を行う。
実施形態2では、CPU101a(表示制御部207)は、ARオブジェクトの使用回数(操作回数)を管理している。CPU101a(表示制御部207)は、ARオブジェクトの使用回数を適宜初期値(0回)にリセットする。例えば、CPU101a(表示制御部207)は、ユーザーがARオブジェクトを操作しない状態が所定時間継続した場合に、当該ARオブジェクトの使用回数を初期値にリセットする。このため、使用回数は使用頻度と捉えることもできる。
図9のARオブジェクト表示処理が開始すると、ステップS901で、CPU101a(ARオブジェクト情報取得部202)は、外部サーバー210からARオブジェクト情報を取得する。
ステップS902では、CPU101a(視線検出部204)は、図5の視線検出処理を行い、左目の視線情報を取得する。
ステップS903では、CPU101a(表示領域分割部205)は、両目の視線情報に基づいて、表示領域(表示部105aがARオブジェクトを表示することのできる領域)を、複数の分割領域に分割する。例えば、実施形態1で述べたように、表示領域が3種類の分割領域602~604に分割される。
ステップS904では、CPU101aは、ARオブジェクト情報と分割領域情報に基
づいて、優先度と使用回数が閾値以上であるARオブジェクト(第1ARオブジェクト)を、中央視野に対応する分割領域に表示する。このときの複数の分割領域と第1ARオブジェクトの位置関係に従った第1ARオブジェクトの位置を、第1ARオブジェクトの初期位置と定義する。
づいて、優先度と使用回数が閾値以上であるARオブジェクト(第1ARオブジェクト)を、中央視野に対応する分割領域に表示する。このときの複数の分割領域と第1ARオブジェクトの位置関係に従った第1ARオブジェクトの位置を、第1ARオブジェクトの初期位置と定義する。
ステップS905では、CPU101aは、ARオブジェクト情報と分割領域情報に基づいて、優先度と使用回数の少なくとも一方が閾値未満であるARオブジェクト(第2ARオブジェクト)を、周辺視野に対応する分割領域に表示する。このときの複数の分割領域と第2ARオブジェクトの位置関係に従った第2ARオブジェクトの位置を、第2ARオブジェクトの初期位置と定義する。
ステップS904,S905では、例えば、ARオブジェクト生成部203がARオブジェクト情報に基づいてARオブジェクトを生成し、優先度判断部206がARオブジェクト情報に基づいてARオブジェクトの優先度を判断する。そして、表示制御部207が、分割領域情報、優先度、および使用回数に基づいてARオブジェクトを表示する。なお、優先度と使用回数を個別に扱わず、使用回数が多いほど高い優先度が設定されるように、注目回数に応じて優先度を自動で変更してもよい。
ステップS904,S905の処理が行われた場合には、例えば、図10(a)に示すような表示が行われる。図10(a)では、第1の使用回数(≧閾値)のARオブジェクト1001が、中央視野に対応する分割領域602に表示されている。そして、第1の使用回数よりも少ない第2の使用回数(<閾値)のARオブジェクト1002が、周辺視野に対応する分割領域604に表示されている。
ステップS906では、CPU101a(視線検出部204)は、図5の視線検出処理を行い、左目の視線情報を取得する。そして、CPU101a(表示領域分割部205)は、両目の視線情報に基づいて、両目での注視位置が移動したか否かを判定する。注視位置が移動した場合はステップS907に進み、そうでない場合はステップS910に進む。注視位置が移動した場合は、CPU101a(表示領域分割部205)は、両目の視線情報に基づいて、複数の分割領域を更新する。
ステップS907では、CPU101a(表示制御部207)は、第1ARオブジェクトを注視位置に追従させる。この処理は、第1ARオブジェクトを初期位置に表示し続ける処理(複数の分割領域と第1ARオブジェクトの位置関係をステップS904の位置関係を同じとして第1ARオブジェクトを表示する処理)と捉えることもできる。
ステップS908では、CPU101a(表示制御部207)は、注視位置が移動した方向に存在し且つ移動後の注視位置から所定範囲内に存在する第2ARオブジェクトを、中央視野に対応する分割領域の端(外側)に移動(吸着)させる。なお、中央視野に対応する分割領域の端は、当該分割領域の内側であってもよい。中央視野に対応する分割領域の外側と内側を含む領域に第2ARオブジェクトを表示してもよい(中央視野に対応する分割領域の輪郭(境界)を跨いで第2ARオブジェクトを表示してもよい)。これにより、第2ARオブジェクトが視認および操作しやすくなる。
ステップS909では、CPU101a(表示制御部207)は、他の第2ARオブジェクトを初期位置に表示する(複数の分割領域と第2ARオブジェクトの位置関係をステップS905の位置関係を同じとして第2ARオブジェクトを表示する)。
ステップS907~S909の処理が行われた場合には、例えば、図10(b)に示すような表示が行われる。図10(b)は、ユーザーが注視位置601を図10(a)に示
す位置から左に移動させた状態を示す。図10(b)では、ARオブジェクト1001が、注視位置601に追従して、分割領域602に表示され続けている。そして、図10(a)では分割領域604に表示されていたARオブジェクト1002が、分割領域602の端に吸着して、分割領域603に表示されている。
す位置から左に移動させた状態を示す。図10(b)では、ARオブジェクト1001が、注視位置601に追従して、分割領域602に表示され続けている。そして、図10(a)では分割領域604に表示されていたARオブジェクト1002が、分割領域602の端に吸着して、分割領域603に表示されている。
ステップS909では、CPU101a(表示制御部207)は、ARオブジェクトが操作されたか否かを判定する。実施形態2では、ARオブジェクトの位置の更新周期(および分割領域の更新周期)が、注視位置(推定位置)の更新周期よりも長いとする。そのため、ユーザーは、視線(視線入力)でARオブジェクトを操作することができる。なお、注視位置の動きベクトルから、注視位置の動きを解析してもよい。そして、ARオブジェクトを見るように注視位置が動いている間は、当該ARオブジェクトの位置(および分割領域)を更新しないとしてもよい。中央視野に対応する分割領域内で注視位置が動いている間はARオブジェクトの位置(および分割領域)を更新せず、中央視野に対応する分割領域を出るように注視位置が動いた場合にARオブジェクトの位置(および分割領域)更新するとしてもよい。中央視野に対応する分割領域を出るように注視位置が動いても、中央視野に対応する分割領域に吸着した第2ARオブジェクトを見るように注視位置が動いている場合には、ARオブジェクトの位置(および分割領域)を更新しないとしてもよい。例えば、中央視野に対応する分割領域を出るような注視位置の動きにおいて、大きい動きベクトルから小さい動きベクトルへの変化があった場合は、ARオブジェクトの位置(および分割領域)を更新しないとしてもよい。中央視野に対応する分割領域を出るような注視位置の動きにおいて、注視位置が大きな動きベクトルで動き続けていた場合は、ARオブジェクトの位置(および分割領域)を更新するとしてもよい。
ステップS910では、CPU101a(表示制御部207)は、操作されたARオブジェクトの使用回数を更新する。
以上述べたように、実施形態2によれば、使用回数(操作回数)が多い仮想オブジェクト(ARオブジェクト)を中央視野に表示することにより、利便性を向上することができる。さらに、注視位置が移動した方向に存在する仮想オブジェクトを注視位置に近づけることにより、当該仮想オブジェクトが操作しやすくなり、利便性をより向上することができる。
<<実施形態3>>
本発明の実施形態3について説明する。なお、以下では、実施形態1,2と同じ点(例えば実施形態1,2と同じ構成および処理)についての説明は省略し、実施形態1,2と異なる点について説明する。実施形態3に係るARオブジェクトは、例えばアバターである。
本発明の実施形態3について説明する。なお、以下では、実施形態1,2と同じ点(例えば実施形態1,2と同じ構成および処理)についての説明は省略し、実施形態1,2と異なる点について説明する。実施形態3に係るARオブジェクトは、例えばアバターである。
図11,12(a),12(b)を用いて、実施形態3に係るARオブジェクト表示方法について説明する。図11は、実施形態3に係るARオブジェクト表示処理のフローチャートである。図12(a),12(b)は、図11のARオブジェクト表示処理によってARオブジェクトが表示された状態を示す図である。例えば、表示装置100が起動すると、図11のARオブジェクト表示処理が開始する。CPU101aは、図11のARオブジェクト表示処理を繰り返し行う。CPU101aが図11のARオブジェクト表示処理を行う際に、CPU101bも同様のARオブジェクト表示処理を行う。
実施形態3では、CPU101a(優先度判断部206)は、ARオブジェクトの注目回数と注目時間を管理している。ARオブジェクトの注目回数は、ユーザーが当該ARオブジェクトを見た回数であり、ARオブジェクトの注目時間は、ユーザーが当該ARオブジェクトを見た時間(累積時間)である。CPU101a(優先度判断部206)は、A
Rオブジェクトの注目回数と注目時間を適宜初期値(0回および0秒)にリセットする。例えば、CPU101a(優先度判断部206)は、ユーザーがARオブジェクトを見ない状態が所定時間継続した場合に、当該ARオブジェクトの注目回数と注目時間を初期値にリセットする。このため、注目回数は注目頻度と捉えることもできる。ARオブジェクトの注目回数と注目時間の一方を考慮しなくてもよい。
Rオブジェクトの注目回数と注目時間を適宜初期値(0回および0秒)にリセットする。例えば、CPU101a(優先度判断部206)は、ユーザーがARオブジェクトを見ない状態が所定時間継続した場合に、当該ARオブジェクトの注目回数と注目時間を初期値にリセットする。このため、注目回数は注目頻度と捉えることもできる。ARオブジェクトの注目回数と注目時間の一方を考慮しなくてもよい。
図11のARオブジェクト表示処理が開始すると、ステップS1101で、CPU101a(ARオブジェクト情報取得部202)は、外部サーバー210からARオブジェクト情報を取得する。
ステップS1102では、CPU101a(視線検出部204)は、図5の視線検出処理を行い、左目の視線情報を取得する。
ステップS1103では、CPU101a(表示領域分割部205)は、両目の視線情報に基づいて、表示領域(表示部105aがARオブジェクトを表示することのできる領域)を、複数の分割領域に分割する。例えば、実施形態1で述べたように、表示領域が3種類の分割領域602~604に分割される。
ステップS1104では、CPU101aは、ARオブジェクト情報と分割領域情報に基づいて、優先度が閾値以上であるARオブジェクトを、中央視野に対応する分割領域に表示する。
ステップS1105では、CPU101aは、ARオブジェクト情報と分割領域情報に基づいて、優先度が閾値未満であるARオブジェクトを、周辺視野に対応する分割領域に表示する。
ステップS1104,S1105では、例えば、ARオブジェクト生成部203がARオブジェクト情報に基づいてARオブジェクトを生成し、優先度判断部206がARオブジェクト情報に基づいてARオブジェクトの優先度を判断する。そして、表示制御部207が、分割領域情報と優先度に基づいてARオブジェクトを表示する。
ステップS1104,S1105の処理が行われた場合には、例えば、図12(a),12(b)に示すような表示が行われる。図12(a)では、ARオブジェクト1201(アバター)の信頼度が閾値以上であるため、ARオブジェクト1201が、中央視野に対応する分割領域602に表示されている。図12(b)では、ARオブジェクト1201の信頼度が閾値未満であるため、ARオブジェクト1201が、周辺視野に対応する分割領域604に表示されている。表示されるアバターの数は特に限定されない。
ステップS1106では、CPU101a(優先度判断部206)は、両目の視線情報に基づいて、ユーザーがARオブジェクトを見たか否かを判定する。ユーザーがARオブジェクトを見た場合はステップS1107に進み、そうでない場合はステップS1109に進む。実施形態3でも、実施形態2と同様に、ユーザーは、ARオブジェクトを見る(ARオブジェクトに注視位置を合わせる)ことができる。
ステップS1107では、CPU101a(優先度判断部206)は、ユーザーが見たARオブジェクトの注目回数と注目時間に基づいて、当該ARオブジェクトの優先度を上げる。例えば、CPU101a(優先度判断部206)は、注目回数が所定量(例えば1回または3回)増加する度に、ARオブジェクトの優先度を1つ上げる。また、CPU101a(優先度判断部206)は、注目時間が所定量(例えば5秒または10秒)増加する度に、ARオブジェクトの優先度を1つ上げる。なお、ステップS1107では常にA
Rオブジェクトの優先度を1つ上げてもよい。
Rオブジェクトの優先度を1つ上げてもよい。
これにより、例えば、注目回数が第1の回数であるARオブジェクトは中央視野に対応する分割領域に表示され、注目回数が第1の回数よりも少ない第2の回数であるARオブジェクトは周辺視野に対応する分割領域に表示されるようになる。また、注目時間が第1の時間であるARオブジェクトは中央視野に対応する分割領域に表示され、注目時間が第1の時間よりも短い第2の時間であるARオブジェクトは周辺視野に対応する分割領域に表示されるようになる。
ステップS1108では、CPU101a(優先度判断部206)は、他のARオブジェクトの優先度を1つ下げる。
ステップS1109では、CPU101a(優先度判断部206)は、各ARオブジェクトの優先度を1つ下げる。
以上述べたように、実施形態3によれば、注目回数が少ない仮想オブジェクト(ARオブジェクト)および注目時間が短い仮想オブジェクトが周辺視野に表示される。これにより、ユーザーが望んでいない仮想オブジェクトの表示による視認性の悪化を抑制することができる。さらに、実施形態3によれば、注目回数が多い仮想オブジェクト(ARオブジェクト)および注目時間が長い仮想オブジェクトが中央視野に表示される。これにより、ユーザーが見ることの多い仮想オブジェクトを、高い視認性で表示することができる。
なお、上記実施形態(変形例を含む)はあくまで一例であり、本発明の要旨の範囲内で上記実施形態の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。上記実施形態の構成を適宜組み合わせて得られる構成も、本発明に含まれる。
<<その他の実施形態>>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本実施形態の開示は、以下の構成、方法、プログラム、および媒体を含む。
(構成1)
ユーザーの視線に関する視線情報を取得する取得手段と、
前記視線情報に基づいて、仮想オブジェクトを表示するように制御する制御手段と
を有し、
前記制御手段は、
優先度が第1の閾値よりも高い仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、
前記優先度が前記第1の閾値よりも低い仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。
(構成2)
前記制御手段は、
前記ユーザーが注目しているオブジェクトである注目オブジェクトに対応する仮想オブジェクトを前記中央部分に表示し、
前記注目オブジェクトに対応しない仮想オブジェクトを前記中央部分の外側に表示す
る
ように制御する
ことを特徴とする構成1に記載の電子機器。
(構成3)
前記制御手段は、前記注目オブジェクトに対応しない前記仮想オブジェクトであっても、前記注目オブジェクトに対応する前記仮想オブジェクトに類似する仮想オブジェクトは前記中央部分に表示するように制御する
ことを特徴とする構成2に記載の電子機器。
(構成4)
前記注目オブジェクトは、前記ユーザーの注視位置に存在し且つ前記ユーザーの見た回数が第2の閾値よりも多いオブジェクトである
ことを特徴とする構成2または3に記載の電子機器。
(構成5)
前記制御手段は、前記ユーザーがオブジェクトを見ない状態が所定時間継続した場合に、前記ユーザーが当該オブジェクトを見た回数を初期値にリセットする
ことを特徴とする構成4に記載の電子機器。
(構成6)
前記制御手段は、前記ユーザーがオブジェクトに対応する所定のエリアの外に出た場合に、前記ユーザーが当該オブジェクトを見た回数を初期値にリセットする
ことを特徴とする構成4または5に記載の電子機器。
(構成7)
前記注目オブジェクトは、前記ユーザーの注視位置に存在し且つ前記ユーザーの見た時間が第3の閾値よりも長いオブジェクトである
ことを特徴とする構成2~6のいずれか1項に記載の電子機器。
(構成8)
前記制御手段は、前記ユーザーがオブジェクトを見ない状態が所定時間継続した場合に、前記ユーザーが当該オブジェクトを見た時間を初期値にリセットする
ことを特徴とする構成7に記載の電子機器。
(構成9)
前記制御手段は、前記ユーザーがオブジェクトに対応する所定のエリアの外に出た場合に、前記ユーザーが当該オブジェクトを見た時間を初期値にリセットする
ことを特徴とする構成7または8に記載の電子機器。
(構成10)
前記制御手段は、
前記優先度が前記第1の閾値よりも高く且つ使用回数が第4の閾値よりも多い第1の仮想オブジェクトを前記中央部分に表示し、
前記優先度が前記第1の閾値よりも低い又は前記使用回数が前記第4の閾値よりも少ない第2の仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする構成1~9のいずれか1項に記載の電子機器。
(構成11)
前記制御手段は、前記第1の仮想オブジェクトを前記ユーザーの注視位置に追従させるように制御する
ことを特徴とする構成10に記載の電子機器。
(構成12)
前記制御手段は、前記ユーザーの注視位置が移動した方向に存在し且つ移動後の前記注視位置から所定範囲内に存在する第2の仮想オブジェクトを前記中央部分の端に移動させるように制御する
ことを特徴とする構成10または11に記載の電子機器。
(構成13)
前記制御手段は、前記ユーザーが仮想オブジェクトを見た場合に、前記ユーザーが当該仮想オブジェクトを見た回数に基づいて、当該仮想オブジェクトの優先度を上げる
ことを特徴とする構成1~12のいずれか1項に記載の電子機器。
(構成14)
前記制御手段は、前記ユーザーが仮想オブジェクトを見た場合に、前記ユーザーが当該仮想オブジェクトを見た時間に基づいて、当該仮想オブジェクトの優先度を上げる
ことを特徴とする構成1~13のいずれか1項に記載の電子機器。
(構成15)
仮想オブジェクトを表示するように制御する制御手段を有し、
前記制御手段は、
第1の種類の仮想オブジェクトをユーザーの視野の中央部分に表示し、
第2の種類の仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。
(構成16)
仮想オブジェクトを表示するように制御する制御手段を有し、
前記制御手段は、ユーザーがオブジェクトを見た際に、
前記ユーザーが前記オブジェクトを見た回数が第1の回数であれば、前記オブジェクトに対応する仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、
前記ユーザーが前記オブジェクトを見た時間が第1の時間であれば、前記オブジェクトに対応する前記仮想オブジェクトを前記中央部分に表示し、
前記ユーザーが前記オブジェクトを見た回数が前記第1の回数よりも少ない第2の回数であり、且つ、前記ユーザーが前記オブジェクトを見た時間が前記第1の時間よりも短い第2の時間であれば、前記オブジェクトに対応する前記仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。
(構成17)
仮想オブジェクトを表示するように制御する制御手段を有し、
前記制御手段は、
第1の使用回数の仮想オブジェクトをユーザーの視野の中央部分に表示し、
前記第1の使用回数よりも少ない第2の使用回数の仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。
(構成18)
仮想オブジェクトを表示するように制御する制御手段を有し、
前記制御手段は、
ユーザーの見た回数が第1の回数である仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、
前記ユーザーの見た回数が前記第1の回数よりも少ない第2の回数である仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。
(構成19)
仮想オブジェクトを表示するように制御する制御手段を有し、
前記制御手段は、
ユーザーの見た時間が第1の時間である仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、
前記ユーザーの見た時間が前記第1の時間よりも短い第2の時間である仮想オブジェ
クトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。
(方法)
ユーザーの視線に関する視線情報を取得する取得ステップと、
前記視線情報に基づいて、仮想オブジェクトを表示するように制御する制御ステップとを有し、
前記制御ステップでは、
優先度が第1の閾値よりも高い仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、
前記優先度が前記第1の閾値よりも低い仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器の制御方法。
(プログラム)
コンピュータを、構成1~19のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
(媒体)
コンピュータを、構成1~19のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
(構成1)
ユーザーの視線に関する視線情報を取得する取得手段と、
前記視線情報に基づいて、仮想オブジェクトを表示するように制御する制御手段と
を有し、
前記制御手段は、
優先度が第1の閾値よりも高い仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、
前記優先度が前記第1の閾値よりも低い仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。
(構成2)
前記制御手段は、
前記ユーザーが注目しているオブジェクトである注目オブジェクトに対応する仮想オブジェクトを前記中央部分に表示し、
前記注目オブジェクトに対応しない仮想オブジェクトを前記中央部分の外側に表示す
る
ように制御する
ことを特徴とする構成1に記載の電子機器。
(構成3)
前記制御手段は、前記注目オブジェクトに対応しない前記仮想オブジェクトであっても、前記注目オブジェクトに対応する前記仮想オブジェクトに類似する仮想オブジェクトは前記中央部分に表示するように制御する
ことを特徴とする構成2に記載の電子機器。
(構成4)
前記注目オブジェクトは、前記ユーザーの注視位置に存在し且つ前記ユーザーの見た回数が第2の閾値よりも多いオブジェクトである
ことを特徴とする構成2または3に記載の電子機器。
(構成5)
前記制御手段は、前記ユーザーがオブジェクトを見ない状態が所定時間継続した場合に、前記ユーザーが当該オブジェクトを見た回数を初期値にリセットする
ことを特徴とする構成4に記載の電子機器。
(構成6)
前記制御手段は、前記ユーザーがオブジェクトに対応する所定のエリアの外に出た場合に、前記ユーザーが当該オブジェクトを見た回数を初期値にリセットする
ことを特徴とする構成4または5に記載の電子機器。
(構成7)
前記注目オブジェクトは、前記ユーザーの注視位置に存在し且つ前記ユーザーの見た時間が第3の閾値よりも長いオブジェクトである
ことを特徴とする構成2~6のいずれか1項に記載の電子機器。
(構成8)
前記制御手段は、前記ユーザーがオブジェクトを見ない状態が所定時間継続した場合に、前記ユーザーが当該オブジェクトを見た時間を初期値にリセットする
ことを特徴とする構成7に記載の電子機器。
(構成9)
前記制御手段は、前記ユーザーがオブジェクトに対応する所定のエリアの外に出た場合に、前記ユーザーが当該オブジェクトを見た時間を初期値にリセットする
ことを特徴とする構成7または8に記載の電子機器。
(構成10)
前記制御手段は、
前記優先度が前記第1の閾値よりも高く且つ使用回数が第4の閾値よりも多い第1の仮想オブジェクトを前記中央部分に表示し、
前記優先度が前記第1の閾値よりも低い又は前記使用回数が前記第4の閾値よりも少ない第2の仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする構成1~9のいずれか1項に記載の電子機器。
(構成11)
前記制御手段は、前記第1の仮想オブジェクトを前記ユーザーの注視位置に追従させるように制御する
ことを特徴とする構成10に記載の電子機器。
(構成12)
前記制御手段は、前記ユーザーの注視位置が移動した方向に存在し且つ移動後の前記注視位置から所定範囲内に存在する第2の仮想オブジェクトを前記中央部分の端に移動させるように制御する
ことを特徴とする構成10または11に記載の電子機器。
(構成13)
前記制御手段は、前記ユーザーが仮想オブジェクトを見た場合に、前記ユーザーが当該仮想オブジェクトを見た回数に基づいて、当該仮想オブジェクトの優先度を上げる
ことを特徴とする構成1~12のいずれか1項に記載の電子機器。
(構成14)
前記制御手段は、前記ユーザーが仮想オブジェクトを見た場合に、前記ユーザーが当該仮想オブジェクトを見た時間に基づいて、当該仮想オブジェクトの優先度を上げる
ことを特徴とする構成1~13のいずれか1項に記載の電子機器。
(構成15)
仮想オブジェクトを表示するように制御する制御手段を有し、
前記制御手段は、
第1の種類の仮想オブジェクトをユーザーの視野の中央部分に表示し、
第2の種類の仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。
(構成16)
仮想オブジェクトを表示するように制御する制御手段を有し、
前記制御手段は、ユーザーがオブジェクトを見た際に、
前記ユーザーが前記オブジェクトを見た回数が第1の回数であれば、前記オブジェクトに対応する仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、
前記ユーザーが前記オブジェクトを見た時間が第1の時間であれば、前記オブジェクトに対応する前記仮想オブジェクトを前記中央部分に表示し、
前記ユーザーが前記オブジェクトを見た回数が前記第1の回数よりも少ない第2の回数であり、且つ、前記ユーザーが前記オブジェクトを見た時間が前記第1の時間よりも短い第2の時間であれば、前記オブジェクトに対応する前記仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。
(構成17)
仮想オブジェクトを表示するように制御する制御手段を有し、
前記制御手段は、
第1の使用回数の仮想オブジェクトをユーザーの視野の中央部分に表示し、
前記第1の使用回数よりも少ない第2の使用回数の仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。
(構成18)
仮想オブジェクトを表示するように制御する制御手段を有し、
前記制御手段は、
ユーザーの見た回数が第1の回数である仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、
前記ユーザーの見た回数が前記第1の回数よりも少ない第2の回数である仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。
(構成19)
仮想オブジェクトを表示するように制御する制御手段を有し、
前記制御手段は、
ユーザーの見た時間が第1の時間である仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、
前記ユーザーの見た時間が前記第1の時間よりも短い第2の時間である仮想オブジェ
クトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。
(方法)
ユーザーの視線に関する視線情報を取得する取得ステップと、
前記視線情報に基づいて、仮想オブジェクトを表示するように制御する制御ステップとを有し、
前記制御ステップでは、
優先度が第1の閾値よりも高い仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、
前記優先度が前記第1の閾値よりも低い仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器の制御方法。
(プログラム)
コンピュータを、構成1~19のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
(媒体)
コンピュータを、構成1~19のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
100:表示装置 101a,101b:CPU
Claims (22)
- ユーザーの視線に関する視線情報を取得する取得手段と、
前記視線情報に基づいて、仮想オブジェクトを表示するように制御する制御手段と
を有し、
前記制御手段は、
優先度が第1の閾値よりも高い仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、
前記優先度が前記第1の閾値よりも低い仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。 - 前記制御手段は、
前記ユーザーが注目しているオブジェクトである注目オブジェクトに対応する仮想オブジェクトを前記中央部分に表示し、
前記注目オブジェクトに対応しない仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする請求項1に記載の電子機器。 - 前記制御手段は、前記注目オブジェクトに対応しない前記仮想オブジェクトであっても、前記注目オブジェクトに対応する前記仮想オブジェクトに類似する仮想オブジェクトは前記中央部分に表示するように制御する
ことを特徴とする請求項2に記載の電子機器。 - 前記注目オブジェクトは、前記ユーザーの注視位置に存在し且つ前記ユーザーの見た回数が第2の閾値よりも多いオブジェクトである
ことを特徴とする請求項2に記載の電子機器。 - 前記制御手段は、前記ユーザーがオブジェクトを見ない状態が所定時間継続した場合に、前記ユーザーが当該オブジェクトを見た回数を初期値にリセットする
ことを特徴とする請求項4に記載の電子機器。 - 前記制御手段は、前記ユーザーがオブジェクトに対応する所定のエリアの外に出た場合に、前記ユーザーが当該オブジェクトを見た回数を初期値にリセットする
ことを特徴とする請求項4に記載の電子機器。 - 前記注目オブジェクトは、前記ユーザーの注視位置に存在し且つ前記ユーザーの見た時間が第3の閾値よりも長いオブジェクトである
ことを特徴とする請求項2に記載の電子機器。 - 前記制御手段は、前記ユーザーがオブジェクトを見ない状態が所定時間継続した場合に、前記ユーザーが当該オブジェクトを見た時間を初期値にリセットする
ことを特徴とする請求項7に記載の電子機器。 - 前記制御手段は、前記ユーザーがオブジェクトに対応する所定のエリアの外に出た場合に、前記ユーザーが当該オブジェクトを見た時間を初期値にリセットする
ことを特徴とする請求項7に記載の電子機器。 - 前記制御手段は、
前記優先度が前記第1の閾値よりも高く且つ使用回数が第4の閾値よりも多い第1の仮想オブジェクトを前記中央部分に表示し、
前記優先度が前記第1の閾値よりも低い又は前記使用回数が前記第4の閾値よりも少ない第2の仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする請求項1に記載の電子機器。 - 前記制御手段は、前記第1の仮想オブジェクトを前記ユーザーの注視位置に追従させるように制御する
ことを特徴とする請求項10に記載の電子機器。 - 前記制御手段は、前記ユーザーの注視位置が移動した方向に存在し且つ移動後の前記注視位置から所定範囲内に存在する第2の仮想オブジェクトを前記中央部分の端に移動させるように制御する
ことを特徴とする請求項10に記載の電子機器。 - 前記制御手段は、前記ユーザーが仮想オブジェクトを見た場合に、前記ユーザーが当該仮想オブジェクトを見た回数に基づいて、当該仮想オブジェクトの優先度を上げる
ことを特徴とする請求項1に記載の電子機器。 - 前記制御手段は、前記ユーザーが仮想オブジェクトを見た場合に、前記ユーザーが当該仮想オブジェクトを見た時間に基づいて、当該仮想オブジェクトの優先度を上げる
ことを特徴とする請求項1に記載の電子機器。 - 仮想オブジェクトを表示するように制御する制御手段を有し、
前記制御手段は、
第1の種類の仮想オブジェクトをユーザーの視野の中央部分に表示し、
第2の種類の仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。 - 仮想オブジェクトを表示するように制御する制御手段を有し、
前記制御手段は、ユーザーがオブジェクトを見た際に、
前記ユーザーが前記オブジェクトを見た回数が第1の回数であれば、前記オブジェクトに対応する仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、
前記ユーザーが前記オブジェクトを見た時間が第1の時間であれば、前記オブジェクトに対応する前記仮想オブジェクトを前記中央部分に表示し、
前記ユーザーが前記オブジェクトを見た回数が前記第1の回数よりも少ない第2の回数であり、且つ、前記ユーザーが前記オブジェクトを見た時間が前記第1の時間よりも短い第2の時間であれば、前記オブジェクトに対応する前記仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。 - 仮想オブジェクトを表示するように制御する制御手段を有し、
前記制御手段は、
第1の使用回数の仮想オブジェクトをユーザーの視野の中央部分に表示し、
前記第1の使用回数よりも少ない第2の使用回数の仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。 - 仮想オブジェクトを表示するように制御する制御手段を有し、
前記制御手段は、
ユーザーの見た回数が第1の回数である仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、
前記ユーザーの見た回数が前記第1の回数よりも少ない第2の回数である仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。 - 仮想オブジェクトを表示するように制御する制御手段を有し、
前記制御手段は、
ユーザーの見た時間が第1の時間である仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、
前記ユーザーの見た時間が前記第1の時間よりも短い第2の時間である仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器。 - ユーザーの視線に関する視線情報を取得する取得ステップと、
前記視線情報に基づいて、仮想オブジェクトを表示するように制御する制御ステップとを有し、
前記制御ステップでは、
優先度が第1の閾値よりも高い仮想オブジェクトを前記ユーザーの視野の中央部分に表示し、
前記優先度が前記第1の閾値よりも低い仮想オブジェクトを前記中央部分の外側に表示する
ように制御する
ことを特徴とする電子機器の制御方法。 - コンピュータを、請求項1~19のいずれか1項に記載の電子機器の各手段として機能させるためのプログラム。
- コンピュータを、請求項1~19のいずれか1項に記載の電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022114695A JP2024012898A (ja) | 2022-07-19 | 2022-07-19 | 電子機器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022114695A JP2024012898A (ja) | 2022-07-19 | 2022-07-19 | 電子機器 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024012898A true JP2024012898A (ja) | 2024-01-31 |
Family
ID=89714148
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022114695A Pending JP2024012898A (ja) | 2022-07-19 | 2022-07-19 | 電子機器 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024012898A (ja) |
-
2022
- 2022-07-19 JP JP2022114695A patent/JP2024012898A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107111370B (zh) | 现实世界对象的虚拟表示 | |
KR102304827B1 (ko) | 시선 스와이프 선택 | |
JP2021144227A (ja) | 視線追跡情報に基づく画像領域内の適応パラメータ | |
KR102213725B1 (ko) | 모바일 디바이스 착용 시의 머리 움직임 추적 | |
US10115235B2 (en) | Method for controlling head mounted display, and system for implemeting the method | |
US20240037880A1 (en) | Artificial Reality System with Varifocal Display of Artificial Reality Content | |
WO2013145536A1 (en) | Information processing apparatus, information processing system, and information processing method | |
US20170131764A1 (en) | Systems and methods for eye vergence control | |
US10999412B2 (en) | Sharing mediated reality content | |
US11487354B2 (en) | Information processing apparatus, information processing method, and program | |
KR20160027097A (ko) | 니어 아이 디스플레이용 웹형 계층적 메뉴 디스플레이 구성 | |
CN114761909A (zh) | 针对头戴式显示器的内容稳定 | |
JP2014071663A (ja) | ヘッドマウントディスプレイ、それを作動させる方法およびプログラム | |
JP7389270B2 (ja) | 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース | |
WO2019142560A1 (ja) | 視線を誘導する情報処理装置 | |
CN110895433B (zh) | 用于增强现实中用户交互的方法和装置 | |
JP2017021824A (ja) | ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム | |
US11443719B2 (en) | Information processing apparatus and information processing method | |
JP6509101B2 (ja) | 眼鏡状の光学シースルー型の両眼のディスプレイにオブジェクトを表示する画像表示装置、プログラム及び方法 | |
US20220300120A1 (en) | Information processing apparatus, and control method | |
CN108885802B (zh) | 信息处理装置、信息处理方法和存储介质 | |
JP2014071277A (ja) | ヘッドマウントディスプレイ、それを作動させる方法およびプログラム | |
CN111506188A (zh) | 用于动态地调整hud的方法和hmd | |
JP2024012898A (ja) | 電子機器 | |
JP2024022726A (ja) | 電子機器 |