JP7547504B2 - 表示装置および表示方法 - Google Patents

表示装置および表示方法 Download PDF

Info

Publication number
JP7547504B2
JP7547504B2 JP2022567991A JP2022567991A JP7547504B2 JP 7547504 B2 JP7547504 B2 JP 7547504B2 JP 2022567991 A JP2022567991 A JP 2022567991A JP 2022567991 A JP2022567991 A JP 2022567991A JP 7547504 B2 JP7547504 B2 JP 7547504B2
Authority
JP
Japan
Prior art keywords
user
target
display
display device
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022567991A
Other languages
English (en)
Other versions
JPWO2022123750A1 (ja
Inventor
康宣 橋本
義憲 岡田
和彦 吉澤
仁 秋山
眞弓 中出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Publication of JPWO2022123750A1 publication Critical patent/JPWO2022123750A1/ja
Priority to JP2024146593A priority Critical patent/JP7743585B2/ja
Application granted granted Critical
Publication of JP7547504B2 publication Critical patent/JP7547504B2/ja
Priority to JP2025149714A priority patent/JP2025178262A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional [3D], e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating three-dimensional [3D] models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional [3D] objects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、表示装置や情報処理装置の技術に関し、仮想オブジェクト等の画像を表示する技術に関する。
近年、仮想オブジェクト等の画像を表示できる表示装置が広く用いられるようになってきた。一例として、ユーザの頭部に装着され表示部やカメラ部等を備えるヘッドマウント情報処理装置(いわゆるヘッドマウントディスプレイ:HMD)が挙げられる。ヘッドマウント情報処理装置は、現実空間の実体物や仮想オブジェクトを表示し、現実世界と仮想世界をリアルタイムかつシームレスに融合させて、あたかも現実世界のその場に仮想の物体が存在するかのような体験を行わせることができる。表示方式としては、いわゆるビデオシースルー型や光学シースルー型がある。ビデオシースルー型の場合は、実体物および仮想オブジェクトに対応する画像を生成して頭部前面の表示部で表示する。光学シースルー型の場合は、目の前の実体物を視認可能としつつ、それに重畳させて仮想オブジェクトの画像を表示部で表示する。
上記表示装置に係わる先行技術例として、特開2015-090635号公報(特許文献1)が挙げられる。特許文献1には、「ユーザの視界を確保しつつ、情報を適切に表示する」旨や以下の旨が記載されている。透過型ヘッドマウントディスプレイを有する情報表示システムであって、制御部は、使用者の両眼の撮像データに基づいて、使用者の注視点を検出し、注視点に基づいて、使用者が仮想スクリーン上を注視しているか、仮想スクリーンの先の背景を注視しているかを判定し、使用者の視線領域と、仮想スクリーン上のオブジェクトの表示位置とが重なっているかを判定し、注視点が移動した場合に、判定結果に基づいて、オブジェクトの表示位置及び/又は表示形態を変更する。
特開2015-090635号公報
従来のヘッドマウント情報処理装置のような表示装置では、現実空間の実体物と仮想オブジェクトとが重なって表示された場合に、それらの配置関係やユーザ視線位置によっては、ユーザが視認したい実体物や仮想オブジェクトが他の実体物や仮想オブジェクトによって遮蔽されてしまい、視認がしにくい場合や視認が妨害される場合がある。
特許文献1では、実体物をリアルにシースルーするとともに仮想オブジェクトを仮想スクリーン上に表示するHMDにおいて、ユーザの注視点に基づいて、ユーザが仮想スクリーン上を注視しているのか、背景を注視しているのかを判定すると共に、視線が仮想スクリーン上のオブジェクトに重なっているか否かを判定し、双方の判定結果に応じて、仮想オブジェクトの表示位置及び/又は表示形態を変更する旨が記載されている。特許文献1では、ユーザが注視している対象が仮想オブジェクトで重なり覆われている場合には、情報表示システムが仮想オブジェクトの表示位置あるいは透過度による表示形態を変更して表示する旨は記載されている。しかし、特許文献1では、視線上での視認妨害を排除することは考慮されているが、それだけであり、ユーザが視認したい範囲に対する妨害に対しては何ら考慮されていない。また、特許文献1では、実体物および仮想オブジェクトが3次元(Three -Dimensional:3D)配置される際の遮蔽関係を反映した表示についても何ら示唆されていない。
本発明の目的は、3次元配置の仮想オブジェクトを表示できるヘッドマウント情報処理装置のような表示装置の技術に関して、ユーザが視認したい実体物や仮想オブジェクト等のオブジェクトの視認範囲に対し他のオブジェクトによる遮蔽等による視認妨害がある場合に、その視認妨害を解消または軽減でき、ユーザがオブジェクトの全容を好適に視認することができ、そのような機能をユーザの手間が少なく使い勝手良く実現できる技術を提供することである。上記以外の課題や効果等については、[発明を実施するための形態]において示される。
本発明のうち代表的な実施の形態は以下に示す構成を有する。実施の形態の表示装置は、画像を表示する表示デバイスと、前記画像の表示を制御するプロセッサと、を備え、前記表示デバイスに、オブジェクトとして、外界の実体物から切り出した個別実体オブジェクトと3次元配置される仮想オブジェクトとのうち少なくとも前記仮想オブジェクトを表示し、ユーザが注視を望む前記オブジェクトを目標オブジェクトとして確定し、前記ユーザが前記目標オブジェクトを視認する際に妨害となる前記オブジェクトを妨害オブジェクトとして検出し、前記妨害オブジェクトがある場合、前記目標オブジェクトの視認に対する前記妨害オブジェクトによる妨害を解消または低減するように、前記目標オブジェクトと前記妨害オブジェクトとのうち少なくとも一方のオブジェクトの表示態様の変更を行う。
本発明のうち代表的な実施の形態によれば、3次元配置の仮想オブジェクトを表示できるヘッドマウント情報処理装置のような表示装置の技術に関して、ユーザが視認したい実体物や仮想オブジェクト等のオブジェクトの視認範囲に対し他のオブジェクトによる遮蔽等による視認妨害がある場合に、その視認妨害を解消または軽減でき、ユーザがオブジェクトの全容を好適に視認することができ、そのような機能をユーザの手間が少なく使い勝手良く実現できる。
本発明の実施の形態1の表示装置であるヘッドマウント情報処理装置(HMD)の構成概要および表示例を示す。 実施の形態1で、オブジェクトの分類、遮蔽妨害関係、およびカテゴリーについて示す。 実施の形態1で、透過度調整の場合の表示例を示す。 実施の形態1で、透過度調整の場合の表示例を示す。 実施の形態1で、縮小/拡大の場合の表示例を示す。 実施の形態1で、表示位置移動の場合の表示例を示す。 実施の形態1で、表示位置移動の場合の表示例を示す。 実施の形態1で、複製表示の場合の表示例を示す。 実施の形態1で、主な処理フローを示す。 実施の形態1で、機能ブロック構成例を示す。 実施の形態1で、表示例を示す。 実施の形態1で、表示例を示す。 実施の形態1で、動作例の処理フローを示す。 実施の形態1で、表示例を示す。 実施の形態1で、表示例を示す。 実施の形態1で、表示例を示す。 実施の形態1で、表示例を示す。 実施の形態1で、表示例を示す。 実施の形態1で、表示例を示す。 本発明の実施の形態2の表示装置における、表示例を示す。 実施の形態2で、表示例を示す。 実施の形態2で、補足説明図を示す。 実施の形態2で、動作例の処理フローを示す。 各実施の形態で、オブジェクトデータの例を示す。 本発明の実施の形態3の表示装置における、共有の第1例を示す。 本発明の実施の形態3の表示装置における、共有の第2例を示す。 実施の形態3で、表示例を示す。 実施の形態3で、表示例を示す。 実施の形態3で、表示例を示す。 実施の形態3で、表示例を示す。 実施の形態3で、表示例を示す。 本発明の実施の形態4の表示装置における、表示例を示す。 実施の形態4の変形例における、表示例を示す。 本発明の実施の形態5の表示装置における、表示例を示す。
以下、図面を参照しながら本発明の実施の形態を詳細に説明する。図面において、同一部には原則として同一符号を付し、繰り返しの説明を省略する。図面において、各構成要素の表現は、発明の理解を容易にするために、実際の位置、大きさ、形状、および範囲等を表していない場合があり、本発明は、図面に開示された位置、大きさ、形状、および範囲等には必ずしも限定されない。特に限定しない場合、各構成要素は、単数でも複数でもよい。説明上、プログラムによる処理について説明する場合に、プログラムや機能や処理部等を主体として説明する場合があるが、それらについてのハードウェアとしての主体は、プロセッサ、あるいは、そのプロセッサ等で構成されるコントローラ、装置、計算機、システム等である。計算機は、プロセッサによって、適宜にメモリや通信インタフェース等の資源を用いながら、メモリ上に読み出されたプログラムに従った処理を実行する。これにより、所定の機能や処理部等が実現される。プロセッサは、例えばCPUやGPU等の半導体デバイス等で構成される。プロセッサは、所定の演算が可能な装置や回路で構成される。処理は、ソフトウェアプログラム処理に限らず、専用回路でも実装可能である。専用回路は、FPGA、ASIC等が適用可能である。プログラムは、対象計算機に予めデータとしてインストールされていてもよいし、プログラムソースから対象計算機にデータとして配布されてインストールされてもよい。プログラムソースは、通信網上のプログラム配布サーバでもよいし、非一過性のコンピュータ読み取り可能な記憶媒体でもよい。プログラムは、複数のプログラムモジュールから構成されてもよい。説明上、各種のデータや情報を、例えばテーブルやリスト等の表現で説明する場合があるが、このような構造や形式には限定されない。また、各種の要素について識別するためのデータや情報は、識別情報、識別子、ID、名、番号等の表現で説明する場合があるが、これらの表現は互いに置換可能である。
<実施の形態1>
図1等を用いて、本発明の実施の形態1の表示装置および表示方法について説明する。実施の形態1の表示装置は、仮想オブジェクト表示装置であり、ヘッドマウント情報処理装置(HMDと記載する)に適用した場合を示す。実施の形態1の表示方法は、実施の形態1の表示装置で実行されるステップを有する方法である。
実施の形態1の表示装置は、仮想オブジェクトを表示可能な表示デバイス(言い換えるとディスプレイ)と、表示デバイスの仮想オブジェクトの表示を制御するプロセッサとを備え、表示デバイスの表示面に、オブジェクトとして、外界の実体物から切り出しまたは認識した個別実体オブジェクトを部分として含む外界の実体物と3次元配置の仮想オブジェクトとにおける少なくとも仮想オブジェクトを表示する。ビデオシースルー型の場合、オブジェクトである画像として、個別実体オブジェクトと仮想オブジェクトとが表示可能である。光学シースルー型の場合、オブジェクトとして、実体物に合わせるように仮想オブジェクトを表示可能である。
実施の形態1の表示装置は、ユーザが注視を望むオブジェクトである個別実体オブジェクトまたは仮想オブジェクトを目標オブジェクトとして判断・確定し、ユーザが目標オブジェクトを視認する際に妨害となるオブジェクトである個別実体オブジェクトまたは仮想オブジェクトを妨害オブジェクトとして検出する。実施の形態の表示装置は、妨害オブジェクトの存在を検出した場合、目標オブジェクトの視認に対する妨害オブジェクトの妨害を解消または低減するように、目標オブジェクトと妨害オブジェクトとの少なくとも一方の表示態様の変更を行う。
[1.表示装置(HMD)]
図1は、実施の形態1の表示装置であるヘッドマウント情報処理装置(HMD)1の構成概要および表示例を示す。図1では、ユーザU1が頭部にHMD1を装着した状態での外観の模式構成を示す。また図1では、ユーザU1がHMD1によって視界範囲101に表示される3次元的なオブジェクトの画像を見る様子を示す。また図1では、視界範囲101でのオブジェクトの表示態様の変更の例を示す。(a)は変更前の表示例であり、「A」「B」のオブジェクトにおいて遮蔽妨害関係がある場合を示す。(b)は変更後の表示例であり、「A」「B」のオブジェクトにおいて遮蔽妨害関係が一時的に解消されている状態を示す。
HMD1は、ユーザU1の頭部に装着され、オブジェクト等の画像をユーザU1の視界範囲101内に表示する。視界範囲101は、HMD1に備える表示デバイスの表示面11と対応付けられる。オブジェクトは、実体物の一部である個別実体オブジェクト、または、3次元配置される仮想オブジェクトである。ユーザU1は、視界範囲101内に、例えばオブジェクト102,103を視認できる。例えば、オブジェクト102は、直方体形状で「B」と記載された仮想オブジェクトである。オブジェクト103は、直方体形状で「A」と記載された仮想オブジェクトである。ユーザU1から見て、前側に配置されたオブジェクト103に対し、後側にオブジェクト102が配置されている。前側のオブジェクト103が後側のオブジェクト102の少なくとも一部を遮蔽することで、オブジェクト102の視認が妨害されている、言い換えると視認しにくくしている。このようなオブジェクト102,103(2つのオブジェクトの組)を、説明上、「遮蔽妨害関係」にあるオブジェクト等と記載する。
ユーザU1の両眼の視線として、左眼の視線104と右眼の視線105とがある。ユーザU1の両眼の視線104,105の向きによって、3次元の空間内でユーザU1が注視している位置である注視点106を算出できる。注視点106の付近に位置するオブジェクト、例えば「B」のオブジェクト102は、ユーザU1が対象・目標として注視し視認する所望のオブジェクトに対応付けられる。HMD1は、両眼の視線および注視点に基づいて、このようなオブジェクトを目標オブジェクトとして判断・確定する。本例では、(a)で、注視点106が位置する「B」のオブジェクト102が目標オブジェクトとして確定される。HMD1は、目標オブジェクトについて、目標視認範囲107を設定する。目標視認範囲107は、目標オブジェクトと関係を持つ、ユーザU1が視認したいと推定される範囲である。
一方、前側の「A」のオブジェクト103は、ユーザU1が視認したいと意図している目標オブジェクトである「B」のオブジェクト102の目標視認範囲107の一部(例えば左下部分)を遮蔽している。この場合、ユーザU1は、遮蔽する「A」のオブジェクト103によって、目標オブジェクトである「B」のオブジェクト102の目標視認範囲107の全容を視認することが妨害される。HMD1は、このような視認を妨害するオブジェクトを妨害オブジェクトとして判断・検出する。HMD1は、「A」「B」のようなオブジェクト同士の関係を、「遮蔽妨害関係」として把握する。
HMD1は、このような遮蔽妨害関係がある場合、これらのオブジェクトの表示態様を変更する。HMD1は、例えば、目標視認範囲107内を遮蔽する妨害オブジェクトである「A」のオブジェクト103の表示態様を変更する。具体的に、本例では、HMD1は、視界範囲101内で、「A」のオブジェクト103の表示位置を、目標視認範囲107の外の位置に変更する。言い換えると、HMD1は、オブジェクト103を目標視認範囲107外の空いている位置に移動させて、移動後のオブジェクト103aの状態に置き換える。この変更により、HMD1は、目標視認範囲107の全てが何ら遮蔽されない状態にする。これにより、ユーザU1は、目標オブジェクトである「B」のオブジェクト102の目標視認範囲107の全容を視認できる。HMD1は、妨害オブジェクトである「A」のオブジェクト103を移動させる際には、オブジェクト103の元の表示位置および目標オブジェクトからなるべく離れないように移動後の表示位置を決めてもよい。上記遮蔽妨害関係のオブジェクトの表示態様の変更の例は、妨害オブジェクト側の表示位置を変更する例であるが、これに限らず、後述する各種の変更の方式が可能である。
なお、仮想オブジェクト等の情報・データは、HMD1内で生成される場合と、HMD1の外部、例えば情報サーバ120で生成され、外部ネットワークを介してHMD1に供給される場合とがあり、いずれでもよい。情報サーバ120では、大容量の情報を扱うことができ、例えば、高画質・高精細な仮想オブジェクトを生成・保持できる。外部装置は、他にも、ユーザの携帯情報端末や宅内機器等でもよい。
[目標オブジェクト]
ユーザU1が注視を望むオブジェクトである目標オブジェクトを指定・判断・確定するための手段として、実施の形態1では、図1の2つの視線方向104,105から算出できる3次元空間内での注視点106を用いる。HMD1は、例えば、注視点106の位置に対して最も近いオブジェクトを目標オブジェクトと判断することができる。この手段は、これに限定されず、様々な手段が適用できる。他の手段は、リモートコントローラ等によるポインタ、音声入力、手によるジェスチャの認識等が挙げられる。ポインタを用いる場合、ユーザU1は、表示面に表示されるポインタを、リモートコントローラ等によって操作する。HMD1は、視界範囲101内で、ポインタが位置するオブジェクト、あるいはさらにポインタのオン操作によって指定されたオブジェクトを、目標オブジェクトとして判断してもよい。音声入力の場合、ユーザU1は、表示されるオブジェクトを識別する情報を、音声で入力する。HMD1は、入力された音声を認識し、例えば「B」と認識した場合、「B」のオブジェクト102を目標オブジェクトとして判断してもよい。
[オブジェクト]
図2を用いて、用語等について補足説明する。図2の(A)は、「オブジェクト」の分類を示す。実施の形態1では、HMD1が表示面11に表示するオブジェクトとして、大別して2種類のオブジェクトがある。その2種類のオブジェクトを、「個別実体オブジェクト」と「仮想オブジェクト」と記載する。これらのオブジェクトは、遮蔽妨害関係を構成し得る要素である。実施の形態1のHMD1では、これらのオブジェクトは、表示面11に対応する視界範囲101において3次元配置できるオブジェクトである。すなわち、これらのオブジェクトは、ユーザU1の視点から視界範囲101を見た奥行き方向において、前後にも配置できるオブジェクトである。前後に配置されたオブジェクト同士が重なることで、遮蔽妨害関係となる場合がある。
このオブジェクトは、必ずしも画像(表示装置が生成する画像を指す)ではない。「個別実体オブジェクト」は、実体物(言い換えると実像)に基づいたオブジェクトである。「個別実体オブジェクト」は、ビデオシースルー型の場合には、実体物から切り出された個別の実体物の画像である。「個別実体オブジェクト」は、光学シースルー型の場合には、実体物から切り出された(言い換えると認識された)個別の実体物であり画像ではない。「仮想オブジェクト」は、実体物に関連して、または実体物とは独立に、表示装置が生成する任意の仮想的な物体の画像である。
図2の(B)は、実施の形態1で、オブジェクトの遮蔽妨害関係のパターンを示す。上記2種類のオブジェクトが前後に配置されるパターンとして、4種類のパターンがある。第1パターンは、後側の個別実体オブジェクトに対し前側に個別実体オブジェクトが配置される。第2パターンは、後側の個別実体オブジェクトに対し前側に仮想オブジェクトが配置される。第3パターンは、後側の仮想オブジェクトに対し前側に個別実体オブジェクトが配置される。第4パターンは、後側の仮想オブジェクトに対し前側に仮想オブジェクトが配置される。実施の形態1のHMD1は、一部の例外を除いて、これらの各パターンの場合に、表示態様変更が適用可能である。
[表示例]
図3~図8は、HMD1の表示面11に対応する視界範囲101における表示例として、表示態様変更の各種の例を示す。
[表示例(1)]
図3の(A)は、図1の(a)のような「A」「B」のオブジェクトの遮蔽妨害関係がある場合に、表示態様変更として、前側の妨害オブジェクトである「A」のオブジェクト103の透過度(言い換えると透明度)をアップする調整を行う例である。これにより、妨害オブジェクトが透けることで、一部遮蔽されている目標オブジェクトである「B」のオブジェクト102の目標視認範囲107内を視認しやすくする。これにより、ユーザU1は、目標オブジェクトの目標視認範囲107の全容を視認可能になる。本例では、HMD1は、前側の妨害オブジェクトであるオブジェクト103の画像領域のうち、後側の目標視認範囲107を遮蔽している部分103Xだけ、透過度をアップ調整して透明に近づける場合を示す。この透過度アップ調整により、視認妨害の程度を軽減できる。
図3の(B)は、他の例であり、HMD1は、前側の妨害オブジェクトのうち、目標視認範囲107を遮蔽している部分103Xだけ、透過度を最大の状態に調整する例である。すなわち、この透過度最大とされた部分103Xは、非表示状態になる。見え方としては、後側の「B」のオブジェクト102の目標視認範囲107が、一時的に「A」のオブジェクト103の前側に来たような状態となる。これにより、目標視認範囲107が一切遮蔽されず、視認妨害を解消できる。
図4の(A)は、他の例であり、妨害オブジェクトである「A」のオブジェクト103の全てについて、同じ透過度アップ調整をした場合を示す。これにより、妨害オブジェクトの全てが透けて、目標視認範囲107が見えやすくなる。それとともに、妨害オブジェクトが同一の透明感で表示されるので、妨害オブジェクトも確認しやすい。
図4の(B)は、他の例であり、遮蔽している妨害オブジェクトである「A」のオブジェクト103の全てについて、透過度最大である非表示状態にした場合を示す。この場合、妨害オブジェクトが全く見えないので、目標視認範囲107の全容が確認しやすい。上記図1~図4の例に示すように、妨害オブジェクトによる目標オブジェクトの目標視認範囲の視認妨害を表示態様変更によって解消できる、または視認妨害の程度を軽減できる。
[表示例(2)]
図5は、他の表示態様変更の例を示す。図5の(a)から(b)への変更は、妨害オブジェクトである「A」のオブジェクト103を縮小して、透過度アップ調整をした場合を示す。「A」のオブジェクト103は、変更後、オブジェクト103bに置き換えられている。このように、HMD1は、目標オブジェクトに対し妨害オブジェクトを小さくするようにサイズを変更する。これにより、妨害オブジェクトによる視認妨害の程度を一層軽減できる。また、妨害オブジェクトの縮小のみとしてもよく、目標視認範囲を確認しやすくなる効果は得られる。同様に、他の方式として、図5の(a)から(c)への変更は、「A」の妨害オブジェクトに対し、「B」の目標オブジェクトの方を拡大する変更を行う場合を示す。「B」のオブジェクト102は、変更後、拡大されたオブジェクト102cに置き換えられている。この場合でも、目標視認範囲を確認しやすくなる効果が得られる。
[表示例(3)]
図6は、妨害オブジェクトではなく目標オブジェクトの方の表示態様を変更する例を示す。例えば、目標オブジェクトが仮想オブジェクトであり、妨害オブジェクトが目標オブジェクトよりもユーザU1の視認違和感等の観点から、透過度アップ調整や表示位置変更に適してない仮想オブジェクトまたは個別実体オブジェクトであるとする。この場合には、図6等に示すような目標オブジェクトの表示態様の変更が有用である。
図6は、目標オブジェクトの表示位置を変更する場合を示す。(a)の変更前の状態で、前側に「C」のオブジェクト109、後側に仮想オブジェクトである「B」のオブジェクト102が配置されている。目標オブジェクトは「B」のオブジェクト102である。「B」の目標オブジェクトの目標視認範囲107の一部が、「C」のオブジェクト109によって遮蔽されている。前側の「C」のオブジェクト109は、透過度アップ調整や表示位置変更等に適してない仮想オブジェクトまたは個別実体オブジェクトである。(b)は変更後の状態を示す。HMD1は、目標オブジェクトである「B」のオブジェクト102の表示位置を、妨害オブジェクトである「C」のオブジェクト109の遮蔽範囲外に移動する。「B」のオブジェクト102および目標視認範囲107は、移動後のオブジェクト102bおよび目標視認範囲107bに置き換えられている。これにより、目標視認範囲107bの全容が見える状態となっている。この移動に伴い、ユーザU1の注視点は、例えば注視点106から注視点106bに移動する。これにより、ユーザU1は、注視点106bに位置する移動後のオブジェクト102bの目標視認範囲107bの全容を視認できる。これは、元のオブジェクト102の目標視認範囲107の全容の視認に等しい。
HMD1は、目標オブジェクトの移動の際には、視界範囲101内で空いている位置、すなわち他のオブジェクトの視認を妨害しない位置へ移動させる。本例では、「B」「C」のオブジェクトに対し、左側が空いているので、左側に移動させている。
図7は、他の表示態様変更の例を示す。HMD1は、遮蔽妨害関係にある「A」「B」のオブジェクトについて、目標オブジェクトと妨害オブジェクトとの双方を移動させてもよい。双方のオブジェクトの移動は、ディスプレイの画角が小さい場合等に有効である。(a)から(b)への変更では、目標オブジェクトである「B」のオブジェクト102と妨害オブジェクトである「A」のオブジェクト103とを互いに離れる方向(本例では左右方向)に移動させている。これにより、目標視認範囲107の全容が見える状態になる。
[表示例(4)]
図8は、さらに他の表示態様変更の方式として、オブジェクトの移動ではなく、複製オブジェクトの表示の方式を示す。(a)から(b)への変更では、HMD1は、妨害オブジェクトである「A」のオブジェクト103によって一部遮蔽されている目標オブジェクトである「B」のオブジェクト102については、そのままの表示とする。さらに、HMD1は、「B」のオブジェクト102の複製オブジェクト102rを生成して空いている位置(例えば左側の位置)に表示する。また、HMD1は、複製オブジェクト102rの表示とともに、ユーザU1に対し複製であることを伝える情報を表示してもよい。HMD1は、複製オブジェクト102rの目標視認範囲107rの全容が見える状態にする。これにより、ユーザU1は、移動後の注視点106rで、複製オブジェクト102rの目標視認範囲107rの全容を視認できる。これは、元のオブジェクト102の目標視認範囲107の全容の視認と等しい。この方式の場合、ユーザU1は、複製オブジェクトを利用した目標オブジェクトの全容の視認と共に、元の「B」のオブジェクト102と「C」のオブジェクト103との配置関係もそのまま維持して把握できる。
上記のように、実施の形態1のHMD1は、妨害オブジェクトによって目標オブジェクトの目標視認範囲の少なくとも一部が遮蔽される場合に、少なくとも一方のオブジェクトの表示位置、透過度、サイズ、または複製等の表示態様変更を行う。各変更方式は、組み合わせでも適用できる。これにより、妨害オブジェクトによる目標オブジェクトの視認妨害を解消、または視認妨害の程度を軽減できる。HMD1は、遮蔽妨害関係の詳細も考慮して、表示態様変更の詳細を決定する。例えば、HMD1は、妨害オブジェクトの表示態様変更が適さない場合等には、目標オブジェクト側の表示態様変更を行う。
[表示態様変更状態の伝達]
HMD1は、オブジェクト間の遮蔽妨害関係がある場合に、上記例のようにオブジェクトの表示態様の変更を一時的に行う。この際に、HMD1は、ユーザU1に対し、一時的に表示態様変更が行われている状態であることをわかりやすく伝えるようにGUI等で出力を行ってもよい。例えば、HMD1は、表示面に表示態様変更中の旨の画像を表示してもよい。図3の(B)の画像130はその例である。また例えば、HMD1は、オブジェクトの表示位置を変更する際に、アニメーションやエフェクト等を用いて、変更している状態を表現してもよいし、変更後のオブジェクトを特定の色等で表示してもよい。
また、HMD1は、上記表示態様変更の処理中には、注視点の判断処理を一時的にロックしてもよい。これにより、例えば図6のオブジェクト表示位置変更のような場合に、それに伴って注視点106の移動が生じる場合に、目標オブジェクトの判断を誤ってしまうことを防止できる。
[処理フロー]
図9は、実施の形態1のHMD1の基本動作を説明するための主な処理フローを示す。図9のフローは、ステップS1~S8を有する。ステップS1で、HMD1は、図1のユーザU1の両眼の視線(104,105)の検出に基づいて、ユーザU1が空間内で注視している注視点106を検出する。HMD1は、検出した注視点106の位置に基づいて、ユーザU1が視認しようとしている所望のオブジェクトであると推定される目標オブジェクトを判断・確定する。HMD1は、3次元の空間内での各オブジェクトの位置および注視点106の位置を把握しているので、それらの位置を比較し、例えば注視点106の位置に最も近い位置にあるオブジェクトを、目標オブジェクトとして判断・確定できる。なおここでは注視点106を用いて目標オブジェクトを確定しているが、変形例については後述する。
次にステップS2で、HMD1は、上記確定した目標オブジェクトについて、ユーザU1が視認したいと意図していると推測される目標視認範囲を選択して確定する。例えば、図1等の例では、目標視認範囲は、目標オブジェクトの見た目の表示範囲(形状に沿って画素がある画像領域)と同じ画像領域として選択される。これに限らず、目標視認範囲は、目標オブジェクトを包含する画像領域(例えば外接矩形や外接楕円等)として選択されてもよい。あるいは、目標視認範囲は、注視点を中心とした所定の大きさの矩形や楕円等の領域としてもよい。
ステップS3で、HMD1は、上記確定した目標オブジェクトの目標視認範囲を遮蔽妨害する妨害オブジェクトが存在するかどうかを判断する。例えば、HMD1は、目標視認範囲のうち所定の割合以上の範囲が、前側にあるオブジェクトによって遮蔽されている場合に、妨害オブジェクトが存在すると判断してもよい。妨害オブジェクトが存在する場合(Y)には、ステップS4へ進み、存在しない場合(N)にはステップS4を飛ばす。
ステップS4で、HMD1は、目標オブジェクトの目標視認範囲を遮蔽しないように、オブジェクトの表示態様の変更を行う。表示態様の変更の方式は、前述の例のように、妨害オブジェクトと目標オブジェクトとの少なくとも一方のオブジェクトについて、表示位置、透過度、サイズ、および複製等の方式から好適な方式を選択できる。特に、HMD1は、妨害オブジェクトが目標オブジェクトよりも表示態様変更に適していない場合等には、目標オブジェクトの表示態様変更を行う方式を選択する。
ステップS5で、HMD1は、上記表示態様変更を行った場合、表示態様変更後の状態を一定時間維持する。これにより、ユーザU1は、その状態で、目標オブジェクトの目標視認範囲の全容を視認できる。妨害オブジェクトが無い場合(S3-N)、ユーザU1は、表示態様変更が無くても、目標オブジェクトの目標視認範囲の全容を視認できる。
ステップS6で、HMD1は、ユーザU1の注視点が目標オブジェクトの目標視認範囲の外に移動したかを判断する。注視点が変わらず、目標視認範囲内にある場合(S6-N)、ステップS5に戻る。これにより、このまま表示態様変更の状態が維持され、目標視認範囲の視認が可能な状態が維持される。
一方、注視点が目標視認範囲の外に移動した場合(S6-Y)、ステップS7に進む。ステップS7で、HMD1は、上記遮蔽妨害関係にある目標オブジェクトと妨害仮想オブジェクトについての表示態様変更状態を、変更前の元の状態に復元する。
この後、ステップS8で、HMD1は、例えば注視の状態等に基づいて、制御処理の継続か終了を確認する。引き続き継続する場合(N)には、ステップS1に戻り、新たな注視点の検出等を同様に繰り返す。終了の場合(Y)には。本フローが終了する。
上記処理フローに基づいて、実施の形態1では、目標オブジェクトが妨害オブジェクトで遮蔽されている場合に、オブジェクトの表示態様変更によって、目標視認範囲の視認妨害を解消、または視認妨害の程度を軽減できる。
なお、上記例では、注視点の状態に応じて表示態様変更状態を一定時間維持するものとしたが、これに限らず、ユーザU1が所定の操作を入力した場合や、視線や注視点が所定の状態になったことを検出した場合等に、表示態様変更の終了としてもよい。
[機能ブロック]
図10は、実施の形態1の表示装置であるHMD1の機能ブロック構成例を示す。なお他のタイプの表示装置の場合にも基本的に構成は同様である。この構成例では、構成要素が1つの装置に実装されているが、これに限らず、一部の構成部分が別の装置に分かれて実装されてもよい。
図10で、HMD1は、プロセッサ410、メモリ部420、カメラ部431、測距センサ440、左眼視線検出部432、右眼視線検出部433、表示処理部434、操作入力部435、マイク436、ヘッドフォン437、振動発生部438、および通信部439を適宜用いて構成され、各構成部はバス450を介して相互に接続されている。
プロセッサ410は、CPU、ROM、RAM等で構成され、HMD1のコントローラを構成する。プロセッサ410は、メモリ部420に制御用のプログラム421として記憶されているオペレーティングシステム(OS)422や動作制御用のアプリケーションプログラム423に従った処理を実行する。これにより、プロセッサ410は、各構成部を制御し、OS、ミドルウェア、アプリケーション等の機能や他の機能を実現する。
メモリ部420は、不揮発性記憶装置等で構成され、プロセッサ410等が扱う各種のプログラム421や情報データ424を記憶する。情報データ424としては、ユーザU1が注視する注視点の位置等を示す注視点情報425、ユーザU1が視認する目標オブジェクトの形状および位置等を表す目標オブジェクト情報426、仮想オブジェクトの形状および位置等を表す仮想オブジェクト情報427等が格納されている。
カメラ部431は、HMD1の前方周囲の視界・視野状態を撮影するもので、レンズから入射した光を撮像素子で電気信号に変換して画像を取得する。光学シースルー型のHMDの場合には、ユーザU1が直接目で前方周囲の視界・視野内の実体物を視認する。ビデオシースルー型のHMDの場合では、カメラ部431で前方周囲の視界・視野内の実体物を撮影し、撮影された実体物の画像を表示処理部434の表示デバイスで表示する。
測距センサ440は、HMD1と外界の実体物との距離を測定するセンサである。測距センサ440は、TOF(Time Of Flight)方式のセンサを用いてもよいし、ステレオカメラや他の方式を用いてもよい。HMD1は、測距センサ440や配置データを用いて外界の実体物の3次元配置情報を把握し、個別実体オブジェクトと仮想オブジェクトとの遮蔽関係を反映したオブジェクトの表示を行う。HMD1は、外界の実体物のいくつかの特徴点を基準として、遮蔽されているものも含めて、外界の実体物の配置データを参照してもよい。この配置データは、HMD1が作成や保持していてもよいし、外部の情報サーバ120等から取得してもよい。
左眼視線検出部432および右眼視線検出部433は、それぞれ、左眼、右眼の動きや向きを捉えることで視線(104,105)を検出する。なお、この視線検出処理は、アイトラッキング処理として一般に用いられている周知技術を利用できる。例えば、角膜反射を利用した方法としては、赤外線LED(Light Emitting Diode)から赤外線を顔に照射して赤外線カメラで撮影し、照射でできた反射光の角膜上の位置を基準点とし、角膜反射の位置に対する瞳孔の位置に基づいて視線を検出する技術が知られている。また、可視光カメラで目を写し、基準点を目頭とし動点を虹彩にして目頭に対する虹彩の位置に基づいて視線を検出する方法も知られている。左眼視線検出部432で検出された左眼の視線104と右眼視線検出部433で検出された右眼の視線105との交点は、ユーザU1が注視する注視点106として検出される。
表示処理部434は、表示デバイスと表示処理を行う部分とで構成される。表示処理部434は、光学シースルー型のHMDの場合には、例えば、仮想オブジェクトやユーザへの通知情報等に対応する光を投影する投影部と、投影された光を目の前で結像表示させる透明なハーフミラーとを有する。この場合、図1の表示面11はハーフミラーが相当する。これにより、ユーザU1は、目の前の視界・視野範囲の実体物とともに、結像された仮想オブジェクト等の画像を現実空間に浮かんでいるような形で双方合わせて視認できる。また、表示処理部434は、ビデオシースルー型の場合には、カメラ部431で撮影された目の前の実体物(切り出された個別実体物を含む)の画像と生成した仮想オブジェクト等の画像とを合わせて表示する液晶表示パネル等の表示デバイスを有する。この場合、表示面11は液晶表示パネル等の画面が相当する。これらにより、ユーザU1は、HMD1を用いて、目の前の視界内の実体物と仮想オブジェクト等を重ねた状態で視認できる。
操作入力部435は、例えばキーボードやキーボタン、タッチキー等による入力手段であり、ユーザU1が入力したい情報を設定・入力できる。操作入力部435は、HMD1でユーザU1が入力操作を行いやすい位置や形態に設けられる。あるいは、操作入力部435は、リモートコントローラのように、HMD1本体から分離されて有線や無線で接続された形態で設けられてもよい。また、HMD1は、表示処理部434の表示面11に入力操作画面等のグラフィカル・ユーザ・インタフェース(GUI)を表示し、左眼視線検出部431および右眼視線検出部432により検出した視線が向いている入力操作画面上の位置に応じて入力操作情報を取り込んでもよい。HMD1は、入力操作画面上にポインタを表示させ、ユーザU1が操作入力部435によってポインタを操作し、入力操作情報を取り込んでもよい。また、HMD1は、ユーザU1が発声した入力操作を表す音声をマイク436で集音して、入力操作情報を取り込んでもよい。
マイク436は、外部からの音声やユーザ自身の発声を集音する。HMD1は、ユーザU1からの発声音声による指示情報を取り込み、指示情報に対する動作を使い勝手良く実行することができる。ヘッドフォン437は、ユーザU1の耳部に装着され、ユーザU1への通知情報等の音声を出力する。振動発生部438は、プロセッサ410からの制御によって振動を発生させ、HMD1が発信したユーザU1への通知情報等を振動に変換する。振動発生部438は、例えばHMD1が密接に装着されているユーザU1の頭部で振動を発生させることにより、ユーザU1への通知を確実に伝えることができる。ユーザU1への通知情報の例としては、妨害オブジェクト発生時の通知、表示態様変更を知らせる通知、表示態様変更方法の通知、後述の共有ユーザの存在通知等がある。このような通知によって、使い勝手をより向上できる。
通信部439は、近距離無線通信、無線LAN、あるいは基地局通信等によって、近傍の他のHMDやスマートフォン等の情報処理端末、あるいは図1の情報サーバ120のような外部装置等と無線通信を行う通信インタフェースを有する部分であり、所定の各種の通信インタフェースに対応する通信処理回路やアンテナ等を含む。なお、近距離無線通信としては、例えば電子タグを用いた通信が挙げられるが、これに限らず、HMD1が近傍の他の情報処理端末と無線通信可能な通信であればよい。このような通信インタフェースの例は、Bluetooth(登録商標)、IrDA(Infrared Data Association、登録商標)、Zigbee(登録商標)、HomeRF(Home Radio Frequency、登録商標)、または、Wi-Fi(登録商標)等の無線LANが挙げられる。また、基地局通信としては、W-CDMA(Wideband Code Division Multiple Access、登録商標)やGSM(Global System for Mobile Communications)等の遠距離無線通信を用いればよい。
通信部439は、無線通信手段として、光通信や音波通信等の他の手段を適用してもよい。その場合、送受信アンテナの代わりに、それぞれ、光発光/受光部、音波出力/音波入力部が用いられる。また、高精細映像等を扱う場合等では、データ量が飛躍的に多い。この場合、無線通信に5G(5th Generation:第5世代移動通信システム)、ローカル5G等の高速大容量通信網を使用すれば、飛躍的に使い勝手を向上できる。
[配置データ]
実施の形態1のHMD1は、外界の実体物の配置データ(言い換えると空間データ)を、図1の情報サーバ120等の外部装置から通信で取得して利用してもよい。この配置データは、3次元空間内での個別実体オブジェクトの配置(位置や形状等を含む)がわかるデータである。この配置データは、例えば、地図上の空間内で、各種の施設等を個別実体オブジェクトとして含むデータである。また、この配置データは、個別実体オブジェクト毎に属性情報や関連情報(例えば施設の名称や説明等)を有してもよい。他の例では、この配置データは、建築物の空間内で、壁や配置物等の個別実体オブジェクトを含むデータである。このような配置データがある場合、一般に、3次元空間での各物体同士の重なり等の関係が把握しやすい。そのため、HMD1では、配置データを用いて、視界範囲での実体物の境界の判断がより容易となり、個別実体オブジェクトの切り出しや認識がより容易となる。
[構成部]
図10のプロセッサ410による処理に基づいて実現される各構成部として、仮想オブジェクト生成処理部411、注視点検出処理部412、目標オブジェクト目標視認範囲識別処理部413、妨害オブジェクト判別処理部414、オブジェクトカテゴリー処理部415、およびオブジェクト表示態様制御処理部416を有する。
仮想オブジェクト生成処理部411は、現実空間とは異なる仮想空間の物体である仮想オブジェクトを生成する。なお、HMD1は、情報サーバ120等の外部装置で生成された仮想オブジェクトのデータを無線通信によって取り込んで利用してもよい。
注視点検出処理部412は、図1の両眼の視線方向の交点でありユーザU1の注視先である注視点106を、左眼視線検出部432で検出した左眼の視線104と右眼視線検出部433で検出した右眼の視線とから3次元的に計算・検出する。
目標オブジェクト目標視認範囲識別処理部413は、注視点が位置するオブジェクト、言い換えると注視点に最も近いオブジェクトである目標オブジェクトを判断し、目標オブジェクトに対しユーザU1が視認したいと意図していると推測される範囲である目標視認範囲107(図1)を識別して確定する。
妨害オブジェクト判別処理部414は、ユーザU1から見た奥行方向で、目標オブジェクトの目標視認範囲と重なって目標視認範囲を遮蔽によって妨害するオブジェクトである妨害オブジェクトを判別する。
オブジェクトカテゴリー処理部415は、オブジェクトの表示態様の変更に対する制限度や許容度によって、オブジェクトを所定のカテゴリー(言い換えると種類)に分類する。HMD1は、オブジェクトのカテゴリーに応じて、表示態様の変更の方式や詳細内容を決定する。カテゴリーの数や詳細については限定しない。
オブジェクト表示態様制御処理部416は、遮蔽妨害関係にあるオブジェクトの表示態様を変更する制御処理を行う。表示態様変更は、表示位置の移動、透過度の調整、サイズ変更(縮小/拡大)、複製オブジェクト表示等のうち少なくとも1つである。
HMD1は、上記妨害オブジェクト判別処理部414で判別した妨害オブジェクトが、目標オブジェクト目標視認範囲識別処理部413で識別した目標オブジェクトの目標視認範囲の少なくとも一部を遮蔽する場合、オブジェクト表示態様制御処理部416によって、遮蔽妨害関係にあるオブジェクトの表示態様変更の制御を行う。オブジェクト表示態様制御処理部416は、妨害オブジェクトによる目標オブジェクトの遮蔽妨害を解消または軽減するように、妨害オブジェクトまたは目標オブジェクトの少なくとも一方の表示態様を変更する。オブジェクト表示態様制御処理部416は、遮蔽妨害関係にある前後のオブジェクトのカテゴリー等を考慮し、変更対象のオブジェクトや、表示態様変更方式等を決定する。
オブジェクト表示態様制御処理部416は、例えば妨害オブジェクトが仮想オブジェクトである場合(図2の第2パターン/第4パターン)で、妨害オブジェクトの方が目標オブジェクトよりも制限度が低い場合には、妨害オブジェクトによる目標オブジェクトの遮蔽妨害を解消または軽減するように、妨害オブジェクトの表示位置変更または透過度アップ調整等を行う。また、オブジェクト表示態様制御処理部416は、妨害される側の目標オブジェクトが仮想オブジェクトである場合(第3パターン/第4パターン)で、目標オブジェクトの方が妨害オブジェクトよりも制限度が低い場合には、妨害オブジェクトによる目標オブジェクトの遮蔽妨害を解消または軽減するように、目標オブジェクトの表示位置変更等を行う。これらにより、妨害オブジェクトによる目標オブジェクトの目標視認範囲の視認妨害を解消、または視認妨害の程度を軽減できる。
[詳細]
図11以降を用いて、実施の形態1での処理や表示の詳細を説明する。図11は、HMD1の視界範囲101での表示例を示し、個別実体オブジェクト、仮想オブジェクト、および目標視認範囲の例を模式的に示す。図11の(A)では、実体物の例として、ユーザU1が例えば高所から見る風景があり、この中にタワー508やビル500等が含まれている。HMD1は、この風景から、個別実体オブジェクトとして、例えばタワー508等を認識する。ビデオシースルー型の場合、HMD1は、風景の画像から、タワー508の部分を個別実体オブジェクトとして切り出す。光学シースルー型の場合、HMD1は、風景から、タワー508の部分を個別実体オブジェクトとして認識する。タワー508等の認識の際に前述の配置データを利用してもよい。
HMD1は、例えば個別実体オブジェクトであるタワー508に着目した場合に、このタワー508に関連する仮想オブジェクトの例として、説明パネル503や案内地図504を生成し、タワー508を含む風景に重ね合わせるように図示のように表示する。説明パネル503は、タワー508についての説明情報(例えば高さ634m)を例えば吹き出し状のパネルとして表示する仮想オブジェクトである。説明パネル503は、吹き出しの起点がタワー508に接するようにして右側に配置されている。案内地図504は、地図上でのタワー508の位置を案内する仮想オブジェクトである。案内地図504は、視界範囲101内の左上に配置されている。
注視点501,502,507は、この風景に対するユユーザU1の注視点の例である。注視点507は、個別実体オブジェクトであるタワー508を注視する場合である。HMD1は、タワー508への注視に応じて、仮想オブジェクトである説明パネル503等を表示してもよい。注視点が、注視点507のようにタワー508等の実体物に位置する場合、HMD1は、解析や配置データに基づいて、風景からその実体物であるタワー508の部分を個別実体オブジェクトとして切り出しまたは認識する。そして、HMD1は、そのタワー508である個別実体オブジェクトの破線で示す表示範囲を、目標視認範囲509として確定する。
注視点501は、説明パネル503を注視する場合であり、注視点502は、案内地図504を注視する場合である。HMD1は、ユーザU1の注視点が位置するオブジェクトを目標オブジェクトとして、目標オブジェクトの目標視認範囲を設定する。HMD1は、注視点が仮想オブジェクトに位置する場合、仮想オブジェクトの表示範囲(対応する画像領域)を、目標視認範囲として確定する。例えば、説明パネル503に注視点501がある場合、説明パネル503の破線で示す表示範囲が目標視認範囲505となる。案内地図504に注視点502がある場合、案内地図504の破線で示す表示範囲が目標視認範囲506となる。
本例では、破線で示す各目標視認範囲は、表示上のオブジェクトの形状および領域に合わせた同じ範囲としているが、これに限らず可能である。目標視認範囲は、オブジェクトよりも大きい範囲や、オブジェクトよりも小さい範囲であってもよい。目標視認範囲は、予め規定されたサイズや形状(例えば矩形や楕円)でもよい。例えば、目標視認範囲511は、ビル500が目標オブジェクトである場合に、ビル500を概略的に包含する楕円を目標視認範囲として設定する場合を示す。
図11の(B)は、目標視認範囲の他の設定例を示す。HMD1は、注視点が位置するオブジェクト(仮想オブジェクトまたは個別実体オブジェクト)に対し関連するオブジェクト(仮想オブジェクトまたは個別実体オブジェクト)を一緒にして1つの目標視認範囲に含めるように制御してもよい。本例では、注視点507が位置するタワー508という個別実体オブジェクトに対し、説明パネル503は、そのタワー508と共に表示することが好適である関連する仮想オブジェクトである。この場合に、HMD1は、(A)でのタワー508の目標視認範囲509と、説明パネル503の目標視認範囲505とを1つに合わせた、図示の破線で示す表示範囲を、2つの関連するオブジェクト(508,503)についての1つの目標視認範囲510として設定する。
図12は、他の表示例を示す。ユーザU1の視線方向に重なるオブジェクト(仮想オブジェクトや個別実体オブジェクト)のうち、注視点の奥行方向の位置とオブジェクトの位置との関係がはっきりせず、注視点が位置する目標オブジェクト(注視点に近いオブジェクト等)が判断しにくい場合や判断できない場合があり得る。図12の例では、注視点507に対応する視線方向に対し、タワー508である個別実体オブジェクトと、案内地図504である仮想オブジェクトとが重なっており、案内地図504はタワー508の一部を遮蔽している。例えば、注視点507の奥行き方向で、タワー508の位置と案内地図504の位置との中間付近に注視点507があるとする。このため、HMD1がどちらのオブジェクトが目標オブジェクトであるか判断できないとする。この場合、HMD1は、ユーザU1にとってのオブジェクトの視認価値(言い換えると重要度)等を基準として、目標オブジェクトを選択・確定する。例えば、HMD1は、候補である複数のオブジェクト(508,504)を比べて、視認価値・重要度の観点で優先順位を付け、優先順位が最も高いオブジェクトを目標オブジェクトとして確定し、その目標オブジェクトの表示範囲を目標視認範囲として設定する。
本例では、この視認価値に基づいた優先順位付けの判断の際の基準としては、仮想オブジェクトよりも個別実体オブジェクトを優先する。また、個別実体オブジェクト間でも、一般的な視認価値(例えば地図上の施設の著名性)を適用して比較する。この結果、本例では、HMD1は、タワー508の方が案内地図504よりも優先順位が高いと判断し、タワー508である個別実体オブジェクトを目標オブジェクトとし、目標視認範囲509を設定する。これらにより、ユーザU1が視認を望む目標オブジェクトの目標視認範囲を最適に選択して確定することができる。
なお、図1等において、注視点106は、説明用に図示している情報であって、実際には表示面11に表示されない。変形例としては、HMD1は、表示面11に、注視点106の位置に合わせて、注視点を表すマークのような画像を表示してもよい。その注視点マークのような画像は、操作用のポインタとは別の画像としてもよいし、同じ機能を持つ画像としてもよい。ポインタは、例えばOSやアプリケーションによる位置指定のための情報である。目標オブジェクトの選択は、注視点マークのような画像を用いてもよいし、ポインタを用いてもよい。
[オブジェクトのカテゴリー]
実施の形態1では、表示態様変更の制御に用いるオブジェクトの属性として、オブジェクトを3つのカテゴリーに分類する。図2の(C)には、3つのカテゴリーを示す。第1カテゴリーは、表示態様変更に対する制限度が最も高く、表示態様変更によって違和感が生じるオブジェクト、または個別実体オブジェクトである。表示形態変更によって違和感が生じるオブジェクトとしては、例えば実体物に仮想オブジェクトが固定されているもの、あるいは実体物に仮想オブジェクトが組み込み加工されて一体変形されたもの等が挙げられる。また、光学シースルー型の場合、実体物や個別実体オブジェクトは、表示態様変更が困難であるため、第1カテゴリーとされる。個別実体オブジェクトに仮想オブジェクトが固定あるいは組み込み加工される例としては、AR(拡張現実)やビデオゲームにおいて、実物の壁(対応する個別実体オブジェクト)の一部に穴が仮想オブジェクトとして表現されて固定あるいは組み込み加工されている場合が挙げられる。この壁と穴は、分離せずに一体として扱うべきなので、関連オブジェクトとして一体とし、制限度が最も高い第1カテゴリーとされる。
第2カテゴリーは、表示態様変更に関して、ある程度の制約を受けるが、第1カテゴリーよりも制限度が低く許容度が高いオブジェクトである。第2カテゴリーは、例えば第1カテゴリーの仮想オブジェクトや個別実体オブジェクトに関連して表示される説明パネル503(図11)等の仮想オブジェクトがある。
第3カテゴリーは、第2カテゴリーよりもさらに制限度が低く許容度が高いオブジェクト、言い換えると3つのうちで最も制限度が低いオブジェクトである。第3カテゴリーは、例えば実体物や他の仮想オブジェクトに対して表示位置等の関係の制限が無いまたは低い案内地図504(図11)等の仮想オブジェクトがある。第3カテゴリーは、独立した仮想オブジェクトや、例えばユーザU1が視認したいオブジェクトを視認できる表示位置に不自然さなく移動できるオブジェクトである。
図11の(A)の例で言えば、個別実体オブジェクトであるタワー508は、第1カテゴリーである。仮想オブジェクトである説明パネル503は、タワー508を説明し、タワー508に近接した位置への表示が相応しいというある程度の表示位置の制約があるため、第2カテゴリーである。仮想オブジェクトである案内地図504は、移動させても不自然さが無いオブジェクトであるので、第3カテゴリーである。
HMD1は、オブジェクトカテゴリー処理部415でのオブジェクトのカテゴリー分類に応じて、表示態様変更処理を行ってもよい。HMD1は、遮蔽妨害関係にあるオブジェクトにおいて、目標オブジェクトのカテゴリーと妨害オブジェクトのカテゴリーとで、表示態様変更に関する制限度に応じたカテゴリーを比較する。HMD1は、比較結果に基づいて、変更対象のオブジェクトや表示態様変更の方式や詳細を決定する。
例えば、オブジェクト表示態様制御処理部416は、目標オブジェクトが妨害オブジェクトよりも制限度が低くない(すなわち同じまたは高い)カテゴリーである場合には、妨害オブジェクトの表示態様変更を行う。一方、オブジェクト表示態様制御処理部416は、目標オブジェクトが妨害オブジェクトよりも制限度が低いカテゴリーである場合には、目標オブジェクトの表示態様変更を行う。これらにより、HMD1は、目標オブジェクトの目標視認範囲の視認妨害を、オブジェクト毎の制限度に応じた最適な形で解消または軽減できる。また、HMD1は、目標オブジェクトおよび妨害オブジェクトともに、表示態様変更に伴う視認の違和感を最低限にできる。
なお、上記方法および基準では、目標オブジェクトと妨害オブジェクトとで制限度が同じである場合には妨害オブジェクトの表示態様変更を行う。これに限らず、他の方法および基準では、目標オブジェクトと妨害オブジェクトとで制限度が同じである場合には目標オブジェクトの表示態様変更を行う、としてもよい。この場合、ユーザU1から見て近い位置にある前側の妨害オブジェクトの表示態様の維持を優先する方法になる。
[第1パターン]
ここで、実体物が実体物を遮蔽する場合(図2の第1パターン)の処理例を説明する。HMD1は、まず、遮蔽されている後側の実体物の部分の外観情報が無い場合には、遮蔽が無い、として処理する。この場合、遮蔽妨害関係が生じないので、表示態様変更も生じない。図9のフローで言えば、例外処理として、ステップS3で、遮蔽が無い(N)として扱われる。また、HMD1は、遮蔽されている後側の実体物の部分の外観情報がある場合、例えば前述の配置データからその外観情報が得られる場合には、遮蔽が有る、として処理する。図9のフローで言えば、ステップS3で、遮蔽が有る(Y)として扱われる。すなわち、HMD1は、後側の実体物の部分に対応する個別実体オブジェクトを目標オブジェクトとする。この場合、HMD1は、表示態様変更として、例えば図8と同様に、その目標オブジェクトである個別実体オブジェクトの外観を複製した複製オブジェクトを生成してその複製オブジェクトを空いている位置に表示する。これにより、ユーザU1は、複製オブジェクトを見ることで、遮蔽されている実体物の部分を視認できる。
HMD1は、遮蔽されている目標オブジェクトの表示を優先する場合に、その遮蔽されている位置にそのまま複製オブジェクトを表示するという方式を用いてもよい。この方式の場合には、遮蔽している方の妨害オブジェクトである実体物に対し前側に複製オブジェクトが重畳表示される形になる。これは、遮蔽している方の妨害オブジェクトの透過率をアップ調整する方式(図3)と同様になる。
一方、HMD1は、ユーザU1に近い前側の妨害オブジェクトの表示の維持を優先する場合には、後側の目標オブジェクトである個別実体オブジェクトの移動はできないので、他の空いている位置に複製オブジェクトを表示する方式(図8)を用いる。
なお、いずれの場合でも、ビデオシースルー型で実体物がビデオ映像として表示される場合には、HMD1は、ビデオ映像から切り出される個別実体オブジェクトを加工して仮想オブジェクトとして扱うことで、その個別実体オブジェクトについての表示態様変更を行ってもよい。
[動作例(1)]
図13等を用いて、実施の形態1のHMD1の動作例を説明する。図13は、図11等の動作例についての処理フローを示す。図13は、図9に対し、より詳細な処理例であり、ステップS601~S613を有する。図13は、特に図9のステップS2,S4の詳細を示す。ステップS601で、HMD1は、注意点検出処理部412により、ユーザU1の注視点を検出し、注視点に位置するオブジェクトが有るかを判断する。注視点に位置するオブジェクトが有る場合、言い換えると所定の距離範囲内にある1つのオブジェクトが決まる場合(Y)には、ステップS602で、HMD1は、そのオブジェクトを目標オブジェクトとして確定する。
次に、ステップS2の目標オブジェクト目標視認範囲識別処理部413による目標オブジェクトの目標視認範囲選定処理に入る。この処理は、ステップS603~S609で構成される。ステップS603で、HMD1は、注視点の視線方向に重なるオブジェクトが有るか判断し、無い場合(N)にはステップS604へ、有る場合(Y)にはステップS609へ移る。ステップS604で、HMD1は、その注視点の視線方向に重なるオブジェクトを目標オブジェクトとみなし、その注視する目標オブジェクトが、実体物(対応する個別実体オブジェクト)であるか仮想オブジェクトであるかを判別する。目標オブジェクトが実体物である場合(A)にはステップS605へ、目標オブジェクトが仮想オブジェクトである場合(B)にはステップS606へ移る。
ステップS605では、HMD1は、実体物から個別に切り出しまたは認識された個別実体オブジェクトを、目標オブジェクトの目標視認範囲として識別し選定する。ステップS606では、HMD1は、仮想オブジェクトの表示範囲を、目標オブジェクトの目標視認範囲として識別し選定する。
ここで、ステップS607で、HMD1は、実体物(S605)あるいは仮想オブジェクト(S606)である目標オブジェクトと関連するオブジェクトがあるかを判断する。関連するオブジェクトは、前述のように、表示位置が連動すべき仮想オブジェクト等である。関連するオブジェクトがある場合(Y)には、ステップS608で、HMD1は、目標オブジェクトと、その関連するオブジェクトとを含めて、1つの目標オブジェクトの目標視認範囲として識別し選定する(図11の(B))。
一方、ステップS609で、HMD1は、注視点の視線方向に重なる複数のオブジェクトのうち、所定の基準で1つのオブジェクトを選択して、目標オブジェクトとし、その目標オブジェクトの目標視認範囲を識別・選定する。この際、実施の形態1では、前述の視認価値・重要度を用いる。HMD1は、重なる複数のオブジェクトのうち、視認価値・重要度が最も高いオブジェクトを目標オブジェクトとし、その目標オブジェクトの表示範囲を目標視認範囲として識別し選定する。上記ステップS2の結果、目標オブジェクトの目標視認範囲が確定される。
その後、ステップS3で、HMD1は、妨害オブジェクト判別処理部414によって、目標オブジェクトの目標視認範囲を遮蔽する妨害オブジェクトとして仮想オブジェクト(「妨害仮想オブジェクト」と記載する場合がある)があるか否かを判別する。妨害仮想オブジェクトがある場合(Y)にはステップS4へ進み、無い場合(N)にはステップS4を飛ばす。実施の形態1では、HMD1は、目標視認範囲の少なくとも一部でも遮蔽する仮想オブジェクトがある場合には、それを妨害仮想オブジェクトとして、ステップS4へ進む。
ステップS4は、ステップS611~S613を有する。ステップS611で、HMD1は、オブジェクトカテゴリー処理部415によって、目標オブジェクトが妨害仮想オブジェクトよりも制限度が高いかどうか、すなわち目標オブジェクトが妨害仮想オブジェクトよりもカテゴリーが上位か否かを判別する。例えば目標オブジェクトが第1カテゴリー、妨害仮想オブジェクトが第2カテゴリーである場合、前者の方が上位である。目標オブジェクトが妨害仮想オブジェクトよりもカテゴリーが上位である場合(Y)にはステップS612へ、そうでない場合(N)にはステップS613へ移る。ステップS612で、HMD1は、オブジェクト表示態様制御処理部416によって、妨害仮想オブジェクトの表示態様変更として、前述の表示位置移動または透過度調整等を行う。ステップS613で、HMD1は、オブジェクト表示態様制御処理部416によって、目標オブジェクトの表示態様変更として、表示位置移動等を行う。これらにより、目標視認範囲の全容が視認できる状態にする。その後、前述のステップS5につながる。
[動作例(2)]
図14は、第2パターンの場合の動作例を示す。(a)の変更前の状態で、遮蔽妨害関係として、目標オブジェクトは第1カテゴリーの個別実体オブジェクトであるタワー508であり、妨害オブジェクトは第3カテゴリーの仮想オブジェクトである案内地図504である。注視点507が位置するタワー508の目標視認範囲509は、案内地図504によって一部遮蔽されている。この場合に、HMD1は、制限度が低くカテゴリーが下位である方の案内地図504を変更対象として、例えば透過度アップ調整を行う。これにより、(b)の変更後の状態では、案内地図504が透明になって目標オブジェクトであるタワー508の目標視認範囲509の全容が視認できる状態となる。
図15は、他の動作例として、表示態様変更として表示位置移動の場合を示す。図14の(a)と同じ場合に、HMD1は、カテゴリーが下位である方の案内地図504の表示位置を、タワー508の目標視認範囲509の外の位置に移動する。これにより、遮蔽するものが全くない状態で、目標オブジェクトであるタワー508の目標視認範囲509の全容を視認できる状態となる。
[動作例(3)]
図16は、第3パターンの場合の動作例を示す。図16は、図14等とは逆の場合であり、目標オブジェクトは第3カテゴリーの仮想オブジェクトである案内地図504であり、妨害オブジェクトは第1カテゴリーの個別実体オブジェクトであるタワー508である。(a)で、注視点502がある案内地図504の目標視認範囲506は、タワー508によって一部遮蔽されている。この場合、HMD1は、(b)のように、カテゴリーが下位である方の案内地図504をタワー508の外の位置に移動させ、目標視認範囲506内にタワー508が重ならない状態にする。これにより、遮蔽するものが全くない状態で、目標オブジェクトである案内地図504の目標視認範囲506の全容を視認できる状態となる。
[動作例(4)]
図17は、第4パターンの場合の動作例を示す。目標オブジェクトは、第2カテゴリーの仮想オブジェクトである説明パネル503であり、妨害オブジェクトは、第3カテゴリーの仮想オブジェクトである案内地図504である。(a)で、説明パネル503の目標視認範囲505は、案内地図504によって一部遮蔽されている。この場合、HMD1は、(b)のように、カテゴリーが下位である方の案内地図504の透過度アップ調整を行う。これにより、案内地図504が透明になって、目標オブジェクトである説明パネル503の目標視認範囲505の全容を視認できる状態となる。
図18は、他の動作例として表示位置移動の場合を示す。HMD1は、図17の(a)と同じ場合に、カテゴリーが下位である方の案内地図504の表示位置を目標視認範囲505の外の位置に移動する。これにより、遮蔽するものが全くない状態で、目標オブジェクトである説明パネル503の目標視認範囲505の全容を視認できる状態となる。
[動作例(5)]
図19は、他の動作例を示す。図19は、図17の場合とは逆の場合であり、目標オブジェクトが第3カテゴリーの仮想オブジェクトである案内地図504であり、妨害オブジェクトが第2カテゴリーの仮想オブジェクトである説明パネル503である。(a)で、案内地図504の目標視認範囲506は、説明パネル503に一部遮蔽されている。この場合、HMD1は、カテゴリーが下位である方の案内地図504を移動させて、目標視認範囲506内に説明パネル503や他のオブジェクトが重ならない位置に変更する。これにより、遮蔽するものが全くない状態で、目標オブジェクトである案内地図504の目標視認範囲506の全容を視認できる状態となる。
なお、目標オブジェクトが第1カテゴリーであり妨害オブジェクトが第2カテゴリーである場合は、目標オブジェクトが第1カテゴリーであり妨害オブジェクトが第3カテゴリーである場合と同様の制御が適用可能である。
[効果等(1)]
上記のように、実施の形態1によれば、3次元配置の仮想オブジェクトを表示できるHMD1において、ユーザU1が視認したい実体物や仮想オブジェクト等のオブジェクトの視認範囲に対し他のオブジェクトによる遮蔽等による視認妨害がある場合に、表示態様変更によって、その視認妨害を解消または軽減でき、ユーザU1がオブジェクトの全容を好適に視認することができる。かつ、そのような機能をユーザの手間が少なく使い勝手良く実現できる。実施の形態1によれば、オブジェクト間に遮蔽妨害関係があった場合でも、ユーザは、注視を望む目標オブジェクトの目標視認範囲の全容を好適に視認できる。実施の形態1によれば、遮蔽妨害関係に応じて自動的に表示態様変更を行ってユーザの視認を支援できるので、ユーザの手間も少なく使い勝手良くそのような機能を実現できる。
なお、特許文献1では、視線方向に対し背景の視認を妨害するオブジェクトがある場合に、オブジェクトの表示形態を変更する。それに対し、実施の形態1は、3次元配置されるオブジェクト間の遮蔽関係で、目標オブジェクトの目標視認範囲の視認を妨害する妨害オブジェクトがある場合に、目標視認範囲の全容を視認できるように、妨害オブジェクトまたは目標オブジェクトについて表示態様を変更する。
[変形例]
実施の形態1の変形例として以下も可能である。HMD1は、視線に基づいて目標オブジェクトを判断する際に、視線方向の動きが所定の閾値以下となった場合に、ユーザU1が注視したい目標オブジェクトがあると判断してもよい。これにより、意図しない急速な目の動きによる誤処理を除外し、目標オブジェクトをより正確に特定可能である。誤処理は、注視点が短時間にオブジェクトに位置した場合にそのオブジェクトを誤って目標オブジェクトとしてしまうことが挙げられる。
また、HMD1は、目標視認範囲を設定する際に、オブジェクトの画像領域の大きさ・面積を判断し、上限を設定してもよい。HMD1は、目標視認範囲が所定の閾値以上に大きい・広い場合には、その所定の閾値に対応した上限範囲を、目標視認範囲として設定してもよい。例えば、視界範囲において目標オブジェクトがあまりにも大きすぎる場合、表示態様変更として妨害オブジェクトを目標視認範囲の外に出す場合等に表示が難しい。このような場合、目標視認範囲の上限設定が有効である。
<実施の形態2>
図20等を用いて、実施の形態2について説明する。実施の形態2は、実施の形態1に対する追加の機能として以下を有する。視界範囲において、目標オブジェクトの候補となるオブジェクト(目標候補オブジェクトと記載する場合がある)が、他のオブジェクトである仮想オブジェクトまたは個別実体オブジェクトによって遮蔽されていてユーザから存在が分からない場合があり得る。この機能は、そのような場合に、その目標候補オブジェクトの存在を確認できる機能である。
[目標候補オブジェクトの存在確認(1)]
図20は、実施の形態2での動作例の説明図である。図20では、あるオブジェクト(目標候補オブジェクト)が実体物に遮蔽されている場合の表示態様変更の例を示す。(a)は変更前の状態を示す。視界範囲101において、個別実体オブジェクトであるタワー508と、仮想オブジェクトである説明パネル1213とが表示されている。また、注視点1201の方向に位置するオブジェクトとして、タワー508と、そのタワー508に遮蔽されることで隠れて見えない仮想オブジェクトである案内地図1202(点線で示す)とがある。すなわち、見えない目標候補オブジェクトとして、案内地図1202がある。この場合、HMD1は、(b)のように、視線方向にあるオブジェクト(508,1202)に関する表示態様を変更する。本例では、HMD1は、目標候補オブジェクトである案内地図1202の少なくとも一部が、タワー508による遮蔽から外れて見える状態となるように、案内地図1202の表示位置を移動する。(b)で、変更後の案内地図1203は、少なくとも一部がユーザU1から見える状態である。HMD1は、目標候補オブジェクトに対応する表示範囲の全てが見える状態に変更してもよい。また、HMD1は、目標候補オブジェクトに対応する表示範囲のうち所定の割合の部分が見える状態となるようにしてもよい。これにより、ユーザU1は、案内地図1202の存在を認識・確認できる。これにより、ユーザU1は、注視点(移動後の注視点1201b)を用いて、案内地図1202を目標オブジェクトとして選択可能となる。
図21は、他の表示例を示す。(a)の変更前の状態で、注視点1211の方向に位置するオブジェクトとして、タワー508に関連する仮想オブジェクトである説明パネル1213と、その説明パネル1213に遮蔽されることで隠れて見えない仮想オブジェクトである案内地図1212とがある。すなわち、見えない目標候補オブジェクトとして、案内地図1212がある。この場合、HMD1は、視線方向にあるオブジェクト(1212,1213)に関する表示態様を変更する。本例では、HMD1は、(b)のように、目標候補オブジェクトである案内地図1212を遮蔽している前側の説明パネル1213の表示態様変更として、例えば透過度アップ調整を行う。これにより、説明パネル1213が透けて背後にある案内地図1212が見える状態になる。これにより、ユーザU1は、目標候補オブジェクトである案内地図1212の存在を確認でき、注視点1211を用いて目標オブジェクトとして選択可能となる。
図22は、図21等の例のように視線方向に複数のオブジェクトが重なって注視点が位置する目標オブジェクトが判断しにくい場合に関する補足説明図である。図22ではユーザU1から視界範囲101を見る奥行き方向(Z方向)でのオブジェクトの重なりを模式的に示している。ユーザU1の視点から近い前側に説明パネル1233、後側に案内地図1232が配置されている。案内地図1232は、図21での目標候補オブジェクトである案内地図1212に相当する。説明パネル1233は、遮蔽妨害関係では妨害オブジェクトに相当する。図22では、注視点1231が位置する目標候補オブジェクトである案内地図1212は、焦点の合っていない妨害仮想オブジェクトである説明パネル1233によって遮蔽されており、図21と同様にユーザU1からは隠れて見えない。焦点が合っていないオブジェクトとは、注視点が位置していないオブジェクト、注視点からの距離が大きいオブジェクトである。
注視点1231は、両眼の視線(104,105)から算出される注視点の例である。本例では、奥行き方向(Z方向)において、注視点1231は、案内地図1232の近くに位置している。注視点1231からオブジェクトへの距離として、案内地図1232への距離が最も小さく、所定距離範囲内にある。そのため、案内地図1232は、目標候補オブジェクトとなる。
HMD1は、この場合に、視線の向きおよび注視点によって、説明パネル1233には焦点が合っていないことを検出する。HMD1は、目標候補オブジェクトの存在確認のために、焦点の合っていない説明パネル1233の方の表示態様変更として、例えば透過度アップ調整を行う(図21と同様)。これにより、変更後の説明パネル1233bは、透明(透過度が高い状態)になって、背後にある案内地図1232が見える状態となり、ユーザU1は、目標候補オブジェクトである案内地図1233の存在を確認できる。
[目標候補オブジェクトの存在確認(2)]
図23は、実施の形態2でのHMD1の上記目標候補オブジェクトの存在確認の機能に係わる処理フローを示す。図23のフローは、前述のフローに対し異なる部分として、ステップS1100~S1104を有する。この部分は、図9のステップS2に対する前処理として行われる。
ステップS1100で、HMD1は、この機能に対応するモードがオン(有効)状態であるかを確認し、オン状態である場合には以降の処理を行う。モードは、例えばユーザU1が操作入力部435を通じて設定や指示が可能である。
ステップS1101で、HMD1は、表示面11全体において、オブジェクト(仮想オブジェクトまたは個別実体オブジェクト)によって遮蔽されることでユーザU1から見て存在が分からない状態になっているオブジェクトである目標候補オブジェクトがあるかを判断する。この目標候補オブジェクトは、ユーザU1から見えないので認識できず、注視点による選択もできないオブジェクトである。そのような目標候補オブジェクトがある場合(Y)にはステップS1102へ、無い場合にはステップS2へ移る。
ステップS1102で、HMD1は、存在確認処理を行うトリガが発生したかを確認・待機する。このトリガは、存在確認処理を行うかどうかをユーザU1が指示できるトリガである。このトリガは、例えば操作入力部435やマイク436を通じた指示入力を受けた時、あるいは検出されたユーザU1の視線が目標候補オブジェクトの近傍に行った時等とすることができる。例えば、図20のように、HMD1は、視界範囲101に「隠れているオブジェクトがあります。表示して確認しますか?」といったガイドやボタン等を表示し、ボタン押下等をトリガとしてもよい。また、トリガ入力のステップS1102を省略し、自動的にオブジェクトの存在確認処理を行う形態も可能である。
上記トリガが発生した場合、ステップS1103で、HMD1は、オブジェクト表示態様制御処理部416により、目標候補オブジェクトの表示態様変更(表示位置移動または複製表示等)、あるいは遮蔽している妨害オブジェクトの表示態様変更(透過度アップ調整等)を行う。ステップS1104で、HMD1は、その表示態様変更後の状態を一定時間維持する。これにより、ユーザU1は、目標候補オブジェクトの存在を確認できる。ユーザU1は、特別な操作を不要として、目標候補オブジェクトの存在を容易に確認できる。ステップS1104の後、前述のステップS2につながる。
上記のように、実施の形態2の機能では、オブジェクトに遮蔽されて存在が分からないオブジェクトがある場合に、その目標候補オブジェクトの少なくとも一部が視認できるように、目標候補オブジェクトまたは妨害オブジェクトの少なくとも一方の表示態様変更を行う。これにより、ユーザU1が目標候補オブジェクトを確実に確認でき、目標オブジェクトとして選択可能となる。なお、隠れて見えない個別実体オブジェクトがある場合で、その個別実体オブジェクトの外観情報がある場合には、その個別実体オブジェクトについても目標候補オブジェクトとして扱い、同様に存在確認を行ってもよい。
[効果等(2)]
上記のように、実施の形態2によれば、隠れて見えない目標候補オブジェクトがある場合にも、一種の表示態様変更によって、存在確認ができ、ユーザU1が目標オブジェクトとして選択可能となる。なお、HMD1の機能としてユーザU1の1つの視線方向しか検出できない場合、奥行き方向の注視点の判断は難しい。この場合、実施の形態2では、表示面において隠れているオブジェクトを見えるように表示態様変更する、すなわち表示面において奥行き方向には1つのオブジェクトしかない状態にすることで、1つの視線方向しかなくても、その視線方向にあるオブジェクトを目標オブジェクトとして確定することができる。
[オブジェクトデータおよび属性情報]
以上では、HMD1は、各オブジェクトの表示態様変更に関して、制限度(言い換えると許容度)に関するカテゴリー、および視認価値(言い換えると重要度)といったパラメータを参照して制御内容を決定する場合を説明した。上記カテゴリーにおける制限度や許容度は、オブジェクト毎に表示態様変更に関する制限や許容の度合いを表す属性情報の1つである。オブジェクト毎のデータにおいて、属性情報の1つとして、そのような制限度または許容度、カテゴリー、あるいは他の情報が設定されていてもよい。また、オブジェクト毎の属性情報の他の情報の例として、オブジェクト毎の視認価値や重要度、あるいは優先度等が設定されていてもよい。これらのパラメータは、HMD1または外部装置がデータとして管理・保持してもよい。
図24は、HMD1が管理・保持するオブジェクトデータの例を示す。このオブジェクトデータは、オブジェクト毎の属性情報を含む管理用のデータである。このオブジェクトデータは、例えばアプリケーション毎に異なる管理情報としてもよいし、ユーザ毎に異なる管理情報やユーザ設定情報としてもよい。HMD1は、オブジェクトデータの各情報を自身で生成し設定してもよいし、外部装置(例えば図1の情報サーバ120)からその情報を参照してもよい。
図24のオブジェクトデータの表は、列として、ID、オブジェクト、種類、カテゴリー、視認価値、関連オブジェクト、および共有ユーザを有する。「ID」は「オブジェクト」毎の識別子である。「オブジェクト」の例は前述のタワーや説明パネル等である。「種類」は、ここでは、A.個別実体オブジェクト、B.仮想オブジェクト、の2種類がある。カテゴリー(対応する制限度)は、例えば前述のように、1(高)、2(中)、3(低)の3つがある。視認価値(対応する重要度)は、例えば、1(高)、2(中)、3(低)の3つがある。「関連オブジェクト」は、他のオブジェクトとの関連性を表し、例えば、ID=1のオブジェクトは、関連オブジェクトとしてID=2のオブジェクトを有し、ID=2のオブジェクトは、関連オブジェクトとしてID=1のオブジェクトを有する。「共有ユーザ」は、後述するが、そのオブジェクトを複数のユーザが共有ユーザとして共有する場合における共有ユーザの識別子を示す。
本例では、「視認価値」については、数字が小さい程高い。「カテゴリー」や「視認価値」の設定は、HMD1が行ってもよいし、ユーザ設定で行ってもよい。例えば、HMD1は、オブジェクトの一般的な著名性等に基づいて「視認価値」を設定してもよい。あるいは、HMD1は、ユーザU1のそのオブジェクトへの関心度合いに応じて「視認価値」を設定してもよい。例えば前述の図11等では、地図上の施設等の個別実体オブジェクト毎に、一般的な著名性に基づいて「視認価値」が設定されている。「制限度」や「視認価値」を総合して「カテゴリー」が決定されてもよい。
また、HMD1は、オブジェクトデータとは別に、制御処理中では、時点毎に適宜にオブジェクト情報を処理および記憶する。このオブジェクト情報は、オブジェクト毎に、表示面11での表示位置、3次元オブジェクトの3次元配置の向き、表示範囲(画像領域)、目標視認範囲、および表示態様変更状態等の情報を有する。表示態様変更状態は、変更有無、変更方式等がある。HMD1は、上記オブジェクトデータ、オブジェクト情報、視線および注視点等の情報を用いて、オブジェクト表示を制御する。
<実施の形態3>
図25等を用いて、実施の形態3について説明する。実施の形態3は、共有ユーザ間での共有オブジェクトに関する表示態様変更を行う機能を有する。
[共有ユーザおよび共有オブジェクト]
図25は、実施の形態3のHMD1の動作例についての説明図である。図25では、HMD1を各々装着した複数(例えば二人)のユーザ(U1,U2)がいる。第1ユーザU1はHMD1Aを使用し、第2ユーザU2はHMD1Bを使用している。これらのユーザ(U1,U2)間で、仮想オブジェクトである「A」のオブジェクト103および「B」のオブジェクト102を共有する。ユーザU1,U2は、それらの仮想オブジェクトを共有する共有ユーザである。「A」「B」のオブジェクトは、それぞれ、共有ユーザ(U1,U2)によって共有される共有オブジェクトである。共有ユーザ(U1,U2)のHMD1(1A.1B)間では、前述の近距離無線通信によって、共有のための通信2500を行う。
図25では、表示や視認等の状態に関する第1例を示す。共有ユーザ(U1,U2)が共有オブジェクト(A,B)を見ている。特に、ある時点で、第1ユーザU1は、視界範囲101Aにおいて、視線E1による注視点P1が位置する「A」のオブジェクト103を目標オブジェクトとして見ている。HMD1Aは、その「A」のオブジェクト103の目標視認範囲107Aを設定する。また、第2ユーザU2は、視界範囲101Bにおいて、視線E2による注視点P2が位置する「B」のオブジェクト102を目標オブジェクトとして見ている。HMD1Bは、その「B」のオブジェクト102の目標視認範囲107Bを設定する。第1例では、第2ユーザU2から見て遮蔽妨害関係があり、第2ユーザU2が視認する後側の「B」のオブジェクト103が目標オブジェクトであり、第1ユーザU1が視認する前側の「A」のオブジェクト102が妨害オブジェクトである。
なお、視線E1,E2は、それぞれ前述の両眼の視線(104,105)を1本にまとめたものを示す。図25では、ユーザU1が見る視界範囲101Aの表示内容と、ユーザU2が見る視界範囲101Bの表示内容とを同じとして図示しているが、各ユーザの視点位置が異なるので、実際の表示内容、すなわちオブジェクトの見え方も異なる。
また、次の図26は第2例を示す。図26は、図25の第1例とは逆に、第1ユーザU1が後側の「B」のオブジェクト102を見ており、第2ユーザU2が前側の「A」のオブジェクト103を見ている場合を示す。第2例では、第1ユーザU1から見て遮蔽妨害関係があり、第1ユーザU1が視認する後側の「B」のオブジェクト103が目標オブジェクトであり、第2ユーザU2が視認する前側の「A」のオブジェクト102が妨害オブジェクトである。
[表示例(3-1)]
上記のような場合に、HMD1は、共有ユーザの共有オブジェクトに関する表示態様変更を行う。まず、図27は、図25の第1例に対応した変更例を示す。(a)は、第1ユーザU1から視界範囲101Aの画像を見た状態として、表示態様の変更前の状態を示し、(c)は、変更後の状態を示す。(b)は、第2ユーザU2から視界範囲101Bの画像を見た状態として、表示態様の変更前の状態を示し、(d)は、変更後の状態を示す。(a)で、第1ユーザU1のHMD1Aは、第2ユーザU2のHMD1Bとの通信2500に基づいて、視界範囲101Aにおいて、マーク情報m2を生成し表示する。このマーク情報m2は、第2ユーザU2がどのオブジェクトを見ているか、すなわち第2ユーザU2の注視点P2が位置する目標オブジェクトがどれか、を表す画像である。例えば、第2ユーザU2のHMD1Bは、目標オブジェクトが「B」であることを伝える情報をHMD1Aに送信し、第1ユーザU1のHMD1Aは、目標オブジェクトが「A」であることを伝える情報をHMD1Bに送信する。HMD1Aは、HMD1Bからの情報に応じて、マーク情報m2として例えば第2ユーザU2を表す番号「2」のマークを生成し、第2ユーザU2の目標オブジェクトである「B」のオブジェクトの付近に表示する。これにより、第1ユーザU1は、共有ユーザである第2ユーザU2がどの共有オブジェクトを見ているかを認識できる。
一方、(b)で、同様に、第2ユーザU2のHMD1Bは、第1ユーザU1のHMD1Aとの通信2500に基づいて、視界範囲101Bにおいて、第1ユーザU1がどのオブジェクトを見ているかを表すマーク情報m1を生成し表示する。HMD1Bは、HMD1Aからの情報に応じて、マーク情報m1として例えば第1ユーザU1を表す番号「1」のマークを生成し、第1ユーザU1の目標オブジェクトである「A」のオブジェクトの付近に表示する。これにより、第2ユーザU2は、第1ユーザU1がどの共有オブジェクトを見ているかを認識できる。
さらに、各共有ユーザ(U1,U2)のHMD1(1A,1B)は、上記のような共有ユーザ間での共有オブジェクトの視認の関係、および遮蔽妨害関係に応じて、オブジェクトの表示態様変更を行ってもよい。その例を(c),(d)に示す。まず、(a)から(c)への変更の例では以下である。(a)の状態では、第1ユーザU1が見ている「A」の目標オブジェクトの目標視認範囲107Aの背後に、第2ユーザU2が見ている「B」のオブジェクトが遮蔽されている。HMD1Aは、第1ユーザU1が「A」の目標オブジェクトを遮蔽妨害無く視認できているので、「A」のオブジェクトの表示についてはそのままとする。第2ユーザU2が見ている「B」のオブジェクトについては、そのままの表示としてもよいが、第1ユーザU1から見ると一部遮蔽されている。よって、本例では、HMD1Aは、第2ユーザU2が「B」のオブジェクトを見ている箇所を、第1ユーザU1にも見えやすいように、共有ユーザの「B」の目標オブジェクトの表示態様を変更する。(c)は、「B」のオブジェクトの表示位置を移動して全容を見える状態にする例を示す。この表示態様変更は、自動ではなく、第1ユーザU1による所定の入力操作に応じて行われてもよい。例えば、HMD1Aは、表示面11に「共有ユーザ(2)が見ているオブジェクトを確認しますか」等と表示し、ユーザU1によるボタン押下操作等に応じて、(c)のように変更を行ってもよい。
次に、(b)から(d)への変更の例では以下である。(b)の状態では、第2ユーザU2が見ている「B」の目標オブジェクトの一部が、第1ユーザU1が見ている「A」のオブジェクトによって遮蔽妨害されている。よって、本例では、HMD1Bは、「B」の目標オブジェクトの全容が見える状態になるように、妨害オブジェクトである第1ユーザU1の「A」の目標オブジェクトについて、表示態様を変更する。(d)は「A」のオブジェクトの表示位置を移動する例を示す。これにより、第2ユーザU2は、「B」の目標オブジェクトを確認できる。
共有オブジェクトに関する表示態様変更の方式は、前述と同様に、透過度アップ調整(図3)や複製表示(図8)等の各種の方式を同様に適用可能である。(e)は、他の表示例として、(a)の第1ユーザU1から見た状態から、他の表示態様変更後の状態を示す。(a)の場合に、HMD1Aは、(e)のように、「A」のオブジェクトの透過度アップ調整によって、「B」のオブジェクトの全容が見えるように変更する。この変更は、(c)の場合と同様に、所定の操作に応じて行われてもよい。これにより、第1ユーザU1は、「A」の目標オブジェクトだけでなく、第2ユーザU2の「B」の目標オブジェクトについても併せて確認できる。
(f)は、他の表示例として、(b)の第2ユーザU2から見た状態から、他の表示態様変更後の状態を示す。(b)の場合に、HMD1Bは、(f)のように、「A」のオブジェクトの透過度アップ調整によって、「B」の目標オブジェクトの全容が見えるように変更する。
上記のように、実施の形態3では、各共有ユーザで共有オブジェクトに対する注視の視認状態が異なる場合に、その視認状態を表すマーク情報を表示する。これにより、共有ユーザ間で各共有ユーザが注視し視認している共有オブジェクトを確認することができる。これにより、共有ユーザ間のコミュニケーションや作業等が容易になる。図26の第2例の場合でも、上記第1例の場合と同様の制御が適用可能である。
[表示例(3-2)]
図28は、他の表示例を示す。(a)は、図25の第1例、および図27の(a)と同様に、第1ユーザU1が前側の「A」のオブジェクトを見ている状態を示す。(b)は、図27の(b)と同様に、第2ユーザU2が後側の「B」のオブジェクトを見ている状態を示す。(a)の場合に、HMD1Aは、(c)のように、表示態様を変更する。HMD1Aは、第1ユーザU1の「A」の目標オブジェクト、および第2ユーザU2の「B」の目標オブジェクトの表示についてはそのままとし、遮蔽されている「B」のオブジェクトの全容についても確認できるように、「B」のオブジェクトの複製オブジェクト102rを生成して、何ら遮蔽されない空いている位置に表示する。複製オブジェクト102rを表示する位置は、特に、第2ユーザU2がいる方向(本例では右側)に対応させるように決めると、より好ましい。また、複製オブジェクト102rにも、共有ユーザ注視オブジェクトを表すマーク情報m2を付けて表示してもよい。これにより、第1ユーザU1は、「A」の目標オブジェクトだけでなく、第2ユーザU2の「B」の目標オブジェクトの全容についても併せて確認できる。
同様に、(b)の場合に、HMD1Bは、(d)のように、表示態様を変更する。HMD1Bは、一部遮蔽されている「B」の目標オブジェクトに対する複製オブジェクト102r(なお(c)の複製オブジェクト102rとは見え方が異なる)を生成し、空いている位置に表示する。あるいは、他の方式として、HMD1Bは、「B」の目標オブジェクトについてはそのままとし、妨害オブジェクトである「A」のオブジェクトの方を、前述と同様に表示位置変更等してもよい。
(e),(f)は、他の表示例である。(e)は、第1ユーザU1から見た状態である。第1ユーザU1から見ると、第2ユーザU2が見ている「B」のオブジェクトが一部遮蔽されている。HMD1Aは、共有ユーザの「B」のオブジェクトについての表示態様変更を上記と同様に行う。一方、(f)は、第2ユーザU2から見た状態である。第2ユーザU2から見ると、「B」の目標オブジェクトは、「A」のオブジェクトによって遮蔽されておらず全容が見える状態である。よって、HMD1B側は、表示態様変更を行わない。
[表示例(3-3)]
図29は、他の表示例として、共有ユーザ(U1,U2)が同じ共有オブジェクト(例えば「B」のオブジェクト102)を見ている場合の表示態様変更の例を示す。(a)は、第1ユーザU1から見た状態であり、(c)は、第2ユーザU2から見た状態である。(a)で、第1ユーザU1は、後側の「B」のオブジェクトを、「A」のオブジェクトの右側から見ている。「B」の目標オブジェクトは、「A」のオブジェクトによって一部遮蔽されている。(c)で、第2ユーザU2は、後側の「B」のオブジェクトを、「A」のオブジェクトの左側から見ている。「B」の目標オブジェクトは、「A」のオブジェクトによって一部遮蔽されている。(a)の状態で、HMD1Aは、「B」のオブジェクトに、第2ユーザU2も見ていることを表すマーク情報m2を表示する。(c)の状態で、HMD1Bは、「B」のオブジェクトに、第1ユーザU1も見ていることを表すマーク情報m1を表示する。(b),(d)は、それぞれの表示態様変更後の例である。(b)は、妨害オブジェクトである「A」のオブジェクトの表示位置を例えば左側の位置へ変更する例である。(d)は、妨害オブジェクトである「A」のオブジェクトの表示位置を例えば右側の位置へ変更する例である。
上記のように、実施の形態3では、各共有ユーザが同じ共有オブジェクトを注視する視認状態である場合に、その視認状態を表すマーク情報を表示する。これにより、共有ユーザ間で各共有ユーザが注視し視認している共有オブジェクトを確認することができる。
上記例では、遮蔽妨害関係は前述(図2)の第4パターンとしたが、これに限らず、他のパターンでも同様の制御が可能である。個別実体オブジェクトが共有オブジェクトである場合にも、上記マーク情報の表示が可能である。光学シースルー型の実体物以外のオブジェクトについて、表示態様変更が可能である。前述の制限度や視認価値についても、共有オブジェクトに適用可能である。
[効果等(3)]
上記のように、実施の形態3によれば、共有ユーザの共有オブジェクトに対し、各ユーザのHMD1毎にそれぞれ適した表示態様変更の表示が行われる。これにより、各ユーザは、それぞれ、オブジェクト間の遮蔽による視認妨害を解消または軽減しつつ、視認に何ら混乱を生じず、共有オブジェクトを確実に視認できる。実施の形態3では、共有ユーザ間において少なくとも一方のHMD1で、共有ユーザ注視オブジェクトを表すマークの表示とともに、視認および遮蔽妨害の関係に応じた表示態様変更が行われる。この表示態様変更の際には、前述の遮蔽妨害関係、制限度や視認価値だけでなく、共有ユーザがどの共有オブジェクトを視認しているかという視認関係も考慮されて、方式や詳細が決定される。例えば、図27の例では、第1ユーザU1のHMD1A側を考えた場合、第1ユーザU1が見ている前側の「A」の目標オブジェクトと、第2ユーザU2が見ている後側の「B」のオブジェクトとの関係で、第1に優先されるべきは、「A」の目標オブジェクトの全容の表示である。(a)の状態では、全容が視認できるので、前述の実施の形態1の場合には、表示態様変更が不要である。「B」のオブジェクトは妨害オブジェクトではないが、共有ユーザが見ている目標オブジェクトである。そのため、実施の形態3の場合には、「B」のオブジェクトについても全容が確認できるように、表示態様変更が可能である。その変更の際には、例えば「A」と「B」の両方のオブジェクトの全容が視認できるように、方式や詳細が選択される。例えば、(e)の透過度調整の方式の場合、「A」の目標オブジェクトの一部が一時的に透明になってやや見えにくくなるので、より好適な方式として、(c)の表示位置移動や、図28の(c)の複製表示の方式が選択されてもよい。
[変形例(3-1)]
実施の形態3では、共有ユーザ注視オブジェクトを表すマーク情報は、注視点とは別のものとした。マーク情報は、共有ユーザが注視するオブジェクトの目標視認範囲のうち、他のオブジェクトによって遮蔽される領域以外の領域に表示される。遮蔽される領域に表示されると、注視先が前後のどちらのオブジェクトであるかが不明となるので、このような表示とすることで明確にできる。また、共有ユーザのHMD1間では、常時に相互通信を行って略リアルタイムで表示状態(マーク情報を含む)を更新してもよいし、定期的に通信を行って定期的に表示状態を更新してもよい。
変形例として、共有ユーザ注視オブジェクトを表すマーク情報の表示位置については、注視点に合わせた位置としてもよい。また、他の変形例として、視界範囲において、注視点に対応する位置に、注視点を表すマークを表示してもよい。視界範囲において、リモートコントローラ等による選択操作のためのポインタを表示してもよい。図30は、変形例で、視界範囲101に、共有ユーザ注視オブジェクトを表すマークの他に、注視点を表すマーク3001や、ポインタ3003を表示する例を示す。第1ユーザU1の注視点P1の位置には例えばひし形のマーク3001が表示されている。第2ユーザU2の注視点P2の位置には例えば三角のマーク3002が表示されている。また、第1ユーザU1の操作用のポインタとして、例えば十字形のポインタ3003が表示されている。
[変形例(3-2)]
図31は、他の変形例における表示例を示す。(a)は、第1ユーザU1から見た状態であり、前述の図27の(a)と同様である。第1ユーザU1は、前側の「A」の目標オブジェクトを見ている。(b)は、第2ユーザU2から見た状態である。第2ユーザU2は、後側の「B」のオブジェクトを、第1ユーザU1の視線方向とは異なる視線方向、例えば90度異なる方向から見ている。ここで、「B」の共有オブジェクトについて、第1ユーザU1から見た形状や箇所と、第2ユーザU2から見た形状や箇所とは異なっている。(b)では、第2ユーザU2から見た「A」「B」のオブジェクトの側面を「A#」「B#」として図示している。
(c),(d)は、表示態様変更後の状態を示す。(c)で、HMD1Aは、「A」の目標オブジェクトについてはそのままの表示とし、共有ユーザが見ている一部遮蔽されている「B」のオブジェクトについて、確認のために、表示態様を変更する。この際、HMD1Aは、「B」のオブジェクトについて、表示態様変更として、(b)のような第2ユーザU2から見た形状や箇所の状態となるように表示する。本例では、HMD1Aは、「B」のオブジェクトをそのままとし、空いている位置に、吹き出しとともに、「B」のオブジェクトの複製オブジェクト3101を生成し表示している。この複製オブジェクト3101は、(b)のオブジェクト3102と同じ見え方の複製オブジェクトとして生成されている。これにより、第1ユーザU1は、「B」の共有オブジェクトの全容として、特に第2ユーザU2から見た状態を確認することができる。(b)の第2ユーザU2から見た状態については、遮蔽妨害関係が無いのでそのままの表示としてもよいし、以下としてもよい。(d)のように、HMD1Bは、第1ユーザU1が見ている「A」のオブジェクトについて、上記と同様に、第1ユーザU1が見ている形状や箇所が見える状態となるように、表示態様を変更する。本例では、「A」のオブジェクトの前に重畳させて、(a)の見え方の「A」のオブジェクト3103を生成し表示している。
<実施の形態4>
図32等を用いて、実施の形態4について説明する。実施の形態4では、目標オブジェクト確定方法の変形例を示す。前述の実施の形態では、ユーザの視線からの注視点の検出によって目標オブジェクトを判断・確定していた。変形例では、各オブジェクトに付して表示したタグに対するユーザからの選択入力操作を受け付ける。これにより、HMDは目標オブジェクトを確定する。
図32は、実施の形態4での表示例を示す。ユーザU1のHMD1の視界範囲101において、前述と同様に、個別実体オブジェクトであるタワー508、仮想オブジェクトである説明パネル503や案内地図504等が表示されている。HMD1は、視界範囲101において、各オブジェクトに対し、タグを付して表示する。このタグは、オブジェクトを識別し選択可能とするための画像である。本例では、タグ(701,702,703)は、オブジェクトからの引き出し線で接続された矩形と、オブジェクトを識別する番号とを有する。
ユーザU1は、HMD1に備える所定の操作手段を用いて、オブジェクト選択入力操作を行う。所定の操作手段は、例えば音声入力を利用できるが、これに限定されず、リモートコントローラによるポインタ、視線による注視点検出、手によるジェスチャの認識等、各種の手段を適用できる。音声入力によるオブジェクト選択の場合、例えば以下のようになる。ユーザU1は、例えばオブジェクトとしてタワー508を選択したい場合、そのオブジェクトに付されたタグ703の番号(「3」)を音声で入力する。HMD1は、入力された音声の番号を認識し、その番号のタグに対応付けられるオブジェクトを把握する。
例えば複数のオブジェクトが密集している状況等では、注視点だけ用いても目標オブジェクトの確定が難しい場合がある。このような場合、実施の形態4でのタグ選択入力受付を併用することで、目標オブジェクトの確定の正確性を増すことができる。また、実施の形態4でのタグ選択方法を用いることで、HMD1として注視点検出機能が無い装置でも、前述の表示態様変更等の機能が適用可能となる。
図32の(a)の変更前の状態では、タワー508の前側に案内地図504が重なっている。ユーザU1の注視点507は、タワー508と案内地図504とに重なっており、目標オブジェクトの判断が難しい場合がある。この場合でも、タグを用いれば簡単に目標オブジェクトの確定が可能である。例えばタワー508が目標オブジェクトとして選択される。(b)は変更後の状態を示す。HMD1は、選択されたタワー508を遮蔽する案内地図504について例えば透過度アップ調整を行う。これにより、タワー508の全容が見える状態となる。
なお、HMD1は、タグ表示を常時に行ってもよいし、注視点だけでは目標オブジェクトの確定が難しいと判断した場合に行ってもよいし、ユーザU1によるタグ表示指示入力に応じて行ってもよい。
[変形例]
図33は、実施の形態4での変形例の表示装置または情報処理装置としてスマートフォンに適用した例を示す。図33では、スマートフォン700の表示面での表示例として、各オブジェクトにタグを付して表示する例を示す。スマートフォン700の場合でも、オブジェクト間の遮蔽妨害関係は、奥行き方向の位置を考慮した3次元配置を前提に考える。そのため、前述の各実施の形態の表示態様変更等の方式を同様に適用可能である。スマートフォン700の機能ブロック構成は、図示しないが、図10の構成と基本的に同様である。スマートフォン700では、視線検出や注視点検出については行わず、他の操作入力手段を用いる。スマートフォン700では、他の手段(例えばカメラ部431)を用いて視線検出や注視点検出を実現してもよい。スマートフォン700では、実体物(対応する個別実体オブジェクト)については、搭載されたカメラ(カメラ部431)による撮影画像として表示される。スマートフォン700の場合におけるタグ選択入力受付方法や他の操作入力としては、音声入力等の他に、表示面のタッチパネルに対するタップ等による選択入力も可能である。
<実施の形態5>
図34を用いて、実施の形態5について説明する。前述の実施の形態では、奥行き方向での2つのオブジェクトの遮蔽妨害関係として、前側にあるオブジェクトが後側にあるオブジェクトを遮蔽して妨害する場合を示した。そして、このような遮蔽妨害関係の場合に、少なくとも目標オブジェクトを視認しやすくするように表示態様を変更する例を示した。表示態様を変更する対象となるオブジェクトの関係は、上記のような遮蔽妨害関係以外にも存在する。
実施の形態5では、ユーザが複数のオブジェクトを視認する際のオブジェクトの関係として、輝度の差による関係を用いる。視界範囲において、2つのオブジェクト(個別実体オブジェクトまたは仮想オブジェクト)が前後に配置されている場合、あるいは前後でなくても左右等近くに配置されている場合を考える。それらのオブジェクトの輝度(言い換えると明るさ)の差が大きい場合、一方のオブジェクトが他方のオブジェクトの視認の妨害となる場合がある。実施の形態5のHMDは、この場合に表示態様変更を行う。
図34は表示例を示す。視界範囲101において、前側の「A」のオブジェクト102と後側の「B」のオブジェクト103とが配置されている。ユーザU1の注視点106は、前側の「A」のオブジェクト102に位置しており、「A」のオブジェクトが目標オブジェクトとなる。この場合、ユーザU1は、「A」のオブジェクト102について、全容を基本的に視認可能であり、前述の遮蔽妨害関係は無い。ここで、「A」のオブジェクトの輝度と、「B」のオブジェクトの輝度との差が大きい場合、例えば「B」の方が、輝度が大きい場合、「A」の目標オブジェクトの視認に「B」のオブジェクトが妨害となる場合がある。これは、前後のオブジェクトに限らず、左右等近くにオブジェクトがある非遮蔽関係の場合でも、同様に、近くのオブジェクトが妨害となる場合がある。
HMD1は、オブジェクト間の輝度の差を判断し、その差から、輝度の観点での妨害オブジェクトを判断する。HMD1は、判断した妨害オブジェクト、例えば「B」のオブジェクトについて、表示態様を変更する。HMD1は、(b)の変更後のように、例えば、「B」のオブジェクトを「A」のオブジェクトから離すように表示位置を移動させる。あるいは、「B」のオブジェクトの表示態様変更が望ましくない場合には、HMD1は、「A」の目標オブジェクトの方を移動させる等して変更してもよい。
また特に、実施の形態5では、他の表示態様変更の方式として、HMD1は、一時的にオブジェクトの輝度を変更する方式を用いてもよい。例えば、HMD1は、「B」のオブジェクトの輝度を一時的に低下させる。これにより、輝度の差が小さくなり、ユーザU1は、「A」の目標オブジェクトを視認しやすくなる。
以上、本発明を実施の形態に基づいて具体的に説明したが、本発明は前述の実施の形態に限定されず、要旨を逸脱しない範囲で種々変更可能である。各実施の形態の組合せの形態や、構成要素を追加や削除や置換した形態も可能である。
1…HMD(ヘッドマウント情報処理装置)、11…表示面、U1…ユーザ、101…視界範囲、102,103…オブジェクト、104,105…視線、106…注視点、107…目標視認範囲、120…情報サーバ。

Claims (13)

  1. 画像を表示する表示デバイスと、
    前記画像の表示を制御するプロセッサと、
    を備え、
    前記表示デバイスに、オブジェクトとして、外界の実体物から切り出した個別実体オブジェクトと3次元配置される仮想オブジェクトとのうち少なくとも前記仮想オブジェクトを表示し、
    ユーザ注視点を算出し、前記注視点の位置に対して最も近い前記オブジェクトを目標オブジェクトとして確定し、
    前記目標オブジェクトと表示上の関連性が高い前記オブジェクトを、前記目標オブジェクトに対する関連オブジェクトとして設定し、
    前記目標オブジェクトの画像領域と前記関連オブジェクトの画像領域とを1つに合わせた画像領域を目標視認範囲として設定し、
    前記目標視認範囲の少なくとも一部を遮蔽する前記オブジェクトを妨害オブジェクトとして検出し、
    前記妨害オブジェクトがある場合、前記目標視認範囲の視認に対する前記妨害オブジェクトによる妨害を解消または低減するように、前記目標視認範囲と前記妨害オブジェクトとのうち少なくとも一方のオブジェクトの表示態様の変更を行う、
    表示装置。
  2. 請求項1記載の表示装置において、
    前記目標オブジェクトと前記妨害オブジェクトとにおいて、前記オブジェクトの前記表示態様の変更に関する制限や許容の度合いを表す属性を比較して、少なくとも前記表示態様の変更を行う対象となるオブジェクトを決定する、
    表示装置。
  3. 請求項1記載の表示装置において、
    前記表示態様の変更は、表示位置の移動、透過度の調整、縮小または拡大、あるいは、複製オブジェクトの表示である、
    表示装置。
  4. 請求項1記載の表示装置において、
    前記ユーザの視線方向において前記オブジェクトとして複数のオブジェクトが重なる場合、それらのオブジェクトのうち視認価値が最も高いオブジェクトを前記目標オブジェクトとして確定する、
    表示装置。
  5. 請求項1記載の表示装置において、
    前記表示デバイスに対応付けられた視界範囲内において前記オブジェクトとして複数のオブジェクトがある場合に、
    前記ユーザによる入力操作で指定されたオブジェクトを前記目標オブジェクトとして確定する、
    表示装置。
  6. 請求項1記載の表示装置において
    記目標視認範囲の少なくとも一部を遮蔽する前記オブジェクトを前記妨害オブジェクトとして検出する、
    表示装置。
  7. 請求項1記載の表示装置において、
    前記ユーザの視線方向において前記オブジェクトとして複数のオブジェクトが重なっており、前側のオブジェクトによって後側のオブジェクトが遮蔽されて隠れて見えない場合に、前記後側のオブジェクトを目標候補オブジェクトとして、少なくとも一部が遮蔽されずに見える状態となるように、前記表示態様の変更を行う、
    表示装置。
  8. 請求項記載の表示装置において、
    前記表示態様の変更は、表示位置の移動、透過度の調整、縮小または拡大、あるいは、複製オブジェクトの表示である、
    表示装置。
  9. 請求項1記載の表示装置において、
    複数のユーザの各ユーザが前記表示装置を使用し、前記複数のユーザを共有ユーザとして、前記オブジェクトを共有オブジェクトとして使用する場合で、自分を第1ユーザ、他者を第2ユーザとした場合において、
    前記第1ユーザの第1表示装置と前記第2ユーザの第2表示装置との通信に基づいて、
    前記第1ユーザの前記第1表示装置は、前記第2ユーザが前記目標オブジェクトとして注視している前記共有オブジェクトに対し、前記第2ユーザが前記目標オブジェクトとして注視していることを表すマーク情報を表示する、
    表示装置。
  10. 請求項記載の表示装置において、
    前記第1ユーザの前記第1表示装置は、前記第2ユーザが前記目標オブジェクトとして注視している前記共有オブジェクトの少なくとも一部が他のオブジェクトによって遮蔽されている場合に、前記第2ユーザの前記目標オブジェクトの全容が見える状態になるように、前記オブジェクトの表示態様の変更を行う、
    表示装置。
  11. 請求項10記載の表示装置において、
    前記第2ユーザの前記目標オブジェクトの全容が見える状態になるように、前記オブジェクトの表示態様の変更を行う際に、前記第2ユーザの前記目標オブジェクの全容として前記第2ユーザから視認した状態を表示する、
    表示装置。
  12. 請求項1記載の表示装置において、
    前記表示デバイスに対応付けられた視界範囲において、前記オブジェクトとして第1オブジェクトと第2オブジェクトとが前記ユーザの視線方向に重なる場合または近傍に配置されている場合において、
    前記第1オブジェクトと前記第2オブジェクトとの輝度の差を検出し、
    前記輝度の差が閾値以上に大きい場合に、前記輝度が大きい方を前記妨害オブジェクトとして検出する、
    表示装置。
  13. 画像を表示する表示デバイスと、前記画像の表示を制御するプロセッサと、を備える表示装置における表示方法であって、
    前記表示デバイスに、オブジェクトとして、外界の実体物から切り出した個別実体オブジェクトと3次元配置される仮想オブジェクトとのうち少なくとも前記仮想オブジェクトを表示するステップと、
    ユーザ注視点を算出し、前記注視点の位置に対して最も近い前記オブジェクトを目標オブジェクトとして確定するステップと、
    前記目標オブジェクトと表示上の関連性が高い前記オブジェクトを、前記目標オブジェクトに対する関連オブジェクトとして設定するステップと、
    前記目標オブジェクトの画像領域と前記関連オブジェクトの画像領域とを1つに合わせた画像領域を目標視認範囲として設定するステップと、
    前記目標視認範囲の少なくとも一部を遮蔽する前記オブジェクトを妨害オブジェクトとして検出するステップと、
    前記妨害オブジェクトがある場合、前記目標視認範囲の視認に対する前記妨害オブジェクトによる妨害を解消または低減するように、前記目標視認範囲と前記妨害オブジェクトとのうち少なくとも一方のオブジェクトの表示態様の変更を行うステップと、
    を有する、表示方法。
JP2022567991A 2020-12-10 2020-12-10 表示装置および表示方法 Active JP7547504B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2024146593A JP7743585B2 (ja) 2020-12-10 2024-08-28 表示装置および表示方法
JP2025149714A JP2025178262A (ja) 2020-12-10 2025-09-10 表示装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/046148 WO2022123750A1 (ja) 2020-12-10 2020-12-10 表示装置および表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024146593A Division JP7743585B2 (ja) 2020-12-10 2024-08-28 表示装置および表示方法

Publications (2)

Publication Number Publication Date
JPWO2022123750A1 JPWO2022123750A1 (ja) 2022-06-16
JP7547504B2 true JP7547504B2 (ja) 2024-09-09

Family

ID=81973475

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2022567991A Active JP7547504B2 (ja) 2020-12-10 2020-12-10 表示装置および表示方法
JP2024146593A Active JP7743585B2 (ja) 2020-12-10 2024-08-28 表示装置および表示方法
JP2025149714A Pending JP2025178262A (ja) 2020-12-10 2025-09-10 表示装置

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2024146593A Active JP7743585B2 (ja) 2020-12-10 2024-08-28 表示装置および表示方法
JP2025149714A Pending JP2025178262A (ja) 2020-12-10 2025-09-10 表示装置

Country Status (4)

Country Link
US (1) US12579773B2 (ja)
JP (3) JP7547504B2 (ja)
CN (1) CN116601591A (ja)
WO (1) WO2022123750A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022113973A (ja) * 2021-01-26 2022-08-05 セイコーエプソン株式会社 表示方法、表示装置、及び、プログラム
FR3123984A1 (fr) * 2021-06-14 2022-12-16 Airbus Operations (S.A.S.) Procédé de localisation d’au moins un point d’une pièce réelle sur une maquette numérique
WO2023281755A1 (ja) * 2021-07-09 2023-01-12 シャープNecディスプレイソリューションズ株式会社 表示制御装置、表示制御方法、及びプログラム
JP2024037439A (ja) * 2022-09-07 2024-03-19 コニカミノルタ株式会社 メガネ型表示装置及びプログラム
JP2024068986A (ja) * 2022-11-09 2024-05-21 株式会社Nttドコモ 表示制御装置
JPWO2024154322A1 (ja) * 2023-01-20 2024-07-25
WO2026004881A1 (ja) * 2024-06-27 2026-01-02 本田技研工業株式会社 走行情報再現プログラムおよび走行情報再現方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353249A (ja) 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間における指示表示及び指示表示方法
JP2011242934A (ja) 2010-05-17 2011-12-01 Ntt Docomo Inc オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法
JP2014071663A (ja) 2012-09-28 2014-04-21 Brother Ind Ltd ヘッドマウントディスプレイ、それを作動させる方法およびプログラム
JP2017055851A (ja) 2015-09-14 2017-03-23 株式会社コーエーテクモゲームス 情報処理装置、表示制御方法、及び表示制御プログラム
WO2017104198A1 (ja) 2015-12-14 2017-06-22 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018005005A (ja) 2016-07-04 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6972734B1 (en) 1999-06-11 2005-12-06 Canon Kabushiki Kaisha Mixed reality apparatus and mixed reality presentation method
JP4527853B2 (ja) * 2000-07-28 2010-08-18 株式会社バンダイナムコゲームス ゲームシステム及び情報記憶媒体
US9448404B2 (en) 2012-11-13 2016-09-20 Qualcomm Incorporated Modifying virtual object display properties to increase power performance of augmented reality devices
KR20150037254A (ko) * 2013-09-30 2015-04-08 엘지전자 주식회사 착용형 디스플레이 디바이스 및 레이어 제어 방법
JP5825328B2 (ja) 2013-11-07 2015-12-02 コニカミノルタ株式会社 透過型hmdを有する情報表示システム及び表示制御プログラム
US20160239985A1 (en) * 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
WO2016203792A1 (ja) * 2015-06-15 2016-12-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US10311644B2 (en) * 2016-12-14 2019-06-04 II Jonathan M. Rodriguez Systems and methods for creating and sharing a 3-dimensional augmented reality space
WO2019087513A1 (ja) * 2017-10-31 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
DE102019116834B4 (de) * 2019-06-21 2021-01-28 RE'FLEKT GmbH Augmentierte Fotoaufnahme
US10967267B2 (en) * 2019-08-06 2021-04-06 Roblox Corporation Changing a camera view in an electronic game
JP7424121B2 (ja) * 2020-03-10 2024-01-30 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000353249A (ja) 1999-06-11 2000-12-19 Mr System Kenkyusho:Kk 複合現実空間における指示表示及び指示表示方法
JP2011242934A (ja) 2010-05-17 2011-12-01 Ntt Docomo Inc オブジェクト表示装置、オブジェクト表示システム及びオブジェクト表示方法
JP2014071663A (ja) 2012-09-28 2014-04-21 Brother Ind Ltd ヘッドマウントディスプレイ、それを作動させる方法およびプログラム
JP2017055851A (ja) 2015-09-14 2017-03-23 株式会社コーエーテクモゲームス 情報処理装置、表示制御方法、及び表示制御プログラム
WO2017104198A1 (ja) 2015-12-14 2017-06-22 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2018005005A (ja) 2016-07-04 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
CN116601591A (zh) 2023-08-15
JPWO2022123750A1 (ja) 2022-06-16
JP2024161159A (ja) 2024-11-15
US20240104883A1 (en) 2024-03-28
US12579773B2 (en) 2026-03-17
JP2025178262A (ja) 2025-12-05
JP7743585B2 (ja) 2025-09-24
WO2022123750A1 (ja) 2022-06-16

Similar Documents

Publication Publication Date Title
JP7547504B2 (ja) 表示装置および表示方法
US12405759B2 (en) Gaze-based user interactions
US12182322B2 (en) Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device
US12256211B2 (en) Immersive augmented reality experiences using spatial audio
CN107408026B (zh) 信息处理设备、信息处理方法和计算机程序
US20210004081A1 (en) Information processing apparatus, information processing method, and program
JP7781214B2 (ja) ヘッドマウントディスプレイ
CN115698923A (zh) 信息处理装置、信息处理方法和程序

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240319

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20240520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240828

R150 Certificate of patent or registration of utility model

Ref document number: 7547504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150