JP2014071663A - Head-mounted display, method of actuating the same and program - Google Patents
Head-mounted display, method of actuating the same and program Download PDFInfo
- Publication number
- JP2014071663A JP2014071663A JP2012217215A JP2012217215A JP2014071663A JP 2014071663 A JP2014071663 A JP 2014071663A JP 2012217215 A JP2012217215 A JP 2012217215A JP 2012217215 A JP2012217215 A JP 2012217215A JP 2014071663 A JP2014071663 A JP 2014071663A
- Authority
- JP
- Japan
- Prior art keywords
- display
- reference content
- observer
- depth
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 50
- 238000001514 detection method Methods 0.000 claims description 52
- 230000033001 locomotion Effects 0.000 claims description 26
- 230000008859 change Effects 0.000 claims description 13
- 239000000284 extract Substances 0.000 claims description 2
- 230000007704 transition Effects 0.000 abstract description 6
- 230000003287 optical effect Effects 0.000 description 25
- 230000007246 mechanism Effects 0.000 description 23
- 210000003128 head Anatomy 0.000 description 19
- 230000008569 process Effects 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 241000086550 Dinosauria Species 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 229920003002 synthetic resin Polymers 0.000 description 2
- 239000000057 synthetic resin Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000005401 electroluminescence Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000009916 joint effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000001681 protective effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002207 retinal effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、観察者の頭部に装着された状態で観察者に画像を表示するヘッドマウントディスプレイに関するものであり、特に、対象空間内の少なくとも1つのオブジェクトと少なくとも1つの参照コンテンツとを互いに関連付けて観察者が観察することを可能にする技術に関するものである。 The present invention relates to a head mounted display that displays an image to an observer while being worn on the observer's head, and in particular, relates at least one object in a target space and at least one reference content to each other. It relates to a technique that enables an observer to observe.
観察者の頭部に装着された状態で、画像光を観察者の眼に投射することにより、観察者に画像を表示するヘッドマウントディスプレイ(以下、「HMD」と略称する。)が既に知られている。このHMDによれば、観察者は、画像が投影されるスクリーンを媒介にすることなく、画像を直接的に観察することができる。 A head-mounted display (hereinafter abbreviated as “HMD”) that displays an image to an observer by projecting image light onto the observer's eye while being mounted on the observer's head is already known. ing. According to the HMD, an observer can directly observe an image without using a screen on which the image is projected.
このHMDは、画像光を形成する方式という観点で、例えば、空間変調型と走査型とに分類される。空間変調型は、画像信号に応じて作動する空間変調素子(例えば、液晶または有機EL(エレクトロ・ルミネッセンス))を用いて、光源からの出射光から前記画像光を形成する方式である。これに対し、走査型は、光源からの出射光であって、前記画像信号に応じた強度を有するものを走査することによって前記画像光を形成する方式である。 This HMD is classified into, for example, a spatial modulation type and a scanning type from the viewpoint of a method of forming image light. The spatial modulation type is a system in which the image light is formed from light emitted from a light source using a spatial modulation element (for example, liquid crystal or organic EL (electroluminescence)) that operates according to an image signal. On the other hand, the scanning type is a system in which the image light is formed by scanning light emitted from a light source and having intensity corresponding to the image signal.
また、このHMDは、観察者が画像を観察する方式という観点で、例えば、シースルー式と密閉式とに分類される。シースルー式は、画像信号に応じた画像を表す画像光と、観察者の前方に位置する現実外界(前記「対象空間」の一例)からの外界光とを重畳させて観察者の眼に入射させることにより、観察者が、画像信号に応じた画像を、現実外界の像に重ねて観察することを可能にする方式である。これに対し、密閉式は、現実外界を表す外界光の入射光を遮断し、観察者が、主に、画像信号に応じた画像のみを観察することを可能にする方式である。 The HMD is classified into, for example, a see-through type and a sealed type from the viewpoint of a method in which an observer observes an image. In the see-through method, image light representing an image according to an image signal and external light from an actual external environment (an example of the “target space”) positioned in front of the observer are superimposed and incident on the eyes of the observer. In this way, the observer can observe an image corresponding to the image signal superimposed on an image of the actual outside world. On the other hand, the sealed type is a system that blocks the incident light of the external light representing the actual external environment and allows the observer to mainly observe only the image corresponding to the image signal.
後者の密閉式を採用する場合、画像信号に応じた画像が対象空間の像を含まないようにHMDを設計することが可能である。この場合には、観察者は、対象空間の像を観察することができず、画像信号に応じた画像を単独で観察することになる。しかし、HMDを、対象空間の像を撮影し、その撮影した画像と、画像信号に応じた別の画像とを合成し、その合成画像を観察者に表示するように設計することも可能である。この場合には、観察者は、シースルー式を採用する場合と同様に、対象空間の像に重ねて、それとは別の画像を観察することが可能となる。以下、この方式を、説明の便宜上、「ビデオシースルー式」と称し、これに対し、上述のシースルー式を「光学シースルー式」と称することにより、両者を区別する。 When the latter sealed type is adopted, it is possible to design the HMD so that the image corresponding to the image signal does not include the image of the target space. In this case, the observer cannot observe the image of the target space, and observes the image corresponding to the image signal alone. However, it is also possible to design the HMD so as to capture an image of the target space, combine the captured image with another image corresponding to the image signal, and display the combined image to the observer. . In this case, the observer can observe another image superimposed on the image of the target space, as in the case of adopting the see-through method. Hereinafter, for convenience of explanation, this method is referred to as a “video see-through type”, while the above-described see-through type is referred to as an “optical see-through type” to distinguish between them.
人間が知覚する現実世界をコンピュータを用いて増強・拡張する技術が既に存在し、これは拡張現実(AR)と称される。この拡張現実を光学シースルー式またはビデオシースルー式のHMDを用いて実現する技術の一従来例が特許文献1に開示されている。
There is already a technology for augmenting and expanding the real world perceived by humans using a computer, which is called augmented reality (AR). One conventional example of a technique for realizing this augmented reality using an optical see-through type or video see-through type HMD is disclosed in
この特許文献1に開示されている技術によれば、観察者が仮想空間(前記「対象空間」の別の例)内に存在する仮想オブジェクトを観察している間、その仮想オブジェクトの観察位置に関連付けて、その仮想オブジェクトに関連する参照コンテンツ(例えば、アノテーション)が表示される。この技術によれば、観察者が、仮想オブジェクトを観察しながら、その仮想オブジェクトに関連する情報を視覚的にかつ自動的に取得することが可能となり、観察者の利便性が向上する。
According to the technique disclosed in
特許文献1に開示されている技術によれば、観察者が唯一の仮想オブジェクトを観察している間、観察者がその仮想オブジェクトに一定時間以上注視すると、その仮想オブジェクトの観察位置の近傍に、その仮想オブジェクトに関連する参照コンテンツとしてのアノテーションが自動的に表示される。このとき、そのアノテーションに対する焦点を仮想オブジェクトに対する焦点と一致させるため、観察者の視点位置からアノテーションまでの奥行きが、視点位置から仮想オブジェクトまでの奥行きとほぼ同じとされる。
According to the technique disclosed in
しかし、特許文献1に開示されている技術では、観察者が同じ仮想オブジェクトを一定時間以上注視しない限り、その仮想オブジェクトに関連するアノテーションが表示されず、そのため、観察者は、注視前にあっては、仮想オブジェクトに関連する情報に一切アクセスすることができない。これは、仮想オブジェクトが観察される限り、その仮想オブジェクトについて何らかの情報でも取得したいと希望する観察者にとり、不便である。
However, in the technology disclosed in
また、特許文献1は、アノテーションの奥行きの設定に関し、観察者が1つの仮想オブジェクトを注視したか否かに応じて、その仮想オブジェクトに関連する同じアノテーションの奥行きを時間と共に変化させる点も開示していない。
これに対し、本発明者らは、この種のHMDについて研究を行った結果、観察者がオブジェクトを観察している限り、そのオブジェクトに関連する参照コンテンツを表示させておく場合には、観察者が1つのオブジェクトに注目したか否かに応じて、そのオブジェクトに関連する同じ参照コンテンツの奥行きを時間と共に変化させることが、観察者が参照コンテンツを視認する際の快適性を向上させるために望ましいことに気が付いた。 On the other hand, as a result of conducting research on this type of HMD, the present inventors, as long as the observer is observing the object, when the reference content related to the object is displayed, the observer Depending on whether or not the user has focused on one object, it is desirable to change the depth of the same reference content related to the object over time in order to improve comfort when the viewer visually recognizes the reference content. I realized that.
なお、本明細書の全体を通して、観察者が特定の対象を「注視する」という行為は、観察者の視線がその特定の対象と交差するように観察者がその特定の対象を見るという、観察者の外形的行為を意味し、これに対し、観察者が特定の対象に「注目する」という行為は、観察者がその特定の対象を他の対象より強い関心を抱いているという、観察者の内面的行為を意味する。観察者の視線がその特定の対象と交差するように観察者がその特定の対象を見ている場合には、観察者がその特定の対象に「注目している」ことが明白である。 Throughout this specification, the act of observing a specific object by the observer means that the observer views the specific object so that the observer's line of sight intersects the specific object. Means an observer's external behavior, whereas an act of an observer “focusing on” a particular object means that the observer is more interested in that particular object than other objects Means the inner act of. If an observer is looking at a particular object such that the observer's line of sight intersects with that particular object, it is clear that the observer is “attention” to that particular object.
しかし、観察者の視線がその特定の対象と交差するように観察者がその特定の対象を見ていない場合であっても、観察者がその特定の対象に「注目している」ことがあり得る。観察者が注視している対象と、観察者が注目している対象とが互いに異なっていても、それら対象間に強いつながりが存在する場合(例えば、後述の、オブジェクトと、そのオブジェクトに少なくとも内容的に関連する参照コンテンツとの関係)には、観察者が注視している対象が特定されれば、観察者が注目しているはずである別の対象を高い確度で推定できる。よって、観察者が注視している対象と、観察者が注目している対象とが必ずしも互いに一致しなくても、観察者が注視している対象が特定されれば、観察者が注目しているはずである別の対象も高い確度で推定できる。 However, even if the observer is not looking at the specific object so that the observer's line of sight intersects with the specific object, the observer may be “attention” to the specific object obtain. Even if the target that the observer is watching and the target that the observer is paying attention to are different from each other, there is a strong connection between the objects (for example, an object described later and at least the contents of the object) If the target that the observer is gazing at is specified, the other target that the observer should be paying attention to can be estimated with high accuracy. Therefore, even if the object that the observer is watching and the object that the observer is paying attention do not necessarily match each other, if the object that the observer is watching is identified, the observer will pay attention. Other objects that should be present can also be estimated with high accuracy.
以上説明した知見を背景として、本発明は、観察者の頭部に装着された状態で観察者に画像を表示し、それにより、対象空間内の少なくとも1つのオブジェクトと少なくとも1つの参照コンテンツとを互いに関連付けて観察者が観察することを可能にするヘッドマウントディスプレイにおいて、観察者が参照コンテンツを視認する際の快適性を向上させることを目的とする。 With the above-described knowledge as a background, the present invention displays an image to the observer in a state of being worn on the observer's head, thereby providing at least one object and at least one reference content in the target space. An object of the present invention is to improve comfort when an observer visually recognizes a reference content in a head-mounted display that allows an observer to observe in association with each other.
本発明によって下記の各態様が得られる。各態様は、項に区分し、各項には番号を付し、必要に応じて他の項の番号を引用する形式で記載するが、このように、各項を他の項の番号を引用する形式で記載することにより、各項に記載の技術的特徴をその性質に応じて適宜独立させることが可能となる。 The following aspects are obtained by the present invention. Each aspect is divided into sections, each section is numbered, and is described in the form of quoting the section numbers of other sections as necessary. In this way, each section is referred to the section number of the other section. By describing in the format, the technical features described in each section can be appropriately made independent according to the properties.
(1) 観察者の頭部に装着された状態で観察者に画像を表示し、それにより、対象空間内の少なくとも1つのオブジェクトと少なくとも1つの参照コンテンツとを互いに関連付けて観察者が観察することを可能にするヘッドマウントディスプレイであって、
前記少なくとも1つの参照コンテンツを第1の奥行きを有するように表示する第1表示制御部と、
前記少なくとも1つの参照コンテンツの表示中、観察者がいずれかの参照コンテンツまたはそのいずれかの参照コンテンツに関連するいずれかのオブジェクトを注視する状態に移行すると、前記いずれかの参照コンテンツの奥行きを、前記第1の奥行きから、前記いずれかのオブジェクトの奥行きと実質的に同じ第2の奥行きに変化させる第2表示制御部と
を含むヘッドマウントディスプレイ。
(1) An image is displayed to the observer in a state of being worn on the observer's head, whereby the observer observes the at least one object in the target space and at least one reference content associated with each other. A head-mounted display that enables
A first display control unit for displaying the at least one reference content so as to have a first depth;
While the display of the at least one reference content, when the observer shifts to a state of gazing at any reference content or any object related to the reference content, the depth of the reference content is And a second display control unit configured to change the first depth to a second depth substantially the same as the depth of any one of the objects.
(2) 前記少なくとも1つのオブジェクトは、当該ヘッドマウントディスプレイからの距離が異なる少なくとも2つのオブジェクトを有する複数のオブジェクトを含み、
前記少なくとも1つの参照コンテンツは、複数の参照コンテンツを含み、
前記第1表示制御部は、前記複数の参照コンテンツを、それぞれが前記第1の奥行きを有するように表示する一覧表示を行う一覧表示部を含み、
前記第2表示制御部は、
前記一覧表示の実行中、観察者が、前記一覧表示されている複数の参照コンテンツのうち、実質的に最も強く注視しているものを注視参照コンテンツとして抽出し、前記複数のオブジェクトのうち、前記抽出された注視参照コンテンツに対応するオブジェクトを注目オブジェクトとして推定する注目オブジェクト推定部と、
その注目オブジェクトが推定されると、少なくとも、前記注視参照コンテンツの奥行きを、前記第1の奥行きから、前記注目オブジェクトの奥行きと実質的に同じ前記第2の奥行きに変化させる注目表示を行う注目表示部と
を含む(1)項に記載のヘッドマウントディスプレイ。
(2) The at least one object includes a plurality of objects having at least two objects having different distances from the head mounted display,
The at least one reference content includes a plurality of reference content;
The first display control unit includes a list display unit that performs a list display for displaying the plurality of reference contents so that each of the plurality of reference contents has the first depth,
The second display controller is
During execution of the list display, the observer extracts the reference content that is substantially most intensely watched from among the plurality of reference contents displayed in the list as the gaze reference content, and among the plurality of objects, A target object estimation unit that estimates an object corresponding to the extracted gaze reference content as a target object;
When the attention object is estimated, at least attention display for performing attention display that changes the depth of the gaze reference content from the first depth to the second depth substantially the same as the depth of the attention object. The head mounted display according to item (1), including:
(3) さらに、
前記対象空間内において、当該ヘッドマウントディスプレイに対して予め定められた領域内に存在する複数のオブジェクトを、各オブジェクトの奥行きを特定し得る奥行き関連情報と共に取得するオブジェクト取得部と、
当該ヘッドマウントディスプレイが表示可能な複数の参照コンテンツの中から、前記取得された複数のオブジェクトにそれぞれ対応する複数の参照コンテンツを選択する参照コンテンツ選択部と
を含み、
前記一覧表示部は、前記選択された複数の参照コンテンツを一覧表示する(2)項に記載のヘッドマウントディスプレイ。
(3) Furthermore,
An object acquisition unit that acquires a plurality of objects existing in a predetermined region with respect to the head-mounted display in the target space, together with depth-related information that can specify a depth of each object;
A reference content selection unit that selects a plurality of reference contents respectively corresponding to the plurality of acquired objects from a plurality of reference contents that can be displayed by the head-mounted display,
The head mounted display according to item (2), wherein the list display unit displays a list of the plurality of selected reference contents.
(4) 前記注目表示部は、前記注目オブジェクトに対応する参照コンテンツを、その参照コンテンツが前記一覧表示されるときの表示サイズより拡大された表示サイズを有するように表示する(2)または(3)項に記載のヘッドマウントディスプレイ。 (4) The attention display unit displays the reference content corresponding to the attention object so as to have a display size larger than a display size when the reference content is displayed in the list (2) or (3 ) Head-mounted display.
(5) 前記一覧表示部は、前記各オブジェクトの、当該ヘッドマウントディスプレイからの奥行きに応じて、そのオブジェクトに対応する前記参照コンテンツの表示サイズを決定する表示サイズ決定部を含む(2)ないし(4)項のいずれかに記載のヘッドマウントディスプレイ。 (5) The list display unit includes a display size determination unit that determines the display size of the reference content corresponding to the object according to the depth of the object from the head-mounted display. The head mounted display according to any one of 4).
(6) 前記一覧表示部は、前記各オブジェクトの、当該ヘッドマウントディスプレイからの奥行きに応じて、そのオブジェクトに対応する前記参照コンテンツに含まれる情報アイテムの内容を決定する表示アイテム決定部を含む(2)ないし(5)項のいずれかに記載のヘッドマウントディスプレイ。 (6) The list display unit includes a display item determination unit that determines the content of the information item included in the reference content corresponding to the object according to the depth of the object from the head-mounted display ( The head mounted display according to any one of items 2) to (5).
(7) 前記注目表示部は、観察者の頭部の動きが実質的に停止すると、前記注目表示を開始する(2)ないし(6)項のいずれかに記載のヘッドマウントディスプレイ。 (7) The head mounted display according to any one of (2) to (6), wherein the attention display unit starts the attention display when the movement of the observer's head substantially stops.
(8) 前記注目表示部は、観察者の頭部に実質的な動きが発生すると、前記注目表示を終了する(2)ないし(7)項のいずれかに記載のヘッドマウントディスプレイ。 (8) The head mounted display according to any one of (2) to (7), wherein the attention display unit terminates the attention display when a substantial movement occurs in the observer's head.
(9) 前記注目表示部は、前記注目オブジェクトが、観察者の観察眼に対して相対的に決まる視界から外れると、前記注目表示を終了する(2)ないし(8)項のいずれかに記載のヘッドマウントディスプレイ。 (9) The attention display unit terminates the attention display when the attention object is out of a field of view determined relatively to an observer's observation eye. Head mounted display.
(10) 前記一覧表示部は、前記現実外界に存在する少なくとも1つのオブジェクトに複数の参照コンテンツが対応する場合に、各参照コンテンツに予め割り当てられた重要度に基づき、前記複数の参照コンテンツのうち、少なくとも1つの参照コンテンツを除くものを表示することにより、前記一覧表示される参照コンテンツの数を減少させる(2)ないし(9)項のいずれかに記載のヘッドマウントディスプレイ。 (10) When the plurality of reference contents correspond to at least one object existing in the actual outside world, the list display unit, among the plurality of reference contents, based on the importance assigned in advance to each reference content The head-mounted display according to any one of (2) to (9), wherein the number of reference contents displayed in a list is reduced by displaying one excluding at least one reference content.
(11) さらに、観察者の視線を検出する視線検出部を含み、
前記注目オブジェクト推定部は、前記検出された視線が、前記一覧表示されている複数の参照コンテンツのうちのいずれかと所定時間以上連続して交差している連続交差状態にあるか否かを判定し、その連続交差状態にあると判定された場合に、前記いずれかの参照コンテンツが前記注視参照コンテンツであると判定する請求項2ないし10のいずれかに記載のヘッドマウントディスプレイ。
(11) Further, a line-of-sight detector that detects the line of sight of the observer is included,
The attention object estimation unit determines whether or not the detected line of sight is in a continuous intersection state in which the detected line of sight continuously intersects any one of the plurality of reference contents displayed in a list for a predetermined time or more. The head-mounted display according to any one of
(12) 観察者の頭部に装着された状態で観察者に画像を表示し、それにより、対象空間内の少なくとも1つのオブジェクトと少なくとも1つの参照コンテンツとを互いに関連付けて観察者が観察することを可能にするヘッドマウントディスプレイを作動させる方法であって、
前記少なくとも1つの参照コンテンツを第1の奥行きを有するように表示する第1表示工程と、
前記少なくとも1つの参照コンテンツの表示中、観察者がいずれかの参照コンテンツまたはそのいずれかの参照コンテンツに関連するいずれかのオブジェクトを注視する状態に移行すると、前記いずれかの参照コンテンツの奥行きを、前記第1の奥行きから、前記いずれかのオブジェクトの奥行きと実質的に同じ第2の奥行きに変化させる第2表示工程と
を含む方法。
(12) An image is displayed to the observer in a state of being worn on the observer's head, whereby the observer observes the at least one object and at least one reference content in the target space in association with each other. A method of operating a head mounted display that enables
A first display step of displaying the at least one reference content to have a first depth;
While the display of the at least one reference content, when the observer shifts to a state of gazing at any reference content or any object related to the reference content, the depth of the reference content is A second display step of changing from the first depth to a second depth substantially the same as the depth of any one of the objects.
(13) (12)項に記載の方法を実行するためにコンピュータによって実行されるプログラム。 (13) A program executed by a computer to execute the method according to (12).
(14) 現実外界に存在するオブジェクトに関連する参照コンテンツを示す画像光と、前記現実外界の像を示す外界光とを重畳して出射可能に構成され、観察者の頭部に装着可能な表示ユニットと、
その表示ユニットの位置を取得可能な位置取得部と、
前記画像光のピント位置を変更するピント調整部と、
前記表示ユニットが観察者の頭部に装着された場合に、観察者によって注視される対象である注視対象を決定する注視対象決定部と、
前記表示ユニットの作動を制御する制御部と
を含み、
その制御部は、
前記位置検出部によって検出された前記表示ユニットの位置に基づき、前記表示ユニットに対して予め定められた領域内に位置するオブジェクトに関連する参照コンテンツを取得可能なコンテンツ取得手段と、
そのコンテンツ取得手段によって取得された参照コンテンツを前記表示ユニットに表示させることが可能な表示制御手段と、
前記注視対象決定部によって決定された注視対象が、前記コンテンツ取得手段によって取得された参照コンテンツに該当するか否かを判定可能な判定手段と、
その判定手段により、前記注視対象が前記参照コンテンツに該当すると判定された場合に、前記ピント調整部を制御することにより、前記表示画像のピント位置を、前記参照コンテンツがその参照コンテンツに対応付けられたオブジェクトと同じ距離に表示されるピント位置に変更するピント変更手段と
を有するヘッドマウントディスプレイ。
(14) Display configured to be able to be emitted by superimposing image light indicating reference content related to an object existing in the actual external environment and external light indicating an image of the actual external environment, and capable of being mounted on an observer's head Unit,
A position acquisition unit capable of acquiring the position of the display unit;
A focus adjustment unit that changes a focus position of the image light;
When the display unit is mounted on the observer's head, a gaze target determining unit that determines a gaze target that is a target to be watched by the observer;
A control unit for controlling the operation of the display unit,
Its control part is
Content acquisition means capable of acquiring reference content related to an object located within a predetermined region with respect to the display unit based on the position of the display unit detected by the position detection unit;
Display control means capable of displaying the reference content acquired by the content acquisition means on the display unit;
A determination unit capable of determining whether or not the gaze target determined by the gaze target determination unit corresponds to the reference content acquired by the content acquisition unit;
When the determination unit determines that the gaze target corresponds to the reference content, the focus adjustment unit is controlled so that the focus position of the display image is associated with the reference content. A focus changing means for changing to a focus position displayed at the same distance as the object.
本発明によれば、観察者がオブジェクトを観察している間、そのオブジェクトに観察者が注目する前であっても、そのオブジェクトに関連する参照コンテンツが表示され、さらに、観察者がオブジェクトに注目したか否かに応じて、そのオブジェクトに関連する参照コンテンツの奥行きが時間と共に変化する。よって、本発明によれば、観察者が参照コンテンツを視認する際の快適性が向上する。 According to the present invention, while the observer is observing the object, the reference content related to the object is displayed even before the observer pays attention to the object, and further, the observer pays attention to the object. Depending on whether or not, the depth of the reference content related to the object changes with time. Therefore, according to the present invention, comfort when the viewer visually recognizes the reference content is improved.
以下、本発明のさらに具体的でかつ例示的ないくつかの実施形態を図面を参照して詳細に説明する。 Hereinafter, some more specific and exemplary embodiments of the present invention will be described in detail with reference to the drawings.
図1には、本発明の例示的な一実施形態に従うヘッドマウントディスプレイ(以下、「HMD」と略称する。)10が斜視図で示されている。 FIG. 1 is a perspective view of a head mounted display (hereinafter abbreviated as “HMD”) 10 according to an exemplary embodiment of the present invention.
まず、概略的に説明するに、このHMD10は、観察者の眼前に位置するように観察者の頭部に装着されて使用される。その使用状態において、このHMD10は、観察者の前方に位置する現実外界(前記「対象空間」の一例)の像を表す外界光を観察者の眼に誘導し、それにより、観察者が、現実外界に存在するオブジェクト(例えば、人間や機械、建物、動物、植物、彫刻物、製造物など、3次元的な物体や、写真や絵画、映画、印刷物など、2次元的な物体)を観察することが可能であるように設計される。
First, to explain schematically, the
さらに、このHMD10は、観察者が観察しているオブジェクトに関連する参照コンテンツ(例えば、観察者に提供すべき情報をテキスト、グラフィックスで表現した画像、アノテーションなど)を画像信号に応じて生成し、その生成された参照コンテンツを観察者に、現に観察しているオブジェクトの観察位置に関連付けて表示することが可能であるようにも設計されている。一例においては、オブジェクトは、美術館などの施設内の展示室内で展示されている展示物であり、また、参照コンテンツは、そのような展示物を補足的に説明するための、テキストやグラフィックスによるアノテーションである。
Further, the
さらに、このHMD10は、観察者が観察しているオブジェクトに関連する参照コンテンツを第1の奥行きを有するように表示し、その表示中、観察者がその参照コンテンツまたは前記オブジェクトを注視する状態に移行すると、前記参照コンテンツの奥行きを、前記第1の奥行きから、前記オブジェクトの奥行きと実質的に同じ第2の奥行きに変化させるようにも設計されている。すなわち、このHMD10においては、観察者がオブジェクトに注目したか否かに応じて、そのオブジェクトに関連する参照コンテンツの奥行きが時間と共に変化するのであり、よって、このHMD10によれば、参照コンテンツを観察者の感覚に合致した条件で表示することが可能となり、観察者が参照コンテンツを視認する際の快適性が向上する。
Further, the
次に、図1ないし図4を参照することにより、このHMD10が採用する光学系の構成を説明する。
Next, the configuration of the optical system employed by the
このHMD10は、表示ユニット12と、アタッチメント14と、制御ユニット16とを備えている。制御ユニット16は、表示ユニット12に対し、ケーブル18(少なくとも信号ラインを含み、通常、電力ラインも含む)を介して有線方式で(無線方式でも可)接続されることにより、両者間でのデータや信号のやりとりが可能となっている。
The
表示ユニット12は、単眼式であり、画像を表す画像光を観察者の両眼のうちの一方である観察眼(他方の眼は、非観察眼)に投射するように構成されている。この表示ユニット12は、光学シースルー型、すなわち、画像信号に応じた画像を表す画像光と、観察者の前方に位置する現実外界からの外界光とを重畳させて観察眼に入射させることにより、観察者が、画像信号に応じた画像を、現実外界の像に重ねて観察することが可能である方式を採用する。
The
ただし、表示ユニット12において、単眼式を両眼式に変更した態様や、光学シースルー式を前述のビデオシースルー式に変更した態様で本発明を実施することが可能である。ただし、そのビデオシースルー式を採用する場合には、HMD10が、例えば、画像信号に応じた画像の表示と、現実外界の像の表示とを、それぞれ互いに異なる時期に、時分割方式で行うなどすることにより、画像信号に応じた画像のピント位置と、現実外界の像のピント位置とを、互いに独立して調整可能であることが必要である。
However, in the
これに対し、HMD10は、奥行きが互いに異なる複数のオブジェクトが現実外界に存在する場合に、それらオブジェクトから出射した外界光を観察眼に誘導し、それにより、観察者が、それらオブジェクトを、それぞれ互いに異なる奥行きを有するように観察することを可能にする一方、観察者が、複数の参照コンテンツを、それらに共通の画像光により、それぞれ互いに同じ奥行きを有するように視認することを可能にする。
On the other hand, when a plurality of objects having different depths exist in the actual outside world, the
よって、このHMD10にあっては、複数のオブジェクトを表す光は、それぞれのオブジェクトからの反射光であって、それらオブジェクトに共通のレンズを通過していないのに対し、複数の参照コンテンツを表す光は、それら参照コンテンツに共通のレンズを通過しているため、参照コンテンツの奥行きを、前記レンズの位置を変えることにより、オブジェクトの奥行きに対して相対的に自由に調整することが可能である。
Therefore, in the
図1に示すように、観察者の頭部に被装着部材としてのフレーム20が装着され、そのフレーム20にアタッチメント14が装着され、そのアタッチメント14に表示ユニット12が装着される。その結果、表示ユニット12がアタッチメント14を介してフレーム20に装着される。
As shown in FIG. 1, a frame 20 as a member to be attached is attached to the observer's head, an
図1に示す例においては、表示ユニット12がフレーム20の左側部30Lに取り付けられ、それにより、HMD10が左眼観察モードで使用されるが、表示ユニット12は、アタッチメント14により、フレーム20の右側部30Rと左側部30Lとの間で付け替えて使用することが可能となっている。
In the example shown in FIG. 1, the
具体的には、アタッチメント14は、フレーム20の左側部30Lに固定される左眼用フレーム側部材40Lと、フレーム20の右側部30Rに固定される右眼用フレーム側部材40R(図示しない)とを備えている。アタッチメント14は、観察者の選択により、観察者の左眼が観察眼である左眼観察モードを実現するために、フレーム20の左側部30Lに取り付けられた左眼用フレーム側部材40Lに表示ユニット12が取り付けらける状態(図1に示す)と、観察者の右眼が観察眼である右眼観察モードを実現するために、フレーム20の右側部30Rに取り付けられた右眼用フレーム側部材40Rに表示ユニット12が取り付けられる状態(図示しない)とに切り換わる。
Specifically, the
表示ユニット12は、右眼観察モードと左眼観察モードとの間において、その向きを反転させて使用される。具体的には、表示ユニット12がアタッチメント14を介してフレーム20に装着される向きが、右眼観察モードと左眼観察モードとの間において、頭部装着状態において観察者の左右方向に対して略平行である垂直面内で互いに反転させられる。
The
図1に示すように、表示ユニット12は、それの長手方向に延びる、概して中空であるハウジング200を有する。ハウジング200は、合成樹脂製である。そのハウジング200内に、参照コンテンツを表示画像として表示するための画像光を形成する画像光形成部202(図2参照)が収容されている。
As shown in FIG. 1, the
図2に示すように、表示ユニット12は、画像光形成部202を収容する本体部分210と、その画像光形成部202によって形成された画像光を観察眼に向けて出射する出射口212が形成された出射口部分214とを、表示ユニット12の長手方向に沿って互いに並ぶように有している。表示ユニット12は、さらに、本体部分210と出射口部分214とを着脱可能に互いに連結する連結機構270を有している。
As shown in FIG. 2, the
図2に示すように、画像光形成部202は、入射光を2次元空間的に変調して前記画像光を生成する、概して板状を成す空間光変調素子としてのLCD220(表示部の一例)を有する。LCD220は、複数の画素が2次元的に並んだ液晶ディスプレイである。
As shown in FIG. 2, the image
なお付言するに、本実施形態においては、表示ユニット12が空間光変調型であるが、網膜走査型、すなわち、レーザ等、光源からの光束をスキャナによって走査し、その走査された光束を観察者の網膜に投射するものに変更してもよい。
In addition, in the present embodiment, the
画像光形成部202は、さらに、板状のドライバ222(表示制御部の一例)を有する。そのドライバ222は、図示しないケーブルを介して、LCD220に電気的に接続されている。ドライバ222は、外部から入力される画像信号に基づいてLCD220を駆動し、それにより、観察者に表示すべき画像を表す画像光をLCD220から出射させる。LCD220は、バックライト光源を内蔵しているが、その光源に代えて、LCD220から独立した光源を用いてもよい。
The image
図2に示すように、表示ユニット12は、さらに、接眼光学系246を有する。その接眼光学系246は、複数の光学素子としての複数のレンズが直列に並んだ一次元配列として構成されている。それらレンズは、同じ光軸を共有する。その光軸は、ハウジング200の長手方向に平行に、かつ、ミラーなどの部品によってその方向が曲げられることなく、一直線に延びている。接眼光学系246は、ハウジング200のうち、本体部分210に属する部分内に収容されている。
As shown in FIG. 2, the
接眼光学系246は、それに属する複数のレンズのうち最も下流側に位置する終端レンズ248と、その終端レンズ248より下流に配置された保護透明体(例えば、合成樹脂製の透明な円板)250とを備えている。
The eyepiece
出射口部分214は、接眼光学系246から出射する画像光を曲げて観察眼に誘導する部分反射・部分透過光学素子としてのハーフミラー(画像光を観察眼に向けて偏向する偏向部材の一例)260を有している。
The
接眼光学系246から出射する画像光は、ハーフミラー260で反射して、観察眼の瞳孔を通過して、網膜(図示しない)に入射する。それにより、観察者が2次元画像を虚像として観察することが可能となる。観察眼には、ハーフミラー260で反射した画像光のみならず、現実外界からの光である外界光がハーフミラー260を透過して入射する。その結果、観察者は、画像光によって表示される画像の観察と並行して現実外界を観察することが可能である。
The image light emitted from the eyepiece
次に、主に図2および図3を参照することにより、HMD10が表示画像のピント位置を調整するための構成を説明する。
Next, a configuration for the
図2に示すように、画像光形成部202は、さらに、LCD220を前記光軸方向において前後に変位させることによって前記画像光のピント位置を調整するピント調整機構230を有している。そのピント調整機構230は、LCDホルダ232と、支持機構234と、LCDアジャスタ236(操作部)と、運動変換機構238とを有する。
As shown in FIG. 2, the image
LCD220は、画像光形成部202の長手方向と一致する光軸方向を有し、かつ、ハウジング200内において、前記光軸方向に変位可能に支持されている。具体的には、LCD220は、LCDホルダ232によって一体的に回転・移動可能に保持されており、そのLCDホルダ232は、ハウジング200の一部またはハウジング200に固定の別部材(本実施形態においては、静止部材240)に設けられた支持機構234により、光軸方向に移動可能かつ回転不能に支持されている。
The
図2に示すように、LCDアジャスタ236は、光軸と同軸であるように、かつ、LCDホルダ232の外周部を包囲するように、ハウジング200内に設置されている。LCDアジャスタ236は、ハウジング200に、光軸方向に移動不能かつ同軸的に回転可能に支持されている。これにより、LCDアジャスタ236は、光軸方向における定位置において、ユーザの操作に応じて必要角度だけ回転させられる。
As shown in FIG. 2, the
観察者であるユーザからLCDアジャスタ236へのアクセスを可能にするため、図1に示すように、LCDアジャスタ236のうち、頭部装着状態において前方に位置する部分と、後方に位置する部分(図1においては、隠れて見えない)とがそれぞれ、ハウジング200を構成する複数の面のうちの前面と後面とから露出させられている。LCDアジャスタ236の外周面には、ユーザによる操作性を向上させるために、複数の歯が形成されている。
In order to enable access to the
運動変換機構238は、LCDアジャスタ236とLCDホルダ232とに関連付けられる。運動変換機構238は、LCDアジャスタ236の回転運動をLCDホルダ232の直線運動に変換し、それにより、LCD220を光軸方向に沿って所望の位置に移動させる。
The
図3(a)は、ピント調整機構230を、LCDアジャスタ236を取り外した状態で示す側面図であり、図3(b)は、ピント調整機構230を、LCDアジャスタ236が組み付けられた状態で示す側面図である。
3A is a side view showing the
本実施形態においては、運動変換機構238が、図3(a)に示すように、LCDホルダ232の外周面に形成されたらせん状のカム溝242と、LCDアジャスタ236の内周面に形成された、半径方向に延びる駆動ピン(図示しない)とを有する。その駆動ピンは、カム溝242にがたなく係合し、その係合状態でカム溝242に沿って相対的に運動させられる。LCDアジャスタ236が回転させられると、前記駆動ピンが光軸回りに円運動を行い、その円運動は、カム溝242と支持機構234との共同作用により、LCDホルダ232の直線運動に変換される。
In the present embodiment, the
ただし、運動変換機構238は、カム機構以外の機構によって必要な運動変換を行うことが可能であり、例えば、ねじ機構(例えば、LCDアジャスタ236の内周面に形成されためねじと、LCDホルダ232の外周面に形成されたおねじであって前記めねじが螺合するもの)を採用してもよい。
However, the
HMD10は、前述のように、その使用状態において、可変の奥行きを有するように参照コンテンツを表示する奥行き可変型表示機能を有する。この奥行き可変型表示機能を実現するために、本実施形態においては、ピント調整機構230が、上述のように、手動で操作可能であることに加えて、電気的に操作可能であるようにもなっている。
As described above, the
具体的には、図1および図4に示すように、ピント調整機構230に、それのLCDアジャスタ236において、電動式のアクチュエータ280(例えば、ステップモータ)が係合させられる。そのアクチュエータ280は、ハウジング200によって支持されている。このアクチュエータ280は、ドライバ282から供給される電気信号によって駆動されるとともに、アクチュエータ280の実際の作動量が目標量と一致するように制御される。アクチュエータ280の作動がLCDアジャスタ236に伝達され、LCDアジャスタ236が回転されることによって、ピント調整機構230が電気的に操作される。
Specifically, as shown in FIGS. 1 and 4, an electric actuator 280 (for example, a step motor) is engaged with the
次に、図4を参照することにより、HMD10のうち、参照コンテンツをオブジェクトに関連付けて表示する部分のハードウエア構成を説明する。
Next, with reference to FIG. 4, a hardware configuration of a part of the
表示ユニット12は、入力装置12aと出力装置12bとを有する。
The
入力装置12aは、表示ユニット12を装着している観察者の位置(例えば、観察者の頭部の位置や、表示ユニット12の位置であり、また、グローバル座標系上の位置や、前記施設に固定されたローカル座標系上の位置である)を検出する位置検出部300を有する。その位置検出部300は、例えば、グローバル・ポジションニング・システムGPSによって観察者の位置を検出するために表示ユニット12に搭載されるデバイスとしたり、3点測位法によって観察者の位置を検出するために表示ユニット12に搭載されるデバイスとすることが可能である。
The input device 12a is the position of the observer wearing the display unit 12 (for example, the position of the head of the observer, the position of the
入力装置12aは、さらに、観察者の向き(例えば、観察者の頭部の向き、表示ユニット12の向き)を検出する向き検出部302を有する。その向き検出部302は、例えば、電子コンパスによって観察者の向きを検出するために表示ユニット12に搭載されるデバイスとしたり、表示ユニット12に搭載される角加速度センサまたは角速度センサを主体とし、その検出値を時間積分することによって観察者の角度を計算するために表示ユニット12に搭載されるデバイスとすることが可能である。
The input device 12a further includes an
なお、向き検出部302の別の例としては、オブジェクトに対する相対的な方向を検出する構成を採用するものでもよい。この場合、例えば、表示ユニット12にカメラが接続され、そのカメラによってオブジェクトを撮像して得られる画像を基にして、表示ユニット12の、オブジェクトに対する相対的な方向が検出されるようにしてもよい。この場合、必要であれば、撮像されるオブジェクトの位置情報を特定するために、位置検出部300の検出結果を利用してもよい。
As another example of the
入力装置12aは、さらに、観察者の視線を検出する視線検出部304を有する。その視線検出部304は、例えば、アイマークレコーダによって観察者の視線を検出するために表示ユニット12に搭載されるデバイスとすることによって観察者の角度を計算するデバイスとすることが可能である。
The input device 12a further includes a line-of-
この視線検出部304によれば、観察者の視線方向を、それが観察者の正面方向と一致するか否かを問わず、精度よく検出することが可能であるが、より簡易的な視線検出方法を採用することが可能である。一例においては、観察者の視線方向は、観察者の正面方向と一致すると仮定したうえで、向き検出部302の検出結果に基づいて、観察者の正面方向が検出され、その検出された正面方向と一致するように観察者の視線方向が決定される。
According to the line-of-
これに対し、出力装置12bは、画像表示のために、前述のドライバ222およびLCD220とを有し、さらに、ピント調整すなわち奥行き調整のために、前述のドライバ282、アクチュエータ280およびピント調整機構230とを有する。
In contrast, the
制御ユニット16は、プロセッサ310と、メモリ312とを有する。そのメモリ312は、記録媒体の一例であり、後述の画像表示プログラム(図9ないし図12参照)が予め記録されているプログラム記憶部と、オブジェクトの位置に関連付けて参照コンテンツをHMD10によって表示するのに必要な情報を保存するコンテンツ情報記憶部とを有する。そのコンテンツ情報記憶部においては、例えば、HMD10によって表示可能な複数の参照コンテンツに関するコンテンツ関連情報が、それぞれ対応する複数のオブジェクトに関連付けて記憶されるコンテンツ情報記憶部とを有する。
The
なお、1つのオブジェクトに必ず1つの参照コンテンツが関連付けられて表示されるとは限らず、1つのオブジェクトに複数の参照コンテンツが関連付けられて表示される場合もある。 Note that one reference content is not necessarily displayed in association with one object, and a plurality of reference contents may be displayed in association with one object.
前記コンテンツ関連情報(図6(b)参照)は、例えば、参照コンテンツを表す画像データ、参照コンテンツが関連付けて表示されるオブジェクトの位置(少なくとも1つの代表点の位置)を表す座標データ、参照コンテンツの表示サイズを表すデータ、参照コンテンツに含まれる情報アイテムの構成を表すデータなどを含んでいる。このコンテンツ関連情報は、観察者が表示ユニット12を通してスルー画像として観察する複数のオブジェクトの位置(例えば、各オブジェクトを幾何学的に代表する少なくとも1つの代表点の位置であり、オブジェクのサイズに応じて、代表点の数が増加することが可能である)を特定するためのオブジェクト関連情報を含んでいる。そのオブジェクト関連情報を参照すれば、各オブジェクトの、HMD10からの距離すなわち奥行きを取得することが可能である。
The content related information (see FIG. 6B) includes, for example, image data representing the reference content, coordinate data representing the position of the object displayed in association with the reference content (position of at least one representative point), reference content Data representing the display size of the data, data representing the configuration of information items included in the reference content, and the like. This content-related information is the position of a plurality of objects that the observer observes as a through image through the display unit 12 (for example, the position of at least one representative point that geometrically represents each object, and depends on the size of the object). The object-related information for specifying the number of representative points can be increased. By referring to the object-related information, it is possible to obtain the distance from each
プロセッサ310は、メモリ312に保存されているデータを利用しつつ、前記画像表示プログラムを実行することにより、複数の機能を実現する。それら機能は、図4に、機能ブロック図で示されているが、これについては、後に詳述する。
The
図4に示すように、制御ユニット16は、さらに、通信モジュール320を有し、その通信モジュール320は、無線または有線により、外部のサーバ322に接続されている。そのサーバ322は、前記コンテンツ関連情報を制御ユニット16に向けて発信する。プロセッサ310は、そのコンテンツ関連情報を受信すると、それをメモリ312に一時的に保存する。
As shown in FIG. 4, the
なお、本実施形態においては、前記コンテンツ関連情報が、一時的にサーバ322から受信されてHMD10自体に保存されるが、例えば、HMD10は、サーバ322からの受信なしで、そのサーバ322内のメモリ(図示しない)を利用して、必要なデータ処理を行うことが可能である。
In the present embodiment, the content-related information is temporarily received from the
次に、主に図5ないし図8を参照することにより、HMD10が参照コンテンツをオブジェクトに関連付けて表示するためのコンテンツ表示アルゴリズムを説明する。
Next, a content display algorithm for displaying the reference content in association with the object by the
まず、概略的に説明するに、このコンテンツ表示アルゴリズムによれば、現実外界に存在する複数のオブジェクトであって観察者の視界内にあるもの(HMD10からの距離が異なる少なくとも2つのオブジェクトを有する)が選択され、それら選択された複数のオブジェクトに対応する複数の参照コンテンツが選択される。ここに、「観察者の視界」は、図6(a)に示すように、観察眼の位置(x0,y0,z0)および向き(z軸方向)に対して相対的に決まる一定の3次元的角度範囲であって、平面視において概して扇状を成す範囲である。ここに、「z軸方向」は、観察者の正面方向を意味しており、この方向は、必ずしも観察者の視線方向と一致しない。その扇状を成す範囲は、現実外界に存在する複数のオブジェクトの中から、参照コンテンツを関連付けて表示するオブジェクトを検出するために参照される範囲である。このことに着目し、この範囲を、以下、「オブジェクト検出範囲」ともいう。 First, to explain schematically, according to this content display algorithm, a plurality of objects that exist in the actual external world and are within the viewer's field of view (having at least two objects with different distances from the HMD 10) Is selected, and a plurality of reference contents corresponding to the selected objects are selected. Here, as shown in FIG. 6A, the “viewer's field of view” is a fixed three-dimensional that is determined relative to the position (x0, y0, z0) and direction (z-axis direction) of the observation eye. The target angle range is generally a fan-shaped range in plan view. Here, the “z-axis direction” means the front direction of the observer, and this direction does not necessarily coincide with the line-of-sight direction of the observer. The fan-shaped range is a range that is referred to in order to detect an object to be displayed in association with the reference content from among a plurality of objects existing in the actual outside world. Focusing on this, this range is hereinafter also referred to as “object detection range”.
それら参照コンテンツを表示するためのモードとして、本実施形態においては、一覧モードと注視モードとがある。それら一覧モードおよび注視モードのうち一覧モードがデフォールトのモードであり、HMD10の電源投入後に、注視モードより先に実行される。一覧モードは、オブジェクト検出範囲内にある複数のオブジェクトに関連付けて複数の参照コンテンツをいずれも第1の奥行きを有するように表示するモードである。
In this embodiment, there are a list mode and a gaze mode as modes for displaying these reference contents. Among these list modes and gaze modes, the list mode is the default mode, and is executed before the gaze mode after the
ここに、「第1の奥行き」は、例えば、固定値(例えば、奥行きの長さ(HMD10からの距離)の最大変化範囲を複数のレンジ(例えば、「近レンジ(近)」、「中レンジ(中)」および「遠レンジ(遠)」という3つのレンジ)に分割した場合の、「近レンジ」を代表する奥行き)として設定したり、自動的に調整される可変値(例えば、オブジェクト検出範囲内にある複数のオブジェクトのうち奥行きが最も近いものの奥行き)として設定したり、観察者によって自由に調整される可変値として設定することが可能である。 Here, the “first depth” is a fixed value (for example, a maximum change range of the depth length (distance from the HMD 10), for example, a plurality of ranges (for example, “near range (near)”, “middle range”). (Medium) ”and“ far range (far) ”), or variable values that are automatically adjusted (for example, object detection) It is possible to set as a variable value that can be freely adjusted by an observer.
この一覧モードには、種々の例が存在する。一例においては、複数の参照コンテンツを一斉に表示しても、観察者が確実に視認できる参照コンテンツの数に限度がある(表示されるべき複数の参照コンテンツの表示サイズの合計値が、観察者が視認可能な画像表示領域の総面積を超えるにもかかわらず、それら参照コンテンツを一斉に表示してしまうと、参照コンテンツ間の重複が発生してしまう)という事実を踏まえ、参照コンテンツの表示サイズの合計値が前記画像表示領域の総面積を超える場合に、各オブジェクトの奥行き(奥行きが長いほど、観察者が特定のオブジェクトに注目している程度が低いと推定される)に基づき、参照コンテンツが関連付けて表示されるオブジェクトを絞り込むことが可能である。 There are various examples of this list mode. In one example, even if a plurality of reference contents are displayed at the same time, there is a limit to the number of reference contents that can be reliably viewed by the observer (the total value of the display sizes of the plurality of reference contents to be displayed is The display size of the reference content is based on the fact that if the reference content is displayed all at once even though it exceeds the total visible image display area, duplication between the reference content will occur) If the total value exceeds the total area of the image display area, the reference content is based on the depth of each object (the longer the depth, the less likely the viewer is paying attention to the specific object). It is possible to narrow down objects displayed in association with each other.
この例によれば、あるオブジェクトが、オブジェクト検出範囲内に位置するが、観察者からの距離がかなり遠い場合には、観察者がそのようなオブジェクトに強く注目している可能性が低いことから、それに対応する参照コンテンツの表示が省略される。 According to this example, an object is located within the object detection range, but if the distance from the observer is quite far, it is unlikely that the observer is paying attention to such an object. The display of the corresponding reference content is omitted.
一覧モードにおいては、注視モードに移行するタイミングを決定するために、観察者の挙動が逐次検出され、その検出結果に基づき、今回の一覧モードを終了させて注視モードに移行することが適切であるか否かが判定される。これが、第1注視判定である。 In the list mode, in order to determine the timing for shifting to the gaze mode, it is appropriate that the behavior of the observer is sequentially detected, and based on the detection result, the current list mode is terminated and the mode is shifted to the gaze mode. It is determined whether or not. This is the first gaze determination.
具体的には、本実施形態においては、一覧モードの実行によって一斉に表示されている複数の参照コンテンツのうちのいずれかが、観察者が注視している注視参照コンテンツであると推定された場合に、今回の一覧モードを終了させて注視モードに移行することが適切であると判定される。 Specifically, in the present embodiment, when it is estimated that any one of the plurality of reference contents displayed at the same time by executing the list mode is the gaze reference content being watched by the observer In addition, it is determined that it is appropriate to end the current list mode and shift to the gaze mode.
さらに具体的には、本実施形態においては、観察者が、いずれかの参照コンテンツを注視している(観察者の視線が特定の参照コンテンツに専ら向けられている)場合には、それに対応するオブジェクトを、そのときは注視していないが、最も強く(他のオブジェクトより強く)注目している(そのオブジェクトについて詳細な情報を知りたいと最も強く要望している)注目オブジェクトであると推定される。このように、本実施形態においては、一斉に表示されている複数の参照コンテンツに対する観察者の注視度を参照することにより、注目オブジェクトが推定される。 More specifically, in the present embodiment, when an observer is gazing at any reference content (the observer's line of sight is directed exclusively to specific reference content), this is handled. It is presumed that the object is not the object of interest at that time, but is the object of interest that is the strongest (stronger than other objects) attention (the strongest desire for detailed information about the object). The Thus, in the present embodiment, the object of interest is estimated by referring to the observer's gaze degree for a plurality of reference contents displayed at the same time.
この第1注視判定を行う手法にも、種々の例が存在する。 There are various examples of the method for performing the first gaze determination.
一例においては、観察者の挙動が逐次検出され、その検出結果に基づき、観察者が、実質的に動いている状態(例えば、実質的に歩いているか、および/または頭部が実質的に動いている状態)から、実質的に静止している状態(例えば、実質的に立ち止まっているか、および/または頭部が実質的に静止している状態)に移行したか否かが判定される。その移行があったと判定された場合に、観察者がいずれかの参照コンテンツを注視している可能性が高い(注視状態にある)と推定される。 In one example, the observer's behavior is detected sequentially, and based on the detection results, the observer is in a substantially moving state (eg, substantially walking and / or head substantially moving). It is determined whether the state has shifted from a substantially stationary state to a substantially stationary state (eg, a substantially stationary state and / or a state where the head is substantially stationary). When it is determined that the transition has occurred, it is estimated that there is a high possibility that the observer is gazing at any reference content (in a gazing state).
この例においては、前記注視状態にあると推定されると、さらに、観察者の挙動の検出結果に基づき、一斉に表示されている複数の参照コンテンツのうち、観察者が実際に注視している注視参照コンテンツが抽出される。その抽出手法の一例においては、観察者の視線を検出し、複数の参照コンテンツのうち、その検出された視線の延長上にあるもの(すなわち、観察者の視点位置(観察眼の位置)から、前記検出された視線の方向に延びる視線直線と交差する参照コンテンツ)が注視参照コンテンツとして抽出される。前記抽出手法の別の例においては、観察者は、自身の前方に位置する何らかの対象を注視しようとする際には、無意識のうちに、その注視対象が自身の視界の中央位置に移動してくるように、頭部を動かしたり、体を動かすという習性に着目し、オブジェクト検出範囲内の所定位置(例えば、中央位置)内にある参照コンテンツが注視参照コンテンツとして抽出される。 In this example, when it is estimated that the user is in the gaze state, the observer is actually gazing among a plurality of reference contents displayed at the same time based on the detection result of the behavior of the observer. Gaze reference content is extracted. In an example of the extraction method, an observer's line of sight is detected, and a plurality of reference contents that are on the extension of the detected line of sight (that is, an observer's viewpoint position (observer's eye position)) The reference content intersecting with the line of sight extending in the direction of the detected line of sight) is extracted as the gaze reference content. In another example of the extraction method, when an observer wants to gaze at an object located in front of himself / herself, the gaze object moves unconsciously to the center position of his / her field of view. In this way, paying attention to the habit of moving the head or moving the body, the reference content within a predetermined position (for example, the center position) within the object detection range is extracted as the gaze reference content.
注視モードが開始されると、上記のようにして抽出された注視参照コンテンツが、それに対応するオブジェクト、すなわち、注目オブジェクトの奥行きと実質的に同じ第2の奥行きを有するように、表示される。これにより、注視参照コンテンツの奥行きが、前記第1の奥行きからその第2の奥行きに変化させられる。 When the gaze mode is started, the gaze reference content extracted as described above is displayed so as to have a second depth that is substantially the same as the depth of the object corresponding to the gaze reference content. Thereby, the depth of the gaze reference content is changed from the first depth to the second depth.
ここに、「第2の奥行き」の設定に関連し、注視参照コンテンツについての第2の奥行きと、注目オブジェクトの奥行きとの関係に言及するに、一例においては、注目オブジェクトの奥行きが実質的な連続値または複数の離散値として検出される場合には、その奥行きの検出値と完全に一致するかまたはほぼ一致するように第2の奥行きが設定される。別の例においては、注目オブジェクトの奥行きが、互いに異なる複数のレンジ(幅を有する値)のうちのいずれに属するのかが判定される場合には、その属するレンジ内の任意の値と一致するように第2の奥行きが設定される。 Here, in relation to the setting of “second depth”, the relationship between the second depth of the gaze reference content and the depth of the target object will be described. In one example, the depth of the target object is substantially equal. When it is detected as a continuous value or a plurality of discrete values, the second depth is set so as to completely or substantially match the detected value of the depth. In another example, when it is determined which of a plurality of different ranges (values having a width) the depth of the object of interest belongs to, it matches with an arbitrary value within the range to which the target object belongs. Is set to the second depth.
さらに別の例においては、注目オブジェクトの奥行きと注視参照コンテンツについての第2の奥行きとの差が、他のオブジェクトの奥行きと他の非注視参照コンテンツの奥行き(この場合には、前記第1の奥行きに等しい)との差より小さくなるように、注視参照コンテンツについての第2の奥行きが設定される。この例においては、注目オブジェクトの奥行きと、注視参照コンテンツについての第2の奥行きとが実質的に互いに等しいか否かの判断が、それら2つの奥行き間の差のみを考慮して絶対的に行われるのではなく、他のオブジェクトの奥行きと他の非注視参照コンテンツの奥行きとの差との比較によって相対的に行われる。 In yet another example, the difference between the depth of the object of interest and the second depth for the gaze reference content is the depth of the other object and the depth of the other non-gaze reference content (in this case, the first The second depth for the gaze reference content is set so as to be smaller than the difference between the gaze reference content and the gaze reference content. In this example, whether or not the depth of the object of interest and the second depth of the gaze reference content are substantially equal to each other is absolutely determined considering only the difference between the two depths. Rather, it is performed relatively by comparing the difference between the depth of the other object and the depth of the other non-gaze reference content.
その結果、本実施形態によれば、注視モードにおいて、観察者は、注目オブジェクトと注視参照コンテンツとを、同じ奥行き位置、すなわち、同じピント位置において同時に視認できるため、両対象の視認し易さが向上するとともに観察者の眼の疲労が軽減される。本実施形態によれば、さらに、観察者が、注視参照コンテンツを、注目オブジェクトに近接する位置において視認できるため、両対象を交互に視認する際に、ピント位置の移動距離が短くて済み、このことによっても、両対象の視認し易さが向上するとともに観察者の眼の疲労が軽減される。 As a result, according to the present embodiment, in the gaze mode, the observer can visually recognize the object of interest and the gaze reference content at the same depth position, that is, the same focus position at the same time. The fatigue of the observer's eyes is reduced while improving. Further, according to the present embodiment, the observer can visually recognize the gaze reference content at a position close to the object of interest, so that when moving both objects alternately, the moving distance of the focus position can be shortened. This also improves the visibility of both objects and reduces the fatigue of the eyes of the observer.
注視モードにおいて注視参照コンテンツを表示する手法にも、種々の例が存在する。一例においては、注視参照コンテンツが、その注視参照コンテンツが前記一覧表示されるときの表示サイズより拡大される(例えば、1より大きい所定倍率で拡大される)ように表示される。この例によれば、観察者が注視参照コンテンツを、一緒に表示されている他の参照コンテンツから、ピント位置のみならず表示サイズに関しても、区別されて表示されることとなり、その結果、注視参照コンテンツの視認し易さが向上する。 There are various examples of methods for displaying gaze reference content in the gaze mode. In one example, the gaze reference content is displayed so as to be larger than the display size when the gaze reference content is displayed as a list (for example, enlarged at a predetermined magnification larger than 1). According to this example, the viewer can display the gaze reference content separately from the other reference content displayed together, not only with respect to the focus position but also with respect to the display size. The visibility of content is improved.
なお、本実施形態においては、HMD10が、各参照コンテンツごとに異なるピント位置で各参照コンテンツを表示する機能を有せず、そのため、複数の参照コンテンツが一斉に表示される場合には、それら参照コンテンツが、それに共通するピント位置、すなわち、注目オブジェクトの奥行きに応じて可変に設定される前記第2の奥行き(注目オブジェクトが、今回のオブジェクトそれとは異なる奥行きを有する別のオブジェクトに変化すると、それにつれて、前記第2の奥行きも変化する)のもとに表示されることになる。
In the present embodiment, the
とはいえ、上述のように、注視モードにおいては、注視参照コンテンツが、一覧モードで表示される場合より拡大され、それにより、他の参照コンテンツより強調されて表示されるとともに、注視参照コンテンツは、それに対応する注目オブジェクトの位置に関連付けて表示されるようになっているため、観察者が、注視参照コンテンツと注目オブジェクトの対応を容易に認識することが可能である。 However, as described above, in the gaze mode, the gaze reference content is enlarged as compared with the case where the gaze reference content is displayed in the list mode. Since it is displayed in association with the position of the target object corresponding to the target object, the observer can easily recognize the correspondence between the gaze reference content and the target object.
ただし、各参照コンテンツごとに異なるピント位置で各参照コンテンツを表示する機能を有するHMDに対して本発明を適用したり、注視モードにおいては、注視参照コンテンツ以外の参照コンテンツを表示しない態様で本発明を実施することが可能である。 However, the present invention is applied to an HMD having a function of displaying each reference content at a different focus position for each reference content, or in a mode in which the reference content other than the gaze reference content is not displayed in the gaze mode. Can be implemented.
注視モードにおいては、一覧モードに移行するタイミングを決定するために、観察者の挙動が逐次検出され、その検出結果に基づき、今回の注視モードを終了させて一覧モードに移行することが適切であるか否かが判定される。これが、第2注視判定である。 In the gaze mode, in order to determine the timing for shifting to the list mode, it is appropriate that the behavior of the observer is sequentially detected, and based on the detection result, the current gaze mode is terminated and the list mode is shifted to. It is determined whether or not. This is the second gaze determination.
この第2注視判定を行う手法にも、種々の例が存在する。 There are various examples of the method for performing the second gaze determination.
一例においては、観察者の挙動が逐次検出され、その検出結果に基づき、観察者がいずれの参照コンテンツも注視していない非注視状態にあるか否かが判定される。具体的には、観察者が、実質的に静止している状態(例えば、実質的に立ち止まっているか、および/または頭部が実質的に静止している状態)から、実質的に動いている状態(例えば、実質的に歩いているか、および/または頭部が実質的に動いている状態)に移行したという第1条件が成立したか否かが判定される。その第1条件が成立したと判定された場合には、一覧モードへの移行が適切であると判定される。 In one example, the behavior of the observer is sequentially detected, and based on the detection result, it is determined whether or not the observer is in a non-gaze state in which no reference content is gazing. Specifically, the observer is moving substantially from a substantially stationary state (eg, substantially stationary and / or a head that is substantially stationary). It is determined whether or not a first condition that a state (for example, a state where the user is substantially walking and / or a head is substantially moving) is satisfied. When it is determined that the first condition is satisfied, it is determined that the transition to the list mode is appropriate.
別の例においては、上記第1条件が成立するのを待って、または、その成否とは無関係に、観察者の視線が逐次検出され、その検出された視線の延長上に今回の注視参照コンテンツが存在しないという第2条件が成立したか否かが判定される。その第2条件が単独で、または第1条件と一緒に成立したと判定された場合には、一覧モードへの移行が適切であると判定される。 In another example, the gaze of the observer is sequentially detected while waiting for the first condition to be satisfied or regardless of whether or not the first condition is met, and the gaze reference content of this time on the extension of the detected gaze It is determined whether or not the second condition that no exists is established. When it is determined that the second condition is established alone or together with the first condition, it is determined that the transition to the list mode is appropriate.
さらに別の例においては、前記第1条件および/または第2条件が成立するのを待って、または、その成否とは無関係に、今回の注目オブジェクトが、所定範囲(例えば、オブジェクト検出範囲、または、そのオブジェクト検出範囲内の所定位置)から逸脱したという第3条件が成立したか否かが判定される。その第3条件が単独で、または第1条件および/または第2条件と一緒に成立したと判定された場合には、一覧モードへの移行が適切であると判定される。 In yet another example, the current object of interest waits for the first condition and / or the second condition to be satisfied, or regardless of whether the first condition and / or the second condition is satisfied. It is determined whether or not the third condition of deviating from a predetermined position within the object detection range is satisfied. When it is determined that the third condition is established alone or together with the first condition and / or the second condition, it is determined that the transition to the list mode is appropriate.
以上の説明から明らかなように、本実施形態においては、観察者が特定の参照コンテンツを注視するという観察者の特定の動作であって、HMD10に対する操作を必要とはしないものの有無に応じて自動的にモードが一覧モードと注視モードとの間で切り換わるため、観察者は、HMD10をハンズフリーの状態で使用することが可能となり、その結果、HMD10の使い勝手が向上する。
As is clear from the above description, in the present embodiment, the observer automatically operates according to the presence / absence of the observer's specific action in which the observer gazes at the specific reference content that does not require an operation on the
図5には、以上説明したコンテンツ表示アルゴリズムがある環境において実施された場合に観察者が視認する画像(現実外界内の複数のオブジェクトを表す像と、複数の参照コンテンツの表示物との双方)の展開の一例が示されている。 FIG. 5 shows an image (both an image representing a plurality of objects in the actual outside world and a display object of a plurality of reference contents) visually recognized by an observer when implemented in an environment with the content display algorithm described above. An example of the development of is shown.
この例において、ある環境とは、複数の展示物(例えば、美術品、恐竜の化石やレプリカなど)を収容している展示室を有する施設(例えば、美術館、博物館など)であり、また、複数のオブジェクトは、前記複数の展示物であり、また、複数の参照コンテンツは、前記複数の展示物についてのアノテーション(例えば、展示物の名称、特徴など)である。 In this example, an environment is a facility (eg, a museum, a museum, etc.) having an exhibition room that houses a plurality of exhibits (eg, art, dinosaur fossils, replicas, etc.). The objects are the plurality of exhibits, and the plurality of reference contents are annotations (for example, names and features of the exhibits) about the plurality of exhibits.
図5に示す例においては、観察者に対し、手前に展示物Aが存在し、奥に展示物Bが存在する。それら展示物AおよびBについて、位置的に関連付けてそれぞれの参照コンテンツ(四角形の枠で囲まれた部分)SおよびRが表示される。一覧モードにおいては、展示物Aの奥行きの方が、展示物Bの奥行きより短いため、展示物Aに対応する参照コンテンツSの表示サイズの方が、展示物Bに対応する参照コンテンツRの表示サイズより大きい。 In the example shown in FIG. 5, the exhibit A is present in front of the observer and the exhibit B is present in the back. For these exhibits A and B, their reference contents (portions surrounded by a square frame) S and R are displayed in a positional relationship. In the list mode, the depth of the exhibit A is shorter than the depth of the exhibit B. Therefore, the display size of the reference content S corresponding to the exhibit A is the display size of the reference content R corresponding to the exhibit B. Greater than size.
この状況において、展示物Bに対応する参照コンテンツを観察者が注視したと仮定する(すなわち、展示物Bに対応する参照コンテンツ(図5においては、右上に位置するコンテンツ)が注視参照コンテンツであり、かつ、展示物Bが注目オブジェクトであると仮定する)と、一覧モードが自動的に終了して注視モードに移行する。 In this situation, it is assumed that the viewer gazes at the reference content corresponding to the exhibit B (that is, the reference content corresponding to the exhibit B (the content located at the upper right in FIG. 5) is the gaze reference content. In addition, when the exhibit B is an object of interest), the list mode is automatically ended and the mode is shifted to the gaze mode.
この注視モードにおいては、展示物Bに対応する参照コンテンツRの表示サイズが、一覧モードのときの表示サイズより拡大される。このとき、例えば、展示物Aに対応する参照コンテンツSは、展示物Aが展示物Bより手間に位置しているため、先行する一覧モードのときに、通常サイズより拡大されていたが、注視モードに移行すると、今回は、注視参照コンテンツに該当しないことから、通常サイズに戻される。 In the gaze mode, the display size of the reference content R corresponding to the exhibit B is enlarged from the display size in the list mode. At this time, for example, the reference content S corresponding to the exhibit A is larger than the normal size in the preceding list mode because the exhibit A is located more easily than the exhibit B. When shifting to the mode, this time, since it does not correspond to the gaze reference content, it is returned to the normal size.
図6(a)には、観察者が、HMD10を使用している状態で、ある展示室内において複数の展示物(例えば、恐竜のレプリカ)を鑑賞している様子が、その展示室全体を真上から俯瞰することによって示す平面図で示されている。この展示室には、複数のアンテナが予め設置されており、HMD10は、位置検出部300および向き検出部302のうち少なくとも位置検出部300を介して、それらアンテナのうち、最も近い3つのアンテナを用いた三角測量の原理を利用することにより、観察者の位置(x0,y0,z0)を、前記展示室に固定されたローカル座標系またはグローバル座標系上で検出する。なお、z軸方向は、観察者の正面方向を表しており、観察者の視線方向と一致する場合もあれば、一致しない場合もある。
FIG. 6A shows that the observer is viewing a plurality of exhibits (for example, replicas of dinosaurs) in a certain exhibition room while using the
その三角測量の原理に依存する一例においては、複数のアンテナの各々から信号が同時に、アンテナから他の複数の複数のアンテナに向かうように、発信され、それら信号を複数のアンテナがそれぞれ受信するタイミングの差または比に基づき、観察者の位置が検出される。その三角測量の原理に依存する別の例においては、複数のアンテナの各々から、同一の強度を有する信号が同時に、アンテナから他の複数の複数のアンテナに向かうように、発信され、それら信号が複数のアンテナによってそれぞれ受信されたときの受信強度の差または比に基づき、観察者の位置が検出される。 In an example that relies on the principle of triangulation, a signal is transmitted from each of a plurality of antennas simultaneously so that the signals are directed from the antenna to a plurality of other antennas, and the timing at which the plurality of antennas respectively receive the signals. The position of the observer is detected based on the difference or ratio. In another example that relies on the principle of triangulation, a signal having the same strength is transmitted from each of a plurality of antennas at the same time so as to be directed from the antenna to a plurality of other antennas. The position of the observer is detected based on the difference or ratio of the received intensity when received by the plurality of antennas.
この例においては、展示室に、展示物A,B,CおよびDが展示されており、また、展示物Aには、参照コンテンツA1およびA2が関連付けられ、また、展示物Bには、参照コンテンツB1およびB2が関連付けられ、また、展示物Cには、参照コンテンツC1およびC2が関連付けられ、また、展示物Dには、参照コンテンツD1が関連付けられている。 In this example, exhibits A, B, C, and D are displayed in the exhibition room, reference contents A1 and A2 are associated with the exhibit A, and reference to the exhibit B The contents B1 and B2 are associated with each other, the reference contents C1 and C2 are associated with the exhibit C, and the reference contents D1 are associated with the exhibit D.
図6(b)には、図4に示すコンテンツ情報記憶部に記憶されているコンテンツ関連情報の一例であって、図6(a)に示す例に対応するものが表形式で示されている。このコンテンツ関連情報の例は、展示室内に存在するすべての展示物につき、各展示物を一覧モードおよび注視モードで表示するために必要な情報である。 FIG. 6B shows an example of content-related information stored in the content information storage unit shown in FIG. 4 and corresponding to the example shown in FIG. . This example of content-related information is information necessary for displaying each exhibit in the list mode and the gaze mode for all exhibits existing in the exhibition room.
このコンテンツ関連情報の例は、各参照コンテンツに対応するオブジェクトの奥行きが長いほど(観察者から遠ざかるほど、すなわち、観察者からの距離が長いほど)、各参照コンテンツの表示サイズが小さくなるという第1の規則と、各参照コンテンツに対応するオブジェクトの奥行きが長いほど、各参照コンテンツに含まれる情報アイテムの数または情報量が減少するとうい第2の規則とに従って作成されている。それら第1および第2の規則は、各オブジェクトの奥行きが長いほど、観察者が特定のオブジェクトに注目している程度が低いと推定されることに依拠している。 In this example of the content related information, the display size of each reference content decreases as the depth of the object corresponding to each reference content increases (the distance from the viewer increases, that is, the distance from the viewer increases). The number of information items included in each reference content or the amount of information decreases as the depth of the object corresponding to each reference content is longer. These first and second rules rely on the presumption that the greater the depth of each object, the less the viewer is paying attention to a particular object.
この例によれば、各オブジェクトの奥行きが短いほど、対応する参照コンテンツの表示サイズが大きいため、観察者は、複数の参照コンテンツが一斉に表示されている環境において、どのオブジェクトがどの参照コンテンツに関連づけられているかを直感的に判断することが容易となる。すなわち、観察者の直感に訴える参照コンテンツの表示が可能となるのである。 According to this example, the shorter the depth of each object, the larger the display size of the corresponding reference content. Therefore, in an environment in which a plurality of reference content is displayed at the same time, the observer can determine which object is the reference content. It becomes easy to intuitively determine whether they are associated. That is, it is possible to display reference content appealing to the viewer's intuition.
また、この例においては、各参照コンテンツが関連付けて表示される展示物の位置が、(X,Y,Z)という3次元座標値で定義されている。この3次元座標系は、例えば、最初は、前記展示室に固定された第1のローカル座標系上で定義されているが、観察者の位置および向きの、その第1のローカル座標系に対する相対位置関係に基づき、最初の3次元座標値は、HMD10内において、そのHMD10に固定された第2のローカル座標系上の座標値に変換される。各展示物の位置を表す3次元座標値(X,Y,Z)を用いることにより、各展示物の、HMD10からの距離、すなわち、奥行きを算出することが可能である。
Further, in this example, the position of the exhibit displayed in association with each reference content is defined by a three-dimensional coordinate value of (X, Y, Z). This three-dimensional coordinate system is initially defined, for example, on a first local coordinate system fixed to the exhibition room, but the position and orientation of the observer is relative to the first local coordinate system. Based on the positional relationship, the first three-dimensional coordinate value is converted into a coordinate value on the second local coordinate system fixed to the
この例においては、具体的には、オブジェクトの奥行きの長さ(オブジェクトの、HMD10からの距離)の最大変化範囲が、「近レンジ(近)」、「中レンジ(中)」および「遠レンジ(遠)」という3つのレンジに分割されている。 Specifically, in this example, the maximum change range of the depth length of the object (the distance of the object from the HMD 10) is “near range (near)”, “middle range (middle)”, and “far range”. (Far) "is divided into three ranges.
また、この例においては、各参照コンテンツに含まれる情報アイテム(例えば、アイコンや説明(テキストやグラフィックス))の量および各参照コンテンツの表示サイズ(例えば、「大サイズ」、「中サイズ」または「小サイズ」)が、対応するオブジェクトがHMD10に近いほど、増加する。
Further, in this example, the amount of information items (for example, icons and descriptions (text and graphics)) included in each reference content and the display size (for example, “large size”, “medium size”, or “Small size”) increases as the corresponding object is closer to the
この例においては、同じ情報アイテムにつき、それを表示するための画像データは、複数の表示サイズのそれぞれについて予め用意しておいてもよいが、メモリ312の容量節約のために、例えば、「大サイズ」で各情報アイテムを表示するための画像データをメモリ312に保存しておき、「中サイズ」および「小サイズ」で同じ情報アイテムを表示することが必要である場合には、その都度、「大サイズ」で表示するための画像データをメモリ312から読み出してそれを縮小したり、一部を削除したりして編集することによって生成してもよい。
In this example, image data for displaying the same information item may be prepared in advance for each of a plurality of display sizes. However, in order to save the capacity of the
この例においては、図6(b)に示すように、展示物Aには、2つの参照コンテンツA1およびA2が対応し、また、展示物Bには、2つの参照コンテンツB1およびB2が対応し、展示物Cには、2つの参照コンテンツC1およびC2が対応し、展示物Dには、1つの参照コンテンツD1が対応する。 In this example, as shown in FIG. 6B, the exhibit A corresponds to two reference contents A1 and A2, and the exhibit B corresponds to two reference contents B1 and B2. The exhibit C corresponds to two reference contents C1 and C2, and the exhibit D corresponds to one reference content D1.
例えば、参照コンテンツA1については、対応するオブジェクトが「近レンジ」内に位置する場合には、この参照コンテンツA1に含まれる情報アイテム(内容)が、「アイコンA1」と「説明A1」との組合せとなり、また、参照コンテンツA1の表示サイズが、「大サイズ」、「中サイズ」および「小サイズ」という3つのサイズのうちの「大サイズ」となる。 For example, for the reference content A1, when the corresponding object is located in the “near range”, the information item (content) included in the reference content A1 is a combination of “icon A1” and “description A1”. In addition, the display size of the reference content A1 is “large size” among the three sizes “large size”, “medium size”, and “small size”.
また、参照コンテンツA1については、対応する展示物Aが「中レンジ」内に位置する場合には、参照コンテンツA1に含まれる情報アイテム(内容)が、「説明A1」のみとなり、その結果、展示物Aが「近レンジ」内に位置する場合より、情報アイテムの数も情報量も減少する。また、参照コンテンツA1の表示サイズが、「中サイズ」となり、その結果、「近レンジ」内に位置する場合より、表示サイズも減少する。 For the reference content A1, when the corresponding exhibit A is located in the “medium range”, the information item (content) included in the reference content A1 is only “explanation A1”, and as a result, the exhibition The number of information items and the amount of information are reduced as compared with the case where the object A is located in the “near range”. In addition, the display size of the reference content A1 is “medium size”, and as a result, the display size is reduced as compared with the case where the reference content A1 is located in the “near range”.
展示物Aが「中レンジ」内に位置する場合には、参照コンテンツA1を表示するのに必要な画像データは、「説明A1」を表すデータとなる。このデータは、展示物Aが「近レンジ」内に位置する場合に同じ参照コンテンツA1を表示するのに必要な画像データである「アイコンA1」を表すデータと「説明A1」を表すデータから、「アイコンA1」を表すデータを削除することによって作成される。この作成手法に代えて、展示物Aが位置するレンジごとに、参照コンテンツA1を表示するのに必要な画像データを個別に予め作成してメモリ312に保存しておくことも可能であるが、この場合には、画像データを事前に作成する手間やメモリ312の容量が増加する傾向がある。
When the exhibit A is located in the “medium range”, the image data necessary for displaying the reference content A1 is data representing “description A1”. This data is obtained from data representing “icon A1” and data representing “explanation A1”, which are image data necessary for displaying the same reference content A1 when the exhibit A is located in the “near range”. It is created by deleting data representing “icon A1”. Instead of this creation method, image data necessary for displaying the reference content A1 can be individually created in advance and stored in the
また、参照コンテンツA1については、対応するオブジェクトが「遠レンジ」内に位置する場合には、参照コンテンツA1に含まれる情報アイテム(内容)が、「アイコンA1」のみとなり、その結果、展示物Aが「中レンジ」内に位置する場合より、情報アイテムの情報量も減少する(アイコンAの情報量は、説明A1の情報量より少ない)。また、参照コンテンツA1の表示サイズが、「小サイズ」となり、その結果、「中レンジ」内に位置する場合より、表示サイズも減少する。 As for the reference content A1, when the corresponding object is located in the “far range”, the information item (contents) included in the reference content A1 is only the “icon A1”. As a result, the exhibit A The information amount of the information item is also reduced as compared with the case where is located in the “medium range” (the information amount of the icon A is smaller than the information amount of the description A1). In addition, the display size of the reference content A1 is “small size”, and as a result, the display size is also reduced as compared with the case of being located in the “medium range”.
展示物Aが「遠レンジ」内に位置する場合に、参照コンテンツA1を表示するのに必要な画像データは、「アイコンA1」を表すデータである。このデータは、展示物Aが「近レンジ」内に位置する場合に同じ参照コンテンツA1を表示するのに必要な画像データである「アイコンA1」を表すデータと「説明A1」を表すデータから、「説明A1」を表すデータを削除することによって作成される。 When the exhibit A is located in the “far range”, the image data necessary for displaying the reference content A1 is data representing the “icon A1”. This data is obtained from data representing “icon A1” and data representing “explanation A1”, which are image data necessary for displaying the same reference content A1 when the exhibit A is located in the “near range”. It is created by deleting data representing “Description A1”.
図6(a)に示す例においては、展示物A,B,CおよびDのうち、展示物BおよびCのみが、観察者のオブジェクト検出範囲内に存在する。展示物Bには、2つの参照コンテンツB1およびB2が対応し、また、展示物Cには、2つの参照コンテンツC1およびC2が対応する。このように、複数の参照コンテンツを、有限の画像表示領域内に一斉に表示することが必要である場合があるが、この場合には、その表示を最適化するために、何らかの対策を講ずることが望ましい。 In the example shown in FIG. 6A, among the exhibits A, B, C, and D, only the exhibits B and C exist within the object detection range of the observer. Two reference contents B1 and B2 correspond to the exhibit B, and two reference contents C1 and C2 correspond to the exhibit C. As described above, it may be necessary to display a plurality of reference contents all at once in a finite image display area. In this case, some measures must be taken to optimize the display. Is desirable.
具体的には、観察者が観察している現実外界に複数の参照コンテンツが対応する場合であって、それら参照コンテンツを一斉に表示すると、表示される参照コンテンツの表示サイズの合計値が前記画像表示領域の総面積を超える場合には、何ら対策を講ずることなく、それら参照コンテンツを一斉に表示すると、それら参照コンテンツが重複して表示されてしまる。この場合には、観察者がそれら参照コンテンツを個別に視認する際に支障が生じる可能性がある。 Specifically, when a plurality of reference contents correspond to the actual outside world observed by the observer, and when the reference contents are displayed all together, the total value of the display sizes of the displayed reference contents is the image. When the total area of the display area is exceeded, if the reference contents are displayed all at once without taking any measures, the reference contents are displayed in duplicate. In this case, there is a possibility that trouble may occur when the viewer visually recognizes the reference contents individually.
また、それら参照コンテンツを一斉に、前記画像表示領域内に、それら参照コンテンツに対応するオブジェクトの位置とは無関係に決まる位置に表示したのでは、観察者は、どの参照コンテンツがどのオブジェクトに対応するのかを簡単かつ正確に認識することができない。また、複数の参照コンテンツが重複して表示されてしまうと、観察者は、希望する参照コンテンツを正常に観察することができない。 In addition, if the reference contents are displayed in the image display area at a position determined independently of the positions of the objects corresponding to the reference contents, the observer can select which reference contents correspond to which object. Cannot be recognized easily and accurately. If a plurality of reference contents are displayed in an overlapping manner, the observer cannot normally observe the desired reference contents.
それらの不都合を防止する手法として、例えば、それぞれの参照コンテンツに予め重要度を割り当てておき、オブジェクト検出範囲内にあるすべての展示物に対応するすべての参照コンテンツをそれぞれ候補コンテンツとした場合に、それら候補コンテンツのうち、重要度が最も低いものや、重要度が所定値以下のものを除外して、表示すべきコンテンツを最終的に決定する手法を採用することが可能である。 As a technique for preventing such inconvenience, for example, when importance is assigned to each reference content in advance, and all reference content corresponding to all exhibits in the object detection range are set as candidate content, Among these candidate contents, it is possible to adopt a method of finally determining the contents to be displayed by excluding those having the lowest importance and those having the importance less than or equal to a predetermined value.
図7(a)には、この手法に従って表示対象コンテンツを絞り込むために必要なテーブルの一例が示されており、この例は、図6(a)および図6(b)に示す例に対応する。 FIG. 7A shows an example of a table necessary for narrowing display target contents according to this technique, and this example corresponds to the examples shown in FIGS. 6A and 6B. .
図7(a)においては、各参照コンテンツに関連付けて、各参照コンテンツの重要度(例えば、「大」および「小」という2段階またはそれより多段階に分類される)と、オブジェクト検出範囲内に位置するか否かの情報と、対応する展示物の、HMD10からの距離すなわち奥行きと、その距離が分類されるレンジ(「近」と「中」と「遠」のいずれか)と、各参照コンテンツに含まれる情報アイテムの内容と、各参照コンテンツの表示サイズ(「大」と「中」と「小」のいずれか)と、各参照コンテンツの表示を許可するか否かを表す情報(○:表示する、×:表示しない)とが表形式で示されている。
In FIG. 7A, in association with each reference content, the importance of each reference content (for example, classified into two levels of “large” and “small” or more levels) and within the object detection range Information on whether or not it is located, the distance from the
この例においては、まず、オブジェクトBおよびCがオブジェクト検出範囲内にあることから、それらに対応する4つの参照コンテンツB1,B2,C1およびC2がそれぞれ候補コンテンツとして抽出される。それら候補コンテンツは、重要度を考慮しない場合には、すべて表示されることになるが、この例においては、重要度を考慮して、候補コンテンツの絞込みが行われる。この例においては、参照コンテンツB2の重要度が「小」であるため、除外され、最終的に、3つの参照コンテンツB1,C1およびC2が、例えば図7(b)に示すように、表示される。 In this example, since the objects B and C are within the object detection range, four reference contents B1, B2, C1, and C2 corresponding to them are extracted as candidate contents. These candidate contents are all displayed when the importance is not considered, but in this example, the candidate contents are narrowed down in consideration of the importance. In this example, since the importance of the reference content B2 is “small”, the reference content B2 is excluded, and finally, the three reference content B1, C1, and C2 are displayed as shown in FIG. 7B, for example. The
図7(b)に示す例においては、複数の参照コンテンツのそれぞれの表示位置が、それら参照コンテンツに対応する複数のオブジェクトの左右方向相対位置関係(正確には、代表点間の左右方向相対位置関係)を反映するように決定される。 In the example shown in FIG. 7B, the display positions of the plurality of reference contents are the relative positions in the horizontal direction of the objects corresponding to the reference contents (more precisely, the horizontal relative positions between the representative points). Relationship).
図6(a)に示すように、展示物Bは、観察者に対して左寄りに位置する一方、展示物Cは、観察者に対して右寄りに位置する。したがって、図7(b)に示す例においては、展示物BおよびC間の、そのような左右方向相対位置関係(観察者の視線方向に対して直角な2次元方向における相対位置関係)が反映されるように、それら参照コンテンツB1ならびにC1およびC2の、それぞれの表示位置の相対位置関係が決定される。 As shown in FIG. 6A, the exhibit B is located on the left side with respect to the observer, while the exhibit C is located on the right side with respect to the observer. Therefore, in the example shown in FIG. 7B, such a horizontal relative positional relationship between the exhibits B and C (a relative positional relationship in a two-dimensional direction perpendicular to the line of sight of the observer) is reflected. As described above, the relative positional relationship between the display positions of the reference contents B1 and C1 and C2 is determined.
具体的には、参照コンテンツB1は、前記画像表示領域において、それの中央位置から左側に外れた位置に表示される一方、参照コンテンツC1およびC2は、いずれも、前記画像表示領域において、それの中央位置から右側に外れた位置に表示される。 Specifically, the reference content B1 is displayed at a position deviated to the left from the center position in the image display area, while the reference contents C1 and C2 are both displayed in the image display area. It is displayed at a position off the right side from the center position.
図7(b)に示す例においては、さらに、複数の参照コンテンツのそれぞれの表示位置が、それら参照コンテンツに対応するオブジェクトの前後方向相対位置関係(正確には、代表点間の前後方向相対位置関係)が反映されるように、決定される。 In the example shown in FIG. 7B, the display position of each of the plurality of reference contents is the relative front-rear relative position relationship between the objects corresponding to the reference contents (more precisely, the front-rear relative position between the representative points). (Relationship) is reflected.
具体的には、図6(a)に示すように、展示物Bの代表点B1の位置は、観察者に最も近く、また、展示物Cの代表点C2の位置は、観察者から最も離れており、また、展示物Cの代表点C1は、それら代表点B1およびC2の中間に位置する。したがって、図7(b)に示す例においては、展示物BおよびC間の、そのような前後方向相対位置関係(観察者の視線方向に対して平行な方向における相対位置関係)が反映されるように、それら参照コンテンツB1ならびにC1およびC2の、それぞれの表示位置の相対位置関係が決定される。 Specifically, as shown in FIG. 6A, the position of the representative point B1 of the exhibit B is closest to the observer, and the position of the representative point C2 of the exhibit C is farthest from the observer. The representative point C1 of the exhibit C is located between the representative points B1 and C2. Therefore, in the example shown in FIG. 7B, such a front-rear direction relative positional relationship between the exhibits B and C (relative positional relationship in a direction parallel to the observer's line-of-sight direction) is reflected. In this way, the relative positional relationship between the display positions of the reference contents B1 and C1 and C2 is determined.
具体的には、展示物Bの代表点B1は、「近レンジ」内に位置するため、それに対応する参照コンテンツB1は、観察者が視認する前記画像表示領域を縦方向に、上側部分領域と、中央部分領域と、下側部分領域との3分割した場合の下側部分領域内に表示され、また、展示物Cの代表点C1は、「中レンジ」内に位置するため、それに対応する参照コンテンツC1は、前記中央部分領域内に表示され、また、展示物Cの代表点C2は、「遠レンジ」内に位置するため、それに対応する参照コンテンツC2は、前記上側部分領域内に表示される。 Specifically, since the representative point B1 of the exhibit B is located in the “near range”, the reference content B1 corresponding to the representative point B1 is the upper partial region in the vertical direction with respect to the image display region visually recognized by the observer. The center partial area and the lower partial area are displayed in the lower partial area when divided into three, and the representative point C1 of the exhibit C is located in the “medium range”, and therefore corresponds to it. Since the reference content C1 is displayed in the central partial area, and the representative point C2 of the exhibit C is located in the “far range”, the corresponding reference content C2 is displayed in the upper partial area. Is done.
図6(a)に示す例においては、展示物Bに2つの代表点B1およびB2が対応付けられ、それら代表点B1およびB2に2つの参照コンテンツB1およびB2が対応付けられている。しかし、それら代表点B1およびB2のそれぞれの位置座標は、互いに一致するため、上述の規則に従って、それら参照コンテンツB1およびB2のそれぞれの表示位置を決定した上で、それら参照コンテンツB1およびB2を同時に表示すると、それら参照コンテンツB1およびB2が重複して表示されてしまう可能性がある。そのような重複表示を放置したのでは、観察者が、それら参照コンテンツB1およびB2を互いに区別して視認することが困難となる。 In the example shown in FIG. 6A, two representative points B1 and B2 are associated with the exhibit B, and two reference contents B1 and B2 are associated with the representative points B1 and B2. However, since the position coordinates of the representative points B1 and B2 coincide with each other, the display positions of the reference contents B1 and B2 are determined according to the rules described above, and the reference contents B1 and B2 are simultaneously displayed. When displayed, these reference contents B1 and B2 may be displayed in duplicate. If such overlapping display is left unattended, it becomes difficult for the observer to visually distinguish the reference contents B1 and B2 from each other.
そのような重複表示を防止するために、例えば、それら参照コンテンツB1およびB2を、重複することなく並ぶように初期の表示位置を変更したうえで、一斉に表示したり、初期の表示位置をそのままにして、時間的に交互に表示することが可能である。 In order to prevent such overlapping display, for example, the reference display contents B1 and B2 may be displayed at the same time after changing the initial display position so that they are arranged without overlapping. Thus, they can be displayed alternately in time.
前述のように、有限の画像表示領域内に複数の参照コンテンツが一斉に表示される場合、表示される参照コンテンツの数が、観察者の視認能力との関係において過大であると、観察者は圧迫感ひいては不快感も覚える可能性がある。 As described above, when a plurality of reference contents are displayed simultaneously in a finite image display area, if the number of displayed reference contents is excessive in relation to the viewing ability of the observer, the observer There is a possibility of feeling a sense of pressure and discomfort.
このような不都合を解決する手法の一例として、一覧モードの実行中、表示状態が非選択状態(全数表示状態)から選択状態(要部表示状態)に切り換わるようにする手法を採用することが望ましい。 As an example of a technique for solving such inconvenience, a technique is adopted in which the display state is switched from the non-selected state (total number display state) to the selected state (main part display state) during execution of the list mode. desirable.
図8には、図7に示す例と類似する例が示されている。この例においては、一覧モードが、まず、前記非選択状態で実行され、その結果、オブジェクト検出範囲内にある複数のオブジェクトB,CおよびDに対応する複数の参照コンテンツB1,B2,C1−C3およびD1−D4が一斉に表示される。 FIG. 8 shows an example similar to the example shown in FIG. In this example, the list mode is first executed in the non-selected state, and as a result, a plurality of reference contents B1, B2, C1-C3 corresponding to a plurality of objects B, C and D within the object detection range. And D1-D4 are displayed simultaneously.
その後、一覧モードが前記選択状態に移行し、その結果、特定の少なくとも1つのオブジェクトC、すなわち、観察者が今後、注目する可能性が高い少なくとも1つのオブジェクトとして推定され、そのオブジェクトに対応する少なくとも1つの参照コンテンツのみが、前記画像表示領域内に表示される。観察者が今後注目する可能性が高い少なくとも1つのオブジェクトは、例えば、観察者の正面に位置する少なくとも1つのオブジェクトとして選択される。このように、一覧モードが非選択状態と選択状態とに切り換えられることにより、観察者が複数の参照コンテンツを視認する際の視認性が向上する。 Thereafter, the list mode shifts to the selected state, and as a result, at least one specific object C, that is, at least one object that is likely to be observed by the observer in the future, is estimated, and at least corresponding to the object. Only one reference content is displayed in the image display area. The at least one object that is likely to be noticed by the observer in the future is selected as, for example, at least one object located in front of the observer. As described above, the list mode is switched between the non-selected state and the selected state, thereby improving the visibility when the observer visually recognizes a plurality of reference contents.
その選択状態で、観察者が、オブジェクトCに対応する参照コンテンツC2を注視すると、注視モードに移行し、参照コンテンツC2が拡大表示される。 When the observer gazes at the reference content C2 corresponding to the object C in the selected state, the viewer shifts to the gaze mode, and the reference content C2 is enlarged and displayed.
以上、HMD10が画像を表示するための画像表示方法(すなわち、HMD10を作動させる方法)のいくつかの例を説明したが、それら画像表示方法は、メモリ312の前記プログラム記憶部に予め格納されている前記画像表示プログラムをプロセッサ310が実行することによって実行される。したがって、そのプロセッサ310は、説明の便宜上、概念的には、図4に示すように、複数の機能を実行する複数の部分を有する。
As described above, several examples of the image display method for the
具体的には、プロセッサ310は、オブジェクト取得部400と、参照コンテンツ表示部402と、画像信号生成部404と、ピント調整信号生成部406とを有する。画像信号生成部404は、参照コンテンツ表示部402からのデータに基づき、画像信号を生成し、その画像信号をドライバ222を介してLCD230に供給する。これにより、観察者に対して参照コンテンツが表示される。また、ピント調整信号生成部406は、参照コンテンツ表示部402からのデータに基づき、ピント調整信号を生成し、そのピント調整信号をドライバ282を介してアクチュエータ280に供給する。これにより、ピント調整機構230が駆動され、その結果、LCD220によって表示される画像のピント位置が目標位置となるように調整される。
Specifically, the
オブジェクト取得部400は、通信モジュール320を介してサーバ322から前記コンテンツ関連情報を受信する。そのコンテンツ関連情報は、前記オブジェクト関連情報を含んでいる。このオブジェクト取得部400は、さらに、観察者の視界内に存在するオブジェクトに関する情報を取得する。
The
参照コンテンツ表示部402は、表示可能な複数の参照コンテンツの中から、観察者の視界内に存在する複数のオブジェクトに対応するものを選択する参照コンテンツ選択部410を有する。参照コンテンツ表示部402は、さらに、それら選択された複数の参照コンテンツを前記一覧モードで表示する一覧表示部412と、前記注視参照コンテンツを抽出することによって前記注目オブジェクトを推定する注目オブジェクト推定部414と、前記注目オブジェクトに関連付けて、対応する1つの参照コンテンツ、すなわち、前記注視参照コンテンツを前記注視モードで表示する注目表示部416とを有する。参照コンテンツ表示部402は、さらに、観察者の視線位置を算出する視線位置算出部418と、観察者が特定の参照コンテンツを注視している状態にあるか否かを判定する注視判定部420とを有する。
The reference
次に、図9ないし図12を参照することにより、前記画像表示方法およびその画像表示方法を実行するためのソフトウエア構成、すなわち、前記画像表示プログラムを説明する。 Next, the image display method and the software configuration for executing the image display method, that is, the image display program will be described with reference to FIGS.
図9には、前記画像表示プログラムがフローチャートで概念的に表されている。この画像表示プログラムは、HMD10の電源が投入されると、プロセッサ310によって実行される。
FIG. 9 conceptually shows the image display program in a flowchart. This image display program is executed by the
この画像表示プログラムが実行されると、まず、ステップS1において、位置検出部300および向き検出部302からの信号に基づき、観察者の位置および向きが検出される。次に、ステップS2において、それら検出された位置および向きと、観察者の視界範囲を幾何学的に特定するための情報(メモリ312に保存されている)とに基づき、前記オブジェクト検出範囲(図9においては、単に「検出範囲」で表す。)が算出される。
When this image display program is executed, first, in step S1, the position and orientation of the observer are detected based on signals from the
続いて、ステップS3において、HMD10からサーバ322に対して送信されたリクエストに応じて、前記コンテンツ関連情報と前記オブジェクト関連情報とがサーバ322から受信され、その受信された情報はメモリ312に保存される。ここに、「コンテンツ関連情報」は、HMD10が表示可能なすべての参照コンテンツに関する情報を含み、また、「オブジェクト関連情報」は、現実外界に存在するすべてのオブジェクトに関する情報を含んでいる。その後、ステップS4において、前記算出されたオブジェクト検出範囲と、前記オブジェクト関連情報(各オブジェクトの3次元位置座標を含む)との関係に基づき、そのオブジェクト検出範囲に複数のオブジェクトが存在するか否か(すなわち、観察者の視界内に複数のオブジェクトが存在するか否か)が判定される。
Subsequently, in step S 3, the content related information and the object related information are received from the
今回は、1つのオブジェクトしか存在しないと仮定すれば、ステップS5において、そのオブジェクトに対応する参照コンテンツを表示するためのデータがメモリ312から読み込まれ、そのデータに基づき、参照コンテンツが表示される。このとき、その参照コンテンツは、対応するオブジェクトの奥行きと実質的に同じ奥行きを有するように、可変の前記第2の奥行きのもとに表示することが望ましいが、固定の奥行きのもとに表示することも可能である。
If it is assumed that there is only one object this time, in step S5, data for displaying the reference content corresponding to the object is read from the
その後、ステップS6において、観察者が、HMD10の作動を終了させる終了指令を発したか否かが判定される。その終了指令を発した場合には、この画像表示プログラムの実行が終了するが、そのような終了指令を発していない場合には、ステップS1に戻る。
Thereafter, in step S6, it is determined whether or not the observer has issued an end command for ending the operation of the
以上、オブジェクト検出範囲内に複数のオブジェクトが存在しない場合を説明したが、存在する場合には、ステップS7において、ステップS4においてオブジェクト検出範囲内に検出された複数のオブジェクトが今回の処理対象として選択され、さらに、前記コンテンツ関連情報を参照することにより、それらオブジェクトに対応する複数の参照コンテンツが選択される。続いて、ステップS8において、前述の一覧モードが実行され、それにより、複数のオブジェクトの位置にそれぞれ関連付けられて複数の参照コンテンツが、前記第1の奥行きのもとに表示される。このステップS8は、後に詳述する。 As described above, the case where a plurality of objects do not exist within the object detection range has been described. If there are, a plurality of objects detected within the object detection range at step S4 are selected as the current processing target at step S7. Further, by referring to the content related information, a plurality of reference contents corresponding to these objects are selected. Subsequently, in step S8, the above-described list mode is executed, whereby a plurality of reference contents associated with the positions of the plurality of objects are displayed under the first depth. This step S8 will be described in detail later.
その後、参照コンテンツの表示状態を維持しつつ、ステップS9において、位置検出部300および/または向き検出部302からの信号に基づき、観察者の動き(例えば、身体の動き、頭部の動きなど)が検出されたか否かが判定される。観察者の動きが検出されたと仮定すると、ステップS12による注視モードに移行することなく、ステップS6に移行する。
Thereafter, while maintaining the display state of the reference content, in step S9, based on the signals from the
これに対し、観察者が前記注視状態にあると仮定すれば、観察者は静止した状態にある蓋然性が高いため、向き検出部302からの信号に基づく動き判定処理において、観察者の動きは検出されない。そのため、ステップS9の判定は「NO」となり、ステップS10において、視線検出部304からの信号に基づき、観察者の視線(視線の向き)が検出される。続いて、ステップS11において、その視線が所定時間(例えば、約数秒)維持されたか否かを判定することにより、観察者が、一覧表示されている複数の参照コンテンツのうちのいずれかを所定時間以上注視し続けたか否かが判定される。観察者が特定の参照コンテンツを所定時間以上注視し続けてはいないと仮定すれば、ステップS12による注視モードに移行することなく、ステップS6に移行する。
On the other hand, if it is assumed that the observer is in the gaze state, the observer is likely to be in a stationary state. Therefore, in the movement determination process based on the signal from the
これに対し、観察者がいずれかの参照コンテンツを所定時間以上注視し続けたと仮定すれば、その参照コンテンツが前記注視参照コテンツであると判定され、また、前記複数のオブジェクトのうち、その注視参照コンテンツに対応するものが、前記注目オブジェクトであると判定される。その後、ステップS12において、前述の注視モードが実行され、それにより、観察者が注視している参照コンテンツが、その参照コンテンツに対応する注目オブジェクトの位置に関連付けて、かつ、その注目オブジェクトの奥行きとほぼ同じである前記第2の奥行きを有し、かつ、その参照コンテンツが一覧表示されていたときの表示サイズより拡大された表示サイズを有するように表示される。このステップS12は、後に詳述する。その後、ステップS6に移行する。 On the other hand, if it is assumed that the observer keeps gazing at any reference content for a predetermined time or more, it is determined that the reference content is the gaze reference content, and the gaze reference among the plurality of objects is determined. It is determined that the object corresponding to the content is the object of interest. Thereafter, in step S12, the above-described gaze mode is executed, whereby the reference content being watched by the observer is associated with the position of the target object corresponding to the reference content, and the depth of the target object. It has the second depth that is substantially the same, and is displayed so as to have a display size that is larger than the display size when the reference content is displayed as a list. This step S12 will be described in detail later. Thereafter, the process proceeds to step S6.
次に、図10および図11を参照することにより、図9に示すステップS8、すなわち、前記一覧モードを実行するための一覧モード用モジュールを説明する。 Next, referring to FIG. 10 and FIG. 11, step S8 shown in FIG. 9, that is, a list mode module for executing the list mode will be described.
まず、ステップS101において、観察者の視界(前記オブジェクト検出範囲)内にある複数のオブジェクトのうち、順に選択される1つのオブジェクトにつき、HMD10からの奥行きdが、前述の観察者の位置の検出結果と前記コンテンツ関連情報(各オブジェクトの3次元位置座標を含む)とに基づいて算出される。次に、ステップS102において、その算出された奥行きdが下側閾値d1より短いか否かが判定される。今回の奥行きdが下側閾値d1より短い場合には、ステップS103において、今回のオブジェクトが「近レンジ」内に位置するとして、それに対応する参照コンテンツが注視モードで表示される際の前記第2の奥行きが、3つの離散的な奥行きレベルである「近レベル(所定の最小値)」と「中レベル(所定の中間値)」と「遠レベル(所定の最大値)」とのうち、「近レンジ」に設定される。これは、後に、今回の参照コンテンツの表示サイズが「大」に決定されることを意味する。
First, in step S101, the depth d from the
これに対し、今回の奥行きdが下側閾値d1以上である場合には、ステップS104において、今回の奥行きdが下側閾値d1以上であり、かつ、上側閾値d2(>d1)より短いか否かが判定される。今回の奥行きdが下側閾値d1以上であり、かつ、上側閾値d1より短い場合には、ステップS105において、今回のオブジェクトが「中レンジ」内に位置するとして、それに対応する参照コンテンツが注視モードで表示される際の前記第2の奥行きが「中レベル」に設定される。これは、後に、今回の参照コンテンツの表示サイズが「中」に決定されることを意味する。 On the other hand, if the current depth d is greater than or equal to the lower threshold d1, whether or not the current depth d is greater than or equal to the lower threshold d1 and shorter than the upper threshold d2 (> d1) in step S104. Is determined. If the current depth d is equal to or greater than the lower threshold value d1 and shorter than the upper threshold value d1, it is determined in step S105 that the current object is located in the “middle range” and the corresponding reference content is the gaze mode. The second depth when displayed in is set to “medium level”. This means that the display size of the current reference content is determined to “medium” later.
これに対し、今回の奥行きdが下側閾値d2以上である場合には、ステップS106において、今回のオブジェクトが「遠レンジ」内に位置するとして、それに対応する参照コンテンツが注視モードで表示される際の前記第2の奥行きが「遠レベル」に設定される。これは、後に、今回の参照コンテンツの表示サイズが「小」に決定されることを意味する。 On the other hand, if the current depth d is equal to or greater than the lower threshold value d2, in step S106, the current object is positioned in the “far range” and the corresponding reference content is displayed in the gaze mode. The second depth is set to “far level”. This means that the display size of the current reference content is determined to be “small” later.
いずれの場合にも、その後、ステップS107において、視界内にあるすべてのオブジェクトについて参照コンテンツの第2の奥行きの設定が完了したか否かが判定される。完了していない場合には、ステップS102に戻り、次のオブジェクトについて同じ処理が実行されるが、完了した場合には、ステップS108に移行する。 In any case, after that, in step S107, it is determined whether or not the setting of the second depth of the reference content has been completed for all the objects in the field of view. If not completed, the process returns to step S102, and the same processing is executed for the next object. If completed, the process proceeds to step S108.
このステップS108においては、前記コンテンツ関連情報を参照することにより、前述の規則に従い、視界内にある複数のオブジェクトに対応する複数の参照コンテンツのそれぞれの表示内容および表示サイズが決定される。続いて、ステップS109において、前記複数の参照コンテンツのそれぞれの表示面積の合計値T1が、前記画像表示領域の総面積T2より小さいか否か、すなわち、表示すべき参照コンテンツの数を減少させることが不要であるか否かが判定される。合計値T1が総面積T2より小さくはない、すなわち、表示すべき参照コンテンツの数を減少させることが必要である場合には、ステップS110に移行する。 In step S108, by referring to the content related information, the display contents and the display sizes of the plurality of reference contents corresponding to the plurality of objects in the field of view are determined according to the above-described rules. Subsequently, in step S109, whether or not the total display area T1 of the plurality of reference contents is smaller than the total area T2 of the image display area, that is, the number of reference contents to be displayed is decreased. Whether or not is unnecessary is determined. If the total value T1 is not smaller than the total area T2, that is, it is necessary to reduce the number of reference contents to be displayed, the process proceeds to step S110.
これに対し、合計値T1が総面積T2より小さい場合には、ステップS111において、前記複数の参照コンテンツのうち、第2の奥行きが「近レベル」に設定された参照コンテンツ(表示サイズが「大」)の数が3以上であるという条件と、奥行きが「中レベル」に設定された参照コンテンツ(表示サイズが「中」)の数が4以上であるという条件と、奥行きが「遠レベル」に設定された参照コンテンツ(表示サイズが「小」)の数が5以上であるという条件とのうちの少なくとも1つが成立したか否か、すなわち、表示すべき参照コンテンツの数を減少させることが必要であるか否かが判定される。 On the other hand, when the total value T1 is smaller than the total area T2, in step S111, among the plurality of reference contents, the reference contents whose second depth is set to “near level” (the display size is “large”). )) Is 3 or more, the number of reference contents whose depth is set to “medium level” (display size is “medium”) is 4 or more, and the depth is “far level”. Whether or not at least one of the conditions that the number of reference contents (display size is “small”) set to 5 or more is satisfied, that is, the number of reference contents to be displayed may be reduced. It is determined whether it is necessary.
それら3つの条件のうちの少なくとも1つが成立したと仮定すると、ステップS110に移行するが、それら3つの条件のうちのいずれも成立しなかった場合には、ステップS112に移行する。このステップS112は、後に図12を参照して説明する。 If it is assumed that at least one of the three conditions is satisfied, the process proceeds to step S110. If none of the three conditions is satisfied, the process proceeds to step S112. This step S112 will be described later with reference to FIG.
ステップS110においては、表示すべき参照コンテンツを絞り込むため、前述のように、前記複数のオブジェクトのうち、それについて算出された奥行きdが所定値dmaxより長いものを、参照コンテンツが関連付けて表示されるオブジェクトから除外したり、前記複数の参照コンテンツのうち、前記重要度が所定値より低いものを、表示すべき参照コンテンツから除外するなどし、それにより、総面積T2を減少させる。その後、ステップS109に戻る。 In step S110, in order to narrow down the reference content to be displayed, as described above, the plurality of objects whose depth d calculated for the object is longer than the predetermined value dmax are displayed in association with the reference content. The total area T2 is reduced by excluding the reference content to be displayed from the objects or excluding the reference content having a lower importance than a predetermined value from the reference content. Thereafter, the process returns to step S109.
ステップS109の再度の実行後またはステップS111の再度の実行後にステップS110が再度実行され、それにより、再度の絞込みが行われる場合には、前回の絞込みより厳しい条件で、参照コンテンツの絞込みを行うことが可能である。一例においては、前記所定値dmaxの今回値が前回値より所定量Δdだけ、減少させられる。 After step S109 is executed again or after step S111 is executed again, step S110 is executed again, so that if narrowing is performed again, the reference content is narrowed down under conditions more severe than the previous narrowing down. Is possible. In one example, the current value of the predetermined value dmax is decreased by a predetermined amount Δd from the previous value.
ステップS111において前述の3つの条件のいずれも成立しなかったと判定された場合には、図11に示すステップS112に移行する。このステップS112においては、図7を参照して前述したように、前記複数のオブジェクト間の相対位置に基づき、前記複数の参照コンテンツの表示位置間の相対位置が決定される。そして、決定された相対位置に基づいて、表示すべき参照コンテンツを表す画像データが生成される。 If it is determined in step S111 that none of the above three conditions is satisfied, the process proceeds to step S112 shown in FIG. In step S112, as described above with reference to FIG. 7, the relative positions between the display positions of the plurality of reference contents are determined based on the relative positions between the plurality of objects. Then, based on the determined relative position, image data representing the reference content to be displayed is generated.
続いて、ステップS113において、前記複数の参照コンテンツに共通の目標ピント位置(すなわち、前記第1の奥行きに対応する)が、前述のようにして決定され、さらに、それら参照コンテンツの実際のピント位置が、その決定された目標ピント位置と一致するように調整される。具体的には、その目標ピント位置を実現するためのピント調整信号が生成され、その生成されたピント調整信号がドライバ282に対して出力され、その結果、アクチュエータ280が目標量で駆動される。
Subsequently, in step S113, a target focus position common to the plurality of reference contents (that is, corresponding to the first depth) is determined as described above, and an actual focus position of the reference contents is further determined. Is adjusted to match the determined target focus position. Specifically, a focus adjustment signal for realizing the target focus position is generated, and the generated focus adjustment signal is output to the
その後、ステップS114において、前記複数の参照コンテンツが、前記目標ピント位置において結像し、かつ、前記決定されたそれぞれの表示位置(LCD220の表示面上の2次元位置)において、前記決定されたそれぞれの表示サイズを有し、かつ、前記決定されたそれぞれの内容(情報アイテム)を有するように表示される。以上で、この一覧モード用モジュールの実行が終了する。 Thereafter, in step S114, the plurality of reference contents are imaged at the target focus position, and the determined contents are respectively determined at the determined display positions (two-dimensional positions on the display surface of the LCD 220). And the display contents are displayed so as to have the determined contents (information items). This completes the execution of the list mode module.
次に、図12を参照することにより、図9に示すステップS12、すなわち、前記注視モードを実行するための注視モード用モジュールを説明する。 Next, referring to FIG. 12, step S12 shown in FIG. 9, that is, the gaze mode module for executing the gaze mode will be described.
まず、ステップS201において、前記注目オブジェクトの奥行きdに応じて決定された前記第2の奥行きに対応する目標ピント位置と一致するように、前記注視参照コンテンツの実際のピント位置が調整される。ここに、「注視参照コンテンツ」は、図9に示すステップS11において、観察者が所定時間以上注視した参照コンテンツとして取得され、また、「注目オブジェクト」は、前記コンテンツ関連情報に従い、その注視参照コンテンツに対応するオブジェクトとして取得される。このステップS201においては、具体的に、前記第2の奥行きを実現するためのピント調整信号が生成され、その生成されたピント調整信号がドライバ282に対して出力され、その結果、アクチュエータ280が目標量で駆動される。
First, in step S201, the actual focus position of the gaze reference content is adjusted so as to coincide with the target focus position corresponding to the second depth determined according to the depth d of the object of interest. Here, the “gaze reference content” is acquired as the reference content watched by the observer for a predetermined time or more in step S11 shown in FIG. 9, and the “target object” is the gaze reference content according to the content related information. Is obtained as an object corresponding to. In step S201, specifically, a focus adjustment signal for realizing the second depth is generated, and the generated focus adjustment signal is output to the
次に、ステップS202において、注視参照コンテンツが、一覧モードで表示される場合より拡大されて表示される。具体的には、注視参照コンテンツを他の参照コンテンツより大きいサイズで表示するための画像データが生成され、その画像データを反映する画像信号が生成され、その生成された画像信号がドライバ222に対して出力され、その結果、注視参照コンテンツを含む複数の参照コンテンツが一覧表示される。これにより、注視参照コンテンツが他の参照コンテンツより視覚的に強調され、その結果、注視参照コンテンツの視認性が向上する。
Next, in step S202, the gaze reference content is enlarged and displayed as compared with the case where it is displayed in the list mode. Specifically, image data for displaying the gaze reference content in a size larger than the other reference content is generated, an image signal reflecting the image data is generated, and the generated image signal is sent to the
このステップS202には、種々の例が存在する。一例においては、注視参照コンテンツと一緒に表示されている他の複数の参照コンテンツの表示が、その条件・態様が一切変更されることなく、継続される。別の例においては、前述のように、他の複数の参照コンテンツの表示サイズが、すべて、最小のサイズ(例えば、前記一覧モードにおいて、対応するオブジェクトが「遠レンジ」内に位置する場合にとる表示サイズ)に縮小される。この例によれば、注視モードにおいて、注視参照コンテンツが、自身の表示サイズが大きいことに加えて、他の参照コンテンツの表示サイズが小さいことのおかげで、さらに強調表示される。さらに別の例においては、他の複数の参照コンテンツの表示が停止させられる一方、注視参照コンテンツのみ、表示が継続される。 There are various examples in step S202. In one example, the display of a plurality of other reference contents displayed together with the gaze reference content is continued without any change in the conditions / modes. In another example, as described above, the display sizes of the other reference contents are all the minimum size (for example, when the corresponding object is located in the “far range” in the list mode). Display size). According to this example, in the gaze mode, the gaze reference content is further highlighted because the display size of the other reference content is small in addition to the large display size of the gaze reference content. In yet another example, the display of a plurality of other reference contents is stopped, while the display of only the gaze reference contents is continued.
続いて、注視参照コンテンツの拡大表示状態を維持しつつ、ステップS203において、位置検出部300および/または向き検出部302からの信号に基づき、観察者の動き(例えば、身体の動き、頭部の動きなど)が検出されたか否かが判定される。観察者の動きが検出されたと仮定すると、ステップS204において、図9に示すステップS1およびS2と同様にして、最新のオブジェクト検出範囲が算出され、その算出されたオブジェクト検出範囲から、最新の注目オブジェクトが外れているか否かが判定される。
Subsequently, while maintaining the enlarged display state of the gaze reference content, in step S203, based on the signals from the
注目オブジェクトがオブジェクト検出範囲から外れている場合には、ステップS205において、注視参照コンテンツの拡大表示が解除され、それにより、その注視参照コンテンツが、先行する一覧モードで表示されたときと同じ表示サイズを有するように表示される。その結果、注視モードから一覧モードへの移行が完了する。以上で、この注視モード用モジュールの実行が終了する。 If the object of interest is out of the object detection range, the enlarged display of the gaze reference content is canceled in step S205, whereby the same display size as when the gaze reference content is displayed in the preceding list mode. Is displayed. As a result, the transition from the gaze mode to the list mode is completed. This completes the execution of the gaze mode module.
これに対し、観察者の動きが検出されなかったと仮定すると、注視参照コンテンツの拡大表示が維持されたままで、この注視モード用モジュールの実行が終了する。 On the other hand, if it is assumed that the observer's movement is not detected, the execution of the gaze mode module ends while the enlarged display of the gaze reference content is maintained.
以上の説明から明らかなように、上述のいくつかの実施形態によれば、対象空間内に複数のオブジェクトが存在し、かつ、それらオブジェクトのそれぞれについて参照コンテンツが存在する場合、それらオブジェクトのうちのいずれかを観察者が注視しないうちであっても、すべてのオブジェクトについて参照コンテンツが一覧モードで表示される。したがって、観察者は、そのような注視前(すなわち、注目オブジェクトの選択前)であっても、観察している複数のオブジェクトのすべてについて一度に、関連する情報にアクセスすることができ、便利である。 As is clear from the above description, according to some of the embodiments described above, when there are a plurality of objects in the target space and there is reference content for each of these objects, The reference content is displayed in the list mode for all the objects even if the observer does not pay attention to any of them. Therefore, the observer can access related information at once for all of the objects being observed, even before such gaze (ie, prior to the selection of the object of interest). is there.
さらに、上述のいくつかの実施形態によれば、観察者が特定のオブジェクトに注目したか否かに応じて、表示モードが一覧モードと注視モードとの間で切り換わり、その結果、そのオブジェクトに関連する参照コンテンツの奥行きが時間と共に、参照コンテンツの奥行きがオブジェクトの奥行きと一致しない可能性が高い状態と、参照コンテンツの奥行きがオブジェクトの奥行きと実質的に一致する状態との間で変化する。 Further, according to some of the embodiments described above, the display mode is switched between the list mode and the gaze mode depending on whether or not the observer has focused on a specific object, so that the object The related reference content depth varies over time between a state where the reference content depth is likely not to match the object depth and a state where the reference content depth substantially matches the object depth.
一方、同じオブジェクトに対する観察者の注目度の時間的変化に合わせて、そのオブジェクトに関連する参照コンテンツの奥行きを時間的に変化させることは、その間、観察者のピント位置がそのオブジェクトのピント位置に維持されると考えられる限りにおいて、観察者に見える参照コンテンツのぼけ具合いが時間的に変化することにつながる。この変化は、前記注目度の変化に合致する。 On the other hand, changing the depth of the reference content related to the object with time in accordance with the temporal change in the attention level of the observer with respect to the same object means that the focus position of the observer is changed to the focus position of the object. As long as it is considered to be maintained, the degree of blurring of the reference content visible to the viewer will change over time. This change coincides with the change in the attention level.
よって、上述のいくつかの実施形態によれば、参照コンテンツを観察者の感覚に合致した条件で表示することが可能となり、観察者が参照コンテンツを視認する際の快適性が向上する。 Thus, according to some of the embodiments described above, it is possible to display the reference content under conditions that match the viewer's senses, and comfort when the viewer visually recognizes the reference content is improved.
以上の説明から明らかなように、本実施形態においては、説明の便宜上、図9におけるステップS1ないしS4が、前記オブジェクト取得工程の一例を構成し、また、同図におけるステップS5が、前記参照オブジェクト選択工程の一例を構成し、また、同図におけるステップS8が、前記一覧表示工程の一例を構成し、また、同図におけるステップS9ないしS11が、前記注目オブジェクト推定工程の一例を構成し、また、同図におけるステップS12が、前記注目表示工程の一例を構成していると考えることが可能である。 As is clear from the above description, in the present embodiment, for convenience of description, steps S1 to S4 in FIG. 9 constitute an example of the object acquisition step, and step S5 in FIG. An example of the selection process is configured, and step S8 in the figure constitutes an example of the list display process, and steps S9 to S11 in the figure constitute an example of the attention object estimation process, and It can be considered that step S12 in the figure constitutes an example of the attention display step.
以上、本発明のいくつかの実施形態を図面に基づいて詳細に説明したが、これらは例示であり、前記[発明の概要]の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 As mentioned above, although several embodiment of this invention was described in detail based on drawing, these are illustrations and are based on the knowledge of those skilled in the art including the aspect as described in the above-mentioned [summary of invention] column. The present invention can be implemented in other forms with various modifications and improvements.
Claims (14)
前記少なくとも1つの参照コンテンツを第1の奥行きを有するように表示する第1表示制御部と、
前記少なくとも1つの参照コンテンツの表示中、観察者がいずれかの参照コンテンツまたはそのいずれかの参照コンテンツに関連するいずれかのオブジェクトを注視する状態に移行すると、前記いずれかの参照コンテンツの奥行きを、前記第1の奥行きから、前記いずれかのオブジェクトの奥行きと実質的に同じ第2の奥行きに変化させる第2表示制御部と
を含むヘッドマウントディスプレイ。 An image is displayed to the observer while worn on the observer's head, thereby enabling the observer to observe at least one object in the target space and at least one reference content associated with each other A head mounted display that
A first display control unit for displaying the at least one reference content so as to have a first depth;
While the display of the at least one reference content, when the observer shifts to a state of gazing at any reference content or any object related to the reference content, the depth of the reference content is And a second display control unit configured to change the first depth to a second depth substantially the same as the depth of any one of the objects.
前記少なくとも1つの参照コンテンツは、複数の参照コンテンツを含み、
前記第1表示制御部は、前記複数の参照コンテンツを、それぞれが前記第1の奥行きを有するように表示する一覧表示を行う一覧表示部を含み、
前記第2表示制御部は、
前記一覧表示の実行中、観察者が、前記一覧表示されている複数の参照コンテンツのうち、実質的に最も強く注視しているものを注視参照コンテンツとして抽出し、前記複数のオブジェクトのうち、前記抽出された注視参照コンテンツに対応するオブジェクトを注目オブジェクトとして推定する注目オブジェクト推定部と、
その注目オブジェクトが推定されると、少なくとも、前記注視参照コンテンツの奥行きを、前記第1の奥行きから、前記注目オブジェクトの奥行きと実質的に同じ前記第2の奥行きに変化させる注目表示を行う注目表示部と
を含む請求項1に記載のヘッドマウントディスプレイ。 The at least one object includes a plurality of objects having at least two objects with different distances from the head mounted display;
The at least one reference content includes a plurality of reference content;
The first display control unit includes a list display unit that performs a list display for displaying the plurality of reference contents so that each of the plurality of reference contents has the first depth,
The second display controller is
During execution of the list display, the observer extracts the reference content that is substantially most intensely watched from among the plurality of reference contents displayed in the list as the gaze reference content, and among the plurality of objects, A target object estimation unit that estimates an object corresponding to the extracted gaze reference content as a target object;
When the attention object is estimated, at least attention display for performing attention display that changes the depth of the gaze reference content from the first depth to the second depth substantially the same as the depth of the attention object. The head mounted display according to claim 1, comprising:
前記対象空間内において、当該ヘッドマウントディスプレイに対して予め定められた領域内に存在する複数のオブジェクトを、各オブジェクトの奥行きを特定し得る奥行き関連情報と共に取得するオブジェクト取得部と、
当該ヘッドマウントディスプレイが表示可能な複数の参照コンテンツの中から、前記取得された複数のオブジェクトにそれぞれ対応する複数の参照コンテンツを選択する参照コンテンツ選択部と
を含み、
前記一覧表示部は、前記選択された複数の参照コンテンツを一覧表示する請求項2に記載のヘッドマウントディスプレイ。 further,
An object acquisition unit that acquires a plurality of objects existing in a predetermined region with respect to the head-mounted display in the target space, together with depth-related information that can specify a depth of each object;
A reference content selection unit that selects a plurality of reference contents respectively corresponding to the plurality of acquired objects from a plurality of reference contents that can be displayed by the head-mounted display,
The head mounted display according to claim 2, wherein the list display unit displays a list of the plurality of selected reference contents.
前記注目オブジェクト推定部は、前記検出された視線が、前記一覧表示されている複数の参照コンテンツのうちのいずれかと所定時間以上連続して交差している連続交差状態にあるか否かを判定し、その連続交差状態にあると判定された場合に、前記いずれかの参照コンテンツが前記注視参照コンテンツであると判定する請求項2ないし10のいずれかに記載のヘッドマウントディスプレイ。 Furthermore, it includes a line-of-sight detector that detects the line of sight of the observer,
The attention object estimation unit determines whether or not the detected line of sight is in a continuous intersection state in which the detected line of sight continuously intersects any one of the plurality of reference contents displayed in a list for a predetermined time or more. The head-mounted display according to any one of claims 2 to 10, wherein when any of the reference contents is determined to be in the continuous intersection state, the reference content is determined to be the gaze reference content.
前記少なくとも1つの参照コンテンツを第1の奥行きを有するように表示する第1表示工程と、
前記少なくとも1つの参照コンテンツの表示中、観察者がいずれかの参照コンテンツまたはそのいずれかの参照コンテンツに関連するいずれかのオブジェクトを注視する状態に移行すると、前記いずれかの参照コンテンツの奥行きを、前記第1の奥行きから、前記いずれかのオブジェクトの奥行きと実質的に同じ第2の奥行きに変化させる第2表示工程と
を含む方法。 An image is displayed to the observer while worn on the observer's head, thereby enabling the observer to observe at least one object in the target space and at least one reference content associated with each other A method of operating a head mounted display,
A first display step of displaying the at least one reference content to have a first depth;
While the display of the at least one reference content, when the observer shifts to a state of gazing at any reference content or any object related to the reference content, the depth of the reference content is A second display step of changing from the first depth to a second depth substantially the same as the depth of any one of the objects.
その表示ユニットの位置を取得可能な位置取得部と、
前記画像光のピント位置を変更するピント調整部と、
前記表示ユニットが観察者の頭部に装着された場合に、観察者によって注視される対象である注視対象を決定する注視対象決定部と、
前記表示ユニットの作動を制御する制御部と
を含み、
その制御部は、
前記位置検出部によって検出された前記表示ユニットの位置に基づき、前記表示ユニットに対して予め定められた領域内に位置するオブジェクトに関連する参照コンテンツを取得可能なコンテンツ取得手段と、
そのコンテンツ取得手段によって取得された参照コンテンツを前記表示ユニットに表示させることが可能な表示制御手段と、
前記注視対象決定部によって決定された注視対象が、前記コンテンツ取得手段によって取得された参照コンテンツに該当するか否かを判定可能な判定手段と、
その判定手段により、前記注視対象が前記参照コンテンツに該当すると判定された場合に、前記ピント調整部を制御することにより、前記表示画像のピント位置を、前記参照コンテンツがその参照コンテンツに対応付けられたオブジェクトと同じ距離に表示されるピント位置に変更するピント変更手段と
を有するヘッドマウントディスプレイ。 A display unit configured to be able to emit by superimposing image light indicating reference content related to an object existing in the real external environment and external light indicating an image of the real external environment, and a display unit that can be mounted on the head of an observer;
A position acquisition unit capable of acquiring the position of the display unit;
A focus adjustment unit that changes a focus position of the image light;
When the display unit is mounted on the observer's head, a gaze target determining unit that determines a gaze target that is a target to be watched by the observer;
A control unit for controlling the operation of the display unit,
Its control part is
Content acquisition means capable of acquiring reference content related to an object located within a predetermined region with respect to the display unit based on the position of the display unit detected by the position detection unit;
Display control means capable of displaying the reference content acquired by the content acquisition means on the display unit;
A determination unit capable of determining whether or not the gaze target determined by the gaze target determination unit corresponds to the reference content acquired by the content acquisition unit;
When the determination unit determines that the gaze target corresponds to the reference content, the focus adjustment unit is controlled so that the focus position of the display image is associated with the reference content. A focus changing means for changing to a focus position displayed at the same distance as the object.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012217215A JP6007712B2 (en) | 2012-09-28 | 2012-09-28 | Head mounted display, method and program for operating the same |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012217215A JP6007712B2 (en) | 2012-09-28 | 2012-09-28 | Head mounted display, method and program for operating the same |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2014071663A true JP2014071663A (en) | 2014-04-21 |
| JP6007712B2 JP6007712B2 (en) | 2016-10-12 |
Family
ID=50746809
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2012217215A Expired - Fee Related JP6007712B2 (en) | 2012-09-28 | 2012-09-28 | Head mounted display, method and program for operating the same |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP6007712B2 (en) |
Cited By (37)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014071277A (en) * | 2012-09-28 | 2014-04-21 | Brother Ind Ltd | Head-mounted display device, method of actuating the same and program |
| WO2015166881A1 (en) * | 2014-04-30 | 2015-11-05 | 株式会社テレパシージャパン | Wearable image-display device having flexible support member |
| JP2015215465A (en) * | 2014-05-09 | 2015-12-03 | 株式会社東芝 | Image display system, display device, and information processing method |
| JP2016040865A (en) * | 2014-08-12 | 2016-03-24 | セイコーエプソン株式会社 | Head mounted display and control method for the same, and computer program |
| JP5914739B1 (en) * | 2015-08-27 | 2016-05-11 | 株式会社コロプラ | Program to control the head mounted display system |
| JP2016092477A (en) * | 2014-10-30 | 2016-05-23 | ヤマハ株式会社 | Terminal device |
| JP2016096513A (en) * | 2014-11-17 | 2016-05-26 | 株式会社ゼンリンデータコム | Information processing system, information processing method, and program |
| JP2017027206A (en) * | 2015-07-17 | 2017-02-02 | キヤノン株式会社 | Information processing apparatus, virtual object operation method, computer program, and storage medium |
| JP2017045295A (en) * | 2015-08-27 | 2017-03-02 | 株式会社コロプラ | Program to control the head mounted display system |
| JP2017045296A (en) * | 2015-08-27 | 2017-03-02 | 株式会社コロプラ | Program to control the head mounted display system |
| WO2017033777A1 (en) * | 2015-08-27 | 2017-03-02 | 株式会社コロプラ | Program for controlling head-mounted display system |
| JP2017117008A (en) * | 2015-12-21 | 2017-06-29 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and operation reception method |
| WO2018051970A1 (en) * | 2016-09-14 | 2018-03-22 | 株式会社バンダイナムコエンターテインメント | Simulation system, processing method, and information storage medium |
| JP2018045458A (en) * | 2016-09-14 | 2018-03-22 | 株式会社バンダイナムコエンターテインメント | Simulation system and program |
| JP2018081697A (en) * | 2017-11-27 | 2018-05-24 | 株式会社東芝 | System and wearable terminal |
| JP2018136944A (en) * | 2018-02-22 | 2018-08-30 | 株式会社バンダイナムコエンターテインメント | Simulation system and program |
| WO2018179230A1 (en) * | 2017-03-30 | 2018-10-04 | 株式会社オプティム | Wearable terminal display system, wearable terminal display method, and program |
| KR20190102060A (en) * | 2017-01-11 | 2019-09-02 | 매직 립, 인코포레이티드 | Medical brace |
| KR20200022737A (en) * | 2018-08-23 | 2020-03-04 | 주식회사 버넥트 | Mixed reality-based mini folding screen system |
| JP2020527771A (en) * | 2017-07-17 | 2020-09-10 | グーグル エルエルシー | Methods, systems, and media for presenting previews of media content |
| JP2021179652A (en) * | 2020-05-11 | 2021-11-18 | 株式会社アルファコード | Image display control apparatus, image display control method, and image display control program |
| JPWO2022123750A1 (en) * | 2020-12-10 | 2022-06-16 | ||
| JP2023115541A (en) * | 2022-02-08 | 2023-08-21 | キヤノン株式会社 | Control device |
| JP2023134920A (en) * | 2022-03-15 | 2023-09-28 | キヤノン株式会社 | System, method, terminal, method and program |
| JP2024026103A (en) * | 2020-03-27 | 2024-02-28 | アップル インコーポレイテッド | Devices, methods, and graphical user interfaces for gaze-based navigation |
| US12272005B2 (en) | 2022-02-28 | 2025-04-08 | Apple Inc. | System and method of three-dimensional immersive applications in multi-user communication sessions |
| US12299251B2 (en) | 2021-09-25 | 2025-05-13 | Apple Inc. | Devices, methods, and graphical user interfaces for presenting virtual objects in virtual environments |
| US12315091B2 (en) | 2020-09-25 | 2025-05-27 | Apple Inc. | Methods for manipulating objects in an environment |
| US12321563B2 (en) | 2020-12-31 | 2025-06-03 | Apple Inc. | Method of grouping user interfaces in an environment |
| US12321666B2 (en) | 2022-04-04 | 2025-06-03 | Apple Inc. | Methods for quick message response and dictation in a three-dimensional environment |
| US12353672B2 (en) | 2020-09-25 | 2025-07-08 | Apple Inc. | Methods for adjusting and/or controlling immersion associated with user interfaces |
| US12394167B1 (en) | 2022-06-30 | 2025-08-19 | Apple Inc. | Window resizing and virtual object rearrangement in 3D environments |
| US12443273B2 (en) | 2021-02-11 | 2025-10-14 | Apple Inc. | Methods for presenting and sharing content in an environment |
| US12456271B1 (en) | 2021-11-19 | 2025-10-28 | Apple Inc. | System and method of three-dimensional object cleanup and text annotation |
| US12461641B2 (en) | 2022-09-16 | 2025-11-04 | Apple Inc. | System and method of application-based three-dimensional refinement in multi-user communication sessions |
| US12475635B2 (en) | 2022-01-19 | 2025-11-18 | Apple Inc. | Methods for displaying and repositioning objects in an environment |
| JP7792387B2 (en) | 2020-03-27 | 2025-12-25 | アップル インコーポレイテッド | Device, method, and graphical user interface for gaze-based navigation |
Citations (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09102052A (en) * | 1995-10-06 | 1997-04-15 | Olympus Optical Co Ltd | Steroscopic picture display device |
| JPH09211374A (en) * | 1996-01-31 | 1997-08-15 | Nikon Corp | Head mounted display device |
| JPH09274144A (en) * | 1996-04-02 | 1997-10-21 | Canon Inc | Image display device |
| JPH1078845A (en) * | 1996-06-25 | 1998-03-24 | Sun Microsyst Inc | Method and apparatus for eye-tracking-driven text expansion |
| JP2004252429A (en) * | 2003-02-17 | 2004-09-09 | Carl Zeiss Stiftung Trading As Carl Zeiss | Display device with electrooptic focusing function |
| JP2005038008A (en) * | 2003-07-15 | 2005-02-10 | Canon Inc | Image processing method and image processing apparatus |
| JP2005149409A (en) * | 2003-11-19 | 2005-06-09 | Canon Inc | Image reproduction method and apparatus |
| JP2005207782A (en) * | 2004-01-20 | 2005-08-04 | Mazda Motor Corp | Image display apparatus, method, and program for vehicle |
| JP2009271732A (en) * | 2008-05-07 | 2009-11-19 | Sony Corp | Device and method for presenting information, imaging apparatus, and computer program |
| WO2010073616A1 (en) * | 2008-12-25 | 2010-07-01 | パナソニック株式会社 | Information displaying apparatus and information displaying method |
| JP2010205030A (en) * | 2009-03-04 | 2010-09-16 | Kddi Corp | Method, system and program for specifying related information display position |
| JP2010210822A (en) * | 2009-03-09 | 2010-09-24 | Brother Ind Ltd | Head mounted display |
| WO2012078410A1 (en) * | 2010-12-08 | 2012-06-14 | Microsoft Corporation | Sympathetic optic adaptation for see-through display |
| JP2012155362A (en) * | 2011-01-21 | 2012-08-16 | Panasonic Corp | Information processing apparatus, augmented reality system, information processing method, and information processing program |
| JP2012168642A (en) * | 2011-02-10 | 2012-09-06 | Ntt Docomo Inc | Device, method and program for displaying objects |
| JP2014507020A (en) * | 2010-12-02 | 2014-03-20 | エンパイア テクノロジー ディベロップメント エルエルシー | Augmented reality system |
| JP2014511512A (en) * | 2010-12-17 | 2014-05-15 | マイクロソフト コーポレーション | Optimal focus area for augmented reality display |
-
2012
- 2012-09-28 JP JP2012217215A patent/JP6007712B2/en not_active Expired - Fee Related
Patent Citations (17)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH09102052A (en) * | 1995-10-06 | 1997-04-15 | Olympus Optical Co Ltd | Steroscopic picture display device |
| JPH09211374A (en) * | 1996-01-31 | 1997-08-15 | Nikon Corp | Head mounted display device |
| JPH09274144A (en) * | 1996-04-02 | 1997-10-21 | Canon Inc | Image display device |
| JPH1078845A (en) * | 1996-06-25 | 1998-03-24 | Sun Microsyst Inc | Method and apparatus for eye-tracking-driven text expansion |
| JP2004252429A (en) * | 2003-02-17 | 2004-09-09 | Carl Zeiss Stiftung Trading As Carl Zeiss | Display device with electrooptic focusing function |
| JP2005038008A (en) * | 2003-07-15 | 2005-02-10 | Canon Inc | Image processing method and image processing apparatus |
| JP2005149409A (en) * | 2003-11-19 | 2005-06-09 | Canon Inc | Image reproduction method and apparatus |
| JP2005207782A (en) * | 2004-01-20 | 2005-08-04 | Mazda Motor Corp | Image display apparatus, method, and program for vehicle |
| JP2009271732A (en) * | 2008-05-07 | 2009-11-19 | Sony Corp | Device and method for presenting information, imaging apparatus, and computer program |
| WO2010073616A1 (en) * | 2008-12-25 | 2010-07-01 | パナソニック株式会社 | Information displaying apparatus and information displaying method |
| JP2010205030A (en) * | 2009-03-04 | 2010-09-16 | Kddi Corp | Method, system and program for specifying related information display position |
| JP2010210822A (en) * | 2009-03-09 | 2010-09-24 | Brother Ind Ltd | Head mounted display |
| JP2014507020A (en) * | 2010-12-02 | 2014-03-20 | エンパイア テクノロジー ディベロップメント エルエルシー | Augmented reality system |
| WO2012078410A1 (en) * | 2010-12-08 | 2012-06-14 | Microsoft Corporation | Sympathetic optic adaptation for see-through display |
| JP2014511512A (en) * | 2010-12-17 | 2014-05-15 | マイクロソフト コーポレーション | Optimal focus area for augmented reality display |
| JP2012155362A (en) * | 2011-01-21 | 2012-08-16 | Panasonic Corp | Information processing apparatus, augmented reality system, information processing method, and information processing program |
| JP2012168642A (en) * | 2011-02-10 | 2012-09-06 | Ntt Docomo Inc | Device, method and program for displaying objects |
Non-Patent Citations (2)
| Title |
|---|
| 天目 隆平 他: "ウェアラブル拡張現実感システムのための注目オブジェクトへの直感的な注釈提示手法", 日本バーチャルリアリティ学会論文誌, vol. 第10巻、第3号, JPN6016008301, 30 September 2005 (2005-09-30), JP, pages 305 - 311, ISSN: 0003376820 * |
| 浦谷 謙吾 他: "AR環境における奥行きの明示的表現を用いた注釈提示手法とその評価", 電子情報通信学会技術研究報告 MVE2003−39〜56 マルチメディア・仮想環境基礎, vol. 第103巻,第210号, JPN6016008298, 11 July 2003 (2003-07-11), JP, pages 77 - 82, ISSN: 0003376819 * |
Cited By (55)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2014071277A (en) * | 2012-09-28 | 2014-04-21 | Brother Ind Ltd | Head-mounted display device, method of actuating the same and program |
| WO2015166881A1 (en) * | 2014-04-30 | 2015-11-05 | 株式会社テレパシージャパン | Wearable image-display device having flexible support member |
| US9626784B2 (en) | 2014-05-09 | 2017-04-18 | Kabushiki Kaisha Toshiba | Image display system, display device, and image processing method |
| JP2015215465A (en) * | 2014-05-09 | 2015-12-03 | 株式会社東芝 | Image display system, display device, and information processing method |
| JP2016040865A (en) * | 2014-08-12 | 2016-03-24 | セイコーエプソン株式会社 | Head mounted display and control method for the same, and computer program |
| JP2016092477A (en) * | 2014-10-30 | 2016-05-23 | ヤマハ株式会社 | Terminal device |
| JP2016096513A (en) * | 2014-11-17 | 2016-05-26 | 株式会社ゼンリンデータコム | Information processing system, information processing method, and program |
| JP2017118159A (en) * | 2014-12-17 | 2017-06-29 | 株式会社テレパシージャパン | Wearable image display device including flexible support member |
| JP2017027206A (en) * | 2015-07-17 | 2017-02-02 | キヤノン株式会社 | Information processing apparatus, virtual object operation method, computer program, and storage medium |
| JP2017045296A (en) * | 2015-08-27 | 2017-03-02 | 株式会社コロプラ | Program to control the head mounted display system |
| WO2017033777A1 (en) * | 2015-08-27 | 2017-03-02 | 株式会社コロプラ | Program for controlling head-mounted display system |
| JP2017045295A (en) * | 2015-08-27 | 2017-03-02 | 株式会社コロプラ | Program to control the head mounted display system |
| JP5914739B1 (en) * | 2015-08-27 | 2016-05-11 | 株式会社コロプラ | Program to control the head mounted display system |
| US9779702B2 (en) | 2015-08-27 | 2017-10-03 | Colopl, Inc. | Method of controlling head-mounted display system |
| JP2017117008A (en) * | 2015-12-21 | 2017-06-29 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and operation reception method |
| WO2017110632A1 (en) * | 2015-12-21 | 2017-06-29 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing device and operation reception method |
| JP2018045458A (en) * | 2016-09-14 | 2018-03-22 | 株式会社バンダイナムコエンターテインメント | Simulation system and program |
| WO2018051970A1 (en) * | 2016-09-14 | 2018-03-22 | 株式会社バンダイナムコエンターテインメント | Simulation system, processing method, and information storage medium |
| WO2018051969A1 (en) * | 2016-09-14 | 2018-03-22 | 株式会社バンダイナムコエンターテインメント | Simulation system, processing method, and information storage medium |
| JP2018045459A (en) * | 2016-09-14 | 2018-03-22 | 株式会社バンダイナムコエンターテインメント | Simulation system and program |
| US11094106B2 (en) | 2016-09-14 | 2021-08-17 | Bandai Namco Entertainment Inc. | Simulation system, processing method, and information storage medium for changing a display object in response to a movement of a field of view |
| US10744411B2 (en) | 2016-09-14 | 2020-08-18 | Bandai Namco Entertainment Inc. | Simulation system, processing method, and information storage medium |
| US12211599B2 (en) | 2017-01-11 | 2025-01-28 | Magic Leap, Inc. | Medical assistant |
| US12080393B2 (en) | 2017-01-11 | 2024-09-03 | Magic Leap, Inc. | Medical assistant |
| KR20190102060A (en) * | 2017-01-11 | 2019-09-02 | 매직 립, 인코포레이티드 | Medical brace |
| KR102662173B1 (en) * | 2017-01-11 | 2024-04-30 | 매직 립, 인코포레이티드 | medical orthosis |
| WO2018179230A1 (en) * | 2017-03-30 | 2018-10-04 | 株式会社オプティム | Wearable terminal display system, wearable terminal display method, and program |
| JPWO2018179230A1 (en) * | 2017-03-30 | 2019-11-14 | 株式会社オプティム | Wearable terminal display system, wearable terminal display method and program |
| US12001645B2 (en) | 2017-07-17 | 2024-06-04 | Google Llc | Methods, systems, and media for presenting media content previews |
| JP2020527771A (en) * | 2017-07-17 | 2020-09-10 | グーグル エルエルシー | Methods, systems, and media for presenting previews of media content |
| US11474661B2 (en) | 2017-07-17 | 2022-10-18 | Google Llc | Methods, systems, and media for presenting media content previews |
| JP2018081697A (en) * | 2017-11-27 | 2018-05-24 | 株式会社東芝 | System and wearable terminal |
| JP2018136944A (en) * | 2018-02-22 | 2018-08-30 | 株式会社バンダイナムコエンターテインメント | Simulation system and program |
| KR20200022737A (en) * | 2018-08-23 | 2020-03-04 | 주식회사 버넥트 | Mixed reality-based mini folding screen system |
| KR102103991B1 (en) * | 2018-08-23 | 2020-04-23 | 주식회사 버넥트 | Mixed reality-based mini folding screen system |
| JP7792387B2 (en) | 2020-03-27 | 2025-12-25 | アップル インコーポレイテッド | Device, method, and graphical user interface for gaze-based navigation |
| JP2024026103A (en) * | 2020-03-27 | 2024-02-28 | アップル インコーポレイテッド | Devices, methods, and graphical user interfaces for gaze-based navigation |
| JP2021179652A (en) * | 2020-05-11 | 2021-11-18 | 株式会社アルファコード | Image display control apparatus, image display control method, and image display control program |
| US12353672B2 (en) | 2020-09-25 | 2025-07-08 | Apple Inc. | Methods for adjusting and/or controlling immersion associated with user interfaces |
| US12315091B2 (en) | 2020-09-25 | 2025-05-27 | Apple Inc. | Methods for manipulating objects in an environment |
| JP7547504B2 (en) | 2020-12-10 | 2024-09-09 | マクセル株式会社 | Display device and display method |
| JPWO2022123750A1 (en) * | 2020-12-10 | 2022-06-16 | ||
| WO2022123750A1 (en) * | 2020-12-10 | 2022-06-16 | マクセル株式会社 | Display apparatus and display method |
| US12321563B2 (en) | 2020-12-31 | 2025-06-03 | Apple Inc. | Method of grouping user interfaces in an environment |
| US12443273B2 (en) | 2021-02-11 | 2025-10-14 | Apple Inc. | Methods for presenting and sharing content in an environment |
| US12299251B2 (en) | 2021-09-25 | 2025-05-13 | Apple Inc. | Devices, methods, and graphical user interfaces for presenting virtual objects in virtual environments |
| US12456271B1 (en) | 2021-11-19 | 2025-10-28 | Apple Inc. | System and method of three-dimensional object cleanup and text annotation |
| US12475635B2 (en) | 2022-01-19 | 2025-11-18 | Apple Inc. | Methods for displaying and repositioning objects in an environment |
| JP2023115541A (en) * | 2022-02-08 | 2023-08-21 | キヤノン株式会社 | Control device |
| US12272005B2 (en) | 2022-02-28 | 2025-04-08 | Apple Inc. | System and method of three-dimensional immersive applications in multi-user communication sessions |
| JP2023134920A (en) * | 2022-03-15 | 2023-09-28 | キヤノン株式会社 | System, method, terminal, method and program |
| US12321666B2 (en) | 2022-04-04 | 2025-06-03 | Apple Inc. | Methods for quick message response and dictation in a three-dimensional environment |
| US12394167B1 (en) | 2022-06-30 | 2025-08-19 | Apple Inc. | Window resizing and virtual object rearrangement in 3D environments |
| US12461641B2 (en) | 2022-09-16 | 2025-11-04 | Apple Inc. | System and method of application-based three-dimensional refinement in multi-user communication sessions |
| US12511847B2 (en) | 2024-12-19 | 2025-12-30 | Apple Inc. | Methods for managing overlapping windows and applying visual effects |
Also Published As
| Publication number | Publication date |
|---|---|
| JP6007712B2 (en) | 2016-10-12 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP6007712B2 (en) | Head mounted display, method and program for operating the same | |
| JP6683762B2 (en) | Display system and method | |
| US20240080433A1 (en) | Systems and methods for mediated-reality surgical visualization | |
| US10591735B2 (en) | Head-mounted display device and image display system | |
| CN103917913B (en) | Head-mounted display, method of controlling an optical system, and computer-readable medium | |
| KR20190015573A (en) | Image acquisition system, apparatus and method for auto focus adjustment based on eye tracking | |
| US10878285B2 (en) | Methods and systems for shape based training for an object detection algorithm | |
| EP3248045A1 (en) | Augmented reality field of view object follower | |
| JP6349660B2 (en) | Image display device, image display method, and image display program | |
| WO2015035822A1 (en) | Pickup of objects in three-dimensional display | |
| EP3460785A1 (en) | Multiple layer projector for a head-mounted display | |
| KR102732415B1 (en) | Electronic apparatus and operaintg method thereof | |
| JP6020009B2 (en) | Head mounted display, method and program for operating the same | |
| JP7707290B2 (en) | Reticle Alignment | |
| CN113661433A (en) | Head mounted display device and operation method thereof | |
| WO2022115232A1 (en) | Velocity-based controls | |
| EP3867734B1 (en) | Mobile platform as a physical interface for interaction | |
| CN114341703A (en) | Display device, display system, and display adjustment method | |
| JP2023164452A (en) | Display device, display system, display adjustment method, and display adjustment program | |
| CN114581514B (en) | Method for determining binocular gaze points and electronic device | |
| JP2023115808A (en) | ELECTRONIC DEVICE, ELECTRONIC DEVICE CONTROL METHOD, PROGRAM AND RECORDING MEDIUM | |
| JP2025167161A (en) | Display device and control method for display device | |
| JP2023178093A (en) | Display unit, control method, and program | |
| JP2024058783A (en) | Control device |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150317 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160204 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160308 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160428 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160816 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160829 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 6007712 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| LAPS | Cancellation because of no payment of annual fees |