JP2014071277A - Head-mounted display device, method of actuating the same and program - Google Patents

Head-mounted display device, method of actuating the same and program Download PDF

Info

Publication number
JP2014071277A
JP2014071277A JP2012217209A JP2012217209A JP2014071277A JP 2014071277 A JP2014071277 A JP 2014071277A JP 2012217209 A JP2012217209 A JP 2012217209A JP 2012217209 A JP2012217209 A JP 2012217209A JP 2014071277 A JP2014071277 A JP 2014071277A
Authority
JP
Japan
Prior art keywords
display
observer
reference content
image
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012217209A
Other languages
Japanese (ja)
Other versions
JP6020009B2 (en
Inventor
Kengo Noda
憲吾 野田
Hiromasa Takahashi
宏征 高橋
Masanori Oda
昌範 小田
Ai Kishimoto
藍 岸本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2012217209A priority Critical patent/JP6020009B2/en
Publication of JP2014071277A publication Critical patent/JP2014071277A/en
Application granted granted Critical
Publication of JP6020009B2 publication Critical patent/JP6020009B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve visibility when an observer views a reference content in a monocular type head-mounted display enabling the observer to observe at least one object and at least one reference content in an object space in association with each other.SOLUTION: In order to determine which eye of a left eye and a right eye of the observer is an observation eye, a position of the observation eye is detected, and on the basis of the detection result, at least one reference content L or R is displayed at a position shifted from an image of at least one object A observed by the observer in a first direction away from a non-observation eye serving as an eye not used in observation of both eyes of the observer on an image display surface of the head-mounted display.

Description

本発明は、観察者の頭部に装着された状態で、観察者の片眼である観察眼に画像光を投射することによって観察者に画像を表示する単眼式のヘッドマウントディスプレイに関するものであり、特に、対象空間内の少なくとも1つのオブジェクトと少なくとも1つの参照コンテンツとを互いに関連付けて観察者が観察することを可能にする技術に関するものである。   The present invention relates to a monocular head-mounted display that displays an image to an observer by projecting image light onto an observation eye that is one eye of the observer while being mounted on the observer's head. In particular, the present invention relates to a technique that enables an observer to observe by associating at least one object in a target space with at least one reference content.

観察者の頭部に装着された状態で観察者に画像を表示するヘッドマウントディスプレイ(以下、「HMD」と略称する。)が既に知られている。このHMDによれば、観察者は、画像が投影されるスクリーンを媒介にすることなく、画像を直接的に観察することができる。   A head-mounted display (hereinafter abbreviated as “HMD”) that displays an image to the observer while being mounted on the observer's head has already been known. According to the HMD, an observer can directly observe an image without using a screen on which the image is projected.

このHMDは、画像光を形成する方式という観点で、例えば、空間変調型と走査型とに分類される。空間変調型は、画像信号に応じて作動する空間変調素子(例えば、液晶または有機EL(エレクトロ・ルミネッセンス))を用いて、光源からの出射光から前記画像光を形成する方式である。これに対し、走査型は、光源からの出射光であって、前記画像信号に応じた強度を有するものを走査することによって前記画像光を形成する方式である。   This HMD is classified into, for example, a spatial modulation type and a scanning type from the viewpoint of a method of forming image light. The spatial modulation type is a system in which the image light is formed from light emitted from a light source using a spatial modulation element (for example, liquid crystal or organic EL (electroluminescence)) that operates according to an image signal. On the other hand, the scanning type is a system in which the image light is formed by scanning light emitted from a light source and having intensity corresponding to the image signal.

また、このHMDは、観察者が画像を観察する眼が観察者の両眼であるのか片眼であるのかという観点で、観察者の両眼を観察眼とし、両眼のいずれにも画像光を投射することによって観察者に画像を表示する両眼式と、観察者の片眼を観察眼とし、片眼のみに画像光を投射することによって観察者に画像を表示する単眼式とに分類される。   In addition, this HMD uses both the eyes of the observer as the observation eyes from the viewpoint of whether the eyes of the observer observing the image are both eyes or the eyes of the observer. Are classified into a binocular system that displays an image to the observer by projecting and a monocular system that displays the image to the observer by projecting image light to only one eye. Is done.

また、このHMDは、観察者が画像を観察する方式という観点で、例えば、シースルー式と密閉式とに分類される。シースルー式は、画像信号に応じた画像を表す画像光と、観察者の前方に位置する現実外界(前記「対象空間」の一例)からの外界光とを重畳させて観察者の眼に入射させることにより、観察者が、画像信号に応じた画像を、現実外界の像に重ねて観察することを可能にする方式である。これに対し、密閉式は、現実外界を表す外界光の入射光を遮断し、観察者が、主に、画像信号に応じた画像のみを観察することを可能にする方式である。   The HMD is classified into, for example, a see-through type and a sealed type from the viewpoint of a method in which an observer observes an image. In the see-through method, image light representing an image according to an image signal and external light from an actual external environment (an example of the “target space”) positioned in front of the observer are superimposed and incident on the eyes of the observer. In this way, the observer can observe an image corresponding to the image signal superimposed on an image of the actual outside world. On the other hand, the sealed type is a system that blocks the incident light of the external light representing the actual external environment and allows the observer to mainly observe only the image corresponding to the image signal.

後者の密閉式を採用する場合、画像信号に応じた画像が対象空間の像を含まないようにHMDを設計することが可能である。この場合には、観察者は、対象空間の像を観察することができず、画像信号に応じた画像を単独で観察することになる。しかし、HMDを、対象空間の像を撮影し、その撮影した画像と、画像信号に応じた別の画像とを合成し、その合成画像を観察者に表示するように設計することも可能である。この場合には、観察者は、シースルー式を採用する場合と同様に、対象空間の像に重ねて、それとは別の画像を観察することが可能となる。以下、この方式を、説明の便宜上、「ビデオシースルー式」と称し、これに対し、上述のシースルー式を「光学シースルー式」と称することにより、両者を区別する。   When the latter sealed type is adopted, it is possible to design the HMD so that the image corresponding to the image signal does not include the image of the target space. In this case, the observer cannot observe the image of the target space, and observes the image corresponding to the image signal alone. However, it is also possible to design the HMD so as to capture an image of the target space, combine the captured image with another image corresponding to the image signal, and display the combined image to the observer. . In this case, the observer can observe another image superimposed on the image of the target space, as in the case of adopting the see-through method. Hereinafter, for convenience of explanation, this method is referred to as a “video see-through type”, while the above-described see-through type is referred to as an “optical see-through type” to distinguish between them.

人間が知覚する現実世界をコンピュータを用いて増強・拡張する技術が既に存在し、これは拡張現実(AR)と称される。この拡張現実を光学シースルー式またはビデオシースルー式のHMDを用いて実現する技術の一従来例が特許文献1に開示されている。   There is already a technology for augmenting and expanding the real world perceived by humans using a computer, which is called augmented reality (AR). One conventional example of a technique for realizing this augmented reality using an optical see-through type or video see-through type HMD is disclosed in Patent Document 1.

この特許文献1に開示されている技術によれば、観察者が仮想空間(前記「対象空間」の別の例)内に存在する仮想オブジェクトを観察している間、その仮想オブジェクトの観察位置に関連付けて、その仮想オブジェクトに関連する参照コンテンツ(例えば、アノテーション)が表示される。この技術によれば、観察者が、仮想オブジェクトを観察しながら、その仮想オブジェクトに関連する情報を視覚的にかつ自動的に取得することが可能となり、観察者の利便性が向上する。   According to the technique disclosed in Patent Document 1, while an observer observes a virtual object existing in a virtual space (another example of the “target space”), the observation position of the virtual object is set. In association with each other, reference content (for example, annotation) related to the virtual object is displayed. According to this technology, it becomes possible for the observer to visually and automatically acquire information related to the virtual object while observing the virtual object, and the convenience of the observer is improved.

特開2005−038008号公報JP 2005-038008 A

特許文献1に開示されている技術によれば、観察者が唯一の仮想オブジェクトを観察している間、観察者がその仮想オブジェクトに一定時間以上注視すると、その仮想オブジェクトの観察位置の近傍に、その仮想オブジェクトに関連する参照コンテンツとしてのアノテーションが自動的に表示される。このとき、そのアノテーションに対する焦点を仮想オブジェクトに対する焦点と一致させるため、観察者の視点位置からアノテーションまでの奥行きが、視点位置から仮想オブジェクトまでの奥行きとほぼ同じとされる。   According to the technique disclosed in Patent Document 1, when the observer observes the only virtual object, when the observer gazes at the virtual object for a certain period of time, in the vicinity of the observation position of the virtual object, Annotation as reference content related to the virtual object is automatically displayed. At this time, in order to make the focus on the annotation coincide with the focus on the virtual object, the depth from the observer's viewpoint position to the annotation is almost the same as the depth from the viewpoint position to the virtual object.

これに対し、本発明者らは、単眼式のHMDについて研究を行った結果、観察者が参照コンテンツを視認する際の視認性を向上させるためには、表示される参照コンテンツの、観察されるオブジェクトの像に対する相対位置を最適化することが重要であることに気が付いた。   On the other hand, the present inventors have studied monocular HMD, and as a result, in order to improve the visibility when the viewer visually recognizes the reference content, the displayed reference content is observed. I realized it was important to optimize the relative position of the object to the image.

具体的には、本発明者らは、単眼式のHMDの画像表示面上において、参照コンテンツの、オブジェクトの像に対する相対位置として、そのオブジェクトの像から、非観察眼から遠ざかる向きに外れた位置と、非観察眼に近づく向きに外れた位置とについて観察者の視認性を評価するための実験を行った。その結果、本発明者らは、当該HMDが光学シースルー式であるかビデオシースルー式であるかを問わず、参照コンテンツを、オブジェクトの像から、非観察眼から遠ざかる向きに外れた位置に表示した場合には、非観察眼に近づく向きに外れた位置に表示した場合より、観察眼が参照コンテンツを観察するときの観察者の視線が、非観察眼側に大きく傾斜せずに済み、視認性が向上するという知見を得た。   Specifically, the inventors of the present invention, on the image display surface of the monocular HMD, as a relative position of the reference content with respect to the object image, a position deviated from the object image in a direction away from the non-observing eye. And an experiment for evaluating the visibility of the observer with respect to the position deviated in the direction approaching the non-observing eye. As a result, the present inventors displayed the reference content at a position away from the object image in a direction away from the non-observing eye, regardless of whether the HMD is an optical see-through type or a video see-through type. In this case, the viewer's line of sight when the observing eye observes the reference content does not have to be greatly inclined to the non-observing eye side, as compared with the case where it is displayed at a position away from the non-observing eye. Obtained the improvement.

また、本発明者らは、特に、単眼式のHMDが光学シースルー式である場合であって、当該HMDのハウジングのうち、非観察眼寄りの位置に、光学シースルーを実現するための光学素子(例えば、後述のハーフミラー)が露出状態で取り付けられている場合には、参照コンテンツを、オブジェクトの像から、非観察眼に近づく向きに外れた位置に表示すると、観察眼が参照コンテンツを観察するときの観察者の視線が前記ハウジングと交差したり、前記光学素子と交差してしまう可能性が高くなることに気が付いた。視線が前記ハウジングと交差したり、前記光学素子と交差してしまうと、観察眼が、表示されている参照コンテンツを正常に観察することができなくなり、観察者は、不快感を覚える可能性がある。   In addition, the present inventors are particularly the case where the monocular HMD is an optical see-through type, and an optical element for realizing optical see-through at a position near the non-observing eye in the housing of the HMD ( For example, when a half mirror (to be described later) is attached in an exposed state, when the reference content is displayed at a position away from the object image in a direction approaching the non-observation eye, the observation eye observes the reference content. It was noticed that there was a high possibility that the observer's line of sight would intersect the housing or the optical element. If the line of sight intersects with the housing or the optical element, the observation eye cannot normally observe the displayed reference content, and the observer may feel uncomfortable. is there.

以上説明した知見を背景として、本発明は、対象空間内の少なくとも1つのオブジェクトと少なくとも1つの参照コンテンツとを互いに関連付けて観察者が観察することを可能にする単眼式のHMDにおいて、観察者が参照コンテンツを視認する際の視認性を向上させることを目的とする。   With the knowledge described above as a background, the present invention relates to a monocular HMD that enables an observer to observe at least one object in a target space and at least one reference content in association with each other. The object is to improve the visibility when viewing the reference content.

本発明によって下記の各態様が得られる。各態様は、項に区分し、各項には番号を付し、必要に応じて他の項の番号を引用する形式で記載するが、このように、各項を他の項の番号を引用する形式で記載することにより、各項に記載の技術的特徴をその性質に応じて適宜独立させることが可能となる。   The following aspects are obtained by the present invention. Each aspect is divided into sections, each section is numbered, and is described in the form of quoting the section numbers of other sections as necessary. In this way, each section is referred to the section number of the other section. By describing in the format, the technical features described in each section can be appropriately made independent according to the properties.

(1) 観察者の頭部に装着された状態で、観察者の片眼である観察眼に画像光を投射することによって観察者に画像を表示し、それにより、対象空間内の少なくとも1つのオブジェクトと少なくとも1つの参照コンテンツとを互いに関連付けて観察者が観察することを可能にするヘッドマウントディスプレイであって、
観察眼が観察者の左眼および右眼のうちのいずれであるかを判定する判定部と、
その判定部の判定結果に基づき、当該ヘッドマウントディスプレイの画像表示面上において、前記少なくとも1つの参照コンテンツを、観察者が観察する前記少なくとも1つのオブジェクトの像から、観察者の両眼のうち観察眼ではない非観察眼から遠ざかる第1方向に外れた位置に表示する表示制御部と
を含むヘッドマウントディスプレイ。
(1) An image is displayed to an observer by projecting image light onto an observation eye that is one eye of the observer in a state of being mounted on the head of the observer, thereby at least one of the objects in the target space A head mounted display that allows an observer to view an object in association with at least one reference content,
A determination unit for determining whether the observation eye is the left eye or the right eye of the observer;
Based on the determination result of the determination unit, on the image display surface of the head mounted display, the at least one reference content is observed from the image of the at least one object that the observer observes among the eyes of the observer. And a display control unit for displaying at a position deviated in a first direction away from a non-observing eye that is not an eye.

(2) 前記少なくとも1つのオブジェクトは、観察眼の位置および向きに対して相対的に決まる観察者の視界内に存在する複数のオブジェクトを含み、
当該ヘッドマウントディスプレイは、さらに、
観察者の姿勢に関する情報と前記複数のオブジェクトの位置に関する情報とのうちの少なくとも一方に基づき、前記複数のオブジェクトのうちのいずれかを、観察者が実質的に最も強く注目している注目オブジェクトとして推定する注目オブジェクト推定部と、
当該ヘッドマウントディスプレイが表示可能な複数の参照コンテンツの中から、前記推定された注目オブジェクトに対応する参照コンテンツを選択する参照コンテンツ選択部と、
観察眼の位置についての検出結果に基づき、前記選択された参照コンテンツの表示位置を、観察者が観察する前記注目オブジェクトの像から、前記第1方向に外れた位置に決定する第1表示位置決定部と、
前記参照コンテンツを、前記決定された表示位置に表示すると、その参照コンテンツが、前記複数のオブジェクトのうち、前記注目オブジェクトを除く少なくとも1つの非注目オブジェクトの像と重複して表示される可能性がある場合に、前記表示位置を、前記少なくとも1つの非注目オブジェクトの像から、前記第1方向に対して交差するように予め定められた第2方向に外れた位置に変更する第2表示位置決定部と
を含む(1)項に記載のヘッドマウントディスプレイ。
(2) The at least one object includes a plurality of objects existing in an observer's field of view determined relative to the position and orientation of the observation eye,
The head mounted display further includes
Based on at least one of the information related to the posture of the observer and the information related to the positions of the plurality of objects, any one of the plurality of objects is regarded as the attention object that the observer is substantially most interested in. A target object estimation unit to be estimated;
A reference content selection unit that selects a reference content corresponding to the estimated object of interest from among a plurality of reference content that can be displayed by the head mounted display;
First display position determination for determining the display position of the selected reference content based on the detection result of the position of the observation eye to a position deviating from the image of the object of interest observed by the observer in the first direction. And
When the reference content is displayed at the determined display position, there is a possibility that the reference content is displayed overlapping with an image of at least one non-attention object excluding the attention object among the plurality of objects. In some cases, a second display position determination is made to change the display position from the image of the at least one non-attention object to a position deviating in a second direction predetermined so as to intersect the first direction. The head mounted display according to item (1), including:

(3) 前記少なくとも1つのオブジェクトは、観察眼の位置および向きに対して相対的に決まる視界内に存在する複数のオブジェクトを含み、
当該ヘッドマウントディスプレイは、さらに、
前記参照コンテンツの表示サイズを、予め定められた第1サイズに決定する第1表示サイズ決定部と、
前記参照コンテンツを前記第1サイズで表示すると、前記参照コンテンツの一部が、当該ヘッドマウントディスプレイの使用中に観察者が視認する画像表示領域内に表示されない可能性がある場合に、前記参照コンテンツの表示サイズを、前記第1サイズより小さいように予め定められた第2サイズに変更する第2表示サイズ決定部と
を含む(1)または(2)項に記載のヘッドマウントディスプレイ。
(3) The at least one object includes a plurality of objects existing in a field of view determined relatively to the position and orientation of the observation eye,
The head mounted display further includes
A first display size determining unit that determines a display size of the reference content to a predetermined first size;
When the reference content is displayed in the first size, there is a possibility that a part of the reference content may not be displayed in the image display area visually recognized by the observer during use of the head mounted display. The head mounted display according to (1) or (2), further including: a second display size determining unit that changes a display size of the second display size to a predetermined second size so as to be smaller than the first size.

(4) 観察者の頭部に装着された状態で、観察者の片眼である観察眼に画像光を投射することによって観察者に画像を表示し、それにより、対象空間内の少なくとも1つのオブジェクトと少なくとも1つの参照コンテンツとを互いに関連付けて観察者が観察することを可能にするヘッドマウントディスプレイを作動させる方法であって、
観察眼が観察者の左眼および右眼のうちのいずれであるかを判定する判定工程と、
その判定工程での判定結果に基づき、前記ヘッドマウントディスプレイの画像表示面上において、前記少なくとも1つの参照コンテンツを、観察者が観察する前記少なくとも1つのオブジェクトの像から、観察者の両眼のうち観察眼ではない非観察眼から遠ざかる第1方向に外れた位置に表示する表示制御工程と
を含む方法。
(4) An image is displayed to the observer by projecting image light onto an observation eye that is one eye of the observer in a state of being mounted on the head of the observer, whereby at least one in the target space A method of operating a head-mounted display that allows an observer to view an object and at least one reference content associated with each other, comprising:
A determination step of determining whether the observation eye is the left eye or the right eye of the observer;
Based on the determination result in the determination step, on the image display surface of the head-mounted display, the at least one reference content is extracted from the image of the at least one object that the observer observes. A display control step of displaying at a position deviating in the first direction away from the non-observing eye that is not the observing eye.

(5) 前記少なくとも1つのオブジェクトは、観察眼の位置および向きに対して相対的に決まる視界内に存在する複数のオブジェクトを含み、
当該方法は、さらに、
前記複数のオブジェクトのうちのいずれかを、観察者が実質的に最も強く注目している注目オブジェクトとして推定する注目オブジェクト推定工程と、
前記ヘッドマウントディスプレイが表示可能な複数の参照コンテンツの中から、前記推定された注目オブジェクトに対応する参照コンテンツを選択する参照コンテンツ選択工程と、
観察眼の位置についての検出結果に基づき、前記選択された参照コンテンツの表示位置を、観察者が観察する前記注目オブジェクトの像から、前記第1方向に外れた位置に決定する第1表示位置決定工程と、
前記参照コンテンツを、前記決定された表示位置に表示すると、その参照コンテンツが、前記複数のオブジェクトのうち、前記注目オブジェクトを除く少なくとも1つの非注目オブジェクトの像と重複して表示される可能性がある場合に、前記表示位置を、前記少なくとも1つの非注目オブジェクトの像から、前記第1方向に対して交差するように予め定められた第2方向に外れた位置に変更する第2表示位置決定工程と
を含む(4)項に記載の方法。
(5) The at least one object includes a plurality of objects existing in a field of view determined relatively to the position and orientation of the observation eye,
The method further includes:
A target object estimation step of estimating any one of the plurality of objects as a target object that the observer is substantially most interested in;
A reference content selection step of selecting a reference content corresponding to the estimated object of interest from among a plurality of reference contents that can be displayed by the head mounted display;
First display position determination for determining the display position of the selected reference content based on the detection result of the position of the observation eye to a position deviating from the image of the object of interest observed by the observer in the first direction. Process,
When the reference content is displayed at the determined display position, there is a possibility that the reference content is displayed overlapping with an image of at least one non-attention object excluding the attention object among the plurality of objects. In some cases, a second display position determination is made to change the display position from the image of the at least one non-attention object to a position deviating in a second direction predetermined so as to intersect the first direction. The method according to item (4), comprising the steps of:

(6) (4)または(5)項に記載の方法を実行するためにコンピュータによって実行されるプログラム。 (6) A program executed by a computer to execute the method according to (4) or (5).

(7) 現実外界に存在するオブジェクトに関連する参照コンテンツを示す画像光と、前記現実外界の像を示す外界光とを重畳して出射可能に構成され、観察者の頭部に装着可能な表示ユニットと、
その表示ユニットの位置を取得可能な位置取得部と、
前記表示ユニットの向きを取得可能な向き取得部と、
前記表示ユニットが観察者によって装着された場合に、前記表示ユニットの装着位置を取得可能な装着位置取得部と、
前記表示ユニットの作動を制御する制御部と
を含み、
その制御部は、
前記取得された表示ユニットの位置および向きに基づき、前記オブジェクトに関連する前記参照コンテンツを取得可能なコンテンツ取得手段と、
前記装着位置取得部の取得結果に基づき、前記表示ユニットが観察者の両眼のうちのいずれの眼の側に装着されたかを判定する判定手段と、
前記取得された参照コンテンツの表示位置を決定する決定手段と
を有し、
その決定手段は、前記取得された参照コンテンツに関連する前記オブジェクトが観察されるオブジェクト観察位置に位置的に関連付けられるとともに、前記オブジェクト観察位置から、前記判定手段によって判定された眼の側にずれた位置を、前記参照コンテンツの表示位置として決定するヘッドマウントディスプレイ。
(7) Display configured to be able to be emitted by superimposing image light indicating reference content related to an object existing in the real external environment and external light indicating an image of the real external environment, and capable of being mounted on an observer's head Unit,
A position acquisition unit capable of acquiring the position of the display unit;
An orientation acquisition unit capable of acquiring the orientation of the display unit;
A mounting position acquisition unit capable of acquiring a mounting position of the display unit when the display unit is mounted by an observer;
A control unit for controlling the operation of the display unit,
Its control part is
Content acquisition means capable of acquiring the reference content related to the object based on the acquired position and orientation of the display unit;
Based on the acquisition result of the mounting position acquisition unit, a determination unit that determines on which side of the eyes of the observer the display unit is mounted;
Determining means for determining a display position of the acquired reference content;
The determination means is positionally associated with the object observation position at which the object related to the acquired reference content is observed, and shifted from the object observation position toward the eye determined by the determination means A head-mounted display that determines a position as a display position of the reference content.

本発明によれば、参照コンテンツが、オブジェクトの像から、非観察眼から遠ざかる向きに外れた位置に表示されるため、観察眼が参照コンテンツを観察するときの観察者の視線が非観察眼側に大きく傾斜せずに済み、その結果、観察者が参照コンテンツを視認する際の視認性が向上する。   According to the present invention, since the reference content is displayed at a position away from the object image in a direction away from the non-observing eye, the observer's line of sight when the observation eye observes the reference content is on the non-observing eye side. Therefore, the visibility when the viewer visually recognizes the reference content is improved.

図1は、本発明の例示的な一実施形態に従うヘッドマウントディスプレイ(HMD)を左眼観察モードで、かつ、観察者の頭部に装着するために使用されるフレームと共に示す斜視図である。FIG. 1 is a perspective view showing a head-mounted display (HMD) according to an exemplary embodiment of the present invention in a left-eye observation mode and with a frame used for mounting on an observer's head. 図2は、図1に示す表示ユニットを示す縦断面図である。FIG. 2 is a longitudinal sectional view showing the display unit shown in FIG. 図3は、図1に示すHMDを左眼観察モードで作動させた場合に観察者が視認する画像と、右眼観察モードで作動させた場合に観察者が視認する画像とを対比的に示す図である。FIG. 3 shows a comparison between an image visually recognized by the observer when the HMD shown in FIG. 1 is operated in the left eye observation mode and an image visually recognized by the observer when operated in the right eye observation mode. FIG. 図4は、図1に示すHMDの構成を概念的に表す機能ブロック図である。FIG. 4 is a functional block diagram conceptually showing the configuration of the HMD shown in FIG. 図5(a)は、図4に示すコンテンツ情報記憶部に記憶されているコンテンツ関連情報を表形式で表す概念図であり、図5(b)は、図5(a)に示すコンテンツ関連情報の定義を説明するための図である。FIG. 5A is a conceptual diagram showing the content related information stored in the content information storage unit shown in FIG. 4 in a tabular form, and FIG. 5B is the content related information shown in FIG. It is a figure for demonstrating the definition of. 図6は、観察者が、図1に示すHMDを使用している状態で、ある展示室内において複数の展示物を鑑賞している様子を説明するために、その展示室全体を真上から俯瞰することによって示す図である。FIG. 6 is a bird's-eye view of the entire exhibition room from the top in order to explain how an observer is viewing a plurality of exhibits in a certain exhibition room while using the HMD shown in FIG. It is a figure shown by doing. 図7(a)は、図1に示すHMDの画像表示面上における参照コンテンツの表示位置が注目オブジェクトの像の位置に対して相対的に決定される様子を説明するための図であり、図7(b)は、その様子を具体的に説明するための図である。FIG. 7A is a diagram for explaining how the display position of the reference content on the image display surface of the HMD shown in FIG. 1 is determined relative to the position of the image of the object of interest. FIG. 7B is a diagram for specifically explaining the situation. 図8は、図4に示すメモリに記憶されている画像表示プログラムが同図に示すプロセッサによって実行されることによって実行される画像表示方法の一部を概念的に表すフローチャートである。FIG. 8 is a flowchart conceptually showing a part of the image display method executed when the image display program stored in the memory shown in FIG. 4 is executed by the processor shown in FIG. 図9は、前記画像表示方法の別の一部を概念的に表すフローチャートである。FIG. 9 is a flowchart conceptually showing another part of the image display method.

以下、本発明のさらに具体的でかつ例示的ないくつかの実施形態を図面を参照して詳細に説明する。   Hereinafter, some more specific and exemplary embodiments of the present invention will be described in detail with reference to the drawings.

図1には、本発明の例示的な一実施形態に従うヘッドマウントディスプレイ(以下、「HMD」と略称する。)10が斜視図で示され、図2には、断面図で示されている。   FIG. 1 is a perspective view of a head mounted display (hereinafter abbreviated as “HMD”) 10 according to an exemplary embodiment of the present invention, and FIG.

まず、概略的に説明するに、このHMD10は、観察者の眼前に位置するように観察者の頭部に装着されて使用される。その使用状態において、このHMD10は、観察者の前方に位置する現実外界(前記「対象空間」の一例)の像を表す外界光を観察者の眼に誘導し、それにより、観察者が、現実外界に存在するオブジェクト(例えば、人間や機械、建物、動物、植物、彫刻物、製造物など、3次元的な物体や、写真や絵画、映画、印刷物など、2次元的な物体)を観察することが可能であるように設計される。   First, to explain schematically, the HMD 10 is used by being mounted on the head of an observer so as to be positioned in front of the eyes of the observer. In the state of use, the HMD 10 guides external light representing an image of the real external environment (an example of the “target space”) positioned in front of the observer to the observer's eyes. Observe objects that exist in the outside world (for example, three-dimensional objects such as humans, machines, buildings, animals, plants, sculptures, and manufactured products, and two-dimensional objects such as photographs, paintings, movies, and printed materials) Designed to be possible.

さらに、このHMD10は、観察者が観察しているオブジェクトに関連する参照コンテンツ(例えば、観察者に提供すべき情報をテキスト、グラフィックスで表現した画像、アノテーションなど)を画像信号に応じて生成し、その生成された参照コンテンツを観察者に、現に観察しているオブジェクトの観察位置に関連付けて表示することが可能であるようにも設計されている。一例においては、オブジェクトは、美術館などの施設内の展示室内で展示されている展示物であり、また、参照コンテンツは、そのような展示物を補足的に説明するための、テキストやグラフィックスによるアノテーションである。   Further, the HMD 10 generates reference content related to the object that the observer is observing (for example, an image that represents information to be provided to the observer, text, graphics, an annotation, etc.) according to the image signal. The generated reference content is designed to be displayed to the observer in association with the observation position of the object currently being observed. In one example, the object is an exhibit that is displayed in a display room in a facility such as a museum, and the reference content is text or graphics to supplement the exhibit. Annotation.

さらに、このHMD10は、観察者の左眼と右眼とのうちのいずれかを観察眼として観察者が画像を観察することを可能にする。このHMD10は、単眼式なのである。このHMD10は、観察者の選択により、観察者の左眼が観察眼である左眼観察モード(図1に示す)と、観察者の右眼が観察眼である右眼観察モード(図示しない)とに切り換えられる。   Further, the HMD 10 enables an observer to observe an image using either the left eye or the right eye of the observer as an observation eye. The HMD 10 is a monocular type. In the HMD 10, a left eye observation mode (shown in FIG. 1) in which the left eye of the observer is an observation eye and a right eye observation mode (not shown) in which the right eye of the observer is an observation eye are selected according to the observer's selection. And can be switched.

さらに、このHMD10は、図3に示すように、このHMD10の画像表示面上において、参照コンテンツを、観察者が観察するオブジェクトの像(以下、「オブジェクト像」という。)から外れた位置に表示する。具体的には、このHMD10は、観察者が観察しているオブジェクトの、HMD10の画像表示面上での位置およびサイズに基づき、参照コンテンツを、オブジェクト像から、観察者の右眼から左眼に向かう方向(通常、左方向)と、左眼から右眼に向かう方向(通常、右方向)とのうち、後述の規則に従って選択された方向に外れた位置(例えば、オブジェクトの観察位置から真横に外れた位置や、斜め横に外れた位置を含む。)に表示する。   Further, as shown in FIG. 3, the HMD 10 displays the reference content on the image display surface of the HMD 10 at a position deviated from an object image (hereinafter referred to as “object image”) observed by the observer. To do. Specifically, the HMD 10 moves the reference content from the object image to the left eye of the observer based on the position and size of the object being observed by the observer on the image display surface of the HMD 10. A position deviating in a direction selected according to the rules described later (e.g., right next to the object observation position) from the direction to the left (usually left) and the direction from the left eye to the right eye (usually right) Display a position that is out of position or a position that is obliquely off.).

さらに、このHMD10は、その使用状態において、適切なセンサからの信号に基づき、観察眼が左眼であるか右眼であるかを検出し、図3に示すように、観察眼が左眼である左眼観察モードであれば、参照コンテンツLを、オブジェクトAの像から、右眼から遠ざかる方向、例えば、左方向に外れた左側位置に表示する一方、観察眼が右眼である右眼観察モードであれば、参照コンテンツRを、オブジェクトAの像から、左眼から遠ざかる方向、例えば、右方向に外れた右側位置に表示する。これが、参照コンテンツの表示位置をそれら左側位置と右側位置の中から選択するための規則である。   Further, the HMD 10 detects whether the observation eye is the left eye or the right eye based on a signal from an appropriate sensor in the use state, and as shown in FIG. 3, the observation eye is the left eye. In a certain left-eye observation mode, the reference content L is displayed in a direction away from the right eye from the image of the object A, for example, in a left position away from the left direction, while a right-eye observation in which the observation eye is the right eye In the mode, the reference content R is displayed in a direction away from the left eye from the image of the object A, for example, in a right position deviated in the right direction. This is a rule for selecting the display position of the reference content from the left position and the right position.

次に、図1および図2を参照することにより、このHMD10が採用する光学系の構成を説明する。   Next, the configuration of the optical system employed by the HMD 10 will be described with reference to FIGS.

図1に示すように、このHMD10は、表示ユニット12と、アタッチメント14と、制御ユニット16とを備えている。制御ユニット16は、表示ユニット12に対し、ケーブル18(少なくとも信号ラインを含み、通常、電力ラインも含む)を介して有線方式で(無線方式でも可)接続されることにより、両者間でのデータや信号のやりとりが可能となっている。   As shown in FIG. 1, the HMD 10 includes a display unit 12, an attachment 14, and a control unit 16. The control unit 16 is connected to the display unit 12 via a cable 18 (including at least a signal line, usually including a power line) in a wired manner (or a wireless manner is possible), so that data between the two can be obtained. And signals can be exchanged.

表示ユニット12は、単眼式であり、画像を表す画像光を観察者の両眼のうちの一方である観察眼(他方の眼は、非観察眼)に投射するように構成されている。この表示ユニット12は、光学シースルー型、すなわち、画像信号に応じた画像を表す画像光と、観察者の前方に位置する現実外界からの外界光とを重畳させて観察眼に入射させることにより、観察者が、画像信号に応じた画像を、現実外界の像に重ねて観察することが可能である方式を採用する。ただし、表示ユニット12において、光学シースルー式を前述のビデオシースルー式に変更した態様で本発明を実施することが可能である。   The display unit 12 is a monocular type, and is configured to project image light representing an image onto an observation eye that is one of the eyes of the observer (the other eye is a non-observation eye). The display unit 12 is an optical see-through type, that is, by causing image light representing an image corresponding to an image signal and external light from the real external environment located in front of the observer to be superimposed on the observation eye, A method is employed in which an observer can observe an image corresponding to an image signal superimposed on an image of the actual outside world. However, in the display unit 12, the present invention can be implemented in a mode in which the optical see-through type is changed to the video see-through type described above.

図1に示すように、観察者の頭部に被装着部材としてのフレーム20が装着され、そのフレーム20にアタッチメント14が装着され、そのアタッチメント14に表示ユニット12が装着される。その結果、表示ユニット12がアタッチメント14を介してフレーム20に装着される。   As shown in FIG. 1, a frame 20 as a member to be attached is attached to the observer's head, an attachment 14 is attached to the frame 20, and a display unit 12 is attached to the attachment 14. As a result, the display unit 12 is attached to the frame 20 via the attachment 14.

図1に示す例においては、表示ユニット12がフレーム20の左側部30Lに取り付けられ、それにより、HMD10が左眼観察モードで使用されるが、表示ユニット12は、アタッチメント14により、フレーム20の右側部30Rと左側部30Lとの間で付け替えて使用することが可能となっている。   In the example shown in FIG. 1, the display unit 12 is attached to the left side portion 30 </ b> L of the frame 20, whereby the HMD 10 is used in the left eye observation mode, but the display unit 12 is attached to the right side of the frame 20 by the attachment 14. It can be used by changing between the portion 30R and the left portion 30L.

具体的には、アタッチメント14は、フレーム20の左側部30Lに固定される左眼用フレーム側部材40Lと、フレーム20の右側部30Rに固定される右眼用フレーム側部材40R(図示しない)とを備えている。アタッチメント14は、観察者の選択により、観察者の左眼が観察眼である左眼観察モードを実現するために、フレーム20の左側部30Lに取り付けられた左眼用フレーム側部材40Lに表示ユニット12が取り付けらける状態(図1に示す)と、観察者の右眼が観察眼である右眼観察モードを実現するために、フレーム20の右側部30Rに取り付けられた右眼用フレーム側部材40Rに表示ユニット12が取り付けられる状態(図示しない)とに切り換わる。   Specifically, the attachment 14 includes a left-eye frame side member 40L fixed to the left side 30L of the frame 20, and a right-eye frame side member 40R (not shown) fixed to the right side 30R of the frame 20. It has. The attachment 14 has a display unit attached to the left-eye frame side member 40L attached to the left side 30L of the frame 20 in order to realize a left-eye observation mode in which the observer's left eye is an observation eye according to the observer's selection. 12 and the right-eye frame side member attached to the right side 30R of the frame 20 in order to realize the right eye observation mode in which the right eye of the observer is the observation eye (see FIG. 1). The state is switched to a state in which the display unit 12 is attached to 40R (not shown).

表示ユニット12は、右眼観察モードと左眼観察モードとの間において、その向きを反転させて使用される。具体的には、表示ユニット12がアタッチメント14を介してフレーム20に装着される向きが、右眼観察モードと左眼観察モードとの間において、頭部装着状態において観察者の左右方向に対して略平行である垂直面(上下方向に延びる複数の面のうち、左右方向に平行であるもの)内で互いに反転させられる。   The display unit 12 is used with its direction reversed between the right eye observation mode and the left eye observation mode. Specifically, the direction in which the display unit 12 is mounted on the frame 20 via the attachment 14 is set between the right-eye observation mode and the left-eye observation mode with respect to the left-right direction of the observer in the head-mounted state. They are reversed with respect to each other within a substantially parallel vertical plane (a plurality of planes extending in the vertical direction and parallel to the horizontal direction).

図1に示すように、表示ユニット12は、それの長手方向に延びる、概して中空であるハウジング200を有する。ハウジング200は、合成樹脂製である。そのハウジング200内に、参照コンテンツを表示画像として表示するための画像光を形成する画像光形成部202(図2参照)が収容されている。   As shown in FIG. 1, the display unit 12 has a housing 200 that is generally hollow extending in the longitudinal direction thereof. The housing 200 is made of synthetic resin. Housed in the housing 200 is an image light forming unit 202 (see FIG. 2) that forms image light for displaying reference content as a display image.

図2に示すように、表示ユニット12は、画像光形成部202を収容する本体部分210と、その画像光形成部202によって形成された画像光を観察眼に向けて出射する出射口212が形成された出射口部分214とを、表示ユニット12の長手方向に沿って互いに並ぶように有している。表示ユニット12は、さらに、本体部分210と出射口部分214とを着脱可能に互いに連結する連結機構270を有している。   As shown in FIG. 2, the display unit 12 includes a main body portion 210 that accommodates the image light forming unit 202 and an emission port 212 that emits image light formed by the image light forming unit 202 toward the observation eye. The emission port portions 214 are arranged so as to be aligned with each other along the longitudinal direction of the display unit 12. The display unit 12 further includes a connecting mechanism 270 that removably connects the main body portion 210 and the emission port portion 214 to each other.

図2に示すように、画像光形成部202は、入射光を2次元空間的に変調して前記画像光を生成する、概して板状を成す空間光変調素子としてのLCD220(表示部の一例)を有する。LCD220は、複数の画素が2次元的に並んだ液晶ディスプレイである。   As shown in FIG. 2, the image light forming unit 202 generates the image light by two-dimensional spatially modulating incident light, and an LCD 220 (an example of a display unit) as a generally plate-shaped spatial light modulation element. Have The LCD 220 is a liquid crystal display in which a plurality of pixels are arranged two-dimensionally.

なお付言するに、本実施形態においては、表示ユニット12が空間光変調型であるが、網膜走査型、すなわち、レーザ等、光源からの光束をスキャナによって走査し、その走査された光束を観察者の網膜に投射するものに変更してもよい。   In addition, in the present embodiment, the display unit 12 is a spatial light modulation type. However, the retinal scanning type, that is, a light beam from a light source such as a laser is scanned by a scanner, and the scanned light beam is observed by an observer. You may change to what is projected on the retina.

画像光形成部202は、さらに、板状のドライバ222(表示制御部の一例)を有する。そのドライバ222は、図示しないケーブルを介して、LCD220に電気的に接続されている。ドライバ222は、外部から入力される画像信号に基づいてLCD220を駆動し、それにより、観察者に表示すべき画像を表す画像光をLCD220から出射させる。LCD220は、バックライト光源を内蔵しているが、その光源に代えて、LCD220から独立した光源を用いてもよい。   The image light forming unit 202 further includes a plate-like driver 222 (an example of a display control unit). The driver 222 is electrically connected to the LCD 220 via a cable (not shown). The driver 222 drives the LCD 220 based on an image signal input from the outside, thereby causing the LCD 220 to emit image light representing an image to be displayed to the observer. The LCD 220 includes a backlight light source, but a light source independent of the LCD 220 may be used instead of the light source.

図2に示すように、表示ユニット12は、さらに、接眼光学系246を有する。その接眼光学系246は、複数の光学素子としての複数のレンズが直列に並んだ一次元配列として構成されている。それらレンズは、同じ光軸を共有する。その光軸は、ハウジング200の長手方向に平行に、かつ、ミラーなどの部品によってその方向が曲げられることなく、一直線に延びている。接眼光学系246は、ハウジング200のうち、本体部分210に属する部分内に収容されている。   As shown in FIG. 2, the display unit 12 further includes an eyepiece optical system 246. The eyepiece optical system 246 is configured as a one-dimensional array in which a plurality of lenses as a plurality of optical elements are arranged in series. These lenses share the same optical axis. The optical axis extends in a straight line parallel to the longitudinal direction of the housing 200 and without being bent by a component such as a mirror. The eyepiece optical system 246 is accommodated in a portion of the housing 200 that belongs to the main body portion 210.

接眼光学系246は、それに属する複数のレンズのうち最も下流側に位置する終端レンズ248と、その終端レンズ248より下流に配置された保護透明体(例えば、合成樹脂製の透明な円板)250とを備えている。   The eyepiece optical system 246 includes a terminal lens 248 located on the most downstream side among a plurality of lenses belonging to the eyepiece optical system 246, and a protective transparent body (for example, a transparent disc made of synthetic resin) 250 disposed downstream of the terminal lens 248. And.

出射口部分214は、接眼光学系246から出射する画像光を曲げて観察眼に誘導する部分反射・部分透過光学素子としてのハーフミラー(画像光を観察眼に向けて偏向する偏向部材の一例)260を有している。   The exit portion 214 is a half mirror as an example of a partial reflection / partial transmission optical element that bends the image light emitted from the eyepiece optical system 246 and guides it to the observation eye (an example of a deflection member that deflects the image light toward the observation eye). 260.

接眼光学系246から出射する画像光は、ハーフミラー260で反射して、観察眼の瞳孔を通過して、網膜(図示しない)に入射する。それにより、観察者が2次元画像を虚像として観察することが可能となる。観察眼には、ハーフミラー260で反射した画像光のみならず、現実外界からの光である外界光がハーフミラー260を透過して入射する。その結果、観察者は、画像光によって表示される画像の観察と並行して現実外界を観察することが可能である。   The image light emitted from the eyepiece optical system 246 is reflected by the half mirror 260, passes through the pupil of the observation eye, and enters the retina (not shown). Thereby, the observer can observe the two-dimensional image as a virtual image. Not only the image light reflected by the half mirror 260 but also external light, which is light from the actual external environment, passes through the half mirror 260 and enters the observation eye. As a result, the observer can observe the actual outside world in parallel with the observation of the image displayed by the image light.

次に、図4を参照することにより、HMD10のうち、参照コンテンツをオブジェクトに関連付けて表示する部分のハードウエア構成を説明する。   Next, with reference to FIG. 4, a hardware configuration of a part of the HMD 10 that displays the reference content in association with the object will be described.

表示ユニット12は、入力装置12aと出力装置12bとを有する。   The display unit 12 includes an input device 12a and an output device 12b.

入力装置12aは、表示ユニット12を装着している観察者の位置(例えば、観察者の頭部の位置や、表示ユニット12の位置であり、また、グローバル座標系上の位置や、前記施設に固定されたローカル座標系上の位置である)を検出する位置検出部300を有する。その位置検出部300は、例えば、グローバル・ポジションニング・システムGPSによって観察者の位置を検出するために表示ユニット12に搭載されるデバイスとしたり、3点測位法によって観察者の位置を検出するために表示ユニット12に搭載されるデバイスとすることが可能である。   The input device 12a is the position of the observer wearing the display unit 12 (for example, the position of the head of the observer, the position of the display unit 12, the position on the global coordinate system, and the facility A position detection unit 300 that detects a position on a fixed local coordinate system). The position detection unit 300 is, for example, a device mounted on the display unit 12 for detecting the position of the observer by the global positioning system GPS, or for detecting the position of the observer by the three-point positioning method. In addition, a device mounted on the display unit 12 can be used.

入力装置12aは、さらに、観察者の向き(例えば、観察者の頭部の向き、表示ユニット12の向きであり、また、グローバル座標系上の向きや、前記施設に固定されたローカル座標系上の向きである)を検出する向き検出部302を有する。その向き検出部302は、例えば、電子コンパスによって観察者の向きを検出するために表示ユニット12に搭載されるデバイスとしたり、表示ユニット12に搭載される角加速度センサまたは角速度センサを主体とし、その検出値を時間積分することによって観察者の角度を計算するために表示ユニット12に搭載されるデバイスとすることが可能である。   The input device 12a further includes the orientation of the observer (for example, the orientation of the observer's head, the orientation of the display unit 12, and the orientation on the global coordinate system or the local coordinate system fixed to the facility. A direction detecting unit 302 for detecting the direction of The orientation detection unit 302 is, for example, a device mounted on the display unit 12 for detecting the orientation of the observer using an electronic compass, or an angular acceleration sensor or an angular velocity sensor mounted on the display unit 12 as a main component. A device mounted on the display unit 12 can be used to calculate the angle of the observer by time-integrating the detected value.

なお、向き検出部302の別の例としては、オブジェクトに対する相対的な方向を検出する構成を採用するものでもよい。この場合、例えば、表示ユニット12にカメラが接続され、そのカメラによってオブジェクトを撮像して得られる画像を基にして、表示ユニット12の、オブジェクトに対する相対的な方向が検出されるようにしてもよい。この場合、必要であれば、撮像されるオブジェクトの位置情報を特定するために、位置検出部300の検出結果を利用してもよい。   As another example of the direction detection unit 302, a configuration that detects a relative direction with respect to an object may be employed. In this case, for example, a camera is connected to the display unit 12, and the relative direction of the display unit 12 with respect to the object may be detected based on an image obtained by imaging the object with the camera. . In this case, if necessary, the detection result of the position detection unit 300 may be used to specify the position information of the object to be imaged.

入力装置12aは、さらに、表示ユニット12が観察者の頭部に装着されている状態、すなわち、表示ユニット12の装着を検出する装着検出部304を有する。その装着検出部304は、例えば、接触式または非接触式で表示ユニット12の装着を検出する方式を採用できる。非接触式を採用する場合には、装着検出部304は、例えば、観察者頭部の表面に対向する姿勢で発光部と受光部とを有し、その発光部から出射した電磁波(例えば、赤外光)のうち、観察者の頭部から反射した部分を前記受光部が受光することにより、表示ユニット12の装着を検出するために表示ユニット12に装着されるデバイスである。   The input device 12a further includes a mounting detection unit 304 that detects a state in which the display unit 12 is mounted on the head of the observer, that is, the mounting of the display unit 12. The attachment detection unit 304 can employ, for example, a method of detecting attachment of the display unit 12 by a contact type or a non-contact type. When the non-contact type is adopted, the wearing detection unit 304 has, for example, a light emitting unit and a light receiving unit in a posture facing the surface of the observer's head, and electromagnetic waves (for example, red light) emitted from the light emitting unit. The external light is a device that is mounted on the display unit 12 in order to detect the mounting of the display unit 12 when the light receiving unit receives a portion reflected from the head of the observer.

入力装置12aは、さらに、表示ユニット12が観察者の頭部に装着されている状態において、この表示ユニット12の装着位置が観察者にとっての右眼側であるのか左眼側であるのか、すなわち、観察眼が右眼であるのか左眼であるのかを検出する装着位置検出部306を有する。その装着位置検出部306は、例えば、接触式または非接触式で表示ユニット12の装着位置を検出する方式を採用できる。また、この装着位置検出部306は、例えば、表示ユニット12の装着位置を観察者頭部やフレーム20に対して相対的に検出する方式を採用することが可能である。この場合には、装着位置検出部306は、例えば、表示ユニット12が、アタッチメント14を構成する左眼用フレーム側部材40Lと右眼用フレーム側部材40Rとのうちのいずれに装着されたのかを接触式または非接触式で検出することが可能である。なお、装着位置検出部306は、表示ユニット12の装着位置が右眼側であるのか左眼側であるのかを、観察者からの入力を受け付けることによって検出するような構成を採用してもよい。   The input device 12a further determines whether the display unit 12 is mounted on the right eye side or the left eye side of the observer in a state where the display unit 12 is mounted on the observer's head. And a mounting position detection unit 306 that detects whether the observation eye is the right eye or the left eye. The mounting position detection unit 306 can employ, for example, a method of detecting the mounting position of the display unit 12 by a contact type or a non-contact type. The mounting position detection unit 306 can employ, for example, a method of detecting the mounting position of the display unit 12 relative to the observer's head or the frame 20. In this case, for example, the mounting position detection unit 306 determines which of the left eye frame side member 40L and the right eye frame side member 40R constituting the attachment 14 the display unit 12 is mounted on. It is possible to detect by contact type or non-contact type. The mounting position detection unit 306 may adopt a configuration that detects whether the mounting position of the display unit 12 is the right eye side or the left eye side by receiving an input from an observer. .

また、この装着位置検出部306は、例えば、表示ユニット12の装着位置を絶対空間や周囲のローカル固定空間に対して相対的に検出する方式を採用することが可能である。この場合には、例えば、装着位置検出部306は、重力センサを主体として構成したり、測距センサを主体として構成することが可能である。   The mounting position detection unit 306 can employ, for example, a method of detecting the mounting position of the display unit 12 relative to the absolute space or the surrounding local fixed space. In this case, for example, the mounting position detection unit 306 can be configured with a gravity sensor as a main component or a distance measurement sensor as a main component.

これに対し、出力装置12bは、画像表示のために、前述のドライバ222およびLCD220を有する。   On the other hand, the output device 12b has the above-described driver 222 and LCD 220 for image display.

図4に示すように、制御ユニット16は、プロセッサ310と、メモリ312とを有する。そのメモリ312は、記録媒体の一例であり、後述の画像表示プログラム(図8および図9参照)が予め記録されているプログラム記憶部と、オブジェクトの位置に関連付けて参照コンテンツをHMD10によって表示するのに必要な情報を保存するコンテンツ情報記憶部とを有する。そのコンテンツ情報記憶部においては、例えば、HMD10によって表示可能な複数の参照コンテンツに関するコンテンツ関連情報が、それぞれ対応する複数のオブジェクトに関連付けて記憶されるコンテンツ情報記憶部とを有する。   As shown in FIG. 4, the control unit 16 includes a processor 310 and a memory 312. The memory 312 is an example of a recording medium, and a program storage unit in which an image display program (see FIGS. 8 and 9) described later is recorded in advance, and reference content is displayed by the HMD 10 in association with the position of the object. And a content information storage unit for storing information necessary for the storage. The content information storage unit includes, for example, a content information storage unit that stores content related information related to a plurality of reference contents that can be displayed by the HMD 10 in association with a plurality of corresponding objects.

なお、1つのオブジェクトに必ず1つの参照コンテンツが関連付けられて表示されるとは限らず、1つのオブジェクトに複数の参照コンテンツが関連付けられて表示される場合もある。   Note that one reference content is not necessarily displayed in association with one object, and a plurality of reference contents may be displayed in association with one object.

図5(a)に一例においては、前記コンテンツ関連情報は、HMD10が表示可能な複数の参照コンテンツに関する情報を含み、かつ、参照コンテンツごとに、各参照コンテンツを表す画像に関するデータ(例えば、その画像を表すデータが保存されているファイル名)と、その画像の、前記画像表示面上における水平方向サイズHおよび垂直方向サイズVとを含んでいる。   In one example in FIG. 5A, the content-related information includes information on a plurality of reference contents that can be displayed by the HMD 10, and for each reference content, data on an image representing each reference content (for example, the image) And a horizontal size H and a vertical size V of the image on the image display surface.

この例においては、前記コンテンツ関連情報が、さらに、オブジェクトに関連するオブジェクト関連情報、すなわち、展示物に関する展示物関連情報を含んでいる。具体的には、その展示物関連情報は、現実外界内に存在する複数の展示物に関する情報を含み、かつ、展示物ごとに、展示物の名称を表すデータと、展示物の代表点の座標位置を表すデータと、展示物の大きさ(前記画像表示面上における展示物の像の大きさではなく、実物の展示物の大きさ)を特定するための大きさ関連情報とを含んでいる。   In this example, the content related information further includes object related information related to the object, that is, exhibit related information related to the exhibit. Specifically, the exhibition related information includes information on a plurality of exhibits existing in the real world, and for each exhibit, data representing the name of the exhibit and the coordinates of the representative point of the exhibit. It includes data representing the position and size-related information for specifying the size of the exhibit (not the size of the image of the exhibit on the image display surface, but the size of the actual exhibit). .

その大きさ関連情報の一例は、展示物上の点であって、前記代表点と一緒に参照される別の点(以下、「参照点」という。)の位置座標であるが、これに代えて、例えば、展示物の大きさ(例えば、最大長さ、直径、半径など)を直接表す情報とすることも可能である。   An example of the size-related information is a point on the exhibit, which is a position coordinate of another point referred to together with the representative point (hereinafter referred to as “reference point”). For example, it is possible to use information that directly represents the size of an exhibit (for example, maximum length, diameter, radius, etc.).

図5(b)には、観察者が、HMD10を介して、図5(a)に示す例における展示物Aと、それに関連して表示されるべき参照コンテンツAとを同時に観察した場合に観察者が前記画像表示面上において、すなわち、画像表示領域内において視認する全体画像の一例が示されている。   FIG. 5B shows an observation when the observer observes the exhibit A in the example shown in FIG. 5A and the reference content A to be displayed in association with it through the HMD 10 at the same time. An example of the whole image that the person visually recognizes on the image display surface, that is, in the image display area is shown.

図5(b)に示す例においては、展示物Aが、実物を忠実に表す像ではなく、その実物に幾何学的に近似し、かつ、その実物を内包する立体であって、予め定められた種類の図形(例えば、六面体、球)に分類され、かつ、最小体積を有するもの(以下、「最小近似立体」という。)を表す像として表現されている。また、この例においては、最小近似立体が、複数の頂点を有する多面体であり、また、展示物Aの代表点として、最小近似立体上のある点が選択され、また、展示物Aの参照点として、最小近似立体上の複数の点のうち、前記代表点から実質的に最も離れている点が選択されている。   In the example shown in FIG. 5B, the exhibit A is not an image that faithfully represents the real object, but is a solid that geometrically approximates the actual object and contains the actual object, and is predetermined. It is expressed as an image representing a figure (hereinafter, referred to as “minimum approximate solid”) having a minimum volume (hereinafter referred to as “minimum approximate solid”). Further, in this example, the minimum approximate solid is a polyhedron having a plurality of vertices, a certain point on the minimum approximate solid is selected as a representative point of the exhibit A, and the reference point of the exhibit A As described above, a point that is substantially farthest from the representative point among a plurality of points on the minimum approximate solid is selected.

具体的には、図5(b)に示す例においては、そのような最小近似立体として、8つの頂点と6つの平面とを有する六面体が選択され、また、前記代表点として、六面体を構成する8つの頂点のうちのいずれかの頂点が選択され、また、前記参照点として、前記8つの頂点のうち、前記代表点に対して対角位置にある頂点が選択されている。   Specifically, in the example shown in FIG. 5B, a hexahedron having eight vertices and six planes is selected as such a minimum approximate solid, and a hexahedron is configured as the representative point. Any one of the eight vertices is selected, and, as the reference point, a vertex that is diagonal to the representative point is selected from the eight vertices.

そのような最小近似立体の別の例は、図7に示すように、展示物Aに近似する球である。この例においては、球の中心点が、その球の代表点として選択され、また、その球の半径が、その球の大きさとして選択される。   Another example of such a minimum approximate solid is a sphere that approximates exhibit A, as shown in FIG. In this example, the center point of the sphere is selected as the representative point of the sphere, and the radius of the sphere is selected as the size of the sphere.

図4に示すように、制御ユニット16は、さらに、通信モジュール320を有し、その通信モジュール320は、無線または有線により、外部のサーバ322に接続されている。そのサーバ322は、制御ユニット16からのリクエストに応答し、前記コンテンツ関連情報を制御ユニット16に向けて送信する。プロセッサ310は、そのコンテンツ関連情報を受信すると、それをメモリ312に一時的に保存する。   As shown in FIG. 4, the control unit 16 further includes a communication module 320, and the communication module 320 is connected to an external server 322 by wireless or wired communication. In response to the request from the control unit 16, the server 322 transmits the content related information to the control unit 16. When the processor 310 receives the content-related information, the processor 310 temporarily stores it in the memory 312.

なお、本実施形態においては、前記コンテンツ関連情報が、一時的にサーバ322から受信されてHMD10自体に保存されるが、例えば、HMD10は、サーバ322からの受信なしで、そのサーバ322内のメモリ(図示しない)を利用して、必要なデータ処理を行うことが可能である。   In the present embodiment, the content-related information is temporarily received from the server 322 and stored in the HMD 10 itself. For example, the HMD 10 does not receive from the server 322 and stores the memory in the server 322. Necessary data processing can be performed using (not shown).

プロセッサ310は、メモリ312に保存されているデータを利用しつつ、前記画像表示プログラムを実行することにより、複数の機能を実現する。   The processor 310 implements a plurality of functions by executing the image display program while using data stored in the memory 312.

具体的には、プロセッサ310は、オブジェクト取得部400と、参照コンテンツ表示部402と、画像信号生成部404とを有する。画像信号生成部404は、参照コンテンツ表示部402からのデータに基づき、画像信号を生成し、その画像信号をドライバ222を介してLCD230に供給する。これにより、観察者に対して参照コンテンツが表示される。   Specifically, the processor 310 includes an object acquisition unit 400, a reference content display unit 402, and an image signal generation unit 404. The image signal generation unit 404 generates an image signal based on the data from the reference content display unit 402 and supplies the image signal to the LCD 230 via the driver 222. Thereby, the reference content is displayed to the observer.

オブジェクト取得部400は、通信モジュール320を介してサーバ322から前記コンテンツ関連情報を受信する。そのコンテンツ関連情報は、前記オブジェクト関連情報を含んでいる。このオブジェクト取得部400は、さらに、前記オブジェクト関連情報によって表される複数のオブジェクトの中から、観察者の視界内に存在する複数のオブジェクトを抽出する。なお、観察者の視界内に、1つのオブジェクトも存在しない場合もあれば、1つのオブジェクトしか存在しない場合もあるが、説明の便宜上、複数のオブジェクトが存在すると仮定する。   The object acquisition unit 400 receives the content related information from the server 322 via the communication module 320. The content related information includes the object related information. The object acquisition unit 400 further extracts a plurality of objects existing in the observer's field of view from the plurality of objects represented by the object related information. Note that although there may be no single object or only one object in the observer's field of view, it is assumed for the sake of convenience that there are a plurality of objects.

このオブジェクト取得部400の機能をさらに具体的に説明するに、このオブジェクト取得部400は、現実外界に存在する複数のオブジェクトの中から、観察者の視界内にある複数のオブジェクトを選択する。ここに、「観察者の視界」は、図6に示すように、観察眼の位置(x0,y0,z0)および向き(z軸方向)に対して相対的に決まる3次元的角度範囲であって、平面視において概して扇状を成す範囲である。ここに、「z軸方向」は、観察者の正面方向を意味しており、この方向は、必ずしも観察者の視線方向と一致しない。その扇状を成す範囲は、現実外界に存在する複数のオブジェクトの中から、参照コンテンツを関連付けて表示するオブジェクトを検出するために参照される範囲である。このことに着目し、この範囲を、以下、「オブジェクト検出範囲」ともいう。   The function of the object acquisition unit 400 will be described more specifically. The object acquisition unit 400 selects a plurality of objects in the observer's field of view from a plurality of objects existing in the actual outside world. Here, the “viewer's field of view” is a three-dimensional angular range determined relatively to the position (x0, y0, z0) and direction (z-axis direction) of the observation eye, as shown in FIG. Thus, the range is generally fan-shaped in plan view. Here, the “z-axis direction” means the front direction of the observer, and this direction does not necessarily coincide with the line-of-sight direction of the observer. The fan-shaped range is a range that is referred to in order to detect an object to be displayed in association with the reference content from among a plurality of objects existing in the actual outside world. Focusing on this, this range is hereinafter also referred to as “object detection range”.

図6には、観察者が、HMD10を使用している状態で、ある展示室内において複数の展示物(例えば、恐竜のレプリカ)を鑑賞している様子が、その展示室全体を真上から俯瞰することによって示す図で示されている。この展示室には、複数のアンテナが予め設置されており、HMD10は、位置検出部300および向き検出部302のうち少なくとも位置検出部300を介して、それらアンテナのうち、HMD10に最も近い3つのアンテナを用いた三角測量の原理を利用することにより、観察者の位置(x0,y0,z0)を、前記展示室に固定されたローカル座標系またはグローバル座標系上で検出する。   FIG. 6 shows a state in which an observer is viewing a plurality of exhibits (for example, dinosaur replicas) in a certain exhibition room while using the HMD 10, and the whole exhibition room is viewed from directly above. This is shown in the figure shown. In this exhibition room, a plurality of antennas are installed in advance, and the HMD 10 has three antennas that are closest to the HMD 10 among the antennas via at least the position detection unit 300 among the position detection unit 300 and the orientation detection unit 302. By utilizing the principle of triangulation using an antenna, the position (x0, y0, z0) of the observer is detected on a local coordinate system or a global coordinate system fixed in the exhibition room.

その三角測量の原理を利用する一例においては、前記複数のアンテナの各々から信号が同時に、各アンテナから他の複数の複数のアンテナに向かうように、発信され、それら信号を前記複数のアンテナがそれぞれ受信するタイミングの差または比に基づき、観察者の位置が検出される。その三角測量の原理を利用する別の例においては、前記複数のアンテナの各々から、同一の強度を有する信号が同時に、各アンテナから他の複数の複数のアンテナに向かうように、発信され、それら信号が前記複数のアンテナによってそれぞれ受信されたときの信号の受信強度の差または比に基づき、観察者の位置が検出される。   In an example using the principle of triangulation, a signal is transmitted from each of the plurality of antennas simultaneously so that each antenna is directed to a plurality of other antennas, and the signals are transmitted to the plurality of antennas. The position of the observer is detected based on the difference or ratio of reception timing. In another example using the principle of triangulation, a signal having the same intensity is transmitted from each of the plurality of antennas simultaneously so as to go from each antenna to the plurality of other antennas. The position of the observer is detected based on the difference or ratio of the received intensity of the signals when the signals are received by the plurality of antennas, respectively.

図4に示すように、参照コンテンツ表示部402は、さらに、注目オブジェクト推定部410と、参照コンテンツ選択部412とを有する。   As illustrated in FIG. 4, the reference content display unit 402 further includes an attention object estimation unit 410 and a reference content selection unit 412.

注目オブジェクト推定部410は、前記オブジェクト検出範囲内に存在する複数のオブジェクトのうちのいずれかを、観察者が実質的に最も強く注目している注目オブジェクトとして推定する。一例においては、それらオブジェクトのうち、観察者に最も近いものが注目オブジェクトとして推定される。別の例においては、観察者の視線(観察者の姿勢の一例である。)が検出され、前記複数のオブジェクトのうち、前記検出された視線と交差するものが注目オブジェクトとして推定される。参照コンテンツ選択部412は、前記コンテンツ関連情報によって定義される複数の参照コンテンツ(すなわち、前記コンテンツ関連情報を参照することによってHMD10が表示することが可能な複数の参照コンテンツ)の中から、前記推定された注目オブジェクトに対応する参照コンテンツを選択する。   The attention object estimation unit 410 estimates any one of the plurality of objects existing within the object detection range as the attention object that the observer is substantially most interested in. In one example, the object closest to the observer is estimated as the object of interest. In another example, an observer's line of sight (which is an example of an observer's posture) is detected, and an object that intersects the detected line of sight among the plurality of objects is estimated as a target object. The reference content selection unit 412 performs the estimation from a plurality of reference contents defined by the content-related information (that is, a plurality of reference contents that can be displayed by the HMD 10 by referring to the content-related information). The reference content corresponding to the noted object of interest is selected.

参照コンテンツ表示部402は、さらに、第1表示位置決定部414と、第2表示位置決定部416と、第3表示位置決定部418とを有する。   The reference content display unit 402 further includes a first display position determination unit 414, a second display position determination unit 416, and a third display position determination unit 418.

図7(a)に例示するように、第1表示位置決定部414は、参照コンテンツ(横長長方形で表す。)の第1候補表示位置RC1を、注目オブジェクトAの像(円で表す。)から、左方向と右方向とのうち、観察眼の位置に応じて選択された方向(図示の例では、左方向)に移動量αで外れた位置に決定する。   As illustrated in FIG. 7A, the first display position determination unit 414 displays the first candidate display position RC1 of the reference content (represented by a horizontally long rectangle) from the image (represented by a circle) of the object of interest A. Then, the position is determined to be out of the left direction and the right direction by the movement amount α in the direction selected in accordance with the position of the observation eye (the left direction in the illustrated example).

第2表示位置決定部416は、その決定された第1候補表示位置RC1で参照コンテンツを表示したのでは、別のオブジェクトBの像(円で表す。)と重複して表示されてしまう可能性がある場合に、参照コンテンツの第1候補表示位置RC1を、上方向と下方向とのうち、予め定められた一方(図示の例では、下方向)に移動量βで移動させ、それにより、参照コンテンツの第2候補表示位置RC2を決定する。   If the second display position determination unit 416 displays the reference content at the determined first candidate display position RC1, the second display position determination unit 416 may be displayed in an overlapping manner with an image (represented by a circle) of another object B. If there is, the first candidate display position RC1 of the reference content is moved by a movement amount β in one of the upper direction and the lower direction (downward in the illustrated example), thereby A second candidate display position RC2 for the reference content is determined.

第3表示位置決定部418は、その決定された第2候補表示位置RC2で参照コンテンツを表示したのでは、さらに別のオブジェクトCの像(円で表す。)と重複して表示されてしまう可能性がある場合に、参照コンテンツの第2候補表示位置RC2を、左方向と右方向とのうち、観察眼の位置に応じて選択された方向とは逆の方向(図示の例では、右方向)に移動量γで移動させ、それにより、参照コンテンツの最終表示位置RC3を決定する。   If the third display position determining unit 418 displays the reference content at the determined second candidate display position RC2, it may be displayed overlapping with another object C image (represented by a circle). If the second candidate display position RC2 of the reference content is in the direction opposite to the direction selected according to the position of the observation eye, the second candidate display position RC2 of the reference content (in the illustrated example, the right direction) ) With the movement amount γ, thereby determining the final display position RC3 of the reference content.

参照コンテンツ表示部402は、さらに、第1表示サイズ決定部420と、第2表示サイズ決定部422とを有する。   The reference content display unit 402 further includes a first display size determination unit 420 and a second display size determination unit 422.

第1表示サイズ決定部420は、参照コンテンツの表示サイズを、予め定められた第1サイズに決定する。第2表示サイズ決定部422は、参照コンテンツを第1サイズで表示すると、その参照コンテンツの一部が前記画像表示領域内に表示されない可能性がある場合に、参照コンテンツの表示サイズを、第1サイズより小さいように予め定められた第2サイズに変更する。   The first display size determination unit 420 determines the display size of the reference content to be a predetermined first size. When the reference content is displayed in the first size, the second display size determining unit 422 determines the display size of the reference content when there is a possibility that a part of the reference content is not displayed in the image display area. The size is changed to a predetermined second size so as to be smaller than the size.

参照コンテンツの表示サイズを第1サイズから第2サイズに変更する手法の一例においては、表示すべき参照コンテンツに含まれる情報アイテムが複数存在する場合に、それら情報アイテムの一部が削除された状態で参照コンテンツが表示される。別の例においては、表示すべき参照コンテンツが所定の倍率で縮小された状態で表示される。   In an example of the method of changing the display size of the reference content from the first size to the second size, when there are a plurality of information items included in the reference content to be displayed, a part of the information items is deleted The reference content is displayed. In another example, the reference content to be displayed is displayed in a state reduced at a predetermined magnification.

次に、図8および図9を参照することにより、前記画像表示方法およびその画像表示方法を実行するためのソフトウエア構成、すなわち、前記画像表示プログラムを説明する。   Next, the image display method and the software configuration for executing the image display method, that is, the image display program will be described with reference to FIGS.

図8には、前記画像表示プログラムがプロセッサ310によって実行されることによって実行される画像表示方法がフローチャートで概念的に表されている。その画像表示プログラムは、HMD10の電源が投入されると、プロセッサ310によって実行される。   FIG. 8 conceptually shows a flowchart of an image display method executed by the processor 310 executing the image display program. The image display program is executed by the processor 310 when the power of the HMD 10 is turned on.

この画像表示プログラムが実行されると、まず、ステップS1において、装着検出部304からの信号に基づき、観察者による表示ユニット12の、観察者の頭部への装着が検出されることが待たれる。表示ユニット12の装着が検出されたならば、ステップS2において、装着位置検出部306からの信号に基づき、表示ユニット12の装着位置が観察者の右眼側であるか否かが判定される。その装着位置が右眼側である場合には、ステップS3において、今回は、右眼観察モードにあると判定される。これに対し、表示ユニットの装着位置が観察者の左眼側である場合には、ステップS4において、今回は、左眼観察モードにあると判定される。   When this image display program is executed, first, in step S1, it is awaited that the viewer detects the mounting of the display unit 12 on the viewer's head based on the signal from the mounting detector 304. . If the mounting of the display unit 12 is detected, it is determined in step S2 based on the signal from the mounting position detection unit 306 whether the mounting position of the display unit 12 is on the right eye side of the observer. If the mounting position is on the right eye side, in step S3, it is determined that the current position is in the right eye observation mode. On the other hand, when the mounting position of the display unit is on the left eye side of the observer, in step S4, it is determined that the present time is in the left eye observation mode.

いずれの場合にも、その後、ステップS5において、位置検出部300および向き検出部302からの信号に基づき、観察者の位置および向きが検出される。次に、ステップS6において、それら検出された位置および向きと、観察者の視界範囲を幾何学的に特定するための情報(メモリ312に保存されている)とに基づき、前記オブジェクト検出範囲(図8においては、単に「検出範囲」で表す。)が算出される。   In either case, thereafter, in step S5, the position and orientation of the observer are detected based on the signals from the position detection unit 300 and the orientation detection unit 302. Next, in step S6, based on the detected position and orientation, and information for geometrically specifying the observer's view range (stored in the memory 312), the object detection range (FIG. 8 is simply expressed as “detection range”).

続いて、ステップS7において、観察者からのリクエストに応答して、前記コンテンツ関連情報と前記オブジェクト関連情報とがサーバ322から受信され、その受信された情報はメモリ312に保存される。その後、ステップS8において、前記算出されたオブジェクト検出範囲と、前記オブジェクト関連情報(各オブジェクトの3次元位置座標を含む)との関係に基づき、そのオブジェクト検出範囲に存在する複数のオブジェクトが検出される。   Subsequently, in step S 7, in response to a request from the observer, the content related information and the object related information are received from the server 322, and the received information is stored in the memory 312. Thereafter, in step S8, based on the relationship between the calculated object detection range and the object related information (including the three-dimensional position coordinates of each object), a plurality of objects existing in the object detection range are detected. .

続いて、ステップS9において、前記オブジェクト関連情報と、観察者の位置の検出値とに基づき、オブジェクト検出範囲内に存在する複数のオブジェクトのうち、観察者に最も近い位置に位置するものが注目オブジェクトとして推定される。図6に示す例においては、展示物BおよびCがオブジェクト検出範囲内に存在するが、それらのうち、展示物Bの方が展示物Cより、観察者に近いため、展示物Bが注目オブジェクトとして選択される。   Subsequently, in step S9, based on the object related information and the detected value of the observer's position, the object located at the position closest to the observer among the plurality of objects existing in the object detection range is the object of interest. Is estimated as In the example shown in FIG. 6, the exhibits B and C exist within the object detection range, but since the exhibit B is closer to the observer than the exhibit C, the exhibit B is the object of interest. Selected as.

その後、図8に示すステップS10において、前記コンテンツ関連情報によって表される複数の参照コンテンツのうち、前記推定された注目オブジェクトに対応するものが、今回、注目オブジェクトに関連付けて表示すべき参照コンテンツとして選択される。続いて、ステップS11において、今回の参照コンテンツの表示サイズが、予め定められている第1サイズに決定される。   After that, in step S10 shown in FIG. 8, among the plurality of reference contents represented by the content related information, the one corresponding to the estimated attention object is the reference content to be displayed in association with the attention object this time. Selected. Subsequently, in step S11, the display size of the current reference content is determined to be a predetermined first size.

その後、ステップS12において、観察者の位置および向きのそれぞれの検出値と、前記オブジェクト関連情報のうち注目オブジェクトに関連する部分(前記代表点の位置座標)とに基づき、表示ユニット12と注目オブジェクト(実物)の間の3次元方向における相対位置が算出され、それにより、観察者が注目オブジェクトを観察するときにその注目オブジェクトが前記画像表示面上に出現する位置が、その画像表示面に固定のローカル座標系を用いて定義される。   Thereafter, in step S12, the display unit 12 and the object of interest (positional coordinates (position coordinates of the representative point)) based on the detected values of the observer's position and orientation and the portion related to the object of interest (position coordinates of the representative point) of the object related information. Relative position in the three-dimensional direction between the real object and the position where the target object appears on the image display surface when the observer observes the target object is fixed on the image display surface. Defined using local coordinate system.

続いて、ステップS13において、観察者の位置の検出値と、前記オブジェクト関連情報のうち注目オブジェクトに関連する部分(前記代表点の位置座標と、オブジェクトの大きさを表すデータ)とに基づき、観察者の網膜の位置を共通頂点とする2つの相似三角形であって前記画像表示面を底辺とする小さい三角形と注目オブジェクト(実物)を底辺とする大きい三角形との間の相似関係に着目することにより、観察者が注目オブジェクトを前記画像表示面上において観察するときの注目オブジェクトの像(以下、単に「注目オブジェクトの像」という。)の大きさが算出される。   Subsequently, in step S13, based on the detected value of the position of the observer and the portion related to the object of interest in the object related information (position coordinates of the representative point and data representing the size of the object) By focusing on the similarity between two similar triangles having a common vertex at the position of the person's retina, and a small triangle having the image display surface as the base and a large triangle having the target object (the real object) as the base The size of the image of the object of interest (hereinafter simply referred to as “image of the object of interest”) when the observer observes the object of interest on the image display surface is calculated.

その後、ステップS14において、前記画像表示面上における参照コンテンツの表示位置(例えば、参照コンテンツに予め設定された代表点の位置や、参照コンテンツの幾何学的な中心点の位置)が、注目オブジェクトの像から、非観察眼から遠ざかる向きに外れた位置として算出される。   Thereafter, in step S14, the display position of the reference content on the image display surface (for example, the position of the representative point preset in the reference content or the position of the geometric center point of the reference content) It is calculated as a position deviated from the image in a direction away from the non-observing eye.

図7(a)に示す例においては、図7(b)に示すように、このステップS14が実行されると、参照コンテンツRCの垂直方向における表示位置Yconが、注目オブジェクトAの像の垂直方向位置Yobjと実質的に同じに決定され、また、参照コンテンツの水平方向における表示位置Xconが、前述のようにして算出された、前記画像表示面上における注目オブジェクトの像の水平方向位置Xobjと、前述のようにして算出された、前記画像表示面上における注目オブジェクトの像の大きさX1(無視される場合もある)と、前記画像表示面上において参照コンテンツの表示領域と注目オブジェクトの像との間に最低限確保すべき隙間の長さX2(メモリ312に固定値として保存されている)と、前記画像表示面上における参照コンテンツの表示サイズX3(無視される場合もある)とから、前記画像表示面上において参照コンテンツの像が注目オブジェクトの像と一切重複しないように形成されるように算出される。   In the example shown in FIG. 7A, as shown in FIG. 7B, when this step S14 is executed, the display position Ycon in the vertical direction of the reference content RC becomes the vertical direction of the image of the object of interest A. A horizontal position Xobj of the image of the object of interest on the image display surface, which is determined to be substantially the same as the position Jobj, and the display position Xcon of the reference content in the horizontal direction is calculated as described above, The image size X1 of the object of interest on the image display surface (which may be ignored) calculated as described above, the display area of the reference content and the image of the object of interest on the image display surface, The minimum gap length X2 (stored as a fixed value in the memory 312) and the reference on the image display surface Since (also if it is ignored) and the display size X3 of content is calculated as the image of the reference content on the image display surface is formed so as not to overlap any and image object of interest.

一例においては、図7(b)に示すように、参照コンテンツの水平方向における表示位置Xconが、
Xcon=Xobj−X1−X2−X3
なる式を用いて算出される。
In one example, as shown in FIG. 7B, the display position Xcon in the horizontal direction of the reference content is
Xcon = Xobj-X1-X2-X3
It is calculated using the following formula.

その後、図9に示すステップS15において、前記算出された表示位置に参照コンテンツを実際に表示することなく、参照コンテンツが前記複数のオブジェクトと一緒に表示される仮想的な表示状態が、例えば、ビットマップメモリ方式で計算される。続いて、ステップS16において、その仮想的な表示状態において、参照コンテンツの背後に別のオブジェクト(例えば、図7に示す例では、オブジェクトB)が存在するか否かが判定される。   Thereafter, in step S15 shown in FIG. 9, the virtual display state in which the reference content is displayed together with the plurality of objects without actually displaying the reference content at the calculated display position is, for example, bit Calculated using the map memory method. Subsequently, in step S16, it is determined whether or not another object (for example, object B in the example shown in FIG. 7) exists behind the reference content in the virtual display state.

参照コンテンツの背後に別のオブジェクトが存在しない場合には、直ちにステップS20に移行するが、存在する場合には、ステップS17ないしS19の実行によって参照コンテンツの表示位置が、できる限り他のオブジェクトの像と重複しないで参照コンテンツが表示されるように修正される。   If there is no other object behind the reference content, the process immediately proceeds to step S20, but if it exists, the display position of the reference content is set to an image of another object as much as possible by executing steps S17 to S19. It is modified so that the reference content is displayed without overlapping.

具体的には、ステップS17において、参照コンテンツの表示位置(ステップS14の実行によって算出されたもの)が、それより下方向に、移動量β(メモリ312に固定値として保存されている)で移動させられる。続いて、ステップS18において、そのようにして更新された仮想的な表示状態において、参照コンテンツの背後にさらに別のオブジェクト(例えば、図7に示す例では、オブジェクトC)が存在するか否かが判定される。   Specifically, in step S17, the display position of the reference content (calculated by executing step S14) is moved downward by a movement amount β (stored as a fixed value in the memory 312). Be made. Subsequently, in step S18, whether or not there is another object (for example, object C in the example shown in FIG. 7) behind the reference content in the virtual display state updated as described above. Determined.

参照コンテンツの背後にさらに別のオブジェクトが存在しない場合には、直ちにステップS20に移行するが、存在する場合には、ステップS19において、参照コンテンツの表示位置が、非観察眼に近づく向きに、移動量γ(メモリ312に固定値として保存されている)で移動させられる。その後、ステップS20に移行する。   If there is no other object behind the reference content, the process immediately proceeds to step S20, but if it exists, in step S19, the display position of the reference content is moved toward the non-observing eye. It is moved by an amount γ (stored as a fixed value in the memory 312). Thereafter, the process proceeds to step S20.

いずれの場合にも、ステップS20においては、前記仮想的な表示状態において、参照コンテンツが前記画像表示領域内にあるか否かが判定される。参照コンテンツが前記画像表示領域内にない場合には、ステップS21において、参照コンテンツを実際に表示することが禁止される。その後、ステップS25に移行する。   In any case, in step S20, it is determined whether or not the reference content is in the image display area in the virtual display state. If the reference content is not in the image display area, it is prohibited to actually display the reference content in step S21. Thereafter, the process proceeds to step S25.

これに対し、前記仮想的な表示状態において、参照コンテンツが前記画像表示領域内にある場合には、ステップS22において、前記仮想的な表示状態において、参照コンテンツの全体が前記画像表示領域内に存在するか否かが判定される。参照コンテンツの全体が前記画像表示領域内に存在する場合には、ステップS23において、参照コンテンツを変更なしの状態で表す画像データが作成され、その画像データに基づき、参照コンテンツが実際に表示される。   On the other hand, if the reference content is in the image display area in the virtual display state, in step S22, the entire reference content is present in the image display area in the virtual display state. It is determined whether or not to do so. If the entire reference content exists in the image display area, image data representing the reference content without change is created in step S23, and the reference content is actually displayed based on the image data. .

これに対して、参照コンテンツの全体が前記画像表示領域内に存在するわけではない場合、すなわち、参照コンテンツが一部欠落した状態で表示される場合には、ステップS24において、参照コンテンツを、編集された状態(例えば、前述のように、情報アイテム数が減少させられて表示サイズが縮小されるか、情報アイテム数はそのままにして表示サイズが縮小させられる状態)で表す画像データが作成され、その画像データに基づき、参照コンテンツが実際に表示される。その後、ステップS25に移行する。   On the other hand, when the entire reference content does not exist in the image display area, that is, when the reference content is displayed in a partially missing state, the reference content is edited in step S24. Image data is created in a state where the display size is reduced (for example, as described above, the display size is reduced by reducing the number of information items, or the display size is reduced without changing the number of information items), Based on the image data, the reference content is actually displayed. Thereafter, the process proceeds to step S25.

いずれの場合にも、その後、ステップS25において、装着検出部304からの信号に基づき、観察者が表示ユニット12を観察者頭部から取り外した動作が検出されたか否かが判定される。その取り外しが検出された場合には、この画像表示プログラムの実行が終了するが、その取り外しが検出されない場合には、ステップS5に戻る。   In any case, after that, in step S25, based on the signal from the attachment detection unit 304, it is determined whether or not the movement of the observer removing the display unit 12 from the observer head is detected. When the removal is detected, the execution of the image display program ends. When the removal is not detected, the process returns to step S5.

以上の説明から明らかなように、本実施形態によれば、単眼式かつ光学シースルー式を採用するHMD10において、観察者が観察している注目オブジェクトに関連する参照コンテンツが、その注目オブジェクトの像に位置的に関連付けて、かつ、その注目オブジェクトの像から、非観察眼から遠ざかる向きに外れた位置に表示される。例えば、図1に示す左眼観察モードにおいては、参照コンテンツが、注目オブジェクトの像から、観察者の非観察眼である右眼から遠ざかる向きに外れた位置に表示される。   As is clear from the above description, according to the present embodiment, in the HMD 10 adopting the monocular type and the optical see-through type, the reference content related to the target object observed by the observer becomes the image of the target object. It is displayed in a position that is associated with the position and deviated from the image of the object of interest away from the non-observed eye. For example, in the left eye observation mode shown in FIG. 1, the reference content is displayed at a position away from the image of the object of interest in a direction away from the right eye, which is the observer's non-observation eye.

したがって、本実施形態によれば、例えば左眼観察モードにおいては、参照コンテンツが、注目オブジェクトの像から、非観察眼である右眼に近づく向きに外れた位置に表示される場合とは異なり、観察眼が参照コンテンツを観察するときの観察者の視線が、右眼側に大きく傾斜し、その結果、その視線が、ハウジング200、特に、そのハウジング200の両端部のうち、観察者の右眼寄りの部分と交差したり、表示ユニット12において観察者の右眼寄りの位置に装着されているハーフミラー260と交差してしまう可能性が低くなる。   Therefore, according to the present embodiment, for example, in the left eye observation mode, the reference content is different from the case where the reference content is displayed at a position deviating from the image of the object of interest so as to approach the right eye that is the non-observation eye. The line of sight of the observer when the observing eye observes the reference content is greatly inclined to the right eye side. As a result, the line of sight is the right side of the observer in the housing 200, particularly, at both ends of the housing 200. The possibility of intersecting with the near part or the half mirror 260 mounted on the display unit 12 at a position near the right eye of the observer is reduced.

また、左眼観察モードであると右眼観察モードであるとを問わず、参照コンテンツを、注目コンテンツの像から、右眼から遠ざかる向きに外れた位置に表示した場合には、左眼観察モードの実行時には、観察者は参照コンテンツを高い視認性で観察できるが、右眼観察モードの実行時には、観察者は参照コンテンツを高い視認性で観察できないというように、視認性に左右差が発生してしまう。   Regardless of the left-eye observation mode or the right-eye observation mode, when the reference content is displayed at a position away from the image of the target content in a direction away from the right eye, the left-eye observation mode is used. The viewer can observe the reference content with high visibility, but the right-eye observation mode causes a left-right difference in visibility so that the viewer cannot observe the reference content with high visibility. End up.

これに対して、本実施形態によれば、左眼観察モードであるか右眼観察モードであるかに応じて、参照コンテンツの、注目コンテンツの像に対する相対位置が幾何対称的に切り換えられるため、観察者は、左眼観察モードであると右眼観察モードであるとを問わず、参照コンテンツを高い視認性で観察できる。   On the other hand, according to the present embodiment, the relative position of the reference content with respect to the image of the content of interest is switched geometrically depending on whether the left-eye observation mode or the right-eye observation mode. The observer can observe the reference content with high visibility regardless of the left-eye observation mode or the right-eye observation mode.

さらに、本実施形態によれば、観察者の視界内に複数のオブジェクトが存在する場合に、観察者の姿勢(眼の動きを含む)に関する情報や、それらオブジェクトの、表示ユニット12に対する相対位置に関する情報などに基づき、それらオブジェクトのうちのいずれかが注目オブジェクトして抽出され、その注目オブジェクトのみに関連して、参照コンテンツが表示される。   Further, according to the present embodiment, when there are a plurality of objects in the field of view of the observer, information regarding the posture of the observer (including eye movement) and the relative position of these objects with respect to the display unit 12 are described. Based on the information or the like, one of these objects is extracted as a target object, and the reference content is displayed only in relation to the target object.

したがって、本実施形態によれば、観察者の視界内に複数のオブジェクトが存在する場合であっても、表示される参照コンテンツは1つのみであるため、記画像表示領域内に複数のオブジェクトが互いに接近した状態で存在するために、前記画像表示領域内に存在する空きスペースが狭い場合であっても、その狭い空きスペース内に、観察者にとって本当に必要であると推定される参照コンテンツを表示することが容易となる。   Therefore, according to the present embodiment, even when there are a plurality of objects in the field of view of the observer, only one reference content is displayed, and thus there are a plurality of objects in the recording image display area. Reference content that is estimated to be really necessary for the viewer is displayed in the narrow empty space even if the empty space existing in the image display area is narrow because the images are close to each other. Easy to do.

さらに、本実施形態によれば、前記画像表示領域内に複数のオブジェクトが存在する場合に、注目オブジェクトに対応する参照コンテンツが、できる限り、いずれのオブジェクトとも重複しないように、その参照コンテンツの表示位置が決定される。参照コンテンツの表示位置が、その参照コンテンツに関連する注目オブジェクトの像の位置のみ考慮し、その像と重複しないように決定されるのではなく、注目オブジェクトの像によって邪魔されることがないのはもちろん、その参照コンテンツの周囲に存在する別の複数のオブジェクトの像の位置も考慮され、いずれのオブジェクトの像とも重複しないように参照コンテンツの表示位置が決定される。よって、観察者は、参照コンテンツを、それに関連する注目オブジェクトの像によって邪魔されることがないのはもちろん、その参照コンテンツの周囲に存在する別の複数のオブジェクトの像によって邪魔されることもなく、観察することが可能となり、このことによっても、参照コンテンツの視認性が向上する。   Further, according to the present embodiment, when there are a plurality of objects in the image display area, the reference content is displayed so that the reference content corresponding to the object of interest does not overlap with any object as much as possible. The position is determined. The display position of the reference content is not determined so as not to overlap with the image of the target object related to the reference content, and is not disturbed by the target object image. Of course, the position of the image of another object existing around the reference content is also considered, and the display position of the reference content is determined so as not to overlap with the image of any object. Thus, the observer is not disturbed by the image of the object of interest associated with the reference content, nor is it obstructed by the image of other objects existing around the reference content. It becomes possible to observe, and this also improves the visibility of the reference content.

以上の説明から明らかなように、本実施形態においては、説明の便宜上、図8におけるステップS1ないしS4が、前記検出工程の一例を構成し、同図におけるステップS5ないしS9が、前記注目オブジェクト推定工程の一例を構成し、また、同図におけるステップS10が、前記参照コンテンツ選択工程の一例を構成し、また、同図におけるステップS12ないしS14が、前記第1表示位置決定工程の一例を構成し、また、図9におけるステップS15ないしS17が、前記第2表示位置決定工程の一例を構成していると考えることが可能である。   As is apparent from the above description, in this embodiment, for the sake of convenience of explanation, steps S1 to S4 in FIG. 8 constitute an example of the detection step, and steps S5 to S9 in FIG. Step S10 in the figure constitutes an example of the reference content selection step, and steps S12 to S14 in the figure constitute an example of the first display position determination step. Further, it can be considered that steps S15 to S17 in FIG. 9 constitute an example of the second display position determining step.

以上、本発明のいくつかの実施形態を図面に基づいて詳細に説明したが、これらは例示であり、前記[発明の概要]の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As mentioned above, although several embodiment of this invention was described in detail based on drawing, these are illustrations and are based on the knowledge of those skilled in the art including the aspect as described in the above-mentioned [summary of invention] column. The present invention can be implemented in other forms with various modifications and improvements.

例えば、図9に示す実施形態においては、参照コンテンツの表示位置が、注目オブジェクトの位置に対して右眼側であるかまたは左眼側であるように自動的に決定された後、ステップS17ないしS19の実行により、その決定された表示位置(最初に自動的に決定された表示位置)が、参照コンテンツが別のオブジェクトと重複しないように、必要に応じて、観察者の介入なしで自動的に修正される。    For example, in the embodiment shown in FIG. 9, after the display position of the reference content is automatically determined so as to be on the right eye side or the left eye side with respect to the position of the target object, steps S17 to S17 are performed. By executing S19, the determined display position (the first automatically determined display position) is automatically performed without the intervention of the observer as necessary so that the reference content does not overlap with another object. To be corrected.

これに対し、別の実施形態においては、前記最初に自動的に決定された表示位置の修正が手動で行われる。一例においては、ステップS15に相当するステップにおいて、参照コンテンツが、図8に示すステップS12ないしS14の実行によって算出された表示位置に実際に表示される。その後、ステップS16に相当するステップにおいて、参照コンテンツの背後に別のオブジェクト(例えば、図7に示す例では、オブジェクトB)が存在すると判定された場合に、観察者からの入力を受け付けることで、参照コンテンツの表示位置が変更可能となる。   On the other hand, in another embodiment, the correction of the display position determined automatically first is performed manually. In one example, in the step corresponding to step S15, the reference content is actually displayed at the display position calculated by executing steps S12 to S14 shown in FIG. After that, in a step corresponding to step S16, when it is determined that another object (for example, object B in the example shown in FIG. 7) exists behind the reference content, by receiving an input from the observer, The display position of the reference content can be changed.

この入力受付のために、例えば、参照コンテンツの表示位置の変更の催促(例えば、視覚的、聴覚的または触覚的な指示)が観察者に対して行われ、その催促に対して、観察者が入力(例えば、図示しない物理的な操作部(例えば、キー)または仮想的な操作部(例えば、アイコン)に対する操作や、音声入力など)を行うと、その入力に基づいて、参照コンテンツの表示位置が変更される。このようにすれば、参照コンテンツの背後に別のオブジェクトが存在する場合に、観察者は参照コンテンツを配置する場所を自由に選択できる。   In order to accept this input, for example, the viewer is prompted to change the display position of the reference content (for example, a visual, auditory or tactile instruction). When an input (for example, an operation on a physical operation unit (for example, a key) or a virtual operation unit (for example, an icon) (not shown) or voice input is performed), the display position of the reference content is based on the input. Is changed. In this way, when another object exists behind the reference content, the observer can freely select a place where the reference content is arranged.

Claims (7)

観察者の頭部に装着された状態で、観察者の片眼である観察眼に画像光を投射することによって観察者に画像を表示し、それにより、対象空間内の少なくとも1つのオブジェクトと少なくとも1つの参照コンテンツとを互いに関連付けて観察者が観察することを可能にするヘッドマウントディスプレイであって、
観察眼が観察者の左眼および右眼のうちのいずれであるかを判定する判定部と、
その判定部の判定結果に基づき、当該ヘッドマウントディスプレイの画像表示面上において、前記少なくとも1つの参照コンテンツを、観察者が観察する前記少なくとも1つのオブジェクトの像から、観察者の両眼のうち観察眼ではない非観察眼から遠ざかる第1方向に外れた位置に表示する表示制御部と
を含むヘッドマウントディスプレイ。
An image is displayed to the observer by projecting image light onto an observation eye that is one eye of the observer in a state of being attached to the head of the observer, thereby at least one object in the target space and at least A head-mounted display that allows an observer to view one reference content in relation to each other,
A determination unit for determining whether the observation eye is the left eye or the right eye of the observer;
Based on the determination result of the determination unit, on the image display surface of the head mounted display, the at least one reference content is observed from the image of the at least one object that the observer observes among the eyes of the observer. And a display control unit for displaying at a position deviated in a first direction away from a non-observing eye that is not an eye.
前記少なくとも1つのオブジェクトは、観察眼の位置および向きに対して相対的に決まる観察者の視界内に存在する複数のオブジェクトを含み、
当該ヘッドマウントディスプレイは、さらに、
観察者の姿勢に関する情報と前記複数のオブジェクトの位置に関する情報とのうちの少なくとも一方に基づき、前記複数のオブジェクトのうちのいずれかを、観察者が実質的に最も強く注目している注目オブジェクトとして推定する注目オブジェクト推定部と、
当該ヘッドマウントディスプレイが表示可能な複数の参照コンテンツの中から、前記推定された注目オブジェクトに対応する参照コンテンツを選択する参照コンテンツ選択部と、
観察眼の位置についての検出結果に基づき、前記選択された参照コンテンツの表示位置を、観察者が観察する前記注目オブジェクトの像から、前記第1方向に外れた位置に決定する第1表示位置決定部と、
前記参照コンテンツを、前記決定された表示位置に表示すると、その参照コンテンツが、前記複数のオブジェクトのうち、前記注目オブジェクトを除く少なくとも1つの非注目オブジェクトの像と重複して表示される可能性がある場合に、前記表示位置を、前記少なくとも1つの非注目オブジェクトの像から、前記第1方向に対して交差するように予め定められた第2方向に外れた位置に変更する第2表示位置決定部と
を含む請求項1に記載のヘッドマウントディスプレイ。
The at least one object includes a plurality of objects existing in an observer's field of view determined relative to the position and orientation of the observation eye;
The head mounted display further includes
Based on at least one of the information related to the posture of the observer and the information related to the positions of the plurality of objects, any one of the plurality of objects is regarded as the attention object that the observer is substantially most interested in. A target object estimation unit to be estimated;
A reference content selection unit that selects a reference content corresponding to the estimated object of interest from among a plurality of reference content that can be displayed by the head mounted display;
First display position determination for determining the display position of the selected reference content based on the detection result of the position of the observation eye to a position deviating from the image of the object of interest observed by the observer in the first direction. And
When the reference content is displayed at the determined display position, there is a possibility that the reference content is displayed overlapping with an image of at least one non-attention object excluding the attention object among the plurality of objects. In some cases, a second display position determination is made to change the display position from the image of the at least one non-attention object to a position deviating in a second direction predetermined so as to intersect the first direction. The head mounted display according to claim 1, comprising:
前記少なくとも1つのオブジェクトは、観察眼の位置および向きに対して相対的に決まる視界内に存在する複数のオブジェクトを含み、
当該ヘッドマウントディスプレイは、さらに、
前記参照コンテンツの表示サイズを、予め定められた第1サイズに決定する第1表示サイズ決定部と、
前記参照コンテンツを前記第1サイズで表示すると、前記参照コンテンツの一部が、当該ヘッドマウントディスプレイの使用中に観察者が視認する画像表示領域内に表示されない可能性がある場合に、前記参照コンテンツの表示サイズを、前記第1サイズより小さいように予め定められた第2サイズに変更する第2表示サイズ決定部と
を含む請求項1または2に記載のヘッドマウントディスプレイ。
The at least one object includes a plurality of objects existing in a field of view that is determined relative to the position and orientation of the observation eye,
The head mounted display further includes
A first display size determining unit that determines a display size of the reference content to a predetermined first size;
When the reference content is displayed in the first size, there is a possibility that a part of the reference content may not be displayed in the image display area visually recognized by the observer during use of the head mounted display. The head-mounted display according to claim 1, further comprising: a second display size determining unit that changes a display size of the second display size to a predetermined second size so as to be smaller than the first size.
観察者の頭部に装着された状態で、観察者の片眼である観察眼に画像光を投射することによって観察者に画像を表示し、それにより、対象空間内の少なくとも1つのオブジェクトと少なくとも1つの参照コンテンツとを互いに関連付けて観察者が観察することを可能にするヘッドマウントディスプレイを作動させる方法であって、
観察眼が観察者の左眼および右眼のうちのいずれであるかを判定する判定工程と、
その判定工程での判定結果に基づき、前記ヘッドマウントディスプレイの画像表示面上において、前記少なくとも1つの参照コンテンツを、観察者が観察する前記少なくとも1つのオブジェクトの像から、観察者の両眼のうち観察眼ではない非観察眼から遠ざかる第1方向に外れた位置に表示する表示制御工程と
を含む方法。
An image is displayed to the observer by projecting image light onto an observation eye that is one eye of the observer in a state of being attached to the head of the observer, thereby at least one object in the target space and at least A method of operating a head mounted display that allows a viewer to view a reference content in association with each other, comprising:
A determination step of determining whether the observation eye is the left eye or the right eye of the observer;
Based on the determination result in the determination step, on the image display surface of the head-mounted display, the at least one reference content is extracted from the image of the at least one object that the observer observes. A display control step of displaying at a position deviating in the first direction away from the non-observing eye that is not the observing eye.
前記少なくとも1つのオブジェクトは、観察眼の位置および向きに対して相対的に決まる視界内に存在する複数のオブジェクトを含み、
当該方法は、さらに、
前記複数のオブジェクトのうちのいずれかを、観察者が実質的に最も強く注目している注目オブジェクトとして推定する注目オブジェクト推定工程と、
前記ヘッドマウントディスプレイが表示可能な複数の参照コンテンツの中から、前記推定された注目オブジェクトに対応する参照コンテンツを選択する参照コンテンツ選択工程と、
観察眼の位置についての検出結果に基づき、前記選択された参照コンテンツの表示位置を、観察者が観察する前記注目オブジェクトの像から、前記第1方向に外れた位置に決定する第1表示位置決定工程と、
前記参照コンテンツを、前記決定された表示位置に表示すると、その参照コンテンツが、前記複数のオブジェクトのうち、前記注目オブジェクトを除く少なくとも1つの非注目オブジェクトの像と重複して表示される可能性がある場合に、前記表示位置を、前記少なくとも1つの非注目オブジェクトの像から、前記第1方向に対して交差するように予め定められた第2方向に外れた位置に変更する第2表示位置決定工程と
を含む請求項4に記載の方法。
The at least one object includes a plurality of objects existing in a field of view that is determined relative to the position and orientation of the observation eye,
The method further includes:
A target object estimation step of estimating any one of the plurality of objects as a target object that the observer is substantially most interested in;
A reference content selection step of selecting a reference content corresponding to the estimated object of interest from among a plurality of reference contents that can be displayed by the head mounted display;
First display position determination for determining the display position of the selected reference content based on the detection result of the position of the observation eye to a position deviating from the image of the object of interest observed by the observer in the first direction. Process,
When the reference content is displayed at the determined display position, there is a possibility that the reference content is displayed overlapping with an image of at least one non-attention object excluding the attention object among the plurality of objects. In some cases, a second display position determination is made to change the display position from the image of the at least one non-attention object to a position deviating in a second direction predetermined so as to intersect the first direction. The method according to claim 4, comprising the steps of:
請求項4または5に記載の方法を実行するためにコンピュータによって実行されるプログラム。   A program executed by a computer to execute the method according to claim 4 or 5. 現実外界に存在するオブジェクトに関連する参照コンテンツを示す画像光と、前記現実外界の像を示す外界光とを重畳して出射可能に構成され、観察者の頭部に装着可能な表示ユニットと、
その表示ユニットの位置を取得可能な位置取得部と、
前記表示ユニットの向きを取得可能な向き取得部と、
前記表示ユニットが観察者によって装着された場合に、前記表示ユニットの装着位置を取得可能な装着位置取得部と、
前記表示ユニットの作動を制御する制御部と
を含み、
その制御部は、
前記取得された表示ユニットの位置および向きに基づき、前記オブジェクトに関連する前記参照コンテンツを取得可能なコンテンツ取得手段と、
前記装着位置取得部の取得結果に基づき、前記表示ユニットが観察者の両眼のうちのいずれの眼の側に装着されたかを判定する判定手段と、
前記取得された参照コンテンツの表示位置を決定する決定手段と
を有し、
その決定手段は、前記取得された参照コンテンツに関連する前記オブジェクトが観察されるオブジェクト観察位置に位置的に関連付けられるとともに、前記オブジェクト観察位置から、前記判定手段によって判定された眼の側にずれた位置を、前記参照コンテンツの表示位置として決定するヘッドマウントディスプレイ。
A display unit configured to be able to emit by superimposing image light indicating reference content related to an object existing in the real external environment and external light indicating an image of the real external environment, and a display unit that can be mounted on the head of an observer;
A position acquisition unit capable of acquiring the position of the display unit;
An orientation acquisition unit capable of acquiring the orientation of the display unit;
A mounting position acquisition unit capable of acquiring a mounting position of the display unit when the display unit is mounted by an observer;
A control unit for controlling the operation of the display unit,
Its control part is
Content acquisition means capable of acquiring the reference content related to the object based on the acquired position and orientation of the display unit;
Based on the acquisition result of the mounting position acquisition unit, a determination unit that determines on which side of the eyes of the observer the display unit is mounted;
Determining means for determining a display position of the acquired reference content;
The determination means is positionally associated with the object observation position at which the object related to the acquired reference content is observed, and shifted from the object observation position toward the eye determined by the determination means A head-mounted display that determines a position as a display position of the reference content.
JP2012217209A 2012-09-28 2012-09-28 Head mounted display, method and program for operating the same Expired - Fee Related JP6020009B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012217209A JP6020009B2 (en) 2012-09-28 2012-09-28 Head mounted display, method and program for operating the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012217209A JP6020009B2 (en) 2012-09-28 2012-09-28 Head mounted display, method and program for operating the same

Publications (2)

Publication Number Publication Date
JP2014071277A true JP2014071277A (en) 2014-04-21
JP6020009B2 JP6020009B2 (en) 2016-11-02

Family

ID=50746536

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012217209A Expired - Fee Related JP6020009B2 (en) 2012-09-28 2012-09-28 Head mounted display, method and program for operating the same

Country Status (1)

Country Link
JP (1) JP6020009B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017094450A (en) * 2015-11-25 2017-06-01 株式会社デンソーウェーブ Robot safety system
CN106808496A (en) * 2015-11-25 2017-06-09 电装波动株式会社 Robot security's system
US10048502B2 (en) 2015-10-30 2018-08-14 Seiko Epson Corporation Head mount display
US10308797B2 (en) 2015-10-06 2019-06-04 Borealis Ag Polypropylene compositions for automotive applications
JP2021067899A (en) * 2019-10-28 2021-04-30 株式会社日立製作所 Head-mounted type display device and display content control method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344617A (en) * 2000-03-31 2001-12-14 Hitachi Zosen Corp Composite reality realizing system
JP2004233776A (en) * 2003-01-31 2004-08-19 Nikon Corp Head-mounted display
JP2009140125A (en) * 2007-12-05 2009-06-25 National Institute Of Advanced Industrial & Technology Information presentation device
JP2010211662A (en) * 2009-03-12 2010-09-24 Brother Ind Ltd Head mounted display device, method and program for controlling image
JP2010237522A (en) * 2009-03-31 2010-10-21 Brother Ind Ltd Image presentation system, and head-mounted display used for the image presentation system
JP2012120067A (en) * 2010-12-03 2012-06-21 Brother Ind Ltd See-through type image display apparatus and see-through type image display method
JP2012118421A (en) * 2010-12-03 2012-06-21 Brother Ind Ltd Image display device and image display method
JP2013174730A (en) * 2012-02-24 2013-09-05 Nikon Corp Information display device
JP2013174729A (en) * 2012-02-24 2013-09-05 Nikon Corp Information display device, and information display method
JP2014068096A (en) * 2012-09-25 2014-04-17 Seiko Epson Corp Head-mounted display device and control method of head-mounted display device
JP2014071663A (en) * 2012-09-28 2014-04-21 Brother Ind Ltd Head-mounted display, method of actuating the same and program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344617A (en) * 2000-03-31 2001-12-14 Hitachi Zosen Corp Composite reality realizing system
JP2004233776A (en) * 2003-01-31 2004-08-19 Nikon Corp Head-mounted display
JP2009140125A (en) * 2007-12-05 2009-06-25 National Institute Of Advanced Industrial & Technology Information presentation device
JP2010211662A (en) * 2009-03-12 2010-09-24 Brother Ind Ltd Head mounted display device, method and program for controlling image
JP2010237522A (en) * 2009-03-31 2010-10-21 Brother Ind Ltd Image presentation system, and head-mounted display used for the image presentation system
JP2012120067A (en) * 2010-12-03 2012-06-21 Brother Ind Ltd See-through type image display apparatus and see-through type image display method
JP2012118421A (en) * 2010-12-03 2012-06-21 Brother Ind Ltd Image display device and image display method
JP2013174730A (en) * 2012-02-24 2013-09-05 Nikon Corp Information display device
JP2013174729A (en) * 2012-02-24 2013-09-05 Nikon Corp Information display device, and information display method
JP2014068096A (en) * 2012-09-25 2014-04-17 Seiko Epson Corp Head-mounted display device and control method of head-mounted display device
JP2014071663A (en) * 2012-09-28 2014-04-21 Brother Ind Ltd Head-mounted display, method of actuating the same and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10308797B2 (en) 2015-10-06 2019-06-04 Borealis Ag Polypropylene compositions for automotive applications
US10048502B2 (en) 2015-10-30 2018-08-14 Seiko Epson Corporation Head mount display
JP2017094450A (en) * 2015-11-25 2017-06-01 株式会社デンソーウェーブ Robot safety system
CN106808496A (en) * 2015-11-25 2017-06-09 电装波动株式会社 Robot security's system
JP2021067899A (en) * 2019-10-28 2021-04-30 株式会社日立製作所 Head-mounted type display device and display content control method
WO2021084884A1 (en) * 2019-10-28 2021-05-06 株式会社日立製作所 Head-mounted display device and display content control method
CN114556187A (en) * 2019-10-28 2022-05-27 株式会社日立制作所 Head-mounted display device and display content control method
US20230221794A1 (en) * 2019-10-28 2023-07-13 Hitachi, Ltd. Head mounted display device and display content control method
CN114556187B (en) * 2019-10-28 2024-02-09 株式会社日立制作所 Head mounted display device and display content control method

Also Published As

Publication number Publication date
JP6020009B2 (en) 2016-11-02

Similar Documents

Publication Publication Date Title
US20220366598A1 (en) Calibration system and method to align a 3d virtual scene and a 3d real world for a stereoscopic head-mounted display
KR101862499B1 (en) Viewpoint detecting system, point of gaze determining method and point of gaze determining program
CN110022470B (en) Method and system for training object detection algorithm using composite image and storage medium
JP6007712B2 (en) Head mounted display, method and program for operating the same
US9934614B2 (en) Fixed size augmented reality objects
US9741167B1 (en) Method and system for providing an image of a virtual space to a head mounted display
US20160307374A1 (en) Method and system for providing information associated with a view of a real environment superimposed with a virtual object
JP6619871B2 (en) Shared reality content sharing
US20160210785A1 (en) Augmented reality system and method for positioning and mapping
JP6558839B2 (en) Intermediary reality
JP6134019B1 (en) Virtual reality space providing method and virtual reality space providing program
JP6020009B2 (en) Head mounted display, method and program for operating the same
JP2015114757A (en) Information processing apparatus, information processing method, and program
US20190318201A1 (en) Methods and systems for shape based training for an object detection algorithm
JP6349660B2 (en) Image display device, image display method, and image display program
TWI453462B (en) Telescopic observation for virtual reality system and method thereof using intelligent electronic device
KR20200056721A (en) Method and apparatus for measuring optical properties of augmented reality device
KR20220022340A (en) Device and method to visualize content
JP6509101B2 (en) Image display apparatus, program and method for displaying an object on a spectacle-like optical see-through type binocular display
US20180158242A1 (en) Information processing method and program for executing the information processing method on computer
JP2013120347A (en) Image display system and image display method
US20210208390A1 (en) Inertial measurement unit signal based image reprojection
JPWO2017191703A1 (en) Image processing device
JP5868055B2 (en) Image processing apparatus and image processing method
WO2022172335A1 (en) Virtual guide display device, virtual guide display system, and virtual guide display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160329

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160919

R150 Certificate of patent or registration of utility model

Ref document number: 6020009

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees