JP5375481B2 - Head mounted display - Google Patents

Head mounted display Download PDF

Info

Publication number
JP5375481B2
JP5375481B2 JP2009218484A JP2009218484A JP5375481B2 JP 5375481 B2 JP5375481 B2 JP 5375481B2 JP 2009218484 A JP2009218484 A JP 2009218484A JP 2009218484 A JP2009218484 A JP 2009218484A JP 5375481 B2 JP5375481 B2 JP 5375481B2
Authority
JP
Japan
Prior art keywords
image
content image
content
display effect
external
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009218484A
Other languages
Japanese (ja)
Other versions
JP2011069849A (en
Inventor
真史 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2009218484A priority Critical patent/JP5375481B2/en
Publication of JP2011069849A publication Critical patent/JP2011069849A/en
Application granted granted Critical
Publication of JP5375481B2 publication Critical patent/JP5375481B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、ユーザの眼にコンテンツデータによって示されるコンテンツ画像を視認可能に提示するシースルー型のヘッドマウントディスプレイに関するものである。   The present invention relates to a see-through type head mounted display that presents a content image indicated by content data to a user's eye so as to be visible.

従来から、ユーザの眼にコンテンツデータにより示されるコンテンツ画像を視認可能に提示するシースルー型のヘッドマウントディスプレイに関する技術が提案されている。例えば、画像を表示する透光型の液晶表示パネルを有し、これが目の直前にくるように頭部に装着されるめがね部を持つヘッドマウント型のAV装置と、各作業過程の作業対象物を象って予め作成された各種アニメーション画像を記憶する記憶部と、各作業過程の順番に従って、AV装置を装着する装着者によって液晶表示パネルを通して視認される作業対象物そのものに対して、記憶部に記憶された対応するアニメーション画像が重なるように、そのアニメーション画像を液晶表示パネルに表示するアニメーション表示処理機能とを備え、各作業過程の順番に従って、アニメーション画像を液晶表示パネルに表示することにより、作業対象物に対して行われるべき作業内容を装着者に示すようにした技術が提案されている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a technique related to a see-through type head mounted display that presents a content image indicated by content data to a user's eye so as to be visible is proposed. For example, a head-mounted AV device having a translucent liquid crystal display panel for displaying an image and having a spectacle portion mounted on the head so that the panel comes in front of the eyes, and a work object in each work process A storage unit for storing various animation images created in advance in the form of an image, and a storage unit for a work object itself visually recognized through a liquid crystal display panel by a wearer wearing the AV device according to the order of each work process And an animation display processing function for displaying the animation image on the liquid crystal display panel so that the corresponding animation images stored in the screen overlap, and by displaying the animation image on the liquid crystal display panel according to the order of each work process, Techniques have been proposed in which the work content to be performed on the work object is shown to the wearer (for example, patent documents) Reference 1).

特開2004−21931号公報JP 2004-21931 A

ところで、シースルー型のヘッドマウントディスプレイでは、外界像の上に重ねてコンテンツ画像が提示されるため、ユーザが外界像と区別してコンテンツ画像を視認し、認識することが困難となる場合がある。例えば、特許文献1のように、作業内容を表示するなどの作業支援にヘッドマウントディスプレイが用いられる場合、ユーザ(作業者)の注意がコンテンツ画像に常に向けられているわけではない。ユーザは、コンテンツ画像より作業対象物および/またはその周囲などに十分注意を向ける必要がある。そのため、ユーザにとって、コンテンツ画像と外界像とを区別して視認することが困難となることがあった。このような状態は、コンテンツ画像である部品の画像を実物と勘違いさせ、手を伸ばしても触ることができないなど、作業効率を低下させまたはユーザを困惑させる可能性があった。特に背景が暗い場合、部品が外界の中に存在するように見えてしまう。   By the way, in a see-through type head-mounted display, a content image is presented on an external image so that it is difficult for a user to visually recognize and recognize the content image separately from the external image. For example, when a head-mounted display is used for work support such as displaying work contents as in Patent Document 1, the user's (worker) 's attention is not always directed to the content image. The user needs to pay sufficient attention to the work object and / or its surroundings from the content image. For this reason, it may be difficult for the user to distinguish and visually recognize the content image and the external image. In such a state, an image of a part, which is a content image, may be mistaken for an actual product and may not be touched even if the hand is stretched out, which may reduce work efficiency or confuse the user. Especially when the background is dark, the parts appear to be in the outside world.

本発明は、ユーザが外界像と区別してコンテンツ画像を視認し易いシースルー型のヘッドマウントディスプレイを提供することを目的とする。   It is an object of the present invention to provide a see-through type head mounted display that allows a user to easily distinguish a content image from an external image.

上記従来の課題に鑑みなされた本発明は、コンテンツデータによって示されるコンテンツ画像をユーザの眼に視認可能に提示し、コンテンツ画像を視認しているユーザが外界像をこのコンテンツ画像と重ねて視認できるシースルー型のヘッドマウントディスプレイであって、コンテンツ画像と外界像とが類似している場合、このコンテンツ画像に表示効果を付加し、表示効果が付加されたコンテンツ画像を、ユーザの眼に提示することとしたものである。   The present invention made in view of the above conventional problems presents a content image indicated by content data so as to be visible to the user's eyes, and allows a user viewing the content image to visually recognize the external image superimposed on the content image. In a see-through type head mounted display, when the content image and the external image are similar, a display effect is added to the content image, and the content image with the display effect added is presented to the user's eyes It is what.

本発明を反映した第1の課題解決手段は、コンテンツデータによって示されるコンテンツ画像をユーザの眼に視認可能に提示し、前記コンテンツ画像を視認しているユーザが外界像を前記コンテンツ画像と重ねて視認できるシースルー型のヘッドマウントディスプレイであって、前記コンテンツ画像と前記外界像との類似について判断する判断手段と、前記判断手段によって前記コンテンツ画像と前記外界像とが類似すると判断された場合、前記コンテンツデータに対して画像処理を実行し、前記コンテンツ画像に表示効果を付加する表示効果付加手段と、前記表示効果付加手段によって前記表示効果が付加された前記コンテンツ画像を、前記ユーザの眼に提示するコンテンツ画像提示手段とを備えることを特徴とするヘッドマウントディスプレイである。これによれば、コンテンツ画像と外界像とが類似する場合に、表示効果を付加したコンテンツ画像をユーザの眼に提示することができる。   A first problem-solving means reflecting the present invention presents a content image indicated by content data so as to be visible to a user's eyes, and a user viewing the content image superimposes an external image on the content image. A see-through type head-mounted display that can be visually recognized; when the determination unit determines that the content image and the external image are similar, and the determination unit determines that the content image and the external image are similar, Image processing is performed on the content data, and a display effect adding means for adding a display effect to the content image, and the content image to which the display effect is added by the display effect adding means are presented to the eyes of the user And a content image presenting means for performing the operation. It is an example. According to this, when the content image and the external image are similar, the content image to which the display effect is added can be presented to the user's eyes.

第2の課題解決手段は、第1の課題解決手段のヘッドマウントディスプレイであって、前記外界像を撮像する撮像手段を備え、前記判断手段は、前記コンテンツ画像と、前記撮像手段によって撮像された前記外界像との類似について判断することを特徴とする。これによれば、撮像手段によって撮像された外界像を対象として、コンテンツ画像と外界像との類似を判断することができる。   The second problem solving means is a head-mounted display of the first problem solving means, and includes an imaging means for capturing the external image, and the determination means is captured by the content image and the imaging means. The similarity with the external image is judged. According to this, the similarity between the content image and the external image can be determined for the external image captured by the imaging unit.

第3の課題解決手段は、第1または第2の課題解決手段のヘッドマウントディスプレイであって、前記表示効果付加手段は、前記コンテンツ画像提示手段が前記コンテンツ画像を提示する範囲を囲む枠を、前記表示効果として付加することを特徴とする。これによれば、ユーザに、コンテンツ画像が提示されている範囲を好適に視認(認識)させることができる。   The third problem solving means is the head-mounted display of the first or second problem solving means, and the display effect adding means includes a frame surrounding a range in which the content image presenting means presents the content image, It is added as the display effect. According to this, it is possible for the user to appropriately view (recognize) the range in which the content image is presented.

第4の課題解決手段は、第1または第2の課題解決手段のヘッドマウントディスプレイであって、前記表示効果付加手段は、前記コンテンツ画像に含まれる第1オブジェクトを囲む枠を、前記第1オブジェクトに前記表示効果として付加することを特徴とする。これによれば、ユーザに、コンテンツ画像に含まれる第1オブジェクトを好適に視認(認識)させることができる。   The fourth problem solving means is the head-mounted display of the first or second problem solving means, wherein the display effect adding means includes a frame surrounding the first object included in the content image as the first object. The display effect is added to the above. According to this, it is possible for the user to appropriately view (recognize) the first object included in the content image.

第5の課題解決手段は、第4の課題解決手段のヘッドマウントディスプレイであって、前記判断手段は、前記第1オブジェクトと前記外界像に含まれる第2オブジェクトとを比較して、前記コンテンツ画像と前記外界像との類似について判断し、前記表示効果付加手段は、前記枠を、前記判断手段によって前記第2オブジェクトに類似すると判断された前記第1オブジェクトにのみ前記表示効果として付加することを特徴とする。これによれば、外界像に含まれる第2オブジェクトに類似する、コンテンツ画像に含まれる第1オブジェクトに対して、表示効果としての枠を付加することができる。換言すれば、外界像との区別がつき難いコンテンツ画像の部分(第1オブジェクト)にのみ、表示効果としての枠を付加することができる。   A fifth problem solving means is the head mounted display of the fourth problem solving means, wherein the determination means compares the first object with a second object included in the external image, and the content image The display effect adding means adds the frame as the display effect only to the first object determined to be similar to the second object by the determining means. Features. According to this, it is possible to add a frame as a display effect to the first object included in the content image that is similar to the second object included in the external image. In other words, a frame as a display effect can be added only to the part of the content image (first object) that is difficult to distinguish from the external image.

第6の課題解決手段は、第1または第2の課題解決手段のヘッドマウントディスプレイであって、前記表示効果付加手段は、前記コンテンツ画像の色を変化させて、前記コンテンツ画像に前記表示効果を付加することを特徴とする。これによれば、ユーザに、コンテンツ画像の範囲を認識させることができる。   The sixth problem solving means is the head-mounted display of the first or second problem solving means, and the display effect adding means changes the color of the content image to give the display effect to the content image. It is characterized by adding. According to this, the range of the content image can be recognized by the user.

第7の課題解決手段は、第1から第6の課題解決手段のいずれか1つのヘッドマウントディスプレイであって、前記表示効果付加手段は、前記判断手段によって前記コンテンツ画像と前記外界像とが類似していないと判断された場合、前記コンテンツデータに対して前記画像処理を未実行として、前記コンテンツ画像に前記表示効果を付加せず、前記コンテンツ画像提示手段は、前記表示効果付加手段によって前記表示効果が付加されていない前記コンテンツ画像を、前記ユーザの眼に提示することを特徴とする。これによれば、コンテンツ画像と外界像とが類似していない場合、表示効果を付加する画像処理を行わないようにできる。換言すれば、コンテンツ画像と外界像とが類似し、その区別が困難となる可能性がある場合に限り、表示効果を付加する画像処理を実行するようにできる。   The seventh problem solving means is a head-mounted display according to any one of the first to sixth problem solving means, and the display effect adding means makes the content image and the external image similar to each other by the judging means. If it is determined that the content processing has not been performed, the image processing is not executed on the content data, and the display effect is not added to the content image. The content image with no effect added is presented to the eyes of the user. According to this, when the content image and the external image are not similar, the image processing for adding the display effect can be prevented from being performed. In other words, the image processing for adding the display effect can be executed only when the content image and the external image are similar and can be difficult to distinguish.

本発明によれば、ユーザが外界像と区別してコンテンツ画像を視認し易いシースルー型のヘッドマウントディスプレイを得ることができる。   According to the present invention, it is possible to obtain a see-through type head mounted display in which a user can easily distinguish a content image from an external image.

ヘッドマウントディスプレイを示す図である。It is a figure which shows a head mounted display. (a)はヘッドマウントディスプレイ本体の上面図であり、(b)は正面図であり、(c)は左側面図である。(A) is a top view of a head mounted display main body, (b) is a front view, (c) is a left side view. 制御ボックスの機能ブロックを示す図である。It is a figure which shows the functional block of a control box. 画像提示部の機能ブロックを示す図である。It is a figure which shows the functional block of an image presentation part. メイン処理のフローチャートを示す図である。It is a figure which shows the flowchart of a main process. (a)はコンテンツ画像に含まれる第1オブジェクトを囲む枠による表示効果が付加された効果付きコンテンツ画像を示し、(b)は外界像を示す図である。(A) shows the content image with the effect to which the display effect by the frame surrounding the 1st object contained in a content image was added, (b) is a figure which shows an external field image. 表示効果付加処理のフローチャートを示す図である。It is a figure which shows the flowchart of a display effect addition process. (a)はコンテンツ画像に含まれる第1オブジェクトを囲む枠による表示効果が付加された効果付きコンテンツ画像を示し、(b)は外界像を示す図である。(A) shows the content image with the effect to which the display effect by the frame surrounding the 1st object contained in a content image was added, (b) is a figure which shows an external field image.

本発明を反映した上記課題解決手段を実施するための実施形態について、図面を用いて以下に詳細に説明する。上記課題解決手段は以下に記載の構成に限定されるものではなく、同一の技術的思想において種々の構成を採用することができる。例えば、以下に説明する各構成において、所定の構成を省略することができる。また、以下に説明する各処理において、所定のステップを省略することができる。   Embodiments for implementing the above problem solving means reflecting the present invention will be described below in detail with reference to the drawings. The above-mentioned problem solving means is not limited to the configuration described below, and various configurations can be adopted in the same technical idea. For example, in each configuration described below, a predetermined configuration can be omitted. In each process described below, a predetermined step can be omitted.

(ヘッドマウントディスプレイの概要)
ヘッドマウントディスプレイ(Head Mounted Display/以下、「HMD」ともいう。)10について、図1および図2を参照して説明する。HMD10は、HMD本体100と制御ボックス200とを含む。HMD本体100は、ユーザの顔に装着され、利用される。制御ボックス200は、ユーザの腰などに取り付けられる。
(Overview of head mounted display)
A head mounted display (Head Mounted Display / hereinafter also referred to as “HMD”) 10 will be described with reference to FIGS. 1 and 2. The HMD 10 includes an HMD main body 100 and a control box 200. The HMD main body 100 is worn on the user's face and used. The control box 200 is attached to the user's waist or the like.

HMD本体100は、ユーザの耳に当たるモダン102A,102Bが一端に取り付けられたテンプル104A,104Bと、テンプル104A,104Bの他端に蝶番112A,112Bを介して連結されたヨロイ106A,106Bと、ヨロイ106A,106Bを連結するフロントフレーム108と、フロントフレーム108の中央部に取り付けられ、ユーザの鼻に当接する鼻パッド110とを備える。これら各部は、HMD本体100の骨格部を形成する。ヨロイ106A,106Bに形成された蝶番112A,112Bでテンプル104A,104Bを折りたたむことができる。HMD本体100の骨格部の構成は、例えば、通常の眼鏡と同様であり、HMD本体100は、ユーザが装着した状態において、モダン102A,102Bと、鼻パッド110とによりユーザの顔に支持される。なお、図2(b)では、モダン102A,102Bおよびテンプル104A,104Bの図示を省略している。   The HMD main body 100 includes temples 104A and 104B each having a modern 102A and 102B that hits the user's ears attached to one end, armor 106A and 106B coupled to the other end of the temples 104A and 104B via hinges 112A and 112B, 106A and 106B, a front frame 108, and a nose pad 110 attached to the center of the front frame 108 and in contact with the user's nose. Each of these parts forms a skeleton part of the HMD main body 100. Temples 104A and 104B can be folded with hinges 112A and 112B formed on armor 106A and 106B. The structure of the skeleton part of the HMD main body 100 is the same as, for example, normal glasses, and the HMD main body 100 is supported on the user's face by the modern 102A and 102B and the nose pad 110 when the user wears it. . In FIG. 2B, illustration of the moderns 102A and 102B and the temples 104A and 104B is omitted.

HMD本体100の骨格部には、画像提示部114が、ヨロイ106A付近に設けられた取付部122を介して取り付けられている。画像提示部114は、ヨロイ106A付近に取付部122を介して取り付けられた状態において、HMD本体100を装着したユーザの左眼118と略同一の高さとなる位置に配置されている。画像提示部114の上面にはCCDセンサ260が取り付けられている(図2で図示を省略、図1参照)。画像提示部114およびCCDセンサ260は、信号ケーブル250を介して制御ボックス200と接続されている。詳細は後述するが、制御ボックス200は、所定の領域に記憶されたコンテンツデータに対して再生処理(レンダリング処理)を実行し、これによって形成されたコンテンツ画像を含む画像信号を、信号ケーブル250を介して画像提示部114に出力する。画像提示部114は、制御ボックス200が出力する画像信号を取得し、画像信号に基づくコンテンツ画像を、ハーフミラー116に向けて光学的に出射する。   An image presentation unit 114 is attached to the skeleton part of the HMD main body 100 via an attachment part 122 provided near the armor 106A. The image presentation unit 114 is disposed at a position that is substantially the same height as the left eye 118 of the user wearing the HMD main body 100 in a state where the image presentation unit 114 is attached to the vicinity of the armor 106 </ b> A via the attachment unit 122. A CCD sensor 260 is attached to the upper surface of the image presentation unit 114 (not shown in FIG. 2, see FIG. 1). The image presentation unit 114 and the CCD sensor 260 are connected to the control box 200 via the signal cable 250. Although details will be described later, the control box 200 performs a reproduction process (rendering process) on the content data stored in a predetermined area, and transmits an image signal including the content image formed thereby through the signal cable 250. To the image presentation unit 114. The image presentation unit 114 acquires an image signal output from the control box 200 and optically emits a content image based on the image signal toward the half mirror 116.

画像提示部114から出射されたコンテンツ画像を表す画像光120aは、ハーフミラー116で反射し、反射した画像光120bがユーザの左眼118に入射、換言すれば、視認可能に提示(投影)される。これにより、ユーザはコンテンツ画像を視認する。ハーフミラー116は、外界像を表す外光を透過する。ユーザは、HMD本体100を装着した状態でハーフミラー116を介して左眼118で外界像をコンテンツ画像と重ねて視認することができる。   The image light 120a representing the content image emitted from the image presentation unit 114 is reflected by the half mirror 116, and the reflected image light 120b is incident on the left eye 118 of the user, in other words, presented (projected) so as to be visible. The Thereby, the user visually recognizes the content image. The half mirror 116 transmits external light representing an external image. The user can visually recognize the external image superimposed on the content image with the left eye 118 through the half mirror 116 with the HMD main body 100 mounted.

なお、画像提示部114は、取得した画像信号に応じた画像光120a,120bを2次元方向に走査し、その走査された画像光120a,120bをユーザの左眼118に導き網膜上にコンテンツ画像を形成する網膜走査型のディスプレイを用いて構成することができる他、液晶ディスプレイ、有機EL(Organic Electroluminescence)ディスプレイその他の装置を用いた構成とすることもできる。   The image presentation unit 114 scans the image light 120a and 120b in accordance with the acquired image signal in a two-dimensional direction, guides the scanned image light 120a and 120b to the user's left eye 118, and displays the content image on the retina. In addition to a retinal scanning type display that forms a liquid crystal display, a liquid crystal display, an organic EL (Organic Electroluminescence) display, and other devices may be used.

(制御ボックス)
制御ボックス200について、図3を参照して説明する。制御ボックス200は、自装置の制御を司るCPU202と、以下に説明するメイン処理および表示効果付加処理を含む各種処理のためのプログラムを記憶するプログラムROM204と、コンテンツデータその他各種データを記憶する不揮発性のフラッシュROM206と、作業領域としてのRAM208とを備える。例えば、CPU202は、RAM208上で、プログラムROM204に記憶されているメイン処理(図5参照)のためのプログラムを実行する。また、CPU202は、メイン処理の中で、再生処理のためのプログラムを実行し、所定の場合に表示効果付加処理(図7参照)のためのプログラムを実行する。CPU202が、プログラムROM204に記憶された各種プログラムをRAM208上で実行することにより、各種機能手段が構成される。
(Control box)
The control box 200 will be described with reference to FIG. The control box 200 includes a CPU 202 that controls the device itself, a program ROM 204 that stores programs for various processes including a main process and a display effect adding process described below, and a nonvolatile memory that stores content data and other various data. Flash ROM 206 and RAM 208 as a work area. For example, the CPU 202 executes a program for main processing (see FIG. 5) stored in the program ROM 204 on the RAM 208. Further, the CPU 202 executes a program for reproduction processing in the main processing, and executes a program for display effect addition processing (see FIG. 7) in a predetermined case. Various functional units are configured by the CPU 202 executing various programs stored in the program ROM 204 on the RAM 208.

制御ボックス200は、ビデオRAM210と、HMD接続I/Fコントローラ220と外部装置接続I/Fコントローラ230と周辺I/F240とを備える。ビデオRAM210は、再生処理によって形成されたコンテンツ画像および後述する外部装置400から入力されたコンテンツ画像などを記憶する。HMD接続I/Fコントローラ220は、信号ケーブル250を介してHMD本体100に接続され、CPU202からの指令に基づき、HMD本体100の画像提示部114との間で行われる各種信号の入出力を制御する。具体的に、HMD接続I/Fコントローラ220は、コンテンツ画像を含む画像信号および画像提示部114に対する制御信号などを、画像提示部114に出力する。   The control box 200 includes a video RAM 210, an HMD connection I / F controller 220, an external device connection I / F controller 230, and a peripheral I / F 240. The video RAM 210 stores content images formed by reproduction processing, content images input from an external device 400 described later, and the like. The HMD connection I / F controller 220 is connected to the HMD main body 100 via the signal cable 250 and controls input / output of various signals performed with the image presentation unit 114 of the HMD main body 100 based on a command from the CPU 202. To do. Specifically, the HMD connection I / F controller 220 outputs an image signal including a content image, a control signal for the image presentation unit 114, and the like to the image presentation unit 114.

外部装置接続I/Fコントローラ230は、所定のケーブルを介してパーソナルコンピュータなどの外部装置400に接続され、CPU202からの指令に基づき、外部装置400との間の通信を制御する。例えば、外部装置接続I/Fコントローラ230は、外部装置400から入力される画像信号を受信する。なお、外部装置接続I/Fコントローラ230は、受信した画像信号によるコンテンツ画像をビデオRAM210に記憶する。   The external device connection I / F controller 230 is connected to the external device 400 such as a personal computer via a predetermined cable, and controls communication with the external device 400 based on a command from the CPU 202. For example, the external device connection I / F controller 230 receives an image signal input from the external device 400. The external device connection I / F controller 230 stores the content image based on the received image signal in the video RAM 210.

周辺I/F240は、CCDセンサ260、電源スイッチ270および電源ランプ280などが接続される接続I/Fである。CPU202は、CCDセンサ260によって撮像された外界像を周辺I/F240を介して取得する。ユーザは、電源スイッチ270を介して画像提示部114および制御ボックス200のオン、オフを操作する。電源ランプ280は、電源スイッチ270がオンされたとき点灯し、オフされたとき消灯する。   The peripheral I / F 240 is a connection I / F to which the CCD sensor 260, the power switch 270, the power lamp 280, and the like are connected. The CPU 202 acquires an external image captured by the CCD sensor 260 via the peripheral I / F 240. The user operates on / off of the image presentation unit 114 and the control box 200 via the power switch 270. The power lamp 280 is turned on when the power switch 270 is turned on and turned off when the power switch 270 is turned off.

(画像提示部)
画像提示部114について、図4を参照して説明する。画像提示部114は、走査画像光生成部3121、コリメート光学系3122、水平走査部3123、垂直走査部3124、リレー光学系3125、リレー光学系3126を有している。
(Image presentation part)
The image presentation unit 114 will be described with reference to FIG. The image presentation unit 114 includes a scanned image light generation unit 3121, a collimating optical system 3122, a horizontal scanning unit 3123, a vertical scanning unit 3124, a relay optical system 3125, and a relay optical system 3126.

走査画像光生成部3121は、HMD接続I/Fコントローラ220が出力する画像信号を、ドットクロック毎に読み出し、読み出した画像信号に応じて強度変調して走査画像光を生成する装置である。走査画像光生成部3121は、信号処理回路3211、光源部3212、光合成部3213を有している。   The scanned image light generation unit 3121 is a device that reads the image signal output from the HMD connection I / F controller 220 for each dot clock and modulates the intensity according to the read image signal to generate scanned image light. The scanned image light generation unit 3121 includes a signal processing circuit 3211, a light source unit 3212, and a light combining unit 3213.

信号処理回路3211は、HMD接続I/Fコントローラ220と接続している。信号処理回路3211は、HMD接続I/Fコントローラ220から入力された画像信号に基づいて、走査画像光を生成するための要素となるB(青)、G(緑)、R(赤)の各画像信号3214a〜3214cを生成し、光源部3212に出力する。また、信号処理回路3211は、後述する水平走査部3123の水平走査制御回路3123bと接続している。信号処理回路3211は、HMD接続I/Fコントローラ220から入力された画像信号に基づいて水平駆動信号3215を生成し、この水平駆動信号3215を水平走査制御回路3123bに出力する。さらに、信号処理回路3211は、後述する垂直走査制御回路3124bと接続している。信号処理回路3211は、HMD接続I/Fコントローラ220から入力された画像信号に基づいて垂直駆動信号3216を生成し、この垂直駆動信号3216を垂直走査制御回路3124bに出力する。   The signal processing circuit 3211 is connected to the HMD connection I / F controller 220. The signal processing circuit 3211 is configured to generate B (blue), G (green), and R (red), which are elements for generating scanned image light, based on the image signal input from the HMD connection I / F controller 220. Image signals 3214 a to 3214 c are generated and output to the light source unit 3212. The signal processing circuit 3211 is connected to a horizontal scanning control circuit 3123b of the horizontal scanning unit 3123 described later. The signal processing circuit 3211 generates a horizontal drive signal 3215 based on the image signal input from the HMD connection I / F controller 220, and outputs the horizontal drive signal 3215 to the horizontal scanning control circuit 3123b. Further, the signal processing circuit 3211 is connected to a vertical scanning control circuit 3124b described later. The signal processing circuit 3211 generates a vertical drive signal 3216 based on the image signal input from the HMD connection I / F controller 220 and outputs the vertical drive signal 3216 to the vertical scanning control circuit 3124b.

光源部3212は、Bレーザドライバ3212a、Gレーザドライバ3212b、Rレーザドライバ3212c、Bレーザ3212d、Gレーザ3212e、Rレーザ3212fから構成されている。Bレーザドライバ3212aは、信号処理回路3211からドットクロック毎に出力されたB(青)の画像信号3214aに基づき、Bレーザ3212dを駆動させる。Bレーザ3212dは、B(青)の画像信号3214aに基づき、強度変調された青色のレーザ光を出射する。Gレーザ3212eおよびRレーザ3212fも、同様に、それぞれ強度変調された、緑色のレーザ光、赤色のレーザ光を出射する。   The light source unit 3212 includes a B laser driver 3212a, a G laser driver 3212b, an R laser driver 3212c, a B laser 3212d, a G laser 3212e, and an R laser 3212f. The B laser driver 3212a drives the B laser 3212d based on the B (blue) image signal 3214a output from the signal processing circuit 3211 for each dot clock. The B laser 3212d emits intensity-modulated blue laser light based on the B (blue) image signal 3214a. Similarly, the G laser 3212e and the R laser 3212f emit green laser light and red laser light, which are respectively intensity-modulated.

各レーザ3212d〜3212fには、半導体レーザや、高調波発生機能付固体レーザが含まれる。なお、半導体レーザを用いる場合には、駆動電流を直接変調して、レーザ光の強度変調を行う。また、高調波発生機能付固体レーザを用いる場合には、各レーザ3212d〜3212fそれぞれに、外部変調器を備えてレーザ光の強度変調を行う。なお、高調波発生の効率は高くなく、さらに外部変調器での損失も加わるため、高調波発生機能付固体レーザの消費電力は大きくなるため、各レーザ3212d〜3212fに半導体レーザを用いることが好ましい。   Each of the lasers 3212d to 3212f includes a semiconductor laser and a solid-state laser with a harmonic generation function. When a semiconductor laser is used, the drive current is directly modulated to modulate the intensity of the laser beam. When using a solid state laser with a harmonic generation function, each of the lasers 3212d to 3212f is provided with an external modulator to modulate the intensity of the laser light. Note that the efficiency of harmonic generation is not high, and the loss of the external modulator is also added, so that the power consumption of the solid-state laser with the harmonic generation function is increased. Therefore, it is preferable to use a semiconductor laser for each of the lasers 3212d to 3212f. .

光合成部3213は、コリメート光学系3213a〜3213c、ダイクロイックミラー3213d〜3213f、結合光学系3213gとから構成されている。コリメート光学系3213a〜3213cは、それぞれ、各レーザ3212d〜3212fの前方に配設されていて、各レーザ3212d〜3212fが出射したレーザ光を、平行光化する。ダイクロイックミラー3213d〜3213fは、それぞれ、コリメート光学系3213a〜3213cの前方に配設されていて、各コリメート光学系3213a〜3213cが平行化した各レーザ光を、所定の範囲の波長のレーザ光のみを選択的に、反射または透過する。   The light combining unit 3213 includes collimating optical systems 3213a to 3213c, dichroic mirrors 3213d to 3213f, and a coupling optical system 3213g. The collimating optical systems 3213a to 3213c are arranged in front of the lasers 3212d to 3212f, respectively, and collimate the laser beams emitted from the lasers 3212d to 3212f. The dichroic mirrors 3213d to 3213f are disposed in front of the collimating optical systems 3213a to 3213c, respectively, and convert the laser beams collimated by the collimating optical systems 3213a to 3213c into only laser beams having a predetermined range of wavelengths. Selectively reflects or transmits.

結合光学系3213gは、ダイクロイックミラー3213dの前方に配設されている。ダイクロイックミラー3213dを透過した青色のレーザ光および、ダイクロイックミラー3213e、3213fでそれぞれ反射された、緑色のレーザ光、赤色のレーザ光が、結合光学系3213gに入射する。結合光学系3213gは、各3原色のレーザ光を集光(混合)させて、光ファイバ3127に入射させる。なお、青色のレーザ光、緑色のレーザ光、赤色の各レーザ光の強度を均等にすると、白色を表現することができる。   The coupling optical system 3213g is disposed in front of the dichroic mirror 3213d. Blue laser light transmitted through the dichroic mirror 3213d and green laser light and red laser light reflected by the dichroic mirrors 3213e and 3213f are incident on the coupling optical system 3213g. The coupling optical system 3213 g condenses (mixes) the laser beams of the three primary colors and enters the optical fiber 3127. Note that white can be expressed by equalizing the intensity of each of the blue laser light, the green laser light, and the red laser light.

水平走査部3123および垂直走査部3124は、光ファイバ3127に入射されたレーザ光を、画像として照射するために、当該レーザ光を水平方向と垂直方向に走査して走査画像光を生成する。   In order to irradiate the laser beam incident on the optical fiber 3127 as an image, the horizontal scanning unit 3123 and the vertical scanning unit 3124 scan the laser beam in the horizontal direction and the vertical direction to generate scanning image light.

水平走査部3123は、共振型偏向素子3123a、水平走査制御回路3123b、水平走査角検出回路3123cとから構成されている。光ファイバ3127に入射されたレーザ光は、コリメート光学系3122で平行光化され、共振型偏向素子3123aに入射される。共振型偏向素子3123aは、水平走査制御回路3123bで揺動される反射面3123dを有し、入射されたレーザ光を、揺動する反射面3123dで反射させて水平方向に走査する。水平走査制御回路3123bは、信号処理回路3211から出力される水平駆動信号3215に基づいて、共振型偏向素子3123aの反射面3123dを揺動させる駆動信号を発生する。水平走査角検出回路3123cは、共振型偏向素子3123aから出力される変位信号に基づいて、共振型偏向素子3123aの反射面3123dの揺動範囲および揺動周波数などの揺動状態を検出し、当該揺動状態を示す信号を、HMD接続I/Fコントローラ220に出力する。   The horizontal scanning unit 3123 includes a resonant deflection element 3123a, a horizontal scanning control circuit 3123b, and a horizontal scanning angle detection circuit 3123c. The laser light incident on the optical fiber 3127 is collimated by the collimating optical system 3122 and is incident on the resonant deflection element 3123a. The resonant deflection element 3123a has a reflection surface 3123d that is swung by the horizontal scanning control circuit 3123b, and scans the incident laser light in the horizontal direction by being reflected by the swinging reflection surface 3123d. The horizontal scanning control circuit 3123b generates a driving signal for swinging the reflecting surface 3123d of the resonant deflection element 3123a based on the horizontal driving signal 3215 output from the signal processing circuit 3211. The horizontal scanning angle detection circuit 3123c detects a swing state such as a swing range and a swing frequency of the reflection surface 3123d of the resonant deflection element 3123a based on the displacement signal output from the resonant deflection element 3123a. A signal indicating the swing state is output to the HMD connection I / F controller 220.

垂直走査部3124は、偏向素子3124a、垂直走査制御回路3124b、垂直走査角検出回路3124cとから構成されている。偏向素子3124aは、垂直走査制御回路3124bで揺動される反射面3124dを有し、入射されたレーザ光を、揺動する反射面3124dで反射させて垂直方向に走査し、2次元的に走査された画像光として、リレー光学系3126に出射する。垂直走査制御回路3124bは、信号処理回路3211から出力される垂直駆動信号3216に基づいて、偏向素子3124aの反射面3124dを揺動させる駆動信号を発生する。垂直走査角検出回路3124cは、偏向素子3124aから出力される変位信号に基づいて、偏向素子3124aの反射面3124dの揺動範囲および揺動周波数などの揺動状態を検出し、当該揺動状態を示す信号を、HMD接続I/Fコントローラ220に出力する。   The vertical scanning unit 3124 includes a deflection element 3124a, a vertical scanning control circuit 3124b, and a vertical scanning angle detection circuit 3124c. The deflection element 3124a has a reflection surface 3124d that is oscillated by the vertical scanning control circuit 3124b. The incident laser beam is reflected by the oscillating reflection surface 3124d and scanned in the vertical direction to scan two-dimensionally. The emitted image light is emitted to the relay optical system 3126. Based on the vertical drive signal 3216 output from the signal processing circuit 3211, the vertical scanning control circuit 3124b generates a drive signal for swinging the reflection surface 3124d of the deflection element 3124a. Based on the displacement signal output from the deflection element 3124a, the vertical scanning angle detection circuit 3124c detects the oscillation state such as the oscillation range and oscillation frequency of the reflecting surface 3124d of the deflection element 3124a, and detects the oscillation state. The signal shown is output to the HMD connection I / F controller 220.

リレー光学系3125は、共振型偏向素子3123aと偏向素子3124aの間に配設されている。リレー光学系3125は、共振型偏向素子3123aの反射面3123dで水平方向に走査されたレーザ光を、偏向素子3124aの反射面3124dに入射させる。   The relay optical system 3125 is disposed between the resonant deflection element 3123a and the deflection element 3124a. The relay optical system 3125 causes the laser beam scanned in the horizontal direction by the reflection surface 3123d of the resonance type deflection element 3123a to enter the reflection surface 3124d of the deflection element 3124a.

信号処理回路3211は、HMD接続I/Fコントローラ220から入力された画像信号に基づいて、水平駆動信号3215と垂直駆動信号3216を、それぞれ水平走査制御回路3123bと垂直走査制御回路3124bに出力し、反射面3123d、3124dの走査角を変更することにより、画像光を生成する。   Based on the image signal input from the HMD connection I / F controller 220, the signal processing circuit 3211 outputs a horizontal drive signal 3215 and a vertical drive signal 3216 to the horizontal scan control circuit 3123b and the vertical scan control circuit 3124b, respectively. Image light is generated by changing the scanning angle of the reflecting surfaces 3123d and 3124d.

こうして変更された反射面3123d、3124dの走査角度は、水平走査角検出回路3123cおよび垂直走査角検出回路3124cによって検出信号として検出され、当該検出信号がHMD接続I/Fコントローラ220に入力され、水平駆動信号3215および垂直駆動信号3216にフィードバックされる。   The scanning angles of the reflecting surfaces 3123d and 3124d thus changed are detected as detection signals by the horizontal scanning angle detection circuit 3123c and the vertical scanning angle detection circuit 3124c, and the detection signals are input to the HMD connection I / F controller 220, Feedback is provided to the drive signal 3215 and the vertical drive signal 3216.

リレー光学系3126は、正の屈折力を持つレンズ系3126a、3126bを有している。偏向素子3124aから出射された画像光は、レンズ系3126aによって、それぞれの画像光が、その走査画像光の中心線を相互に略平行にされ、かつそれぞれ収束画像光に変換される。前記収束画像光は、レンズ系3126bによってそれぞれほぼ平行な走査画像光となるとともに、これらの走査画像光の中心線がユーザの瞳孔Eaに収束するように集光される。   The relay optical system 3126 includes lens systems 3126a and 3126b having a positive refractive power. The image light emitted from the deflecting element 3124a is converted into convergent image light by the lens system 3126a, with the respective image lights having their scanning image light center lines substantially parallel to each other. The converged image light is converted into substantially parallel scanned image light by the lens system 3126b, and the center line of these scanned image light is condensed so as to converge on the pupil Ea of the user.

なお、本実施形態では、光ファイバ3127から入射されたレーザ光を、水平走査部3123で水平方向に走査した後、垂直走査部3124によって垂直方向に走査することとしたが、水平走査部3123と垂直走査部3124の配置を入れ替え、垂直走査部3124に垂直方向に走査した後、水平走査部3123で水平方向に走査するように構成してもよい。   In the present embodiment, laser light incident from the optical fiber 3127 is scanned in the horizontal direction by the horizontal scanning unit 3123 and then scanned in the vertical direction by the vertical scanning unit 3124. The arrangement of the vertical scanning unit 3124 may be changed, and after the vertical scanning unit 3124 is scanned in the vertical direction, the horizontal scanning unit 3123 may scan in the horizontal direction.

(メイン処理)
メイン処理について、図5を参照して説明する。メイン処理は、制御ボックス200のCPU202が、RAM208上で、プログラムROM204に記憶されたこの処理のためのプログラムを実行することで行われる。CPU202は、この処理の実行に際し、フラッシュROM206に記憶されたコンテンツデータ、CCDセンサ260によって撮像された外界像および外部装置接続I/Fコントローラ230によって受信されたコンテンツ画像などのデータを用いる。
(Main process)
The main process will be described with reference to FIG. The main process is performed by the CPU 202 of the control box 200 executing a program for this process stored in the program ROM 204 on the RAM 208. When executing this processing, the CPU 202 uses data such as content data stored in the flash ROM 206, an external image captured by the CCD sensor 260, and a content image received by the external device connection I / F controller 230.

まず、ユーザは、制御ボックス200の操作部(図示を省略)を操作して、HMD10によって視認するコンテンツを選択する。CPU202は、このユーザ選択がなされた場合、選択されたコンテンツに対応するコンテンツデータを対象として、この処理を開始する。この処理を開始したCPU202は、CCDセンサ260を制御し、外界像の撮像を開始する(S100)。ここで、CPU202は、S100に合わせ、選択されたコンテンツデータをフラッシュROM206から読み出してRAM208に記憶し、このコンテンツデータに対して再生処理を実行する。そして、これによって形成されたコンテンツ画像をビデオRAM210に記憶する。外部装置400から画像信号が入力される場合、外部装置接続I/Fコントローラ230は、受信した画像信号によるコンテンツ画像をビデオRAM210に記憶する。   First, the user operates an operation unit (not shown) of the control box 200 to select content to be visually recognized by the HMD 10. When this user selection is made, the CPU 202 starts this process for content data corresponding to the selected content. The CPU 202 which has started this process controls the CCD sensor 260 and starts capturing an external image (S100). Here, in accordance with S100, the CPU 202 reads the selected content data from the flash ROM 206, stores it in the RAM 208, and executes a reproduction process on this content data. Then, the content image formed thereby is stored in the video RAM 210. When an image signal is input from the external device 400, the external device connection I / F controller 230 stores a content image based on the received image signal in the video RAM 210.

S102でCPU202は、ビデオRAM210に記憶されているコンテンツ画像と、CCDセンサ260によって撮像された外界像とを解析し、コンテンツ画像と外界像との類似を判断する。なお、コンテンツ画像が複数ある場合、CPU202は、コンテンツ画像それぞれについてS102の判断を実行する。例えば、コンテンツデータが、複数ページからなる作業指図書を示すものであるとき、各ページに対応するコンテンツ画像それぞれについて、外界像との類似を判断する。なお、類似の判断方法としては、様々な周知の画像処理方法が使用可能である。例えば、エッジ検出によりコンテンツ画像と外界像とから輪郭が抽出される。そして、抽出された両者の輪郭の内側の画像をパターンマッチングにより比較することで、コンテンツ画像と外界像との類似が判断される。また、コンテンツ画像と外界像との間で、色相や彩度のヒストグラムの比較や、空間周波数の比較などを行うことで類似が判断されてもよい。   In S102, the CPU 202 analyzes the content image stored in the video RAM 210 and the external image captured by the CCD sensor 260, and determines the similarity between the content image and the external image. When there are a plurality of content images, the CPU 202 executes the determination in S102 for each content image. For example, when the content data indicates a work instruction consisting of a plurality of pages, the similarity to the external image is determined for each content image corresponding to each page. Note that various known image processing methods can be used as similar determination methods. For example, a contour is extracted from a content image and an external image by edge detection. Then, the similarity between the content image and the external image is determined by comparing the extracted images inside the contours of the two by pattern matching. Further, similarity may be determined by comparing hue and saturation histograms, comparing spatial frequencies, and the like between the content image and the external image.

S102の判断の結果、外界像に類似するコンテンツ画像が含まれていない場合(S102:非類似)、CPU202は処理をS104に移行する。一方、外界像に類似するコンテンツ画像が含まれている場合(S102:類似)、CPU202は処理をS106に移行する。S104でCPU202は、ビデオRAM210に記憶されているコンテンツ画像を含む画像信号と、コンテンツ画像の提示についての制御信号とを、HMD接続I/Fコントローラ220を介して画像提示部114に出力し、画像提示部114からのコンテンツ画像の提示を実行する。これによって、ユーザは、表示効果が付加されていないコンテンツ画像を視認する。   As a result of the determination in S102, when a content image similar to the external image is not included (S102: dissimilar), the CPU 202 shifts the process to S104. On the other hand, when a content image similar to the external image is included (S102: similar), the CPU 202 shifts the processing to S106. In S <b> 104, the CPU 202 outputs an image signal including the content image stored in the video RAM 210 and a control signal for presenting the content image to the image presentation unit 114 via the HMD connection I / F controller 220. The presentation of the content image from the presentation unit 114 is executed. Thereby, the user visually recognizes the content image to which the display effect is not added.

S106でCPU202は、ビデオRAM210に記憶されているコンテンツ画像に対して、表示効果を付加する。ここで、コンテンツ画像が複数ある場合、複数のコンテンツ画像全てに対してS106の処理を実行する。S102で類似すると判断されたコンテンツ画像の全てを対象として、S106の処理を実行する構成とすることもできる。なお、S106で実行される表示効果付加処理については、後述する。   In S <b> 106, the CPU 202 adds a display effect to the content image stored in the video RAM 210. Here, when there are a plurality of content images, the process of S106 is executed for all of the plurality of content images. A configuration in which the process of S106 is executed for all the content images determined to be similar in S102 can also be adopted. The display effect addition process executed in S106 will be described later.

S108でCPU202は、S104と同じ処理を実行して、S106で表示効果が付加された効果付きコンテンツ画像504A(図6(a)参照)を含む画像信号を出力し、画像提示部114からの効果付きコンテンツ画像504Aの提示を実行する。これによって、ユーザは、例えば、コンテンツ画像に含まれる第1オブジェクト500を囲む枠502が付加された効果付きコンテンツ画像504Aを視認する。具体的には、サーバコンピュータの背面に設けられたコネクタに、所定のケーブルを接続するような組立作業で、HMD10が、この作業の作業指図書を提供するツールとして利用される場合、ユーザは、図6(a)に示すように第1オブジェクト500としてのコネクタ画像を囲む枠502が付加された効果付きコンテンツ画像504Aを視認する。   In S108, the CPU 202 executes the same process as S104, outputs an image signal including the content image with effect 504A to which the display effect is added in S106 (see FIG. 6A), and the effect from the image presentation unit 114. Presentation of the attached content image 504A is executed. Thus, for example, the user visually recognizes the content image with effect 504A to which the frame 502 surrounding the first object 500 included in the content image is added. Specifically, when the HMD 10 is used as a tool for providing a work instruction for this work in an assembly work in which a predetermined cable is connected to a connector provided on the back of the server computer, As shown in FIG. 6A, a content image 504A with an effect to which a frame 502 surrounding the connector image as the first object 500 is added is visually recognized.

また、ユーザは、図6(a)に示す第1オブジェクト500としてのコネクタ画像を含む効果付きコンテンツ画像504Aを視認しつつ、左眼118でハーフミラー116を介した自身の視野(図6(b)参照)内の外界像(サーバコンピュータの背面)に含まれる第2オブジェクト510としてのコネクタ画像をも視認する(図6(b)参照)。しかし、第1オブジェクト500としてのコネクタ画像には枠502が付加されているため、ユーザは、画像提示部114による第1オブジェクト500としてのコネクタ画像と、第2オブジェクト510としてのコネクタ画像とが、仮に類似していたとしても区別することができる。換言すれば、ユーザは、画像提示部114から提示されたコンテンツ画像(効果付きコンテンツ画像504A)と、外界像とを区別することができる。   In addition, the user visually recognizes the content image with effect 504A including the connector image as the first object 500 shown in FIG. 6A, while viewing the own field of view through the half mirror 116 with the left eye 118 (FIG. 6B). The connector image as the second object 510 included in the external image (the back of the server computer) is also visually recognized (see FIG. 6B). However, since the frame 502 is added to the connector image as the first object 500, the user can obtain the connector image as the first object 500 and the connector image as the second object 510 by the image presentation unit 114. Even if they are similar, they can be distinguished. In other words, the user can distinguish between the content image presented from the image presentation unit 114 (content image with effect 504A) and the external image.

S104またはS108を実行した後、CPU202は、ユーザが制御ボックス200の操作部(図示を省略)を操作し、または、電源スイッチ270がオフされ、この処理の終了指令が入力されたかを判断する(S110)。判断の結果、終了指令が入力されていない場合(S110:No)、CPU202は処理をS100に戻し、上記各ステップを繰り返して実行する。一方、終了指令が入力された場合(S110:Yes)、CPU202はこの処理を終了する。   After executing S104 or S108, the CPU 202 determines whether the user operates the operation unit (not shown) of the control box 200 or the power switch 270 is turned off and an instruction to end this process is input ( S110). As a result of the determination, if an end command is not input (S110: No), the CPU 202 returns the process to S100 and repeats the above steps. On the other hand, when an end command is input (S110: Yes), the CPU 202 ends this process.

(表示効果付加処理)
図5に示すメイン処理のS106で実行される表示効果付加処理について、図7を参照して説明する。この処理を開始したCPU202は、CCDセンサ260によって撮像された外界像から、これに含まれる第2オブジェクト510を抽出する(S200)。また、CPU202は、コンテンツ画像から、これに含まれる第1オブジェクト500を抽出する(S202)。なお、外界像からの第2オブジェクト510の抽出と、コンテンツ画像からの第1オブジェクト500の抽出とに際し、CPU202は、所定の画像解析を実行する。
(Display effect addition processing)
The display effect addition process executed in S106 of the main process shown in FIG. 5 will be described with reference to FIG. The CPU 202 that has started this process extracts the second object 510 included in the external image captured by the CCD sensor 260 (S200). Further, the CPU 202 extracts the first object 500 included in the content image (S202). Note that the CPU 202 performs predetermined image analysis when extracting the second object 510 from the external image and extracting the first object 500 from the content image.

S200およびS202を実行した後、CPU202は、両ステップで抽出された第1オブジェクト500と第2オブジェクト510との中から、それぞれ1つを選択する。そして、CPU202は、選択した第1オブジェクト500と第2オブジェクト510とを比較し(S204)、両者の類似を判断する(S206)。例えば、CPU202は、第1オブジェクト500の輪郭を特定し、また、第2オブジェクト510の輪郭を特定し、特定した各輪郭を比較し、類似を判断する。   After executing S200 and S202, the CPU 202 selects one of the first object 500 and the second object 510 extracted in both steps. Then, the CPU 202 compares the selected first object 500 and second object 510 (S204), and determines the similarity between them (S206). For example, the CPU 202 identifies the contour of the first object 500, identifies the contour of the second object 510, compares the identified contours, and determines similarity.

S206の判断の結果、第1オブジェクト500と第2オブジェクト510とが類似している場合(S206:Yes)、CPU202は処理をS208に移行する一方、類似していない場合(S206:No)、S208を実行することなく、処理をS210に移行する。すなわち、CPU202は、第1オブジェクト500と第2オブジェクト510とが類似している場合に限りS208を実行する。   As a result of the determination in S206, if the first object 500 and the second object 510 are similar (S206: Yes), the CPU 202 proceeds to S208, but if they are not similar (S206: No), S208 The process proceeds to S210 without executing. That is, the CPU 202 executes S208 only when the first object 500 and the second object 510 are similar.

S208でCPU202は、第2オブジェクト510に類似する第1オブジェクト500を囲む枠502を付加する処理をコンテンツ画像に対して実行する。これによって、効果付きコンテンツ画像504Aが形成される。S210でCPU202は、S200で抽出された第2オブジェクト510とS202で抽出された第1オブジェクト500とを全て比較したかを判断する。例えば、CPU202は、S202で抽出された第1オブジェクト500を順次選択し、その全てについてS200で抽出された第2オブジェクト510と比較したかを判断する。   In step S <b> 208, the CPU 202 executes processing for adding a frame 502 surrounding the first object 500 similar to the second object 510 on the content image. Thereby, an effect-added content image 504A is formed. In S210, the CPU 202 determines whether all of the second object 510 extracted in S200 and the first object 500 extracted in S202 have been compared. For example, the CPU 202 sequentially selects the first objects 500 extracted in S202, and determines whether all of them are compared with the second objects 510 extracted in S200.

S210の判断の結果、比較されていない第1オブジェクト500と第2オブジェクト510とが存在する場合(S210:No)、CPU202は、処理をS204に戻し、未比較の第1オブジェクト500と第2オブジェクト510とを選択し、上記S200〜S208を繰り返して実行する。一方、未比較の第1オブジェクト500と第2オブジェクト510が存在しない場合(S210:Yes)、CPU202はこの処理を終了し、処理を図5に示すメイン処理のS108に移行する。   If there is a first object 500 and a second object 510 that are not compared as a result of the determination in S210 (S210: No), the CPU 202 returns the process to S204, and the first object 500 and the second object that are not compared. 510 is selected, and the above steps S200 to S208 are repeated. On the other hand, when the uncompared first object 500 and second object 510 do not exist (S210: Yes), the CPU 202 ends this process and shifts the process to S108 of the main process shown in FIG.

(変形例)
上述した本実施形態の構成は、次のようにすることもできる。
(Modification)
The configuration of the present embodiment described above can also be as follows.

(1)上記では、HMD本体100と制御ボックス200とが別体のHMD10を例に説明したが、HMD本体100と制御ボックス200とを一体で構成したHMDとすることもできる。この場合、制御ボックス200の各構成(図3参照)は、例えば画像提示部114を形成する筐体(カバー)内に収容される。   (1) In the above description, the HMD body 100 and the control box 200 are separated from each other as an example. However, the HMD body 100 and the control box 200 may be integrated into an HMD. In this case, each component (see FIG. 3) of the control box 200 is accommodated in, for example, a housing (cover) that forms the image presentation unit 114.

(2)上記では、図5に示すメイン処理のS102で「類似」と判断された場合、S106で図7に示す表示効果付加処理を実行し、枠502で囲まれた第1オブジェクト500を含む効果付きコンテンツ画像504A(図6(a)参照)を形成する構成を例に説明した。このような構成の他、例えば、図5に示すメイン処理のS102で「類似」と判断された場合、CPU202は、図8(a)に示すように、画像提示部114がコンテンツ画像を提示する範囲(最大提示範囲)を囲む枠520(最大提示範囲の外縁に一致する枠520)をコンテンツ画像に付加し、その後、処理を図5のS108に移行する構成とすることもできる。   (2) In the above, when it is determined as “similar” in S <b> 102 of the main process shown in FIG. 5, the display effect addition process shown in FIG. 7 is executed in S <b> 106 and includes the first object 500 surrounded by the frame 502. The configuration for forming the content image with effect 504A (see FIG. 6A) has been described as an example. In addition to such a configuration, for example, when “similar” is determined in S102 of the main process illustrated in FIG. 5, the CPU 202 presents the content image as illustrated in FIG. A frame 520 that surrounds the range (maximum presentation range) (a frame 520 that matches the outer edge of the maximum presentation range) may be added to the content image, and then the process may proceed to S108 in FIG.

この場合、S108でCPU202は、効果付きコンテンツ画像504Bを含む画像信号を出力し、画像提示部114からの効果付きコンテンツ画像504Bの提示を実行する。ユーザは、図8(a)に示す態様の効果付きコンテンツ画像504Bを視認するため、画像提示部114から提示されたコンテンツ画像(効果付きコンテンツ画像504B)と、図8(b)に示すサーバコンピュータの背面に設けられたコネクタを表す第2オブジェクト510としてのコネクタ画像を含む外界像とを区別(第1オブジェクト500と第2オブジェクト510とを区別)することができる。なお、コンテンツ画像の画像サイズが最大提示範囲より小さい場合などにおいては、コンテンツ画像の外縁を枠で囲む構成としてもよい。   In this case, in S108, the CPU 202 outputs an image signal including the content image with effect 504B, and executes the presentation of the content image with effect 504B from the image presentation unit 114. In order for the user to visually recognize the content image 504B with the effect shown in FIG. 8A, the content image presented from the image presentation unit 114 (the content image with effect 504B) and the server computer shown in FIG. It is possible to distinguish the external object image including the connector image as the second object 510 representing the connector provided on the back surface (distinguish the first object 500 from the second object 510). In addition, when the image size of the content image is smaller than the maximum presentation range, the outer edge of the content image may be surrounded by a frame.

(3)上記では、図5に示すメイン処理でS102を実行する構成とし、その判断結果に応じて、処理をS104またはS106に分岐する構成を例に説明した。しかし、このような構成の他、S102を省略し(S104についても省略)、直接、S106に移行して図7に示す表示効果付加処理を実行する構成とすることもできる。この場合、CPU202は、コンテンツ画像と外界像とが類似しているか否かに関わらず、図7に示す表示効果付加処理を実行する。そして、CPU202は、コンテンツ画像に含まれる第1オブジェクト500と、外界像に含まれる第2オブジェクト510とを比較し、類似していると判断される場合(S206:Yes)、第2オブジェクト510に類似すると判断された第1オブジェクト500を囲む枠502を付加する処理をコンテンツ画像に対して実行し(S208)、これによる効果付きコンテンツ画像504Bを提示する(S108)。したがって、この変形例(3)の構成によっても、ユーザは、上記同様、コンテンツ画像(効果付きコンテンツ画像504B)と外界像とを区別することができる。なお、類似していると判断される第1オブジェクト500が存在しない場合(S206:No)、CPU202は、S208を実行しない。したがって、S108では、コンテンツ画像が、図5のS104と同様の態様で提示される。   (3) In the above description, the configuration in which S102 is executed in the main processing shown in FIG. However, in addition to such a configuration, S102 may be omitted (also omitted for S104), and the process may directly shift to S106 to execute the display effect addition processing shown in FIG. In this case, the CPU 202 executes the display effect addition process shown in FIG. 7 regardless of whether or not the content image and the external image are similar. Then, the CPU 202 compares the first object 500 included in the content image with the second object 510 included in the external image, and determines that they are similar (S206: Yes), the second object 510 A process of adding a frame 502 surrounding the first object 500 determined to be similar is executed on the content image (S208), and the resulting content image 504B is presented (S108). Therefore, also by the configuration of the modification (3), the user can distinguish between the content image (content image with effect 504B) and the external image as described above. If there is no first object 500 that is determined to be similar (S206: No), the CPU 202 does not execute S208. Therefore, in S108, the content image is presented in the same manner as in S104 of FIG.

(4)上記では、図7に示す表示効果付加処理で、外界像に含まれる第2オブジェクト510を抽出し(S200)、これに類似する第1オブジェクト510に対し枠502を付加する(S206:Yes,S208)構成を例に説明した。しかし、このような構成の他、例えばS200,S204,S206の各ステップを省略し、コンテンツ画像から抽出された第1オブジェクト500の全てに枠502を付加する(S208)構成とすることもできる。この場合、S210は、全ての第1オブジェクト500に対して枠502が付加されたかに基づいて判断される。   (4) In the above, in the display effect addition process shown in FIG. 7, the second object 510 included in the external image is extracted (S200), and a frame 502 is added to the first object 510 similar to this (S206: Yes, S208) The configuration has been described as an example. However, in addition to such a configuration, for example, steps S200, S204, and S206 may be omitted, and a frame 502 may be added to all the first objects 500 extracted from the content image (S208). In this case, S210 is determined based on whether or not a frame 502 has been added to all the first objects 500.

(5)上記では、第1オブジェクト500に枠502を付加する構成(例えば本実施形態,図6(a)参照)と、画像提示部114がコンテンツ画像を提示する範囲(最大提示範囲)を囲む枠520を付加する構成(上記変形例(2),図8(a)参照)とを説明した。しかし、このような構成の他、コンテンツ画像の色を変化させて、コンテンツ画像に表示効果を付加する構成とすることもできる。具体的に、第1オブジェクト500またはコンテンツ画像全体を、ハーフミラー116を介して視認される外界像の色合いと異なる色、例えば赤味がかった色(色合い)とする。この変形例(5)の構成によっても、ユーザは、コンテンツ画像と外界像とを区別することができる。   (5) In the above, the configuration in which the frame 502 is added to the first object 500 (see this embodiment, for example, FIG. 6A) and the range in which the image presentation unit 114 presents the content image (maximum presentation range) are enclosed. The configuration in which the frame 520 is added (see the modified example (2), FIG. 8A) has been described. However, in addition to such a configuration, it is also possible to change the color of the content image and add a display effect to the content image. Specifically, the first object 500 or the entire content image is set to a color different from the color of the external image visually recognized through the half mirror 116, for example, a reddish color (color). Also with the configuration of the modification (5), the user can distinguish between the content image and the external image.

(6)上記では、図5に示すメイン処理でコンテンツ画像と外界像との類似を判断し(S102)、このS102の判断で「類似」と判断された場合、さらに、図7の表示効果付加処理で、第1オブジェクト500と第2オブジェクト510との類似を判断し(S206)、このS206の判断が肯定された場合(S206:Yes)、第1オブジェクト500を囲む枠502を表示効果として付加する(S208)構成を例に説明した。しかし、このような構成とは異なる構成とすることもできる。   (6) In the above, the similarity between the content image and the external image is determined in the main processing shown in FIG. 5 (S102), and if it is determined as “similar” in the determination in S102, the display effect addition in FIG. In the process, the similarity between the first object 500 and the second object 510 is determined (S206). If the determination in S206 is affirmative (S206: Yes), a frame 502 surrounding the first object 500 is added as a display effect. (S208) The configuration has been described as an example. However, a configuration different from such a configuration may be used.

具体的に、HMD10でユーザが視認するコンテンツ画像の種別にしたがい、コンテンツ画像と外界像との類似を判断する構成とすることもできる。例えば、上述したような態様、すなわち、HMD10が、所定の製品の組立作業で、この作業の作業指図書を提供するツールとして利用される場合、ユーザは、外界像として、組立てに用いる部品(図6,図8に基づけば「コネクタ」が対応)などを、ハーフミラー116を介して視認する。このような状態で、表示効果が付加されずに、組立てに用いる部品などを含むコンテンツ画像が、ユーザの左眼118に提示されると、コンテンツ画像に含まれる部品を、実際の部品と誤って認識してしまうといった事態の発生が想定される。すなわち、提示されるコンテンツ画像の種別を判断し、このような事態が想定される種別のものである場合、本実施形態の上記具体的な判断を行うことなしに、コンテンツ画像と外界像とが類似するとみなすようにしてもよい。   Specifically, according to the type of content image visually recognized by the user on the HMD 10, a configuration in which the similarity between the content image and the external image can be determined can be adopted. For example, when the HMD 10 is used as a tool for providing a work instruction for a predetermined product in an assembly operation of a predetermined product, for example, the user can use a part (FIG. 6, “connector” corresponds to FIG. 8) and the like is visually recognized through the half mirror 116. In such a state, when a content image including a component used for assembly is presented to the user's left eye 118 without adding a display effect, the component included in the content image is mistaken for an actual component. The occurrence of a situation such as recognition is assumed. That is, when the type of the content image to be presented is determined and the type of such a situation is assumed, the content image and the external image are determined without performing the specific determination of the present embodiment. You may make it consider that it is similar.

また、外部装置400から、コンテンツ画像を含む画像信号を外部装置接続I/Fコントローラ230を介して受信する場合、外部装置400側で、本実施形態の上記具体的な判断自体を実行し、その判断結果を示す信号を、画像信号とともに受信し、判断結果を示す信号にしたがってコンテンツ画像と外界像との類似を判断する構成とすることもできる。例えばHMD10が上記のように作業指図書を提供するツールとして利用される場合、外部装置400としては、組立作業を監視するセンターに設置されているコンピュータが想定される。なお、この変形例(6)の構成による場合、HMD10(制御ボックス200のCPU202)では、本実施形態の上記具体的な判断を行わないため、CCDセンサ260と、図5のメイン処理のS100については、省略することができる。   Further, when receiving an image signal including a content image from the external device 400 via the external device connection I / F controller 230, the external device 400 performs the specific determination itself of the present embodiment. A signal indicating the determination result may be received together with the image signal, and the similarity between the content image and the external image may be determined according to the signal indicating the determination result. For example, when the HMD 10 is used as a tool for providing work instructions as described above, the external device 400 is assumed to be a computer installed in a center that monitors assembly work. In the case of the configuration of the modification (6), the HMD 10 (the CPU 202 of the control box 200) does not make the specific determination of the present embodiment, so the CCD sensor 260 and S100 of the main process in FIG. Can be omitted.

(本実施形態の構成による有利な効果)
本実施形態の構成によれば、コンテンツ画像に表示効果を付加するため、コンテンツ画像と外界像とを区別(第1オブジェクト500と第2オブジェクト510とを区別)することができる。
(Advantageous effects of the configuration of the present embodiment)
According to the configuration of the present embodiment, in order to add a display effect to the content image, the content image and the external image can be distinguished (the first object 500 and the second object 510 are distinguished).

10 ヘッドマウントディスプレイ(HMD)
100 ヘッドマウントディスプレイ本体(HMD本体)
114 画像提示部
116 ハーフミラー
200 制御ボックス
202 CPU
204 プログラムROM
206 フラッシュROM
208 RAM
260 CCDセンサ
502,520 枠
10 Head mounted display (HMD)
100 Head-mounted display body (HMD body)
114 Image presentation unit 116 Half mirror 200 Control box 202 CPU
204 Program ROM
206 Flash ROM
208 RAM
260 CCD sensor 502,520 frame

Claims (7)

コンテンツデータによって示されるコンテンツ画像をユーザの眼に視認可能に提示し、前記コンテンツ画像を視認しているユーザが外界像を前記コンテンツ画像と重ねて視認できるシースルー型のヘッドマウントディスプレイであって、
前記コンテンツ画像と前記外界像との類似について判断する判断手段と、
前記判断手段によって前記コンテンツ画像と前記外界像とが類似すると判断された場合、前記コンテンツデータに対して画像処理を実行し、前記コンテンツ画像に表示効果を付加する表示効果付加手段と、
前記表示効果付加手段によって前記表示効果が付加された前記コンテンツ画像を、前記ユーザの眼に提示するコンテンツ画像提示手段とを備えることを特徴とするヘッドマウントディスプレイ。
A see-through head-mounted display that presents a content image indicated by content data so as to be visible to the user's eyes, and allows a user viewing the content image to visually recognize an external image superimposed on the content image,
Determining means for determining similarity between the content image and the external image;
Display effect adding means for executing image processing on the content data and adding a display effect to the content image when the determination means determines that the content image and the external image are similar;
A head-mounted display comprising: a content image presentation unit that presents the content image to which the display effect is added by the display effect addition unit to the eyes of the user.
前記外界像を撮像する撮像手段を備え、
前記判断手段は、前記コンテンツ画像と、前記撮像手段によって撮像された前記外界像との類似について判断することを特徴とする請求項1に記載のヘッドマウントディスプレイ。
Comprising imaging means for imaging the external image,
The head mounted display according to claim 1, wherein the determination unit determines a similarity between the content image and the external image captured by the imaging unit.
前記表示効果付加手段は、前記コンテンツ画像提示手段が前記コンテンツ画像を提示する範囲を囲む枠を、前記表示効果として付加することを特徴とする請求項1または請求項2に記載のヘッドマウントディスプレイ。   3. The head mounted display according to claim 1, wherein the display effect adding unit adds, as the display effect, a frame surrounding a range in which the content image presenting unit presents the content image. 前記表示効果付加手段は、前記コンテンツ画像に含まれる第1オブジェクトを囲む枠を、前記第1オブジェクトに前記表示効果として付加することを特徴とする請求項1または請求項2に記載のヘッドマウントディスプレイ。   3. The head mounted display according to claim 1, wherein the display effect adding unit adds a frame surrounding the first object included in the content image to the first object as the display effect. 4. . 前記判断手段は、前記第1オブジェクトと前記外界像に含まれる第2オブジェクトとを比較して、前記コンテンツ画像と前記外界像との類似について判断し、
前記表示効果付加手段は、前記枠を、前記判断手段によって前記第2オブジェクトに類似すると判断された前記第1オブジェクトにのみ前記表示効果として付加することを特徴とする請求項4に記載のヘッドマウントディスプレイ。
The determining means compares the first object with a second object included in the external image, determines the similarity between the content image and the external image,
5. The head mount according to claim 4, wherein the display effect adding unit adds the frame as the display effect only to the first object determined to be similar to the second object by the determining unit. display.
前記表示効果付加手段は、前記コンテンツ画像の色を変化させて、前記コンテンツ画像に前記表示効果を付加することを特徴とする請求項1または請求項2に記載のヘッドマウントディスプレイ。   The head mounted display according to claim 1, wherein the display effect adding unit adds the display effect to the content image by changing a color of the content image. 前記表示効果付加手段は、前記判断手段によって前記コンテンツ画像と前記外界像とが類似していないと判断された場合、前記コンテンツデータに対して前記画像処理を未実行として、前記コンテンツ画像に前記表示効果を付加せず、
前記コンテンツ画像提示手段は、前記表示効果付加手段によって前記表示効果が付加されていない前記コンテンツ画像を、前記ユーザの眼に提示することを特徴とする請求項1から請求項6のいずれか1項に記載のヘッドマウントディスプレイ。
The display effect adding unit, when the determining unit determines that the content image and the external image are not similar, does not execute the image processing on the content data, and displays the display on the content image. Without adding effects,
The content image presenting means presents the content image, to which the display effect is not added by the display effect adding means, to the eyes of the user. The head mounted display as described in.
JP2009218484A 2009-09-24 2009-09-24 Head mounted display Expired - Fee Related JP5375481B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009218484A JP5375481B2 (en) 2009-09-24 2009-09-24 Head mounted display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009218484A JP5375481B2 (en) 2009-09-24 2009-09-24 Head mounted display

Publications (2)

Publication Number Publication Date
JP2011069849A JP2011069849A (en) 2011-04-07
JP5375481B2 true JP5375481B2 (en) 2013-12-25

Family

ID=44015224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009218484A Expired - Fee Related JP5375481B2 (en) 2009-09-24 2009-09-24 Head mounted display

Country Status (1)

Country Link
JP (1) JP5375481B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104699250B (en) * 2015-03-31 2018-10-19 小米科技有限责任公司 Display control method and device, electronic equipment
EP3295347A4 (en) * 2015-05-14 2018-05-02 Magic Leap, Inc. Augmented reality systems and methods for tracking biometric data

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3744984B2 (en) * 1995-10-04 2006-02-15 キヤノン株式会社 Information display device
JP3735086B2 (en) * 2002-06-20 2006-01-11 ウエストユニティス株式会社 Work guidance system
JP5309448B2 (en) * 2007-01-26 2013-10-09 ソニー株式会社 Display device and display method

Also Published As

Publication number Publication date
JP2011069849A (en) 2011-04-07

Similar Documents

Publication Publication Date Title
JP5104679B2 (en) Head mounted display
JP5293025B2 (en) Head mounted display
US8514148B2 (en) Head mount display
US8928556B2 (en) Head mounted display
JP5195537B2 (en) Head mounted display
US20090115968A1 (en) Display apparatus, display method, display program, integrated circuit, goggle-type head-mounted display, vehicle, monocle, and stationary display
WO2010071110A1 (en) Head-mounted display
JP6231541B2 (en) Image projection device
US8540373B2 (en) Retinal scanning display
JP2009245392A (en) Head mount display and head mount display system
JP2011075956A (en) Head-mounted display
US20110316763A1 (en) Head-mounted display apparatus, image control method and image control program
US20180373024A1 (en) Image projection device
JP2010085786A (en) Head-mounted display device
JP2010067154A (en) Head mounted display, information browsing system, and management server
JP6337534B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2011069978A (en) Retina scanning type image display device
JP5375481B2 (en) Head mounted display
JP5218354B2 (en) Head mounted display
JP5109952B2 (en) Head mounted display
WO2016208266A1 (en) Image projection device
WO2010095347A1 (en) Head mounted display
JP2010199789A (en) Head-mounted display
JP2011070093A (en) Head-mounted display
JP2011070251A (en) Head mount display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130827

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130909

R150 Certificate of patent or registration of utility model

Ref document number: 5375481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees