JP6394174B2 - Head-mounted display device, image display system, method for controlling head-mounted display device, and computer program - Google Patents

Head-mounted display device, image display system, method for controlling head-mounted display device, and computer program Download PDF

Info

Publication number
JP6394174B2
JP6394174B2 JP2014166546A JP2014166546A JP6394174B2 JP 6394174 B2 JP6394174 B2 JP 6394174B2 JP 2014166546 A JP2014166546 A JP 2014166546A JP 2014166546 A JP2014166546 A JP 2014166546A JP 6394174 B2 JP6394174 B2 JP 6394174B2
Authority
JP
Japan
Prior art keywords
image
user
unit
display device
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014166546A
Other languages
Japanese (ja)
Other versions
JP2016042680A (en
Inventor
健郎 矢島
健郎 矢島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014166546A priority Critical patent/JP6394174B2/en
Publication of JP2016042680A publication Critical patent/JP2016042680A/en
Application granted granted Critical
Publication of JP6394174B2 publication Critical patent/JP6394174B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、画像表示システムに関する。   The present invention relates to an image display system.

現実環境に対して、コンピューターを用いて付加提示用の情報(例えば、仮想オブジェクト)を付加提示する拡張現実感(AR、Augmented Reality)と呼ばれる技術が知られている。特許文献1には、画像処理装置において、現実環境の実物体と関連付けられている仮想オブジェクトを、実物体へ投影させることが記載されている。   There is known a technique called augmented reality (AR) in which information for additional presentation (for example, a virtual object) is additionally presented to a real environment using a computer. Patent Document 1 describes that in an image processing apparatus, a virtual object associated with a real object in a real environment is projected onto the real object.

特開2013−235374号公報JP 2013-235374 A 特開2013−141049号公報JP 2013-141049 A 特表2012−035768号公報Special table 2012-035768

上述した拡張現実感は、例えば、透過型の頭部装着型表示装置(以降、「HMD」と呼ぶ。)において実現される。透過型のHMDとは、HMDを装着した状態において利用者の視界が遮断されないタイプのHMDである。この場合、例えば、HMDは、カメラで外景を撮像し、撮像により得られた画像を画像認識して仮想オブジェクトを生成する。HMDは、生成した仮想オブジェクトのみを虚像として利用者の眼前に表示させる。利用者は、虚像として表示された仮想オブジェクトと、目前の画像表示部を透過して見える実際の外景との両方を視認することで、拡張現実感を体感することができる。   The augmented reality described above is realized, for example, in a transmissive head-mounted display device (hereinafter referred to as “HMD”). The transmissive HMD is a type of HMD in which the user's field of vision is not blocked when the HMD is worn. In this case, for example, the HMD captures an outside scene with a camera, recognizes an image obtained by the imaging, and generates a virtual object. The HMD displays only the generated virtual object as a virtual image in front of the user's eyes. The user can experience augmented reality by visually recognizing both the virtual object displayed as a virtual image and the actual outside scene that can be seen through the immediate image display unit.

このような拡張現実感の技術を利用して、透過型のHMDにおいて、利用者が目前の画像表示部を透過して見る実際の外景であって、二次元的に表現されている外景(例えば、スクリーンやディスプレイに写された二次元像や、絵画やポスターのような二次元表現物)に含まれるオブジェクトを、三次元的に表示させたいという要望があった。特許文献1〜3に記載の技術では、二次元的に表現されている外景に含まれるオブジェクトを三次元的に表示させることについては何ら考慮されていない。   By using such augmented reality technology, in a transmissive HMD, an actual outside scene that a user sees through the immediate image display section, which is expressed in a two-dimensional manner (for example, There has been a demand to display objects included in a two-dimensional image on a screen or a display or a two-dimensional representation such as a painting or a poster in a three-dimensional manner. In the techniques described in Patent Documents 1 to 3, no consideration is given to three-dimensional display of objects included in an outside scene expressed two-dimensionally.

このため、透過型のHMD(頭部装着型表示装置)において、利用者が目前の画像表示部を透過して見る外景であって、二次元的に表現されている外景に含まれるオブジェクトを三次元的に表示させることが可能な技術が望まれている。このほか、HMDには、小型化、低コスト化、省電力化、製造の容易化、使い勝手の向上等が望まれている。   For this reason, in a transmissive HMD (head-mounted display device), an external scene that a user sees through the immediate image display unit, and objects included in the two-dimensionally expressed external scene are tertiary. A technique that can be displayed originally is desired. In addition, HMDs are desired to be downsized, low cost, power saving, easy manufacturing, and improved usability.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.

(1)本発明の一形態によれば、利用者に虚像と外景とを視認させる透過型の頭部装着型表示装置が提供される。この頭部装着型表示装置は;前記虚像を前記利用者に視認させる画像表示部と;前記外景に含まれるオブジェクトであって、前記画像表示部を透過して前記利用者が視認するオブジェクトの視認性を低下させると共に、少なくとも前記オブジェクトを三次元的に表す前記虚像を前記画像表示部に表示させる像調整部と、を備える。この形態の頭部装着型表示装置によれば、像調整部は、外景に含まれるオブジェクトであって、画像表示部を透過して利用者が視認するオブジェクトの視認性を低下させると共に、オブジェクトを三次元的に表す虚像を画像表示部に表示させる。このようにすれば、透過型の頭部装着型表示装置において、利用者が目前の画像表示部を透過して見る外景に含まれるオブジェクトを、仮想的に、三次元的に表示させることができる。 (1) According to one aspect of the present invention, there is provided a transmissive head-mounted display device that allows a user to visually recognize a virtual image and an outside scene. The head-mounted display device includes: an image display unit that allows the user to visually recognize the virtual image; and an object included in the outside scene that is visible through the image display unit and viewed by the user. And an image adjusting unit that displays at least the virtual image representing the object three-dimensionally on the image display unit. According to the head-mounted display device of this aspect, the image adjustment unit is an object included in the outside scene, and reduces the visibility of the object that the user sees through the image display unit. A three-dimensional virtual image is displayed on the image display unit. In this way, in the transmissive head-mounted display device, it is possible to virtually and three-dimensionally display objects included in the outside scene that the user sees through the image display unit in front of him / her. .

(2)上記形態の頭部装着型表示装置において;前記像調整部は;前記画像表示部を透過して前記利用者が視認する前記オブジェクトと重なる位置に、前記オブジェクトの彩度を下げることが可能な色、または、前記オブジェクトの明度を上げることが可能な色を配置した調整画像を生成し;前記調整画像を表す前記虚像を前記画像表示部に表示させることで、前記オブジェクトの視認性を低下させてもよい。この形態の頭部装着型表示装置によれば、像調整部は、画像表示部を透過して利用者が視認するオブジェクトと重なる位置に、オブジェクトの彩度を下げることが可能な色、または、オブジェクトの明度を上げることが可能な色を配置した調整画像を生成し、調整画像を表す虚像を表示させる。このため、利用者は、画像表示部を透過したオブジェクトと、オブジェクトの彩度を下げることが可能な色またはオブジェクトの明度を上げることが可能な色が配置された調整画像と、を重畳して同時に視認することとなる。この結果、像調整部は、外景に含まれるオブジェクトであって、画像表示部を透過して利用者が視認するオブジェクトの視認性を低下させることができる。 (2) In the head-mounted display device according to the above aspect; the image adjusting unit may reduce the saturation of the object to a position that is transmitted through the image display unit and overlaps the object visually recognized by the user. An adjustment image in which possible colors or colors capable of increasing the brightness of the object are arranged is generated; the virtual image representing the adjustment image is displayed on the image display unit, thereby improving the visibility of the object. It may be lowered. According to this form of the head-mounted display device, the image adjustment unit is a color that can reduce the saturation of the object to a position that overlaps the object that the user sees through the image display unit, or An adjustment image in which a color capable of increasing the brightness of the object is arranged is generated, and a virtual image representing the adjustment image is displayed. Therefore, the user superimposes the object that has passed through the image display unit and the adjustment image in which the color that can reduce the saturation of the object or the color that can increase the brightness of the object is arranged. It will be visible at the same time. As a result, the image adjustment unit can reduce the visibility of an object that is included in the outside scene and that is visible to the user through the image display unit.

(3)上記形態の頭部装着型表示装置において;前記像調整部は;前記画像表示部を透過して前記利用者が視認する前記オブジェクトと同系の色を全体に配置した調整画像を生成し;前記調整画像を表す前記虚像を前記画像表示部に表示させることで、前記オブジェクトの視認性を低下させてもよい。この形態の頭部装着型表示装置によれば、像調整部は、画像表示部を透過して利用者が視認するオブジェクトと同系の色を全体に配置した調整画像を生成し、調整画像を表す虚像を表示させる。このため、利用者は、画像表示部を透過したオブジェクトと、視界全体に広がるオブジェクトと同系の色と、を重畳して同時に視認することとなる。この結果、像調整部は、外景に含まれるオブジェクトであって、画像表示部を透過して利用者が視認するオブジェクトの視認性を低下させることができる。 (3) In the head-mounted display device according to the above aspect; the image adjustment unit; generates an adjustment image in which a color similar to the object that is visually recognized by the user is transmitted through the image display unit. The visibility of the object may be lowered by displaying the virtual image representing the adjusted image on the image display unit. According to this form of the head-mounted display device, the image adjustment unit generates an adjustment image in which the same color as the object that is visible to the user through the image display unit is arranged, and represents the adjustment image. Display a virtual image. For this reason, the user superimposes the object transmitted through the image display unit and the color similar to the object spreading over the entire field of view at the same time. As a result, the image adjustment unit can reduce the visibility of an object that is included in the outside scene and that is visible to the user through the image display unit.

(4)上記形態の頭部装着型表示装置において;前記像調整部は;前記画像表示部を透過して前記利用者が視認する前記外景を表す画像であって、前記外景に含まれる前記オブジェクトが除外された画像の一部を、前記画像表示部を透過して前記利用者が視認する前記オブジェクトと重なる位置に配置した調整画像を生成し;前記調整画像を表す前記虚像を前記画像表示部に表示させることで、前記オブジェクトの視認性を低下させてもよい。この形態の頭部装着型表示装置によれば、像調整部は、外景を表す画像であって外景に含まれるオブジェクトが除外された画像の一部を、画像表示部を透過して利用者が視認するオブジェクトと重なる位置に配置した調整画像を生成し、調整画像を表す虚像を表示させる。このため、利用者は、画像表示部を透過したオブジェクトと、外景に含まれるオブジェクトが除外された画像が配置された調整画像と、を重畳して同時に視認することとなる。この結果、像調整部は、外景に含まれるオブジェクトであって、画像表示部を透過して利用者が視認するオブジェクトの視認性を低下させることができる。 (4) In the head-mounted display device according to the above aspect; the image adjusting unit is an image representing the outside scene that is transmitted through the image display unit and visually recognized by the user, and the object included in the outside scene Generating an adjustment image in which a part of the image from which the image is excluded is arranged at a position overlapping with the object that is visible to the user through the image display unit; and the virtual image representing the adjustment image is displayed in the image display unit The visibility of the object may be reduced by causing the object to be displayed. According to this form of the head-mounted display device, the image adjustment unit transmits a part of the image representing the outside scene and excluding the object included in the outside scene through the image display unit by the user. An adjustment image arranged at a position overlapping with the object to be visually recognized is generated, and a virtual image representing the adjustment image is displayed. For this reason, the user superimposes the object that has passed through the image display unit and the adjustment image in which the image from which the object included in the outside scene is excluded is superimposed and simultaneously viewed. As a result, the image adjustment unit can reduce the visibility of an object that is included in the outside scene and that is visible to the user through the image display unit.

(5)上記形態の頭部装着型表示装置では、さらに;前記オブジェクトを三次元的に表すための三次元画像を取得する三次元画像取得部を備え;前記像調整部は、前記三次元画像に基づいて前記色を決定してもよい。この形態の頭部装着型表示装置によれば、像調整部は、取得した三次元画像に基づいて、調整画像のための色を簡単に決定することができる。 (5) The head-mounted display device according to the above aspect further includes: a three-dimensional image acquisition unit that acquires a three-dimensional image for representing the object three-dimensionally; and the image adjustment unit includes the three-dimensional image The color may be determined based on: According to the head-mounted display device of this aspect, the image adjusting unit can easily determine the color for the adjusted image based on the acquired three-dimensional image.

(6)上記形態の頭部装着型表示装置では、さらに;前記オブジェクトを三次元的に表すための三次元画像を取得する三次元画像取得部と;前記外景を二次元的に表す二次元画像を取得する二次元画像取得部と、を備え;前記像調整部は、前記二次元画像と前記三次元画像とを比較することで、前記調整画像における前記重なる位置を特定してもよい。この形態の頭部装着型表示装置によれば、像調整部は、外部から取得した三次元画像と、外部から取得した二次元画像とを比較することで、調整画像における「重なる位置」を簡単に特定することができる。 (6) In the head-mounted display device according to the above aspect, further; a three-dimensional image acquisition unit that acquires a three-dimensional image for representing the object three-dimensionally; and a two-dimensional image that represents the outside scene two-dimensionally A two-dimensional image acquiring unit that acquires the image; and the image adjusting unit may identify the overlapping position in the adjusted image by comparing the two-dimensional image and the three-dimensional image. According to the head-mounted display device of this aspect, the image adjustment unit easily compares the three-dimensional image acquired from the outside with the two-dimensional image acquired from the outside, thereby easily “overlapping position” in the adjustment image. Can be specified.

(7)上記形態の頭部装着型表示装置では、さらに;前記オブジェクトを三次元的に表すための三次元画像を取得する三次元画像取得部と;前記頭部装着型表示装置を装着した状態における前記利用者の視界方向を撮像した二次元画像を取得する二次元画像取得部と、を備え;前記像調整部は、前記二次元画像と前記三次元画像とを比較することで、前記調整画像における前記重なる位置を特定してもよい。この形態の頭部装着型表示装置によれば、像調整部は、外部から取得した三次元画像と、利用者の視界方向を撮像した二次元画像とを比較することで、実際の利用者の視界方向の情報に基づいて、調整画像における「重なる位置」を正確に特定することができる。 (7) In the head-mounted display device according to the above aspect, further: a three-dimensional image acquisition unit that acquires a three-dimensional image for representing the object three-dimensionally; a state in which the head-mounted display device is mounted A two-dimensional image acquisition unit that acquires a two-dimensional image obtained by imaging the user's visual field direction; and the image adjustment unit compares the two-dimensional image with the three-dimensional image to thereby adjust the adjustment. The overlapping position in the image may be specified. According to this form of the head-mounted display device, the image adjustment unit compares the three-dimensional image acquired from the outside with the two-dimensional image obtained by capturing the user's visual field direction, thereby Based on the information on the viewing direction, the “overlapping position” in the adjusted image can be accurately specified.

(8)上記形態の頭部装着型表示装置を備える画像表示システムでは、さらに;情報処理装置と;画像表示装置と、を備え;前記情報処理装置は;前記画像表示装置に対して前記オブジェクトを含む二次元画像を送信すると共に、前記頭部装着型表示装置に対して少なくとも前記オブジェクトを三次元的に表すための三次元画像を送信する送信部を備え;前記画像表示装置は;前記情報処理装置より送信された前記二次元画像を表示させる表示部を備えてもよい。この形態の画像表示システムによれば、画像表示装置に表示されている二次元像に含まれていることで、利用者が目前の画像表示部を透過して見る外景に含まれるオブジェクトを、仮想的に、三次元的に表示させることができる。 (8) The image display system including the head-mounted display device of the above aspect further includes: an information processing device; an image display device; the information processing device; A transmission unit that transmits a two-dimensional image including the image and at least transmits a three-dimensional image for representing the object three-dimensionally to the head-mounted display device; the image display device; You may provide the display part which displays the said two-dimensional image transmitted from the apparatus. According to the image display system of this aspect, the object included in the outside scene that the user sees through the image display unit in front of the virtual object is included in the two-dimensional image displayed on the image display device. Therefore, it can be displayed three-dimensionally.

上述した本発明の各形態の有する複数の構成要素は全てが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな構成要素との差し替え、限定内容の一部削除を行うことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。   A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with a new component, and partially delete the limited contents of some of the plurality of components. In order to solve some or all of the above-described problems or achieve some or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.

例えば、本発明の一形態は、画像表示部と、像調整部と、の2つの要素のうちの一部または全部の要素を備えた装置として実現可能である。すなわち、この装置は、画像表示部を有していてもよく、有していなくてもよい。また、この装置は、像調整部を有していてもよく、有していなくてもよい。こうした装置は、例えば頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。   For example, one embodiment of the present invention can be realized as an apparatus including some or all of the two elements of the image display unit and the image adjustment unit. That is, this apparatus may or may not have an image display unit. In addition, this apparatus may or may not have an image adjustment unit. Such a device can be realized, for example, as a head-mounted display device, but can also be realized as a device other than the head-mounted display device. Any or all of the technical features of each form of the head-mounted display device described above can be applied to this device.

なお、本発明は、種々の態様で実現することが可能であり、例えば、頭部装着型表示装置、頭部装着型表示装置を制御する方法、頭部装着型表示装置を備える画像表示システム、画像表示システムを制御する方法、これらの装置、方法、システムの機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記憶した記憶媒体等の形態で実現することができる。   The present invention can be realized in various modes. For example, a head-mounted display device, a method for controlling the head-mounted display device, an image display system including the head-mounted display device, The present invention can be realized in the form of a method for controlling an image display system, a computer program for realizing the functions of these apparatuses, methods, and systems, a storage medium storing the computer program, and the like.

本発明の一実施形態における画像表示システムの概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the image display system in one Embodiment of this invention. HMD100の構成を機能的に示すブロック図である。2 is a block diagram functionally showing the configuration of the HMD 100. FIG. 利用者に視認される虚像の一例を示す説明図である。It is explanatory drawing which shows an example of the virtual image visually recognized by the user. サーバー300の構成を機能的に示すブロック図である。3 is a block diagram functionally showing the configuration of a server 300. FIG. 表示処理の手順を示すシーケンス図である。It is a sequence diagram which shows the procedure of a display process. キャンセル領域について説明するための説明図である。It is explanatory drawing for demonstrating a cancellation area | region. 調整画像の第1の生成方法についての説明図である。It is explanatory drawing about the 1st production | generation method of an adjustment image. 調整画像の第2の生成方法についての説明図である。It is explanatory drawing about the 2nd generation method of an adjustment image. 調整画像の第3の生成方法についての説明図である。It is explanatory drawing about the 3rd generation method of an adjustment image. 表示処理の結果を示す説明図である。It is explanatory drawing which shows the result of a display process. 表示処理の結果を示す他の説明図である。It is another explanatory drawing which shows the result of a display process. 表示処理(変形)の結果を示す説明図である。It is explanatory drawing which shows the result of a display process (deformation). 第2実施形態におけるHMD100aの構成を機能的に示すブロック図である。It is a block diagram which shows functionally the structure of HMD100a in 2nd Embodiment. 第2実施形態における表示処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the display process in 2nd Embodiment. 第2実施形態における表示処理の結果を示す説明図である。It is explanatory drawing which shows the result of the display process in 2nd Embodiment. 変形例におけるHMDの外観の構成を示す説明図である。It is explanatory drawing which shows the structure of the external appearance of HMD in a modification.

A.第1実施形態:
A−1.画像表示システムの構成:
図1は、本発明の一実施形態における画像表示システムの概略構成を示す説明図である。画像表示システム1は、頭部装着型表示装置100と、プロジェクター200およびスクリーン250と、サーバー300と、を備えている。
A. First embodiment:
A-1. Image display system configuration:
FIG. 1 is an explanatory diagram showing a schematic configuration of an image display system according to an embodiment of the present invention. The image display system 1 includes a head-mounted display device 100, a projector 200, a screen 250, and a server 300.

頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態のHMD100は、利用者が、虚像を視認すると同時に外景も直接視認することができる光学透過型のヘッドマウントディスプレイである。   The head-mounted display device 100 is a display device mounted on the head, and is also called a head mounted display (HMD). The HMD 100 of the present embodiment is an optically transmissive head mounted display that allows a user to visually recognize a virtual image and at the same time directly view an outside scene.

プロジェクター200は、供給された画像をスクリーン250に投写する。スクリーン250は「表示部」として機能し、スクリーン250と、プロジェクター200とは、協働することで「画像表示装置」として機能する。   The projector 200 projects the supplied image on the screen 250. The screen 250 functions as a “display unit”, and the screen 250 and the projector 200 cooperate with each other to function as an “image display device”.

サーバー300は、HMD100とプロジェクター200とに対して、画像を供給する。具体的には、サーバー300は、プロジェクター200に対して、二次元画像の画像データーを供給する。さらに、サーバー300は、HMD100に対して、二次元画像に含まれる任意のオブジェクトを三次元的に表すための三次元画像の画像データーを供給する。   The server 300 supplies an image to the HMD 100 and the projector 200. Specifically, the server 300 supplies image data of a two-dimensional image to the projector 200. Further, the server 300 supplies the HMD 100 with image data of a three-dimensional image for three-dimensionally representing an arbitrary object included in the two-dimensional image.

ここで、「オブジェクト」とは、二次元画像として表示されている画像に含まれている各物体、または、利用者がHMD100を透過して視認する外景(実世界)に存在する各物体、のうちのいずれかを意味する。「二次元画像」とは、HMD100の利用者の両眼に同一の画像(虚像)、換言すれば、視差のない画像を表示させることにより、利用者に立体感を感じさせない画像を意味する。「三次元画像」とは、HMD100の利用者の両眼に視差を付けた画像を表示させることにより、利用者に立体感を感じさせることのできる画像を意味する。なお、三次元画像は、視差を付与する以外の方法で実現されてもよい。例えば、画像を傾けることで利用者に立体感を感じさせる画像であってもよく、遠近法を用いることで利用者に立体感を感じさせる画像であってもよい。また、利用者の視点の移動に伴う運動立体視によって利用者に立体感を感じさせる画像であってもよい。また、画像内のオブジェクトに光や影を付与することにより利用者に立体感を感じさせる画像であってもよく、画像のコントラストを調整することにより利用者に立体感を感じさせる画像であってもよい。   Here, the “object” refers to each object included in the image displayed as a two-dimensional image, or each object present in the outside scene (real world) that the user views through the HMD 100. Means one of them. The “two-dimensional image” means an image that does not make the user feel a stereoscopic effect by displaying the same image (virtual image) in both eyes of the user of the HMD 100, in other words, an image without parallax. The “three-dimensional image” means an image that allows the user to feel a stereoscopic effect by displaying an image with parallax on both eyes of the user of the HMD 100. Note that the three-dimensional image may be realized by a method other than adding parallax. For example, it may be an image that causes the user to feel a stereoscopic effect by tilting the image, or may be an image that causes the user to feel a stereoscopic effect by using a perspective method. Moreover, the image which makes a user feel a three-dimensional effect by the movement stereoscopic vision accompanying the movement of a user's viewpoint may be sufficient. Further, it may be an image that gives a user a stereoscopic effect by adding light or shadow to an object in the image, or an image that gives the user a stereoscopic effect by adjusting the contrast of the image. Also good.

HMD100は、通信キャリアBSを介して無線通信でインターネットINTに接続されている。プロジェクター200は、通信キャリアBSを介して無線通信でインターネットINTに接続されている。サーバー300は、有線通信でインターネットINTに接続されている。この結果、サーバー300とヘッドマウントディスプレイ100、サーバー300とプロジェクター200、とは互いにインターネットINTによって接続される。通信キャリアBSは、送受信アンテナや、無線基地局、交換局を含む。   The HMD 100 is connected to the Internet INT by wireless communication via the communication carrier BS. The projector 200 is connected to the Internet INT by wireless communication via the communication carrier BS. The server 300 is connected to the Internet INT by wired communication. As a result, the server 300 and the head mounted display 100, and the server 300 and the projector 200 are connected to each other via the Internet INT. The communication carrier BS includes a transmission / reception antenna, a radio base station, and an exchange station.

本実施形態のHMD100は、後述の表示処理を実行することにより、外景に含まれる任意のオブジェクトであって、利用者がHMD100を透過して視認する任意のオブジェクトの視認性を低下させると共に、当該オブジェクトを三次元的に表す虚像を、利用者に視認させることができる。   The HMD 100 of the present embodiment reduces the visibility of an arbitrary object that is included in an outside scene and is viewed by the user through the HMD 100 by executing display processing described later. A virtual image representing the object three-dimensionally can be visually recognized by the user.

A−2.頭部装着型表示装置(HMD)の構成:
図1に示すように、HMD100は、利用者の頭部に装着された状態において利用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。なお、以降の説明において、HMD100によって利用者が視認する虚像を便宜的に「表示画像」とも呼ぶ。また、HMD100が画像データーに基づいて生成された画像光を射出することを「画像を表示する」ともいう。
A-2. Configuration of head mounted display (HMD):
As shown in FIG. 1, the HMD 100 includes an image display unit 20 that allows a user to visually recognize a virtual image when mounted on the user's head, and a control unit (controller) 10 that controls the image display unit 20. ing. In the following description, a virtual image visually recognized by the user with the HMD 100 is also referred to as a “display image” for convenience. In addition, the HMD 100 emitting the image light generated based on the image data is also referred to as “displaying an image”.

A−2−1.画像表示部の構成:
図2は、HMD100の構成を機能的に示すブロック図である。図1に示すように、画像表示部20は、利用者の頭部に装着される装着体であり、本実施形態では眼鏡形状である。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、9軸センサー66と、を備えている。以降、利用者が画像表示部20を装着した状態における、画像表示部20の各部の位置関係と機能について説明する。
A-2-1. Configuration of image display:
FIG. 2 is a block diagram functionally showing the configuration of the HMD 100. As shown in FIG. 1, the image display unit 20 is a wearing body that is worn on the user's head, and in the present embodiment, has an eyeglass shape. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61. And a 9-axis sensor 66. Hereinafter, the positional relationship and function of each unit of the image display unit 20 in a state where the user wears the image display unit 20 will be described.

図1に示すように、右光学像表示部26および左光学像表示部28は、利用者の右の眼前と、左の眼前とにそれぞれ位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、利用者の眉間に対応する位置で接続されている。図2に示すように、右光学像表示部26は、右導光板261と調光板(図示省略)とを備えている。右導光板261は、光透過性の樹脂材料等によって形成され、右表示駆動部22から出力された画像光を、所定の光路に沿って反射させつつ利用者の右眼REに導く。調光板は、薄板状の光学素子であり、画像表示部20の表側(利用者の眼の側とは反対の側)を覆うように配置されている。調光板は、導光板261を保護し、導光板261の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、利用者の眼に入る外光量を調整して虚像の視認のしやすさを調整することができる。なお、調光板は省略可能である。   As shown in FIG. 1, the right optical image display unit 26 and the left optical image display unit 28 are disposed so as to be positioned in front of the user's right eye and in front of the left eye, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected at a position corresponding to the eyebrow of the user. As shown in FIG. 2, the right optical image display unit 26 includes a right light guide plate 261 and a light control plate (not shown). The right light guide plate 261 is formed of a light transmissive resin material or the like, and guides the image light output from the right display driving unit 22 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The light control plate is a thin plate-like optical element, and is disposed so as to cover the front side of the image display unit 20 (the side opposite to the user's eye side). The light control plate protects the light guide plate 261 and suppresses damage to the light guide plate 261 and adhesion of dirt. Further, by adjusting the light transmittance of the light control plate, it is possible to adjust the external light quantity entering the user's eyes and adjust the ease of visual recognition of the virtual image. The light control plate can be omitted.

左光学像表示部28は、左導光板262と調光板(図示省略)とを備えている。これらの詳細は、右光学像表示部26と同様である。なお、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。光学像表示部は、画像光を用いて利用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いて実現されても良いし、半透過反射膜を用いて実現されても良い。   The left optical image display unit 28 includes a left light guide plate 262 and a light control plate (not shown). These details are the same as those of the right optical image display unit 26. Note that the right optical image display unit 26 and the left optical image display unit 28 are collectively referred to simply as “optical image display unit”. The optical image display unit can use any method as long as it forms a virtual image in front of the user's eyes using image light. For example, the optical image display unit may be realized using a diffraction grating, or a transflective film may be used. It may be realized by using.

図1に示すように、右保持部21は、右光学像表示部26の他端ERから利用者の側頭部に対応する位置にかけて延伸して設けられている。左保持部23は、左光学像表示部28の他端ELから利用者の側頭部に対応する位置にかけて、延伸して設けられている。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、利用者の頭部に画像表示部20を保持する。なお、右保持部21および左保持部23を総称して単に「保持部」とも呼ぶ。   As shown in FIG. 1, the right holding unit 21 extends from the other end ER of the right optical image display unit 26 to a position corresponding to the user's temporal region. The left holding unit 23 is provided to extend from the other end EL of the left optical image display unit 28 to a position corresponding to the user's temporal region. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses. The right holding unit 21 and the left holding unit 23 are also collectively referred to simply as “holding unit”.

図1に示すように、右表示駆動部22は、右保持部21の内側(利用者の頭部に対向する側)に配置されている。左表示駆動部24は、左保持部23の内側に配置されている。図2に示すように、右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD(液晶ディスプレイ、Liquid Crystal Display)制御部211および右LCD241と、右投写光学系251とを備えている。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて右バックライト221を駆動する。右バックライト221は、例えばLED(Light Emitting Diode)やエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データーData1とに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズである。   As shown in FIG. 1, the right display driving unit 22 is disposed inside the right holding unit 21 (the side facing the user's head). The left display driving unit 24 is disposed inside the left holding unit 23. As shown in FIG. 2, the right display driving unit 22 functions as a receiving unit (Rx) 53, a right backlight (BL) control unit 201 and a right backlight (BL) 221 that function as a light source, and a display element. A right LCD (Liquid Crystal Display) control unit 211, a right LCD 241, and a right projection optical system 251 are provided. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are also collectively referred to as “image light generation unit”. The receiving unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED (Light Emitting Diode) or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data1 input via the reception unit 53. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix. The right projection optical system 251 is a collimating lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state.

左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252とを備えている。これらの詳細は、右表示駆動部22と同様である。なお、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼ぶ。   The left display driving unit 24 includes a receiving unit (Rx) 54, a left backlight (BL) control unit 202 and a left backlight (BL) 222 that function as a light source, a left LCD control unit 212 and a left that function as a display element. An LCD 242 and a left projection optical system 252 are provided. These details are the same as those of the right display drive unit 22. Note that the right display drive unit 22 and the left display drive unit 24 are collectively referred to simply as a “display drive unit”.

カメラ61は、利用者の右側の目尻に対応する位置に配置されている。カメラ61は、画像表示部20の表側方向、換言すれば、ヘッドマウントディスプレイ100を装着した状態における利用者の視界方向の外景(外部の景色)を撮像し、外景画像を取得する。カメラ61はいわゆる可視光カメラであり、カメラ61により取得される外景画像は、物体から放射される可視光から物体の形状を表す画像である。本実施形態におけるカメラ61は単眼カメラであるが、ステレオカメラとしてもよい。カメラ61は「撮像部」として機能する。   The camera 61 is disposed at a position corresponding to the right eye corner of the user. The camera 61 captures an outside scene image in the front side direction of the image display unit 20, in other words, an outside scene (external scenery) in the user's viewing direction with the head mounted display 100 attached. The camera 61 is a so-called visible light camera, and the outside scene image acquired by the camera 61 is an image representing the shape of the object from the visible light emitted from the object. The camera 61 in the present embodiment is a monocular camera, but may be a stereo camera. The camera 61 functions as an “imaging unit”.

9軸センサー66は、利用者の右側のこめかみに対応する位置に配置されている。9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が頭部に装着されているときには、頭部の動きを検出する「動き検出部」として機能する。ここで、頭部の動きとは、頭部の速度・加速度・角速度・向き・向きの変化を含む。   The 9-axis sensor 66 is disposed at a position corresponding to the temple on the right side of the user. The 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). Since the 9-axis sensor 66 is provided in the image display unit 20, when the image display unit 20 is mounted on the head, it functions as a “motion detection unit” that detects the movement of the head. Here, the movement of the head includes changes in the speed, acceleration, angular velocity, direction, and direction of the head.

図1に示すように、画像表示部20は、画像表示部20と制御部10とを接続するための接続部40を備えている。接続部40は、制御部10に接続される本体コード48と、本体コード48が分岐した右コード42および左コード44と、分岐点に設けられた連結部材46と、を含んでいる。右コード42は、右表示駆動部22に接続され、左コード44は、左表示駆動部24に接続されている。連結部材46には、イヤホンプラグ30を接続するためのジャックが設けられている。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。本体コード48における連結部材46とは反対側の端部には、コネクター(図示省略)が設けられている。このコネクターは、制御部10に設けられたコネクター(図示省略)との嵌合/嵌合解除により、制御部10と画像表示部20との接続/接続解除を実現する。画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。右コード42と、左コード44と、本体コード48には、例えば、金属ケーブルや光ファイバーを採用することができる。   As shown in FIG. 1, the image display unit 20 includes a connection unit 40 for connecting the image display unit 20 and the control unit 10. The connection unit 40 includes a main body cord 48 connected to the control unit 10, a right cord 42 and a left cord 44 branched from the main body cord 48, and a connecting member 46 provided at the branch point. The right cord 42 is connected to the right display driving unit 22, and the left cord 44 is connected to the left display driving unit 24. The connecting member 46 is provided with a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30. A connector (not shown) is provided at the end of the main body cord 48 opposite to the connecting member 46. This connector realizes connection / disconnection between the control unit 10 and the image display unit 20 by fitting / releasing with a connector (not shown) provided in the control unit 10. The image display unit 20 and the control unit 10 transmit various signals via the connection unit 40. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

A−2−2.制御部の構成:
図1に示すように、制御部10はHMD100を制御するための装置である。制御部10は、決定キー11と、点灯部12と、表示切替キー13と、トラックパッド14と、輝度切替キー15と、方向キー16と、メニューキー17と、電源スイッチ18と、を備えている。決定キー11は、押下操作を検出して、制御部10において操作された内容を決定するための信号を出力する。点灯部12は、例えばLEDによって実現され、HMD100の動作状態(例えば電源のON/OFF等)を発光状態によって通知する。表示切替キー13は、押下操作を検出して、例えばコンテンツ動画の表示モードを3Dと2Dとに切り替える信号を出力する。トラックパッド14は、トラックパッド14の操作面上における利用者の指の操作を検出して、検出内容に応じた信号を出力する。トラックパッド14としては、静電式や圧力検出式、光学式といった種々の方式を採用できる。輝度切替キー15は、押下操作を検出して、画像表示部20の輝度を増減する信号を出力する。方向キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源投入状態を切り替える。
A-2-2. Configuration of control unit:
As shown in FIG. 1, the control unit 10 is a device for controlling the HMD 100. The control unit 10 includes a determination key 11, a lighting unit 12, a display switching key 13, a track pad 14, a luminance switching key 15, a direction key 16, a menu key 17, and a power switch 18. Yes. The determination key 11 detects a pressing operation and outputs a signal for determining the content operated in the control unit 10. The lighting unit 12 is realized by, for example, an LED, and notifies the operation state of the HMD 100 (for example, ON / OFF of the power source) by the light emission state. The display switching key 13 detects a pressing operation, and outputs a signal for switching the display mode of the content moving image between 3D and 2D, for example. The track pad 14 detects the operation of the user's finger on the operation surface of the track pad 14 and outputs a signal corresponding to the detected content. As the track pad 14, various methods such as an electrostatic method, a pressure detection method, and an optical method can be adopted. The luminance switching key 15 detects a pressing operation and outputs a signal for increasing or decreasing the luminance of the image display unit 20. The direction key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power-on state of the HMD 100 by detecting a slide operation of the switch.

図2に示すように、制御部10は、入力情報取得部110と、記憶部120と、電源130と、無線通信部132と、GPSモジュール134と、CPU140と、インターフェイス180と、送信部(Tx)51および52とを備え、各部は図示しないバスにより相互に接続されている。   2, the control unit 10 includes an input information acquisition unit 110, a storage unit 120, a power supply 130, a wireless communication unit 132, a GPS module 134, a CPU 140, an interface 180, and a transmission unit (Tx ) 51 and 52, and the respective parts are connected to each other by a bus (not shown).

入力情報取得部110は、決定キー11、表示切替キー13、トラックパッド14、輝度切替キー15、方向キー16、メニューキー17、および、電源スイッチ18に対する操作入力に応じた信号を取得する。入力情報取得部110は、上記以外の種々の方法を用いた操作入力を取得することができる。例えば、フットスイッチ(利用者の足により操作するスイッチ)による操作入力を取得してもよい。例えば、図示しない視線検出部によって検出された利用者の視線や、目の動きに対応付けられたコマンドによる操作入力を取得してもよい。このコマンドは利用者によって追加可能に設定されていてもよい。例えば、利用者の視界方向の画像を撮影するカメラを用いて利用者のジェスチャーを検知し、ジェスチャーに対応付けられたコマンドによる操作入力を取得してもよい。ジェスチャー検知の際は、利用者の指先や、利用者の手に付けられた指輪や、利用者の手にする医療器具等を動き検出のための目印にすることができる。フットスイッチや視線による操作入力を取得可能とすれば、利用者が手を離すことが困難である作業においても、入力情報取得部110は、利用者からの操作入力を取得することができる。   The input information acquisition unit 110 acquires signals corresponding to operation inputs to the enter key 11, the display switching key 13, the track pad 14, the luminance switching key 15, the direction key 16, the menu key 17, and the power switch 18. The input information acquisition unit 110 can acquire operation inputs using various methods other than those described above. For example, an operation input using a foot switch (a switch operated by a user's foot) may be acquired. For example, an operation input based on a user's line of sight detected by a line-of-sight detection unit (not shown) or a command associated with eye movement may be acquired. This command may be set to be addable by the user. For example, a user's gesture may be detected using a camera that captures an image in the user's field of view, and an operation input by a command associated with the gesture may be acquired. When detecting a gesture, a user's fingertip, a ring attached to the user's hand, a medical instrument held by the user's hand, or the like can be used as a mark for motion detection. If it is possible to acquire an operation input using a foot switch or a line of sight, the input information acquisition unit 110 can acquire an operation input from the user even in a task that is difficult for the user to release.

記憶部120は、ROM、RAM、DRAM、ハードディスク等によって構成されている。記憶部120には、オペレーティングシステム(ОS)をはじめとする種々のコンピュータープログラムが格納されている。   The storage unit 120 includes a ROM, a RAM, a DRAM, a hard disk, and the like. The storage unit 120 stores various computer programs including an operating system (OS).

電源130は、HMD100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。   The power supply 130 supplies power to each part of the HMD 100. As the power supply 130, for example, a secondary battery can be used.

無線通信部132は、所定の無線通信規格に則って、外部装置との間で無線通信を行う。所定の無線通信規格とは、例えば、赤外線、Bluetooth(登録商標)に例示される近距離無線通信、IEEE802.11に例示される無線LAN等である。   The wireless communication unit 132 performs wireless communication with an external device in accordance with a predetermined wireless communication standard. The predetermined wireless communication standard is, for example, infrared, short-range wireless communication exemplified by Bluetooth (registered trademark), wireless LAN exemplified by IEEE 802.11, or the like.

GPSモジュール134は、GPS衛星からの信号を受信することにより、HMD100の利用者の現在位置を検出し、利用者の現在位置情報を表す現在位置情報を生成する。現在位置情報は、例えば緯度経度を表す座標によって実現することができる。   The GPS module 134 detects the current position of the user of the HMD 100 by receiving a signal from a GPS satellite, and generates current position information representing the current position information of the user. The current position information can be realized by coordinates representing latitude and longitude, for example.

CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、二次元画像取得部142、三次元画像取得部144、像調整部146、OS150、画像処理部160、音声処理部170、表示制御部190として機能する。   The CPU 140 reads and executes a computer program stored in the storage unit 120, thereby executing a 2D image acquisition unit 142, a 3D image acquisition unit 144, an image adjustment unit 146, an OS 150, an image processing unit 160, and an audio processing unit. 170 functions as the display control unit 190.

二次元画像取得部142は、後述の表示処理において、HMD100がサーバー300から受信した二次元画像を取得する。三次元画像取得部144は、後述の表示処理において、HMD100がサーバー300から受信した三次元画像を取得する。   The two-dimensional image acquisition unit 142 acquires a two-dimensional image received by the HMD 100 from the server 300 in a display process described later. The three-dimensional image acquisition unit 144 acquires a three-dimensional image received by the HMD 100 from the server 300 in the display process described later.

像調整部146は、後述の表示処理を実行する。表示処理とは、外景に含まれる任意のオブジェクトであって、利用者がHMD100の画像表示部20を透過して視認する任意のオブジェクトの視認性を低下させると共に、当該オブジェクトを三次元的に表す虚像を形成するための処理である。詳細は後述する。   The image adjustment unit 146 performs display processing described later. The display process is an arbitrary object included in the outside scene, and reduces the visibility of an arbitrary object that the user views through the image display unit 20 of the HMD 100, and represents the object three-dimensionally. This is a process for forming a virtual image. Details will be described later.

画像処理部160は、インターフェイス180や無線通信部132を介して入力されるコンテンツ(映像)に基づいて信号を生成する。例えば、コンテンツがディジタル形式の場合、画像処理部160は、クロック信号PCLKと、画像データーDataとを生成する。なお、ディジタル形式の場合、クロック信号PCLKが画像信号に同期して出力されるため、垂直同期信号VSyncおよび水平同期信号HSyncの生成と、アナログ画像信号のA/D変換とは不要である。画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSyncと、記憶部120内のDRAMに格納された画像データーDataとを、送信部51、52を介して、画像表示部20へ送信する。送信部51を介して送信される画像データーDataを「右眼用画像データーData1」とも呼び、送信部52を介して送信される画像データーDataを「左眼用画像データーData2」とも呼ぶ。なお、画像処理部160は、記憶部120に格納された画像データーDataに対して、解像度変換処理、輝度や彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。   The image processing unit 160 generates a signal based on content (video) input via the interface 180 or the wireless communication unit 132. For example, when the content is in a digital format, the image processing unit 160 generates a clock signal PCLK and image data Data. In the case of the digital format, since the clock signal PCLK is output in synchronization with the image signal, generation of the vertical synchronization signal VSync and the horizontal synchronization signal HSync and A / D conversion of the analog image signal are unnecessary. The image processing unit 160 transmits the generated clock signal PCLK, vertical synchronization signal VSync, horizontal synchronization signal HSync, and image data Data stored in the DRAM in the storage unit 120 to the image via the transmission units 51 and 52. Transmit to the display unit 20. The image data Data transmitted via the transmission unit 51 is also referred to as “right eye image data Data1”, and the image data Data transmitted via the transmission unit 52 is also referred to as “left eye image data Data2”. Note that the image processing unit 160 performs image processing such as resolution conversion processing, various tone correction processing such as adjustment of luminance and saturation, and keystone correction processing on the image data Data stored in the storage unit 120. May be.

表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、左右のLCD制御部211、212による左右のLCD241、242の駆動ON/OFFや、左右のバックライト制御部201、202による左右のバックライト221、222の駆動ON/OFFを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。表示制御部190は、これらの制御信号を、送信部51、52を介して画像表示部20へ送信する。   The display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 turns on and off the left and right LCDs 241 and 242 by the left and right LCD control units 211 and 212 and the left and right backlights by the left and right backlight control units 201 and 202 according to the control signal. The generation and emission of image light by the right display drive unit 22 and the left display drive unit 24 are controlled by individually controlling the driving ON / OFF of the 221 and 222, respectively. The display control unit 190 transmits these control signals to the image display unit 20 via the transmission units 51 and 52.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、右イヤホン32の図示しないスピーカーと、左イヤホン34の図示しないスピーカーとに対して供給する。   The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and supplies the acquired audio signal to a speaker (not shown) of the right earphone 32 and a speaker (not shown) of the left earphone 34.

インターフェイス180は、所定の有線通信規格に則って、外部装置OAとの間で通信を行う。所定の有線通信規格としては、例えば、MicroUSB(Universal Serial Bus)、USB、HDMI(High Definition Multimedia Interface、HDMIは登録商標)、DVI(Digital Visual Interface)、VGA(Video Graphics Array)、コンポジット、RS−232C(Recommended Standard 232)、IEEE802.3に例示される有線LAN等である。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等を利用することができる。   The interface 180 communicates with the external device OA in accordance with a predetermined wired communication standard. The predetermined wired communication standards include, for example, MicroUSB (Universal Serial Bus), USB, HDMI (High Definition Multimedia Interface, HDMI is a registered trademark), DVI (Digital Visual Interface), VGA (Video Graphics Array), Composite, RS- The wired LAN is exemplified by 232C (Recommended Standard 232) and IEEE802.3. As the external device OA, for example, a personal computer PC, a mobile phone terminal, a game terminal, or the like can be used.

図3は、利用者に視認される虚像の一例を示す説明図である。上述のようにして、HMD100の利用者の両眼に導かれた画像光が利用者の網膜に結像することにより、利用者は虚像VIを視認する。図の例では、虚像VIは、HMD100のOS150の待ち受け画面である。また、利用者は、右光学像表示部26および左光学像表示部28を透過して外景SCを視認する。このように、本実施形態のHMD100の利用者は、視野VRのうち虚像VIが表示された部分については、虚像VIと、虚像VIの背後の外景SCとを見ることができる。また、視野VRのうち虚像VIが表示されていない部分については、光学像表示部を透過して、外景SCを直接見ることができる。   FIG. 3 is an explanatory diagram illustrating an example of a virtual image visually recognized by the user. As described above, the image light guided to both eyes of the user of the HMD 100 forms an image on the retina of the user, so that the user visually recognizes the virtual image VI. In the illustrated example, the virtual image VI is a standby screen of the OS 150 of the HMD 100. Further, the user views the outside scene SC through the right optical image display unit 26 and the left optical image display unit 28. Thus, the user of the HMD 100 of the present embodiment can see the virtual image VI and the outside scene SC behind the virtual image VI for the portion of the visual field VR where the virtual image VI is displayed. In addition, the portion of the visual field VR where the virtual image VI is not displayed can be seen through the optical scene display portion and directly through the outside scene SC.

A−3.サーバーの構成:
図4は、サーバー300の構成を機能的に示すブロック図である。サーバー300は、CPU310と、ROM320と、RAM330と、通信インターフェィス(I/F)340と、記憶部350と、を備え、各部は図示しないバスにより相互に接続されている。なお、サーバー300は「情報処理装置」として機能する。
A-3. Server configuration:
FIG. 4 is a block diagram functionally showing the configuration of the server 300. The server 300 includes a CPU 310, a ROM 320, a RAM 330, a communication interface (I / F) 340, and a storage unit 350, and the respective units are connected to each other via a bus (not shown). The server 300 functions as an “information processing apparatus”.

CPU310は、ROM320や記憶部350に格納されているコンピュータープログラムをRAM330に展開して実行することにより、サーバー300の各部を制御する。そのほか、CPU310は、送信部312としても機能する。   The CPU 310 controls each unit of the server 300 by developing computer programs stored in the ROM 320 and the storage unit 350 in the RAM 330 and executing them. In addition, the CPU 310 also functions as the transmission unit 312.

通信インターフェイス340は、無線通信インターフェイスと、有線通信インターフェイスとを含んでいる。無線通信インターフェイスは、図示しない送受信回路を含み、アンテナを介して受信した電波の復調とデーターの生成、および、アンテナを介して送信する電波の生成と変調を行う。有線通信インターフェイスは、有線ケーブルを介して他の装置と接続される。   The communication interface 340 includes a wireless communication interface and a wired communication interface. The wireless communication interface includes a transmission / reception circuit (not shown), and performs demodulation and generation of data received via the antenna, and generation and modulation of radio wave transmitted via the antenna. The wired communication interface is connected to another device via a wired cable.

記憶部350は、ROM、RAM、DRAM、ハードディスク等によって構成されている。記憶部350は、画像記憶部352を含んでいる。画像記憶部352には、二次元画像のための「2D画像データー」と、三次元画像のための「部分3D画像データー」と、が対応付けて記憶されている。同じ行(エントリ)に記憶されている二次元画像と、三次元画像とは対応関係にある。具体的には、三次元画像は、二次元画像に含まれる任意のオブジェクトを三次元的に表すための画像である。例えば、二次元画像である2Ddata1が「林の中にリンゴが落ちている風景を表した画像」である場合、三次元画像である3Ddata1は「リンゴを三次元的に表すための画像」である。この例の場合では、「リンゴ」が任意のオブジェクトに相当する。   The storage unit 350 includes a ROM, RAM, DRAM, hard disk, and the like. The storage unit 350 includes an image storage unit 352. The image storage unit 352 stores “2D image data” for a two-dimensional image and “partial 3D image data” for a three-dimensional image in association with each other. The two-dimensional image stored in the same row (entry) and the three-dimensional image have a correspondence relationship. Specifically, the three-dimensional image is an image for three-dimensionally representing an arbitrary object included in the two-dimensional image. For example, when 2Ddata1 that is a two-dimensional image is “an image representing a landscape where an apple is falling in a forest”, 3Ddata1 that is a three-dimensional image is an “image for representing an apple three-dimensionally”. . In this example, “apple” corresponds to an arbitrary object.

サーバー300の送信部312は、後述の表示処理において、2D画像データーと、2D画像データーと対応関係にある部分3D画像データーと、をHMD100へ送信する。また、送信部312は、HMD100へ送信したのと同一の2D画像データーをプロジェクター200へ送信する。   The transmission unit 312 of the server 300 transmits 2D image data and partial 3D image data corresponding to the 2D image data to the HMD 100 in a display process described later. In addition, the transmission unit 312 transmits the same 2D image data transmitted to the HMD 100 to the projector 200.

A−4.表示処理:
図5は、表示処理の手順を示すシーケンス図である。本実施形態の表示処理は、HMD100と、プロジェクター200と、サーバー300とが協働することによって実行される。表示処理の開始トリガーは任意に定めることができる。例えば、HMD100が起動されたこと、換言すれば、電源のONを検出したことを開始トリガーとしてもよい。また、例えば、HMD100のOS150や特定のアプリケーションからの処理開始要求を開始トリガーとしてもよい。
A-4. Display processing:
FIG. 5 is a sequence diagram showing the procedure of the display process. The display process of the present embodiment is executed by the cooperation of the HMD 100, the projector 200, and the server 300. The start trigger of the display process can be arbitrarily determined. For example, the start trigger may be that the HMD 100 is activated, in other words, that the power is turned on. Further, for example, a process start request from the OS 150 of the HMD 100 or a specific application may be used as a start trigger.

ステップS102において、サーバー300の送信部312は、プロジェクター200へ2D画像データーを送信する。ステップS104において、プロジェクター200は、受信した画像データーに基づく画像をスクリーン250へ投写させる。   In step S <b> 102, the transmission unit 312 of the server 300 transmits 2D image data to the projector 200. In step S <b> 104, the projector 200 projects an image based on the received image data on the screen 250.

ステップS106において、サーバー300の送信部312は、HMD100へ2D画像データーと、2D画像データーと対応関係にある部分3D画像データーとを送信する。なお、図4の送信部312の説明の通り、ステップS106においてサーバー300がHMD100へ送信する2D画像データーは、ステップS102においてサーバー300がプロジェクター200へ送信した2D画像データーと同一の画像データーである。ステップS106において、HMD100の二次元画像取得部142は、2D画像データーを取得し、三次元画像取得部144は、部分3D画像データーを取得する。   In step S <b> 106, the transmission unit 312 of the server 300 transmits 2D image data and partial 3D image data corresponding to the 2D image data to the HMD 100. 4, the 2D image data transmitted from the server 300 to the HMD 100 in step S106 is the same image data as the 2D image data transmitted from the server 300 to the projector 200 in step S102. In step S106, the 2D image acquisition unit 142 of the HMD 100 acquires 2D image data, and the 3D image acquisition unit 144 acquires partial 3D image data.

図6は、キャンセル領域について説明するための説明図である。図5のステップS108においてHMD100の像調整部146は、キャンセル領域A2(図6)を特定する。ここで、キャンセル領域A2とは、画像表示部20において虚像VI(図3)が形成される全領域の中で、利用者が画像表示部20を透過して外景SC(図3)中の任意のオブジェクトを視認する位置である。キャンセル領域A2は「重なる位置」として機能する。   FIG. 6 is an explanatory diagram for explaining the cancel region. In step S108 in FIG. 5, the image adjustment unit 146 of the HMD 100 identifies the cancel area A2 (FIG. 6). Here, the cancel area A2 is an arbitrary area in the outside scene SC (FIG. 3) that the user transmits through the image display section 20 in the entire area where the virtual image VI (FIG. 3) is formed in the image display section 20. This is the position where the object is visually recognized. The cancel area A2 functions as an “overlapping position”.

画像表示部20において虚像VIが形成される全領域は、表示駆動部(図2)が画像光を射出することができる最大の領域(以降「最大射出領域A1」とも呼ぶ。)である。本実施形態のように表示駆動部をバックライトとLCDとで構成している場合、最大射出領域A1は、右LCD241および左LCD242において液晶が配置された全ての領域、かつ、右バックライト221および左バックライト222が照明光を照射可能な領域として定義される。図6の例の場合、最大射出領域A1は、座標(0,0)から始まり座標(n,m)で終わる領域である。   The entire area where the virtual image VI is formed in the image display section 20 is the maximum area (hereinafter also referred to as “maximum emission area A1”) from which the display drive section (FIG. 2) can emit image light. When the display drive unit is configured by a backlight and an LCD as in the present embodiment, the maximum emission area A1 is the entire area where the liquid crystal is arranged in the right LCD 241 and the left LCD 242, and the right backlight 221 and The left backlight 222 is defined as an area where illumination light can be irradiated. In the example of FIG. 6, the maximum emission area A1 starts from the coordinates (0, 0) and ends at the coordinates (n, m).

キャンセル領域A2(図6)を特定するための具体的な手順は、例えば以下の手順a1〜a3を採用することができる。
(a1)像調整部146は、最大射出領域A1に対して、二次元画像取得部142により取得された2D画像データーを仮に配置する。配置の際、像調整部146は、2D画像データーの大きさを最大射出領域A1の大きさに合わせて伸縮する。なお、スクリーン250の大きさによっては、HMD100の利用者は、画像表示部20を透過して、スクリーン250に表示されている画像のうちの一部の領域の画像のみを視認する場合もあり得る。このような場合、像調整部146は、配置の際、例えばカメラ61によって得られる外景画像に基づいて、HMD100の利用者が視認している領域を求め、取得された2D画像データーから求めた領域の画像データーを切り出してもよい。
As specific procedures for specifying the cancel area A2 (FIG. 6), for example, the following procedures a1 to a3 can be adopted.
(A1) The image adjustment unit 146 temporarily arranges the 2D image data acquired by the two-dimensional image acquisition unit 142 in the maximum emission area A1. At the time of arrangement, the image adjustment unit 146 expands and contracts the size of the 2D image data according to the size of the maximum emission area A1. Depending on the size of the screen 250, the user of the HMD 100 may permeate the image display unit 20 and view only an image of a partial area of the image displayed on the screen 250. . In such a case, the image adjustment unit 146 obtains an area visually recognized by the user of the HMD 100 based on an outside scene image obtained by the camera 61, for example, and obtains the area obtained from the acquired 2D image data. The image data may be cut out.

(a2)像調整部146は、三次元画像取得部144により取得された部分3D画像データーを加工して、比較用3D画像データーを生成する。例えば、HMD100において採用されている3D実現方式がサイドバイサイド方式である場合、オブジェクトの位置が左右(水平方向)にずれた、右眼用と左眼用の2枚の部分3D画像データーが存在する。このため、像調整部146は、2枚の部分3D画像データーから、利用者が視認するであろう位置にオブジェクトが配置された1枚の比較用3D画像データーを生成する。さらに、手順a1で2D画像データーの伸縮をしている場合、像調整部146は、比較用3D画像データーを同じ割合で伸縮する。なお、像調整部146は、必要がなければ三次元画像取得部144により取得された部分3D画像データーをそのまま(加工せずに)比較用3D画像データーとしてもよい。 (A2) The image adjustment unit 146 processes the partial 3D image data acquired by the 3D image acquisition unit 144 to generate comparative 3D image data. For example, when the 3D implementation method employed in the HMD 100 is the side-by-side method, there are two pieces of partial 3D image data for the right eye and for the left eye, in which the position of the object is shifted left and right (horizontal direction). Therefore, the image adjustment unit 146 generates one piece of comparison 3D image data in which an object is arranged at a position that the user will visually recognize from the two pieces of partial 3D image data. Further, when the 2D image data is expanded and contracted in the procedure a1, the image adjusting unit 146 expands and contracts the comparison 3D image data at the same rate. Note that the image adjustment unit 146 may use the partial 3D image data acquired by the three-dimensional image acquisition unit 144 as it is (without processing) as comparison 3D image data if not necessary.

(a3)像調整部146は、最大射出領域A1に配置されている二次元画像(2D画像データーに基づく画像)と、比較用3D画像データーに基づく三次元画像と、を用いた画像認識(比較)を行い、二次元画像と三次元画像とが一致する領域を「キャンセル領域A2」とする。 (A3) The image adjustment unit 146 performs image recognition (comparison) using a two-dimensional image (an image based on 2D image data) arranged in the maximum emission area A1 and a three-dimensional image based on comparison 3D image data. ) And a region where the two-dimensional image and the three-dimensional image coincide with each other is set as a “cancel region A2”.

図6の例の場合、キャンセル領域A2は、座標(x1,y1)から始まり座標(x2,y2)で終わる領域である。図6では、キャンセル領域A2を破線で示す。このようにすれば、像調整部146は、サーバー300(外部)から取得した三次元画像(部分3D画像データー、比較用3D画像データー)と、サーバー300(外部)から取得した二次元画像(2D画像データー)と、を比較することで、調整画像ADにおけるキャンセル領域A2(重なる位置)を簡単に特定することができる。   In the example of FIG. 6, the cancel area A2 starts from the coordinates (x1, y1) and ends at the coordinates (x2, y2). In FIG. 6, the cancel area A2 is indicated by a broken line. In this way, the image adjustment unit 146 performs a three-dimensional image (partial 3D image data, comparison 3D image data) acquired from the server 300 (external) and a two-dimensional image (2D acquired from the server 300 (external)). Image data), the cancel area A2 (overlapping position) in the adjusted image AD can be easily specified.

なお、図6では、キャンセル領域A2を、三次元画像取得部144により取得された部分3D画像データーと同じ矩形形状としているが、キャンセル領域A2は、部分3D画像データーに含まれるオブジェクト(図の例ではリンゴ)の形状としてもよい。   In FIG. 6, the cancel area A2 has the same rectangular shape as the partial 3D image data acquired by the three-dimensional image acquisition unit 144, but the cancel area A2 is an object (example in the figure) included in the partial 3D image data. Then, it may be in the shape of an apple).

図5のステップS110において、HMD100の像調整部146は、特定したキャンセル領域A2における、二次元透過像の視認性を低下させるための「調整画像」を生成する。ここで、二次元透過像とは、HMD100の利用者が光学像表示部を透過して視認する外景SC(図3)を意味する。すなわち、調整画像は、キャンセル領域A2の領域内において、利用者が外景SCを見にくくするために用いられる画像である。像調整部146は、以下の第1〜第3の生成方法のいずれかを用いて、調整画像を生成することができる。   In step S110 of FIG. 5, the image adjustment unit 146 of the HMD 100 generates an “adjusted image” for reducing the visibility of the two-dimensional transmission image in the specified cancellation area A2. Here, the two-dimensional transmission image means an outside scene SC (FIG. 3) that the user of the HMD 100 sees through the optical image display unit. That is, the adjustment image is an image used for making it difficult for the user to see the outside scene SC in the area of the cancellation area A2. The image adjustment unit 146 can generate an adjusted image using any one of the following first to third generation methods.

図7は、調整画像の第1の生成方法についての説明図である。像調整部146は、座標(x1,y1)から始まり座標(x2,y2)で終わるキャンセル領域A2に対して、二次元透過像(外景SC)に含まれるオブジェクトの彩度を下げることが可能な色、または、オブジェクトの明度を上げることが可能な色を配置し、他の領域に対して黒色のデーターを配置することで、調整画像ADを生成する。像調整部146は、「オブジェクトの彩度を下げることが可能な色」、または、「オブジェクトの明度を上げることが可能な色」を、オブジェクトを三次元的に表すための三次元画像(部分3D画像データー)に基づいて決定することができる。なお、像調整部146は、黒色のデーターを配置することに代えて、HMD100の表示駆動部における画像光生成の有効/無効を切り替えるためのEnable信号をLo値(無効を示す値)としてもよい。   FIG. 7 is an explanatory diagram of a first adjustment image generation method. The image adjustment unit 146 can lower the saturation of the object included in the two-dimensional transmission image (outside scene SC) with respect to the cancel area A2 that starts from the coordinates (x1, y1) and ends at the coordinates (x2, y2). An adjustment image AD is generated by arranging a color or a color that can increase the brightness of an object and arranging black data for other regions. The image adjustment unit 146 is a three-dimensional image (partial) for representing the object three-dimensionally by “color that can lower the saturation of the object” or “color that can increase the brightness of the object”. 3D image data). Note that the image adjustment unit 146 may set the Enable signal for switching between valid / invalid of image light generation in the display drive unit of the HMD 100 as a Lo value (a value indicating invalidity) instead of arranging black data. .

調整画像の第2の生成方法によれば、像調整部146は、キャンセル領域A2(画像表示部20を透過して利用者が視認するオブジェクトと重なる位置)に、オブジェクトの彩度を下げることが可能な色、または、オブジェクトの明度を上げることが可能な色を配置した調整画像ADを生成する。そして、像調整部146は、後述するステップS112において、調整画像ADを表す虚像を表示させる。このため、利用者は、画像表示部20を透過したオブジェクトと、オブジェクトの彩度を下げることが可能な色またはオブジェクトの明度を上げることが可能な色が配置された調整画像ADと、を重畳して同時に視認することとなる。この結果、像調整部146は、外景に含まれる任意のオブジェクトであって、画像表示部20を透過して利用者が視認するオブジェクトの視認性を低下させることができる。   According to the second method of generating the adjusted image, the image adjusting unit 146 can reduce the saturation of the object to the cancel area A2 (a position that overlaps with the object that can be seen by the user through the image display unit 20). An adjustment image AD in which possible colors or colors capable of increasing the brightness of an object are arranged is generated. Then, the image adjustment unit 146 displays a virtual image representing the adjustment image AD in step S112 described later. For this reason, the user superimposes the object that has passed through the image display unit 20 and the adjustment image AD in which a color that can reduce the saturation of the object or a color that can increase the brightness of the object is arranged. And will be visible at the same time. As a result, the image adjustment unit 146 can reduce the visibility of an object that is included in the outside scene and that is visible to the user through the image display unit 20.

図8は、調整画像の第2の生成方法についての説明図である。像調整部146は、座標(0,0)から始まり座標(n,m)で終わる最大射出領域A1に対して、二次元透過像(外景SC)に含まれるオブジェクトと同系の色を配置することで、調整画像ADを生成する。オブジェクトが複数の色で構成されている場合、「オブジェクトと同系の色」とは、例えば、オブジェクトを構成する色のRGB値の平均値である色としてもよく、オブジェクトを構成する色のRGB値の代表値である色としてもよい。像調整部146は、「オブジェクトと同系の色」を、オブジェクトを三次元的に表すための三次元画像(部分3D画像データー)に基づいて決定することができる。なお、像調整部146は、「オブジェクトと同系の色」を、カメラ61によって得られた外景画像に基づいて決定してもよい。そうすれば、環境光を加味して色を決定することができる。   FIG. 8 is an explanatory diagram of a second adjustment image generation method. The image adjustment unit 146 arranges a color similar to the object included in the two-dimensional transmission image (outside scene SC) with respect to the maximum emission area A1 that starts from the coordinates (0, 0) and ends at the coordinates (n, m). Thus, the adjusted image AD is generated. When an object is composed of a plurality of colors, the “similar color to the object” may be, for example, a color that is an average value of RGB values of the colors constituting the object, or the RGB values of the colors constituting the object It is good also as a color which is a representative value of. The image adjustment unit 146 can determine “color similar to the object” based on a three-dimensional image (partial 3D image data) for representing the object three-dimensionally. Note that the image adjustment unit 146 may determine “a color similar to the object” based on the outside scene image obtained by the camera 61. Then, the color can be determined in consideration of ambient light.

調整画像の第1の生成方法によれば、像調整部146は、画像表示部20を透過して利用者が視認するオブジェクトと同系の色を最大射出領域A1(全体)に配置した調整画像ADを生成する。そして、像調整部146は、後述するステップS112において、調整画像ADを表す虚像を表示させる。このため、利用者は、画像表示部20を透過したオブジェクトと、視界全体に広がるオブジェクトと同系の色と、を重畳して同時に視認することとなる。この結果、像調整部146は、外景に含まれる任意のオブジェクトであって、画像表示部20を透過して利用者が視認するオブジェクトの視認性を低下させることができる。   According to the first method for generating an adjusted image, the image adjusting unit 146 arranges a color similar to the object that is transmitted through the image display unit 20 and visually recognized by the user in the maximum emission area A1 (entire). Is generated. Then, the image adjustment unit 146 displays a virtual image representing the adjustment image AD in step S112 described later. For this reason, the user superimposes the object transmitted through the image display unit 20 and the color similar to the object spreading over the entire field of view at the same time. As a result, the image adjustment unit 146 can reduce the visibility of an object that is included in the outside scene and that is visible to the user through the image display unit 20.

図9は、調整画像の第3の生成方法についての説明図である。二次元画像取得部142は、さらに、サーバー300から、背景用の二次元画像BDを取得する。背景用の二次元画像BDは、図5のステップS106でサーバー300が送信した2D画像データーが表す画像から、対応する部分3D画像データーに含まれるオブジェクト(図の例ではリンゴ)が除外された画像である。像調整部146は、背景用の二次元画像BDから、キャンセル領域A2に相当する一部の画像、すなわち、図5のステップS108で特定した座標(x1,y1)から始まり座標(x2,y2)で終わる領域の画像を抜き出す。像調整部146は、抜き出した画像を、座標(x1,y1)から始まり座標(x2,y2)で終わるキャンセル領域A2に対して配置し、他の領域に対して黒色のデーターを配置することで、調整画像ADを生成する。なお、像調整部146は、黒色のデーターを配置することに代えて、HMD100の表示駆動部における画像光生成の有効/無効を切り替えるためのEnable信号をLo値(無効を示す値)としてもよい。   FIG. 9 is an explanatory diagram of a third adjustment image generation method. The two-dimensional image acquisition unit 142 further acquires a background two-dimensional image BD from the server 300. The background two-dimensional image BD is an image obtained by excluding the object (apple in the example in the figure) included in the corresponding partial 3D image data from the image represented by the 2D image data transmitted by the server 300 in step S106 of FIG. It is. The image adjustment unit 146 starts from a part of the image corresponding to the cancel area A2 from the background two-dimensional image BD, that is, the coordinates (x1, y1) specified in step S108 in FIG. Extract the image of the area that ends with. The image adjusting unit 146 places the extracted image in the cancel area A2 starting from the coordinates (x1, y1) and ending at the coordinates (x2, y2), and arranging black data in the other areas. Then, the adjusted image AD is generated. Note that the image adjustment unit 146 may set the Enable signal for switching between valid / invalid of image light generation in the display drive unit of the HMD 100 as a Lo value (a value indicating invalidity) instead of arranging black data. .

なお、二次元画像取得部142は、背景用の二次元画像BDをサーバー300から取得することに代えて、自ら生成してもよい。例えば、二次元画像取得部142は、サーバー300から取得した2D画像データーに対して、対応する部分3D画像データーに含まれるオブジェクトをマスクするための画像処理を実施することで、背景用の二次元画像BDを生成することができる。マスクするための画像処理は、例えば、画像内のオブジェクトを黒塗りしてもよく、白塗りしてもよく、オブジェクトの周辺の画像を利用してオブジェクトを消してもよい。   Note that the two-dimensional image acquisition unit 142 may generate the background two-dimensional image BD by itself instead of acquiring the background two-dimensional image BD from the server 300. For example, the 2D image acquisition unit 142 performs 2D image data for the background by performing image processing for masking an object included in the corresponding partial 3D image data on the 2D image data acquired from the server 300. An image BD can be generated. In the image processing for masking, for example, an object in the image may be painted black or white, or the object may be erased using an image around the object.

調整画像の第3の生成方法によれば、像調整部146は、背景用の二次元画像BD(外景を表す画像であって外景に含まれるオブジェクトが除外された画像)の一部を、キャンセル領域A2(画像表示部20を透過して利用者が視認するオブジェクトと重なる位置)に配置した調整画像ADを生成する。そして、像調整部146は、後述するステップS112において、調整画像ADを表す虚像を表示させる。このため、利用者は、画像表示部20を透過したオブジェクトと、外景に含まれるオブジェクトが除外された画像が配置された調整画像ADと、を重畳して同時に視認することとなる。この結果、像調整部146は、外景に含まれる任意のオブジェクトであって、画像表示部20を透過して利用者が視認するオブジェクトの視認性を低下させることができる。   According to the third adjustment image generation method, the image adjustment unit 146 cancels a part of the background two-dimensional image BD (an image representing an outside scene and excluding objects included in the outside scene). An adjustment image AD arranged in the area A2 (a position that overlaps with an object that can be seen by the user through the image display unit 20) is generated. Then, the image adjustment unit 146 displays a virtual image representing the adjustment image AD in step S112 described later. For this reason, the user superimposes the object that has been transmitted through the image display unit 20 and the adjustment image AD on which the image from which the object included in the outside scene is excluded is superimposed and viewed simultaneously. As a result, the image adjustment unit 146 can reduce the visibility of an object that is included in the outside scene and that is visible to the user through the image display unit 20.

図5のステップS112において、HMD100の像調整部146は、ステップS110で生成した調整画像ADと、三次元画像取得部144によって取得された部分3D画像との両方を表示させる。具体的には、像調整部146は、画像処理部160に対して、調整画像ADの画像データーと、部分3D画像データーとを送信する。これら画像データーを受信した画像処理部160では、調整画像ADの画像データーと、部分3D画像データーとを合成した画像データーに対して図2の表示処理を実行する。   In step S112 of FIG. 5, the image adjustment unit 146 of the HMD 100 displays both the adjustment image AD generated in step S110 and the partial 3D image acquired by the three-dimensional image acquisition unit 144. Specifically, the image adjustment unit 146 transmits the image data of the adjustment image AD and the partial 3D image data to the image processing unit 160. The image processing unit 160 that has received these image data performs the display process of FIG. 2 on the image data obtained by combining the image data of the adjustment image AD and the partial 3D image data.

なお、動画に対応する場合、HMD100と、プロジェクター200と、サーバー300とは、上述したステップS102〜S112の処理を繰り返し実行してもよい。   In addition, when corresponding to a moving image, the HMD 100, the projector 200, and the server 300 may repeatedly execute the processes in steps S102 to S112 described above.

図10は、表示処理の結果を示す説明図である。表示処理のステップS112の結果、HMD100の利用者U1は、視野VR1において、HMD100の光学像表示部を透過して、スクリーン250に映し出された2D画像データーが表す二次元画像D2を、外景SCとして視認する。さらに、HMD100の利用者U1は、第1〜3の生成方法のいずれかに基づいて生成・表示されている調整画像ADを表す虚像VIを視認する。このように、HMD100の利用者U1が調整画像ADを視認することによって、スクリーン250に映し出された二次元のオブジェクト(図の例ではリンゴ)の視認性が低下される。このため、HMD100の利用者U1は、部分3D画像データーによって三次元的に表示されたオブジェクト(リンゴ)の虚像VIを、よりはっきりと視認することができる。一方、HMD100の利用者ではない利用者U2は、視野VR2において、スクリーン250に映し出された2D画像データーが表す二次元画像D2を視認する。   FIG. 10 is an explanatory diagram showing the result of the display process. As a result of step S112 of the display process, the user U1 of the HMD 100 transmits the two-dimensional image D2 represented by the 2D image data displayed on the screen 250 through the optical image display unit of the HMD 100 in the visual field VR1 as the outside scene SC. Visually check. Furthermore, the user U1 of the HMD 100 visually recognizes the virtual image VI representing the adjustment image AD that is generated and displayed based on any one of the first to third generation methods. As described above, the user U1 of the HMD 100 visually recognizes the adjustment image AD, thereby reducing the visibility of the two-dimensional object (apple in the example illustrated) displayed on the screen 250. For this reason, the user U1 of the HMD 100 can more clearly recognize the virtual image VI of the object (apple) displayed three-dimensionally by the partial 3D image data. On the other hand, the user U2 who is not a user of the HMD 100 views the two-dimensional image D2 represented by the 2D image data displayed on the screen 250 in the visual field VR2.

図11は、表示処理の結果を示す他の説明図である。上述した表示処理では、破線で囲んだキャンセル領域A2と、部分3D画像データーによって三次元的に表示されるオブジェクトOBJと、は同じ位置となる。これは、表示処理のステップS108において、像調整部146が、サーバー300から取得した2D画像データーに基づいてキャンセル領域A2を決定しているためである。   FIG. 11 is another explanatory diagram showing the result of the display process. In the display process described above, the cancel area A2 surrounded by the broken line and the object OBJ displayed three-dimensionally by the partial 3D image data are at the same position. This is because the image adjustment unit 146 determines the cancel area A2 based on the 2D image data acquired from the server 300 in step S108 of the display process.

A−5.表示処理の変形:
以降では、キャンセル領域A2と、部分3D画像データーによって三次元的に表示されるオブジェクトOBJとの位置を変えるための構成について説明する。以降では、図5の表示処理と相違する部分についてのみ説明する。
A-5. Transformation of display processing:
Hereinafter, a configuration for changing the position of the cancel area A2 and the object OBJ displayed three-dimensionally by the partial 3D image data will be described. Hereinafter, only portions different from the display processing of FIG. 5 will be described.

ステップS106において、HMD100の二次元画像取得部142は、カメラ61に撮像を指示し、HMD100の利用者の視界方向の外景画像を取得する。本変形では、カメラ61によって撮像された外景画像が「二次元画像」として機能する。本変形では、サーバー300からHMD100への2D画像データーの送信は省略可能である。   In step S <b> 106, the two-dimensional image acquisition unit 142 of the HMD 100 instructs the camera 61 to perform imaging, and acquires an outside scene image in the viewing direction of the user of the HMD 100. In this modification, the outside scene image captured by the camera 61 functions as a “two-dimensional image”. In this modification, transmission of 2D image data from the server 300 to the HMD 100 can be omitted.

ステップS108〜S112は、図5における各ステップと同様である。ただし、説明中の「2D画像データー」との記載を「ステップS106で取得された外景画像」と読み替える。   Steps S108 to S112 are the same as the steps in FIG. However, the description “2D image data” in the description is read as “the outside scene image acquired in step S106”.

表示処理(変形)のステップS108によれば、像調整部146は、サーバー300(外部)から取得した三次元画像(部分3D画像データー、比較用3D画像データー)と、利用者の視界方向を撮像した二次元画像、すなわち外景画像と、を比較することで、実際の利用者の視界方向の情報に基づいて、調整画像ADにおけるキャンセル領域A2(重なる位置)を正確に特定することができる。   According to step S108 of the display process (deformation), the image adjustment unit 146 captures the three-dimensional image (partial 3D image data, comparison 3D image data) acquired from the server 300 (external) and the viewing direction of the user. By comparing the two-dimensional image, that is, the outside scene image, the cancel area A2 (overlapping position) in the adjustment image AD can be accurately specified based on the information on the visual field direction of the actual user.

図12は、表示処理(変形)の結果を示す説明図である。上述した表示処理の変形では、破線で囲んだキャンセル領域A2と、部分3D画像データーによって三次元的に表示されるオブジェクトOBJと、は異なる位置となる。これは、表示処理(変形)のステップS108において、像調整部146が、利用者U1の視界方向の外景画像(すなわち、利用者U1が実際に目にしている外景の画像)に基づいて、キャンセル領域A2を決定しているためである。   FIG. 12 is an explanatory diagram showing the result of display processing (deformation). In the modification of the display process described above, the cancel area A2 surrounded by the broken line and the object OBJ displayed three-dimensionally by the partial 3D image data are at different positions. In step S108 of the display process (deformation), the image adjustment unit 146 cancels based on the outside scene image in the viewing direction of the user U1 (that is, the image of the outside scene that the user U1 actually sees). This is because the area A2 is determined.

以上のように、第1実施形態の表示処理によれば、HMD100(頭部装着型表示装置)の像調整部146は、外景SCに含まれる任意のオブジェクトであって、画像表示部20を透過して利用者U1が視認するオブジェクトの視認性を低下させると共に、オブジェクトを三次元的に表す虚像VIを画像表示部20に表示させる。このようにすれば、透過型のHMD100において、利用者U1が目前の画像表示部(光学像表示部)を透過して見る外景SCに含まれる任意のオブジェクトを、仮想的に、三次元的に表示させることができる。   As described above, according to the display processing of the first embodiment, the image adjustment unit 146 of the HMD 100 (head-mounted display device) is an arbitrary object included in the outside scene SC and is transmitted through the image display unit 20. As a result, the visibility of the object visually recognized by the user U1 is reduced, and a virtual image VI that represents the object three-dimensionally is displayed on the image display unit 20. In this way, in the transmissive HMD 100, an arbitrary object included in the outside scene SC viewed through the image display unit (optical image display unit) in front of the user U1 is virtually and three-dimensionally displayed. Can be displayed.

B.第2実施形態:
本発明の第2実施形態では、第1実施形態と同様の処理を頭部装着型表示装置(HMD)単独で実施する構成について説明する。以下では、第1実施形態と異なる構成および動作を有する部分についてのみ説明する。なお、図中において第1実施形態と同様の構成部分については先に説明した第1実施形態と同様の符号を付し、その詳細な説明を省略する。
B. Second embodiment:
In the second embodiment of the present invention, a configuration in which the same processing as that of the first embodiment is performed by a head-mounted display device (HMD) alone will be described. Below, only the part which has a different structure and operation | movement from 1st Embodiment is demonstrated. In the figure, the same components as those of the first embodiment are denoted by the same reference numerals as those of the first embodiment described above, and detailed description thereof is omitted.

B−1.画像表示システムの構成:
第2実施形態では、図1に示したHMD100に代えてHMD100aを備えている。さらに、第2実施形態では、プロジェクター200と、スクリーン250と、サーバー300と、を備えない。
B-1. Image display system configuration:
In the second embodiment, an HMD 100a is provided instead of the HMD 100 shown in FIG. Furthermore, in 2nd Embodiment, the projector 200, the screen 250, and the server 300 are not provided.

B−2.頭部装着型表示装置(HMD)の構成:
図13は、第2実施形態におけるHMD100aの構成を機能的に示すブロック図である。図2に示した第1実施形態との違いは、制御部10に代えて制御部10aを備える点である。
B-2. Configuration of head mounted display (HMD):
FIG. 13 is a block diagram functionally showing the configuration of the HMD 100a in the second embodiment. The difference from the first embodiment shown in FIG. 2 is that a control unit 10 a is provided instead of the control unit 10.

B−2−1.画像表示部の構成:
画像表示部20の構成は、図1、2に示した第1実施形態と同様である。
B-2-1. Configuration of image display:
The configuration of the image display unit 20 is the same as that of the first embodiment shown in FIGS.

B−2−2.制御部の構成:
制御部10aは、二次元画像取得部142に代えて二次元画像取得部142aを備え、三次元画像取得部144に代えて三次元画像取得部144aを備え、像調整部146に代えて像調整部146aを備えている。二次元画像取得部142aと、三次元画像取得部144aと、像調整部146aとは、表示処理における処理内容が第1実施形態とは異なる。詳細は後述する。
B-2-2. Configuration of control unit:
The control unit 10a includes a 2D image acquisition unit 142a instead of the 2D image acquisition unit 142, includes a 3D image acquisition unit 144a instead of the 3D image acquisition unit 144, and performs image adjustment instead of the image adjustment unit 146. Part 146a. The two-dimensional image acquisition unit 142a, the three-dimensional image acquisition unit 144a, and the image adjustment unit 146a are different from the first embodiment in the processing content in the display process. Details will be described later.

制御部10aは、さらに、記憶部120内に部分3D画像データー記憶部122を備えている。部分3D画像データー記憶部122は、二次元的に表現されている外景(例えば、絵画やポスターのような二次元表現物)に含まれるオブジェクトを三次元的に現すための三次元画像データーの集合である。なお、部分3D画像データー記憶部122内の各データーは、3Dモデル空間と、9軸センサー66により得られる利用者の頭の動きと、GPSモジュール134により得られる現在位置情報と、を利用して動的に生成されてもよい。   The control unit 10 a further includes a partial 3D image data storage unit 122 in the storage unit 120. The partial 3D image data storage unit 122 is a set of three-dimensional image data for three-dimensionally expressing an object included in a two-dimensionally expressed outside scene (for example, a two-dimensional representation such as a painting or a poster). It is. Each data in the partial 3D image data storage unit 122 uses the 3D model space, the movement of the user's head obtained by the 9-axis sensor 66, and the current position information obtained by the GPS module 134. It may be generated dynamically.

B−3.表示処理:
図14は、第2実施形態における表示処理の手順を示すフローチャートである。第2実施形態の表示処理は、HMD100aによって実行される。図5で説明した第1実施形態と同様に、表示処理の開始トリガーは任意に定めることができる。
B-3. Display processing:
FIG. 14 is a flowchart illustrating a procedure of display processing according to the second embodiment. The display process of the second embodiment is executed by the HMD 100a. Similar to the first embodiment described with reference to FIG. 5, the display processing start trigger can be arbitrarily determined.

ステップS202において二次元画像取得部142aは、カメラ61に撮像を指示し、HMD100aの利用者の視界方向の外景画像を取得する。第2実施形態では、カメラ61によって撮像された外景画像が「二次元画像」として機能する。   In step S202, the two-dimensional image acquisition unit 142a instructs the camera 61 to capture an image, and acquires an outside scene image in the visual field direction of the user of the HMD 100a. In the second embodiment, an outside scene image captured by the camera 61 functions as a “two-dimensional image”.

ステップS204において三次元画像取得部144aは、ステップS202で取得された外景画像に合った部分3D画像データーを、部分3D画像データー記憶部122から検索し、取得する。具体的には、三次元画像取得部144aは、外景画像を画像解析し、外景画像に含まれるオブジェクトを三次元的に表すための部分3D画像データーを、部分3D画像データー記憶部122から検索、取得する。   In step S204, the 3D image acquisition unit 144a searches the partial 3D image data storage unit 122 for partial 3D image data that matches the outside scene image acquired in step S202, and acquires the partial 3D image data. Specifically, the three-dimensional image acquisition unit 144a performs image analysis on the outside scene image, searches the partial 3D image data storage unit 122 for partial 3D image data for representing the object included in the outside scene image three-dimensionally, get.

ステップS206において像調整部146aは、キャンセル領域A2(図6)を特定する。詳細は図5のステップS108と同様である。ただし、説明中の「2D画像データー」との記載を「ステップS202で取得された外景画像」と読み替える。   In step S206, the image adjustment unit 146a identifies the cancel area A2 (FIG. 6). The details are the same as step S108 in FIG. However, the description “2D image data” in the description is read as “the outside scene image acquired in step S202”.

ステップS208において像調整部146aは、調整画像AD(図7〜図9)を生成する。詳細は図5のステップS110と同様である。ただし、説明中の「2D画像データー」との記載を「ステップS202で取得された外景画像」と読み替える。   In step S208, the image adjustment unit 146a generates an adjustment image AD (FIGS. 7 to 9). Details are the same as step S110 in FIG. However, the description “2D image data” in the description is read as “the outside scene image acquired in step S202”.

ステップS210において像調整部146aは、ステップS208で生成した調整画像ADと、三次元画像取得部144aによって取得された部分3D画像データーとの両方を表示させる。詳細は図5のステップS112と同様である。ただし、説明中の「2D画像データー」との記載を「ステップS202で取得された外景画像」と読み替える。   In step S210, the image adjustment unit 146a displays both the adjustment image AD generated in step S208 and the partial 3D image data acquired by the three-dimensional image acquisition unit 144a. Details are the same as step S112 of FIG. However, the description “2D image data” in the description is read as “the outside scene image acquired in step S202”.

なお、9軸センサー66によって利用者の動きを検出する度に、HMD100aは、上述したステップS202〜S210を繰り返し実行してもよい。   It should be noted that the HMD 100a may repeatedly execute the above-described steps S202 to S210 every time the user's movement is detected by the 9-axis sensor 66.

図15は、第2実施形態における表示処理の結果を示す説明図である。表示処理のステップS210の結果、HMD100aの利用者U1は、視野VR1において、HMD100aの光学像表示部を透過して、現実環境の外景SCを視認する。さらに、HMD100aの利用者U1は、第1〜3の生成方法のいずれかに基づいて生成・表示されている調整画像ADを表す虚像VIを視認する。このように、HMD100aの利用者U1が調整画像ADを視認することによって、現実環境に存在するオブジェクト(図の例ではリンゴ)の視認性が低下される。このため、HMD100aの利用者U1は、部分3D画像データーによって三次元的に表示されたオブジェクト(リンゴ)の虚像VIを、よりはっきりと視認することができる。   FIG. 15 is an explanatory diagram illustrating a result of display processing in the second embodiment. As a result of the display processing step S210, the user U1 of the HMD 100a permeates through the optical image display unit of the HMD 100a in the visual field VR1 and visually recognizes the outside scene SC in the real environment. Furthermore, the user U1 of the HMD 100a visually recognizes the virtual image VI representing the adjustment image AD that is generated and displayed based on any one of the first to third generation methods. As described above, the user U1 of the HMD 100a visually recognizes the adjustment image AD, thereby reducing the visibility of an object (an apple in the illustrated example) that exists in the real environment. For this reason, the user U1 of the HMD 100a can visually recognize the virtual image VI of the object (apple) displayed three-dimensionally by the partial 3D image data more clearly.

以上のように、第2実施形態の表示処理によれば、他の装置(画像表示装置、サーバー)を備えない構成において、第1実施形態と同様の効果を得ることができる。   As described above, according to the display process of the second embodiment, the same effect as that of the first embodiment can be obtained in a configuration that does not include other devices (image display device, server).

C.変形例:
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。その他、以下のような変形も可能である。
C. Variation:
In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Good. In addition, the following modifications are possible.

・変形例1:
上記実施形態では、画像表示システムの構成について例示した。しかし、画像表示システムの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、構成要素の追加・削除・変換等を行うことができる。
・ Modification 1:
In the said embodiment, it illustrated about the structure of the image display system. However, the configuration of the image display system can be arbitrarily determined without departing from the gist of the present invention, and for example, addition / deletion / conversion of components can be performed.

例えば、画像表示システム内における機能部の配置は、任意に変更可能である。例えば、サーバーが備えると説明した機能部のうちの少なくとも一部または全部は、HMDに備えられていてもよく、プロジェクターに備えられていてもよい。同様に、HMDが備えると説明した機能部の内の少なくとも一部または全部は、サーバーに備えられていてもよく、プロジェクターに備えられていてもよい。   For example, the arrangement of the functional units in the image display system can be arbitrarily changed. For example, at least a part or all of the functional units described to be included in the server may be included in the HMD or may be included in the projector. Similarly, at least a part or all of the functional units described as being provided in the HMD may be provided in the server or may be provided in the projector.

例えば、画像表示システムは、HMDと、プロジェクターおよびスクリーンと、サーバーとを備える構成とした。しかし、画像表示システムの構成要素はあくまで例示であり、任意に変更することができる。例えば、画像表示システムは、プロジェクターおよびスクリーンに代えて、または、プロジェクターおよびスクリーンと共に、ディスプレイを備えていてもよい。この場合、ディスプレイが「画像表示装置」として機能する。また、例えば、画像表示システムは、例示しない他の構成要素(例えば、ルーターやアクセスポイント等のネットワーク装置等)を備えていてもよい。また、画像表示システムにおいて、サーバーは、インターネットを介して接続された態様に限られない。例えば、サーバーは、HMDやプロジェクターと同一LAN内に配置されていてもよい。   For example, the image display system includes an HMD, a projector and a screen, and a server. However, the components of the image display system are merely examples, and can be arbitrarily changed. For example, the image display system may include a display instead of the projector and the screen or together with the projector and the screen. In this case, the display functions as an “image display device”. In addition, for example, the image display system may include other components not illustrated (for example, a network device such as a router or an access point). In the image display system, the server is not limited to a mode connected via the Internet. For example, the server may be arranged in the same LAN as the HMD or projector.

例えば、サーバーが備える送信部は、CPUがROMやハードディスクに格納されているコンピュータープログラムをRAMに展開して実行することにより実現されるものとして記載した。しかし、この機能部は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。例えば、サーバーの画像記憶部についても種々の変更が可能である。例えば、例示したようなテーブル形式を採用しなくてもよい。また、例示したテーブルに対して、フィールドの追加、削除、変更を行ってもよい。   For example, the transmission unit included in the server is described as being realized by the CPU developing and executing a computer program stored in the ROM or hard disk on the RAM. However, the functional unit may be configured using an ASIC (Application Specific Integrated Circuit) designed to realize the function. For example, various changes can be made to the image storage unit of the server. For example, the table format as illustrated may not be adopted. Moreover, you may add, delete, and change a field with respect to the illustrated table.

・変形例2:
上記実施形態では、HMDの構成について例示した。しかし、HMDの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
Modification 2
In the said embodiment, it illustrated about the structure of HMD. However, the configuration of the HMD can be arbitrarily determined without departing from the gist of the present invention. For example, each component can be added, deleted, converted, and the like.

上記実施形態における、制御部と、画像表示部とに対する構成要素の割り振りは、あくまで一例であり、種々の態様を採用可能である。例えば、以下のような態様としてもよい。(i)制御部にCPUやメモリー等の処理機能を搭載、画像表示部には表示機能のみを搭載する態様、(ii)制御部と画像表示部との両方にCPUやメモリー等の処理機能を搭載する態様、(iii)制御部と画像表示部とを一体化した態様(例えば、画像表示部に制御部が含まれ眼鏡型のウェアラブルコンピューターとして機能する態様)、(iv)制御部の代わりにスマートフォンや携帯型ゲーム機を使用する態様、(v)制御部と画像表示部とを無線LANや赤外線通信やBluetooth等の無線の信号伝送路を介した接続により接続し、接続部(コード)を廃した態様。なお、この場合において、制御部または画像表示部に対する給電をワイヤレスにより実施してもよい。   The allocation of components to the control unit and the image display unit in the above embodiment is merely an example, and various aspects can be employed. For example, the following aspects may be adopted. (I) A mode in which processing functions such as a CPU and a memory are mounted on the control unit, and only a display function is mounted on the image display unit. (Ii) Processing functions such as a CPU and a memory are provided in both the control unit and the image display unit. (Iii) a mode in which the control unit and the image display unit are integrated (for example, a mode in which the control unit is included in the image display unit and functions as a glasses-type wearable computer), (iv) instead of the control unit A mode in which a smartphone or a portable game machine is used. (V) The control unit and the image display unit are connected by connection via a wireless signal transmission path such as a wireless LAN, infrared communication, or Bluetooth, and the connection unit (code) is connected. Abolished aspect. In this case, power supply to the control unit or the image display unit may be performed wirelessly.

例えば、上記実施形態で例示した制御部、画像表示部の構成は任意に変更することができる。具体的には、例えば、上記実施形態では、制御部が送信部を備え、画像表示部が受信部を備えるものとしたが、送信部および受信部はいずれも、双方向通信が可能な機能を備えており、送受信部として機能してもよい。また、例えば、制御部が備えるとした操作用インターフェイス(各種キーやトラックパッド等)の一部を省略してもよい。また、制御部に操作用スティック等の他の操作用インターフェイスを備えてもよい。また、制御部にはキーボードやマウス等のデバイスを接続可能な構成として、キーボードやマウスから入力を受け付けるものとしてもよい。例えば、電源として二次電池を用いることしたが、電源としては二次電池に限らず、種々の電池を使用することができる。例えば、一次電池や、燃料電池、太陽電池、熱電池等を使用してもよい。   For example, the configurations of the control unit and the image display unit exemplified in the above embodiment can be arbitrarily changed. Specifically, for example, in the above embodiment, the control unit includes the transmission unit and the image display unit includes the reception unit. However, both the transmission unit and the reception unit have a function capable of bidirectional communication. It may be provided and may function as a transmission / reception unit. Further, for example, a part of an operation interface (such as various keys and a trackpad) provided in the control unit may be omitted. The control unit may be provided with another operation interface such as an operation stick. Moreover, it is good also as what receives input from a keyboard or a mouse | mouth as a structure which can connect devices, such as a keyboard and a mouse | mouth, to a control part. For example, although the secondary battery is used as the power source, the power source is not limited to the secondary battery, and various batteries can be used. For example, a primary battery, a fuel cell, a solar cell, a thermal cell, or the like may be used.

図16は、変形例におけるHMDの外観の構成を示す説明図である。図16(A)の例の場合、画像表示部20xは、右光学像表示部26に代えて右光学像表示部26xを備え、左光学像表示部28に代えて左光学像表示部28xを備えている。右光学像表示部26xと左光学像表示部28xとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における利用者の右眼および左眼の斜め上にそれぞれ配置されている。図16(B)の例の場合、画像表示部20yは、右光学像表示部26に代えて右光学像表示部26yを備え、左光学像表示部28に代えて左光学像表示部28yを備えている。右光学像表示部26yと左光学像表示部28yとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における利用者の右眼および左眼の斜め下にそれぞれ配置されている。このように、光学像表示部は利用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が利用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が利用者の眼を完全に覆わない態様のHMDとして実現することもできる。   FIG. 16 is an explanatory diagram showing an external configuration of the HMD in the modification. In the example of FIG. 16A, the image display unit 20x includes a right optical image display unit 26x instead of the right optical image display unit 26, and a left optical image display unit 28x instead of the left optical image display unit 28. I have. The right optical image display unit 26x and the left optical image display unit 28x are formed smaller than the optical member of the above-described embodiment, and are respectively disposed obliquely above the right eye and the left eye of the user when the HMD is worn. . 16B, the image display unit 20y includes a right optical image display unit 26y instead of the right optical image display unit 26, and a left optical image display unit 28y instead of the left optical image display unit 28. I have. The right optical image display unit 26y and the left optical image display unit 28y are formed smaller than the optical member of the above-described embodiment, and are respectively disposed obliquely below the right eye and the left eye of the user when the HMD is mounted. . Thus, it is sufficient that the optical image display unit is disposed in the vicinity of the user's eyes. The size of the optical member forming the optical image display unit is also arbitrary, and the optical image display unit covers only a part of the user's eyes, in other words, the optical image display unit completely covers the user's eyes. It can also be realized as an HMD in an uncovered form.

例えば、制御部が備えるとした各処理部(例えば画像処理部、表示制御部等)は、CPUがROMやハードディスクに格納されているコンピュータープログラムをRAMに展開して実行することにより実現されるものとして記載した。しかし、これら機能部は、当該機能を実現するために設計されたASICを用いて構成されてもよい。   For example, each processing unit (for example, an image processing unit, a display control unit, etc.) provided in the control unit is realized by the CPU developing and executing a computer program stored in the ROM or hard disk on the RAM. As described. However, these functional units may be configured using an ASIC designed to realize the function.

例えば、HMDは、両眼タイプの透過型HMDであるものとしたが、単眼タイプのHMDとしてもよい。また、利用者がHMDを装着した状態において外景の透過が遮断される非透過型HMDとして構成してもよいし、非透過型HMDにカメラを搭載したビデオシースルーとして構成してもよい。また、例えば、画像表示部として、眼鏡のように装着する画像表示部に代えて、通常の平面型ディスプレイ装置(液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置等)を採用してもよい。この場合にも、制御部と画像表示部との間の接続は、有線の信号伝送路を介した接続であってもよいし、無線の信号伝送路を介した接続であってもよい。このようにすれば、制御部を、通常の平面型ディスプレイ装置のリモコンとして利用することもできる。また、例えば、画像表示部として、眼鏡のように装着する画像表示部に代えて、例えば帽子のように装着する画像表示部といった他の形状の画像表示部を採用してもよい。また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。また、例えば、自動車や飛行機等の車両、またはその他の交通手段に搭載されるヘッドアップディスプレイ(HUD、Head-Up Display)として構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたHMDとして構成されてもよい。また、例えば、手持ち型のハンドヘルドディスプレイ(Hand held display)として構成されてもよい。   For example, the HMD is a binocular transmissive HMD, but may be a monocular HMD. Further, it may be configured as a non-transparent HMD that blocks the transmission of outside scenes when the user wears the HMD, or may be configured as a video see-through in which a camera is mounted on the non-transparent HMD. Further, for example, instead of the image display unit worn like glasses, an ordinary flat display device (a liquid crystal display device, a plasma display device, an organic EL display device, etc.) may be employed as the image display unit. Also in this case, the connection between the control unit and the image display unit may be a connection via a wired signal transmission path or a connection via a wireless signal transmission path. If it does in this way, a control part can also be utilized as a remote control of a usual flat type display device. For example, instead of the image display unit worn like glasses, an image display unit having another shape such as an image display unit worn like a hat may be adopted as the image display unit. Further, the earphone may be an ear-hook type or a headband type, or may be omitted. Further, for example, it may be configured as a head-up display (HUD) mounted on a vehicle such as an automobile or an airplane, or other transportation means. For example, you may comprise as HMD incorporated in body armor, such as a helmet. For example, it may be configured as a hand-held handheld display.

例えば、上記実施形態では、画像光生成部は、バックライトと、バックライト制御部と、LCDと、LCD制御部とを用いて構成されるものとした。しかし、上記の態様はあくまで例示である。画像光生成部は、これらの構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えていても良い。例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としても良い。また、例えば、画像生成部は、LCDに代えてデジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のHMDに対して本発明を適用することも可能である。   For example, in the above embodiment, the image light generation unit is configured using a backlight, a backlight control unit, an LCD, and an LCD control unit. However, the above aspect is merely an example. The image light generation unit may include a configuration unit for realizing another method together with or in place of these configuration units. For example, the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. Further, for example, the image generation unit can use a digital micromirror device or the like instead of the LCD. For example, the present invention can be applied to a laser retinal projection type HMD.

・変形例3:
上記実施形態では、表示処理の一例を示した。しかし、上記実施形態においてに示した処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
・ Modification 3:
In the above embodiment, an example of the display process has been described. However, the processing procedure shown in the above embodiment is merely an example, and various modifications are possible. For example, some steps may be omitted, and other steps may be added. Further, the order of the steps to be executed may be changed.

例えば、表示処理のステップS108では、二次元画像(2D画像データーにより表される二次元画像、または、カメラにより撮像された外景画像)と、三次元画像(比較用3D画像データーにより表される三次元画像)と、を比較し、両者が一致する領域を「キャンセル領域」とした。このため、上記実施形態では、キャンセル領域の大きさと、三次元画像が表示される領域の大きさとは略同一となる。しかし、キャンセル領域の大きさと、三次元画像が表示される領域の大きさとは相違していてもよい。例えば、キャンセル領域の大きさ>三次元画像が表示される領域の大きさ、としてもよい。   For example, in step S108 of the display process, a two-dimensional image (a two-dimensional image represented by 2D image data or an outside scene image captured by a camera) and a three-dimensional image (a tertiary represented by comparative 3D image data) are displayed. The original image) is compared with each other, and the area where both match is defined as the “cancellation area”. For this reason, in the said embodiment, the magnitude | size of a cancellation area | region and the magnitude | size of the area | region where a three-dimensional image is displayed become substantially the same. However, the size of the cancellation area may be different from the size of the area where the 3D image is displayed. For example, the size of the cancel area> the size of the area where the 3D image is displayed may be set.

例えば、表示処理のステップS108では、利用者の視差を考慮してキャンセル領域を設定してもよい。この場合、像調整部は、右眼用画像データーData1として供給するための右眼用の調整画像と、左眼用画像データーData2として供給するための左眼用の調整画像と、を、利用者の視差に応じて別個に用意すればよい。利用者の視差は、記憶部に予め記憶されていてもよく、利用者による指定や変更が可能であってもよい。   For example, in step S108 of the display process, a cancel area may be set in consideration of the user's parallax. In this case, the image adjustment unit supplies the right eye adjustment image to be supplied as the right eye image data Data1 and the left eye adjustment image to be supplied as the left eye image data Data2 to the user. It may be prepared separately according to the parallax. The parallax of the user may be stored in advance in the storage unit, and may be specified or changed by the user.

例えば、表示処理のステップS108は、サーバーが実施してもよい。サーバーにおけるキャンセル領域の特定方法は、図5のステップS108と同様である。サーバーは、キャンセル領域の特定後、特定したキャンセル領域の座標をHMDへ送信すればよい。   For example, the server may execute step S108 of the display process. The method for specifying the cancel area in the server is the same as that in step S108 in FIG. After specifying the cancel area, the server may transmit the coordinates of the specified cancel area to the HMD.

例えば、表示処理のステップS108、S110は、サーバーが実施してもよい。サーバーにおけるキャンセル領域の特定方法は、図5のステップS108と同様である。また、サーバーにおける調整画像の生成方法は、図5のステップS110と同様である。サーバーは、調整画像の生成後、生成した調整画像をHMDへ送信すればよい。   For example, the server may perform steps S108 and S110 of the display process. The method for specifying the cancel area in the server is the same as that in step S108 in FIG. The adjustment image generation method in the server is the same as that in step S110 in FIG. The server should just transmit the produced | generated adjustment image to HMD after the production | generation of an adjustment image.

例えば、表示処理のステップS112において、像調整部は、9軸センサーによって取得された利用者の頭の動きや姿勢に応じて、調整画像の画像データーと、部分3D画像データーとを加工し、加工後のデーターを画像処理部へ送信してもよい。このようにすれば、利用者の頭の動きや姿勢に追従した表示処理を実現することができる。   For example, in step S112 of the display process, the image adjusting unit processes the image data of the adjusted image and the partial 3D image data according to the movement and posture of the user's head acquired by the 9-axis sensor, Later data may be transmitted to the image processing unit. In this way, it is possible to realize display processing that follows the movement and posture of the user's head.

例えば、表示処理のステップS112では、画像処理部は、受信した調整画像の画像データーと、部分3D画像データーとを合成することで、両画像を表示することとした。しかし、画像処理部は、受信した調整画像の画像データーと、部分3D画像データーとを、時分割で画像表示部へ供給することで、両画像が同時に表示されていると利用者に認識させてもよい。   For example, in step S112 of the display process, the image processing unit displays both images by synthesizing the received image data of the adjusted image and the partial 3D image data. However, the image processing unit supplies the received image data of the adjusted image and the partial 3D image data to the image display unit in a time-sharing manner so that the user can recognize that both images are displayed simultaneously. Also good.

例えば、サーバーの画像記憶部には、2D画像データーと、部分3D画像データーとに加えて、部分3Dデーターに関連する「関連データー」をさらに備える構成としてもよい。なお、関連データーは、部分3Dデーターに関連する情報であり、画像データー、文字列データー、音声データー等種々の形態を採用しうる。その場合、表示処理のステップS112において、画像処理部は、調整画像の画像データーと、部分3D画像データーと、に加えてさらに、関連データーを表示(または再生等)させてもよい。   For example, the image storage unit of the server may further include “related data” related to the partial 3D data in addition to the 2D image data and the partial 3D image data. The related data is information related to the partial 3D data, and various forms such as image data, character string data, and audio data can be adopted. In that case, in step S112 of the display process, the image processing unit may display (or reproduce, etc.) related data in addition to the image data of the adjusted image and the partial 3D image data.

例えば、表示処理のステップS204では、三次元画像取得部は、利用者によって指定されたオブジェクトに対応する部分3D画像データーを、サーバーから取得してもよい。利用者によるオブジェクトの指定は、例えば、ジェスチャー検知(指定したいオブジェクトを指さす)、視線検出(指定したいオブジェクトを注視する)、音声認識(指定したいオブジェクトの名前を呼ぶ)等が利用できる。   For example, in step S204 of the display process, the 3D image acquisition unit may acquire partial 3D image data corresponding to the object designated by the user from the server. For example, gesture detection (pointing to an object to be designated), line-of-sight detection (gazing at an object to be designated), speech recognition (calling the name of the object to be designated), or the like can be used for designation of an object by a user.

例えば、上記実施形態の表示処理では、像調整部は、画像表示部を透過して利用者が視認するオブジェクトの視認性を低下させ、かつ、そのオブジェクトを三次元的に表す虚像を画像表示部に表示させることとした。しかし、像調整部は、あるオブジェクトを三次元的に表す虚像を画像表示部に形成させ、その際に、虚像として表示されるオブジェクトの一部(例えば背景に相当する部分)について、画像表示部を透過して利用者が視認する外景の少なくとも一部の視認性を低下させてもよい。すなわち、画像表示部を透過して利用者が視認する二次元画像や実世界において「三次元的に表されるオブジェクト」と同じオブジェクトが存在しない場合でも、像調整部は、上記実施形態の表示処理と同様の処理を実施してもよい。このようにすれば、透過型のHMDを用いて拡張現実感の処理をする際に、利用者が画像表示部を透過して視認する外景に対して、虚像として表示されるオブジェクトの視認性を向上させることができる。   For example, in the display processing of the above-described embodiment, the image adjustment unit reduces the visibility of an object that is visible to the user through the image display unit, and displays a virtual image that represents the object three-dimensionally. To be displayed. However, the image adjustment unit causes the image display unit to form a virtual image that three-dimensionally represents an object, and at that time, a part of the object displayed as a virtual image (for example, a portion corresponding to the background) The visibility of at least a part of the outside scene that is visible to the user through the screen may be reduced. That is, even when there is no two-dimensional image that can be seen by the user through the image display unit or the same object as the “three-dimensionally represented object” in the real world, the image adjustment unit displays the display of the above embodiment. You may implement the process similar to a process. In this way, when augmented reality processing is performed using a transmissive HMD, the visibility of an object displayed as a virtual image is improved with respect to the outside scene that the user sees through the image display unit. Can be improved.

・変形例4:
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
-Modification 4:
The present invention is not limited to the above-described embodiments, examples, and modifications, and can be realized with various configurations without departing from the spirit thereof. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in each embodiment described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the above-described effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

1…画像表示システム
10…制御部
11…決定キー
12…点灯部
13…表示切替キー
14…トラックパッド
15…輝度切替キー
16…方向キー
17…メニューキー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
54…受信部
61…カメラ(撮像部)
66…9軸センサー
110…入力情報取得部
100…HMD(頭部装着型表示装置)
120…記憶部
122…部分3D画像データー記憶部
130…電源
132…無線通信部
140…CPU
142…二次元画像取得部
144…三次元画像取得部
146…像調整部
160…画像処理部
170…音声処理部
180…インターフェイス
190…表示制御部
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
200…プロジェクター
250…スクリーン
300…サーバー
310…CPU
312…送信部
340…通信インターフェイス
350…記憶部
352…画像記憶部
PCLK…クロック信号
VSync…垂直同期信号
HSync…水平同期信号
Data…画像データー
Data1…右眼用画像データー
Data2…左眼用画像データー
OA…外部機器
PC…パーソナルコンピューター
SC…外景
VI…虚像
VR…視野
VR1…視野
VR2…視野
RE…右眼
LE…左眼
ER…端部
EL…端部
BS…通信キャリア
A1…最大射出領域
A2…キャンセル領域
AD…調整画像
BD…背景用の二次元画像
OBJ…オブジェクト
INT…インターネット
DESCRIPTION OF SYMBOLS 1 ... Image display system 10 ... Control part 11 ... Decision key 12 ... Illumination part 13 ... Display switch key 14 ... Trackpad 15 ... Luminance switch key 16 ... Direction key 17 ... Menu key 18 ... Power switch 20 ... Image display part 21 ... Right holding unit 22 ... Right display driving unit 23 ... Left holding unit 24 ... Left display driving unit 26 ... Right optical image display unit 28 ... Left optical image display unit 30 ... Earphone plug 32 ... Right earphone 34 ... Left earphone 40 ... Connection unit 42 ... Right cord 44 ... Left cord 46 ... Connecting member 48 ... Body code 51 ... Transmitter 52 ... Transmitter 53 ... Receiver 54 ... Receiver 61 ... Camera (imaging unit)
66 ... 9-axis sensor 110 ... Input information acquisition unit 100 ... HMD (head-mounted display device)
120 ... Storage unit 122 ... Partial 3D image data storage unit 130 ... Power source 132 ... Wireless communication unit 140 ... CPU
DESCRIPTION OF SYMBOLS 142 ... Two-dimensional image acquisition part 144 ... Three-dimensional image acquisition part 146 ... Image adjustment part 160 ... Image processing part 170 ... Audio | voice processing part 180 ... Interface 190 ... Display control part 201 ... Right backlight control part 202 ... Left backlight control Unit 211 ... Right LCD control unit 212 ... Left LCD control unit 221 ... Right backlight 222 ... Left backlight 241 ... Right LCD
242 ... Left LCD
251 ... Right projection optical system 252 ... Left projection optical system 261 ... Right light guide plate 262 ... Left light guide plate 200 ... Projector 250 ... Screen 300 ... Server 310 ... CPU
312 ... Transmission unit 340 ... Communication interface 350 ... Storage unit 352 ... Image storage unit PCLK ... Clock signal VSync ... Vertical synchronization signal HSync ... Horizontal synchronization signal Data ... Image data Data1 ... Right eye image data Data2 ... Left eye image data OA ... External device PC ... Personal computer SC ... Outside view VI ... Virtual image VR ... Field of view VR1 ... Field of view VR2 ... Field of view RE ... Right eye LE ... Left eye ER ... End EL ... End BS ... Communication carrier A1 ... Maximum emission area A2 ... Cancel Area AD ... Adjusted image BD ... Two-dimensional image for background OBJ ... Object INT ... Internet

Claims (10)

利用者に虚像と外景とを視認させる透過型の頭部装着型表示装置であって、
前記虚像を前記利用者に視認させる画像表示部と、
前記外景に含まれるオブジェクトであって、前記画像表示部を透過して前記利用者が視認するオブジェクトの視認性を低下させると共に、少なくとも前記オブジェクトを三次元的に表す前記虚像を前記画像表示部に表示させる像調整部と、
を備え
前記像調整部は、
前記画像表示部を透過して前記利用者が視認する前記オブジェクトと同系の色を全体に配置した調整画像を生成し、
前記調整画像を表す前記虚像を前記画像表示部に表示させることで、前記オブジェクトの視認性を低下させる、頭部装着型表示装置。
A transmissive head-mounted display device that allows a user to visually recognize a virtual image and an outside scene,
An image display unit for allowing the user to visually recognize the virtual image;
The object included in the outside scene, which reduces the visibility of an object that is transmitted through the image display unit and visually recognized by the user, and at least the virtual image that three-dimensionally represents the object is displayed on the image display unit. An image adjustment unit to be displayed;
Equipped with a,
The image adjusting unit is
An adjustment image is generated in which the same color as the object that the user sees through the image display unit is arranged,
A head-mounted display device that reduces the visibility of the object by displaying the virtual image representing the adjusted image on the image display unit .
利用者に虚像と外景とを視認させる透過型の頭部装着型表示装置であって、
前記虚像を前記利用者に視認させる画像表示部と、
前記外景に含まれるオブジェクトであって、前記画像表示部を透過して前記利用者が視認するオブジェクトの視認性を低下させると共に、少なくとも前記オブジェクトを三次元的に表す前記虚像を前記画像表示部に表示させる像調整部と、
を備え
前記像調整部は、
前記画像表示部を透過して前記利用者が視認する前記外景を表す画像であって、前記外景に含まれる前記オブジェクトが除外された画像の一部を、前記画像表示部を透過して前記利用者が視認する前記オブジェクトと重なる位置に配置した調整画像を生成し、
前記調整画像を表す前記虚像を前記画像表示部に表示させることで、前記オブジェクトの視認性を低下させる、頭部装着型表示装置。
A transmissive head-mounted display device that allows a user to visually recognize a virtual image and an outside scene,
An image display unit for allowing the user to visually recognize the virtual image;
The object included in the outside scene, which reduces the visibility of an object that is transmitted through the image display unit and visually recognized by the user, and at least the virtual image that three-dimensionally represents the object is displayed on the image display unit. An image adjustment unit to be displayed;
Equipped with a,
The image adjusting unit is
An image representing the outside scene that is visible to the user through the image display unit, and a part of the image excluding the object included in the outside scene is transmitted through the image display unit and used. Generating an adjustment image arranged at a position overlapping with the object visually recognized by the person,
A head-mounted display device that reduces the visibility of the object by displaying the virtual image representing the adjusted image on the image display unit .
請求項に記載の頭部装着型表示装置であって、さらに、
前記オブジェクトを三次元的に表すための三次元画像を取得する三次元画像取得部を備え、
前記像調整部は、前記三次元画像に基づいて前記色を決定する、頭部装着型表示装置。
The head-mounted display device according to claim 1 , further comprising:
A three-dimensional image acquisition unit for acquiring a three-dimensional image for representing the object three-dimensionally;
The head-mounted display device, wherein the image adjustment unit determines the color based on the three-dimensional image.
請求項2に記載の頭部装着型表示装置であって、さらに、
前記オブジェクトを三次元的に表すための三次元画像を取得する三次元画像取得部と、
前記外景を二次元的に表す二次元画像を取得する二次元画像取得部と、
を備え、
前記像調整部は、前記二次元画像と前記三次元画像とを比較することで、前記調整画像における前記重なる位置を特定する、頭部装着型表示装置。
The head-mounted display device according to claim 2 , further comprising:
A three-dimensional image acquisition unit for acquiring a three-dimensional image for representing the object three-dimensionally;
A two-dimensional image acquisition unit for acquiring a two-dimensional image representing the outside scene two-dimensionally;
With
The image adjustment unit is a head-mounted display device that identifies the overlapping position in the adjustment image by comparing the two-dimensional image and the three-dimensional image.
請求項2に記載の頭部装着型表示装置であって、さらに、
前記オブジェクトを三次元的に表すための三次元画像を取得する三次元画像取得部と、
前記頭部装着型表示装置を装着した状態における前記利用者の視界方向を撮像した二次元画像を取得する二次元画像取得部と、
を備え、
前記像調整部は、前記二次元画像と前記三次元画像とを比較することで、前記調整画像における前記重なる位置を特定する、頭部装着型表示装置。
The head-mounted display device according to claim 2 , further comprising:
A three-dimensional image acquisition unit for acquiring a three-dimensional image for representing the object three-dimensionally;
A two-dimensional image acquisition unit for acquiring a two-dimensional image obtained by imaging the user's visual field direction in a state in which the head-mounted display device is mounted;
With
The image adjustment unit is a head-mounted display device that identifies the overlapping position in the adjustment image by comparing the two-dimensional image and the three-dimensional image.
請求項1から請求項のいずれか一項に記載の頭部装着型表示装置を備える画像表示システムであって、さらに、
情報処理装置と、
画像表示装置と、
を備え、
前記情報処理装置は、
前記画像表示装置に対して前記オブジェクトを含む二次元画像を送信すると共に、前記頭部装着型表示装置に対して少なくとも前記オブジェクトを三次元的に表すための三次元画像を送信する送信部を備え、
前記画像表示装置は、
前記情報処理装置より送信された前記二次元画像を表示させる表示部を備える、画像表示システム。
An image display system comprising the head-mounted display device according to any one of claims 1 to 5 , further comprising:
An information processing device;
An image display device;
With
The information processing apparatus includes:
A transmission unit that transmits a two-dimensional image including the object to the image display device and transmits a three-dimensional image for representing at least the object three-dimensionally to the head-mounted display device. ,
The image display device includes:
An image display system comprising a display unit for displaying the two-dimensional image transmitted from the information processing apparatus.
利用者に虚像と外景とを視認させる透過型の頭部装着型表示装置を制御する方法であって、
前記虚像を前記利用者に視認させる第1の工程と、
前記外景に含まれるオブジェクトであって、前記頭部装着型表示装置を透過して前記利用者が視認するオブジェクトの視認性を低下させると共に、少なくとも前記オブジェクトを三次元的に表す前記虚像を表示させる第2の工程と、
を備え
前記第2の工程は、
前記頭部装着型表示装置を透過して前記利用者が視認する前記オブジェクトと同系の色を全体に配置した調整画像を生成する工程と、
前記調整画像を表す前記虚像を前記頭部装着型表示装置に表示させることで、前記オブジェクトの視認性を低下させる工程と、を備える、方法。
A method of controlling a transmissive head-mounted display device that allows a user to visually recognize a virtual image and an outside scene,
A first step of allowing the user to visually recognize the virtual image;
The object included in the outside scene, which is visible through the head-mounted display device and reduces the visibility of the object visually recognized by the user, and displays at least the virtual image representing the object three-dimensionally A second step;
Equipped with a,
The second step includes
Generating an adjustment image in which the same color as the object that the user visually recognizes through the head-mounted display device is arranged;
Displaying the virtual image representing the adjusted image on the head-mounted display device, thereby reducing the visibility of the object .
利用者に虚像と外景とを視認させる透過型の頭部装着型表示装置を制御する方法であって、
前記虚像を前記利用者に視認させる第1の工程と、
前記外景に含まれるオブジェクトであって、前記頭部装着型表示装置を透過して前記利用者が視認するオブジェクトの視認性を低下させると共に、少なくとも前記オブジェクトを三次元的に表す前記虚像を表示させる第2の工程と、
を備え
前記第2の工程は、
前記頭部装着型表示装置を透過して前記利用者が視認する前記外景を表す画像であって、前記外景に含まれる前記オブジェクトが除外された画像の一部を、前記頭部装着型表示装置を透過して前記利用者が視認する前記オブジェクトと重なる位置に配置した調整画像を生成する工程と、
前記調整画像を表す前記虚像を前記頭部装着型表示装置に表示させることで、前記オブジェクトの視認性を低下させる工程と、を備える、方法。
A method of controlling a transmissive head-mounted display device that allows a user to visually recognize a virtual image and an outside scene,
A first step of allowing the user to visually recognize the virtual image;
The object included in the outside scene, which is visible through the head-mounted display device and reduces the visibility of the object visually recognized by the user, and displays at least the virtual image representing the object three-dimensionally A second step;
Equipped with a,
The second step includes
An image representing the outside scene that is transmitted through the head-mounted display device and visually recognized by the user, and a part of the image excluding the object included in the outside scene is displayed on the head-mounted display device. Generating an adjustment image that is disposed at a position that overlaps with the object that the user sees through,
Displaying the virtual image representing the adjusted image on the head-mounted display device, thereby reducing the visibility of the object .
利用者に虚像と外景とを視認させる透過型の頭部装着型表示装置において使用されるコンピュータープログラムであって、
前記虚像を前記利用者に視認させる第1の機能と、
前記外景に含まれるオブジェクトであって、前記頭部装着型表示装置を透過して前記利用者が視認するオブジェクトの視認性を低下させると共に、少なくとも前記オブジェクトを三次元的に表す前記虚像を表示させる第2の機能と、
をコンピューターに実現させ
前記第2の機能は、
前記頭部装着型表示装置を透過して前記利用者が視認する前記オブジェクトと同系の色を全体に配置した調整画像を生成し、
前記調整画像を表す前記虚像を前記頭部装着型表示装置に表示させることで、前記オブジェクトの視認性を低下させる、コンピュータープログラム。
A computer program used in a transmissive head-mounted display device that allows a user to visually recognize a virtual image and an outside scene,
A first function for allowing the user to visually recognize the virtual image;
The object included in the outside scene, which is visible through the head-mounted display device and reduces the visibility of the object visually recognized by the user, and displays at least the virtual image representing the object three-dimensionally The second function,
To the computer ,
The second function is:
An adjustment image is generated in which the same color as the object that the user sees through the head-mounted display device is arranged,
A computer program that reduces the visibility of the object by displaying the virtual image representing the adjustment image on the head-mounted display device .
利用者に虚像と外景とを視認させる透過型の頭部装着型表示装置において使用されるコンピュータープログラムであって、
前記虚像を前記利用者に視認させる第1の機能と、
前記外景に含まれるオブジェクトであって、前記頭部装着型表示装置を透過して前記利用者が視認するオブジェクトの視認性を低下させると共に、少なくとも前記オブジェクトを三次元的に表す前記虚像を表示させる第2の機能と、
をコンピューターに実現させ
前記第2の機能は、
前記頭部装着型表示装置を透過して前記利用者が視認する前記外景を表す画像であって、前記外景に含まれる前記オブジェクトが除外された画像の一部を、前記頭部装着型表示装置を透過して前記利用者が視認する前記オブジェクトと重なる位置に配置した調整画像を生成し、
前記調整画像を表す前記虚像を前記頭部装着型表示装置に表示させることで、前記オブジェクトの視認性を低下させる、コンピュータープログラム。
A computer program used in a transmissive head-mounted display device that allows a user to visually recognize a virtual image and an outside scene,
A first function for allowing the user to visually recognize the virtual image;
The object included in the outside scene, which is visible through the head-mounted display device and reduces the visibility of the object visually recognized by the user, and displays at least the virtual image representing the object three-dimensionally The second function,
To the computer ,
The second function is:
An image representing the outside scene that is transmitted through the head-mounted display device and visually recognized by the user, and a part of the image excluding the object included in the outside scene is displayed on the head-mounted display device. An adjustment image arranged at a position overlapping the object that the user sees through
A computer program that reduces the visibility of the object by displaying the virtual image representing the adjustment image on the head-mounted display device .
JP2014166546A 2014-08-19 2014-08-19 Head-mounted display device, image display system, method for controlling head-mounted display device, and computer program Active JP6394174B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014166546A JP6394174B2 (en) 2014-08-19 2014-08-19 Head-mounted display device, image display system, method for controlling head-mounted display device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014166546A JP6394174B2 (en) 2014-08-19 2014-08-19 Head-mounted display device, image display system, method for controlling head-mounted display device, and computer program

Publications (2)

Publication Number Publication Date
JP2016042680A JP2016042680A (en) 2016-03-31
JP6394174B2 true JP6394174B2 (en) 2018-09-26

Family

ID=55592239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014166546A Active JP6394174B2 (en) 2014-08-19 2014-08-19 Head-mounted display device, image display system, method for controlling head-mounted display device, and computer program

Country Status (1)

Country Link
JP (1) JP6394174B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2902979T3 (en) * 2017-04-11 2022-03-30 Dolby Laboratories Licensing Corp Layered Augmented Entertainment Experiences

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3717653B2 (en) * 1998-01-20 2005-11-16 株式会社リコー Head mounted image display device
JP4624765B2 (en) * 2004-11-22 2011-02-02 オリンパス株式会社 Information superposition terminal and additional image superposition system
JP5136442B2 (en) * 2009-01-27 2013-02-06 ブラザー工業株式会社 Head mounted display
US9213405B2 (en) * 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays

Also Published As

Publication number Publication date
JP2016042680A (en) 2016-03-31

Similar Documents

Publication Publication Date Title
US10297062B2 (en) Head-mounted display device, control method for head-mounted display device, and computer program
US10643400B2 (en) Head-mounted display device, method of controlling head-mounted display device, and computer program
US9784976B2 (en) Head mounted display, information processing apparatus, image display apparatus, image display system, method for sharing display of head mounted display, and computer program
CN105607255B (en) Head-mounted display device, method of controlling the same, and computer-readable storage medium
JP5970872B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6232763B2 (en) Head-mounted display device and method for controlling head-mounted display device
WO2016063504A1 (en) Head-mounted type display device and method for controlling same, and computer program
JP6596914B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
US9799144B2 (en) Head mounted display, and control method for head mounted display
US9870048B2 (en) Head-mounted display device, method of controlling the same, and computer program
JP6492673B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
JP6488629B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
JP2017091433A (en) Head-mounted type display device, method of controlling head-mounted type display device, and computer program
JP6252002B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2016091348A (en) Head-mounted display device and control method for the same as well as computer program
JP6394174B2 (en) Head-mounted display device, image display system, method for controlling head-mounted display device, and computer program
JP6828235B2 (en) Head-mounted display device, how to share the display of the head-mounted display device, computer program
JP6451222B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP2016142966A (en) Head-mounted display device, information processing device, image display device, image display system, method of sharing displayed images of head-mounted display device, and computer program
JP6287399B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6308249B2 (en) Head-mounted display device and method
JP2016031373A (en) Display device, display method, display system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180813

R150 Certificate of patent or registration of utility model

Ref document number: 6394174

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150