JP2016091348A - Head-mounted display device and control method for the same as well as computer program - Google Patents

Head-mounted display device and control method for the same as well as computer program Download PDF

Info

Publication number
JP2016091348A
JP2016091348A JP2014225916A JP2014225916A JP2016091348A JP 2016091348 A JP2016091348 A JP 2016091348A JP 2014225916 A JP2014225916 A JP 2014225916A JP 2014225916 A JP2014225916 A JP 2014225916A JP 2016091348 A JP2016091348 A JP 2016091348A
Authority
JP
Japan
Prior art keywords
display area
display
image
depth
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014225916A
Other languages
Japanese (ja)
Inventor
佐藤 慎也
Shinya Sato
慎也 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2014225916A priority Critical patent/JP2016091348A/en
Publication of JP2016091348A publication Critical patent/JP2016091348A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To display a predetermined image with an appropriate shielding relation with respect to an actual object in the outside world.SOLUTION: There is provided a head-mounted display device comprising: a superimposed image display control unit that causes a display unit to display a predetermined image in association with the position of an object in the outside world which transmitted and visible; a position information acquisition unit that acquires position information indicating the position of the object in a two-dimensional space; and a depth information acquisition unit that acquires depth information indicating the depth of each part in the outside world. The superimposed image display control unit calculates the position of the object in a three-dimensional space based on the position information and the depth information; defines a display area for a predetermined image in the three-dimensional space based on the position of the object; and if a determination is made that the object is present between the display area and the display unit in the three-dimensional space based on information indicating the display area and the depth information, displays the predetermined image by excluding, from the display area, a predetermined range at least including the area that overlaps the object with respect to the display area in the depth direction.SELECTED DRAWING: Figure 9

Description

本発明は、外界を透過視認可能な表示部を備えた頭部装着型表示装置およびその制御方法、並びにコンピュータープログラムに関する。   The present invention relates to a head-mounted display device that includes a display unit that can visually recognize the outside world, a control method thereof, and a computer program.

近年、拡張現実(AR、Augmented Reality)と呼ばれる技術が注目されている。拡張現実は、現実空間にコンピューターの生成する仮想的な物体を重ね合わせて表示を行う技術である。拡張現実装置は、現実空間と拡張現実情報の合成方法によって、ビデオシースルー方式と、光学シースルー方式とに分類される。ビデオシースルー方式は、カメラで現実空間を撮影し、その撮像画像に対して拡張現実情報を合成する方式である。光学シースルー方式は、ハーフミラーなどを用いることにより光学的に現実空間の中に仮想物体を写し込む方式である。   In recent years, a technique called augmented reality (AR) has attracted attention. Augmented reality is a technology that displays a virtual object superimposed on a real space. Augmented reality devices are classified into a video see-through method and an optical see-through method according to a method for synthesizing real space and augmented reality information. The video see-through method is a method of photographing a real space with a camera and synthesizing augmented reality information with the captured image. The optical see-through method is a method in which a virtual object is optically reflected in a real space by using a half mirror or the like.

ビデオシースルー方式の表示装置では、例えば特許文献1に記載されているように、撮像部が出力する画像データと、距離センサー部が出力するデプスマップ情報とに基づいて、現実空間における光源の位置と、該光源から発せられる光の色および強度と、実物体で反射して仮想物体に届く光である物体反射光を示す情報とを推定し、それらを仮想物体に適用することで、現実空間における光源や物体を反射してきた光の影響を仮想物体に対して反映させる技術が提案されている。この技術によれば、現実空間を撮像した画像に対して仮想物体が実在するように配置した画像の表示を行うことができる。   In a video see-through display device, for example, as described in Patent Document 1, based on image data output by an imaging unit and depth map information output by a distance sensor unit, the position of a light source in real space , Estimating the color and intensity of light emitted from the light source and information indicating object reflected light that is reflected by the real object and reaches the virtual object, and applying them to the virtual object A technique for reflecting the influence of light reflected from a light source or an object on a virtual object has been proposed. According to this technology, it is possible to display an image arranged so that a virtual object actually exists on an image obtained by imaging a real space.

特開2013−3848号公報JP2013-3848A

上記従来の技術は、ビデオシースルー方式の表示装置用のものである。これに対して、光学シースルー方式の表示装置では、現実空間の中に仮想物体を写し込むだけであり、現実空間の物体が仮想物体に対して、位置的な遮蔽関係においてどのような影響を与えるかという点について、十分に検討されていないという課題があった。この課題は、光学シースルー方式の頭部装着型表示装置でも発生する課題であった。そのほか、従来の頭部装着型表示装置においては、使用者の利便性の向上や、検出精度の向上、装置構成のコンパクト化、低コスト化、省資源化、製造の容易化等が望まれていた。   The conventional technique is for a video see-through display device. On the other hand, in an optical see-through display device, only a virtual object is captured in the real space, and what kind of influence the physical space object has on the virtual object in the positional shielding relationship. There was a problem that this point was not fully examined. This problem is a problem that occurs even in an optical see-through head-mounted display device. In addition, in conventional head-mounted display devices, it is desired to improve user convenience, improve detection accuracy, make the device configuration compact, reduce costs, save resources, and facilitate manufacturing. It was.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.

(1)本発明の一形態は、外界を透過視認可能な表示部を備えた頭部装着型表示装置である。この頭部装着型表示装置は、前記表示部に、透過して視認される外界の対象物の位置に対応づけて所定の画像を表示させる重畳画像表示制御部と、二次元空間における前記対象物の位置を示す位置情報を取得する位置情報取得部と、外界における少なくとも前記対象物の周辺の各部の奥行きを示す奥行き情報を取得する奥行き情報取得部と、を備えていてもよい。前記重畳画像表示制御部は、前記位置情報と前記奥行き情報とに基づいて、三次元空間における前記対象物の位置を算出し、前記対象物の位置に基づいて、前記所定の画像についての前記三次元空間における表示領域を定め、前記表示領域を表す情報と前記奥行き情報とに基づいて、前記三次元空間において前記表示領域と前記表示部との間に物体が存在するか否かを判定し、前記物体が存在すると判定された場合に、前記奥行きの方向において前記表示領域に対して前記物体が重なる領域を少なくとも含む所定範囲を前記表示領域から除いて、前記所定の画像の表示を行うようにしてもよい。この形態の頭部装着型表示装置によれば、三次元空間において所定の画像の表示領域と表示部との間に物体が存在すると判定された場合に、奥行きの方向において表示領域に対して物体が重なる領域を少なくとも含む所定範囲が表示領域から除かれて所定の画像が表示される。したがって、表示領域よりも手前側(表示部側)に物体が存在する場合に、表示領域における、奥行きの方向においてその物体と重なる範囲に対して、前記所定の画像の表示がなされることがない。したがって、外界における実際の物体に対して、所定の画像を適切な遮蔽関係(すなわち前後関係)で表示することができるという効果を奏する。 (1) One embodiment of the present invention is a head-mounted display device that includes a display unit that can see through the outside. The head-mounted display device includes a superimposed image display control unit that causes the display unit to display a predetermined image in association with a position of an external object that is visible through the display unit, and the object in a two-dimensional space. A position information acquisition unit that acquires position information indicating the position of the object, and a depth information acquisition unit that acquires depth information indicating the depth of each part around at least the object in the outside world. The superimposed image display control unit calculates the position of the target object in a three-dimensional space based on the position information and the depth information, and based on the position of the target object, the third order for the predetermined image Determine the display area in the original space, based on the information representing the display area and the depth information, determine whether an object exists between the display area and the display unit in the three-dimensional space, When it is determined that the object exists, the predetermined image is displayed by excluding a predetermined range including at least a region where the object overlaps the display region in the depth direction from the display region. May be. According to the head-mounted display device of this aspect, when it is determined that an object exists between the display area of the predetermined image and the display unit in the three-dimensional space, the object with respect to the display area in the depth direction A predetermined range including at least an overlapping region is removed from the display region, and a predetermined image is displayed. Therefore, when an object is present on the front side (display unit side) of the display area, the predetermined image is not displayed in a range that overlaps the object in the depth direction in the display area. . Therefore, there is an effect that a predetermined image can be displayed with an appropriate shielding relationship (that is, a longitudinal relationship) with respect to an actual object in the outside world.

(2)前記形態の頭部装着型表示装置において、前記所定の画像は、前記対象物に付与する拡張現実としての拡張情報であってもよい。この形態の頭部装着型表示装置によれば、対象物と、対象物に付与する拡張現実としての拡張情報との間において、適切な遮蔽関係で表示することができるという効果を奏する。 (2) In the head-mounted display device of the above aspect, the predetermined image may be extended information as augmented reality to be given to the object. According to the head-mounted display device of this aspect, there is an effect that it is possible to display with an appropriate shielding relationship between the object and the extended information as augmented reality to be given to the object.

(3)前記形態の頭部装着型表示装置において、前記位置情報取得部は、前記対象物を撮像するカメラを含むようにしてもよい。この形態の頭部装着型表示装置によれば、二次元空間における対象物の位置を示す位置情報を、簡単な構成によって取得することができる。 (3) In the head-mounted display device according to the aspect described above, the position information acquisition unit may include a camera that images the object. According to the head-mounted display device of this form, position information indicating the position of the object in the two-dimensional space can be acquired with a simple configuration.

(4)前記形態の頭部装着型表示装置において、前記奥行き情報取得部は、外界の奥行きを示す信号を出力するデプスセンサーを含むようにしてもよい。この形態の頭部装着型表示装置によれば、外界における少なくとも対象物の周辺の各部の奥行きを示す奥行き情報を、簡単な構成によって取得することができる。 (4) In the head-mounted display device according to the aspect described above, the depth information acquisition unit may include a depth sensor that outputs a signal indicating the depth of the outside world. According to the head-mounted display device of this aspect, depth information indicating the depth of at least each part around the object in the outside world can be acquired with a simple configuration.

(5)前記形態の頭部装着型表示装置において、前記重畳画像表示制御部は、前記位置情報取得部によって取得した位置情報、および前記奥行き情報取得部によって取得した奥行き情報を、前記表示部を透過して見た座標系で表現する値に変換し、変換後の位置情報および奥行き情報に基づいて、前記表示領域を定めることを行うようにしてもよい。この形態の頭部装着型表示装置によれば、位置情報と奥行き情報とが、表示部を透過して見た座標系とは異なる座業系の値として取得された場合に、これら位置情報と奥行き情報とを表示部を透過して見た座標系で表現する値に統一することができる。したがって、拡張現実の表示精度を高めることができる。 (5) In the head-mounted display device of the above aspect, the superimposed image display control unit displays the position information acquired by the position information acquisition unit and the depth information acquired by the depth information acquisition unit on the display unit. The display area may be determined based on the position information and the depth information after conversion into a value expressed in a coordinate system viewed through. According to the head-mounted display device of this form, when the position information and the depth information are acquired as values of a sitting system different from the coordinate system seen through the display unit, the position information and It is possible to unify the depth information into values expressed in a coordinate system viewed through the display unit. Therefore, the display accuracy of augmented reality can be increased.

(6)本発明の他の形態は、外界を透過視認可能な表示部を備えた頭部装着型表示装置である。この頭部装着型表示装置は、前記表示部に、透過して視認される外界の対象物の位置に対応づけて第1の画像を表示させる重畳画像表示制御部と、二次元空間における前記対象物の位置を示す位置情報を取得する位置情報取得部と、外界における少なくとも前記対象物の周辺の各部の奥行きを示す奥行き情報を取得する奥行き情報取得部と、を備えていてもよい。前記重畳画像表示制御部は、前記位置情報と前記奥行き情報とに基づいて、三次元空間における前記対象物の位置を算出し、前記対象物の位置に基づいて、前記第1の画像についての前記三次元空間における表示領域を、第1表示領域として定め、前記第1の画像とは異なる第2の画像についての前記三次元空間における表示領域を、第2表示領域として取得し、前記第1表示領域を表す情報と前記第2表示領域を表す情報とに基づいて、前記三次元空間において前記第1表示領域と前記表示部との間に、前記第2表示領域が存在するか否かを判定し、前記第2表示領域が存在すると判定された場合に、前記奥行きの方向において前記第1表示領域に対して前記第2表示領域が重なる領域を少なくとも含む所定範囲を前記第1表示領域から除いて、前記第1の画像の表示を行うようにしてもよい。この形態の頭部装着型表示装置によれば、三次元空間において所定の画像の表示領域と表示部との間に他の画像が存在すると判定された場合に、奥行きの方向において表示領域に対して他の画像が重なる領域を少なくとも含む所定範囲が表示領域から除かれて所定の画像が表示される。したがって、表示領域よりも手前側(表示部側)に他の画像が存在する場合に、表示領域における、奥行きの方向においてその物体と重なる範囲に対して、前記所定の画像の表示がなされることがない。したがって、他の画像に対して、所定の画像を適切な遮蔽関係(すなわち前後関係)で表示することができるという効果を奏する。 (6) Another embodiment of the present invention is a head-mounted display device that includes a display unit that can see through the outside world. The head-mounted display device includes a superimposed image display control unit that causes the display unit to display a first image in association with a position of an external object that is visible through the display unit, and the target in a two-dimensional space. You may provide the positional information acquisition part which acquires the positional information which shows the position of an object, and the depth information acquisition part which acquires the depth information which shows the depth of each part of the circumference | surroundings of the said target object at least in the external world. The superimposed image display control unit calculates the position of the object in a three-dimensional space based on the position information and the depth information, and based on the position of the object, the superposition image display control unit A display area in a three-dimensional space is defined as a first display area, a display area in the three-dimensional space for a second image different from the first image is acquired as a second display area, and the first display Whether or not the second display area exists between the first display area and the display unit in the three-dimensional space is determined based on information representing the area and information representing the second display area. When it is determined that the second display area exists, a predetermined range including at least an area where the second display area overlaps the first display area in the depth direction is removed from the first display area. Te, it may be the display of the first image. According to the head-mounted display device of this aspect, when it is determined that another image exists between the display area of the predetermined image and the display unit in the three-dimensional space, the display area in the depth direction is compared with the display area. Thus, a predetermined range including at least a region where other images overlap is removed from the display region, and a predetermined image is displayed. Therefore, when another image exists on the front side (display unit side) of the display area, the predetermined image is displayed in a range overlapping the object in the depth direction in the display area. There is no. Therefore, there is an effect that a predetermined image can be displayed with an appropriate shielding relationship (that is, a longitudinal relationship) with respect to other images.

上述した本発明の各形態の有する複数の構成要素はすべてが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな他の構成要素との差し替え、限定内容の一部削除を行なうことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。   A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with another new component, and partially delete the limited contents of some of the plurality of components. In order to solve some or all of the above-described problems or achieve some or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.

例えば、本発明の一形態は、表示部と、重畳画像表示制御部と、位置情報取得部と、奥行き情報取得部と、の4つの要素の内の一つ以上の要素を備えた装置として実現可能である。すなわち、この装置は、表示部を有していてもよく、有していなくてもよい。また、装置は、重畳画像表示制御部を有していてもよく、有していなくてもよい。また、装置は、位置情報取得部を有していてもよく、有していなくてもよい。また、装置は、奥行き情報取得部を有していてもよく、有していなくてもよい。表示部は、例えば、外界を透過視認可能なものとしてもよい。重畳画像表示制御部は、例えば、表示部に、透過して視認される外界の対象物の位置に対応づけて所定の画像を表示させるようにしてもよい。位置情報取得部は、例えば、二次元空間における対象物の位置を示す位置情報を取得してもよい。奥行き情報取得部は、例えば、外界における少なくとも対象物の周辺の各部の奥行きを示す奥行き情報を取得してもよい。さらに、重畳画像表示制御部は、例えば、位置情報と奥行き情報とに基づいて、三次元空間における対象物の位置を算出し、対象物の位置に基づいて、所定の画像についての三次元空間における表示領域を定め、表示領域を表す情報と奥行き情報とに基づいて、三次元空間において表示領域と表示部との間に物体が存在するか否かを判定し、物体が存在すると判定された場合に、奥行きの方向において表示領域に対して物体が重なる領域を少なくとも含む所定範囲を表示領域から除いて、所定の画像の表示を行うようにしてもよい。こうした装置は、例えば、頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。このような形態によれば、使用者の利便性の向上や、検出精度の向上、装置構成のコンパクト化、低コスト化、省資源化、製造の容易化等の種々の課題の少なくとも1つを解決することができる。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。   For example, one embodiment of the present invention is realized as an apparatus including one or more elements among four elements of a display unit, a superimposed image display control unit, a position information acquisition unit, and a depth information acquisition unit. Is possible. That is, this apparatus may or may not have a display unit. Further, the apparatus may or may not have a superimposed image display control unit. Moreover, the apparatus may or may not have a position information acquisition unit. In addition, the apparatus may or may not have a depth information acquisition unit. A display part is good also as what can permeate | transmit and visually recognize the external field, for example. For example, the superimposed image display control unit may cause the display unit to display a predetermined image in association with the position of the object in the outside world that is seen through. The position information acquisition unit may acquire position information indicating the position of the object in the two-dimensional space, for example. For example, the depth information acquisition unit may acquire depth information indicating the depth of at least each part around the object in the outside world. Furthermore, the superimposed image display control unit calculates, for example, the position of the object in the three-dimensional space based on the position information and the depth information, and based on the position of the object, in the three-dimensional space for the predetermined image. When a display area is defined, and it is determined whether or not an object exists between the display area and the display unit in the three-dimensional space based on the information representing the display area and the depth information. In addition, a predetermined image may be displayed by excluding a predetermined range including at least a region where an object overlaps the display region in the depth direction from the display region. Such a device can be realized as, for example, a head-mounted display device, but can also be realized as a device other than the head-mounted display device. According to such a form, at least one of various problems such as improvement of user convenience, improvement of detection accuracy, compactness of the device configuration, cost reduction, resource saving, and ease of manufacture is achieved. Can be solved. Any or all of the technical features of each form of the head-mounted display device described above can be applied to this device.

本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、表示装置、頭部装着型表示装置および表示装置の制御方法、頭部装着型表示システム、表示装置、頭部装着型表示システムおよび表示装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。   The present invention can also be realized in various forms other than the head-mounted display device. For example, display device, head-mounted display device and display device control method, head-mounted display system, display device, head-mounted display system, and computer program for realizing the functions of the display device, and the computer program Can be realized in the form of a data signal or the like embodied in a carrier wave including the computer program.

本発明の第1実施形態における頭部装着型表示装置(HMD)の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the head mounted display apparatus (HMD) in 1st Embodiment of this invention. HMDの構成を機能的に示すブロック図である。It is a block diagram which shows the structure of HMD functionally. HMDによる拡張現実表示の一例を示す説明図である。It is explanatory drawing which shows an example of the augmented reality display by HMD. HMDの使用形態の一例を示す説明図である。It is explanatory drawing which shows an example of the usage form of HMD. 拡張現実表示制御処理を示すフローチャートである。It is a flowchart which shows an augmented reality display control process. デプスセンサーによって得られたデプスマップの一例を示す説明図である。It is explanatory drawing which shows an example of the depth map obtained by the depth sensor. マーカーの一例を示す説明図である。It is explanatory drawing which shows an example of a marker. 拡張情報データベースのデータ構造の一例を示す説明図である。It is explanatory drawing which shows an example of the data structure of an extended information database. AR画像の表示の一例を示す説明図である。It is explanatory drawing which shows an example of a display of AR image. 表示領域に対するAR画像の表示の形態を例示する説明図である。It is explanatory drawing which illustrates the form of the display of AR image with respect to a display area. 変形例3を示す説明図である。It is explanatory drawing which shows the modification 3. 変形例4を示す説明図である。It is explanatory drawing which shows the modification 4. その他の変形例におけるHMDの外観の構成を示す説明図である。It is explanatory drawing which shows the structure of the external appearance of HMD in another modification.

A.第1実施形態:
A−1.頭部装着型表示装置の基本構成:
図1は、本発明の第1実施形態における頭部装着型表示装置の概略構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。HMD100は、グラスを通過して視認される外界の中に画像が浮かび上がるシースルー型の頭部装着型表示装置である。
A. First embodiment:
A-1. Basic configuration of a head-mounted display device:
FIG. 1 is an explanatory diagram showing a schematic configuration of a head-mounted display device according to the first embodiment of the present invention. The head-mounted display device 100 is a display device mounted on the head, and is also called a head mounted display (HMD). The HMD 100 is a see-through head-mounted display device in which an image floats in the external world visually recognized through a glass.

HMD100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。   The HMD 100 includes an image display unit 20 that allows a user to visually recognize a virtual image when attached to the user's head, and a control unit (controller) 10 that controls the image display unit 20.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。   The image display unit 20 is a mounting body that is mounted on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, and a left optical image display unit 28. It is out. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.

右表示駆動部22は、右保持部21の内側、換言すれば、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。また、左表示駆動部24は、左保持部23の内側に配置されている。なお、以降では、右保持部21および左保持部23を区別せず「保持部」として説明する。同様に、右表示駆動部22および左表示駆動部24を区別せず「表示駆動部」として説明し、右光学像表示部26および左光学像表示部28を区別せず「光学像表示部」として説明する。   The right display drive unit 22 is disposed inside the right holding unit 21, in other words, on the side facing the user's head when the user wears the image display unit 20. Further, the left display driving unit 24 is disposed inside the left holding unit 23. Hereinafter, the right holding unit 21 and the left holding unit 23 will be described as “holding units” without being distinguished from each other. Similarly, the right display drive unit 22 and the left display drive unit 24 are described as “display drive units” without being distinguished from each other, and the right optical image display unit 26 and the left optical image display unit 28 are not distinguished from each other as “optical image display units”. Will be described.

表示駆動部は、液晶ディスプレイ(Liquid Crystal Display、以下「LCD」と呼ぶ)241、242や投写光学系251、252等を含む(図2参照)。表示駆動部の構成の詳細は後述する。光学部材としての光学像表示部は、導光板261、262(図2参照)と調光板とを含んでいる。導光板261、262は、光透過性の樹脂材料等によって形成され、表示駆動部から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、画像表示部20の表側(使用者の眼の側とは反対の側)を覆うように配置されている。調光板は、導光板261、262を保護し、導光板261、262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整することができる。なお、調光板は省略可能である。   The display driving unit includes a liquid crystal display (hereinafter referred to as “LCD”) 241, 242, projection optical systems 251, 252, and the like (see FIG. 2). Details of the configuration of the display driving unit will be described later. The optical image display unit as an optical member includes light guide plates 261 and 262 (see FIG. 2) and a light control plate. The light guide plates 261 and 262 are formed of a light transmissive resin material or the like, and guide the image light output from the display driving unit to the user's eyes. The light control plate is a thin plate-like optical element, and is disposed so as to cover the front side of the image display unit 20 (the side opposite to the user's eye side). The light control plate protects the light guide plates 261 and 262 and suppresses damage to the light guide plates 261 and 262 and adhesion of dirt. Further, by adjusting the light transmittance of the light control plate, it is possible to adjust the amount of external light entering the user's eyes and adjust the ease of visual recognition of the virtual image. The light control plate can be omitted.

画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、本体コード48が2本に分岐した右コード42および左コード44と、分岐点に設けられた連結部材46と、を含んでいる。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46には、イヤホンプラグ30を接続するためのジャックが設けられている。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。   The image display unit 20 further includes a connection unit 40 for connecting the image display unit 20 to the control unit 10. The connection unit 40 includes a main body cord 48 connected to the control unit 10, a right cord 42 and a left cord 44 in which the main body cord 48 branches into two, and a connecting member 46 provided at the branch point. . The right cord 42 is inserted into the casing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24. The connecting member 46 is provided with a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30.

画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。本体コード48における連結部材46と反対側の端部と、制御部10とのそれぞれには、互いに嵌合するコネクター(図示省略)が設けられており、本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48には、例えば、金属ケーブルや光ファイバーを採用することができる。   The image display unit 20 and the control unit 10 transmit various signals via the connection unit 40. A connector (not shown) that fits to each other is provided on each end of the main body cord 48 on the opposite side of the connecting member 46 and the control section 10. The connector of the main body cord 48 and the connector of the control section 10 are provided. The control unit 10 and the image display unit 20 are connected to or disconnected from each other by the fitting / releasing. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御部10は、HMD100を制御するための装置である。制御部10は、点灯部12と、タッチパッド14と、十字キー16と、電源スイッチ18とを含んでいる。点灯部12は、HMD100の動作状態(例えば、電源のON/OFF等)を、その発光態様によって通知する。点灯部12としては、例えば、LED(Light Emitting Diode)を用いることができる。タッチパッド14は、タッチパッド14の操作面上での接触操作を検出して、検出内容に応じた信号を出力する。タッチパッド14としては、静電式や圧力検出式、光学式といった種々のタッチパッドを採用することができる。十字キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、HMD100の電源の状態を切り替える。   The control unit 10 is a device for controlling the HMD 100. The control unit 10 includes a lighting unit 12, a touch pad 14, a cross key 16, and a power switch 18. The lighting unit 12 notifies the operation state of the HMD 100 (for example, ON / OFF of the power supply) by its light emission mode. For example, an LED (Light Emitting Diode) can be used as the lighting unit 12. The touch pad 14 detects a contact operation on the operation surface of the touch pad 14 and outputs a signal corresponding to the detected content. As the touch pad 14, various touch pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The cross key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power state of the HMD 100 by detecting a slide operation of the switch.

図2は、HMD100の構成を機能的に示すブロック図である。制御部10は、入力情報取得部110と、記憶部120と、電源130と、無線通信部132と、GPSモジュール134と、CPU140と、インターフェイス180と、送信部(Tx)51および52とを備え、各部は図示しないバスにより相互に接続されている。   FIG. 2 is a block diagram functionally showing the configuration of the HMD 100. The control unit 10 includes an input information acquisition unit 110, a storage unit 120, a power supply 130, a wireless communication unit 132, a GPS module 134, a CPU 140, an interface 180, and transmission units (Tx) 51 and 52. The parts are connected to each other by a bus (not shown).

入力情報取得部110は、例えば、タッチパッド14や十字キー16、電源スイッチ18などに対する操作入力に応じた信号を取得する。記憶部120は、ROM、RAM、DRAM、ハードディスク等によって構成されている。   The input information acquisition unit 110 acquires a signal corresponding to an operation input to the touch pad 14, the cross key 16, the power switch 18, and the like, for example. The storage unit 120 includes a ROM, a RAM, a DRAM, a hard disk, and the like.

電源130は、HMD100の各部に電力を供給する。電源130としては、例えば、リチウムポリマーバッテリー、リチウムイオンバッテリーなどの二次電池を用いることができる。さらに、二次電池に替えて、一次電池や燃料電池でもよいし、無線給電を受けて動作するようにしてもよい。さらには、太陽電池とキャパシターから給電を受けるようにしてもよい。無線通信部132は、無線LANやBluetooth(登録商標)、iBeacon(登録商標)といった所定の無線通信規格に則って、他の機器との間で無線通信を行う。GPSモジュール134は、GPS衛星からの信号を受信することにより、自身の現在位置を検出する。   The power supply 130 supplies power to each part of the HMD 100. As the power source 130, for example, a secondary battery such as a lithium polymer battery or a lithium ion battery can be used. Further, instead of the secondary battery, a primary battery or a fuel cell may be used, or the wireless battery may be operated by receiving wireless power feeding. Furthermore, you may make it receive electric power supply from a solar cell and a capacitor. The wireless communication unit 132 performs wireless communication with other devices in accordance with a predetermined wireless communication standard such as a wireless LAN, Bluetooth (registered trademark), or iBeacon (registered trademark). The GPS module 134 detects its current position by receiving a signal from a GPS satellite.

CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム(ОS)150、画像処理部160、表示制御部162、重畳画像表示制御部164、および音声処理部170として機能する。   The CPU 140 reads out and executes the computer program stored in the storage unit 120, thereby operating the operating system (OS) 150, the image processing unit 160, the display control unit 162, the superimposed image display control unit 164, and the sound processing unit 170. Function as.

画像処理部160は、インターフェイス180や無線通信部132を介して入力されるコンテンツ(映像)に基づいて信号を生成する。そして、画像処理部160は、生成した信号を、接続部40を介して画像表示部20に供給することで、画像表示部20を制御する。画像表示部20に供給するための信号は、アナログ形式とディジタル形式の場合で異なる。アナログ形式の場合、画像処理部160は、クロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、画像データDataとを生成し、送信する。具体的には、画像処理部160は、コンテンツに含まれる画像信号を取得する。取得した画像信号は、例えば動画像の場合、一般的に1秒あたり30枚のフレーム画像から構成されているアナログ信号である。画像処理部160は、取得した画像信号から垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離し、それらの周期に応じて、PLL回路等によりクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、RGBデータの画像データDataとして、1フレームごとに記憶部120内のDRAMに格納する。   The image processing unit 160 generates a signal based on content (video) input via the interface 180 or the wireless communication unit 132. Then, the image processing unit 160 controls the image display unit 20 by supplying the generated signal to the image display unit 20 via the connection unit 40. The signal supplied to the image display unit 20 differs between the analog format and the digital format. In the case of the analog format, the image processing unit 160 generates and transmits a clock signal PCLK, a vertical synchronization signal VSync, a horizontal synchronization signal HSync, and image data Data. Specifically, the image processing unit 160 acquires an image signal included in the content. For example, in the case of a moving image, the acquired image signal is an analog signal generally composed of 30 frame images per second. The image processing unit 160 separates a synchronization signal such as a vertical synchronization signal VSync and a horizontal synchronization signal HSync from the acquired image signal, and generates a clock signal PCLK by a PLL circuit or the like according to the period. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like. The image processing unit 160 stores the converted digital image signal as image data Data of RGB data in the DRAM in the storage unit 120 for each frame.

一方、ディジタル形式の場合、画像処理部160は、クロック信号PCLKと、画像データDataとを生成し、送信する。具体的には、コンテンツがディジタル形式の場合、クロック信号PCLKが画像信号に同期して出力されるため、垂直同期信号VSyncおよび水平同期信号HSyncの生成と、アナログ画像信号のA/D変換とが不要となる。なお、画像処理部160は、記憶部120に格納された画像データDataに対して、解像度変換処理や、輝度、彩度の調整といった種々の色調補正処理や、キーストーン補正処理等の画像処理を実行してもよい。   On the other hand, in the case of the digital format, the image processing unit 160 generates and transmits the clock signal PCLK and the image data Data. Specifically, when the content is in digital format, the clock signal PCLK is output in synchronization with the image signal, so that the generation of the vertical synchronization signal VSync and the horizontal synchronization signal HSync and the A / D conversion of the analog image signal are performed. It becomes unnecessary. The image processing unit 160 performs image processing such as resolution conversion processing, various tone correction processing such as adjustment of luminance and saturation, and keystone correction processing on the image data Data stored in the storage unit 120. May be executed.

画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSyncと、記憶部120内のDRAMに格納された画像データDataとを、送信部51、52を介してそれぞれ送信する。なお、送信部51を介して送信される画像データDataを「右眼用画像データData1」とも呼び、送信部52を介して送信される画像データDataを「左眼用画像データData2」とも呼ぶ。送信部51、52は、制御部10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。   The image processing unit 160 transmits the generated clock signal PCLK, vertical synchronization signal VSync, horizontal synchronization signal HSync, and image data Data stored in the DRAM in the storage unit 120 via the transmission units 51 and 52, respectively. To do. The image data Data transmitted via the transmission unit 51 is also referred to as “right eye image data Data1”, and the image data Data transmitted via the transmission unit 52 is also referred to as “left eye image data Data2”. The transmission units 51 and 52 function as a transceiver for serial transmission between the control unit 10 and the image display unit 20.

表示制御部162は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部162は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFFや、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFFや、左バックライト制御部202による左バックライト222の駆動ON/OFFなどを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。表示制御部162は、右LCD制御部211と左LCD制御部212とに対する制御信号を、送信部51および52を介してそれぞれ送信する。同様に、表示制御部162は、右バックライト制御部201と左バックライト制御部202とに対する制御信号を、それぞれ送信する。   The display control unit 162 generates a control signal for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 162 uses the control signal to turn on / off the right LCD 241 by the right LCD control unit 211, turn on / off the right backlight 221 by the right backlight control unit 201, and control the left LCD. Each of the right display drive unit 22 and the left display drive unit 24 is controlled by individually controlling ON / OFF driving of the left LCD 242 by the unit 212 and ON / OFF driving of the left backlight 222 by the left backlight control unit 202. Controls the generation and emission of image light. The display control unit 162 transmits control signals for the right LCD control unit 211 and the left LCD control unit 212 via the transmission units 51 and 52, respectively. Similarly, the display control unit 162 transmits control signals to the right backlight control unit 201 and the left backlight control unit 202, respectively.

重畳画像表示制御部164は、表示制御部162に、透過して視認される外界の対象物の位置に対応づけて拡張現実としての画像を表示させる。重畳画像表示制御部164については、後ほど詳述する。   The superimposed image display control unit 164 causes the display control unit 162 to display an image as augmented reality in association with the position of the object in the outside world that is visible through the display control unit 162. The superimposed image display control unit 164 will be described in detail later.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内の図示しないスピーカーおよび左イヤホン34内の図示しないスピーカーに対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34からは、それぞれ、例えば周波数等が変えられた異なる音が出力される。   The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and transmits the acquired audio signal to a speaker (not shown) in the right earphone 32 and a speaker (not shown) in the left earphone 34 connected to the connecting member 46. To supply. For example, when a Dolby (registered trademark) system is adopted, processing is performed on an audio signal, and different sounds with different frequencies or the like are output from the right earphone 32 and the left earphone 34, respectively.

インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等がある。インターフェイス180としては、例えば、USBインターフェイスや、マイクロUSBインターフェイス、メモリーカード用インターフェイス等を用いることができる。   The interface 180 is an interface for connecting various external devices OA that are content supply sources to the control unit 10. Examples of the external device OA include a personal computer PC, a mobile phone terminal, and a game terminal. As the interface 180, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.

画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61(図1も参照)と、デプス(Depth)センサー62と、9軸センサー66とを備えている。   The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, a left light guide plate 262 as a left optical image display unit 28, and a camera 61. (See also FIG. 1), a depth sensor 62, and a nine-axis sensor 66.

カメラ61は、RGBカメラであり、使用者が画像表示部20を装着した際の使用者の鼻根部に対応する位置に配置されている。そのため、カメラ61は、HMD100の所定の向き、すなわち、使用者が画像表示部20を頭部に装着した状態において使用者が向いている方向の外界をカラー撮像する。なお、カメラ61は、RGBカメラに換えて、白黒カメラとすることができる。   The camera 61 is an RGB camera and is disposed at a position corresponding to the user's nose root when the user wears the image display unit 20. Therefore, the camera 61 performs color imaging of a predetermined direction of the HMD 100, that is, the outside world in the direction in which the user is facing in a state where the user wears the image display unit 20 on the head. The camera 61 can be a monochrome camera instead of the RGB camera.

デプスセンサー62は、奥行き(距離)センサーの一種であり、カメラ61と並んで配置されている。   The depth sensor 62 is a kind of depth (distance) sensor, and is arranged side by side with the camera 61.

9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーであり、本実施形態では使用者の眉間に対応する位置に配置されている。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、使用者の頭部の動きを検出する。検出された頭部の動きから画像表示部20の向き、すなわち、使用者の視界が特定される。   The nine-axis sensor 66 is a motion sensor that detects acceleration (three axes), angular velocity (three axes), and geomagnetism (three axes), and is disposed at a position corresponding to the user's eyebrows in this embodiment. Since the 9-axis sensor 66 is provided in the image display unit 20, when the image display unit 20 is mounted on the user's head, the movement of the user's head is detected. The direction of the image display unit 20, that is, the field of view of the user is specified from the detected head movement.

右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251とを含んでいる。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。   The right display driving unit 22 includes a receiving unit (Rx) 53, a right backlight (BL) control unit 201 and a right backlight (BL) 221 that function as a light source, a right LCD control unit 211 that functions as a display element, and a right An LCD 241 and a right projection optical system 251 are included. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are also collectively referred to as “image light generation unit”.

受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データData1とに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光を、画像を表す有効な画像光へと変調する。   The receiving unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data1 input via the reception unit 53. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix. The right LCD 241 changes the transmittance of the light transmitted through the right LCD 241 by driving the liquid crystal at each pixel position arranged in a matrix, thereby converting the illumination light emitted from the right backlight 221 into an image. Modulate into effective image light to represent.

右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。光学像表示部は、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いてもよいし、半透過反射膜を用いてもよい。なお、HMD100が画像光を出射することを、本明細書では「画像を表示する」とも呼ぶ。   The right projection optical system 251 is configured by a collimator lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state. The right light guide plate 261 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The optical image display unit can use any method as long as a virtual image is formed in front of the user's eyes using image light. For example, a diffraction grating or a transflective film may be used. Good. Note that the emission of image light by the HMD 100 is also referred to as “displaying an image” in this specification.

左表示駆動部24は、右表示駆動部22と同様の構成を有している。すなわち、左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252とを含んでいる。右LCD241と同様に、左LCD242は、マトリクス状に配置された各画素位置の液晶を駆動することによって、左LCD242を透過する光の透過率を変化させることにより、左バックライト222から照射される照明光を、画像を表す有効な画像光へと変調する。なお、本実施形態ではバックライト方式を採用することとしたが、フロントライト方式や、反射方式を用いて画像光を射出してもよい。   The left display drive unit 24 has the same configuration as the right display drive unit 22. That is, the left display driving unit 24 includes a receiving unit (Rx) 54, a left backlight (BL) control unit 202 and a left backlight (BL) 222 that function as a light source, and a left LCD control unit 212 that functions as a display element. And a left LCD 242 and a left projection optical system 252. Similar to the right LCD 241, the left LCD 242 is irradiated from the left backlight 222 by changing the transmittance of light transmitted through the left LCD 242 by driving the liquid crystal at each pixel position arranged in a matrix. The illumination light is modulated into effective image light representing the image. In this embodiment, the backlight method is adopted, but image light may be emitted using a front light method or a reflection method.

A−2.拡張現実表示について:
図3は、HMD100による拡張現実表示の一例を示す説明図である。図3では、使用者の視界VRを例示している。上述のようにして、HMD100の使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、使用者は拡張現実(AR)としての画像VIを視認する。図3の例では、画像VIは、HMD100のOSの待ち受け画面である。また、光学像表示部26、28が外界SCからの光を透過することで、使用者は外界SCを視認する。このように、本実施形態のHMDの使用者は、視界VRのうち画像VIが表示された部分については、画像VIと、画像VIの背後に外界SCと、を見ることができる。また、視界VR1のうち画像VIが表示されていない部分については、外界SCだけを見ることができる。
A-2. About augmented reality display:
FIG. 3 is an explanatory diagram illustrating an example of augmented reality display by the HMD 100. FIG. 3 illustrates the user's field of view VR. As described above, the image light guided to both eyes of the user of the HMD 100 forms an image on the retina of the user, so that the user visually recognizes the image VI as an augmented reality (AR). In the example of FIG. 3, the image VI is a standby screen of the OS of the HMD 100. Further, the optical image display units 26 and 28 transmit the light from the outside world SC, so that the user visually recognizes the outside world SC. As described above, the user of the HMD of this embodiment can see the image VI and the external environment SC behind the image VI for the portion of the visual field VR where the image VI is displayed. Further, only the outside SC can be seen in the portion of the field of view VR1 where the image VI is not displayed.

図4は、HMD100の使用形態の一例を示す説明図である。図4では、使用者Uは、HMD100の光学像表示部26、28を通して、外界に存在する壁WLを視認している。壁WLは、例えば歴史的に重要な建造物であり、使用者ULは、壁WLをHMD100を使用して視認することで、壁WLの壁面に、例えば壁WLが設立された当時の景観を示す画像PIを拡張現実として視認することができる。こうした拡張現実の付与を行うのが、図2の重畳画像表示制御部164である。なお、壁WLに拡張現実を付与することは、あくまでもHMD100の使用形態の一例であり、例えば、白色の自動車に各種の色を拡張現実として付与したり、白色の広告塔に広告画像を付与したり等、種々の使用形態とすることができる。すなわち、拡張現実を付与する対象物の前面に関わる所定の表示領域に拡張現実としての画像が表示される。重畳画像表示制御部164は、記憶部120に記憶されている所定のプログラムをCPU140が実行することで、機能的に実現される。所定のプログラムの詳細について、以下に説明する。   FIG. 4 is an explanatory diagram illustrating an example of a usage pattern of the HMD 100. In FIG. 4, the user U visually recognizes the wall WL existing in the outside through the optical image display units 26 and 28 of the HMD 100. The wall WL is a historically important building, for example, and the user UL visually recognizes the wall WL using the HMD 100, so that, for example, the scenery at the time when the wall WL was established can be seen on the wall surface of the wall WL. The shown image PI can be visually recognized as augmented reality. It is the superimposed image display control unit 164 in FIG. 2 that provides such augmented reality. Giving augmented reality to the wall WL is merely an example of how the HMD 100 is used. For example, various colors are given to a white car as augmented reality, or an advertisement image is given to a white advertising tower. It can be set as various usage forms, such as. That is, an image as an augmented reality is displayed in a predetermined display area related to the front surface of the object to which the augmented reality is assigned. The superimposed image display control unit 164 is functionally realized by the CPU 140 executing a predetermined program stored in the storage unit 120. Details of the predetermined program will be described below.

図5は、拡張現実表示制御処理を示すフローチャートである。この拡張現実表示制御処理は、上記所定のプログラムに対応するもので、CPU140によって所定時間ごとに繰り返し実行される。処理が開始されると、CPU140は、まず、カメラ61からRGB画像を取得し(ステップS110)、デプスセンサー62の出力信号から、外界を二次元の画像として捉え、その画像の各画素での奥行きを画素の濃淡によって示すデプスマップ(距離画像)を生成する(ステップS120)。   FIG. 5 is a flowchart showing the augmented reality display control process. This augmented reality display control process corresponds to the predetermined program, and is repeatedly executed by the CPU 140 at predetermined time intervals. When the processing is started, the CPU 140 first obtains an RGB image from the camera 61 (step S110), captures the outside world as a two-dimensional image from the output signal of the depth sensor 62, and calculates the depth at each pixel of the image. A depth map (distance image) indicating the pixel density by the shading of the pixel is generated (step S120).

図6は、デプスマップの一例を示す説明図である。図示するように、デプスマップDPは、濃淡画像であり、濃淡によって各画素での奥行き(距離)を表す。なお、デプスセンサー62と、CPU140によって実行されるステップS120の処理とによって、[発明の概要]の欄に記載された「奥行き情報取得部」が実現される。   FIG. 6 is an explanatory diagram illustrating an example of a depth map. As illustrated, the depth map DP is a grayscale image, and the depth (distance) at each pixel is represented by the grayscale. The depth sensor 62 and the process of step S120 executed by the CPU 140 implement the “depth information acquisition unit” described in the “Summary of Invention” column.

図5のステップS120の実行後、CPU140は、ステップS110によって取得したRGB画像内からマーカーを認識し、マーカーの二次元位置座標を取得する(ステップS130)。本実施形態では、図4に示すように、拡張現実を付与する対象物である壁WLの片隅にマーカーMKが予め貼り付けられており、RGB画像内からマーカーMKを認識することで、対象物の認識を可能としている。   After execution of step S120 in FIG. 5, the CPU 140 recognizes the marker from the RGB image acquired in step S110, and acquires the two-dimensional position coordinates of the marker (step S130). In the present embodiment, as shown in FIG. 4, a marker MK is attached in advance to one corner of a wall WL that is an object to which augmented reality is added, and the object is recognized by recognizing the marker MK from within the RGB image. It is possible to recognize.

図7は、マーカーMKの一例を示す説明図である。図示するように、マーカーMKは、二次元マーカーであり、拡張現実を付与する対象物を指定するための標識となる、予め定められたパターンの画像が印刷されている。このパターンの画像によって、対象物が識別可能となる。図5のステップS130では、RGB画像内からマーカーMKを認識し、二次元空間におけるマーカーMKの位置を示す座標値を、二次元位置座標として取得する。カメラ61と、CPU140によって実行されるステップS110およびS130の処理とによって、[発明の概要]の欄に記載された「位置情報取得部」が実現される。   FIG. 7 is an explanatory diagram illustrating an example of the marker MK. As shown in the figure, the marker MK is a two-dimensional marker, on which an image of a predetermined pattern that serves as a mark for designating an object to which augmented reality is assigned is printed. The object can be identified by the image of this pattern. In step S130 in FIG. 5, the marker MK is recognized from the RGB image, and a coordinate value indicating the position of the marker MK in the two-dimensional space is acquired as a two-dimensional position coordinate. The “position information acquisition unit” described in the “Summary of Invention” section is realized by the camera 61 and the processing in steps S110 and S130 executed by the CPU 140.

なお、本実施形態では、対象物に対してマーカーを予め貼り付けることによって対象物の認識を可能としていたが、これに替えて、対象物である「壁」の形状パターンを予め記憶しておき、RGB画像におけるパターン認識によって対象物を認識するようにしてもよい。   In this embodiment, the object can be recognized by pasting a marker to the object in advance. Instead, the shape pattern of the “wall” that is the object is stored in advance. The object may be recognized by pattern recognition in the RGB image.

ステップS130の実行後、CPU140は、ステップS120によって取得したデプスマップ内からマーカーMKを認識し、マーカーMKの奥行きを取得する(ステップS140)。なお、マーカーMKに替えて、対象物である「壁」の形状パターンを予め記憶しておき、デプスマップ(距離画像)におけるパターン認識によって対象物を認識するようにしてもよい。   After execution of step S130, the CPU 140 recognizes the marker MK from the depth map acquired in step S120, and acquires the depth of the marker MK (step S140). Instead of the marker MK, the shape pattern of the “wall” that is the object may be stored in advance, and the object may be recognized by pattern recognition in the depth map (distance image).

次いで、CPU140は、ステップS130によって取得したマーカーの二次元位置座標と、ステップS120によって取得したデプスマップとを、光学像表示部26、28を透過して見た座標系で表現する値に変換する視野変換を行う(ステップS150)。カメラ61およびデプスセンサー62は、光学像表示部26、28とは異なった位置に設けられており、ステップS130によって取得したマーカーの二次元位置座標はカメラ61から見た二次元座標系で表現されたものであり、ステップS130によって取得したデプスマップはデプスセンサー62から見た二次元座標系で表現されたものである。このため、ステップS160では、二次元位置座標とデプスマップとを、光学像表示部26、28を透過して見た二次元座標系で表現する値に変換する視野変換を行う。   Next, the CPU 140 converts the two-dimensional position coordinates of the marker acquired in step S130 and the depth map acquired in step S120 into values expressed in a coordinate system viewed through the optical image display units 26 and 28. Field of view conversion is performed (step S150). The camera 61 and the depth sensor 62 are provided at positions different from those of the optical image display units 26 and 28, and the two-dimensional position coordinates of the marker acquired in step S130 are expressed in a two-dimensional coordinate system viewed from the camera 61. The depth map acquired in step S130 is expressed in a two-dimensional coordinate system viewed from the depth sensor 62. For this reason, in step S160, visual field conversion is performed to convert the two-dimensional position coordinates and the depth map into values expressed in a two-dimensional coordinate system viewed through the optical image display units 26 and 28.

ステップS150の実行後、CPU140は、ステップS130によって認識したマーカーの画像パターンをマーカー識別番号に変換し、拡張情報データベースからマーカー識別番号に対応する拡張情報を読み出す(ステップS160)。拡張情報データベースは、記憶部120に予め格納されたものである。なお、拡張情報データベースは、記憶部120に換えて、ネットワーク、特にインターネット上の記憶装置に予め格納されたものとしてもよい。   After execution of step S150, the CPU 140 converts the marker image pattern recognized in step S130 into a marker identification number, and reads extended information corresponding to the marker identification number from the extended information database (step S160). The extended information database is stored in the storage unit 120 in advance. The extended information database may be stored in advance in a storage device on a network, particularly the Internet, instead of the storage unit 120.

図8は、拡張情報データベースDBのデータ構造の一例を示す説明図である。拡張情報データベースDBは、「マーカー識別番号」、「表示画像」、「表示領域」の3つの項目C1、C2、C3によって構成されるレコードを複数、備える。一種類のマーカー毎に一つのレコードが対応している。「マーカー識別番号」の項目C1には、マーカーを識別するための1以上の整数が記録されている。「表示画像」の項目C2には、拡張現実として付与する画像(以下、「AR画像」と呼ぶ)を表す画像データのファイル名が記録されている。画像データは、静止画データであり、記憶部120に予め格納されている。AR画像の一つとしては、例えば、壁WLが設立された当時の景観を示す画像である。   FIG. 8 is an explanatory diagram showing an example of the data structure of the extended information database DB. The extended information database DB includes a plurality of records including three items C1, C2, and C3 of “marker identification number”, “display image”, and “display area”. One record corresponds to one type of marker. In the item “C1 of marker identification number”, an integer of 1 or more for identifying the marker is recorded. In the item “display image” C2, a file name of image data representing an image to be added as augmented reality (hereinafter referred to as “AR image”) is recorded. The image data is still image data and is stored in the storage unit 120 in advance. As one of the AR images, for example, an image showing a landscape at the time when the wall WL was established.

「表示領域」の項目C3には、AR画像を表示するための表示領域を表す表示領域情報が記録されている。表示領域情報は、表示領域を矩形とし、矩形の2つの対頂点の内の一組の対頂点の位置によって、表示領域の位置とサイズを示すデータである。上記対頂点の位置は、前述した光学像表示部26、28を透過して見た座標系における、ステップS150で視野変換後のマーカーの二次元位置座標に対する相対的な距離によって示される。   In the item “display area” C3, display area information representing a display area for displaying an AR image is recorded. The display area information is data indicating the position and size of the display area based on the position of a pair of vertices out of the two pairs of vertices of the rectangle. The position of the paired vertex is indicated by a relative distance with respect to the two-dimensional position coordinate of the marker after visual field conversion in step S150 in the coordinate system viewed through the optical image display units 26 and 28 described above.

ステップS160(図5)では、詳しくは、マーカー識別番号をキーとして、拡張情報データベースDBを検索する。「マーカー識別番号」の項目C1とキーが一致するレコードを選択し、そのレコードに含まれる拡張情報、すなわち、「表示画像」、「表示領域」の各項目C2、C3の情報を拡張情報データベースDBから読み出す。   In step S160 (FIG. 5), specifically, the extended information database DB is searched using the marker identification number as a key. A record whose key matches the item C1 of the “marker identification number” is selected, and the extended information included in the record, that is, the information of the items C2 and C3 of the “display image” and “display area” is stored in the extended information database DB. Read from.

続いて、CPU140は、ステップS160によって読み出した「表示領域」の項目C3の表示領域情報と、ステップS140によって取得したマーカーの奥行きとに基づいて、三次元空間における表示領域の位置およびサイズを設定する(ステップS170)。ここでいう「三次元空間」は、X軸およびY軸を、前述した、光学像表示部26、28を透過して見た二次元座標系の2つの座標軸とし、Z軸を光学像表示部26、28の向きとする座標系(すなわち、視点座標系)によって表現される空間である。ステップS170によれば、X軸−Y軸空間における位置は「表示領域」の項目C3の表示領域情報によって定められるものとし、Z軸方向の位置は、マーカーの奥行きと一致する位置とみなすことで、三次元空間における表示領域の位置およびサイズが定まる。   Subsequently, the CPU 140 sets the position and size of the display area in the three-dimensional space based on the display area information of the item “C3” of “display area” read out in step S160 and the depth of the marker acquired in step S140. (Step S170). The “three-dimensional space” here means that the X axis and the Y axis are the two coordinate axes of the two-dimensional coordinate system seen through the optical image display units 26 and 28, and the Z axis is the optical image display unit. This space is represented by a coordinate system (that is, a viewpoint coordinate system) having directions of 26 and 28. According to step S170, the position in the X-axis / Y-axis space is determined by the display area information of the item C3 of “display area”, and the position in the Z-axis direction is regarded as a position that matches the depth of the marker. The position and size of the display area in the three-dimensional space are determined.

その後、CPU140は、ステップS170によって設定した表示領域の位置およびサイズと、ステップS150で視野変換後のデプスマップとを比較して、上述した三次元空間において、表示領域の手前側(Z軸方向における光学像表示部26、28側)、すなわち表示領域と光学像表示部26、28との間に、デプスマップの情報によって表現されるなんらかの物体が存在するか否かを判定する(ステップS180)。ここでいう「物体」は、デプスマップの情報によって示される現実世界の物体である。詳しくは、デプスマップから表示領域に相当する位置の奥行き情報を検索して、それら奥行き情報が表示領域の手前側の値を示したときに、物体が存在すると判定する。なお、この判定の際に、手前側の値を示す画素が1画素とか2画素という小さい集合体を形成する場合には、ノイズあるいは微小物体であるとして、物体と判定しないようにしてもよい。また、小さい集合体に限らず、電線のような線状形状、等の特定の形状の集合体について物体と判定しない構成としてもよい。   Thereafter, the CPU 140 compares the position and size of the display area set in step S170 with the depth map after the visual field conversion in step S150, and in the three-dimensional space described above, the front side of the display area (in the Z-axis direction). It is determined whether there is any object represented by the information of the depth map between the optical image display units 26 and 28 side, that is, between the display area and the optical image display units 26 and 28 (step S180). The “object” here is a real-world object indicated by the information of the depth map. Specifically, depth information at a position corresponding to the display area is searched from the depth map, and when the depth information indicates a value on the near side of the display area, it is determined that an object exists. In this determination, if the pixel indicating the near side value forms a small aggregate of 1 pixel or 2 pixels, it may be determined that the object is noise or a minute object and not determined as an object. Moreover, it is good also as a structure which does not determine with an object about the aggregate | assembly of specific shapes, such as a linear shape like an electric wire, not only a small aggregate | assembly.

ステップS180で、物体が存在すると判定された場合には、Z軸方向において表示領域に対して前記存在するとした物体が重なる領域を求め、この重なる領域を含む所定範囲を表示領域から除く(ステップS190)。所定範囲は、重なる領域を内接する予め定められた形状、例えば矩形状の範囲とした。なお、矩形に換えて、3角形、5角形、6六角形、楕円形状、その他、種々の形状とすることもできる。さらには、重なる領域そのものを所定範囲とすることもできる。   If it is determined in step S180 that an object is present, a region where the object that is present in the Z-axis direction overlaps the display region is obtained, and a predetermined range including this overlapping region is removed from the display region (step S190). ). The predetermined range is a predetermined shape inscribed in the overlapping area, for example, a rectangular range. In addition, it can change to a rectangle, and can also be made into various shapes, such as a triangle, a pentagon, a hexagon, an ellipse shape. Furthermore, the overlapping area itself can be set within a predetermined range.

続いて、CPU140は、ステップS160によって読み出した「表示画像」の項目C2のファイル名のAR画像を記憶部120から読み出して、そのAR画像を表示領域に表示する(ステップS200)。一方、ステップS180で、表示領域と光学像表示部26、28との間に物体が存在しないと判定された場合には、CPU140は、ステップS190の処理を実行することなく、ステップS200に処理を進める。ステップS200の実行後、拡張画像表示制御処理を終了する。なお、ステップS150からステップS200までの処理によって、図2の重畳画像表示制御部164が実現されている。   Subsequently, the CPU 140 reads out the AR image having the file name of the item “C2” “display image” read out in step S160 from the storage unit 120, and displays the AR image in the display area (step S200). On the other hand, when it is determined in step S180 that no object exists between the display area and the optical image display units 26 and 28, the CPU 140 performs the process in step S200 without executing the process in step S190. Proceed. After execution of step S200, the extended image display control process ends. Note that the superimposed image display control unit 164 of FIG. 2 is realized by the processing from step S150 to step S200.

A−3.実施形態の効果について:
図9は、AR画像の表示の一例を示す説明図である。この例示は、図4に示した使用形態のときの表示であり、使用者の視界VR1を例示している。図示するように、視界VR1には、壁WLと、壁WLの前に停められた車CRとが含まれている。また、壁WLに重畳して、AR画像が表示される。図5のステップS170によって設定されるAR画像の表示領域PAは、図中のP1とP2とを対頂点とする矩形で、かつ壁WLの前面の位置を奥行きとする領域である。このために、表示領域PAの手前側には物体である車CRが存在することになる。図5のステップS180では肯定判定されて、ステップS190によって、奥行き方向(Z軸方向)において表示領域PAに対して車CRが重なる領域を求め、この重なる領域を含む所定範囲、例えば、図中のP3とP2とを対頂点とする矩形部分が表示領域PAから除かれる。新たな表示領域PA*は、図中のハッチで示した部分であり、この表示領域PA*にAR画像が表示される。
A-3. About effect of embodiment:
FIG. 9 is an explanatory diagram illustrating an example of display of an AR image. This illustration is a display in the usage mode shown in FIG. 4 and illustrates the user's field of view VR1. As shown in the drawing, the field of view VR1 includes a wall WL and a car CR stopped in front of the wall WL. Further, the AR image is displayed so as to be superimposed on the wall WL. The AR image display area PA set in step S170 in FIG. 5 is an area having a rectangular shape with P1 and P2 in the figure as opposite vertices, and having a depth on the front surface of the wall WL. For this reason, the vehicle CR, which is an object, exists on the front side of the display area PA. In step S180 of FIG. 5, an affirmative determination is made, and in step S190, an area where the vehicle CR overlaps the display area PA in the depth direction (Z-axis direction) is obtained, and a predetermined range including this overlapping area, for example, in the figure A rectangular portion having P3 and P2 as the opposite vertices is removed from the display area PA. The new display area PA * is a hatched portion in the figure, and the AR image is displayed in the display area PA *.

図10は、表示領域PA*に対するAR画像PIの表示の形態を例示する説明図である。図10(a)は元のAR画像の一例であり、図10(b)は第1の表示形態であり、図10(c)は第2の表示形態である。本実施形態では、第1の表示形態が採用されている。図10(b)に示すように、第1の表示形態では、AR画像PIを所定範囲が除かれる前の表示領域PAいっぱいまでアスペクト比を維持しながら拡大した上で、前記所定範囲に対応する部分をカットして、そのカット後のAR画像PI1を、所定範囲が除かれた後の表示領域PA*に表示させる。   FIG. 10 is an explanatory diagram illustrating a display form of the AR image PI with respect to the display area PA *. FIG. 10A shows an example of the original AR image, FIG. 10B shows the first display form, and FIG. 10C shows the second display form. In the present embodiment, the first display form is adopted. As shown in FIG. 10B, in the first display form, the AR image PI is enlarged while maintaining the aspect ratio to the full display area PA before the predetermined range is removed, and then corresponds to the predetermined range. The portion is cut, and the AR image PI1 after the cut is displayed in the display area PA * after the predetermined range is removed.

図10(c)に示すように、第2の表示形態では、AR画像PIをアスペクト比を維持しながら所定範囲が除かれた後の表示領域PA*に表示可能な最大限に拡大し、その拡大後のAR画像PI2を表示領域PA*に表示させる。本実施形態の変形例として、第2の表示形態を採用するようにしてもよい。   As shown in FIG. 10C, in the second display mode, the AR image PI is enlarged to the maximum possible display in the display area PA * after the predetermined range is removed while maintaining the aspect ratio. The enlarged AR image PI2 is displayed in the display area PA *. As a modification of the present embodiment, the second display form may be adopted.

このために、本実施形態のHMD100によれば、表示領域よりも手前側(表示部側)に物体が存在する場合に、表示領域における、奥行きの方向においてその物体と重なる範囲に対して、AR画像の表示がなされることがない。したがって、現実空間における実際の物体に対して、AR画像を適切な遮蔽関係(すなわち前後関係)で表示することができるという効果を奏する。従来技術の場合、所定範囲が除かれる前の表示領域PA(図9のP1−P2の矩形)全体にAR画像が重ね合わせて表示されることから、車CRにもAR画像の一部が重なり、使用者の視界の視認性を低下させることになるが、本実施形態のHMD100によれば、上記の視認性の低下を防止することができる。   For this reason, according to the HMD 100 of the present embodiment, when an object is present on the front side (display unit side) of the display area, the AR overlaps the range overlapping the object in the depth direction in the display area. The image is not displayed. Therefore, there is an effect that an AR image can be displayed with an appropriate occlusion relationship (ie, a front-rear relationship) with respect to an actual object in the real space. In the case of the prior art, since the AR image is superimposed and displayed on the entire display area PA (P1-P2 rectangle in FIG. 9) before the predetermined range is removed, a part of the AR image also overlaps the car CR. Although the visibility of the user's field of view is reduced, according to the HMD 100 of the present embodiment, the above-described reduction in visibility can be prevented.

また、第1実施形態のHMD100によれば、図5のステップS150によって視野変換を行っていることから、カメラ61およびデプスセンサー62が、光学像表示部26、28とは異なった位置に設けられているにも拘わらず、マーカーの二次元位置座標とデプスマップとを、光学像表示部26、28を透過して見た座標系で表現する値に統一することができる。したがって、拡張現実の表示精度を高めることができる。   Further, according to the HMD 100 of the first embodiment, since the field of view is changed in step S150 of FIG. 5, the camera 61 and the depth sensor 62 are provided at positions different from the optical image display units 26 and 28. Nevertheless, the two-dimensional position coordinates of the marker and the depth map can be unified to values expressed in a coordinate system viewed through the optical image display units 26 and 28. Therefore, the display accuracy of augmented reality can be increased.

B.変形例:
なお、この発明は前記第1実施形態およびその変形例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
B. Variations:
The present invention is not limited to the first embodiment and the modifications thereof, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible. is there.

B−1.変形例1:
第1実施形態およびその変形例では、外界における少なくとも前記対象物の周辺の各部の奥行きをデプスセンサー62によって検出していたが、デプスセンサーに換えて、ステレオカメラにより検出する構成としてもよい。また、外界における各部の奥行きがCAD情報として予め示される構成とし、CAD情報から対象物周辺の奥行きを取得する構成としてもよい。
B-1. Modification 1:
In the first embodiment and the modification thereof, the depth sensor 62 detects the depth of at least each part around the object in the outside world. However, the depth sensor 62 may be used instead of the depth sensor. Further, the depth of each part in the outside world may be configured to be indicated in advance as CAD information, and the depth around the object may be acquired from the CAD information.

B−2.変形例2:
第1実施形態では、対象物に拡張現実として付与する拡張情報を、静止画データとしたが、これに換えて、文字データ、図形データ、あるいは動画データ等とすることができる。また、画像は3D画像としてもよい。さらに、これら各種のデータの組合せとすることもできる。
B-2. Modification 2:
In the first embodiment, the extended information to be given to the target object as augmented reality is still image data. However, it can be replaced with character data, graphic data, moving image data, or the like. The image may be a 3D image. Furthermore, a combination of these various types of data can also be used.

B−3.変形例3:
第1実施形態では、拡張現実を付与する対象物の前面に関わる所定の表示領域にAR画像が表示される構成としていた。これに対して、所定の表示領域は対象物の前面に限る必要はなく、対象物の位置に基づいて定まる位置であればどの位置であってもよい。例えば、図11(a)に示すように、対象物200の前面200aと奥行きが同一であり対象物200の上側となる位置に、所定の表示領域210が位置する構成としてもよいし、図11(b)に示すように、対象物200の前面200aより奥行きが遠く側にあって対象物200の上面210aの上側の位置に、所定の表示領域220が位置する構成としてもよい。なお、図11(b)の場合には、拡張情報データベースDBにおける「表示領域」の項目C3を、奥行きの情報を含むようにして、マーカーに対する3次元方向への相対的な距離によって表示領域を定めるようにすればよい。
B-3. Modification 3:
In 1st Embodiment, it was set as the structure by which AR image is displayed on the predetermined | prescribed display area | region in connection with the front surface of the target object which provides augmented reality. On the other hand, the predetermined display area need not be limited to the front surface of the object, and may be any position as long as the position is determined based on the position of the object. For example, as shown in FIG. 11 (a), a predetermined display region 210 may be positioned at a position that is the same depth as the front surface 200a of the object 200 and is above the object 200. As shown in (b), the predetermined display area 220 may be positioned at a position farther away from the front surface 200a of the object 200 and above the upper surface 210a of the object 200. In the case of FIG. 11B, the item C3 of “display area” in the extended information database DB includes depth information, and the display area is determined by the relative distance in the three-dimensional direction with respect to the marker. You can do it.

B−4.変形例4:
第1実施形態では、図9に示すように、AR画像の表示領域PAの手前側に物体である車CRが存在する場合に、表示領域PAを変形する構成とした。これに対して、物体を、他の対象物に対して付与されるAR画像の表示領域に換えることもできる。すなわち、図12に示すように、AR画像である第1の画像の表示領域310の手前側に、他の対象物320についてのAR画像(第2の画像)の表示領域330が存在する場合に、奥行きの方向において表示領域310に対して表示領域330が重なる領域を除いて第1の画像の表示を行うようにしてもよい。したがって、他の対象物についてのAR画像に対して、AR画像を適切な遮蔽関係(すなわち前後関係)で表示することができるという効果を奏する。なお、この変形例4において、第2の画像は必ずしも対象物に対して付与されるAR画像である必要はなく、AR画像であれば、対象物とは無関係に表示されるものとすることもできる。要は、対象物に対して付与されるAR画像の表示領域の手前側に、他のAR画像の表示領域が存在する場合に、その対象物のAR画像の表示領域を、他のAR画像の表示領域が重なる領域を少なくとも含む所定範囲を除くものであれば、いずれの構成とすることもできる。
B-4. Modification 4:
In the first embodiment, as shown in FIG. 9, the display area PA is deformed when the vehicle CR, which is an object, is present on the front side of the AR image display area PA. On the other hand, the object can be changed to a display area of an AR image given to another object. That is, as shown in FIG. 12, when an AR image (second image) display region 330 for another object 320 is present in front of the first image display region 310 that is an AR image. The first image may be displayed except for an area where the display area 330 overlaps the display area 310 in the depth direction. Therefore, there is an effect that the AR image can be displayed in an appropriate shielding relationship (that is, a front-rear relationship) with respect to the AR image of another object. In the fourth modification, the second image does not necessarily have to be an AR image given to the object. If the AR image is an AR image, the second image may be displayed regardless of the object. it can. In short, when there is a display area of another AR image on the near side of the display area of the AR image assigned to the object, the display area of the AR image of the object is changed to that of the other AR image. Any configuration can be used as long as it excludes a predetermined range including at least a region where the display region overlaps.

B−5.その他の変形例:
上記実施形態では、ヘッドマウントディスプレイの構成について例示した。しかし、ヘッドマウントディスプレイの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
B-5. Other variations:
In the said embodiment, it illustrated about the structure of the head mounted display. However, the configuration of the head-mounted display can be arbitrarily determined without departing from the gist of the present invention. For example, each component can be added, deleted, converted, and the like.

上記実施形態における、制御部と、画像表示部とに対する構成要素の割り振りは、あくまで一例であり、種々の態様を採用可能である。例えば、以下のような態様としてもよい。(i)制御部にCPUやメモリー等の処理機能を搭載、画像表示部には表示機能のみを搭載する態様、(ii)制御部と画像表示部との両方にCPUやメモリー等の処理機能を搭載する態様、(iii)制御部と画像表示部とを一体化した態様(例えば、画像表示部に制御部が含まれ眼鏡型のウェアラブルコンピューターとして機能する態様)、(iv)制御部の代わりにスマートフォンや携帯型ゲーム機を使用する態様、(v)制御部と画像表示部とを無線通信かつワイヤレス給電可能な構成とすることにより接続部(コード)を廃した態様。   The allocation of components to the control unit and the image display unit in the above embodiment is merely an example, and various aspects can be employed. For example, the following aspects may be adopted. (I) A mode in which processing functions such as a CPU and a memory are mounted in the control unit, and only a display function is mounted in the image display unit. (Iii) a mode in which the control unit and the image display unit are integrated (for example, a mode in which the control unit is included in the image display unit and functions as a glasses-type wearable computer), (iv) instead of the control unit A mode in which a smartphone or a portable game machine is used, and (v) a mode in which the connection unit (code) is eliminated by adopting a configuration in which the control unit and the image display unit can perform wireless communication and wireless power feeding.

上記実施形態では、説明の便宜上、制御部が送信部を備え、画像表示部が受信部を備えるものとした。しかし、上記実施形態の送信部および受信部は、いずれも、双方向通信が可能な機能を備えており、送受信部として機能することができる。また、例えば、図2に示した制御部は、有線の信号伝送路を介して画像表示部と接続されているものとした。しかし、制御部と、画像表示部とは、無線LANや赤外線通信やBluetooth(登録商標)等の無線の信号伝送路を介した接続により接続されていてもよい。   In the above embodiment, for convenience of explanation, the control unit includes a transmission unit, and the image display unit includes a reception unit. However, each of the transmission unit and the reception unit of the above-described embodiment has a function capable of bidirectional communication, and can function as a transmission / reception unit. For example, the control unit shown in FIG. 2 is connected to the image display unit via a wired signal transmission path. However, the control unit and the image display unit may be connected by a connection via a wireless signal transmission path such as a wireless LAN, infrared communication, or Bluetooth (registered trademark).

例えば、上記実施形態で示した制御部、画像表示部の構成は任意に変更することができる。具体的には、例えば、制御部からタッチパッドを省略し、十字キーのみで操作する構成としてもよい。また、制御部に操作用スティック等の他の操作用インターフェイスを備えてもよい。また、制御部にはキーボードやマウス等のデバイスを接続可能な構成として、キーボードやマウスから入力を受け付けるものとしてもよい。また、例えば、タッチパッドや十字キーによる操作入力のほか、フットスイッチ(使用者の足により操作するスイッチ)による操作入力を取得してもよい。例えば、画像表示部に赤外線センサー等の視線検知部を設けた上で、使用者の視線を検知し、視線の動きに対応付けられたコマンドによる操作入力を取得してもよい。例えば、カメラを用いて使用者のジェスチャーを検知し、ジェスチャーに対応付けられたコマンドによる操作入力を取得してもよい。ジェスチャー検知の際は、使用者の指先や、使用者の手に付けられた指輪や、使用者の手にする医療器具等を動き検出のための目印にすることができる。フットスイッチや視線による操作入力を取得可能とすれば、使用者が手を離すことが困難である作業においても、入力情報取得部は、使用者からの操作入力を取得することができる。   For example, the configurations of the control unit and the image display unit described in the above embodiment can be arbitrarily changed. Specifically, for example, the touch pad may be omitted from the control unit and the operation may be performed using only the cross key. The control unit may be provided with another operation interface such as an operation stick. Moreover, it is good also as what receives an input from a keyboard or a mouse | mouth as a structure which can connect devices, such as a keyboard and a mouse | mouth, to a control part. Further, for example, in addition to an operation input using a touch pad or a cross key, an operation input using a foot switch (a switch operated by a user's foot) may be acquired. For example, after providing a line-of-sight detection unit such as an infrared sensor in the image display unit, the user's line of sight may be detected to obtain an operation input by a command associated with the movement of the line of sight. For example, a user's gesture may be detected using a camera, and an operation input by a command associated with the gesture may be acquired. When detecting a gesture, a user's fingertip, a ring attached to the user's hand, a medical device to be used by the user's hand, or the like can be used as a mark for motion detection. If it is possible to acquire an operation input using a foot switch or a line of sight, the input information acquisition unit can acquire an operation input from the user even in a task in which it is difficult for the user to release his / her hand.

図13は、変形例におけるHMDの外観の構成を示す説明図である。図13(A)の例の場合、画像表示部20xは、右光学像表示部26に代えて右光学像表示部26xを備え、左光学像表示部28に代えて左光学像表示部28xを備えている。右光学像表示部26xと左光学像表示部28xとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における使用者の右眼および左眼の斜め上にそれぞれ配置されている。図13(B)の例の場合、画像表示部20yは、右光学像表示部26に代えて右光学像表示部26yを備え、左光学像表示部28に代えて左光学像表示部28yを備えている。右光学像表示部26yと左光学像表示部28yとは、上記実施形態の光学部材よりも小さく形成され、HMDの装着時における使用者の右眼および左眼の斜め下にそれぞれ配置されている。このように、光学像表示部は使用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のHMDとして実現することもできる。   FIG. 13 is an explanatory diagram showing the configuration of the appearance of the HMD in the modification. 13A, the image display unit 20x includes a right optical image display unit 26x instead of the right optical image display unit 26, and a left optical image display unit 28x instead of the left optical image display unit 28. I have. The right optical image display unit 26x and the left optical image display unit 28x are formed smaller than the optical member of the above-described embodiment, and are respectively disposed obliquely above the right eye and the left eye of the user when the HMD is mounted. . 13B, the image display unit 20y includes a right optical image display unit 26y instead of the right optical image display unit 26, and a left optical image display unit 28y instead of the left optical image display unit 28. I have. The right optical image display unit 26y and the left optical image display unit 28y are formed smaller than the optical member of the above-described embodiment, and are respectively disposed obliquely below the right eye and the left eye of the user when the HMD is worn. . Thus, it is sufficient that the optical image display unit is disposed in the vicinity of the user's eyes. The size of the optical member forming the optical image display unit is also arbitrary, and the optical image display unit covers only a part of the user's eye, in other words, the optical image display unit completely covers the user's eye. It can also be realized as an HMD in an uncovered form.

例えば、ヘッドマウントディスプレイは、両眼タイプの透過型ヘッドマウントディスプレイであるものとしたが、単眼タイプのヘッドマウントディスプレイとしてもよい。また、使用者がヘッドマウントディスプレイを装着した状態において外景の透過が遮断される非透過型ヘッドマウントディスプレイとして構成してもよい。   For example, the head mounted display is a binocular transmissive head mounted display, but may be a monocular head mounted display. Further, it may be configured as a non-transmissive head mounted display in which the transmission of the outside scene is blocked when the user wears the head mounted display.

例えば、画像処理部、表示制御部、音声処理部等の機能部は、CPUがROMやハードディスクに格納されているコンピュータープログラムをRAMに展開して実行することにより実現されるものとして記載した。しかし、これら機能部は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。   For example, the functional units such as the image processing unit, the display control unit, and the audio processing unit are described as being realized by the CPU developing and executing a computer program stored in the ROM or hard disk on the RAM. However, these functional units may be configured using an ASIC (Application Specific Integrated Circuit) designed to realize the function.

例えば、上記実施形態では、画像表示部を眼鏡のように装着するヘッドマウントディスプレイであるとしているが、画像表示部が通常の平面型ディスプレイ装置(液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置等)であるとしてもよい。この場合にも、制御部と画像表示部との間の接続は、有線の信号伝送路を介した接続であってもよいし、無線の信号伝送路を介した接続であってもよい。このようにすれば、制御部を、通常の平面型ディスプレイ装置のリモコンとして利用することもできる。   For example, in the above-described embodiment, it is assumed that the image display unit is a head mounted display that is mounted like glasses, but the image display unit is a normal flat display device (liquid crystal display device, plasma display device, organic EL display device, etc. ). Also in this case, the connection between the control unit and the image display unit may be a connection via a wired signal transmission path or a connection via a wireless signal transmission path. If it does in this way, a control part can also be utilized as a remote control of a usual flat type display device.

また、画像表示部として、眼鏡のように装着する画像表示部に代えて、例えば帽子のように装着する画像表示部といった他の形状の画像表示部を採用してもよい。また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略してもよい。また、例えば、自動車や飛行機等の車両に搭載されるヘッドアップディスプレイ(HUD、Head-Up Display)として構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。   Further, as the image display unit, instead of the image display unit worn like glasses, an image display unit of another shape such as an image display unit worn like a hat may be adopted. The earphone may be an ear-hook type or a headband type, or may be omitted. Further, for example, it may be configured as a head-up display (HUD, Head-Up Display) mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet.

例えば、上記実施形態では、表示駆動部は、バックライトと、バックライト制御部と、LCDと、LCD制御部と、投写光学系を用いて構成されるものとした。しかし、上記の態様はあくまで例示である。表示駆動部は、これらの構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えていてもよい。例えば、表示駆動部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部と、投写光学系とを備える構成としてもよい。例えば、表示駆動部は、LCDに代えてDMD(デジタル・マイクロミラー・デバイス)等を用いることもできる。例えば、表示駆動部は、RGBの各色光を発生させるための色光源とリレーレンズを含む信号光変調部と、MEMSミラーを含む走査光学系と、これらを駆動する駆動制御回路と、を含むように構成されてもよい。このように、有機ELやDMDやMEMSミラーを用いても、「表示駆動部における射出領域」とは、表示駆動部から画像光が実際に射出される領域であることに変わりはなく、各デバイス(表示駆動部)における射出領域を上記実施形態と同様に制御することによって、上記実施形態と同様の効果を得ることができる。また、例えば、表示駆動部は、画素信号に応じた強度のレーザーを、使用者の網膜へ出射する1つ以上のレーザーを含むように構成されてもよい。この場合、「表示駆動部における射出領域」とは、表示駆動部から画像を表すレーザー光が実際に射出される領域を表す。レーザー(表示駆動部)におけるレーザー光の射出領域を上記実施形態と同様に制御することによって、上記実施形態と同様の効果を得ることができる。   For example, in the above embodiment, the display driving unit is configured using a backlight, a backlight control unit, an LCD, an LCD control unit, and a projection optical system. However, the above aspect is merely an example. The display drive unit may include a configuration unit for realizing another method together with or in place of these configuration units. For example, the display driving unit may include an organic EL (Organic Electro-Luminescence) display, an organic EL control unit, and a projection optical system. For example, the display driving unit can use a DMD (digital micromirror device) or the like instead of the LCD. For example, the display driving unit includes a color light source for generating each color light of RGB and a signal light modulation unit including a relay lens, a scanning optical system including a MEMS mirror, and a drive control circuit for driving them. May be configured. As described above, even if an organic EL, DMD, or MEMS mirror is used, the “emission area in the display driving unit” is still an area where image light is actually emitted from the display driving unit. By controlling the emission area in the (display drive unit) in the same manner as in the above embodiment, the same effect as in the above embodiment can be obtained. Further, for example, the display driving unit may be configured to include one or more lasers that emit a laser having an intensity corresponding to the pixel signal to the retina of the user. In this case, the “emission area in the display drive unit” represents an area in which laser light representing an image is actually emitted from the display drive unit. By controlling the emission region of the laser beam in the laser (display drive unit) in the same manner as in the above embodiment, the same effect as in the above embodiment can be obtained.

本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。   The present invention is not limited to the above-described embodiments, examples, and modifications, and can be realized with various configurations without departing from the spirit thereof. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in each embodiment described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the above-described effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

10…制御部(コントローラー)
12…点灯部
14…タッチパッド
16…十字キー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
54…受信部
61…カメラ
62…デプスセンサー
100…頭部装着型表示装置(HMD)
110…入力情報取得部
120…記憶部
130…電源
132…無線通信部
140…CPU
160…画像処理部
162…表示制御部
164…重畳画像表示制御部
170…音声処理部
180…インターフェイス
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
10. Control unit (controller)
DESCRIPTION OF SYMBOLS 12 ... Lighting part 14 ... Touch pad 16 ... Cross key 18 ... Power switch 20 ... Image display part 21 ... Right holding part 22 ... Right display drive part 23 ... Left holding part 24 ... Left display drive part 26 ... Right optical image display part 28 ... Left optical image display unit 30 ... Earphone plug 32 ... Right earphone 34 ... Left earphone 40 ... Connection unit 42 ... Right cord 44 ... Left cord 46 ... Connecting member 48 ... Body code 51 ... Transmission unit 52 ... Transmission unit 53 ... Reception 54: Receiver 61 ... Camera 62 ... Depth sensor 100 ... Head-mounted display device (HMD)
DESCRIPTION OF SYMBOLS 110 ... Input information acquisition part 120 ... Memory | storage part 130 ... Power supply 132 ... Wireless communication part 140 ... CPU
DESCRIPTION OF SYMBOLS 160 ... Image processing part 162 ... Display control part 164 ... Superimposed image display control part 170 ... Sound processing part 180 ... Interface 201 ... Right backlight control part 202 ... Left backlight control part 211 ... Right LCD control part 212 ... Left LCD control Part 221 ... Right backlight 222 ... Left backlight 241 ... Right LCD
242 ... Left LCD
251 ... Right projection optical system 252 ... Left projection optical system 261 ... Right light guide plate 262 ... Left light guide plate

Claims (10)

外界を透過視認可能な表示部を備えた頭部装着型表示装置であって、
前記表示部に、透過して視認される外界の対象物の位置に対応づけて所定の画像を表示させる重畳画像表示制御部と、
二次元空間における前記対象物の位置を示す位置情報を取得する位置情報取得部と、
外界における少なくとも前記対象物の周辺の各部の奥行きを示す奥行き情報を取得する奥行き情報取得部と、
を備え、
前記重畳画像表示制御部は、
前記位置情報と前記奥行き情報とに基づいて、三次元空間における前記対象物の位置を算出し、前記対象物の位置に基づいて、前記所定の画像についての前記三次元空間における表示領域を定め、
前記表示領域を表す情報と前記奥行き情報とに基づいて、前記三次元空間において前記表示領域と前記表示部との間に物体が存在するか否かを判定し、
前記物体が存在すると判定された場合に、前記奥行きの方向において前記表示領域に対して前記物体が重なる領域を少なくとも含む所定範囲を前記表示領域から除いて、前記所定の画像の表示を行う、頭部装着型表示装置。
A head-mounted display device provided with a display unit capable of visually observing the outside world,
A superimposed image display control unit that displays a predetermined image in association with the position of an object in the outside world that is visible through the display unit;
A position information acquisition unit that acquires position information indicating the position of the object in a two-dimensional space;
A depth information acquisition unit that acquires depth information indicating the depth of each part around at least the object in the outside world;
With
The superimposed image display control unit
Based on the position information and the depth information, calculate the position of the object in a three-dimensional space, and based on the position of the object, determine a display area in the three-dimensional space for the predetermined image,
Based on the information representing the display area and the depth information, it is determined whether or not an object exists between the display area and the display unit in the three-dimensional space,
A head that displays the predetermined image by excluding from the display area a predetermined range including at least an area where the object overlaps the display area in the depth direction when the object is determined to exist. Part-mounted display device.
請求項1に記載の頭部装着型表示装置であって、
前記所定の画像は、前記対象物に付与する拡張現実としての拡張情報である、頭部装着型表示装置。
The head-mounted display device according to claim 1,
The head-mounted display device, wherein the predetermined image is extended information as augmented reality to be given to the object.
請求項1または請求項2に記載の頭部装着型表示装置であって、
前記位置情報取得部は、前記対象物を撮像するカメラを含む、頭部装着型表示装置。
The head-mounted display device according to claim 1 or 2,
The position information acquisition unit is a head-mounted display device including a camera that images the object.
請求項1から請求項3までのいずれか一項に記載の頭部装着型表示装置であって、
前記奥行き情報取得部は、外界の奥行きを示す信号を出力するデプスセンサーを含む、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 3,
The depth information acquisition unit is a head-mounted display device including a depth sensor that outputs a signal indicating the depth of the outside world.
請求項1から請求項4までのいずれか一項に記載の頭部装着型表示装置であって、
前記重畳画像表示制御部は、
前記位置情報取得部によって取得した位置情報、および前記奥行き情報取得部によって取得した奥行き情報を、前記表示部を透過して見た座標系で表現する値に変換し、変換後の位置情報および奥行き情報に基づいて、前記表示領域を定めることを行う、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 4,
The superimposed image display control unit
The position information acquired by the position information acquisition unit and the depth information acquired by the depth information acquisition unit are converted into values expressed in a coordinate system viewed through the display unit, and the converted position information and depth A head-mounted display device that determines the display area based on information.
外界を透過視認可能な表示部を備えた頭部装着型表示装置であって、
前記表示部に、透過して視認される外界の対象物の位置に対応づけて第1の画像を表示させる重畳画像表示制御部と、
二次元空間における前記対象物の位置を示す位置情報を取得する位置情報取得部と、
外界における少なくとも前記対象物の周辺の各部の奥行きを示す奥行き情報を取得する奥行き情報取得部と、
を備え、
前記重畳画像表示制御部は、
前記位置情報と前記奥行き情報とに基づいて、三次元空間における前記対象物の位置を算出し、前記対象物の位置に基づいて、前記第1の画像についての前記三次元空間における表示領域を、第1表示領域として定め、
前記第1の画像とは異なる第2の画像についての前記三次元空間における表示領域を、第2表示領域として取得し、
前記第1表示領域を表す情報と前記第2表示領域を表す情報とに基づいて、前記三次元空間において前記第1表示領域と前記表示部との間に、前記第2表示領域が存在するか否かを判定し、
前記第2表示領域が存在すると判定された場合に、前記奥行きの方向において前記第1表示領域に対して前記第2表示領域が重なる領域を少なくとも含む所定範囲を前記第1表示領域から除いて、前記第1の画像の表示を行う、頭部装着型表示装置。
A head-mounted display device provided with a display unit capable of visually observing the outside world,
A superimposed image display control unit that causes the display unit to display a first image in association with the position of an object in the outside world that is visible through the screen;
A position information acquisition unit that acquires position information indicating the position of the object in a two-dimensional space;
A depth information acquisition unit that acquires depth information indicating the depth of each part around at least the object in the outside world;
With
The superimposed image display control unit
Based on the position information and the depth information, the position of the object in a three-dimensional space is calculated, and on the basis of the position of the object, a display area in the three-dimensional space for the first image, As the first display area,
Obtaining a display area in the three-dimensional space for a second image different from the first image as a second display area;
Whether the second display area exists between the first display area and the display unit in the three-dimensional space based on the information representing the first display area and the information representing the second display area Determine whether or not
When it is determined that the second display area exists, a predetermined range including at least an area where the second display area overlaps the first display area in the depth direction is excluded from the first display area. A head-mounted display device that displays the first image.
外界を透過視認可能な表示部を備えた頭部装着型表示装置の制御方法であって、
前記表示部に、透過して視認される外界の対象物の位置に対応づけて所定の画像を表示させる工程と、
二次元空間における前記対象物の位置を示す位置情報を取得する工程と、
外界における少なくとも前記対象物の周辺の各部の奥行きを示す奥行き情報を取得する工程と、
を備え、
前記所定の画像を表示させる工程は、
前記位置情報と前記奥行き情報とに基づいて、三次元空間における前記対象物の位置を算出し、前記対象物の位置に基づいて、前記所定の画像についての前記三次元空間における表示領域を定め、
前記表示領域を表す情報と前記奥行き情報とに基づいて、前記三次元空間において前記表示領域と前記表示部との間に物体が存在するか否かを判定し、
前記物体が存在すると判定された場合に、前記奥行きの方向において前記表示領域に対して前記物体が重なる領域を少なくとも含む所定範囲を前記表示領域から除いて、前記所定の画像の表示を行う、頭部装着型表示装置の制御方法。
A method for controlling a head-mounted display device including a display unit capable of visually recognizing the outside world,
A step of displaying a predetermined image in association with the position of an object in the outside world that is visible through the display unit;
Obtaining position information indicating the position of the object in a two-dimensional space;
Obtaining depth information indicating the depth of each part around at least the object in the outside world;
With
The step of displaying the predetermined image includes
Based on the position information and the depth information, calculate the position of the object in a three-dimensional space, and based on the position of the object, determine a display area in the three-dimensional space for the predetermined image,
Based on the information representing the display area and the depth information, it is determined whether or not an object exists between the display area and the display unit in the three-dimensional space,
A head that displays the predetermined image by excluding from the display area a predetermined range including at least an area where the object overlaps the display area in the depth direction when the object is determined to exist. Part-mounted display device control method.
外界を透過視認可能な表示部を備えた頭部装着型表示装置の制御方法であって、
前記表示部に、透過して視認される外界の対象物の位置に対応づけて第1の画像を表示させる工程と、
二次元空間における前記対象物の位置を示す位置情報を取得する工程と、
外界における少なくとも前記対象物の周辺の各部の奥行きを示す奥行き情報を取得する工程と、
を備え、
前記第1の画像を表示させる工程は、
前記位置情報と前記奥行き情報とに基づいて、三次元空間における前記対象物の位置を算出し、前記対象物の位置に基づいて、前記第1の画像についての前記三次元空間における表示領域を、第1表示領域として定め、
前記第1の画像とは異なる第2の画像についての前記三次元空間における表示領域を、第2表示領域として取得し、
前記第1表示領域を表す情報と前記第2表示領域を表す情報とに基づいて、前記三次元空間において前記第1表示領域と前記表示部との間に、前記第2表示領域が存在するか否かを判定し、
前記第2表示領域が存在すると判定された場合に、前記奥行きの方向において前記第1表示領域に対して前記第2表示領域が重なる領域を少なくとも含む所定範囲を前記第1表示領域から除いて、前記第1の画像の表示を行う、頭部装着型表示装置の制御方法。
A method for controlling a head-mounted display device including a display unit capable of visually recognizing the outside world,
A step of causing the display unit to display a first image in association with the position of an object in the outside world that is seen through.
Obtaining position information indicating the position of the object in a two-dimensional space;
Obtaining depth information indicating the depth of each part around at least the object in the outside world;
With
The step of displaying the first image includes:
Based on the position information and the depth information, the position of the object in a three-dimensional space is calculated, and on the basis of the position of the object, a display area in the three-dimensional space for the first image, As the first display area,
Obtaining a display area in the three-dimensional space for a second image different from the first image as a second display area;
Whether the second display area exists between the first display area and the display unit in the three-dimensional space based on the information representing the first display area and the information representing the second display area Determine whether or not
When it is determined that the second display area exists, a predetermined range including at least an area where the second display area overlaps the first display area in the depth direction is excluded from the first display area. A method for controlling a head-mounted display device that displays the first image.
外界を透過視認可能な表示部を備えた頭部装着型表示装置を制御するためのコンピュータープログラムであって、
前記表示部に、透過して視認される外界の対象物の位置に対応づけて所定の画像を表示させる機能と、
二次元空間における前記対象物の位置を示す位置情報を取得する機能と、
外界における少なくとも前記対象物の周辺の各部の奥行きを示す奥行き情報を取得する機能と、
をコンピューターに実現させ、
前記所定の画像を表示させる機能は、
前記位置情報と前記奥行き情報とに基づいて、三次元空間における前記対象物の位置を算出し、前記対象物の位置に基づいて、前記所定の画像についての前記三次元空間における表示領域を定め、
前記表示領域を表す情報と前記奥行き情報とに基づいて、前記三次元空間において前記表示領域と前記表示部との間に物体が存在するか否かを判定し、
前記物体が存在すると判定された場合に、前記奥行きの方向において前記表示領域に対して前記物体が重なる領域を少なくとも含む所定範囲を前記表示領域から除いて、前記所定の画像の表示を行う、コンピュータープログラム。
A computer program for controlling a head-mounted display device provided with a display unit capable of seeing through the outside world,
A function of causing the display unit to display a predetermined image in association with the position of an object in the outside world that is visible through the screen;
A function of acquiring position information indicating the position of the object in a two-dimensional space;
A function of acquiring depth information indicating the depth of each part around at least the object in the outside world;
To the computer,
The function of displaying the predetermined image is as follows:
Based on the position information and the depth information, calculate the position of the object in a three-dimensional space, and based on the position of the object, determine a display area in the three-dimensional space for the predetermined image,
Based on the information representing the display area and the depth information, it is determined whether or not an object exists between the display area and the display unit in the three-dimensional space,
A computer that, when it is determined that the object exists, removes a predetermined range including at least an area where the object overlaps the display area in the depth direction from the display area and displays the predetermined image; program.
外界を透過視認可能な表示部を備えた頭部装着型表示装置を制御するためのコンピュータープログラムであって、
前記表示部に、透過して視認される外界の対象物の位置に対応づけて第1の画像を表示させる機能と、
二次元空間における前記対象物の位置を示す位置情報を取得する機能と、
外界における少なくとも前記対象物の周辺の各部の奥行きを示す奥行き情報を取得する機能と、
をコンピューターに実現させ、
前記第1の画像を表示させる機能は、
前記位置情報と前記奥行き情報とに基づいて、三次元空間における前記対象物の位置を算出し、前記対象物の位置に基づいて、前記第1の画像についての前記三次元空間における表示領域を、第1表示領域として定め、
前記第1の画像とは異なる第2の画像についての前記三次元空間における表示領域を、第2表示領域として取得し、
前記第1表示領域を表す情報と前記第2表示領域を表す情報とに基づいて、前記三次元空間において前記第1表示領域と前記表示部との間に、前記第2表示領域が存在するか否かを判定し、
前記第2表示領域が存在すると判定された場合に、前記奥行きの方向において前記第1表示領域に対して前記第2表示領域が重なる領域を少なくとも含む所定範囲を前記第1表示領域から除いて、前記第1の画像の表示を行う、コンピュータープログラム。
A computer program for controlling a head-mounted display device provided with a display unit capable of seeing through the outside world,
A function of causing the display unit to display a first image in association with a position of an object in the outside world that is visible through the screen;
A function of acquiring position information indicating the position of the object in a two-dimensional space;
A function of acquiring depth information indicating the depth of each part around at least the object in the outside world;
To the computer,
The function of displaying the first image is as follows:
Based on the position information and the depth information, the position of the object in a three-dimensional space is calculated, and on the basis of the position of the object, a display area in the three-dimensional space for the first image, As the first display area,
Obtaining a display area in the three-dimensional space for a second image different from the first image as a second display area;
Whether the second display area exists between the first display area and the display unit in the three-dimensional space based on the information representing the first display area and the information representing the second display area Determine whether or not
When it is determined that the second display area exists, a predetermined range including at least an area where the second display area overlaps the first display area in the depth direction is excluded from the first display area. A computer program for displaying the first image.
JP2014225916A 2014-11-06 2014-11-06 Head-mounted display device and control method for the same as well as computer program Pending JP2016091348A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014225916A JP2016091348A (en) 2014-11-06 2014-11-06 Head-mounted display device and control method for the same as well as computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014225916A JP2016091348A (en) 2014-11-06 2014-11-06 Head-mounted display device and control method for the same as well as computer program

Publications (1)

Publication Number Publication Date
JP2016091348A true JP2016091348A (en) 2016-05-23

Family

ID=56019687

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014225916A Pending JP2016091348A (en) 2014-11-06 2014-11-06 Head-mounted display device and control method for the same as well as computer program

Country Status (1)

Country Link
JP (1) JP2016091348A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019185070A (en) * 2018-03-30 2019-10-24 東京ガスiネット株式会社 Information processing system and program
JP2019185069A (en) * 2018-03-30 2019-10-24 東京ガスiネット株式会社 Information processing system and program
JP2022036773A (en) * 2020-08-24 2022-03-08 株式会社Psychic VR Lab Image editing method, image display method, image editing system, and image editing program
JP2022088420A (en) * 2016-12-13 2022-06-14 マジック リープ, インコーポレイテッド 3d object rendering using detected features

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022088420A (en) * 2016-12-13 2022-06-14 マジック リープ, インコーポレイテッド 3d object rendering using detected features
JP2019185070A (en) * 2018-03-30 2019-10-24 東京ガスiネット株式会社 Information processing system and program
JP2019185069A (en) * 2018-03-30 2019-10-24 東京ガスiネット株式会社 Information processing system and program
JP7188901B2 (en) 2018-03-30 2022-12-13 東京ガスiネット株式会社 Information processing system and program
JP7188902B2 (en) 2018-03-30 2022-12-13 東京ガスiネット株式会社 Information processing system and program
JP2022036773A (en) * 2020-08-24 2022-03-08 株式会社Psychic VR Lab Image editing method, image display method, image editing system, and image editing program
JP7417827B2 (en) 2020-08-24 2024-01-19 株式会社Psychic VR Lab Image editing method, image display method, image editing system, and image editing program

Similar Documents

Publication Publication Date Title
US10297062B2 (en) Head-mounted display device, control method for head-mounted display device, and computer program
WO2016063504A1 (en) Head-mounted type display device and method for controlling same, and computer program
JP6232763B2 (en) Head-mounted display device and method for controlling head-mounted display device
US20190271846A1 (en) Head-mounted display device, control method of head-mounted display device, and display system
US10627620B2 (en) Head-mounted display device, method of controlling head-mounted display device, and computer program
US9557566B2 (en) Head-mounted display device and control method for the head-mounted display device
JP6337418B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6476643B2 (en) Head-mounted display device, information system, head-mounted display device control method, and computer program
JP6645096B2 (en) Head-mounted display device, control method of head-mounted display device, and computer program
US10114604B2 (en) Head-mounted display device, control method for head-mounted display device, and computer program
US9870048B2 (en) Head-mounted display device, method of controlling the same, and computer program
JP6492673B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
US10198367B2 (en) Information processing device and method for controlling input/output devices via designated functions
US20160021360A1 (en) Display device, method of controlling display device, and program
JP2016081209A (en) Head mounted display device, method for controlling the same and computer program
JP2016091348A (en) Head-mounted display device and control method for the same as well as computer program
JP6252002B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6394108B2 (en) Head-mounted display device, control method therefor, and computer program
JP6451222B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6394174B2 (en) Head-mounted display device, image display system, method for controlling head-mounted display device, and computer program
JP6287399B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2019004471A (en) Head-mounted type display device, and control method of head-mounted type display device