JP2016186658A - Head-mount type display device and method - Google Patents

Head-mount type display device and method Download PDF

Info

Publication number
JP2016186658A
JP2016186658A JP2016138993A JP2016138993A JP2016186658A JP 2016186658 A JP2016186658 A JP 2016186658A JP 2016138993 A JP2016138993 A JP 2016138993A JP 2016138993 A JP2016138993 A JP 2016138993A JP 2016186658 A JP2016186658 A JP 2016186658A
Authority
JP
Japan
Prior art keywords
image
unit
user
head
outside scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016138993A
Other languages
Japanese (ja)
Other versions
JP6308249B2 (en
Inventor
由貴 藤巻
Yuki Fujimaki
由貴 藤巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016138993A priority Critical patent/JP6308249B2/en
Publication of JP2016186658A publication Critical patent/JP2016186658A/en
Application granted granted Critical
Publication of JP6308249B2 publication Critical patent/JP6308249B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an optical transmission type head-mount type display device, in which the sense of discomfort in realizing the augmented reality is reduced.SOLUTION: A head-mount type display device that allows a user to see the virtual image and the outside scenery at the same time includes: an imaging unit that images the outside scenery and acquires the outside scenery image; an augmented reality processing unit that analyzes the acquired outside scenery image and generates the additional image data for the augmented reality in accordance with the analysis result; a display element that generates the image light using the generated additional image data; and a light guide unit that forms a virtual image before the eyes of the user with the generated image light. The augmented reality processing unit acquires an overlapping region where the display region of the virtual image and the imaging region of the imaging unit overlap, and generates the additional image data using the overlapping region.SELECTED DRAWING: Figure 3

Description

本発明は、頭部装着型表示装置および頭部装着型表示装置の制御方法に関する。   The present invention relates to a head-mounted display device and a method for controlling the head-mounted display device.

現実環境にコンピューターを用いて情報を付加提示する拡張現実(AR、Augmented Reality)と呼ばれる技術が知られている。拡張現実は、スマートフォンやヘッドマウントディスプレイ(以降、「頭部装着型表示装置」と呼ぶ。)などに搭載される。図1は、拡張現実について説明するための説明図である。図1(A)は、非透過型の頭部装着型表示装置で拡張現実が実現される様子を示している。頭部装着型表示装置は、カメラで外景を撮像し、撮像により得られた画像CPを画像認識し、付加提示するための情報(図の例ではオブジェクトOB)を生成する。頭部装着型表示装置は、撮像された画像CPと、生成されたオブジェクトOBとを重畳させた画像を、液晶画面に表示させる。これによって、頭部装着型表示装置の使用者は拡張現実を体感することができる。なお、ここでは、拡張現実を非透過型の頭部装着型表示装置を用いて実現する例について説明したが、スマートフォン等でも実現できる。例えば、引用文献1には、拡張現実の技術を搭載した非透過型の頭部装着型表示装置が開示されている。   There is known a technique called augmented reality (AR) that adds information to a real environment using a computer. Augmented reality is mounted on smartphones and head-mounted displays (hereinafter referred to as “head-mounted display devices”). FIG. 1 is an explanatory diagram for explaining augmented reality. FIG. 1A shows a state in which augmented reality is realized by a non-transmissive head-mounted display device. The head-mounted display device captures an outside scene with a camera, recognizes an image CP obtained by the imaging, and generates information (object OB in the example in the figure) for additional presentation. The head-mounted display device displays an image obtained by superimposing the captured image CP and the generated object OB on the liquid crystal screen. As a result, the user of the head-mounted display device can experience augmented reality. In addition, although the example which implement | achieves augmented reality using a non-transmissive head-mounted display apparatus was demonstrated here, it can implement | achieve also with a smart phone. For example, Patent Document 1 discloses a non-transmissive head-mounted display device equipped with augmented reality technology.

特開2011−203823号公報JP 2011-203823 A 特開2010−146481号公報JP 2010-146481 A

図1(B)は、光学透過型の頭部装着型表示装置で拡張現実が実現される様子を示している。光学透過型の頭部装着型表示装置においても、非透過型と同様に、撮像により得られた画像CPを画像認識し、付加提示するための情報(オブジェクトOB)を生成する。その後、光学透過型の頭部装着型表示装置では、生成されたオブジェクトOBのみを液晶画面に表示させる。使用者は、液晶画面に表示され、虚像VIとして表示されたオブジェクトOBと、目前のレンズを透過して見える外景SCとの両方を視認することで、拡張現実を体感することができる。なお、図1(B)の左から1枚目に示す撮像により得られる領域を「撮像視界」とも呼び、図1(B)の左から2枚目に示す虚像VIとして表示される領域を「映像視界」とも呼び、図1(B)の左から3枚目に示す外景SCとして視認可能な領域を「現実視界」とも呼ぶ。   FIG. 1B shows how augmented reality is realized by an optically transmissive head-mounted display device. In the optically transmissive head-mounted display device, as in the non-transmissive type, the image CP obtained by imaging is recognized and information (object OB) for additional presentation is generated. Thereafter, in the optically transmissive head-mounted display device, only the generated object OB is displayed on the liquid crystal screen. The user can experience augmented reality by visually recognizing both the object OB displayed on the liquid crystal screen and displayed as the virtual image VI and the outside scene SC that can be seen through the front lens. Note that the area obtained by imaging shown in the first image from the left in FIG. 1B is also called “imaging field of view”, and the area displayed as the virtual image VI shown in the second image from the left in FIG. The area that can be visually recognized as the outside scene SC shown as the third image from the left in FIG. 1B is also referred to as “real field of view”.

ここで、使用者の眼前に虚像VIが投写される領域(現実視界と映像視界が重なる部分)の大きさと、カメラで撮像可能な領域(撮像視界)との大きさとが一致しない場合がある。両者の大きさが一致しない場合、光学透過型の頭部装着型表示装置では、虚像VIとして表示されたオブジェクトOBと、目前のレンズを透過して見える外景SCとの間にずれが生じ、使用者に違和感を与えるという問題があった。具体的には、例えば、カメラで撮像可能な領域(映像視界)が広大である場合、従来の光学透過型の頭部装着型表示装置では、その広大な範囲に対応するオブジェクトOBが生成され、使用者の眼前に虚像VIとして表示される。このような場合、使用者は、自身の眼前に虚像VIが投写されている領域(現実視界と映像視界が重なる部分)内の外景SCと、オブジェクトOBとの間に生じる齟齬により、違和感を覚えてしまう。   Here, the size of the region where the virtual image VI is projected in front of the user's eyes (the portion where the real field of view and the video field of view overlap) may not match the size of the region that can be imaged by the camera (imaging field of view). If the sizes of the two do not match, the optically transmissive head-mounted display device uses a shift between the object OB displayed as the virtual image VI and the outside scene SC that can be seen through the front lens. There was a problem of feeling uncomfortable. Specifically, for example, when a region (video field of view) that can be captured by a camera is vast, in a conventional optically transmissive head-mounted display device, an object OB corresponding to the vast range is generated, It is displayed as a virtual image VI in front of the user's eyes. In such a case, the user feels uncomfortable due to a crease that occurs between the outside scene SC in the region where the virtual image VI is projected in front of his / her eyes (the portion where the real view and the video view overlap) and the object OB. End up.

本発明は、光学透過型の頭部装着型表示装置において、拡張現実を実現する際に生じる違和感を低減することを目的とする。   An object of the present invention is to reduce a sense of incongruity that occurs when an augmented reality is realized in an optically transmissive head-mounted display device.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.

[適用例1]
使用者が、虚像と外景を同時に視認可能な頭部装着型表示装置であって、
外景を撮像して外景画像を取得する撮像部と、
取得された前記外景画像を解析すると共に、解析の結果に応じて拡張現実用の付加画像データーを生成する拡張現実処理部と、
生成された前記付加画像データーを用いて画像光を生成する表示素子と、
生成された前記画像光を用いて使用者の眼前に虚像を形成する導光部と、
を備え、
前記拡張現実処理部は、前記外景画像のうち、前記虚像の表示領域と前記撮像部の撮像領域とが重複する重複領域を取得し、前記重複領域を用いて前記付加画像データーを生成する、頭部装着型表示装置。
このような構成とすれば、拡張現実処理部は、虚像の表示領域と撮像部の撮像領域とが重複する重複領域を取得し、重複領域を用いて付加画像データーを生成するため、拡張現実処理部が拡張現実を実現する際に生じる違和感を低減することができる。
[Application Example 1]
A head-mounted display device that allows a user to view a virtual image and an outside scene at the same time,
An imaging unit that captures an outside scene and obtains an outside scene image;
An augmented reality processing unit that analyzes the acquired outside scene image and generates additional image data for augmented reality according to a result of the analysis;
A display element that generates image light using the generated additional image data;
A light guide unit that forms a virtual image in front of the user's eyes using the generated image light; and
With
The augmented reality processing unit obtains an overlapping region in which the virtual image display region and the imaging region of the imaging unit overlap in the outside scene image, and generates the additional image data using the overlapping region. Part-mounted display device.
With such a configuration, the augmented reality processing unit acquires an overlapping region where the display region of the virtual image and the imaging region of the imaging unit overlap, and generates additional image data using the overlapping region. The uncomfortable feeling that occurs when the unit realizes augmented reality can be reduced.

[適用例2]
適用例1記載の頭部装着型表示装置であって、さらに、
前記使用者に対して、前記虚像の表示領域を示すためのガイド画像データーが記憶されている記憶部を備え、
前記拡張現実処理部は、前記ガイド画像データーを用いた画像光を生成させると共に、前記使用者に対して前記虚像の表示領域に所定の目印を示すよう案内し、前記外景画像を取得させ、取得された前記外景画像を解析して得られた前記目印の位置を、前記重複領域と他の領域との境界として取得する、頭部装着型表示装置。
このような構成とすれば、拡張現実処理部は、ガイド画像データーを用いた画像光を生成させると共に、使用者に対して虚像の表示領域に所定の目印を示すよう案内し、外景画像を取得させ、取得された外景画像を解析して得られた目印の位置を、重複領域と他の領域との境界として取得する。この結果、拡張現実処理部は、虚像の表示領域と、撮像部の撮像領域とが重複する重複領域を取得することができる。
[Application Example 2]
The head-mounted display device according to Application Example 1,
A storage unit storing guide image data for indicating a display area of the virtual image for the user;
The augmented reality processing unit generates image light using the guide image data, guides the user to indicate a predetermined mark in the display area of the virtual image, and acquires and acquires the outside scene image. A head-mounted display device that acquires a position of the mark obtained by analyzing the outside scene image as a boundary between the overlapping region and another region.
With such a configuration, the augmented reality processing unit generates image light using the guide image data, and guides the user to indicate a predetermined mark in the display area of the virtual image, thereby acquiring an outside scene image. The position of the landmark obtained by analyzing the acquired outside scene image is acquired as a boundary between the overlapping region and another region. As a result, the augmented reality processing unit can acquire an overlapping region in which the virtual image display region and the imaging region of the imaging unit overlap.

[適用例3]
適用例2記載の頭部装着型表示装置であって、
前記ガイド画像データーは、前記表示素子と同じアスペクト比を有する矩形形状であって、その四隅のうちの少なくとも2箇所に配置された案内マークを含み、
前記拡張現実処理部は、前記使用者に対して、前記案内マークを指で指し示すことで前記目印を示すよう案内する、頭部装着型表示装置。
このような構成とすれば、拡張現実処理部は、使用者に対して案内マークを指で指し示すことで目印を示すよう案内するため、特別な装置を必要とせず、かつ、使用者がわかりやすい簡単な操作で、虚像の表示領域に所定の目印を付与させることができる。
[Application Example 3]
A head-mounted display device according to Application Example 2,
The guide image data is a rectangular shape having the same aspect ratio as the display element, and includes guide marks arranged at at least two of the four corners,
The augmented reality processing unit is a head-mounted display device that guides the user to indicate the mark by pointing the guide mark with a finger.
With such a configuration, the augmented reality processing unit guides the user to indicate the mark by pointing the guide mark with a finger, so that no special device is required and the user can easily understand. With a simple operation, a predetermined mark can be given to the display area of the virtual image.

[適用例4]
適用例2記載の頭部装着型表示装置であって、
前記ガイド画像データーは、前記表示素子と同じアスペクト比を有する矩形形状であって、その四隅のうちの少なくとも2箇所に配置された枠状の案内マークを含み、
前記拡張現実処理部は、前記使用者に対して、前記案内マークの枠内に併せて、矩形形状の側面を有する物を配置することで前記目印を示すよう案内する、頭部装着型表示装置。
このような構成とすれば、拡張現実処理部は、使用者に対して、案内マークの枠内に併せて、矩形形状の側面を有する物を配置することで目印を示すよう案内するため、一度の操作で虚像の表示領域に目印を付与させることができる。
[Application Example 4]
A head-mounted display device according to Application Example 2,
The guide image data is a rectangular shape having the same aspect ratio as the display element, and includes frame-shaped guide marks arranged at at least two of the four corners,
The augmented reality processing unit guides the user so as to show the mark by arranging an object having a rectangular side surface in the frame of the guide mark. .
With such a configuration, the augmented reality processing unit guides the user so as to show the mark by arranging an object having a rectangular side surface in the guide mark frame. The mark can be given to the display area of the virtual image by the above operation.

[適用例5]
適用例1ないし4のいずれか一項記載の頭部装着型表示装置であって、さらに、
前記頭部装着型表示装置の装着時における使用者の右側の眼またはこめかみまたはそれらの周辺に対応する位置に配置され、外景を撮像して第2の外景画像を取得する第2の撮像部と、
前記頭部装着型表示装置の装着時における使用者の左側の眼またはこめかみまたはそれらの周辺に対応する位置に配置され、外景を撮像して第3の外景画像を取得する第3の撮像部と、
を備え、
前記拡張現実処理部は、さらに、前記第2の外景画像に含まれる特定の物体と、前記第3の外景画像に含まれる前記特定の物体と、の間のずれ量を求め、求めた前記ずれ量から外界における前記物体の奥行きに関する情報を取得する、頭部装着型表示装置。
このような構成とすれば、拡張現実処理部は、さらに、頭部装着型表示装置の装着時における使用者の右側の眼またはこめかみまたはそれらの周辺に対応する位置に配置された第2の撮像部により撮影された第2の外景画像に含まれる特定の物体と、頭部装着型表示装置の装着時における使用者の左側の眼またはこめかみまたはそれらの周辺に対応する位置に配置された第3の撮像部により撮影された第3の外景画像に含まれる特定の物体と、の間のずれ量を求め、求めたずれ量から外界における物体の奥行きに関する情報を取得することができる。
[Application Example 5]
The head-mounted display device according to any one of Application Examples 1 to 4, further comprising:
A second imaging unit that is disposed at a position corresponding to the right eye or temple of the user or the periphery of the user when the head-mounted display device is mounted, and that captures an external scene and obtains a second external scene image; ,
A third imaging unit that is arranged at a position corresponding to the left eye or temple of the user or the periphery of the user when the head-mounted display device is worn, and that captures the outside scene and obtains a third outside scene image; ,
With
The augmented reality processing unit further obtains a deviation amount between the specific object included in the second outside scene image and the specific object included in the third outside scene image, and calculates the deviation. A head-mounted display device that acquires information about the depth of the object in the outside world from a quantity.
With such a configuration, the augmented reality processing unit further includes the second imaging arranged at a position corresponding to the right eye or the temple of the user or the periphery thereof when the head-mounted display device is worn. A third object disposed at a position corresponding to the specific object included in the second outside scene image photographed by the unit and the left eye or the temple of the user when the head-mounted display device is worn or the periphery thereof. The amount of deviation between the specific object included in the third outside scene image photographed by the imaging unit and the depth of the object in the outside world can be obtained from the obtained amount of deviation.

なお、本発明は、種々の態様で実現することが可能であり、例えば、頭部装着型表示装置および頭部装着型表示装置の制御方法、画像表示システム、これらの方法、装置またはシステムの機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体等の形態で実現することができる。   The present invention can be realized in various modes. For example, a head-mounted display device, a method for controlling a head-mounted display device, an image display system, and a function of these methods, devices, or systems Can be realized in the form of a computer program for realizing the above, a recording medium on which the computer program is recorded, and the like.

拡張現実について説明するための説明図である。It is explanatory drawing for demonstrating augmented reality. 本発明の一実施例における頭部装着型表示装置の外観の構成を示す説明図である。It is explanatory drawing which shows the structure of the external appearance of the head mounted display apparatus in one Example of this invention. ヘッドマウントディスプレイの構成を機能的に示すブロック図である。It is a block diagram which shows the composition of a head mount display functionally. 画像光生成部によって画像光が射出される様子を示す説明図である。It is explanatory drawing which shows a mode that image light is inject | emitted by the image light production | generation part. 使用者に認識される虚像の一例を示す説明図である。It is explanatory drawing which shows an example of the virtual image recognized by the user. 領域決定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of an area | region determination process. 領域決定処理について説明するための説明図である。It is explanatory drawing for demonstrating area | region determination processing. カメラによって撮像された外景画像の一例を示す説明図である。It is explanatory drawing which shows an example of the outside scene image imaged with the camera. 第2実施例における領域決定処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the area | region determination process in 2nd Example. 第2実施例における領域決定処理について説明するための説明図である。It is explanatory drawing for demonstrating the area | region determination process in 2nd Example. 第3実施例における頭部装着型表示装置の外観の構成を示す説明図である。It is explanatory drawing which shows the structure of the external appearance of the head mounted display apparatus in 3rd Example. 奥行き取得処理で取得する奥行き情報について説明するための説明図である。It is explanatory drawing for demonstrating the depth information acquired by a depth acquisition process. 奥行き取得処理について説明するための説明図である。It is explanatory drawing for demonstrating a depth acquisition process.

次に、本発明の実施の形態を実施例に基づいて説明する。   Next, embodiments of the present invention will be described based on examples.

A.第1実施例:
(A−1)頭部装着型表示装置の構成:
図2は、本発明の一実施例における頭部装着型表示装置の外観の構成を示す説明図である。頭部装着型表示装置HMは、頭部に装着する頭部装着型表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施例のヘッドマウントディスプレイHMは、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。
A. First embodiment:
(A-1) Configuration of the head-mounted display device:
FIG. 2 is an explanatory diagram showing an external configuration of a head-mounted display device according to an embodiment of the present invention. The head-mounted display device HM is a head-mounted display device mounted on the head, and is also called a head mounted display (HMD). The head-mounted display HM of the present embodiment is an optically transmissive head-mounted display device that allows a user to visually recognize a virtual image and at the same time directly view an outside scene.

ヘッドマウントディスプレイHMは、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。   The head-mounted display HM includes an image display unit 20 that allows the user to visually recognize a virtual image while being mounted on the user's head, and a control unit (controller) 10 that controls the image display unit 20.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施例では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61とを含んでいる。右光学像表示部26および左光学像表示部28は、ヘッドマウントディスプレイHMの装着時における使用者の右および左の眼前に対応する位置に配置されている。右光学像表示部26の一端と、左光学像表示部28の一端は、それぞれ、ヘッドマウントディスプレイHMの装着時における使用者の眉間に対応する位置で接続されている。右光学像表示部26の他端である端部ERからは、右保持部21が延伸している。同様に、左光学像表示部28の他端である端部ELからは、左保持部23が延伸している。   The image display unit 20 is a wearing body that is worn on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61. Including. The right optical image display unit 26 and the left optical image display unit 28 are disposed at positions corresponding to the right and left eyes of the user when the head mounted display HM is mounted. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are respectively connected at positions corresponding to the eyebrows of the user when the head mounted display HM is mounted. The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28.

右保持部21は、右光学像表示部26の端部ERから、ヘッドマウントディスプレイHMの装着時における使用者の側頭部に対応する位置にかけて、右光学像表示部26とほぼ直角をなすように延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の端部ELから、ヘッドマウントディスプレイHMの装着時における使用者の側頭部に対応する位置にかけて、左光学像表示部28とほぼ直角をなすように延伸して設けられた部材である。右保持部21と、左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部にヘッドマウントディスプレイHMを保持する。   The right holding unit 21 is substantially perpendicular to the right optical image display unit 26 from the end ER of the right optical image display unit 26 to a position corresponding to the user's temporal region when the head mounted display HM is mounted. It is a member provided by being stretched. Similarly, the left holding unit 23 is substantially perpendicular to the left optical image display unit 28 from the end EL of the left optical image display unit 28 to a position corresponding to the user's temporal region when the head mounted display HM is mounted. It is the member provided by extending | stretching so that. The right holding unit 21 and the left holding unit 23 hold the head mounted display HM on the user's head like a temple of glasses.

右表示駆動部22は、右保持部21の内側、換言すれば、ヘッドマウントディスプレイHMの装着時における使用者の頭部に対向する側であって、右光学像表示部26の端部ER側に配置されている。また、左表示駆動部24は、左保持部23の内側であって、左光学像表示部28の端部EL側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」と、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」と、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 is located on the inner side of the right holding unit 21, in other words, on the side facing the user's head when the head mounted display HM is mounted, on the end ER side of the right optical image display unit 26. Is arranged. The left display driving unit 24 is disposed inside the left holding unit 23 and on the end EL side of the left optical image display unit 28. Hereinafter, the right holding unit 21 and the left holding unit 23 are collectively referred to simply as “holding unit”, and the right display driving unit 22 and the left display driving unit 24 are collectively referred to simply as “display driving unit”, and the right optical unit. The image display unit 26 and the left optical image display unit 28 are collectively referred to simply as “optical image display unit”.

表示駆動部は、図示しないLCD(Liquid Crystal Display:液晶ディスプレイ)や、投写光学系等を含む。詳細は後述する。光学部材としての光学像表示部は、図示しない導光板と、調光板とを含んでいる。導光板は、光透過性の樹脂材料等によって形成され、表示駆動部から取り込んだ画像光を使用者の眼に向けて射出させる。調光板は、薄板状の光学素子であり、ヘッドマウントディスプレイHMの表側(使用者の眼の側とは反対の側)を覆うように配置されている。調光板は、導光板を保護し、導光板の損傷や、汚れの付着等を抑制するとともに、調光板の光透過率を調整することにより、使用者の眼に入る外光量を調整し、虚像の視認のしやすさを調整することができる。なお、調光板は省略可能である。   The display driving unit includes an LCD (Liquid Crystal Display), a projection optical system, and the like (not shown). Details will be described later. The optical image display unit as an optical member includes a light guide plate (not shown) and a light control plate. The light guide plate is formed of a light transmissive resin material or the like, and emits image light taken from the display driving unit toward the user's eyes. The light control plate is a thin plate-like optical element, and is disposed so as to cover the front side of the head mounted display HM (the side opposite to the user's eye side). The light control plate protects the light guide plate, suppresses damage to the light guide plate, adhesion of dirt, etc., and adjusts the light transmittance of the light control plate to adjust the amount of external light entering the user's eyes. The ease of visual recognition of the virtual image can be adjusted. The light control plate can be omitted.

カメラ61は、ヘッドマウントディスプレイHMの装着時における使用者の眉間に対応する位置に配置されている。カメラ61は、ヘッドマウントディスプレイHMの表側方向、換言すれば、使用者の眼の側とは反対側方向の外景(外部の景色)を撮像し、外景画像を取得する。本実施例においては、カメラ61が「撮像部」に相当する。本実施例におけるカメラ61は、単眼カメラとして例示するが、ステレオカメラを採用してもよい。   The camera 61 is disposed at a position corresponding to the eyebrow of the user when the head mounted display HM is attached. The camera 61 captures an outside scene image (external scenery) in the front side direction of the head mounted display HM, in other words, the direction opposite to the user's eye side. In this embodiment, the camera 61 corresponds to an “imaging unit”. The camera 61 in this embodiment is exemplified as a monocular camera, but a stereo camera may be adopted.

画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、本体コード48が2本に分岐した右コード42と、左コード44と、分岐点に設けられた連結部材46と、を含んでいる。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。   The image display unit 20 further includes a connection unit 40 for connecting the image display unit 20 to the control unit 10. The connection unit 40 includes a main body cord 48 connected to the control unit 10, a right cord 42 in which the main body cord 48 branches into two, a left cord 44, and a connecting member 46 provided at the branch point. Yes. The right cord 42 is inserted into the casing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24.

画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。本体コード48における連結部材46とは反対側の端部と、制御部10とのそれぞれには、互いに嵌合するコネクター(図示省略)が設けられており、本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48には、例えば、金属ケーブルや、光ファイバーを採用することができる。   The image display unit 20 and the control unit 10 transmit various signals via the connection unit 40. Each end of the main body cord 48 opposite to the connecting member 46 and the control unit 10 are provided with connectors (not shown) that are fitted to each other. The connector of the main body cord 48 and the control unit 10 The control unit 10 and the image display unit 20 are connected to or disconnected from each other by the fitting / releasing of the connector. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御部10は、ヘッドマウントディスプレイHMを操作するための装置である。制御部10は、点灯部12と、タッチパッド14と、十字キー16と、電源スイッチ18とを含んでいる。点灯部12は、ヘッドマウントディスプレイHMの動作状態(例えば、電源のON/OFF等)を、その発光状態によって通知する。点灯部12としては、例えば、LED(Light Emitting Diode)を用いることができる。タッチパッド14は、タッチパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。十字キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、ヘッドマウントディスプレイHMの電源投入状態を切り替える。   The control unit 10 is a device for operating the head mounted display HM. The control unit 10 includes a lighting unit 12, a touch pad 14, a cross key 16, and a power switch 18. The lighting unit 12 notifies the operation state of the head mounted display HM (for example, ON / OFF of the power supply) according to the light emission state. For example, an LED (Light Emitting Diode) can be used as the lighting unit 12. The touch pad 14 detects a user's finger operation on the operation surface of the touch pad 14 and outputs a signal corresponding to the detected content. The cross key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power-on state of the head mounted display HM by detecting a slide operation of the switch.

図3は、ヘッドマウントディスプレイHMの構成を機能的に示すブロック図である。制御部10は、入力情報取得部110と、記憶部120と、電源130と、CPU140と、インターフェイス180と、送信部(Tx)51および52と、を備え、各部は図示しないバスにより相互に接続されている。   FIG. 3 is a block diagram functionally showing the configuration of the head mounted display HM. The control unit 10 includes an input information acquisition unit 110, a storage unit 120, a power supply 130, a CPU 140, an interface 180, and transmission units (Tx) 51 and 52, and these units are connected to each other via a bus (not shown). Has been.

入力情報取得部110は、例えば、タッチパッド14や十字キー16、電源スイッチ18に対する操作入力等の使用者による操作入力に応じた信号を取得する機能を有する。記憶部120は、図示しないROM、RAM、DRAM、ハードディスク等を含む記憶部である。また、記憶部120には、座標情報記憶部122が含まれている。座標情報記憶部122は、AR処理部142により実行される領域決定処理において求められた座標を格納するための記憶領域である。電源130は、ヘッドマウントディスプレイHMの各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。   The input information acquisition unit 110 has a function of acquiring a signal corresponding to an operation input by a user such as an operation input to the touch pad 14, the cross key 16, and the power switch 18, for example. The storage unit 120 is a storage unit including a ROM, a RAM, a DRAM, a hard disk, etc. (not shown). The storage unit 120 includes a coordinate information storage unit 122. The coordinate information storage unit 122 is a storage region for storing coordinates obtained in the region determination process executed by the AR processing unit 142. The power supply 130 supplies power to each part of the head mounted display HM. As the power supply 130, for example, a secondary battery can be used.

CPU140は、予めインストールされたプログラムを実行することで、オペレーティングシステム(ОS)150としての機能を提供する。また、CPU140は、ROMやハードディスクに格納されているファームウェアやコンピュータープログラムをRAMに展開して実行することにより、AR処理部142、画像処理部160、音声処理部170、表示制御部190としても機能する。   The CPU 140 provides a function as an operating system (OS) 150 by executing a program installed in advance. The CPU 140 also functions as an AR processing unit 142, an image processing unit 160, an audio processing unit 170, and a display control unit 190 by developing firmware and computer programs stored in a ROM and a hard disk in a RAM and executing them. To do.

AR処理部142は、OS150や、特定のゲームアプリケーションからの処理開始要求をトリガーとして、拡張現実を実現させるための処理(以降、「AR処理」とも呼ぶ。)を実行する。AR処理においてAR処理部142は、カメラ61により取得された外景画像を解析し、解析の結果に応じて拡張現実のための付加画像データーを生成する。外景画像の解析方法および付加画像データーの生成方法については周知であるため説明を省略する。また、AR処理部142は、AR処理に先立って領域決定処理を実行する。領域決定処理は、AR処理内で「外景画像を解析」する際の解析範囲を決定するための処理である。詳細は後述する。なお、AR処理部142を「拡張現実処理部」とも呼ぶ。   The AR processing unit 142 executes processing for realizing augmented reality (hereinafter, also referred to as “AR processing”) using a processing start request from the OS 150 or a specific game application as a trigger. In the AR processing, the AR processing unit 142 analyzes the outside scene image acquired by the camera 61, and generates additional image data for augmented reality according to the analysis result. Since an outside scene image analysis method and additional image data generation method are well known, description thereof will be omitted. Further, the AR processing unit 142 executes an area determination process prior to the AR process. The area determination process is a process for determining an analysis range when “analyzing an outside scene image” in the AR process. Details will be described later. The AR processing unit 142 is also referred to as an “augmented reality processing unit”.

画像処理部160は、AR処理において生成された付加画像データーや、インターフェイス180を介して入力されるコンテンツ等に基づき、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データーDataを生成し、接続部40を介してこれらの信号を画像表示部20に供給する。   The image processing unit 160 generates a clock signal PCLK, a vertical synchronization signal VSync, a horizontal synchronization signal HSync, and image data Data based on the additional image data generated in the AR processing, content input via the interface 180, and the like. Then, these signals are supplied to the image display unit 20 via the connection unit 40.

指定された付加画像データーに基づく供給を行う場合、画像処理部160は、デフォルト値として予め定められ、記憶部120内に格納された表示設定(VSync、HSyncなど)を取得する。画像処理部160は、取得した表示設定に応じて、図示しないPLL(Phase Locked Loop)回路等を利用してクロック信号PCLKを生成する。その後、画像処理部160は、付加画像データーData(RGBデーター)を記憶部120内のDRAMに格納する。   When supplying based on the designated additional image data, the image processing unit 160 acquires display settings (VSync, HSync, etc.) that are predetermined as default values and stored in the storage unit 120. The image processing unit 160 generates a clock signal PCLK using a PLL (Phase Locked Loop) circuit (not shown) or the like according to the acquired display setting. Thereafter, the image processing unit 160 stores the additional image data Data (RGB data) in the DRAM in the storage unit 120.

一方、コンテンツに基づく供給を行う場合、画像処理部160は、コンテンツに含まれる画像信号を取得する。取得した画像信号は、例えば動画像の場合、一般的に、1秒あたり30枚のフレーム画像から構成されているアナログ信号である。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、図示しないPLL回路等を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、図示しないA/D変換回路等を用いてディジタル画像信号に変換する。その後、画像処理部160は、変換後のディジタル画像信号を、対象画像データーData(RGBデーター)として、1フレームごとに記憶部120内のDRAMに格納する。   On the other hand, when supplying based on content, the image processing unit 160 acquires an image signal included in the content. For example, in the case of a moving image, the acquired image signal is generally an analog signal composed of 30 frame images per second. The image processing unit 160 separates synchronization signals such as the vertical synchronization signal VSync and the horizontal synchronization signal HSync from the acquired image signal. Further, the image processing unit 160 generates a clock signal PCLK using a PLL circuit (not shown) or the like according to the period of the separated vertical synchronization signal VSync and horizontal synchronization signal HSync. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like (not shown). Thereafter, the image processing unit 160 stores the converted digital image signal as target image data Data (RGB data) in the DRAM in the storage unit 120 for each frame.

なお、付加画像データーやコンテンツがディジタル形式で与えられる場合は、クロック信号PCLKが画像信号に同期して出力されるため、垂直同期信号VSyncおよび水平同期信号HSync、アナログ画像信号のA/D変換は不要である。また、以降では、付加画像データーDataおよび対象画像データーDataを総称して「画像データーData」とも呼ぶ。画像処理部160は、必要に応じて、記憶部120に格納された画像データーDataに対して、解像度変換処理、輝度や彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。   When the additional image data or content is given in a digital format, the clock signal PCLK is output in synchronization with the image signal. Therefore, the A / D conversion of the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the analog image signal is performed. It is unnecessary. Hereinafter, the additional image data Data and the target image data Data are also collectively referred to as “image data Data”. The image processing unit 160 performs image processing such as various tone correction processing such as resolution conversion processing, brightness and saturation adjustment, and keystone correction processing on the image data Data stored in the storage unit 120 as necessary. May be executed.

画像処理部160は、上述のように生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSyncと、記憶部120内のDRAMに格納された画像データーDataとを、送信部51および52を介してそれぞれ送信する。なお、送信部51を介して送信される画像データーDataを「右眼用画像データーData1」とも呼び、送信部52を介して送信される画像データーDataを「左眼用画像データーData2」とも呼ぶ。送信部51、52は、制御部10と、画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。   The image processing unit 160 transmits the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync generated as described above, and the image data Data stored in the DRAM in the storage unit 120 to the transmission units 51 and 52. To send each via. Note that the image data Data transmitted through the transmission unit 51 is also referred to as “right-eye image data Data1”, and the image data Data transmitted through the transmission unit 52 is also referred to as “left-eye image data Data2”. The transmission units 51 and 52 function as a transceiver for serial transmission between the control unit 10 and the image display unit 20.

表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFFや、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFFや、左バックライト制御部202による左バックライト222の駆動ON/OFF、などを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。   The display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 uses the control signal to turn on / off the right LCD 241 by the right LCD control unit 211, turn on / off the right backlight 221 by the right backlight control unit 201, and control the left LCD. The left display drive unit 22 and the left display drive unit 24 are controlled by individually controlling the ON / OFF of the left LCD 242 by the unit 212 and the ON / OFF of the left backlight 222 by the left backlight control unit 202. Each controls the generation and emission of image light. For example, the display control unit 190 may cause both the right display driving unit 22 and the left display driving unit 24 to generate image light, generate only one image light, or neither may generate image light.

表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号を、送信部51および52を介してそれぞれ送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号を、それぞれ送信する。   The display control unit 190 transmits control signals for the right LCD control unit 211 and the left LCD control unit 212 via the transmission units 51 and 52, respectively. In addition, the display control unit 190 transmits control signals for the right backlight control unit 201 and the left backlight control unit 202, respectively.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、画像表示部20の右イヤホン32内の図示しないスピーカーおよび左イヤホン34内の図示しないスピーカーに対し、接続部40を介して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34からは、それぞれ、例えば周波数等が変えられた異なる音が出力される。   The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and applies to a speaker (not shown) in the right earphone 32 and a speaker (not shown) in the left earphone 34 of the image display unit 20. Supplied via the connection 40. For example, when a Dolby (registered trademark) system is adopted, processing is performed on an audio signal, and different sounds with different frequencies or the like are output from the right earphone 32 and the left earphone 34, respectively.

インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等がある。インターフェイス180としては、例えば、USBインターフェイスや、マイクロUSBインターフェイス、メモリーカード用インターフェイス、無線LANインターフェイス等を備えることができる。   The interface 180 is an interface for connecting various external devices OA that are content supply sources to the control unit 10. Examples of the external device OA include a personal computer PC, a mobile phone terminal, and a game terminal. As the interface 180, for example, a USB interface, a micro USB interface, a memory card interface, a wireless LAN interface, or the like can be provided.

画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、右イヤホン32と、左イヤホン34とを備えている。   The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, a left light guide plate 262 as a left optical image display unit 28, and a camera 61. And a right earphone 32 and a left earphone 34.

右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251を含んでいる。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。   The right display driving unit 22 includes a receiving unit (Rx) 53, a right backlight (BL) control unit 201 and a right backlight (BL) 221 that function as a light source, a right LCD control unit 211 that functions as a display element, and a right An LCD 241 and a right projection optical system 251 are included. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are also collectively referred to as “image light generation unit”.

受信部53は、制御部10と、画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する機能を有する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データーData1とに基づいて、右LCD241を駆動する機能を有する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The receiving unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20. The right backlight control unit 201 has a function of driving the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211 has a function of driving the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data1 input via the reception unit 53. Have The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

図4は、画像光生成部によって画像光が射出される様子を示す説明図である。右LCD241はマトリクス状に配置された各画素位置に対応する液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光ILを、画像を表す有効な画像光PLへと変調する機能を有する。なお、図4のように、本実施例ではバックライト方式を採用することとしたが、フロントライト方式や、反射方式を用いて画像光を射出する構成としてもよい。   FIG. 4 is an explanatory diagram illustrating a state in which image light is emitted by the image light generation unit. The right LCD 241 changes the transmittance of the light transmitted through the right LCD 241 by driving the liquid crystal corresponding to each pixel position arranged in a matrix, thereby changing the illumination light IL emitted from the right backlight 221. It has a function of modulating into effective image light PL representing an image. As shown in FIG. 4, in this embodiment, the backlight method is adopted. However, the image light may be emitted using a front light method or a reflection method.

図3の右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、右投写光学系251と右導光板261とを総称して「導光部」とも呼ぶ。なお、導光部は、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。   The right projection optical system 251 in FIG. 3 is configured by a collimating lens that converts image light emitted from the right LCD 241 to light beams in a parallel state. The right light guide plate 261 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The right projection optical system 251 and the right light guide plate 261 are collectively referred to as “light guide unit”. In addition, as long as a light guide part forms a virtual image in front of a user's eyes using image light, arbitrary systems can be used, for example, a diffraction grating may be used and a transflective film is used. Also good.

左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252を含んでいる。なお、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して「画像光生成部」と、左投写光学系252と、左導光板262とを総称して「導光部」とも呼ぶ。右表示駆動部22と左表示駆動部24とは対になっており、左表示駆動部24の各部は、右表示駆動部22で説明する各部と同様の構成および動作を有するため詳細な説明は省略する。   The left display driving unit 24 includes a receiving unit (Rx) 54, a left backlight (BL) control unit 202 and a left backlight (BL) 222 that function as a light source, a left LCD control unit 212 and a left that function as a display element. An LCD 242 and a left projection optical system 252 are included. The left backlight control unit 202, the left LCD control unit 212, the left backlight 222, and the left LCD 242 are collectively referred to as an “image light generation unit”, the left projection optical system 252, and the left light guide plate 262. Are also collectively referred to as “light guides”. The right display drive unit 22 and the left display drive unit 24 are paired. Since each unit of the left display drive unit 24 has the same configuration and operation as each unit described in the right display drive unit 22, a detailed description will be given. Omitted.

図5は、使用者に認識される虚像の一例を示す説明図である。上述のようにして、ヘッドマウントディスプレイHMの使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、使用者は虚像を視認することができる。図5に示すように、ヘッドマウントディスプレイHMの使用者の視野VR内には虚像VIが表示される。また、使用者の視野VRのうち、虚像VIが表示された部分については、使用者は、光学像表示部の虚像VIを介して、外景SCを見ることができる。さらに、使用者の視野VRのうち、虚像VIが表示された部分以外については、使用者は、光学像表示部を透過して、外景SCを直接見ることができる。   FIG. 5 is an explanatory diagram illustrating an example of a virtual image recognized by the user. As described above, the image light guided to both eyes of the user of the head mounted display HM forms an image on the retina of the user, so that the user can visually recognize the virtual image. As shown in FIG. 5, a virtual image VI is displayed in the visual field VR of the user of the head mounted display HM. In addition, regarding the portion of the user's visual field VR where the virtual image VI is displayed, the user can see the outside scene SC via the virtual image VI of the optical image display unit. Further, the user can directly view the outside scene SC through the optical image display unit except for the portion of the user's visual field VR where the virtual image VI is displayed.

なお、虚像VIが表示される領域を「映像視界」とも呼ぶ。また、使用者が外景SCを視認可能な領域、換言すれば、視野VR内の領域を「現実視界」とも呼ぶ。このとき、使用者の眼前に虚像VIが投写されている領域は、現実視界と映像視界が重なっている部分であるといえる。   The area where the virtual image VI is displayed is also referred to as “video field of view”. In addition, an area in which the user can visually recognize the outside scene SC, in other words, an area in the visual field VR is also referred to as “real field of view”. At this time, it can be said that the area where the virtual image VI is projected in front of the user's eyes is a portion where the real view and the image view overlap.

(A−2)領域決定処理:
図6は、領域決定処理の手順を示すフローチャートである。図7は、領域決定処理について説明するための説明図である。領域決定処理は、AR処理に先立ってAR処理部142により実行される処理であり、AR処理内で「外景画像を解析」する際の解析範囲を決定するための処理である。なお、領域決定処理は、AR処理のサブルーチンとして動作してもよい。
(A-2) Area determination processing:
FIG. 6 is a flowchart showing the procedure of the area determination process. FIG. 7 is an explanatory diagram for explaining the region determination processing. The area determination process is a process executed by the AR processing unit 142 prior to the AR process, and is a process for determining an analysis range when “analyzing an outside scene image” in the AR process. The area determination process may operate as a subroutine of the AR process.

まず、AR処理部142は、領域決定処理内で使用する変数nに「1」をセットすることで、変数の初期化を行う(ステップS100)。次に、AR処理部142は、ガイド画像を虚像表示させる(ステップS102)。図7(A)は、ガイド画像CGの一例を示す説明図である。ガイド画像CGは、ヘッドマウントディスプレイHMの使用者に対して、虚像の表示領域の端部を示すための画像である。本実施例におけるガイド画像CGは、右LCD241および左LCD242(表示素子)と同じアスペクト比を有する矩形形状で、白色一色の背景を有する画像であり、その四隅と、対角線の交点に位置する部分とに、円状の案内マークP1〜P5を有している。ガイド画像CGの画像データー(以降、「ガイド画像データー」とも呼ぶ。)は、記憶部120に予め格納されている。   First, the AR processing unit 142 initializes a variable by setting “1” to a variable n used in the region determination process (step S100). Next, the AR processing unit 142 displays the guide image as a virtual image (step S102). FIG. 7A is an explanatory diagram illustrating an example of the guide image CG. The guide image CG is an image for showing the end of the virtual image display area to the user of the head mounted display HM. The guide image CG in this embodiment is a rectangular shape having the same aspect ratio as that of the right LCD 241 and the left LCD 242 (display element) and has a white background, and has four corners and portions located at intersections of diagonal lines. In addition, circular guide marks P1 to P5 are provided. Image data of the guide image CG (hereinafter also referred to as “guide image data”) is stored in the storage unit 120 in advance.

ステップS102においてAR処理部142は、記憶部120に格納されているガイド画像データーを読み出して、ガイド画像データーを画像処理部160へ送信する。ガイド画像データーを受信した画像処理部160では、図3で説明した処理が実行される。この結果、ヘッドマウントディスプレイHMの使用者の視野VRには図7(A)のガイド画像CGが虚像VIとして表示される。   In step S <b> 102, the AR processing unit 142 reads the guide image data stored in the storage unit 120 and transmits the guide image data to the image processing unit 160. The image processing unit 160 that has received the guide image data executes the process described with reference to FIG. As a result, the guide image CG of FIG. 7A is displayed as the virtual image VI in the visual field VR of the user of the head mounted display HM.

ステップS104においてAR処理部142は、虚像VIとして表示されたガイド画像CGのうちのn番目の案内マークを指差すように、使用者に対して案内する。ここで、「n番目の点」は、ステップS100で初期化した変数nの値に応じて変動する。また、AR処理部142は、使用者に対する案内の方法として、ダイアログボックス等を用いたメッセージを表示させてもよいし、音声による案内を行っても良い。音声による案内は、表示中のガイド画像CGを遮ることなく案内することができる点で好ましい。   In step S104, the AR processing unit 142 guides the user to point to the nth guide mark in the guide image CG displayed as the virtual image VI. Here, the “n-th point” varies according to the value of the variable n initialized in step S100. Further, the AR processing unit 142 may display a message using a dialog box or the like as a guidance method for the user, or may perform guidance by voice. Voice guidance is preferable because guidance can be provided without blocking the currently displayed guide image CG.

図7(B)は、使用者が、自らの視野VRに虚像VIとして表示されたガイド画像CGの1番目の案内マークP1を指差す様子を示している。なお、図7(B)では、図示の便宜上、光学像表示部を透過する外景SCについては図示を省略している。使用者への案内後、図6のステップS106においてAR処理部142は、カメラ61に外景画像を撮像させる。図8は、カメラ61によって撮像された外景画像CPの一例を示す説明図である。   FIG. 7B shows a situation where the user points to the first guide mark P1 of the guide image CG displayed as a virtual image VI in his / her visual field VR. In FIG. 7B, for the convenience of illustration, the illustration of the outside scene SC that passes through the optical image display unit is omitted. After guidance to the user, the AR processing unit 142 causes the camera 61 to capture an outside scene image in step S106 of FIG. FIG. 8 is an explanatory diagram illustrating an example of an outside scene image CP captured by the camera 61.

ステップS108においてAR処理部142は、撮像された外景画像CPを画像認識して、人間の指先の位置を特定する。AR処理部142は、指先位置の座標を取得し、座標情報記憶部122へ保存する(ステップS110)。具体的には、AR処理部142は、ステップS108で特定された指先の位置の座標を取得する。この座標は、例えば、外景画像CPの最も左上部分の画素を(0,0)とした場合のX方向、Y方向の移動量として定義することができる。AR処理部142は、取得した座標と、変数nの値とを関連付けて座標情報記憶部122へ格納する。   In step S108, the AR processing unit 142 recognizes the captured outside scene image CP and identifies the position of the human fingertip. The AR processing unit 142 acquires the coordinates of the fingertip position and stores them in the coordinate information storage unit 122 (step S110). Specifically, the AR processing unit 142 acquires the coordinates of the position of the fingertip specified in step S108. This coordinate can be defined as, for example, the amount of movement in the X and Y directions when the pixel in the upper left part of the outside scene image CP is (0, 0). The AR processing unit 142 stores the acquired coordinates and the value of the variable n in the coordinate information storage unit 122 in association with each other.

AR処理部142は、変数nの値が、ガイド画像CGに配置された案内マークの個数以上となったか否かを判定する(ステップS112)。変数nの値が案内マークの個数未満である場合(ステップS112:NO)、AR処理部142は、変数nをインクリメントし、処理をステップS104へ遷移させる。そして、AR処理部142は、次の案内マークについて、外景画像CPの取得、指先位置の座標取得、座標の保存の一連の処理を繰り返す。一方、変数nの値が案内マークの個数以上である場合(ステップS112:YES)、AR処理部142は、ガイド画像の表示を終了させる旨の要求を画像処理部160および表示制御部190へ送信し(ステップS116)、処理を終了させる。   The AR processing unit 142 determines whether or not the value of the variable n is equal to or greater than the number of guide marks arranged in the guide image CG (Step S112). When the value of the variable n is less than the number of guide marks (step S112: NO), the AR processing unit 142 increments the variable n and shifts the process to step S104. Then, the AR processing unit 142 repeats a series of processes of acquiring the outside scene image CP, acquiring the coordinates of the fingertip position, and storing the coordinates for the next guidance mark. On the other hand, when the value of the variable n is equal to or greater than the number of guide marks (step S112: YES), the AR processing unit 142 transmits a request to end the display of the guide image to the image processing unit 160 and the display control unit 190. (Step S116), the process is terminated.

このようにしてAR処理部142は、ガイド画像を右LCD241および左LCD242(表示素子)の表示可能領域いっぱいに表示させた状態で、使用者の視界にガイド画像の虚像VIを表示させ、ガイド画像の四隅にある案内マークP1〜P4が、カメラ61により撮像された外景画像CPのどの位置に相当するのかを示す座標を取得する。換言すれば、領域決定処理においてAR処理部142は、カメラ61(撮像部)の撮像領域と、虚像VIの表示領域とが重複する領域、すなわち図8の領域EAを予め取得する。なお、カメラ61の撮像領域と虚像VIの表示領域とが重複する領域のことを「重複領域」とも呼ぶ。   In this way, the AR processing unit 142 displays the guide image virtual image VI in the user's field of view in a state where the guide image is displayed in the full displayable area of the right LCD 241 and the left LCD 242 (display element). The coordinates indicating which position of the outside scene image CP imaged by the camera 61 corresponds to the guide marks P1 to P4 at the four corners of FIG. In other words, in the area determination process, the AR processing unit 142 acquires in advance an area where the imaging area of the camera 61 (imaging unit) and the display area of the virtual image VI overlap, that is, the area EA in FIG. A region where the imaging region of the camera 61 and the display region of the virtual image VI overlap is also referred to as an “overlapping region”.

以上のように第1実施例によれば、AR処理部142(拡張現実処理部)は、AR処理に先立って重複領域EAを取得する。その後のAR処理においてAR処理部142は、取得した重複領域EAを用いて、具体的には、カメラ61により撮像された外景画像CPのうち重複領域EA内の画像を解析対象とすることで、拡張現実のための付加画像データーを生成する。これにより、カメラ61で撮像可能な領域(映像視界)の大きさと、使用者の眼前に虚像VIとして投写される領域(現実視界と映像視界が重なる部分)の大きさとを、擬似的に一致させる(キャリブレーションする)ことができる。結果として、AR処理において表示される付加提示用の情報(オブジェクトOB)と、使用者が目前の光学像表示部を透過して目にする外景SCとの間にずれが生じることを抑制することができ、光学透過型のヘッドマウントディスプレイHM(頭部装着型表示装置)において、AR処理部142が拡張現実を実現する際に生じる違和感を低減することができる。   As described above, according to the first embodiment, the AR processing unit 142 (augmented reality processing unit) acquires the overlapping area EA prior to the AR processing. In the subsequent AR processing, the AR processing unit 142 uses the acquired overlapping area EA, specifically, by setting an image in the overlapping area EA in the outside scene image CP captured by the camera 61 as an analysis target. Generate additional image data for augmented reality. Thereby, the size of the area (video field of view) that can be captured by the camera 61 and the size of the area projected as the virtual image VI in front of the user's eyes (the part where the real field of view and the video field of view overlap) are made to coincide in a pseudo manner. (Calibrate). As a result, it is possible to suppress the occurrence of a deviation between the additional presentation information (object OB) displayed in the AR process and the outside scene SC that the user sees through the optical image display unit in front of him. In the optical transmission type head mounted display HM (head-mounted display device), it is possible to reduce a sense of incongruity that occurs when the AR processing unit 142 realizes augmented reality.

なお、上記実施例では、AR処理部142が付加画像データーを生成する際の重複領域EAの使用方法として「解析対象を限定する」方法を示した。しかし、上記はあくまで例示であり、重複領域EAは、種々の利用方法が可能である。例えば、AR処理部142は、カメラ61により撮像された外景画像CPの全てを解析し、重複領域EA内の付加提示用の情報と、重複領域EA外の付加提示用の情報との表示方法を変えた付加画像データーを生成してもよい。具体的には、重複領域EA内の付加提示用の情報は内容が認識可能な態様で表示し、重複領域EA外の付加提示用の情報は矢印等のアイコンで存在のみを示す態様で表示することができる。   In the above embodiment, the “limit analysis target” method is shown as the method of using the overlapping area EA when the AR processing unit 142 generates the additional image data. However, the above is only an example, and the overlapping area EA can be used in various ways. For example, the AR processing unit 142 analyzes all the outside scene images CP captured by the camera 61, and displays a display method of information for additional presentation within the overlapping area EA and information for additional presentation outside the overlapping area EA. The changed additional image data may be generated. Specifically, the information for additional presentation in the overlapping area EA is displayed in a form in which the contents can be recognized, and the information for additional presentation outside the overlapping area EA is displayed in an aspect indicating only the presence with an icon such as an arrow. be able to.

また、AR処理部142(拡張現実処理部)は、ガイド画像データーを用いた画像光を生成させると共に、使用者に対して虚像VIの表示領域に所定の目印を示すよう案内した後、外景画像CPを取得させ、取得された外景画像CPを解析して得られた目印の位置を、重複領域EAと他の領域との境界として取得する。この結果、AR処理部142は、虚像VIの表示領域と、カメラ61の撮像領域とが重複する重複領域EAを取得することができる。   The AR processing unit 142 (augmented reality processing unit) generates image light using the guide image data and guides the user to indicate a predetermined mark in the display area of the virtual image VI. CP is acquired, and the position of the mark obtained by analyzing the acquired outside scene image CP is acquired as a boundary between the overlapping area EA and another area. As a result, the AR processing unit 142 can acquire an overlapping area EA in which the display area of the virtual image VI and the imaging area of the camera 61 overlap.

さらに、AR処理部142(拡張現実処理部)は、使用者に対して案内マークP1〜P5を指で指し示すことで目印を示すよう案内するため、特別な装置を必要とせず、かつ、使用者がわかりやすい簡単な操作で、虚像VIの表示領域に所定の目印を付与させることができる。   Further, since the AR processing unit 142 (augmented reality processing unit) guides the user to indicate the mark by pointing the guide marks P1 to P5 with a finger, no special device is required and the user It is possible to give a predetermined mark to the display area of the virtual image VI by a simple operation that is easy to understand.

B.第2実施例:
本発明の第2実施例では、領域決定処理における重複領域の取得方法が異なる構成について説明する。以下では、第1実施例と異なる構成および動作を有する部分についてのみ説明する。なお、図中において第1実施例と同様の構成部分については先に説明した第1実施例と同様の符号を付し、その詳細な説明を省略する。
B. Second embodiment:
In the second embodiment of the present invention, a configuration in which the overlapping area acquisition method in the area determination process is different will be described. Below, only the part which has a different structure and operation | movement from 1st Example is demonstrated. In the figure, the same components as those of the first embodiment are denoted by the same reference numerals as those of the first embodiment described above, and detailed description thereof is omitted.

(B−1)頭部装着型表示装置の構成:
第2実施例におけるヘッドマウントディスプレイHMaの構成は、図1〜図5で説明した第1実施例とほぼ同様である。
(B-1) Configuration of the head-mounted display device:
The configuration of the head mounted display HMa in the second embodiment is substantially the same as that of the first embodiment described with reference to FIGS.

ただし、第2実施例におけるヘッドマウントディスプレイHMaは、AR処理部142に代えてAR処理部142aを備えるが第1実施例とは異なる。さらに、第2実施例におけるヘッドマウントディスプレイHMaは、記憶部120内に予め格納されているガイド画像データーの内容および領域決定処理の内容が、第1実施例とは異なる。   However, the head mounted display HMa in the second embodiment includes an AR processing unit 142a instead of the AR processing unit 142, but is different from the first example. Further, the head mounted display HMa in the second embodiment is different from the first embodiment in the content of the guide image data stored in the storage unit 120 and the content of the region determination process.

(B−2)領域決定処理:
図9は、第2実施例における領域決定処理の手順を示すフローチャートである。図10は、第2実施例における領域決定処理について説明するための説明図である。第2実施例の領域決定処理も、第1実施例と同様に、AR処理に先立ってAR処理部142aにより実行される処理であり、AR処理内で「外景画像を解析」する際の解析範囲を決定するための処理である。
(B-2) Area determination processing:
FIG. 9 is a flowchart showing the procedure of region determination processing in the second embodiment. FIG. 10 is an explanatory diagram for explaining the region determination processing in the second embodiment. Similarly to the first embodiment, the area determination process of the second embodiment is a process executed by the AR processing unit 142a prior to the AR process, and an analysis range when “analyzing an outside scene image” is performed in the AR process. It is a process for determining.

まず、AR処理部142aは、ガイド画像を表示させる(ステップS202)。図10(A)は、ガイド画像CGaの一例を示す説明図である。ガイド画像CGaは、ヘッドマウントディスプレイHMの使用者に対して、虚像の表示領域の端部を示すための画像である。本実施例におけるガイド画像CGaは、右LCD241および左LCD242(表示素子)と同じアスペクト比を有する矩形形状で、白色一色の背景を有する画像であり、四隅に枠状の案内マークP1〜P4を有している。ガイド画像CGaの画像データーは記憶部120に予め格納されている。   First, the AR processing unit 142a displays a guide image (step S202). FIG. 10A is an explanatory diagram illustrating an example of the guide image CGa. The guide image CGa is an image for showing the end of the virtual image display area to the user of the head mounted display HM. The guide image CGa in the present embodiment is a rectangular shape having the same aspect ratio as the right LCD 241 and the left LCD 242 (display element), and has a white background, and has frame-shaped guide marks P1 to P4 at the four corners. doing. Image data of the guide image CGa is stored in the storage unit 120 in advance.

ステップS200においてAR処理部142aは、記憶部120に格納されているガイド画像データーを読み出して、ガイド画像データーを画像処理部160へ送信する。ガイド画像データーを受信した画像処理部160では、図3で説明した処理が実行され、ヘッドマウントディスプレイHMaの視野VRには図10(A)のガイド画像CGaが虚像VIとして表示される。   In step S200, the AR processing unit 142a reads the guide image data stored in the storage unit 120, and transmits the guide image data to the image processing unit 160. In the image processing unit 160 that has received the guide image data, the processing described in FIG. 3 is executed, and the guide image CGa in FIG. 10A is displayed as a virtual image VI in the visual field VR of the head mounted display HMa.

ステップS202においてAR処理部142aは、虚像VIとして表示されたガイド画像CGaの枠内に紙を合わせるように、使用者に対して案内する。案内方法は、ダイアログボックス等を用いたメッセージでもよいし、音声による案内でもよい。   In step S202, the AR processing unit 142a guides the user to align the paper within the frame of the guide image CGa displayed as the virtual image VI. The guidance method may be a message using a dialog box or the like, or may be voice guidance.

図10(B)は、使用者が、自らの視野VRに虚像VIとして表示されたガイド画像CGaの案内マークP1〜P4内に紙PPを合わせる様子を示している。なお、図10(B)では、図示の便宜上、光学像表示部を透過する外景SCについては図示を省略している。使用者への案内後、図9のステップS204においてAR処理部142aは、カメラ61に外景画像を撮像させる。   FIG. 10B shows how the user aligns the paper PP within the guide marks P1 to P4 of the guide image CGa displayed as a virtual image VI in his / her visual field VR. In FIG. 10B, for the convenience of illustration, the illustration of the outside scene SC that passes through the optical image display unit is omitted. After guidance to the user, the AR processing unit 142a causes the camera 61 to capture an outside scene image in step S204 of FIG.

ステップS206においてAR処理部142aは、撮像された外景画像を画像認識して、紙と、外景との境界を特定する。AR処理部142aは、特定した境界のうち、矩形の頂点の位置の座標を取得し、座標情報記憶部122へ保存する(ステップS208)。その後、AR処理部142aは、ガイド画像の表示を終了させる旨の要求を画像処理部160および表示制御部190へ送信し(ステップS210)、処理を終了させる。   In step S206, the AR processing unit 142a recognizes the captured outside scene image and specifies the boundary between the paper and the outside scene. The AR processing unit 142a acquires the coordinates of the positions of the vertices of the rectangle among the specified boundaries, and stores them in the coordinate information storage unit 122 (step S208). Thereafter, the AR processing unit 142a transmits a request to end the display of the guide image to the image processing unit 160 and the display control unit 190 (Step S210), and ends the process.

以上のように、第2実施例の領域決定処理においても、AR処理部142a(拡張現実処理部)は、カメラ61(撮像部)の撮像領域と、虚像VIの表示領域とが重複する重複領域取得することができる。このため、第2実施例の構成においても、第1実施例と同様の効果を得ることができる。   As described above, also in the region determination processing of the second embodiment, the AR processing unit 142a (augmented reality processing unit) overlaps the imaging region of the camera 61 (imaging unit) and the display region of the virtual image VI. Can be acquired. For this reason, also in the structure of 2nd Example, the effect similar to 1st Example can be acquired.

さらに、AR処理部142a(拡張現実処理部)は、使用者に対して、案内マークP1〜P4の枠内に併せて、矩形形状の側面を有する物(例えば紙)を配置することで目印を示すよう案内するため、一度の操作で虚像VIの表示領域に目印を付与させることができる。   Further, the AR processing unit 142a (augmented reality processing unit) places a mark on the user by arranging an object (for example, paper) having a rectangular side surface in the frame of the guide marks P1 to P4. In order to guide as shown, a mark can be given to the display area of the virtual image VI by a single operation.

C.第3実施例:
本発明の第3実施例では、領域決定処理に加えてさらに、奥行き取得処理を実行可能な構成について説明する。奥行き取得処理は、外界環境の「奥行き情報」を取得する処理であり、AR処理部142bによって実行される。AR処理部142bは、取得された奥行き情報を、AR処理内の付加画像データー生成時に使用することで、外界環境の奥行きを考慮した拡張現実を実現させることができる。以下では、第1実施例と異なる構成および動作を有する部分についてのみ説明する。なお、図中において第1実施例と同様の構成部分については先に説明した第1実施例と同様の符号を付し、その詳細な説明を省略する。
C. Third embodiment:
In the third embodiment of the present invention, a configuration capable of executing depth acquisition processing in addition to region determination processing will be described. The depth acquisition process is a process of acquiring “depth information” of the external environment, and is executed by the AR processing unit 142b. The AR processing unit 142b can realize augmented reality in consideration of the depth of the external environment by using the acquired depth information when generating additional image data in the AR processing. Below, only the part which has a different structure and operation | movement from 1st Example is demonstrated. In the figure, the same components as those of the first embodiment are denoted by the same reference numerals as those of the first embodiment described above, and detailed description thereof is omitted.

(C−1)頭部装着型表示装置の構成:
図11は、第3実施例における頭部装着型表示装置の外観の構成を示す説明図である。図1〜図5(特に図2)で示した第1実施例との違いは、制御部10に代えて制御部10bを備える点と、画像表示部20に代えて画像表示部20bを備える点である。制御部10bは、AR処理部142に代えてAR処理部142bを備えている。AR処理部142bは、第1実施例で説明した領域決定処理に加えて、奥行き取得処理を実行する。また、画像表示部20bは、さらに、カメラ62と、カメラ63とを含んでいる。
(C-1) Configuration of the head-mounted display device:
FIG. 11 is an explanatory diagram showing an external configuration of the head-mounted display device according to the third embodiment. The difference from the first embodiment shown in FIGS. 1 to 5 (particularly FIG. 2) is that a control unit 10b is provided instead of the control unit 10 and an image display unit 20b is provided instead of the image display unit 20. It is. The control unit 10b includes an AR processing unit 142b instead of the AR processing unit 142. The AR processing unit 142b executes depth acquisition processing in addition to the region determination processing described in the first embodiment. The image display unit 20b further includes a camera 62 and a camera 63.

カメラ62は、ヘッドマウントディスプレイHMbの装着時における使用者の右側の眼またはこめかみまたはそれらの周辺に対応する位置に配置されている。カメラ63は、ヘッドマウントディスプレイHMbの装着時における使用者の左側の眼またはこめかみまたはそれらの周辺に対応する位置に配置されている。カメラ62およびカメラ63は、カメラ61と同様に、使用者の眼の側とは反対側方向の外景を撮像し、外景画像を取得する。カメラ62およびカメラ63が撮像した外景画像は、後述の奥行き取得処理において用いられる。なお、本実施例においては、カメラ62が「第2の撮像部」に、カメラ63が「第3の撮像部」に、それぞれ相当する。   The camera 62 is disposed at a position corresponding to the right eye or temple of the user or the periphery thereof when the head mounted display HMb is mounted. The camera 63 is disposed at a position corresponding to the user's left eye or temple or the periphery thereof when the head mounted display HMb is mounted. Similarly to the camera 61, the camera 62 and the camera 63 capture an outside scene in the direction opposite to the user's eye side, and obtain an outside scene image. The outside scene image captured by the camera 62 and the camera 63 is used in a depth acquisition process described later. In this embodiment, the camera 62 corresponds to a “second imaging unit”, and the camera 63 corresponds to a “third imaging unit”.

(C−2)領域決定処理:
第3実施例における領域決定処理の手順は、図9、図10で説明した第1実施例と同様である。
(C-2) Area determination processing:
The procedure of the area determination process in the third embodiment is the same as that in the first embodiment described with reference to FIGS.

(C−3)奥行き取得処理:
図12は、奥行き取得処理で取得する奥行き情報について説明するための説明図である。奥行き情報は、ヘッドマウントディスプレイHMbを装着した使用者の外界の環境に存在する物の奥行きに関する情報である。例えば、図12のように、ヘッドマウントディスプレイHMbの使用者が、前方に存在するリンゴを見た場合、使用者の右眼REと左眼LEとでは、見える像に差異が生じる。以降、この差異を「両眼視差」とも呼び、リンゴと、使用者の右眼REおよび左眼LEのなす輻輳角θ1として表わす。両眼視差が生じることによって、使用者はリンゴの奥行きを知覚することができる。
(C-3) Depth acquisition processing:
FIG. 12 is an explanatory diagram for describing the depth information acquired in the depth acquisition process. The depth information is information relating to the depth of an object existing in the external environment of the user wearing the head mounted display HMb. For example, as shown in FIG. 12, when the user of the head mounted display HMb looks at an apple that is present in the front, there is a difference in the visible image between the right eye RE and the left eye LE of the user. Hereinafter, this difference is also referred to as “binocular parallax”, and is expressed as an angle of convergence θ1 between the apple and the user's right eye RE and left eye LE. The binocular parallax is generated, so that the user can perceive the depth of the apple.

一方、ヘッドマウントディスプレイHMbの使用者が、リンゴよりも更に遠くに存在する花を見た場合、花と使用者の右眼REおよび左眼LEのなす輻輳角θ2は、輻輳角θ1よりも小さくなる。すなわち、図12において、使用者の両眼とリンゴとの間の距離を奥行き距離L1とし、使用者の両眼と花との間の距離を奥行き距離L2としたとき、両眼視差θ1、θ2と、奥行き距離L1、L2とは、
θ1>θ2 かつ L1<L2
の関係を満たす。換言すれば、両眼視差θの大きさは、使用者の両眼と物体との間の奥行き距離Lと反比例する。このため、奥行き取得処理では、「奥行き情報」として、両眼視差θもしくは奥行き距離Lのうちの、少なくとも一方を取得する。
On the other hand, when the user of the head mounted display HMb sees a flower that exists farther than the apple, the convergence angle θ2 formed by the flower and the user's right eye RE and left eye LE is smaller than the convergence angle θ1. Become. That is, in FIG. 12, when the distance between the user's eyes and the apple is the depth distance L1, and the distance between the user's eyes and the flower is the depth distance L2, binocular parallax θ1, θ2 And the depth distances L1 and L2 are
θ1> θ2 and L1 <L2
Satisfy the relationship. In other words, the magnitude of the binocular parallax θ is inversely proportional to the depth distance L between the user's eyes and the object. Therefore, in the depth acquisition process, at least one of binocular parallax θ or depth distance L is acquired as “depth information”.

図13は、奥行き取得処理について説明するための説明図である。奥行き決定処理において、まずAR処理部142bは、カメラ62とカメラ63とのそれぞれに、外景画像を撮像させる。図13の上段は、使用者の右眼に対応する位置に設けられたカメラ62が撮像した外景画像CP62を示す。図13の下段は、使用者の左眼に対応する位置に設けられたカメラ63が撮像した外景画像CP63を示す。AR処理部142bは、撮像された外景画像CP62と外景画像CP63とのそれぞれを画像認識して、両画像内に含まれる特定の物体についての基準点をそれぞれ特定する。基準点とは、物体の位置を特定するための基準にするための点であり、任意に定めることができる。基準点は例えば、物体の中心点とすることができる。   FIG. 13 is an explanatory diagram for explaining the depth acquisition process. In the depth determination process, the AR processing unit 142b first causes the camera 62 and the camera 63 to capture an outside scene image. The upper part of FIG. 13 shows an outside scene image CP62 captured by the camera 62 provided at a position corresponding to the right eye of the user. The lower part of FIG. 13 shows an outside scene image CP63 captured by the camera 63 provided at a position corresponding to the left eye of the user. The AR processing unit 142b recognizes each of the captured outside scene image CP62 and the outside scene image CP63, and specifies a reference point for a specific object included in both images. The reference point is a point used as a reference for specifying the position of the object, and can be arbitrarily determined. The reference point can be, for example, the center point of the object.

AR処理部142bは、外景画像CP62内の基準点と、外景画像CP63内の基準点との間のずれ量を求める。その後、AR処理部142bは、ずれ量と両眼視差θ(もしくは奥行き距離L)との対応関係を定めたテーブル等を用いて、求めたずれ量から両眼視差θもしくは奥行き距離Lを算出する。なお、ずれ量が大きいほど、両眼視差θが大きく、奥行き距離Lは小さくなる。   The AR processing unit 142b obtains a deviation amount between the reference point in the outside scene image CP62 and the reference point in the outside scene image CP63. Thereafter, the AR processing unit 142b calculates the binocular parallax θ or the depth distance L from the obtained deviation amount using a table or the like that defines the correspondence between the deviation amount and the binocular parallax θ (or the depth distance L). . Note that the larger the deviation amount, the larger the binocular parallax θ and the smaller the depth distance L.

例えば、図12の例では、AR処理部142bは、外景画像CP62内に含まれるリンゴの中心点O1と、外景画像CP63内に含まれるリンゴの中心点O2とを特定し、中心点O1と中心点O2との間のずれ量DE1を求める。そして、AR処理部142bは、前述のテーブル等を用いて、ずれ量DE1から両眼視差θ(もしくは奥行き距離L)を算出する。   For example, in the example of FIG. 12, the AR processing unit 142b specifies the apple center point O1 included in the outside scene image CP62 and the apple center point O2 included in the outside scene image CP63, and the center point O1 and the center A deviation amount DE1 from the point O2 is obtained. Then, the AR processing unit 142b calculates the binocular parallax θ (or the depth distance L) from the shift amount DE1 using the table described above.

以上のように、第3実施例によれば、AR処理部142b(拡張現実処理部)は、ヘッドマウントディスプレイHMb(頭部装着型表示装置)の装着時における使用者の右側の眼またはこめかみまたはそれらの周辺に対応する位置に配置されたカメラ62(第2の撮像部)により撮像された外景画像CP62(第2の外景画像)に含まれる特定の物体と、ヘッドマウントディスプレイHMbの装着時における使用者の左側の眼またはこめかみまたはそれらの周辺に対応する位置に配置されたカメラ63(第3の撮像部)により撮像された外景画像CP63(第3の外景画像)に含まれる特定の物体と、の間のずれ量を求め、求めたずれ量から外界における物体の奥行きに関する情報を取得することができる。この結果、AR処理部142bは、AR処理において、物体の奥行きに関する情報を用いた仮想現実を提供することができる。   As described above, according to the third embodiment, the AR processing unit 142b (augmented reality processing unit) performs the right eye or temple of the user when wearing the head mounted display HMb (head mounted display device) When a specific object included in the outside scene image CP62 (second outside scene image) captured by the camera 62 (second imaging unit) arranged at a position corresponding to the periphery of the head mounted display HMb is mounted. A specific object included in the outside scene image CP63 (third outside scene image) captured by the camera 63 (third imaging unit) disposed at a position corresponding to the left eye or temple of the user or the periphery thereof; , And the information about the depth of the object in the outside world can be acquired from the calculated amount of deviation. As a result, the AR processing unit 142b can provide virtual reality using information related to the depth of the object in the AR processing.

D.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の構成をとることができる。例えば、ソフトウェアによって実現した機能は、ハードウェアによって実現するものとしてもよい。そのほか、以下のような変形が可能である。
D. Variations:
In addition, this invention is not restricted to said Example and embodiment, A various structure can be taken in the range which does not deviate from the summary. For example, a function realized by software may be realized by hardware. In addition, the following modifications are possible.

D1.変形例1:
上記実施例では、ヘッドマウントディスプレイの構成について例示した。しかし、ヘッドマウントディスプレイの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
D1. Modification 1:
In the said Example, it illustrated about the structure of the head mounted display. However, the configuration of the head-mounted display can be arbitrarily determined without departing from the gist of the present invention. For example, each component can be added, deleted, converted, and the like.

上記実施例では、説明の便宜上、制御部が送信部を備え、画像表示部が受信部を備えるものとした。しかし、上記実施例の送信部および受信部は、いずれも、双方向通信が可能な機能を備えており、送受信部として機能することができる。   In the above embodiment, for convenience of explanation, the control unit includes a transmission unit, and the image display unit includes a reception unit. However, each of the transmission unit and the reception unit in the above embodiment has a function capable of bidirectional communication, and can function as a transmission / reception unit.

例えば、接続部を省略し、制御部と画像表示部とが無線通信可能な構成としてもよい。具体的には、制御部にさらに第1の無線通信部を備えると共に、画像表示部にさらに第2の無線通信部と電源とを備える構成とする。この場合、第1の無線通信部が上記実施例における送信部として機能し、第2の無線通信部が上記実施例における受信部として機能する。   For example, the connection unit may be omitted, and the control unit and the image display unit may be configured to perform wireless communication. Specifically, the control unit further includes a first wireless communication unit, and the image display unit further includes a second wireless communication unit and a power source. In this case, the first wireless communication unit functions as a transmission unit in the above embodiment, and the second wireless communication unit functions as a reception unit in the above embodiment.

例えば、図2に示した制御部、画像表示部の構成は任意に変更することができる。具体的には、例えば、制御部からタッチパッドを省略し、十字キーのみで操作する構成としてもよい。また、制御部に操作用スティック等の他の操作用インターフェイスを備えても良い。また、制御部にはキーボードやマウス等のデバイスを接続可能な構成として、キーボードやマウスから入力を受け付けるものとしてもよい。また、制御部にWi−Fi(wireless fidelity)等を用いた通信部を設けてもよい。   For example, the configurations of the control unit and the image display unit illustrated in FIG. 2 can be arbitrarily changed. Specifically, for example, the touch pad may be omitted from the control unit, and the operation may be performed using only the cross key. Further, the control unit may be provided with another operation interface such as an operation stick. Moreover, it is good also as what receives an input from a keyboard or a mouse | mouth as a structure which can connect devices, such as a keyboard and a mouse | mouth, to a control part. In addition, a communication unit using Wi-Fi (wireless fidelity) or the like may be provided in the control unit.

例えば、図2に示した制御部は、有線の信号伝送路を介して画像表示部と接続されているものとした。しかし、制御部と、画像表示部とは、無線LANや赤外線通信やBluetooth(登録商標)等の無線の信号伝送路を介した接続により接続されていてもよい。   For example, the control unit illustrated in FIG. 2 is connected to the image display unit via a wired signal transmission path. However, the control unit and the image display unit may be connected by a connection via a wireless signal transmission path such as a wireless LAN, infrared communication, or Bluetooth (registered trademark).

例えば、ヘッドマウントディスプレイは、両眼タイプの透過型ヘッドマウントディスプレイであるものとしたが、単眼タイプのヘッドマウントディスプレイとしてもよい。また、使用者がヘッドマウントディスプレイを装着した状態において外景の透過が遮断される非透過型ヘッドマウントディスプレイとして構成してもよい。なお、非透過型ヘッドマウントディスプレイの場合、AR処理部は、外景画像と付加画像とを重畳させた新たな付加画像データーを生成し、画像処理部は、新たな付加画像データーを表示させる。   For example, the head mounted display is a binocular transmissive head mounted display, but may be a monocular head mounted display. Further, it may be configured as a non-transmissive head mounted display in which the transmission of the outside scene is blocked when the user wears the head mounted display. In the case of the non-transmissive head mounted display, the AR processing unit generates new additional image data in which the outside scene image and the additional image are superimposed, and the image processing unit displays the new additional image data.

例えば、画像処理部、表示制御部、AR処理部、音声処理部等の機能部は、CPUがROMやハードディスクに格納されているコンピュータープログラムをRAMに展開して実行することにより実現されるものとして記載した。しかし、これら機能部は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。   For example, functional units such as an image processing unit, a display control unit, an AR processing unit, and an audio processing unit are realized by the CPU developing and executing a computer program stored in the ROM or hard disk on the RAM. Described. However, these functional units may be configured using an ASIC (Application Specific Integrated Circuit) designed to realize the function.

例えば、上記実施例では、画像表示部を眼鏡のように装着するヘッドマウントディスプレイであるとしているが、画像表示部が通常の平面型ディスプレイ装置(液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置等)であるとしてもよい。この場合にも、制御部と画像表示部との間の接続は、有線の信号伝送路を介した接続であってもよいし、無線の信号伝送路を介した接続であってもよい。このようにすれば、制御部を、通常の平面型ディスプレイ装置のリモコンとして利用することもできる。   For example, in the above-described embodiment, the image display unit is a head-mounted display that is mounted like glasses, but the image display unit is a normal flat display device (liquid crystal display device, plasma display device, organic EL display device, etc.) ). Also in this case, the connection between the control unit and the image display unit may be a connection via a wired signal transmission path or a connection via a wireless signal transmission path. If it does in this way, a control part can also be utilized as a remote control of a usual flat type display device.

また、画像表示部として、眼鏡のように装着する画像表示部に代えて、例えば帽子のように装着する画像表示部といった他の形状の画像表示部を採用してもよい。また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。   Further, as the image display unit, instead of the image display unit worn like glasses, an image display unit of another shape such as an image display unit worn like a hat may be adopted. Further, the earphone may be an ear-hook type or a headband type, or may be omitted.

例えば、上記実施例では、電源として二次電池を用いることしたが、電源としては二次電池に限らず、種々の電池を使用することができる。例えば、一次電池や、燃料電池、太陽電池、熱電池等を使用してもよい。   For example, in the above embodiment, the secondary battery is used as the power source. However, the power source is not limited to the secondary battery, and various batteries can be used. For example, a primary battery, a fuel cell, a solar cell, a thermal cell, or the like may be used.

D2.変形例2:
上記実施例では、ガイド画像の一例を挙げて説明した。しかし、ガイド画像としては上記実施例の例示に限らず、種々の変形が可能である。
D2. Modification 2:
In the above embodiment, an example of the guide image has been described. However, the guide image is not limited to the above example, and various modifications are possible.

例えば、上記第1実施例(図7)では、ガイド画像の一例として、矩形で、四隅および対角線の交点に位置する部分に円状の案内マークを有する画像を示した。しかし、例えば、矩形で、四隅のうちの2箇所(例えば、対角線上の2点)のみに案内マークを有する画像としてもよい。さらに、例えば、案内マークの形状は、円形状でなくともよく、多角形、キャラクター等の絵文字、アイコン等を採用してもよい。   For example, in the first embodiment (FIG. 7), as an example of the guide image, a rectangular image having circular guide marks at the intersections of the four corners and the diagonal line is shown. However, for example, the image may be a rectangular image having guide marks only at two of the four corners (for example, two points on a diagonal line). Furthermore, for example, the shape of the guide mark does not have to be circular, and a polygon, a pictograph such as a character, an icon, or the like may be employed.

例えば、上記第2実施例(図10)では、ガイド画像の一例として、矩形で、四隅に枠状の案内マークを有する画像を示した。しかし、例えば、矩形で、四隅のうちの2箇所(例えば、対角線上の2点)のみに枠状の案内マークを有する画像としてもよい。また、例えば、矩形の四辺全てを囲む枠状の案内マークを有する画像としてもよい。さらに、例えば、案内マークの形状は枠状でなくともよい。   For example, in the second embodiment (FIG. 10), as an example of the guide image, an image having a rectangular shape and frame-shaped guide marks at the four corners is shown. However, for example, the image may be a rectangle and have frame-shaped guide marks only at two of the four corners (for example, two points on a diagonal line). For example, it is good also as an image which has the frame-shaped guide mark surrounding all four sides of a rectangle. Further, for example, the shape of the guide mark may not be a frame shape.

D3.変形例3:
上記実施例では、領域決定処理の一例を示した。しかし、図6、図9に示した処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
D3. Modification 3:
In the said Example, an example of the area | region determination process was shown. However, the processing procedure shown in FIGS. 6 and 9 is merely an example, and various modifications are possible. For example, some steps may be omitted, and other steps may be added. Further, the order of the steps to be executed may be changed.

例えば、図6に示した領域決定処理では、「所定の目印」として使用者の指先を用いることとした。しかし、目印には任意のものを採用可能である。例えば、ペン先やポインター等の先細り形状のものを使用することができる。   For example, in the area determination process shown in FIG. 6, the user's fingertip is used as the “predetermined mark”. However, any mark can be used. For example, a tapered shape such as a pen tip or a pointer can be used.

例えば、図6に示した領域決定処理において、AR処理部は、案内マークを指差すよう案内し、外景画像を取得し、指先位置の座標を取得し、座標を保存するという一連の処理を、案内マークの個数の分だけ繰り返すこととした。しかし、案内マークを指差すよう順次案内し、全ての案内マークについて外景画像をひとまず取得した後で、取得した複数の外景画像から指先位置の座標をそれぞれ取得し、座標を保存するという処理の流れとしてもよい。   For example, in the area determination process illustrated in FIG. 6, the AR processing unit performs a series of processes of guiding the user to point the guidance mark, acquiring an outside scene image, acquiring the coordinates of the fingertip position, and storing the coordinates. It was decided to repeat for the number of guide marks. However, the flow of processing is to sequentially guide the user to point to the guide marks, acquire the outside scene images for all the guide marks, and then acquire the coordinates of the fingertip positions from the plurality of acquired outside scene images, and save the coordinates. It is good.

例えば、図9に示した領域決定処理では、「所定の目印」として紙を用いることとした。しかし、目印としては、矩形形状の側面を有する限りにおいて任意のものを採用可能である。例えば、下敷きや、ノートや、箱や、本などを用いても良い。   For example, in the area determination process shown in FIG. 9, paper is used as the “predetermined mark”. However, any mark can be used as long as it has a rectangular side surface. For example, an underlay, a notebook, a box, or a book may be used.

D4.変形例4:
上記実施例では、奥行き取得処理の一例を示した。しかし、図12、図13に示した処理の手順はあくまで一例であり、種々の変形が可能である。
D4. Modification 4:
In the said Example, an example of the depth acquisition process was shown. However, the processing procedures shown in FIGS. 12 and 13 are merely examples, and various modifications are possible.

D5.変形例5:
上記実施例では、画像光生成部は、バックライトと、バックライト制御部と、LCDと、LCD制御部とを用いて構成されるものとした。しかし、上記の態様はあくまで例示である。画像光生成部は、これらの構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えていても良い。
D5. Modification 5:
In the above embodiment, the image light generation unit is configured using a backlight, a backlight control unit, an LCD, and an LCD control unit. However, the above aspect is merely an example. The image light generation unit may include a configuration unit for realizing another method together with or in place of these configuration units.

例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としても良い。また、例えば、レーザー網膜投影型の頭部装着型表示装置に対して本発明を適用することも可能である。   For example, the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. Further, for example, the present invention can be applied to a laser retinal projection type head-mounted display device.

D6.変形例6:
上記実施例および各変形例における構成要素のうち、特許請求の範囲において独立請求項で記載された構成に対応する要素以外の要素は、付加的な要素であり、省略可能である。
D6. Modification 6:
Of the constituent elements in the above-described embodiments and modifications, elements other than the elements corresponding to the configurations described in the independent claims in the claims are additional elements and can be omitted.

10、10b…制御部(コントローラー)
12…点灯部
14…タッチパッド
16…十字キー
18…電源スイッチ
20…画像表示部
21…耳掛部
22…右表示駆動部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
54…受信部
61…カメラ(撮像部)
62…カメラ(第2の撮像部)
63…カメラ(第3の撮像部)
110…入力情報取得部
120…記憶部
122…座標情報記憶部
130…電源
140…CPU
142、142a、142b…AR処理部
160…画像処理部
170…音声処理部
180…インターフェイス
190…表示制御部
201…右バックライト制御部(画像光生成部)
202…左バックライト制御部(画像光生成部)
211…右LCD制御部(表示素子、画像光生成部)
212…左LCD制御部(表示素子、画像光生成部)
221…右バックライト(画像光生成部)
222…左バックライト(画像光生成部)
241…右LCD(表示素子、画像光生成部)
242…左LCD(表示素子、画像光生成部)
251…右投写光学系(導光部)
252…左投写光学系(導光部)
261…右導光板(導光部)
262…左導光板(導光部)
280…電源
PCLK…クロック信号
VSync…垂直同期信号
HSync…水平同期信号
Data…画像データー
Data1…右眼用画像データー
Data2…左眼用画像データー
OA…外部機器
SC…外景
VI…虚像
IL…照明光
PL…画像光
VR…視野
n…変数
CP62…外景画像(第2の外景画像)
CP63…外景画像(第3の外景画像)
O1、O2…中心点
P1〜P51…案内マーク
EA…重複領域
OB…オブジェクト
RE…右眼
LE…左眼
CG、CGa…ガイド画像
EL、ER…端部
HM、HMa、HMb…頭部装着型表示装置(ヘッドマウントディスプレイ)
AP…先端部
PP…紙
CP…外景画像
10, 10b ... Control unit (controller)
DESCRIPTION OF SYMBOLS 12 ... Illuminating part 14 ... Touch pad 16 ... Cross key 18 ... Power switch 20 ... Image display part 21 ... Ear hook part 22 ... Right display drive part 24 ... Left display drive part 26 ... Right optical image display part 28 ... Left optical image Display unit 32 ... Right earphone 34 ... Left earphone 40 ... Connecting unit 42 ... Right cord 44 ... Left cord 46 ... Connecting member 48 ... Body cord 51 ... Transmitting unit 52 ... Transmitting unit 53 ... Receiving unit 54 ... Receiving unit 61 ... Camera ( Imaging unit)
62 ... Camera (second imaging unit)
63 ... Camera (third imaging unit)
DESCRIPTION OF SYMBOLS 110 ... Input information acquisition part 120 ... Memory | storage part 122 ... Coordinate information memory | storage part 130 ... Power supply 140 ... CPU
142, 142a, 142b ... AR processing unit 160 ... image processing unit 170 ... audio processing unit 180 ... interface 190 ... display control unit 201 ... right backlight control unit (image light generation unit)
202 ... Left backlight control unit (image light generation unit)
211 ... Right LCD controller (display element, image light generator)
212 ... Left LCD controller (display element, image light generator)
221 ... Right backlight (image light generator)
222: Left backlight (image light generator)
241 ... Right LCD (display element, image light generator)
242 ... Left LCD (display element, image light generator)
251 ... Right projection optical system (light guide unit)
252 ... Left projection optical system (light guide)
261 ... Right light guide plate (light guide part)
262 ... Left light guide plate (light guide part)
280 ... Power supply PCLK ... Clock signal VSync ... Vertical synchronization signal HSync ... Horizontal synchronization signal Data ... Image data Data1 ... Right eye image data Data2 ... Left eye image data OA ... External device SC ... Outside view VI ... Virtual image IL ... Light illumination PL ... image light VR ... field of view n ... variable CP62 ... outside scene image (second outside scene image)
CP63 ... outside scene image (third outside scene image)
O1, O2 ... Center points P1 to P51 ... Guidance marks EA ... Overlapping area OB ... Object RE ... Right eye LE ... Left eye CG, CGa ... Guide image EL, ER ... End HM, HMa, HMb ... Head-mounted display Device (head mounted display)
AP ... tip part PP ... paper CP ... outside scene image

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。
[形態1]
虚像を外景と同時に視認可能に表示する頭部装着型表示装置であって、
前記外景を撮像する撮像手段と、
撮像された前記外景に応じて付加画像を生成する処理手段と、
生成された前記付加画像を前記虚像として表示する表示手段と、
を備え、
前記処理手段は、撮像された前記外景のうち、前記虚像の表示領域と前記撮像手段の撮像領域とが重複する重複領域を用いて前記付加画像を生成する、頭部装着型表示装置。
SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.
[Form 1]
A head-mounted display device that displays a virtual image so as to be visible at the same time as an outside scene,
Imaging means for imaging the outside scene;
Processing means for generating an additional image according to the imaged outside scene;
Display means for displaying the generated additional image as the virtual image;
With
The head-mounted display device, wherein the processing unit generates the additional image using an overlapping region in which the virtual image display region and the imaging region of the imaging unit overlap among the captured outside scene.

Claims (6)

使用者が、虚像と外景を同時に視認可能な頭部装着型表示装置であって、
外景を撮像して外景画像を取得する撮像部と、
取得された前記外景画像を解析すると共に、解析の結果に応じて拡張現実用の付加画像データーを生成する拡張現実処理部と、
生成された前記付加画像データーを用いて画像光を生成する表示素子と、
生成された前記画像光を用いて使用者の眼前に虚像を形成する導光部と、
を備え、
前記拡張現実処理部は、前記外景画像のうち、前記虚像の表示領域と前記撮像部の撮像領域とが重複する重複領域を取得し、前記重複領域を用いて前記付加画像データーを生成する、頭部装着型表示装置。
A head-mounted display device that allows a user to view a virtual image and an outside scene at the same time,
An imaging unit that captures an outside scene and obtains an outside scene image;
An augmented reality processing unit that analyzes the acquired outside scene image and generates additional image data for augmented reality according to a result of the analysis;
A display element that generates image light using the generated additional image data;
A light guide unit that forms a virtual image in front of the user's eyes using the generated image light; and
With
The augmented reality processing unit obtains an overlapping region in which the virtual image display region and the imaging region of the imaging unit overlap in the outside scene image, and generates the additional image data using the overlapping region. Part-mounted display device.
請求項1記載の頭部装着型表示装置であって、さらに、
前記使用者に対して、前記虚像の表示領域を示すためのガイド画像データーが記憶されている記憶部を備え、
前記拡張現実処理部は、前記ガイド画像データーを用いた画像光を生成させると共に、前記使用者に対して前記虚像の表示領域に所定の目印を示すよう案内し、前記外景画像を取得させ、取得された前記外景画像を解析して得られた前記目印の位置を、前記重複領域と他の領域との境界として取得する、頭部装着型表示装置。
The head-mounted display device according to claim 1, further comprising:
A storage unit storing guide image data for indicating a display area of the virtual image for the user;
The augmented reality processing unit generates image light using the guide image data, guides the user to indicate a predetermined mark in the display area of the virtual image, and acquires and acquires the outside scene image. A head-mounted display device that acquires a position of the mark obtained by analyzing the outside scene image as a boundary between the overlapping region and another region.
請求項2記載の頭部装着型表示装置であって、
前記ガイド画像データーは、前記表示素子と同じアスペクト比を有する矩形形状であって、その四隅のうちの少なくとも2箇所に配置された案内マークを含み、
前記拡張現実処理部は、前記使用者に対して、前記案内マークを指で指し示すことで前記目印を示すよう案内する、頭部装着型表示装置。
The head-mounted display device according to claim 2,
The guide image data is a rectangular shape having the same aspect ratio as the display element, and includes guide marks arranged at at least two of the four corners,
The augmented reality processing unit is a head-mounted display device that guides the user to indicate the mark by pointing the guide mark with a finger.
請求項2記載の頭部装着型表示装置であって、
前記ガイド画像データーは、前記表示素子と同じアスペクト比を有する矩形形状であって、その四隅のうちの少なくとも2箇所に配置された枠状の案内マークを含み、
前記拡張現実処理部は、前記使用者に対して、前記案内マークの枠内に併せて、矩形形状の側面を有する物を配置することで前記目印を示すよう案内する、頭部装着型表示装置。
The head-mounted display device according to claim 2,
The guide image data is a rectangular shape having the same aspect ratio as the display element, and includes frame-shaped guide marks arranged at at least two of the four corners,
The augmented reality processing unit guides the user so as to show the mark by arranging an object having a rectangular side surface in the frame of the guide mark. .
請求項1ないし4のいずれか一項記載の頭部装着型表示装置であって、さらに、
前記頭部装着型表示装置の装着時における使用者の右側の眼またはこめかみまたはそれらの周辺に対応する位置に配置され、外景を撮像して第2の外景画像を取得する第2の撮像部と、
前記頭部装着型表示装置の装着時における使用者の左側の眼またはこめかみまたはそれらの周辺に対応する位置に配置され、外景を撮像して第3の外景画像を取得する第3の撮像部と、
を備え、
前記拡張現実処理部は、さらに、前記第2の外景画像に含まれる特定の物体と、前記第3の外景画像に含まれる前記特定の物体と、の間のずれ量を求め、求めた前記ずれ量から外界における前記物体の奥行きに関する情報を取得する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 1 to 4, further comprising:
A second imaging unit that is disposed at a position corresponding to the right eye or temple of the user or the periphery of the user when the head-mounted display device is mounted, and that captures an external scene and obtains a second external scene image; ,
A third imaging unit that is arranged at a position corresponding to the left eye or temple of the user or the periphery of the user when the head-mounted display device is worn, and that captures the outside scene and obtains a third outside scene image; ,
With
The augmented reality processing unit further obtains a deviation amount between the specific object included in the second outside scene image and the specific object included in the third outside scene image, and calculates the deviation. A head-mounted display device that acquires information about the depth of the object in the outside world from a quantity.
使用者が、虚像と外景を同時に視認可能な頭部装着型表示装置の制御方法であって、
(a)外景を撮像して外景画像を取得する工程と、
(b)取得された前記外景画像を解析すると共に、解析の結果に応じて拡張現実用の付加画像データーを生成する工程と、
(c)生成された前記付加画像データーを用いて画像光を生成する工程と、
(d)生成された前記画像光を用いて使用者の眼前に虚像を形成する工程と、
を備え、
前記工程(b)では、前記外景画像のうち、前記虚像の表示領域と前記工程(a)による撮像領域とが重複する重複領域を取得し、前記重複領域を用いて前記付加画像データーを生成する、頭部装着型表示装置。
A method for controlling a head-mounted display device in which a user can view a virtual image and an outside scene at the same time,
(A) capturing an outside scene and obtaining an outside scene image;
(B) analyzing the acquired outside scene image and generating additional image data for augmented reality according to the result of the analysis;
(C) generating image light using the generated additional image data;
(D) forming a virtual image in front of the user's eyes using the generated image light;
With
In the step (b), an overlapping area in which the virtual image display area and the imaging area in the step (a) overlap is acquired from the outside scene image, and the additional image data is generated using the overlapping area. Head mounted display device.
JP2016138993A 2016-07-14 2016-07-14 Head-mounted display device and method Active JP6308249B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016138993A JP6308249B2 (en) 2016-07-14 2016-07-14 Head-mounted display device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016138993A JP6308249B2 (en) 2016-07-14 2016-07-14 Head-mounted display device and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012050481A Division JP5970872B2 (en) 2012-03-07 2012-03-07 Head-mounted display device and method for controlling head-mounted display device

Publications (2)

Publication Number Publication Date
JP2016186658A true JP2016186658A (en) 2016-10-27
JP6308249B2 JP6308249B2 (en) 2018-04-11

Family

ID=57203242

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016138993A Active JP6308249B2 (en) 2016-07-14 2016-07-14 Head-mounted display device and method

Country Status (1)

Country Link
JP (1) JP6308249B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046687A (en) * 2006-08-10 2008-02-28 Canon Inc Photographic environment calibration method and information processor
JP2009284175A (en) * 2008-05-21 2009-12-03 Nippon Telegr & Teleph Corp <Ntt> Calibration method and apparatus of display
JP2010102215A (en) * 2008-10-27 2010-05-06 Sony Computer Entertainment Inc Display device, image processing method and computer program
WO2010107072A1 (en) * 2009-03-18 2010-09-23 ブラザー工業株式会社 Head-mounted display

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008046687A (en) * 2006-08-10 2008-02-28 Canon Inc Photographic environment calibration method and information processor
JP2009284175A (en) * 2008-05-21 2009-12-03 Nippon Telegr & Teleph Corp <Ntt> Calibration method and apparatus of display
JP2010102215A (en) * 2008-10-27 2010-05-06 Sony Computer Entertainment Inc Display device, image processing method and computer program
WO2010107072A1 (en) * 2009-03-18 2010-09-23 ブラザー工業株式会社 Head-mounted display

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
加藤 博一 HIROKAZU KATO: "複合現実感 Mixed Reality", 日本バーチャルリアリティ学会論文誌 第4巻 第4号 TRANSACTIONS OF THE VIRTUAL REALITY SOCIETY OF J, vol. 第4巻, JPN6017035743, 31 December 1999 (1999-12-31), JP, pages 609 - 613, ISSN: 0003644168 *

Also Published As

Publication number Publication date
JP6308249B2 (en) 2018-04-11

Similar Documents

Publication Publication Date Title
JP5970872B2 (en) Head-mounted display device and method for controlling head-mounted display device
US9965048B2 (en) Head-mount type display device, control system, method of controlling head-mount type display device, and computer program
JP6337418B2 (en) Head-mounted display device and method for controlling head-mounted display device
CN105607255B (en) Head-mounted display device, method of controlling the same, and computer-readable storage medium
JP6232763B2 (en) Head-mounted display device and method for controlling head-mounted display device
US9836120B2 (en) Display device, method of controlling the same, and computer program
JP6217244B2 (en) Image processing apparatus, head-mounted display apparatus having the same, image processing method, and computer program
US20150168729A1 (en) Head mounted display device
JP6369005B2 (en) Head-mounted display device and method for controlling head-mounted display device
US9870048B2 (en) Head-mounted display device, method of controlling the same, and computer program
US10567730B2 (en) Display device and control method therefor
US9799144B2 (en) Head mounted display, and control method for head mounted display
US20160187662A1 (en) Display device, and method of controlling display device
JP2016133399A (en) Head-mounted display device and method of controlling head-mounted display device, and computer program
JP6428024B2 (en) Display device, display device control method, and program
JP6252002B2 (en) Head-mounted display device and method for controlling head-mounted display device
US20150168728A1 (en) Head mounted display device
JP2016033763A (en) Display device, method for controlling display device, and program
JP6394108B2 (en) Head-mounted display device, control method therefor, and computer program
JP6308249B2 (en) Head-mounted display device and method
JP6273677B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6394174B2 (en) Head-mounted display device, image display system, method for controlling head-mounted display device, and computer program
JP6287399B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP2019004471A (en) Head-mounted type display device, and control method of head-mounted type display device
JP2016031373A (en) Display device, display method, display system, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160804

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180226

R150 Certificate of patent or registration of utility model

Ref document number: 6308249

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150