JP2016186658A - Head-mount type display device and method - Google Patents
Head-mount type display device and method Download PDFInfo
- Publication number
- JP2016186658A JP2016186658A JP2016138993A JP2016138993A JP2016186658A JP 2016186658 A JP2016186658 A JP 2016186658A JP 2016138993 A JP2016138993 A JP 2016138993A JP 2016138993 A JP2016138993 A JP 2016138993A JP 2016186658 A JP2016186658 A JP 2016186658A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- user
- head
- outside scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、頭部装着型表示装置および頭部装着型表示装置の制御方法に関する。 The present invention relates to a head-mounted display device and a method for controlling the head-mounted display device.
現実環境にコンピューターを用いて情報を付加提示する拡張現実(AR、Augmented Reality)と呼ばれる技術が知られている。拡張現実は、スマートフォンやヘッドマウントディスプレイ(以降、「頭部装着型表示装置」と呼ぶ。)などに搭載される。図1は、拡張現実について説明するための説明図である。図1(A)は、非透過型の頭部装着型表示装置で拡張現実が実現される様子を示している。頭部装着型表示装置は、カメラで外景を撮像し、撮像により得られた画像CPを画像認識し、付加提示するための情報(図の例ではオブジェクトOB)を生成する。頭部装着型表示装置は、撮像された画像CPと、生成されたオブジェクトOBとを重畳させた画像を、液晶画面に表示させる。これによって、頭部装着型表示装置の使用者は拡張現実を体感することができる。なお、ここでは、拡張現実を非透過型の頭部装着型表示装置を用いて実現する例について説明したが、スマートフォン等でも実現できる。例えば、引用文献1には、拡張現実の技術を搭載した非透過型の頭部装着型表示装置が開示されている。
There is known a technique called augmented reality (AR) that adds information to a real environment using a computer. Augmented reality is mounted on smartphones and head-mounted displays (hereinafter referred to as “head-mounted display devices”). FIG. 1 is an explanatory diagram for explaining augmented reality. FIG. 1A shows a state in which augmented reality is realized by a non-transmissive head-mounted display device. The head-mounted display device captures an outside scene with a camera, recognizes an image CP obtained by the imaging, and generates information (object OB in the example in the figure) for additional presentation. The head-mounted display device displays an image obtained by superimposing the captured image CP and the generated object OB on the liquid crystal screen. As a result, the user of the head-mounted display device can experience augmented reality. In addition, although the example which implement | achieves augmented reality using a non-transmissive head-mounted display apparatus was demonstrated here, it can implement | achieve also with a smart phone. For example,
図1(B)は、光学透過型の頭部装着型表示装置で拡張現実が実現される様子を示している。光学透過型の頭部装着型表示装置においても、非透過型と同様に、撮像により得られた画像CPを画像認識し、付加提示するための情報(オブジェクトOB)を生成する。その後、光学透過型の頭部装着型表示装置では、生成されたオブジェクトOBのみを液晶画面に表示させる。使用者は、液晶画面に表示され、虚像VIとして表示されたオブジェクトOBと、目前のレンズを透過して見える外景SCとの両方を視認することで、拡張現実を体感することができる。なお、図1(B)の左から1枚目に示す撮像により得られる領域を「撮像視界」とも呼び、図1(B)の左から2枚目に示す虚像VIとして表示される領域を「映像視界」とも呼び、図1(B)の左から3枚目に示す外景SCとして視認可能な領域を「現実視界」とも呼ぶ。 FIG. 1B shows how augmented reality is realized by an optically transmissive head-mounted display device. In the optically transmissive head-mounted display device, as in the non-transmissive type, the image CP obtained by imaging is recognized and information (object OB) for additional presentation is generated. Thereafter, in the optically transmissive head-mounted display device, only the generated object OB is displayed on the liquid crystal screen. The user can experience augmented reality by visually recognizing both the object OB displayed on the liquid crystal screen and displayed as the virtual image VI and the outside scene SC that can be seen through the front lens. Note that the area obtained by imaging shown in the first image from the left in FIG. 1B is also called “imaging field of view”, and the area displayed as the virtual image VI shown in the second image from the left in FIG. The area that can be visually recognized as the outside scene SC shown as the third image from the left in FIG. 1B is also referred to as “real field of view”.
ここで、使用者の眼前に虚像VIが投写される領域(現実視界と映像視界が重なる部分)の大きさと、カメラで撮像可能な領域(撮像視界)との大きさとが一致しない場合がある。両者の大きさが一致しない場合、光学透過型の頭部装着型表示装置では、虚像VIとして表示されたオブジェクトOBと、目前のレンズを透過して見える外景SCとの間にずれが生じ、使用者に違和感を与えるという問題があった。具体的には、例えば、カメラで撮像可能な領域(映像視界)が広大である場合、従来の光学透過型の頭部装着型表示装置では、その広大な範囲に対応するオブジェクトOBが生成され、使用者の眼前に虚像VIとして表示される。このような場合、使用者は、自身の眼前に虚像VIが投写されている領域(現実視界と映像視界が重なる部分)内の外景SCと、オブジェクトOBとの間に生じる齟齬により、違和感を覚えてしまう。 Here, the size of the region where the virtual image VI is projected in front of the user's eyes (the portion where the real field of view and the video field of view overlap) may not match the size of the region that can be imaged by the camera (imaging field of view). If the sizes of the two do not match, the optically transmissive head-mounted display device uses a shift between the object OB displayed as the virtual image VI and the outside scene SC that can be seen through the front lens. There was a problem of feeling uncomfortable. Specifically, for example, when a region (video field of view) that can be captured by a camera is vast, in a conventional optically transmissive head-mounted display device, an object OB corresponding to the vast range is generated, It is displayed as a virtual image VI in front of the user's eyes. In such a case, the user feels uncomfortable due to a crease that occurs between the outside scene SC in the region where the virtual image VI is projected in front of his / her eyes (the portion where the real view and the video view overlap) and the object OB. End up.
本発明は、光学透過型の頭部装着型表示装置において、拡張現実を実現する際に生じる違和感を低減することを目的とする。 An object of the present invention is to reduce a sense of incongruity that occurs when an augmented reality is realized in an optically transmissive head-mounted display device.
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。 SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.
[適用例1]
使用者が、虚像と外景を同時に視認可能な頭部装着型表示装置であって、
外景を撮像して外景画像を取得する撮像部と、
取得された前記外景画像を解析すると共に、解析の結果に応じて拡張現実用の付加画像データーを生成する拡張現実処理部と、
生成された前記付加画像データーを用いて画像光を生成する表示素子と、
生成された前記画像光を用いて使用者の眼前に虚像を形成する導光部と、
を備え、
前記拡張現実処理部は、前記外景画像のうち、前記虚像の表示領域と前記撮像部の撮像領域とが重複する重複領域を取得し、前記重複領域を用いて前記付加画像データーを生成する、頭部装着型表示装置。
このような構成とすれば、拡張現実処理部は、虚像の表示領域と撮像部の撮像領域とが重複する重複領域を取得し、重複領域を用いて付加画像データーを生成するため、拡張現実処理部が拡張現実を実現する際に生じる違和感を低減することができる。
[Application Example 1]
A head-mounted display device that allows a user to view a virtual image and an outside scene at the same time,
An imaging unit that captures an outside scene and obtains an outside scene image;
An augmented reality processing unit that analyzes the acquired outside scene image and generates additional image data for augmented reality according to a result of the analysis;
A display element that generates image light using the generated additional image data;
A light guide unit that forms a virtual image in front of the user's eyes using the generated image light; and
With
The augmented reality processing unit obtains an overlapping region in which the virtual image display region and the imaging region of the imaging unit overlap in the outside scene image, and generates the additional image data using the overlapping region. Part-mounted display device.
With such a configuration, the augmented reality processing unit acquires an overlapping region where the display region of the virtual image and the imaging region of the imaging unit overlap, and generates additional image data using the overlapping region. The uncomfortable feeling that occurs when the unit realizes augmented reality can be reduced.
[適用例2]
適用例1記載の頭部装着型表示装置であって、さらに、
前記使用者に対して、前記虚像の表示領域を示すためのガイド画像データーが記憶されている記憶部を備え、
前記拡張現実処理部は、前記ガイド画像データーを用いた画像光を生成させると共に、前記使用者に対して前記虚像の表示領域に所定の目印を示すよう案内し、前記外景画像を取得させ、取得された前記外景画像を解析して得られた前記目印の位置を、前記重複領域と他の領域との境界として取得する、頭部装着型表示装置。
このような構成とすれば、拡張現実処理部は、ガイド画像データーを用いた画像光を生成させると共に、使用者に対して虚像の表示領域に所定の目印を示すよう案内し、外景画像を取得させ、取得された外景画像を解析して得られた目印の位置を、重複領域と他の領域との境界として取得する。この結果、拡張現実処理部は、虚像の表示領域と、撮像部の撮像領域とが重複する重複領域を取得することができる。
[Application Example 2]
The head-mounted display device according to Application Example 1,
A storage unit storing guide image data for indicating a display area of the virtual image for the user;
The augmented reality processing unit generates image light using the guide image data, guides the user to indicate a predetermined mark in the display area of the virtual image, and acquires and acquires the outside scene image. A head-mounted display device that acquires a position of the mark obtained by analyzing the outside scene image as a boundary between the overlapping region and another region.
With such a configuration, the augmented reality processing unit generates image light using the guide image data, and guides the user to indicate a predetermined mark in the display area of the virtual image, thereby acquiring an outside scene image. The position of the landmark obtained by analyzing the acquired outside scene image is acquired as a boundary between the overlapping region and another region. As a result, the augmented reality processing unit can acquire an overlapping region in which the virtual image display region and the imaging region of the imaging unit overlap.
[適用例3]
適用例2記載の頭部装着型表示装置であって、
前記ガイド画像データーは、前記表示素子と同じアスペクト比を有する矩形形状であって、その四隅のうちの少なくとも2箇所に配置された案内マークを含み、
前記拡張現実処理部は、前記使用者に対して、前記案内マークを指で指し示すことで前記目印を示すよう案内する、頭部装着型表示装置。
このような構成とすれば、拡張現実処理部は、使用者に対して案内マークを指で指し示すことで目印を示すよう案内するため、特別な装置を必要とせず、かつ、使用者がわかりやすい簡単な操作で、虚像の表示領域に所定の目印を付与させることができる。
[Application Example 3]
A head-mounted display device according to Application Example 2,
The guide image data is a rectangular shape having the same aspect ratio as the display element, and includes guide marks arranged at at least two of the four corners,
The augmented reality processing unit is a head-mounted display device that guides the user to indicate the mark by pointing the guide mark with a finger.
With such a configuration, the augmented reality processing unit guides the user to indicate the mark by pointing the guide mark with a finger, so that no special device is required and the user can easily understand. With a simple operation, a predetermined mark can be given to the display area of the virtual image.
[適用例4]
適用例2記載の頭部装着型表示装置であって、
前記ガイド画像データーは、前記表示素子と同じアスペクト比を有する矩形形状であって、その四隅のうちの少なくとも2箇所に配置された枠状の案内マークを含み、
前記拡張現実処理部は、前記使用者に対して、前記案内マークの枠内に併せて、矩形形状の側面を有する物を配置することで前記目印を示すよう案内する、頭部装着型表示装置。
このような構成とすれば、拡張現実処理部は、使用者に対して、案内マークの枠内に併せて、矩形形状の側面を有する物を配置することで目印を示すよう案内するため、一度の操作で虚像の表示領域に目印を付与させることができる。
[Application Example 4]
A head-mounted display device according to Application Example 2,
The guide image data is a rectangular shape having the same aspect ratio as the display element, and includes frame-shaped guide marks arranged at at least two of the four corners,
The augmented reality processing unit guides the user so as to show the mark by arranging an object having a rectangular side surface in the frame of the guide mark. .
With such a configuration, the augmented reality processing unit guides the user so as to show the mark by arranging an object having a rectangular side surface in the guide mark frame. The mark can be given to the display area of the virtual image by the above operation.
[適用例5]
適用例1ないし4のいずれか一項記載の頭部装着型表示装置であって、さらに、
前記頭部装着型表示装置の装着時における使用者の右側の眼またはこめかみまたはそれらの周辺に対応する位置に配置され、外景を撮像して第2の外景画像を取得する第2の撮像部と、
前記頭部装着型表示装置の装着時における使用者の左側の眼またはこめかみまたはそれらの周辺に対応する位置に配置され、外景を撮像して第3の外景画像を取得する第3の撮像部と、
を備え、
前記拡張現実処理部は、さらに、前記第2の外景画像に含まれる特定の物体と、前記第3の外景画像に含まれる前記特定の物体と、の間のずれ量を求め、求めた前記ずれ量から外界における前記物体の奥行きに関する情報を取得する、頭部装着型表示装置。
このような構成とすれば、拡張現実処理部は、さらに、頭部装着型表示装置の装着時における使用者の右側の眼またはこめかみまたはそれらの周辺に対応する位置に配置された第2の撮像部により撮影された第2の外景画像に含まれる特定の物体と、頭部装着型表示装置の装着時における使用者の左側の眼またはこめかみまたはそれらの周辺に対応する位置に配置された第3の撮像部により撮影された第3の外景画像に含まれる特定の物体と、の間のずれ量を求め、求めたずれ量から外界における物体の奥行きに関する情報を取得することができる。
[Application Example 5]
The head-mounted display device according to any one of Application Examples 1 to 4, further comprising:
A second imaging unit that is disposed at a position corresponding to the right eye or temple of the user or the periphery of the user when the head-mounted display device is mounted, and that captures an external scene and obtains a second external scene image; ,
A third imaging unit that is arranged at a position corresponding to the left eye or temple of the user or the periphery of the user when the head-mounted display device is worn, and that captures the outside scene and obtains a third outside scene image; ,
With
The augmented reality processing unit further obtains a deviation amount between the specific object included in the second outside scene image and the specific object included in the third outside scene image, and calculates the deviation. A head-mounted display device that acquires information about the depth of the object in the outside world from a quantity.
With such a configuration, the augmented reality processing unit further includes the second imaging arranged at a position corresponding to the right eye or the temple of the user or the periphery thereof when the head-mounted display device is worn. A third object disposed at a position corresponding to the specific object included in the second outside scene image photographed by the unit and the left eye or the temple of the user when the head-mounted display device is worn or the periphery thereof. The amount of deviation between the specific object included in the third outside scene image photographed by the imaging unit and the depth of the object in the outside world can be obtained from the obtained amount of deviation.
なお、本発明は、種々の態様で実現することが可能であり、例えば、頭部装着型表示装置および頭部装着型表示装置の制御方法、画像表示システム、これらの方法、装置またはシステムの機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体等の形態で実現することができる。 The present invention can be realized in various modes. For example, a head-mounted display device, a method for controlling a head-mounted display device, an image display system, and a function of these methods, devices, or systems Can be realized in the form of a computer program for realizing the above, a recording medium on which the computer program is recorded, and the like.
次に、本発明の実施の形態を実施例に基づいて説明する。 Next, embodiments of the present invention will be described based on examples.
A.第1実施例:
(A−1)頭部装着型表示装置の構成:
図2は、本発明の一実施例における頭部装着型表示装置の外観の構成を示す説明図である。頭部装着型表示装置HMは、頭部に装着する頭部装着型表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施例のヘッドマウントディスプレイHMは、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。
A. First embodiment:
(A-1) Configuration of the head-mounted display device:
FIG. 2 is an explanatory diagram showing an external configuration of a head-mounted display device according to an embodiment of the present invention. The head-mounted display device HM is a head-mounted display device mounted on the head, and is also called a head mounted display (HMD). The head-mounted display HM of the present embodiment is an optically transmissive head-mounted display device that allows a user to visually recognize a virtual image and at the same time directly view an outside scene.
ヘッドマウントディスプレイHMは、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。
The head-mounted display HM includes an
画像表示部20は、使用者の頭部に装着される装着体であり、本実施例では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61とを含んでいる。右光学像表示部26および左光学像表示部28は、ヘッドマウントディスプレイHMの装着時における使用者の右および左の眼前に対応する位置に配置されている。右光学像表示部26の一端と、左光学像表示部28の一端は、それぞれ、ヘッドマウントディスプレイHMの装着時における使用者の眉間に対応する位置で接続されている。右光学像表示部26の他端である端部ERからは、右保持部21が延伸している。同様に、左光学像表示部28の他端である端部ELからは、左保持部23が延伸している。
The
右保持部21は、右光学像表示部26の端部ERから、ヘッドマウントディスプレイHMの装着時における使用者の側頭部に対応する位置にかけて、右光学像表示部26とほぼ直角をなすように延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の端部ELから、ヘッドマウントディスプレイHMの装着時における使用者の側頭部に対応する位置にかけて、左光学像表示部28とほぼ直角をなすように延伸して設けられた部材である。右保持部21と、左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部にヘッドマウントディスプレイHMを保持する。
The
右表示駆動部22は、右保持部21の内側、換言すれば、ヘッドマウントディスプレイHMの装着時における使用者の頭部に対向する側であって、右光学像表示部26の端部ER側に配置されている。また、左表示駆動部24は、左保持部23の内側であって、左光学像表示部28の端部EL側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」と、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」と、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。
The right
表示駆動部は、図示しないLCD(Liquid Crystal Display:液晶ディスプレイ)や、投写光学系等を含む。詳細は後述する。光学部材としての光学像表示部は、図示しない導光板と、調光板とを含んでいる。導光板は、光透過性の樹脂材料等によって形成され、表示駆動部から取り込んだ画像光を使用者の眼に向けて射出させる。調光板は、薄板状の光学素子であり、ヘッドマウントディスプレイHMの表側(使用者の眼の側とは反対の側)を覆うように配置されている。調光板は、導光板を保護し、導光板の損傷や、汚れの付着等を抑制するとともに、調光板の光透過率を調整することにより、使用者の眼に入る外光量を調整し、虚像の視認のしやすさを調整することができる。なお、調光板は省略可能である。 The display driving unit includes an LCD (Liquid Crystal Display), a projection optical system, and the like (not shown). Details will be described later. The optical image display unit as an optical member includes a light guide plate (not shown) and a light control plate. The light guide plate is formed of a light transmissive resin material or the like, and emits image light taken from the display driving unit toward the user's eyes. The light control plate is a thin plate-like optical element, and is disposed so as to cover the front side of the head mounted display HM (the side opposite to the user's eye side). The light control plate protects the light guide plate, suppresses damage to the light guide plate, adhesion of dirt, etc., and adjusts the light transmittance of the light control plate to adjust the amount of external light entering the user's eyes. The ease of visual recognition of the virtual image can be adjusted. The light control plate can be omitted.
カメラ61は、ヘッドマウントディスプレイHMの装着時における使用者の眉間に対応する位置に配置されている。カメラ61は、ヘッドマウントディスプレイHMの表側方向、換言すれば、使用者の眼の側とは反対側方向の外景(外部の景色)を撮像し、外景画像を取得する。本実施例においては、カメラ61が「撮像部」に相当する。本実施例におけるカメラ61は、単眼カメラとして例示するが、ステレオカメラを採用してもよい。
The
画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、本体コード48が2本に分岐した右コード42と、左コード44と、分岐点に設けられた連結部材46と、を含んでいる。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。
The
画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。本体コード48における連結部材46とは反対側の端部と、制御部10とのそれぞれには、互いに嵌合するコネクター(図示省略)が設けられており、本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48には、例えば、金属ケーブルや、光ファイバーを採用することができる。
The
制御部10は、ヘッドマウントディスプレイHMを操作するための装置である。制御部10は、点灯部12と、タッチパッド14と、十字キー16と、電源スイッチ18とを含んでいる。点灯部12は、ヘッドマウントディスプレイHMの動作状態(例えば、電源のON/OFF等)を、その発光状態によって通知する。点灯部12としては、例えば、LED(Light Emitting Diode)を用いることができる。タッチパッド14は、タッチパッド14の操作面上での使用者の指の操作を検出して、検出内容に応じた信号を出力する。十字キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、ヘッドマウントディスプレイHMの電源投入状態を切り替える。
The
図3は、ヘッドマウントディスプレイHMの構成を機能的に示すブロック図である。制御部10は、入力情報取得部110と、記憶部120と、電源130と、CPU140と、インターフェイス180と、送信部(Tx)51および52と、を備え、各部は図示しないバスにより相互に接続されている。
FIG. 3 is a block diagram functionally showing the configuration of the head mounted display HM. The
入力情報取得部110は、例えば、タッチパッド14や十字キー16、電源スイッチ18に対する操作入力等の使用者による操作入力に応じた信号を取得する機能を有する。記憶部120は、図示しないROM、RAM、DRAM、ハードディスク等を含む記憶部である。また、記憶部120には、座標情報記憶部122が含まれている。座標情報記憶部122は、AR処理部142により実行される領域決定処理において求められた座標を格納するための記憶領域である。電源130は、ヘッドマウントディスプレイHMの各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。
The input
CPU140は、予めインストールされたプログラムを実行することで、オペレーティングシステム(ОS)150としての機能を提供する。また、CPU140は、ROMやハードディスクに格納されているファームウェアやコンピュータープログラムをRAMに展開して実行することにより、AR処理部142、画像処理部160、音声処理部170、表示制御部190としても機能する。
The
AR処理部142は、OS150や、特定のゲームアプリケーションからの処理開始要求をトリガーとして、拡張現実を実現させるための処理(以降、「AR処理」とも呼ぶ。)を実行する。AR処理においてAR処理部142は、カメラ61により取得された外景画像を解析し、解析の結果に応じて拡張現実のための付加画像データーを生成する。外景画像の解析方法および付加画像データーの生成方法については周知であるため説明を省略する。また、AR処理部142は、AR処理に先立って領域決定処理を実行する。領域決定処理は、AR処理内で「外景画像を解析」する際の解析範囲を決定するための処理である。詳細は後述する。なお、AR処理部142を「拡張現実処理部」とも呼ぶ。
The
画像処理部160は、AR処理において生成された付加画像データーや、インターフェイス180を介して入力されるコンテンツ等に基づき、クロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データーDataを生成し、接続部40を介してこれらの信号を画像表示部20に供給する。
The
指定された付加画像データーに基づく供給を行う場合、画像処理部160は、デフォルト値として予め定められ、記憶部120内に格納された表示設定(VSync、HSyncなど)を取得する。画像処理部160は、取得した表示設定に応じて、図示しないPLL(Phase Locked Loop)回路等を利用してクロック信号PCLKを生成する。その後、画像処理部160は、付加画像データーData(RGBデーター)を記憶部120内のDRAMに格納する。
When supplying based on the designated additional image data, the
一方、コンテンツに基づく供給を行う場合、画像処理部160は、コンテンツに含まれる画像信号を取得する。取得した画像信号は、例えば動画像の場合、一般的に、1秒あたり30枚のフレーム画像から構成されているアナログ信号である。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離する。また、画像処理部160は、分離した垂直同期信号VSyncや水平同期信号HSyncの周期に応じて、図示しないPLL回路等を利用してクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、図示しないA/D変換回路等を用いてディジタル画像信号に変換する。その後、画像処理部160は、変換後のディジタル画像信号を、対象画像データーData(RGBデーター)として、1フレームごとに記憶部120内のDRAMに格納する。
On the other hand, when supplying based on content, the
なお、付加画像データーやコンテンツがディジタル形式で与えられる場合は、クロック信号PCLKが画像信号に同期して出力されるため、垂直同期信号VSyncおよび水平同期信号HSync、アナログ画像信号のA/D変換は不要である。また、以降では、付加画像データーDataおよび対象画像データーDataを総称して「画像データーData」とも呼ぶ。画像処理部160は、必要に応じて、記憶部120に格納された画像データーDataに対して、解像度変換処理、輝度や彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。
When the additional image data or content is given in a digital format, the clock signal PCLK is output in synchronization with the image signal. Therefore, the A / D conversion of the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the analog image signal is performed. It is unnecessary. Hereinafter, the additional image data Data and the target image data Data are also collectively referred to as “image data Data”. The
画像処理部160は、上述のように生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSyncと、記憶部120内のDRAMに格納された画像データーDataとを、送信部51および52を介してそれぞれ送信する。なお、送信部51を介して送信される画像データーDataを「右眼用画像データーData1」とも呼び、送信部52を介して送信される画像データーDataを「左眼用画像データーData2」とも呼ぶ。送信部51、52は、制御部10と、画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。
The
表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFFや、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFFや、左バックライト制御部202による左バックライト222の駆動ON/OFF、などを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。
The
表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号を、送信部51および52を介してそれぞれ送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号を、それぞれ送信する。
The
音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、画像表示部20の右イヤホン32内の図示しないスピーカーおよび左イヤホン34内の図示しないスピーカーに対し、接続部40を介して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34からは、それぞれ、例えば周波数等が変えられた異なる音が出力される。
The
インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等がある。インターフェイス180としては、例えば、USBインターフェイスや、マイクロUSBインターフェイス、メモリーカード用インターフェイス、無線LANインターフェイス等を備えることができる。
The
画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、右イヤホン32と、左イヤホン34とを備えている。
The
右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251を含んでいる。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。
The right
受信部53は、制御部10と、画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する機能を有する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データーData1とに基づいて、右LCD241を駆動する機能を有する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
The receiving
図4は、画像光生成部によって画像光が射出される様子を示す説明図である。右LCD241はマトリクス状に配置された各画素位置に対応する液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光ILを、画像を表す有効な画像光PLへと変調する機能を有する。なお、図4のように、本実施例ではバックライト方式を採用することとしたが、フロントライト方式や、反射方式を用いて画像光を射出する構成としてもよい。
FIG. 4 is an explanatory diagram illustrating a state in which image light is emitted by the image light generation unit. The
図3の右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、右投写光学系251と右導光板261とを総称して「導光部」とも呼ぶ。なお、導光部は、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。
The right projection
左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252を含んでいる。なお、左バックライト制御部202と、左LCD制御部212と、左バックライト222と、左LCD242とを総称して「画像光生成部」と、左投写光学系252と、左導光板262とを総称して「導光部」とも呼ぶ。右表示駆動部22と左表示駆動部24とは対になっており、左表示駆動部24の各部は、右表示駆動部22で説明する各部と同様の構成および動作を有するため詳細な説明は省略する。
The left
図5は、使用者に認識される虚像の一例を示す説明図である。上述のようにして、ヘッドマウントディスプレイHMの使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、使用者は虚像を視認することができる。図5に示すように、ヘッドマウントディスプレイHMの使用者の視野VR内には虚像VIが表示される。また、使用者の視野VRのうち、虚像VIが表示された部分については、使用者は、光学像表示部の虚像VIを介して、外景SCを見ることができる。さらに、使用者の視野VRのうち、虚像VIが表示された部分以外については、使用者は、光学像表示部を透過して、外景SCを直接見ることができる。 FIG. 5 is an explanatory diagram illustrating an example of a virtual image recognized by the user. As described above, the image light guided to both eyes of the user of the head mounted display HM forms an image on the retina of the user, so that the user can visually recognize the virtual image. As shown in FIG. 5, a virtual image VI is displayed in the visual field VR of the user of the head mounted display HM. In addition, regarding the portion of the user's visual field VR where the virtual image VI is displayed, the user can see the outside scene SC via the virtual image VI of the optical image display unit. Further, the user can directly view the outside scene SC through the optical image display unit except for the portion of the user's visual field VR where the virtual image VI is displayed.
なお、虚像VIが表示される領域を「映像視界」とも呼ぶ。また、使用者が外景SCを視認可能な領域、換言すれば、視野VR内の領域を「現実視界」とも呼ぶ。このとき、使用者の眼前に虚像VIが投写されている領域は、現実視界と映像視界が重なっている部分であるといえる。 The area where the virtual image VI is displayed is also referred to as “video field of view”. In addition, an area in which the user can visually recognize the outside scene SC, in other words, an area in the visual field VR is also referred to as “real field of view”. At this time, it can be said that the area where the virtual image VI is projected in front of the user's eyes is a portion where the real view and the image view overlap.
(A−2)領域決定処理:
図6は、領域決定処理の手順を示すフローチャートである。図7は、領域決定処理について説明するための説明図である。領域決定処理は、AR処理に先立ってAR処理部142により実行される処理であり、AR処理内で「外景画像を解析」する際の解析範囲を決定するための処理である。なお、領域決定処理は、AR処理のサブルーチンとして動作してもよい。
(A-2) Area determination processing:
FIG. 6 is a flowchart showing the procedure of the area determination process. FIG. 7 is an explanatory diagram for explaining the region determination processing. The area determination process is a process executed by the
まず、AR処理部142は、領域決定処理内で使用する変数nに「1」をセットすることで、変数の初期化を行う(ステップS100)。次に、AR処理部142は、ガイド画像を虚像表示させる(ステップS102)。図7(A)は、ガイド画像CGの一例を示す説明図である。ガイド画像CGは、ヘッドマウントディスプレイHMの使用者に対して、虚像の表示領域の端部を示すための画像である。本実施例におけるガイド画像CGは、右LCD241および左LCD242(表示素子)と同じアスペクト比を有する矩形形状で、白色一色の背景を有する画像であり、その四隅と、対角線の交点に位置する部分とに、円状の案内マークP1〜P5を有している。ガイド画像CGの画像データー(以降、「ガイド画像データー」とも呼ぶ。)は、記憶部120に予め格納されている。
First, the
ステップS102においてAR処理部142は、記憶部120に格納されているガイド画像データーを読み出して、ガイド画像データーを画像処理部160へ送信する。ガイド画像データーを受信した画像処理部160では、図3で説明した処理が実行される。この結果、ヘッドマウントディスプレイHMの使用者の視野VRには図7(A)のガイド画像CGが虚像VIとして表示される。
In step S <b> 102, the
ステップS104においてAR処理部142は、虚像VIとして表示されたガイド画像CGのうちのn番目の案内マークを指差すように、使用者に対して案内する。ここで、「n番目の点」は、ステップS100で初期化した変数nの値に応じて変動する。また、AR処理部142は、使用者に対する案内の方法として、ダイアログボックス等を用いたメッセージを表示させてもよいし、音声による案内を行っても良い。音声による案内は、表示中のガイド画像CGを遮ることなく案内することができる点で好ましい。
In step S104, the
図7(B)は、使用者が、自らの視野VRに虚像VIとして表示されたガイド画像CGの1番目の案内マークP1を指差す様子を示している。なお、図7(B)では、図示の便宜上、光学像表示部を透過する外景SCについては図示を省略している。使用者への案内後、図6のステップS106においてAR処理部142は、カメラ61に外景画像を撮像させる。図8は、カメラ61によって撮像された外景画像CPの一例を示す説明図である。
FIG. 7B shows a situation where the user points to the first guide mark P1 of the guide image CG displayed as a virtual image VI in his / her visual field VR. In FIG. 7B, for the convenience of illustration, the illustration of the outside scene SC that passes through the optical image display unit is omitted. After guidance to the user, the
ステップS108においてAR処理部142は、撮像された外景画像CPを画像認識して、人間の指先の位置を特定する。AR処理部142は、指先位置の座標を取得し、座標情報記憶部122へ保存する(ステップS110)。具体的には、AR処理部142は、ステップS108で特定された指先の位置の座標を取得する。この座標は、例えば、外景画像CPの最も左上部分の画素を(0,0)とした場合のX方向、Y方向の移動量として定義することができる。AR処理部142は、取得した座標と、変数nの値とを関連付けて座標情報記憶部122へ格納する。
In step S108, the
AR処理部142は、変数nの値が、ガイド画像CGに配置された案内マークの個数以上となったか否かを判定する(ステップS112)。変数nの値が案内マークの個数未満である場合(ステップS112:NO)、AR処理部142は、変数nをインクリメントし、処理をステップS104へ遷移させる。そして、AR処理部142は、次の案内マークについて、外景画像CPの取得、指先位置の座標取得、座標の保存の一連の処理を繰り返す。一方、変数nの値が案内マークの個数以上である場合(ステップS112:YES)、AR処理部142は、ガイド画像の表示を終了させる旨の要求を画像処理部160および表示制御部190へ送信し(ステップS116)、処理を終了させる。
The
このようにしてAR処理部142は、ガイド画像を右LCD241および左LCD242(表示素子)の表示可能領域いっぱいに表示させた状態で、使用者の視界にガイド画像の虚像VIを表示させ、ガイド画像の四隅にある案内マークP1〜P4が、カメラ61により撮像された外景画像CPのどの位置に相当するのかを示す座標を取得する。換言すれば、領域決定処理においてAR処理部142は、カメラ61(撮像部)の撮像領域と、虚像VIの表示領域とが重複する領域、すなわち図8の領域EAを予め取得する。なお、カメラ61の撮像領域と虚像VIの表示領域とが重複する領域のことを「重複領域」とも呼ぶ。
In this way, the
以上のように第1実施例によれば、AR処理部142(拡張現実処理部)は、AR処理に先立って重複領域EAを取得する。その後のAR処理においてAR処理部142は、取得した重複領域EAを用いて、具体的には、カメラ61により撮像された外景画像CPのうち重複領域EA内の画像を解析対象とすることで、拡張現実のための付加画像データーを生成する。これにより、カメラ61で撮像可能な領域(映像視界)の大きさと、使用者の眼前に虚像VIとして投写される領域(現実視界と映像視界が重なる部分)の大きさとを、擬似的に一致させる(キャリブレーションする)ことができる。結果として、AR処理において表示される付加提示用の情報(オブジェクトOB)と、使用者が目前の光学像表示部を透過して目にする外景SCとの間にずれが生じることを抑制することができ、光学透過型のヘッドマウントディスプレイHM(頭部装着型表示装置)において、AR処理部142が拡張現実を実現する際に生じる違和感を低減することができる。
As described above, according to the first embodiment, the AR processing unit 142 (augmented reality processing unit) acquires the overlapping area EA prior to the AR processing. In the subsequent AR processing, the
なお、上記実施例では、AR処理部142が付加画像データーを生成する際の重複領域EAの使用方法として「解析対象を限定する」方法を示した。しかし、上記はあくまで例示であり、重複領域EAは、種々の利用方法が可能である。例えば、AR処理部142は、カメラ61により撮像された外景画像CPの全てを解析し、重複領域EA内の付加提示用の情報と、重複領域EA外の付加提示用の情報との表示方法を変えた付加画像データーを生成してもよい。具体的には、重複領域EA内の付加提示用の情報は内容が認識可能な態様で表示し、重複領域EA外の付加提示用の情報は矢印等のアイコンで存在のみを示す態様で表示することができる。
In the above embodiment, the “limit analysis target” method is shown as the method of using the overlapping area EA when the
また、AR処理部142(拡張現実処理部)は、ガイド画像データーを用いた画像光を生成させると共に、使用者に対して虚像VIの表示領域に所定の目印を示すよう案内した後、外景画像CPを取得させ、取得された外景画像CPを解析して得られた目印の位置を、重複領域EAと他の領域との境界として取得する。この結果、AR処理部142は、虚像VIの表示領域と、カメラ61の撮像領域とが重複する重複領域EAを取得することができる。
The AR processing unit 142 (augmented reality processing unit) generates image light using the guide image data and guides the user to indicate a predetermined mark in the display area of the virtual image VI. CP is acquired, and the position of the mark obtained by analyzing the acquired outside scene image CP is acquired as a boundary between the overlapping area EA and another area. As a result, the
さらに、AR処理部142(拡張現実処理部)は、使用者に対して案内マークP1〜P5を指で指し示すことで目印を示すよう案内するため、特別な装置を必要とせず、かつ、使用者がわかりやすい簡単な操作で、虚像VIの表示領域に所定の目印を付与させることができる。 Further, since the AR processing unit 142 (augmented reality processing unit) guides the user to indicate the mark by pointing the guide marks P1 to P5 with a finger, no special device is required and the user It is possible to give a predetermined mark to the display area of the virtual image VI by a simple operation that is easy to understand.
B.第2実施例:
本発明の第2実施例では、領域決定処理における重複領域の取得方法が異なる構成について説明する。以下では、第1実施例と異なる構成および動作を有する部分についてのみ説明する。なお、図中において第1実施例と同様の構成部分については先に説明した第1実施例と同様の符号を付し、その詳細な説明を省略する。
B. Second embodiment:
In the second embodiment of the present invention, a configuration in which the overlapping area acquisition method in the area determination process is different will be described. Below, only the part which has a different structure and operation | movement from 1st Example is demonstrated. In the figure, the same components as those of the first embodiment are denoted by the same reference numerals as those of the first embodiment described above, and detailed description thereof is omitted.
(B−1)頭部装着型表示装置の構成:
第2実施例におけるヘッドマウントディスプレイHMaの構成は、図1〜図5で説明した第1実施例とほぼ同様である。
(B-1) Configuration of the head-mounted display device:
The configuration of the head mounted display HMa in the second embodiment is substantially the same as that of the first embodiment described with reference to FIGS.
ただし、第2実施例におけるヘッドマウントディスプレイHMaは、AR処理部142に代えてAR処理部142aを備えるが第1実施例とは異なる。さらに、第2実施例におけるヘッドマウントディスプレイHMaは、記憶部120内に予め格納されているガイド画像データーの内容および領域決定処理の内容が、第1実施例とは異なる。
However, the head mounted display HMa in the second embodiment includes an AR processing unit 142a instead of the
(B−2)領域決定処理:
図9は、第2実施例における領域決定処理の手順を示すフローチャートである。図10は、第2実施例における領域決定処理について説明するための説明図である。第2実施例の領域決定処理も、第1実施例と同様に、AR処理に先立ってAR処理部142aにより実行される処理であり、AR処理内で「外景画像を解析」する際の解析範囲を決定するための処理である。
(B-2) Area determination processing:
FIG. 9 is a flowchart showing the procedure of region determination processing in the second embodiment. FIG. 10 is an explanatory diagram for explaining the region determination processing in the second embodiment. Similarly to the first embodiment, the area determination process of the second embodiment is a process executed by the AR processing unit 142a prior to the AR process, and an analysis range when “analyzing an outside scene image” is performed in the AR process. It is a process for determining.
まず、AR処理部142aは、ガイド画像を表示させる(ステップS202)。図10(A)は、ガイド画像CGaの一例を示す説明図である。ガイド画像CGaは、ヘッドマウントディスプレイHMの使用者に対して、虚像の表示領域の端部を示すための画像である。本実施例におけるガイド画像CGaは、右LCD241および左LCD242(表示素子)と同じアスペクト比を有する矩形形状で、白色一色の背景を有する画像であり、四隅に枠状の案内マークP1〜P4を有している。ガイド画像CGaの画像データーは記憶部120に予め格納されている。
First, the AR processing unit 142a displays a guide image (step S202). FIG. 10A is an explanatory diagram illustrating an example of the guide image CGa. The guide image CGa is an image for showing the end of the virtual image display area to the user of the head mounted display HM. The guide image CGa in the present embodiment is a rectangular shape having the same aspect ratio as the
ステップS200においてAR処理部142aは、記憶部120に格納されているガイド画像データーを読み出して、ガイド画像データーを画像処理部160へ送信する。ガイド画像データーを受信した画像処理部160では、図3で説明した処理が実行され、ヘッドマウントディスプレイHMaの視野VRには図10(A)のガイド画像CGaが虚像VIとして表示される。
In step S200, the AR processing unit 142a reads the guide image data stored in the
ステップS202においてAR処理部142aは、虚像VIとして表示されたガイド画像CGaの枠内に紙を合わせるように、使用者に対して案内する。案内方法は、ダイアログボックス等を用いたメッセージでもよいし、音声による案内でもよい。 In step S202, the AR processing unit 142a guides the user to align the paper within the frame of the guide image CGa displayed as the virtual image VI. The guidance method may be a message using a dialog box or the like, or may be voice guidance.
図10(B)は、使用者が、自らの視野VRに虚像VIとして表示されたガイド画像CGaの案内マークP1〜P4内に紙PPを合わせる様子を示している。なお、図10(B)では、図示の便宜上、光学像表示部を透過する外景SCについては図示を省略している。使用者への案内後、図9のステップS204においてAR処理部142aは、カメラ61に外景画像を撮像させる。
FIG. 10B shows how the user aligns the paper PP within the guide marks P1 to P4 of the guide image CGa displayed as a virtual image VI in his / her visual field VR. In FIG. 10B, for the convenience of illustration, the illustration of the outside scene SC that passes through the optical image display unit is omitted. After guidance to the user, the AR processing unit 142a causes the
ステップS206においてAR処理部142aは、撮像された外景画像を画像認識して、紙と、外景との境界を特定する。AR処理部142aは、特定した境界のうち、矩形の頂点の位置の座標を取得し、座標情報記憶部122へ保存する(ステップS208)。その後、AR処理部142aは、ガイド画像の表示を終了させる旨の要求を画像処理部160および表示制御部190へ送信し(ステップS210)、処理を終了させる。
In step S206, the AR processing unit 142a recognizes the captured outside scene image and specifies the boundary between the paper and the outside scene. The AR processing unit 142a acquires the coordinates of the positions of the vertices of the rectangle among the specified boundaries, and stores them in the coordinate information storage unit 122 (step S208). Thereafter, the AR processing unit 142a transmits a request to end the display of the guide image to the
以上のように、第2実施例の領域決定処理においても、AR処理部142a(拡張現実処理部)は、カメラ61(撮像部)の撮像領域と、虚像VIの表示領域とが重複する重複領域取得することができる。このため、第2実施例の構成においても、第1実施例と同様の効果を得ることができる。 As described above, also in the region determination processing of the second embodiment, the AR processing unit 142a (augmented reality processing unit) overlaps the imaging region of the camera 61 (imaging unit) and the display region of the virtual image VI. Can be acquired. For this reason, also in the structure of 2nd Example, the effect similar to 1st Example can be acquired.
さらに、AR処理部142a(拡張現実処理部)は、使用者に対して、案内マークP1〜P4の枠内に併せて、矩形形状の側面を有する物(例えば紙)を配置することで目印を示すよう案内するため、一度の操作で虚像VIの表示領域に目印を付与させることができる。 Further, the AR processing unit 142a (augmented reality processing unit) places a mark on the user by arranging an object (for example, paper) having a rectangular side surface in the frame of the guide marks P1 to P4. In order to guide as shown, a mark can be given to the display area of the virtual image VI by a single operation.
C.第3実施例:
本発明の第3実施例では、領域決定処理に加えてさらに、奥行き取得処理を実行可能な構成について説明する。奥行き取得処理は、外界環境の「奥行き情報」を取得する処理であり、AR処理部142bによって実行される。AR処理部142bは、取得された奥行き情報を、AR処理内の付加画像データー生成時に使用することで、外界環境の奥行きを考慮した拡張現実を実現させることができる。以下では、第1実施例と異なる構成および動作を有する部分についてのみ説明する。なお、図中において第1実施例と同様の構成部分については先に説明した第1実施例と同様の符号を付し、その詳細な説明を省略する。
C. Third embodiment:
In the third embodiment of the present invention, a configuration capable of executing depth acquisition processing in addition to region determination processing will be described. The depth acquisition process is a process of acquiring “depth information” of the external environment, and is executed by the AR processing unit 142b. The AR processing unit 142b can realize augmented reality in consideration of the depth of the external environment by using the acquired depth information when generating additional image data in the AR processing. Below, only the part which has a different structure and operation | movement from 1st Example is demonstrated. In the figure, the same components as those of the first embodiment are denoted by the same reference numerals as those of the first embodiment described above, and detailed description thereof is omitted.
(C−1)頭部装着型表示装置の構成:
図11は、第3実施例における頭部装着型表示装置の外観の構成を示す説明図である。図1〜図5(特に図2)で示した第1実施例との違いは、制御部10に代えて制御部10bを備える点と、画像表示部20に代えて画像表示部20bを備える点である。制御部10bは、AR処理部142に代えてAR処理部142bを備えている。AR処理部142bは、第1実施例で説明した領域決定処理に加えて、奥行き取得処理を実行する。また、画像表示部20bは、さらに、カメラ62と、カメラ63とを含んでいる。
(C-1) Configuration of the head-mounted display device:
FIG. 11 is an explanatory diagram showing an external configuration of the head-mounted display device according to the third embodiment. The difference from the first embodiment shown in FIGS. 1 to 5 (particularly FIG. 2) is that a
カメラ62は、ヘッドマウントディスプレイHMbの装着時における使用者の右側の眼またはこめかみまたはそれらの周辺に対応する位置に配置されている。カメラ63は、ヘッドマウントディスプレイHMbの装着時における使用者の左側の眼またはこめかみまたはそれらの周辺に対応する位置に配置されている。カメラ62およびカメラ63は、カメラ61と同様に、使用者の眼の側とは反対側方向の外景を撮像し、外景画像を取得する。カメラ62およびカメラ63が撮像した外景画像は、後述の奥行き取得処理において用いられる。なお、本実施例においては、カメラ62が「第2の撮像部」に、カメラ63が「第3の撮像部」に、それぞれ相当する。
The
(C−2)領域決定処理:
第3実施例における領域決定処理の手順は、図9、図10で説明した第1実施例と同様である。
(C-2) Area determination processing:
The procedure of the area determination process in the third embodiment is the same as that in the first embodiment described with reference to FIGS.
(C−3)奥行き取得処理:
図12は、奥行き取得処理で取得する奥行き情報について説明するための説明図である。奥行き情報は、ヘッドマウントディスプレイHMbを装着した使用者の外界の環境に存在する物の奥行きに関する情報である。例えば、図12のように、ヘッドマウントディスプレイHMbの使用者が、前方に存在するリンゴを見た場合、使用者の右眼REと左眼LEとでは、見える像に差異が生じる。以降、この差異を「両眼視差」とも呼び、リンゴと、使用者の右眼REおよび左眼LEのなす輻輳角θ1として表わす。両眼視差が生じることによって、使用者はリンゴの奥行きを知覚することができる。
(C-3) Depth acquisition processing:
FIG. 12 is an explanatory diagram for describing the depth information acquired in the depth acquisition process. The depth information is information relating to the depth of an object existing in the external environment of the user wearing the head mounted display HMb. For example, as shown in FIG. 12, when the user of the head mounted display HMb looks at an apple that is present in the front, there is a difference in the visible image between the right eye RE and the left eye LE of the user. Hereinafter, this difference is also referred to as “binocular parallax”, and is expressed as an angle of convergence θ1 between the apple and the user's right eye RE and left eye LE. The binocular parallax is generated, so that the user can perceive the depth of the apple.
一方、ヘッドマウントディスプレイHMbの使用者が、リンゴよりも更に遠くに存在する花を見た場合、花と使用者の右眼REおよび左眼LEのなす輻輳角θ2は、輻輳角θ1よりも小さくなる。すなわち、図12において、使用者の両眼とリンゴとの間の距離を奥行き距離L1とし、使用者の両眼と花との間の距離を奥行き距離L2としたとき、両眼視差θ1、θ2と、奥行き距離L1、L2とは、
θ1>θ2 かつ L1<L2
の関係を満たす。換言すれば、両眼視差θの大きさは、使用者の両眼と物体との間の奥行き距離Lと反比例する。このため、奥行き取得処理では、「奥行き情報」として、両眼視差θもしくは奥行き距離Lのうちの、少なくとも一方を取得する。
On the other hand, when the user of the head mounted display HMb sees a flower that exists farther than the apple, the convergence angle θ2 formed by the flower and the user's right eye RE and left eye LE is smaller than the convergence angle θ1. Become. That is, in FIG. 12, when the distance between the user's eyes and the apple is the depth distance L1, and the distance between the user's eyes and the flower is the depth distance L2, binocular parallax θ1, θ2 And the depth distances L1 and L2 are
θ1> θ2 and L1 <L2
Satisfy the relationship. In other words, the magnitude of the binocular parallax θ is inversely proportional to the depth distance L between the user's eyes and the object. Therefore, in the depth acquisition process, at least one of binocular parallax θ or depth distance L is acquired as “depth information”.
図13は、奥行き取得処理について説明するための説明図である。奥行き決定処理において、まずAR処理部142bは、カメラ62とカメラ63とのそれぞれに、外景画像を撮像させる。図13の上段は、使用者の右眼に対応する位置に設けられたカメラ62が撮像した外景画像CP62を示す。図13の下段は、使用者の左眼に対応する位置に設けられたカメラ63が撮像した外景画像CP63を示す。AR処理部142bは、撮像された外景画像CP62と外景画像CP63とのそれぞれを画像認識して、両画像内に含まれる特定の物体についての基準点をそれぞれ特定する。基準点とは、物体の位置を特定するための基準にするための点であり、任意に定めることができる。基準点は例えば、物体の中心点とすることができる。
FIG. 13 is an explanatory diagram for explaining the depth acquisition process. In the depth determination process, the AR processing unit 142b first causes the
AR処理部142bは、外景画像CP62内の基準点と、外景画像CP63内の基準点との間のずれ量を求める。その後、AR処理部142bは、ずれ量と両眼視差θ(もしくは奥行き距離L)との対応関係を定めたテーブル等を用いて、求めたずれ量から両眼視差θもしくは奥行き距離Lを算出する。なお、ずれ量が大きいほど、両眼視差θが大きく、奥行き距離Lは小さくなる。 The AR processing unit 142b obtains a deviation amount between the reference point in the outside scene image CP62 and the reference point in the outside scene image CP63. Thereafter, the AR processing unit 142b calculates the binocular parallax θ or the depth distance L from the obtained deviation amount using a table or the like that defines the correspondence between the deviation amount and the binocular parallax θ (or the depth distance L). . Note that the larger the deviation amount, the larger the binocular parallax θ and the smaller the depth distance L.
例えば、図12の例では、AR処理部142bは、外景画像CP62内に含まれるリンゴの中心点O1と、外景画像CP63内に含まれるリンゴの中心点O2とを特定し、中心点O1と中心点O2との間のずれ量DE1を求める。そして、AR処理部142bは、前述のテーブル等を用いて、ずれ量DE1から両眼視差θ(もしくは奥行き距離L)を算出する。 For example, in the example of FIG. 12, the AR processing unit 142b specifies the apple center point O1 included in the outside scene image CP62 and the apple center point O2 included in the outside scene image CP63, and the center point O1 and the center A deviation amount DE1 from the point O2 is obtained. Then, the AR processing unit 142b calculates the binocular parallax θ (or the depth distance L) from the shift amount DE1 using the table described above.
以上のように、第3実施例によれば、AR処理部142b(拡張現実処理部)は、ヘッドマウントディスプレイHMb(頭部装着型表示装置)の装着時における使用者の右側の眼またはこめかみまたはそれらの周辺に対応する位置に配置されたカメラ62(第2の撮像部)により撮像された外景画像CP62(第2の外景画像)に含まれる特定の物体と、ヘッドマウントディスプレイHMbの装着時における使用者の左側の眼またはこめかみまたはそれらの周辺に対応する位置に配置されたカメラ63(第3の撮像部)により撮像された外景画像CP63(第3の外景画像)に含まれる特定の物体と、の間のずれ量を求め、求めたずれ量から外界における物体の奥行きに関する情報を取得することができる。この結果、AR処理部142bは、AR処理において、物体の奥行きに関する情報を用いた仮想現実を提供することができる。 As described above, according to the third embodiment, the AR processing unit 142b (augmented reality processing unit) performs the right eye or temple of the user when wearing the head mounted display HMb (head mounted display device) When a specific object included in the outside scene image CP62 (second outside scene image) captured by the camera 62 (second imaging unit) arranged at a position corresponding to the periphery of the head mounted display HMb is mounted. A specific object included in the outside scene image CP63 (third outside scene image) captured by the camera 63 (third imaging unit) disposed at a position corresponding to the left eye or temple of the user or the periphery thereof; , And the information about the depth of the object in the outside world can be acquired from the calculated amount of deviation. As a result, the AR processing unit 142b can provide virtual reality using information related to the depth of the object in the AR processing.
D.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲で種々の構成をとることができる。例えば、ソフトウェアによって実現した機能は、ハードウェアによって実現するものとしてもよい。そのほか、以下のような変形が可能である。
D. Variations:
In addition, this invention is not restricted to said Example and embodiment, A various structure can be taken in the range which does not deviate from the summary. For example, a function realized by software may be realized by hardware. In addition, the following modifications are possible.
D1.変形例1:
上記実施例では、ヘッドマウントディスプレイの構成について例示した。しかし、ヘッドマウントディスプレイの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
D1. Modification 1:
In the said Example, it illustrated about the structure of the head mounted display. However, the configuration of the head-mounted display can be arbitrarily determined without departing from the gist of the present invention. For example, each component can be added, deleted, converted, and the like.
上記実施例では、説明の便宜上、制御部が送信部を備え、画像表示部が受信部を備えるものとした。しかし、上記実施例の送信部および受信部は、いずれも、双方向通信が可能な機能を備えており、送受信部として機能することができる。 In the above embodiment, for convenience of explanation, the control unit includes a transmission unit, and the image display unit includes a reception unit. However, each of the transmission unit and the reception unit in the above embodiment has a function capable of bidirectional communication, and can function as a transmission / reception unit.
例えば、接続部を省略し、制御部と画像表示部とが無線通信可能な構成としてもよい。具体的には、制御部にさらに第1の無線通信部を備えると共に、画像表示部にさらに第2の無線通信部と電源とを備える構成とする。この場合、第1の無線通信部が上記実施例における送信部として機能し、第2の無線通信部が上記実施例における受信部として機能する。 For example, the connection unit may be omitted, and the control unit and the image display unit may be configured to perform wireless communication. Specifically, the control unit further includes a first wireless communication unit, and the image display unit further includes a second wireless communication unit and a power source. In this case, the first wireless communication unit functions as a transmission unit in the above embodiment, and the second wireless communication unit functions as a reception unit in the above embodiment.
例えば、図2に示した制御部、画像表示部の構成は任意に変更することができる。具体的には、例えば、制御部からタッチパッドを省略し、十字キーのみで操作する構成としてもよい。また、制御部に操作用スティック等の他の操作用インターフェイスを備えても良い。また、制御部にはキーボードやマウス等のデバイスを接続可能な構成として、キーボードやマウスから入力を受け付けるものとしてもよい。また、制御部にWi−Fi(wireless fidelity)等を用いた通信部を設けてもよい。 For example, the configurations of the control unit and the image display unit illustrated in FIG. 2 can be arbitrarily changed. Specifically, for example, the touch pad may be omitted from the control unit, and the operation may be performed using only the cross key. Further, the control unit may be provided with another operation interface such as an operation stick. Moreover, it is good also as what receives an input from a keyboard or a mouse | mouth as a structure which can connect devices, such as a keyboard and a mouse | mouth, to a control part. In addition, a communication unit using Wi-Fi (wireless fidelity) or the like may be provided in the control unit.
例えば、図2に示した制御部は、有線の信号伝送路を介して画像表示部と接続されているものとした。しかし、制御部と、画像表示部とは、無線LANや赤外線通信やBluetooth(登録商標)等の無線の信号伝送路を介した接続により接続されていてもよい。 For example, the control unit illustrated in FIG. 2 is connected to the image display unit via a wired signal transmission path. However, the control unit and the image display unit may be connected by a connection via a wireless signal transmission path such as a wireless LAN, infrared communication, or Bluetooth (registered trademark).
例えば、ヘッドマウントディスプレイは、両眼タイプの透過型ヘッドマウントディスプレイであるものとしたが、単眼タイプのヘッドマウントディスプレイとしてもよい。また、使用者がヘッドマウントディスプレイを装着した状態において外景の透過が遮断される非透過型ヘッドマウントディスプレイとして構成してもよい。なお、非透過型ヘッドマウントディスプレイの場合、AR処理部は、外景画像と付加画像とを重畳させた新たな付加画像データーを生成し、画像処理部は、新たな付加画像データーを表示させる。 For example, the head mounted display is a binocular transmissive head mounted display, but may be a monocular head mounted display. Further, it may be configured as a non-transmissive head mounted display in which the transmission of the outside scene is blocked when the user wears the head mounted display. In the case of the non-transmissive head mounted display, the AR processing unit generates new additional image data in which the outside scene image and the additional image are superimposed, and the image processing unit displays the new additional image data.
例えば、画像処理部、表示制御部、AR処理部、音声処理部等の機能部は、CPUがROMやハードディスクに格納されているコンピュータープログラムをRAMに展開して実行することにより実現されるものとして記載した。しかし、これら機能部は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。 For example, functional units such as an image processing unit, a display control unit, an AR processing unit, and an audio processing unit are realized by the CPU developing and executing a computer program stored in the ROM or hard disk on the RAM. Described. However, these functional units may be configured using an ASIC (Application Specific Integrated Circuit) designed to realize the function.
例えば、上記実施例では、画像表示部を眼鏡のように装着するヘッドマウントディスプレイであるとしているが、画像表示部が通常の平面型ディスプレイ装置(液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置等)であるとしてもよい。この場合にも、制御部と画像表示部との間の接続は、有線の信号伝送路を介した接続であってもよいし、無線の信号伝送路を介した接続であってもよい。このようにすれば、制御部を、通常の平面型ディスプレイ装置のリモコンとして利用することもできる。 For example, in the above-described embodiment, the image display unit is a head-mounted display that is mounted like glasses, but the image display unit is a normal flat display device (liquid crystal display device, plasma display device, organic EL display device, etc.) ). Also in this case, the connection between the control unit and the image display unit may be a connection via a wired signal transmission path or a connection via a wireless signal transmission path. If it does in this way, a control part can also be utilized as a remote control of a usual flat type display device.
また、画像表示部として、眼鏡のように装着する画像表示部に代えて、例えば帽子のように装着する画像表示部といった他の形状の画像表示部を採用してもよい。また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。 Further, as the image display unit, instead of the image display unit worn like glasses, an image display unit of another shape such as an image display unit worn like a hat may be adopted. Further, the earphone may be an ear-hook type or a headband type, or may be omitted.
例えば、上記実施例では、電源として二次電池を用いることしたが、電源としては二次電池に限らず、種々の電池を使用することができる。例えば、一次電池や、燃料電池、太陽電池、熱電池等を使用してもよい。 For example, in the above embodiment, the secondary battery is used as the power source. However, the power source is not limited to the secondary battery, and various batteries can be used. For example, a primary battery, a fuel cell, a solar cell, a thermal cell, or the like may be used.
D2.変形例2:
上記実施例では、ガイド画像の一例を挙げて説明した。しかし、ガイド画像としては上記実施例の例示に限らず、種々の変形が可能である。
D2. Modification 2:
In the above embodiment, an example of the guide image has been described. However, the guide image is not limited to the above example, and various modifications are possible.
例えば、上記第1実施例(図7)では、ガイド画像の一例として、矩形で、四隅および対角線の交点に位置する部分に円状の案内マークを有する画像を示した。しかし、例えば、矩形で、四隅のうちの2箇所(例えば、対角線上の2点)のみに案内マークを有する画像としてもよい。さらに、例えば、案内マークの形状は、円形状でなくともよく、多角形、キャラクター等の絵文字、アイコン等を採用してもよい。 For example, in the first embodiment (FIG. 7), as an example of the guide image, a rectangular image having circular guide marks at the intersections of the four corners and the diagonal line is shown. However, for example, the image may be a rectangular image having guide marks only at two of the four corners (for example, two points on a diagonal line). Furthermore, for example, the shape of the guide mark does not have to be circular, and a polygon, a pictograph such as a character, an icon, or the like may be employed.
例えば、上記第2実施例(図10)では、ガイド画像の一例として、矩形で、四隅に枠状の案内マークを有する画像を示した。しかし、例えば、矩形で、四隅のうちの2箇所(例えば、対角線上の2点)のみに枠状の案内マークを有する画像としてもよい。また、例えば、矩形の四辺全てを囲む枠状の案内マークを有する画像としてもよい。さらに、例えば、案内マークの形状は枠状でなくともよい。 For example, in the second embodiment (FIG. 10), as an example of the guide image, an image having a rectangular shape and frame-shaped guide marks at the four corners is shown. However, for example, the image may be a rectangle and have frame-shaped guide marks only at two of the four corners (for example, two points on a diagonal line). For example, it is good also as an image which has the frame-shaped guide mark surrounding all four sides of a rectangle. Further, for example, the shape of the guide mark may not be a frame shape.
D3.変形例3:
上記実施例では、領域決定処理の一例を示した。しかし、図6、図9に示した処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
D3. Modification 3:
In the said Example, an example of the area | region determination process was shown. However, the processing procedure shown in FIGS. 6 and 9 is merely an example, and various modifications are possible. For example, some steps may be omitted, and other steps may be added. Further, the order of the steps to be executed may be changed.
例えば、図6に示した領域決定処理では、「所定の目印」として使用者の指先を用いることとした。しかし、目印には任意のものを採用可能である。例えば、ペン先やポインター等の先細り形状のものを使用することができる。 For example, in the area determination process shown in FIG. 6, the user's fingertip is used as the “predetermined mark”. However, any mark can be used. For example, a tapered shape such as a pen tip or a pointer can be used.
例えば、図6に示した領域決定処理において、AR処理部は、案内マークを指差すよう案内し、外景画像を取得し、指先位置の座標を取得し、座標を保存するという一連の処理を、案内マークの個数の分だけ繰り返すこととした。しかし、案内マークを指差すよう順次案内し、全ての案内マークについて外景画像をひとまず取得した後で、取得した複数の外景画像から指先位置の座標をそれぞれ取得し、座標を保存するという処理の流れとしてもよい。 For example, in the area determination process illustrated in FIG. 6, the AR processing unit performs a series of processes of guiding the user to point the guidance mark, acquiring an outside scene image, acquiring the coordinates of the fingertip position, and storing the coordinates. It was decided to repeat for the number of guide marks. However, the flow of processing is to sequentially guide the user to point to the guide marks, acquire the outside scene images for all the guide marks, and then acquire the coordinates of the fingertip positions from the plurality of acquired outside scene images, and save the coordinates. It is good.
例えば、図9に示した領域決定処理では、「所定の目印」として紙を用いることとした。しかし、目印としては、矩形形状の側面を有する限りにおいて任意のものを採用可能である。例えば、下敷きや、ノートや、箱や、本などを用いても良い。 For example, in the area determination process shown in FIG. 9, paper is used as the “predetermined mark”. However, any mark can be used as long as it has a rectangular side surface. For example, an underlay, a notebook, a box, or a book may be used.
D4.変形例4:
上記実施例では、奥行き取得処理の一例を示した。しかし、図12、図13に示した処理の手順はあくまで一例であり、種々の変形が可能である。
D4. Modification 4:
In the said Example, an example of the depth acquisition process was shown. However, the processing procedures shown in FIGS. 12 and 13 are merely examples, and various modifications are possible.
D5.変形例5:
上記実施例では、画像光生成部は、バックライトと、バックライト制御部と、LCDと、LCD制御部とを用いて構成されるものとした。しかし、上記の態様はあくまで例示である。画像光生成部は、これらの構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えていても良い。
D5. Modification 5:
In the above embodiment, the image light generation unit is configured using a backlight, a backlight control unit, an LCD, and an LCD control unit. However, the above aspect is merely an example. The image light generation unit may include a configuration unit for realizing another method together with or in place of these configuration units.
例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としても良い。また、例えば、レーザー網膜投影型の頭部装着型表示装置に対して本発明を適用することも可能である。 For example, the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. Further, for example, the present invention can be applied to a laser retinal projection type head-mounted display device.
D6.変形例6:
上記実施例および各変形例における構成要素のうち、特許請求の範囲において独立請求項で記載された構成に対応する要素以外の要素は、付加的な要素であり、省略可能である。
D6. Modification 6:
Of the constituent elements in the above-described embodiments and modifications, elements other than the elements corresponding to the configurations described in the independent claims in the claims are additional elements and can be omitted.
10、10b…制御部(コントローラー)
12…点灯部
14…タッチパッド
16…十字キー
18…電源スイッチ
20…画像表示部
21…耳掛部
22…右表示駆動部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
54…受信部
61…カメラ(撮像部)
62…カメラ(第2の撮像部)
63…カメラ(第3の撮像部)
110…入力情報取得部
120…記憶部
122…座標情報記憶部
130…電源
140…CPU
142、142a、142b…AR処理部
160…画像処理部
170…音声処理部
180…インターフェイス
190…表示制御部
201…右バックライト制御部(画像光生成部)
202…左バックライト制御部(画像光生成部)
211…右LCD制御部(表示素子、画像光生成部)
212…左LCD制御部(表示素子、画像光生成部)
221…右バックライト(画像光生成部)
222…左バックライト(画像光生成部)
241…右LCD(表示素子、画像光生成部)
242…左LCD(表示素子、画像光生成部)
251…右投写光学系(導光部)
252…左投写光学系(導光部)
261…右導光板(導光部)
262…左導光板(導光部)
280…電源
PCLK…クロック信号
VSync…垂直同期信号
HSync…水平同期信号
Data…画像データー
Data1…右眼用画像データー
Data2…左眼用画像データー
OA…外部機器
SC…外景
VI…虚像
IL…照明光
PL…画像光
VR…視野
n…変数
CP62…外景画像(第2の外景画像)
CP63…外景画像(第3の外景画像)
O1、O2…中心点
P1〜P51…案内マーク
EA…重複領域
OB…オブジェクト
RE…右眼
LE…左眼
CG、CGa…ガイド画像
EL、ER…端部
HM、HMa、HMb…頭部装着型表示装置(ヘッドマウントディスプレイ)
AP…先端部
PP…紙
CP…外景画像
10, 10b ... Control unit (controller)
DESCRIPTION OF
62 ... Camera (second imaging unit)
63 ... Camera (third imaging unit)
DESCRIPTION OF
142, 142a, 142b ...
202 ... Left backlight control unit (image light generation unit)
211 ... Right LCD controller (display element, image light generator)
212 ... Left LCD controller (display element, image light generator)
221 ... Right backlight (image light generator)
222: Left backlight (image light generator)
241 ... Right LCD (display element, image light generator)
242 ... Left LCD (display element, image light generator)
251 ... Right projection optical system (light guide unit)
252 ... Left projection optical system (light guide)
261 ... Right light guide plate (light guide part)
262 ... Left light guide plate (light guide part)
280 ... Power supply PCLK ... Clock signal VSync ... Vertical synchronization signal HSync ... Horizontal synchronization signal Data ... Image data Data1 ... Right eye image data Data2 ... Left eye image data OA ... External device SC ... Outside view VI ... Virtual image IL ... Light illumination PL ... image light VR ... field of view n ... variable CP62 ... outside scene image (second outside scene image)
CP63 ... outside scene image (third outside scene image)
O1, O2 ... Center points P1 to P51 ... Guidance marks EA ... Overlapping area OB ... Object RE ... Right eye LE ... Left eye CG, CGa ... Guide image EL, ER ... End HM, HMa, HMb ... Head-mounted display Device (head mounted display)
AP ... tip part PP ... paper CP ... outside scene image
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。
[形態1]
虚像を外景と同時に視認可能に表示する頭部装着型表示装置であって、
前記外景を撮像する撮像手段と、
撮像された前記外景に応じて付加画像を生成する処理手段と、
生成された前記付加画像を前記虚像として表示する表示手段と、
を備え、
前記処理手段は、撮像された前記外景のうち、前記虚像の表示領域と前記撮像手段の撮像領域とが重複する重複領域を用いて前記付加画像を生成する、頭部装着型表示装置。
SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.
[Form 1]
A head-mounted display device that displays a virtual image so as to be visible at the same time as an outside scene,
Imaging means for imaging the outside scene;
Processing means for generating an additional image according to the imaged outside scene;
Display means for displaying the generated additional image as the virtual image;
With
The head-mounted display device, wherein the processing unit generates the additional image using an overlapping region in which the virtual image display region and the imaging region of the imaging unit overlap among the captured outside scene.
Claims (6)
外景を撮像して外景画像を取得する撮像部と、
取得された前記外景画像を解析すると共に、解析の結果に応じて拡張現実用の付加画像データーを生成する拡張現実処理部と、
生成された前記付加画像データーを用いて画像光を生成する表示素子と、
生成された前記画像光を用いて使用者の眼前に虚像を形成する導光部と、
を備え、
前記拡張現実処理部は、前記外景画像のうち、前記虚像の表示領域と前記撮像部の撮像領域とが重複する重複領域を取得し、前記重複領域を用いて前記付加画像データーを生成する、頭部装着型表示装置。 A head-mounted display device that allows a user to view a virtual image and an outside scene at the same time,
An imaging unit that captures an outside scene and obtains an outside scene image;
An augmented reality processing unit that analyzes the acquired outside scene image and generates additional image data for augmented reality according to a result of the analysis;
A display element that generates image light using the generated additional image data;
A light guide unit that forms a virtual image in front of the user's eyes using the generated image light; and
With
The augmented reality processing unit obtains an overlapping region in which the virtual image display region and the imaging region of the imaging unit overlap in the outside scene image, and generates the additional image data using the overlapping region. Part-mounted display device.
前記使用者に対して、前記虚像の表示領域を示すためのガイド画像データーが記憶されている記憶部を備え、
前記拡張現実処理部は、前記ガイド画像データーを用いた画像光を生成させると共に、前記使用者に対して前記虚像の表示領域に所定の目印を示すよう案内し、前記外景画像を取得させ、取得された前記外景画像を解析して得られた前記目印の位置を、前記重複領域と他の領域との境界として取得する、頭部装着型表示装置。 The head-mounted display device according to claim 1, further comprising:
A storage unit storing guide image data for indicating a display area of the virtual image for the user;
The augmented reality processing unit generates image light using the guide image data, guides the user to indicate a predetermined mark in the display area of the virtual image, and acquires and acquires the outside scene image. A head-mounted display device that acquires a position of the mark obtained by analyzing the outside scene image as a boundary between the overlapping region and another region.
前記ガイド画像データーは、前記表示素子と同じアスペクト比を有する矩形形状であって、その四隅のうちの少なくとも2箇所に配置された案内マークを含み、
前記拡張現実処理部は、前記使用者に対して、前記案内マークを指で指し示すことで前記目印を示すよう案内する、頭部装着型表示装置。 The head-mounted display device according to claim 2,
The guide image data is a rectangular shape having the same aspect ratio as the display element, and includes guide marks arranged at at least two of the four corners,
The augmented reality processing unit is a head-mounted display device that guides the user to indicate the mark by pointing the guide mark with a finger.
前記ガイド画像データーは、前記表示素子と同じアスペクト比を有する矩形形状であって、その四隅のうちの少なくとも2箇所に配置された枠状の案内マークを含み、
前記拡張現実処理部は、前記使用者に対して、前記案内マークの枠内に併せて、矩形形状の側面を有する物を配置することで前記目印を示すよう案内する、頭部装着型表示装置。 The head-mounted display device according to claim 2,
The guide image data is a rectangular shape having the same aspect ratio as the display element, and includes frame-shaped guide marks arranged at at least two of the four corners,
The augmented reality processing unit guides the user so as to show the mark by arranging an object having a rectangular side surface in the frame of the guide mark. .
前記頭部装着型表示装置の装着時における使用者の右側の眼またはこめかみまたはそれらの周辺に対応する位置に配置され、外景を撮像して第2の外景画像を取得する第2の撮像部と、
前記頭部装着型表示装置の装着時における使用者の左側の眼またはこめかみまたはそれらの周辺に対応する位置に配置され、外景を撮像して第3の外景画像を取得する第3の撮像部と、
を備え、
前記拡張現実処理部は、さらに、前記第2の外景画像に含まれる特定の物体と、前記第3の外景画像に含まれる前記特定の物体と、の間のずれ量を求め、求めた前記ずれ量から外界における前記物体の奥行きに関する情報を取得する、頭部装着型表示装置。 The head-mounted display device according to any one of claims 1 to 4, further comprising:
A second imaging unit that is disposed at a position corresponding to the right eye or temple of the user or the periphery of the user when the head-mounted display device is mounted, and that captures an external scene and obtains a second external scene image; ,
A third imaging unit that is arranged at a position corresponding to the left eye or temple of the user or the periphery of the user when the head-mounted display device is worn, and that captures the outside scene and obtains a third outside scene image; ,
With
The augmented reality processing unit further obtains a deviation amount between the specific object included in the second outside scene image and the specific object included in the third outside scene image, and calculates the deviation. A head-mounted display device that acquires information about the depth of the object in the outside world from a quantity.
(a)外景を撮像して外景画像を取得する工程と、
(b)取得された前記外景画像を解析すると共に、解析の結果に応じて拡張現実用の付加画像データーを生成する工程と、
(c)生成された前記付加画像データーを用いて画像光を生成する工程と、
(d)生成された前記画像光を用いて使用者の眼前に虚像を形成する工程と、
を備え、
前記工程(b)では、前記外景画像のうち、前記虚像の表示領域と前記工程(a)による撮像領域とが重複する重複領域を取得し、前記重複領域を用いて前記付加画像データーを生成する、頭部装着型表示装置。 A method for controlling a head-mounted display device in which a user can view a virtual image and an outside scene at the same time,
(A) capturing an outside scene and obtaining an outside scene image;
(B) analyzing the acquired outside scene image and generating additional image data for augmented reality according to the result of the analysis;
(C) generating image light using the generated additional image data;
(D) forming a virtual image in front of the user's eyes using the generated image light;
With
In the step (b), an overlapping area in which the virtual image display area and the imaging area in the step (a) overlap is acquired from the outside scene image, and the additional image data is generated using the overlapping area. Head mounted display device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016138993A JP6308249B2 (en) | 2016-07-14 | 2016-07-14 | Head-mounted display device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016138993A JP6308249B2 (en) | 2016-07-14 | 2016-07-14 | Head-mounted display device and method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012050481A Division JP5970872B2 (en) | 2012-03-07 | 2012-03-07 | Head-mounted display device and method for controlling head-mounted display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016186658A true JP2016186658A (en) | 2016-10-27 |
JP6308249B2 JP6308249B2 (en) | 2018-04-11 |
Family
ID=57203242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016138993A Active JP6308249B2 (en) | 2016-07-14 | 2016-07-14 | Head-mounted display device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6308249B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008046687A (en) * | 2006-08-10 | 2008-02-28 | Canon Inc | Photographic environment calibration method and information processor |
JP2009284175A (en) * | 2008-05-21 | 2009-12-03 | Nippon Telegr & Teleph Corp <Ntt> | Calibration method and apparatus of display |
JP2010102215A (en) * | 2008-10-27 | 2010-05-06 | Sony Computer Entertainment Inc | Display device, image processing method and computer program |
WO2010107072A1 (en) * | 2009-03-18 | 2010-09-23 | ブラザー工業株式会社 | Head-mounted display |
-
2016
- 2016-07-14 JP JP2016138993A patent/JP6308249B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008046687A (en) * | 2006-08-10 | 2008-02-28 | Canon Inc | Photographic environment calibration method and information processor |
JP2009284175A (en) * | 2008-05-21 | 2009-12-03 | Nippon Telegr & Teleph Corp <Ntt> | Calibration method and apparatus of display |
JP2010102215A (en) * | 2008-10-27 | 2010-05-06 | Sony Computer Entertainment Inc | Display device, image processing method and computer program |
WO2010107072A1 (en) * | 2009-03-18 | 2010-09-23 | ブラザー工業株式会社 | Head-mounted display |
Non-Patent Citations (1)
Title |
---|
加藤 博一 HIROKAZU KATO: "複合現実感 Mixed Reality", 日本バーチャルリアリティ学会論文誌 第4巻 第4号 TRANSACTIONS OF THE VIRTUAL REALITY SOCIETY OF J, vol. 第4巻, JPN6017035743, 31 December 1999 (1999-12-31), JP, pages 609 - 613, ISSN: 0003644168 * |
Also Published As
Publication number | Publication date |
---|---|
JP6308249B2 (en) | 2018-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5970872B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
US9965048B2 (en) | Head-mount type display device, control system, method of controlling head-mount type display device, and computer program | |
JP6337418B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
CN105607255B (en) | Head-mounted display device, method of controlling the same, and computer-readable storage medium | |
JP6232763B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
US9836120B2 (en) | Display device, method of controlling the same, and computer program | |
JP6217244B2 (en) | Image processing apparatus, head-mounted display apparatus having the same, image processing method, and computer program | |
US20150168729A1 (en) | Head mounted display device | |
JP6369005B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
US9870048B2 (en) | Head-mounted display device, method of controlling the same, and computer program | |
US10567730B2 (en) | Display device and control method therefor | |
US9799144B2 (en) | Head mounted display, and control method for head mounted display | |
US20160187662A1 (en) | Display device, and method of controlling display device | |
JP2016133399A (en) | Head-mounted display device and method of controlling head-mounted display device, and computer program | |
JP6428024B2 (en) | Display device, display device control method, and program | |
JP6252002B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
US20150168728A1 (en) | Head mounted display device | |
JP2016033763A (en) | Display device, method for controlling display device, and program | |
JP6394108B2 (en) | Head-mounted display device, control method therefor, and computer program | |
JP6308249B2 (en) | Head-mounted display device and method | |
JP6273677B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP6394174B2 (en) | Head-mounted display device, image display system, method for controlling head-mounted display device, and computer program | |
JP6287399B2 (en) | Head-mounted display device and method for controlling head-mounted display device | |
JP2019004471A (en) | Head-mounted type display device, and control method of head-mounted type display device | |
JP2016031373A (en) | Display device, display method, display system, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160804 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160804 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170704 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170901 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170919 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171031 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180213 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6308249 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |