JP2019004471A - Head-mounted type display device, and control method of head-mounted type display device - Google Patents

Head-mounted type display device, and control method of head-mounted type display device Download PDF

Info

Publication number
JP2019004471A
JP2019004471A JP2018131946A JP2018131946A JP2019004471A JP 2019004471 A JP2019004471 A JP 2019004471A JP 2018131946 A JP2018131946 A JP 2018131946A JP 2018131946 A JP2018131946 A JP 2018131946A JP 2019004471 A JP2019004471 A JP 2019004471A
Authority
JP
Japan
Prior art keywords
virtual
head
user
display device
mounted display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018131946A
Other languages
Japanese (ja)
Other versions
JP6683218B2 (en
Inventor
由貴 藤巻
Yuki Fujimaki
由貴 藤巻
直人 有賀
Naoto Ariga
直人 有賀
薫 千代
Kaoru Sendai
薫 千代
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2018131946A priority Critical patent/JP6683218B2/en
Publication of JP2019004471A publication Critical patent/JP2019004471A/en
Application granted granted Critical
Publication of JP6683218B2 publication Critical patent/JP6683218B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide augmented reality in which visual discomfort of a user has been alleviated by fusing a virtual object in an outside view in consideration of various conditions related to display environment of a virtual image.SOLUTION: A head-mounted type display device that allows a user to visually recognize a virtual image and an outside view includes: an image display section that allows the user to visually recognize the virtual image; and an augmented reality processing section that causes the image display section to form a virtual image, which represents a virtual object being an object for providing augmented reality to the user, the virtual object having alleviated visual discomfort of the user.SELECTED DRAWING: Figure 4

Description

本発明は、頭部装着型表示装置に関する。   The present invention relates to a head-mounted display device.

観察者の頭部に装着されて用いられることによって、観察者の視野領域に虚像を形成する頭部装着型表示装置が知られている。この頭部装着型表示装置は、ヘッドマウントディスプレイ(HMD:Head Mounted Display)とも呼ばれ、頭部装着型表示装置を装着した状態において使用者の視界が遮断される非透過型の頭部装着型表示装置と、頭部装着型表示装置を装着した状態で使用者の視界が遮断されない透過型の頭部装着型表示装置とがある。   2. Description of the Related Art A head-mounted display device that forms a virtual image in a visual field region of an observer by being used on the observer's head is known. This head-mounted display device is also called a head-mounted display (HMD), and is a non-transparent head-mounted display device that blocks the user's field of view when the head-mounted display device is mounted. There are a display device and a transmissive head-mounted display device in which the user's field of view is not blocked when the head-mounted display device is mounted.

一方、現実環境にコンピューターを用いて情報を付加提示する拡張現実感(AR、Augmented Reality)と呼ばれる技術が知られている。拡張現実感を実現する方法として、画像認識による方法と、パススルー方式に基づく方法と、が知られている。画像認識による方法の場合、例えばWEBカメラ等で撮像された外景の画像を画像認識することで仮想オブジェクトが生成される。パススルー方式に基づく方法の場合、例えばGPS等で取得された現在位置情報と、例えば電子コンパス等で取得された方位情報とを用いて仮想オブジェクトが生成される。非透過型の頭部装着型表示装置では、外景の画像と、上記のようにして生成された仮想オブジェクトとを重畳させた画像が、液晶ディスプレイに表示される。これにより、使用者は拡張現実感を体感することができる。透過型の頭部装着型表示装置では、上記のようにして生成された仮想オブジェクトのみが液晶ディスプレイに表示される。使用者は、液晶ディスプレイを介して虚像として表示された仮想オブジェクトと、目前のレンズを透過して見える実際の外景との両方を視認することで、拡張現実感を体感することができる。このため、光学透過型の頭部装着型表示装置において使用者の視覚的な違和感を緩和した拡張現実感を提供するためには、使用者が実際に目にする外景に対して、虚像として表示される仮想オブジェクトを融像させる必要がある。   On the other hand, a technique called augmented reality (AR) is known in which information is additionally presented to a real environment using a computer. As methods for realizing augmented reality, a method based on image recognition and a method based on a pass-through method are known. In the case of the method based on image recognition, for example, a virtual object is generated by recognizing an image of an outside scene captured by a WEB camera or the like. In the case of a method based on the pass-through method, a virtual object is generated using current position information acquired by, for example, GPS and azimuth information acquired by, for example, an electronic compass. In the non-transmissive head-mounted display device, an image obtained by superimposing the image of the outside scene and the virtual object generated as described above is displayed on the liquid crystal display. Thereby, the user can experience augmented reality. In the transmissive head-mounted display device, only the virtual object generated as described above is displayed on the liquid crystal display. The user can experience augmented reality by visually recognizing both the virtual object displayed as a virtual image via the liquid crystal display and the actual outside scene that is seen through the front lens. For this reason, in order to provide an augmented reality that alleviates the user's visual discomfort in an optically transmissive head-mounted display device, it is displayed as a virtual image with respect to the outside scene that the user actually sees. It is necessary to fuse the virtual object to be created.

特許文献1には、外景に仮想オブジェクトを融像させるために、使用者から外景に含まれる実オブジェクトまでの距離と、仮想オブジェクトまでの距離とを、略同じ距離とする技術が記載されている。特許文献1では、使用者と実オブジェクトとの間の距離Dを求め、距離Dから実オブジェクトの輻輳角θを決定し、実オブジェクトの輻輳角θ±40分となるような仮想オブジェクトの輻輳角を演算して、演算した輻輳角を実現する右眼用の画像データーと、左眼用の画像データーとを生成する。特許文献2には、外景に仮想オブジェクトを融像させるために、仮想オブジェクトの輻輳角を調節可能とする技術が記載されている。特許文献3には、非透過型の頭部装着型表示装置において使用者の視覚的な違和感を緩和した拡張現実感を提供するために、外景画像を撮像するためのカメラを、予め測定した撮像パラメーターに応じて調整する技術が記載されている。   Patent Document 1 describes a technique in which a distance from a user to a real object included in the outside scene and a distance to the virtual object are approximately the same distance in order to fuse the virtual object to the outside scene. . In Patent Document 1, a distance D between a user and a real object is obtained, a convergence angle θ of the real object is determined from the distance D, and a convergence angle of the virtual object such that the convergence angle θ ± 40 minutes of the real object is obtained. To generate image data for the right eye that realizes the calculated convergence angle and image data for the left eye. Japanese Patent Application Laid-Open No. 2004-228561 describes a technique that enables the convergence angle of a virtual object to be adjusted in order to fuse the virtual object to the outside scene. In Patent Document 3, in order to provide an augmented reality in which a user's visual discomfort is alleviated in a non-transmissive head-mounted display device, a camera for capturing an outside scene image is measured in advance. A technique for adjusting according to the parameters is described.

特許文献4および特許文献5には、外景に仮想オブジェクトを重畳させた際の違和感を低減するために、カメラで撮影された使用者の視線方向の画像から、肌色などの特定色領域を切り出して、仮想オブジェクトをマスキングする技術が記載されている。   In Patent Document 4 and Patent Document 5, a specific color region such as skin color is cut out from an image in a user's line-of-sight direction captured by a camera in order to reduce a sense of discomfort when a virtual object is superimposed on an outside scene. A technique for masking a virtual object is described.

特許第3717653号公報Japanese Patent No. 3717653 特開平5−328408号公報JP-A-5-328408 特開2008−227865号公報JP 2008-227865 A 特開2005−346468号公報JP 2005-346468 A 特開2003−296759号公報JP 2003-296759 A

頭部装着型表示装置において、狙った輻輳角で仮想オブジェクトの虚像を立体表示させるためには、例えば、液晶ディスプレイの大きさ、使用者の左右の眼前に表示される虚像間の距離、使用者の眼間距離、といった虚像の表示環境に関する種々の条件を考慮することが必要である。しかし、特許文献1および特許文献2に記載の技術では、この点について十分な考慮がなされていないという問題があった。また、特許文献3に記載の技術では、光学透過型の頭部装着型表示装置を対象としていない。このため、虚像の表示環境に関する種々の条件を考慮して外景に仮想オブジェクトを融像させることで、使用者の視覚的な違和感を緩和した拡張現実感を提供可能な光学透過型の頭部装着型表示装置が望まれていた。   In the head-mounted display device, in order to stereoscopically display the virtual image of the virtual object at the targeted convergence angle, for example, the size of the liquid crystal display, the distance between the virtual images displayed in front of the left and right eyes of the user, the user It is necessary to consider various conditions relating to the virtual image display environment, such as the interocular distance. However, the techniques described in Patent Document 1 and Patent Document 2 have a problem that sufficient consideration has not been made in this regard. The technique described in Patent Document 3 does not target an optically transmissive head-mounted display device. For this reason, an optically transmissive head mounted that can provide augmented reality that eases the user's visual discomfort by fusing virtual objects to the outside scene in consideration of various conditions related to the virtual image display environment A type display device has been desired.

また、特許文献4および特許文献5の記載の技術では、カメラで撮影された画像に基づいて仮想オブジェクトを加工するため、現実世界において見られるような、前後関係が複雑な複数の物体や、色彩が似通った物体について、仮想オブジェクトの加工の精度が確保できないという問題があった。このため、より精度よく仮想オブジェクトを外景に融像させることで、使用者の視覚的な違和感を緩和した拡張現実感を提供可能な光学透過型の頭部装着型表示装置が望まれていた。   Further, in the techniques described in Patent Document 4 and Patent Document 5, a virtual object is processed based on an image photographed by a camera. There is a problem that the accuracy of the processing of the virtual object cannot be secured for the objects having similarities. For this reason, there has been a demand for an optically transmissive head-mounted display device that can provide an augmented reality in which a user's visual discomfort is reduced by fusing a virtual object to the outside scene with higher accuracy.

以上のように、使用者の視覚的な違和感を緩和した拡張現実感を提供可能な光学透過型の頭部装着型表示装置が望まれていた。   As described above, there has been a demand for an optically transmissive head-mounted display device that can provide an augmented reality that reduces the user's visual discomfort.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.

(1)本発明の一形態によれば、使用者が虚像と外景を視認可能な頭部装着型表示装置が提供される。この頭部装着型表示装置は;前記使用者に前記虚像を視認させる画像表示部と;前記使用者に拡張現実感を与えるためのオブジェクトである仮想オブジェクトであって、前記使用者の視覚的な違和感が緩和された前記仮想オブジェクトを表す前記虚像を、前記画像表示部に形成させる拡張現実処理部と、を備える、頭部装着型表示装置。この形態の頭部装着型表示装置によれば、画像表示部は、使用者の視覚的な違和感が緩和された仮想オブジェクトを虚像として使用者に視認させる。このため、使用者の視覚的な違和感を緩和した拡張現実感を提供可能な光学透過型の頭部装着型表示装置を提供することができる。 (1) According to an aspect of the present invention, a head-mounted display device that allows a user to visually recognize a virtual image and an outside scene is provided. The head-mounted display device includes: an image display unit that allows the user to visually recognize the virtual image; and a virtual object that is an object for giving the user an augmented reality, A head-mounted display device comprising: an augmented reality processing unit that causes the image display unit to form the virtual image representing the virtual object with a sense of incongruity. According to this form of the head-mounted display device, the image display unit causes the user to visually recognize the virtual object in which the user's visual discomfort is alleviated as a virtual image. Therefore, it is possible to provide an optically transmissive head-mounted display device that can provide an augmented reality that alleviates the user's visual discomfort.

(2)上記形態の頭部装着型表示装置において;前記拡張現実処理部は、前記使用者の周囲の環境を3次元空間内の仮想的な立体物として表現した3次元情報を用いて、前記仮想オブジェクトを前記環境に調和させることで、前記仮想オブジェクトに対する前記違和感を緩和してもよい。この形態の頭部装着型表示装置によれば、拡張現実処理部は、仮想オブジェクトを周囲の環境に調和させる。これにより、画像表示部は、使用者の視覚的な違和感が緩和された仮想オブジェクトを虚像として使用者に視認させることができる。また、拡張現実処理部は、3次元情報を用いて仮想オブジェクトを周囲の環境に調和させる。このため、カメラで撮影された画像に基づいて仮想オブジェクトを周囲の環境に調和させる場合と比較して、調和の精度を向上させることができる。 (2) In the head-mounted display device of the above aspect; the augmented reality processing unit uses the three-dimensional information representing the environment around the user as a virtual three-dimensional object in a three-dimensional space, The uncomfortable feeling with respect to the virtual object may be alleviated by harmonizing the virtual object with the environment. According to this form of the head-mounted display device, the augmented reality processing unit harmonizes the virtual object with the surrounding environment. Thereby, the image display part can make a user visually recognize the virtual object by which the user's visual discomfort was eased as a virtual image. The augmented reality processing unit uses the three-dimensional information to harmonize the virtual object with the surrounding environment. For this reason, compared with the case where a virtual object is harmonized with the surrounding environment based on the image image | photographed with the camera, the precision of harmony can be improved.

(3)上記形態の頭部装着型表示装置において;前記拡張現実処理部は;前記3次元情報内に前記仮想オブジェクトを配置し;前記仮想オブジェクトと前記3次元情報とのうちの少なくとも一方に対して、前記環境に応じた視覚効果を加えた後、前記仮想オブジェクトを2次元化することで、前記仮想オブジェクトに対する前記違和感を緩和してもよい。この形態の頭部装着型表示装置によれば、拡張現実処理部は、3次元情報を用いて、仮想オブジェクトに周囲の環境に応じた視覚効果を加えることができる。 (3) In the head-mounted display device of the above aspect; the augmented reality processing unit; arranges the virtual object in the three-dimensional information; for at least one of the virtual object and the three-dimensional information Then, after applying a visual effect according to the environment, the sense of discomfort with the virtual object may be alleviated by making the virtual object two-dimensional. According to this form of the head-mounted display device, the augmented reality processing unit can add a visual effect corresponding to the surrounding environment to the virtual object using the three-dimensional information.

(4)上記形態の頭部装着型表示装置において;前記環境に応じた視覚効果は、少なくとも;前記仮想オブジェクトのうち前記3次元情報内の前記立体物の陰になる部分のトリミングと;前記環境に準じた前記仮想オブジェクトのライティングと;前記環境に準じて設定された前記3次元情報内の前記立体物の反発係数と摩擦係数との少なくとも一方に基づく、前記仮想オブジェクトの挙動の調整と、のうちのいずれか一つを含んでもよい。この形態の頭部装着型表示装置によれば、拡張現実処理部は、仮想オブジェクトに対して、環境に準じたトリミング、環境に準じたライティング、環境に準じた挙動の調整のうち、少なくともいずれかの視覚効果を加えることができる。 (4) In the head-mounted display device according to the above aspect; the visual effect according to the environment is at least; trimming a portion of the virtual object that is behind the three-dimensional object in the three-dimensional information; Lighting the virtual object according to the control; adjusting the behavior of the virtual object based on at least one of the coefficient of restitution and the coefficient of friction of the three-dimensional object in the three-dimensional information set according to the environment; Any one of them may be included. According to this form of the head-mounted display device, the augmented reality processing unit performs at least one of trimming according to the environment, lighting according to the environment, and behavior adjustment according to the environment with respect to the virtual object. Can add visual effects.

(5)上記形態の頭部装着型表示装置では、さらに;前記頭部装着型表示装置を装着した状態における前記使用者の視界方向の画像を取得する画像取得部を備え;前記拡張現実処理部は、前記画像取得部によって取得された前記視界方向の画像を画像認識することで、前記環境を推定してもよい。この形態の頭部装着型表示装置によれば、拡張現実処理部は、使用者の視界方向の画像を画像認識することで、自動的に、使用者の周囲の環境を推定することができる。 (5) The head-mounted display device according to the above aspect further includes: an image acquisition unit that acquires an image of the user's visual field direction when the head-mounted display device is mounted; and the augmented reality processing unit May estimate the environment by recognizing the image in the viewing direction acquired by the image acquisition unit. According to the head-mounted display device of this aspect, the augmented reality processing unit can automatically estimate the environment around the user by recognizing the image in the user's field of view.

(6)上記形態の頭部装着型表示装置において;前記拡張現実処理部は、前記仮想オブジェクトを2次元化する際に、前記使用者の眼から前記使用者の注視点までの間の距離を考慮してもよい。この形態の頭部装着型表示装置によれば、拡張現実処理部は、仮想オブジェクトを2次元化する際に使用者の眼から使用者の注視点までの間の距離を考慮する。このため、例えば、使用者の注視点から外れた位置の仮想オブジェクトに対して、ピンボケ効果を追加することも可能となる。 (6) In the head-mounted display device of the above aspect, the augmented reality processing unit calculates a distance from the user's eye to the user's gaze point when the virtual object is two-dimensionalized. You may consider it. According to this form of the head-mounted display device, the augmented reality processing unit considers the distance from the user's eye to the user's gaze point when two-dimensionalizing the virtual object. For this reason, for example, it is possible to add a defocus effect to a virtual object at a position deviating from the user's gaze point.

(7)上記形態の頭部装着型表示装置において;前記拡張現実処理部は、前記仮想オブジェクトを表す右眼用の右眼用画像データーと、左眼用の左眼用画像データーとを生成することで、前記仮想オブジェクトに対して、前記仮想オブジェクトの立体視を可能にするための視覚効果を加えて前記仮想オブジェクトに対する前記違和感を緩和し;前記画像表示部は、前記右眼用画像データーと、前記左眼用画像データーとを用いて、前記使用者の左右の眼に異なる前記虚像を視認させ;さらに、同一の前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第1の輻輳角と、左右にずらした前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第2の輻輳角と、の差分を記憶する画素視差角記憶部を備え;前記拡張現実処理部は、前記画素視差角記憶部に記憶されている前記差分を用いて、前記外景に前記仮想オブジェクトを融像させるための前記右眼用画像データーと前記左眼用画像データーとを生成してもよい。この形態の頭部装着型表示装置によれば、画素視差角記憶部に記憶されている差分は、同一の右眼用画像データーと左眼用画像データーとに基づいて表示された虚像の第1の輻輳角と、左右にずらした右眼用画像データーと左眼用画像データーとに基づいて表示された虚像の第2の輻輳角との差分である。このため、画素視差角記憶部に記憶されている差分は、左右にずれた画像データーによって実現される視差角であって、虚像の表示環境に関する種々の条件を考慮して定められた視差角であると言える。従って、拡張現実処理部は、画素視差角記憶部に記憶されている差分を用いて、虚像の表示環境に関する種々の条件を考慮して、外景に仮想オブジェクトを融像させるための右眼用画像データーと左眼用画像データーとを生成することができる。このように、拡張現実処理部は、画像データーの生成の際、虚像の表示環境に関する種々の条件を考慮して外景に仮想オブジェクトを融像させるため、使用者の視覚的な違和感を緩和した拡張現実感を提供可能な頭部装着型表示装置を実現することができる。 (7) In the head-mounted display device of the above aspect, the augmented reality processing unit generates right eye image data for the right eye and left eye image data for the left eye representing the virtual object. Thus, a visual effect for enabling stereoscopic viewing of the virtual object is added to the virtual object to alleviate the uncomfortable feeling with respect to the virtual object; and the image display unit includes the right-eye image data and The left eye image data is used to cause the left and right eyes of the user to visually recognize different virtual images; and further, displayed based on the same right eye image data and left eye image data. The difference between the first convergence angle of the virtual image and the second convergence angle of the virtual image displayed based on the right-eye image data and the left-eye image data shifted to the left and right is stored. A parallax angle storage unit; and the augmented reality processing unit uses the difference stored in the pixel parallax angle storage unit to fuse the virtual object to the outside scene. And the left-eye image data may be generated. According to the head-mounted display device of this aspect, the difference stored in the pixel parallax angle storage unit is the first virtual image displayed based on the same right-eye image data and left-eye image data. And the second convergence angle of the virtual image displayed based on the right-eye image data and the left-eye image data shifted to the left and right. For this reason, the difference stored in the pixel parallax angle storage unit is a parallax angle realized by image data shifted to the left and right, and is a parallax angle determined in consideration of various conditions regarding the virtual image display environment. It can be said that there is. Therefore, the augmented reality processing unit uses the difference stored in the pixel parallax angle storage unit and considers various conditions related to the virtual image display environment, and fuses the virtual object to the outside scene. Data and image data for the left eye can be generated. In this way, the augmented reality processing unit fuses the virtual object to the outside scene in consideration of various conditions related to the virtual image display environment when generating the image data, so that the user's visual discomfort is alleviated. A head-mounted display device that can provide a sense of reality can be realized.

(8)上記形態の頭部装着型表示装置において;前記拡張現実処理部は;前記使用者に前記仮想オブジェクトを視認させる目標距離を決定し;決定した前記目標距離から、前記目標距離における輻輳角である目標輻輳角を算出し;算出した前記目標輻輳角と前記第1の輻輳角とを用いて、前記目標距離における視差角である目標視差角を算出し;前記目標視差角と、前記画素視差角記憶部に記憶されている前記差分とを用いて、前記仮想オブジェクトを表す単一の画像データーから、前記右眼用画像データーと前記左眼用画像データーとを生成してもよい。この形態の頭部装着型表示装置によれば、拡張現実処理部は、使用者に仮想オブジェクトを視認させる目標距離を決定し、決定した目標距離から目標距離における輻輳角である目標輻輳角を算出し、算出した目標輻輳角と第1の輻輳角とを用いて、目標距離における視差角である目標視差角を算出する。拡張現実処理部は、このようにして算出した目標視差角と、画素視差角記憶部に記憶されている差分とを用いることで、仮想オブジェクトを表す単一の画像データーから、異なる右眼用画像データーと左眼用画像データーとを生成することができる。 (8) In the head-mounted display device of the above aspect; the augmented reality processing unit; determines a target distance for allowing the user to visually recognize the virtual object; and a convergence angle at the target distance from the determined target distance A target convergence angle is calculated; using the calculated target convergence angle and the first convergence angle, a target parallax angle that is a parallax angle at the target distance is calculated; the target parallax angle and the pixel The right eye image data and the left eye image data may be generated from a single image data representing the virtual object using the difference stored in the parallax angle storage unit. According to this form of the head-mounted display device, the augmented reality processing unit determines a target distance for allowing the user to visually recognize the virtual object, and calculates a target convergence angle that is a convergence angle at the target distance from the determined target distance. Then, using the calculated target convergence angle and the first convergence angle, a target parallax angle that is a parallax angle at the target distance is calculated. The augmented reality processing unit uses the target parallax angle calculated in this way and the difference stored in the pixel parallax angle storage unit, so that different right-eye images can be obtained from a single image data representing the virtual object. Data and image data for the left eye can be generated.

(9)上記形態の頭部装着型表示装置において;前記拡張現実処理部は;前記使用者に前記仮想オブジェクトを視認させる目標距離を決定し;決定した前記目標距離に基づいて、3Dモデル空間上に2D投影画像を取得するための2箇所の仮想カメラを設定し;決定した前記目標距離から、前記目標距離における輻輳角である目標輻輳角を算出し;算出した前記目標輻輳角と前記第1の輻輳角とを用いて、前記目標距離における視差角である目標視差角を算出し;前記目標視差角と、前記画素視差角記憶部に記憶されている前記差分とを用いて、一方の前記仮想カメラによる2D投影画像をスケーリングして前記右眼用画像データーを生成し、他方の前記仮想カメラによる2D投影画像をスケーリングして前記左眼用画像データーを生成してもよい。この形態の頭部装着型表示装置によれば、拡張現実処理部は、使用者に仮想オブジェクトを視認させる目標距離を決定し、決定した目標距離から目標距離における輻輳角である目標輻輳角を算出し、算出した目標輻輳角と第1の輻輳角とを用いて、目標距離における視差角である目標視差角を算出する。拡張現実処理部は、このようにして算出した目標視差角と、画素視差角記憶部に記憶されている差分とを用いることで、2箇所の仮想カメラによる2D投影画像をそれぞれスケーリングして、右眼用画像データーと左眼用画像データーとを生成することができる。 (9) In the head-mounted display device of the above aspect; the augmented reality processing unit; determines a target distance for allowing the user to visually recognize the virtual object; on the 3D model space based on the determined target distance Two virtual cameras for acquiring a 2D projection image are set; a target convergence angle that is a convergence angle at the target distance is calculated from the determined target distance; the calculated target convergence angle and the first The target parallax angle, which is a parallax angle at the target distance, is calculated using the convergence angle of the target parallax; using the target parallax angle and the difference stored in the pixel parallax angle storage unit, The right-eye image data is generated by scaling the 2D projection image by the virtual camera, and the left-eye image data is generated by scaling the 2D projection image by the other virtual camera. Good. According to this form of the head-mounted display device, the augmented reality processing unit determines a target distance for allowing the user to visually recognize the virtual object, and calculates a target convergence angle that is a convergence angle at the target distance from the determined target distance. Then, using the calculated target convergence angle and the first convergence angle, a target parallax angle that is a parallax angle at the target distance is calculated. The augmented reality processing unit uses the target parallax angle calculated in this way and the difference stored in the pixel parallax angle storage unit to scale the 2D projection images from the two virtual cameras, respectively, Eye image data and left eye image data can be generated.

(10)上記形態の頭部装着型表示装置では、さらに;前記使用者の眼間距離を記憶する眼間距離記憶部を備え;前記拡張現実処理部は、前記2箇所の仮想カメラを設定する際、前記決定した目標距離に基づいて、3Dモデル空間上に仮想的な視点である仮想視点を配置し、配置された前記仮想視点から眼間距離/2離れた位置に一方の仮想カメラを配置し、配置された前記仮想視点から眼間距離/2離れた位置に他方の仮想カメラを配置してもよい。この形態の頭部装着型表示装置によれば、拡張現実処理部は、3Dモデル空間上に仮想カメラを設定する際、まず、使用者に仮想オブジェクトを視認させる目標距離に基づいて仮想視点を配置する。そして、拡張現実処理部は、配置された仮想視点から眼間距離/2離れた位置に一方の仮想カメラを配置し、配置された仮想視点から眼間距離/2離れた位置に他方の仮想カメラを配置する。この結果、仮想カメラは、使用者に仮想オブジェクトを視認させる目標距離と、使用者の眼間距離との両方を考慮した2D投影画像を取得することができる。 (10) The head-mounted display device of the above aspect further includes: an interocular distance storage unit that stores the interocular distance of the user; the augmented reality processing unit sets the two virtual cameras At this time, based on the determined target distance, a virtual viewpoint, which is a virtual viewpoint, is arranged in the 3D model space, and one virtual camera is arranged at a position away from the arranged virtual viewpoint by an interocular distance / 2. Then, the other virtual camera may be arranged at a position that is a distance of the interocular distance / 2 from the arranged virtual viewpoint. According to the head mounted display device of this aspect, when setting the virtual camera on the 3D model space, the augmented reality processing unit first arranges the virtual viewpoint based on the target distance that allows the user to visually recognize the virtual object. To do. Then, the augmented reality processing unit arranges one virtual camera at a position that is an interocular distance / 2 away from the arranged virtual viewpoint, and the other virtual camera at a position that is an interocular distance / 2 away from the arranged virtual viewpoint. Place. As a result, the virtual camera can acquire a 2D projection image in consideration of both the target distance for allowing the user to visually recognize the virtual object and the interocular distance of the user.

(11)上記形態の頭部装着型表示装置では、さらに;前記使用者の瞳孔間距離を測定する瞳孔間距離測定部を備え;前記瞳孔間距離測定部による測定結果は、前記眼間距離として前記眼間距離記憶部に記憶されてもよい。この形態の頭部装着型表示装置によれば、使用者ごとにそれぞれ瞳孔間距離を測定して眼間距離記憶部を更新するため、使用者に応じた瞳孔間距離を、眼間距離記憶部に記憶させることができる。 (11) The head-mounted display device of the above aspect further includes: an interpupillary distance measuring unit that measures the interpupillary distance of the user; a measurement result by the interpupillary distance measuring unit is the interocular distance. It may be stored in the interocular distance storage unit. According to the head-mounted display device of this aspect, the interpupillary distance according to the user is determined by measuring the interpupillary distance for each user and updating the interocular distance storage unit. Can be memorized.

上述した本発明の各形態の有する複数の構成要素は全てが必須のものではなく、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、適宜、前記複数の構成要素の一部の構成要素について、その変更、削除、新たな構成要素との差し替え、限定内容の一部削除を行うことが可能である。また、上述の課題の一部または全部を解決するため、あるいは、本明細書に記載された効果の一部または全部を達成するために、上述した本発明の一形態に含まれる技術的特徴の一部または全部を上述した本発明の他の形態に含まれる技術的特徴の一部または全部と組み合わせて、本発明の独立した一形態とすることも可能である。   A plurality of constituent elements of each embodiment of the present invention described above are not essential, and some or all of the effects described in the present specification are to be solved to solve part or all of the above-described problems. In order to achieve the above, it is possible to appropriately change, delete, replace with a new component, and partially delete the limited contents of some of the plurality of components. In order to solve some or all of the above-described problems or achieve some or all of the effects described in this specification, technical features included in one embodiment of the present invention described above. A part or all of the technical features included in the other aspects of the present invention described above may be combined to form an independent form of the present invention.

例えば、本発明の一形態は、拡張現実処理部と、画像表示部と、画素視差角記憶部と、の3つの要素のうちの一部または全部の要素を備えた装置として実現可能である。すなわち、この装置は、拡張現実処理部を有していてもよく、有していなくてもよい。また、この装置は、画像表示部を有していてもよく、有していなくてもよい。また、この装置は、画素視差角記憶部を有していてもよく、有していなくてもよい。こうした装置は、例えば頭部装着型表示装置として実現できるが、頭部装着型表示装置以外の他の装置としても実現可能である。前述した頭部装着型表示装置の各形態の技術的特徴の一部または全部は、いずれもこの装置に適用することが可能である。   For example, an aspect of the present invention can be realized as an apparatus including some or all of the three elements of the augmented reality processing unit, the image display unit, and the pixel parallax angle storage unit. That is, this apparatus may or may not have the augmented reality processing unit. Moreover, this apparatus may or may not have an image display unit. In addition, this apparatus may or may not have a pixel parallax angle storage unit. Such a device can be realized, for example, as a head-mounted display device, but can also be realized as a device other than the head-mounted display device. Any or all of the technical features of each form of the head-mounted display device described above can be applied to this device.

なお、本発明は、種々の態様で実現することが可能であり、例えば、頭部装着型表示装置および頭部装着型表示装置の制御方法、頭部装着型表示システム、これらの方法、装置またはシステムの機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体等の形態で実現することができる。   The present invention can be realized in various modes. For example, a head-mounted display device and a head-mounted display device control method, a head-mounted display system, these methods, devices, or The present invention can be realized in the form of a computer program for realizing the function of the system, a recording medium on which the computer program is recorded, or the like.

本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。It is explanatory drawing which shows schematic structure of the head mounted display apparatus in one Embodiment of this invention. ヘッドマウントディスプレイの構成を機能的に示すブロック図である。It is a block diagram which shows the composition of a head mount display functionally. 使用者に視認される虚像の一例を示す説明図である。It is explanatory drawing which shows an example of the virtual image visually recognized by the user. 拡張現実処理の手順を説明するための説明図である。It is explanatory drawing for demonstrating the procedure of an augmented reality process. 眼間距離と画素視差角について説明するための説明図である。It is explanatory drawing for demonstrating an interocular distance and a pixel parallax angle. AR処理部が、画像データーから、右眼用画像データーと左眼用画像データーとを生成する様子を示す説明図である。It is explanatory drawing which shows a mode that AR process part produces | generates the image data for right eyes, and the image data for left eyes from image data. 第2実施例における拡張現実処理の手順を表すフローチャートである。It is a flowchart showing the procedure of the augmented reality process in 2nd Example. 第2実施例における拡張現実処理の詳細を説明するための説明図である。It is explanatory drawing for demonstrating the detail of the augmented reality process in 2nd Example. AR処理部が、仮想視点に配置された仮想カメラの2D投影画像を用いて、投影により得られた画像をスケーリングする様子を示す説明図である。It is explanatory drawing which shows a mode that AR process part scales the image obtained by projection using the 2D projection image of the virtual camera arrange | positioned at the virtual viewpoint. 第3実施例における拡張現実処理の手順を表すフローチャートである。It is a flowchart showing the procedure of the augmented reality process in 3rd Example. 第2実施形態におけるヘッドマウントディスプレイの構成を機能的に示すブロック図である。It is a block diagram which shows functionally the structure of the head mounted display in 2nd Embodiment. 第2実施形態における拡張現実処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the augmented reality process in 2nd Embodiment. マスクオブジェクトの一例を示す説明図である。It is explanatory drawing which shows an example of a mask object. マスクオブジェクトに対する仮想オブジェクトの配置の一例を示す説明図である。It is explanatory drawing which shows an example of arrangement | positioning of the virtual object with respect to a mask object. ライティング実施後の仮想オブジェクトの様子を示す説明図である。It is explanatory drawing which shows the mode of the virtual object after implementation of lighting. 反発係数と摩擦係数とに基づいて仮想オブジェクトの挙動が調整される様子を示す説明図である。It is explanatory drawing which shows a mode that the behavior of a virtual object is adjusted based on a restitution coefficient and a friction coefficient. 仮想カメラの2D投影により得られた画像データーを示す説明図である。It is explanatory drawing which shows the image data obtained by 2D projection of a virtual camera. 第2実施形態の拡張現実処理において使用者に視認される虚像の一例を示す説明図である。It is explanatory drawing which shows an example of the virtual image visually recognized by the user in the augmented reality process of 2nd Embodiment. 変形例におけるヘッドマウントディスプレイの外観の構成を示す説明図である。It is explanatory drawing which shows the structure of the external appearance of the head mounted display in a modification.

A.第1実施形態:
A−1.頭部装着型表示装置の構成:
図1は、本発明の一実施形態における頭部装着型表示装置の概略構成を示す説明図である。頭部装着型表示装置100は、頭部に装着する表示装置であり、ヘッドマウントディスプレイ(Head Mounted Display、HMD)とも呼ばれる。本実施形態のヘッドマウントディスプレイ100は、使用者が、虚像を視認すると同時に外景も直接視認可能な光学透過型の頭部装着型表示装置である。
A. First embodiment:
A-1. Configuration of head mounted display device:
FIG. 1 is an explanatory diagram showing a schematic configuration of a head-mounted display device according to an embodiment of the present invention. The head-mounted display device 100 is a display device mounted on the head, and is also called a head mounted display (HMD). The head mounted display 100 according to the present embodiment is an optically transmissive head-mounted display device that allows a user to visually recognize a virtual image and at the same time directly view an outside scene.

ヘッドマウントディスプレイ100は、使用者の頭部に装着された状態において使用者に虚像を視認させる画像表示部20と、画像表示部20を制御する制御部(コントローラー)10とを備えている。   The head-mounted display 100 includes an image display unit 20 that allows a user to visually recognize a virtual image when attached to the user's head, and a control unit (controller) 10 that controls the image display unit 20.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、瞳孔間距離測定部62と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。   The image display unit 20 is a mounting body that is mounted on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61. And an interpupillary distance measuring unit 62. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右保持部21および左保持部23は、眼鏡のテンプル(つる)のようにして、使用者の頭部に画像表示部20を保持する。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right holding unit 21 and the left holding unit 23 hold the image display unit 20 on the user's head like a temple of glasses.

右表示駆動部22は、右保持部21の内側、換言すれば、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。また、左表示駆動部24は、左保持部23の内側に配置されている。なお、以降では、右保持部21および左保持部23を総称して単に「保持部」とも呼び、右表示駆動部22および左表示駆動部24を総称して単に「表示駆動部」とも呼び、右光学像表示部26および左光学像表示部28を総称して単に「光学像表示部」とも呼ぶ。   The right display drive unit 22 is disposed inside the right holding unit 21, in other words, on the side facing the user's head when the user wears the image display unit 20. Further, the left display driving unit 24 is disposed inside the left holding unit 23. Hereinafter, the right holding unit 21 and the left holding unit 23 are collectively referred to simply as “holding unit”, and the right display driving unit 22 and the left display driving unit 24 are collectively referred to simply as “display driving unit”. The right optical image display unit 26 and the left optical image display unit 28 are collectively referred to simply as “optical image display unit”.

表示駆動部は、液晶ディスプレイ(Liquid Crystal Display、以下「LCD」と呼ぶ)241、242や投写光学系251、252等を含む(図2参照)。表示駆動部の構成の詳細は後述する。光学部材としての光学像表示部は、導光板261、262(図2参照)と調光板とを含んでいる。導光板261,262は、光透過性の樹脂材料等によって形成され、表示駆動部から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、画像表示部20の表側(使用者の眼の側とは反対の側)を覆うように配置されている。調光板は、導光板261、262を保護し、導光板261、262の損傷や汚れの付着等を抑制する。また、調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整することができる。なお、調光板は省略可能である。   The display driving unit includes a liquid crystal display (hereinafter referred to as “LCD”) 241, 242, projection optical systems 251, 252, and the like (see FIG. 2). Details of the configuration of the display driving unit will be described later. The optical image display unit as an optical member includes light guide plates 261 and 262 (see FIG. 2) and a light control plate. The light guide plates 261 and 262 are formed of a light transmissive resin material or the like, and guide the image light output from the display driving unit to the user's eyes. The light control plate is a thin plate-like optical element, and is disposed so as to cover the front side of the image display unit 20 (the side opposite to the user's eye side). The light control plate protects the light guide plates 261 and 262 and suppresses damage to the light guide plates 261 and 262 and adhesion of dirt. Further, by adjusting the light transmittance of the light control plate, it is possible to adjust the external light quantity entering the user's eyes and adjust the ease of visual recognition of the virtual image. The light control plate can be omitted.

カメラ61は、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置に配置されている。カメラ61は、画像表示部20の表側方向、換言すれば、ヘッドマウントディスプレイ100を装着した状態における使用者の視界方向の外景(外部の景色)を撮像し、外景画像を取得する。カメラ61はいわゆる可視光カメラであり、カメラ61により取得される外景画像は、物体から放射される可視光から物体の形状を表す画像である。本実施形態におけるカメラ61は単眼カメラであるが、ステレオカメラとしてもよい。カメラ61は「画像取得部」として機能する。   The camera 61 is disposed at a position corresponding to the user's eyebrow when the user wears the image display unit 20. The camera 61 captures an outside scene image in the front side direction of the image display unit 20, in other words, an outside scene (external scenery) in the user's viewing direction with the head mounted display 100 attached. The camera 61 is a so-called visible light camera, and the outside scene image acquired by the camera 61 is an image representing the shape of the object from the visible light emitted from the object. The camera 61 in the present embodiment is a monocular camera, but may be a stereo camera. The camera 61 functions as an “image acquisition unit”.

瞳孔間距離測定部62は、使用者の瞳孔間距離を測定する。瞳孔間距離とは、使用者の右眼REの虹彩の中心と使用者の左眼LEの虹彩の中心との間の距離である。瞳孔間距離測定部62は、図1に示すように画像表示部20の内面に配置されて、使用者の右眼REおよび左眼LEの画像を撮影する2つのカメラと、撮影された画像を例えば3角測量による方法を用いて解析し、左右の眼の虹彩の中心間の距離を計算する処理部とからなる。なお、瞳孔間距離測定部62は、カメラに代えて、超音波や赤外線を用いて、使用者の瞳孔間距離を測定してもよい。また、瞳孔間距離測定部62は、上述した方法を複数組み合わせて、使用者の瞳孔間距離を測定することもできる。   The interpupillary distance measuring unit 62 measures the interpupillary distance of the user. The interpupillary distance is a distance between the center of the iris of the user's right eye RE and the center of the iris of the user's left eye LE. As shown in FIG. 1, the interpupillary distance measuring unit 62 is disposed on the inner surface of the image display unit 20, and two cameras that capture images of the right eye RE and left eye LE of the user, and the captured images. For example, it comprises a processing unit that analyzes using a method by triangulation and calculates the distance between the centers of the irises of the left and right eyes. The interpupillary distance measuring unit 62 may measure the interpupillary distance of the user using ultrasonic waves or infrared rays instead of the camera. Moreover, the interpupillary distance measuring unit 62 can also measure the distance between the pupils of the user by combining a plurality of the above-described methods.

画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、本体コード48が2本に分岐した右コード42および左コード44と、分岐点に設けられた連結部材46と、を含んでいる。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46には、イヤホンプラグ30を接続するためのジャックが設けられている。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。   The image display unit 20 further includes a connection unit 40 for connecting the image display unit 20 to the control unit 10. The connection unit 40 includes a main body cord 48 connected to the control unit 10, a right cord 42 and a left cord 44 in which the main body cord 48 branches into two, and a connecting member 46 provided at the branch point. . The right cord 42 is inserted into the casing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24. The connecting member 46 is provided with a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30.

画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行う。本体コード48における連結部材46とは反対側の端部と、制御部10とのそれぞれには、互いに嵌合するコネクター(図示省略)が設けられており、本体コード48のコネクターと制御部10のコネクターとの嵌合/嵌合解除により、制御部10と画像表示部20とが接続されたり切り離されたりする。右コード42と、左コード44と、本体コード48には、例えば、金属ケーブルや光ファイバーを採用することができる。   The image display unit 20 and the control unit 10 transmit various signals via the connection unit 40. Each end of the main body cord 48 opposite to the connecting member 46 and the control unit 10 are provided with connectors (not shown) that are fitted to each other. The connector of the main body cord 48 and the control unit 10 The control unit 10 and the image display unit 20 are connected to or disconnected from each other by the fitting / releasing of the connector. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御部10は、ヘッドマウントディスプレイ100を制御するための装置である。制御部10は、点灯部12と、タッチパッド14と、十字キー16と、電源スイッチ18とを含んでいる。点灯部12は、ヘッドマウントディスプレイ100の動作状態(例えば、電源のON/OFF等)を、その発光態様によって通知する。点灯部12としては、例えば、LED(Light Emitting Diode)を用いることができる。タッチパッド14は、タッチパッド14の操作面上での接触操作を検出して、検出内容に応じた信号を出力する。タッチパッド14としては、静電式や圧力検出式、光学式といった種々のタッチパッドを採用することができる。十字キー16は、上下左右方向に対応するキーへの押下操作を検出して、検出内容に応じた信号を出力する。電源スイッチ18は、スイッチのスライド操作を検出することで、ヘッドマウントディスプレイ100の電源の状態を切り替える。   The control unit 10 is a device for controlling the head mounted display 100. The control unit 10 includes a lighting unit 12, a touch pad 14, a cross key 16, and a power switch 18. The lighting unit 12 notifies the operation state of the head mounted display 100 (for example, ON / OFF of the power supply) by the light emission mode. For example, an LED (Light Emitting Diode) can be used as the lighting unit 12. The touch pad 14 detects a contact operation on the operation surface of the touch pad 14 and outputs a signal corresponding to the detected content. As the touch pad 14, various touch pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. The cross key 16 detects a pressing operation on a key corresponding to the up / down / left / right direction, and outputs a signal corresponding to the detected content. The power switch 18 switches the power state of the head mounted display 100 by detecting a slide operation of the switch.

図2は、ヘッドマウントディスプレイ100の構成を機能的に示すブロック図である。制御部10は、入力情報取得部110と、記憶部120と、電源130と、無線通信部132と、GPSモジュール134と、CPU140と、インターフェイス180と、送信部(Tx)51および52とを備え、各部は図示しないバスにより相互に接続されている。   FIG. 2 is a block diagram functionally showing the configuration of the head mounted display 100. The control unit 10 includes an input information acquisition unit 110, a storage unit 120, a power supply 130, a wireless communication unit 132, a GPS module 134, a CPU 140, an interface 180, and transmission units (Tx) 51 and 52. The parts are connected to each other by a bus (not shown).

入力情報取得部110は、例えば、タッチパッド14や十字キー16、電源スイッチ18などに対する操作入力に応じた信号を取得する。記憶部120は、ROM、RAM、DRAM、ハードディスク等によって構成されている。記憶部120は、眼間距離122と、画素視差角124とを含んでいる。詳細は後述する。電源130は、ヘッドマウントディスプレイ100の各部に電力を供給する。電源130としては、例えば二次電池を用いることができる。無線通信部132は、無線LANやブルートゥースといった所定の無線通信規格に則って、他の機器との間で無線通信を行う。GPSモジュール134は、GPS衛生からの信号を受信することにより、自身の現在位置を検出する。   The input information acquisition unit 110 acquires a signal corresponding to an operation input to the touch pad 14, the cross key 16, the power switch 18, and the like, for example. The storage unit 120 includes a ROM, a RAM, a DRAM, a hard disk, and the like. The storage unit 120 includes an interocular distance 122 and a pixel parallax angle 124. Details will be described later. The power supply 130 supplies power to each part of the head mounted display 100. As the power supply 130, for example, a secondary battery can be used. The wireless communication unit 132 performs wireless communication with other devices in accordance with a predetermined wireless communication standard such as a wireless LAN or Bluetooth. The GPS module 134 detects its current position by receiving a signal from GPS hygiene.

CPU140は、記憶部120に格納されているコンピュータープログラムを読み出して実行することにより、オペレーティングシステム(ОS)150、画像処理部160、音声処理部170、表示制御部190、AR処理部142として機能する。AR処理部142は、OS150や、特定のアプリケーションからの処理開始要求をトリガーとして、拡張現実感を実現させるための処理(以降、「拡張現実処理」とも呼ぶ。)を実行する。詳細は後述する。なお、AR処理部142は、特許請求の範囲における「拡張現実処理部」に相当する。   The CPU 140 functions as an operating system (OS) 150, an image processing unit 160, an audio processing unit 170, a display control unit 190, and an AR processing unit 142 by reading out and executing a computer program stored in the storage unit 120. . The AR processing unit 142 executes processing for realizing augmented reality (hereinafter, also referred to as “augmented reality processing”), triggered by a processing start request from the OS 150 or a specific application. Details will be described later. The AR processing unit 142 corresponds to the “augmented reality processing unit” in the claims.

画像処理部160は、インターフェイス180や無線通信部132を介して入力されるコンテンツ(映像)に基づいて信号を生成する。そして、画像処理部160は、生成した信号を、接続部40を介して画像表示部20に供給する。画像表示部20に供給するための信号は、アナログ形式とディジタル形式の場合で異なる。アナログ形式の場合、画像処理部160は、クロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、画像データーDataとを生成・送信する。具体的には、画像処理部160は、コンテンツに含まれる画像信号を取得する。取得した画像信号は、例えば動画像の場合、一般的に1秒あたり30枚のフレーム画像から構成されているアナログ信号である。画像処理部160は、取得した画像信号から、垂直同期信号VSyncや水平同期信号HSync等の同期信号を分離し、それらの周期に応じて、PLL回路等によりクロック信号PCLKを生成する。画像処理部160は、同期信号が分離されたアナログ画像信号を、A/D変換回路等を用いてディジタル画像信号に変換する。画像処理部160は、変換後のディジタル画像信号を、RGBデーターの画像データーDataとして、1フレームごとに記憶部120内のDRAMに格納する。一方、ディジタル形式の場合、画像処理部160は、クロック信号PCLKと、画像データーDataとを生成・送信する。具体的には、コンテンツがディジタル形式の場合、クロック信号PCLKが画像信号に同期して出力されるため、垂直同期信号VSyncおよび水平同期信号HSyncの生成と、アナログ画像信号のA/D変換とが不要となる。なお、画像処理部160は、記憶部120に格納された画像データーDataに対して、解像度変換処理や、輝度・彩度の調整といった種々の色調補正処理や、キーストーン補正処理等の画像処理を実行してもよい。   The image processing unit 160 generates a signal based on content (video) input via the interface 180 or the wireless communication unit 132. Then, the image processing unit 160 supplies the generated signal to the image display unit 20 via the connection unit 40. The signal supplied to the image display unit 20 differs between the analog format and the digital format. In the case of the analog format, the image processing unit 160 generates and transmits a clock signal PCLK, a vertical synchronization signal VSync, a horizontal synchronization signal HSync, and image data Data. Specifically, the image processing unit 160 acquires an image signal included in the content. For example, in the case of a moving image, the acquired image signal is an analog signal generally composed of 30 frame images per second. The image processing unit 160 separates a synchronization signal such as a vertical synchronization signal VSync and a horizontal synchronization signal HSync from the acquired image signal, and generates a clock signal PCLK by a PLL circuit or the like according to the period. The image processing unit 160 converts the analog image signal from which the synchronization signal is separated into a digital image signal using an A / D conversion circuit or the like. The image processing unit 160 stores the converted digital image signal in the DRAM in the storage unit 120 for each frame as image data Data of RGB data. On the other hand, in the digital format, the image processing unit 160 generates and transmits a clock signal PCLK and image data Data. Specifically, when the content is in digital format, the clock signal PCLK is output in synchronization with the image signal, so that the generation of the vertical synchronization signal VSync and the horizontal synchronization signal HSync and the A / D conversion of the analog image signal are performed. It becomes unnecessary. The image processing unit 160 performs image processing such as resolution conversion processing, various tone correction processing such as adjustment of luminance and saturation, and keystone correction processing on the image data Data stored in the storage unit 120. May be executed.

画像処理部160は、生成されたクロック信号PCLK、垂直同期信号VSync、水平同期信号HSyncと、記憶部120内のDRAMに格納された画像データーDataとを、送信部51、52を介してそれぞれ送信する。なお、送信部51を介して送信される画像データーDataを「右眼用画像データーData1」とも呼び、送信部52を介して送信される画像データーDataを「左眼用画像データーData2」とも呼ぶ。送信部51、52は、制御部10と画像表示部20との間におけるシリアル伝送のためのトランシーバーとして機能する。   The image processing unit 160 transmits the generated clock signal PCLK, vertical synchronization signal VSync, horizontal synchronization signal HSync, and image data Data stored in the DRAM in the storage unit 120 via the transmission units 51 and 52, respectively. To do. Note that the image data Data transmitted through the transmission unit 51 is also referred to as “right-eye image data Data1”, and the image data Data transmitted through the transmission unit 52 is also referred to as “left-eye image data Data2”. The transmission units 51 and 52 function as a transceiver for serial transmission between the control unit 10 and the image display unit 20.

表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。具体的には、表示制御部190は、制御信号により、右LCD制御部211による右LCD241の駆動ON/OFFや、右バックライト制御部201による右バックライト221の駆動ON/OFF、左LCD制御部212による左LCD242の駆動ON/OFFや、左バックライト制御部202による左バックライト222の駆動ON/OFFなどを個別に制御することにより、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。例えば、表示制御部190は、右表示駆動部22および左表示駆動部24の両方に画像光を生成させたり、一方のみに画像光を生成させたり、両方共に画像光を生成させなかったりする。また、表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号を、送信部51および52を介してそれぞれ送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号を、それぞれ送信する。   The display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. Specifically, the display control unit 190 uses the control signal to turn on / off the right LCD 241 by the right LCD control unit 211, turn on / off the right backlight 221 by the right backlight control unit 201, and control the left LCD. Each of the right display drive unit 22 and the left display drive unit 24 is controlled by individually controlling ON / OFF driving of the left LCD 242 by the unit 212 and ON / OFF driving of the left backlight 222 by the left backlight control unit 202. Controls the generation and emission of image light. For example, the display control unit 190 may cause both the right display driving unit 22 and the left display driving unit 24 to generate image light, generate only one image light, or neither may generate image light. Further, the display control unit 190 transmits control signals for the right LCD control unit 211 and the left LCD control unit 212 via the transmission units 51 and 52, respectively. In addition, the display control unit 190 transmits control signals for the right backlight control unit 201 and the left backlight control unit 202, respectively.

音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内の図示しないスピーカーおよび左イヤホン34内の図示しないスピーカーに対して供給する。なお、例えば、Dolby(登録商標)システムを採用した場合、音声信号に対する処理がなされ、右イヤホン32および左イヤホン34からは、それぞれ、例えば周波数等が変えられた異なる音が出力される。   The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and transmits the acquired audio signal to a speaker (not shown) in the right earphone 32 and a speaker (not shown) in the left earphone 34 connected to the connecting member 46. To supply. For example, when a Dolby (registered trademark) system is adopted, processing is performed on an audio signal, and different sounds with different frequencies or the like are output from the right earphone 32 and the left earphone 34, respectively.

インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器ОAとしては、例えば、パーソナルコンピューターPCや携帯電話端末、ゲーム端末等がある。インターフェイス180としては、例えば、USBインターフェイスや、マイクロUSBインターフェイス、メモリーカード用インターフェイス等を用いることができる。   The interface 180 is an interface for connecting various external devices OA that are content supply sources to the control unit 10. Examples of the external device OA include a personal computer PC, a mobile phone terminal, and a game terminal. As the interface 180, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.

画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、9軸センサー66とを備えている。   The image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, a left light guide plate 262 as a left optical image display unit 28, and a camera 61. And a 9-axis sensor 66.

9軸センサー66は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサーである。9軸センサー66は、画像表示部20に設けられているため、画像表示部20が使用者の頭部に装着されているときには、使用者の頭部の動きを検出する動き検出部として機能する。ここで、頭部の動きとは、頭部の速度・加速度・角速度・向き・向きの変化を含む。   The 9-axis sensor 66 is a motion sensor that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). Since the 9-axis sensor 66 is provided in the image display unit 20, when the image display unit 20 is mounted on the user's head, it functions as a motion detection unit that detects the movement of the user's head. . Here, the movement of the head includes changes in the speed, acceleration, angular velocity, direction, and direction of the head.

右表示駆動部22は、受信部(Rx)53と、光源として機能する右バックライト(BL)制御部201および右バックライト(BL)221と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251とを含んでいる。なお、右バックライト制御部201と、右LCD制御部211と、右バックライト221と、右LCD241とを総称して「画像光生成部」とも呼ぶ。   The right display driving unit 22 includes a receiving unit (Rx) 53, a right backlight (BL) control unit 201 and a right backlight (BL) 221 that function as a light source, a right LCD control unit 211 that functions as a display element, and a right An LCD 241 and a right projection optical system 251 are included. The right backlight control unit 201, the right LCD control unit 211, the right backlight 221 and the right LCD 241 are also collectively referred to as “image light generation unit”.

受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、受信部53を介して入力されたクロック信号PCLKと、垂直同期信号VSyncと、水平同期信号HSyncと、右眼用画像データーData1とに基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。右LCD241は、マトリクス状に配置された各画素位置の液晶を駆動することによって、右LCD241を透過する光の透過率を変化させることにより、右バックライト221から照射される照明光を、画像を表す有効な画像光へと変調する。なお、本実施形態ではバックライト方式を採用することとしたが、フロントライト方式や、反射方式を用いて画像光を射出してもよい。   The receiving unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the right eye image data Data1 input via the reception unit 53. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix. The right LCD 241 changes the transmittance of the light transmitted through the right LCD 241 by driving the liquid crystal at each pixel position arranged in a matrix, thereby converting the illumination light emitted from the right backlight 221 into an image. Modulate into effective image light to represent. In this embodiment, the backlight method is adopted, but image light may be emitted using a front light method or a reflection method.

右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。光学像表示部は、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。   The right projection optical system 251 is configured by a collimator lens that converts the image light emitted from the right LCD 241 to light beams in a parallel state. The right light guide plate 261 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user while reflecting the image light along a predetermined optical path. The optical image display unit can use any method as long as a virtual image is formed in front of the user's eyes using image light. For example, a diffraction grating or a transflective film may be used. good.

左表示駆動部24は、右表示駆動部22と同様の構成を有している。すなわち、左表示駆動部24は、受信部(Rx)54と、光源として機能する左バックライト(BL)制御部202および左バックライト(BL)222と、表示素子として機能する左LCD制御部212および左LCD242と、左投写光学系252とを含んでいる。   The left display drive unit 24 has the same configuration as the right display drive unit 22. That is, the left display driving unit 24 includes a receiving unit (Rx) 54, a left backlight (BL) control unit 202 and a left backlight (BL) 222 that function as a light source, and a left LCD control unit 212 that functions as a display element. And a left LCD 242 and a left projection optical system 252.

図3は、使用者に視認される虚像の一例を示す説明図である。図3(A)は、通常の表示処理中の使用者の視野VRを例示している。上述のようにして、ヘッドマウントディスプレイ100の使用者の両眼に導かれた画像光が使用者の網膜に結像することにより、使用者は虚像VIを視認する。図3(A)の例では、虚像VIは、ヘッドマウントディスプレイ100のOSの待ち受け画面である。また、使用者は、右光学像表示部26および左光学像表示部28を透過して外景SCを視認する。このように、本実施形態のヘッドマウントディスプレイ100の使用者は、視野VRのうち虚像VIが表示された部分については、虚像VIと、虚像VIの背後に外景SCとを見ることができる。また、視野VRのうち虚像VIが表示されていない部分については、光学像表示部を透過して、外景SCを直接見ることができる。なお、本明細書において、「ヘッドマウントディスプレイ100が画像を表示する」ことには、上述のように、ヘッドマウントディスプレイ100の使用者に対して虚像を視認させることも含む。   FIG. 3 is an explanatory diagram illustrating an example of a virtual image visually recognized by the user. FIG. 3A illustrates the user's visual field VR during a normal display process. As described above, the image light guided to both eyes of the user of the head mounted display 100 forms an image on the retina of the user, so that the user visually recognizes the virtual image VI. In the example of FIG. 3A, the virtual image VI is an OS standby screen of the head mounted display 100. Further, the user views the outside scene SC through the right optical image display unit 26 and the left optical image display unit 28. As described above, the user of the head mounted display 100 of the present embodiment can see the virtual image VI and the outside scene SC behind the virtual image VI for the portion of the visual field VR where the virtual image VI is displayed. In addition, the portion of the visual field VR where the virtual image VI is not displayed can be seen through the optical scene display portion and directly through the outside scene SC. In the present specification, “the head-mounted display 100 displays an image” includes causing the user of the head-mounted display 100 to visually recognize a virtual image as described above.

図3(B)は、拡張現実処理中の使用者の視野VRを例示している。拡張現実処理において、ヘッドマウントディスプレイ100のAR処理部142は、使用者が知覚する外景SCを拡張するための仮想オブジェクトであって、使用者の視覚的な違和感が緩和された仮想オブジェクトを表す虚像を画像表示部20に形成させる。具体的には、AR処理部142は、仮想オブジェクトに対して、使用者の視覚的な違和感を緩和可能な視覚効果を加えた画像データーを生成し、生成した画像データーを画像表示部20へ送信する。なお、「外景SCを拡張する」とは、使用者が眼にする現実環境、すなわち外景SCに対して情報を付加、削除、強調、減衰させることを意味する。第1実施形態の拡張現実処理では、AR処理部142は、外景SCに仮想オブジェクトを融像させるために、異なる右眼用画像データーData1と左眼用画像データーData2とを生成することで、仮想オブジェクトの立体視を可能にするための視覚効果を加える。「外景に仮想オブジェクトを融像させる」とは、使用者が実際目にする外景SCのうちの、使用者から所定の距離(以降、「目標距離」とも呼ぶ)だけ離れた位置に対して、仮想オブジェクトが存在するかのような感覚を使用者に対して与える虚像VIを表示することを意味する。図3(B)の例では、外景SCに含まれる現実の道の上に重なるように、リンゴを表す画像が虚像VIとして表示されている。これにより、使用者は、あたかも何もない道の上に、リンゴが落ちているような感覚を得ることができる。図3(B)の例では、使用者の位置と、使用者が「リンゴが落ちている」と感じる位置と、の間の距離が目標距離に相当する。図3(B)の例では、リンゴが仮想オブジェクトOBに相当する。   FIG. 3B illustrates the visual field VR of the user during the augmented reality process. In the augmented reality processing, the AR processing unit 142 of the head mounted display 100 is a virtual object for expanding the outside scene SC perceived by the user, and represents a virtual object in which the user's visual discomfort is reduced. Are formed on the image display unit 20. Specifically, the AR processing unit 142 generates image data in which a visual effect that can alleviate the user's visual discomfort is added to the virtual object, and the generated image data is transmitted to the image display unit 20. To do. “Extending the outside scene SC” means adding, deleting, emphasizing, and attenuating information to the real environment that the user sees, that is, the outside scene SC. In the augmented reality processing of the first embodiment, the AR processing unit 142 generates different right-eye image data Data1 and left-eye image data Data2 in order to fuse a virtual object to the outside scene SC, thereby generating a virtual image. Add visual effects to enable stereoscopic viewing of objects. “Making a virtual object into the outside scene” means that the position of the outside scene SC that the user actually sees is a predetermined distance from the user (hereinafter also referred to as “target distance”). This means that a virtual image VI that gives the user a feeling as if a virtual object exists is displayed. In the example of FIG. 3B, an image representing an apple is displayed as a virtual image VI so as to overlap an actual road included in the outside scene SC. As a result, the user can feel as if an apple is falling on an empty road. In the example of FIG. 3B, the distance between the position of the user and the position at which the user feels “the apple is falling” corresponds to the target distance. In the example of FIG. 3B, an apple corresponds to the virtual object OB.

A−2.拡張現実処理(第1実施例):
AR処理部142は、以下の手順a1〜a3によって拡張現実処理を実行する。
(a1)仮想オブジェクトを視認させる目標距離を決定する。
(a2)仮想オブジェクトを表す画像データーを生成する。
(a3)画像データーから右眼用画像データーData1と左眼用画像データーData2を生成する。
A-2. Augmented reality processing (first embodiment):
The AR processing unit 142 executes the augmented reality process according to the following procedures a1 to a3.
(A1) A target distance for visually recognizing the virtual object is determined.
(A2) Image data representing a virtual object is generated.
(A3) Image data for right eye Data1 and image data for left eye Data2 are generated from the image data.

図4は、拡張現実処理の手順を説明するための説明図である。画像処理部160が同一の右眼用画像データーData1と左眼用画像データーData2とを画像表示部20へ供給した場合、使用者は、使用者から初期結像距離Laだけ離れた位置CO1に物体を認識する。この際の輻輳角を「初期輻輳角θa」と呼ぶ。手順a1においてAR処理部142は、遠近感を持たせた仮想オブジェクトOBの表示を可能とするために、使用者に仮想オブジェクトOBを視認させる目標距離Lbを決定する。AR処理部142は、例えば、以下のいずれかの方法で、目標距離Lbを決定することができる。
・カメラ61によって取得された使用者の視界方向の外景画像を解析する。
・使用者の現在位置座標と頭の動きとを解析する。この場合、使用者の現在位置座標は、GPSモジュール134により検出された制御部10の位置情報により取得する。使用者の頭の動きは、9軸センサー66により検出された動き情報により取得する。
FIG. 4 is an explanatory diagram for explaining the procedure of the augmented reality process. When the image processing unit 160 supplies the same right-eye image data Data1 and left-eye image data Data2 to the image display unit 20, the user moves the object to a position CO1 that is separated from the user by the initial imaging distance La. Recognize The convergence angle at this time is referred to as “initial convergence angle θa”. In step a1, the AR processing unit 142 determines a target distance Lb for allowing the user to visually recognize the virtual object OB in order to enable display of the virtual object OB with a sense of perspective. For example, the AR processing unit 142 can determine the target distance Lb by any of the following methods.
Analyzing the outside scene image obtained by the camera 61 in the direction of the visual field of the user.
・ Analyze the user's current position coordinates and head movements. In this case, the current position coordinates of the user are acquired from the position information of the control unit 10 detected by the GPS module 134. The movement of the user's head is acquired from the movement information detected by the 9-axis sensor 66.

手順a2においてAR処理部142は、仮想オブジェクトOBを表す画像データーを生成する。第1実施例の拡張現実処理では、AR処理部142は、記憶部120内に予め記憶されている複数の画像データーから、手順a1の解析結果に応じた画像データーを取得する。   In procedure a2, the AR processing unit 142 generates image data representing the virtual object OB. In the augmented reality processing of the first embodiment, the AR processing unit 142 acquires image data corresponding to the analysis result of the procedure a1 from a plurality of image data stored in advance in the storage unit 120.

手順a3においてAR処理部142は、手順a2で生成した画像データーから、右眼用画像データーData1と左眼用画像データーData2を生成する。この際、AR処理部142は、記憶部120に記憶されている画素視差角124を用いる。   In procedure a3, the AR processing unit 142 generates right-eye image data Data1 and left-eye image data Data2 from the image data generated in procedure a2. At this time, the AR processing unit 142 uses the pixel parallax angle 124 stored in the storage unit 120.

図5は、眼間距離122と画素視差角124について説明するための説明図である。本実施形態では、眼間距離122は、光学像表示部26の中心と左光学像表示部28の中心との間の距離を、使用者の右眼REと左眼LEとの間の距離DLとみなしている。このため、眼間距離122には、ヘッドマウントディスプレイ100の設計値に基づいた、右光学像表示部26の中心と左光学像表示部28の中心との間の距離(例えば、65mm)が予め格納されている。なお、眼間距離122には、使用者の右眼REと左眼LEとの間の実際の距離DLが格納されていてもよい。詳細は拡張現実処理の第2実施例で説明する。また、眼間距離122は、使用者の好みに応じて調整可能としてもよい。眼間距離122は特許請求の範囲における「眼間距離記憶部」に相当する。   FIG. 5 is an explanatory diagram for explaining the interocular distance 122 and the pixel parallax angle 124. In the present embodiment, the interocular distance 122 is the distance between the center of the optical image display unit 26 and the center of the left optical image display unit 28, and the distance DL between the right eye RE and the left eye LE of the user. It is considered. Therefore, the interocular distance 122 is a distance (for example, 65 mm) between the center of the right optical image display unit 26 and the center of the left optical image display unit 28 based on the design value of the head mounted display 100 in advance. Stored. The interocular distance 122 may store an actual distance DL between the user's right eye RE and left eye LE. Details will be described in a second embodiment of augmented reality processing. The interocular distance 122 may be adjustable according to the user's preference. The interocular distance 122 corresponds to an “interocular distance storage unit” in the claims.

画素視差角124は、左右に1画素(ピクセル)ずれた画像データーによって実現される視差角であり、θpix(°)で表される。画素視差角124は、具体的には、左右同一の画像データーに基づいて表示された虚像の輻輳角と、左右で1画素(ピクセル)ずらした画像データーに基づいて表示された虚像との輻輳角の差分である。θpixは以下のようにして求められ、画素視差角124に予め格納されている。
・同一の右眼用画像データーData1と左眼用画像データーData2とに基づいて右LCD241と左LCD242とが駆動された場合の初期輻輳角θaを測定する。
・1画素ずらした右眼用画像データーData1と左眼用画像データーData2とに基づいて右LCD241と左LCD242とが駆動された場合の輻輳角θcを測定する。
・初期輻輳角θaと輻輳角θcとの差分を求める(θc−θa)。なお、通常はθc>θaとなることが想定されるため、ここでは、輻輳角θcから初期輻輳角θaを減ずることとする。
・片眼あたりの輻輳角の差分とするため、初期輻輳角θaと輻輳角θcとの差分を2で除する。
The pixel parallax angle 124 is a parallax angle realized by image data shifted by one pixel left and right, and is represented by θpix (°). Specifically, the pixel parallax angle 124 is a convergence angle between a convergence angle of a virtual image displayed based on the same image data on the left and right and a virtual image displayed based on image data shifted by one pixel on the left and right. Difference. θpix is obtained as follows and is stored in advance in the pixel parallax angle 124.
The initial convergence angle θa when the right LCD 241 and the left LCD 242 are driven is measured based on the same right-eye image data Data1 and left-eye image data Data2.
The convergence angle θc when the right LCD 241 and the left LCD 242 are driven is measured based on the right-eye image data Data1 and the left-eye image data Data2 shifted by one pixel.
The difference between the initial convergence angle θa and the convergence angle θc is obtained (θc−θa). Since it is usually assumed that θc> θa, here, the initial convergence angle θa is subtracted from the convergence angle θc.
In order to obtain a difference in convergence angle per eye, the difference between the initial convergence angle θa and the convergence angle θc is divided by 2.

すなわち、θpix=(θc−θa)/2 と表すことができる。なお、初期輻輳角θaは特許請求の範囲における「第1の輻輳角」に相当し、輻輳角θcは特許請求の範囲における「第2の輻輳角」に相当し、画素視差角124は特許請求の範囲における「画素視差角記憶部」に相当する。   That is, it can be expressed as θpix = (θc−θa) / 2. The initial convergence angle θa corresponds to the “first convergence angle” in the claims, the convergence angle θc corresponds to the “second convergence angle” in the claims, and the pixel parallax angle 124 is claimed. This corresponds to a “pixel parallax angle storage unit” in the range.

図4に戻り拡張現実処理の手順の説明を続ける。手順a1で決定した目標距離Lb(使用者に仮想オブジェクトOBを視認させる距離)と、その際の輻輳角θbと、眼間距離122(DL/2)は、三角関数を用いて以下の式1で表すことができる。このため、AR処理部142は、手順a1で決定した目標距離Lbと、眼間距離122とを式1に当てはめ、目標輻輳角θbを算出する。
tan(θb/2)=(DL/2)/Lb
tan(θb/2)=DL/(2×Lb)
θb/2=arctan{DL/(2×Lb)}
θb=2×arctan{DL/(2×Lb)} ・・・(1)
Returning to FIG. 4, the description of the augmented reality processing procedure will be continued. The target distance Lb (distance that allows the user to visually recognize the virtual object OB), the convergence angle θb, and the interocular distance 122 (DL / 2) determined in the procedure a1 are expressed by the following formula 1 using a trigonometric function: Can be expressed as Therefore, the AR processing unit 142 calculates the target convergence angle θb by applying the target distance Lb determined in the procedure a1 and the interocular distance 122 to Equation 1.
tan (θb / 2) = (DL / 2) / Lb
tan (θb / 2) = DL / (2 × Lb)
θb / 2 = arctan {DL / (2 × Lb)}
θb = 2 × arctan {DL / (2 × Lb)} (1)

AR処理部142は、求めた目標輻輳角θbと初期輻輳角θaとを用いて、目標距離Lb(使用者に仮想オブジェクトOBを視認させる距離)における視差角である目標視差角θxを算出する。具体的には、AR処理部142は、式2に初期輻輳角θaと目標輻輳角θbとの値を当てはめ、目標視差角θxを算出する。
θx=(θb−θa)/2 ・・・(2)
式2において、例えば、設定位置を無限遠にした場合、θxは、θx=−θa/2として表される。
The AR processing unit 142 calculates a target parallax angle θx that is a parallax angle at the target distance Lb (a distance that allows the user to visually recognize the virtual object OB) by using the obtained target convergence angle θb and initial convergence angle θa. Specifically, the AR processing unit 142 applies the values of the initial convergence angle θa and the target convergence angle θb to Equation 2, and calculates the target parallax angle θx.
θx = (θb−θa) / 2 (2)
In Expression 2, for example, when the set position is set to infinity, θx is expressed as θx = −θa / 2.

AR処理部142は、求めた目標視差角θxと、画素視差角124とを用いて、手順a2の画像データーを加工し、右眼用画像データーData1と左眼用画像データーData2とを生成する。具体的には、画素視差角124に格納されているθpixは、左右に1画素ずれた画像データーによって実現される視差角である。従って、目標視差角θxを実現するための右眼用画像データーData1を生成するためには、元となる画像データーを左方向へθx/θpix画素ずらせばよい。同様に、目標視差角θxを実現するための左眼用画像データーData2を生成するためには、元となる画像データーを右方向へθx/θpix画素ずらせばよい。   The AR processing unit 142 processes the image data of the procedure a2 using the obtained target parallax angle θx and the pixel parallax angle 124, and generates right-eye image data Data1 and left-eye image data Data2. Specifically, θpix stored in the pixel parallax angle 124 is a parallax angle realized by image data shifted by one pixel left and right. Therefore, in order to generate the right-eye image data Data1 for realizing the target parallax angle θx, the original image data may be shifted by θx / θpix pixels in the left direction. Similarly, in order to generate the image data Data2 for the left eye for realizing the target parallax angle θx, the original image data may be shifted by θx / θpix pixels in the right direction.

図6は、上述のようにして、AR処理部142が、画像データーDTから、右眼用画像データーData1と左眼用画像データーData2とを生成する様子を示している。   FIG. 6 shows how the AR processing unit 142 generates right-eye image data Data1 and left-eye image data Data2 from the image data DT as described above.

AR処理部142は、上記のようにして生成した右眼用画像データーData1と左眼用画像データーData2とを、画像処理部160へ送信する。画像処理部160は、受信した右眼用画像データーData1を、送信部51を介して画像表示部20へ送信する。同様に、受信した左眼用画像データーData2を、送信部52を介して画像表示部20へ送信する。その後、図2で説明した表示処理を実行する。図3(B)に示すように、ヘッドマウントディスプレイ100の使用者は、視野VRに、立体的な仮想オブジェクトOBを視認することができる。   The AR processing unit 142 transmits the right eye image data Data1 and the left eye image data Data2 generated as described above to the image processing unit 160. The image processing unit 160 transmits the received right-eye image data Data1 to the image display unit 20 via the transmission unit 51. Similarly, the received left-eye image data Data 2 is transmitted to the image display unit 20 via the transmission unit 52. Thereafter, the display process described with reference to FIG. 2 is executed. As shown in FIG. 3B, the user of the head mounted display 100 can visually recognize the three-dimensional virtual object OB in the visual field VR.

なお、視力1.0である場合の人間の分解能はarctan(1.5mm/5000mm)で表すことができ、約0.017°となる。従って、右眼用画像データーData1および左眼用画像データーData2により表示される虚像VIと、外景SCとの誤差を0.017°以下に設計すれば、外景SCにあわせた実寸サイズの虚像VIの表示が可能となる。   Note that the human resolution when the visual acuity is 1.0 can be expressed by arctan (1.5 mm / 5000 mm), which is about 0.017 °. Therefore, if the error between the virtual image VI displayed by the right-eye image data Data1 and the left-eye image data Data2 and the outside scene SC is designed to be 0.017 ° or less, the actual size virtual image VI matching the outside scene SC can be obtained. Display is possible.

以上のように、第1実施例の拡張現実処理によれば、拡張現実処理部(AR処理部142)は、画像データー(右眼用画像データーData1および左眼用画像データーData2)の生成の際、虚像VIの表示環境に関する種々の条件(右LCD241および左LCD242の大きさ、使用者の左右の眼前に表示される虚像VI間の距離)を考慮して外景SCに仮想オブジェクトOBを融像させるため、使用者の視覚的な違和感を緩和した拡張現実感を提供可能な頭部装着型表示装置(ヘッドマウントディスプレイ100)を実現することができる。具体的には、画素視差角記憶部(画素視差角124)に記憶されている差分(θpix)は、同一の右眼用画像データーData1と左眼用画像データーData2とに基づいて表示された虚像VIの第1の輻輳角θa(初期輻輳角θa)と、左右に1画素ずらした右眼用画像データーData1と左眼用画像データーData2とに基づいて表示された虚像の第2の輻輳角θcとの差分である。このため、画素視差角記憶部(画素視差角124)に記憶されている差分(θpix)は、左右に1画素ずれた画像データーによって実現される視差角であって、虚像VIの表示環境に関する種々の条件、すなわち、右LCD241および左LCD242の大きさや使用者の左右の眼前に表示される虚像VI間の距離といった条件を考慮して定められた視差角であると言える。従って、拡張現実処理部(AR処理部142)は、画素視差角記憶部(画素視差角124)に記憶されている画素視差角記憶部(画素視差角124)を用いて、虚像VIの表示環境に関する種々の条件を考慮して、外景SCに仮想オブジェクトOBを融像させるための右眼用画像データーData1と左眼用画像データーData2とを生成することができる。   As described above, according to the augmented reality processing of the first embodiment, the augmented reality processing unit (AR processing unit 142) generates image data (right-eye image data Data1 and left-eye image data Data2). The virtual object OB is fused to the outside scene SC in consideration of various conditions regarding the display environment of the virtual image VI (the size of the right LCD 241 and the left LCD 242 and the distance between the virtual images VI displayed in front of the user's left and right eyes). Therefore, it is possible to realize a head-mounted display device (head mounted display 100) that can provide an augmented reality that reduces the user's visual discomfort. Specifically, the difference (θpix) stored in the pixel parallax angle storage unit (pixel parallax angle 124) is a virtual image displayed based on the same right-eye image data Data1 and left-eye image data Data2. The second convergence angle θc of the virtual image displayed based on the first convergence angle θa (initial convergence angle θa) of VI and the right-eye image data Data1 and the left-eye image data Data2 shifted by one pixel to the left and right. And the difference. For this reason, the difference (θpix) stored in the pixel parallax angle storage unit (pixel parallax angle 124) is a parallax angle realized by image data shifted by one pixel to the left and right, and is various in relation to the display environment of the virtual image VI. It can be said that the parallax angle is determined in consideration of the above conditions, that is, the size of the right LCD 241 and the left LCD 242 and the distance between the virtual images VI displayed in front of the left and right eyes of the user. Therefore, the augmented reality processing unit (AR processing unit 142) uses the pixel parallax angle storage unit (pixel parallax angle 124) stored in the pixel parallax angle storage unit (pixel parallax angle 124) to display the virtual image VI display environment. The right eye image data Data1 and the left eye image data Data2 for fusing the virtual object OB to the outside scene SC can be generated in consideration of various conditions relating to the above.

さらに、第1実施例の拡張現実処理によれば、拡張現実処理部(AR処理部142)は、使用者に仮想オブジェクトOBを視認させる目標距離Lbを決定し、決定した目標距離Lbから目標距離Lbにおける輻輳角である目標輻輳角θbを算出し、算出した目標輻輳角θbと第1の輻輳角θa(初期輻輳角θa)とを用いて、目標距離Lbにおける視差角である目標視差角θxを算出する。拡張現実処理部(AR処理部142)は、このようにして算出した目標視差角θxと、画素視差角記憶部(画素視差角124)に記憶されている差分(θpix)とを用いることで、仮想オブジェクトOBを表す単一の画像データーDT(図6)から、異なる右眼用画像データーData1と左眼用画像データーData2とを生成することができる。   Furthermore, according to the augmented reality processing of the first embodiment, the augmented reality processing unit (AR processing unit 142) determines the target distance Lb that allows the user to visually recognize the virtual object OB, and determines the target distance from the determined target distance Lb. A target convergence angle θb that is a convergence angle at Lb is calculated, and a target parallax angle θx that is a parallax angle at the target distance Lb is calculated using the calculated target convergence angle θb and the first convergence angle θa (initial convergence angle θa). Is calculated. The augmented reality processing unit (AR processing unit 142) uses the target parallax angle θx calculated in this way and the difference (θpix) stored in the pixel parallax angle storage unit (pixel parallax angle 124). Different right-eye image data Data1 and left-eye image data Data2 can be generated from a single image data DT (FIG. 6) representing the virtual object OB.

A−3.拡張現実処理(第2実施例):
第2実施例の拡張現実処理では、AR処理部142は、3D(Three Dimensions)モデル空間内の仮想的な立体物から使用者の動きに応じた仮想オブジェクトを表す画像データーを生成し、生成した画像データーから右眼用画像データーData1と左眼用画像データーData2を生成する。第1実施例の拡張現実処理との相違は、手順a2、a3に代えて、図7の手順を実行する点である。なお、手順a1は第1実施例と同様であるため、説明を省略する。
A-3. Augmented reality processing (second embodiment):
In the augmented reality process of the second embodiment, the AR processing unit 142 generates image data representing a virtual object corresponding to the user's movement from a virtual three-dimensional object in a 3D (Three Dimensions) model space. Image data for right eye Data1 and image data for left eye Data2 are generated from the image data. The difference from the augmented reality process of the first embodiment is that the procedure of FIG. 7 is executed instead of the procedures a2 and a3. Since the procedure a1 is the same as that in the first embodiment, the description is omitted.

図7は、第2実施例における拡張現実処理の手順を表すフローチャートである。AR処理部142は、眼間距離122の初期設定を行う(ステップS102)。具体的には、AR処理部142は、瞳孔間距離測定部62(図2)により測定された使用者の瞳孔間距離を取得し、取得した距離を眼間距離122に記憶させる。このように、ステップS102によれば、使用者に応じた瞳孔間距離を、眼間距離122に記憶させることができる。   FIG. 7 is a flowchart showing the procedure of augmented reality processing in the second embodiment. The AR processing unit 142 performs initial setting of the interocular distance 122 (step S102). Specifically, the AR processing unit 142 acquires the interpupillary distance of the user measured by the interpupillary distance measuring unit 62 (FIG. 2), and stores the acquired distance in the interocular distance 122. Thus, according to step S102, the interpupillary distance according to the user can be stored in the interocular distance 122.

図8は、第2実施例における拡張現実処理の詳細を説明するための説明図である。図7のステップS104において、AR処理部142は、3Dモデル空間上の所定位置に仮想視点を設定する。具体的には、AR処理部142は、3Dモデル空間上の仮想オブジェクトOB1から手順a1で求めた距離Lb離れた位置に、仮想視点IVを設定する(図8)。仮想視点IVは、使用者のこめかみに相当する位置であり、仮想視点IVの向き(視点方向VD)は、仮想オブジェクトOB1方向を向いている。なお、仮想視点IVの位置は、3Dモデル空間の原点座標に対する移動量(x,y,z)によって定義される。視点方向VDは、仮想視点IVに対する角度(θx,θy,θz)によって定義される。なお、(θx,θy,θz)は、(ロール角、ピッチ角、ヨー角)=(φ,θ,ψ)とも表される。仮想視点IVを設定後、AR処理部142は、ステップS110〜S116の処理と、ステップS120〜S126の処理とを並行して実行する。   FIG. 8 is an explanatory diagram for explaining details of the augmented reality processing in the second embodiment. In step S104 of FIG. 7, the AR processing unit 142 sets a virtual viewpoint at a predetermined position in the 3D model space. Specifically, the AR processing unit 142 sets the virtual viewpoint IV at a position away from the virtual object OB1 in the 3D model space by the distance Lb obtained in the procedure a1 (FIG. 8). The virtual viewpoint IV is a position corresponding to the user's temple, and the direction of the virtual viewpoint IV (viewpoint direction VD) faces the virtual object OB1. Note that the position of the virtual viewpoint IV is defined by the movement amount (x, y, z) with respect to the origin coordinate in the 3D model space. The viewpoint direction VD is defined by angles (θx, θy, θz) with respect to the virtual viewpoint IV. Note that (θx, θy, θz) is also expressed as (roll angle, pitch angle, yaw angle) = (φ, θ, ψ). After setting the virtual viewpoint IV, the AR processing unit 142 executes the processes of steps S110 to S116 and the processes of steps S120 to S126 in parallel.

仮想視点IVを設定後、AR処理部142は、仮想視点IVの位置および向きに基づいて、左眼相当の位置に仮想カメラCMLを設定する(ステップS110)。具体的には、AR処理部142は、仮想視点IVから左側に(眼間距離122/2)離れた位置に、視点方向VDを向いた仮想カメラCMLを設定する。同様に、AR処理部142は、仮想視点IVの位置および向きに基づいて、右眼相当の位置に仮想カメラCMRを設定する(ステップS120)。具体的には、AR処理部142は、仮想視点IVから右側に(眼間距離122/2)離れた位置に、視点方向VDを向いた仮想カメラCMRを設定する。図8では、上記のようにして設定された仮想カメラCML、CMRを表している。   After setting the virtual viewpoint IV, the AR processing unit 142 sets the virtual camera CML at a position corresponding to the left eye based on the position and orientation of the virtual viewpoint IV (step S110). Specifically, the AR processing unit 142 sets a virtual camera CML facing the viewpoint direction VD at a position away from the virtual viewpoint IV to the left side (interocular distance 122/2). Similarly, the AR processing unit 142 sets the virtual camera CMR at a position corresponding to the right eye based on the position and orientation of the virtual viewpoint IV (step S120). Specifically, the AR processing unit 142 sets a virtual camera CMR facing the viewpoint direction VD at a position away from the virtual viewpoint IV to the right side (interocular distance 122/2). FIG. 8 shows the virtual cameras CML and CMR set as described above.

仮想カメラを設定後、AR処理部142は、仮想カメラCMLの2D(Two Dimensions)投影を行う(ステップS112)。具体的には、AR処理部142は、3Dモデル空間内の立体物(仮想オブジェクトOB1、OB2)を、仮想カメラCMLによって得られた2次元である平面状の情報に変換し、奥行き感のある画像を生成する。同様に、AR処理部142は、仮想カメラCMRの2D投影を行う(ステップS122)。具体的には、AR処理部142は、3Dモデル空間上の立体物を、仮想カメラCMRによって得られた2次元である平面上の情報に変換し、奥行き感のある画像を生成する。   After setting the virtual camera, the AR processing unit 142 performs 2D (Two Dimensions) projection of the virtual camera CML (step S112). Specifically, the AR processing unit 142 converts a three-dimensional object (virtual objects OB1, OB2) in the 3D model space into two-dimensional planar information obtained by the virtual camera CML, and has a sense of depth. Generate an image. Similarly, the AR processing unit 142 performs 2D projection of the virtual camera CMR (step S122). Specifically, the AR processing unit 142 converts a three-dimensional object in the 3D model space into information on a two-dimensional plane obtained by the virtual camera CMR, and generates an image with a sense of depth.

仮想カメラCMLの2D投影後、AR処理部142は、投影により得られた画像をスケーリングする(ステップS114)。具体的には、AR処理部142は、以下の手順b1〜b3を実行する。
(b1)AR処理部142は、手順a1で決定した目標距離Lbを上記式1に当てはめ、目標輻輳角θbを算出する。
(b2)AR処理部142は、求めた目標輻輳角θbと初期輻輳角θaとを上記式2に当てはめ、目標視差角θxを算出する。
(b3)ステップS112により得られた仮想カメラCMLの2D投影画像と、仮想視点IVに配置された仮想カメラCMの2D投影画像とが、θx/θpix画素ずれるように、ステップS112により得られた仮想カメラCMLの2D投影画像を拡大/縮小する。この際、AR処理部142は、右LCD241の解像度を考慮する。
After 2D projection of the virtual camera CML, the AR processing unit 142 scales the image obtained by the projection (step S114). Specifically, the AR processing unit 142 executes the following procedures b1 to b3.
(B1) The AR processing unit 142 applies the target distance Lb determined in the procedure a1 to the above equation 1, and calculates the target convergence angle θb.
(B2) The AR processing unit 142 calculates the target parallax angle θx by applying the obtained target convergence angle θb and initial convergence angle θa to the above equation 2.
(B3) The virtual image obtained in step S112 so that the 2D projection image of the virtual camera CML obtained in step S112 and the 2D projection image of the virtual camera CM arranged at the virtual viewpoint IV are shifted by θx / θpix pixels. Enlarge / reduce the 2D projection image of the camera CML. At this time, the AR processing unit 142 considers the resolution of the right LCD 241.

同様に、仮想カメラCMRの2D投影後、AR処理部142は、投影により得られた画像をスケーリングする(ステップS124)。具体的には、AR処理部142は、上記手順b1、b2、および、以下手順c3を実行する。
(b3)ステップS122により得られた仮想カメラCMRの2D投影画像と、仮想視点IVに配置された仮想カメラCMの2D投影画像とが、θx/θpix画素ずれるように、ステップS122により得られた仮想カメラCMRの2D投影画像を拡大/縮小する。この際、AR処理部142は、左LCD242の解像度を考慮する。
Similarly, after 2D projection of the virtual camera CMR, the AR processing unit 142 scales the image obtained by the projection (step S124). Specifically, the AR processing unit 142 executes the procedures b1 and b2 and the procedure c3 below.
(B3) The virtual image obtained in step S122 so that the 2D projection image of the virtual camera CMR obtained in step S122 and the 2D projection image of the virtual camera CM arranged at the virtual viewpoint IV are shifted by θx / θpix pixels. The 2D projection image of the camera CMR is enlarged / reduced. At this time, the AR processing unit 142 considers the resolution of the left LCD 242.

図9は、上述のようにして、AR処理部142が、仮想視点IVに配置された仮想カメラCMの2D投影画像DTを用いて、投影により得られた画像をスケーリングする様子を示している。なお、上記例では、仮想カメラCMRは右眼相当の位置に設定され、仮想カメラCMLは左眼相当の位置に設定されるとした。しかし、設定される仮想カメラの位置および個数は変更可能である。その後、AR処理部142は、上記のようにして生成した右眼用画像データーData1と左眼用画像データーData2とを、画像処理部160へ送信する(ステップS116、S126)。その後、図2で説明した表示処理が実行されることで、ヘッドマウントディスプレイ100の使用者は、視野VRに、立体的な仮想オブジェクトOBを視認することができる。   FIG. 9 shows how the AR processing unit 142 scales an image obtained by projection using the 2D projection image DT of the virtual camera CM arranged at the virtual viewpoint IV as described above. In the above example, the virtual camera CMR is set to a position corresponding to the right eye, and the virtual camera CML is set to a position corresponding to the left eye. However, the position and the number of virtual cameras to be set can be changed. Thereafter, the AR processing unit 142 transmits the right-eye image data Data1 and the left-eye image data Data2 generated as described above to the image processing unit 160 (steps S116 and S126). Thereafter, the display process described with reference to FIG. 2 is executed, so that the user of the head mounted display 100 can visually recognize the three-dimensional virtual object OB in the visual field VR.

以上のように、第2実施例の拡張現実処理によっても、拡張現実処理部(AR処理部142)は、画像データー(右眼用画像データーData1および左眼用画像データーData2)の生成の際、虚像VIの表示環境に関する種々の条件(右LCD241および左LCD242の大きさ、使用者の左右の眼前に表示される虚像VI間の距離)を考慮して外景SCに仮想オブジェクトOB1,OB2を融像させるため、使用者の視覚的な違和感を緩和した拡張現実感を提供可能な頭部装着型表示装置(ヘッドマウントディスプレイ100)を実現することができる。   As described above, the augmented reality processing unit (AR processing unit 142) also generates the image data (right eye image data Data1 and left eye image data Data2) by the augmented reality processing of the second embodiment. In consideration of various conditions regarding the display environment of the virtual image VI (the size of the right LCD 241 and the left LCD 242 and the distance between the virtual images VI displayed in front of the user's left and right eyes), the virtual objects OB1 and OB2 are fused to the outside scene SC. Therefore, it is possible to realize a head-mounted display device (head mounted display 100) that can provide an augmented reality that reduces the user's visual discomfort.

さらに、第2実施例の拡張現実処理によれば、拡張現実処理部(AR処理部142)は、使用者に仮想オブジェクトOB1,OB2を視認させる目標距離Lbを決定し、決定した目標距離Lbから目標距離Lbにおける輻輳角である目標輻輳角θbを算出し、算出した目標輻輳角θbと第1の輻輳角θa(初期輻輳角θa)とを用いて、目標距離Lbにおける視差角である目標視差角θxを算出する。拡張現実処理部(AR処理部142)は、このようにして算出した目標視差角θxと、画素視差角記憶部(画素視差角124)に記憶されている差分(θpix)とを用いることで、2箇所の仮想カメラ(仮想カメラCMR,CML)による2D投影画像をそれぞれスケーリングして、右眼用画像データーData1と左眼用画像データーData2とを生成することができる。   Further, according to the augmented reality processing of the second embodiment, the augmented reality processing unit (AR processing unit 142) determines the target distance Lb for allowing the user to visually recognize the virtual objects OB1 and OB2, and from the determined target distance Lb. A target convergence angle θb that is a convergence angle at the target distance Lb is calculated, and a target parallax that is a parallax angle at the target distance Lb is calculated using the calculated target convergence angle θb and the first convergence angle θa (initial convergence angle θa). The angle θx is calculated. The augmented reality processing unit (AR processing unit 142) uses the target parallax angle θx calculated in this way and the difference (θpix) stored in the pixel parallax angle storage unit (pixel parallax angle 124). The right-eye image data Data1 and the left-eye image data Data2 can be generated by scaling the 2D projection images from the two virtual cameras (virtual cameras CMR, CML), respectively.

さらに、第2実施例の拡張現実処理によれば、拡張現実処理部(AR処理部142)は、3Dモデル空間上に仮想カメラ(仮想カメラCMR,CML)を設定する際、まず、使用者に仮想オブジェクトを視認させる目標距離Lbに基づいて仮想視点IVを配置する。そして、拡張現実処理部(AR処理部142)は、配置された仮想視点IVから眼間距離/2離れた位置に一方の仮想カメラ(仮想カメラCMR)を配置し、配置された仮想視点から眼間距離/2離れた位置に他方の仮想カメラ(仮想カメラCML)を配置する。この結果、仮想カメラ(仮想カメラCMR,CML)は、使用者に仮想オブジェクトOB1,OB2を視認させる目標距離Lbと、使用者の眼間距離(眼間距離122)との両方を考慮した2D投影画像を取得することができる。   Furthermore, according to the augmented reality processing of the second embodiment, the augmented reality processing unit (AR processing unit 142) first sets the virtual camera (virtual cameras CMR, CML) on the 3D model space to the user. The virtual viewpoint IV is arranged based on the target distance Lb for visually recognizing the virtual object. Then, the augmented reality processing unit (AR processing unit 142) arranges one virtual camera (virtual camera CMR) at a position away from the arranged virtual viewpoint IV by the interocular distance / 2, and the eye is arranged from the arranged virtual viewpoint. The other virtual camera (virtual camera CML) is arranged at a position at a distance of / 2. As a result, the virtual camera (virtual cameras CMR, CML) performs 2D projection in consideration of both the target distance Lb that allows the user to visually recognize the virtual objects OB1 and OB2 and the interocular distance (interocular distance 122) of the user. Images can be acquired.

A−4.拡張現実処理(第3実施例):
第3実施例の拡張現実処理では、第2実施例の拡張現実処理において、使用者の移動に伴って外景SCに融像させるための仮想オブジェクトを変化させることができる。以下では、第2実施例の拡張現実処理と異なる手順についてのみ説明する。なお、図中において第2実施例と同様の部分については先に説明した第2実施例と同様の符号を付し、その詳細な説明を省略する。
A-4. Augmented reality processing (third embodiment):
In the augmented reality process of the third embodiment, in the augmented reality process of the second embodiment, a virtual object to be fused with the outside scene SC can be changed as the user moves. Hereinafter, only a procedure different from the augmented reality process of the second embodiment will be described. In the figure, the same parts as those of the second embodiment are denoted by the same reference numerals as those of the second embodiment described above, and detailed description thereof is omitted.

図10は、第3実施例における拡張現実処理の手順を表すフローチャートである。図7に示した第2実施例との違いは、ステップS104の後にステップS202とS204とを実行する点と、ステップS116およびS126の終了後に処理をステップS202へ遷移させる点である。   FIG. 10 is a flowchart showing the procedure of augmented reality processing in the third embodiment. The difference from the second embodiment shown in FIG. 7 is that steps S202 and S204 are executed after step S104, and the process is shifted to step S202 after steps S116 and S126 are completed.

ステップS202においてAR処理部142は、使用者の視点が移動したか否かを判定する。具体的には、AR処理部142は、使用者の現在位置座標と頭の動きとの少なくともいずれか一方に変化があった場合、使用者の視点が移動したと判定する。なお、使用者の現在位置座標は、GPSモジュール134により検出された制御部10の位置情報により取得する。使用者の頭の動きは、9軸センサー66により検出された動き情報により取得する。使用者の視点が移動していない場合(ステップS202:NO)、AR処理部142は、処理をステップS110およびS120へ遷移させる。   In step S202, the AR processing unit 142 determines whether the user's viewpoint has moved. Specifically, the AR processing unit 142 determines that the user's viewpoint has moved when there is a change in at least one of the current position coordinates of the user and the movement of the head. Note that the current position coordinates of the user are acquired from the position information of the control unit 10 detected by the GPS module 134. The movement of the user's head is acquired from the movement information detected by the 9-axis sensor 66. When the user's viewpoint has not moved (step S202: NO), the AR processing unit 142 causes the process to transition to steps S110 and S120.

使用者の視点が移動した場合(ステップS202:YES)、AR処理部142は、ステップS202で検出した使用者の現在位置座標と頭の動きに基づいて、3Dモデル空間上の所定位置に仮想視点を設定する。詳細は、図7のステップS104と同様である。   When the viewpoint of the user has moved (step S202: YES), the AR processing unit 142 determines the virtual viewpoint at a predetermined position in the 3D model space based on the current position coordinates of the user and the movement of the head detected in step S202. Set. Details are the same as step S104 in FIG.

以上のように、第3実施例の拡張現実処理によれば、使用者の視点の移動に伴って、すなわち、使用者の現在位置座標と頭の動きとの少なくともいずれか一方の変化に伴って、仮想カメラCMLの2D投影画像と仮想カメラCMRの2D投影画像とを生成、スケーリングし、右眼用画像データーData1と左眼用画像データーData2とを生成することができる。この結果、第2実施例での効果に加えて、使用者の視点の移動に伴って外景SCに融像させるための仮想オブジェクトを変化させることができる。   As described above, according to the augmented reality process of the third embodiment, along with the movement of the viewpoint of the user, that is, with the change of at least one of the current position coordinates of the user and the movement of the head. The 2D projection image of the virtual camera CML and the 2D projection image of the virtual camera CMR can be generated and scaled to generate right-eye image data Data1 and left-eye image data Data2. As a result, in addition to the effects of the second embodiment, the virtual object to be fused with the outside scene SC can be changed with the movement of the user's viewpoint.

このように、第1実施形態の頭部装着型表示装置(ヘッドマウントディスプレイ100)によれば、画像表示部20は、使用者の視覚的な違和感を緩和可能な視覚効果(すなわち、仮想オブジェクトの立体視を可能にするための視覚効果)が付された仮想オブジェクトOBを虚像VIとして使用者に視認させる。このため、使用者の視覚的な違和感を緩和した拡張現実感を提供可能な光学透過型の頭部装着型表示装置を提供することができる。   As described above, according to the head-mounted display device (head mounted display 100) of the first embodiment, the image display unit 20 can reduce the visual discomfort of the user (that is, the virtual object). A virtual object OB to which a visual effect for enabling stereoscopic viewing) is attached is visually recognized by a user as a virtual image VI. Therefore, it is possible to provide an optically transmissive head-mounted display device that can provide an augmented reality that alleviates the user's visual discomfort.

B.第2実施形態:
本発明の第2実施形態では、「使用者の視覚的な違和感を緩和可能な視覚効果」として、第1実施形態で例示した「仮想オブジェクトの立体視を可能にするための視覚効果」に代えて、「仮想オブジェクトを使用者の周囲の環境に調和させるための視覚効果」を採用する場合の構成について説明する。以下では、第1実施形態と異なる構成および動作を有する部分についてのみ説明する。なお、図中において第1実施形態と同様の構成部分については先に説明した第1実施形態と同様の符号を付し、その詳細な説明を省略する。
B. Second embodiment:
In the second embodiment of the present invention, instead of the “visual effect for enabling stereoscopic viewing of a virtual object” exemplified in the first embodiment, the “visual effect that can alleviate the user's visual discomfort” is used. A configuration in the case of adopting “visual effect for harmonizing a virtual object with the environment around the user” will be described. Below, only the part which has a different structure and operation | movement from 1st Embodiment is demonstrated. In the figure, the same components as those of the first embodiment are denoted by the same reference numerals as those of the first embodiment described above, and detailed description thereof is omitted.

B−1.頭部装着型表示装置の構成:
図11は、第2実施形態におけるヘッドマウントディスプレイ100aの構成を機能的に示すブロック図である。図2に示した第1実施形態との違いは、制御部10に代えて制御部10aを備える点である。制御部10aの記憶部120には、領域情報122と識別画像記憶部124と(図2)が含まれていない。また、制御部10aは、AR処理部142に代えてAR処理部142aを備える。AR処理部142aは、実行する「拡張現実処理」の処理内容が、第1実施形態とは異なる。具体的には、AR処理部142aは、第1〜第3実施例として説明した第1実施形態の拡張現実処理に代えて、次に説明する拡張現実処理を実行する。
B-1. Configuration of head mounted display device:
FIG. 11 is a block diagram functionally showing the configuration of the head mounted display 100a in the second embodiment. The difference from the first embodiment shown in FIG. 2 is that a control unit 10 a is provided instead of the control unit 10. The storage unit 120 of the control unit 10a does not include the area information 122 and the identification image storage unit 124 (FIG. 2). The control unit 10 a includes an AR processing unit 142 a instead of the AR processing unit 142. The AR processing unit 142a differs from the first embodiment in the processing content of the “augmented reality processing” to be executed. Specifically, the AR processing unit 142a executes the augmented reality process described below instead of the augmented reality process of the first embodiment described as the first to third examples.

B−2.拡張現実処理:
図12は、第2実施形態における拡張現実処理の手順を示すフローチャートである。ステップS302においてAR処理部142aは、使用者の周囲の環境を3次元空間内の仮想的な立体物として表現した3次元情報を取得する。この3次元情報は、使用者の周囲の環境を表現した、いわゆる「3Dモデル」である。AR処理部142aは、3次元情報を、以下のc1〜c3に示すいずれかの方法を用いて取得することができる。
B-2. Augmented reality processing:
FIG. 12 is a flowchart showing the procedure of augmented reality processing in the second embodiment. In step S302, the AR processing unit 142a acquires three-dimensional information representing the environment around the user as a virtual three-dimensional object in the three-dimensional space. This three-dimensional information is a so-called “3D model” that represents the environment around the user. The AR processing unit 142a can acquire the three-dimensional information using any one of the following methods c1 to c3.

(c1)AR処理部142aは、ヘッドマウントディスプレイ100aに接続されているクラウドサーバー等の外部装置から3次元情報を取得する。
(c2)3次元情報が予め記憶部120に記憶されている場合、AR処理部142aは、記憶部120から3次元情報を取得する。
(c3)AR処理部142aは、カメラ61により撮影された外景画像や、使用者の眼前への赤外光の照射等の手段を用いて、使用者の周囲の環境を表現した3次元情報を生成し、生成した3次元情報を取得する。
(C1) The AR processing unit 142a acquires three-dimensional information from an external device such as a cloud server connected to the head mounted display 100a.
(C2) When the three-dimensional information is stored in the storage unit 120 in advance, the AR processing unit 142a acquires the three-dimensional information from the storage unit 120.
(C3) The AR processing unit 142a uses the outside scene image captured by the camera 61 or the infrared light irradiation in front of the user's eyes, and the like to display the three-dimensional information representing the environment around the user. Generate the generated 3D information.

方法c1、c2の場合、AR処理部142aは、GPSモジュール134により検出された使用者の現在位置座標に基づいて、3次元情報の取得範囲を決定することができる。また、方法c3においてカメラ61を用いて3次元情報を生成する場合、AR処理部142aは、カメラ61に連続的に角度を変えた複数の外景画像を取得させる。そして、AR処理部142aは、n(nは任意の整数)枚目に撮影された外景画像と、n+1枚目に撮影された外景画像との差分情報に基づいて、3次元情報を生成することができる。このとき使用するカメラ61は、撮像領域が交差するように配置された複数のカメラであることが好ましい。さらに、複数のカメラのうちの少なくとも1つは、使用者の視線方向に対応した位置に固定されていることが好ましい。カメラ61に連続的に角度を変えた外景画像を取得させるため、AR処理部142aは、9軸センサー66によって検知された使用者の動きが所定の閾値を超える大きさである場合に、カメラ61へ外景画像の撮像指示を出してもよい。   In the case of the methods c1 and c2, the AR processing unit 142a can determine the acquisition range of the three-dimensional information based on the current position coordinates of the user detected by the GPS module 134. In addition, when generating three-dimensional information using the camera 61 in the method c3, the AR processing unit 142a causes the camera 61 to acquire a plurality of outside scene images whose angles are continuously changed. Then, the AR processing unit 142a generates three-dimensional information based on difference information between the nth (n is an arbitrary integer) outer scene image and the (n + 1) th outer scene image. Can do. The cameras 61 used at this time are preferably a plurality of cameras arranged so that the imaging areas intersect. Furthermore, it is preferable that at least one of the plurality of cameras is fixed at a position corresponding to the viewing direction of the user. In order to cause the camera 61 to acquire an outside scene image with continuously changing angles, the AR processing unit 142a determines that the camera 61 is in a case where the user's movement detected by the 9-axis sensor 66 exceeds a predetermined threshold. An instruction to capture an outside scene image may be issued.

ステップS304においてAR処理部142aは、現実空間での使用者の現在位置および視線方向に対応した、3次元情報内での位置および方向を特定する。換言すれば、ステップS304においてAR処理部142aは、3次元情報内の仮想的な使用者の現在位置および視線方向を特定するとも言える。具体的には、AR処理部142aは、以下のd1〜d3に示すいずれかの方法を用いる。   In step S304, the AR processing unit 142a identifies the position and direction in the three-dimensional information corresponding to the current position and line-of-sight direction of the user in the real space. In other words, it can be said that in step S304, the AR processing unit 142a identifies the current position and line-of-sight direction of the virtual user in the three-dimensional information. Specifically, the AR processing unit 142a uses any of the following methods d1 to d3.

(d1)AR処理部142aは、ステップS302で取得された3次元情報と、ステップS304の時点でカメラ61によって取得された使用者の視線方向の外景画像とを比較することで、3次元情報内の仮想的な使用者の現在位置および視線方向を特定する。
(d2)AR処理部142aは、ステップS302で取得された3次元情報に含まれる緯度経度の情報と、ステップS304の時点でGPSモジュール134によって取得された使用者の現在位置座標(緯度経度)を比較することで、3次元情報内の仮想的な使用者の現在位置を特定する。また、AR処理部142aは、9軸センサー66によって取得された使用者の頭部の動きを用いて、3次元情報内の仮想的な使用者の視線方向を特定する。
(d3)現実空間上に予め信号発生装置が複数配置されている場合、AR処理部142aは、信号発生装置から受信する電波や超音波の受信強度を用いて、3次元情報内の仮想的な使用者の現在位置および視線方向を特定する。
(D1) The AR processing unit 142a compares the three-dimensional information acquired in step S302 with the outside scene image in the user's line-of-sight direction acquired by the camera 61 at the time of step S304. The current position and the line-of-sight direction of the virtual user are identified.
(D2) The AR processing unit 142a obtains the latitude / longitude information included in the three-dimensional information acquired in step S302 and the current position coordinates (latitude / longitude) of the user acquired by the GPS module 134 at the time of step S304. By comparing, the current position of the virtual user in the three-dimensional information is specified. In addition, the AR processing unit 142a specifies the virtual user's line-of-sight direction in the three-dimensional information using the movement of the user's head acquired by the 9-axis sensor 66.
(D3) When a plurality of signal generation devices are arranged in advance in the real space, the AR processing unit 142a uses the reception intensity of radio waves and ultrasonic waves received from the signal generation device, and virtually Specify the current position and line-of-sight direction of the user.

ステップS306においてAR処理部142aは、マスクオブジェクトを生成する。「マスクオブジェクト」とは、現実空間の使用者の現在位置および視線方向に対応した位置および方向から見た3次元情報、換言すれば、仮想的な使用者の現在位置および視線方向から見た3次元情報である。AR処理部142aは、ステップS302で取得した3次元情報と、ステップS304で特定した3次元情報内での位置および方向とを用いて、マスクオブジェクトを生成する。   In step S306, the AR processing unit 142a generates a mask object. The “mask object” is three-dimensional information viewed from the position and direction corresponding to the current position and line-of-sight direction of the user in the real space, in other words, 3 viewed from the virtual user's current position and line-of-sight direction. Dimensional information. The AR processing unit 142a generates a mask object using the three-dimensional information acquired in step S302 and the position and direction in the three-dimensional information specified in step S304.

図13は、マスクオブジェクトの一例を示す説明図である。図13(A)は、現実空間での使用者の現在位置および視線方向から見た外景SCを示している。外景SCは、ビルが立ち並ぶオフィス街の風景である。図13(B)は、現実空間での使用者の現在位置および視線方向に対応した、3次元情報内での位置および方向から見たマスクオブジェクトVMを示している。マスクオブジェクトVMは、図13(A)に示した使用者の周囲の環境(外景SC)が3次元空間内で仮想的に表現された「ビル」、「道路」、「木立」、「電柱」の立体物を含んでいる。   FIG. 13 is an explanatory diagram illustrating an example of a mask object. FIG. 13A shows the outside scene SC viewed from the current position and line-of-sight direction of the user in the real space. The outside scene SC is a scenery of an office district where buildings are lined up. FIG. 13B shows the mask object VM viewed from the position and direction in the three-dimensional information corresponding to the current position and line-of-sight direction of the user in the real space. The mask object VM includes “buildings”, “roads”, “tree stands”, “electric poles” in which the environment (outside scene SC) around the user shown in FIG. 13A is virtually represented in a three-dimensional space. The three-dimensional object is included.

このマスクオブジェクトは、仮想オブジェクトに視覚効果を加えるために使用され、画像としては表示されない。なお、図12のステップS306では、ステップS304で特定した3次元情報内での位置および方向に基づいて、ヘッドマウントディスプレイ100aに接続されているクラウドサーバー等の外部装置から3次元情報を取得して、マスクオブジェクトの補完を行ってもよい。   This mask object is used to add a visual effect to the virtual object, and is not displayed as an image. In step S306 in FIG. 12, three-dimensional information is acquired from an external device such as a cloud server connected to the head mounted display 100a based on the position and direction in the three-dimensional information specified in step S304. The mask object may be complemented.

図12のステップS306においてAR処理部142aは、拡張現実処理において、AR処理部142aが虚像VIとして表示させる仮想オブジェクトを表す画像データーを生成する。具体的には、例えば、AR処理部142aは、記憶部120内に予め記憶されている複数の画像データーから、使用者の要求または処理の目的に沿った任意の画像データーを取得する。   In step S306 of FIG. 12, the AR processing unit 142a generates image data representing a virtual object that the AR processing unit 142a displays as a virtual image VI in the augmented reality processing. Specifically, for example, the AR processing unit 142a acquires arbitrary image data according to the user's request or the purpose of processing from a plurality of image data stored in advance in the storage unit 120.

ステップS310においてAR処理部142aは、ステップS306で生成したマスクオブジェクト内にステップS308で生成した仮想オブジェクトを配置する。この配置の際、AR処理部142aは、遠近感を持たせた仮想オブジェクトOBの表示を可能とするために、仮想オブジェクトを配置する目標距離を考慮してもよい。目標距離は、例えば、以下のいずれかの方法で決定することができる。
・カメラ61によって取得された使用者の視界方向の外景画像を解析する。
・GPSモジュール134によって取得された使用者の現在位置座標と、9軸センサー66によって取得された使用者の頭の動きとを解析する。
In step S310, the AR processing unit 142a places the virtual object generated in step S308 in the mask object generated in step S306. In this arrangement, the AR processing unit 142a may consider a target distance for arranging the virtual object in order to display the virtual object OB with a sense of perspective. The target distance can be determined by any of the following methods, for example.
Analyzing the outside scene image obtained by the camera 61 in the direction of the visual field of the user.
Analyzing the current position coordinates of the user acquired by the GPS module 134 and the movement of the user's head acquired by the 9-axis sensor 66.

図14は、マスクオブジェクトVMに対する仮想オブジェクトOBの配置の一例を示す説明図である。図14で例示する仮想オブジェクトOBは「自転車」である。マスクオブジェクトVM内において、仮想オブジェクトOBが配置されている位置は、「木立の前にある歩道の脇」である。ここで、ステップS304で特定した3次元情報内での位置および方向(仮想的な使用者の現在位置および視線方向)からすると、マスクオブジェクト内に配置された仮想オブジェクト(自転車)と、使用者との間には、マスクオブジェクトの一部である「電柱」が配置されている。   FIG. 14 is an explanatory diagram illustrating an example of the arrangement of the virtual object OB with respect to the mask object VM. The virtual object OB illustrated in FIG. 14 is “bicycle”. In the mask object VM, the position where the virtual object OB is arranged is “side of the sidewalk in front of the grove”. Here, from the position and direction in the three-dimensional information specified in step S304 (virtual user's current position and line-of-sight direction), the virtual object (bicycle) arranged in the mask object, the user, Between them, “electric poles” which are part of the mask object are arranged.

図12のステップS312においてAR処理部142aは、仮想オブジェクトOBが配置された状態のマスクオブジェクトVMに対して、周囲の環境に応じた効果を付与する。本実施形態において「周囲の環境に応じた効果」とは、少なくとも、以下のe1〜e3に示すいずれかの効果を意味する。なお、効果e1〜e3は、単独で採用されてもよいし、組み合わせて採用されてもよい。   In step S <b> 312 of FIG. 12, the AR processing unit 142 a gives an effect corresponding to the surrounding environment to the mask object VM in a state where the virtual object OB is arranged. In the present embodiment, the “effect according to the surrounding environment” means at least one of the following effects e1 to e3. Note that the effects e1 to e3 may be employed alone or in combination.

(e1)AR処理部142aは、仮想オブジェクトOBのうち、マスクオブジェクトVMに含まれる立体物の陰になる部分のトリミングを実施する。例えば、図14の例の場合、AR処理部142aは、自転車(仮想オブジェクトOB)のうち、電柱(マスクオブジェクトVMに含まれる立体物)の陰になる部分、すなわち、図14のように仮想的な使用者の現在位置および視線方向から見た場合に、自転車が電柱の陰になって見えない部分をトリミングする。このように、効果e1によれば、AR処理部142aは、仮想オブジェクトOBが現実空間に存在する立体物(図の例では電柱)の影にあるように見えるように、仮想オブジェクトOBの一部をトリミングすることができる。このため、画像表示部20は、仮想オブジェクトOBが、あたかも現実空間に存在する物(電柱)の背後にあるような虚像を、使用者に視認させることができる。 (E1) The AR processing unit 142a performs trimming of a portion of the virtual object OB that is behind the three-dimensional object included in the mask object VM. For example, in the case of the example of FIG. 14, the AR processing unit 142a is a virtual part of the bicycle (virtual object OB) that is behind the utility pole (a solid object included in the mask object VM), that is, as shown in FIG. If the bicycle is viewed from the current user's current position and line of sight, the area where the bicycle is hidden behind the utility pole is trimmed. Thus, according to the effect e1, the AR processing unit 142a allows the virtual object OB to be part of the virtual object OB so that the virtual object OB appears to be in the shadow of a three-dimensional object (electric pole in the illustrated example) that exists in the real space. Can be trimmed. For this reason, the image display part 20 can make a user visually recognize the virtual image as if the virtual object OB is behind the thing (electric pole) which exists in real space.

(e2)AR処理部142aは、周囲の環境に準じたライティングを実施する。具体的には、AR処理部142aは、カメラ61により撮影された外景画像を画像認識することによって、マスクオブジェクトVMの各領域の輝度情報を収集する。輝度情報には、例えば、影領域と、鏡面反射と、拡散反射とが含まれる。AR処理部142aは、収集した輝度情報に基づいて、マスクオブジェクトVMに追加する光源の種類、光源の色温度、光源の強さ等を決定する。ここで、光源の種類には、例えば、点光源(Point Light)、スポットライト(Spot Light)、平行光源(Directional Light)、環境光(Ambient Light)、天空光(Hemisphere Light)、IBL(Image Based Light)等がある。そして、AR処理部142aは、決定した種類、色温度、強さを持つ光源をマスクオブジェクトVMに配置することで、仮想オブジェクトOBのライティングを実施する。 (E2) The AR processing unit 142a performs lighting according to the surrounding environment. Specifically, the AR processing unit 142a collects luminance information of each area of the mask object VM by recognizing an outside scene image captured by the camera 61. The luminance information includes, for example, a shadow area, specular reflection, and diffuse reflection. The AR processing unit 142a determines the type of light source to be added to the mask object VM, the color temperature of the light source, the intensity of the light source, and the like based on the collected luminance information. Here, the types of light sources include, for example, point light sources (Point Light), spot lights (Spot Light), parallel light sources (Directional Light), ambient light (Ambient Light), sky light (Hemisphere Light), and IBL (Image Based). Light) etc. Then, the AR processing unit 142a performs lighting of the virtual object OB by arranging a light source having the determined type, color temperature, and intensity in the mask object VM.

図15は、ライティング実施後の仮想オブジェクトOBの様子を示す説明図である。図15の例では、平行光源DLにより仮想オブジェクトOBのライティングが実施された結果、仮想オブジェクトOBの影OBSが生成されている。このように、効果e2によれば、AR処理部142aは、仮想オブジェクトOBが現実空間に合わせた明暗を持つように、仮想オブジェクトOBを補正することができる。このため、画像表示部20は、仮想オブジェクトOBが、あたかも現実空間に存在する物と混在しているかのような虚像を、使用者に視認させることができる。なお、図12のステップS312において例示した光源は、単独で付与されてもいいし、組み合わせて付与されてもよい。また、AR処理部142aは、マスクオブジェクトVMの各領域の輝度情報を、外景画像の画像解析以外の方法(例えば、現在時刻と方角に基づく演算)で収集してもよい。   FIG. 15 is an explanatory diagram showing a state of the virtual object OB after the writing is performed. In the example of FIG. 15, the shadow OBS of the virtual object OB is generated as a result of the lighting of the virtual object OB being performed by the parallel light source DL. As described above, according to the effect e2, the AR processing unit 142a can correct the virtual object OB so that the virtual object OB has light and dark in accordance with the real space. For this reason, the image display part 20 can make a user visually recognize a virtual image as if the virtual object OB is mixed with the thing which exists in real space. In addition, the light source illustrated in step S312 of FIG. 12 may be provided alone or in combination. Further, the AR processing unit 142a may collect the luminance information of each area of the mask object VM by a method other than the image analysis of the outside scene image (for example, calculation based on the current time and direction).

(e3)AR処理部142aは、マスクオブジェクトVMに含まれる立体物の反発係数と摩擦係数との少なくとも一方に基づく、仮想オブジェクトOBの挙動の調整を実施する。具体的には、AR処理部142aは、カメラ61により撮影された外景画像を画像認識することによって、マスクオブジェクトVMに含まれる立体物の表面の反発係数と摩擦係数とのうちの少なくとも一方を求める。この際、AR処理部142aは、立体物1つに対しての平均反発係数や平均摩擦係数を求めてもよいし、立体物が有する領域ごとに反発係数や摩擦係数を求めてもよい。AR処理部142aは、求めた反発係数または摩擦係数、もしくはその両方に基づいて、経時的に変化する仮想オブジェクトOBの挙動を調整する。 (E3) The AR processing unit 142a adjusts the behavior of the virtual object OB based on at least one of the restitution coefficient and the friction coefficient of the three-dimensional object included in the mask object VM. Specifically, the AR processing unit 142a obtains at least one of the coefficient of restitution and the coefficient of friction of the surface of the three-dimensional object included in the mask object VM by recognizing the outside scene image captured by the camera 61. . At this time, the AR processing unit 142a may obtain an average restitution coefficient and an average friction coefficient for one three-dimensional object, or may obtain a restitution coefficient and a friction coefficient for each region of the three-dimensional object. The AR processing unit 142a adjusts the behavior of the virtual object OB that changes over time based on the obtained coefficient of restitution, coefficient of friction, or both.

図16は、反発係数と摩擦係数とに基づいて仮想オブジェクトOBの挙動が調整される様子を示す説明図である。図16の例では、マスクオブジェクトVMに含まれる立体物が有する領域ごとに、反発係数XX(Xは任意の数字)と、摩擦係数XXとが求められ、記憶されている。AR処理部142aは、ボール形状の仮想オブジェクトOBの動きDIを、動きDI上にある立体物の反発係数XXと摩擦係数XXとに応じて変更する。図の例では、AR処理部142aは、3車線ある道路の中央車線の反発係数と摩擦係数とに応じて、仮想オブジェクトOBが跳ねる大きさを調整する。このように、効果e3によれば、AR処理部142aは、仮想オブジェクトOBの挙動を、現実空間に存在する物の反発係数と摩擦係数との少なくとも一方に応じて調整することができる。このため、画像表示部20は、仮想オブジェクトOBが、あたかも現実空間に存在する物の影響を受けて動いているような虚像を、使用者に視認させることができる。   FIG. 16 is an explanatory diagram showing how the behavior of the virtual object OB is adjusted based on the restitution coefficient and the friction coefficient. In the example of FIG. 16, the restitution coefficient XX (X is an arbitrary number) and the friction coefficient XX are obtained and stored for each region of the three-dimensional object included in the mask object VM. The AR processing unit 142a changes the motion DI of the ball-shaped virtual object OB according to the restitution coefficient XX and the friction coefficient XX of the three-dimensional object on the motion DI. In the example shown in the figure, the AR processing unit 142a adjusts the magnitude of the virtual object OB bouncing according to the coefficient of restitution and the friction coefficient of the center lane of a three-lane road. As described above, according to the effect e3, the AR processing unit 142a can adjust the behavior of the virtual object OB according to at least one of the restitution coefficient and the friction coefficient of an object existing in the real space. For this reason, the image display part 20 can make a user visually recognize the virtual image as if the virtual object OB is moving under the influence of the thing which exists in real space.

図12のステップS314においてAR処理部142aは、仮想カメラの設定と、仮想カメラによる2D投影を行う。具体的には、AR処理部142aは、現実空間での使用者の現在位置および視線方向に対応したマスクオブジェクトVM内での位置および方向(換言すれば、マスクオブジェクトVM内の仮想的な使用者の現在位置および視線方向)に仮想カメラを設定する。そして、AR処理部142aは、マスクオブジェクトVM内の仮想オブジェクトOBを、仮想カメラによって得られた2次元である平面状の情報に変換する。これにより、AR処理部142aは、マスクオブジェクトVM内の仮想オブジェクトOBを2次元化して、視覚効果が加えられた仮想オブジェクトOBの画像データーを得ることができる。   In step S314 in FIG. 12, the AR processing unit 142a performs setting of the virtual camera and 2D projection by the virtual camera. Specifically, the AR processing unit 142a determines the position and direction in the mask object VM corresponding to the current position and line-of-sight direction of the user in the real space (in other words, the virtual user in the mask object VM). Current position and line-of-sight direction). Then, the AR processing unit 142a converts the virtual object OB in the mask object VM into two-dimensional planar information obtained by the virtual camera. Thereby, the AR processing unit 142a can obtain the image data of the virtual object OB to which the visual effect is added by two-dimensionalizing the virtual object OB in the mask object VM.

図17は、仮想カメラの2D投影により得られた画像データーを示す説明図である。図17の例では、画像データーDTには、効果e1が加えられた結果として前輪の一部がトリミングされ、効果e2が加えられた結果として影OBSが付された仮想オブジェクト(自転車)が含まれている。なお、ステップS314の仮想カメラ設定の際、AR処理部142aは、使用者の眼から使用者の注視点までの間の距離に応じて、仮想カメラの被写界深度等の設定を実施することが好ましい。そうすれば、仮想カメラの2D投影によって得られた仮想オブジェクトOBの画像データーにおいて、仮想オブジェクトOBにピンボケ効果を追加することができる。また、ステップS314において設定される仮想カメラは、1つでもよいし、使用者の左右の眼に対応した2つの仮想カメラでもよいし、3つ以上の複数の仮想カメラでもよい。   FIG. 17 is an explanatory diagram showing image data obtained by 2D projection of a virtual camera. In the example of FIG. 17, the image data DT includes a virtual object (bicycle) with a part of the front wheel trimmed as a result of the effect e1 being added and a shadow OBS added as a result of the effect e2 being added. ing. Note that when setting the virtual camera in step S314, the AR processing unit 142a performs setting of the depth of field of the virtual camera and the like according to the distance from the user's eye to the user's gaze point. Is preferred. Then, the defocus effect can be added to the virtual object OB in the image data of the virtual object OB obtained by the 2D projection of the virtual camera. Further, the number of virtual cameras set in step S314 may be one, two virtual cameras corresponding to the left and right eyes of the user, or three or more virtual cameras.

図18は、第2実施形態の拡張現実処理において、使用者に視認される虚像VIの一例を示す説明図である。図12のステップS316においてAR処理部142aは、上記のようにして生成された画像データーDTを、画像処理部160へ送信する。その後、図2で説明した表示処理が実行されることで、ヘッドマウントディスプレイ100aの使用者は、視野VRに、視覚効果(トリミング、および、影OBS)が加えられた仮想オブジェクトOBを視認することができる。   FIG. 18 is an explanatory diagram illustrating an example of a virtual image VI visually recognized by the user in the augmented reality processing according to the second embodiment. In step S316 of FIG. 12, the AR processing unit 142a transmits the image data DT generated as described above to the image processing unit 160. Thereafter, the display process described with reference to FIG. 2 is executed, so that the user of the head mounted display 100a visually recognizes the virtual object OB in which the visual effect (trimming and shadow OBS) is added to the visual field VR. Can do.

以上のように、第2実施形態の頭部装着型表示装置(ヘッドマウントディスプレイ100a)によれば、画像表示部20は、使用者の視覚的な違和感が緩和された仮想オブジェクトOB、すなわち、使用者の視覚的な違和感を緩和可能な視覚効果(すなわち、仮想オブジェクトを周囲の環境に調和させるための視覚効果)が付された仮想オブジェクトOB、を虚像VIとして使用者に視認させる。このため、使用者の視覚的な違和感を緩和した拡張現実感を提供可能な光学透過型の頭部装着型表示装置を提供することができる。また、拡張現実処理部(AR処理部142a)は、3次元情報から生成されたマスクオブジェクトVMを用いて仮想オブジェクトOBに視覚効果を加え、仮想オブジェクトOBを周囲の環境に調和させる。このため、従来のように、カメラで撮影された画像に基づいて仮想オブジェクトに視覚効果を加えて仮想オブジェクトを周囲の環境に調和させる場合と比較して、調和の精度を向上させることができる。   As described above, according to the head-mounted display device (head-mounted display 100a) of the second embodiment, the image display unit 20 is a virtual object OB in which the user's visual discomfort is reduced, that is, the use The virtual object OB to which a visual effect (that is, a visual effect for harmonizing the virtual object with the surrounding environment) that can alleviate the user's visual discomfort is visually recognized as a virtual image VI. Therefore, it is possible to provide an optically transmissive head-mounted display device that can provide an augmented reality that alleviates the user's visual discomfort. The augmented reality processing unit (AR processing unit 142a) adds a visual effect to the virtual object OB using the mask object VM generated from the three-dimensional information, and harmonizes the virtual object OB with the surrounding environment. For this reason, the accuracy of harmony can be improved as compared with the conventional case where the virtual object is harmonized with the surrounding environment by applying a visual effect to the virtual object based on the image taken by the camera.

また、第2実施形態の頭部装着型表示装置(ヘッドマウントディスプレイ100a)によれば、拡張現実処理部(AR処理部142a)は、仮想オブジェクトOBに対して、環境に準じたトリミング(効果e1)、環境に準じたライティング(効果e2)、環境に準じた挙動の調整(効果e3)のうち、少なくともいずれかの視覚効果を加えることができる。さらに、拡張現実処理部(AR処理部142a)は、画像取得部(カメラ61)により撮影された外景画像(使用者の視界方向の画像)を画像認識することで、自動的に、使用者の周囲の環境(具体的には、効果e2の輝度情報、効果e3の場合の反発係数と摩擦係数)を推定することができる。   Further, according to the head mounted display device (head mounted display 100a) of the second embodiment, the augmented reality processing unit (AR processing unit 142a) performs trimming (effect e1) according to the environment on the virtual object OB. ), Lighting according to the environment (effect e2), and behavior adjustment according to the environment (effect e3), at least one of the visual effects can be added. Further, the augmented reality processing unit (AR processing unit 142a) automatically recognizes the outside scene image (image in the user's field of view) captured by the image acquisition unit (camera 61), and automatically The surrounding environment (specifically, the luminance information of the effect e2, the restitution coefficient and the friction coefficient in the case of the effect e3) can be estimated.

C.変形例:
上記実施形態において、ハードウェアによって実現されるとした構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されるとした構成の一部をハードウェアに置き換えるようにしてもよい。その他、以下のような変形も可能である。
C. Variation:
In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. Good. In addition, the following modifications are possible.

・変形例1:
上記実施形態では、ヘッドマウントディスプレイの構成について例示した。しかし、ヘッドマウントディスプレイの構成は、本発明の要旨を逸脱しない範囲において任意に定めることが可能であり、例えば、各構成部の追加・削除・変換等を行うことができる。
・ Modification 1:
In the said embodiment, it illustrated about the structure of the head mounted display. However, the configuration of the head-mounted display can be arbitrarily determined without departing from the gist of the present invention. For example, each component can be added, deleted, converted, and the like.

上記実施形態における、制御部と、画像表示部とに対する構成要素の割り振りは、あくまで一例であり、種々の態様を採用可能である。例えば、以下のような態様としてもよい。(i)制御部にCPUやメモリー等の処理機能を搭載、画像表示部には表示機能のみを搭載する態様、(ii)制御部と画像表示部との両方にCPUやメモリー等の処理機能を搭載する態様、(iii)制御部と画像表示部とを一体化した態様(例えば、画像表示部に制御部が含まれ眼鏡型のウェアラブルコンピューターとして機能する態様)、(iv)制御部の代わりにスマートフォンや携帯型ゲーム機を使用する態様、(v)制御部と画像表示部とを無線通信かつワイヤレス給電可能な構成とすることにより接続部(コード)を廃した態様。   The allocation of components to the control unit and the image display unit in the above embodiment is merely an example, and various aspects can be employed. For example, the following aspects may be adopted. (I) A mode in which processing functions such as a CPU and a memory are mounted on the control unit, and only a display function is mounted on the image display unit. (Ii) Processing functions such as a CPU and a memory are provided in both the control unit and the image display unit. (Iii) a mode in which the control unit and the image display unit are integrated (for example, a mode in which the control unit is included in the image display unit and functions as a glasses-type wearable computer), (iv) instead of the control unit A mode in which a smartphone or a portable game machine is used, and (v) a mode in which the connection unit (code) is eliminated by adopting a configuration in which the control unit and the image display unit can perform wireless communication and wireless power feeding.

上記実施形態では、説明の便宜上、制御部が送信部を備え、画像表示部が受信部を備えるものとした。しかし、上記実施形態の送信部および受信部は、いずれも、双方向通信が可能な機能を備えており、送受信部として機能することができる。また、例えば、図2に示した制御部は、有線の信号伝送路を介して画像表示部と接続されているものとした。しかし、制御部と、画像表示部とは、無線LANや赤外線通信やBluetooth(登録商標)等の無線の信号伝送路を介した接続により接続されていてもよい。   In the above embodiment, for convenience of explanation, the control unit includes a transmission unit, and the image display unit includes a reception unit. However, each of the transmission unit and the reception unit of the above-described embodiment has a function capable of bidirectional communication, and can function as a transmission / reception unit. For example, the control unit shown in FIG. 2 is connected to the image display unit via a wired signal transmission path. However, the control unit and the image display unit may be connected by a connection via a wireless signal transmission path such as a wireless LAN, infrared communication, or Bluetooth (registered trademark).

例えば、図2に示した制御部、画像表示部の構成は任意に変更することができる。具体的には、例えば、制御部からタッチパッドを省略し、十字キーのみで操作する構成としてもよい。また、制御部に操作用スティック等の他の操作用インターフェイスを備えても良い。また、制御部にはキーボードやマウス等のデバイスを接続可能な構成として、キーボードやマウスから入力を受け付けるものとしてもよい。また、例えば、タッチパッドや十字キーによる操作入力のほか、フットスイッチ(使用者の足により操作するスイッチ)による操作入力を取得してもよい。例えば、画像表示部に赤外線センサー等の視線検知部を設けた上で、使用者の視線を検知し、視線の動きに対応付けられたコマンドによる操作入力を取得してもよい。例えば、カメラを用いて使用者のジェスチャーを検知し、ジェスチャーに対応付けられたコマンドによる操作入力を取得してもよい。ジェスチャー検知の際は、使用者の指先や、使用者の手に付けられた指輪や、使用者の手にする医療器具等を動き検出のための目印にすることができる。フットスイッチや視線による操作入力を取得可能とすれば、使用者が手を離すことが困難である作業においても、入力情報取得部は、使用者からの操作入力を取得することができる。   For example, the configurations of the control unit and the image display unit illustrated in FIG. 2 can be arbitrarily changed. Specifically, for example, the touch pad may be omitted from the control unit, and the operation may be performed using only the cross key. Further, the control unit may be provided with another operation interface such as an operation stick. Moreover, it is good also as what receives input from a keyboard or a mouse | mouth as a structure which can connect devices, such as a keyboard and a mouse | mouth, to a control part. Further, for example, in addition to an operation input using a touch pad or a cross key, an operation input using a foot switch (a switch operated by a user's foot) may be acquired. For example, after providing a line-of-sight detection unit such as an infrared sensor in the image display unit, the user's line of sight may be detected, and an operation input by a command associated with the movement of the line of sight may be acquired. For example, a user's gesture may be detected using a camera, and an operation input by a command associated with the gesture may be acquired. When detecting a gesture, a user's fingertip, a ring attached to the user's hand, a medical device to be used by the user's hand, or the like can be used as a mark for motion detection. If it is possible to acquire an operation input using a foot switch or a line of sight, the input information acquisition unit can acquire an operation input from the user even in a task in which it is difficult for the user to release his / her hand.

例えば、ヘッドマウントディスプレイは、両眼タイプの透過型ヘッドマウントディスプレイであるものとしたが、単眼タイプのヘッドマウントディスプレイとしてもよい。また、使用者がヘッドマウントディスプレイを装着した状態において外景の透過が遮断される非透過型ヘッドマウントディスプレイとして構成してもよい。   For example, the head mounted display is a binocular transmissive head mounted display, but may be a monocular head mounted display. Further, it may be configured as a non-transmissive head mounted display in which the transmission of the outside scene is blocked when the user wears the head mounted display.

図19は、変形例におけるヘッドマウントディスプレイの外観の構成を示す説明図である。図19(A)の例の場合、図1に示したヘッドマウントディスプレイ100との違いは、画像表示部20aが、右光学像表示部26に代えて右光学像表示部26aを備える点と、左光学像表示部28に代えて左光学像表示部28aを備える点である。右光学像表示部26aは、第1実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の右眼の斜め上に配置されている。同様に、左光学像表示部28aは、第1実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の左眼の斜め上に配置されている。図19(B)の例の場合、図1に示したヘッドマウントディスプレイ100との違いは、画像表示部20bが、右光学像表示部26に代えて右光学像表示部26bを備える点と、左光学像表示部28に代えて左光学像表示部28bを備える点である。右光学像表示部26bは、第1実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の右眼の斜め下に配置されている。左光学像表示部28bは、第1実施形態の光学部材よりも小さく形成され、ヘッドマウントディスプレイの装着時における使用者の左眼の斜め下に配置されている。このように、光学像表示部は使用者の眼の近傍に配置されていれば足りる。また、光学像表示部を形成する光学部材の大きさも任意であり、光学像表示部が使用者の眼の一部分のみを覆う態様、換言すれば、光学像表示部が使用者の眼を完全に覆わない態様のヘッドマウントディスプレイとして実現することもできる。   FIG. 19 is an explanatory diagram showing an external configuration of a head mounted display in a modified example. In the case of the example of FIG. 19A, the difference from the head mounted display 100 shown in FIG. 1 is that the image display unit 20a includes a right optical image display unit 26a instead of the right optical image display unit 26. Instead of the left optical image display unit 28, a left optical image display unit 28a is provided. The right optical image display unit 26a is formed smaller than the optical member of the first embodiment, and is disposed obliquely above the right eye of the user when the head mounted display is mounted. Similarly, the left optical image display unit 28a is formed smaller than the optical member of the first embodiment, and is disposed obliquely above the left eye of the user when the head mounted display is mounted. In the example of FIG. 19B, the difference from the head-mounted display 100 shown in FIG. 1 is that the image display unit 20b includes a right optical image display unit 26b instead of the right optical image display unit 26. Instead of the left optical image display unit 28, a left optical image display unit 28b is provided. The right optical image display unit 26b is formed smaller than the optical member of the first embodiment, and is disposed obliquely below the right eye of the user when the head mounted display is mounted. The left optical image display unit 28b is formed smaller than the optical member of the first embodiment, and is disposed obliquely below the left eye of the user when the head mounted display is mounted. Thus, it is sufficient that the optical image display unit is disposed in the vicinity of the user's eyes. The size of the optical member forming the optical image display unit is also arbitrary, and the optical image display unit covers only a part of the user's eye, in other words, the optical image display unit completely covers the user's eye. It can also be realized as an unmounted head mounted display.

例えば、画像処理部、表示制御部、AR処理部、音声処理部等の機能部は、CPUがROMやハードディスクに格納されているコンピュータープログラムをRAMに展開して実行することにより実現されるものとして記載した。しかし、これら機能部は、当該機能を実現するために設計されたASIC(Application Specific Integrated Circuit:特定用途向け集積回路)を用いて構成されてもよい。   For example, functional units such as an image processing unit, a display control unit, an AR processing unit, and an audio processing unit are realized by the CPU developing and executing a computer program stored in the ROM or hard disk on the RAM. Described. However, these functional units may be configured using an ASIC (Application Specific Integrated Circuit) designed to realize the function.

例えば、上記実施形態では、画像表示部を眼鏡のように装着するヘッドマウントディスプレイであるとしているが、画像表示部が通常の平面型ディスプレイ装置(液晶ディスプレイ装置、プラズマディスプレイ装置、有機ELディスプレイ装置等)であるとしてもよい。この場合にも、制御部と画像表示部との間の接続は、有線の信号伝送路を介した接続であってもよいし、無線の信号伝送路を介した接続であってもよい。このようにすれば、制御部を、通常の平面型ディスプレイ装置のリモコンとして利用することもできる。   For example, in the above-described embodiment, it is assumed that the image display unit is a head mounted display that is mounted like glasses, but the image display unit is a normal flat display device (liquid crystal display device, plasma display device, organic EL display device, etc. ). Also in this case, the connection between the control unit and the image display unit may be a connection via a wired signal transmission path or a connection via a wireless signal transmission path. If it does in this way, a control part can also be utilized as a remote control of a usual flat type display device.

また、画像表示部として、眼鏡のように装着する画像表示部に代えて、例えば帽子のように装着する画像表示部といった他の形状の画像表示部を採用してもよい。また、イヤホンは耳掛け型やヘッドバンド型を採用してもよく、省略しても良い。また、例えば、自動車や飛行機等の車両に搭載されるヘッドアップディスプレイ(HUD、Head-Up Display)として構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。   Further, as the image display unit, instead of the image display unit worn like glasses, an image display unit of another shape such as an image display unit worn like a hat may be adopted. Further, the earphone may be an ear-hook type or a headband type, or may be omitted. Further, for example, it may be configured as a head-up display (HUD, Head-Up Display) mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet.

例えば、上記実施形態では、電源として二次電池を用いることしたが、電源としては二次電池に限らず、種々の電池を使用することができる。例えば、一次電池や、燃料電池、太陽電池、熱電池等を使用してもよい。   For example, in the above-described embodiment, the secondary battery is used as the power source. However, the power source is not limited to the secondary battery, and various batteries can be used. For example, a primary battery, a fuel cell, a solar cell, a thermal cell, or the like may be used.

例えば、上記実施形態では、画像光生成部は、バックライトと、バックライト制御部と、LCDと、LCD制御部とを用いて構成されるものとした。しかし、上記の態様はあくまで例示である。画像光生成部は、これらの構成部と共に、またはこれらの構成部に代えて、他の方式を実現するための構成部を備えていても良い。例えば、画像光生成部は、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としても良い。また、例えば、画像生成部は、LCDに代えてデジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型の頭部装着型表示装置に対して本発明を適用することも可能である。   For example, in the above embodiment, the image light generation unit is configured using a backlight, a backlight control unit, an LCD, and an LCD control unit. However, the above aspect is merely an example. The image light generation unit may include a configuration unit for realizing another method together with or in place of these configuration units. For example, the image light generation unit may include an organic EL (Organic Electro-Luminescence) display and an organic EL control unit. Further, for example, the image generation unit can use a digital micromirror device or the like instead of the LCD. Further, for example, the present invention can be applied to a laser retinal projection type head-mounted display device.

・変形例2:
上記第1実施形態では、拡張現実処理の一例を示した。しかし、上記拡張現実処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
Modification 2
In the first embodiment, an example of augmented reality processing has been described. However, the procedure of the augmented reality process is merely an example, and various modifications can be made. For example, some steps may be omitted, and other steps may be added. Further, the order of the steps to be executed may be changed.

上記実施形態では、画素視差角は、左右同一の画像データーに基づいて表示された虚像の輻輳角と、左右で1画素(ピクセル)ずらした画像データーに基づいて表示された虚像との輻輳角の差分であるとした。しかし、画素視差角は、左右同一の画像データーに基づいて表示された虚像の輻輳角と、左右でずらした画像データーに基づいて表示された虚像との輻輳角の差分であればよく、左右の画像データーのずらし量は1画素(ピクセル)に限られない。   In the above-described embodiment, the pixel parallax angle is a convergence angle between a convergence angle of a virtual image displayed based on the same image data on the left and right and a virtual image displayed based on image data shifted by one pixel on the left and right. The difference was assumed. However, the pixel parallax angle may be a difference between the convergence angle of the virtual image displayed based on the same left and right image data and the convergence angle of the virtual image displayed based on the image data shifted left and right. The shift amount of the image data is not limited to one pixel (pixel).

例えば、拡張現実処理において、算出した目標視差角θxが平行より大きくなる場合(すなわちθx<−θa/2となる場合)、AR処理部は、このような目標視差角θxを実現するための画像データーの生成を抑制することができる。そうすれば、使用者が感じる違和感を緩和することができる。   For example, in the augmented reality process, when the calculated target parallax angle θx is larger than parallel (that is, when θx <−θa / 2), the AR processing unit is an image for realizing such a target parallax angle θx. Data generation can be suppressed. By doing so, it is possible to relieve the user's uncomfortable feeling.

視差角が過度に大きすぎると、使用者は違和感を覚えやすくなる。このため、例えば、拡張現実処理において、算出した目標視差角θxが所定の閾値以上となる場合(すなわちθx>θlimとなる場合)、AR処理部は、このような目標視差角θxを実現するための画像データーの生成を抑制することができる。なお、所定の閾値(θlim)は、「当該利用者にとって、物体が二重に見える視差と一重に見える視差との境界」とすることが好ましい。所定の閾値(θlim)は、使用者の好みに応じて調整可能としてもよい。   If the parallax angle is too large, the user tends to feel uncomfortable. Therefore, for example, in the augmented reality process, when the calculated target parallax angle θx is equal to or larger than a predetermined threshold (that is, when θx> θlim), the AR processing unit realizes such a target parallax angle θx. Generation of image data can be suppressed. The predetermined threshold (θlim) is preferably “a boundary between parallax in which an object looks double and single parallax for the user”. The predetermined threshold (θlim) may be adjustable according to the user's preference.

AR処理部は、決定した目標距離Lbの大きさ、または、算出した目標視差角θxの大きさに応じて、右眼用画像データーおよび左眼用画像データーの彩度、明度、コントラストを調整してもよい。例えば、遠方に表示させる仮想オブジェクトを表す画像データーの場合、彩度、明度、コントラストのうちの少なくともいずれかを低下させることによって、使用者が感じる遠近感を強調することができる。   The AR processing unit adjusts the saturation, brightness, and contrast of the right-eye image data and the left-eye image data according to the determined target distance Lb or the calculated target parallax angle θx. May be. For example, in the case of image data representing a virtual object to be displayed in the distance, the sense of perspective felt by the user can be enhanced by reducing at least one of saturation, brightness, and contrast.

画素視差角に記憶されている視差角θpixは、使用者の好みに応じて調整可能としてもよい。利用者は、遠近感を強調したい場合視差角θpixを小さく調整し、遠近感を緩和したい場合視差角θpixを大きく調整することができる。   The parallax angle θpix stored in the pixel parallax angle may be adjustable according to the user's preference. The user can adjust the parallax angle θpix small to enhance the perspective, and can adjust the parallax angle θpix large to reduce the perspective.

・変形例3:
上記第1実施形態において、AR処理部は、カメラによって取得された使用者の視界方向の外景画像を、画素視差角によりパターンマッチングさせて、拡張現実処理を実現してもよい。具体的には、画像表示部は、右眼用カメラと、左眼用カメラとを備える構成とする。右眼用カメラは、画像表示部の使用者の右眼に対応する位置に配置され、画像表示部の表側方向の外景を撮像可能なカメラである。左眼用カメラは、画像表示部の使用者の左眼に対応する位置に配置され、画像表示部の表側方向の外景を撮像可能なカメラである。AR処理部は、右眼用カメラにより撮像された画像に含まれる対象物体(仮想オブジェクトを近傍に表示させる対象となる物体)と、左眼用カメラにより撮像された画像に含まれる対象物体との間のずれ量を求め、当該ずれ量と画素視差角とを用いて、拡張現実処理における「目標距離」を決定してもよい。
・ Modification 3:
In the first embodiment, the AR processing unit may realize the augmented reality process by pattern matching the outside scene image in the user's view direction acquired by the camera with the pixel parallax angle. Specifically, the image display unit includes a right-eye camera and a left-eye camera. The right-eye camera is a camera that is arranged at a position corresponding to the right eye of the user of the image display unit and can capture an outside scene in the front side direction of the image display unit. The left-eye camera is a camera that is arranged at a position corresponding to the left eye of the user of the image display unit and can capture an outside scene in the front side direction of the image display unit. The AR processing unit includes a target object included in the image captured by the right-eye camera (an object to be displayed in the vicinity of the virtual object) and a target object included in the image captured by the left-eye camera. It is also possible to determine the “target distance” in augmented reality processing using the amount of deviation between them and using the amount of deviation and the pixel parallax angle.

・変形例4:
上記第1実施形態において、AR処理部は、上記の拡張現実処理を、所定の条件が満足される場合に限って実行してもよい。例えば、画像表示部に対して使用者の視線の方向を検出可能な構成を備えたうえで、AR処理部は、検出された視線の方向が以下の条件のうちの少なくともいずれか1つを満たす場合に限って、上記の拡張現実処理を実行してもよい。
・水平約200°、垂直約125°(例えば、下方向75°、上方向50°)の視野角の範囲内であるとき。
・情報受容能力に優れる有効視野である、水平約30°、垂直約20°の範囲内であるとき。
・注視点が迅速に安定して見える安定注視野である、水平60°〜90°、垂直45°〜70°の範囲内であるとき。
・映像に誘発される自己運動感覚(ベクション)の誘発が起こりはじめる水平約20°から、自己運動感覚が飽和する約110°の範囲内であるとき。
-Modification 4:
In the first embodiment, the AR processing unit may execute the augmented reality process only when a predetermined condition is satisfied. For example, after having a configuration capable of detecting the direction of the user's line of sight with respect to the image display unit, the AR processing unit satisfies at least one of the following conditions for the detected line of sight direction: Only in the case, the above augmented reality processing may be executed.
When the viewing angle is within a range of about 200 ° horizontal and about 125 ° vertical (for example, 75 ° downward and 50 ° upward).
-When it is within the range of about 30 ° in the horizontal direction and about 20 ° in the vertical direction, which is an effective visual field with excellent information receiving ability.
-When the gazing point is within the range of 60 ° to 90 ° horizontal and 45 ° to 70 ° vertical, which is a stable gazing field that appears quickly and stably.
-When the self-motion sensation (vection) induced by the image is within a range from about 20 ° where the induction of self-motion sensation begins to about 110 ° where the self-motion sense is saturated.

・変形例5:
上記第2実施形態では、拡張現実処理の一例を示した。しかし、上記拡張現実処理の手順はあくまで一例であり、種々の変形が可能である。例えば、一部のステップを省略してもよいし、更なる他のステップを追加してもよい。また、実行されるステップの順序を変更してもよい。
-Modification 5:
In the second embodiment, an example of augmented reality processing has been described. However, the procedure of the augmented reality process is merely an example, and various modifications can be made. For example, some steps may be omitted, and other steps may be added. Further, the order of the steps to be executed may be changed.

第2実施形態の拡張現実処理は、第1実施形態の拡張現実処理の代替処理であるとして説明した。しかし、第2実施形態の拡張現実処理は、第1実施形態の拡張現実処理と並列に実行されてもよい。   The augmented reality process of the second embodiment has been described as an alternative process of the augmented reality process of the first embodiment. However, the augmented reality process of the second embodiment may be executed in parallel with the augmented reality process of the first embodiment.

第2実施形態の拡張現実処理のステップS302では、3次元情報取得の方法c1〜c3を例示した。しかし、上記方法はあくまで例示であり、AR処理部は、方法c1〜c3以外の他の方法を用いて3次元情報を取得してもよい。また、AR処理部は、一の方法(例えば方法c3)を用いて取得した3次元情報を、他の方法(例えば方法c1)を用いて取得した情報によって補正してもよい。   In step S302 of the augmented reality process of the second embodiment, three-dimensional information acquisition methods c1 to c3 are exemplified. However, the above method is merely an example, and the AR processing unit may acquire three-dimensional information using a method other than the methods c1 to c3. In addition, the AR processing unit may correct the three-dimensional information acquired using one method (for example, method c3) with the information acquired using another method (for example, method c1).

第2実施形態の拡張現実処理において、さらに、現実空間の大きさと仮想オブジェクトの大きさとのバランスを調整するために、カメラで撮像可能な領域の大きさと、使用者の眼前に虚像として投写される領域の大きさとを、擬似的に一致させる(キャリブレーションする)処理を実施してもよい。   In the augmented reality processing of the second embodiment, in order to further adjust the balance between the size of the real space and the size of the virtual object, it is projected as a virtual image in front of the user and the size of the area that can be captured by the camera. A process of matching (calibrating) the size of the region in a pseudo manner may be performed.

第2実施形態の拡張現実処理のステップS312における効果e1〜e3はあくまで例示であり、AR処理部が加える効果は任意に定めることができる。例えば、AR処理部は、効果e1〜e3に代えて、または効果e1〜e3と共に、次の効果を加えてもよい。具体的には、AR処理部は、仮想オブジェクトを配置する目標距離に応じて、仮想オブジェクトに対して、遠近感を付与するための効果を加える。遠近感を付与するための効果としては、例えば、目標距離が遠い場合はフォグ効果を採用することができ、目標距離が近い場合はシャープネス効果を採用することができる。   The effects e1 to e3 in step S312 of the augmented reality process of the second embodiment are merely examples, and the effect added by the AR processing unit can be arbitrarily determined. For example, the AR processing unit may add the following effects instead of the effects e1 to e3 or together with the effects e1 to e3. Specifically, the AR processing unit adds an effect for imparting perspective to the virtual object according to the target distance at which the virtual object is placed. As an effect for imparting a sense of perspective, for example, a fog effect can be employed when the target distance is far, and a sharpness effect can be employed when the target distance is short.

・変形例6:
本発明は、上述の実施形態や実施例、変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、実施例、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
Modification 6:
The present invention is not limited to the above-described embodiments, examples, and modifications, and can be realized with various configurations without departing from the spirit thereof. For example, the technical features in the embodiments, examples, and modifications corresponding to the technical features in each embodiment described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the above-described effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

10…制御部(コントローラー)
12…点灯部
14…タッチパッド
16…十字キー
18…電源スイッチ
20…画像表示部
21…右保持部
22…右表示駆動部
23…左保持部
24…左表示駆動部
26…右光学像表示部
28…左光学像表示部
30…イヤホンプラグ
32…右イヤホン
34…左イヤホン
40…接続部
42…右コード
44…左コード
46…連結部材
48…本体コード
51…送信部
52…送信部
53…受信部
54…受信部
61…カメラ
62…瞳孔間距離測定部
110…入力情報取得部
100、100a…ヘッドマウントディスプレイ(頭部装着型表示装置)
120…記憶部
122…眼間距離(眼間距離記憶部)
124…画素視差角(画素視差角記憶部)
130…電源
140…CPU
142、142a…AR処理部(拡張現実処理部)
160…画像処理部
170…音声処理部
180…インターフェイス
190…表示制御部
201…右バックライト制御部
202…左バックライト制御部
211…右LCD制御部
212…左LCD制御部
221…右バックライト
222…左バックライト
241…右LCD
242…左LCD
251…右投写光学系
252…左投写光学系
261…右導光板
262…左導光板
PCLK…クロック信号
VSync…垂直同期信号
HSync…水平同期信号
Data…画像データー
Data1…右眼用画像データー
Data2…左眼用画像データー
OA…外部機器
PC…パーソナルコンピューター
SC…外景
RE…右眼
LE…左眼
VI…虚像
ER…端部
EL…端部
AP…先端部
VR…視野
VD…視点方向
IV…仮想視点
OB…仮想オブジェクト
OB1…仮想オブジェクト
OB2…仮想オブジェクト
OBS…仮想オブジェクトの影
CM…仮想カメラ
CML…仮想カメラ
CMR…仮想カメラ
DI…仮想オブジェクトの動き
VM…マスクオブジェクト
θa…初期輻輳角(第1の輻輳角)
θb…目標輻輳角
θc…輻輳角(第2の輻輳角θ)
θx…目標視差角
10. Control unit (controller)
DESCRIPTION OF SYMBOLS 12 ... Lighting part 14 ... Touch pad 16 ... Cross key 18 ... Power switch 20 ... Image display part 21 ... Right holding part 22 ... Right display drive part 23 ... Left holding part 24 ... Left display drive part 26 ... Right optical image display part 28 ... Left optical image display unit 30 ... Earphone plug 32 ... Right earphone 34 ... Left earphone 40 ... Connection unit 42 ... Right cord 44 ... Left cord 46 ... Connecting member 48 ... Body code 51 ... Transmission unit 52 ... Transmission unit 53 ... Reception Unit 54: Receiver 61 ... Camera 62 ... Interpupillary distance measurement unit 110 ... Input information acquisition unit 100, 100a ... Head mounted display (head mounted display device)
120 ... Storage unit 122 ... Interocular distance (interocular distance storage unit)
124: Pixel parallax angle (pixel parallax angle storage unit)
130 ... Power supply 140 ... CPU
142, 142a ... AR processing unit (augmented reality processing unit)
DESCRIPTION OF SYMBOLS 160 ... Image processing part 170 ... Audio | voice processing part 180 ... Interface 190 ... Display control part 201 ... Right backlight control part 202 ... Left backlight control part 211 ... Right LCD control part 212 ... Left LCD control part 221 ... Right backlight 222 ... Left backlight 241 ... Right LCD
242 ... Left LCD
251 ... Right projection optical system 252 ... Left projection optical system 261 ... Right light guide plate 262 ... Left light guide plate PCLK ... Clock signal VSync ... Vertical sync signal HSync ... Horizontal sync signal Data ... Image data Data1 ... Right eye image data Data2 ... Left Image data for eyes OA ... External device PC ... Personal computer SC ... Outside view RE ... Right eye LE ... Left eye VI ... Virtual image ER ... End EL ... End AP ... End portion VR ... View VD ... View direction IV ... Virtual viewpoint OB ... virtual object OB1 ... virtual object OB2 ... virtual object OBS ... shadow of virtual object CM ... virtual camera CML ... virtual camera CMR ... virtual camera DI ... movement of virtual object VM ... mask object θa ... initial convergence angle (first convergence angle) )
θb ... target convergence angle θc ... convergence angle (second convergence angle θ)
θx ... Target parallax angle

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。一の形態は、頭部装着型表示装置であって、使用者に第1の仮想オブジェクトと第2の仮想オブジェクトとを視認させる画像表示部と、前記第1の仮想オブジェクトを表す画像データーと前記第2の仮想オブジェクトを表す画像データーとを生成して、前記画像表示部に送信する拡張現実処理部と、を備え、前記拡張現実処理部は、前記第1の仮想オブジェクトが、前記第1の仮想オブジェクト用の輻輳角で表示され、かつ、前記第2の仮想オブジェクトが、前記第2の仮想オブジェクト用の輻輳角で表示されるように、右眼用画像データーと左眼用画像データーとを生成する、頭部装着型表示装置として提供される。前記の頭部装着型表示装置において、前記拡張現実処理部は、前記第1の仮想オブジェクト用の輻輳角を予め設定された第1の目標距離を用いて算出し、前記第2の仮想オブジェクト用の輻輳角を予め設定された第2の目標距離を用いて算出してよい。前記の頭部装着型表示装置は、さらに、使用者の眼を撮影するカメラを備え、前記拡張現実処理部は、前記カメラによって撮影された前記使用者の眼の像から眼間距離を算出し、前記第1の仮想オブジェクト用の輻輳角を前記第1の目標距離と前記眼間距離とを用いて算出し、前記第2の仮想オブジェクト用の輻輳角を前記第2の目標距離と前記眼間距離とを用いて算出してよい。前記の頭部装着型表示装置において、前記第1の仮想オブジェクト用の輻輳角は、前記第2の仮想オブジェクト用の輻輳角よりも小さくてよい。前記の頭部装着型表示装置は、さらに、同一の前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された虚像の第1の輻輳角と、左右にずらした前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された虚像の第2の輻輳角と、の差分を記憶する画像視差角記憶部を備えてよい。前記の頭部装着型表示装置は、さらに、使用者の眼を撮影するカメラを備え、前記拡張現実処理部は、前記カメラによって撮影された前記使用者の眼の像から前記使用者の視線方向を算出し、前記視線方向に対応させて前記第1の仮想オブジェクトまたは前記第2の仮想オブジェクトのいずれか一方にピンボケ効果を付与してよい。前記の頭部装着型表示装置において、前記第2の仮想オブジェクトは、前記第1の仮想オブジェクトを拡大または縮小した画像でよい。前記の頭部装着型表示装置において、前記拡張現実処理部は、前記第1の仮想オブジェクトを前記第1の目標距離で表示するように前記右眼用画像データーと前記左眼用画像データーとを生成した後、前記第1の仮想オブジェクトを前記第1の目標距離とは異なる目標距離で表示するように前記右眼用画像データーと前記左眼用画像データーとを生成してよい。 SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms. One embodiment is a head-mounted display device, which allows a user to visually recognize a first virtual object and a second virtual object, image data representing the first virtual object, and the An augmented reality processing unit that generates image data representing a second virtual object and transmits the generated image data to the image display unit, wherein the augmented reality processing unit includes the first virtual object as the first virtual object. The right-eye image data and the left-eye image data are displayed so that the second virtual object is displayed at the convergence angle for the virtual object and the second virtual object is displayed at the convergence angle for the second virtual object. Produced as a head-mounted display device. In the head-mounted display device, the augmented reality processing unit calculates a convergence angle for the first virtual object using a preset first target distance, and for the second virtual object May be calculated using a preset second target distance. The head-mounted display device further includes a camera that captures the user's eyes, and the augmented reality processing unit calculates an interocular distance from an image of the user's eyes captured by the camera. The convergence angle for the first virtual object is calculated using the first target distance and the interocular distance, and the convergence angle for the second virtual object is calculated using the second target distance and the eye. You may calculate using distance between. In the head-mounted display device, the convergence angle for the first virtual object may be smaller than the convergence angle for the second virtual object. The head-mounted display device further includes a first convergence angle of a virtual image displayed based on the same right-eye image data and left-eye image data, and the right eye shifted to the left and right. An image parallax angle storage unit that stores a difference between the second convergence angle of the virtual image displayed based on the image data for the left eye and the image data for the left eye may be provided. The head-mounted display device further includes a camera that captures the user's eyes, and the augmented reality processing unit is configured to detect the user's line-of-sight direction from the image of the user's eyes captured by the camera. And a blur effect may be applied to either the first virtual object or the second virtual object in correspondence with the line-of-sight direction. In the head-mounted display device, the second virtual object may be an image obtained by enlarging or reducing the first virtual object. In the head-mounted display device, the augmented reality processing unit displays the right-eye image data and the left-eye image data so as to display the first virtual object at the first target distance. After the generation, the right eye image data and the left eye image data may be generated so that the first virtual object is displayed at a target distance different from the first target distance.

Claims (14)

使用者が虚像と外景を視認可能な頭部装着型表示装置であって、
前記使用者に前記虚像を視認させる画像表示部と、
前記使用者に拡張現実感を与えるためのオブジェクトである仮想オブジェクトであって、前記使用者の視覚的な違和感が緩和された前記仮想オブジェクトを表す前記虚像を、前記画像表示部に形成させる拡張現実処理部と、
を備える、頭部装着型表示装置。
A head-mounted display device that allows a user to visually recognize a virtual image and an outside scene,
An image display unit for allowing the user to visually recognize the virtual image;
Augmented reality, which is a virtual object that is an object for giving an augmented reality to the user, and that forms the virtual image representing the virtual object in which the user's visual discomfort is reduced A processing unit;
A head-mounted display device comprising:
請求項1に記載の頭部装着型表示装置であって、
前記拡張現実処理部は、前記使用者の周囲の環境を3次元空間内の仮想的な立体物として表現した3次元情報を用いて、前記仮想オブジェクトを前記環境に調和させることで、前記仮想オブジェクトに対する前記違和感を緩和する、頭部装着型表示装置。
The head-mounted display device according to claim 1,
The augmented reality processing unit uses the three-dimensional information representing the environment around the user as a virtual three-dimensional object in a three-dimensional space, and harmonizes the virtual object with the environment, thereby the virtual object A head-mounted display device that alleviates the sense of discomfort with respect to the head.
請求項2に記載の頭部装着型表示装置であって、
前記拡張現実処理部は、
前記3次元情報内に前記仮想オブジェクトを配置し、
前記仮想オブジェクトと前記3次元情報とのうちの少なくとも一方に対して、前記環境に応じた視覚効果を加えた後、前記仮想オブジェクトを2次元化することで、前記仮想オブジェクトに対する前記違和感を緩和する、頭部装着型表示装置。
The head-mounted display device according to claim 2,
The augmented reality processing unit
Placing the virtual object in the three-dimensional information;
A visual effect corresponding to the environment is applied to at least one of the virtual object and the three-dimensional information, and then the virtual object is two-dimensionalized to alleviate the uncomfortable feeling with respect to the virtual object. Head mounted display device.
請求項3に記載の頭部装着型表示装置であって、
前記環境に応じた視覚効果は、少なくとも、
前記仮想オブジェクトのうち前記3次元情報内の前記立体物の陰になる部分のトリミングと、
前記環境に準じた前記仮想オブジェクトのライティングと、
前記環境に準じて設定された前記3次元情報内の前記立体物の反発係数と摩擦係数との少なくとも一方に基づく、前記仮想オブジェクトの挙動の調整と、のうちのいずれか一つを含む、頭部装着型表示装置。
The head-mounted display device according to claim 3,
The visual effect according to the environment is at least
Trimming a portion of the virtual object that is behind the three-dimensional object in the three-dimensional information;
Lighting the virtual object according to the environment;
A head including any one of adjustment of the behavior of the virtual object based on at least one of a coefficient of restitution and a coefficient of friction of the three-dimensional object in the three-dimensional information set according to the environment. Part-mounted display device.
請求項3または請求項4に記載の頭部装着型表示装置であって、さらに、
前記頭部装着型表示装置を装着した状態における前記使用者の視界方向の画像を取得する画像取得部を備え、
前記拡張現実処理部は、前記画像取得部によって取得された前記視界方向の画像を画像認識することで、前記環境を推定する、頭部装着型表示装置。
The head-mounted display device according to claim 3 or 4, further comprising:
An image acquisition unit that acquires an image of the user's visual field direction in a state in which the head-mounted display device is mounted;
The head-mounted display device, wherein the augmented reality processing unit estimates the environment by recognizing an image in the visual field direction acquired by the image acquisition unit.
請求項3から請求項5のいずれか一項に記載の頭部装着型表示装置であって、
前記拡張現実処理部は、前記仮想オブジェクトを2次元化する際に、前記使用者の眼から前記使用者の注視点までの間の距離を考慮する、頭部装着型表示装置。
The head-mounted display device according to any one of claims 3 to 5,
The augmented reality processing unit is a head-mounted display device that considers a distance from the user's eye to the user's gaze point when two-dimensionalizing the virtual object.
請求項1に記載の頭部装着型表示装置であって、
前記拡張現実処理部は、前記仮想オブジェクトを表す右眼用の右眼用画像データーと、左眼用の左眼用画像データーとを生成することで、前記仮想オブジェクトに対して、前記仮想オブジェクトの立体視を可能にするための視覚効果を加えて前記仮想オブジェクトに対する前記違和感を緩和し、
前記画像表示部は、前記右眼用画像データーと、前記左眼用画像データーとを用いて、前記使用者の左右の眼に異なる前記虚像を視認させ、
さらに、同一の前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第1の輻輳角と、左右にずらした前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第2の輻輳角と、の差分を記憶する画素視差角記憶部を備え、
前記拡張現実処理部は、前記画素視差角記憶部に記憶されている前記差分を用いて、前記外景に前記仮想オブジェクトを融像させるための前記右眼用画像データーと前記左眼用画像データーとを生成する、頭部装着型表示装置。
The head-mounted display device according to claim 1,
The augmented reality processing unit generates right-eye image data for the right eye representing the virtual object and left-eye image data for the left eye, so that the virtual object Add a visual effect to enable stereoscopic viewing to alleviate the uncomfortable feeling with respect to the virtual object,
The image display unit uses the right-eye image data and the left-eye image data to cause the left and right eyes of the user to visually recognize the different virtual images,
Furthermore, the first convergence angle of the virtual image displayed based on the same right-eye image data and the left-eye image data, the right-eye image data and the left-eye image shifted to the left and right A pixel parallax angle storage unit that stores a difference between the second convergence angle of the virtual image displayed based on the data,
The augmented reality processing unit, using the difference stored in the pixel parallax angle storage unit, the image data for the right eye and the image data for the left eye for fusing the virtual object to the outside scene A head-mounted display device that generates
請求項7に記載の頭部装着型表示装置であって、
前記拡張現実処理部は、
前記使用者に前記仮想オブジェクトを視認させる目標距離を決定し、
決定した前記目標距離から、前記目標距離における輻輳角である目標輻輳角を算出し、
算出した前記目標輻輳角と前記第1の輻輳角とを用いて、前記目標距離における視差角である目標視差角を算出し、
前記目標視差角と、前記画素視差角記憶部に記憶されている前記差分とを用いて、前記仮想オブジェクトを表す単一の画像データーから、前記右眼用画像データーと前記左眼用画像データーとを生成する、頭部装着型表示装置。
The head-mounted display device according to claim 7,
The augmented reality processing unit
Determining a target distance for the user to visually recognize the virtual object;
From the determined target distance, a target convergence angle that is a convergence angle at the target distance is calculated,
Using the calculated target convergence angle and the first convergence angle, calculate a target parallax angle that is a parallax angle at the target distance;
Using the target parallax angle and the difference stored in the pixel parallax angle storage unit, from the single image data representing the virtual object, the image data for the right eye and the image data for the left eye A head-mounted display device that generates
請求項7に記載の頭部装着型表示装置であって、
前記拡張現実処理部は、
前記使用者に前記仮想オブジェクトを視認させる目標距離を決定し、
決定した前記目標距離に基づいて、3Dモデル空間上に2D投影画像を取得するための2箇所の仮想カメラを設定し、
決定した前記目標距離から、前記目標距離における輻輳角である目標輻輳角を算出し、
算出した前記目標輻輳角と前記第1の輻輳角とを用いて、前記目標距離における視差角である目標視差角を算出し、
前記目標視差角と、前記画素視差角記憶部に記憶されている前記差分とを用いて、一方の前記仮想カメラによる2D投影画像をスケーリングして前記右眼用画像データーを生成し、他方の前記仮想カメラによる2D投影画像をスケーリングして前記左眼用画像データーを生成する、頭部装着型表示装置。
The head-mounted display device according to claim 7,
The augmented reality processing unit
Determining a target distance for the user to visually recognize the virtual object;
Based on the determined target distance, two virtual cameras for acquiring a 2D projection image on the 3D model space are set,
From the determined target distance, a target convergence angle that is a convergence angle at the target distance is calculated,
Using the calculated target convergence angle and the first convergence angle, calculate a target parallax angle that is a parallax angle at the target distance;
Using the target parallax angle and the difference stored in the pixel parallax angle storage unit, the 2D projection image by one of the virtual cameras is scaled to generate the right eye image data, and the other A head-mounted display device that generates the left-eye image data by scaling a 2D projection image by a virtual camera.
請求項9に記載の頭部装着型表示装置であって、さらに、
前記使用者の眼間距離を記憶する眼間距離記憶部を備え、
前記拡張現実処理部は、前記2箇所の仮想カメラを設定する際、前記決定した目標距離に基づいて、3Dモデル空間上に仮想的な視点である仮想視点を配置し、配置された前記仮想視点から眼間距離/2離れた位置に一方の仮想カメラを配置し、配置された前記仮想視点から眼間距離/2離れた位置に他方の仮想カメラを配置する、頭部装着型表示装置。
The head-mounted display device according to claim 9, further comprising:
An interocular distance storage unit that stores the interocular distance of the user;
The augmented reality processing unit, when setting the two virtual cameras, arranges a virtual viewpoint that is a virtual viewpoint on the 3D model space based on the determined target distance, and the arranged virtual viewpoint A head-mounted display device in which one virtual camera is arranged at a position away from the eye distance / 2 from the eye, and the other virtual camera is arranged at a position away from the arranged virtual viewpoint at an eye distance / 2.
請求項10に記載の頭部装着型表示装置であって、さらに、
前記使用者の瞳孔間距離を測定する瞳孔間距離測定部を備え、
前記瞳孔間距離測定部による測定結果は、前記眼間距離として前記眼間距離記憶部に記憶される、頭部装着型表示装置。
The head-mounted display device according to claim 10, further comprising:
An interpupillary distance measuring unit for measuring the interpupillary distance of the user;
A head-mounted display device in which a measurement result by the interpupillary distance measurement unit is stored in the interocular distance storage unit as the interocular distance.
使用者が虚像と外景を視認可能な頭部装着型表示装置の制御方法であって、
前記使用者に前記虚像を視認させる工程と、
前記使用者に拡張現実感を与えるためのオブジェクトである仮想オブジェクトであって、前記使用者の視覚的な違和感が緩和された前記仮想オブジェクトを表す前記虚像を、前記視認させる工程において形成させる工程と、
を備える、頭部装着型表示装置の制御方法。
A method for controlling a head-mounted display device in which a user can visually recognize a virtual image and an outside scene,
Making the user visually recognize the virtual image;
Forming the virtual image representing the virtual object, which is a virtual object that is an object for giving augmented reality to the user, and in which the user's visual discomfort has been relaxed, in the step of visually recognizing; ,
A method for controlling a head-mounted display device.
請求項12に記載の頭部装着型表示装置の制御方法であって、
前記生成する工程は、前記使用者の周囲の環境を3次元空間内の仮想的な立体物として表現した3次元情報を用いて、前記仮想オブジェクトを前記環境に調和させることで、前記仮想オブジェクトに対する前記違和感を緩和する、頭部装着型表示装置の制御方法。
A method for controlling a head-mounted display device according to claim 12,
The generating step harmonizes the virtual object with the environment using three-dimensional information expressing the environment around the user as a virtual three-dimensional object in a three-dimensional space. A method for controlling a head-mounted display device that alleviates the uncomfortable feeling.
請求項12に記載の頭部装着型表示装置の制御方法であって、
前記生成する工程は、前記仮想オブジェクトを表す右眼用の右眼用画像データーと、左眼用の左眼用画像データーとを生成することで、前記仮想オブジェクトに対して、前記仮想オブジェクトの立体視を可能にするための視覚効果を加えて前記仮想オブジェクトに対する前記違和感を緩和し、
前記視認させる工程は、前記右眼用画像データーと、前記左眼用画像データーとを用いて、前記使用者の左右の眼に異なる前記虚像を視認させ、
前記生成する工程は、同一の前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第1の輻輳角と、左右にずらした前記右眼用画像データーと前記左眼用画像データーとに基づいて表示された前記虚像の第2の輻輳角と、の差分を用いて、前記外景に前記仮想オブジェクトを融像させるための前記右眼用画像データーと前記左眼用画像データーとを生成する、頭部装着型表示装置の制御方法。
A method for controlling a head-mounted display device according to claim 12,
The generating step generates right eye image data for the right eye representing the virtual object and left eye image data for the left eye, so that the virtual object is three-dimensional with respect to the virtual object. Add a visual effect to enable viewing to alleviate the sense of discomfort with the virtual object,
The visualizing step uses the right eye image data and the left eye image data to cause the left and right eyes of the user to visually recognize the different virtual images,
The generating step includes the first convergence angle of the virtual image displayed based on the same right-eye image data and the left-eye image data, the right-eye image data shifted to the left and right, and the The right-eye image data and the left-eye for fusing the virtual object to the outside scene using the difference between the second convergence angle of the virtual image displayed based on the left-eye image data Control method for a head-mounted display device that generates image data for a head.
JP2018131946A 2018-07-12 2018-07-12 Head-mounted display device and control method for head-mounted display device Active JP6683218B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018131946A JP6683218B2 (en) 2018-07-12 2018-07-12 Head-mounted display device and control method for head-mounted display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018131946A JP6683218B2 (en) 2018-07-12 2018-07-12 Head-mounted display device and control method for head-mounted display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013222143A Division JP6369005B2 (en) 2013-03-26 2013-10-25 Head-mounted display device and method for controlling head-mounted display device

Publications (2)

Publication Number Publication Date
JP2019004471A true JP2019004471A (en) 2019-01-10
JP6683218B2 JP6683218B2 (en) 2020-04-15

Family

ID=65006906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018131946A Active JP6683218B2 (en) 2018-07-12 2018-07-12 Head-mounted display device and control method for head-mounted display device

Country Status (1)

Country Link
JP (1) JP6683218B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021186581A1 (en) * 2020-03-17 2021-09-23 株式会社ソニー・インタラクティブエンタテインメント Image forming apparatus and image forming method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10188034A (en) * 1996-12-28 1998-07-21 Olympus Optical Co Ltd Three-dimensional image generator and distance operating device
JPH11202256A (en) * 1998-01-20 1999-07-30 Ricoh Co Ltd Head-mounting type image display device
JP2000214408A (en) * 1999-01-21 2000-08-04 Eiji Shimizu Picture display device
JP2000354257A (en) * 1999-06-10 2000-12-19 Sony Corp Image processor, image processing method and program provision medium
JP2011166285A (en) * 2010-02-05 2011-08-25 Sony Corp Image display device, image display viewing system and image display method
JP2011205358A (en) * 2010-03-25 2011-10-13 Fujifilm Corp Head-mounted display device
JP2011221235A (en) * 2010-04-08 2011-11-04 Sony Corp Optical position adjusting method in head-mounted display

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10188034A (en) * 1996-12-28 1998-07-21 Olympus Optical Co Ltd Three-dimensional image generator and distance operating device
JPH11202256A (en) * 1998-01-20 1999-07-30 Ricoh Co Ltd Head-mounting type image display device
JP2000214408A (en) * 1999-01-21 2000-08-04 Eiji Shimizu Picture display device
JP2000354257A (en) * 1999-06-10 2000-12-19 Sony Corp Image processor, image processing method and program provision medium
JP2011166285A (en) * 2010-02-05 2011-08-25 Sony Corp Image display device, image display viewing system and image display method
JP2011205358A (en) * 2010-03-25 2011-10-13 Fujifilm Corp Head-mounted display device
JP2011221235A (en) * 2010-04-08 2011-11-04 Sony Corp Optical position adjusting method in head-mounted display

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021186581A1 (en) * 2020-03-17 2021-09-23 株式会社ソニー・インタラクティブエンタテインメント Image forming apparatus and image forming method
JP7454648B2 (en) 2020-03-17 2024-03-22 株式会社ソニー・インタラクティブエンタテインメント Image generation device and image generation method
US11948483B2 (en) 2020-03-17 2024-04-02 Sony Interactive Entertainment Inc. Image generation apparatus and image generation method

Also Published As

Publication number Publication date
JP6683218B2 (en) 2020-04-15

Similar Documents

Publication Publication Date Title
US11054650B2 (en) Head-mounted display device, control method of head-mounted display device, and display system
JP6337418B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6369005B2 (en) Head-mounted display device and method for controlling head-mounted display device
US10297062B2 (en) Head-mounted display device, control method for head-mounted display device, and computer program
CN105607255B (en) Head-mounted display device, method of controlling the same, and computer-readable storage medium
CN110068926B (en) Display device
CN112130329B (en) Head-mounted display device and method for controlling head-mounted display device
JP6217244B2 (en) Image processing apparatus, head-mounted display apparatus having the same, image processing method, and computer program
JP6232763B2 (en) Head-mounted display device and method for controlling head-mounted display device
WO2016063504A1 (en) Head-mounted type display device and method for controlling same, and computer program
US10567730B2 (en) Display device and control method therefor
JP6645096B2 (en) Head-mounted display device, control method of head-mounted display device, and computer program
JP6492673B2 (en) Head-mounted display device, method for controlling head-mounted display device, computer program
JP6331374B2 (en) Head-mounted display device
JP2016091348A (en) Head-mounted display device and control method for the same as well as computer program
JP6620417B2 (en) Display device, control method therefor, and computer program
JP6683218B2 (en) Head-mounted display device and control method for head-mounted display device
JP2016109710A (en) Head-mounted display system, control method of head-mounted display system, and computer program
JP6394108B2 (en) Head-mounted display device, control method therefor, and computer program
JP6451222B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP6287399B2 (en) Head-mounted display device and method for controlling head-mounted display device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180810

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200309

R150 Certificate of patent or registration of utility model

Ref document number: 6683218

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150