JP2017044756A - Image display device, image display method, and program - Google Patents

Image display device, image display method, and program Download PDF

Info

Publication number
JP2017044756A
JP2017044756A JP2015165159A JP2015165159A JP2017044756A JP 2017044756 A JP2017044756 A JP 2017044756A JP 2015165159 A JP2015165159 A JP 2015165159A JP 2015165159 A JP2015165159 A JP 2015165159A JP 2017044756 A JP2017044756 A JP 2017044756A
Authority
JP
Japan
Prior art keywords
optical beacon
image
wearer
pupil
beacon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015165159A
Other languages
Japanese (ja)
Other versions
JP6334477B2 (en
Inventor
朗弘 根本
Akihiro Nemoto
朗弘 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Fielding Ltd
Original Assignee
NEC Fielding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Fielding Ltd filed Critical NEC Fielding Ltd
Priority to JP2015165159A priority Critical patent/JP6334477B2/en
Publication of JP2017044756A publication Critical patent/JP2017044756A/en
Application granted granted Critical
Publication of JP6334477B2 publication Critical patent/JP6334477B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image display device that contributes to the ability of a HMD wearer to recognize that an AR image is superposed correctly on an object.SOLUTION: The image display device comprises: an optical beacon reception unit for receiving a signal transmitted from a first optical beacon arranged in accordance with the predetermined position of an object, the signal including first optical beacon identification information; a corneal ball position estimation unit for detecting an area pertaining to the pupil of the eye from image data in which the pupil of a wearer is imaged, and estimating the center position of a corneal ball on the basis of the size and shape of the detected pupil; an optical beacon position estimation unit for estimating the position of the first optical beacon on the display surface of a virtual image visually recognized by the wearer on the basis of the position in the image data of the image of the first beacon reflected in the pupil and the estimated center position of the corneal ball; and an augmented reality display unit for displaying an image pertaining to augmented reality associated with the first optical beacon identification information at the estimated position of the first optical beacon by being superposed on an actual background.SELECTED DRAWING: Figure 1

Description

本発明は、画像表示装置、画像表示方法及びプログラムに関する。特に、拡張現実(AR;Augmented Reality)に係る表示を提供する、画像表示装置、画像表示方法及びプログラムに関する。   The present invention relates to an image display device, an image display method, and a program. In particular, the present invention relates to an image display apparatus, an image display method, and a program that provide display related to augmented reality (AR).

近年、頭部に装着するHMD(Head Mounted Display)に関する製品の研究、開発が盛んに行われている。HMDが用いられる状況として、機器の整備や倉庫での荷物収集等が挙げられる。例えば、上記の業務を担当する作業者がHMDを装着することで、業務効率の向上が期待できる。HMDは、作業者が目視する対象物(作業箇所)に重畳するように、虚像の作業箇所や作業内容に係る指示を投射することができるためである。その結果、作業者は、作業マニュアルと作業対象物を見比べる必要がなくなり、作業箇所の把握を確実に行うことができる。このように、作業対象物にマーカ等を貼り付け、HMDに搭載されたカメラにより当該マーカを撮像し、作業者の視界を認識した上で、作業箇所や作業内容の指示が投射される製品、システムの開発が進められている。   In recent years, research and development of products related to HMD (Head Mounted Display) to be mounted on the head have been actively conducted. The situation in which the HMD is used includes equipment maintenance and luggage collection in a warehouse. For example, an operator in charge of the above work can be expected to improve work efficiency by wearing an HMD. This is because the HMD can project an instruction related to a virtual image work location and work content so as to be superimposed on an object (work location) visually observed by the worker. As a result, the operator does not need to compare the work manual with the work object, and can reliably grasp the work location. In this way, a product in which a marker or the like is pasted on a work object, an image of the marker is captured by a camera mounted on the HMD, and the operator's field of view is recognized, and instructions on the work location and work content are projected, System development is underway.

特許文献1において、拡張現実を使用して装置の保守命令および動作命令を表示するシステムが開示されている。   Patent Document 1 discloses a system that displays an apparatus maintenance command and an operation command using augmented reality.

特許文献2において、HMDの装着者が見ているシーンの対象物と位置が合うようにAR画像を表示させるシステムであって、HMDの装着者に画像の表示位置に係る調整を要求するシステムが開示されている。   In Patent Document 2, a system that displays an AR image so as to be aligned with an object in a scene viewed by a wearer of the HMD, and that requests the HMD wearer to make an adjustment related to the display position of the image. It is disclosed.

特許文献3において、HMDの装着者が鏡と向き合うことで、対象物とHMDにより提供される仮想現実の位置関係を校正する技術が開示されている。   Patent Document 3 discloses a technique for calibrating the positional relationship between an object and a virtual reality provided by the HMD when a wearer of the HMD faces a mirror.

特表2009−538487号公報Special table 2009-538487 国際公開第2013/145147号International Publication No. 2013/145147 国際公開第2013/128612号International Publication No. 2013/128612

なお、上記先行技術文献の各開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明者らによってなされたものである。   Each disclosure of the above prior art document is incorporated herein by reference. The following analysis was made by the present inventors.

既存のシステムでは、HMDは、搭載しているカメラが撮像した画像を解析し、シーン(視野の実像、現実の景色)の中のマーカ(ARマーカ)を検出し、撮像画像におけるマーカの位置を認識している。そのため、HMDと眼球の位置関係が固定(一定)されていれば、シーン(視野の実像)とAR(Augmented Reality;拡張現実)画像との間の位置調整は容易、あるいは、一度調整すれば再度の調整は不要である。しかし、実使用上、HMDと眼球の位置関係が変化しないことは想定しがたく、これらの位置関係が変動すると、シーンとAR画像の位置関係における変動(ずれ)の補正が必要となる。   In the existing system, the HMD analyzes the image captured by the mounted camera, detects the marker (AR marker) in the scene (real image of the field of view, real scenery), and determines the position of the marker in the captured image. It has recognized. Therefore, if the positional relationship between the HMD and the eyeball is fixed (fixed), it is easy to adjust the position between the scene (real image of the field of view) and the AR (Augmented Reality) image, or once adjusted, again. No adjustment is required. However, in actual use, it is difficult to assume that the positional relationship between the HMD and the eyeball does not change. When these positional relationships vary, it is necessary to correct variation (displacement) in the positional relationship between the scene and the AR image.

このことは、特許文献1が開示する技術でも同様であり、HMDに搭載されたカメラと装着者の眼球の相対位置にはずれが生じ、結果的にカメラが撮像した画像中のマーカの方向と、装着者が実際に視認するマーカの方向と、がずれてしまう。即ち、カメラと装着者の眼の相対位置にはずれが生じるものであり、カメラが撮像した画像中のマーカの方向と、装着者が見るマーカの方向が不一致となることがある。   This is also the case with the technology disclosed in Patent Document 1, in which the relative position between the camera mounted on the HMD and the eyeball of the wearer is shifted, resulting in the direction of the marker in the image captured by the camera, The direction of the marker that is actually visually recognized by the wearer deviates. That is, the relative position between the camera and the wearer's eyes is displaced, and the direction of the marker in the image captured by the camera may not match the direction of the marker viewed by the wearer.

また、特許文献1が開示するような従来のHMDには、装着者が視認するマーカの位置と虚像のディスプレイ(HMDの装着者が、AR画像が表示されていると認識する表示面)の位置を、検出する手段が存在しない。例えば、特許文献1では、マーカの位置と虚像のディスプレイの位置を初期設定により定めている。上記手段が存在しないため、HMDによる機能を正しく発揮させるためには、装着者が、マーカの位置とAR画像の位置が重なっていると認識できるように、HMDと装着者とシーンの位置関係を固定した上で、カメラが撮像した画像上の位置と装着者が視認する虚像のディスプレイ上の位置の対応関係を測定し、取得する必要があった。しかしながら、このような測定は煩雑であると言う問題がある。   Moreover, in the conventional HMD as disclosed in Patent Document 1, the position of the marker visually recognized by the wearer and the position of the virtual image display (display surface that the HMD wearer recognizes that the AR image is displayed). There is no means for detecting. For example, in Patent Document 1, the position of the marker and the position of the virtual image display are determined by initial setting. Since the above means does not exist, in order to correctly perform the function of the HMD, the positional relationship between the HMD, the wearer, and the scene is determined so that the wearer can recognize that the position of the marker and the position of the AR image overlap. After fixing, it was necessary to measure and acquire the correspondence between the position on the image captured by the camera and the position on the display of the virtual image visually recognized by the wearer. However, there is a problem that such measurement is complicated.

また、HMDを使用している最中に、上記3つの要素(HMD、装着者、シーン)間の位置関係が変化してしまうと、カメラが撮像した画像上の位置と装着者が視認するディスプレイ上での位置の対応関係が変化するので、装着者がHMDを使用するたびに、HMDを装着して固定し、上記2つの画像の位置関係を再測定する必要がある。また、特許文献2では、対象物とAR画像の位置関係を調整するアライメントを、ユーザに実行させているが、ユーザがAR画像に違和感を覚えるたびに、煩雑なアライメント動作を要求すれば、HMDを利用した作業効率が低下する。この点、特許文献3が開示する技術も同様であり、アライメントが必要なたびに装着者が鏡に向き合うのであれば、作業効率が低下する。   In addition, if the positional relationship between the three elements (HMD, wearer, scene) changes while using the HMD, the position on the image captured by the camera and the display that the wearer visually recognizes Since the correspondence relationship between the positions above changes, each time the wearer uses the HMD, it is necessary to wear and fix the HMD and remeasure the positional relationship between the two images. Also, in Patent Document 2, the user performs the alignment for adjusting the positional relationship between the object and the AR image. However, if the user requests a complicated alignment operation every time the user feels uncomfortable with the AR image, the HMD The work efficiency of using is reduced. In this respect, the technique disclosed in Patent Document 3 is the same, and if the wearer faces the mirror every time alignment is required, the work efficiency decreases.

以上のように、特許文献1に開示されたシステムを含む既存のシステムでは、作業者が視認する実際の作業箇所に合わせ虚像の作業指示を正しく重ねるために、予めカメラが撮像した画像上の位置と装着者が視認する虚像のディスプレイ上の位置との対応関係を測定するという煩雑な作業が必要であった。また、上記の対応関係は、HMDの使用中に変動する場合があり、その都度、上記測定作業(アライメント)をやり直す、又はユーザに要求すると言った問題がある。あるいは、対象物とAR画像がずれたままであると、作業者に誤った作業箇所を指示する等の問題が生じる。   As described above, in the existing system including the system disclosed in Patent Document 1, the position on the image captured by the camera in advance in order to correctly superimpose the virtual image work instruction in accordance with the actual work location visually recognized by the worker. And a complicated operation of measuring the correspondence between the position of the virtual image visually recognized by the wearer on the display. In addition, the above-described correspondence may vary during use of the HMD, and there is a problem that the measurement operation (alignment) is re-executed or requested from the user each time. Alternatively, if the target object and the AR image remain shifted, problems such as instructing an operator to an incorrect work location may occur.

本発明は、HMDの装着者が、AR画像が対象物に正しく重なっていると視認できることに寄与する、画像表示装置、画像表示方法及びプログラムを提供することを目的とする。   An object of the present invention is to provide an image display device, an image display method, and a program that contribute to the fact that an HMD wearer can visually recognize that an AR image is correctly superimposed on an object.

本発明の第1の視点によれば、予め定めた対象物の位置に応じて配置された第1光ビーコンから送信される信号であって、前記第1光ビーコンの識別情報を含む信号を受信する光ビーコン受信部と、少なくとも自装置を装着する装着者の瞳が撮像された画像データから、前記装着者の瞳に係る領域を検出し、前記検出された瞳の大きさと形状に基づいて、前記装着者の角膜球の中心位置を推定する、角膜球位置推定部と、前記装着者の瞳に反射した第1光ビーコンの像の前記画像データにおける位置と、前記推定された角膜球の中心位置と、に基づき、前記装着者が視認する虚像の表示面における前記第1光ビーコンの位置を推定する、光ビーコン位置推定部と、前記推定された第1光ビーコンの位置に、前記第1光ビーコンの識別情報に関連付けられた拡張現実に係る画像を、現実の景色に重畳させて表示する、拡張現実表示部と、を備える、画像表示装置が提供される。   According to the 1st viewpoint of this invention, it is a signal transmitted from the 1st optical beacon arrange | positioned according to the position of the predetermined object, Comprising: The signal containing the identification information of the said 1st optical beacon is received. Detecting an area related to the wearer's pupil from image data obtained by capturing an optical beacon receiving unit and at least the wearer's pupil wearing the device, and based on the size and shape of the detected pupil, A corneal sphere position estimating unit that estimates a center position of the wearer's corneal sphere, a position in the image data of an image of a first optical beacon reflected on the wearer's pupil, and the estimated center of the corneal sphere And an optical beacon position estimating unit for estimating a position of the first optical beacon on a display surface of a virtual image visually recognized by the wearer, and the estimated position of the first optical beacon. Regarding optical beacon identification information An image relating to the Tagged augmented reality displays superimposed on the real scenery, and a augmented reality display unit, an image display apparatus is provided.

本発明の第2の視点によれば、予め定めた対象物の位置に応じて配置された第1光ビーコンから送信される信号であって、前記第1光ビーコンの識別情報を含む信号を受信するステップと、少なくとも自装置を装着する装着者の瞳が撮像された画像データから、前記装着者の瞳に係る領域を検出し、前記検出された瞳の大きさと形状に基づいて、前記装着者の角膜球の中心位置を推定する、ステップと、前記装着者の瞳に反射した第1光ビーコンの像の前記画像データにおける位置と、前記推定された角膜球の中心位置と、に基づき、前記装着者が視認する虚像の表示面における前記第1光ビーコンの位置を推定する、ステップと、前記推定された第1光ビーコンの位置に、前記第1光ビーコンの識別情報に関連付けられた拡張現実に係る画像を、現実の景色に重畳させて表示する、ステップと、を含む、画像表示方法が提供される。   According to the 2nd viewpoint of this invention, it is a signal transmitted from the 1st optical beacon arrange | positioned according to the position of the predetermined object, Comprising: The signal containing the identification information of the said 1st optical beacon is received. Detecting a region related to the wearer's pupil from image data obtained by imaging at least a wearer's pupil wearing the device, and based on the detected size and shape of the pupil Estimating the central position of the corneal sphere, based on the step, the position in the image data of the image of the first optical beacon reflected on the wearer's pupil, and the estimated central position of the corneal sphere, Estimating the position of the first optical beacon on the display surface of the virtual image viewed by the wearer, and augmented reality associated with the identification information of the first optical beacon at the estimated position of the first optical beacon Drawings related to A display superimposed on the actual landscape, including a step, an image display method is provided.

本発明の第3の視点によれば、予め定めた対象物の位置に応じて配置された第1光ビーコンから送信される信号であって、前記第1光ビーコンの識別情報を含む信号を受信する処理と、少なくとも自装置を装着する装着者の瞳が撮像された画像データから、前記装着者の瞳に係る領域を検出し、前記検出された瞳の大きさと形状に基づいて、前記装着者の角膜球の中心位置を推定する、処理と、前記装着者の瞳に反射した第1光ビーコンの像の前記画像データにおける位置と、前記推定された角膜球の中心位置と、に基づき、前記装着者が視認する虚像の表示面における前記第1光ビーコンの位置を推定する、処理と、前記推定された第1光ビーコンの位置に、前記第1光ビーコンの識別情報に関連付けられた拡張現実に係る画像を、現実の景色に重畳させて表示する、処理と、を画像表示装置に搭載されたコンピュータに実行させるプログラムが提供される。
なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
According to the 3rd viewpoint of this invention, it is a signal transmitted from the 1st optical beacon arrange | positioned according to the position of the predetermined object, Comprising: The signal containing the identification information of the said 1st optical beacon is received. And a region related to the wearer's pupil is detected from image data obtained by imaging the at least the wearer's pupil wearing the device, and the wearer is based on the detected size and shape of the pupil. Estimating the center position of the corneal sphere, based on the processing, the position in the image data of the image of the first optical beacon reflected on the wearer's pupil, and the estimated center position of the corneal sphere, A process of estimating the position of the first optical beacon on the display surface of the virtual image visually recognized by the wearer, and the augmented reality associated with the identification information of the first optical beacon at the estimated position of the first optical beacon Images of the real Display superimposed on the color, a program to be executed by the onboard computer processing and, to the image display apparatus is provided.
This program can be recorded on a computer-readable storage medium. The storage medium may be non-transient such as a semiconductor memory, a hard disk, a magnetic recording medium, an optical recording medium, or the like. The present invention can also be embodied as a computer program product.

本発明の各視点によれば、HMDの装着者が、AR画像が対象物に正しく重なっていると視認できることに寄与する、画像表示装置、画像表示方法及びプログラムが、提供される。   According to each viewpoint of the present invention, an image display device, an image display method, and a program are provided that contribute to the fact that the wearer of the HMD can visually recognize that the AR image is correctly superimposed on the object.

一実施形態の概要を説明するための図である。It is a figure for demonstrating the outline | summary of one Embodiment. 第1の実施形態に係るシステムの全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the system which concerns on 1st Embodiment. 第1の実施形態に係るHMDの内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of HMD which concerns on 1st Embodiment. 第1の実施形態に係るHMDの平面図(a)と正面図(b)の一例示す図である。It is a figure which shows an example of the top view (a) and front view (b) of HMD which concern on 1st Embodiment. 瞳に映る光ビーコンの一例を示す図である。It is a figure which shows an example of the optical beacon reflected in a pupil. 第1の実施形態に係るHMDによる対象物の位置関係算出に係る全体動作の一例を示す図である。It is a figure which shows an example of the whole operation | movement which concerns on the positional relationship calculation of the target object by HMD which concerns on 1st Embodiment. 光ビーコン受信部の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of an optical beacon receiving part. 実際の眼球の断面を模した模式図(a)と眼球の幾何モデル(b)の一例を示す図である。It is the figure (a) imitating the cross section of an actual eyeball, and the figure which shows an example of the geometric model (b) of an eyeball. 眼球の位置及び向きと、瞳の投影像の関係を弱透視投影モデルにより示す図である。It is a figure which shows the relationship between the position and direction of an eyeball, and the projection image of a pupil by a weak perspective projection model. 角膜球位置推定部の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of a cornea ball position estimation part. カメラ部が撮像した画像データにおける光ビーコンの像の位置と、装着者が視認する光ビーコンの方向と、の関係を説明するための図である。It is a figure for demonstrating the relationship between the position of the image of the optical beacon in the image data which the camera part imaged, and the direction of the optical beacon which a wearer visually recognizes. 角膜球表面の光ビーコンの像と光ビーコンを結ぶ直線上にある光ビーコンの位置関係の一例を示す図である。It is a figure which shows an example of the positional relationship of the optical beacon which exists on the straight line which connects the image of the optical beacon on the surface of a corneal sphere, and an optical beacon. HMDの装着者が視認する虚像のディスプレイに存在する対象物光ビーコンの一例を示す図である。It is a figure which shows an example of the target object light beacon which exists in the display of the virtual image visually recognized by the wearer of HMD. 記憶部に格納されたテーブル情報を説明するための図である。It is a figure for demonstrating the table information stored in the memory | storage part. 光ビーコン位置推定部の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of an optical beacon position estimation part. 光ビーコン位置推定部の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of an optical beacon position estimation part. 拡張現実表示部の動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement of an augmented reality display part.

初めに、一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。   First, an outline of one embodiment will be described. Note that the reference numerals of the drawings attached to the outline are attached to the respective elements for convenience as an example for facilitating understanding, and the description of the outline is not intended to be any limitation.

一実施形態に係る画像表示装置100は、光ビーコン受信部101と、角膜球位置推定部102と、光ビーコン位置推定部103と、拡張現実表示部104と、を備える。光ビーコン受信部101は、予め定めた対象物の位置に応じて配置された第1光ビーコン(例えば、図2に示す対象物光ビーコン11)から送信される信号であって、第1光ビーコンの識別情報を含む信号を受信する。角膜球位置推定部102は、少なくとも自装置(画像表示装置100;HMD)を装着する装着者の瞳が撮像された画像データから、装着者の瞳に係る領域を検出し、検出された瞳の大きさと形状に基づいて、装着者の角膜球の中心位置を推定する。光ビーコン位置推定部103は、装着者の瞳に反射した第1光ビーコンの像の画像データにおける位置と、推定された角膜球の中心位置と、に基づき、装着者が視認する虚像の表示面における第1光ビーコンの位置を推定する。拡張現実表示部104は、推定された第1光ビーコンの位置に、第1光ビーコンの識別情報に関連付けられた拡張現実に係る画像を、現実の景色に重畳させて表示する。   The image display apparatus 100 according to an embodiment includes an optical beacon receiving unit 101, a corneal sphere position estimating unit 102, an optical beacon position estimating unit 103, and an augmented reality display unit 104. The optical beacon receiving unit 101 is a signal transmitted from a first optical beacon (for example, the target optical beacon 11 shown in FIG. 2) arranged according to a predetermined position of the target, and the first optical beacon A signal including the identification information is received. The corneal sphere position estimation unit 102 detects a region related to the wearer's pupil from image data obtained by imaging the wearer's pupil wearing at least the own device (image display device 100; HMD), and detects the detected pupil. Based on the size and shape, the center position of the wearer's corneal sphere is estimated. The optical beacon position estimating unit 103 displays a virtual image display surface visually recognized by the wearer based on the position in the image data of the image of the first optical beacon reflected on the wearer's pupil and the estimated center position of the corneal sphere. The position of the first optical beacon at is estimated. The augmented reality display unit 104 superimposes and displays an image related to augmented reality associated with the identification information of the first optical beacon on the estimated position of the first optical beacon.

画像表示装置100は、カメラ等の撮像手段により撮像した、画像表示装置100の装着者の瞳に係る画像データから、当該装着者の瞳の大きさ及び形状(瞳の外形)を計算する。さらに、画像表示装置100は、計算した瞳の大きさ及び形状と、角膜球の表面にて反射した第1光ビーコンの像の画像データにおける位置と、から、眼球の3次元的な幾何モデルを用いることで、装着者からみた第1光ビーコンの虚像のディスプレイ上での位置を計算(推定)する。推定された第1光ビーコンの位置に、当該第1光ビーコンに関連付けられた拡張現実画像(AR画像)を表示することで、画像表示装置100の装着者は、対象物と拡張現実画像が重なっているように視認することができる。即ち、一実施形態に係る画像表示装置100によれば、その装着者から見て、AR画像が対象物に重なるように描画することができる。また、装着者がHMDを装着して固定するたびに行っていた作業(カメラが撮像した画像上の位置と、装着者が見る虚像のディスプレイ上の位置との、対応関係を測定する作業)が不要となり、作業効率を向上させることができる。   The image display device 100 calculates the size and shape (outer shape of the pupil) of the wearer's pupil from image data relating to the wearer's pupil of the image display device 100 captured by an imaging unit such as a camera. Further, the image display device 100 calculates a three-dimensional geometric model of the eyeball from the calculated size and shape of the pupil and the position in the image data of the image of the first optical beacon reflected from the surface of the corneal sphere. By using it, the position on the display of the virtual image of the first optical beacon seen from the wearer is calculated (estimated). By displaying the augmented reality image (AR image) associated with the first optical beacon at the estimated position of the first optical beacon, the wearer of the image display device 100 overlaps the object and the augmented reality image. Can be visually recognized. That is, according to the image display device 100 according to an embodiment, the AR image can be drawn so as to overlap the object as viewed from the wearer. In addition, work that is performed every time the wearer wears and fixes the HMD (work that measures the correspondence between the position on the image captured by the camera and the position on the display of the virtual image that the wearer sees). It becomes unnecessary, and work efficiency can be improved.

以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。なお、各実施形態において同一構成要素には同一の符号を付し、その説明を省略する。   Hereinafter, specific embodiments will be described in more detail with reference to the drawings. In addition, in each embodiment, the same code | symbol is attached | subjected to the same component and the description is abbreviate | omitted.

[第1の実施形態]
第1の実施形態について、図面を用いてより詳細に説明する。
[First Embodiment]
The first embodiment will be described in more detail with reference to the drawings.

図2は、第1の実施形態に係るシステムの全体構成の一例を示す図である。図2を参照すると、ユーザは、画像表示装置であるHMD10を装着している。また、HMD10の装着者のシーン(視野の実像、現実の景色)には、AR画像が重畳される対象物が存在する。また、対象物を取り込むように(対象物の位置に応じて)対象物光ビーコン11−1〜11−4が配置されている。対象物光ビーコン11−1〜11−4は、AR画像を表示する位置を指定するための標識として機能する(ARマーカとして機能する)。なお、以降の説明において、対象物光ビーコン11−1〜11−4を区別する特段の理由がない場合には、単に「対象物光ビーコン11」と表記する。   FIG. 2 is a diagram illustrating an example of the overall configuration of the system according to the first embodiment. Referring to FIG. 2, the user wears an HMD 10 that is an image display device. In addition, an object on which the AR image is superimposed exists in the scene (real image of the field of view, real scenery) of the wearer of the HMD 10. Moreover, the object light beacons 11-1 to 11-4 are arranged so as to capture the object (according to the position of the object). The object light beacons 11-1 to 11-4 function as markers for designating positions for displaying the AR images (function as AR markers). In the following description, when there is no particular reason for distinguishing the object light beacons 11-1 to 11-4, they are simply referred to as “object light beacons 11”.

図2の例では、対象物光ビーコン11は4つで1組となる光ビーコンからなる。なお、光ビーコンとは、予め定められた場所に固定され、可視光や赤外光を発するデバイスである。対象物光ビーコン11をなす光ビーコンは、自身の識別情報(以下、ID(Identification)情報と表記する)を含む検出信号(ビーコン信号)を、予め定めた光パルスのパターン等に発信(光のパルス位置変調等により発信)する。このような光ビーコンを用いた通信は、光空間通信の一形態であり、例えば、JEITA(Japan Electronics and Information Technology Industries Association)により制定された、以下の文献「AV&IT標準化委員会、“CP−1223 可視光ビーコンシステム”、2013年5月」を参照することができる。   In the example of FIG. 2, the object light beacons 11 are composed of four optical beacons. An optical beacon is a device that emits visible light or infrared light that is fixed at a predetermined location. The optical beacon forming the object optical beacon 11 transmits a detection signal (beacon signal) including its own identification information (hereinafter referred to as ID (Identification) information) to a predetermined light pulse pattern or the like (light (Send by pulse position modulation etc.) Such communication using optical beacons is a form of optical space communication. For example, the following document “AV & IT Standardization Committee,“ CP-1223 ”established by JEITA (Japan Electronics and Information Technology Industries Association). Reference may be made to the Visible Light Beacon System “May 2013”.

光ビーコンの代表的な光源はLED(Light Emitting Diode)であるが、光ビーコンの光源はLEDに限定されない。即ち、光ビーコンの光源は、所定の大きさに収まる輝点を生じさせ、上述の光変調が可能な光源であれば、どのようなものでもよい。また、第1の実施形態では、対象物光ビーコン11を構成する光ビーコンの数を4として説明するが、光ビーコンの数を限定する趣旨ではない。即ち、光ビーコンの数は、3つ以上、5つ以上等他の数でも良い。しかし、3つではAR画像の変形手法に制限が生じ、5つ以上では後述する処理の計算量が増加するので、これらの観点から対象物光ビーコン11を構成する光ビーコンの数は4が望ましい。   A typical light source of an optical beacon is an LED (Light Emitting Diode), but the light source of the optical beacon is not limited to an LED. In other words, the light source of the optical beacon may be any light source as long as it generates a bright spot within a predetermined size and can perform the above-described light modulation. Moreover, although 1st Embodiment demonstrates the number of the optical beacons which comprise the target object optical beacon 11 as four, it is not the meaning which limits the number of optical beacons. That is, the number of optical beacons may be other numbers such as three or more and five or more. However, with three, the AR image deformation method is limited, and with five or more, the amount of processing to be described later increases. Therefore, the number of optical beacons constituting the object optical beacon 11 is preferably four from these viewpoints. .

以上の観点から、第1の実施形態では、4つの光ビーコンにて1組の対象物光ビーコン11を構成するものとし、予め各対象物光ビーコン11同士の距離は把握されているものとする。   From the above viewpoint, in the first embodiment, a set of object light beacons 11 is configured by four optical beacons, and the distances between the object optical beacons 11 are grasped in advance. .

図3は、第1の実施形態に係るHMD10の内部構成の一例を示す図である。図3を参照すると、HMD10は、カメラ部20と、表示部30と、記憶部40と、制御部50と、カメラ制御部60と、ディスプレイ制御部70と、を含んで構成される。図3に示す各部は、内部バス(データ線、制御信号線等)により相互に接続されている。   FIG. 3 is a diagram illustrating an example of an internal configuration of the HMD 10 according to the first embodiment. Referring to FIG. 3, the HMD 10 includes a camera unit 20, a display unit 30, a storage unit 40, a control unit 50, a camera control unit 60, and a display control unit 70. Each part shown in FIG. 3 is mutually connected by an internal bus (data line, control signal line, etc.).

カメラ部20は、撮像素子21及びカメラレンズ22を含むカメラモジュールである。   The camera unit 20 is a camera module including an image sensor 21 and a camera lens 22.

表示部30は、光源を含むディスプレイ部31と、レンズ部32と、導光部33と、グラス部34と、を含む表示モジュールである。さらに、グラス部34には、HMD10の装着者の瞳の前方に位置するように配置される半透過ミラー35と、複数のグラス部光ビーコン36−1〜36−4と、が含まれている。なお、以降の説明において、グラス部光ビーコン36−1〜36−4を区別する特段の理由がない場合には、単に「グラス部光ビーコン36」と表記する。また、以降の説明において、対象物光ビーコン11とグラス部光ビーコン36を区別する必要のない場合には、単に「光ビーコン」と表記する。   The display unit 30 is a display module including a display unit 31 including a light source, a lens unit 32, a light guide unit 33, and a glass unit 34. Furthermore, the glass part 34 includes a transflective mirror 35 disposed so as to be positioned in front of the pupil of the wearer of the HMD 10 and a plurality of glass part optical beacons 36-1 to 36-4. . In the following description, when there is no particular reason for distinguishing the glass part optical beacons 36-1 to 36-4, they are simply expressed as “glass part optical beacons 36”. Moreover, in the following description, when it is not necessary to distinguish the object light beacon 11 and the glass part light beacon 36, they are simply referred to as “light beacon”.

グラス部光ビーコン36の発する光は、可視光である必要はなく、HMD10の装着者の目の検出波長範囲外、且つ、カメラ部20の撮像素子21の検出波長範囲内の光(例えば、目に悪影響を与え難い波長である近赤外光であり、かつ、目に対する安全光強度以内)であることが望ましい。なお、上述のように、対象物光ビーコン11は、赤外光を発するデバイスとすることができる。つまり、対象物光ビーコン11の発する光は、可視光である必要はなく、HMD10の装着者の目の検出波長範囲外、且つ、カメラ部20の撮像素子21の検出波長範囲内の光(例えば、目への悪影響の少ない波長である近赤外光であり、かつ、目に対する安全光強度以内)であってもよい。但し、対象物光ビーコン11が、不可視光である場合、以降の説明にある、対象物光ビーコン11の視認は出来無いが、カメラ部20の検出波長範囲内であれば、HMD10のグラス部34上のグラス部光ビーコン36と、実際の輝点を配置した実像である対象物光ビーコン11と、の位置関係を検出して、現実の像とAR画像のアライメントを行い、HMD10の装着者ごとに適切なAR画像位置を視野上の指定位置に投影することはできる。また、対象物光ビーコン11やグラス部光ビーコン36の発する光の強度は、網膜に影響を与えない程度に十分低いものとする。   The light emitted by the glass part light beacon 36 does not need to be visible light, and is light outside the detection wavelength range of the eye of the wearer of the HMD 10 and within the detection wavelength range of the imaging device 21 of the camera part 20 (for example, the eye It is desirable that it is near infrared light having a wavelength that does not easily adversely affect the eye and is within the safety light intensity for the eyes. As described above, the object light beacon 11 can be a device that emits infrared light. That is, the light emitted from the object light beacon 11 does not need to be visible light, and is light outside the detection wavelength range of the eye of the wearer of the HMD 10 and within the detection wavelength range of the imaging device 21 of the camera unit 20 (for example, , Near-infrared light having a wavelength that has little adverse effect on the eyes, and within a safe light intensity for the eyes). However, when the object light beacon 11 is invisible light, the object light beacon 11 in the following description cannot be visually recognized. However, if the object light beacon 11 is within the detection wavelength range of the camera unit 20, the glass unit 34 of the HMD 10. For each wearer of the HMD 10, the positional relationship between the upper glass part light beacon 36 and the object light beacon 11, which is a real image in which an actual bright spot is arranged, is detected, and the actual image and the AR image are aligned. It is possible to project an AR image position appropriate for the specified position on the field of view. Further, the intensity of light emitted from the object light beacon 11 and the glass part light beacon 36 is sufficiently low so as not to affect the retina.

記憶部40は、制御部50の動作に必要なプログラムやデータを記憶する。例えば、記憶部40は、4つの光ビーコンからなる対象物光ビーコン11に関する情報(例えば、ID情報、光ビーコン同士間の距離)と、当該対象物光ビーコン11に関連付けられたAR画像と、を1組とする情報を複数記憶する。また、記憶部40は、4つの光ビーコンからなるグラス部光ビーコン36に関するID情報を記憶する。あるいは、記憶部40は、カメラ部20のパラメータである、カメラレンズ22の焦点距離や撮像素子21の画素ピッチ等の情報を記憶する。さらに、記憶部40は、眼球の幾何モデルのパラメータである、瞳の半径、角膜球の半径、瞳の中心から角膜球の中心までの長さ等の情報を記憶する。さらに、記憶部40は、グラス部光ビーコン36により囲まれた面における光ビーコンの位置と、虚像のディスプレイにおける光ビーコンの位置と、の対応のテーブル情報を記憶する。   The storage unit 40 stores programs and data necessary for the operation of the control unit 50. For example, the storage unit 40 includes information on the object light beacon 11 including four optical beacons (for example, ID information, a distance between the light beacons) and an AR image associated with the object light beacon 11. A plurality of pieces of information as one set are stored. Moreover, the memory | storage part 40 memorize | stores ID information regarding the glass part optical beacon 36 which consists of four optical beacons. Alternatively, the storage unit 40 stores information such as the focal length of the camera lens 22 and the pixel pitch of the image sensor 21 that are parameters of the camera unit 20. Further, the storage unit 40 stores information such as the pupil radius, the radius of the corneal sphere, and the length from the center of the pupil to the center of the corneal sphere, which are parameters of the geometric model of the eyeball. Furthermore, the memory | storage part 40 memorize | stores the corresponding table information of the position of the optical beacon in the surface enclosed by the glass part optical beacon 36, and the position of the optical beacon in the display of a virtual image.

制御部50は、CPU(Central Processing Unit)等の演算装置により構成され、記憶部40から各種プログラムを読み出し、当該プログラムを実行することで種々の機能を実現する。制御部50は、光ビーコン受信部51と、角膜球位置推定部52と、光ビーコン位置推定部53と、拡張現実表示部54と、を含んで構成される。これら各部の詳細は後述する。また、制御部50は、HMD10に搭載されたコンピュータに、そのハードウェアを用いて、後に詳述する各処理を実行させるコンピュータプログラムにより実現することもできる。   The control unit 50 is configured by an arithmetic device such as a CPU (Central Processing Unit), and implements various functions by reading out various programs from the storage unit 40 and executing the programs. The control unit 50 includes an optical beacon receiving unit 51, a corneal sphere position estimating unit 52, an optical beacon position estimating unit 53, and an augmented reality display unit 54. Details of these parts will be described later. The control unit 50 can also be realized by a computer program that causes a computer mounted on the HMD 10 to execute each process described in detail later using the hardware thereof.

制御部50は、カメラ制御部60及びディスプレイ制御部70に動作を指示する。また、制御部50は、記憶部40に対するアクセス(データの読み出し、データの書き込み)を行う。   The control unit 50 instructs the camera control unit 60 and the display control unit 70 to operate. In addition, the control unit 50 performs access to the storage unit 40 (reading data and writing data).

カメラ制御部60は、カメラ部20により撮像された画像データを取り込み、記憶部40に書き込む。   The camera control unit 60 takes in the image data captured by the camera unit 20 and writes it in the storage unit 40.

ディスプレイ制御部70は、記憶部40から画像データを読み出し、ディスプレイ部31に出力する。   The display control unit 70 reads the image data from the storage unit 40 and outputs it to the display unit 31.

図4は、第1の実施形態に係るHMD10の平面図(a)と正面図(b)の一例示す図である。図4(a)を参照すると、ディスプレイ部31の光源から照射された光は、レンズ部32と導光部33を通過し、半透過ミラー35に到達する。半透過ミラー35に到達した光は、半透過ミラー35にて反射する。なお、導光部33は中空の管路でも良いし、光ファイバケーブルの束であっても良い。また、半透過ミラー35の透過率は、装着者の視野を妨げず、且つ、HMD10が投射する虚像が認識できる範囲の所定値であり、透過率は50%に制限されない。   FIG. 4 is a diagram illustrating an example of a plan view (a) and a front view (b) of the HMD 10 according to the first embodiment. Referring to FIG. 4A, the light emitted from the light source of the display unit 31 passes through the lens unit 32 and the light guide unit 33 and reaches the semi-transmissive mirror 35. The light that reaches the semi-transmissive mirror 35 is reflected by the semi-transmissive mirror 35. The light guide 33 may be a hollow pipe or a bundle of optical fiber cables. The transmissivity of the semi-transmissive mirror 35 is a predetermined value within a range where the virtual image projected by the HMD 10 can be recognized without impeding the visual field of the wearer, and the transmissivity is not limited to 50%.

図4(a)に示すように、半透過ミラー35は、HMD10の装着者の目の前に配置される。そのため、HMD10の装着者は、半透過ミラー35を透過するシーン(視野の実像、景色の実像)に重なる虚像を視認できる。つまり、HMD10の装着者は、シーンに重なる虚像のディスプレイ(虚像の表示面;HMD10の装着者が、AR画像が表示されていると認識する表示面)を、あたかも実在する物として認知できる。即ち、装着者が視認する虚像の範囲が、虚像のディスプレイである(図4(a)参照)。   As shown in FIG. 4A, the semi-transmissive mirror 35 is arranged in front of the wearer of the HMD 10. Therefore, the wearer of the HMD 10 can visually recognize a virtual image that overlaps the scene (real image of the field of view, real image of the scenery) that is transmitted through the semi-transmissive mirror 35. That is, the wearer of the HMD 10 can recognize a virtual image display (virtual image display surface; a display surface that the wearer of the HMD 10 recognizes that the AR image is displayed) as if it were an actual object. That is, the range of the virtual image visually recognized by the wearer is a virtual image display (see FIG. 4A).

撮像素子21とカメラレンズ22を含むカメラ部20は、装着者の目(角膜部を含む眼球)がカメラ部20の画角に入るように固定されている。カメラ部20が撮像する画像は、眼球の角膜が凸面鏡に相当し、装着者の瞳と角膜表面で反射する対象物光ビーコン11の像の2つが、同時にピントが合う程度に被写界深度が設定されている。換言すると、眼球の角膜は、焦点距離の極めて短い凸面鏡(凹レンズと同様の働き)として働くので、角膜表面で反射された対象物光ビーコン11の像にピントが合うように設定されたカメラレンズ22に必要な後方被写界深度は、カメラレンズ22から対象物光ビーコン11までの光線路におけるピント位置から対象物光ビーコン11までの距離より極めて短い。HMD10の装着者の瞳と、角膜表面で反射されたシーン中にある光ビーコンと、は同時に十分な分解能にて撮像される(図5参照)。   The camera unit 20 including the imaging element 21 and the camera lens 22 is fixed so that the wearer's eyes (eyeball including the cornea portion) fall within the angle of view of the camera unit 20. The image captured by the camera unit 20 is such that the cornea of the eyeball corresponds to a convex mirror, and the depth of field is such that two images of the object light beacon 11 reflected by the wearer's pupil and the cornea surface are in focus at the same time. Is set. In other words, the cornea of the eyeball functions as a convex mirror having a very short focal length (the same function as the concave lens), and therefore the camera lens 22 set so as to focus on the image of the object light beacon 11 reflected by the cornea surface. The rear depth of field required for the camera is extremely shorter than the distance from the focus position on the optical path from the camera lens 22 to the object light beacon 11 to the object light beacon 11. The pupil of the wearer of the HMD 10 and the optical beacon in the scene reflected by the corneal surface are simultaneously imaged with sufficient resolution (see FIG. 5).

グラス部光ビーコン36は、半透過ミラー35を囲うようにグラス部34に配置された一組の光ビーコンである(図4(b)参照)。即ち、グラス部光ビーコン36と、シーン中に配置された対象物光ビーコン11は、物理的に異なる構成である。   The glass part optical beacon 36 is a set of optical beacons arranged on the glass part 34 so as to surround the semi-transmissive mirror 35 (see FIG. 4B). That is, the glass part light beacon 36 and the object light beacon 11 arranged in the scene have physically different configurations.

[動作の説明]
次に、第1の実施形態に係るHMD10の動作について説明する。なお、HMD10の装着者は、シーン中の対象物を視認すると、対象物光ビーコン11も視認することになる(装着者の視界に対象物光ビーコン11も入る)。
[Description of operation]
Next, the operation of the HMD 10 according to the first embodiment will be described. When the wearer of the HMD 10 visually recognizes the object in the scene, the object light beacon 11 is also visually recognized (the object light beacon 11 also enters the wearer's field of view).

装着者が対象物光ビーコン11を視認した状態で、HMD10のカメラ部20が撮像する画像には、装着者の瞳にて反射した対象物光ビーコン11とグラス部光ビーコン36それぞれの像が写る。例えば、図5に示すように、カメラ部20が撮像する画像には、装着者の瞳で反射された対象物光ビーコン11とグラス部光ビーコン36の像が存在する。   The image captured by the camera unit 20 of the HMD 10 with the wearer visually recognizing the object light beacon 11 includes images of the object light beacon 11 and the glass part light beacon 36 reflected by the wearer's pupil. . For example, as shown in FIG. 5, the image captured by the camera unit 20 includes images of the object light beacon 11 and the glass part light beacon 36 reflected by the wearer's pupil.

なお、瞳での光の反射は角膜表面での反射であって、角膜表面は曲面であるため、瞳で反射した複数の光ビーコンの像の位置関係は、光ビーコンを平面に投影した位置関係とは異なり歪んだものとなる。以降、カメラ部20が撮像した画像の光ビーコンの像の位置から、装着者が視認している虚像のディスプレイとシーンの中の対象物との位置関係の算出動作について説明する。   Since the reflection of light at the pupil is a reflection at the corneal surface and the corneal surface is a curved surface, the positional relationship between the images of multiple optical beacons reflected at the pupil is the positional relationship when the optical beacons are projected onto a plane. Unlike that, it becomes distorted. Hereinafter, the calculation operation of the positional relationship between the display of the virtual image viewed by the wearer and the object in the scene from the position of the image of the optical beacon captured by the camera unit 20 will be described.

初めに、図6を参照しつつ、上記算出動作全体を説明する。   First, the entire calculation operation will be described with reference to FIG.

HMD10は、動作を開始すると、図6に示す各種処理を実行する前に、HMD10のカメラ部20は一定周期にて撮像を繰り返し、撮像により得られる画像データをカメラ制御部60に出力する。カメラ制御部60は、取得した画像データを記憶部40に書き込み、1フレームの書き込みが完了するごとに、制御部50(より詳細には、光ビーコン受信部51と角膜球位置推定部52)に、画像データの書き込み完了を通知する。   When the HMD 10 starts operation, the camera unit 20 of the HMD 10 repeats imaging at a constant period and outputs image data obtained by imaging to the camera control unit 60 before executing various processes shown in FIG. The camera control unit 60 writes the acquired image data to the storage unit 40, and each time the writing of one frame is completed, the camera control unit 60 instructs the control unit 50 (more specifically, the optical beacon reception unit 51 and the corneal sphere position estimation unit 52). The image data writing completion is notified.

上記通知を受けた光ビーコン受信部51と角膜球位置推定部52のそれぞれは、光ビーコン受信処理と角膜球位置推定処理を実行する(ステップS01、S02)。上記2つの処理が終了すると、光ビーコン位置推定部53が、光ビーコン位置推定処理を実行する(ステップS03)。その後、拡張現実表示部54が、AR画像描画処理を実行する(ステップS04)。   Each of the optical beacon receiving unit 51 and the corneal sphere position estimating unit 52 that has received the notification executes an optical beacon receiving process and a corneal sphere position estimating process (steps S01 and S02). When the above two processes are completed, the optical beacon position estimation unit 53 executes an optical beacon position estimation process (step S03). Thereafter, the augmented reality display unit 54 executes an AR image drawing process (step S04).

[光ビーコン受信部の動作]
光ビーコン受信部51は、予め定めた対象物の位置に応じて配置された光ビーコンから送信される信号であって、光ビーコンの識別情報を含む信号を受信する手段である。具体的には、光ビーコン受信部51は、カメラ部20が撮像した画像データを解析することで、光ビーコンが発信したIDを読み取り、画像データ中の装着者の瞳で反射した光ビーコンの存在を検出する手段である。
[Operation of optical beacon receiver]
The optical beacon receiving unit 51 is a means for receiving a signal that is transmitted from an optical beacon arranged according to a predetermined position of an object and that includes identification information of the optical beacon. Specifically, the optical beacon receiving unit 51 analyzes the image data captured by the camera unit 20, reads the ID transmitted by the optical beacon, and the presence of the optical beacon reflected by the wearer's pupil in the image data It is a means to detect.

図7は、光ビーコン受信部51の動作の一例を示すフローチャートである。   FIG. 7 is a flowchart illustrating an example of the operation of the optical beacon receiving unit 51.

ステップS101において、光ビーコン受信部51は、カメラ制御部60から1フレームの書き込み完了の通知を受けると、記憶部40に書き込まれている画像データから検出信号発信領域を探知する。検出信号発信領域とは、予め定めた検出信号のパターンと同じパターンにて輝度が変化している領域である。光ビーコン受信部51は、カメラ部20が撮像した予め定めた所定数のフレームの画像データを比較することで上記検出信号発信領域を探知する。光ビーコン受信部51は、上記検出信号発信領域(検出信号と同じパターンにて輝度が変化している領域)を探知した場合に、当該領域を光ビーコンの像の候補(以下、光ビーコン候補と表記する)に設定する。   In step S <b> 101, the optical beacon receiving unit 51 detects a detection signal transmission region from the image data written in the storage unit 40 when receiving a notification of completion of writing of one frame from the camera control unit 60. The detection signal transmission area is an area where the luminance changes in the same pattern as a predetermined detection signal pattern. The optical beacon receiving unit 51 detects the detection signal transmission region by comparing image data of a predetermined number of frames captured by the camera unit 20. When the optical beacon receiving unit 51 detects the detection signal transmission region (a region where the luminance changes in the same pattern as the detection signal), the optical beacon receiving unit 51 selects the optical beacon image candidate (hereinafter referred to as an optical beacon candidate). Set to (notation).

光ビーコン受信部51は、取得した全ての光ビーコン候補に対し、後述する信号の復元処理と誤り検出処理を適用したか否かを判定する(ステップS102)。   The optical beacon receiving unit 51 determines whether or not signal restoration processing and error detection processing described later have been applied to all acquired optical beacon candidates (step S102).

全ての光ビーコン候補に対して、信号復元処理等が終了していれば(ステップS102、Yes分岐)、光ビーコン受信部51は、ステップS107、S108に係る処理を実行する。信号復元処理等を行っていない光ビーコン候補が存在すれば(ステップS102、No分岐)、光ビーコン受信部51は、複数の光ビーコン候補から1つの候補を選択し、当該選択した光ビーコン候補の輝度変化のパターンに対して復調処理を行って信号を復元し、当該復元した信号に対する誤り検出処理を行う(ステップS103)。なお、信号の復元の結果、各光ビーコンのID情報が得られる。   If the signal restoration process or the like has been completed for all optical beacon candidates (step S102, Yes branch), the optical beacon reception unit 51 executes the processes according to steps S107 and S108. If there is an optical beacon candidate that is not subjected to signal restoration processing or the like (step S102, No branch), the optical beacon receiving unit 51 selects one candidate from the plurality of optical beacon candidates, and the selected optical beacon candidate is selected. Demodulation processing is performed on the luminance change pattern to restore the signal, and error detection processing is performed on the restored signal (step S103). As a result of signal restoration, ID information of each optical beacon is obtained.

光ビーコンに用いられる変調方式には、ベースバンド−パルス位置変調等が存在する。また、当該変調方式の復調では、例えば、光のパルス幅とパルス同士の間隔を測定することで、基準となる時間間隔と当該時間間隔における光のパルスの位置(時刻)を特定し、対応する2値の値(0/1情報)を当てはめてデータ列を得ることが行われる。その上で、予め定められたフレーム構造に基づき、ID情報と誤り検出符号が復元される。   As a modulation method used for an optical beacon, there is baseband-pulse position modulation or the like. Further, in the demodulation of the modulation method, for example, by measuring the pulse width of the light and the interval between the pulses, the reference time interval and the position (time) of the light pulse in the time interval are specified and dealt with. A data string is obtained by applying a binary value (0/1 information). Then, the ID information and the error detection code are restored based on a predetermined frame structure.

光ビーコン受信部51は、先に取得したデータ列から誤り検出符号を計算すると共に、復元した誤り検出符号と比較することで、復元した信号における誤りの有無を判定する。なお、可視光通信にて通常用いられる変調方式として、4値パルス位置変調(4PPM;4 Pulse Position Modulation)が挙げられる。当該方式にて変調された信号を復調するために、通常、光のパルス幅と間隔が検出される。   The optical beacon receiving unit 51 calculates an error detection code from the previously acquired data sequence and compares it with the restored error detection code to determine whether there is an error in the restored signal. In addition, quaternary pulse position modulation (4PPM; 4 Pulse Position Modulation) is mentioned as a modulation system normally used in visible light communication. In order to demodulate a signal modulated by this method, the pulse width and interval of light are usually detected.

さらに、4PPMによる変調方式には、サブキャリアを重畳する方式と重畳しない方式が存在する。第1の実施形態では、受信素子として利用するイメージセンサは、通常、サブキャリアの周波数で信号を分割するアナログ回路が存在しないことと、又、レンズによりセンサ画素毎に入射光を分離しているため干渉光の影響が小さいこと、を考慮し、サブキャリアを重畳しない方式を使用する。但し、種々の条件(例えば、消費電力やコスト等)が整えば、サブキャリアの周波数よりも十分高いフレームレートに対応したイメージセンサを使用することで、サブキャリアを重畳する4PPMによる変調方式を用いることもできる。なお、サブキャリアを重畳しない4PPM変調方式は、IrDA(Infrared Data Association)のバージョン1.1のFIR(Fast Infrared)においても採用されている。   Further, modulation methods using 4PPM include a method of superimposing subcarriers and a method of not superimposing subcarriers. In the first embodiment, an image sensor used as a receiving element usually does not have an analog circuit that divides a signal at a subcarrier frequency, and separates incident light for each sensor pixel by a lens. Therefore, considering that the influence of the interference light is small, a method that does not superimpose subcarriers is used. However, if various conditions (for example, power consumption, cost, etc.) are prepared, an image sensor corresponding to a frame rate sufficiently higher than the frequency of the subcarrier is used, thereby using a modulation method by 4PPM that superimposes the subcarrier. You can also Note that the 4PPM modulation method that does not superimpose subcarriers is also used in FIR (Fast Infrared) of version 1.1 of IrDA (Infrared Data Association).

上述のように、光ビーコン受信部51は、光信号を復調することで取得したデータ列(0/1のデータ列)に、予め定められたフレーム構造を当てはめることで、光ビーコンのID情報を復元する。ID情報の復元に用いるフレーム構造は、文献「上野 秀樹、佐藤 義之、片岡 敦、“可視光IDシステム”、東芝レビュー Vol.62 No.5、2007年」の図5を参照することができる。   As described above, the optical beacon receiving unit 51 applies the ID information of the optical beacon by applying a predetermined frame structure to the data sequence (0/1 data sequence) acquired by demodulating the optical signal. Restore. For the frame structure used for restoring the ID information, reference can be made to FIG. 5 of the document “Hideki Ueno, Yoshiyuki Sato, Atsushi Kataoka,“ Visible Light ID System ”, Toshiba Review Vol.62 No.5, 2007”.

第1の実施形態にて使用する誤り検出符号は、可視光通信にて通常用いられるCRC(Cyclic Redundancy Check)を用いるものとする。誤り検出符号を使用しなくともよいが、光空間通信の規格で誤り検出符号の使用が必須である点を考慮し、第1の実施形態では、誤り検出符号を使用するものとする。   The error detection code used in the first embodiment is a CRC (Cyclic Redundancy Check) normally used in visible light communication. Although the error detection code need not be used, the error detection code is used in the first embodiment in consideration of the necessity of using the error detection code in the optical space communication standard.

光ビーコン受信部51は、光ビーコン候補から誤りが検出されたか否かを判定(ステップS104)し、誤りが検出された場合(ステップS104、Yes分岐)に、ステップS102に戻り処理を継続する。   The optical beacon receiving unit 51 determines whether or not an error is detected from the optical beacon candidates (step S104). If an error is detected (step S104, Yes branch), the process returns to step S102 and continues the processing.

光ビーコン受信部51は、光ビーコン候補について誤りが検出されなかった場合(ステップS104、No分岐)に、当該光ビーコン候補(検出信号発信領域)を光ビーコンの像であると認定し、当該領域の重心位置を計算する。光ビーコン受信部51は、計算した重心位置を、カメラ部20が撮像した画像データにおける光ビーコン(光ビーコンの像)の座標位置に定める(ステップS105)。   When an error is not detected for the optical beacon candidate (step S104, No branch), the optical beacon receiving unit 51 recognizes the optical beacon candidate (detection signal transmission region) as an optical beacon image, and Calculate the center of gravity position. The optical beacon receiving unit 51 determines the calculated position of the center of gravity as the coordinate position of the optical beacon (optical beacon image) in the image data captured by the camera unit 20 (step S105).

光ビーコン受信部51は、受信した(復号した)ID情報と、上記の座標位置を関連付けて記憶部40に格納(ステップS106)し、ステップS102の処理に戻る。   The optical beacon receiving unit 51 associates the received (decoded) ID information with the coordinate position and stores it in the storage unit 40 (step S106), and returns to the process of step S102.

光ビーコン受信部51は、全ての光ビーコン候補に関し、ID情報を取得するための処理が終了(ステップS102、Yes分岐)すると、光ビーコン候補の中に光ビーコンと判定した領域が存在するか否かを判定する(ステップS107)。   When the process for acquiring the ID information is completed for all optical beacon candidates (step S102, Yes branch), the optical beacon receiving unit 51 determines whether there is an area determined as an optical beacon in the optical beacon candidates. Is determined (step S107).

光ビーコンの像と判定した領域があれば(ステップS107、Yes分岐)、光ビーコン受信部51は、光ビーコン位置推定部53に、光ビーコン受信完了を通知する(ステップS108)。光ビーコンの像と判定した領域がなければ(ステップS107、No分岐)、光ビーコン受信部51は処理を終了する。   If there is an area determined to be an optical beacon image (step S107, Yes branch), the optical beacon reception unit 51 notifies the optical beacon position estimation unit 53 of completion of optical beacon reception (step S108). If there is no region determined to be an optical beacon image (step S107, No branch), the optical beacon receiving unit 51 ends the process.

以上のように、対象物光ビーコン11やグラス部光ビーコン36が送信する信号は、所定の方式により変調されており、光ビーコン受信部51は、1フレームに相当する複数の画像データを解析することにより、光ビーコンが送信する信号を復調すると共に、光ビーコンの識別情報を取得する。   As described above, the signals transmitted by the object light beacon 11 and the glass portion light beacon 36 are modulated by a predetermined method, and the light beacon receiving unit 51 analyzes a plurality of image data corresponding to one frame. As a result, the signal transmitted by the optical beacon is demodulated and the identification information of the optical beacon is acquired.

[角膜球位置推定部の動作]
角膜球位置推定部52は、少なくともHMD10を装着する装着者の瞳が撮像された画像データから、当該装着者の瞳に係る領域を検出し、検出された瞳の大きさと形状に基づいて、装着者の角膜球の中心位置を推定する手段である。より具体的には、角膜球位置推定部52は、カメラ部20により撮像された画像データから、瞳を検出し、その大きさと形状に基づき角膜球の中心位置を計算する。なお、以降の説明において、角膜球等の位置は、カメラ部20のカメラレンズ22の主点を起点(原点)とする。
[Operation of corneal sphere position estimation unit]
The corneal sphere position estimation unit 52 detects a region related to the wearer's pupil from image data obtained by imaging at least the wearer's pupil wearing the HMD 10, and wears the cornea according to the size and shape of the detected pupil. This is a means for estimating the center position of a person's corneal sphere. More specifically, the corneal sphere position estimation unit 52 detects the pupil from the image data captured by the camera unit 20 and calculates the center position of the corneal sphere based on the size and shape. In the following description, the position of the corneal sphere or the like starts from the principal point of the camera lens 22 of the camera unit 20 (origin).

カメラにより撮像された画像における瞳の外形(形状及び大きさ)と、眼球の位置及び向きの関係は、公知の事実であり、例えば、文献「C.Nitschke, A.Nakazawa and H.Takemura, “Display−Camera Calibration from Eye Reflection”, Proc. International Conference Computer Vision(ICCV)、pp.1226−1233、2009年」に記載されている。あるいは、上記の事実は、文献「中澤 篤志、クリスティアン ニチュケ、“角膜イメージング法を用いたパララックス誤差に頑健な注視点推定方法”、第19回画像センシングシンポジウム、2013年6月」にも記載されている。   The relationship between the outer shape (shape and size) of the pupil in the image captured by the camera and the position and orientation of the eyeball is a known fact. For example, the document “C. Nitschke, A. Nakazawa and H. Takemura,“ “Display-Camera Calibration from Eye Reflection”, Proc. International Conference Computer Vision (ICCV), pp. 1226-1233, 2009 ”. Alternatively, the above facts are also described in the literature “Atsushi Nakazawa, Christian Nichuke,“ A method of estimating a gaze point robust to parallax errors using the corneal imaging method ”, 19th Image Sensing Symposium, June 2013”. ing.

図8は、実際の眼球の断面を模した模式図(図8(a))と眼球の幾何モデル(図8(b))の一例を示す図である。図8(a)を参照すると、実際の眼球は角膜部分が出っ張っているので、幾何モデルによる近似の際、眼球本体と角膜球の2つの球体が用いられる(図8(b)参照)。   FIG. 8 is a schematic diagram (FIG. 8A) simulating a cross section of an actual eyeball and an example of a geometric model of the eyeball (FIG. 8B). Referring to FIG. 8A, since the cornea portion of the actual eyeball protrudes, two spheres of the eyeball body and the corneal sphere are used in the approximation by the geometric model (see FIG. 8B).

なお、眼球の幾何モデルのパラメータは固定値を用いるものとする。より具体的には、眼球の幾何モデルは、複数のパラメータにより近似され、各パラメータには固定値が用いられる(rL=5.6mm、rC=7.7mm、dLC=5.6mm;図8(b)参照)。なお、実際の眼球の大きさには個人差があるが、眼球の幾何モデルのパラメータに固定値を用いたとしても、眼球の表面反射解析結果の精度は十分な精度を有することが知られている。   Note that fixed values are used for the parameters of the geometric model of the eyeball. More specifically, the geometric model of the eyeball is approximated by a plurality of parameters, and fixed values are used for each parameter (rL = 5.6 mm, rC = 7.7 mm, dLC = 5.6 mm; FIG. b)). It should be noted that although there are individual differences in the actual size of the eyeball, it is known that the accuracy of the surface reflection analysis result of the eyeball has sufficient accuracy even if a fixed value is used as a parameter of the eyeball geometric model. Yes.

図9は、眼球の位置及び向きと、瞳の投影像の関係を弱透視投影モデルにより示す図である。なお、本来、透視投影モデルは非線形であり、弱透視投影モデルは透視投影モデルを線形に近似した投影モデルである。弱透視投影モデルは、コンピュータビジョンの分野にて活用される手法である。   FIG. 9 is a diagram illustrating the relationship between the position and orientation of the eyeball and the projection image of the pupil using a weak perspective projection model. Note that the perspective projection model is inherently non-linear, and the weak perspective projection model is a projection model that approximates the perspective projection model linearly. The weak perspective projection model is a technique used in the field of computer vision.

図9を参照すると、カメラ部20が撮像する画像は、図9に示す画像面201に投影される画像に一致する。また、画像面201に投影される瞳の投影像202は、長軸rmax、短軸rmin、中心iL、回転角Φで示される楕円形状となる。なお、弱透視投影モデルを用いたとしても、眼球の表面反射解析結果の精度に関しては、十分な精度を有することが確認されている。   Referring to FIG. 9, the image captured by the camera unit 20 matches the image projected on the image plane 201 shown in FIG. The pupil projection image 202 projected onto the image plane 201 has an elliptical shape indicated by a major axis rmax, a minor axis rmin, a center iL, and a rotation angle Φ. Even when the weak perspective projection model is used, it has been confirmed that the accuracy of the result of the surface reflection analysis of the eyeball is sufficient.

角膜球位置推定部52は、カメラ部20が撮像した画像に写る瞳の形状及び大きさを計算する。角膜球位置推定部52は、当該計算に先立ち、瞳の外形を検出する必要がある。その際、瞳の一部が、瞼やまつ毛により隠れている場合が想定されるが、そのような場合であっても、瞳の外形を精度良く検出方法が存在する。例えば、以下の文献「辻 徳生、柴田 慎吾、長谷川 勉、倉爪 亮、“視線計測のためのLMedSを用いた虹彩検出法”、画像の認識・理解シンポジウム(MIRU2004)、2004年7月」に記載された方法を用いることができる。   The corneal sphere position estimation unit 52 calculates the shape and size of the pupil shown in the image captured by the camera unit 20. The corneal sphere position estimation unit 52 needs to detect the outer shape of the pupil prior to the calculation. At that time, it is assumed that a part of the pupil is hidden by eyelashes or eyelashes. Even in such a case, there is a method for accurately detecting the outer shape of the pupil. For example, in the following literature “Tokuo Tsuji, Shingo Shibata, Tsutomu Hasegawa, Ryo Kurazume,“ Iris Detection Method Using LMedS for Gaze Measurement ”, Image Recognition and Understanding Symposium (MIRU 2004), July 2004” The described method can be used.

角膜球位置推定部52は、瞳の外形を検出する際、以下の展開された楕円の式(1)を使用する。
Ax+Bxy+Cy+Dx+Ey+F=0 ・・・(1)
ただし、4AC−B>0
When detecting the outer shape of the pupil, the corneal sphere position estimation unit 52 uses the following developed ellipse equation (1).
Ax 2 + Bxy + Cy 2 + Dx + Ey + F = 0 (1)
However, 4AC-B 2 > 0

角膜球位置推定部52は、最小メジアン法(LMedS;Least Median Square)を用いて瞳の外形を検出する。なお、上記最小メジアン法は、ランダムに幾つかのサンプルを抽出し、最小二乗法(LSM;Least Squares Method)に当てはめることを繰り返し、全測定値における二乗誤差の中央値が最も小さいときの推定を正しい推定とみなす手法である。その詳細は、文献「P.J.Rousseeuw and A.M.Leroy, “Robust Regression and Outlier Detection”, Wiley, New York、1987年」に記載されている。   The corneal sphere position estimation unit 52 detects the outer shape of the pupil using a minimum median method (LMedS; Least Median Square). Note that the minimum median method repeatedly extracts several samples and applies them to the least squares method (LSM) to estimate when the median of the square error in all measured values is the smallest. This is a method that is regarded as a correct estimation. The details are described in the document “P.J. Rousseeuw and A.M. Leroy,“ Robust Regression and Outlier Detection ”, Wiley, New York, 1987”.

角膜球位置推定部52は、最小メジアン法に従い、上記式(1)で表せる楕円の係数を求めるために代入する点として、ノイズを含む複数の瞳の外形の候補点から、例えば、ランダムに5点を選択する。そして、角膜球位置推定部52は、係数を評価する値には、求めた係数で表せる楕円と全ての候補点との距離の二乗の中央値を用いる。   The corneal sphere position estimating unit 52 uses, for example, a random 5 points from the candidate points of the outline of the pupil including noise as a point to be substituted for obtaining the coefficient of the ellipse represented by the above formula (1) according to the minimum median method. Select a point. Then, the corneal sphere position estimation unit 52 uses a median value of the squares of the distances between the ellipse represented by the obtained coefficient and all candidate points as a value for evaluating the coefficient.

次に、角膜球位置推定部52は、楕円の展開された式の係数から、楕円のパラメータを以下の式(2)〜(5)により求める。

中心iLのx座標x0=(BE−2CD)/(4AC−B) ・・・(2)

中心iLのy座標y0=(BD−2AE)/(4AC−B) ・・・(3)

回転角Φ=(1/2)tan−1(B/(A−C)) ・・・(4)

(長軸rmax、 短軸rmin)=√((2(A・x0+B・x0・y0+C・y0−F))/(A+C±(B/sin2Φ))) ・・・(5)
但し、大きい値をrmax、小さい値をrminとする。
Next, the corneal sphere position estimation unit 52 obtains the ellipse parameters from the following formulas (2) to (5) from the coefficients of the developed ellipse formula.

X-coordinate x0 of the center iL = (BE-2CD) / (4AC-B 2 ) (2)

Y coordinate y0 of center iL = (BD-2AE) / (4AC-B 2 ) (3)

Rotation angle Φ = (1/2) tan −1 (B / (AC)) (4)

(Long axis rmax, short axis rmin) = √ ((2 (A · x0 2 + B · x0 · y0 + C · y0 2 −F)) / (A + C ± (B / sin2Φ))) (5)
However, a larger value is rmax and a smaller value is rmin.

次に、角膜球位置推定部52は、上記楕円のパラメータを使用して、眼球の姿勢(位置、方向)を計算する。角膜球位置推定部52は、瞳の投影像202の長軸rmaxと、眼球の3次元的な幾何モデルのパラメータであるパラメータrLと、カメラ部20の焦点距離fと、を用いて、角膜球203の中心位置と画像面201の間の距離dを計算する(式(6)参照)。

d=f・rL/rmax ・・・(6)
Next, the corneal sphere position estimation unit 52 calculates the posture (position, direction) of the eyeball using the ellipse parameters. The corneal sphere position estimation unit 52 uses the major axis rmax of the projection image 202 of the pupil, the parameter rL that is a parameter of the three-dimensional geometric model of the eyeball, and the focal length f of the camera unit 20 to use the corneal sphere. A distance d between the center position 203 and the image plane 201 is calculated (see equation (6)).

d = f · rL / rmax (6)

また、角膜球位置推定部52は、瞳の投影像の長軸rmaxと短軸rminを用いて、瞳の奥行き方向の傾きτを計算する(式(7)参照)。

τ=±arccos(rmin/rmax) ・・・(7)
Further, the corneal sphere position estimation unit 52 calculates the tilt τ in the depth direction of the pupil using the major axis rmax and the minor axis rmin of the projected image of the pupil (see Expression (7)).

τ = ± arccos (rmin / rmax) (7)

さらに、角膜球位置推定部52は、瞳の投影像の回転角Φと、瞳の奥行き方向の傾きτと、から視線ベクトルgを計算する(式(8)参照)。

g=[sinτsinΦ−sinτcosΦ−cosτ] ・・・(8)

なお、式(8)における「T」は、式(8)の行列が転置行列であることを示す。
Furthermore, the corneal sphere position estimation unit 52 calculates the line-of-sight vector g from the rotation angle Φ of the projected image of the pupil and the tilt τ in the depth direction of the pupil (see Expression (8)).

g = [sinτsinΦ−sinτcosΦ−cosτ] T (8)

Note that “T” in Equation (8) indicates that the matrix of Equation (8) is a transposed matrix.

瞳の中心点Lは、瞳の投影像の中心iLと、カメラ部20の焦点距離fと、角膜球203の中心点Cと画像面201との間の距離dと、から計算することができる。また、角膜球203の中心点Cは、瞳の中心点Lと、視線ベクトルgと、弱透視投影モデルで使用されるパラメータであって、眼球の3次元的な幾デルのパラメータであるパラメータdLCと、から計算することができる。   The center point L of the pupil can be calculated from the center iL of the projected image of the pupil, the focal length f of the camera unit 20, and the distance d between the center point C of the corneal sphere 203 and the image plane 201. . The center point C of the corneal sphere 203 is a parameter used in the pupil center point L, the line-of-sight vector g, and the weak perspective projection model, and is a parameter dLC which is a three-dimensional parameter of the eyeball. And can be calculated from

次に、角膜球位置推定部52の動作の詳細を、図10に示すフローチャートを参照しつつ説明する。   Next, details of the operation of the corneal sphere position estimation unit 52 will be described with reference to the flowchart shown in FIG.

ステップS201において、角膜球位置推定部52は、カメラ制御部60から1フレームの書き込み完了の通知を受信すると、記憶部40に書き込まれている画像データを2値化(白/黒)する。このような処理により、瞳や影が写った暗い画素と、強膜や肌が写った明るい画素と、が区別可能となる。   In step S <b> 201, when the corneal sphere position estimation unit 52 receives a notification of completion of writing of one frame from the camera control unit 60, it binarizes (white / black) the image data written in the storage unit 40. By such processing, it is possible to distinguish between a dark pixel with a pupil or shadow and a bright pixel with a sclera or skin.

なお、2値化の方法には、画像の全画素の輝度分布から黒が所定の割合になるような閾値を計算し、それぞれの画素を閾値と比較する方法を採用することができる。あるいは、任意の画素から隣り合う画素の輝度を順番に比較して、その差が予め決めた所定値よりも、明るくなる方に大きければ白と、暗くなる方に大きければ黒と、判定する方法を採用してもよい。   Note that as a binarization method, a method of calculating a threshold value such that black has a predetermined ratio from the luminance distribution of all pixels of the image and comparing each pixel with the threshold value can be employed. Alternatively, a method of comparing the brightness of pixels adjacent to an arbitrary pixel in order, and determining that the difference is larger when it is brighter than a predetermined value, and is black when it is larger when it is darker May be adopted.

ステップS202において、角膜球位置推定部52は、2値化された画像に対して、収縮処理と膨張処理により、オープニング処理を行う。なお、上記収縮処理、膨張処理は、画像処理における一手法であり、2値化された白黒画像に対する処理である。具体的には、膨張(Dilation)処理とは、ある画素の周辺に1画素でも白い画素があれば白に置き換える操作を行う処理である。収縮(Erosion)処理とは、周辺に1画素でも黒い画素があれば黒に置き換える操作を行う処理である。   In step S202, the corneal sphere position estimation unit 52 performs an opening process on the binarized image by a contraction process and an expansion process. Note that the contraction process and the expansion process are methods for image processing, and are processes for a binarized monochrome image. Specifically, the dilation process is a process of performing an operation of replacing a white pixel with a white pixel even if there is one pixel around a certain pixel. The erosion process is a process of performing an operation of replacing a black pixel if there is a black pixel in the periphery.

角膜球位置推定部52は、同じ回数分、上記膨張・収縮処理を繰り返すことで、オープニング処理を実行する。   The corneal sphere position estimation unit 52 executes the opening process by repeating the expansion / contraction process the same number of times.

ステップS203において、角膜球位置推定部52は、オープニング処理が終了した画像データの中に暗い画素(画素値が黒)の領域が存在するか否かを判定する。暗い画素の領域が存在しない場合(ステップS203、No分岐)、角膜球位置推定部52は、装着者が目を閉じていた等の理由で瞳が写っていないと判断し、処理を終了する。   In step S <b> 203, the corneal sphere position estimation unit 52 determines whether there is a dark pixel (pixel value is black) region in the image data for which the opening process has been completed. When there is no dark pixel region (step S203, No branch), the corneal sphere position estimating unit 52 determines that the pupil is not photographed because the wearer closed his eyes, and the process ends.

暗い画素の領域が存在する場合(瞳が画像データに写っていると判定された場合;ステップS203、Yes分岐)、角膜球位置推定部52は、2値化された画像におけるそれぞれの境界画素の座標を取得する(ステップS204)。具体的には、角膜球位置推定部52は、2値化された画像にエッジ検出処理を行い、暗い画素の領域と明るい画素の領域の境界となる画素を抽出することで、上記境界画素の座標を取得する。   When there is a dark pixel area (when it is determined that the pupil is reflected in the image data; Step S203, Yes branch), the corneal sphere position estimation unit 52 determines each boundary pixel in the binarized image. The coordinates are acquired (step S204). Specifically, the corneal sphere position estimation unit 52 performs edge detection processing on the binarized image and extracts pixels that serve as boundaries between the dark pixel area and the bright pixel area. Get the coordinates.

上記取得された境界画素は、瞳の外周(角膜と強膜の境界)にある画素の候補となる。また、角膜球位置推定部52がエッジ検出処理を実行すると、瞳の外周上にある画素と、影の領域の外周上にある画素と、が混在して抽出される。また、ここでの座標は、抽出された個々の画素の座標を意味する。   The acquired boundary pixels are candidates for pixels on the outer periphery of the pupil (the boundary between the cornea and sclera). When the corneal sphere position estimation unit 52 executes the edge detection process, pixels on the outer periphery of the pupil and pixels on the outer periphery of the shadow area are extracted in a mixed manner. The coordinates here mean the coordinates of the extracted individual pixels.

ステップS205において、角膜球位置推定部52は、最小メジアン法(LMedS)を用いて、抽出した境界画素から瞳の外形に相当する楕円の式をなす各係数の計算を行う。   In step S <b> 205, the corneal sphere position estimation unit 52 calculates each coefficient that forms an ellipse equation corresponding to the outer shape of the pupil from the extracted boundary pixels using the minimum median method (LMedS).

ステップS206において、角膜球位置推定部52は、楕円の式の係数が計算されたか否かを判定し、係数が計算できない場合(係数が見つからない場合)には、処理を終了する(ステップS206、No分岐)。係数が計算できた場合(ステップS206、Yes分岐)、角膜球位置推定部52は、角膜球の中心点Cを計算する(ステップS207〜S212)。   In step S206, the corneal sphere position estimation unit 52 determines whether or not the coefficient of the ellipse equation has been calculated. If the coefficient cannot be calculated (if no coefficient is found), the process ends (step S206, No branch). When the coefficient can be calculated (step S206, Yes branch), the corneal sphere position estimation unit 52 calculates the center point C of the corneal sphere (steps S207 to S212).

初めに、角膜球位置推定部52は、瞳の投影像の中心iLの位置、長軸rmax、短軸rmin、回転角Φを、楕円の式の係数と、楕円のパラメータを求める式と、カメラ部20の撮像素子21の画素ピッチと、に基づき計算する(ステップS207)。   First, the corneal sphere position estimation unit 52 calculates the position of the center iL of the projected image of the pupil, the long axis rmax, the short axis rmin, the rotation angle Φ, the coefficient of the elliptic formula, the formula for calculating the elliptic parameter, Calculation is performed based on the pixel pitch of the image sensor 21 of the unit 20 (step S207).

次に、角膜球位置推定部52は、瞳の中心Lと画像面との距離dを、長軸rmaxと眼球の3次元的な幾何モデルのパラメータであるパラメータrLとカメラ部の焦点距離fと、を用いて計算する(ステップS208)。   Next, the corneal sphere position estimation unit 52 determines the distance d between the center L of the pupil and the image plane, the long axis rmax, the parameter rL that is a parameter of the three-dimensional geometric model of the eyeball, and the focal length f of the camera unit. , To calculate (step S208).

次に、角膜球位置推定部52は、瞳の中心Lの位置を、中心iLの位置と、カメラ部の焦点距離fと、瞳の中心Lと画像面との距離dと、を用いて計算する(ステップS209)。   Next, the corneal sphere position estimation unit 52 calculates the position of the center L of the pupil using the position of the center iL, the focal length f of the camera unit, and the distance d between the center L of the pupil and the image plane. (Step S209).

次に、角膜球位置推定部52は、瞳の奥行方向の傾きτを、長軸rmaxと短軸rminと、を用いて計算する(ステップS210)。   Next, the corneal sphere position estimating unit 52 calculates the inclination τ in the depth direction of the pupil using the major axis rmax and the minor axis rmin (step S210).

次に、角膜球位置推定部52は、視線ベクトルgを、瞳の投影像の回転角Φと瞳の奥行方向の傾きτと、を用いて計算する(ステップS211)。   Next, the corneal sphere position estimation unit 52 calculates the line-of-sight vector g using the rotation angle Φ of the pupil projection image and the tilt τ in the depth direction of the pupil (step S211).

次に、角膜球位置推定部52は、角膜球の中心点Cを、瞳の中心Lの位置と、視線ベクトルgと、眼球の幾何モデルのパラメータdLCと、を用いて計算する(ステップS212;図9参照)。   Next, the corneal sphere position estimation unit 52 calculates the center point C of the corneal sphere using the position of the pupil center L, the line-of-sight vector g, and the eyeball geometric model parameter dLC (step S212; (See FIG. 9).

角膜球位置推定部52は、角膜球の中心点Cの計算が終了すると、当該計算結果を記憶部40に書き込むと共に、光ビーコン位置推定部53に対し、眼球位置推定完了を通知する(ステップS213)。   When the calculation of the center point C of the corneal sphere is completed, the corneal sphere position estimation unit 52 writes the calculation result in the storage unit 40 and notifies the optical beacon position estimation unit 53 of the completion of the eyeball position estimation (step S213). ).

以上のように、角膜球位置推定部52は、画像データが生成される際の焦点位置(カメラレンズ22の主点から焦点距離f離れた位置)における画像面201に投影される装着者の瞳の大きさ及び形状を、楕円を表す式の係数により特定する。その後、角膜球位置推定部52は、瞳の中心Lと画像面との距離dを、長軸rmaxと眼球の3次元的な幾何モデルのパラメータであるパラメータrLとカメラ部の焦点距離fと、を用いて計算する。次に、角膜球位置推定部52は、瞳の中心Lの位置を、中心iLの位置と、カメラ部の焦点距離fと、瞳の中心Lと画像面との距離dと、を用いて計算する。その後、角膜球位置推定部52は、装着者の瞳を示す楕円の長軸rmax及び短軸rminの長さを用いて、装着者の瞳の傾きτを計算する。また、角膜球位置推定部52は、計算された装着者の瞳の傾きτと、画像面201に投影される装着者の瞳の回転角Φと、に基づき、装着者の瞳が向く方向を示す視線ベクトルgを計算する。さらに、角膜球位置推定部52は、計算された視線ベクトルgと、眼球の幾何モデルの所定のパラメータdLCと、装着者の角膜球の中心位置と画像面との間の距離dと、に基づき、装着者の角膜球の中心点C(中心位置)を推定する。   As described above, the corneal sphere position estimation unit 52 projects the wearer's pupil onto the image plane 201 at the focal position (position away from the principal point of the camera lens 22 by the focal distance f) when the image data is generated. Is specified by the coefficient of the equation representing the ellipse. Thereafter, the corneal sphere position estimating unit 52 determines the distance d between the center L of the pupil and the image plane, the long axis rmax, the parameter rL that is a parameter of the three-dimensional geometric model of the eyeball, the focal length f of the camera unit, Calculate using. Next, the corneal sphere position estimation unit 52 calculates the position of the center L of the pupil using the position of the center iL, the focal length f of the camera unit, and the distance d between the center L of the pupil and the image plane. To do. Thereafter, the corneal sphere position estimating unit 52 calculates the inclination τ of the wearer's pupil using the lengths of the major axis rmax and the minor axis rmin of the ellipse indicating the wearer's pupil. In addition, the corneal sphere position estimation unit 52 determines the direction in which the wearer's pupil faces based on the calculated inclination τ of the wearer's pupil and the rotation angle Φ of the wearer's pupil projected on the image plane 201. The gaze vector g shown is calculated. Further, the corneal sphere position estimation unit 52 is based on the calculated line-of-sight vector g, the predetermined parameter dLC of the eyeball geometric model, and the distance d between the center position of the wearer's corneal sphere and the image plane. The center point C (center position) of the wearer's corneal sphere is estimated.

[光ビーコン位置推定部の動作]
光ビーコン位置推定部53は、HMD10の装着者の瞳に反射した光ビーコンの像の画像データにおける位置と、推定された角膜球の中心位置と、に基づき、装着者が視認する虚像の表示面(虚像のディスプレイ)における光ビーコンの位置を推定する手段である。より具体的には、光ビーコン位置推定部53は、光ビーコン受信部51が検出した光ビーコン(カメラ部20が撮像した画像データの中の装着者の瞳に反射した光ビーコン)の像の位置と、角膜球位置推定部52が推定した角膜球の中心点C(カメラ部20が撮像した画像データの中の角膜球の中心点)と、に基づき、HMD10の装着者が視認する虚像のディスプレイと光ビーコンの位置関係を計算する。
[Operation of optical beacon position estimation unit]
The optical beacon position estimation unit 53 displays a virtual image display surface that the wearer visually recognizes based on the position in the image data of the image of the optical beacon reflected on the pupil of the wearer of the HMD 10 and the estimated center position of the corneal sphere. This is means for estimating the position of the optical beacon in the (virtual image display). More specifically, the optical beacon position estimating unit 53 determines the position of the image of the optical beacon detected by the optical beacon receiving unit 51 (the optical beacon reflected on the wearer's pupil in the image data captured by the camera unit 20). And a corneal sphere center point C estimated by the corneal sphere position estimating unit 52 (a corneal sphere center point in the image data captured by the camera unit 20). And calculate the positional relationship between the optical beacon.

図11は、カメラ部20が撮像した画像データにおける光ビーコンの像の位置と、装着者が視認する光ビーコンの方向と、の関係を説明するための図である。初めに、光ビーコン位置推定部53は、角膜球表面の光ビーコンの像の位置を、カメラ部20に関するパラメータである焦点距離fと、カメラ部20が撮像した画像データの中の光ビーコンの像の位置と、角膜球の中心点Cと、角膜球の半径rC(図8(b)参照)と、から計算する。   FIG. 11 is a diagram for explaining the relationship between the position of the optical beacon image in the image data captured by the camera unit 20 and the direction of the optical beacon visually recognized by the wearer. First, the optical beacon position estimating unit 53 determines the position of the optical beacon image on the surface of the corneal sphere, the focal length f that is a parameter related to the camera unit 20, and the optical beacon image in the image data captured by the camera unit 20. , The center point C of the corneal sphere, and the radius rC of the corneal sphere (see FIG. 8B).

図11に示すように、角膜球表面の反射における反射角は入射角と同じなので、光ビーコン位置推定部53は、カメラ部20のカメラレンズ22の主点Oと角膜球表面の光ビーコンの像を結ぶ直線211と、角膜球の中心点Cと角膜球表面の光ビーコンの像を結ぶ直線212から、角膜球表面の光ビーコンの像と現実の光ビーコンとを結ぶ直線gの向き、を計算する。なお、光ビーコンが対象物光ビーコン11及びグラス部光ビーコン36のいずれであっても、4つの光ビーコンが1組となるので、角膜球表面の光ビーコンの像と光ビーコンを結ぶ直線gは、4本が1組となって計算される。   As shown in FIG. 11, since the reflection angle in the reflection on the corneal sphere surface is the same as the incident angle, the optical beacon position estimation unit 53 performs the image of the optical beacon on the principal point O of the camera lens 22 of the camera unit 20 and the corneal sphere surface. The direction of the straight line g connecting the optical beacon image on the corneal sphere surface and the actual optical beacon is calculated from the straight line 211 connecting the corneal sphere center point C and the optical beacon image on the corneal sphere surface. To do. Note that, even if the optical beacon is either the object optical beacon 11 or the glass part optical beacon 36, since four optical beacons are one set, a straight line g connecting the optical beacon image on the corneal sphere surface with the optical beacon is Four are calculated as one set.

HMD10の装着者が視認する光ビーコンの方向を求めるため、角膜球の中心点Cと、光ビーコンとを結ぶ直線213が必要となる。角膜球表面の光ビーコンの像と光ビーコンとを結ぶ直線上にある、光ビーコンの位置を特定するために、光ビーコン位置推定部53は、予めわかっている光ビーコン同士の距離を利用する。   In order to obtain the direction of the optical beacon visually recognized by the wearer of the HMD 10, a straight line 213 connecting the center point C of the corneal sphere and the optical beacon is required. In order to specify the position of the optical beacon on the straight line connecting the optical beacon image on the corneal sphere surface and the optical beacon, the optical beacon position estimating unit 53 uses the distance between the optical beacons that are known in advance.

図12は、角膜球表面の光ビーコンの像と、光ビーコンと、を結ぶ直線g上にある光ビーコンの位置関係の一例を示す図である。第1の実施形態では、4つの光ビーコンが1組となっており、且つ、予め光ビーコン同士の距離は既知の情報であるため、角膜球表面の光ビーコンの像と光ビーコンを結ぶ直線上にて、この距離関係(光ビーコン同士の位置関係)が成立する点が光ビーコンの実際の位置となる。   FIG. 12 is a diagram illustrating an example of the positional relationship of the optical beacons on the straight line g connecting the optical beacon image on the corneal sphere surface and the optical beacon. In the first embodiment, four optical beacons are one set, and the distance between the optical beacons is known information in advance. Therefore, on the straight line connecting the optical beacon image on the corneal sphere surface with the optical beacon. The point where this distance relationship (positional relationship between optical beacons) is established is the actual position of the optical beacon.

例えば、図12(a)に示すように、1組の光ビーコンP1〜P4それぞれ同士の距離を、d12、d23、d34、d41と定まっている場合を考える。また、光ビーコンP1〜P4のそれぞれに対応する直線gを、直線g1〜g4と表記する。図12(a)に示す光ビーコン間の距離(d12、d23、d34、d41)が成立する光ビーコンP1〜P4の位置は以下のように求めることができる。   For example, as shown in FIG. 12A, a case is considered in which the distance between each pair of optical beacons P1 to P4 is determined as d12, d23, d34, and d41. Moreover, the straight line g corresponding to each of the optical beacons P1 to P4 is denoted as straight lines g1 to g4. The positions of the optical beacons P1 to P4 that satisfy the distances (d12, d23, d34, d41) between the optical beacons shown in FIG. 12A can be obtained as follows.

初めに、光ビーコン位置推定部53は、直線g1上の光ビーコンP1が取り得る位置であって、眼球から最も遠い点p1maxを、以下のように計算する。光ビーコン位置推定部53は、直線g1上の任意位置に点p1を仮定し、p1と直線g2との最短距離dp1−g2minを計算する。   First, the optical beacon position estimating unit 53 calculates a point p1max that is a position that the optical beacon P1 can take on the straight line g1 and is farthest from the eyeball as follows. The optical beacon position estimating unit 53 assumes a point p1 at an arbitrary position on the straight line g1, and calculates the shortest distance dp1-g2min between p1 and the straight line g2.

次に、光ビーコン位置推定部53は、計算した最短距離dp1−g2minと距離d12を比較する。比較の結果、最短距離dp1−g2minの方が一定値以上大きければ、光ビーコン位置推定部53は、点p1の位置を眼球から遠くなる位置に仮定(予め定めた所定の距離の分遠い位置に仮定)し、再び最短距離dp1−g2minを計算する。   Next, the optical beacon position estimating unit 53 compares the calculated shortest distance dp1-g2min with the distance d12. If the shortest distance dp1-g2min is greater than a certain value as a result of the comparison, the optical beacon position estimating unit 53 assumes that the position of the point p1 is far from the eyeball (a position far from the predetermined predetermined distance). Suppose) and again calculate the shortest distance dp1-g2min.

一方、最短距離dp1−g2minの方が一定値以上小さければ、光ビーコン位置推定部53は、点p1の位置を眼球に近くなる位置に仮定(予め定めた所定の距離の分近い位置に仮定)し、再び最短距離dp1−g2minを計算する。   On the other hand, if the shortest distance dp1-g2min is smaller than a certain value, the optical beacon position estimating unit 53 assumes that the position of the point p1 is close to the eyeball (assumed to be close to a predetermined distance). Then, the shortest distance dp1-g2min is calculated again.

最短距離dp1−g2minと距離dp12の差が予め定めた範囲内であれば、光ビーコン位置推定部53は、当該p1の位置をp1maxと定める。   If the difference between the shortest distance dp1−g2min and the distance dp12 is within a predetermined range, the optical beacon position estimating unit 53 determines the position of p1 as p1max.

次に、光ビーコン位置推定部53は、直線g1上の点p1が、p1max上に存在するものと仮定する。その上で、光ビーコン位置推定部53は、点p1を起点して距離d12の位置に存在する、直線g2上の点p2を計算する。   Next, the optical beacon position estimating unit 53 assumes that the point p1 on the straight line g1 exists on p1max. Then, the optical beacon position estimation unit 53 calculates a point p2 on the straight line g2 that exists at the position of the distance d12 from the point p1.

その際、点p1から距離d12離れた位置であって、直線g2上の点p2は2つ存在する可能性がある(瞳に近づく方向の1点と瞳から遠くなる方向の1点;図12(b)参照)。次に、光ビーコン位置推定部53は、点p2から距離d23の位置に存在する、直線g3上の点p3を計算する。この場合にも、2つの点p2それぞれに対して、2つの点p3が存在する可能性がある(点p3は4箇所となる可能性がある)。次に、光ビーコン位置推定部53は、点p3から距離d34の位置に存在する、直線g4上の点p4を計算する。この場合にも、4つの点p3それぞれに対して、2つの点p4が存在する可能性がある(点p4は8箇所となる可能性がある)。次に、光ビーコン位置推定部53は、点p4から距離d41の位置に存在する、直線g1上の点p1’を計算する。この場合、8個の点p4それぞれに対して、2つの点p1’が存在する可能性がある(点p1’は16箇所となる可能性がある)。   At this time, there may be two points p2 on the straight line g2 at a distance d12 away from the point p1 (one point in the direction approaching the pupil and one point in the direction far from the pupil; FIG. 12). (See (b)). Next, the optical beacon position estimating unit 53 calculates a point p3 on the straight line g3 that exists at a distance d23 from the point p2. Also in this case, there may be two points p3 for each of the two points p2 (the point p3 may be four places). Next, the optical beacon position estimating unit 53 calculates a point p4 on the straight line g4 that exists at a distance d34 from the point p3. Also in this case, there is a possibility that there are two points p4 for each of the four points p3 (the point p4 may be eight places). Next, the optical beacon position estimating unit 53 calculates a point p1 'on the straight line g1 that exists at a distance d41 from the point p4. In this case, there may be two points p1 'for each of the eight points p4 (there may be 16 points p1').

次に、光ビーコン位置推定部53は、当初仮定した点p1と、当該点p1を元に計算した最大16個の点p1’と、の間の距離dp1−p1’を計算する。計算した全てのdp1−p1’が一定値以上であれば、光ビーコン位置推定部53は、点p1の位置を眼球に近い位置(予め定めた所定値だけ近い位置)に再度、仮定し、距離dp1−p1’の計算と一定値(閾値)との比較を繰り返す。   Next, the optical beacon position estimating unit 53 calculates a distance dp1-p1 'between the initially assumed point p1 and a maximum of 16 points p1' calculated based on the point p1. If all the calculated dp1-p1 ′ are equal to or greater than a certain value, the optical beacon position estimating unit 53 assumes again the position of the point p1 to a position close to the eyeball (position close to a predetermined value), and the distance The calculation of dp1−p1 ′ and the comparison with a constant value (threshold value) are repeated.

上記繰り返し処理の結果、光ビーコン位置推定部53は、一定値以下の距離dp1−p1’を検出した場合には、その際の点p1、p2、p3、p4からなる1組を、光ビーコンP1〜P4の位置に定める。   As a result of the above iterative process, if the optical beacon position estimating unit 53 detects a distance dp1-p1 ′ that is equal to or smaller than a certain value, the optical beacon P1 is set to a set of points p1, p2, p3, and p4. It is determined at a position of ~ P4.

HMD10の装着者が、虚像のディスプレイ越しに対象物を視認すると、グラス部光ビーコン36に囲まれた範囲の中に、虚像のディスプレイの存在を確認できる。さらに、装着者は、虚像のディスプレイの範囲の中に対象物光ビーコン11を視認する。   When the wearer of the HMD 10 visually recognizes the object through the virtual image display, the presence of the virtual image display can be confirmed within the range surrounded by the glass part light beacon 36. Furthermore, the wearer visually recognizes the object light beacon 11 in the range of the virtual image display.

図13は、HMD10の装着者が視認する虚像のディスプレイ範囲に存在する対象物光ビーコン11の一例を示す図である。   FIG. 13 is a diagram illustrating an example of the object light beacon 11 existing in the display range of the virtual image visually recognized by the wearer of the HMD 10.

光ビーコン位置推定部53は、装着者から視認した場合の対象物光ビーコン11と重なる(重なるように装着者から視認される)虚像のディスプレイ221上の座標を取得する。その際、光ビーコン位置推定部53は、角膜球の中心点Cと光ビーコンを結ぶ直線(図11に示す直線213)が、グラス部光ビーコン36により囲まれた仮想面222の上を通過する点を計算する。   The optical beacon position estimating unit 53 acquires the coordinates on the display 221 of the virtual image that overlaps with the object optical beacon 11 when viewed by the wearer (viewed from the wearer so as to overlap). At that time, the optical beacon position estimating unit 53 passes a straight line (straight line 213 shown in FIG. 11) connecting the center point C of the corneal sphere and the optical beacon over the virtual plane 222 surrounded by the glass part optical beacon 36. Calculate points.

その後、光ビーコン位置推定部53は、後述のグラス部光ビーコン36により囲まれた仮想面222における位置と、虚像のディスプレイ221における位置と、の対応から計算結果を座標に変換する。   Thereafter, the optical beacon position estimating unit 53 converts the calculation result into coordinates from the correspondence between the position on the virtual surface 222 surrounded by the glass part optical beacon 36 described later and the position on the display 221 of the virtual image.

グラス部光ビーコン36により囲まれた仮想面222は、4つのグラス部光ビーコン36の位置から、最小二乗法などにより平面の式を算出し、4つのグラス部光ビーコン36を当該平面に投影した点(投影点)により囲まれる面として計算可能である。   The virtual surface 222 surrounded by the glass part optical beacons 36 is calculated from a plane formula by the least square method or the like from the positions of the four glass part optical beacons 36, and the four glass part optical beacons 36 are projected on the plane. It can be calculated as a surface surrounded by points (projection points).

ここで、グラス部光ビーコン36により囲まれた仮想面222における位置と、虚像のディスプレイ221における位置と、の対応に関する情報は、都度計算しても良いし、予め記憶部40にテーブル情報として書き込んでおき、角膜球の中心点Cの位置から選択しても良い。   Here, the information regarding the correspondence between the position on the virtual surface 222 surrounded by the glass part optical beacon 36 and the position on the display 221 of the virtual image may be calculated each time or written in advance as table information in the storage unit 40. Alternatively, the position may be selected from the position of the center point C of the corneal sphere.

図4に示すように、HMD10の装着者は、半透過ミラー35にて反射した虚像のディスプレイを視認する。そのため、ディスプレイ部31、レンズ部32、導光部33、半透過ミラー35のそれぞれ寸法や屈折率などの諸特性と、両眼の間隔の個人差等の要因により変化する装着者の眼球とグラス部34との位置関係と、により、装着者が視認するグラス部光ビーコン36により囲まれた仮想面222の位置と虚像のディスプレイ221の位置と、の対応が定まる。   As shown in FIG. 4, the wearer of the HMD 10 visually recognizes a virtual image display reflected by the semi-transmissive mirror 35. Therefore, the eyeballs and glasses of the wearer change depending on various characteristics such as the size and refractive index of the display unit 31, the lens unit 32, the light guide unit 33, and the semi-transmissive mirror 35, and individual differences in the distance between both eyes. The correspondence between the position of the virtual surface 222 surrounded by the glass part optical beacon 36 visually recognized by the wearer and the position of the virtual image display 221 is determined by the positional relationship with the part 34.

グラス部光ビーコン36により囲まれる仮想面222の位置と虚像のディスプレイ221の位置と、の対応を定める、上記種々の要素のうち、装着者の眼球とグラス部34の位置関係以外の要素は変化しない(固定である)。従って、例えば、グラス部光ビーコン36により囲まれた仮想面222における位置と、虚像のディスプレイ221における位置と、を対応付けたテーブル情報を、記憶部40に書き込んでおくことで、カメラ部20で撮像した画像データから計算した角膜球の中心点Cとグラス部光ビーコン36の位置に基づき、テーブル情報の選択が可能となる。   Among the various elements that determine the correspondence between the position of the virtual surface 222 surrounded by the glass part light beacon 36 and the position of the virtual image display 221, elements other than the positional relationship between the wearer's eyeball and the glass part 34 are changed. No (fixed). Therefore, for example, by writing table information in which the position on the virtual surface 222 surrounded by the glass part light beacon 36 and the position on the display 221 of the virtual image are associated with each other in the storage unit 40, The table information can be selected based on the center point C of the corneal sphere calculated from the captured image data and the position of the glass part light beacon 36.

なお、記憶部40に書き込む上記テーブル情報は、光線追跡シミュレーションにより、グラス部34に対する装着者の眼球の相対的な位置を変化させ、各変化点それぞれを、グラス部光ビーコン36に対する角膜球の中心点Cの位置に関連付けることで作成できる。   The table information to be written in the storage unit 40 changes the relative position of the wearer's eyeball with respect to the glass unit 34 by ray tracing simulation, and sets each change point to the center of the corneal sphere with respect to the glass unit optical beacon 36. It can be created by associating with the position of the point C.

図14は、瞳の角膜球の中心点Cと、仮想面における虚像のディスプレイの位置を対応付けるテーブル情報の一例を示す図である。図14(a)を参照すると、テーブル情報には、瞳の中心点Cの仮想面222に対する相対位置に応じた仮想面での虚像のディスプレイの位置(座標)が規定されている。例えば、瞳の中心点Cの位置が図14(a)の1行目の場合には、グラス部光ビーコン36により形成される仮想面222における虚像のディスプレイ221の位置は図14(b)のように規定されている。同様に、中心点Cの位置が図14(a)の2行目の場合には、虚像のディスプレイ221の位置は図14(c)のように規定されている。あるいは、グラス部光ビーコン36による仮想面222に対する角膜球中心点Cの相対位置が、テーブル中の位置の中間位置になる場合(テーブルには登録がない場合)には、テーブル中の最も近い位置を採用しても良いし、中心点Cの相対位置を挟んで距離が近い3点(3次元座標上である為、案分する場合、3点のデータが必要)を案分し、算出しても良い。   FIG. 14 is a diagram illustrating an example of table information that associates the center point C of the corneal sphere of the pupil with the position of the virtual image display on the virtual plane. Referring to FIG. 14A, the table information defines the display position (coordinates) of the virtual image on the virtual surface in accordance with the relative position of the center point C of the pupil with respect to the virtual surface 222. For example, when the position of the center point C of the pupil is in the first row of FIG. 14A, the position of the virtual image display 221 on the virtual plane 222 formed by the glass part light beacon 36 is as shown in FIG. It is prescribed as follows. Similarly, when the position of the center point C is the second line in FIG. 14A, the position of the virtual image display 221 is defined as shown in FIG. Alternatively, when the relative position of the corneal sphere center point C with respect to the virtual surface 222 by the glass part light beacon 36 is an intermediate position of the position in the table (when not registered in the table), the closest position in the table Or 3 points that are close in distance with respect to the relative position of the center point C (3 points are necessary because of 3D coordinates). May be.

次に、光ビーコン位置推定部53の動作を図15、図16を参照しつつ説明する。   Next, the operation of the optical beacon position estimating unit 53 will be described with reference to FIGS. 15 and 16.

図15のステップS301において、光ビーコン位置推定部53は、対象物光ビーコン11の1組が発見されたか否かを判定する。具体的には、光ビーコン位置推定部53は、光ビーコン受信部51からの光ビーコン受信完了に係る通知と、角膜球位置推定部52からの眼球位置推定完了に係る通知と、を受信すると、記憶部40に書き込まれている光ビーコンのID情報(光ビーコン受信部51が受信した光ビーコンのID情報)と、予め登録されているID情報と、を比較する。   In FIG.15 S301, the optical beacon position estimation part 53 determines whether 1 set of the object optical beacon 11 was discovered. Specifically, when the optical beacon position estimation unit 53 receives the notification related to the completion of optical beacon reception from the optical beacon reception unit 51 and the notification related to completion of eyeball position estimation from the corneal ball position estimation unit 52, The ID information of the optical beacon written in the storage unit 40 (the ID information of the optical beacon received by the optical beacon receiving unit 51) is compared with the ID information registered in advance.

比較の結果、光ビーコン位置推定部53は、対象物光ビーコン11が一組発見されると(ステップS301、Yes分岐)、ステップS302以降の処理を実行する。比較の結果、対象物光ビーコン11が発見されなければ(ステップS301、No分岐)、光ビーコン位置推定部53は、処理を終了する。   As a result of the comparison, when a set of object light beacons 11 is found (step S301, Yes branch), the optical beacon position estimating unit 53 executes the processing after step S302. If the object light beacon 11 is not found as a result of the comparison (step S301, No branch), the light beacon position estimating unit 53 ends the process.

ステップS302において、光ビーコン位置推定部53は、前ステップと同様にして、グラス部光ビーコン36の1組が発見されたか否かを判定する。グラス部光ビーコン36の組が発見されれば(ステップS302、Yes分岐)、光ビーコン位置推定部53は、ステップS303以降の処理を実行する。グラス部光ビーコン36の組が発見されなければ(ステップS302、No分岐)、光ビーコン位置推定部53は、処理を終了する。   In step S302, the optical beacon position estimation unit 53 determines whether or not one set of the glass part optical beacons 36 has been found, as in the previous step. If the set of the glass part optical beacon 36 is found (step S302, Yes branch), the optical beacon position estimation part 53 performs the process after step S303. If the pair of glass part optical beacons 36 is not found (step S302, No branch), the optical beacon position estimating part 53 ends the process.

ステップS303において、光ビーコン位置推定部53は、角膜球表面の光ビーコンの像と光ビーコンを結ぶ直線を計算する。その際、光ビーコン位置推定部53は、対象物光ビーコン11とグラス部光ビーコン36それぞれに対して、角膜球表面における光ビーコンの像の位置を計算する。   In step S303, the optical beacon position estimating unit 53 calculates a straight line connecting the optical beacon image and the optical beacon on the corneal sphere surface. In that case, the optical beacon position estimation part 53 calculates the position of the image of the optical beacon on the corneal sphere surface for each of the object optical beacon 11 and the glass part optical beacon 36.

光ビーコン位置推定部53は、記憶部40に書き込まれている既知の情報(カメラ部20の焦点距離fと、撮像素子21の画素ピッチと、角膜球の半径rC)と、光ビーコン受信部51が記憶部40に書き込んだ情報(カメラが撮像した画像データの中における光ビーコンの像の位置)と、角膜球位置推定部52が記憶部40に書き込んだ情報(角膜球の中心点Cの位置)と、に基づき、角膜球表面における光ビーコンの像の位置を計算する。光ビーコン位置推定部53は、カメラレンズの主点と角膜球表面の光ビーコンの像を結ぶ直線を用いて、角膜球表面の光ビーコンの像と光ビーコンを結ぶ直線の向きを計算する。   The optical beacon position estimation unit 53 includes known information (focal length f of the camera unit 20, pixel pitch of the image sensor 21, and radius rC of the corneal sphere) written in the storage unit 40, and an optical beacon reception unit 51. Written in the storage unit 40 (the position of the optical beacon image in the image data captured by the camera) and the information written in the storage unit 40 by the corneal sphere position estimation unit 52 (the position of the center point C of the corneal sphere). ), The position of the image of the optical beacon on the surface of the corneal sphere is calculated. The optical beacon position estimating unit 53 calculates the direction of the straight line connecting the optical beacon image on the corneal sphere surface and the optical beacon using the straight line connecting the principal point of the camera lens and the optical beacon image on the corneal sphere surface.

次に、光ビーコン位置推定部53は、光ビーコンの位置を計算する(ステップS304;図15参照)。   Next, the optical beacon position estimation unit 53 calculates the position of the optical beacon (step S304; see FIG. 15).

図16を参照すると、光ビーコン位置推定部53は、一組の光ビーコンのうち、光ビーコンP1と角膜球表面の光ビーコンの像とを結ぶ直線g1上の、任意位置に点p1を仮定し、最短距離dp1−g2minを計算する(ステップS401、S402)。   Referring to FIG. 16, the optical beacon position estimating unit 53 assumes a point p1 at an arbitrary position on a straight line g1 connecting the optical beacon P1 and the image of the optical beacon on the corneal sphere surface among the set of optical beacons. The shortest distance dp1-g2min is calculated (steps S401 and S402).

最短距離dp1−g2minと距離d12の差が一定値(所定値)以上の場合(ステップS403、Yes分岐)には、光ビーコン位置推定部53は、位置をずらした位置に点p1を再仮定(ステップS404)し、再び最短距離dp1−g2minを計算する(ステップS402)。具体的には、最短距離dp1−g2minが一定値以上大きければ、光ビーコン位置推定部53は、点p1の位置を眼球から遠い位置に仮定し、再び最短距離dp1−g2minを計算する。一方、最短距離dp1−g2minが一定値以上小さければ、点p1の位置を眼球から近い位置に仮定し、再び最短距離dp1−g2minを計算する。   When the difference between the shortest distance dp1−g2min and the distance d12 is equal to or greater than a certain value (predetermined value) (step S403, Yes branch), the optical beacon position estimation unit 53 re-assums the point p1 at the position shifted ( Then, the shortest distance dp1-g2min is calculated again (step S402). Specifically, if the shortest distance dp1-g2min is larger than a certain value, the optical beacon position estimating unit 53 assumes the position of the point p1 as a position far from the eyeball, and calculates the shortest distance dp1-g2min again. On the other hand, if the shortest distance dp1-g2min is smaller than a certain value, the position of the point p1 is assumed to be close to the eyeball, and the shortest distance dp1-g2min is calculated again.

距離dp1−g2minと距離d12の差が一定値以下であれば(ステップS403、No分岐)、光ビーコン位置推定部53は、当該点p1の位置をp1maxに設定し、点p1が直線g1上のp1maxに存在すると仮定する(ステップS405)。   If the difference between the distance dp1−g2min and the distance d12 is equal to or smaller than a certain value (step S403, No branch), the optical beacon position estimating unit 53 sets the position of the point p1 to p1max, and the point p1 is on the straight line g1. It is assumed that it exists at p1max (step S405).

ステップS406において、光ビーコン位置推定部53は、上述した方法にて、点p1から点p2、点p2から点p3、点p3から点p4、点p4から点p1’をそれぞれ計算する。その後、光ビーコン位置推定部53は、点p1と、点p1を元に計算した最大16個の点p1’との間の距離dp1−p1’を計算する。   In step S406, the optical beacon position estimating unit 53 calculates the points p1 to p2, the points p2 to p3, the points p3 to p4, and the points p4 to p1 'by the method described above. Thereafter, the optical beacon position estimating unit 53 calculates the distance dp1-p1 'between the point p1 and a maximum of 16 points p1' calculated based on the point p1.

光ビーコン位置推定部53は、全ての距離dp1−p1’のうち、一定値以下の距離dp1−p1’が存在する否かを判定する(ステップS407)。全ての距離dp1−p1’が一定値以上であれば(ステップS407、No分岐)、光ビーコン位置推定部53は、点p1の位置を眼球に近い位置に再び仮定(ステップS408)する。   The optical beacon position estimating unit 53 determines whether or not there is a distance dp1-p1 'that is equal to or smaller than a certain value among all the distances dp1-p1' (step S407). If all the distances dp1-p1 'are equal to or greater than a certain value (step S407, No branch), the optical beacon position estimation unit 53 assumes again the position of the point p1 to a position close to the eyeball (step S408).

その後、光ビーコン位置推定部53は、p1の位置と眼球の間の距離が一定値以下であるか否かを判定(ステップS409)し、p1の位置を移動させる余地が残っているか否かを判定する。点p1を移動させることをできれば(ステップS409、No分岐)、光ビーコン位置推定部53は、ステップS406、S407に戻り、距離dp1−p1’の計算と、当該計算値と一定値との比較を繰り返す。   Thereafter, the optical beacon position estimating unit 53 determines whether or not the distance between the position of p1 and the eyeball is equal to or less than a certain value (step S409), and determines whether or not there is room for moving the position of p1. judge. If the point p1 can be moved (step S409, No branch), the optical beacon position estimating unit 53 returns to steps S406 and S407, and calculates the distance dp1-p1 ′ and compares the calculated value with a constant value. repeat.

最終的に、一定値以下の距離dp1−p1’が発見できない場合(ステップS409、Yes分岐)には、光ビーコン位置推定部53は、処理を終了する。   Finally, when the distance dp1-p1 'below the certain value cannot be found (step S409, Yes branch), the optical beacon position estimating unit 53 ends the process.

一定値以下の距離dp1−p1’が発見された場合(ステップS407、Yes分岐)には、光ビーコン位置推定部53は、当該点p1、p2、p3、p4からなる1組を光ビーコンの位置に設定する(ステップS410)。   When a distance dp1-p1 ′ that is equal to or smaller than a certain value is found (step S407, Yes branch), the optical beacon position estimation unit 53 determines the position of the optical beacon as a set of the points p1, p2, p3, and p4. (Step S410).

以上で、図15のステップS304の処理(光ビーコンの位置を計算する処理)が終了し、上位の処理(図15の処理)に戻る。   Thus, the process of step S304 in FIG. 15 (process for calculating the position of the optical beacon) ends, and the process returns to the upper process (process in FIG. 15).

光ビーコン位置推定部53は、光ビーコンの組それぞれについて、1組ずつステップS304の処理を繰り返し、組となっている全ての光ビーコンの位置を計算する。計算ができなかった場合には(ステップS305、No分岐)、光ビーコン位置推定部53は、処理を終了する。計算ができた場合には(ステップS305、Yes分岐)、光ビーコン位置推定部53は、角膜球の中心点Cと対象物光ビーコン11とを結ぶ直線を計算する(ステップS306)。   The optical beacon position estimation unit 53 repeats the process of step S304 for each set of optical beacons, and calculates the positions of all optical beacons in the set. When the calculation cannot be performed (step S305, No branch), the optical beacon position estimating unit 53 ends the process. When the calculation is completed (step S305, Yes branch), the optical beacon position estimation unit 53 calculates a straight line connecting the center point C of the corneal sphere and the object optical beacon 11 (step S306).

次に、光ビーコン位置推定部53は、グラス部光ビーコン36により囲まれた仮想面222を計算する(ステップS307)。   Next, the optical beacon position estimating unit 53 calculates the virtual plane 222 surrounded by the glass unit optical beacon 36 (step S307).

光ビーコン位置推定部53は、上記ステップS307にて計算した仮想面222にて、角膜球の中心点Cと対象物光ビーコン11を結ぶ直線(ステップS306で計算した直線)が通過する点を計算する(ステップS308)。   The optical beacon position estimating unit 53 calculates the point through which the straight line connecting the center point C of the corneal sphere and the object optical beacon 11 (the straight line calculated in step S306) passes through the virtual plane 222 calculated in step S307. (Step S308).

光ビーコン位置推定部53は、グラス部光ビーコン36により囲まれた範囲(仮想面222)を、光ビーコンが通過したか否かを判定(ステップS309)し、通過しない場合(ステップS309、No分岐)には処理を終了する。   The optical beacon position estimation unit 53 determines whether or not the optical beacon has passed through the range (virtual plane 222) surrounded by the glass part optical beacon 36 (step S309), and if it does not pass (step S309, No branch) ) Ends the process.

通過する場合には(ステップS309、Yes判定)、光ビーコン位置推定部53は、角膜球の中心点Cとグラス部光ビーコン36の位置から、装着者の角膜球の中心点(中心位置)Cとグラス部との相対位置を計算する。その後、光ビーコン位置推定部53は、グラス部光ビーコン36により囲まれた仮想面222上の虚像のディスプレイ221上の位置に関する複数のテーブル情報(図14(a)参照)の中から、角膜球の中心点Cとグラス部光ビーコン36の位置に対応付けられたテーブルを1つ選択する(ステップS310)。   When passing (step S309, Yes determination), the optical beacon position estimating unit 53 determines the center point (center position) C of the wearer's corneal sphere from the center point C of the corneal sphere and the position of the glass part optical beacon 36. And the relative position of the glass part is calculated. Thereafter, the optical beacon position estimating unit 53 selects a corneal sphere from among a plurality of pieces of table information (see FIG. 14A) regarding the position on the display 221 of the virtual image on the virtual surface 222 surrounded by the glass unit optical beacon 36. One table associated with the center point C and the position of the glass optical beacon 36 is selected (step S310).

次に、光ビーコン位置推定部53は、グラス部光ビーコン36により囲まれた仮想面222を通過する点について、装着者から視認した場合の対象物光ビーコン11と重なる虚像のディスプレイ221上の座標に変換する(座標を計算する;ステップS311)。   Next, the optical beacon position estimation unit 53 coordinates the virtual image on the display 221 that overlaps the object optical beacon 11 when viewed from the wearer with respect to a point passing through the virtual surface 222 surrounded by the glass optical beacon 36. (Coordinates are calculated; step S311).

上記座標が計算できない場合(ステップS312、No分岐)には、光ビーコン位置推定部53は、処理を終了する。座標が計算できた場合(ステップS312、Yes分岐)には、光ビーコン位置推定部53は、当該計算した座標を、光ビーコンのID情報(光ビーコン受信部51が記憶部40に書き込んだ受信した光ビーコンのID情報)に関連付けて、記憶部40に書き込む。   When the coordinates cannot be calculated (step S312, No branch), the optical beacon position estimating unit 53 ends the process. If the coordinates can be calculated (step S312, Yes branch), the optical beacon position estimating unit 53 receives the calculated coordinates, and the optical beacon ID information (the optical beacon receiving unit 51 has written in the storage unit 40). Write to the storage unit 40 in association with the optical beacon ID information).

その後、光ビーコン位置推定部53は、拡張現実表示部54に対し、光ビーコン位置推定完了を通知する(ステップS313)。   Thereafter, the optical beacon position estimating unit 53 notifies the augmented reality display unit 54 of completion of optical beacon position estimation (step S313).

以上のように、光ビーコン位置推定部53は、画像データに含まれる装着者の瞳に反射したグラス部光ビーコン36の像の画像データにおける位置に基づき、複数のグラス部光ビーコン36により形成される平面を仮想面222として計算し、仮想面222と装着者の角膜球の中心点C(中心位置)の相対的な位置関係に基づき、仮想面222上での虚像のディスプレイ221の位置を特定する。また、光ビーコン位置推定部53は、画像データに含まれる装着者の瞳に反射した対象物光ビーコン11の像の画像データにおける位置に基づき、対象物光ビーコン11の位置を計算し、計算されたビーコンの位置と装着者の角膜球の中心位置を結ぶ直線を計算し、当該直線が仮想面を通過する通過点の座標を、虚像のディスプレイ221での座標に変換することで、虚像のディスプレイ221における対象物光ビーコン11の位置を推定している。   As described above, the optical beacon position estimating unit 53 is formed by the plurality of glass part optical beacons 36 based on the position in the image data of the image of the glass part optical beacon 36 reflected on the wearer's pupil included in the image data. The position of the virtual image display 221 on the virtual plane 222 is specified based on the relative positional relationship between the virtual plane 222 and the center point C (center position) of the wearer's corneal sphere. To do. The light beacon position estimating unit 53 calculates the position of the object light beacon 11 based on the position in the image data of the image of the object light beacon 11 reflected on the wearer's pupil included in the image data. By calculating a straight line connecting the position of the beacon and the center position of the wearer's corneal sphere, and converting the coordinates of the passing point through which the straight line passes through the virtual plane into coordinates on the virtual image display 221, a virtual image display The position of the object light beacon 11 at 221 is estimated.

[拡張現実表示部の動作]
拡張現実表示部54は、推定された対象物光ビーコン11の位置に、対象物光ビーコン11の識別情報に関連付けられた拡張現実に係る画像を、現実の景色(シーン)に重畳させて表示する手段である。より具体的には、拡張現実表示部54は、光ビーコンのID情報に基づき、AR画像を読み出し、HMD10の装着者が視認する虚像のディスプレイ221と光ビーコンの位置関係から、装着者が視認しているシーンの対象物に合致するようにAR画像をディスプレイに描画する。
[Operation of augmented reality display]
The augmented reality display unit 54 superimposes and displays an image related to augmented reality associated with the identification information of the object light beacon 11 on the estimated position of the object light beacon 11 on the actual scene (scene). Means. More specifically, the augmented reality display unit 54 reads the AR image based on the ID information of the optical beacon, and the wearer visually recognizes the virtual image display 221 and the positional relationship between the optical beacon visually recognized by the wearer of the HMD 10. The AR image is drawn on the display so as to match the object of the current scene.

図17は、拡張現実表示部54の動作の一例を示すフローチャートである。   FIG. 17 is a flowchart illustrating an example of the operation of the augmented reality display unit 54.

ステップS501において、拡張現実表示部54は、光ビーコン位置推定部53による光ビーコン位置推定完了の通知を受信すると、受信した光ビーコンのID情報(光ビーコン受信部51が書き込んだID情報)と、虚像のディスプレイ221における座標(光ビーコン位置推定部53が書き込んだ座標であって、装着者が視認した対象物光ビーコン11と重なる座標)と、を記憶部40から読み出す。   In step S501, when the augmented reality display unit 54 receives the notification of the completion of the optical beacon position estimation by the optical beacon position estimation unit 53, the received optical beacon ID information (the ID information written by the optical beacon reception unit 51), The coordinates on the display 221 of the virtual image (the coordinates written by the optical beacon position estimating unit 53 and overlapping the object optical beacon 11 visually recognized by the wearer) are read from the storage unit 40.

その後、拡張現実表示部54は、当該ID情報を検索キーとして、予め記憶部40に格納されているAR画像(上記ID情報に関連付けられたAR画像)を読み出す(ステップS502)。   Thereafter, the augmented reality display unit 54 reads out an AR image (an AR image associated with the ID information) stored in advance in the storage unit 40 using the ID information as a search key (step S502).

AR画像は、4辺の長さがd12、d23、d34、d41の四角形と相似形であり、一組の対象物光ビーコン11を頂点とする四角形に、重なるように表示されることを想定した内容になっている。また、装着者が視認した対象物光ビーコン11と重なる、虚像のディスプレイ221における座標で囲まれる四角形は、装着者が対象物を見る角度により形が変化する。そこで、拡張現実表示部54は、当該変化する形に合うように、AR画像の変形画像を計算する(ステップS503)。なお、上記計算は、AR画像の4つの頂点と、装着者から視認した対象物光ビーコン11と重なる虚像のディスプレイ221における4つの座標と、に基づいて行う射影変換である。   It is assumed that the AR image is similar to the quadrangle of four sides d12, d23, d34, and d41, and is displayed so as to overlap the quadrangle having the pair of object light beacons 11 as vertices. It is the contents. Further, the quadrangle surrounded by the coordinates of the virtual image display 221 that overlaps the object light beacon 11 visually recognized by the wearer changes in shape depending on the angle at which the wearer views the object. Therefore, the augmented reality display unit 54 calculates a deformed image of the AR image so as to match the changing shape (step S503). The above calculation is a projective transformation performed based on the four vertices of the AR image and the four coordinates on the display 221 of the virtual image overlapping the object light beacon 11 visually recognized by the wearer.

その後、拡張現実表示部54は、AR画像の変形画像を記憶部40に書き込み、ディスプレイ制御部70に、画像データをディスプレイ部31へ送り出すことを指示する(ステップS504)。   Thereafter, the augmented reality display unit 54 writes the modified image of the AR image in the storage unit 40 and instructs the display control unit 70 to send the image data to the display unit 31 (step S504).

上記指示を受けたディスプレイ制御部70は、記憶部40から変形したAR画像を読み出し、ディスプレイ部31に出力する。   Upon receiving the instruction, the display control unit 70 reads the deformed AR image from the storage unit 40 and outputs it to the display unit 31.

以上のように、第1の実施形態に係るシステムでは、予め位置関係が把握されている1組の光ビーコンを、HMD10のグラス部34に1組と、シーンに1組以上配置する。その上で、HMD10の装着者がシーンを視認した状態で、HMD10に搭載したカメラ部20が装着者の瞳を撮像する。HMD10は、撮像した画像に写っている、装着者の瞳の外形と、角膜表面に反射した光ビーコンの像の、画像中の位置から、眼球の3次元的な幾何モデルを用いて、装着者が見ている光ビーコンの位置を計算する。その後、HMD10は、その装着者が視認している虚像のディスプレイの位置と、シーンの位置の関係を推定する。即ち、HMD10は、HMD10のグラス部34上のグラス部光ビーコン36と、実際の輝点を配置した実像である対象物光ビーコン11と、の位置関係を検出して、現実の像とAR画像のアライメントを行う。その結果、HMD10の装着者ごとに適切なAR画像位置を視野上の指定位置に投影することができる。   As described above, in the system according to the first embodiment, one set of optical beacons whose positional relationship is known in advance is arranged in the glass unit 34 of the HMD 10 and one or more sets in the scene. In addition, in a state where the wearer of the HMD 10 visually recognizes the scene, the camera unit 20 mounted on the HMD 10 images the eyes of the wearer. The HMD 10 uses a three-dimensional geometric model of the eyeball from the position in the image of the outer shape of the wearer's pupil reflected in the captured image and the image of the optical beacon reflected on the cornea surface. Calculate the position of the optical beacon that is looking at. Thereafter, the HMD 10 estimates the relationship between the position of the virtual image displayed by the wearer and the position of the scene. That is, the HMD 10 detects the positional relationship between the glass part light beacon 36 on the glass part 34 of the HMD 10 and the object light beacon 11 which is a real image in which an actual bright spot is arranged, and the actual image and the AR image are detected. Perform alignment. As a result, it is possible to project an appropriate AR image position for each wearer of the HMD 10 at a designated position on the field of view.

第1の実施形態に係るHMD10は、オプティカルシースルー型(ハーフミラー等を使って実視野とAR画像を重ねて表示する)ヘッドマウントディスプレイ(HMD;Head Mounted Display)を用いて、AR画像の空中像を投影し、HMDの装着者に、AR画像を見せる場合に、シーンと、HMDのグラス部に配置した光ビーコンの機能を有する光源から発され、装着者の角膜表面に反射した光を、HMDに搭載したカメラで撮像する。また、HMD10は、眼球の幾何モデルを用いて、光ビーコンの位置を計算することで、装着者が見ているシーン(風景等の実像)と、虚像のディスプレイ(虚像を投射するディスプレイの機能を持つHMD等の映像投射装置による虚像面)との位置関係を推定し、シーン中の適正な位置に虚像であるAR画像を投射する。   The HMD 10 according to the first embodiment is an aerial image of an AR image by using an optical see-through type (HMD; Head Mounted Display). When the AR image is displayed to the wearer of the HMD, the light emitted from the light source having the function of an optical beacon arranged in the scene and the glass part of the HMD and reflected on the cornea surface of the wearer is converted into the HMD. Take a picture with the camera mounted on the camera. Further, the HMD 10 calculates the position of the optical beacon using the geometric model of the eyeball, so that the scene (real image such as landscape) that the wearer is viewing and the virtual image display (the function of the display that projects the virtual image) A positional relationship with a virtual image plane (by a video projection device such as an HMD) is estimated, and an AR image that is a virtual image is projected at an appropriate position in the scene.

なお、第1の実施形態にて説明した、光ビーコンは、点滅等する識別機能を有する光を使った位置誘導の為のデバイスである。第1の実施形態では、対象物光ビーコン11の光は、LED(Light Emitting Diode)等の疑似点光源から、半透過ミラー35もしくはグラス部34を通り、光強度が減衰して装着者の角膜に入射し、一方、グラス部光ビーコン36の光は、その光源の光が、直接、装着者の角膜に入射し、実像が装着者の視野に入る構成を説明した。但し、グラス部光ビーコン36の代わりに、装着者の視野に、光ビーコンの役目を持たせた虚像の輝点を重ねて、グラス部光ビーコンとする構成であっても良い。即ち、ディスプレイ部31から半透過ミラー35までの間の光路のいずれかに、LED等の疑似点光源を設置し、装着者の視野の中に、点状の輝点の空中像(虚像)を結ぶ様にしても良い。あるいは、ディスプレイ部31の表示領域の任意の画素もしくは画素の集合に、光ビーコンと同様に点滅する(同様に変調する、でも良い)輝点を表示して、装着者の視野に空中像として見える、虚像のディスプレイ上の画素、をグラス部光ビーコンとして用いても良い。   The optical beacon described in the first embodiment is a device for position guidance using light having an identification function such as blinking. In the first embodiment, the light of the object light beacon 11 is transmitted from a pseudo point light source such as an LED (Light Emitting Diode) or the like through the semi-transparent mirror 35 or the glass part 34, and the light intensity is attenuated so that the wearer's cornea On the other hand, as for the light of the glass part light beacon 36, the light of the light source directly enters the wearer's cornea and the real image enters the wearer's field of view. However, instead of the glass part optical beacon 36, a configuration in which the bright part of the virtual image having the role of the optical beacon is superimposed on the wearer's visual field to form the glass part optical beacon may be used. That is, a pseudo-point light source such as an LED is installed in one of the optical paths from the display unit 31 to the semi-transmissive mirror 35, and an aerial image (virtual image) of a dotted luminescent spot is formed in the wearer's field of view. You may make it tie. Alternatively, a bright spot that blinks in the same manner as an optical beacon (or may be modulated in the same manner) is displayed on an arbitrary pixel or a set of pixels in the display area of the display unit 31 and appears as an aerial image in the wearer's field of view. A pixel on a virtual image display may be used as a glass part optical beacon.

上記の説明により、産業上の利用可能性は明らかであるが、本願開示は、シースルー型ヘッドマウントディスプレイを使って、AR画像の空中像を投影し、装着者にAR画像を提供する場合に好適である。   Although the industrial applicability is clear from the above explanation, the present disclosure is suitable for a case where an aerial image of an AR image is projected using a see-through head mounted display and the AR image is provided to the wearer. It is.

上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。   A part or all of the above embodiments can be described as in the following supplementary notes, but is not limited thereto.

[付記1]
上述の第1の視点に係る画像表示装置のとおりである。
[付記2]
前記装着者の瞳の前方に配置された半透過ミラーの周囲に配置された複数の第2光ビーコンをさらに備え、
前記光ビーコン位置推定部は、
前記画像データに含まれる前記装着者の瞳に反射した前記第2光ビーコンの像の前記画像データにおける位置に基づき、前記複数の第2光ビーコンにより形成される平面を仮想面として計算し、
前記仮想面と前記装着者の角膜球の中心位置の相対的な位置関係に基づき、前記仮想面上での前記虚像の表示面の位置を特定する、付記1の画像表示装置。
[付記3]
前記光ビーコン位置推定部は、
前記画像データに含まれる前記装着者の瞳に反射した前記第1光ビーコンの像の前記画像データにおける位置に基づき、前記第1光ビーコンの位置を計算し、
前記計算された第1光ビーコンの位置と前記装着者の角膜球の中心位置を結ぶ第1の直線を計算し、
前記第1の直線が前記仮想面を通過する通過点の座標を、前記虚像の表示面上での座標に変換することで、前記虚像の表示面における前記第1光ビーコンの位置を推定する、付記2の画像表示装置。
[付記4]
前記光ビーコン位置推定部は、
前記画像データに含まれる前記装着者の瞳に反射した前記第1光ビーコンの像の前記画像データにおける位置と前記第1光ビーコンを結ぶ第2の直線を、複数の前記第1光ビーコンごとに計算すると共に、
前記計算された第2の直線上の1つに、対応する前記第1光ビーコンを仮定することと、前記仮定された第1光ビーコンと、前記仮定された第1光ビーコンに対応する前記第2の直線に隣接する他の前記第2の直線上に、前記仮定された第1光ビーコンからの距離が最短となる前記第1光ビーコンを仮定することを、前記計算された第2の直線について繰り返し、
最初に前記第2の直線上に仮定した前記第1光ビーコンと、前記繰り返し処理により計算された、前記最初に前記第1光ビーコンを仮定した前記第2の直線上の前記第1光ビーコンと、の間の距離が所定値以下となる場合に、前記所定値以下となる場合の仮定された前記第1光ビーコンの位置を、前記第1光ビーコンの位置とする、付記3の画像表示装置。
[付記5]
前記角膜球位置推定部は、前記画像データが生成される際の焦点位置における画像面に投影される前記装着者の瞳の大きさ及び形状を、楕円を表す式の係数により特定する、付記1乃至4のいずれか一に記載の画像表示装置。
[付記6]
前記角膜球位置推定部は、
前記装着者の瞳を示す楕円の長軸及び短軸の長さを用いて、前記装着者の瞳の傾きを計算し、
前記計算された装着者の瞳の傾きと、前記画像面に投影される前記装着者の瞳の回転角と、に基づき、前記装着者の瞳が向く方向を示す視線ベクトルを計算し、
前記計算された視線ベクトルと、眼球の幾何モデルの所定のパラメータと、前記装着者の角膜球の中心位置と前記画像面との間の距離と、に基づき、前記装着者の角膜球の中心位置を推定する、付記5の画像表示装置。
[付記7]
前記第1光ビーコンが送信する信号は所定の方式により変調されており、
前記光ビーコン受信部は、1フレームに相当する複数の画像データを解析することにより、前記第1光ビーコンが送信する信号を復調すると共に、前記第1光ビーコンの識別情報を取得する、付記1乃至6のいずれか一に記載の画像表示装置。
[付記8]
前記拡張現実表示部は、
前記推定された第1光ビーコンの位置に、前記第1光ビーコンの識別情報に関連付けられた拡張現実に係る画像に射影変換を施した後に、現実の景色に重畳させて表示する、付記1乃至7のいずれか一に記載の画像表示装置。
[付記9]
前記光ビーコン受信部は、前記第1光ビーコンが送信する信号を復元し、前記復元した信号に対する誤り検出処理を行う、付記7又は8の画像表示装置。
[付記10]
予め計算された、角膜球の中心点と前記仮想面における前記虚像の表示面の位置を対応付けるテーブル情報を少なくとも記憶する記憶部をさらに備える、付記1乃至9のいずれか一に記載の画像表示装置。
[付記11]
上述の第2の視点に係る画像表示方法のとおりである。
[付記12]
上述の第3の視点に係るプログラムのとおりである。
なお、付記11及び12の形態は、付記1の形態と同様に、付記2の形態から付記10の形態に展開することが可能である。
[Appendix 1]
This is the same as the image display device according to the first viewpoint described above.
[Appendix 2]
A plurality of second light beacons disposed around a semi-transparent mirror disposed in front of the wearer's pupil;
The optical beacon position estimating unit
Based on the position in the image data of the image of the second light beacon reflected on the wearer's pupil included in the image data, a plane formed by the plurality of second light beacons is calculated as a virtual surface,
The image display device according to appendix 1, wherein a position of a display surface of the virtual image on the virtual surface is specified based on a relative positional relationship between the virtual surface and a center position of the wearer's corneal sphere.
[Appendix 3]
The optical beacon position estimating unit
Based on the position in the image data of the image of the first light beacon reflected on the wearer's pupil included in the image data, the position of the first light beacon is calculated,
Calculating a first straight line connecting the calculated position of the first optical beacon and the center position of the wearer's corneal sphere;
Estimating the position of the first optical beacon on the display surface of the virtual image by converting the coordinates of a passing point through which the first straight line passes through the virtual surface into coordinates on the display surface of the virtual image; The image display device according to attachment 2.
[Appendix 4]
The optical beacon position estimating unit
For each of the plurality of first light beacons, a second straight line connecting the position in the image data of the image of the first optical beacon reflected on the wearer's pupil included in the image data and the first optical beacon As well as calculating
Assuming the first optical beacon corresponding to one of the calculated second straight lines, the assumed first optical beacon, and the first optical beacon corresponding to the assumed first optical beacon. The calculated second straight line is assumed to have the shortest distance from the assumed first optical beacon on the other second straight line adjacent to the second straight line. Repeat about the
The first optical beacon initially assumed on the second straight line, and the first optical beacon on the second straight line assumed to be the first optical beacon calculated by the iterative process; The image display device according to appendix 3, wherein the assumed position of the first optical beacon when the distance between and is less than or equal to the predetermined value is the position of the first optical beacon. .
[Appendix 5]
The corneal sphere position estimating unit specifies the size and shape of the wearer's pupil projected on the image plane at the focal position when the image data is generated, using a coefficient of an expression representing an ellipse, The image display apparatus as described in any one of thru | or 4.
[Appendix 6]
The corneal sphere position estimating unit
Using the length of the major axis and minor axis of the ellipse indicating the wearer's pupil, the tilt of the wearer's pupil is calculated,
Based on the calculated inclination of the wearer's pupil and the rotation angle of the wearer's pupil projected on the image plane, a line-of-sight vector indicating a direction in which the wearer's pupil faces is calculated,
Based on the calculated line-of-sight vector, predetermined parameters of the eyeball geometric model, and the distance between the center position of the wearer's corneal sphere and the image plane, the center position of the wearer's corneal sphere The image display device according to appendix 5, wherein
[Appendix 7]
The signal transmitted by the first optical beacon is modulated by a predetermined method,
The optical beacon receiving unit demodulates a signal transmitted by the first optical beacon by analyzing a plurality of image data corresponding to one frame, and acquires identification information of the first optical beacon. The image display apparatus as described in any one of thru | or 6.
[Appendix 8]
The augmented reality display unit
Appendices 1 thru 8. The image display device according to any one of 7.
[Appendix 9]
The image display device according to appendix 7 or 8, wherein the optical beacon receiving unit restores a signal transmitted by the first optical beacon and performs error detection processing on the restored signal.
[Appendix 10]
The image display device according to any one of appendices 1 to 9, further comprising a storage unit that stores at least table information that associates a center point of a corneal sphere calculated in advance with a position of the display surface of the virtual image on the virtual surface. .
[Appendix 11]
This is the same as the image display method according to the second viewpoint described above.
[Appendix 12]
It is as the program which concerns on the above-mentioned 3rd viewpoint.
Note that the forms of Supplementary Notes 11 and 12 can be expanded from the form of Supplementary Note 2 to the form of Supplementary Note 10, similarly to the form of Supplementary Note 1.

なお、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。   Each disclosure of the cited patent documents and the like cited above is incorporated herein by reference. Within the scope of the entire disclosure (including claims) of the present invention, the embodiments and examples can be changed and adjusted based on the basic technical concept. In addition, various combinations or selections of various disclosed elements (including each element in each claim, each element in each embodiment or example, each element in each drawing, etc.) within the scope of the entire disclosure of the present invention. Is possible. That is, the present invention of course includes various variations and modifications that could be made by those skilled in the art according to the entire disclosure including the claims and the technical idea. In particular, with respect to the numerical ranges described in this document, any numerical value or small range included in the range should be construed as being specifically described even if there is no specific description.

10 HMD(Head Mounted Display)
11、11−1〜11−4 対象物光ビーコン
20 カメラ部
21 撮像素子
22 カメラレンズ
30 表示部
31 ディスプレイ部
32 レンズ部
33 導光部
34 グラス部
35 半透過ミラー
36、36−1〜36−4 グラス部光ビーコン
40 記憶部
50 制御部
51、101 光ビーコン受信部
52、102 角膜球位置推定部
53、103 光ビーコン位置推定部
54、104 拡張現実表示部
60 カメラ制御部
70 ディスプレイ制御部
100 画像表示装置
201 画像面
202 瞳の投影像
203 角膜球
211〜213 直線
221 虚像のディスプレイ
222 仮想面
10 HMD (Head Mounted Display)
11, 11-1 to 11-4 Object light beacon 20 Camera unit 21 Imaging element
22 Camera lens 30 Display unit 31 Display unit 32 Lens unit 33 Light guide unit 34 Glass unit 35 Semi-transmissive mirror 36, 36-1 to 36-4 Glass unit optical beacon 40 Storage unit 50 Control unit 51, 101 Optical beacon receiving unit 52 , 102 corneal sphere position estimation unit 53, 103 optical beacon position estimation unit 54, 104 augmented reality display unit 60 camera control unit 70 display control unit 100 image display device 201 image plane 202 projected image 203 corneal sphere 211 to 213 straight line 221 Virtual image display 222 Virtual surface

Claims (10)

予め定めた対象物の位置に応じて配置された第1光ビーコンから送信される信号であって、前記第1光ビーコンの識別情報を含む信号を受信する光ビーコン受信部と、
少なくとも自装置を装着する装着者の瞳が撮像された画像データから、前記装着者の瞳に係る領域を検出し、前記検出された瞳の大きさと形状に基づいて、前記装着者の角膜球の中心位置を推定する、角膜球位置推定部と、
前記装着者の瞳に反射した第1光ビーコンの像の前記画像データにおける位置と、前記推定された角膜球の中心位置と、に基づき、前記装着者が視認する虚像の表示面における前記第1光ビーコンの位置を推定する、光ビーコン位置推定部と、
前記推定された第1光ビーコンの位置に、前記第1光ビーコンの識別情報に関連付けられた拡張現実に係る画像を、現実の景色に重畳させて表示する、拡張現実表示部と、
を備える、画像表示装置。
An optical beacon receiving unit that receives a signal including identification information of the first optical beacon, which is a signal transmitted from a first optical beacon arranged according to a predetermined position of the object;
An area related to the wearer's pupil is detected from image data obtained by capturing at least the wearer's pupil wearing the apparatus, and the wearer's corneal sphere is detected based on the detected size and shape of the pupil. A corneal sphere position estimator for estimating the center position;
Based on the position in the image data of the image of the first optical beacon reflected on the wearer's pupil and the estimated center position of the corneal sphere, the first image on the display surface of the virtual image viewed by the wearer. An optical beacon position estimation unit for estimating the position of the optical beacon;
An augmented reality display unit that displays an image related to augmented reality associated with the identification information of the first optical beacon at the estimated position of the first optical beacon, superimposed on a real scene;
An image display device comprising:
前記装着者の瞳の前方に配置された半透過ミラーの周囲に配置された複数の第2光ビーコンをさらに備え、
前記光ビーコン位置推定部は、
前記画像データに含まれる前記装着者の瞳に反射した前記第2光ビーコンの像の前記画像データにおける位置に基づき、前記複数の第2光ビーコンにより形成される平面を仮想面として計算し、
前記仮想面と前記装着者の角膜球の中心位置の相対的な位置関係に基づき、前記仮想面上での前記虚像の表示面の位置を特定する、請求項1の画像表示装置。
A plurality of second light beacons disposed around a semi-transparent mirror disposed in front of the wearer's pupil;
The optical beacon position estimating unit
Based on the position in the image data of the image of the second light beacon reflected on the wearer's pupil included in the image data, a plane formed by the plurality of second light beacons is calculated as a virtual surface,
The image display device according to claim 1, wherein a position of the display surface of the virtual image on the virtual surface is specified based on a relative positional relationship between the virtual surface and a center position of the wearer's corneal sphere.
前記光ビーコン位置推定部は、
前記画像データに含まれる前記装着者の瞳に反射した前記第1光ビーコンの像の前記画像データにおける位置に基づき、前記第1光ビーコンの位置を計算し、
前記計算された第1光ビーコンの位置と前記装着者の角膜球の中心位置を結ぶ第1の直線を計算し、
前記第1の直線が前記仮想面を通過する通過点の座標を、前記虚像の表示面上での座標に変換することで、前記虚像の表示面における前記第1光ビーコンの位置を推定する、請求項2の画像表示装置。
The optical beacon position estimating unit
Based on the position in the image data of the image of the first light beacon reflected on the wearer's pupil included in the image data, the position of the first light beacon is calculated,
Calculating a first straight line connecting the calculated position of the first optical beacon and the center position of the wearer's corneal sphere;
Estimating the position of the first optical beacon on the display surface of the virtual image by converting the coordinates of a passing point through which the first straight line passes through the virtual surface into coordinates on the display surface of the virtual image; The image display device according to claim 2.
前記光ビーコン位置推定部は、
前記画像データに含まれる前記装着者の瞳に反射した前記第1光ビーコンの像の前記画像データにおける位置と前記第1光ビーコンを結ぶ第2の直線を、複数の前記第1光ビーコンごとに計算すると共に、
前記計算された第2の直線上の1つに、対応する前記第1光ビーコンを仮定することと、前記仮定された第1光ビーコンと、前記仮定された第1光ビーコンに対応する前記第2の直線に隣接する他の前記第2の直線上に、前記仮定された第1光ビーコンからの距離が最短となる前記第1光ビーコンを仮定することを、前記計算された第2の直線について繰り返し、
最初に前記第2の直線上に仮定した前記第1光ビーコンと、前記繰り返し処理により計算された、前記最初に前記第1光ビーコンを仮定した前記第2の直線上の前記第1光ビーコンと、の間の距離が所定値以下となる場合に、前記所定値以下となる場合の仮定された前記第1光ビーコンの位置を、前記第1光ビーコンの位置とする、請求項3の画像表示装置。
The optical beacon position estimating unit
For each of the plurality of first light beacons, a second straight line connecting the position in the image data of the image of the first optical beacon reflected on the wearer's pupil included in the image data and the first optical beacon As well as calculating
Assuming the first optical beacon corresponding to one of the calculated second straight lines, the assumed first optical beacon, and the first optical beacon corresponding to the assumed first optical beacon. The calculated second straight line is assumed to have the shortest distance from the assumed first optical beacon on the other second straight line adjacent to the second straight line. Repeat about the
The first optical beacon initially assumed on the second straight line, and the first optical beacon on the second straight line assumed to be the first optical beacon calculated by the iterative process; The image display according to claim 3, wherein when the distance between the first optical beacon and the first optical beacon is equal to or less than the predetermined value, the assumed position of the first optical beacon is the first optical beacon position. apparatus.
前記角膜球位置推定部は、前記画像データが生成される際の焦点位置における画像面に投影される前記装着者の瞳の大きさ及び形状を、楕円を表す式の係数により特定する、請求項1乃至4のいずれか一項に記載の画像表示装置。   The corneal sphere position estimation unit specifies the size and shape of the wearer's pupil projected on an image plane at a focal position when the image data is generated, using a coefficient of an expression representing an ellipse. The image display device according to any one of 1 to 4. 前記角膜球位置推定部は、
前記装着者の瞳を示す楕円の長軸及び短軸の長さを用いて、前記装着者の瞳の傾きを計算し、
前記計算された装着者の瞳の傾きと、前記画像面に投影される前記装着者の瞳の回転角と、に基づき、前記装着者の瞳が向く方向を示す視線ベクトルを計算し、
前記計算された視線ベクトルと、眼球の幾何モデルの所定のパラメータと、前記装着者の角膜球の中心位置と前記画像面との間の距離と、に基づき、前記装着者の角膜球の中心位置を推定する、請求項5の画像表示装置。
The corneal sphere position estimating unit
Using the length of the major axis and minor axis of the ellipse indicating the wearer's pupil, the tilt of the wearer's pupil is calculated,
Based on the calculated inclination of the wearer's pupil and the rotation angle of the wearer's pupil projected on the image plane, a line-of-sight vector indicating a direction in which the wearer's pupil faces is calculated,
Based on the calculated line-of-sight vector, predetermined parameters of the eyeball geometric model, and the distance between the center position of the wearer's corneal sphere and the image plane, the center position of the wearer's corneal sphere The image display device according to claim 5, wherein
前記第1光ビーコンが送信する信号は所定の方式により変調されており、
前記光ビーコン受信部は、1フレームに相当する複数の画像データを解析することにより、前記第1光ビーコンが送信する信号を復調すると共に、前記第1光ビーコンの識別情報を取得する、請求項1乃至6のいずれか一項に記載の画像表示装置。
The signal transmitted by the first optical beacon is modulated by a predetermined method,
The optical beacon receiving unit demodulates a signal transmitted by the first optical beacon by analyzing a plurality of image data corresponding to one frame, and acquires identification information of the first optical beacon. The image display device according to any one of 1 to 6.
前記拡張現実表示部は、
前記推定された第1光ビーコンの位置に、前記第1光ビーコンの識別情報に関連付けられた拡張現実に係る画像に射影変換を施した後に、現実の景色に重畳させて表示する、請求項1乃至7のいずれか一項に記載の画像表示装置。
The augmented reality display unit
The projected position of the augmented reality image associated with the identification information of the first optical beacon is subjected to projective transformation at the estimated position of the first optical beacon, and then superimposed and displayed on a real scene. The image display apparatus as described in any one of thru | or 7.
予め定めた対象物の位置に応じて配置された第1光ビーコンから送信される信号であって、前記第1光ビーコンの識別情報を含む信号を受信するステップと、
少なくとも自装置を装着する装着者の瞳が撮像された画像データから、前記装着者の瞳に係る領域を検出し、前記検出された瞳の大きさと形状に基づいて、前記装着者の角膜球の中心位置を推定する、ステップと、
前記装着者の瞳に反射した第1光ビーコンの像の前記画像データにおける位置と、前記推定された角膜球の中心位置と、に基づき、前記装着者が視認する虚像の表示面における前記第1光ビーコンの位置を推定する、ステップと、
前記推定された第1光ビーコンの位置に、前記第1光ビーコンの識別情報に関連付けられた拡張現実に係る画像を、現実の景色に重畳させて表示する、ステップと、
を含む、画像表示方法。
Receiving a signal that is transmitted from a first optical beacon arranged according to a predetermined position of an object and includes identification information of the first optical beacon;
An area related to the wearer's pupil is detected from image data obtained by capturing at least the wearer's pupil wearing the apparatus, and the wearer's corneal sphere is detected based on the detected size and shape of the pupil. Estimating the center position; and
Based on the position in the image data of the image of the first optical beacon reflected on the wearer's pupil and the estimated center position of the corneal sphere, the first image on the display surface of the virtual image viewed by the wearer. Estimating the position of the optical beacon; and
Displaying an image related to augmented reality associated with the identification information of the first optical beacon at the position of the estimated first optical beacon, superimposed on a real scene; and
An image display method including:
予め定めた対象物の位置に応じて配置された第1光ビーコンから送信される信号であって、前記第1光ビーコンの識別情報を含む信号を受信する処理と、
少なくとも自装置を装着する装着者の瞳が撮像された画像データから、前記装着者の瞳に係る領域を検出し、前記検出された瞳の大きさと形状に基づいて、前記装着者の角膜球の中心位置を推定する、処理と、
前記装着者の瞳に反射した第1光ビーコンの像の前記画像データにおける位置と、前記推定された角膜球の中心位置と、に基づき、前記装着者が視認する虚像の表示面における前記第1光ビーコンの位置を推定する、処理と、
前記推定された第1光ビーコンの位置に、前記第1光ビーコンの識別情報に関連付けられた拡張現実に係る画像を、現実の景色に重畳させて表示する、処理と、
を画像表示装置に搭載されたコンピュータに実行させるプログラム。
A signal transmitted from a first optical beacon arranged in accordance with a predetermined position of an object, and receiving a signal including identification information of the first optical beacon;
An area related to the wearer's pupil is detected from image data obtained by capturing at least the wearer's pupil wearing the apparatus, and the wearer's corneal sphere is detected based on the detected size and shape of the pupil. Processing to estimate the center position;
Based on the position in the image data of the image of the first optical beacon reflected on the wearer's pupil and the estimated center position of the corneal sphere, the first image on the display surface of the virtual image viewed by the wearer. Processing to estimate the position of the optical beacon;
A process of displaying an image related to augmented reality associated with the identification information of the first optical beacon at the estimated position of the first optical beacon while being superimposed on a real scene; and
For causing a computer mounted on the image display apparatus to execute the program.
JP2015165159A 2015-08-24 2015-08-24 Image display device, image display method, and program Active JP6334477B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015165159A JP6334477B2 (en) 2015-08-24 2015-08-24 Image display device, image display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015165159A JP6334477B2 (en) 2015-08-24 2015-08-24 Image display device, image display method, and program

Publications (2)

Publication Number Publication Date
JP2017044756A true JP2017044756A (en) 2017-03-02
JP6334477B2 JP6334477B2 (en) 2018-05-30

Family

ID=58209938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015165159A Active JP6334477B2 (en) 2015-08-24 2015-08-24 Image display device, image display method, and program

Country Status (1)

Country Link
JP (1) JP6334477B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112700586A (en) * 2019-10-23 2021-04-23 北京百度网讯科技有限公司 Information presentation method and device
CN112955933A (en) * 2018-11-05 2021-06-11 京瓷株式会社 Controller, position determination device, position determination system, display system, program, and recording medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08286141A (en) * 1995-04-14 1996-11-01 Canon Inc Gaze point detection system and control system using the system
JP2004054890A (en) * 2002-05-29 2004-02-19 Sony Corp Method and device for image display, method and device for transmission, image display system, recording medium, and program
JP2009538487A (en) * 2006-05-26 2009-11-05 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド System and method for displaying device maintenance and operation instructions using augmented reality
JP2013528406A (en) * 2010-03-22 2013-07-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for tracking observer's line of sight
WO2013179427A1 (en) * 2012-05-30 2013-12-05 パイオニア株式会社 Display device, head-mounted display, calibration method, calibration program, and recording medium
WO2014021169A1 (en) * 2012-07-31 2014-02-06 独立行政法人科学技術振興機構 Point of gaze detection device, point of gaze detection method, individual parameter computation device, individual parameter computation method, program, and computer-readable recording medium
US20140361957A1 (en) * 2012-01-24 2014-12-11 The Arizonia Board Of Regents On Behalf Of The University Of Arizonz Compact eye-tracked head-mounted display

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08286141A (en) * 1995-04-14 1996-11-01 Canon Inc Gaze point detection system and control system using the system
JP2004054890A (en) * 2002-05-29 2004-02-19 Sony Corp Method and device for image display, method and device for transmission, image display system, recording medium, and program
JP2009538487A (en) * 2006-05-26 2009-11-05 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド System and method for displaying device maintenance and operation instructions using augmented reality
JP2013528406A (en) * 2010-03-22 2013-07-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for tracking observer's line of sight
US20140361957A1 (en) * 2012-01-24 2014-12-11 The Arizonia Board Of Regents On Behalf Of The University Of Arizonz Compact eye-tracked head-mounted display
WO2013179427A1 (en) * 2012-05-30 2013-12-05 パイオニア株式会社 Display device, head-mounted display, calibration method, calibration program, and recording medium
WO2014021169A1 (en) * 2012-07-31 2014-02-06 独立行政法人科学技術振興機構 Point of gaze detection device, point of gaze detection method, individual parameter computation device, individual parameter computation method, program, and computer-readable recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112955933A (en) * 2018-11-05 2021-06-11 京瓷株式会社 Controller, position determination device, position determination system, display system, program, and recording medium
CN112700586A (en) * 2019-10-23 2021-04-23 北京百度网讯科技有限公司 Information presentation method and device

Also Published As

Publication number Publication date
JP6334477B2 (en) 2018-05-30

Similar Documents

Publication Publication Date Title
JP6548171B2 (en) Pupil detection system, gaze detection system, pupil detection method, and pupil detection program
CN106168853B (en) A kind of free space wear-type gaze tracking system
EP3453316B1 (en) Eye tracking using eyeball center position
CN102812416B (en) Pointing input device, indicative input method, program, recording medium and integrated circuit
JP5467303B1 (en) Gaze point detection device, gaze point detection method, personal parameter calculation device, personal parameter calculation method, program, and computer-readable recording medium
US8094091B2 (en) Information presenting apparatus, method, and computer program product
EP3339943A1 (en) Method and system for obtaining optometric parameters for fitting eyeglasses
CN113168733A (en) Virtual glasses try-on system and method
US20180032133A1 (en) Eye-gaze detection system, displacement detection method, and displacement detection program
JP2010259605A (en) Visual line measuring device and visual line measuring program
US20180336720A1 (en) Systems and Methods For Generating and Using Three-Dimensional Images
CN113808160B (en) Sight direction tracking method and device
JPWO2016098406A1 (en) Information processing apparatus, information processing method, and program
WO2015035822A1 (en) Pickup of objects in three-dimensional display
JP6485819B2 (en) Gaze detection system, deviation detection method, deviation detection program
US9928421B2 (en) Method for helping determine the vision parameters of a subject
JP2019215688A (en) Visual line measuring device, visual line measurement method and visual line measurement program for performing automatic calibration
JP6604271B2 (en) Gaze position detection device, gaze position detection method, and computer program for gaze position detection
WO2019125700A1 (en) System and method of obtaining fit and fabrication measurements for eyeglasses using simultaneous localization and mapping
KR20170083225A (en) Method and apparatus for determining inter-pupilary distance
CN105354825A (en) Intelligent device for automatically identifying position of reading material in read-write scene and application of intelligent device
CN110547759A (en) Robust converged signals
KR20200006621A (en) Methods, apparatus, and computer programs for determining near vision points
US11754856B2 (en) Method for designing eyeglass lens, method for manufacturing eyeglass lens, eyeglass lens, eyeglass lens ordering device, eyeglass lens order receiving device, and eyeglass lens ordering and order receiving system
JP6334477B2 (en) Image display device, image display method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180426

R150 Certificate of patent or registration of utility model

Ref document number: 6334477

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150