WO2013179425A1 - Display device, head-mounted display, calibration method, calibration program, and recording medium - Google Patents

Display device, head-mounted display, calibration method, calibration program, and recording medium Download PDF

Info

Publication number
WO2013179425A1
WO2013179425A1 PCT/JP2012/063984 JP2012063984W WO2013179425A1 WO 2013179425 A1 WO2013179425 A1 WO 2013179425A1 JP 2012063984 W JP2012063984 W JP 2012063984W WO 2013179425 A1 WO2013179425 A1 WO 2013179425A1
Authority
WO
WIPO (PCT)
Prior art keywords
calibration
unit
user
line
display device
Prior art date
Application number
PCT/JP2012/063984
Other languages
French (fr)
Japanese (ja)
Inventor
明 後藤田
Original Assignee
パイオニア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パイオニア株式会社 filed Critical パイオニア株式会社
Priority to PCT/JP2012/063984 priority Critical patent/WO2013179425A1/en
Publication of WO2013179425A1 publication Critical patent/WO2013179425A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking

Definitions

  • FIG. 6 is a flowchart showing the overall processing of the HMD 100.

Abstract

This display device is an optically transmissive type and displays added information added to a real environment seen by a user. A position detection means in said display device detects the position of a target object that exists in the real environment, and a gaze-direction detection means detects the direction of the user's gaze when the user is looking at the target object. A calibration means computes calibration data for converting from a first coordinate system defined by the position detection means to a second coordinate system defined by the display performed by the display device. Specifically, the calibration means computes said calibration data on the basis of the position detected by the position detection means and the gaze direction detected by the gaze-direction detection means.

Description

表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体Display device, head mounted display, calibration method, calibration program, and recording medium
 本発明は、現実環境に対して情報を付加提示する技術分野に関する。 The present invention relates to a technical field for additionally presenting information to a real environment.
 従来から、ヘッドマウントディスプレイなどの光学透過可能な表示装置を用いて、CG(Computer Graphics)や文字等の付加情報を、現実環境に対して付加提示する拡張現実感(AR:Augment Reality)に関する技術が提案されている。また、このような光学透過可能な表示装置を用いたAR(以下では適宜「光学透過式AR」と呼ぶ。)に関して、ユーザの視点から見た現実像の位置と情報の表示位置とのずれを補正するために校正を行う技術が提案されている。 Conventionally, a technology related to augmented reality (AR) in which additional information such as computer graphics (CG) and characters is additionally presented to the real environment using an optically transmissive display device such as a head-mounted display. Has been proposed. In addition, regarding AR using such an optically transmissive display device (hereinafter referred to as “optically transmissive AR” as appropriate), a deviation between the position of the real image and the display position of information viewed from the user's viewpoint is detected. There has been proposed a technique for performing calibration for correction.
 例えば、非特許文献1には、現実環境上のマーカの位置とディスプレイの表示位置とをユーザが合わせて、その際の情報に基づいて校正を行う技術が記載されている。また、特許文献1には、ユーザ毎に校正を行うのではなく、以前校正を行った際の眼球の位置と現在の眼球の位置とのずれを告知することで、再校正せずに合成位置のずれを無くすことが記載されている。 For example, Non-Patent Document 1 describes a technique in which a user matches a marker position in a real environment and a display position on a display, and performs calibration based on information at that time. Further, Patent Document 1 does not perform calibration for each user, but notifies the deviation between the position of the eyeball at the time of previous calibration and the current position of the eyeball, so that the composite position can be obtained without recalibration. It is described that the deviation is eliminated.
 また、特許文献2には、光学透過型ヘッドマウントディスプレイと外界撮影用のカメラと視線検出手段とを有する装置に関して、ユーザの視線の動きにより外界撮影用カメラ内の特定の範囲を選択し、その選択範囲をカメラから画像情報として取り込んで処理する技術が記載されている。この技術では、例えば、英文を朗読中に、視線による指定領域を画像処理し、判読、翻訳してデータを表示している。また、特許文献3には、医用ディスプレイ装置に関して、瞳孔位置を正確に検出して、その瞳孔の位置に応じて表示の位置を補正することが記載されている。 Further, in Patent Document 2, regarding a device having an optically transmissive head-mounted display, an external shooting camera, and a line-of-sight detection means, a specific range in the external shooting camera is selected by the movement of the user's line of sight. A technique for fetching and processing a selection range as image information from a camera is described. In this technique, for example, while reading English, image processing is performed on a designated area by line of sight, and the data is displayed after being read and translated. Japanese Patent Application Laid-Open No. 2004-228620 describes that a pupil position is accurately detected and a display position is corrected in accordance with the position of the pupil for a medical display device.
特開2006-133688号公報JP 2006-133688 A 特開2000-152125号公報JP 2000-152125 A 特開2008-18015号公報JP 2008-18015 A
 非特許文献1に記載された技術では、現実環境上のマーカの位置とディスプレイの表示位置とを調整する作業をユーザが複数回行う必要がある。そのため、ユーザがマーカや頭を何度も移動させる必要があり、手間や時間がかかる傾向にあった。加えて、表示装置が両眼用である場合には左右の眼で別々に校正を行う必要があるため、この場合には手間や時間が更にかかる傾向にあった。 In the technique described in Non-Patent Document 1, the user needs to perform the work of adjusting the marker position in the real environment and the display position of the display a plurality of times. Therefore, it is necessary for the user to move the marker and the head many times, which tends to be troublesome and time consuming. In addition, when the display device is for both eyes, it is necessary to perform calibration separately for the left and right eyes.
 他方で、特許文献1に記載の技術は、眼の位置を自由に調整可能な構成が必要であり、さらには、カメラや表示装置の設定や位置の変更をしたい場合には適用できなかった。また、特許文献2に記載の技術では、校正を行っていないため、所望の位置から表示の位置がずれる可能性があった。また、特許文献3に記載の技術は、カメラや表示装置の設定や位置の変更をしたい場合には適用できなかった。 On the other hand, the technique described in Patent Document 1 requires a configuration that allows the eye position to be freely adjusted, and is not applicable when it is desired to change the setting or position of a camera or display device. Further, in the technique described in Patent Document 2, since the calibration is not performed, there is a possibility that the display position is shifted from a desired position. Further, the technique described in Patent Document 3 cannot be applied when it is desired to change the setting or position of a camera or a display device.
 本発明が解決しようとする課題は上記のようなものが例として挙げられる。本発明は、容易に校正を行うことが可能な表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体を提供することを課題とする。 Examples of the problem to be solved by the present invention include the above. It is an object of the present invention to provide a display device, a head mounted display, a calibration method and a calibration program, and a recording medium that can be easily calibrated.
 請求項1に記載の発明では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置は、前記現実環境に存在する対象物の位置を検出する位置検出手段と、前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段と、前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段と、を備える。 In the first aspect of the present invention, an optically transmissive display device that displays additional information with respect to a real environment visually recognized by a user includes a position detection unit that detects a position of an object existing in the real environment, Based on the line-of-sight detection unit that detects the line-of-sight direction when the user is directing the line of sight to the object, the position detected by the position detection unit, and the line-of-sight direction detected by the line-of-sight detection unit, Calibration means for calculating calibration data for converting from a first coordinate system defined by the position detection means to a second coordinate system defined by display by the display device.
 請求項10に記載の発明では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式のヘッドマウントディスプレイは、前記現実環境に存在する対象物の位置を検出する位置検出手段と、前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段と、前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段と、を備える。 In the invention according to claim 10, an optically transmissive head mounted display that displays additional information with respect to a real environment visually recognized by a user includes a position detection unit that detects a position of an object existing in the real environment, Based on gaze direction detection means for detecting a gaze direction when the user is gazeing at the object, the position detected by the position detection means, and the gaze direction detected by the gaze direction detection means Calibration means for calculating calibration data for conversion from the first coordinate system defined by the position detection means to the second coordinate system defined by display by the display device.
 請求項11に記載の発明では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正方法は、前記現実環境に存在する対象物の位置を検出する位置検出工程と、前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出工程と、前記位置検出工程が検出した前記位置と前記視線方向検出工程が検出した前記視線方向とに基づいて、前記位置検出工程にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正工程と、を備える。 In the invention according to claim 11, the calibration method executed by the optical transmission type display device that displays the additional information with respect to the real environment visually recognized by the user detects the position of the object existing in the real environment. A position detection step, a line-of-sight detection step for detecting a line-of-sight direction when the user is directing a line of sight to the object, and the position detected by the position detection step and the line-of-sight detected by the line-of-sight detection step And a calibration step of calculating calibration data for conversion from the first coordinate system defined in the position detection step to the second coordinate system defined by the display by the display device based on the direction. .
 請求項12に記載の発明では、コンピュータを有し、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正プログラムは、前記コンピュータを、前記現実環境に存在する対象物の位置を検出する位置検出手段、前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段、前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段、として機能させる。 In a twelfth aspect of the present invention, a calibration program executed by an optically transmissive display device that includes a computer and displays additional information with respect to a real environment visually recognized by a user, sets the computer to the real environment. Position detecting means for detecting the position of an existing object, eye gaze direction detecting means for detecting a gaze direction when the user is looking at the object, and the position and gaze direction detected by the position detecting means Based on the line-of-sight direction detected by the detection means, calibration data for converting from the first coordinate system defined by the position detection means to the second coordinate system defined by the display by the display device is calculated. Function as calibration means.
 請求項13に記載の発明では、記録媒体は、請求項12に記載の校正プログラムを記録したことを特徴とする。 In the invention described in claim 13, the recording medium records the calibration program described in claim 12.
HMDの概略構成を示す外観図である。It is an external view which shows schematic structure of HMD. HMDの内部構造を概略的に示す図である。It is a figure which shows the internal structure of HMD schematically. 校正を行う理由を説明するための図を示す。The figure for demonstrating the reason for calibrating is shown. 第1実施例で用いるマーカの一例を示す。An example of the marker used in 1st Example is shown. 第1実施例に係る制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the control part which concerns on 1st Example. HMDの全体処理を示すフローチャートである。It is a flowchart which shows the whole process of HMD. 第1実施例に係る校正処理を示すフローチャートである。It is a flowchart which shows the calibration process which concerns on 1st Example. 第2実施例に係る制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the control part which concerns on 2nd Example. 第2実施例に係る校正処理を示すフローチャートである。It is a flowchart which shows the calibration process which concerns on 2nd Example.
 本発明の1つの観点では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置は、前記現実環境に存在する対象物の位置を検出する位置検出手段と、前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段と、前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段と、を備える。 In one aspect of the present invention, an optically transmissive display device that displays additional information with respect to a real environment visually recognized by a user includes a position detection unit that detects a position of an object existing in the real environment, and the user Based on the gaze direction detecting means for detecting the gaze direction when the gaze is directed toward the object, the position detected by the position detecting means and the gaze direction detected by the gaze direction detecting means, Calibration means for calculating calibration data for conversion from the first coordinate system defined by the position detection means to the second coordinate system defined by the display by the display device.
 上記の表示装置は、光学透過式ARを実現可能に構成され、ユーザが視認する現実環境に対して付加情報を表示する。位置検出手段は、現実環境に存在する対象物の位置を検出し、視線方向検出手段は、ユーザが対象物に視線を向けている際の視線方向を検出する。「対象物」としては、現実環境に存在する人工特徴点(マーカなど)や自然特徴点などの種々のものが挙げられる。校正手段は、光学透過式ARにおける、位置検出手段と表示装置とユーザの眼との位置や姿勢関係に起因する、ユーザの視点から見た現実像と表示との位置ずれを補正するための校正を行う。具体的には、校正手段は、位置検出手段が検出した対象物の位置と視線方向検出手段が検出した視線方向とに基づいて、位置検出手段にて規定される第1座標系から表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する。 The above display device is configured to be able to realize an optically transmissive AR, and displays additional information for a real environment visually recognized by the user. The position detection unit detects the position of the target existing in the real environment, and the line-of-sight direction detection unit detects the line-of-sight direction when the user directs the line of sight toward the target. Examples of the “object” include various things such as artificial feature points (such as markers) and natural feature points that exist in the real environment. The calibration means is a calibration for correcting the positional deviation between the real image and the display viewed from the user's viewpoint, which is caused by the position and orientation relationship between the position detection means, the display device, and the user's eye in the optical transmission type AR. I do. Specifically, the calibration means is based on the position of the object detected by the position detection means and the line-of-sight direction detected by the line-of-sight direction detection means based on the first coordinate system defined by the position detection means. Calibration data for conversion to the second coordinate system defined by the display is calculated.
 上記の表示装置によれば、視線方向に基づいて校正を行うため、校正時にユーザは対象物に視線を向けるといった作業を行うだけで良い。このような作業は、非特許文献1に記載されたような、表示装置やマーカを移動させて十字表示とマーカとの位置を合わせる作業よりも、校正時のユーザの負担は小さいと言える、つまり手間や時間がかからないと言える。また、表示装置が両眼用の場合、視線方向検出手段を左右それぞれに設けることで、左右の眼について同時に校正を行うことが可能となる。以上より、上記の表示装置によれば、校正時のユーザの負担を効果的に軽減することができる。 According to the above display device, since the calibration is performed based on the line-of-sight direction, the user only has to perform an operation of directing the line of sight toward the object at the time of calibration. Such work can be said to be less burdened on the user at the time of calibration than the work of moving the display device or marker and aligning the position of the cross display and the marker as described in Non-Patent Document 1. It can be said that it does not take time and effort. Further, when the display device is for both eyes, the right and left eyes can be calibrated at the same time by providing the line-of-sight direction detection means on the left and right. As mentioned above, according to said display apparatus, the burden of the user at the time of calibration can be reduced effectively.
 上記の表示装置の一態様では、前記視線方向検出手段は、前記ユーザが注視したことを入力するための入力手段を操作した際に、前記視線方向を検出する。この態様では、ユーザは、ボタンなどの入力手段を操作することで注視していることを知らせる。これにより、ユーザが対象物を注視している際の視線方向を適切に検出することができる。 In one aspect of the above-described display device, the line-of-sight direction detection unit detects the line-of-sight direction when operating an input unit for inputting that the user gazes. In this aspect, the user informs that the user is gazing by operating an input means such as a button. Thereby, it is possible to appropriately detect the line-of-sight direction when the user is gazing at the object.
 上記の表示装置の他の一態様では、前記視線方向検出手段は、前記ユーザが注視動作を所定時間行った際に、前記視線方向を検出する。これにより、ボタンなどを操作して注視を知らせる場合と比較して、視線方向の乱れや頭部の移動を抑制することができ、校正時の誤差要因を減らし、校正精度の向上を図ることができる。 In another aspect of the display device, the line-of-sight direction detection unit detects the line-of-sight direction when the user performs a gaze operation for a predetermined time. This makes it possible to suppress disturbances in the line of sight and movement of the head, as compared with the case of notifying gaze by operating buttons, etc., reducing the error factor during calibration and improving calibration accuracy. it can.
 上記の表示装置の他の一態様では、前記視線方向検出手段は、前記ユーザが瞬きを行った際に、前記視線方向を検出する。これによっても、ボタンなどを操作して注視を知らせる場合と比較して、視線方向の乱れや頭部の移動を抑制することができ、校正時の誤差要因を減らし、校正精度の向上を図ることができる。 In another aspect of the display device, the line-of-sight direction detection unit detects the line-of-sight direction when the user blinks. In this way, it is possible to suppress disturbances in the line of sight and movement of the head as compared with the case of notifying the gaze by operating buttons, etc., reducing the error factor during calibration and improving the calibration accuracy. Can do.
 好適な例では、前記位置検出手段は、前記現実環境を画像取得装置で撮影した撮影画像に基づいて、前記位置を検出し、前記第1座標系は、前記画像取得装置を基準とした座標系である。 In a preferred example, the position detection means detects the position based on a photographed image obtained by photographing the real environment with an image acquisition device, and the first coordinate system is a coordinate system based on the image acquisition device. It is.
 好適な例では、前記対象物は、前記校正手段による前記校正データの算出のために用いられるものであり、マーカである。これにより、校正時において、対象物の位置を容易に検出することができる。 In a preferred example, the object is a marker used for calculating the calibration data by the calibration means. Thereby, the position of the object can be easily detected during calibration.
 また好適な例では、前記視線方向検出手段は、前記視線方向と前記表示装置による表示面との交点に当たる、前記第2座標系での座標を求め、前記校正手段は、前記視線方向検出手段によって求められた前記座標と前記位置検出手段が検出した前記位置とに基づいて、前記校正データを算出する。 In a preferred example, the line-of-sight direction detecting means obtains coordinates in the second coordinate system corresponding to the intersection of the line-of-sight direction and the display surface of the display device, and the calibration means is determined by the line-of-sight direction detecting means. The calibration data is calculated based on the obtained coordinates and the position detected by the position detecting means.
 上記の表示装置の他の一態様では、前記ユーザに注視させるべき前記対象物を指定する指定手段を更に備え、前記視線方向検出手段は、前記指定手段によって指定された前記対象物を前記ユーザが注視している際の視線方向を検出する。これにより、ユーザは指定された対象物を注視するといった作業を行うだけで、校正を行うことが可能となる。 In another aspect of the above display device, the display device further includes a specifying unit that specifies the object to be watched by the user, and the gaze direction detecting unit is configured to allow the user to specify the object specified by the specifying unit. The direction of the line of sight when gazing is detected. As a result, the user can perform calibration only by performing an operation such as gazing at the designated object.
 上記の表示装置において好適には、前記指定手段は、前記注視させるべき対象物に応じた画像を表示させることで、当該対象物の指定を行うことができる。これにより、注視すべき対象物をユーザに適切に把握させることができる。 Preferably, in the above display device, the designation unit can designate the object by displaying an image corresponding to the object to be watched. As a result, the user can appropriately grasp the object to be watched.
 本発明の他の観点では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式のヘッドマウントディスプレイは、前記現実環境に存在する対象物の位置を検出する位置検出手段と、前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段と、前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段と、を備える。 In another aspect of the present invention, an optically transmissive head mounted display that displays additional information with respect to a real environment visually recognized by a user includes a position detection unit that detects a position of an object existing in the real environment, Based on the line-of-sight detection unit that detects the line-of-sight direction when the user is directing the line of sight to the object, the position detected by the position detection unit, and the line-of-sight direction detected by the line-of-sight detection unit, Calibration means for calculating calibration data for converting from a first coordinate system defined by the position detection means to a second coordinate system defined by display by the display device.
 本発明の更に他の観点では、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正方法は、前記現実環境に存在する対象物の位置を検出する位置検出工程と、前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出工程と、前記位置検出工程が検出した前記位置と前記視線方向検出工程が検出した前記視線方向とに基づいて、前記位置検出工程にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正工程と、を備える。 In still another aspect of the present invention, a calibration method executed by an optically transmissive display device that displays additional information with respect to a real environment visually recognized by a user detects a position of an object existing in the real environment. A position detection step, a line-of-sight detection step for detecting a line-of-sight direction when the user is directing a line of sight to the object, and the position detected by the position detection step and the line-of-sight detected by the line-of-sight detection step And a calibration step of calculating calibration data for conversion from the first coordinate system defined in the position detection step to the second coordinate system defined by the display by the display device based on the direction. .
 本発明の更に他の観点では、コンピュータを有し、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正プログラムは、前記コンピュータを、前記現実環境に存在する対象物の位置を検出する位置検出手段、前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段、前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段、として機能させる。 In still another aspect of the present invention, a calibration program executed by an optically transmissive display device that includes a computer and displays additional information with respect to a real environment visually recognized by a user includes the computer in the real environment. Position detecting means for detecting the position of an existing object, eye gaze direction detecting means for detecting a gaze direction when the user is looking at the object, and the position and gaze direction detected by the position detecting means Based on the line-of-sight direction detected by the detection means, calibration data for converting from the first coordinate system defined by the position detection means to the second coordinate system defined by the display by the display device is calculated. Function as calibration means.
 上記の校正プログラムは、記録媒体に記録した状態で好適に取り扱うことができる。 The above calibration program can be suitably handled in a state of being recorded on a recording medium.
 以下、図面を参照して本発明の好適な実施例について説明する。 Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
 [第1実施例]
 まず、第1実施例について説明する。
[First embodiment]
First, the first embodiment will be described.
 (装置構成)
 図1は、第1実施例に係るヘッドマウントディスプレイ(以下、適宜「HMD」と表記する。)の概略構成を示す外観図である。図1に示すように、HMD100は、主に、透過型ディスプレイ部1と、撮像部2と、装着部3とを有する。HMD100は眼鏡型に構成されており、ユーザはHMD100を頭部に装着して使用する。HMD100は、現実環境に設けられたマーカの位置に対応するように透過型ディスプレイ部1に、本発明における「付加情報」の一例としてのCGを表示させることで、AR(拡張現実)を実現する。なお、HMD100は、本発明における「表示装置」の一例である。
(Device configuration)
FIG. 1 is an external view showing a schematic configuration of a head mounted display (hereinafter, appropriately referred to as “HMD”) according to the first embodiment. As shown in FIG. 1, the HMD 100 mainly includes a transmissive display unit 1, an imaging unit 2, and a mounting unit 3. The HMD 100 is configured as a glasses, and the user wears the HMD 100 on the head for use. The HMD 100 realizes AR (augmented reality) by displaying CG as an example of “additional information” in the present invention on the transmissive display unit 1 so as to correspond to the position of the marker provided in the real environment. . The HMD 100 is an example of the “display device” in the present invention.
 撮像部2は、カメラを含んでなり、ユーザがHMD100を装着した状態でユーザの前方の現実環境を撮影する。撮像部2は、左右に並んだ2つの透過型ディスプレイ部1の間に設けられている。本実施例では、撮像部2の撮影画像に基づいて、マーカの位置などを検出する。 The imaging unit 2 includes a camera, and photographs the real environment in front of the user with the HMD 100 mounted. The imaging unit 2 is provided between two transmissive display units 1 arranged side by side. In the present embodiment, the marker position and the like are detected based on the captured image of the imaging unit 2.
 装着部3は、ユーザの頭部に装着可能に構成された部材(眼鏡フレーム状の部材)であり、ユーザの頭部を左右両側から挟むことが可能に構成されている。 The mounting unit 3 is a member (glass frame-shaped member) configured to be mounted on the user's head, and configured to sandwich the user's head from both the left and right sides.
 透過型ディスプレイ部1は、光学透過式に構成されており、ユーザの左右の眼にそれぞれ対応して1つずつ設けられている。ユーザは、透過型ディスプレイ部1を介して現実環境を見るとともに、透過型ディスプレイ部1に表示されるCGを見ることで、現実環境には存在しないCGが、現実環境にあたかも存在しているかのように感じることができる。つまり、AR(拡張現実)を実現することができる。 The transmissive display unit 1 is configured to be optically transmissive, and one transmissive display unit 1 is provided corresponding to each of the left and right eyes of the user. The user sees the real environment through the transmissive display unit 1 and sees the CG displayed on the transmissive display unit 1, so that a CG that does not exist in the real environment exists as if in the real environment. Can feel like. That is, AR (augmented reality) can be realized.
 なお、撮像部2の撮影画像を用いてマーカなどの3次元位置を検出するため(詳細は後述する)、好適には、撮像部2はステレオカメラにて構成される。但し、ステレオカメラを用いることに限定はされず、他の例では、撮像部2に単眼カメラを用いることができる。この場合には、大きさや特徴の既知のマーカやピクチャーマーカや3次元物体を利用したり、カメラの移動による視点の違いを利用したりして、3次元位置を検出すれば良い。更に他の例では、撮像部2にTOF(Time-of-Flight)カメラと可視光カメラとを併用して、3次元位置を検出することができる。更に他の例では、レーザやプロジェクタなどによるパターン投影とカメラを利用した三角測量を利用して、3次元位置を検出することができる。 In order to detect a three-dimensional position of a marker or the like using a captured image of the imaging unit 2 (details will be described later), the imaging unit 2 is preferably configured with a stereo camera. However, it is not limited to using a stereo camera, and in another example, a monocular camera can be used for the imaging unit 2. In this case, a three-dimensional position may be detected by using a marker or picture marker of a known size or feature, a three-dimensional object, or using a difference in viewpoint due to camera movement. In yet another example, a three-dimensional position can be detected by using a TOF (Time-of-Flight) camera and a visible light camera together in the imaging unit 2. In yet another example, a three-dimensional position can be detected using pattern projection with a laser or projector, and triangulation using a camera.
 図2は、HMD100の内部構造を概略的に示す図である。図2に示すように、HMD100は、上記した透過型ディスプレイ部1や撮像部2以外に、制御部5、近赤外線光源6及び視線方向検出部7を有する。また、透過型ディスプレイ部1は、表示部1a、レンズ1b及びハーフミラー1cを有する(破線で囲った領域を参照)。 FIG. 2 is a diagram schematically showing the internal structure of the HMD 100. As shown in FIG. As shown in FIG. 2, the HMD 100 includes a control unit 5, a near-infrared light source 6, and a line-of-sight direction detection unit 7 in addition to the transmission display unit 1 and the imaging unit 2 described above. The transmissive display unit 1 includes a display unit 1a, a lens 1b, and a half mirror 1c (see the area surrounded by the broken line).
 表示部1aは、LCD(Liquid Crystal Display)や、DLP(Digital Light Processing)や、有機ELなどで構成され、表示すべき画像に対応する光を出射する。なお、レーザ光源からの光をミラーでスキャンするような構成を、表示部1aに適用しても良い。このような表示部1aから出射された光は、レンズ1bで拡大等された後にハーフミラー1cで反射されて、ユーザの眼に入射する。これにより、ユーザは、ハーフミラー1cを介して、図2中の符号4で示す面(以下では適宜「表示面4」と呼ぶ。)に形成される虚像を視認することとなる。 The display unit 1a is composed of an LCD (Liquid Crystal Display), a DLP (Digital Light Processing), an organic EL, and the like, and emits light corresponding to an image to be displayed. A configuration in which light from a laser light source is scanned by a mirror may be applied to the display unit 1a. The light emitted from the display unit 1a is magnified by the lens 1b and then reflected by the half mirror 1c and enters the user's eyes. Thereby, the user visually recognizes a virtual image formed on the surface indicated by reference numeral 4 in FIG. 2 (hereinafter, referred to as “display surface 4” as appropriate) through the half mirror 1c.
 近赤外線光源6は、近赤外線を眼球に向けて照射する。視線方向検出部7は、角膜表面での近赤外線の反射光(プルキニエ像)および瞳孔の位置を検出することで、ユーザの視線方向を検出する。例えば、視線方向の検出には、公知の角膜反射法(1つの例では、『坂下祐輔,藤吉弘亘,平田豊,“画像処理による3次元眼球運動計測”,実験力学,Vol.6,No.3,pp.236-243,2006年9月』)などを用いることができる。この手法では、HMD100の表示を注視する作業を複数回行って視線方向の検出についての校正を行うことで、ユーザがHMD100の表示上の見ている場所をより精度良く検出することができる。視線方向検出部7は、このように検出した視線方向に関する情報を制御部5に供給する。なお、視線方向検出部7は、本発明における「視線方向検出手段」の一例である。 Near-infrared light source 6 irradiates near-infrared rays toward the eyeball. The line-of-sight direction detection unit 7 detects the user's line-of-sight direction by detecting the near-infrared reflected light (Purkinje image) and the position of the pupil on the cornea surface. For example, for the detection of the gaze direction, a known corneal reflection method (in one example, “Yusuke Sakashita, Hironobu Fujiyoshi, Yutaka Hirata,“ Measurement of three-dimensional eye movement by image processing ”, Experimental Mechanics, Vol. 6, No. .3, pp.236-243, September 2006 ”). In this method, the user is able to detect the location on the display of the HMD 100 more accurately by performing the work of gazing at the display of the HMD 100 a plurality of times and performing calibration for the detection of the line-of-sight direction. The line-of-sight direction detection unit 7 supplies information regarding the line-of-sight direction detected in this way to the control unit 5. The line-of-sight direction detection unit 7 is an example of the “line-of-sight direction detection unit” in the present invention.
 制御部5は、図示しないCPUやRAMやROMなどを有し、HMD100の全体的な制御を行う。具体的には、制御部5は、撮像部2が撮影した撮影画像や視線方向検出部7が検出した視線方向に基づいて、CGの表示位置を校正する処理や、表示すべきCGについてのレンダリングなどを行う。制御部5が行う制御については、詳細は後述する。 The control unit 5 includes a CPU, RAM, ROM, and the like (not shown), and performs overall control of the HMD 100. Specifically, the control unit 5 calibrates the display position of the CG based on the photographed image captured by the imaging unit 2 and the line-of-sight direction detected by the line-of-sight direction detection unit 7, and renders the CG to be displayed. Etc. Details of the control performed by the control unit 5 will be described later.
 なお、視線方向の検出は、上記した方法に限定はされない。他の例では、赤外線ハーフミラーで反射した眼球を撮影することで、視線方向を検出することができる。更に他の例では、単眼カメラで瞳孔や眼球や顔を検出して、視線方向を検出することができる。更に他の例では、ステレオカメラを用いて、視線方向を検出することができる。また、非接触型の視線方向の検出方法を用いることにも限定はされず、接触型の視線方向の検出方法を用いても良い。 It should be noted that the detection of the line-of-sight direction is not limited to the method described above. In another example, the line-of-sight direction can be detected by photographing the eyeball reflected by the infrared half mirror. In still another example, the line of sight can be detected by detecting a pupil, an eyeball, or a face with a monocular camera. In yet another example, the line-of-sight direction can be detected using a stereo camera. Further, there is no limitation to using a non-contact type gaze direction detection method, and a contact type gaze direction detection method may be used.
 (校正方法)
 次に、第1実施例に係る校正方法について具体的に説明する。
(Calibration method)
Next, the calibration method according to the first embodiment will be specifically described.
 図3は、校正を行う理由を説明するための図を示す。図3(a)に示すように、HMD100では、ユーザの眼の位置と撮像部2の位置とが互いに異なるため、撮像部2によって取得される像(撮影画像)と、ユーザの眼に映る像とは互いに異なる。例えば、ユーザの眼と、撮像部2と、現実環境に設けられたマーカ200とが、図3(a)に示すような位置関係にあるものとする。この場合には、撮像部2によって取得される像P1(図3(b)参照)では、マーカ200は当該像における左側に位置するが、ユーザの眼に映る像P3(図3(c)参照)では、マーカ200は当該像における右側に位置することになる。なお、マーカ200は、現実環境の物体400に設けられている。マーカ200は、CGなどの付加情報を提示すべき対象の1つである。 FIG. 3 is a diagram for explaining the reason for performing calibration. As shown in FIG. 3A, in the HMD 100, the position of the user's eyes and the position of the imaging unit 2 are different from each other, so that an image (captured image) acquired by the imaging unit 2 and an image reflected in the user's eyes are displayed. Are different from each other. For example, it is assumed that the user's eyes, the imaging unit 2, and the marker 200 provided in the real environment are in a positional relationship as shown in FIG. In this case, in the image P1 acquired by the imaging unit 2 (see FIG. 3B), the marker 200 is located on the left side of the image, but the image P3 reflected in the user's eyes (see FIG. 3C). ), The marker 200 is positioned on the right side of the image. The marker 200 is provided on the object 400 in the real environment. The marker 200 is one of objects to which additional information such as CG should be presented.
 ここで、撮像部2によって取得される像P1に基づいて、マーカ200の位置を検出し、当該像P1における検出した位置にCG300をそのまま合成すると、CG300とマーカ200との位置が一致した像P2が生成されることとなる。しかしながら、HMD100のような光学透過式の表示装置では、ユーザの眼の位置と撮像部2の位置との差異に応じて、校正を行う必要がある。というのは、校正を行わないと、図3(c)の像P4に示すように、ユーザの視点から見ると、マーカ200とCG300との位置と姿勢(方向)がずれてしまうおそれがあるからである。 Here, when the position of the marker 200 is detected based on the image P1 acquired by the imaging unit 2, and the CG 300 is directly combined with the detected position in the image P1, the image P2 in which the positions of the CG 300 and the marker 200 coincide with each other. Will be generated. However, an optically transmissive display device such as the HMD 100 needs to perform calibration according to the difference between the position of the user's eyes and the position of the imaging unit 2. This is because if the calibration is not performed, the position and orientation (direction) of the marker 200 and the CG 300 may be shifted from the viewpoint of the user as shown in the image P4 in FIG. It is.
 したがって、第1実施例では、制御部5は、図3(c)の像P5のように、CG300とマーカ200との位置と姿勢(方向)を一致させるように補正を行う。具体的には、制御部5は、撮像部2を基準とした像から眼を基準としたHMD100の像への変換を行うことで、当該補正を行う。つまり、制御部5は、撮像部2における座標系(以下では「撮像座標系」と呼ぶ。)から、HMD100による表示における座標系(以下では「表示座標系」と呼ぶ。)への変換を行う。なお、撮像座標系は本発明における「第1座標系」の一例であり、表示座標系は本発明における「第2座標系」の一例である。 Therefore, in the first embodiment, the control unit 5 performs correction so that the positions and orientations (directions) of the CG 300 and the marker 200 coincide with each other as in an image P5 in FIG. Specifically, the control unit 5 performs the correction by converting an image based on the imaging unit 2 into an image of the HMD 100 based on the eye. That is, the control unit 5 performs conversion from a coordinate system in the imaging unit 2 (hereinafter referred to as “imaging coordinate system”) to a coordinate system in display by the HMD 100 (hereinafter referred to as “display coordinate system”). . The imaging coordinate system is an example of the “first coordinate system” in the present invention, and the display coordinate system is an example of the “second coordinate system” in the present invention.
 第1実施例では、制御部5は、校正として、撮像座標系から表示座標系へ変換するための行列である校正データを算出する処理(以下では適宜「校正処理」と呼ぶ。)を行う。校正データは、表示面4と撮像部2と眼との位置や姿勢の関係によって決まり、表示面4と撮像部2と眼との3つが共に同じ方向、同じ角度に同じだけ動く場合には、同じ校正データを使用しても問題ない。そのため、HMD100では、まず最初に校正データを算出し(例えばHMD100の使用開始時やユーザから要求があった際に校正データを算出する)、その後は算出した校正データを使用して上記したずれの補正を行う。 In the first embodiment, the controller 5 performs a process of calculating calibration data, which is a matrix for converting from the imaging coordinate system to the display coordinate system (hereinafter referred to as “calibration process” as appropriate). The calibration data is determined by the relationship between the position and orientation of the display surface 4, the imaging unit 2, and the eye. When the display surface 4, the imaging unit 2, and the eye all move in the same direction and the same angle, There is no problem using the same calibration data. Therefore, the HMD 100 first calculates calibration data (e.g., calculates calibration data at the start of use of the HMD 100 or when requested by the user), and then uses the calculated calibration data to correct the above-described deviation. Make corrections.
 具体的には、第1実施例では、制御部5は、視線方向検出部7が検出した視線方向及び撮像部2が撮影した撮影画像に基づいて、校正データを算出する。この場合、第1実施例では複数の校正用のマーカ(以下では単に「マーカ」とも表記する。)を配置させた現実環境を用いて、制御部5は、このような現実環境の撮影画像より検出された撮像座標系でのマーカの位置と、ユーザが現実環境中のマーカを注視している際に視線方向検出部7によって検出された視線方向とに基づいて、撮像座標系から表示座標系へ変換するための校正データを算出する。より詳しくは、制御部5は、撮像座標系でのマーカの位置と、ユーザの視線方向と表示面4との交点に当たる表示座標系の座標(以下では「視線方向座標」と呼ぶ。)とに基づいて、校正データを算出する。 Specifically, in the first embodiment, the control unit 5 calculates calibration data based on the gaze direction detected by the gaze direction detection unit 7 and the captured image captured by the imaging unit 2. In this case, in the first embodiment, using a real environment in which a plurality of calibration markers (hereinafter simply referred to as “markers”) are arranged, the control unit 5 uses a captured image of such a real environment. From the imaging coordinate system to the display coordinate system based on the detected marker position in the imaging coordinate system and the line-of-sight direction detected by the line-of-sight direction detection unit 7 when the user is gazing at the marker in the real environment. Calculate calibration data for conversion to. More specifically, the control unit 5 determines the position of the marker in the imaging coordinate system and the coordinates of the display coordinate system corresponding to the intersection of the user's line-of-sight direction and the display surface 4 (hereinafter referred to as “line-of-sight direction coordinates”). Based on this, calibration data is calculated.
 第1実施例では、制御部5は、複数の校正用のマーカについて、撮像座標系でのマーカの位置と視線方向座標とを得て、得られた複数のマーカの位置と複数の視線方向座標とに基づいて校正データを算出する。具体的には、制御部5は、複数のマーカの中から1つのマーカを指定して、ユーザが当該マーカを注視した後に別のマーカを指定するといった工程を所定回数行うことにより、その都度、撮像座標系でのマーカの位置と視線方向座標とを求めることで、複数のマーカの位置と複数の視線方向座標とを得る。この場合、制御部5は、注視すべきマーカを指定するための画像(以下では「注視対象画像」と呼ぶ。)を表示させ、ユーザは、注視対象画像に応じたマーカを注視した際に、校正用のユーザインターフェース(UI:User Interface)としてのボタンを押下することで、注視したことを制御部5に知らせる。 In the first embodiment, the control unit 5 obtains the marker position and the line-of-sight direction coordinate in the imaging coordinate system for the plurality of calibration markers, and the obtained position of the plurality of marker and the plurality of line-of-sight direction coordinates. Based on the above, calibration data is calculated. Specifically, the control unit 5 designates one marker from among a plurality of markers, and performs a process of designating another marker after the user gazes at the marker, so that each time, A plurality of marker positions and a plurality of gaze direction coordinates are obtained by obtaining a marker position and a gaze direction coordinate in the imaging coordinate system. In this case, the control unit 5 displays an image for designating a marker to be watched (hereinafter referred to as “gaze target image”), and when the user gazes at the marker corresponding to the gaze target image, By pressing a button as a user interface for calibration (UI: User 制 御 Interface), the control unit 5 is notified.
 以上述べたように、制御部5は、本発明における「位置検出手段」、「校正手段」及び「指定手段」の一例である。 As described above, the control unit 5 is an example of the “position detecting means”, “calibration means”, and “designating means” in the present invention.
 図4は、第1実施例で用いるマーカの一例を示している。図4では、0~8の数字が付された9つのマーカ200a~200iを用いる場合を例示している。図4(a)は、マーカ200a~200iを正面から観察した図を示し、図4(b)は、マーカ200a~200iを上から観察した図を示している。マーカ200a~200iは、概ね同一のサイズを有している。 FIG. 4 shows an example of a marker used in the first embodiment. FIG. 4 illustrates a case where nine markers 200a to 200i with numbers 0 to 8 are used. 4A shows a view of the markers 200a to 200i observed from the front, and FIG. 4B shows a view of the markers 200a to 200i observed from above. The markers 200a to 200i have substantially the same size.
 図4(a)に示すように、マーカ200a~200iは、上下左右における位置が互いに異なるように配置されている。また、図4(b)に示すように、マーカ200a~200eとマーカ200f~200iとで前後の位置が異なるように配置されている。具体的には、マーカ200a~200eは奥側に配置されており、マーカ200f~200iは手前側に配置されている。例えば、制御部5は、マーカ200a~200iの中でユーザに注視させる1つのマーカを指定する場合、当該マーカに付された数字(0~8のいずれか)を含むような注視対象画像を表示させる。 As shown in FIG. 4 (a), the markers 200a to 200i are arranged such that their positions in the upper, lower, left and right directions are different from each other. Further, as shown in FIG. 4B, the markers 200a to 200e and the markers 200f to 200i are arranged so that the front and rear positions are different. Specifically, the markers 200a to 200e are disposed on the back side, and the markers 200f to 200i are disposed on the near side. For example, when the control unit 5 designates one marker to be watched by the user among the markers 200a to 200i, the control unit 5 displays a gaze target image including a number (any one of 0 to 8) attached to the marker. Let
 なお、図4では矩形のマーカを用いる例を示したが、これに限定はされない。マーカは、3次元位置を検出可能でユーザが注視可能であれば、種々のものを用いることができる。例えば、円形マーカや、多角形のマーカや、反射物や発光物で構成されたマーカや、事前に登録した画像のマーカなどを用いることができる。 In addition, although the example using a rectangular marker was shown in FIG. 4, it is not limited to this. Various markers can be used as long as the three-dimensional position can be detected and the user can gaze. For example, a circular marker, a polygonal marker, a marker composed of a reflective object or a light emitting object, a marker of an image registered in advance, or the like can be used.
 また、マーカの配置は、図4に示したものに限定はされない。マーカの中心位置が同一平面上にならないような配置であれば、種々の配置を適用することができる。 Further, the arrangement of the markers is not limited to that shown in FIG. Various arrangements can be applied as long as the center positions of the markers are not on the same plane.
 更に、複数のマーカを用いることに限定はされず、1つのマーカのみを用いても良い。1回の注視で用いるのは1つのマーカであり、複数回注視させる際の各回のマーカの位置が異なれば良いので、複数のマーカを用いなくても、1つのマーカでこれを実現することができるからである。例えば、ユーザに複数回注視させる際の各回ごとに、1つのマーカを動かしたり、1つのマーカを固定した状態でユーザの頭を動かしたりすることで、複数のマーカを用いた場合と同じことが実現できる。 Furthermore, it is not limited to using a plurality of markers, and only one marker may be used. One marker is used for one gaze, and it is only necessary that the position of each marker is different when gazes a plurality of times. Therefore, this can be realized with one marker without using a plurality of markers. Because it can. For example, the same thing as the case where a plurality of markers are used by moving one marker or moving the user's head with one marker fixed each time when the user gazes a plurality of times. realizable.
 (制御部の構成)
 次に、図5を参照して、第1実施例に係る制御部5の具体的な構成について説明する。
(Configuration of control unit)
Next, a specific configuration of the control unit 5 according to the first embodiment will be described with reference to FIG.
 図5は、第1実施例に係る制御部5の構成を示すブロック図である。図5に示すように、制御部5は、主に、校正部51と、変換行列算出部52と、レンダリング部53と、セレクタ(SEL)54とを有する。 FIG. 5 is a block diagram illustrating a configuration of the control unit 5 according to the first embodiment. As shown in FIG. 5, the control unit 5 mainly includes a calibration unit 51, a conversion matrix calculation unit 52, a rendering unit 53, and a selector (SEL) 54.
 ボタン8は、上記したように、ユーザがマーカを注視した際に押下されるボタンである。ボタン8は、ユーザによって押下された際に、ユーザがマーカを注視したことを示す注視完了信号を視線方向検出部7及び校正部51に出力する。なお、ボタン8は、本発明における「入力手段」の一例である。 The button 8 is a button that is pressed when the user gazes at the marker as described above. When the button 8 is pressed by the user, it outputs a gaze completion signal indicating that the user gazes at the marker to the gaze direction detection unit 7 and the calibration unit 51. The button 8 is an example of the “input unit” in the present invention.
 視線方向検出部7は、ボタン8から注視完了信号が入力された際に、この際のユーザの視線方向を検出する。具体的には、視線方向検出部7は、ユーザが注視している際の視線方向と表示面4との交点に当たる、表示座標系の座標である視線方向座標(Xd、Yd)を求めて、視線方向座標(Xd、Yd)を校正部51に出力する。 When the gaze completion signal is input from the button 8, the gaze direction detection unit 7 detects the gaze direction of the user at this time. Specifically, the line-of-sight direction detection unit 7 obtains line-of-sight direction coordinates (Xd, Yd), which are coordinates of the display coordinate system, corresponding to the intersection of the line-of-sight direction and the display surface 4 when the user is gazing. The line-of-sight direction coordinates (Xd, Yd) are output to the calibration unit 51.
 校正部51は、校正制御部51aと、注視対象選択部51bと、視線方向座標蓄積部51cと、校正用マーカ位置検出部51dと、マーカ位置蓄積部51eと、校正データ算出部51fとを有する。校正部51は、所定のボタン(不図示)などが押下されることで校正開始トリガが入力された場合に、校正処理を行うことにより、校正データMを算出する。 The calibration unit 51 includes a calibration control unit 51a, a gaze target selection unit 51b, a gaze direction coordinate accumulation unit 51c, a calibration marker position detection unit 51d, a marker position accumulation unit 51e, and a calibration data calculation unit 51f. . The calibration unit 51 calculates calibration data M by performing calibration processing when a calibration start trigger is input by pressing a predetermined button (not shown) or the like.
 校正制御部51aは、校正処理を制御する。具体的には、校正制御部51aは、注視対象選択部51b、校正データ算出部51f及びセレクタ54を制御する。校正制御部51aは、上記の校正開始トリガが入力されると校正処理を開始する。具体的には、校正制御部51aは、校正開始トリガが入力されると、ボタン8からの注視完了信号に応じて、ユーザに注視させるマーカを指定する注視対象画像を更新するための表示更新信号を注視対象選択部51bに出力する。また、校正制御部51aは、ボタン8からの注視完了信号が所定回数入力された場合に、演算トリガを校正データ算出部51fに出力すると共に、モード切替信号をセレクタ54に出力する。後述するように、校正データ算出部51fは、演算トリガが入力されると、校正データMを算出する。また、セレクタ54は、モード切替信号が入力されると、表示部1aに出力するデータを、注視対象画像に対応するデータ(注視対象画像データ)と、付加情報として表示すべきCGなどの画像データ(表示データ)とで切り替えるモード切替を行う。 The calibration control unit 51a controls the calibration process. Specifically, the calibration control unit 51a controls the gaze target selection unit 51b, the calibration data calculation unit 51f, and the selector 54. The calibration control unit 51a starts the calibration process when the calibration start trigger is input. Specifically, when a calibration start trigger is input, the calibration control unit 51a responds to a gaze completion signal from the button 8 and updates a display update signal for updating a gaze target image that specifies a marker to be gazeed by the user. Is output to the gaze target selection unit 51b. In addition, when the gaze completion signal from the button 8 is input a predetermined number of times, the calibration control unit 51 a outputs a calculation trigger to the calibration data calculation unit 51 f and outputs a mode switching signal to the selector 54. As will be described later, the calibration data calculation unit 51f calculates calibration data M when a calculation trigger is input. In addition, when a mode switching signal is input, the selector 54 outputs data to the display unit 1a as data corresponding to the gaze target image (gaze target image data) and image data such as CG to be displayed as additional information. The mode is switched with (display data).
 注視対象選択部51bは、校正制御部51aから表示更新信号が入力された場合に、ユーザに注視させるマーカを指定するための注視対象画像を生成する。具体的には、注視対象選択部51bは、複数のマーカの中でユーザに注視させる1つのマーカを選択し(詳しくは、今回の校正処理において未だユーザに注視させていない1つのマーカを選択)、当該マーカに応じた注視対象画像データを生成する。例えば、注視対象選択部51bは、選択したマーカに付された数字や文字などを含むような注視対象画像を生成する。そして、注視対象選択部51bは、生成した注視対象画像データをセレクタ54に出力する。なお、注視対象選択部51bは、本発明における「指定手段」の一例に相当する。 The gaze target selection unit 51b generates a gaze target image for designating a marker to be watched by the user when the display update signal is input from the calibration control unit 51a. Specifically, the gaze target selection unit 51b selects one marker to be watched by the user from among a plurality of markers (specifically, selects one marker that has not yet been watched by the user in the current calibration process). Then, gaze target image data corresponding to the marker is generated. For example, the gaze target selection unit 51b generates a gaze target image that includes numbers and characters attached to the selected marker. Then, the gaze target selection unit 51 b outputs the generated gaze target image data to the selector 54. Note that the gaze target selection unit 51b corresponds to an example of a “designating unit” in the present invention.
 視線方向座標蓄積部51cは、視線方向検出部7から視線方向座標(Xd、Yd)が入力され、視線方向座標(Xd、Yd)を蓄積する。なお、視線方向座標(Xd、Yd)は、表示座標系を基準としたマーカの位置座標に相当する。 The gaze direction coordinate accumulation unit 51c receives the gaze direction coordinates (Xd, Yd) from the gaze direction detection unit 7, and accumulates the gaze direction coordinates (Xd, Yd). Note that the line-of-sight direction coordinates (Xd, Yd) correspond to the position coordinates of the marker with reference to the display coordinate system.
 校正用マーカ位置検出部51dは、撮像部2によって撮像された撮影画像が入力され、撮影画像から校正用のマーカの3次元位置を検出する。具体的には、校正用マーカ位置検出部51dは、撮影画像に対応する画像データに基づいて、校正用のマーカの位置を示す座標(Xc、Yc、Zc)を特定し、特定した座標(Xc、Yc、Zc)をマーカ位置蓄積部51eに出力する。マーカ位置蓄積部51eは、校正用マーカ位置検出部51dから出力された座標(Xc、Yc、Zc)を蓄積する。なお、座標(Xc、Yc、Zc)は、撮像座標系を基準としたマーカの位置座標に相当する。このように、校正用マーカ位置検出部51dは、本発明における「位置検出手段」の一例に相当する。 The calibration marker position detection unit 51d receives the captured image captured by the imaging unit 2, and detects the three-dimensional position of the calibration marker from the captured image. Specifically, the calibration marker position detection unit 51d identifies coordinates (Xc, Yc, Zc) indicating the position of the calibration marker based on the image data corresponding to the captured image, and identifies the identified coordinates (Xc , Yc, Zc) is output to the marker position accumulating unit 51e. The marker position accumulation unit 51e accumulates the coordinates (Xc, Yc, Zc) output from the calibration marker position detection unit 51d. The coordinates (Xc, Yc, Zc) correspond to the position coordinates of the marker based on the imaging coordinate system. Thus, the calibration marker position detection unit 51d corresponds to an example of the “position detection unit” in the present invention.
 校正データ算出部51fは、校正制御部51aから演算トリガが入力されると、視線方向座標蓄積部51cに蓄積された複数の視線方向座標(Xd、Yd)、及びマーカ位置蓄積部51eに蓄積された複数のマーカの位置座標(Xc、Yc、Zc)を読み出す。そして、校正データ算出部51fは、読み出した複数の視線方向座標(Xd、Yd)及び複数の位置座標(Xc、Yc、Zc)に基づいて、撮像座標系から表示座標系へ変換するための行列である校正データMを算出する。校正データ算出部51fは、校正データMを算出し終えると、その旨を示す演算終了信号を校正制御部51aに出力する。このように、校正データ算出部51fは、本発明における「校正手段」の一例に相当する。 When a calculation trigger is input from the calibration control unit 51a, the calibration data calculation unit 51f accumulates the plurality of gaze direction coordinates (Xd, Yd) accumulated in the gaze direction coordinate accumulation unit 51c and the marker position accumulation unit 51e. The position coordinates (Xc, Yc, Zc) of the plurality of markers are read out. Then, the calibration data calculation unit 51f converts the imaging coordinate system into the display coordinate system based on the read plurality of gaze direction coordinates (Xd, Yd) and the plurality of position coordinates (Xc, Yc, Zc). Calibration data M is calculated. When the calibration data calculation unit 51f finishes calculating the calibration data M, the calibration data calculation unit 51f outputs a calculation end signal indicating that to the calibration control unit 51a. Thus, the calibration data calculation unit 51f corresponds to an example of “calibration means” in the present invention.
 次に、変換行列算出部52は、マーカ検出部52aと、Rmc算出部52bとを有している。変換行列算出部52は、マーカにおける座標系(以下では「マーカ座標系」と呼ぶ。)から撮像座標系へ変換するための変換行列Rmcを算出する。 Next, the conversion matrix calculation unit 52 includes a marker detection unit 52a and an Rmc calculation unit 52b. The conversion matrix calculation unit 52 calculates a conversion matrix Rmc for converting from the coordinate system in the marker (hereinafter referred to as “marker coordinate system”) to the imaging coordinate system.
 マーカ検出部52aは、撮像部2によって撮像された撮像画像中のマーカの位置及びサイズを検出する。 The marker detection unit 52a detects the position and size of the marker in the captured image captured by the imaging unit 2.
 Rmc算出部52bは、マーカ検出部52aによって検出されたマーカの位置及びサイズに基づいて、マーカ座標系から撮像座標系へ変換するための変換行列Rmcを算出する。Rmc算出部52bは、算出した変換行列Rmcをレンダリング部53に出力する。変換行列Rmcが更新されることで、マーカに追従するようにCGが表示されることとなる。 The Rmc calculation unit 52b calculates a conversion matrix Rmc for converting from the marker coordinate system to the imaging coordinate system based on the position and size of the marker detected by the marker detection unit 52a. The Rmc calculation unit 52 b outputs the calculated conversion matrix Rmc to the rendering unit 53. By updating the transformation matrix Rmc, CG is displayed so as to follow the marker.
 次に、レンダリング部53は、CGデータ格納部53aと、マーカto撮像座標変換部53bと、撮像to表示変換部53cとを有している。レンダリング部53は、表示すべきCGについてのレンダリングを行う。 Next, the rendering unit 53 includes a CG data storage unit 53a, a marker to imaging coordinate conversion unit 53b, and an imaging to display conversion unit 53c. The rendering unit 53 performs rendering for the CG to be displayed.
 CGデータ格納部53aは、表示すべきCGのデータ(CGデータ)が格納された記憶手段である。CGデータ格納部53aには、マーカ座標系で規定されたCGデータが格納されている。なお、CGデータ格納部53aに格納されているCGデータは、3次元(3D)データである。以下では、CGデータ格納部53aに格納されているCGデータを、「マーカ座標系データ」と適宜称する。 The CG data storage unit 53a is a storage unit that stores CG data (CG data) to be displayed. The CG data storage unit 53a stores CG data defined by the marker coordinate system. The CG data stored in the CG data storage unit 53a is three-dimensional (3D) data. Hereinafter, the CG data stored in the CG data storage unit 53a is appropriately referred to as “marker coordinate system data”.
 マーカto撮像座標変換部53bは、変換行列算出部52から変換行列Rmcが入力され、変換行列Rmcに基づいて、CGデータ格納部53aに格納されているCGデータを、マーカ座標系から撮像座標系へ変換する。以下では、マーカto撮像座標変換部53bによって変換された後の撮像部2の座標系を基準とするCGデータを、「撮像座標系データ」と適宜称する。 The marker-to-imaging coordinate conversion unit 53b receives the conversion matrix Rmc from the conversion matrix calculation unit 52, and converts the CG data stored in the CG data storage unit 53a from the marker coordinate system to the imaging coordinate system based on the conversion matrix Rmc. Convert to Hereinafter, the CG data based on the coordinate system of the imaging unit 2 after being converted by the marker-to-imaging coordinate conversion unit 53b is appropriately referred to as “imaging coordinate system data”.
 撮像to表示変換部53cは、校正部51から校正データMが入力され、校正データMに基づいて、マーカto撮像座標変換部53bから入力された撮像座標系データ(3D)を表示データに変換する(座標変換及び投影変換)。表示データは、表示座標系を基準とする2次元(2D)データである。撮像to表示変換部53cは、表示データをセレクタ54に出力する。 The imaging to display conversion unit 53c receives the calibration data M from the calibration unit 51, and converts the imaging coordinate system data (3D) input from the marker to imaging coordinate conversion unit 53b into display data based on the calibration data M. (Coordinate transformation and projection transformation). The display data is two-dimensional (2D) data based on the display coordinate system. The imaging to display conversion unit 53 c outputs display data to the selector 54.
 セレクタ54は、校正部51からのモード切替信号に応じて、校正部51から入力される注視対象画像データと、レンダリング部53から入力される表示データとを選択的に表示部1aに出力する。セレクタ54は、校正処理が行われるときには、注視対象画像データを表示部1aに出力し、HMD100にてCGが表示されるべきときには、表示データを表示部1aに出力する。表示部1aは、注視対象画像データに基づいて注視対象画像を表示し、表示データに基づいてCGを表示する。 The selector 54 selectively outputs the gaze target image data input from the calibration unit 51 and the display data input from the rendering unit 53 to the display unit 1a in response to the mode switching signal from the calibration unit 51. The selector 54 outputs the gaze target image data to the display unit 1a when the calibration process is performed, and outputs the display data to the display unit 1a when the CG is to be displayed on the HMD 100. The display unit 1a displays a gaze target image based on the gaze target image data, and displays CG based on the display data.
 (処理フロー)
 次に、図6及び図7を参照して、第1実施例に係る処理フローについて説明する。
(Processing flow)
Next, a processing flow according to the first embodiment will be described with reference to FIGS.
 図6は、HMD100の全体処理を示すフローチャートである。 FIG. 6 is a flowchart showing the overall processing of the HMD 100.
 まず、ステップS10では、校正処理が行われる。校正処理については詳細は後述する。次に、ステップS20では、撮像部2によって現実環境の撮影画像が取得される。即ち、HMD100は、撮像部2によって現実環境を撮影することにより、現実環境の撮影画像を取得する。 First, in step S10, calibration processing is performed. Details of the calibration process will be described later. Next, in step S <b> 20, a captured image of the real environment is acquired by the imaging unit 2. That is, the HMD 100 acquires a captured image of the real environment by capturing the real environment with the imaging unit 2.
 次に、ステップS30では、変換行列算出部52によって、CGなどの付加情報を提示すべき対象としてのマーカが検出され、変換行列Rmcが算出される。即ち、変換行列算出部52のマーカ検出部52aが、撮像部2によって取得された現実環境の撮影画像に基づいて、現実環境に設けられたマーカの位置、姿勢(方向)及びサイズを検出し、この検出されたマーカの位置、姿勢(方向)及びサイズに基づいて、変換行列算出部52のRmc算出部52bが変換行列Rmcを算出する。 Next, in step S30, the conversion matrix calculation unit 52 detects a marker as a target for which additional information such as CG is to be presented, and calculates the conversion matrix Rmc. That is, the marker detection unit 52a of the transformation matrix calculation unit 52 detects the position, orientation (direction), and size of the marker provided in the real environment based on the captured image of the real environment acquired by the imaging unit 2. Based on the detected position, orientation (direction), and size of the marker, the Rmc calculation unit 52b of the conversion matrix calculation unit 52 calculates the conversion matrix Rmc.
 次に、ステップS40では、表示すべきCGの表示データを生成する描画処理が行われる。描画処理では、まず、CGデータ格納部53aに格納されているマーカ座標系データが、マーカto撮像座標変換部53bによって変換行列Rmcに基づいて撮像座標系データに変換される。次に、撮像座標系データが、撮像to表示変換部53cによって、校正データMに基づいて表示データに変換される。このように生成された表示データは、セレクタ54を介して表示部1aに入力される。 Next, in step S40, a drawing process for generating display data of CG to be displayed is performed. In the drawing process, first, the marker coordinate system data stored in the CG data storage unit 53a is converted into imaging coordinate system data by the marker to imaging coordinate conversion unit 53b based on the conversion matrix Rmc. Next, the imaging coordinate system data is converted into display data based on the calibration data M by the imaging to display conversion unit 53c. The display data generated in this way is input to the display unit 1 a via the selector 54.
 次に、ステップS50では、HMD100によって、表示データに基づくCGが表示される。そして、ステップS60では、HMD100によるCGの表示を終了するか否かが判定される。終了すると判定された場合には(ステップS60:Yes)、CGの表示が終了され、終了しないと判定された場合には(ステップS60:No)、再びステップS10に係る処理が行われる。 Next, in step S50, the HMD 100 displays a CG based on the display data. In step S60, it is determined whether or not to end the display of the CG by the HMD 100. If it is determined to end (step S60: Yes), the display of the CG is ended. If it is determined not to end (step S60: No), the process according to step S10 is performed again.
 図7は、上記したステップS10の校正処理を示すフローチャートである。 FIG. 7 is a flowchart showing the calibration process in step S10 described above.
 まず、ステップS101では、ユーザがHMD100の表示を注視する作業を複数回行うことで視線方向の検出についての校正を行う。 First, in step S101, the user calibrates the detection of the line-of-sight direction by performing the work of watching the display of the HMD 100 a plurality of times.
 次に、ステップS102では、校正部51によって、ユーザに注視させるマーカが指定される。具体的には、校正部51の注視対象選択部51bによって選択されたマーカに応じた注視対象画像が表示される。そして、ステップS103では、ボタン8が押下されたか否かが判定される。つまり、ユーザが、指定されたマーカを注視したか否かが判定される。 Next, in step S102, the calibration unit 51 designates a marker to be watched by the user. Specifically, a gaze target image corresponding to the marker selected by the gaze target selection unit 51b of the calibration unit 51 is displayed. In step S103, it is determined whether or not the button 8 has been pressed. That is, it is determined whether or not the user has gazed at the designated marker.
 ボタン8が押下された場合(ステップS103:Yes)、処理はステップS104に進む。これに対して、ボタン8が押下されていない場合(ステップS103:No)、再びステップS103に係る判定が行われる。つまり、ボタン8が押下されるまで、ステップS103の判定が繰り返し行われる。 When the button 8 is pressed (step S103: Yes), the process proceeds to step S104. On the other hand, when the button 8 is not pressed (step S103: No), the determination according to step S103 is performed again. That is, the determination in step S103 is repeated until the button 8 is pressed.
 ステップS104では、視線方向検出部7によってユーザの視線方向が検出される。具体的には、視線方向検出部7は、ユーザの視線方向と表示面4との交点に当たる、表示座標系の座標である視線方向座標(Xd、Yd)を求める。 In step S104, the gaze direction detection unit 7 detects the gaze direction of the user. Specifically, the line-of-sight direction detection unit 7 obtains line-of-sight direction coordinates (Xd, Yd), which are coordinates of the display coordinate system, corresponding to the intersection of the user's line-of-sight direction and the display surface 4.
 次に、ステップS105では、撮像部2によって現実環境の撮影画像が取得される。そして、ステップS106では、校正部51の校正用マーカ位置検出部51dによって、撮影画像から校正用のマーカの3次元位置が検出される。具体的には、校正用マーカ位置検出部51dは、撮影画像に対応する画像データに基づいて、撮像座標系を基準としたマーカの位置座標である座標(Xc、Yc、Zc)を求める。 Next, in step S105, the captured image of the real environment is acquired by the imaging unit 2. In step S106, the calibration marker position detection unit 51d of the calibration unit 51 detects the three-dimensional position of the calibration marker from the captured image. Specifically, the calibration marker position detection unit 51d obtains coordinates (Xc, Yc, Zc), which are the position coordinates of the marker with reference to the imaging coordinate system, based on the image data corresponding to the captured image.
 次に、ステップS107では、ステップS104で得られた視線方向座標(Xd、Yd)と、ステップS106で得られたマーカの位置座標(Xc、Yc、Zc)とが蓄積される。具体的には、視線方向座標(Xd、Yd)は視線方向座標蓄積部51cに蓄積され、マーカの位置座標(Xc、Yc、Zc)はマーカ位置蓄積部51eに蓄積される。 Next, in step S107, the gaze direction coordinates (Xd, Yd) obtained in step S104 and the marker position coordinates (Xc, Yc, Zc) obtained in step S106 are accumulated. Specifically, the gaze direction coordinates (Xd, Yd) are accumulated in the gaze direction coordinate accumulation unit 51c, and the marker position coordinates (Xc, Yc, Zc) are accumulated in the marker position accumulation unit 51e.
 次に、ステップS108では、ステップS102~S107の処理が所定回数行われたか否かが判定される。判定に用いる所定回数は、例えば校正処理の精度などに応じて定められる。 Next, in step S108, it is determined whether or not the processing in steps S102 to S107 has been performed a predetermined number of times. The predetermined number of times used for the determination is determined according to, for example, the accuracy of the calibration process.
 ステップS102~S107の処理が所定回数行われた場合(ステップS108:Yes)、校正部51の校正データ算出部51fによって、校正データMが算出される(ステップS109)。具体的には、校正データ算出部51fは、視線方向座標蓄積部51cに蓄積された複数の視線方向座標(Xd、Yd)と、マーカ位置蓄積部51eに蓄積された複数のマーカの位置座標(Xc、Yc、Zc)とに基づいて、校正データMを算出する。そして、処理は終了する。他方で、ステップS102~S107の処理が所定回数行われていない場合(ステップS108:No)、再びステップS102に係る処理が行われる。 When the processing of steps S102 to S107 is performed a predetermined number of times (step S108: Yes), the calibration data M is calculated by the calibration data calculation unit 51f of the calibration unit 51 (step S109). Specifically, the calibration data calculation unit 51f includes a plurality of gaze direction coordinates (Xd, Yd) accumulated in the gaze direction coordinate accumulation unit 51c, and a plurality of marker position coordinates accumulated in the marker position accumulation unit 51e ( Calibration data M is calculated based on Xc, Yc, Zc). Then, the process ends. On the other hand, if the processes in steps S102 to S107 have not been performed a predetermined number of times (step S108: No), the process related to step S102 is performed again.
 なお、人間の視線方向は注視している時でも安定しない傾向にあるため、ボタン8が押下されたタイミングの視線方向のみを使用する校正処理では、校正データMの誤差が大きくなる可能性がある。したがって、ボタン8が押下されたタイミングの前後1秒程度の間の視線方向のデータを取得して、このデータに対して平均化処理やヒストグラム処理などを行って、視線方向を決定すると良い。こうすることで、校正データMの誤差を低減することが可能となる。 Note that since the human gaze direction tends to be unstable even when gazing, the calibration data M using only the gaze direction at the timing when the button 8 is pressed may increase the error of the calibration data M. . Therefore, it is preferable to obtain the gaze direction data for about 1 second before and after the timing when the button 8 is pressed, and perform the averaging process and the histogram process on the data to determine the gaze direction. By doing so, it is possible to reduce the error of the calibration data M.
 (作用・効果)
 ここで、上記した第1実施例の作用・効果について、前述した非特許文献1に記載された技術と比較しながら説明する。非特許文献1に記載された技術では、校正時にユーザが表示の十字と現実のマーカの位置とを合わせて、ボタンを利用して演算器に知らせる作業を繰り返す必要があった。そのため、ユーザは、表示装置やマーカを移動させ、表示とマーカとの位置調整を繰り返す必要があっため、手間や時間がかかる傾向にあった。加えて、表示装置が両眼用である場合には左右の眼で別々に校正を行う必要があるため、この場合には手間や時間が更にかかる傾向にあった。
(Action / Effect)
Here, the operation and effect of the first embodiment described above will be described in comparison with the technique described in Non-Patent Document 1 described above. In the technology described in Non-Patent Document 1, it is necessary for the user to repeat the work of aligning the displayed cross and the actual marker position and informing the calculator using the buttons during calibration. Therefore, the user needs to move the display device and the marker and repeat the position adjustment between the display and the marker, which tends to be troublesome and time consuming. In addition, when the display device is for both eyes, it is necessary to perform calibration separately for the left and right eyes.
 これに対して、第1実施例では、視線方向検出機能を利用することで、十字表示や現実のマーカを注視するだけで校正が可能となる。第1実施例のような注視する作業は、非特許文献1に記載されたような、表示装置やマーカを移動させて十字表示とマーカとの位置を合わせる作業よりも、校正時のユーザの負担は小さいと言える、つまり手間や時間がかからないと言える。また、HMD100が両眼用の場合、第1実施例に係る視線方向検出部7を左右それぞれに設けることで、校正処理を左右同時に行うことが可能となる。以上より、第1実施例によれば、非特許文献1に記載された技術と比較して、校正時のユーザの負担を軽減することができる。 On the other hand, in the first embodiment, the gaze direction detection function is used, so that the calibration can be performed only by gazing at the cross display or the actual marker. The work of gazing as in the first embodiment is more burdensome on the user during calibration than the work of moving the display device or marker and aligning the position of the cross display and the marker as described in Non-Patent Document 1. Can be said to be small, meaning that it takes less time and effort. When the HMD 100 is for both eyes, the calibration processing can be performed simultaneously on the left and right sides by providing the line-of-sight direction detection units 7 according to the first embodiment on the left and right sides. As described above, according to the first embodiment, it is possible to reduce the burden on the user at the time of calibration as compared with the technique described in Non-Patent Document 1.
 また、第1実施例は、前述した特許文献1、3に記載の技術と異なり、撮像部2やHMD100の設定や位置の変更、また眼の位置の変更にも適切に対応して校正することができる。 In addition, unlike the techniques described in Patent Documents 1 and 3 described above, the first embodiment is calibrated to appropriately respond to changes in the settings and positions of the imaging unit 2 and the HMD 100, as well as changes in the position of the eyes. Can do.
 [第2実施例]
 次に、本発明の第2実施例について説明する。第1実施例では、マーカを用いて校正を行っていたが、第2実施例では、マーカといった人工特徴点を用いる代わりに、現実環境に存在する自然特徴点を用いて校正を行う。つまり、第2実施例では、ユーザに、周囲の自然特徴点を順次注視させることで校正を行う。具体的には、第2実施例では、撮像部2によって周囲の現実環境を撮影して、校正処理に最適な自然特徴点が含まれるような撮像部2の撮影方向(以下では「最適な撮影方向」又は「最適方向」と呼ぶ。)を用いて校正を行う。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. In the first embodiment, calibration is performed using a marker, but in the second embodiment, calibration is performed using natural feature points existing in the real environment instead of using artificial feature points such as markers. That is, in the second embodiment, the calibration is performed by causing the user to sequentially watch the surrounding natural feature points. Specifically, in the second embodiment, the surrounding real environment is imaged by the imaging unit 2, and the imaging direction of the imaging unit 2 (hereinafter referred to as “optimal imaging”) including the natural feature point optimal for the calibration process. Calibration is performed using “direction” or “optimal direction”.
 ここで、最適な撮影方向について具体的に説明する。校正データMを正確に求めるためには、ユーザに注視させる自然特徴点のリストが、撮像部2に対して水平方向・垂直方向・奥行き方向に散らばっていることが望ましい。そのため、撮像部2の撮影方向は、自然特徴点が散らばって多数存在する方向が良いと言える。また、3次元位置を検出しやすい自然特徴点リストであることが望ましい。自然特徴点の3次元位置検出には、複数視点から撮影した画像内での自然特徴点の正確なマッチングが必要になる。例えば、壁のタイルなど同じ様な模様であると、画像間でマッチングのエラーが多くなる傾向にある。また、例えば、木の葉などの移動する物であると、撮影タイミングの異なる画像間では3次元位置が異なるため、3次元位置が正確に求められないと言える。以上より、上記した最適な撮影方向としては、互いに似通っておらず、且つ位置が移動しない複数の自然特徴点が散在するような撮影方向を用いることが望ましい。 Here, the optimal shooting direction will be specifically described. In order to accurately obtain the calibration data M, it is desirable that the list of natural feature points to be watched by the user is scattered in the horizontal direction, the vertical direction, and the depth direction with respect to the imaging unit 2. Therefore, it can be said that the shooting direction of the imaging unit 2 is preferably a direction in which many natural feature points are scattered and exist. In addition, it is desirable that the natural feature point list is easy to detect a three-dimensional position. In order to detect the three-dimensional position of a natural feature point, it is necessary to accurately match the natural feature point in an image taken from a plurality of viewpoints. For example, if there are similar patterns such as wall tiles, matching errors tend to increase between images. In addition, for example, if the object is a moving object such as a leaf, the three-dimensional position is different between images having different photographing timings, so that it can be said that the three-dimensional position cannot be obtained accurately. From the above, it is desirable to use a shooting direction in which a plurality of natural feature points that are not similar to each other and whose positions do not move are scattered as the optimum shooting direction.
 図8は、第2実施例に係る制御部5xの構成を示すブロック図である。なお、図5に示した制御部5と同一の符号を付した構成要素は同一の意味を有するものとし、その説明を省略する。また、ここで特に説明しない構成要素や処理などについては、第1実施例と同様であるものとする。 FIG. 8 is a block diagram showing the configuration of the control unit 5x according to the second embodiment. In addition, the component which attached | subjected the code | symbol same as the control part 5 shown in FIG. 5 shall have the same meaning, and the description is abbreviate | omitted. Further, components and processes not particularly described here are the same as those in the first embodiment.
 図8に示すように、制御部5xは、校正部51の代わりに、校正部51xを有する。校正部51xは、校正制御部51axと、注視対象選択部51bxと、視線方向座標蓄積部51cと、特徴点位置検出部51dxと、特徴点位置蓄積部51exと、校正データ算出部51fと、最適方向判定部51gとを有する。 As shown in FIG. 8, the control unit 5x has a calibration unit 51x instead of the calibration unit 51. The calibration unit 51x includes a calibration control unit 51ax, a gaze target selection unit 51bx, a gaze direction coordinate accumulation unit 51c, a feature point position detection unit 51dx, a feature point position accumulation unit 51ex, a calibration data calculation unit 51f, and an optimum A direction determination unit 51g.
 最適方向判定部51gは、撮像部2によって撮像された撮影画像が入力され、撮影画像に、校正処理に最適な撮影方向が含まれているか否かを判定する。具体的には、最適方向判定部51gは、周囲を撮影した撮影画像を画像解析することで、互いに似通っておらず、且つ位置が移動しない複数の自然特徴点が散在するような撮影方向を検出する。最適方向判定部51gは、撮影画像から最適な撮影方向を検出した場合には、撮影画像に最適な撮影方向が含まれていることを示す最適方向検出信号を校正制御部51axに出力する。このように、最適方向判定部51gは、本発明における「判定手段」の一例に相当する。 The optimal direction determination unit 51g receives the captured image captured by the imaging unit 2, and determines whether the captured image includes the optimal capturing direction for the calibration process. Specifically, the optimal direction determination unit 51g performs image analysis on a captured image of the surroundings to detect a shooting direction in which a plurality of natural feature points that are not similar to each other and do not move are scattered. To do. When the optimal shooting direction is detected from the captured image, the optimal direction determination unit 51g outputs an optimal direction detection signal indicating that the optimal shooting direction is included in the captured image to the calibration control unit 51ax. Thus, the optimum direction determination unit 51g corresponds to an example of the “determination unit” in the present invention.
 校正制御部51axは、最適方向判定部51gから最適方向検出信号が入力されると、ボタン8からの注視完了信号に応じて、ユーザに注視させる自然特徴点を指定する注視対象画像を更新するための表示更新信号を注視対象選択部51bxに出力する。 When the optimal direction detection signal is input from the optimal direction determination unit 51g, the calibration control unit 51ax updates the gaze target image that designates the natural feature point to be watched by the user in accordance with the gaze completion signal from the button 8. The display update signal is output to the gaze target selection unit 51bx.
 注視対象選択部51bxは、校正制御部51axから表示更新信号が入力された場合に、撮影画像(最適な撮影方向に対応する画像)に含まれる自然特徴点の中で、ユーザに注視させる自然特徴点を選択し、当該自然特徴点に応じた注視対象画像データを生成する。例えば、注視対象選択部51bxは、撮影画像を縮小した画像において、ユーザに注視させる自然特徴点を強調表示した画像(1つの例では、注視させる自然特徴点を特定の色で表示させた画像や、当該自然特徴点を丸などで囲った画像)を生成する。そして、注視対象選択部51bxは、生成した注視対象画像データをセレクタ54に出力する。なお、注視対象選択部51bxは、本発明における「指定手段」の一例に相当する。 The gaze target selection unit 51bx, when the display update signal is input from the calibration control unit 51ax, causes the user to gaze among the natural feature points included in the photographed image (image corresponding to the optimum photographing direction). A point is selected, and gaze target image data corresponding to the natural feature point is generated. For example, the gaze target selection unit 51bx highlights the natural feature point to be watched by the user in the reduced image (in one example, an image in which the natural feature point to be watched is displayed in a specific color, , An image in which the natural feature points are circled. Then, the gaze target selection unit 51bx outputs the generated gaze target image data to the selector 54. The gaze target selection unit 51bx corresponds to an example of the “designating unit” in the present invention.
 特徴点位置検出部51dxは、撮像部2によって撮像された撮影画像が入力され、撮影画像から、ユーザに注視させる自然特徴点の3次元位置を検出する。具体的には、特徴点位置検出部51dxは、撮影画像に対応する画像データに基づいて、注視対象選択部51bxによって選択された自然特徴点の位置を示す座標(Xc’、Yc’、Zc’)を特定し、特定した位置座標(Xc’、Yc’、Zc’)を特徴点位置蓄積部51exに出力する。特徴点位置蓄積部51exは、特徴点位置検出部51dxから出力された位置座標(Xc’、Yc’、Zc’)を蓄積する。なお、位置座標(Xc’、Yc’、Zc’)は、撮像座標系を基準とした自然特徴点の位置座標に相当する。このように、特徴点位置検出部51dxは、本発明における「位置検出手段」の一例に相当する。 The feature point position detection unit 51dx receives the captured image captured by the imaging unit 2, and detects the three-dimensional position of the natural feature point that the user gazes from the captured image. Specifically, the feature point position detection unit 51dx, based on image data corresponding to the captured image, coordinates (Xc ′, Yc ′, Zc ′) indicating the position of the natural feature point selected by the gaze target selection unit 51bx. ) Is specified, and the specified position coordinates (Xc ′, Yc ′, Zc ′) are output to the feature point position storage unit 51ex. The feature point position accumulation unit 51ex accumulates the position coordinates (Xc ′, Yc ′, Zc ′) output from the feature point position detection unit 51dx. Note that the position coordinates (Xc ′, Yc ′, Zc ′) correspond to the position coordinates of the natural feature point based on the imaging coordinate system. Thus, the feature point position detection unit 51dx corresponds to an example of the “position detection unit” in the present invention.
 校正データ算出部51fxは、校正制御部51axから演算トリガが入力されると、視線方向座標蓄積部51cに蓄積された複数の視線方向座標(Xd、Yd)、及び特徴点位置蓄積部51exに蓄積された複数の自然特徴点の位置座標(Xc’、Yc’、Zc’)を読み出す。そして、校正データ算出部51fxは、読み出した複数の視線方向座標(Xd、Yd)及び複数の位置座標(Xc’、Yc’、Zc’)に基づいて、撮像座標系から表示座標系へ変換するための行列である校正データMを算出する。このように、校正データ算出部51fxは、本発明における「校正手段」の一例に相当する。 When a calculation trigger is input from the calibration control unit 51ax, the calibration data calculation unit 51fx accumulates the plurality of gaze direction coordinates (Xd, Yd) accumulated in the gaze direction coordinate accumulation unit 51c and the feature point position accumulation unit 51ex. The position coordinates (Xc ′, Yc ′, Zc ′) of the plurality of natural feature points are read out. Then, the calibration data calculation unit 51fx converts the imaging coordinate system to the display coordinate system based on the read plurality of gaze direction coordinates (Xd, Yd) and the plurality of position coordinates (Xc ′, Yc ′, Zc ′). Calibration data M, which is a matrix for the calculation, is calculated. Thus, the calibration data calculation unit 51fx corresponds to an example of “calibration means” in the present invention.
 次に、図9を参照して、第2実施例に係る処理フローについて説明する。図9は、第2実施例に係る校正処理を示すフローチャートである。この校正処理は、上記したステップS10において(図6参照)、図7に示した校正処理の代わりに実行されるものである。 Next, a processing flow according to the second embodiment will be described with reference to FIG. FIG. 9 is a flowchart showing the calibration process according to the second embodiment. This calibration process is executed in step S10 described above (see FIG. 6) instead of the calibration process shown in FIG.
 まず、ステップS111では、ユーザがHMD100の表示を注視する作業を複数回行うことで視線方向の検出についての校正を行う。 First, in step S111, the user calibrates the detection of the line-of-sight direction by performing the work of gazing at the display of the HMD 100 a plurality of times.
 次に、ステップS112では、撮像部2によって現実環境の撮影画像が取得される。具体的には、HMD100は、撮像部2によってユーザの周囲の現実環境を撮影することで得られた、比較的広い範囲における現実環境の撮影画像を取得する。 Next, in step S112, a captured image of the real environment is acquired by the imaging unit 2. Specifically, the HMD 100 acquires a captured image of the real environment in a relatively wide range obtained by capturing the real environment around the user by the imaging unit 2.
 次に、ステップS113では、校正部51xの最適方向判定部51gによって、撮影画像に含まれる最適な撮影方向が検出される。具体的には、最適方向判定部51gは、撮影画像を画像解析することで、互いに似通っておらず、且つ位置が移動しない複数の自然特徴点が散在するような撮影方向を検出する。撮影画像に最適な撮影方向が含まれている場合(ステップS114:Yes)、処理はステップS116に進む。これに対して、撮影画像に最適な撮影方向が含まれていない場合(ステップS114:No)、処理はステップS115に進む。この場合には、ユーザに場所の移動が指示され(ステップS115)、再びステップS111に係る処理が行われる。つまり、ユーザに場所を移動してもらい、周囲の撮影を再度行ってもらう。 Next, in step S113, the optimum shooting direction included in the shot image is detected by the optimum direction determination unit 51g of the calibration unit 51x. Specifically, the optimum direction determination unit 51g performs image analysis on a captured image to detect a shooting direction in which a plurality of natural feature points that are not similar to each other and whose positions do not move are scattered. When the optimal shooting direction is included in the captured image (step S114: Yes), the process proceeds to step S116. On the other hand, when the optimal shooting direction is not included in the captured image (step S114: No), the process proceeds to step S115. In this case, the user is instructed to move the place (step S115), and the process related to step S111 is performed again. That is, the user is moved to another place and the surroundings are photographed again.
 ステップS116では、ユーザの頭の向きを、検出された最適な撮影方向へ誘導する。例えば、最適な撮影方向を指し示す矢印の画像などを表示させることで、ユーザの頭の向きを誘導する。 In step S116, the direction of the user's head is guided to the detected optimum photographing direction. For example, the direction of the user's head is guided by displaying an image of an arrow indicating the optimum shooting direction.
 次に、ステップS117では、校正部51xによって、ユーザに注視させる自然特徴点が指定される。具体的には、校正部51xの注視対象選択部51bxによって選択された自然特徴点に応じた注視対象画像が表示される。そして、ステップS118では、ボタン8が押下されたか否かが判定される。つまり、ユーザが、指定された自然特徴点を注視したか否かが判定される。 Next, in step S117, a natural feature point to be watched by the user is designated by the calibration unit 51x. Specifically, a gaze target image corresponding to the natural feature point selected by the gaze target selection unit 51bx of the calibration unit 51x is displayed. In step S118, it is determined whether or not the button 8 has been pressed. That is, it is determined whether or not the user has focused on the designated natural feature point.
 ボタン8が押下された場合(ステップS118:Yes)、処理はステップS119に進む。これに対して、ボタン8が押下されていない場合(ステップS118:No)、再びステップS118に係る判定が行われる。つまり、ボタン8が押下されるまで、ステップS118の判定が繰り返し行われる。 When the button 8 is pressed (step S118: Yes), the process proceeds to step S119. On the other hand, when the button 8 is not pressed (step S118: No), the determination according to step S118 is performed again. That is, the determination in step S118 is repeated until the button 8 is pressed.
 ステップS119では、視線方向検出部7によってユーザの視線方向が検出される。具体的には、視線方向検出部7は、ユーザの視線方向と表示面4との交点に当たる、表示座標系の座標である視線方向座標(Xd、Yd)を求める。 In step S119, the visual line direction detection unit 7 detects the visual line direction of the user. Specifically, the line-of-sight direction detection unit 7 obtains line-of-sight direction coordinates (Xd, Yd), which are coordinates of the display coordinate system, corresponding to the intersection of the user's line-of-sight direction and the display surface 4.
 次に、ステップS120では、撮像部2によって現実環境の撮影画像(最適な撮影方向に対応する画像)が取得される。そして、ステップS121では、校正部51xの特徴点位置検出部51dxによって、撮影画像から、ユーザが注視した自然特徴点の3次元位置が検出される。具体的には、特徴点位置検出部51dxは、撮影画像に対応する画像データに基づいて、注視対象選択部51bxによって選択された自然特徴点の位置座標(Xc’、Yc’、Zc’)を求める。 Next, in step S120, a captured image of the real environment (an image corresponding to the optimal shooting direction) is acquired by the imaging unit 2. In step S121, the feature point position detection unit 51dx of the calibration unit 51x detects the three-dimensional position of the natural feature point watched by the user from the captured image. Specifically, the feature point position detection unit 51dx uses the position coordinates (Xc ′, Yc ′, Zc ′) of the natural feature point selected by the gaze target selection unit 51bx based on the image data corresponding to the captured image. Ask.
 次に、ステップS122では、ステップS119で得られた視線方向座標(Xd、Yd)と、ステップS121で得られた自然特徴点の位置座標(Xc’、Yc’、Zc’)とが蓄積される。具体的には、視線方向座標(Xd、Yd)は視線方向座標蓄積部51cに蓄積され、自然特徴点の位置座標(Xc’、Yc’、Zc’)は特徴点位置蓄積部51exに蓄積される。 Next, in step S122, the gaze direction coordinates (Xd, Yd) obtained in step S119 and the natural feature point position coordinates (Xc ′, Yc ′, Zc ′) obtained in step S121 are accumulated. . Specifically, the gaze direction coordinates (Xd, Yd) are accumulated in the gaze direction coordinate accumulation unit 51c, and the position coordinates (Xc ′, Yc ′, Zc ′) of the natural feature points are accumulated in the feature point position accumulation unit 51ex. The
 次に、ステップS123では、ステップS117~S122の処理が所定回数行われたか否かが判定される。判定に用いる所定回数は、例えば校正処理の精度などに応じて定められる。 Next, in step S123, it is determined whether or not the processes in steps S117 to S122 have been performed a predetermined number of times. The predetermined number of times used for the determination is determined according to, for example, the accuracy of the calibration process.
 ステップS117~S122の処理が所定回数行われた場合(ステップS123:Yes)、校正部51xの校正データ算出部51fxによって、校正データMが算出される(ステップS124)。具体的には、校正データ算出部51fxは、視線方向座標蓄積部51cに蓄積された複数の視線方向座標(Xd、Yd)と、特徴点位置蓄積部51exに蓄積された複数の自然特徴点の位置座標(Xc’、Yc’、Zc’)とに基づいて、校正データMを算出する。そして、処理は終了する。他方で、ステップS117~S122の処理が所定回数行われていない場合(ステップS123:No)、再びステップS117に係る処理が行われる。 When the processes of steps S117 to S122 are performed a predetermined number of times (step S123: Yes), the calibration data M is calculated by the calibration data calculation unit 51fx of the calibration unit 51x (step S124). Specifically, the calibration data calculation unit 51fx includes a plurality of gaze direction coordinates (Xd, Yd) accumulated in the gaze direction coordinate accumulation unit 51c and a plurality of natural feature points accumulated in the feature point position accumulation unit 51ex. Calibration data M is calculated based on the position coordinates (Xc ′, Yc ′, Zc ′). Then, the process ends. On the other hand, when the processes of steps S117 to S122 have not been performed a predetermined number of times (step S123: No), the process according to step S117 is performed again.
 以上説明した第2実施例によっても、第1実施例と同様に、校正時のユーザの負担を適切に軽減することができる。また、第2実施例によれば、第1実施例と異なり、自然特徴点を用いることで、マーカが無いような環境においても適切に校正を行うことができる。 According to the second embodiment described above, as with the first embodiment, it is possible to appropriately reduce the burden on the user during calibration. Further, according to the second embodiment, unlike the first embodiment, by using the natural feature points, it is possible to appropriately calibrate even in an environment where there are no markers.
 [変形例]
 以下では、上記の実施例に好適な変形例について説明する。なお、下記の変形例は、任意に組み合わせて上述の実施例に適用することができる。
[Modification]
Below, the modification suitable for said Example is demonstrated. It should be noted that the following modifications can be applied to the above-described embodiments in any combination.
 (変形例1)
 上記した実施例では、ユーザが注視した際にボタン8を押下することでHMD100に注視を知らせていた。しかしながら、ボタン8を押す作業を行うと、その作業により集中力が削がれ視線方向が乱れたり、ボタン8を押す動作で頭部の位置にも影響が現れたりする。そのため、他の例では、ボタン8で注視の完了を知らせる代わりに、ユーザが注視動作を所定時間行った場合に、注視の完了とすることができる。つまり、ユーザが注視動作を所定時間行ったタイミングで、視線方向を検出することができる。これにより、視線方向の乱れや頭部の移動を抑制することができ、校正時の誤差要因を減らし、校正精度の向上を図ることができる。
(Modification 1)
In the above-described embodiment, the gaze is notified to the HMD 100 by pressing the button 8 when the user gazes. However, when the operation of pressing the button 8 is performed, the concentration power is reduced by the operation, and the direction of the line of sight is disturbed, or the operation of pressing the button 8 also affects the position of the head. Therefore, in another example, instead of notifying the completion of the gaze with the button 8, the gaze can be completed when the user performs a gaze operation for a predetermined time. That is, the line-of-sight direction can be detected at the timing when the user performs a gaze operation for a predetermined time. As a result, it is possible to suppress disturbances in the line-of-sight direction and movement of the head, reduce error factors during calibration, and improve calibration accuracy.
 更に他の例では、ユーザが注視動作中に瞬きを行った場合に、注視の完了とすることができる。つまり、ユーザが瞬きを行ったタイミングで、視線方向を検出することができる。これによっても、視線方向の乱れや頭部の移動を抑制することができ、校正時の誤差要因を減らし、校正精度の向上を図ることができる。 In yet another example, when the user blinks during the gaze operation, the gaze can be completed. That is, the line-of-sight direction can be detected at the timing when the user blinks. Also by this, it is possible to suppress the disturbance of the line-of-sight direction and the movement of the head, reduce the error factor at the time of calibration, and improve the calibration accuracy.
 なお、ユーザが注視動作を所定時間行ったこと、及び、ユーザが注視動作中に瞬きを行ったこと、のうちのいずれかの条件が成立した際に、注視の完了と扱うこととしても良い。 It should be noted that when any one of the conditions that the user has performed the gaze operation for a predetermined time and the user has blinked during the gaze operation is satisfied, the gaze operation may be treated as completion.
 (変形例2)
 上記した実施例では、視線方向の検出についての校正を手動で行う例を示したが、当該校正を自動で行っても良い。その場合には、図7及び図9に示した校正処理において、ステップS101及びS111の処理を行う必要はない。また、視線方向の検出についての校正が不要なような検出方法を用いた場合には、ステップS101及びS111の処理を行う必要はない。
(Modification 2)
In the above-described embodiment, an example in which calibration for detection of the line-of-sight direction is performed manually is shown, but the calibration may be automatically performed. In that case, it is not necessary to perform the processing of steps S101 and S111 in the calibration processing shown in FIGS. Further, when a detection method that does not require calibration for the detection of the line-of-sight direction is used, it is not necessary to perform the processes of steps S101 and S111.
 (変形例3)
 上記した実施例では、撮像部2(カメラ)の撮影画像に基づいて、マーカや自然特徴点の3次元位置を検出していたが、撮像部2の代わりに、磁気センサや、超音波センサや、ジャイロセンサや、加速度センサや、角速度センサや、GPS受信機や、無線通信装置を用いて、ターゲット(対象物)の3次元位置を検出しても良い。この場合には、マーカ等のターゲットの位置を固定するか、若しくはターゲットにもセンサを取り付けて、環境の基準位置に対してのHMD100に取り付けたセンサ自体の位置や方向等を検出すれば良い。なお、上記した実施例のように撮像部2(カメラ)を用いる場合には、ターゲットの位置を検出する方法、及び、カメラの位置と方向とを検出して固定のターゲットの位置を推定する方法のどちらも適用可能である。
(Modification 3)
In the above-described embodiment, the three-dimensional position of the marker or the natural feature point is detected based on the captured image of the imaging unit 2 (camera). However, instead of the imaging unit 2, a magnetic sensor, an ultrasonic sensor, The three-dimensional position of the target (object) may be detected using a gyro sensor, an acceleration sensor, an angular velocity sensor, a GPS receiver, or a wireless communication device. In this case, the position of the target such as a marker may be fixed, or a sensor may be attached to the target to detect the position and direction of the sensor itself attached to the HMD 100 with respect to the reference position of the environment. When the imaging unit 2 (camera) is used as in the above-described embodiment, a method for detecting the position of the target and a method for estimating the position of the fixed target by detecting the position and direction of the camera. Both of these are applicable.
 また、マーカ検出部52aは、上記したようなマーカ検出以外に、画像マーカを利用しても良いし、自然特徴点を利用しても良い。 In addition to the marker detection as described above, the marker detection unit 52a may use an image marker or a natural feature point.
 更に、3次元位置検出に、複数の検出手法を併用しても良い。但し、校正用マーカ位置検出部51dとマーカ検出部52aとで同じセンサの出力を利用する必要がある。 Furthermore, a plurality of detection methods may be used in combination for three-dimensional position detection. However, it is necessary to use the same sensor output in the calibration marker position detection unit 51d and the marker detection unit 52a.
 (変形例4)
 本発明は、HMD100への適用に限定はされない。本発明は、光学透過式ARを実現可能な種々のシースルーディスプレイに適用することができる。例えば、ヘッドアップディスプレイ(HUD)やシースルーディスプレイなどに適用することができる。
(Modification 4)
The present invention is not limited to application to the HMD 100. The present invention can be applied to various see-through displays capable of realizing an optically transmissive AR. For example, it can be applied to a head-up display (HUD), a see-through display, and the like.
 本発明は、ヘッドマウントディスプレイなどの光学透過式の表示装置に利用することができる。 The present invention can be used for an optical transmission type display device such as a head mounted display.
 1 透過型ディスプレイ部
 1a 表示部
 2 撮像部
 3 装着部
 4 表示面
 5 制御部
 6 近赤外線光源
 7 視線方向検出部
 51 校正部
 52 変換行列算出部
 53 レンダリング部
 100 ヘッドマウントディスプレイ(HMD)
 200 マーカ
DESCRIPTION OF SYMBOLS 1 Transmission type display part 1a Display part 2 Imaging part 3 Mounting part 4 Display surface 5 Control part 6 Near-infrared light source 7 Gaze direction detection part 51 Calibration part 52 Conversion matrix calculation part 53 Rendering part 100 Head mounted display (HMD)
200 markers

Claims (13)

  1.  ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置であって、
     前記現実環境に存在する対象物の位置を検出する位置検出手段と、
     前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段と、
     前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段と、を備えることを特徴とする表示装置。
    An optically transmissive display device that displays additional information for a real environment visually recognized by a user,
    Position detecting means for detecting the position of an object existing in the real environment;
    Gaze direction detecting means for detecting a gaze direction when the user is gazeing at the object;
    Based on the position detected by the position detection unit and the line-of-sight direction detected by the line-of-sight direction detection unit, the display unit defines the first coordinate system defined by the position detection unit. A display device comprising: calibration means for calculating calibration data for conversion to the second coordinate system.
  2.  前記視線方向検出手段は、前記ユーザが注視したことを入力するための入力手段を操作した際に、前記視線方向を検出することを特徴とする請求項1に記載の表示装置。 2. The display device according to claim 1, wherein the line-of-sight direction detecting unit detects the line-of-sight direction when operating an input unit for inputting that the user gazes.
  3.  前記視線方向検出手段は、前記ユーザが注視動作を所定時間行った際に、前記視線方向を検出することを特徴とする請求項1に記載の表示装置。 2. The display device according to claim 1, wherein the gaze direction detection unit detects the gaze direction when the user performs a gaze operation for a predetermined time.
  4.  前記視線方向検出手段は、前記ユーザが瞬きを行った際に、前記視線方向を検出することを特徴とする請求項1に記載の表示装置。 The display device according to claim 1, wherein the line-of-sight direction detection means detects the line-of-sight direction when the user blinks.
  5.  前記位置検出手段は、前記現実環境を画像取得装置で撮影した撮影画像に基づいて、前記位置を検出し、
     前記第1座標系は、前記画像取得装置を基準とした座標系であることを特徴とする請求項1乃至4のいずれか一項に記載の表示装置。
    The position detection means detects the position based on a photographed image obtained by photographing the real environment with an image acquisition device,
    The display device according to claim 1, wherein the first coordinate system is a coordinate system based on the image acquisition device.
  6.  前記対象物は、前記校正手段による前記校正データの算出のために用いられるものであり、マーカであることを特徴とする請求項1乃至5のいずれか一項に記載の表示装置。 The display device according to any one of claims 1 to 5, wherein the object is used for calculation of the calibration data by the calibration means and is a marker.
  7.  前記視線方向検出手段は、前記視線方向と前記表示装置による表示面との交点に当たる、前記第2座標系での座標を求め、
     前記校正手段は、前記視線方向検出手段によって求められた前記座標と前記位置検出手段が検出した前記位置とに基づいて、前記校正データを算出することを特徴とする請求項1乃至6のいずれか一項に記載の表示装置。
    The line-of-sight direction detection means obtains coordinates in the second coordinate system corresponding to the intersection of the line-of-sight direction and the display surface by the display device,
    7. The calibration data according to claim 1, wherein the calibration unit calculates the calibration data based on the coordinates obtained by the line-of-sight direction detection unit and the position detected by the position detection unit. The display device according to one item.
  8.  前記ユーザに注視させるべき前記対象物を指定する指定手段を更に備え、
     前記視線方向検出手段は、前記指定手段によって指定された前記対象物を前記ユーザが注視している際の視線方向を検出することを特徴とする請求項1乃至7のいずれか一項に記載の表示装置。
    Further comprising designation means for designating the object to be watched by the user;
    The said gaze direction detection means detects the gaze direction when the said user is gazing at the said object designated by the said designation means, The one of Claim 1 thru | or 7 characterized by the above-mentioned. Display device.
  9.  前記指定手段は、前記注視させるべき対象物に応じた画像を表示させることで、当該対象物の指定を行うことを特徴とする請求項8に記載の表示装置。 The display device according to claim 8, wherein the designation unit designates the target object by displaying an image corresponding to the target object to be watched.
  10.  ユーザが視認する現実環境に対して付加情報を表示する光学透過式のヘッドマウントディスプレイであって、
     前記現実環境に存在する対象物の位置を検出する位置検出手段と、
     前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段と、
     前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段と、を備えることを特徴とするヘッドマウントディスプレイ。
    An optically transmissive head mounted display that displays additional information for a real environment visually recognized by a user,
    Position detecting means for detecting the position of an object existing in the real environment;
    Gaze direction detecting means for detecting a gaze direction when the user is gazeing at the object;
    Based on the position detected by the position detection unit and the line-of-sight direction detected by the line-of-sight direction detection unit, the display unit defines the first coordinate system defined by the position detection unit. And a calibration means for calculating calibration data for conversion to the second coordinate system.
  11.  ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正方法であって、
     前記現実環境に存在する対象物の位置を検出する位置検出工程と、
     前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出工程と、
     前記位置検出工程が検出した前記位置と前記視線方向検出工程が検出した前記視線方向とに基づいて、前記位置検出工程にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正工程と、を備えることを特徴とする校正方法。
    A calibration method executed by an optically transmissive display device that displays additional information with respect to a real environment visually recognized by a user,
    A position detecting step for detecting a position of an object existing in the real environment;
    A line-of-sight direction detection step of detecting a line-of-sight direction when the user is directing a line of sight to the object;
    Based on the position detected by the position detection step and the line-of-sight direction detected by the line-of-sight direction detection step, the display device defines the first coordinate system defined by the position detection step. And a calibration step for calculating calibration data for conversion to the second coordinate system.
  12.  コンピュータを有し、ユーザが視認する現実環境に対して付加情報を表示する光学透過式の表示装置によって実行される校正プログラムであって、
     前記コンピュータを、
     前記現実環境に存在する対象物の位置を検出する位置検出手段、
     前記ユーザが前記対象物に視線を向けている際の視線方向を検出する視線方向検出手段、
     前記位置検出手段が検出した前記位置と前記視線方向検出手段が検出した前記視線方向とに基づいて、前記位置検出手段にて規定される第1座標系から前記表示装置による表示にて規定される第2座標系へ変換するための校正データを算出する校正手段、として機能させることを特徴とする校正プログラム。
    A calibration program that is executed by an optically transmissive display device that has a computer and displays additional information for a real environment visually recognized by the user,
    The computer,
    Position detecting means for detecting the position of an object existing in the real environment;
    Gaze direction detection means for detecting a gaze direction when the user is gazeing at the object;
    Based on the position detected by the position detection unit and the line-of-sight direction detected by the line-of-sight direction detection unit, the display unit defines the first coordinate system defined by the position detection unit. A calibration program which functions as calibration means for calculating calibration data for conversion to the second coordinate system.
  13.  請求項12に記載の校正プログラムを記録したことを特徴とする記録媒体。 A recording medium in which the calibration program according to claim 12 is recorded.
PCT/JP2012/063984 2012-05-30 2012-05-30 Display device, head-mounted display, calibration method, calibration program, and recording medium WO2013179425A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/063984 WO2013179425A1 (en) 2012-05-30 2012-05-30 Display device, head-mounted display, calibration method, calibration program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/063984 WO2013179425A1 (en) 2012-05-30 2012-05-30 Display device, head-mounted display, calibration method, calibration program, and recording medium

Publications (1)

Publication Number Publication Date
WO2013179425A1 true WO2013179425A1 (en) 2013-12-05

Family

ID=49672679

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/063984 WO2013179425A1 (en) 2012-05-30 2012-05-30 Display device, head-mounted display, calibration method, calibration program, and recording medium

Country Status (1)

Country Link
WO (1) WO2013179425A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158802A (en) * 2014-02-24 2015-09-03 国立研究開発法人宇宙航空研究開発機構 Method for preventing misunderstanding due to parallax by view point position correction of camera video, and system executing the same
US11227441B2 (en) 2019-07-04 2022-01-18 Scopis Gmbh Technique for calibrating a registration of an augmented reality device
JP2022074455A (en) * 2020-11-04 2022-05-18 トヨタ自動車株式会社 Vehicle outside information display control device, vehicle outside information display control method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006133688A (en) * 2004-11-09 2006-05-25 Olympus Corp Composite display device
JP2012014455A (en) * 2010-06-30 2012-01-19 Toshiba Corp Information display device, and information display method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006133688A (en) * 2004-11-09 2006-05-25 Olympus Corp Composite display device
JP2012014455A (en) * 2010-06-30 2012-01-19 Toshiba Corp Information display device, and information display method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HIROKAZU KATO ET AL.: "An Augmented Reality System and its Calibration based on Marker Tracking", TRANSACTIONS OF THE VIRTUAL REALITY SOCIETY OF JAPAN, vol. 4, no. 4, 1999, pages 607 - 616, XP008167781 *
YOSHINOBU EBISAWA ET AL.: "Remote Eye-gaze Tracking System by One-point Gaze Calibration", THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TELEVISION ENGINEERS, vol. 65, no. 12, 1 December 2011 (2011-12-01), pages 1768 - 1775 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015158802A (en) * 2014-02-24 2015-09-03 国立研究開発法人宇宙航空研究開発機構 Method for preventing misunderstanding due to parallax by view point position correction of camera video, and system executing the same
US11227441B2 (en) 2019-07-04 2022-01-18 Scopis Gmbh Technique for calibrating a registration of an augmented reality device
JP2022074455A (en) * 2020-11-04 2022-05-18 トヨタ自動車株式会社 Vehicle outside information display control device, vehicle outside information display control method, and program
JP7322862B2 (en) 2020-11-04 2023-08-08 トヨタ自動車株式会社 EXTERNAL INFORMATION DISPLAY CONTROL DEVICE, EXTERNAL INFORMATION DISPLAY CONTROL METHOD AND PROGRAM

Similar Documents

Publication Publication Date Title
JP5923603B2 (en) Display device, head mounted display, calibration method, calibration program, and recording medium
US20190019341A1 (en) Head-mounted display device and computer program
US9961335B2 (en) Pickup of objects in three-dimensional display
US11200646B2 (en) Compensation for deformation in head mounted display systems
US10467770B2 (en) Computer program for calibration of a head-mounted display device and head-mounted display device using the computer program for calibration of a head-mounted display device
US10424117B2 (en) Controlling a display of a head-mounted display device
US10269139B2 (en) Computer program, head-mounted display device, and calibration method
JP5844880B2 (en) Head mounted display, calibration method and calibration program, and recording medium
JP4649319B2 (en) Gaze detection device, gaze detection method, and gaze detection program
CN110377148B (en) Computer readable medium, method of training object detection algorithm, and training apparatus
US20200201038A1 (en) System with multiple displays and methods of use
JP2010259605A (en) Visual line measuring device and visual line measuring program
JP6349660B2 (en) Image display device, image display method, and image display program
JP2017187667A (en) Head-mounted display device and computer program
US20160170482A1 (en) Display apparatus, and control method for display apparatus
JP6701694B2 (en) Head-mounted display and computer program
WO2013179425A1 (en) Display device, head-mounted display, calibration method, calibration program, and recording medium
JP6509101B2 (en) Image display apparatus, program and method for displaying an object on a spectacle-like optical see-through type binocular display
JP6266580B2 (en) Head mounted display, calibration method and calibration program, and recording medium
CN107884930B (en) Head-mounted device and control method
JP2017091190A (en) Image processor, image processing method, and program
JP2017215597A (en) Information display method and information display device
JP6701693B2 (en) Head-mounted display and computer program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12878002

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12878002

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP