JP2017108370A - Head-mounted display device and computer program - Google Patents

Head-mounted display device and computer program Download PDF

Info

Publication number
JP2017108370A
JP2017108370A JP2016097716A JP2016097716A JP2017108370A JP 2017108370 A JP2017108370 A JP 2017108370A JP 2016097716 A JP2016097716 A JP 2016097716A JP 2016097716 A JP2016097716 A JP 2016097716A JP 2017108370 A JP2017108370 A JP 2017108370A
Authority
JP
Japan
Prior art keywords
marker
image
unit
image display
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016097716A
Other languages
Japanese (ja)
Inventor
佳 李
Yoshi Ri
佳 李
國益 符
Guoyi Fu
國益 符
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to US15/187,257 priority Critical patent/US10192361B2/en
Priority to EP16178033.3A priority patent/EP3115873B1/en
Publication of JP2017108370A publication Critical patent/JP2017108370A/en
Priority to US16/123,904 priority patent/US10242504B2/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique capable of easily executing calibration.SOLUTION: A head-mounted display device includes: an image display part capable of performing display; an imaging part; a marker image storage part storing data of a marker image; an image setting part causing the image display part to display the marker image; and a parameter setting part. When the imaging part acquires a captured image of an actual marker, the parameter setting part derives at least one of a camera parameter of the imaging part and a spacial relation between the imaging part and the image display part on the basis of at least the captured image.SELECTED DRAWING: Figure 1

Description

本発明は、頭部装着型表示装置の技術に関する。   The present invention relates to a head-mounted display device.

従来から、使用者の頭部に装着される頭部装着型表示装置(Head Mounted Display:HMD)が知られている。例えば、特許文献1には、支持手段を介して外景を撮像可能な撮像手段がHMDに対して上下にスライドするビデオシースルー型HMDが記載されている。   2. Description of the Related Art Conventionally, a head mounted display (HMD) that is mounted on a user's head is known. For example, Patent Document 1 describes a video see-through HMD in which an imaging unit capable of imaging an outside scene through a support unit slides up and down with respect to the HMD.

特開2005-38321号公報JP 2005-38321 A

Vuforia Calibration App、[online]、[平成27年6月3日検索]、インターネット〈URL:https://developer.vuforia.com/library/articles/Training/Vuforia-Calibration-App〉Vuforia Calibration App, [online], [Search June 3, 2015], Internet <URL: https://developer.vuforia.com/library/articles/Training/Vuforia-Calibration-App>

しかし、非特許文献1に記載された技術では、キャリブレーションを行なうために、右画像表示部と左画像表示部とのそれぞれについて、複数の撮像を行なう必要があった。この場合に、撮像によって得られた複数の撮像画像に基づいて、キャリブレーションが行なわれるため、撮像された複数の画像間における誤差が大きい場合があり、キャリブレーションの精度に向上の余地があった。また、画像を視認する使用者によって、右眼の位置と左眼の位置とには個人差があるため、使用者が画像表示部を透過して視認する外景と撮像部の位置から撮像される外景との関係にばらつきがある。さらに、製造上の精度によっては、撮像部のカメラパラメーターにばらつきがある場合があり、また、画像表示部と画像を撮像する撮像部との相対位置関係とが一定ではなく、ばらつきが発生するおそれがある。そのため、これらのばらつきを考慮した上で、使用者にさらに精度の高い画像を視認させたいという課題があった。また、できるだけ少ない回数の撮像によってキャリブレーションを完了したり、より迅速にキャリブレーションを完了したいという課題があった。   However, in the technique described in Non-Patent Document 1, in order to perform calibration, it is necessary to perform a plurality of images for each of the right image display unit and the left image display unit. In this case, since calibration is performed based on a plurality of captured images obtained by imaging, there may be a large error between the captured images, and there is room for improvement in calibration accuracy. . Also, depending on the user viewing the image, there are individual differences in the position of the right eye and the position of the left eye. There are variations in the relationship with the outside scene. Furthermore, depending on manufacturing accuracy, there may be variations in camera parameters of the imaging unit, and the relative positional relationship between the image display unit and the imaging unit that captures an image is not constant, and variations may occur. There is. For this reason, there has been a problem that the user wants to visually recognize an image with higher accuracy in consideration of these variations. In addition, there is a problem that the calibration is completed by imaging as few times as possible or the calibration is completed more quickly.

光学シースルー型の頭部装着型表示装置を含む画像表示装置が、カメラによって撮像された特定の対象物の位置に画像を精度良く重畳させて表示させる技術を備えれば、AR(拡張現実)機能に関して、向上した利便性を提供することができる。ただし、カメラで撮像した特定の対象物に表示画像を正しく重畳させる際には、カメラと画像表示部との間の空間関係を正しく求めることが望まれる。   If an image display device including an optical see-through head-mounted display device has a technique for accurately superimposing and displaying an image on the position of a specific object imaged by a camera, an AR (augmented reality) function Can provide improved convenience. However, when the display image is correctly superimposed on a specific object captured by the camera, it is desirable to correctly obtain the spatial relationship between the camera and the image display unit.

本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態として実現することが可能である。   SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms.

(1)本発明の一形態によれば、頭部装着型表示装置が提供される。この頭部装着型表示装置は;外光を透過可能であって、画像を表示可能な画像表示部と;撮像部と;マーカー画像のデータを記憶するマーカー画像記憶部と;前記データに基づいて前記マーカー画像を前記画像表示部に表示させる画像設定部と;パラメーター設定部と、を備え;前記パラメーター設定部は、前記画像表示部に表示された前記マーカー画像と前記マーカー画像に対応した実物マーカーとが少なくとも部分的にほぼ一致するように使用者に視認させた状態で前記撮像部が前記実物マーカーの撮像画像を取得した場合に、前記撮像画像に少なくとも基づいて、前記撮像部のカメラパラメーター、および前記撮像部と前記画像表示部との間の空間関係の少なくとも一つを導出する。この形態の頭部装着型表示装置によれば、特定のオブジェクトの位置などに対応付けられて表示されるAR画像の位置および向きの設定を、簡便に行なうことができ、より精度の高いキャリブレーションが実行される。 (1) According to one aspect of the present invention, a head-mounted display device is provided. The head-mounted display device includes: an image display unit capable of transmitting external light and displaying an image; an imaging unit; a marker image storage unit for storing marker image data; and based on the data An image setting unit for displaying the marker image on the image display unit; and a parameter setting unit; the parameter setting unit is an actual marker corresponding to the marker image displayed on the image display unit and the marker image And when the imaging unit obtains a captured image of the real marker in a state in which the user visually recognizes that at least partially substantially matches, the camera parameters of the imaging unit based on at least the captured image, And at least one of a spatial relationship between the imaging unit and the image display unit is derived. According to this type of head-mounted display device, the position and orientation of an AR image displayed in association with the position of a specific object can be easily set, and calibration can be performed with higher accuracy. Is executed.

(2)上記形態の頭部装着型表示装置において、前記画像設定部は、前記パラメーター設定部が前記カメラパラメーターと前記空間関係との少なくとも一方を設定した後に、設定された前記カメラパラメーターと前記空間関係とを用いて、AR画像の位置と向きと、前記実物マーカーの位置と向きと、が対応した状態の前記AR画像が前記使用者に視認されるように、前記画像表示部に前記AR画像を表示してもよい。 (2) In the head-mounted display device according to the above aspect, the image setting unit is configured such that, after the parameter setting unit sets at least one of the camera parameter and the spatial relationship, the set camera parameter and the space The AR image is displayed on the image display unit so that the user can visually recognize the AR image in a state in which the position and orientation of the AR image correspond to the position and orientation of the real marker. May be displayed.

(3)上記形態の頭部装着型表示装置において、前記マーカー画像記憶部は、前記マーカー画像の元となる3次元モデルを前記データとして記憶しており;前記画像設定部は、前記3次元モデルを前記マーカー画像として前記画像表示部に表示させ;前記画像表示部に表示された前記マーカー画像と、前記3次元モデルに対応した3次元形状を有する実物マーカーと、が少なくとも部分的にほぼ一致するように使用者に視認させた状態で前記撮像部が前記実物マーカーの撮像画像を取得した場合に、前記パラメーター設定部は、前記撮像画像に少なくとも基づいて、前記カメラパラメーター、および前記空間関係の少なくとも一つを導出してもよい。 (3) In the head-mounted display device according to the above aspect, the marker image storage unit stores a three-dimensional model as a source of the marker image as the data; the image setting unit includes the three-dimensional model Is displayed on the image display unit as the marker image; the marker image displayed on the image display unit and a real marker having a three-dimensional shape corresponding to the three-dimensional model almost at least partially match each other. When the imaging unit acquires a captured image of the real marker in a state of being visually recognized by the user, the parameter setting unit is based on at least the captured image, the camera parameter, and at least the spatial relationship One may be derived.

(4)上記形態の頭部装着型表示装置において、前記撮像部は前記画像表示部に対して可動であってもよい。 (4) In the head-mounted display device according to the above aspect, the imaging unit may be movable with respect to the image display unit.

本発明は、頭部装着型表示装置以外の種々の形態で実現することも可能である。例えば、画像表示装置、これらの装置を有するシステム、これらの装置の制御方法およびシステムを実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、および、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号等の形態で実現できる。   The present invention can also be realized in various forms other than the head-mounted display device. For example, an image display device, a system having these devices, a computer program for realizing these devices, a computer program for realizing the system, a recording medium recording the computer program, and a carrier including the computer program embodied in a carrier wave It can be realized in the form of a data signal or the like.

キャリブレーションを行なう頭部装着型表示装置(HMD)の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of the head mounted display apparatus (HMD) which performs calibration. HMDの構成を機能的に示すブロック図である。It is a block diagram which shows the structure of HMD functionally. 画像表示部に表示されるマーカー画像の一例を示す説明図である。It is explanatory drawing which shows an example of the marker image displayed on an image display part. 本実施形態におけるキャリブレーション実行処理のフローチャートである。It is a flowchart of the calibration execution process in this embodiment. 右光学像表示部のみにマーカー画像が表示された状態の概略図である。It is the schematic of the state by which the marker image was displayed only on the right optical image display part. 右光学像表示部に表示されたマーカー画像と撮像された実物マーカーとの関係を示す説明図である。It is explanatory drawing which shows the relationship between the marker image displayed on the right optical image display part, and the captured real marker. キャリブレーションを行なう頭部装着型表示装置(HMD)の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of the head mounted display apparatus (HMD) which performs calibration. キャリブレーションを行なう頭部装着型表示装置(HMD)の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of the head mounted display apparatus (HMD) which performs calibration. キャリブレーションを行なう頭部装着型表示装置(HMD)の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of the head mounted display apparatus (HMD) which performs calibration. HMDの構成を機能的に示すブロック図である。It is a block diagram which shows the structure of HMD functionally. 画像表示部に表示されるマーカー画像の一例を示す説明図である。It is explanatory drawing which shows an example of the marker image displayed on an image display part. 第2実施形態におけるキャリブレーション実行処理のフローチャートである。It is a flowchart of the calibration execution process in 2nd Embodiment. 右光学像表示部のみにマーカー画像が表示された状態の概略図である。It is the schematic of the state by which the marker image was displayed only on the right optical image display part. 実物マーカーとマーカー画像との位置関係を表す概略図である。It is the schematic showing the positional relationship of a real marker and a marker image. 実物マーカーと確認用画像とが使用者に視認されている状態が示されている。A state where the real marker and the confirmation image are visually recognized by the user is shown. ARオブジェクトの位置に対応するようにAR画像が表示される前後の使用者の視野を示す図である。It is a figure which shows the user's visual field before and after an AR image is displayed so as to correspond to the position of the AR object. ARオブジェクトの位置に対応するようにAR画像が表示される前後の使用者の視野を示す図である。It is a figure which shows the user's visual field before and after an AR image is displayed so as to correspond to the position of the AR object. キャリブレーションを行なう頭部装着型表示装置(HMD)の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of the head mounted display apparatus (HMD) which performs calibration. キャリブレーションを行なう頭部装着型表示装置(HMD)の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of the head mounted display apparatus (HMD) which performs calibration. キャリブレーションを行なう頭部装着型表示装置(HMD)の外観構成を示す説明図である。It is explanatory drawing which shows the external appearance structure of the head mounted display apparatus (HMD) which performs calibration. HMDの構成を機能的に示すブロック図である。It is a block diagram which shows the structure of HMD functionally. 紙面に印刷された2次元の実物マーカーを示す説明図である。It is explanatory drawing which shows the two-dimensional real marker printed on the paper surface. 紙面に印刷された2次元の実物マーカーを示す説明図である。It is explanatory drawing which shows the two-dimensional real marker printed on the paper surface. 紙面に印刷された2次元の実物マーカーを示す説明図である。It is explanatory drawing which shows the two-dimensional real marker printed on the paper surface. 紙面に印刷された2次元の実物マーカーを示す説明図である。It is explanatory drawing which shows the two-dimensional real marker printed on the paper surface. 第3実施形態におけるキャリブレーション実行処理のフローチャートである。It is a flowchart of the calibration execution process in 3rd Embodiment. 第1設定モードのフローチャートである。It is a flowchart of the 1st setting mode. マーカー画像が表示された場合の光学像表示部のイメージ図である。It is an image figure of the optical image display part when a marker image is displayed. 右光学像表示部のみにマーカー画像が表示された状態での空間的な位置関係を示す概略図である。It is the schematic which shows the spatial positional relationship in the state in which the marker image was displayed only on the right optical image display part. 特定オブジェクトに対応付けられて設定画像が表示された場合に使用者が視認する使用者の視野の一例の説明図である。It is explanatory drawing of an example of a user's visual field which a user visually recognizes when a setting image is displayed matched with a specific object. 第3実施形態に係るキャリブレーションデータの自動収集処理のフローである。It is a flow of the automatic collection process of the calibration data which concerns on 3rd Embodiment. 他の実施形態に係るキャリブレーションデータの自動収集処理を説明するフローである。It is a flow explaining the automatic collection process of the calibration data which concerns on other embodiment. 他の実施形態に係るキャリブレーションデータの自動収集処理を説明するフローである。It is a flow explaining the automatic collection process of the calibration data which concerns on other embodiment. 第2設定モードに移行したときに使用者が視認する視野の一例の説明図である。It is explanatory drawing of an example of the visual field which a user visually recognizes when transfering to 2nd setting mode. 第2設定モードにおいて設定画像の表示位置が変更されたときに使用者が視認する視野の一例を示す説明図である。It is explanatory drawing which shows an example of the visual field which a user visually recognizes when the display position of a setting image is changed in 2nd setting mode. 第4実施形態における制御部の裏面を示す正面図である。It is a front view which shows the back surface of the control part in 4th Embodiment. 第5実施形態の実物マーカーの一例を示す概略図である。It is the schematic which shows an example of the real marker of 5th Embodiment. 第5実施形態の実物マーカーの一例を示す概略図である。It is the schematic which shows an example of the real marker of 5th Embodiment. 第1設定モードで設定するパラメーターに関連する要素を示す表である。It is a table | surface which shows the element relevant to the parameter set in 1st setting mode.

A.第1実施形態:
A−1.画像表示装置の構成:
図1は、キャリブレーションを行なう頭部装着型表示装置100(HMD100)の外観構成を示す説明図である。HMD100は、画像表示部20が表示する表示画像を使用者に視認させ、画像表示部20を透過する外景も使用者に視認させることができる。詳細な構成については後述するが、本実施形態のHMD100は、画像表示部20を装着した使用者の右眼と左眼とのそれぞれに対応する画像表示部を有しており、使用者の右眼と左眼とに別々の画像を視認させることができる。
A. First embodiment:
A-1. Configuration of image display device:
FIG. 1 is an explanatory diagram showing an external configuration of a head-mounted display device 100 (HMD 100) that performs calibration. The HMD 100 allows a user to visually recognize a display image displayed by the image display unit 20 and allows the user to visually recognize an outside scene that is transmitted through the image display unit 20. Although a detailed configuration will be described later, the HMD 100 of the present embodiment includes image display units corresponding to the right eye and the left eye of the user wearing the image display unit 20, and the right side of the user Separate images can be seen by the eyes and the left eye.

HMD100は、画像を表示する画像表示部20と、画像表示部20を制御する制御部10(コントローラー10)と、を備えている。画像表示部20は、使用者の頭部に装着される装着体であり、眼鏡形状を有している。画像表示部20は、右保持部21と、右表示駆動部22と、左保持部23と、左表示駆動部24と、右光学像表示部26と、左光学像表示部28と、カメラ61と、を含んでいる。右光学像表示部26および左光学像表示部28は、それぞれ、使用者が画像表示部20を装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26の一端と左光学像表示部28の一端とは、使用者が画像表示部20を装着した際の使用者の眉間に対応する位置で、互いに接続されている。   The HMD 100 includes an image display unit 20 that displays an image, and a control unit 10 (controller 10) that controls the image display unit 20. The image display unit 20 is a mounting body attached to the user's head and has a glasses shape. The image display unit 20 includes a right holding unit 21, a right display driving unit 22, a left holding unit 23, a left display driving unit 24, a right optical image display unit 26, a left optical image display unit 28, and a camera 61. And. The right optical image display unit 26 and the left optical image display unit 28 are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20, respectively. One end of the right optical image display unit 26 and one end of the left optical image display unit 28 are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20.

右保持部21は、右光学像表示部26の他端である端部ERから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。同様に、左保持部23は、左光学像表示部28の他端である端部ELから、使用者が画像表示部20を装着した際の使用者の側頭部に対応する位置にかけて、延伸して設けられた部材である。右表示駆動部22と左表示駆動部24とは、使用者が画像表示部20を装着した際の使用者の頭部に対向する側に配置されている。   The right holding unit 21 extends from the end ER which is the other end of the right optical image display unit 26 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member. Similarly, the left holding unit 23 extends from the end EL which is the other end of the left optical image display unit 28 to a position corresponding to the user's temporal region when the user wears the image display unit 20. It is a member provided. The right display drive unit 22 and the left display drive unit 24 are disposed on the side facing the user's head when the user wears the image display unit 20.

表示駆動部22,24は、図2で後述する液晶ディスプレイ241,242(Liquid Crystal Display、以下「LCD241,242」とも呼ぶ)や投写光学系251,252等を含む。表示駆動部22,24の構成の詳細な説明は後述する。光学像表示部26,28は、後述する導光板261,262(図2参照)と調光板とを含んでいる。導光板261,262は、光透過性の樹脂材料等によって形成され、表示駆動部22,24から出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20の表側を覆うように配置されている。調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整できる。   The display driving units 22 and 24 include liquid crystal displays 241 and 242 (hereinafter also referred to as “LCDs 241 and 242”), projection optical systems 251 and 252 and the like, which will be described later with reference to FIG. A detailed description of the configuration of the display driving units 22 and 24 will be described later. The optical image display units 26 and 28 include light guide plates 261 and 262 (see FIG. 2), which will be described later, and a light control plate. The light guide plates 261 and 262 are formed of a light transmissive resin material or the like, and guide the image light output from the display driving units 22 and 24 to the eyes of the user. The light control plate is a thin plate-like optical element, and is arranged so as to cover the front side of the image display unit 20 which is the side opposite to the user's eye side. By adjusting the light transmittance of the light control plate, the amount of external light entering the user's eyes can be adjusted to adjust the visibility of the virtual image.

カメラ61は、右光学像表示部26の端部ERにおける上方に配置されている。カメラ61は、使用者が画像表示部20を頭部に装着した状態において、使用者の視線方向の外部の景色である外景を撮像し、撮像された画像である撮像画像を取得する。カメラ61は、画像表示部20に対して向きを変更でき、撮像範囲を変更できる。また、カメラ61は、光軸を中心としたズームによって変化する範囲を撮像する。詳細については後述するが、光学像表示部26または左光学像表示部28に表示されたキャリブレーション用画像と、外景に含まれるマーカーとが重複するようにカメラ61によって撮像されることで、キャリブレーションが行なわれる。   The camera 61 is disposed above the end ER of the right optical image display unit 26. In a state where the user wears the image display unit 20 on the head, the camera 61 captures an external scene that is an external scenery in the direction of the user's line of sight, and acquires a captured image that is the captured image. The camera 61 can change the direction with respect to the image display unit 20 and can change the imaging range. The camera 61 captures an image of a range that changes due to zooming around the optical axis. Although details will be described later, the calibration image displayed on the optical image display unit 26 or the left optical image display unit 28 is captured by the camera 61 so that the marker included in the outside scene overlaps, thereby performing calibration. Is performed.

画像表示部20は、さらに、画像表示部20を制御部10に接続するための接続部40を有している。接続部40は、制御部10に接続される本体コード48と、右コード42と、左コード44と、連結部材46と、を含んでいる。右コード42と左コード44とは、本体コード48が2本に分岐したコードである。右コード42は、右保持部21の延伸方向の先端部APから右保持部21の筐体内に挿入され、右表示駆動部22に接続されている。同様に、左コード44は、左保持部23の延伸方向の先端部APから左保持部23の筐体内に挿入され、左表示駆動部24に接続されている。連結部材46は、本体コード48と、右コード42および左コード44と、の分岐点に設けられ、イヤホンプラグ30を接続するためのジャックを有している。イヤホンプラグ30からは、右イヤホン32および左イヤホン34が延伸している。画像表示部20と制御部10とは、接続部40を介して各種信号の伝送を行なう。右コード42と、左コード44と、本体コード48とには、例えば、金属ケーブルや光ファイバーを採用できる。   The image display unit 20 further includes a connection unit 40 for connecting the image display unit 20 to the control unit 10. The connection unit 40 includes a main body cord 48, a right cord 42, a left cord 44, and a connecting member 46 connected to the control unit 10. The right cord 42 and the left cord 44 are codes in which the main body cord 48 is branched into two. The right cord 42 is inserted into the casing of the right holding unit 21 from the distal end AP in the extending direction of the right holding unit 21 and connected to the right display driving unit 22. Similarly, the left cord 44 is inserted into the housing of the left holding unit 23 from the distal end AP in the extending direction of the left holding unit 23 and connected to the left display driving unit 24. The connecting member 46 is provided at a branch point between the main body cord 48, the right cord 42 and the left cord 44, and has a jack for connecting the earphone plug 30. A right earphone 32 and a left earphone 34 extend from the earphone plug 30. The image display unit 20 and the control unit 10 transmit various signals via the connection unit 40. For the right cord 42, the left cord 44, and the main body cord 48, for example, a metal cable or an optical fiber can be adopted.

制御部10は、HMD100を制御するための装置である。制御部10は、静電式のトラックパッドや押下可能な複数のボタンなどを含む操作部135を有する。   The control unit 10 is a device for controlling the HMD 100. The control unit 10 includes an operation unit 135 including an electrostatic trackpad and a plurality of buttons that can be pressed.

図2は、HMD100の構成を機能的に示すブロック図である。図2に示すように、制御部10は、ROM121と、RAM122と、電源130と、操作部135と、マーカー画像記憶部138と、CPU140と、インターフェイス180と、送信部51(Tx51)および送信部52(Tx52)と、を有している。   FIG. 2 is a block diagram functionally showing the configuration of the HMD 100. As shown in FIG. 2, the control unit 10 includes a ROM 121, a RAM 122, a power supply 130, an operation unit 135, a marker image storage unit 138, a CPU 140, an interface 180, a transmission unit 51 (Tx51), and a transmission unit. 52 (Tx52).

電源130は、HMD100の各部に電力を供給する。ROM121には、種々のコンピュータープログラムが格納されている。後述するCPU140は、ROM121に格納された各種コンピュータープログラムを、RAM122に展開することで、各種コンピュータープログラムを実行する。   The power supply 130 supplies power to each part of the HMD 100. Various computer programs are stored in the ROM 121. The CPU 140 described later executes various computer programs by expanding various computer programs stored in the ROM 121 in the RAM 122.

マーカー画像記憶部138は、モデルマーカーのデータおよび/または右光学像表示部26または左光学像表示部28に表示されるキャリブレーション用画像としてのマーカーMK1のマーカー画像IMGを記憶している。マーカー画像記憶部138は、右光学像表示部26に表示されるマーカー画像と左光学像表示部28に表示されるマーカー画像とを同じマーカーの画像IMGとして記憶している。マーカー画像IMGは、3次元モデル空間(3Dコンピューターグラフィックス空間)で表現された上記モデルマーカー(2D)を、右光学像表示部26または左光学像表示部28のそれぞれの写像パラメーターに基づいて写像したものである。   The marker image storage unit 138 stores model marker data and / or a marker image IMG of the marker MK1 as a calibration image displayed on the right optical image display unit 26 or the left optical image display unit 28. The marker image storage unit 138 stores the marker image displayed on the right optical image display unit 26 and the marker image displayed on the left optical image display unit 28 as the same marker image IMG. The marker image IMG maps the model marker (2D) expressed in a three-dimensional model space (3D computer graphics space) based on the mapping parameters of the right optical image display unit 26 or the left optical image display unit 28. It is a thing.

図3は、画像表示部20に表示されるマーカー画像IMGの一例を示す説明図である。図3に示すように、マーカー画像IMGは、4つの頂点P0,P1,P2,P3を直線で結んだ正方形の中に、9個の正円を含んでいる。9個の円の内の5個の円は、頂点P0と頂点P2とを結んだ対角線CL1上に円の中心が存在する。当該5個の円は、対角線CL1に沿って、頂点P0に近い円から、円C1,C2,C3,C4,C5である。同じように、9個の円の内の5個の円は、頂点P1と頂点P3とを結んだ対角線CL2上に円の中心が存在する。当該5個の円は、対角線CL2に沿って、頂点P1に近い円から、円C6,C7,C3,C8,C9である。円C3は、対角線CL1と対角線CL2との交点であると共に、正方形の重心である点を中心とする円である。本実施形態では、対角線CL1上に中心を有する5個の円における隣接する円の中心間の距離は、同じ距離になるように設定されている。同じように、対角線CL2上に中心を有する5個の円における隣接する円の中心間の距離は、同じ距離になるように設定されている。また、対角線CL1に中心を有する隣接する円の中心間の距離と、対角線CL2に中心を有する隣接する円の中心間の距離とは、同じ距離である。9個の円の大きさは、同じ大きさである。なお、対角線CL1および対角線CL2は、便宜上、図3に示しているのであり、マーカー画像IMGには含まれない直線である。   FIG. 3 is an explanatory diagram illustrating an example of the marker image IMG displayed on the image display unit 20. As shown in FIG. 3, the marker image IMG includes nine perfect circles in a square connecting four vertices P0, P1, P2, and P3 with straight lines. Five of the nine circles have the center of the circle on the diagonal line CL1 connecting the vertex P0 and the vertex P2. The five circles are circles C1, C2, C3, C4, and C5 from the circle close to the vertex P0 along the diagonal line CL1. Similarly, five of the nine circles have the center of the circle on the diagonal line CL2 connecting the vertex P1 and the vertex P3. The five circles are circles C6, C7, C3, C8, and C9 from the circle close to the vertex P1 along the diagonal line CL2. The circle C3 is a circle centered on a point that is the intersection of the diagonal line CL1 and the diagonal line CL2 and the center of gravity of the square. In the present embodiment, the distance between the centers of adjacent circles in the five circles having the center on the diagonal line CL1 is set to be the same distance. Similarly, the distance between the centers of adjacent circles in the five circles having the center on the diagonal line CL2 is set to be the same distance. The distance between the centers of adjacent circles having the center on the diagonal line CL1 and the distance between the centers of adjacent circles having the center on the diagonal line CL2 are the same distance. The nine circles have the same size. Note that the diagonal line CL1 and the diagonal line CL2 are shown in FIG. 3 for convenience, and are straight lines not included in the marker image IMG.

図3では、色の違いを、ハッチングを変えることで表している。そのため、図3に示すように、マーカー画像IMGには、円C3の内部の黄色と、円C5の内部の緑色と、円C3,C5と異なる7個の円C1,C2,C4,C6,C7,C8,C9の内部の白色と、正方形の中に含まれ、9個の円を含まない部分の黒色と、の4色が存在する。また、図3では、円C3の中心C3Pを原点とするX軸とY軸とが示されている。後述するキャリブレーション実行処理では、中心C3Pを原点として、各種の座標値が特定される。マーカー画像IMGに含まれる9個の円の内、円C3と円C5との色がその他の7個の円と異なるのは、中心円としての円C3と、撮像された実物のマーカーMK1の方向を特定するための円C5と、を区別するためである。   In FIG. 3, the difference in color is represented by changing the hatching. Therefore, as shown in FIG. 3, the marker image IMG includes a yellow color inside the circle C3, a green color inside the circle C5, and seven circles C1, C2, C4, C6, C7 different from the circles C3, C5. , C8, C9, and the four colors of white, which are included in the square and do not include the nine circles, are black. FIG. 3 also shows the X axis and the Y axis with the center C3P of the circle C3 as the origin. In the calibration execution process described later, various coordinate values are specified with the center C3P as the origin. Among the nine circles included in the marker image IMG, the colors of the circle C3 and the circle C5 are different from the other seven circles in that the circle C3 as the center circle and the direction of the captured actual marker MK1 This is for distinguishing from the circle C5 for identifying.

図2に示すCPU140は、ROM121に格納されているコンピュータープログラムを、RAM122に展開することにより、オペレーティングシステム150(OS150)、表示制御部190、音声処理部170、画像処理部160、表示設定部165、マーカー特定部166および演算部167として機能する。   The CPU 140 shown in FIG. 2 expands the computer program stored in the ROM 121 to the RAM 122, thereby operating the operating system 150 (OS 150), the display control unit 190, the sound processing unit 170, the image processing unit 160, and the display setting unit 165. , Function as a marker specifying unit 166 and a calculation unit 167.

表示制御部190は、右表示駆動部22および左表示駆動部24を制御する制御信号を生成する。表示制御部190は、右表示駆動部22および左表示駆動部24のそれぞれによる画像光の生成および射出を制御する。表示制御部190は、右LCD制御部211と左LCD制御部212とに対する制御信号のそれぞれを、送信部51および52を介して送信する。また、表示制御部190は、右バックライト制御部201と左バックライト制御部202とに対する制御信号のそれぞれを送信する。   The display control unit 190 generates control signals for controlling the right display drive unit 22 and the left display drive unit 24. The display control unit 190 controls the generation and emission of image light by the right display drive unit 22 and the left display drive unit 24, respectively. The display control unit 190 transmits control signals for the right LCD control unit 211 and the left LCD control unit 212 via the transmission units 51 and 52, respectively. In addition, the display control unit 190 transmits control signals to the right backlight control unit 201 and the left backlight control unit 202, respectively.

画像処理部160は、コンテンツに含まれる画像信号を取得し、送信部51,52を介して、取得した画像信号を画像表示部20の受信部53,54へと送信する。音声処理部170は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46に接続された右イヤホン32内のスピーカー(図示しない)および左イヤホン34内のスピーカー(図示しない)に対して供給する。   The image processing unit 160 acquires an image signal included in the content, and transmits the acquired image signal to the reception units 53 and 54 of the image display unit 20 via the transmission units 51 and 52. The audio processing unit 170 acquires an audio signal included in the content, amplifies the acquired audio signal, and a speaker (not shown) in the right earphone 32 and a speaker (not shown) connected to the connecting member 46 ( (Not shown).

表示設定部165は、マーカー画像記憶部138に記憶されたマーカーMK1の画像を右光学像表示部26または左光学像表示部28に表示させる。表示設定部165は、キャリブレーション実行時に、操作部135が受け付けた操作に基づいて、マーカー画像IMGを右光学像表示部26に表示する場合と、マーカー画像IMGを左光学像表示部28に表示する場合とを制御する。   The display setting unit 165 displays the image of the marker MK1 stored in the marker image storage unit 138 on the right optical image display unit 26 or the left optical image display unit 28. The display setting unit 165 displays the marker image IMG on the right optical image display unit 26 and displays the marker image IMG on the left optical image display unit 28 based on the operation received by the operation unit 135 during calibration. Control when to do.

マーカー特定部166は、カメラ61によって撮像された撮像画像の中から、例えば、制御部10の裏面(操作部135の反対側の面)や所定の壁などに配置されたマーカーMK1の実物マーカーRLを特定する。実物マーカーRLを特定するための具体的な処理については、後述するが、マーカー特定部166は、実物マーカーRLの4つの頂点、9個の円の中心の座標値、9個の円の色などを抽出することで、撮像画像の中から実物マーカーRLを特定する。マーカー特定部166は、例えば、撮像画像の色の階調値を2値化することで、マーカーMK1における色の異なる9個の円などを抽出する。なお、マーカー画像IMGは、請求項における第1のマーカーの画像に相当し、実物マーカーRLは、第2のマーカーに相当する。   The marker specifying unit 166 is, for example, a real marker RL of the marker MK1 arranged on the back surface of the control unit 10 (surface opposite to the operation unit 135) or a predetermined wall from the captured image captured by the camera 61. Is identified. Although specific processing for specifying the real marker RL will be described later, the marker specifying unit 166 includes four vertices of the real marker RL, coordinate values of nine circle centers, nine circle colors, and the like. Is extracted to identify the real marker RL from the captured image. The marker specifying unit 166 extracts, for example, nine circles with different colors in the marker MK1 by binarizing the gradation value of the color of the captured image. The marker image IMG corresponds to the image of the first marker in the claims, and the real marker RL corresponds to the second marker.

演算部167は、マーカー特定部166によって特定された実物マーカーRLの座標値と、右光学像表示部26または左光学像表示部28に表示されたマーカー画像IMGに対応する画素の座標値と、に基づいて、カメラ61に関するパラメーターを最適化する。カメラ61に関するパラメーターの最適化は、予め既知ではない(未知である)カメラ61の焦点距離に関連するパラメーターおよび主点位置(例えば撮像画像の中心座標)などを含むパラメーターを、得られた座標値を用いて、最適化できるように計算する。最適化により導出されたカメラパラメーターを用いて対象物が撮像されて撮像画像が取得されると、撮像画像における対象物の位置と、ユーザーから見たときの対象物に重なる画像表示部上の表示位置とが対応付けられることとなる。この結果、使用者は、画像表示部20を介してAR(Augmented Reality)画像が、当該対象物に対して位置、大きさ、姿勢の少なくとも一つが一致するように視認することができる。なお、カメラ61のパラメーターの最適化の詳細については、後述する。   The calculation unit 167 includes the coordinate value of the real marker RL specified by the marker specifying unit 166, the coordinate value of the pixel corresponding to the marker image IMG displayed on the right optical image display unit 26 or the left optical image display unit 28, and Based on the above, parameters relating to the camera 61 are optimized. The optimization of the parameters relating to the camera 61 is performed by obtaining parameters including parameters relating to the focal length of the camera 61 that are not known in advance (unknown) and parameters including principal point positions (for example, center coordinates of the captured image). To be optimized. When an object is imaged using camera parameters derived by optimization and the captured image is acquired, the position of the object in the captured image and the display on the image display unit that overlaps the object when viewed from the user The position is associated. As a result, the user can visually recognize the AR (Augmented Reality) image via the image display unit 20 so that at least one of the position, size, and posture of the target object matches. Details of optimization of the parameters of the camera 61 will be described later.

インターフェイス180は、制御部10に対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器OAとしては、例えば、ARシナリオを記憶している記憶装置、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフェイス180としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等、を用いることができる。   The interface 180 is an interface for connecting various external devices OA that are content supply sources to the control unit 10. Examples of the external device OA include a storage device that stores an AR scenario, a personal computer (PC), a mobile phone terminal, and a game terminal. As the interface 180, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.

図2に示すように、画像表示部20は、右表示駆動部22と、左表示駆動部24と、右光学像表示部26としての右導光板261と、左光学像表示部28としての左導光板262と、カメラ61と、を備えている。   As shown in FIG. 2, the image display unit 20 includes a right display drive unit 22, a left display drive unit 24, a right light guide plate 261 as a right optical image display unit 26, and a left as a left optical image display unit 28. A light guide plate 262 and a camera 61 are provided.

右表示駆動部22は、受信部53(Rx53)と、光源として機能する右バックライト制御部201(右BL制御部201)および右バックライト221(右BL221)と、表示素子として機能する右LCD制御部211および右LCD241と、右投写光学系251と、を含んでいる。右バックライト制御部201と右バックライト221とは、光源として機能する。右LCD制御部211と右LCD241とは、表示素子として機能する。   The right display driving unit 22 includes a receiving unit 53 (Rx53), a right backlight control unit 201 (right BL control unit 201) and a right backlight 221 (right BL221) that function as a light source, and a right LCD that functions as a display element. A control unit 211, a right LCD 241 and a right projection optical system 251 are included. The right backlight control unit 201 and the right backlight 221 function as a light source. The right LCD control unit 211 and the right LCD 241 function as display elements.

受信部53は、制御部10と画像表示部20との間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201は、入力された制御信号に基づいて、右バックライト221を駆動する。右バックライト221は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211は、画像処理部160および表示制御部190から送信された制御信号に基づいて、右LCD241を駆動する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The receiving unit 53 functions as a receiver for serial transmission between the control unit 10 and the image display unit 20. The right backlight control unit 201 drives the right backlight 221 based on the input control signal. The right backlight 221 is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211 drives the right LCD 241 based on the control signals transmitted from the image processing unit 160 and the display control unit 190. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251は、右LCD241から射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26としての右導光板261は、右投写光学系251から出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、左表示駆動部24は、右表示駆動部22と同様の構成を有し、使用者の左眼LEに対応するため、説明を省略する。   The right projection optical system 251 is configured by a collimating lens that converts the image light emitted from the right LCD 241 into a light beam in a parallel state. The right light guide plate 261 as the right optical image display unit 26 guides the image light output from the right projection optical system 251 to the right eye RE of the user while reflecting the image light along a predetermined optical path. Note that the left display drive unit 24 has the same configuration as the right display drive unit 22 and corresponds to the left eye LE of the user, and thus description thereof is omitted.

A−2.キャリブレーション実行処理:
図4は、本実施形態におけるキャリブレーション実行処理のフローチャートである。キャリブレーション実行処理は、CPU140が右光学像表示部26または左光学像表示部28に表示されたマーカー画像IMGと外景から特定された実物マーカーRLとが重複する状態で撮像し、マーカー画像IMGの座標値と実物マーカーRLの座標値とを用いて、キャリブレーションを行なうためのカメラ61のパラメーターを最適化する処理である。
A-2. Calibration execution process:
FIG. 4 is a flowchart of the calibration execution process in the present embodiment. In the calibration execution process, the CPU 140 captures an image in a state where the marker image IMG displayed on the right optical image display unit 26 or the left optical image display unit 28 overlaps with the actual marker RL specified from the outside scene. This is a process of optimizing the parameters of the camera 61 for performing calibration using the coordinate values and the coordinate values of the real marker RL.

キャリブレーション実行処理では、初めに、表示設定部165は、マーカー画像IMGを、使用者の右眼に対応する右画像表示部としての右光学像表示部26のみに表示させる(ステップS11)。   In the calibration execution process, first, the display setting unit 165 displays the marker image IMG only on the right optical image display unit 26 as the right image display unit corresponding to the right eye of the user (step S11).

図5は、右光学像表示部26のみにマーカー画像IMGが表示された状態の概略図である。図5には、使用者が、予め画像表示部20を装着した使用者の仮想の右眼の位置として設定された右眼位置RPから、右光学像表示部26に表示されたマーカー画像IMGを視認した場合の概略が示されている。また、図5には、撮像される三次元空間の座標軸を表す座標軸CD2と、撮像された二次元画像の座標軸を表す座標軸CD1と、が示されている。使用者は、右光学像表示部26に表示されたマーカー画像IMGを、画像表示部20から距離L1離れた位置に存在するマーカーMK1として視認する。   FIG. 5 is a schematic view showing a state in which the marker image IMG is displayed only on the right optical image display unit 26. In FIG. 5, the marker image IMG displayed on the right optical image display unit 26 is displayed from the right eye position RP set as the virtual right eye position of the user wearing the image display unit 20 in advance. An outline when visually recognized is shown. FIG. 5 also shows a coordinate axis CD2 that represents the coordinate axes of the imaged three-dimensional space, and a coordinate axis CD1 that represents the coordinate axes of the imaged two-dimensional image. The user visually recognizes the marker image IMG displayed on the right optical image display unit 26 as the marker MK1 existing at a position away from the image display unit 20 by the distance L1.

図4のステップS11の処理が行なわれると、マーカー特定部166は、使用者に対して、右光学像表示部26に表示されたマーカー画像IMGと、外景に存在する実物マーカーRLとが重なるように位置合わせを促す(ステップS13)。   When the process of step S11 of FIG. 4 is performed, the marker specifying unit 166 causes the marker image IMG displayed on the right optical image display unit 26 to overlap the real marker RL present in the outside scene for the user. Is prompted for alignment (step S13).

図6には、外景SCに含まれる実物マーカーRLと、右光学像表示部26に表示されたマーカー画像IMGおよび文字画像TX1と、が示されている。文字画像TX1は、使用者にマーカー画像IMGと実物マーカーRLとの位置合わせを行なった後に、撮像を促すことを文字で表す画像である。具体的には、文字画像TX1は、「重複させてから撮像ボタンを押してください」を表す文字の画像である。図6に示すように、マーカー画像IMGの中心と実物マーカーRLの中心とは、一致していない。また、図6に示す例では、実物マーカーRLは、マーカー画像IMGに対して、角度θ1傾いている。この場合に、画像表示部20を装着した使用者は、自身の位置や向きを変えることで、実物マーカーRLにマーカー画像IMGを重ねることができる。   FIG. 6 shows a real marker RL included in the outside scene SC, and a marker image IMG and a character image TX1 displayed on the right optical image display unit 26. The character image TX1 is an image representing characters that prompt the user to take an image after positioning the marker image IMG and the real marker RL. Specifically, the character image TX1 is a character image representing “please press the imaging button after overlapping”. As shown in FIG. 6, the center of the marker image IMG and the center of the real marker RL do not match. In the example illustrated in FIG. 6, the real marker RL is inclined by the angle θ1 with respect to the marker image IMG. In this case, the user wearing the image display unit 20 can superimpose the marker image IMG on the real marker RL by changing his / her position and orientation.

マーカー特定部166は、図4のステップS13の処理を行なうと、マーカー画像IMGと実物マーカーRLと位置合わせが完了しているか否かを判定する(ステップS15)。マーカー特定部166は、図6の文字画像TX1に示すように、使用者によって撮像ボタンが押下される操作の有無によって、位置合わせの完了の判定を行なう。撮像ボタンとしては、予め設定された操作部135のいずれかのボタンでよく、種々変形可能である。   When the process of step S13 in FIG. 4 is performed, the marker specifying unit 166 determines whether or not the alignment between the marker image IMG and the real marker RL is completed (step S15). As shown in the character image TX1 in FIG. 6, the marker specifying unit 166 determines whether or not the alignment is complete depending on whether or not the user presses the imaging button. The imaging button may be any button of the operation unit 135 set in advance, and can be variously modified.

撮像ボタンの押下の操作がなく、マーカー特定部166は、位置合わせが完了していないと判定した場合には(ステップS15:NO)、引き続き、位置合わせが完了したことを表す撮像ボタンの押下の操作を待機する。撮像ボタンの押下の操作があると、マーカー特定部166は、位置合わせが完了していると判定し(ステップS15:YES)、カメラ61によって外景SCを撮像する(ステップS17)。   When the imaging button is not pressed and the marker specifying unit 166 determines that the alignment is not completed (step S15: NO), the imaging button is continuously pressed indicating that the alignment is completed. Wait for operation. When there is an operation of pressing the imaging button, the marker specifying unit 166 determines that the alignment is completed (step S15: YES), and images the outside scene SC by the camera 61 (step S17).

次に、表示設定部165は、右光学像表示部26のみに表示させたマーカー画像IMGを非表示にして、左光学像表示部28のみにマーカー画像IMGを表示させる(ステップS19)。その後、ステップS13からステップS17までの使用者の右眼REに対応する処理と同じように、マーカー特定部166は、使用者の左眼LEに対して、マーカー画像IMGと実物マーカーRLとが重なるように位置合わせを促す(ステップS21)。   Next, the display setting unit 165 hides the marker image IMG displayed only on the right optical image display unit 26 and displays the marker image IMG only on the left optical image display unit 28 (step S19). Thereafter, similar to the processing corresponding to the right eye RE of the user from step S13 to step S17, the marker specifying unit 166 overlaps the marker image IMG and the real marker RL with respect to the left eye LE of the user. In this way, alignment is urged (step S21).

マーカー特定部166は、仮想の左眼位置LPを基準として、使用者に位置合わせを促すと、マーカー画像IMGと実物マーカーRLとの位置合わせが完了しているか否かを判定する(ステップS23)。マーカー特定部166は、使用者による撮像ボタンの押下の操作がなく、位置合わせが完了していないと判定する場合には(ステップS23:NO)、引き続き、位置合わせが完了したことを示す撮像ボタンの押下の操作を待機する。撮像ボタンの押下の操作があると、マーカー特定部166は、位置合わせが完了していると判定し(ステップS23:YES)、カメラ61によって、外景SCを撮像する(ステップS25)。次に、演算部167は、右眼位置RPと左眼位置LPとのそれぞれを基準とした撮像画像を基に、カメラ61のパラメーターを未知として最適化する(ステップS30)。   When the marker specifying unit 166 prompts the user to perform alignment with the virtual left eye position LP as a reference, the marker specifying unit 166 determines whether or not the alignment between the marker image IMG and the real marker RL has been completed (step S23). . When the marker specifying unit 166 determines that the user has not pressed the imaging button and the positioning is not completed (step S23: NO), the imaging button indicating that the positioning has been completed. Wait for the operation of pressing. When there is an operation of pressing the imaging button, the marker specifying unit 166 determines that the alignment is completed (step S23: YES), and images the outside scene SC by the camera 61 (step S25). Next, the computing unit 167 optimizes the parameters of the camera 61 as unknown based on the captured images based on the right eye position RP and the left eye position LP (step S30).

カメラ61に関するパラメーターとして、4個のパラメーターCP(fx、fy、Cx、Cy)が存在する。(fx、fy)は撮像部の焦点距離であり、画素密度に基づいて画素数に換算されている。   There are four parameters CP (fx, fy, Cx, Cy) as parameters relating to the camera 61. (Fx, fy) is the focal length of the imaging unit, and is converted into the number of pixels based on the pixel density.

カメラパラメーターは、撮像部の主要部分を構成するカメラ61の製品仕様から知ることができる(以下ではこれをデフォルトカメラパラメーターとも表記する)。ただし、実際のカメラのカメラパラメーターがデフォルトカメラパラメーターから大きくずれていることが多い。しかも、同じ仕様のカメラであっても、カメラ間で、カメラパラメーターがばらついている(揃っていない)ことがある。   The camera parameters can be known from the product specifications of the camera 61 constituting the main part of the imaging unit (hereinafter also referred to as default camera parameters). However, the camera parameters of the actual camera often deviate greatly from the default camera parameters. Moreover, even with cameras of the same specification, camera parameters may vary (not aligned) between cameras.

ARオブジェクトにおける位置、大きさ、姿勢の少なくとも一つが実物体にアライン(重畳)するように使用者に視認させる場合、カメラ61は、当該実物体の位置および姿勢を検出する検出機として機能する。このとき、演算部167は、カメラパラメーターを用いて、カメラ61に撮像された実物体のカメラ61に対する位置および姿勢を推定する。さらに、演算部167は、当該位置および姿勢を、カメラ61と左光学像表示部28(右光学像表示部26)との間の相対位置関係を用いて、左光学像表示部28に対する実物体の位置および姿勢に変換する。さらに、演算部167は、当該変換された位置および姿勢に基づいて、ARオブジェクトの位置および姿勢を決定する。そして、画像処理部160は、当該位置および姿勢を有するARオブジェクトを、写像パラメーターを用いて表示座標系に写像(変換)し、表示バッファ(例えばRAM122)に書き込む。そして、画像制御部は、表示バッファに書き込まれたARオブジェクトを左画像表示部28に表示する。このため、カメラパラメーターがデフォルトカメラパラメーターである場合には、推定される実物体の位置および姿勢に誤差が含まれることとなる。そうすると、推定された位置および姿勢の誤差に由来して、表示されたARオブジェクトと実物体との重畳に誤差があるように使用者に視認される。   When the user visually recognizes that at least one of the position, size, and posture of the AR object is aligned (superimposed) with the real object, the camera 61 functions as a detector that detects the position and posture of the real object. At this time, the calculation unit 167 estimates the position and orientation of the real object captured by the camera 61 with respect to the camera 61 using the camera parameters. Further, the calculation unit 167 uses the relative positional relationship between the camera 61 and the left optical image display unit 28 (right optical image display unit 26) to determine the actual object relative to the left optical image display unit 28. Convert to the position and posture. Furthermore, the computing unit 167 determines the position and orientation of the AR object based on the converted position and orientation. Then, the image processing unit 160 maps (converts) the AR object having the position and orientation into the display coordinate system using the mapping parameter, and writes the AR object in the display buffer (for example, the RAM 122). Then, the image control unit displays the AR object written in the display buffer on the left image display unit 28. For this reason, when the camera parameter is the default camera parameter, an error is included in the position and orientation of the estimated real object. Then, it is visually recognized by the user that there is an error in the superposition of the displayed AR object and the real object due to the estimated position and orientation error.

そこで、本実施形態では、ARオブジェクトが対象物に重畳して使用者に視認されるようにするためのキャリブレーションの際に、カメラパラメーターが、最適化により導出される。そして、導出されたカメラパラメーターが用いられて、対象物の位置および姿勢が検出(推定)されるようにする。そうすれば、ARオブジェクトの表示において、表示されるARオブジェクトと実物体との間に発生するずれが使用者に視認される度合いが低くなる。後述するように、同じHMD100の使用者が同一人であっても、カメラパラメーターの導出は、キャリブレーションが行なわれるごとに行なわれ、当該キャリブレーションに引き続いて行なわれる対象物とARオブジェクトとの間での位置、大きさ、向きの少なくとも一つが一致した表示のために使用されることが好ましい。これは、キャリブレーションの際に、必ずしも使用者は、実物マーカーRLと、実物マーカーRLに対応したマーカー画像IMGとを、同じ精度で位置合わせするとは限らないことによる。たとえ使用者が違う精度で位置合わせしても、それに応じたカメラパラメーターが導出されることから、ARオブジェクトの重畳表示がされる場合に重畳表示のずれの増大が抑制される。   Therefore, in the present embodiment, camera parameters are derived by optimization during calibration so that the AR object is superimposed on the object and visually recognized by the user. The derived camera parameters are used to detect (estimate) the position and orientation of the object. If it does so, in the display of AR object, the degree which a user will visually recognize the gap which arises between the displayed AR object and a real object becomes low. As will be described later, even if the same HMD 100 user is the same person, the camera parameters are derived each time calibration is performed, and between the target object and the AR object that are performed following the calibration. It is preferably used for display in which at least one of the position, the size, and the orientation is consistent. This is because the user does not always align the real marker RL and the marker image IMG corresponding to the real marker RL with the same accuracy during calibration. Even if the user aligns with different accuracy, camera parameters corresponding to the user are derived, so that when the AR object is displayed in a superimposed manner, an increase in the displacement of the superimposed display is suppressed.

カメラ61に固定された座標系と左光学像表示部28に固定された座標系との間の相対位置関係(回転および並進の少なくとも一つ)は、HMD100の設計仕様から知ることができる(以下ではこれをデフォルト相対位置関係とも表記する)。デフォルト相対位置関係によれば、両座標系の間に回転のずれはない。ただし、実際には、カメラ61を画像表示部20への取付時の作業上の理由から、両座標系の間に回転のずれが生じていることがある。また、同じ仕様のHMD100でもHMD100の間で、両座標系の間の回転のずれにばらつきがある。上記回転のずれは、カメラ61と左光学像表示部28との間でも同様に発生するおそれがある。   The relative positional relationship (at least one of rotation and translation) between the coordinate system fixed to the camera 61 and the coordinate system fixed to the left optical image display unit 28 can be known from the design specifications of the HMD 100 (hereinafter referred to as the design specification). (This is also referred to as the default relative positional relationship). According to the default relative positional relationship, there is no rotational deviation between the two coordinate systems. However, in practice, there may be a rotational deviation between the two coordinate systems for the reason of work when the camera 61 is attached to the image display unit 20. Further, even in the HMD 100 having the same specification, the rotational deviation between the two coordinate systems varies between the HMDs 100. The above-described rotational deviation may occur between the camera 61 and the left optical image display unit 28 as well.

デフォルトカメラパラメーターについての説明から理解されるように、ARオブジェクトにおける位置、大きさ、姿勢の少なくとも一つが実物体にアライン(重畳)するように使用者に視認させる場合、デフォルト相対位置関係に基づいてARオブジェクトを表示すると、表示されたARオブジェクトと実物体との重畳に誤差が視認される。   As can be understood from the description of the default camera parameters, when the user visually recognizes that at least one of the position, size, and posture of the AR object is aligned (superimposed) on the real object, the default relative positional relationship is used. When the AR object is displayed, an error is visually recognized in the superimposition of the displayed AR object and the real object.

そこで、本実施形態では、ARオブジェクトが対象物に重畳して使用者に視認されるようにするためのキャリブレーションの際に、カメラ61の座標系と、右光学像表示部26の座標系および左光学像表示部28の座標系と、の間の回転を表すパラメーターを、最適化により導出する。そして、導出された当該パラメーターを用いてARオブジェクトの表示をすると、ユーザーにずれが視認される度合いが低くなる。   Therefore, in the present embodiment, in the calibration for the AR object to be superimposed on the target and visually recognized by the user, the coordinate system of the camera 61, the coordinate system of the right optical image display unit 26, and A parameter representing rotation between the coordinate system of the left optical image display unit 28 and the coordinate system is derived by optimization. Then, when the AR object is displayed using the derived parameter, the degree to which the shift is visually recognized by the user is reduced.

図5に示すように、使用者が、左光学像表示部28に表示されたマーカー画像IMGと、外景に含まれ前方に位置する実物マーカーRLと、が位置、大きさ、向きが一致するように使用者が視認するとき(以下、使用者が左眼でアライメントを成立させるときともいう)、座標系の間には、次の式(1)の関係が成り立つ。なお、以降では、左光学像表示部28にマーカー画像IMGが表示された場合について説明する。

Figure 2017108370
As shown in FIG. 5, the user matches the position, size, and orientation of the marker image IMG displayed on the left optical image display unit 28 with the real marker RL that is included in the outside scene and positioned forward. When the user visually recognizes (hereinafter also referred to as when the user establishes alignment with the left eye), the relationship of the following expression (1) is established between the coordinate systems. Hereinafter, a case where the marker image IMG is displayed on the left optical image display unit 28 will be described.
Figure 2017108370

ここで、左辺および右辺のCPは、カメラ61のカメラパラメーターである。[Ro2dl, to2dl]は、実オブジェクト(この場合、実物マーカーRL)に固定された座標系から左光学像表示部28に固定された座標系への変換行列であり、このうち、[Ro2dl]が回転を表す3×3の行列であり、[to2dl]が並進を表す3×1の行列である。ModelMatrixは、モデルマーカー上の任意の1点を表す3×1の行列である。モデルマーカーは、マーカー画像が光学像表示部28に表示される場合の基礎となる3次元データ(3次元モデル:ただし本実施形態では平面)である。[Ro2dl, to2dl]×ModelMatrixの表記は、下記の式(2)の規則に従っている。

Figure 2017108370
上記式(2)の表記規則は、式(1)の他の部分にも適用される。 Here, CPs on the left side and the right side are camera parameters of the camera 61. [R o2dl , t o2dl ] is a transformation matrix from the coordinate system fixed to the real object (in this case, the real marker RL) to the coordinate system fixed to the left optical image display unit 28, o2dl ] is a 3 × 3 matrix representing rotation, and [t o2dl ] is a 3 × 1 matrix representing translation. ModelMatrix is a 3 × 1 matrix that represents an arbitrary point on the model marker. The model marker is three-dimensional data (a three-dimensional model: a plane in the present embodiment) that is a basis when a marker image is displayed on the optical image display unit 28. The notation of [R o2dl , t o2dl ] × ModelMatrix follows the rule of the following formula (2).
Figure 2017108370
The notation rule of said Formula (2) is applied also to the other part of Formula (1).

式(1)の右辺における[Rcam2left, tcam2left]は、カメラ61の座標系から左光学像表示部28の座標系への変換行列である。式(1)の右辺における[Robj2cam, tobj2cam]は、実オブジェクト(実物マーカーRL)の座標系からカメラ61の座標系への変換行列である。 [R cam2left , t cam2left ] on the right side of Expression (1) is a transformation matrix from the coordinate system of the camera 61 to the coordinate system of the left optical image display unit 28. [R obj2cam , t obj2cam ] on the right side of Equation (1) is a transformation matrix from the coordinate system of the real object (real marker RL) to the coordinate system of the camera 61.

上記(1)の関係から、左画像表示部28について、マーカー画像IMGと実物マーカーRLとのアライメントが成立しているとき、以下の式(3)、(4)が成り立つ。

Figure 2017108370
Figure 2017108370
From the relationship (1) above, when the alignment between the marker image IMG and the real marker RL is established for the left image display unit 28, the following equations (3) and (4) are established.
Figure 2017108370
Figure 2017108370

左眼LEのアライメントが成立すると仮定したとき、実物マーカーRLのカメラ61に対する姿勢をモデルマーカーに適用すると、カメラ61の座標系に変換されたモデルマーカー上の任意の点は次の式(5)のPcl(Xcl, Ycl, Zcl)のようになる。

Figure 2017108370
Assuming that the alignment of the left eye LE is established, if the orientation of the real marker RL relative to the camera 61 is applied to the model marker, an arbitrary point on the model marker converted into the coordinate system of the camera 61 is expressed by the following equation (5): P cl (X cl , Y cl , Z cl )
Figure 2017108370

式(3)および式(4)により、Robj2cam,tobj2camを消去すると式(5)は以下の式(6)のようになる。

Figure 2017108370
When R obj2cam and t obj2cam are eliminated by Expression (3) and Expression (4), Expression (5) becomes the following Expression (6).
Figure 2017108370

式(6)の右辺において、Ro2dlおよびto2dlは、実物マーカーRLの座標系から左光学像表示部28の座標系への回転および並進であり、本実施形態では、ユーザーが左光学像表示部28に表示されたマーカー画像IMGを実物マーカーRLに位置合わせしたときに、所定の回転および並進となるように、左光学像表示部28上の所定位置(例えば中央)に所定の配向かつ所定の大きさで、固定されて表示される。Tcam2leftは、カメラの座標系から左光学像表示部28の座標系への並進であり、HMD100の仕様から既知の値が使用できる。本実施形態では、

Figure 2017108370
Figure 2017108370
Figure 2017108370
上記式(7)、(8)および(9)におけるa(=L1), D1, D2, D3は定数である。 On the right side of Equation (6), Ro2dl and to2dl are rotation and translation from the coordinate system of the real marker RL to the coordinate system of the left optical image display unit 28. In this embodiment, the user displays the left optical image. When the marker image IMG displayed on the unit 28 is aligned with the real marker RL, a predetermined orientation and a predetermined position are set at a predetermined position (for example, the center) on the left optical image display unit 28 so that the rotation and translation are performed in a predetermined manner. The size is fixed and displayed. T cam2left is translation from the coordinate system of the camera to the coordinate system of the left optical image display unit 28, and a known value can be used from the specification of the HMD 100. In this embodiment,
Figure 2017108370
Figure 2017108370
Figure 2017108370
In the above formulas (7), (8) and (9), a (= L1), D1, D2 and D3 are constants.

式(5)で表されるモデルマーカーをカメラ61の撮像画像上に写像するとき、撮像画像上のモデルマーカーの座標は、次のようになる。

Figure 2017108370
Figure 2017108370
ここで、(Fx, Fy)はカメラ61の焦点距離であり、(Cx, Cy)はカメラ61の主点位置座標である。 When the model marker represented by Expression (5) is mapped onto the captured image of the camera 61, the coordinates of the model marker on the captured image are as follows.
Figure 2017108370
Figure 2017108370
Here, (F x , F y ) is the focal length of the camera 61, and (C x , C y ) is the principal point position coordinate of the camera 61.

カメラ61が実際に実物マーカーRLを撮像した場合の撮像画像におけるマーカーの特徴要素の座標を(ul, vl)と表記すると、(ul, vl)と(ximl, yiml)との差は以下のようになる。

Figure 2017108370
式(12)における添え字iは、マーカーにおける特徴要素を示す整数であり、1から9までの値を取る。左眼LEのアライメントについて、二乗和を導出する。
Figure 2017108370
Coordinates (u l, v l) of characteristic elements of the marker in the captured image when the camera 61 is actually imaging the real marker RL and would be written, and (u l, v l) and (x iml, y iml) The difference is as follows.
Figure 2017108370
The subscript i in the expression (12) is an integer indicating a feature element in the marker, and takes a value from 1 to 9. A sum of squares is derived for the alignment of the left eye LE.
Figure 2017108370

使用者が、右眼REで右光学像表示部26に表示されたマーカーと、実物マーカーRLと、を位置合わせした場合についても、同様に二乗和を導出する。

Figure 2017108370
Similarly, when the user aligns the marker displayed on the right optical image display unit 26 with the right eye RE and the real marker RL, the sum of squares is similarly derived.
Figure 2017108370

ERとELとの和により、コスト関数Eを定義する。

Figure 2017108370
Eを最小化(グローバルミニマム)にするパラメーターを、繰り返し計算を伴う最適化計算により求める。 The cost function E is defined by the sum of E R and E L.
Figure 2017108370
The parameter that minimizes E (global minimum) is obtained by optimization calculation with repeated calculation.

本実施形態では、カメラ61の座標系から左光学像表示部28の座標系への回転(Rcam2left)と、カメラ61の座標系から右光学像表示部26の座標系への回転(Rcam2right)と、カメラ61のカメラパラメーターと、を最適化のための変数とする。最適化にあたり、初期値として、設計値を使用してよい。なお、後述するように、Rcam2leftとRcam2rightとを設計値などに固定し、カメラパラメーターだけを最適化してもよい。 In this embodiment, rotation from the coordinate system of the camera 61 to the coordinate system of the left optical image display unit 28 (R cam2left ) and rotation from the coordinate system of the camera 61 to the coordinate system of the right optical image display unit 26 (R cam2right). ) And the camera parameters of the camera 61 are variables for optimization. In the optimization, a design value may be used as an initial value. As will be described later, R cam2left and R cam2right may be fixed to design values or the like, and only camera parameters may be optimized.

本実施形態では、Rcam2leftおよびRcam2rightを構成する6つの回転を四元数qで表し、最適化されるパラメーター(変数)pを以下のように表記する。

Figure 2017108370
つまり、本実施形態では、式(16)の12個のパラメーターpを最適化により導出する。
ここで、
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370
In the present embodiment, six rotations constituting R cam2left and R cam2right are represented by a quaternion q, and a parameter (variable) p to be optimized is represented as follows.
Figure 2017108370
That is, in the present embodiment, twelve parameters p in Expression (16) are derived by optimization.
here,
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370

以下、式(15)を最小化する処理に用いられるヤコビ行列の導出を説明する。以下では、左眼LEのアライメントが成立する場合についてのみ説明するが、右眼REのアライメントが成立する場合についても、左眼LEの場合と同様に導くことができる。   Hereinafter, the derivation of the Jacobian matrix used for the process of minimizing Expression (15) will be described. Hereinafter, only the case where the alignment of the left eye LE is established will be described, but the case where the alignment of the right eye RE is established can also be derived in the same manner as in the case of the left eye LE.

左眼LEのアライメントが成立するときについて、ヤコビ行列JLは、以下の通りになる。

Figure 2017108370
式(21)のヤコビ行列は、式(6)、(10)および(11)と、以下の式(22)から式(35)までの式によって、求めることができる。
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370
上記式(24)〜(27)において、添え字iは、i=1〜4の整数である。
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370
When the alignment of the left eye LE is established, the Jacobian matrix J L is as follows.
Figure 2017108370
The Jacobian matrix of Expression (21) can be obtained by Expressions (6), (10), and (11) and Expressions (22) to (35) below.
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370
In the above formulas (24) to (27), the subscript i is an integer of i = 1 to 4.
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370
Figure 2017108370

以上説明したように、本実施形態にHMD100では、マーカー特定部166は、右光学像表示部26または左光学像表示部28に表示されたマーカー画像IMGに実物マーカーRLが重なるように位置合わせされた後、カメラ61が外景SCを撮像する。そして、演算部167は、撮像画像上の実物マーカーRLと、撮像画像上に写像されたモデルマーカーとの間におけるマーカーMK1の9組の円の中心の座標値を用いて、少なくともカメラ61に関連するカメラパラメーターCPを含むパラメーターpを、コスト関数Eが最小となるように最適化により導出する。本実施形態のHMD100では、CPU140が、導出されたパラメーターpを用いて、カメラ61を介して対象物の位置および姿勢を検出し(検出工程)、検出された位置および姿勢に基づいて、ARオブジェクトの位置、大きさ、および向きの少なくとも一つが対象物に一致して使用者が視認するように、右光学像表示部26および左光学像表示部28のARオブジェクトの画像表示を行なう(重畳表示工程)。この結果、製造過程で発生するおそれがある撮像部の焦点距離や撮像センサーの位置のずれを低減して、外景SCに表示画像を重畳させることができる。または、使用者が視認するARオブジェクトと対象物との重畳表示の精度が高くなる。上記実施形態によれば、左右の画像表示部のそれぞれについて、ユーザーは1回の位置合わせを行えば、重畳表示の十分な精度が得られる。そして、実物マーカーRLとマーカー画像IMGとの位置合わせがより少ない回数(例えば1回)で済むので、ユーザーが複数回位置合わせをすることに伴う位置合わせの誤差の累積が、キャリブレーションに影響を与えることを防止することができる。   As described above, in the HMD 100 according to the present embodiment, the marker specifying unit 166 is aligned so that the actual marker RL overlaps the marker image IMG displayed on the right optical image display unit 26 or the left optical image display unit 28. After that, the camera 61 images the outside scene SC. Then, the calculation unit 167 uses at least the coordinate values of the centers of the nine pairs of the markers MK1 between the real marker RL on the captured image and the model marker mapped on the captured image to relate to at least the camera 61. The parameter p including the camera parameter CP to be obtained is derived by optimization so that the cost function E is minimized. In the HMD 100 of the present embodiment, the CPU 140 detects the position and orientation of the object via the camera 61 using the derived parameter p (detection step), and based on the detected position and orientation, the AR object The AR object is displayed on the right optical image display unit 26 and the left optical image display unit 28 so that the user can visually recognize at least one of the position, the size, and the direction of the object (superimposed display). Process). As a result, it is possible to reduce the focal distance of the imaging unit and the position of the imaging sensor, which may occur in the manufacturing process, and to superimpose the display image on the outside scene SC. Alternatively, the accuracy of the superimposed display of the AR object and the target that is visually recognized by the user is increased. According to the above-described embodiment, sufficient accuracy of the superimposed display can be obtained if the user performs alignment once for each of the left and right image display units. Further, since the alignment between the real marker RL and the marker image IMG can be performed a smaller number of times (for example, one time), the accumulation of alignment errors caused by the user performing the alignment a plurality of times affects the calibration. Giving can be prevented.

また、本実施形態のHMD100では、演算部167は、マーカーMK1における9個の円の中心点の座標値を用いて、パラメーターPを最適化するため、コスト関数Eをより小さくする最適化を実行でき、より精度の高いキャリブレーションを実行できる。   Further, in the HMD 100 of the present embodiment, the calculation unit 167 optimizes the parameter P using the coordinate values of the center points of the nine circles in the marker MK1, and therefore performs optimization that makes the cost function E smaller. It is possible to perform calibration with higher accuracy.

A−3.第1実施形態の変形例:
なお、この発明は上記実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
A-3. Modification of the first embodiment:
In addition, this invention is not limited to the said embodiment, It can implement in a various aspect in the range which does not deviate from the summary, For example, the following deformation | transformation is also possible.

A−3−1.変形例1:
上記実施形態では、演算部167は、12個のパラメーターpを未知のパラメーターとして最適化により導出したが、製造時の設計値からのばらつきが少ない場合には、これらの内のいくつかのパラメーターについては設計値を設定し、残りパラメーターを未知のパラメーターとして導出してもよい。例えば、導出するパラメーターpをカメラ61のカメラパラメーターCPだけにしてもよい。

Figure 2017108370
この変形例のHMD100では、最適化するパラメーターpの数が少なくなる。また、製造上、ばらつきの少ないパラメーターに対して、設計値を代入することで、コスト関数Eをより小さくするパラメーターの最適化を行ないつつ、パラメーターを最適化するための時間を短くできる。また、左右の眼のそれぞれについて、より少ない回数(例えば1回ずつ)の実物マーカーRLの撮像によって、キャリブレーションを実行できる。 A-3-1. Modification 1:
In the above embodiment, the calculation unit 167 derives the twelve parameters p by optimization as unknown parameters. However, when there is little variation from the design value at the time of manufacture, some of these parameters are determined. May set design values and derive the remaining parameters as unknown parameters. For example, the derived parameter p may be only the camera parameter CP of the camera 61.
Figure 2017108370
In the HMD 100 of this modification, the number of parameters p to be optimized is reduced. In addition, by substituting design values for parameters with little variation in manufacturing, it is possible to reduce the time for optimizing the parameters while optimizing the parameters that make the cost function E smaller. Further, calibration can be executed for each of the left and right eyes by imaging the real marker RL a smaller number of times (for example, once).

A−3−2.変形例2:
上記実施形態では、右光学像表示部26にマーカー画像IMGが表示された場合と左光学像表示部28にマーカー画像IMGが表示された場合との計2回の外景SCの撮像が行なわれたが、キャリブレーションを実行するために行なわれる撮像の回数については、種々変形可能である。例えば、右光学像表示部26のみにマーカー画像IMGが表示された状態の1回の外景SCの撮像のみで、演算部167は、パラメーターの最適化を実行してもよい。一方、2回よりも多い回数の実物マーカーRLを含む外景SCの撮像が行なわれて、演算部167は、コスト関数Eをより小さくするパラメーターの最適化を実行してもよい。また、上記実施形態とは異なり、単眼のHMDの場合には、一方の眼に対応する画像表示部または両方の眼に対応する1つの画像表示部(つまり単眼のHMD)にマーカー画像IMGが表示されて、キャリブレーションが実行されてもよい。
A-3-2. Modification 2:
In the above embodiment, the outside scene SC is imaged twice in total when the marker image IMG is displayed on the right optical image display unit 26 and when the marker image IMG is displayed on the left optical image display unit 28. However, the number of times of imaging performed to execute calibration can be variously modified. For example, the computing unit 167 may perform parameter optimization only by imaging the outside scene SC in a state where the marker image IMG is displayed only on the right optical image display unit 26. On the other hand, imaging of the outside scene SC including the actual marker RL more than twice may be performed, and the calculation unit 167 may perform optimization of a parameter that makes the cost function E smaller. Further, unlike the above embodiment, in the case of a monocular HMD, the marker image IMG is displayed on the image display unit corresponding to one eye or one image display unit corresponding to both eyes (that is, the monocular HMD). Then, calibration may be executed.

上記実施形態では、右光学像表示部26に表示されるマーカーと左光学像表示部28に表示されるマーカーとは、同じマーカー画像IMGであったが、マーカー画像IMGおよび実物マーカーRLについては、種々変形可能である。例えば、右光学像表示部26と左光学像表示部28とのそれぞれに表示されるマーカーの画像は、異なるマーカーの画像であってもよい。また、マーカー画像IMGおよび実物マーカーRLは、マーカーMK1の画像に限られず、導出されるパラメーターの精度に応じて、種々変形可能である。例えば、マーカーMK1に含まれる円の数は、9個に限られず、9個よりも多くてよいし、9個よりも少なくてもよい。また、マーカーMK1に含まれる複数の特徴点は、円の中心でなくてもよく、単に三角形の重心であってもよい。また、マーカーMK1の内部に並行でない複数の直線が形成されて、直線の交点が複数の特徴点として特定されてもよい。また、マーカー画像IMGと実物マーカーRLとは、異なるマーカーであってもよい。マーカー画像と実物マーカーとを重ねる場合に、どの部分を重ね合わせるのかが使用者に認識される範囲で、マーカー画像と実物マーカーとについては、種々変形可能である。例えば、矩形状のマーカー画像に対して、正円の実物マーカーの中心をマーカー画像の中心に合わせるような位置合わせであってもよい。   In the above embodiment, the marker displayed on the right optical image display unit 26 and the marker displayed on the left optical image display unit 28 are the same marker image IMG. However, for the marker image IMG and the real marker RL, Various modifications are possible. For example, the marker images displayed on the right optical image display unit 26 and the left optical image display unit 28 may be images of different markers. Further, the marker image IMG and the real marker RL are not limited to the image of the marker MK1, and can be variously modified according to the accuracy of the derived parameters. For example, the number of circles included in the marker MK1 is not limited to nine, and may be more or less than nine. Further, the plurality of feature points included in the marker MK1 may not be the center of the circle, but may simply be the center of gravity of the triangle. Also, a plurality of non-parallel lines may be formed inside the marker MK1, and intersections of the lines may be specified as a plurality of feature points. Further, the marker image IMG and the real marker RL may be different markers. When the marker image and the real marker are overlapped, the marker image and the real marker can be variously modified as long as the user can recognize which portion is to be overlapped. For example, the alignment may be such that the center of a real circle marker is aligned with the center of the marker image with respect to the rectangular marker image.

B.第2実施形態:
B−1.画像表示装置の構成:
図7ないし図9は、キャリブレーションを行なう頭部装着型表示装置100B(HMD100B)の外観構成を示す説明図である。HMD100Bは、画像表示部20Bが表示する表示画像を使用者に視認させ、画像表示部20B(図7)を透過する外景も使用者に視認させることができる。詳細な構成については後述するが、本実施形態のHMD100Bは、画像表示部20Bを装着した使用者の右眼と左眼とのそれぞれに対応する画像表示部を有しており、使用者の右眼と左眼とに別々の画像を視認させることができる。
B. Second embodiment:
B-1. Configuration of image display device:
7 to 9 are explanatory diagrams showing an external configuration of a head-mounted display device 100B (HMD 100B) that performs calibration. The HMD 100B allows the user to visually recognize the display image displayed by the image display unit 20B, and allows the user to visually recognize an outside scene that passes through the image display unit 20B (FIG. 7). Although a detailed configuration will be described later, the HMD 100B according to the present embodiment includes image display units corresponding to the right eye and the left eye of the user wearing the image display unit 20B, and the right side of the user Separate images can be seen by the eyes and the left eye.

図8に示すように、HMD100Bは、使用者USの頭部装着型表示装置に装着される装着帯90Bと、装着帯90Bに接続されている画像表示部20Bと、画像表示部20を制御する制御部10B(コントローラー10B)と、制御部10Bと装着帯90Bとを接続する接続部40Bと、を備えている。図7に示すように、装着帯90Bは、樹脂製の装着基部91Bと、装着基部91Bに連結される布製のベルト部92Bと、カメラ60Bと、を備える。装着基部91Bは、人の前頭部の形に合った湾曲した形状を有する。ベルト部92Bは、使用者の頭部の周りに装着されるためのベルトである。なお、図8では、接続部40Bは、装着帯90Bと制御部10B側とを有線で接続しているが、接続している部分については、図示を省略している。   As shown in FIG. 8, the HMD 100B controls the wearing band 90B worn on the head-mounted display device of the user US, the image display unit 20B connected to the wearing band 90B, and the image display unit 20. The control part 10B (controller 10B) and the connection part 40B which connects the control part 10B and the mounting | wearing belt | band | zone 90B are provided. As shown in FIG. 7, the mounting band 90B includes a resin mounting base 91B, a cloth belt 92B coupled to the mounting base 91B, and a camera 60B. The mounting base 91B has a curved shape that matches the shape of the person's frontal head. The belt portion 92B is a belt to be worn around the user's head. In FIG. 8, the connecting portion 40B connects the wearing band 90B and the control portion 10B side by wire, but the illustration of the connected portions is omitted.

カメラ60Bは、外景を撮像可能で、装着基部91Bの中心部分に配置されている。換言すると、カメラ60Bは、装着帯90Bが使用者の頭部に装着された状態で、使用者の額の中央に対応する位置に配置されている。そのため、カメラ60Bは、使用者が装着帯90Bを頭部に装着した状態において、使用者の視線方向の外部の景色である外景を撮像し、撮像された画像である撮像画像を取得する。図8に示すように、カメラ60Bは、装着基部91Bに対して、円弧RCに沿って所定の範囲で可動する。換言すると、カメラ60Bは、撮像範囲を所定の範囲で変更できる。   The camera 60B can capture an outside scene and is disposed at the center of the mounting base 91B. In other words, the camera 60B is arranged at a position corresponding to the center of the user's forehead with the wearing band 90B attached to the user's head. Therefore, the camera 60B captures an outside scene that is an external scenery in the user's line-of-sight direction in a state where the user wears the wearing band 90B on the head, and acquires a captured image that is the captured image. As shown in FIG. 8, the camera 60B is movable within a predetermined range along the arc RC with respect to the mounting base 91B. In other words, the camera 60B can change the imaging range within a predetermined range.

図8に示すように、画像表示部20Bは、連結部93Bを介して装着基部91Bに接続され、眼鏡形状を有している。連結部93Bは、装着基部91Bおよび画像表示部20Bの両側に対象的に配置され、連結部93Bを中心として、装着基部91Bに対する画像表示部20Bの位置を円弧RAに沿って回動可能に支持する。図8において二点鎖線で示す位置P11Bは、画像表示部20Bが円弧RAに沿った最も下端である。また、図8において実線で示す位置P12Bは、画像表示部20Bが円弧RAに沿った最も上端である。   As shown in FIG. 8, the image display unit 20B is connected to the mounting base 91B via a connecting portion 93B and has a glasses shape. The connecting portion 93B is disposed on both sides of the mounting base portion 91B and the image display portion 20B, and supports the position of the image display portion 20B with respect to the mounting base portion 91B so as to be rotatable along the arc RA around the connecting portion 93B. To do. In FIG. 8, a position P11B indicated by a two-dot chain line is the lowest end of the image display unit 20B along the arc RA. Further, a position P12B indicated by a solid line in FIG. 8 is the uppermost end of the image display unit 20B along the arc RA.

また、図9に示すように、マーカー画像IMGを表示する表示パネルを有する光学像表示部26B,28Bは、保持部21B,23Bに対して、直線TAに沿って所定の範囲で平行移動して位置を変更する。図9において二点鎖線で示す位置P13Bは、光学像表示部26B,28Bが直線TAに沿った最も下端である。図9において実線で示す位置P11Bは、光学像表示部26B,28Bが直線TAに沿った最も上端である。なお、図8における位置P11Bと、図9における位置P11Bとは、同じ位置を示している。   Further, as shown in FIG. 9, the optical image display units 26B and 28B having a display panel for displaying the marker image IMG are translated in a predetermined range along the straight line TA with respect to the holding units 21B and 23B. Change the position. In FIG. 9, a position P13B indicated by a two-dot chain line is the lowest end of the optical image display units 26B and 28B along the straight line TA. In FIG. 9, a position P11B indicated by a solid line is the uppermost end of the optical image display units 26B and 28B along the straight line TA. Note that the position P11B in FIG. 8 and the position P11B in FIG. 9 indicate the same position.

図7に示すように、画像表示部20Bは、右保持部21Bと、右表示駆動部22Bと、左保持部23Bと、左表示駆動部24Bと、右光学像表示部26Bと、左光学像表示部28Bと、を含んでいる。右光学像表示部26Bおよび左光学像表示部28Bは、それぞれ、使用者が画像表示部20Bを装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26Bの一端と左光学像表示部28Bの一端とは、使用者が画像表示部20Bを装着した際の使用者の眉間に対応する位置で、互いに接続されている。   As shown in FIG. 7, the image display unit 20B includes a right holding unit 21B, a right display driving unit 22B, a left holding unit 23B, a left display driving unit 24B, a right optical image display unit 26B, and a left optical image. Display unit 28B. The right optical image display unit 26B and the left optical image display unit 28B are arranged so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20B, respectively. One end of the right optical image display unit 26B and one end of the left optical image display unit 28B are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20B.

右保持部21Bは、右光学像表示部26Bの他端から装着基部91Bと接続されている連結部93Bに延伸して設けられた部材である。同様に、左保持部23Bは、左光学像表示部28の他端から連結部93Bに延伸して設けられた部材である。右表示駆動部22と左表示駆動部24Bとは、使用者が画像表示部20Bを装着した際の使用者の頭部に対向する側に配置されている。   The right holding part 21B is a member provided to extend from the other end of the right optical image display part 26B to a connecting part 93B connected to the mounting base 91B. Similarly, the left holding portion 23B is a member that extends from the other end of the left optical image display portion 28 to the connecting portion 93B. The right display drive unit 22 and the left display drive unit 24B are arranged on the side facing the user's head when the user wears the image display unit 20B.

表示駆動部22B,24Bは、図8で後述する液晶ディスプレイ241B,242B(Liquid Crystal Display、以下「LCD241B,242B」とも呼ぶ)や投写光学系251B,252B等を含む。表示駆動部22B,24Bの構成の詳細な説明は後述する。光学像表示部26B,28Bは、後述する導光板261B,262B(図10参照)と調光板とを含んでいる。導光板261B,262Bは、光透過性の樹脂材料等によって形成され、表示駆動部22B,24Bから出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20Bの表側を覆うように配置されている。調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整できる。   The display drive units 22B and 24B include liquid crystal displays 241B and 242B (hereinafter also referred to as “LCD 241B and 242B”), projection optical systems 251B and 252B, and the like, which will be described later with reference to FIG. A detailed description of the configuration of the display drive units 22B and 24B will be described later. The optical image display units 26B and 28B include light guide plates 261B and 262B (see FIG. 10), which will be described later, and a light control plate. The light guide plates 261B and 262B are formed of a light transmissive resin material or the like, and guide the image light output from the display driving units 22B and 24B to the eyes of the user. The light control plate is a thin plate-like optical element, and is disposed so as to cover the front side of the image display unit 20B, which is the side opposite to the user's eye side. By adjusting the light transmittance of the light control plate, the amount of external light entering the user's eyes can be adjusted to adjust the visibility of the virtual image.

制御部10Bは、HMD100Bを制御するための装置である。制御部10Bは、静電式のトラックパッドや押下可能な複数のボタンなどを含む操作部135Bを有する。   The control unit 10B is a device for controlling the HMD 100B. The control unit 10B includes an operation unit 135B including an electrostatic trackpad and a plurality of buttons that can be pressed.

図10は、HMD100Bの構成を機能的に示すブロック図である。図10に示すように、制御部10Bは、ROM121Bと、RAM122Bと、電源130Bと、操作部135Bと、マーカー画像記憶部138Bと、CPU140Bと、インターフェイス180Bと、送信部51B(Tx51B)および送信部52B(Tx52B)と、を有している。   FIG. 10 is a block diagram functionally showing the configuration of the HMD 100B. As shown in FIG. 10, the control unit 10B includes a ROM 121B, a RAM 122B, a power supply 130B, an operation unit 135B, a marker image storage unit 138B, a CPU 140B, an interface 180B, a transmission unit 51B (Tx51B), and a transmission unit. 52B (Tx52B).

電源130Bは、HMD100Bの各部に電力を供給する。ROM121Bには、種々のコンピュータープログラムが格納されている。後述するCPU140Bは、ROM121Bに格納された各種コンピュータープログラムを、RAM122Bに展開することで、各種コンピュータープログラムを実行する。   The power supply 130B supplies power to each part of the HMD 100B. Various computer programs are stored in the ROM 121B. The CPU 140B described later executes various computer programs by developing various computer programs stored in the ROM 121B in the RAM 122B.

マーカー画像記憶部138Bは、モデルマーカーのデータおよび/または右光学像表示部26Bまたは左光学像表示部28Bに表示されるキャリブレーション用画像としてのマーカーMK1のマーカー画像IMGを記憶している。マーカー画像記憶部138Bは、右光学像表示部26に表示されるマーカー画像と左光学像表示部28Bに表示されるマーカー画像とを同じマーカーの画像IMGとして記憶している。マーカー画像IMGは、3次元モデル空間(3Dコンピューターグラフィックス空間)で表現された上記モデルマーカー(2D)を、右光学像表示部26Bまたは左光学像表示部28Bのそれぞれの写像パラメーターに基づいて写像したものである。   The marker image storage unit 138B stores model marker data and / or a marker image IMG of the marker MK1 as a calibration image displayed on the right optical image display unit 26B or the left optical image display unit 28B. The marker image storage unit 138B stores the marker image displayed on the right optical image display unit 26 and the marker image displayed on the left optical image display unit 28B as the same marker image IMG. The marker image IMG maps the model marker (2D) expressed in a three-dimensional model space (3D computer graphics space) based on the mapping parameters of the right optical image display unit 26B or the left optical image display unit 28B. It is a thing.

図11は、画像表示部20Bに表示されるマーカー画像IMGの一例を示す説明図である。図11に示すように、マーカー画像IMGは、4つの頂点P0,P1,P2,P3を直線で結んだ正方形の中に、9個の正円を含んでいる。9個の円の内の5個の円は、頂点P0と頂点P2とを結んだ対角線CL1上に円の中心が存在する。当該5個の円は、対角線CL1に沿って、頂点P0に近い円から、円C1,C2,C3,C4,C5である。同じように、9個の円の内の5個の円は、頂点P1と頂点P3とを結んだ対角線CL2上に円の中心が存在する。当該5個の円は、対角線CL2に沿って、頂点P1に近い円から、円C6,C7,C3,C8,C9である。円C3は、対角線CL1と対角線CL2との交点であると共に、正方形の重心である点を中心とする円である。本実施形態では、対角線CL1上に中心を有する5個の円における隣接する円の中心間の距離は、同じ距離になるように設定されている。同じように、対角線CL2上に中心を有する5個の円における隣接する円の中心間の距離は、同じ距離になるように設定されている。また、対角線CL1に中心を有する隣接する円の中心間の距離と、対角線CL2に中心を有する隣接する円の中心間の距離とは、同じ距離である。9個の円の大きさは、同じ大きさである。なお、対角線CL1および対角線CL2は、便宜上、図11に示しているのであり、マーカー画像IMGには含まれない直線である。   FIG. 11 is an explanatory diagram illustrating an example of the marker image IMG displayed on the image display unit 20B. As shown in FIG. 11, the marker image IMG includes nine perfect circles in a square connecting four vertices P0, P1, P2, and P3 with straight lines. Five of the nine circles have the center of the circle on the diagonal line CL1 connecting the vertex P0 and the vertex P2. The five circles are circles C1, C2, C3, C4, and C5 from the circle close to the vertex P0 along the diagonal line CL1. Similarly, five of the nine circles have the center of the circle on the diagonal line CL2 connecting the vertex P1 and the vertex P3. The five circles are circles C6, C7, C3, C8, and C9 from the circle close to the vertex P1 along the diagonal line CL2. The circle C3 is a circle centered on a point that is the intersection of the diagonal line CL1 and the diagonal line CL2 and the center of gravity of the square. In the present embodiment, the distance between the centers of adjacent circles in the five circles having the center on the diagonal line CL1 is set to be the same distance. Similarly, the distance between the centers of adjacent circles in the five circles having the center on the diagonal line CL2 is set to be the same distance. The distance between the centers of adjacent circles having the center on the diagonal line CL1 and the distance between the centers of adjacent circles having the center on the diagonal line CL2 are the same distance. The nine circles have the same size. Note that the diagonal line CL1 and the diagonal line CL2 are shown in FIG. 11 for convenience, and are straight lines not included in the marker image IMG.

図11では、色の違いを、ハッチングを変えることで表している。そのため、図11に示すように、マーカー画像IMGには、円C3の内部の黄色と、円C5の内部の緑色と、円C3,C5と異なる7個の円C1,C2,C4,C6,C7,C8,C9の内部の白色と、正方形の中に含まれ、9個の円を含まない部分の黒色と、の4色が存在する。また、図11では、円C3の中心C3Pを原点とするX軸とY軸とが示されている。後述するキャリブレーション実行処理では、中心C3Pを原点として、各種の座標値が特定される。マーカー画像IMGに含まれる9個の円の内、円C3と円C5との色がその他の7個の円と異なるのは、中心円としての円C3と、撮像された実物のマーカーMK1の方向を特定するための円C5と、を区別するためである。   In FIG. 11, the difference in color is represented by changing the hatching. Therefore, as shown in FIG. 11, the marker image IMG includes a yellow color inside the circle C3, a green color inside the circle C5, and seven circles C1, C2, C4, C6, C7 different from the circles C3, C5. , C8, C9, and the four colors of white, which are included in the square and do not include the nine circles, are black. FIG. 11 also shows the X axis and the Y axis with the center C3P of the circle C3 as the origin. In the calibration execution process described later, various coordinate values are specified with the center C3P as the origin. Among the nine circles included in the marker image IMG, the colors of the circle C3 and the circle C5 are different from the other seven circles in that the circle C3 as the center circle and the direction of the captured actual marker MK1 This is for distinguishing from the circle C5 for identifying.

図10に示すCPU140Bは、ROM121Bに格納されているコンピュータープログラムを、RAM122Bに展開することにより、オペレーティングシステム150B(OS150B)、表示制御部190B、音声処理部170B、画像処理部160B、表示設定部165B、マーカー特定部166Bおよび演算部167Bとして機能する。   The CPU 140B shown in FIG. 10 expands the computer program stored in the ROM 121B to the RAM 122B, thereby operating the operating system 150B (OS 150B), the display control unit 190B, the sound processing unit 170B, the image processing unit 160B, and the display setting unit 165B. , Function as a marker specifying unit 166B and a calculation unit 167B.

表示制御部190Bは、右表示駆動部22Bおよび左表示駆動部24Bを制御する制御信号を生成する。表示制御部190Bは、右表示駆動部22Bおよび左表示駆動部24Bのそれぞれによる画像光の生成および射出を制御する。表示制御部190Bは、右LCD制御部211Bと左LCD制御部212Bとに対する制御信号のそれぞれを、送信部51Bおよび52Bを介して送信する。また、表示制御部190Bは、右バックライト制御部201Bと左バックライト制御部202Bとに対する制御信号のそれぞれを送信する。   The display control unit 190B generates control signals for controlling the right display drive unit 22B and the left display drive unit 24B. The display control unit 190B controls the generation and emission of image light by the right display drive unit 22B and the left display drive unit 24B, respectively. Display control unit 190B transmits control signals for right LCD control unit 211B and left LCD control unit 212B via transmission units 51B and 52B, respectively. The display control unit 190B transmits control signals to the right backlight control unit 201B and the left backlight control unit 202B.

画像処理部160Bは、コンテンツに含まれる画像信号を取得し、送信部51B,52Bを介して、取得した画像信号を画像表示部20の受信部53B,54Bへと送信する。音声処理部170Bは、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46Bに接続された右イヤホン32B内のスピーカー(図示しない)および左イヤホン34B内のスピーカー(図示しない)に対して供給する。   The image processing unit 160B acquires an image signal included in the content, and transmits the acquired image signal to the reception units 53B and 54B of the image display unit 20 via the transmission units 51B and 52B. The audio processing unit 170B acquires an audio signal included in the content, amplifies the acquired audio signal, and a speaker (not shown) in the right earphone 32B and a speaker (not shown) in the left earphone 34B connected to the connecting member 46B. (Not shown).

表示設定部165Bは、マーカー画像記憶部138に記憶されたマーカーMK1の画像を右光学像表示部26Bまたは左光学像表示部28Bに表示させる。表示設定部165Bは、キャリブレーション実行時に、操作部135Bが受け付けた操作に基づいて、マーカー画像IMGを右光学像表示部26Bに表示する場合と、マーカー画像IMGを左光学像表示部28Bに表示する場合とを制御する。   The display setting unit 165B displays the image of the marker MK1 stored in the marker image storage unit 138 on the right optical image display unit 26B or the left optical image display unit 28B. The display setting unit 165B displays the marker image IMG on the right optical image display unit 26B and displays the marker image IMG on the left optical image display unit 28B based on the operation received by the operation unit 135B during calibration. Control when to do.

マーカー特定部166Bは、カメラ60Bによって撮像された撮像画像の中から、例えば、制御部10Bの裏面(操作部135Bの反対側の面)や所定の壁などに配置されたマーカーMK1の実物マーカーRLを特定する。実物マーカーRLを特定するための具体的な処理については、後述するが、マーカー特定部166Bは、実物マーカーRLの4つの頂点、9個の円の中心の座標値、9個の円の色などを抽出することで、撮像画像の中から実物マーカーRLを特定する。マーカー特定部166Bは、例えば、撮像画像の色の階調値を2値化することで、マーカーMK1における色の異なる9個の円などを抽出する。   The marker specifying unit 166B, for example, an actual marker RL of the marker MK1 arranged on the back surface (the surface opposite to the operation unit 135B) or a predetermined wall of the control unit 10B from the captured image captured by the camera 60B. Is identified. Specific processing for specifying the real marker RL will be described later, but the marker specifying unit 166B has four vertices of the real marker RL, nine circle center coordinate values, nine circle colors, and the like. Is extracted to identify the real marker RL from the captured image. The marker specifying unit 166B extracts, for example, nine circles with different colors in the marker MK1 by binarizing the color gradation value of the captured image.

演算部167Bは、本実施形態ではホモグラフィーを用いて、カメラ60Bと実物マーカーRLとの間の空間的関係(回転および並進の少なくとも一つ)を表す第1パラメーターPM1を算出する。また、演算部167Bは、カメラ60Bと光学像表示部26B,28Bとの間の空間的関係を表す空間パラメーターPMを算出する。なお、カメラ60Bを基準とするカメラ座標系とは、カメラ60Bに原点が固定された3次元座標系である。そのため、カメラ座標系は、カメラ60Bの向きの変化に応じて変化する。実物マーカー座標系、オブジェクト座標系、および表示座標系についても、カメラ座標系と同じ概念によって定義されている。   In the present embodiment, the calculation unit 167B calculates a first parameter PM1 representing a spatial relationship (at least one of rotation and translation) between the camera 60B and the real marker RL using homography. In addition, the calculation unit 167B calculates a spatial parameter PM representing a spatial relationship between the camera 60B and the optical image display units 26B and 28B. The camera coordinate system based on the camera 60B is a three-dimensional coordinate system in which the origin is fixed to the camera 60B. Therefore, the camera coordinate system changes according to a change in the orientation of the camera 60B. The real marker coordinate system, the object coordinate system, and the display coordinate system are also defined by the same concept as the camera coordinate system.

また、演算部167Bは、カメラ60Bに関するパラメーター(カメラパラメーターとも呼ぶ)を最適化する。カメラ60Bに関するパラメーターの最適化は、予め既知ではない(未知である)カメラ60Bの焦点距離に関連するパラメーターおよび主点位置(例えば撮像画像の中心座標)などを含むパラメーターを、得られた座標値を用いて、最適化できるように計算する。最適化により導出されたカメラパラメーターを用いて対象物が撮像されて撮像画像が取得されると、撮像画像における対象物の位置と、ユーザーから見たときの対象物に重なる画像表示部上の表示位置とが対応付けられることとなる。この結果、使用者は、画像表示部20Bを介してAR(Augmented Reality)画像が、当該対象物に対して位置、大きさ、姿勢の少なくとも一つが一致するように視認することができる。なお、カメラ60Bのパラメーターの最適化の詳細については、後述する。また、本実施形態では、空間パラメーターPMも、カメラ60BのカメラパラメーターCPと同様の最適化が行なわれることで、算出される。   In addition, the calculation unit 167B optimizes parameters related to the camera 60B (also referred to as camera parameters). The optimization of the parameters relating to the camera 60B is based on the obtained coordinate values including parameters relating to the focal length of the camera 60B that are not known in advance (unknown) and parameters including principal point positions (for example, the center coordinates of the captured image). To be optimized. When an object is imaged using camera parameters derived by optimization and the captured image is acquired, the position of the object in the captured image and the display on the image display unit that overlaps the object when viewed from the user The position is associated. As a result, the user can visually recognize the AR (Augmented Reality) image via the image display unit 20B so that at least one of the position, size, and posture of the target object matches. Details of optimization of the parameters of the camera 60B will be described later. In the present embodiment, the spatial parameter PM is also calculated by performing optimization similar to the camera parameter CP of the camera 60B.

インターフェイス180Bは、制御部10Bに対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器OAとしては、例えば、ARシナリオを記憶している記憶装置、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフェイス180Bとしては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等、を用いることができる。   The interface 180B is an interface for connecting various external devices OA that are content supply sources to the control unit 10B. Examples of the external device OA include a storage device that stores an AR scenario, a personal computer (PC), a mobile phone terminal, and a game terminal. As the interface 180B, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.

図10に示すように、画像表示部20Bは、右表示駆動部22Bと、左表示駆動部24Bと、右光学像表示部26Bとしての右導光板261Bと、左光学像表示部28Bとしての左導光板262Bと、を備えている。   As shown in FIG. 10, the image display unit 20B includes a right display drive unit 22B, a left display drive unit 24B, a right light guide plate 261B as a right optical image display unit 26B, and a left as a left optical image display unit 28B. A light guide plate 262B.

右表示駆動部22Bは、受信部53B(Rx53B)と、光源として機能する右バックライト制御部201B(右BL制御部201B)および右バックライト221B(右BL221B)と、表示素子として機能する右LCD制御部211Bおよび右LCD241Bと、右投写光学系251Bと、を含んでいる。右バックライト制御部201Bと右バックライト221Bとは、光源として機能する。右LCD制御部211Bと右LCD241Bとは、表示素子として機能する。   The right display driving unit 22B includes a receiving unit 53B (Rx53B), a right backlight control unit 201B (right BL control unit 201B) and a right backlight 221B (right BL221B) that function as a light source, and a right LCD that functions as a display element. A control unit 211B, a right LCD 241B, and a right projection optical system 251B are included. The right backlight control unit 201B and the right backlight 221B function as a light source. The right LCD control unit 211B and the right LCD 241B function as display elements.

受信部53Bは、制御部10Bと画像表示部20Bとの間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201Bは、入力された制御信号に基づいて、右バックライト221Bを駆動する。右バックライト221Bは、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211Bは、画像処理部160Bおよび表示制御部190Bから送信された制御信号に基づいて、右LCD241Bを駆動する。右LCD241Bは、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The receiving unit 53B functions as a receiver for serial transmission between the control unit 10B and the image display unit 20B. The right backlight control unit 201B drives the right backlight 221B based on the input control signal. The right backlight 221B is, for example, a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211B drives the right LCD 241B based on the control signals transmitted from the image processing unit 160B and the display control unit 190B. The right LCD 241B is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251Bは、右LCD241Bから射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26Bとしての右導光板261Bは、右投写光学系251Bから出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、左表示駆動部24Bは、右表示駆動部22Bと同様の構成を有し、使用者の左眼LEに対応するため、説明を省略する。   The right projection optical system 251B is configured by a collimator lens that converts the image light emitted from the right LCD 241B into a light beam in a parallel state. The right light guide plate 261B as the right optical image display unit 26B guides the image light output from the right projection optical system 251B to the right eye RE of the user while reflecting the image light along a predetermined optical path. Note that the left display driving unit 24B has the same configuration as the right display driving unit 22B and corresponds to the left eye LE of the user, and thus description thereof is omitted.

B−2.キャリブレーション実行処理:
図12は、第2実施形態におけるキャリブレーション実行処理のフローチャートである。キャリブレーション実行処理は、以下のような処理である:まず、使用者が、右光学像表示部26Bまたは左光学像表示部28Bに表示されたマーカー画像IMGと、外景から特定された実物マーカーRLと、が重複するように視認する状態で、CPU140Bが、カメラ60Bを用いて実物マーカーRLを撮像する。そして、CPU140Bは、実物マーカーRLを撮像して得られた撮像画像に少なくとも基づいて、空間パラメーターPMの算出、およびカメラ60のBパラメーターを導出する。このように、この処理は、カメラ60Bと光学像表示部との間の相対位置関係を検出する処理としての側面も有する。
B-2. Calibration execution process:
FIG. 12 is a flowchart of calibration execution processing in the second embodiment. The calibration execution process is as follows: First, the user performs the marker image IMG displayed on the right optical image display unit 26B or the left optical image display unit 28B and the real marker RL specified from the outside scene. , The CPU 140B images the real marker RL using the camera 60B. Then, the CPU 140B calculates the spatial parameter PM and derives the B parameter of the camera 60 based at least on the captured image obtained by imaging the real marker RL. Thus, this process also has a side surface as a process for detecting the relative positional relationship between the camera 60B and the optical image display unit.

キャリブレーション実行処理では、初めに、表示設定部165Bは、マーカー画像IMGを、使用者の右眼に対応する右画像表示部としての右光学像表示部26Bのみに表示させる(ステップSB11)。この場合、使用者が、実物マーカーRLとマーカー画像IMGとが互いに一致して視認するように、使用者が実物マーカーRLに対してその頭部の距離と姿勢を調整する場合に、実物マーカーRLと光学像表示部26Bとの間の空間的関係が既知の所定の空間的関係(回転および並進)となるように、右光学像表示部26Bは、画像表示領域における所定位置に所定の大きさでマーカー画像IMGを表示する。   In the calibration execution process, first, the display setting unit 165B displays the marker image IMG only on the right optical image display unit 26B as the right image display unit corresponding to the right eye of the user (step SB11). In this case, when the user adjusts the distance and the posture of the head with respect to the real marker RL so that the real marker RL and the marker image IMG can be visually recognized with each other, the real marker RL The right optical image display unit 26B has a predetermined size at a predetermined position in the image display area so that the spatial relationship between the optical image display unit 26B and the optical image display unit 26B is a known predetermined spatial relationship (rotation and translation). To display the marker image IMG.

図13は、右光学像表示部26Bのみにマーカー画像IMGが表示された状態の概略図である。図13には、使用者が、予め画像表示部20Bを装着した使用者の仮想の右眼の位置として設定された右眼位置RPから、右光学像表示部26Bに表示されたマーカー画像IMGを視認した場合の概略が示されている。なお、図13には、HMD100Bの内の画像表示部20Bのみを図示し、装着帯90Bや制御部10Bなどについては図示を省略している。そのため、図13に示す画像表示部20Bは、図7ないし図10に示す画像表示部20Bと同じ画像表示部である。また、図13には、撮像される三次元空間の座標軸を表す座標軸CD2と、撮像された二次元画像の座標軸を表す座標軸CD1と、が示されている。使用者は、右光学像表示部26Bに表示されたマーカー画像IMGを、画像表示部20Bから距離L1離れた位置に存在するマーカーMK1として視認する。   FIG. 13 is a schematic diagram showing a state in which the marker image IMG is displayed only on the right optical image display unit 26B. In FIG. 13, the marker image IMG displayed on the right optical image display unit 26B is displayed on the right optical image display unit 26B from the right eye position RP set as the virtual right eye position of the user wearing the image display unit 20B in advance. An outline when visually recognized is shown. In FIG. 13, only the image display unit 20B in the HMD 100B is illustrated, and the illustration of the wearing band 90B, the control unit 10B, and the like is omitted. Therefore, the image display unit 20B shown in FIG. 13 is the same image display unit as the image display unit 20B shown in FIGS. FIG. 13 also shows a coordinate axis CD2 that represents the coordinate axes of the captured three-dimensional space, and a coordinate axis CD1 that represents the coordinate axes of the captured two-dimensional image. The user visually recognizes the marker image IMG displayed on the right optical image display unit 26B as the marker MK1 that exists at a distance L1 from the image display unit 20B.

図12のステップSB11の処理が行なわれると、マーカー特定部166Bは、使用者に対して、右光学像表示部26Bに表示されたマーカー画像IMGと、外景に存在する実物マーカーRLとが重なるように位置合わせを促す(ステップSB13)。   When the process of step SB11 in FIG. 12 is performed, the marker specifying unit 166B causes the marker image IMG displayed on the right optical image display unit 26B and the real marker RL present in the outside scene to overlap with the user. Is prompted for alignment (step SB13).

図14は、実物マーカーRLとマーカー画像IMGとの位置関係を表す概略図である。図14には、外景SCに含まれる実物マーカーRLと、右光学像表示部26Bに表示されたマーカー画像IMGおよび文字画像TX1と、が示されている。文字画像TX1は、使用者にマーカー画像IMGと実物マーカーRLとの位置合わせを行なった後に、撮像を促すことを文字で表す画像である。具体的には、文字画像TX1は、「重複させてから撮像ボタンを押してください」を表す文字の画像である。図14に示すように、マーカー画像IMGの中心と実物マーカーRLの中心とは、一致していない。また、図14に示す例では、実物マーカーRLは、マーカー画像IMGに対して、角度θ1傾いている。この場合に、画像表示部20Bを装着した使用者は、自身の位置や向きを変えることで、実物マーカーRLにマーカー画像IMGを重ねることができる。   FIG. 14 is a schematic diagram showing the positional relationship between the real marker RL and the marker image IMG. FIG. 14 shows a real marker RL included in the outside scene SC, and a marker image IMG and a character image TX1 displayed on the right optical image display unit 26B. The character image TX1 is an image representing characters that prompt the user to take an image after positioning the marker image IMG and the real marker RL. Specifically, the character image TX1 is a character image representing “please press the imaging button after overlapping”. As shown in FIG. 14, the center of the marker image IMG and the center of the real marker RL do not match. Further, in the example illustrated in FIG. 14, the real marker RL is inclined by the angle θ1 with respect to the marker image IMG. In this case, the user wearing the image display unit 20B can superimpose the marker image IMG on the real marker RL by changing his / her position and orientation.

マーカー特定部166Bは、図12のステップSB13の処理を行なうと、マーカー画像IMGと実物マーカーRLと位置合わせが完了しているか否かを判定する(ステップSB15)。マーカー特定部166Bは、図14の文字画像TX1に示すように、使用者によって撮像ボタンが押下される操作の有無によって、位置合わせの完了の判定を行なう。撮像ボタンとしては、予め設定された操作部135Bのいずれかのボタンでよく、種々変形可能である。   When the processing of step SB13 in FIG. 12 is performed, the marker specifying unit 166B determines whether or not the alignment between the marker image IMG and the real marker RL is completed (step SB15). As shown in the character image TX1 of FIG. 14, the marker specifying unit 166B determines whether or not the alignment is complete depending on whether or not the user presses the imaging button. The imaging button may be any button of the operation unit 135B set in advance, and can be variously modified.

撮像ボタンの押下の操作がなく、マーカー特定部166Bは、位置合わせが完了していないと判定した場合には(ステップSB15:NO)、引き続き、位置合わせが完了したことを表す撮像ボタンの押下の操作を待機する。撮像ボタンの押下の操作があると、マーカー特定部166Bは、位置合わせが完了していると判定し(ステップSB15:YES)、カメラ60Bによって外景SCを撮像する(ステップSB17)。   When the imaging button is not pressed and the marker specifying unit 166B determines that the alignment is not completed (step SB15: NO), the imaging button is continuously pressed indicating that the alignment is completed. Wait for operation. When there is an operation of pressing the image pickup button, the marker specifying unit 166B determines that the alignment is completed (step SB15: YES), and images the outside scene SC by the camera 60B (step SB17).

次に、表示設定部165Bは、右光学像表示部26Bのみに表示させたマーカー画像IMGを非表示にして、左光学像表示部28Bのみにマーカー画像IMGを表示させる(ステップSB21)。左光学像表示部28Bがマーカー画像IMGを表示する方法は、ステップSB11において右光学像表示部26Bがマーカー画像IMGを表示する方法と同じである。その後、ステップSB13からステップSB17までの使用者の右眼REに対応する処理と同じように、マーカー特定部166Bは、使用者の左眼LEに対して、マーカー画像IMGと実物マーカーRLとが重なるように位置合わせを促す(ステップSB23)。   Next, the display setting unit 165B hides the marker image IMG displayed only on the right optical image display unit 26B and displays the marker image IMG only on the left optical image display unit 28B (step SB21). The method in which the left optical image display unit 28B displays the marker image IMG is the same as the method in which the right optical image display unit 26B displays the marker image IMG in step SB11. Thereafter, in the same manner as the processing corresponding to the user's right eye RE from Step SB13 to Step SB17, the marker specifying unit 166B causes the marker image IMG and the real marker RL to overlap with the user's left eye LE. In this way, alignment is urged (step SB23).

マーカー特定部166Bは、左眼について、使用者に位置合わせを促すと、マーカー画像IMGと実物マーカーRLとの位置合わせが完了しているか否かを判定する(ステップSB25)。マーカー特定部166Bは、使用者による撮像ボタンの押下の操作がなく、位置合わせが完了していないと判定する場合には(ステップSB25:NO)、引き続き、位置合わせが完了したことを示す撮像ボタンの押下の操作を待機する。撮像ボタンの押下の操作があると、マーカー特定部166Bは、位置合わせが完了していると判定し(ステップSB25:YES)、カメラ60Bによって、外景SCを撮像する(ステップSB27)。   When the user is prompted to align the left eye, the marker specifying unit 166B determines whether or not the alignment between the marker image IMG and the real marker RL has been completed (step SB25). When the marker specifying unit 166B determines that the user has not pressed the imaging button and the alignment has not been completed (step SB25: NO), the imaging button indicating that the alignment has been completed. Wait for the operation of pressing. When there is an operation of pressing the imaging button, the marker specifying unit 166B determines that the alignment is completed (step SB25: YES), and images the outside scene SC with the camera 60B (step SB27).

次に、演算部167Bは、右眼位置RPと左眼位置LPとのそれぞれを基準とした撮像画像を基に、空間パラメーターPMの算出と、カメラ60BのカメラパラメーターCPの最適化を実行して(ステップSB31)、CPU140Bは、キャリブレーション実行処理を終了する。   Next, the calculation unit 167B performs calculation of the spatial parameter PM and optimization of the camera parameter CP of the camera 60B based on the captured images based on the right eye position RP and the left eye position LP, respectively. (Step SB31), the CPU 140B ends the calibration execution process.

B−3.空間パラメーター、およびカメラパラメーター:
B−3−1.カメラパラメーター:
カメラ60Bに関するパラメーター(以降、カメラパラメーターとも呼ぶ)として、4個のパラメーターCP(fx、fy、Cx、Cy)が存在する。(fx、fy)は撮像部の焦点距離であり、画素密度に基づいて画素数に換算されている。
B-3. Spatial parameters and camera parameters:
B-3-1. Camera parameters:
There are four parameters CP (fx, fy, Cx, Cy) as parameters relating to the camera 60B (hereinafter also referred to as camera parameters). (Fx, fy) is the focal length of the imaging unit, and is converted into the number of pixels based on the pixel density.

カメラパラメーターは、撮像部の主要部分を構成するカメラ60Bの製品仕様から知ることができる(以下ではこれをデフォルトカメラパラメーターとも表記する)。ただし、実際のカメラのカメラパラメーターがデフォルトカメラパラメーターから大きくずれていることが多い。しかも、同じ仕様のカメラであっても、カメラ間で、カメラパラメーターがばらついている(揃っていない)ことがある。   The camera parameters can be known from the product specifications of the camera 60B that constitutes the main part of the imaging unit (hereinafter also referred to as default camera parameters). However, the camera parameters of the actual camera often deviate greatly from the default camera parameters. Moreover, even with cameras of the same specification, camera parameters may vary (not aligned) between cameras.

ARオブジェクトにおける位置、大きさ、姿勢の少なくとも一つが実物体にアライン(重畳)するように使用者に視認させる場合、カメラ60Bは、当該実物体の位置および姿勢を検出する検出機として機能する。このとき、演算部167Bは、カメラパラメーターを用いて、カメラ60Bに撮像された実物体のカメラ60Bに対する位置および姿勢を推定する。さらに、演算部167Bは、当該位置および姿勢を、カメラ60Bと左光学像表示部28B(右光学像表示部26B)との間の相対位置関係を用いて、左光学像表示部28Bに対する実物体の位置および姿勢に変換する。さらに、演算部167Bは、当該変換された位置および姿勢に基づいて、ARオブジェクトの位置および姿勢を決定する。そして、画像処理部160Bは、当該位置および姿勢を有するARオブジェクトを、写像パラメーターを用いて表示座標系に写像(変換)し、表示バッファ(例えばRAM122B)に書き込む。そして、画像制御部は、表示バッファに書き込まれたARオブジェクトを左光学像表示部28Bに表示する。このため、カメラパラメーターがデフォルトカメラパラメーターである場合には、推定される実物体の位置および姿勢に誤差が含まれることとなる。そうすると、推定された位置および姿勢の誤差に由来して、表示されたARオブジェクトと実物体との重畳に誤差があるように使用者に視認される。   When the user visually recognizes that at least one of the position, size, and orientation of the AR object is aligned (superimposed) on the real object, the camera 60B functions as a detector that detects the position and orientation of the real object. At this time, the calculation unit 167B estimates the position and orientation of the real object captured by the camera 60B with respect to the camera 60B using the camera parameters. Further, the calculation unit 167B uses the relative positional relationship between the camera 60B and the left optical image display unit 28B (right optical image display unit 26B) to determine the actual object relative to the left optical image display unit 28B. Convert to the position and posture. Furthermore, the calculation unit 167B determines the position and orientation of the AR object based on the converted position and orientation. Then, the image processing unit 160B maps (converts) the AR object having the position and orientation into the display coordinate system using the mapping parameter, and writes the AR object in the display buffer (for example, the RAM 122B). Then, the image control unit displays the AR object written in the display buffer on the left optical image display unit 28B. For this reason, when the camera parameter is the default camera parameter, an error is included in the position and orientation of the estimated real object. Then, it is visually recognized by the user that there is an error in the superposition of the displayed AR object and the real object due to the estimated position and orientation error.

そこで、本実施形態では、ARオブジェクトが対象物に重畳して使用者に視認されるようにするためのキャリブレーションの際に、カメラパラメーターが、最適化により導出される。そして、導出されたカメラパラメーターが用いられて、対象物の位置および姿勢が検出(推定)されるようにする。そうすれば、ARオブジェクトの表示において、表示されるARオブジェクトと実物体との間に発生するずれが使用者に視認される度合いが低くなる。後述するように、同じHMD100Bの使用者が同一人であっても、カメラパラメーターの導出は、キャリブレーションが行なわれるごとに行なわれ、当該キャリブレーションに引き続いて行なわれる対象物とARオブジェクトとの間での位置、大きさ、向きの少なくとも一つが一致した表示のために使用されることが好ましい。これは、キャリブレーションの際に、必ずしも使用者は、実物マーカーRLと、実物マーカーRLに対応したマーカー画像IMGとを、同じ精度で位置合わせするとは限らないことによる。たとえ使用者が違う精度で位置合わせしても、それに応じたカメラパラメーターが導出されることから、ARオブジェクトの重畳表示がされる場合に重畳表示のずれの増大が抑制される。   Therefore, in the present embodiment, camera parameters are derived by optimization during calibration so that the AR object is superimposed on the object and visually recognized by the user. The derived camera parameters are used to detect (estimate) the position and orientation of the object. If it does so, in the display of AR object, the degree which a user will visually recognize the gap which arises between the displayed AR object and a real object becomes low. As will be described later, even if the same HMD 100B user is the same person, the derivation of the camera parameters is performed every time calibration is performed, and between the target object and the AR object performed subsequent to the calibration. It is preferably used for display in which at least one of the position, the size, and the orientation is consistent. This is because the user does not always align the real marker RL and the marker image IMG corresponding to the real marker RL with the same accuracy during calibration. Even if the user aligns with different accuracy, camera parameters corresponding to the user are derived, so that when the AR object is displayed in a superimposed manner, an increase in the displacement of the superimposed display is suppressed.

また、本実施形態のHMD100Bは、カメラ60Bと光学像表示部26B,28Bとの間の相対位置関係が変化する構造を有する。デフォルトカメラパラメーターについての説明からも理解されるように、ARオブジェクトにおける位置、大きさ、姿勢の少なくとも一つが実物体にアライン(重畳)するように使用者に視認させる場合、実際のカメラ60Bと光学像表示部26B,28Bとの間の相対位置関係とは異なる相対位置関係に基づいてARオブジェクトを表示すると、表示されたARオブジェクトと実物体との重畳に誤差が視認される。   Further, the HMD 100B of the present embodiment has a structure in which the relative positional relationship between the camera 60B and the optical image display units 26B and 28B changes. As can be understood from the description of the default camera parameters, when the user visually recognizes that at least one of the position, size, and posture of the AR object is aligned (superimposed) with the real object, the actual camera 60B and the optical are used. When the AR object is displayed based on a relative positional relationship different from the relative positional relationship between the image display units 26B and 28B, an error is visually recognized in the superimposition of the displayed AR object and the real object.

そこで、本実施形態では、ARオブジェクトが対象物に重畳して使用者に視認されるようにするためのキャリブレーションの際に、カメラ60Bの座標系と、右光学像表示部26Bの座標系および左光学像表示部28Bの座標系と、の間の相対位置関係(回転および並進の少なくとも一つ)を表す空間パラメーターPMを、導出する。そして、導出された当該空間パラメーターPMが表す空間的関係(相対位置関係)を用いてARオブジェクトの表示をすると、ユーザーにずれが視認される度合いが低くなる。   Therefore, in the present embodiment, when performing calibration so that the AR object is superimposed on the object and visually recognized by the user, the coordinate system of the camera 60B, the coordinate system of the right optical image display unit 26B, A spatial parameter PM representing a relative positional relationship (at least one of rotation and translation) between the coordinate system of the left optical image display unit 28B is derived. Then, when the AR object is displayed using the spatial relationship (relative positional relationship) represented by the derived spatial parameter PM, the degree to which the shift is visually recognized by the user is reduced.

図13に示すように、使用者が、左光学像表示部28Bに表示されたマーカー画像IMGと、外景に含まれ前方に位置する実物マーカーRLと、が位置、大きさ、向きが一致するように使用者が視認するとき(以下、使用者が左眼でアライメントを成立させるときともいう)、座標系の間には、次の式(37)の関係が成り立つ。なお、以降では、左光学像表示部28Bにマーカー画像IMGが表示された場合について説明する。

Figure 2017108370
As shown in FIG. 13, it is assumed that the user matches the position, size, and orientation of the marker image IMG displayed on the left optical image display unit 28 </ b> B and the real marker RL that is included in the outside scene and is positioned forward. When the user visually recognizes (hereinafter also referred to as when the user establishes alignment with the left eye), the relationship of the following equation (37) is established between the coordinate systems. Hereinafter, a case where the marker image IMG is displayed on the left optical image display unit 28B will be described.
Figure 2017108370

ここで、左辺および右辺のCPは、カメラ60Bのカメラパラメーターである。[Ro2dl, to2dl]は、実オブジェクト(この場合、実物マーカーRL)に固定された座標系から左光学像表示部28Bに固定された座標系への変換行列であり、このうち、[Ro2dl]が回転を表す3×3の行列であり、[to2dl]が並進を表す3×1の行列である。ModelMatrixは、モデルマーカー上の任意の1点を表す3×1の行列である。モデルマーカーは、マーカー画像が光学像表示部28に表示される場合の基礎となる3次元データ(3次元モデル:ただし本実施形態では平面)である。[Ro2dl, to2dl]×ModelMatrixの表記は、下記の式(38)の規則に従っている。

Figure 2017108370
上記式(38)の表記規則は、式(37)の他の部分にも適用される。 Here, the CP on the left side and the right side are camera parameters of the camera 60B. [R o2dl , t o2dl ] is a transformation matrix from the coordinate system fixed to the real object (in this case, the real marker RL) to the coordinate system fixed to the left optical image display unit 28B. o2dl ] is a 3 × 3 matrix representing rotation, and [t o2dl ] is a 3 × 1 matrix representing translation. ModelMatrix is a 3 × 1 matrix that represents an arbitrary point on the model marker. The model marker is three-dimensional data (a three-dimensional model: a plane in the present embodiment) that is a basis when a marker image is displayed on the optical image display unit 28. The notation of [R o2dl , t o2dl ] × ModelMatrix follows the rule of the following formula (38).
Figure 2017108370
The notation rule of said Formula (38) is applied also to the other part of Formula (37).

式(37)の右辺における[Rcam2left, tcam2left]は、カメラ60Bの座標系から左光学像表示部28Bの座標系への変換行列(以下、空間パラメーターとも呼ぶ)である。式(37)の右辺における[Robj2cam, tobj2cam]は、実オブジェクト(実物マーカーRL)の座標系からカメラ60Bの座標系への変換行列である。 [R cam2left , t cam2left ] on the right side of Expression (37) is a transformation matrix (hereinafter also referred to as a spatial parameter) from the coordinate system of the camera 60B to the coordinate system of the left optical image display unit 28B. [R obj2cam , t obj2cam ] on the right side of Expression (37) is a transformation matrix from the coordinate system of the real object (real marker RL) to the coordinate system of the camera 60B.

上記(37)の関係から、左光学像表示部28Bについて、マーカー画像IMGと実物マーカーRLとのアライメントが成立しているとき、以下の式(39)、(40)が成り立つ。

Figure 2017108370
Figure 2017108370
From the relationship (37), when the alignment between the marker image IMG and the real marker RL is established for the left optical image display unit 28B, the following equations (39) and (40) are established.
Figure 2017108370
Figure 2017108370

左眼LEのアライメントが成立すると仮定したとき、実物マーカーRLのカメラ60Bに対する姿勢をモデルマーカーに適用すると、カメラ60の座標系に変換されたモデルマーカー上の任意の点は次の式(41)のPcl(Xcl, Ycl, Zcl)のようになる。

Figure 2017108370
When it is assumed that the alignment of the left eye LE is established, if the posture of the real marker RL with respect to the camera 60B is applied to the model marker, an arbitrary point on the model marker converted into the coordinate system of the camera 60 is expressed by the following equation (41). P cl (X cl , Y cl , Z cl )
Figure 2017108370

式(39)および式(40)により、Robj2cam,tobj2camを消去すると式(41)は以下の式(42)のようになる。

Figure 2017108370
When R obj2cam and t obj2cam are eliminated by Expression (39) and Expression (40), Expression (41) becomes the following Expression (42).
Figure 2017108370

Ro2dlおよびto2dlは、実物マーカーRLの座標系から左光学像表示部28Bの座標系への回転および並進であり、本実施形態では、ユーザーが左光学像表示部28Bに表示されたマーカー画像IMGを実物マーカーRLに位置合わせしたときに、所定の回転および並進となるように、左光学像表示部28B上の所定位置(例えば中央)に所定の配向かつ所定の大きさで、固定されて表示される。Tcam2leftは、カメラの座標系から左光学像表示部28Bの座標系への並進である。

Figure 2017108370
Figure 2017108370
Figure 2017108370
上記式(43)および(44)における要素は定数(aは図13のL1)であり、式(45)における要素D1, D2, D3は初期値である。なお、図13からわかるように、本実施形態では、画像表示部20Bに固定された座標系では、光学像表示部26B,28B(画像表示部20B)から使用者USの眼へと射出される光の方向がZ軸方向である。 R o2dl and t o2dl are rotation and translation from the coordinate system of the real marker RL to the coordinate system of the left optical image display unit 28B, and in this embodiment, the marker image displayed by the user on the left optical image display unit 28B When the IMG is aligned with the real marker RL, the IMG is fixed at a predetermined position (for example, the center) on the left optical image display unit 28B with a predetermined orientation and a predetermined size so as to perform a predetermined rotation and translation. Is displayed. T cam2left is a translation from the coordinate system of the camera to the coordinate system of the left optical image display unit 28B.
Figure 2017108370
Figure 2017108370
Figure 2017108370
The elements in the above equations (43) and (44) are constants (a is L1 in FIG. 13), and the elements D1, D2, D3 in the equation (45) are initial values. As can be seen from FIG. 13, in the present embodiment, in the coordinate system fixed to the image display unit 20B, the light is emitted from the optical image display units 26B and 28B (image display unit 20B) to the eyes of the user US. The direction of light is the Z-axis direction.

式(41)で表されるモデルマーカーをカメラ60Bの撮像画像上に写像するとき、撮像画像上のモデルマーカーの座標は、次のようになる。

Figure 2017108370
Figure 2017108370
ここで、(Fx, Fy)はカメラ60Bの焦点距離であり、(Cx, Cy)はカメラ60Bの主点位置座標である。 When the model marker represented by Expression (41) is mapped onto the captured image of the camera 60B, the coordinates of the model marker on the captured image are as follows.
Figure 2017108370
Figure 2017108370
Here, (F x , F y ) is the focal length of the camera 60B, and (C x , C y ) is the principal point position coordinate of the camera 60B.

カメラ60Bが実際に実物マーカーRLを撮像した場合の撮像画像におけるマーカーの特徴要素の座標を(ul, vl)と表記すると、(ul, vl)と(ximl, yiml)との差は以下のようになる。

Figure 2017108370
式(48)における添え字iは、マーカーにおける特徴要素を示す整数であり、1から9までの値を取る。左眼LEのアライメントについて、二乗和を導出する。
Figure 2017108370
Coordinates (u l, v l) of characteristic elements of the marker in the captured image when the camera 60B has actually captured the real marker RL and would be written, and (u l, v l) and (x iml, y iml) The difference is as follows.
Figure 2017108370
The subscript i in the equation (48) is an integer indicating the feature element in the marker, and takes a value from 1 to 9. A sum of squares is derived for the alignment of the left eye LE.
Figure 2017108370

使用者が、右眼REで右光学像表示部26Bに表示されたマーカーと、実物マーカーRLと、を位置合わせした場合についても、同様に二乗和を導出する。

Figure 2017108370
The sum of squares is similarly derived when the user aligns the marker displayed on the right optical image display unit 26B with the right eye RE and the real marker RL.
Figure 2017108370

ERとELとの和により、コスト関数Eを定義する。

Figure 2017108370
Eを最小化(グローバルミニマム)にするパラメーターを、ガウス・ニュートン法などの繰り返し計算を伴う最適化計算により求める。 A cost function E is defined by the sum of E R and E L.
Figure 2017108370
The parameter that minimizes E (global minimum) is obtained by optimization calculation with iterative calculation such as Gauss-Newton method.

本実施形態では、カメラ60BのカメラパラメーターCPと、カメラ60Bの座標系から左光学像表示部28Bの座標系への回転(Rcam2left)および並進(Tcam2left)、ならびにカメラ60Bの座標系から右光学像表示部26Bの座標系への回転(Rcam2right)および並進(Tcam2right)が最適化により導出される。 In this embodiment, the camera parameter CP of the camera 60B, the rotation (R cam2left ) and translation (T cam2left ) from the coordinate system of the camera 60B to the coordinate system of the left optical image display unit 28B, and the right from the coordinate system of the camera 60B The rotation (R cam2right ) and translation (T cam2right ) to the coordinate system of the optical image display unit 26B are derived by optimization.

式(51)で表わされるコスト関数Eを最小化する繰り返し計算に用いられるヤコビ行列は、式(52)のようになる。

Figure 2017108370
ここで、式(52)の右辺における変数Xmliおよびymliはそれぞれ式(46)および(47)によって表され、さらに式(46)および(47)におけるxclおよびyclは式(42)によって表される。また、式(52)の右辺における変数pは、カメラ60BのカメラパラメーターCPに含まれるFx,Fy,Cx,Cyと、カメラ60Bと光学像表示部26B,28Bとの間の空間的関係を表す回転Rcam2left、Rcam2rightを構成する6つのオイラー角と、並進Tcam2left、 Tcam2rightを構成する6つの並進成分と、である。演算部167Bは、式(52)のヤコビ行列と、変数pの微小変化量と、に基づいて、式(51)のグローバルミニマムを探索することができる。 The Jacobian matrix used for the iterative calculation that minimizes the cost function E expressed by the equation (51) is expressed by the equation (52).
Figure 2017108370
Here, the variables X mli and y mli on the right side of Expression (52) are represented by Expressions (46) and (47), respectively, and x cl and y cl in Expressions (46) and (47) are represented by Expression (42). Represented by Also, the space between the variable p on the right-hand side of Equation (52), F x included in the camera parameter CP of the camera 60B, F y, C x, and C y, a camera 60B and the optical image display unit 26B, and 28B There are six Euler angles that constitute the rotations R cam2left and R cam2right that represent the general relationship, and six translation components that constitute the translations T cam2left and T cam2right . The calculation unit 167B can search for the global minimum of Expression (51) based on the Jacobian matrix of Expression (52) and the minute change amount of the variable p.

B−3−2.空間パラメーター:
上述の通り、本実施形態では、演算部167Bは、右光学像表示部26Bと左光学像表示部28Bとのそれぞれに対応する空間パラメーターPM2[Rcam2left, tcam2left][Rcam2lright, tcam2right]を算出する。回転行列Rcam2rightは、直交する3軸の回転によって決定される3つのパラメーターであり、並進行列Tcam2rightは、3軸に沿った並進のそれぞれに対応する3つのパラメーターである。すなわち、右光学像表示部26Bに対応する空間パラメーターPMは、計6つのパラメーターを含んでいる。同じように、左光学像表示部28Bに対応する空間パラメーターPMは、回転行列Rcam2leftと並進行列Tcam2leftとであり、計6つのパラメーターを含んでいる。すなわち、本実施形態では、カメラパラメーターに含まる4個のパラメーターと、空間的関係を表す12個のパラメーターとの16個のパラメーターが算出される。
B-3-2. Spatial parameters:
As described above, in the present embodiment, the calculation unit 167B has the spatial parameters PM2 [R cam2left , t cam2left ] [R cam2lright , t cam2right ] corresponding to the right optical image display unit 26B and the left optical image display unit 28B, respectively. Is calculated. The rotation matrix R cam2right is three parameters determined by rotation of three orthogonal axes, and the translation column T cam2right is three parameters corresponding to each of the translations along the three axes. That is, the spatial parameter PM corresponding to the right optical image display unit 26B includes a total of six parameters. Similarly , the spatial parameter PM corresponding to the left optical image display unit 28B is a rotation matrix R cam2left and a parallel progression column T cam2left , and includes a total of six parameters. That is, in the present embodiment, 16 parameters of 4 parameters included in the camera parameters and 12 parameters representing the spatial relationship are calculated.

演算部167Bは、使用者が実物マーカーRLとマーカー画像IMGとが互いに一致するように視認する状態で実物マーカーRLを撮像し、撮像画像を取得する。演算部167Bは、当該撮像画像に基づいて、上記の式(51)を用いて、空間パラメーターPMを算出する。本実施形態では、空間パラメーターPMを算出する場合の初期値(i=0)として、カメラ60Bまたは光学像表示部26B,28Bの最大可動した場合の一方の姿勢における値、または、可動域の中間の姿勢における値を用いる。これらの初期値として、HMD100Bが製造される工場から出荷される前の計測値や検査値が用いられてもよい。   The calculation unit 167B captures the actual marker RL in a state where the user visually recognizes the actual marker RL and the marker image IMG so as to match each other, and acquires a captured image. The computing unit 167B calculates the spatial parameter PM using the above equation (51) based on the captured image. In the present embodiment, as an initial value (i = 0) when calculating the spatial parameter PM, a value in one posture when the camera 60B or the optical image display units 26B and 28B are moved maximum, or an intermediate range of movement. The value in the posture is used. As these initial values, measured values and inspection values before shipping from a factory where the HMD 100B is manufactured may be used.

空間パラメーターPMが算出されると、使用者に確認させる目的で、演算部167Bは、算出した空間パラメーターPMを用いて、実物マーカーRLがカメラ60Bの撮像範囲に含まれる場合に、実物マーカーRLの位置に合わせて重畳するように確認用画像を表示する。実物マーカーの内部座標をXと定義すると、空間パラメーターPMが用いられ、左光学像表示部28Bにおける表示画像の位置(u,v)は、式(53)のように表される。

Figure 2017108370
ここで、[Robj2cam, Tobj2am]は実物マーカーRLとカメラ60Bとの間の空間的関係を表すパラメーター(回転行列および並進行列)であり、これらは、カメラ60Bが撮像した実物マーカーRLの撮像画像に、例えばホモグラフィーを適用することによって演算部167Bによって算出される。実物マーカー以外の実オブジェクトを検出する場合には、他の方法で実オブジェクトとカメラ60Bとの間の空間的関係が導出される。なお、右光学像表示部26Bについても、式(53)と同様な関係式により、表示画像の位置(u,v)が導出される。式(53)に示す通り、実オブジェクト(この場合、実物マーカーRL)とカメラ60Bとの間の空間的関係、およびカメラ60Bと光学像表示部26B、28Bとの間の空間的関係に少なくとも基づいて定まる位置にu,vにARオブジェクトを表示することで、当該ARオブジェクト(この場合確認用画像)の位置、大きさおよび配向の少なくとも一つが、実オブジェクトの位置、大きさ、配向の少なくとも一つに一致するように、HMD100Bの使用者に視認させることができる。なお、式(53)における右辺のRPは、ピンホールカメラモデルと同様な写像モデルを用いた場合に決定される写像パラメーター(またはレンダリングパラメーターとも呼ぶ)であり、本実施形態では下記の式(54)のように表される。
Figure 2017108370
ここで、式(54)におけるFx, FyはHMD100Bにおけるプロジェクターの画素数に換算された焦点距離であり、Wは水平方向の左光学像表示部28Bの画素数(解像度)であり、Hは垂直方向の左光学像表示部28Bの画素数(解像度)であり、CxおよびCyは、表示画像の中心位置である。写像パラメーターの上2行がu, vの導出に寄与する。fおよびnは、0と1の間で規格化された奥行を有する規格化デバイス座標との対応関係を決める係数である。すなわち、これらは、レンダリングバッファに(デプスバッファ)おいて奥行を調整するための係数であるが、表示画像の位置(u,v)の導出に直接関与しないことから、詳細は省略する。 When the spatial parameter PM is calculated, the calculation unit 167B uses the calculated spatial parameter PM to check the real marker RL when the real marker RL is included in the imaging range of the camera 60B. A confirmation image is displayed so as to be superimposed according to the position. If the internal coordinates of the real marker are defined as X, the spatial parameter PM is used, and the position (u, v) of the display image in the left optical image display unit 28B is expressed as in Expression (53).
Figure 2017108370
Here, [Robj2cam, Tobj2am] are parameters (rotation matrix and parallel progression) representing the spatial relationship between the real marker RL and the camera 60B, and these are the captured images of the real marker RL captured by the camera 60B. For example, the calculation unit 167B calculates by applying homography. When a real object other than a real marker is detected, the spatial relationship between the real object and the camera 60B is derived by another method. For the right optical image display unit 26B, the position (u, v) of the display image is derived from the same relational expression as the expression (53). As shown in the equation (53), at least based on the spatial relationship between the real object (in this case, the real marker RL) and the camera 60B and the spatial relationship between the camera 60B and the optical image display units 26B and 28B. By displaying the AR object in u and v at the determined position, at least one of the position, size and orientation of the AR object (in this case, the confirmation image) is at least one of the position, size and orientation of the real object. The user of the HMD 100B can be visually recognized so as to match the two. Note that RP on the right side in the equation (53) is a mapping parameter (or called a rendering parameter) determined when a mapping model similar to the pinhole camera model is used. In the present embodiment, the following equation (54) ).
Figure 2017108370
Here, F x and F y in Expression (54) are focal lengths converted to the number of pixels of the projector in the HMD 100B, W is the number of pixels (resolution) of the left optical image display unit 28B in the horizontal direction, and H Is the number of pixels (resolution) of the left optical image display unit 28B in the vertical direction, and C x and Cy are the center positions of the display image. The top two mapping parameters contribute to the derivation of u and v. f and n are coefficients that determine the correspondence with normalized device coordinates having a depth normalized between 0 and 1. In other words, these are coefficients for adjusting the depth in the rendering buffer (depth buffer), but are not directly related to the derivation of the position (u, v) of the display image, and thus the details are omitted.

本実施形態では、キャリブレーションがうまく実施されていれば、HMD100Bを装着している使用者は、光学像表示部26B、28Bに表示された確認用画像の位置、大きさ、向きが、実物マーカーRLの位置、大きさ、向きに一致するように、視認する。図15は、実物マーカーRLと確認用画像3DCGとが使用者に視認されている状態が示されている。図15には、実物マーカーRLの位置、大きさ、および向きに、確認用画像3DCGの位置、大きさおよび向きが一致するように、使用者が実物マーカーRLと確認用画像3DCGとを視認している状態が示されている。確認用画像3DCGは、実物マーカーRLに対応するように、立体的な直方体で表される画像である。確認用画像3DCGでは、直方体を表す各辺に相当する直線のみが表示され、直方体の内部には画像として表示されるものはない。換言すると、直方体の内部については、使用者は、実物マーカーRLなどを含む透過した外景を視認できる。使用者が実物マーカーRLと確認用画像3DCGとが互いに一致するように視認しないときに、再度、キャリブレーションをやり直すことができる。図15には、光学像表示部26B、28Bまたは音声処理部170Bは、キャリブレーションが成功しAR表示機能を続行すること(重畳して見えるか)、およびキャリブレーションをやり直すことのいずれかを促す文字画像または音声を使用者に提示してもよい。   In this embodiment, if the calibration is successfully performed, the user wearing the HMD 100B has the actual marker position, size, and orientation of the confirmation images displayed on the optical image display units 26B and 28B. Visual recognition is performed so as to match the position, size, and orientation of the RL. FIG. 15 shows a state where the real marker RL and the confirmation image 3DCG are visually recognized by the user. In FIG. 15, the user visually recognizes the actual marker RL and the confirmation image 3DCG so that the position, size, and orientation of the confirmation image 3DCG coincide with the position, size, and orientation of the actual marker RL. The state is shown. The confirmation image 3DCG is an image represented by a three-dimensional rectangular parallelepiped so as to correspond to the real marker RL. In the confirmation image 3DCG, only a straight line corresponding to each side representing a rectangular parallelepiped is displayed, and there is nothing displayed as an image inside the rectangular parallelepiped. In other words, with respect to the inside of the rectangular parallelepiped, the user can visually recognize the transmitted outside scene including the real marker RL and the like. When the user does not visually recognize the real marker RL and the confirmation image 3DCG so as to coincide with each other, the calibration can be performed again. In FIG. 15, the optical image display units 26B and 28B or the audio processing unit 170B prompts either to succeed the calibration and continue the AR display function (appears to be superimposed) or to redo the calibration. A character image or sound may be presented to the user.

演算部167Bは、算出した空間パラメーターPMとしての行列を用いて、実オブジェクトの位置に対応するようにAR画像を、光学像表示部26B,28Bに表示させる。なお、実オブジェクトは、請求項におけるオブジェクトに相当し、AR画像は、請求項における対応画像(counterpart image)に相当する。   The calculation unit 167B displays the AR image on the optical image display units 26B and 28B using the matrix as the calculated space parameter PM so as to correspond to the position of the real object. The real object corresponds to the object in the claims, and the AR image corresponds to the corresponding image (counterpart image) in the claims.

以上説明したように、使用者が実物マーカーRLに右光学像表示部26Bまたは左光学像表示部28Bに表示されたマーカー画像IMGが重なるように視認している状態で、実物マーカーRLの撮像画像が撮像されると、演算部167Bは、当該撮像画像に少なくとも基づいて、カメラ60BのカメラパラメーターCPと、カメラ60Bと光学像表示部26B,28Bとの間の空間的関係と、を導出する。そのため、本実施形態のHMD100Bでは、外景SCを撮像するカメラ60Bが画像表示部20Bに対して動く場合であっても、カメラ60Bと画像表示部20Bとの空間的関係を導出できる。そして、このため、HMD100Bは、使用者USにAR画像が対応する実オブジェクトに重畳するように視認させることができる。また、本実施形態のHMD100Bでは、キャリブレーションを実行するために、HMD100B以外の装置が不要で、かつ、使用者は、制御部10Bに配置された実物マーカーRLが視認できる範囲で頭部を動かすだけでよい。よって、本実施形態のHMD100Bでは、簡便にキャリブレーションを実行できる。   As described above, the captured image of the real marker RL is displayed in a state where the user visually recognizes that the marker image IMG displayed on the right optical image display unit 26B or the left optical image display unit 28B overlaps the real marker RL. Is captured, the calculation unit 167B derives the camera parameter CP of the camera 60B and the spatial relationship between the camera 60B and the optical image display units 26B and 28B based at least on the captured image. Therefore, in the HMD 100B of the present embodiment, the spatial relationship between the camera 60B and the image display unit 20B can be derived even when the camera 60B that captures the outside scene SC moves relative to the image display unit 20B. For this reason, the HMD 100B can make the user US visually recognize the AR image so as to be superimposed on the corresponding real object. Further, in the HMD 100B of the present embodiment, no apparatus other than the HMD 100B is necessary to execute calibration, and the user moves his / her head within a range where the real marker RL arranged in the control unit 10B can be visually recognized. Just do it. Therefore, in the HMD 100B of the present embodiment, calibration can be easily performed.

また、本実施形態のHMD100Bでは、演算部167Bは、カメラパラメーターCPおよび空間パラメーターPMを用いて、撮像された実オブジェクトの位置と姿勢に対応するようにAR画像を光学像表示部26B,28Bに表示させる。そのため、本実施形態のHMD100Bでは、ARオブジェクトの位置に精度良く対応するように、光学像表示部26B、28BにAR画像を表示させることができる。   In the HMD 100B of the present embodiment, the calculation unit 167B uses the camera parameter CP and the space parameter PM to convert the AR image to the optical image display units 26B and 28B so as to correspond to the position and orientation of the captured real object. Display. Therefore, the HMD 100B of the present embodiment can display an AR image on the optical image display units 26B and 28B so as to accurately correspond to the position of the AR object.

B−4.第2実施形態の変形例:
なお、この発明は上記実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
B-4. Modification of the second embodiment:
In addition, this invention is not limited to the said embodiment, It can implement in a various aspect in the range which does not deviate from the summary, For example, the following deformation | transformation is also possible.

B−4−1.変形例1:
上記実施形態では、演算部167Bは、カメラパラメーターCPも最適化により導出したが、製造時の設計値からのばらつきが少ない場合には、カメラパラメーターCPについては設計値を設定し、カメラ60Bと光学像表示部26B,28Bとの間の空間的関係だけを導出してもよい。この変形例のHMD100Bでは、最適化するパラメーターpの数が少なくなる。また、製造上、ばらつきの少ないパラメーターに対して、設計値を代入することで、コスト関数Eをより小さくするパラメーターの最適化を行ないつつ、パラメーターを最適化するための時間を短くできる。
B-4-1. Modification 1:
In the above embodiment, the calculation unit 167B also derives the camera parameter CP by optimization. However, when there is little variation from the design value at the time of manufacture, the design value is set for the camera parameter CP, and the camera 60B and the optical unit Only the spatial relationship between the image display units 26B and 28B may be derived. In the HMD 100B of this modification, the number of parameters p to be optimized is reduced. In addition, by substituting design values for parameters with little variation in manufacturing, it is possible to reduce the time for optimizing the parameters while optimizing the parameters that make the cost function E smaller.

B−4−2.変形例2:
図16および図17は、実オブジェクトの位置に対応するようにAR画像が表示される前後の使用者の視野VRを示す図である。上記実施形態によるキャリブレーションは完了している。図16には、AR画像が表示される前の視野VRが示されており、図17には、AR画像が表示された後の視野VRが示されている。本実施形態のHMD100Bのマーカー特定部166Bは、パターンマッチングなどにより、カメラ60Bの撮像範囲からARオブジェクトとしてのペットボトル本体PTとペットボトル本体PTの蓋CAとを検出する。ペットボトル本体PTと蓋CAとが予め設定された位置状態と異なる状態で検出された場合に、演算部167Bは、AR画像を光学像表示部26B,28Bに表示させる。予め設定された位置状態とは、図16の場合とは異なり、ペットボトル本体PTの開口部PTaの位置に蓋CAが存在するような、いわゆるペットボトル本体PTが蓋CAによって閉められている状態である。
B-4-2. Modification 2:
FIG. 16 and FIG. 17 are diagrams showing the visual field VR of the user before and after the AR image is displayed so as to correspond to the position of the real object. The calibration according to the above embodiment has been completed. FIG. 16 shows the visual field VR before the AR image is displayed, and FIG. 17 shows the visual field VR after the AR image is displayed. The marker specifying unit 166B of the HMD 100B of the present embodiment detects the PET bottle main body PT as the AR object and the lid CA of the PET bottle main body PT from the imaging range of the camera 60B by pattern matching or the like. When the PET bottle main body PT and the lid CA are detected in a state different from the preset position state, the calculation unit 167B displays the AR image on the optical image display units 26B and 28B. Unlike the case of FIG. 16, the preset position state is a state in which the so-called PET bottle body PT is closed by the lid CA such that the lid CA exists at the position of the opening PTa of the PET bottle body PT. It is.

演算部167Bは、ペットボトル本体PTと蓋CAとが予め設定された位置状態にない場合(図16の場合)に、AR画像を表示するか否かを使用者に問う文字画像TX2を光学像表示部26B,28Bに表示させる。文字画像TX2は、「AR画像を表示?YES/NO」の文字である。演算部167Bは、操作部135Bが受け付けた操作によって、AR画像を表示するか否かを決定する。   When the PET bottle body PT and the lid CA are not in a preset position state (in the case of FIG. 16), the calculation unit 167B optically displays the character image TX2 that asks the user whether or not to display the AR image. It is displayed on the display units 26B and 28B. The character image TX2 is a character “display AR image? YES / NO”. The calculation unit 167B determines whether or not to display the AR image by the operation received by the operation unit 135B.

図17には、演算部167Bが、AR画像を表示すると決定した場合に、光学像表示部26B,28Bに表示されたAR画像としてのカーソル画像CS1および蓋画像IM1が示されている。演算部167Bは、AR画像として、実オブジェクトである蓋CAを移動させる先の位置を蓋画像IM1およびカーソル画像CS1で表している。また、演算部167Bは、AR画像を表示していることを使用者に視認させるための文字画像TX3を光学像表示部26B,28Bに表示させる。文字画像TX3は、AR画像が表示されていることを表す「AR画像、表示中」の文字である。   FIG. 17 shows a cursor image CS1 and a lid image IM1 as AR images displayed on the optical image display units 26B and 28B when the calculation unit 167B determines to display an AR image. The calculation unit 167B represents the position to which the lid CA, which is a real object, is moved as an AR image by a lid image IM1 and a cursor image CS1. In addition, the calculation unit 167B causes the optical image display units 26B and 28B to display the character image TX3 for allowing the user to visually recognize that the AR image is displayed. The character image TX3 is a character “AR image being displayed” indicating that the AR image is being displayed.

以上説明したように、この変形例のHMD100では、演算部167Bは、AR画像を表示するか否かを使用者に決定させるための文字画像TX2を光学像表示部26B,28Bに表示させる。そのため、この変形例のHMD100Bでは、使用者の意図を反映したAR画像の表示を実行できる。   As described above, in the HMD 100 of this modified example, the calculation unit 167B displays the character image TX2 for allowing the user to determine whether or not to display the AR image on the optical image display units 26B and 28B. Therefore, the HMD 100B according to this modification can display an AR image reflecting the user's intention.

B−4−3.変形例3:
上記実施形態では、第1パラメーターPM1は、実物マーカー座標系からへカメラ座標系と変換する行列であったが、逆に、カメラ座標系から実物マーカー座標系へと変換する行列であってもよい。空間パラメーターPMは、カメラ座標系から画像表示部の座標系へと変換する行列式であったが、逆に、画像表示部の座標系からカメラ座標系へと変換する行列であってもよい。
B-4-3. Modification 3:
In the above embodiment, the first parameter PM1 is a matrix that converts from the real marker coordinate system to the camera coordinate system, but conversely may be a matrix that converts from the camera coordinate system to the real marker coordinate system. . The spatial parameter PM is a determinant that converts from the camera coordinate system to the coordinate system of the image display unit, but conversely may be a matrix that converts from the coordinate system of the image display unit to the camera coordinate system.

上記実施形態では、空間パラメーターPMを算出する場合いの初期値(i=0)として、出荷時の計測値や検査値が用いられたが、その他の方法によって取得された値が用いられてもよい。例えば、HMD100Bにおける各可動部の加速度や角速度を検出するIMU、または位置変化を検出するエンコーダーによって取得された値に基づいて、初期値が設定されてもよい。   In the above embodiment, the measured value and the inspection value at the time of shipment are used as the initial value (i = 0) when calculating the spatial parameter PM, but the value acquired by other methods is also used. Good. For example, the initial value may be set based on a value acquired by an IMU that detects the acceleration or angular velocity of each movable part in the HMD 100B or an encoder that detects a change in position.

B−4−4.変形例4:
上記実施形態では、右光学像表示部26Bにマーカー画像IMGが表示された場合と左光学像表示部28Bにマーカー画像IMGが表示された場合との計2回の外景SCの撮像が行なわれたが、キャリブレーションを実行するために行なわれる撮像の回数については、種々変形可能である。例えば、右光学像表示部26Bのみにマーカー画像IMGが表示された状態の1回の外景SCの撮像のみで、演算部167Bは、パラメーターの最適化を実行してもよい。一方、2回よりも多い回数の実物マーカーRLを含む外景SCの撮像が行なわれて、演算部167Bは、コスト関数Eをより小さくするパラメーターの最適化を実行してもよい。また、上記実施形態とは異なり、単眼のHMDの場合には、一方の眼に対応する画像表示部または両方の眼に対応する1つの画像表示部(つまり単眼のHMD)にマーカー画像IMGが表示されて、キャリブレーションが実行されてもよい。
B-4-4. Modification 4:
In the above embodiment, the outside scene SC is imaged twice in total, when the marker image IMG is displayed on the right optical image display unit 26B and when the marker image IMG is displayed on the left optical image display unit 28B. However, the number of times of imaging performed to execute calibration can be variously modified. For example, the computing unit 167B may perform parameter optimization only by imaging the outside scene SC once in a state where the marker image IMG is displayed only on the right optical image display unit 26B. On the other hand, imaging of the outside scene SC including the actual marker RL more than twice may be performed, and the calculation unit 167B may perform optimization of a parameter that makes the cost function E smaller. Further, unlike the above embodiment, in the case of a monocular HMD, the marker image IMG is displayed on the image display unit corresponding to one eye or one image display unit corresponding to both eyes (that is, the monocular HMD). Then, calibration may be executed.

上記実施形態では、右光学像表示部26Bに表示されるマーカーと左光学像表示部28Bに表示されるマーカーとは、同じマーカー画像IMGであったが、マーカー画像IMGおよび実物マーカーRLについては、種々変形可能である。例えば、右光学像表示部26Bと左光学像表示部28Bとのそれぞれに表示されるマーカーの画像は、異なるマーカーの画像であってもよい。また、マーカー画像IMGおよび実物マーカーRLは、マーカーMK1の画像に限られず、導出されるパラメーターの精度に応じて、種々変形可能である。例えば、マーカーMK1に含まれる円の数は、9個に限られず、9個よりも多くてよいし、9個よりも少なくてもよい。また、マーカーMK1に含まれる複数の特徴点は、円の中心でなくてもよく、単に三角形の重心であってもよい。また、マーカーMK1の内部に並行でない複数の直線が形成されて、直線の交点が複数の特徴点として特定されてもよい。また、マーカー画像IMGと実物マーカーRLとは、異なるマーカーであってもよい。マーカー画像と実物マーカーとを重ねる場合に、どの部分を重ね合わせるのかが使用者に認識される範囲で、マーカー画像と実物マーカーとについては、種々変形可能である。例えば、矩形状のマーカー画像に対して、正円の実物マーカーの中心をマーカー画像の中心に合わせるような位置合わせであってもよい。   In the above embodiment, the marker displayed on the right optical image display unit 26B and the marker displayed on the left optical image display unit 28B are the same marker image IMG. However, for the marker image IMG and the real marker RL, Various modifications are possible. For example, the marker images displayed on the right optical image display unit 26B and the left optical image display unit 28B may be images of different markers. Further, the marker image IMG and the real marker RL are not limited to the image of the marker MK1, and can be variously modified according to the accuracy of the derived parameters. For example, the number of circles included in the marker MK1 is not limited to nine, and may be more or less than nine. Further, the plurality of feature points included in the marker MK1 may not be the center of the circle, but may simply be the center of gravity of the triangle. Also, a plurality of non-parallel lines may be formed inside the marker MK1, and intersections of the lines may be specified as a plurality of feature points. Further, the marker image IMG and the real marker RL may be different markers. When the marker image and the real marker are overlapped, the marker image and the real marker can be variously modified as long as the user can recognize which portion is to be overlapped. For example, the alignment may be such that the center of a real circle marker is aligned with the center of the marker image with respect to the rectangular marker image.

上記実施形態では、カメラ60BのカメラパラメーターCPが最適化される場合に、焦点距離(Fx,Fy)と、カメラ主点位置(Cx,Cy)と、が最適化されたが、これらに代えて、またはこれらとともに、カメラ60BのカメラパラメーターCPとして歪係数を最適化してもよい。 In the above embodiment, when the camera parameter CP of the camera 60B is optimized, the focal length (F x , F y ) and the camera principal point position (C x , C y ) are optimized. Instead of or together with these, the distortion coefficient may be optimized as the camera parameter CP of the camera 60B.

C.第3実施形態:
C−1.頭部装着型表示装置の構成:
図18ないし図20は、キャリブレーションを行なう頭部装着型表示装置100Ca(HMD100Ca)の外観構成を示す説明図である。HMD100Caは、画像表示部20が表示する表示画像を使用者に視認させ、画像表示部20Ca(図18)を透過する外景からの光によって当該外景も使用者に視認させることができる。詳細な構成については後述するが、本実施形態のHMD100Caは、画像表示部20Caを装着した使用者の右眼と左眼とのそれぞれに対応する画像表示部を有しており、使用者の右眼と左眼とに別々の画像を視認させることができる。
C. Third embodiment:
C-1. Configuration of head mounted display device:
FIG. 18 to FIG. 20 are explanatory diagrams showing an external configuration of a head-mounted display device 100Ca (HMD 100Ca) that performs calibration. The HMD 100Ca allows the user to visually recognize the display image displayed by the image display unit 20, and allows the user to visually recognize the outside scene by the light from the outside scene that passes through the image display unit 20Ca (FIG. 18). Although the detailed configuration will be described later, the HMD 100Ca of the present embodiment has image display units corresponding to the right eye and the left eye of the user wearing the image display unit 20Ca, and the right side of the user Separate images can be seen by the eyes and the left eye.

図19に示すように、HMD100Caは、使用者USの頭部装着型表示装置に装着される装着帯90Caと、装着帯90Caに接続されている画像表示部20Caと、画像表示部20Caを制御する制御部10Ca(コントローラー10Ca)と、制御部10Caと装着帯90Caとを接続する接続部40Caと、を備えている。図18に示すように、装着帯90Caは、樹脂製の装着基部91Caと、装着基部91Caに連結される布製のベルト部92Caと、カメラ60Caと、を備える。装着基部91Caは、人の前頭部の形に合った湾曲した形状を有する。ベルト部92Caは、使用者の頭部の周りに装着されるためのベルトである。なお、接続部40Caは、装着帯90Caと制御部10Ca側とを有線で接続しているが、図19では、接続している部分については、図示を省略している。   As shown in FIG. 19, the HMD 100Ca controls the wearing band 90Ca that is worn on the head-mounted display device of the user US, the image display unit 20Ca that is connected to the wearing band 90Ca, and the image display unit 20Ca. Control part 10Ca (controller 10Ca) and connection part 40Ca which connects control part 10Ca and wearing belt 90Ca are provided. As shown in FIG. 18, the attachment band 90Ca includes a resin attachment base 91Ca, a cloth belt 92Ca connected to the attachment base 91Ca, and a camera 60Ca. The mounting base 91Ca has a curved shape that matches the shape of a person's frontal head. The belt portion 92Ca is a belt to be worn around the user's head. In addition, although the connection part 40Ca has connected the mounting band 90Ca and the control part 10Ca side by wire, in FIG. 19, illustration is abbreviate | omitted about the connected part.

カメラ60Caは、外景を撮像可能で、装着基部91Caの中心部分に配置されている。換言すると、カメラ60Caは、装着帯90Caが使用者の頭部に装着された状態で、使用者の額の中央に対応する位置に配置されている。そのため、カメラ60Caは、使用者が装着帯90Caを頭部に装着した状態において、使用者の視線方向の外部の景色である外景を撮像し、撮像された画像である撮像画像を取得する。図2に示すように、カメラ60Caは、装着基部91Caに対して、円弧RCに沿って所定の範囲で可動する。換言すると、カメラ60Caは、撮像範囲を所定の範囲で変更できる。   The camera 60Ca can capture an outside scene and is disposed at the center of the mounting base 91Ca. In other words, the camera 60Ca is arranged at a position corresponding to the center of the user's forehead with the wearing band 90Ca attached to the user's head. Therefore, the camera 60Ca captures an outside scene that is an external scenery in the user's line-of-sight direction in a state where the user wears the wearing band 90Ca on the head, and acquires a captured image that is the captured image. As shown in FIG. 2, the camera 60Ca is movable within a predetermined range along the arc RC with respect to the mounting base 91Ca. In other words, the camera 60Ca can change the imaging range within a predetermined range.

図19に示すように、画像表示部20Caは、連結部93Caを介して装着基部91Caに接続され、眼鏡形状を有している。連結部93Caは、装着基部91Caおよび画像表示部20Caの両側に対象的に配置され、連結部93Caを中心として、装着基部91Caに対する画像表示部20Caの位置を円弧RAに沿って回動可能に支持する。図19において二点鎖線で示す位置P11Caは、画像表示部20Caが円弧RAに沿った最も下端である。また、図19において実線で示す位置P12Caは、画像表示部20Caが円弧RAに沿った最も上端である。   As shown in FIG. 19, the image display unit 20Ca is connected to the mounting base 91Ca via a connecting portion 93Ca and has a glasses shape. The connecting portion 93Ca is intentionally disposed on both sides of the mounting base 91Ca and the image display portion 20Ca, and supports the position of the image display portion 20Ca with respect to the mounting base 91Ca so as to be rotatable along the arc RA around the connecting portion 93Ca. To do. In FIG. 19, a position P11Ca indicated by a two-dot chain line is the lowest end of the image display unit 20Ca along the arc RA. Further, a position P12Ca indicated by a solid line in FIG. 19 is the uppermost end of the image display unit 20Ca along the arc RA.

また、図18および図20に示すように、画像を表示可能な表示パネルを有する光学像表示部26Ca,28Caは、保持部21Ca,23Caに対して、直線TAに沿って所定の範囲で平行移動して位置を変更する。図20において二点鎖線で示す位置P13Caは、光学像表示部26Ca,28Caが直線TAに沿った最も下端である。図20において実線で示す位置P11Caは、光学像表示部26Ca,28Caが直線TAに沿った最も上端である。なお、図19における位置P11Caと、図20における位置P11Caとは、同じ位置を示している。   As shown in FIGS. 18 and 20, the optical image display units 26Ca and 28Ca having a display panel capable of displaying an image are translated in a predetermined range along a straight line TA with respect to the holding units 21Ca and 23Ca. To change the position. In FIG. 20, a position P13Ca indicated by a two-dot chain line is the lowermost end of the optical image display units 26Ca and 28Ca along the straight line TA. In FIG. 20, a position P11Ca indicated by a solid line is the uppermost end of the optical image display units 26Ca and 28Ca along the straight line TA. Note that the position P11Ca in FIG. 19 and the position P11Ca in FIG. 20 indicate the same position.

図18に示すように、画像表示部20Caは、右保持部21Caと、右表示駆動部22Caと、左保持部23Caと、左表示駆動部24Caと、右光学像表示部26Caと、左光学像表示部28Caと、を含んでいる。右光学像表示部26Caおよび左光学像表示部28Caは、それぞれ、使用者が画像表示部20Caを装着した際に使用者の右および左の眼前に位置するように配置されている。右光学像表示部26Caの一端と左光学像表示部28Caの一端とは、使用者が画像表示部20Caを装着した際の使用者の眉間に対応する位置で、互いに接続されている。   As shown in FIG. 18, the image display unit 20Ca includes a right holding unit 21Ca, a right display driving unit 22Ca, a left holding unit 23Ca, a left display driving unit 24Ca, a right optical image display unit 26Ca, and a left optical image. Display unit 28Ca. The right optical image display unit 26Ca and the left optical image display unit 28Ca are respectively disposed so as to be positioned in front of the right and left eyes of the user when the user wears the image display unit 20Ca. One end of the right optical image display unit 26Ca and one end of the left optical image display unit 28Ca are connected to each other at a position corresponding to the eyebrow of the user when the user wears the image display unit 20Ca.

右保持部21Caは、右光学像表示部26Caの他端から装着基部91Caと接続されている連結部93Caに延伸して設けられた部材である。同様に、左保持部23Caは、左光学像表示部28Caの他端から連結部93Caに延伸して設けられた部材である。右表示駆動部22Caと左表示駆動部24Caとは、使用者が画像表示部20Caを装着した際の使用者の頭部に対向する側に配置されている。   The right holding portion 21Ca is a member that extends from the other end of the right optical image display portion 26Ca to a connecting portion 93Ca that is connected to the mounting base portion 91Ca. Similarly, the left holding portion 23Ca is a member that extends from the other end of the left optical image display portion 28Ca to the connecting portion 93Ca. The right display drive unit 22Ca and the left display drive unit 24Ca are arranged on the side facing the user's head when the user wears the image display unit 20Ca.

表示駆動部22Ca,24Caは、図19で後述する液晶ディスプレイ241Ca,242Ca(Liquid Crystal Display、以下「LCD241Ca,242Ca」とも呼ぶ)や投写光学系251Ca,252Ca等を含む。表示駆動部22Ca,24Caの構成の詳細な説明は後述する。光学像表示部26Ca,28Caは、後述する導光板261Ca,262Ca(図21参照)と調光板とを含んでいる。導光板261Ca,262Caは、光透過性の樹脂材料等によって形成され、表示駆動部22Ca,24Caから出力された画像光を使用者の眼に導く。調光板は、薄板状の光学素子であり、使用者の眼の側とは反対の側である画像表示部20Caの表側を覆うように配置されている。調光板の光透過率を調整することによって、使用者の眼に入る外光量を調整して虚像の視認のしやすさを調整できる。   The display drive units 22Ca and 24Ca include liquid crystal displays 241Ca and 242Ca (hereinafter also referred to as “LCD 241Ca and 242Ca”), projection optical systems 251Ca and 252Ca, and the like, which will be described later with reference to FIG. A detailed description of the configuration of the display drive units 22Ca and 24Ca will be described later. The optical image display units 26Ca and 28Ca include light guide plates 261Ca and 262Ca (see FIG. 21), which will be described later, and a light control plate. The light guide plates 261Ca and 262Ca are formed of a light transmissive resin material or the like, and guide the image light output from the display driving units 22Ca and 24Ca to the user's eyes. The light control plate is a thin plate-like optical element, and is arranged so as to cover the front side of the image display unit 20Ca which is the side opposite to the user's eye side. By adjusting the light transmittance of the light control plate, the amount of external light entering the user's eyes can be adjusted to adjust the visibility of the virtual image.

制御部10Caは、HMD100Caを制御するための装置である。制御部10Caは、静電式のトラックパッドや押下可能な複数のボタンなどを含む操作部135Caを有する。   The control unit 10Ca is a device for controlling the HMD 100Ca. The control unit 10Ca includes an operation unit 135Ca including an electrostatic trackpad, a plurality of buttons that can be pressed, and the like.

図21は、HMD100Caの構成を機能的に示すブロック図である。図21に示すように、制御部10Caは、ROM121Caと、RAM122Caと、電源130Caと、操作部135Caと、マーカー画像記憶部138Caと、CPU140Caと、インターフェイス180Caと、送信部51Ca(Tx51Ca)および送信部52Ca(Tx52Ca)と、を有している。   FIG. 21 is a block diagram functionally showing the configuration of the HMD 100Ca. As shown in FIG. 21, the control unit 10Ca includes a ROM 121Ca, a RAM 122Ca, a power source 130Ca, an operation unit 135Ca, a marker image storage unit 138Ca, a CPU 140Ca, an interface 180Ca, a transmission unit 51Ca (Tx51Ca), and a transmission unit. 52Ca (Tx52Ca).

電源130Caは、HMD100Caの各部に電力を供給する。ROM121Caには、種々のコンピュータープログラムが格納されている。後述するCPU140Caは、ROM121Caに格納された各種コンピュータープログラムを、RAM122Caに展開することで、各種コンピュータープログラムを実行する。   The power supply 130Ca supplies power to each part of the HMD 100Ca. Various computer programs are stored in the ROM 121Ca. The CPU 140Ca described later executes various computer programs by developing various computer programs stored in the ROM 121Ca in the RAM 122Ca.

マーカー画像記憶部138Caは、キャリブレーションに用いられるモデルマーカー(マーカーモデルとも呼ぶ)のデータおよび/または右光学像表示部26Caまたは左光学像表示部28Caに表示されるキャリブレーション用画像としてのマーカー画像IMGを記憶している。マーカー画像記憶部138Caは、右光学像表示部26Caに表示されるマーカー画像と左光学像表示部28Caに表示されるマーカー画像とを同じマーカー画像IMGとして記憶している。マーカー画像IMGとしては、2次元のモデルマーカーの画像であったり、3次元モデル空間(3Dコンピューターグラフィックス空間)で表現された上記モデルマーカー(2D)のデータ、またはそのモデルマーカーを、右光学像表示部26Caまたは左光学像表示部28Caのそれぞれの写像パラメーターに基づいて写像したものなどが用いられる。換言すると、マーカー画像IMGは、実物として存在する2次元または3次元の実物マーカーMK1の形状を、2次元として表した画像である。なお、実物マーカーMK1は、請求項における識別マーカーに相当する。   The marker image storage unit 138Ca stores data of model markers (also referred to as marker models) used for calibration and / or marker images as calibration images displayed on the right optical image display unit 26Ca or the left optical image display unit 28Ca. IMG is stored. The marker image storage unit 138Ca stores the marker image displayed on the right optical image display unit 26Ca and the marker image displayed on the left optical image display unit 28Ca as the same marker image IMG. The marker image IMG is a two-dimensional model marker image, the data of the model marker (2D) expressed in a three-dimensional model space (3D computer graphics space), or the model marker, and a right optical image. Those mapped based on the mapping parameters of the display unit 26Ca or the left optical image display unit 28Ca are used. In other words, the marker image IMG is an image in which the shape of a two-dimensional or three-dimensional real marker MK1 that exists as a real object is represented as two dimensions. The real marker MK1 corresponds to the identification marker in the claims.

図22ないし図25は、紙面PPに印刷された2次元の実物マーカーを示す説明図である。図22には、本実施形態のキャリブレーションに用いられる2つのマーカーとしての実物マーカーMK1,MK2が示されている。図22に示すように、実物マーカーMK1は、4つの頂点P0,P1,P2,P3を直線で結んだ正方形の中に、10個の正円を含むマーカーである。10個の円の内の5個の円は、頂点P0と頂点P2とを結んだ対角線CL1上に円の中心が存在する。当該5個の円は、対角線CL1に沿って、頂点P0に近い円から、円C1,C2,C3,C4,C5である。同じように、10個の円の内の5個の円は、頂点P1と頂点P3とを結んだ対角線CL2上に円の中心が存在する。当該5個の円は、対角線CL2に沿って、頂点P1に近い円から、円C6,C7,C3,C8,C9である。円C3は、対角線CL1と対角線CL2との交点であると共に、正方形の重心である点を中心とする円である。10個の円の内の1個の円である円C10は、正方形の重心を通り、かつ、P1とP2とを結ぶ直線に平行なY軸上に中心を有する。円C10は、正方形の重心を通り、Y軸に直交するX軸に沿って、円C5および円C9と同じ位置に中心を有する。換言すると、円C10は、円C5の中心と円C9の中心との中間に中心を有する円である。   22 to 25 are explanatory diagrams showing a two-dimensional real marker printed on the paper surface PP. FIG. 22 shows real markers MK1 and MK2 as two markers used in the calibration of the present embodiment. As shown in FIG. 22, the real marker MK1 is a marker that includes ten perfect circles in a square connecting four vertices P0, P1, P2, and P3 with straight lines. Five of the ten circles have the center of the circle on the diagonal line CL1 connecting the vertex P0 and the vertex P2. The five circles are circles C1, C2, C3, C4, and C5 from the circle close to the vertex P0 along the diagonal line CL1. Similarly, five of the ten circles have the center of the circle on the diagonal line CL2 connecting the vertex P1 and the vertex P3. The five circles are circles C6, C7, C3, C8, and C9 from the circle close to the vertex P1 along the diagonal line CL2. The circle C3 is a circle centered on a point that is the intersection of the diagonal line CL1 and the diagonal line CL2 and the center of gravity of the square. A circle C10, which is one of the ten circles, has a center on the Y axis that passes through the center of gravity of the square and is parallel to a straight line connecting P1 and P2. The circle C10 passes through the center of gravity of the square and has a center at the same position as the circles C5 and C9 along the X axis orthogonal to the Y axis. In other words, the circle C10 is a circle having a center between the center of the circle C5 and the center of the circle C9.

本実施形態では、対角線CL1上に中心を有する5個の円における隣接する円の中心間の距離は、同じ距離になるように設定されている。同じように、対角線CL2上に中心を有する5個の円における隣接する円の中心間の距離は、同じ距離になるように設定されている。また、対角線CL1に中心を有する隣接する円の中心間の距離と、対角線CL2に中心を有する隣接する円の中心間の距離とは、同じ距離である。なお、10個の内の円C10のみ、他の円との中心間との距離が異なる。10個の円の大きさは、同じ大きさである。なお、対角線CL1、対角線CL2、X軸、およびY軸は、実物マーカーMK1を説明するために、便宜上、図22に示しているのであり、実際の実物マーカーMK1には含まれない直線である。   In the present embodiment, the distance between the centers of adjacent circles in the five circles having the center on the diagonal line CL1 is set to be the same distance. Similarly, the distance between the centers of adjacent circles in the five circles having the center on the diagonal line CL2 is set to be the same distance. The distance between the centers of adjacent circles having the center on the diagonal line CL1 and the distance between the centers of adjacent circles having the center on the diagonal line CL2 are the same distance. Note that only the circle C10 out of 10 has a different distance from the center with respect to other circles. The ten circles have the same size. Note that the diagonal line CL1, the diagonal line CL2, the X axis, and the Y axis are shown in FIG. 22 for the sake of convenience in order to describe the real marker MK1, and are straight lines not included in the actual real marker MK1.

図22では、色の違いを、ハッチングを変えることで表している。具体的には、図22におけるハッチングが施された部分は、黒色であり、その他の部分は、白色である。そのため、図22に示すように、実物マーカーMK1は、白色の紙面PPに、白色によって周囲が囲まれた黒色の正方形によって形成され、その正方形の中に10個の円が白色で形成されている。   In FIG. 22, the difference in color is represented by changing the hatching. Specifically, the hatched portion in FIG. 22 is black, and the other portions are white. Therefore, as shown in FIG. 22, the real marker MK1 is formed on a white paper PP by a black square surrounded by white, and 10 circles are formed in white in the square. .

図22に示す実物マーカーMK2は、実物マーカーMK1を元に作成されたマーカーである。実物マーカーMK2は、実物マーカーMK1の大きさを縮小させ、かつ、黒色と白色との反転させたマーカーである。そのため、図22に示すように、実物マーカーMK2は、黒色によって周囲が囲まれた白色の正方形によって形成され、その正方形の中に10個の円が黒色で形成されている。本実施形態では、マーカー画像記憶部138Bは、実物マーカーMK1の2次元の画像であるマーカー画像IMGを記憶している。なお、実物マーカーMK2は、図23に示すように、実物マーカーMK1から分離されていてもよい。また、図24に示すように、実物マーカーMK2(MK1)に代えて、対角線上にない円を省略された実物マーカーMK1Aが採用されてもよい。なお、図25に示すように、実物マーカーMK1,MK2,MK1Aの裏面には、形状、模様、または色彩の特徴は必要ない。   A real marker MK2 shown in FIG. 22 is a marker created based on the real marker MK1. The real marker MK2 is a marker in which the size of the real marker MK1 is reduced and black and white are inverted. Therefore, as shown in FIG. 22, the real marker MK2 is formed of a white square surrounded by black, and 10 circles are formed of black in the square. In the present embodiment, the marker image storage unit 138B stores a marker image IMG that is a two-dimensional image of the real marker MK1. The real marker MK2 may be separated from the real marker MK1, as shown in FIG. In addition, as shown in FIG. 24, a real marker MK1A in which a circle not on a diagonal line is omitted may be employed instead of the real marker MK2 (MK1). As shown in FIG. 25, the back surface of the real markers MK1, MK2, and MK1A does not need a shape, pattern, or color feature.

図21に示すCPU140Caは、ROM121Caに格納されているコンピュータープログラムを、RAM122Caに展開することにより、オペレーティングシステム150Ca(OS150Ca)、表示制御部190Ca、音声処理部170Ca、画像処理部160Ca、表示設定部165Ca、マーカー特定部166Ca、およびパラメーター設定部167Caとして機能する。   The CPU 140Ca shown in FIG. 21 expands the computer program stored in the ROM 121Ca to the RAM 122Ca, thereby operating the operating system 150Ca (OS150Ca), the display control unit 190Ca, the sound processing unit 170Ca, the image processing unit 160Ca, and the display setting unit 165Ca. , Function as a marker specifying unit 166Ca and a parameter setting unit 167Ca.

表示制御部190Caは、右表示駆動部22Caおよび左表示駆動部24Caを制御する制御信号を生成する。表示制御部190Caは、右表示駆動部22Caおよび左表示駆動部24Caのそれぞれによる画像光の生成および射出を制御する。表示制御部190Caは、右LCD制御部211Caと左LCD制御部212Caとに対する制御信号のそれぞれを、送信部51Caおよび52Caを介して送信する。また、表示制御部190Caは、右バックライト制御部201Caと左バックライト制御部202Caとに対する制御信号のそれぞれを送信する。   The display control unit 190Ca generates control signals for controlling the right display drive unit 22Ca and the left display drive unit 24Ca. The display control unit 190Ca controls the generation and emission of image light by the right display driving unit 22Ca and the left display driving unit 24Ca. The display control unit 190Ca transmits control signals for the right LCD control unit 211Ca and the left LCD control unit 212Ca via the transmission units 51Ca and 52Ca. In addition, the display control unit 190Ca transmits control signals to the right backlight control unit 201Ca and the left backlight control unit 202Ca.

画像処理部160Caは、コンテンツに含まれる画像信号を取得し、送信部51Ca,52Caを介して、取得した画像信号を画像表示部20Caの受信部53Ca,54Caへと送信する。音声処理部170Caは、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、連結部材46Caに接続された右イヤホン32Ca内のスピーカー(図示しない)および左イヤホン34Ca内のスピーカー(図示しない)に対して供給する。   The image processing unit 160Ca acquires an image signal included in the content, and transmits the acquired image signal to the reception units 53Ca and 54Ca of the image display unit 20Ca via the transmission units 51Ca and 52Ca. The audio processing unit 170Ca acquires an audio signal included in the content, amplifies the acquired audio signal, and a speaker (not shown) in the right earphone 32Ca and a speaker (not shown) in the left earphone 34Ca connected to the connecting member 46Ca. (Not shown).

表示設定部165Caは、マーカー画像記憶部138Caに記憶されたマーカー画像IMGを右光学像表示部26Caまたは左光学像表示部28Caに表示させる。表示設定部165Caは、キャリブレーションが実行されているとき(キャリブレーション実行時)に、操作部135Caが受け付けた操作に基づいて、マーカー画像IMGを右光学像表示部26に表示する場合と、マーカー画像IMGを左光学像表示部28Caに表示する場合とを制御する。表示設定部165Caは、カメラ60Caが実物マーカーMK1を撮像してキャリブレーションを実行するときと、カメラ60Caが実物マーカーMK2を撮像してキャリブレーションを実行するときとで異なる大きさのマーカー画像IMGを右光学像表示部26Caまたは左光学像表示部28Caに表示させる。また、表示設定部165Caは、キャリブレーション実行時に、後述する文字画像等を光学像表示部26Ca,28Caに表示させる。   The display setting unit 165Ca displays the marker image IMG stored in the marker image storage unit 138Ca on the right optical image display unit 26Ca or the left optical image display unit 28Ca. The display setting unit 165Ca displays a marker image IMG on the right optical image display unit 26 based on an operation received by the operation unit 135Ca when calibration is being performed (during calibration execution), and a marker It controls when the image IMG is displayed on the left optical image display unit 28Ca. The display setting unit 165Ca displays marker images IMG of different sizes when the camera 60Ca images the real marker MK1 and executes calibration and when the camera 60Ca images the real marker MK2 and executes calibration. The image is displayed on the right optical image display unit 26Ca or the left optical image display unit 28Ca. Further, the display setting unit 165Ca displays a character image or the like, which will be described later, on the optical image display units 26Ca and 28Ca when performing calibration.

マーカー特定部166Caは、カメラ60Caによって撮像された撮像画像の中に実物マーカーMK1,MK2が印刷された紙面PPが含まれる場合に、撮像された紙面PPから、実物マーカーMK1,MK2を特定する。実物マーカーMK1,MK2を特定するための具体的な処理については、後述するが、マーカー特定部166Caは、実物マーカーMK1,MK2の4つの頂点、10個の円の中心の座標値を抽出することで、撮像画像の中から実物マーカーMK1,MK2を特定する。マーカー特定部166Caは、例えば、撮像画像の色の階調値を2値化することで、実物マーカーMK1,MK2における白色と黒色との部分を区別して、円の中心の座標を抽出する。   The marker specifying unit 166Ca specifies the actual markers MK1 and MK2 from the captured paper surface PP when the captured image captured by the camera 60Ca includes the paper surface PP on which the actual markers MK1 and MK2 are printed. Specific processing for specifying the real markers MK1 and MK2 will be described later. The marker specifying unit 166Ca extracts the four vertexes of the real markers MK1 and MK2 and the coordinate values of the centers of the ten circles. Thus, the real markers MK1 and MK2 are specified from the captured image. The marker specifying unit 166Ca, for example, binarizes the color gradation value of the captured image, thereby distinguishing the white and black portions of the real markers MK1 and MK2, and extracting the coordinates of the center of the circle.

パラメーター設定部167Caは、カメラ60Caによって撮像された特定のオブジェクト(以下、「特定オブジェクト」とも言う)に対応付けられた状態で光学像表示部26Ca,28Caに表示されるAR(Augmented Reality)画像の表示領域内での位置などを設定するために必要なパラメーター群を設定する。具体的には、パラメーター設定部167Caは、光学像表示部26Ca,28Caに表示されるAR画像の位置と大きさと向きとの少なくとも1つと、特定オブジェクトの位置と大きさと向きとの1つと、が対応した状態のAR画像を使用者USに視認させるパラメーター群を設定する。換言すると、パラメーター設定部167Caは、カメラ60Caに原点が固定された3次元座標系(3D)と、光学像表示部26Ca,28Caの表示領域(2D)とを対応付けるためのパラメーター群の少なくとも1つを、キャリブレーションによって算出する。なお、以降では、カメラ60Caに原点が固定された3次元座標系をカメラ座標系と呼ぶ。本実施形態では、カメラ座標系以外の座標系として、実物マーカーMK1または実物マーカーMK2の原点を基準とする実物マーカー座標系、カメラ60Caによって撮像された特定オブジェクトを基準とするオブジェクト座標系、右光学像表示部26Caの原点または左光学像表示部28Caの原点を基準とする表示部座標系などを定義する。   The parameter setting unit 167Ca is an AR (Augmented Reality) image displayed on the optical image display units 26Ca and 28Ca in a state associated with a specific object (hereinafter also referred to as “specific object”) captured by the camera 60Ca. Set the parameters required to set the position in the display area. Specifically, the parameter setting unit 167Ca includes at least one of the position, size, and orientation of the AR image displayed on the optical image display units 26Ca, 28Ca, and one of the position, size, and orientation of the specific object. A parameter group that allows the user US to visually recognize the AR image in a corresponding state is set. In other words, the parameter setting unit 167Ca is at least one parameter group for associating the three-dimensional coordinate system (3D) whose origin is fixed to the camera 60Ca and the display areas (2D) of the optical image display units 26Ca and 28Ca. Is calculated by calibration. Hereinafter, a three-dimensional coordinate system in which the origin is fixed to the camera 60Ca is referred to as a camera coordinate system. In the present embodiment, as a coordinate system other than the camera coordinate system, a real marker coordinate system based on the origin of the real marker MK1 or the real marker MK2, an object coordinate system based on a specific object imaged by the camera 60Ca, a right optical A display unit coordinate system or the like based on the origin of the image display unit 26Ca or the origin of the left optical image display unit 28Ca is defined.

ここで、パラメーター群は、「検出系パラメーターセット」と、「表示系パラメーターセット」と、を含む。「検出系パラメーターセット」は、カメラ60Caに関するカメラパラメーターCPを含む。「表示系パラメーターセット」は、カメラ60Caと光学像表示部26Ca,28Caとの間の空間関係を表す3Dから3Dへの「変換パラメーター」と、任意の3Dモデル(3次元座標で表わされたCGモデル)を画像(つまり2D)として表示するための3Dから2Dへの「写像パラメーター」と、を含む。これらのパラメーターは、必要に応じて行列またはベクトルの態様で表わされる。「一つのパラメーター」との表記は、一つの行列または一つのベクトルを示すこともあるし、一つの行列またはベクトルに含まれる複数の要素の一つを示すこともある。パラメーター設定部167Caは、パラメーター群のうち、必要なパラメーターを導出し、AR画像の表示の際に用いる。この結果、HMD100Caは、使用者USに、画像表示部20を介して、AR画像(ARモデル)の位置、大きさ、向き、奥行感の少なくとも一つと、特定オブジェクトのそれらにと、がほぼ一致する状態で当該AR画像を視認させることができる。もちろん、これらに加えて、HMD100Caは、色やテクスチャーなどの見えが互いに一致するようにしてもよい。   Here, the parameter group includes a “detection system parameter set” and a “display system parameter set”. The “detection system parameter set” includes a camera parameter CP related to the camera 60Ca. The “display system parameter set” includes a “conversion parameter” from 3D to 3D representing a spatial relationship between the camera 60Ca and the optical image display units 26Ca and 28Ca, and an arbitrary 3D model (represented by three-dimensional coordinates). 3D to 2D “mapping parameters” for displaying the CG model) as an image (ie 2D). These parameters are represented in the form of a matrix or vector as appropriate. The expression “one parameter” may indicate one matrix or one vector, or may indicate one of a plurality of elements included in one matrix or vector. The parameter setting unit 167Ca derives necessary parameters from the parameter group and uses them when displaying the AR image. As a result, the HMD 100Ca makes the user US approximately match at least one of the position, size, orientation, and depth of the AR image (AR model) with those of the specific object via the image display unit 20. In this state, the AR image can be visually recognized. Of course, in addition to these, the HMD 100Ca may be configured such that the appearances of colors, textures, and the like match each other.

表示設定部165Caは、キャリブレーションが実行されているときに、AR画像または設定画像SIM(後述)を右光学像表示部26Caまたは左光学像表示部28Caに表示させる。設定画像SIMを用いた詳細な処理については後述する。   The display setting unit 165Ca displays an AR image or a setting image SIM (described later) on the right optical image display unit 26Ca or the left optical image display unit 28Ca when calibration is being performed. Detailed processing using the setting image SIM will be described later.

インターフェイス180Caは、制御部10Caに対して、コンテンツの供給元となる種々の外部機器OAを接続するためのインターフェイスである。外部機器OAとしては、例えば、ARシナリオを記憶している記憶装置、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等、がある。インターフェイス180Caとしては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等、を用いることができる。   The interface 180Ca is an interface for connecting various external devices OA that are content supply sources to the control unit 10Ca. Examples of the external device OA include a storage device that stores an AR scenario, a personal computer (PC), a mobile phone terminal, and a game terminal. As the interface 180Ca, for example, a USB interface, a micro USB interface, a memory card interface, or the like can be used.

図21に示すように、画像表示部20Caは、右表示駆動部22Caと、左表示駆動部24Caと、右光学像表示部26Caとしての右導光板261Caと、左光学像表示部28Caとしての左導光板262Caと、を備えている。   As shown in FIG. 21, the image display unit 20Ca includes a right display drive unit 22Ca, a left display drive unit 24Ca, a right light guide plate 261Ca as a right optical image display unit 26Ca, and a left as a left optical image display unit 28Ca. Light guide plate 262Ca.

右表示駆動部22Caは、受信部53Ca(Rx53Ca)と、光源として機能する右バックライト制御部201Ca(右BL制御部201Ca)および右バックライト221Ca(右BL221Ca)と、表示素子として機能する右LCD制御部211Caおよび右LCD241Caと、右投写光学系251Caと、を含んでいる。右バックライト制御部201Caと右バックライト221Caとは、光源として機能する。右LCD制御部211Caと右LCD241Caとは、表示素子として機能する。   The right display drive unit 22Ca includes a reception unit 53Ca (Rx53Ca), a right backlight control unit 201Ca (right BL control unit 201Ca) and a right backlight 221Ca (right BL221Ca) that function as a light source, and a right LCD that functions as a display element. A control unit 211Ca, a right LCD 241Ca, and a right projection optical system 251Ca are included. The right backlight control unit 201Ca and the right backlight 221Ca function as a light source. The right LCD control unit 211Ca and the right LCD 241Ca function as display elements.

受信部53Caは、制御部10Caと画像表示部20Caとの間におけるシリアル伝送のためのレシーバーとして機能する。右バックライト制御部201Caは、入力された制御信号に基づいて、右バックライト221Caを駆動する。右バックライト221Caは、例えば、LEDやエレクトロルミネセンス(EL)等の発光体である。右LCD制御部211Caは、画像処理部160Caおよび表示制御部190Caから送信された制御信号に基づいて、右LCD241Caを駆動する。右LCD241Caは、複数の画素をマトリクス状に配置した透過型液晶パネルである。   The receiving unit 53Ca functions as a receiver for serial transmission between the control unit 10Ca and the image display unit 20Ca. The right backlight control unit 201Ca drives the right backlight 221Ca based on the input control signal. The right backlight 221Ca is a light emitter such as an LED or electroluminescence (EL). The right LCD control unit 211Ca drives the right LCD 241Ca based on the control signals transmitted from the image processing unit 160Ca and the display control unit 190Ca. The right LCD 241Ca is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

右投写光学系251Caは、右LCD241Caから射出された画像光を並行状態の光束にするコリメートレンズによって構成される。右光学像表示部26Caとしての右導光板261Caは、右投写光学系251Caから出力された画像光を、所定の光路に沿って反射させつつ使用者の右眼REに導く。なお、左表示駆動部24Caは、右表示駆動部22Caと同様の構成を有し、使用者の左眼LEに対応するため、説明を省略する。   The right projection optical system 251Ca is configured by a collimator lens that converts the image light emitted from the right LCD 241Ca into a light beam in a parallel state. The right light guide plate 261Ca as the right optical image display unit 26Ca guides the image light output from the right projection optical system 251Ca to the right eye RE of the user while reflecting the light along a predetermined optical path. Note that the left display drive unit 24Ca has the same configuration as the right display drive unit 22Ca and corresponds to the left eye LE of the user, and thus description thereof is omitted.

C−2.キャリブレーション実行処理:
図26は、第3実施形態におけるキャリブレーション実行処理のフローチャートである。本実施形態のキャリブレーション実行処理は、2つのモード、すなわち、第1設定モードと第2設定モードとを含む。第1設定モードでは、HMD100Caは、使用者USに片眼ずつキャリブレーションを実施させる。第2設定モードでは、HMD100Caは、使用者USに両眼で調整を実施させる。
C-2. Calibration execution process:
FIG. 26 is a flowchart of calibration execution processing in the third embodiment. The calibration execution process of the present embodiment includes two modes, that is, a first setting mode and a second setting mode. In the first setting mode, the HMD 100Ca causes the user US to perform calibration for each eye. In the second setting mode, the HMD 100Ca causes the user US to perform adjustment with both eyes.

キャリブレーション実行処理では、初めに、操作部135Caが所定の操作を受け付けると、パラメーター設定部167Caは、今から実行するキャリブレーションが最初のキャリブレーションの設定であるか否かを判定する(ステップSC11)。マーカー画像記憶部138Caには、実行されるキャリブレーションが最初であるか否かのデータも記憶されている。本実施形態では、使用者US毎にキャリブレーションが最初であるか否かが判別されてもよい。具体的には、カメラ60Caが使用者USの掌の形状・模様を撮像し、CPU140Caが使用者USを特定し、キャリブレーションがその使用者USにとって最初に実行されるのか否かを判定してもよい。使用者USの特定は、近距離無線通信を用いたIDカードによる特定でもよい。パラメーター設定部167Caは、最初のキャリブレーションの設定であると判定した場合には(ステップSC11:YES)、第1設定モードに移行する(ステップSC20)。第1設定モードの詳細については後述するが、第1設定モードでは、パラメーター設定部167Caが右光学像表示部26Caと左光学像表示部28Caとに、別々にマーカー画像IMGを表示させる。その後、パラメーター設定部167Caは、マーカー画像IMGと実物マーカーMK1,MK2とが一致するように使用者USに視認された状態でカメラ60Caに撮像された実物マーカーMK1,MK2の撮像画像を用いて、変換パラメーターおよびカメラパラメーターCPを設定する。   In the calibration execution process, first, when the operation unit 135Ca receives a predetermined operation, the parameter setting unit 167Ca determines whether or not the calibration to be performed from now is the first calibration setting (step SC11). ). The marker image storage unit 138Ca also stores data indicating whether or not the calibration to be executed is the first. In the present embodiment, it may be determined whether or not the calibration is first for each user US. Specifically, the camera 60Ca captures the shape and pattern of the palm of the user US, the CPU 140Ca identifies the user US, and determines whether calibration is performed for the user US first. Also good. The user US may be specified by an ID card using short-range wireless communication. If the parameter setting unit 167Ca determines that it is the first calibration setting (step SC11: YES), the parameter setting unit 167Ca shifts to the first setting mode (step SC20). Although details of the first setting mode will be described later, in the first setting mode, the parameter setting unit 167Ca displays the marker images IMG separately on the right optical image display unit 26Ca and the left optical image display unit 28Ca. Thereafter, the parameter setting unit 167Ca uses the captured images of the actual markers MK1 and MK2 captured by the camera 60Ca in a state visually recognized by the user US so that the marker image IMG and the actual markers MK1 and MK2 match. Set conversion parameters and camera parameters CP.

ステップSC20の処理として、パラメーター設定部167Caが第1設定モードにおいてキャリブレーションを実行すると、表示設定部165Caは、設定された変換パラメーターおよびカメラパラメーターCPを用いて、特定オブジェクトに対応付けられた設定画像SIMを光学像表示部26Ca,28Caに表示させる(ステップSC15)。本実施形態では、特定オブジェクトは実物マーカーMK1,MK2であるが、特定オブジェクトはこれらに限定されない。光学像表示部26Ca,28Caに設定画像SIMが表示されると、パラメーター設定部167Caは、操作部135Caが受け付けた操作に応じて、変換パラメーターおよびカメラパラメーターCPの値がうまく調整されたか否かを決定する(ステップSC17)。具体的には、特定オブジェクトの位置および向き(姿勢)に、設定画像SIMが対応付けられているように使用者USが視認しているか否かの判断を使用者USが行ない、当該判断に応じて、使用者USが操作部135Caを操作すればよい。パラメーター設定部167Caは、設定された変換パラメーターおよびカメラパラメーターCPでよいとの入力を受けた場合には(ステップSC17:YES)、キャリブレーション実行処理を終了する。   When the parameter setting unit 167Ca executes calibration in the first setting mode as the process of step SC20, the display setting unit 165Ca uses the set conversion parameter and camera parameter CP to set the setting image associated with the specific object. The SIM is displayed on the optical image display units 26Ca and 28Ca (step SC15). In this embodiment, the specific objects are real markers MK1 and MK2, but the specific objects are not limited to these. When the setting image SIM is displayed on the optical image display units 26Ca and 28Ca, the parameter setting unit 167Ca determines whether or not the values of the conversion parameter and the camera parameter CP are successfully adjusted according to the operation received by the operation unit 135Ca. Determine (step SC17). Specifically, the user US determines whether or not the user US is visually recognizing the setting image SIM so as to be associated with the position and orientation (posture) of the specific object, and responds to the determination. Thus, the user US may operate the operation unit 135Ca. When the parameter setting unit 167Ca receives an input indicating that the set conversion parameter and camera parameter CP are acceptable (step SC17: YES), the calibration execution process ends.

ステップSC17の処理において、操作部135Caが所定の操作を受け付けることで、パラメーター設定部167Caが、設定された変換パラメーターおよびカメラパラメーターCPではよくないとの入力を受けた場合、または大きさと奥行感の調整がさらに必要であるとの入力を受けた場合には(ステップSC17:NO)、ステップSC11以降の処理を繰り返す。パラメーター設定部167Caは、ステップSC11の処理において、今から実行しようとするキャリブレーションが最初のキャリブレーションの設定ではないと判定した場合には(ステップSC11:NO)、操作部135Caが所定の操作を受け付けることで、第2設定モードに移行するか否かを判定する(ステップSC13)。パラメーター設定部167Caは、第2設定モードに移行しないと判定した場合には(ステップSC13:NO)、以上で説明した第1設定モードに移行する(ステップSC20)。   In the process of step SC17, when the operation unit 135Ca receives a predetermined operation, the parameter setting unit 167Ca receives an input indicating that the set conversion parameter and camera parameter CP are not satisfactory, or the size and depth of When an input indicating that further adjustment is necessary is received (step SC17: NO), the processes after step SC11 are repeated. If the parameter setting unit 167Ca determines in the process of step SC11 that the calibration to be executed is not the first calibration setting (step SC11: NO), the operation unit 135Ca performs a predetermined operation. By accepting, it is determined whether or not to shift to the second setting mode (step SC13). If it is determined that the parameter setting unit 167Ca does not shift to the second setting mode (step SC13: NO), the parameter setting unit 167Ca shifts to the first setting mode described above (step SC20).

ステップSC13の処理において、パラメーター設定部167Caは、第2設定モードに移行すると判定した場合には(ステップSC13:YES)、第2設定モードに移行する(ステップSC30)。第2設定モードの詳細については後述するが、第2設定モードでは、カメラ60Caが特定オブジェクトを撮像することで得られるカメラ60Caに対する特定オブジェクトの位置および姿勢を、表示設定部165Caは、既に実行された第1設定モードまたは第2設定モードにおいて設定されたパラメーター群を用いて特定オブジェクトの右光学像表示部26Caに対する位置および向き(姿勢)に変換する。そして、表示設定部165Caは、当該変換された位置および姿勢と同じ位置と姿勢で設定画像SIMを右光学像表示部26Caおよび左光学像表示部28Caに表示させる。その後、操作部135Caが受け付けた所定の操作に応じて、パラメーター設定部167Caは、特定オブジェクトに対応付けられた設定画像SIMを変更するように、パラメーター群のうちのいくつかをさらに調整させる。パラメーター設定部167Caは、第2設定モードにおいてキャリブレーションを実行すると、表示設定部165CaがステップSC15の処理を実行して、その後の処理が繰り返される。   In the process of step SC13, when parameter setting unit 167Ca determines to shift to the second setting mode (step SC13: YES), it shifts to the second setting mode (step SC30). Although details of the second setting mode will be described later, in the second setting mode, the display setting unit 165Ca has already executed the position and orientation of the specific object with respect to the camera 60Ca obtained by the camera 60Ca capturing the specific object. The parameter group set in the first setting mode or the second setting mode is used to convert the specific object into the position and orientation (attitude) with respect to the right optical image display unit 26Ca. Then, the display setting unit 165Ca displays the setting image SIM on the right optical image display unit 26Ca and the left optical image display unit 28Ca at the same position and posture as the converted position and posture. Thereafter, in accordance with a predetermined operation received by the operation unit 135Ca, the parameter setting unit 167Ca further adjusts some of the parameter groups so as to change the setting image SIM associated with the specific object. When the parameter setting unit 167Ca executes calibration in the second setting mode, the display setting unit 165Ca executes the process of step SC15, and the subsequent processes are repeated.

C−2−1.第1設定モード:
第1設定モードで実行される処理は、以下のような処理である。HMD100Caは、大きさの異なる2つの実物マーカーMK1,MK2を用いて、使用者USに、1つの眼について1度に1回のアライメントを2回実施させることで、合計4回のアライメントを実施させる。具体的には、まず、HMD100Caは、右光学像表示部26Caまたは左光学像表示部28Caに、マーカー画像IMGを表示させる。マーカー画像IMGは、右光学像表示部26Caまたは左光学像表示部28Caのそれぞれに対して、仮想的な位置と姿勢(3D)とを有するモデルマーカーを、光学像表示部26Ca,28Caの表示領域(2D)へ写像、すなわちレンダリング、したものである。本実施形態では、当該仮想的な位置と姿勢とは、光学像表示部26Ca,28Caに対して固定されているが、後述するように、可変であってもよい。使用者USは、右光学像表示部26Caまたは左光学像表示部28Caに表示されたマーカー画像IMGと、実物マーカーMK1または実物マーカーMK2とが、重複または一致して視認することが可能な位置および向き(姿勢)に移動する。使用者USがマーカーIMGと実物マーカーMK1,MK2とが一致するように視認する場合には、実物マーカーMK1,MK2は右光学像表示部26Caまたは左光学像表示部28Caに対して、実物マーカーMK1,MK2の大きさに応じた既定の距離となる位置と上記仮想的な姿勢とを取っていることとなる。マーカー画像IMGと、実物マーカーMK1または実物マーカーMK2とが一致している状態で、パラメーター設定部167Caが、カメラ60Caを用いて実物マーカーMK1または実物マーカーMK2を撮像する。パラメーター設定部167Caは、撮像画像に含まれる実物マーカーMK1または実物マーカーMK2を用いて、変換パラメーターおよびカメラパラメーターCPを設定することとなる。
C-2-1. First setting mode:
The process executed in the first setting mode is the following process. HMD100Ca causes the user US to perform alignment once at a time twice for one eye using two real markers MK1 and MK2 of different sizes, for a total of four alignments. . Specifically, first, the HMD 100Ca displays the marker image IMG on the right optical image display unit 26Ca or the left optical image display unit 28Ca. The marker image IMG represents a model marker having a virtual position and orientation (3D) with respect to each of the right optical image display unit 26Ca or the left optical image display unit 28Ca, and display areas of the optical image display units 26Ca and 28Ca. This is a mapping (rendering) to (2D). In the present embodiment, the virtual position and orientation are fixed with respect to the optical image display units 26Ca and 28Ca, but may be variable as will be described later. The position where the user US can visually recognize the marker image IMG displayed on the right optical image display unit 26Ca or the left optical image display unit 28Ca and the actual marker MK1 or the actual marker MK2 in an overlapping or coincident manner. Move in direction (posture). When the user US visually recognizes that the marker IMG and the actual markers MK1 and MK2 coincide with each other, the actual markers MK1 and MK2 are compared to the right optical image display unit 26Ca or the left optical image display unit 28Ca. , MK2 takes a predetermined distance corresponding to the size of MK2 and the virtual posture. In a state where the marker image IMG and the real marker MK1 or the real marker MK2 match, the parameter setting unit 167Ca images the real marker MK1 or the real marker MK2 using the camera 60Ca. The parameter setting unit 167Ca sets the conversion parameter and the camera parameter CP using the real marker MK1 or the real marker MK2 included in the captured image.

図27は、第1設定モードのフローチャートである。第1設定モードでは、パラメーター設定部167Caが、右光学像表示部26Caに関するアライメントを成立させた状態でキャリブレーションデータを収集し、左光学像表示部28Caに関するアライメントを成立させた状態でキャリブレーションデータを収集し、その後、変換パラメーターおよびカメラパラメーターCPを設定する。   FIG. 27 is a flowchart of the first setting mode. In the first setting mode, the parameter setting unit 167Ca collects calibration data in a state in which the alignment for the right optical image display unit 26Ca is established, and the calibration data in a state in which the alignment for the left optical image display unit 28Ca is established. After that, conversion parameters and camera parameters CP are set.

第1設定モードでは、初めに、表示設定部165Caが右光学像表示部26Caにマーカー画像IMGを表示させる(ステップSC201)。図28は、マーカー画像IMGが表示された場合の光学像表示部26Caのイメージ図である。図28に示すように、表示設定部165Caは、マーカーの正方形の外枠と、正方形の中に含まれる10個の円の外枠と、を右光学像表示部26Caに表示させる。表示設定部165Caは、マーカー画像IMGを、赤色の線として右光学像表示部26に表示させる。なお、図28では、画像表示部20Caの内の右光学像表示部26Ca以外の部分の図示を省略し、以降の図面でも省略する。   In the first setting mode, first, the display setting unit 165Ca displays the marker image IMG on the right optical image display unit 26Ca (step SC201). FIG. 28 is an image diagram of the optical image display unit 26Ca when the marker image IMG is displayed. As shown in FIG. 28, the display setting unit 165Ca causes the right optical image display unit 26Ca to display a square outer frame of the marker and an outer frame of ten circles included in the square. The display setting unit 165Ca displays the marker image IMG on the right optical image display unit 26 as a red line. In FIG. 28, the illustration of the portion other than the right optical image display unit 26Ca in the image display unit 20Ca is omitted, and is omitted in the subsequent drawings.

右光学像表示部26Caにマーカー画像IMGが表示されると、パラメーター設定部167Caは、マーカー画像IMGと実物マーカーMK2とが一致して視認されるように、HMD100Caを装着したまま使用者USに位置と姿勢を合わせることを促す(図27のステップSC210)。   When the marker image IMG is displayed on the right optical image display unit 26Ca, the parameter setting unit 167Ca is positioned at the user US while wearing the HMD 100Ca so that the marker image IMG and the real marker MK2 are visually recognized. And prompting the user to match the posture (step SC210 in FIG. 27).

右画像表示部26Caにはさらにメッセージが表示されてもよい。HMD100Caは、使用者USがマーカー画像IMGと実物マーカーMK2とが一致するように視認した場合に、使用者USは、タッチパッドの操作、ボタンの押下、または音声コマンドの発声をするように、指示する。パラメーター設定部167Caがこれら操作または音声コマンドを受け付けた場合に、カメラ60CaがマーカーMK2を撮像、すなわちキャリブレーションデータの収集をする(ステップSC202)。音声コマンドに基づいて、パラメーター設定部167Caがキャリブレーションデータを収集する場合には、使用者USの頭部の動きが少ないことが期待される。そのため、音声コマンドに基づく操作では、タッチ操作やボタンの押下の場合に比べて、使用者USが成立させたアライメントからのずれが少ない状態でのキャリブレーションデータの収集が可能となり、結果として、AR画像の重畳精度のよいHMD100Caが得られる。   A message may be further displayed on the right image display unit 26Ca. When the user US visually recognizes that the marker image IMG and the real marker MK2 coincide with each other, the HMD 100Ca instructs the user US to operate the touch pad, press a button, or speak a voice command. To do. When the parameter setting unit 167Ca accepts these operations or voice commands, the camera 60Ca images the marker MK2, that is, collects calibration data (step SC202). When the parameter setting unit 167Ca collects calibration data based on the voice command, it is expected that the movement of the head of the user US is small. Therefore, in the operation based on the voice command, it is possible to collect calibration data in a state in which the deviation from the alignment established by the user US is less than in the case of the touch operation or the button press, and as a result, the AR HMD100Ca with high image superimposition accuracy is obtained.

図27のステップSC210のマーカー画像IMGと実物マーカーMK2との位置と姿勢を合わせる処理(目視によるアライメント処理)およびキャリブレーションデータの収集が実行されると、表示設定部165Caは、ステップSC201の処理と同じく図28に示すように、右光学像表示部26Caにマーカー画像IMGを表示させる(ステップSC203)。その後、パラメーター設定部167Caは、マーカー画像IMGと実物マーカーMK1とが一致して視認されるように、HMD100Caを装着したまま使用者USに位置と姿勢を合わせることを促す(ステップSC220)。この状態で実物マーカーMK1が撮像されることで、パラメーター設定部167Caは、キャリブレーションデータを収集する(ステップSC204)。ここで、実物マーカーMK1は、実物マーカーMK2よりも大きい。そのため、ステップSC220の処理では、使用者USがマーカー画像IMGと実物マーカーMK1とが一致するように視認する場合には、右光学像表示部26Caと実物マーカーMK1との距離は、実物マーカーMK2の場合と比べて大きくなる。   When the process of aligning the position and orientation of the marker image IMG and the actual marker MK2 (visual alignment process) and the collection of calibration data in step SC210 of FIG. 27 are performed, the display setting unit 165Ca performs the process of step SC201. Similarly, as shown in FIG. 28, the marker image IMG is displayed on the right optical image display unit 26Ca (step SC203). Thereafter, the parameter setting unit 167Ca prompts the user US to adjust the position and posture while wearing the HMD 100Ca so that the marker image IMG and the real marker MK1 are visually recognized (step SC220). By capturing an image of the real marker MK1 in this state, the parameter setting unit 167Ca collects calibration data (step SC204). Here, the real marker MK1 is larger than the real marker MK2. Therefore, in the process of step SC220, when the user US visually recognizes that the marker image IMG and the real marker MK1 coincide with each other, the distance between the right optical image display unit 26Ca and the real marker MK1 is equal to that of the real marker MK2. It becomes larger than the case.

パラメーター設定部167Caは、左光学像表示部28Caに関して、右光学像表示部26CaにおけるステップSC201からステップSC204までの処理と同じ処理として、図27のステップSC205からステップSC208までの処理を実行する。左右の光学像表示部26Ca、28Caに関して第1設定モードにおける各処理(ステップSC201からステップSC208までの処理)が実行されると、パラメーター設定部167Caは、後述する式(69)を最小化するような、右光学像表示部26Caに関するパラメーター群と、左光学像表示部28Caに関するパラメーター群とを設定できる(ステップSC209)。   The parameter setting unit 167Ca executes the processing from step SC205 to step SC208 in FIG. 27 as the same processing from step SC201 to step SC204 in the right optical image display unit 26Ca with respect to the left optical image display unit 28Ca. When each process in the first setting mode (the process from step SC201 to step SC208) is executed for the left and right optical image display units 26Ca and 28Ca, the parameter setting unit 167Ca minimizes the expression (69) described later. In addition, a parameter group related to the right optical image display unit 26Ca and a parameter group related to the left optical image display unit 28Ca can be set (step SC209).

C−2−2.パラメーターの設定:
ここでは、第1設定モードにおいて、パラメーター設定部167Caが、カメラ60Caから得られた実物マーカーMK2の撮像データおよび実物マーカーMK1の撮像データを用いて、変換パラメーターおよびカメラパラメーターCPのパラメーターの設定する手順を説明する。なお、本実施形態の第1設定モードでは、カメラパラメーターCPは、必ずしも最適化される必要がなく、設計値に固定されていてよい。ただし、以下に示す本実施形態では、使用者USが必要に応じてカメラパラメーターCPを最適化することができるように、カメラパラメーターCPを最適化変数として含んだアルゴリズムを提示している。他の実施形態において、カメラパラメーターCPを最適化する必要がない場合には、これらを定数(固定値)として以下の式を扱えばよい。
C-2-2. Parameter settings:
Here, in the first setting mode, the parameter setting unit 167Ca uses the imaging data of the real marker MK2 and the imaging data of the real marker MK1 obtained from the camera 60Ca to set the conversion parameter and the parameter of the camera parameter CP. Will be explained. In the first setting mode of the present embodiment, the camera parameter CP does not necessarily need to be optimized, and may be fixed to a design value. However, in the present embodiment described below, an algorithm including the camera parameter CP as an optimization variable is presented so that the user US can optimize the camera parameter CP as necessary. In other embodiments, when it is not necessary to optimize the camera parameter CP, these may be treated as constants (fixed values) and the following equations may be handled.

C−2−2−1.カメラパラメーターについて:
カメラ60Caに関するカメラパラメーターCPとして、本実施形態では、4個のカメラパラメーターCP(fx、fy、Cx、Cy)が利用される。(fx、fy)は撮像部であるカメラ60の焦点距離であり、画素密度に基づいて画素数に換算されている。(Cx、Cy)は、カメラ主点位置と呼ばれ、撮像画像の中心位置を意味し、たとえばカメラ60Caのイメージセンサーに固定された2D座標系で表わされ得る。
C-2-2-1. About camera parameters:
In this embodiment, four camera parameters CP (fx, fy, Cx, Cy) are used as camera parameters CP related to the camera 60Ca. (Fx, fy) is a focal length of the camera 60 which is an imaging unit, and is converted into the number of pixels based on the pixel density. (Cx, Cy) is called a camera principal point position, means the center position of the captured image, and can be represented by, for example, a 2D coordinate system fixed to the image sensor of the camera 60Ca.

カメラパラメーターCPは、撮像部の主要部分を構成するカメラ60Caの製品仕様から知ることができる(以下ではこれをデフォルトカメラパラメーターとも表記する)。ただし、実際のカメラのカメラパラメーターCPがデフォルトカメラパラメーターから大きくずれていることが多い。しかも、同じ仕様のカメラであっても、製品が異なれば、製品ごとのカメラ間で、カメラパラメーターCPがばらついている(揃っていない)ことがある。   The camera parameter CP can be known from the product specifications of the camera 60Ca that constitutes the main part of the imaging unit (hereinafter also referred to as a default camera parameter). However, the camera parameter CP of the actual camera often deviates greatly from the default camera parameter. In addition, even if the cameras have the same specifications, if the products are different, the camera parameters CP may vary between cameras for each product.

AR画像として光学像表示部26Ca,28Caに表示されるARモデルにおける位置、大きさ、姿勢の少なくとも一つが実物体にアライン(重畳)するように使用者に視認させる場合、カメラ60Caは、当該実物体の位置および姿勢を検出する検出機として機能する。このとき、パラメーター設定部167Caは、カメラパラメーターCPを用いて、カメラ60Caに撮像された実物体のカメラ60Caに対する位置および姿勢を推定する。さらに、パラメーター設定部167Caは、当該位置および姿勢を、カメラ60Caと左光学像表示部28Ca(右光学像表示部26Ca)との間の相対位置関係を用いて、左光学像表示部28Caに対する実物体の位置および姿勢に変換する。さらに、パラメーター設定部167Caは、当該変換された位置および姿勢に基づいて、ARモデルの位置および姿勢を決定する。そして、画像処理部160Caは、当該位置および姿勢を有するARモデルを、写像パラメーターを用いて表示領域に写像(変換)し、表示バッファ(例えばRAM122Ca)に書き込む。そして、表示制御部190Caは、表示バッファに書き込まれたARモデルを左光学像表示部28Caに表示する。このため、カメラパラメーターCPがデフォルトカメラパラメーターである場合には、推定される実物体の位置および姿勢に誤差が含まれることとなる。そうすると、推定された位置および姿勢の誤差に由来して、表示されたARモデルと実物体との重畳に誤差があるように使用者に視認される。   When the user visually recognizes that at least one of the position, size, and orientation in the AR model displayed as the AR image on the optical image display units 26Ca and 28Ca is aligned (superimposed) on the real object, the camera 60Ca It functions as a detector that detects the position and posture of the body. At this time, the parameter setting unit 167Ca uses the camera parameter CP to estimate the position and orientation of the real object captured by the camera 60Ca with respect to the camera 60Ca. Further, the parameter setting unit 167Ca uses the relative position relationship between the camera 60Ca and the left optical image display unit 28Ca (right optical image display unit 26Ca) to determine the actual position and orientation of the actual position relative to the left optical image display unit 28Ca. Convert to body position and posture. Further, the parameter setting unit 167Ca determines the position and orientation of the AR model based on the converted position and orientation. Then, the image processing unit 160Ca maps (converts) the AR model having the position and orientation onto the display area using the mapping parameters, and writes the AR model in the display buffer (for example, the RAM 122Ca). Then, the display control unit 190Ca displays the AR model written in the display buffer on the left optical image display unit 28Ca. For this reason, when the camera parameter CP is the default camera parameter, an error is included in the estimated position and orientation of the real object. Then, it is visually recognized by the user that there is an error in the superposition of the displayed AR model and the real object due to the estimated position and orientation error.

そこで、本実施形態では、ARモデルが対象物に重畳して使用者USに視認されるようにするためのキャリブレーションの際に、パラメーター設定部167Caは、カメラパラメーターCPを、実物マーカーMK2および実物マーカーMK1の撮像データを用いて、最適化して設定する。そして、設定されたカメラパラメーターCPが用いられて、対象物の位置および姿勢が検出(推定)されるようにする。そうすれば、ARモデルの表示において、表示されるARモデルと実物体との間に発生するずれが使用者USに視認される度合いが低くなる。後述するように、同じHMD100Caの使用者USが同一人であっても、カメラパラメーターCPの設定は、キャリブレーションが行なわれるごとに行なわれ、当該キャリブレーションに引き続いて行なわれる対象物とARモデルとの間での位置、大きさ、向きの少なくとも一つが一致した表示のために使用されることが好ましい。これは、キャリブレーションの際に、必ずしも使用者は、実物マーカーMK2または実物マーカーMK1と、実物マーカーMK2または実物マーカーMK1に対応したマーカー画像IMGとを、同じ精度で位置および姿勢を合わせるとは限らないことによる。たとえ使用者USが違う精度で位置および姿勢を合わせたとしても、それに応じたカメラパラメーターCPが設定されることから、実物体に対するARモデルの重畳表示がされる場合に重畳表示のずれの増大が抑制される。   Therefore, in the present embodiment, the parameter setting unit 167Ca sets the camera parameter CP to the real marker MK2 and the real object when performing calibration so that the AR model is superimposed on the object and visually recognized by the user US. Using the imaging data of the marker MK1, the setting is optimized. Then, the set camera parameter CP is used to detect (estimate) the position and orientation of the object. Then, in the display of the AR model, the degree to which the user US visually recognizes the deviation that occurs between the displayed AR model and the real object is reduced. As will be described later, even if the user US of the same HMD 100Ca is the same person, the camera parameter CP is set every time calibration is performed, and the object and the AR model that are performed following the calibration are set. It is preferably used for display in which at least one of the position, the size, and the direction between them is the same. In the calibration, the user does not always match the position and posture of the real marker MK2 or the real marker MK1 and the marker image IMG corresponding to the real marker MK2 or the real marker MK1 with the same accuracy. By not. Even if the user US adjusts the position and orientation with different accuracy, the camera parameter CP is set accordingly, so that when the AR model is superimposed on the real object, the deviation of the superimposed display increases. It is suppressed.

C−2−2−2.変換パラメーターについて:
また、本実施形態のHMD100Caは、カメラ60Caと光学像表示部26Ca,28Caとの間の相対位置関係が変化する構造を有する。デフォルトカメラパラメーターについての説明からも理解されるように、ARモデルにおける位置、大きさ、姿勢の少なくとも一つが実物体にアライン(重畳)するように使用者に視認させる場合、実際のカメラ60Caと光学像表示部26Ca,28Caとの間の相対位置関係とは異なる相対位置関係に基づいてARモデルを表示すると、表示されたARモデルと実物体との重畳に誤差が視認される。
C-2-2-2. About conversion parameters:
Further, the HMD 100Ca of the present embodiment has a structure in which the relative positional relationship between the camera 60Ca and the optical image display units 26Ca and 28Ca is changed. As can be understood from the description of the default camera parameters, when the user visually recognizes that at least one of the position, size, and orientation in the AR model is aligned (superimposed) on the real object, the actual camera 60Ca and the optical When the AR model is displayed based on a relative positional relationship different from the relative positional relationship between the image display units 26Ca and 28Ca, an error is visually recognized in the superimposition of the displayed AR model and the real object.

そこで、本実施形態では、ARモデルが対象物に重畳して使用者に視認されるようにするためのキャリブレーションの際に、カメラ60Caの座標系と、右光学像表示部26Caの座標系および左光学像表示部28Caの座標系と、の間の相対位置関係(回転および並進の少なくとも一つ)を表す変換パラメーターを調整または設定する。そして、設定された当該変換パラメーターが表す空間関係(相対位置関係)を用いてARモデルの表示をすると、使用者USにずれが視認される度合いが低くなる。   Therefore, in the present embodiment, in the calibration for the AR model to be superimposed on the object and visually recognized by the user, the coordinate system of the camera 60Ca, the coordinate system of the right optical image display unit 26Ca, and A conversion parameter representing a relative positional relationship (at least one of rotation and translation) between the coordinate system of the left optical image display unit 28Ca and the coordinate system is adjusted or set. When the AR model is displayed using the spatial relationship (relative positional relationship) represented by the set conversion parameter, the degree to which the user US visually recognizes the shift is low.

本実施形態では、パラメーター設定部167Caは、右光学像表示部26Caと左光学像表示部28Caとのそれぞれに対応する左変換パラメーターPML[Rcam2left, tcam2left]と、右変換パラメーターPMR[Rcam2lright, tcam2right]とを設定する。回転行列Rcam2rightは、直交する3軸の回転によって決定される3つのパラメーターであり、並進行列Tcam2rightは、3軸に沿った並進のそれぞれに対応する3つのパラメーターである。すなわち、右光学像表示部26Caに対応する右変換パラメーターPMRは、計6つのパラメーターを含んでいる。同じように、左光学像表示部28Caに対応する変換パラメーターは、回転行列Rcam2leftと並進行列Tcam2leftとであり、計6つのパラメーターを含んでいる。以上の通り、本実施形態では、カメラパラメーターCPに含まる4個のパラメーターと、空間関係を表す12個の変換パラメーターとの16個のパラメーターが算出される。   In the present embodiment, the parameter setting unit 167Ca has a left conversion parameter PML [Rcam2left, tcam2left] and a right conversion parameter PMR [Rcam2lright, tcam2right] corresponding to the right optical image display unit 26Ca and the left optical image display unit 28Ca, respectively. And set. The rotation matrix Rcam2right is three parameters determined by rotation of three orthogonal axes, and the translation column Tcam2right is three parameters corresponding to each of the translations along the three axes. That is, the right conversion parameter PMR corresponding to the right optical image display unit 26Ca includes a total of six parameters. Similarly, the conversion parameters corresponding to the left optical image display unit 28Ca are the rotation matrix Rcam2left and the parallel progression column Tcam2left, which include a total of six parameters. As described above, in the present embodiment, 16 parameters including 4 parameters included in the camera parameter CP and 12 conversion parameters representing the spatial relationship are calculated.

C−2−2−3.パラメーター導出処理:
以下における説明では、使用者USが実物マーカーMK2(または実物マーカーMK1)とマーカー画像IMGとが互いに一致するように視認する状態でカメラ60Caが実物マーカーMK2(または実物マーカーMK1)を撮像し、パラメーター設定部167Caがその撮像画像を取得する。パラメーター設定部167Caは、取得した当該撮像画像に基づいて、後述の式(69)を用いて、カメラパラメーターおよび変換パラメーターを算出する。本実施形態では、設定パラメーターを設定する場合の初期値(i=0)として、HMD100Caが製造される工場から出荷される前の計測値や検査値を用いる。一方で、他の実施形態では、カメラ60Caまたは光学像表示部26Ca,28Caの最大可動した場合の一方の姿勢における値、または、可動域の中間の姿勢における値を初期値として用いてもよい。
C-2-2-3. Parameter derivation processing:
In the following description, the camera 60Ca images the real marker MK2 (or the real marker MK1) while the user US visually recognizes the real marker MK2 (or the real marker MK1) and the marker image IMG so as to match each other. The setting unit 167Ca acquires the captured image. The parameter setting unit 167Ca calculates a camera parameter and a conversion parameter based on the acquired captured image using an equation (69) described later. In this embodiment, as an initial value (i = 0) when setting a setting parameter, a measured value or an inspection value before shipping from a factory where the HMD 100Ca is manufactured is used. On the other hand, in another embodiment, a value in one posture when the camera 60Ca or the optical image display units 26Ca and 28Ca is maximum movable or a value in a middle posture of the movable range may be used as an initial value.

図29は、右光学像表示部26Caのみにマーカー画像IMGが表示された状態での空間的な位置関係を示す概略図である。図29には、使用者USが、予め画像表示部20Caを装着した使用者USの仮想の右眼の位置として設定された右眼位置RPから、右光学像表示部26Caに表示されたマーカー画像IMGを視認した場合の概略が示されている。なお、図29には、HMD100Caの内の画像表示部20Caのみを図示し、装着帯90Caや制御部10Caなどについては図示を省略している。つまり、図29に示す画像表示部20Caは、図18ないし図20に示す画像表示部20Caと同じ画像表示部である。また、図29には、撮像される三次元空間である外景の座標軸を表す座標軸CD2と、座標軸CD2を投影した二次元画像の座標軸を表す座標軸CD1と、が示されている。使用者USは、右光学像表示部26Caに表示されたマーカー画像IMGを、画像表示部20Caから距離L1離れた位置に存在するマーカーMK1として視認する。   FIG. 29 is a schematic diagram illustrating a spatial positional relationship in a state where the marker image IMG is displayed only on the right optical image display unit 26Ca. In FIG. 29, the marker image displayed on the right optical image display unit 26Ca from the right eye position RP set as the virtual right eye position of the user US wearing the image display unit 20Ca in advance by the user US. An outline in the case of viewing the IMG is shown. In FIG. 29, only the image display unit 20Ca of the HMD 100Ca is illustrated, and the illustration of the wearing band 90Ca, the control unit 10Ca, and the like is omitted. That is, the image display unit 20Ca shown in FIG. 29 is the same image display unit as the image display unit 20Ca shown in FIGS. FIG. 29 also shows a coordinate axis CD2 that represents the coordinate axis of the outside scene, which is a three-dimensional space to be imaged, and a coordinate axis CD1 that represents the coordinate axis of the two-dimensional image on which the coordinate axis CD2 is projected. The user US visually recognizes the marker image IMG displayed on the right optical image display unit 26Ca as the marker MK1 that exists at a distance L1 from the image display unit 20Ca.

図29に示すように、右光学像表示部26Caに表示されたマーカー画像IMGと、外景に含まれ前方に位置する実物マーカーMK1と、が位置、大きさ、向きが一致するように使用者が視認するとき(以下、使用者USが左眼LE(右眼RE)でアライメントを成立させるときともいう)、座標系の間には、次の式(55)の関係が成り立つ。なお、以降では、右光学像表示部26Caではなく、左光学像表示部28Caにマーカー画像IMGが表示された場合について説明する。

Figure 2017108370
As shown in FIG. 29, the user can make sure that the marker image IMG displayed on the right optical image display unit 26Ca and the real marker MK1 included in the outside scene and located in front are in the same position, size, and orientation. When visually recognizing (hereinafter also referred to as when the user US establishes alignment with the left eye LE (right eye RE)), the relationship of the following equation (55) is established between the coordinate systems. Hereinafter, the case where the marker image IMG is displayed not on the right optical image display unit 26Ca but on the left optical image display unit 28Ca will be described.
Figure 2017108370

ここで、左辺および右辺のCPは、カメラ60CaのカメラパラメーターCPである。[Ro2dl, to2dl]は、実オブジェクト(この場合、実物マーカーMK2または実物マーカーMK1)に固定された座標系から左光学像表示部28Caに固定された座標系への変換行列であり、このうち、[Ro2dl]が回転を表す3×3の行列であり、[to2dl]が並進を表す3×1の行列である。[Ro2dl, to2dl]は、左光学像表示部28Caに対する実オブジェクトの位置および姿勢を表している。ModelMatrixは、モデルマーカー上の任意の1点を表す3×1の行列である。モデルマーカーは、マーカー画像IMGが光学像表示部28Caに表示される場合の基礎となる3次元データ(3次元モデル:ただし本実施形態では平面)である。[Ro2dl, to2dl]×ModelMatrixの表記は、下記の式(56)の規則に従っている。

Figure 2017108370
上記式(56)の表記規則は、式(55)の他の部分にも適用される。 Here, CPs on the left and right sides are camera parameters CP of the camera 60Ca. [R o2dl , t o2dl ] is a transformation matrix from the coordinate system fixed to the real object (in this case, the real marker MK2 or the real marker MK1) to the coordinate system fixed to the left optical image display unit 28Ca. Of these, [R o2dl ] is a 3 × 3 matrix representing rotation, and [t o2dl ] is a 3 × 1 matrix representing translation. [R o2dl , t o2dl ] represents the position and orientation of the real object with respect to the left optical image display unit 28Ca. ModelMatrix is a 3 × 1 matrix that represents an arbitrary point on the model marker. The model marker is three-dimensional data (three-dimensional model: in the present embodiment, a plane) that is the basis when the marker image IMG is displayed on the optical image display unit 28Ca. The notation [R o2dl , t o2dl ] × ModelMatrix follows the rule of the following formula (56).
Figure 2017108370
The notation rule of said Formula (56) is applied also to the other part of Formula (55).

式(55)の右辺における[Rcam2left, tcam2left]は、カメラ60Caの座標系から左光学像表示部28Caの座標系への変換行列である。当該変換行列は、パラメーター設定部167Caによって設定される複数の変換パラメーターで構成される。式(55)の右辺における[Robj2cam, tobj2cam]は、実オブジェクト(実物マーカーMK2または実物マーカーMK1)の座標系からカメラ60Caの座標系への変換行列である。[Robj2cam, tobj2cam]は、カメラ60Caに対する実オブジェクトの位置および姿勢を表している。 [R cam2left , t cam2left ] on the right side of Expression (55) is a transformation matrix from the coordinate system of the camera 60Ca to the coordinate system of the left optical image display unit 28Ca. The conversion matrix includes a plurality of conversion parameters set by the parameter setting unit 167Ca. [R obj2cam , t obj2cam ] on the right side of Expression (55) is a transformation matrix from the coordinate system of the real object (real marker MK2 or real marker MK1) to the coordinate system of the camera 60Ca. [R obj2cam , t obj2cam ] represents the position and orientation of the real object with respect to the camera 60Ca.

式(55)の関係から、左光学像表示部28Caについて、マーカー画像IMGと実物マーカーMK2または実物マーカーMK1とのアライメントが成立しているとき、以下の式(57)、(58)が成り立つ。

Figure 2017108370
Figure 2017108370
From the relationship of the formula (55), when the alignment between the marker image IMG and the real marker MK2 or the real marker MK1 is established for the left optical image display unit 28Ca, the following formulas (57) and (58) are established.
Figure 2017108370
Figure 2017108370

左眼LEのアライメントが成立すると仮定したとき、実物マーカーMK2または実物マーカーMK1のカメラ60Caに対する姿勢をモデルマーカーに適用すると、カメラ60Caの座標系に変換されたモデルマーカー上の任意の点は次の式(59)のPcl(Xcl, Ycl, Zcl)のようになる。

Figure 2017108370
Assuming that the alignment of the left eye LE is established, if the posture of the real marker MK2 or the real marker MK1 with respect to the camera 60Ca is applied to the model marker, an arbitrary point on the model marker converted into the coordinate system of the camera 60Ca is P cl (X cl , Y cl , Z cl ) in the equation (59) is obtained.
Figure 2017108370

式(57)および式(58)により、Robj2cam,tobj2camを消去すると式(59)は以下の式(60)のようになる。

Figure 2017108370
When R obj2cam and t obj2cam are eliminated by Expression (57) and Expression (58), Expression (59) becomes the following Expression (60).
Figure 2017108370

Ro2dlおよびto2dlは、実物マーカーMK2または実物マーカーMK1の座標系から左光学像表示部28Caの座標系への回転および並進である。本実施形態では、使用者USが左光学像表示部28Caに表示されたマーカー画像IMGを実物マーカーMK2または実物マーカーMK1に位置合わせしたときに、Ro2dlおよびto2dlが所定の回転および並進となるように、マーカー画像IMGが左光学像表示部28Ca上の所定位置(例えば中央)に所定の配向かつ所定の大きさで、固定されて表示される。Tcam2leftは、カメラの座標系から左光学像表示部28Caの座標系への並進である。

Figure 2017108370
Figure 2017108370
Figure 2017108370
上記式(61)および(62)における要素は本実施形態では定数(aは図29のL1)である。式(63)における要素D1, D2, D3は本実施形態では初期値であり、パラメーター導出処理の間に変化し得る。なお、図29からわかるように、本実施形態では、画像表示部20Caに固定された座標系では、光学像表示部26Ca,28Ca(画像表示部20Ca)から使用者USの眼へと射出される光の方向がZ軸方向と平行である。 R o2dl and t o2dl are rotation and translation from the coordinate system of the real marker MK2 or the real marker MK1 to the coordinate system of the left optical image display unit 28Ca. In the present embodiment, when the user US aligns the marker image IMG displayed on the left optical image display unit 28Ca with the real marker MK2 or the real marker MK1, Ro2dl and to2dl have predetermined rotation and translation. As described above, the marker image IMG is fixedly displayed at a predetermined position (for example, the center) on the left optical image display unit 28Ca with a predetermined orientation and a predetermined size. T cam2left is a translation from the coordinate system of the camera to the coordinate system of the left optical image display unit 28Ca.
Figure 2017108370
Figure 2017108370
Figure 2017108370
In the present embodiment, the elements in the above formulas (61) and (62) are constants (a is L1 in FIG. 29). Elements D1, D2, and D3 in Expression (63) are initial values in the present embodiment, and may change during the parameter derivation process. As can be seen from FIG. 29, in the present embodiment, in the coordinate system fixed to the image display unit 20Ca, the light is emitted from the optical image display units 26Ca and 28Ca (image display unit 20Ca) to the eyes of the user US. The direction of light is parallel to the Z-axis direction.

式(59)で表されるモデルマーカーをカメラ60Caの撮像画像上に写像するとき、撮像画像上のモデルマーカーの座標は、次のようになる。

Figure 2017108370
Figure 2017108370
ここで、(Fx, Fy)はカメラ60Caの焦点距離であり、(Cx, Cy)はカメラ60Caの主点位置座標である。 When the model marker represented by Expression (59) is mapped onto the captured image of the camera 60Ca, the coordinates of the model marker on the captured image are as follows.
Figure 2017108370
Figure 2017108370
Here, (F x , F y ) is the focal length of the camera 60Ca, and (C x , C y ) is the principal point position coordinate of the camera 60Ca.

カメラ60Caが実際に実物マーカーMK2または実物マーカーMK1を撮像した場合の撮像画像におけるマーカーの特徴要素の座標を(ul, vl)と表記すると、(ul, vl)と(ximl, yiml)との差は以下のようになる。

Figure 2017108370
式(66)における添え字iは、マーカーにおける特徴要素を示す整数であり、1から9までの値を取る。パラメーター設定部167Caは、左眼LEのアライメントについて、式(67)で表される二乗和を導出する。
Figure 2017108370
The coordinates of the characteristic elements of the marker in the captured image when the camera 60Ca has actually captured the real marker MK2 or real marker MK1 (u l, v l) and would be written, (u l, v l) and (x iml, The difference from y iml ) is as follows.
Figure 2017108370
The subscript i in the equation (66) is an integer indicating the feature element in the marker, and takes a value from 1 to 9. The parameter setting unit 167Ca derives the sum of squares represented by Expression (67) for the alignment of the left eye LE.
Figure 2017108370

使用者が、右眼REで右光学像表示部26Caに表示されたマーカーと、実物マーカーMK2または実物マーカーMK1と、のアライメントを成立させた場合についても、同様に式(68)で表される二乗和を導出する。

Figure 2017108370
The case where the user establishes alignment between the marker displayed on the right optical image display unit 26Ca with the right eye RE and the real marker MK2 or the real marker MK1 is similarly expressed by the equation (68). Deriving the sum of squares.
Figure 2017108370

ERとELとの和により、式(69)で表すコスト関数Eを定義する。

Figure 2017108370
Eを最小化(グローバルミニマム)にするパラメーターを、ガウス・ニュートン法などの繰り返し計算を伴う最適化計算により求める。 A cost function E represented by the equation (69) is defined by the sum of E R and E L.
Figure 2017108370
The parameter that minimizes E (global minimum) is obtained by optimization calculation with iterative calculation such as Gauss-Newton method.

本実施形態では、カメラ60CaのカメラパラメーターCPと、カメラ60Caの座標系から左光学像表示部28Caの座標系への回転(Rcam2left)および並進(Tcam2left)を表す変換パラメーターと、カメラ60Caの座標系から右光学像表示部26Caの座標系への回転(Rcam2right)および並進(Tcam2right)を表す変換パラメーターと、が最適化により設定される。 In the present embodiment, the camera parameter CP of the camera 60Ca, the conversion parameter indicating the rotation (R cam2left ) and translation (T cam2left ) from the coordinate system of the camera 60Ca to the coordinate system of the left optical image display unit 28Ca, and the camera 60Ca Conversion parameters representing rotation (R cam2right ) and translation (T cam2right ) from the coordinate system to the coordinate system of the right optical image display unit 26Ca are set by optimization.

式(69)で表わされるコスト関数Eを最小化する繰り返し計算に用いられるヤコビ行列は、式(70)のようになる。

Figure 2017108370
ここで、式(70)の右辺における変数xmliおよびymliはそれぞれ式(64)および(65)によって表され、さらに式(64)および(65)におけるxclおよびyclは式(60)によって表される。また、式(60)の右辺における変数pは、カメラ60CaのカメラパラメーターCPに含まれるFx,Fy,Cx,Cyと、カメラ60Caと光学像表示部26Ca,28Caとの間の空間関係を表す回転Rcam2left、Rcam2rightを構成する6つのオイラー角と、並進Tcam2left、 Tcam2rightを構成する6つの並進成分と、である。パラメーター設定部167Caは、式(60)のヤコビ行列と、変数pの微小変化量と、に基づいて、式(59)のグローバルミニマムを探索することができる。グローバルミニマムに対応する変数pによって、カメラパラメーターCPおよび変換パラメーターが求められる。 The Jacobian matrix used for the iterative calculation that minimizes the cost function E expressed by the equation (69) is expressed by the equation (70).
Figure 2017108370
Here, the variables x mli and y mli on the right side of the equation (70) are represented by equations (64) and (65), respectively, and x cl and y cl in the equations (64) and (65) are represented by the equation (60). Represented by Also, the space between the variable p on the right-hand side of Equation (60), F x included in the camera parameters CP camera 60Ca, F y, C x, and C y, camera 60Ca and optical-image display unit 26Ca, and 28Ca There are six Euler angles constituting the rotations R cam2left and R cam2right representing the relationship, and six translational components constituting the translations T cam2left and T cam2right . The parameter setting unit 167Ca can search for the global minimum of Expression (59) based on the Jacobian matrix of Expression (60) and the minute change amount of the variable p. The camera parameter CP and the conversion parameter are obtained by the variable p corresponding to the global minimum.

カメラパラメーターCPおよび変換パラメーターが設定されると、図26に示すキャリブレーション実行処理におけるステップSC15の処理として、設定された変換パラメーターおよびカメラパラメーターCPを、使用者USに画像を用いて確認させる目的で、表示設定部165Caは設定画像SIMを光学像表示部26Ca,28Caに表示させる。カメラ60Caの撮像範囲に特定オブジェクト(この例では実物マーカーMK1)が含まれる場合に、CPU140Caは、設定されたカメラパラメーターCPを用いてカメラ60Caに対する特定オブジェクトの位置および姿勢を導出する。また、CPU140は、設定された変換パラメーターを用いて、カメラ60Caに対する特定オブジェクトの位置および姿勢を、光学像表示部26Ca、28Caに対する特定オブジェクトの位置および姿勢に変換する。そして、表示設定部165Caは、当該変換された位置および姿勢をARモデルに与えてから、当該ARモデルを写像し、そして、ARモデルを設定画像SIMとして光学像表示部26Ca,28Caに表示させる。この例では、使用者USに、設定画像SIMの位置および姿勢が特定オブジェクトの位置および姿勢に一致し、かつ特定オブジェクトの動きに追跡するように設定画像SIMを視認させることができれば、変換パラメーターとカメラパラメーターCPの設定は十分である。実物マーカー、またはそれに対応したARモデルの内部座標をXと定義すると、変換パラメーターが用いられ、左光学像表示部28Caにおける表示画像の位置(u,v)は、式(71)のように表される。

Figure 2017108370
ここで、[Robj2cam, Tobj2am]は実物マーカーMK2または実物マーカーMK1とカメラ60Caとの間の空間関係を表すパラメーター(回転行列および並進行列)であり、これらは、カメラ60Caが撮像した実物マーカーMK2または実物マーカーMK1の撮像画像に、例えばホモグラフィーを適用することによってパラメーター設定部167Caによって算出される。マーカー特定部166Caが、実物マーカーMK2および実物マーカーMK1以外の特定オブジェクトを検出する場合には、パラメーター設定部167Caは、他の方法で特定オブジェクトとカメラ60Caとの間の空間関係を設定する。なお、右光学像表示部26Caについても、式(71)と同様な関係式により、表示画像の位置(u,v)が導出される。式(71)に示す通り、実物マーカーMK2または実物マーカーMK1とカメラ60Caとの間の空間関係、およびカメラ60Caと光学像表示部26Ca、左光学像表示部28Caとの間の空間関係に少なくとも基づいて定まる位置(u,v)に、表示設定部165Caは、AR画像としてのARモデルを表示させる。当該ARモデル(この場合、設定画像SIM)の位置、大きさおよび配向の少なくとも一つが、特定オブジェクトの位置、大きさ、配向の少なくとも一つに一致するように、表示設定部165Caは、使用者USに視認させることができる。なお、式(71)における右辺のRPは、ピンホールカメラモデルと同様な写像モデルを用いた場合に決定される写像パラメーター(またはレンダリングパラメーターとも呼ぶ)であり、本実施形態では下記の式(72)のように表される。
Figure 2017108370
ここで、式(72)におけるFx, FyはHMD100Caにおけるプロジェクターの画素数に換算された焦点距離であり、Wは水平方向の左光学像表示部28Caの画素数(解像度)であり、Hは垂直方向の左光学像表示部28Caの画素数(解像度)であり、CxおよびCyは、表示画像の中心位置である。写像パラメーターの上2行がu, vの導出に寄与する。fおよびnは、0と1の間で規格化された奥行を有する規格化デバイス座標との対応関係を決める係数である。すなわち、これらは、レンダリングバッファに(デプスバッファ)おいて奥行を調整するための係数であるが、表示画像の位置(u,v)の導出に直接関与しない。 When the camera parameter CP and the conversion parameter are set, as a process of step SC15 in the calibration execution process shown in FIG. 26, for the purpose of allowing the user US to confirm the set conversion parameter and camera parameter CP using an image. The display setting unit 165Ca displays the setting image SIM on the optical image display units 26Ca and 28Ca. When the specific object (the real marker MK1 in this example) is included in the imaging range of the camera 60Ca, the CPU 140Ca derives the position and orientation of the specific object with respect to the camera 60Ca using the set camera parameter CP. In addition, the CPU 140 converts the position and orientation of the specific object with respect to the camera 60Ca into the position and orientation of the specific object with respect to the optical image display units 26Ca and 28Ca using the set conversion parameter. Then, the display setting unit 165Ca gives the converted position and orientation to the AR model, maps the AR model, and displays the AR model on the optical image display units 26Ca and 28Ca as the setting image SIM. In this example, if the user US can visually recognize the setting image SIM so that the position and orientation of the setting image SIM matches the position and orientation of the specific object and track the movement of the specific object, the conversion parameter and The setting of the camera parameter CP is sufficient. If the internal coordinate of the real marker or the AR model corresponding to the real marker is defined as X, a conversion parameter is used, and the position (u, v) of the display image in the left optical image display unit 28Ca is expressed as shown in Expression (71). Is done.
Figure 2017108370
Here, [R obj2cam , T obj2am ] is a real marker MK2 or a parameter (rotation matrix and parallel progression) representing a spatial relationship between the real marker MK1 and the camera 60Ca, and these are real markers captured by the camera 60Ca. The parameter setting unit 167Ca is calculated by applying, for example, homography to the captured image of the MK2 or the real marker MK1. When the marker specifying unit 166Ca detects specific objects other than the real marker MK2 and the real marker MK1, the parameter setting unit 167Ca sets the spatial relationship between the specific object and the camera 60Ca by another method. For the right optical image display unit 26Ca, the position (u, v) of the display image is derived from the same relational expression as the expression (71). As shown in Expression (71), at least based on the spatial relationship between the real marker MK2 or the real marker MK1 and the camera 60Ca, and the spatial relationship between the camera 60Ca, the optical image display unit 26Ca, and the left optical image display unit 28Ca. The display setting unit 165Ca displays an AR model as an AR image at a position (u, v) determined in advance. The display setting unit 165Ca is used so that at least one of the position, size, and orientation of the AR model (in this case, the setting image SIM) matches at least one of the position, size, and orientation of the specific object. It can be made visible to the US. In the equation (71), RP on the right side is a mapping parameter (or called a rendering parameter) determined when a mapping model similar to the pinhole camera model is used. In the present embodiment, the following equation (72) is used. ).
Figure 2017108370
Here, F x and F y in Expression (72) are focal lengths converted into the number of pixels of the projector in the HMD 100Ca, W is the number of pixels (resolution) of the left optical image display unit 28Ca in the horizontal direction, and H is the number of pixels in the vertical direction of the left optical image display unit 28Ca (resolution), C x and C y is the center position of the display image. The top two mapping parameters contribute to the derivation of u and v. f and n are coefficients that determine the correspondence with normalized device coordinates having a depth normalized between 0 and 1. That is, these are coefficients for adjusting the depth in the rendering buffer (depth buffer), but are not directly related to the derivation of the position (u, v) of the display image.

ここで、特定オブジェクトまたはARモデルXがカメラ60で撮像されたとすると、特定オブジェクトまたはARモデルX上の点と撮像画像上の対応点との間には、式(73)が成り立つ。

Figure 2017108370
式(73)の右辺における(R,T)は、カメラ60Caに対する特定オブジェクトの位置および姿勢を表す変換行列であり、カメラ座標系で表わされている。当該変換行列の左は、カメラパラメーターCPである。式(73)に模式的に表されるように、実空間または3次元座標系における点と撮像画像上の点との対応関係に基づいて(R,T)が推定されるから、実オブジェクトの正確な位置および姿勢の推定には、カメラパラメーターCPが適切であることが好ましい。 Here, assuming that the specific object or the AR model X is captured by the camera 60, Expression (73) is established between a point on the specific object or the AR model X and a corresponding point on the captured image.
Figure 2017108370
(R, T) on the right side of Expression (73) is a transformation matrix representing the position and orientation of the specific object with respect to the camera 60Ca, and is represented in the camera coordinate system. The left side of the transformation matrix is a camera parameter CP. As schematically represented by Expression (73), since (R, T) is estimated based on the correspondence between the points in the real space or the three-dimensional coordinate system and the points on the captured image, The camera parameter CP is preferably appropriate for accurate position and orientation estimation.

3次元におけるARモデルの同じ座標点は、画像処理部160Caにおけるディスプレイバッファにレンダリングされるため、その規格化デバイス座標(NDC)は、式(72)を用いて、式(74)のように表される。

Figure 2017108370
式(74)は同時座標表現で表わされている。式(74)の右辺のXは、モデルマーカーまたはARモデルの内部座標であり、モデルに固定された座標系で表わされている。式(74)におけるXの左の(R,T)は、カメラ座標系で表わされた特定オブジェクトの位置と姿勢とであり、式(73)における(R,T)と同じ位置と姿勢とを表す。式(73)における(R,T)の左の0,1、−1を要素とする4×4の行列は、座標軸の向きを変換するための変換行列であり、本実施形態ではカメラ座標系と表示部座標系との間での座標軸の正方向の定義が異なることから、便宜上、設けられている。式(73)における座標軸の向きを変換する変換行列の左の(I,d)は、カメラ60Caと光学像表示部26Ca(28Ca)との間の空間関係を表しており、光学像表示部26Ca(28Ca)の座標系で表わされた回転Iと並進dからなる4×4の変換行列である。式(74)で表される座標点は、光学像表示部26Ca(28)の画像面において式(75)の(u’, v’)で表される位置である。
Figure 2017108370
ここで、R,R,Rのそれぞれは、(R,T)に含まれる回転行列における対応する行ベクトルを表し、T,T,Tは、(R,T)に含まれる並進ベクトルの対応する要素を表す。なお、(R,T)は、4×4の行列の形態を有する。 Since the same coordinate point of the AR model in three dimensions is rendered in the display buffer in the image processing unit 160Ca, the normalized device coordinate (NDC) is expressed as in Expression (74) using Expression (72). Is done.
Figure 2017108370
Equation (74) is expressed in simultaneous coordinate representation. X on the right side of the equation (74) is an internal coordinate of the model marker or the AR model, and is represented by a coordinate system fixed to the model. (R, T) to the left of X in equation (74) is the position and orientation of the specific object represented in the camera coordinate system, and the same position and orientation as (R, T) in equation (73). Represents. The 4 × 4 matrix whose elements are 0, 1, and −1 on the left of (R, T) in Expression (73) is a conversion matrix for converting the direction of the coordinate axis. In this embodiment, the camera coordinate system is used. Since the definition of the positive direction of the coordinate axis is different between the display unit coordinate system and the display unit coordinate system, it is provided for convenience. (I, d) on the left side of the transformation matrix for transforming the direction of the coordinate axis in Expression (73) represents the spatial relationship between the camera 60Ca and the optical image display unit 26Ca (28Ca), and the optical image display unit 26Ca. It is a 4 × 4 transformation matrix consisting of rotation I and translation d expressed in the coordinate system of (28Ca). The coordinate point represented by Expression (74) is the position represented by (u ′, v ′) of Expression (75) on the image plane of the optical image display unit 26Ca (28).
Figure 2017108370
Here, each of R 1 , R 2 , and R 3 represents a corresponding row vector in the rotation matrix included in (R, T), and T x , T y , and T z are included in (R, T). Represents the corresponding element of the translation vector. Note that (R, T) has the form of a 4 × 4 matrix.

本実施形態では、キャリブレーションがうまく実施されていれば、HMD100を装着している使用者USは、光学像表示部26Ca、28Caに表示された設定画像SIMの位置、大きさ、向き、奥行感が、撮像された特定オブジェクト(この例では実物マーカーMK1)の位置、大きさ、向き、奥行感に一致するように、視認する。   In this embodiment, if the calibration is successfully performed, the user US wearing the HMD 100 can detect the position, size, orientation, and depth of the setting image SIM displayed on the optical image display units 26Ca and 28Ca. Are visually recognized so as to coincide with the position, size, orientation, and depth of the captured specific object (in this example, the real marker MK1).

図30は、特定オブジェクトに対応付けられて設定画像SIMが表示された場合に使用者USが視認する使用者USの視野の一例の説明図である。図30に示す例では、特定オブジェクトとして実物マーカーMK1が採用されている。キャリブレーションが実行された後に、表示設定部165Caは、パラメーター設定部167Caによって設定された変換パラメーターおよびカメラパラメーターCPを用いて、撮像された実物マーカーMK1の位置および配向(姿勢)に合わせて、設定画像SIMを右左の光学像表示部26Ca,28Caに表示させる。設定画像SIMは、立方体の各辺を形成する画像である。図30に示すように、設定画像SIMの立方体の底面は、実物マーカーMK1と合わさるように表示される。使用者USは、特定オブジェクトとしての実物マーカーMK1と設定画像SIMとの空間関係を視認することで、キャリブレーションの精度を認識できる。使用者USが実物マーカーMK1と設定画像SIMとが互いに一致するように視認しないときに、再度、キャリブレーションを第1設定モードまたは第2設定モードにおいてやり直すことができる。図30に示すように、光学像表示部26Ca、28Caまたは音声処理部170Caは、キャリブレーションが成功しAR表示機能を続行すること(重畳して見えるか)、およびキャリブレーションをやり直すことのいずれかを促す文字画像または音声を使用者に提示してもよい。   FIG. 30 is an explanatory diagram illustrating an example of the visual field of the user US visually recognized by the user US when the setting image SIM is displayed in association with the specific object. In the example shown in FIG. 30, the real marker MK1 is employed as the specific object. After the calibration is executed, the display setting unit 165Ca uses the conversion parameter and camera parameter CP set by the parameter setting unit 167Ca to set according to the position and orientation (posture) of the captured real marker MK1. The image SIM is displayed on the right and left optical image display units 26Ca and 28Ca. The setting image SIM is an image that forms each side of the cube. As shown in FIG. 30, the bottom surface of the cube of the setting image SIM is displayed so as to be aligned with the real marker MK1. The user US can recognize the accuracy of calibration by visually recognizing the spatial relationship between the real marker MK1 as the specific object and the setting image SIM. When the user US does not visually recognize the real marker MK1 and the setting image SIM so as to coincide with each other, the calibration can be performed again in the first setting mode or the second setting mode. As shown in FIG. 30, the optical image display units 26Ca and 28Ca or the sound processing unit 170Ca either succeed in calibration and continue the AR display function (appears to be superimposed), or redo the calibration. A character image or sound prompting the user may be presented to the user.

C−2−2−4.キャリブレーションデータの自動収集:
まず、キャリブレーションデータの自動収集処理の説明に備えて、光学像表示部26Ca,28Caに固定された座標系の座標軸を、右光学像表示部26Caの場合を例にとって説明する。本実施形態では、右光学像表示部26Caの座標系のZ軸は、使用者USがHMD100Caを適切に装着した場合に使用者USが視認する表示領域の法線方向に一致する。このため、Z軸は使用者USの顔面が向いている方向を示し得る。X軸は、Z軸に直交し、かつ右光学像表示部26Caと左光学像表示部28Caとが並ぶ方向にほぼ平行である。このため、X軸は使用者USの左右方向を示し得る。また、Y軸は、Z軸およびX軸の双方に直交する。このため、Y軸は、使用者USの上下方向を示し得る。
C-2-2-4. Automatic collection of calibration data:
First, in preparation for explanation of the calibration data automatic collection processing, the coordinate axes of the coordinate system fixed to the optical image display units 26Ca and 28Ca will be described by taking the right optical image display unit 26Ca as an example. In the present embodiment, the Z axis of the coordinate system of the right optical image display unit 26Ca coincides with the normal direction of the display area visually recognized by the user US when the user US wears the HMD 100Ca appropriately. For this reason, the Z-axis can indicate the direction in which the face of the user US is facing. The X axis is orthogonal to the Z axis and is substantially parallel to the direction in which the right optical image display unit 26Ca and the left optical image display unit 28Ca are arranged. For this reason, the X-axis can indicate the left-right direction of the user US. Further, the Y axis is orthogonal to both the Z axis and the X axis. For this reason, the Y-axis can indicate the vertical direction of the user US.

上記で説明した第1設定モードにおいて、使用者USは、マーカー画像IMGと実物マーカーMK1,MK2との目視によるアライメントを成立させたことを、タッチパッドの操作、ボタンの押下、または音声コマンドの発声により、パラメーター設定部167Caに伝えている。そして、パラメーター設定部167Caがこれら操作または音声コマンドを受け付けた場合に、カメラ60CaがマーカーMK1,MK2を撮像し、すなわちキャリブレーションデータの収集をする。すなわち、HMD100Caは、キャリブレーションデータの収集のトリガーとして、使用者USによる操作または発声を利用している。しかしながら、以下で説明するように、HMD100Caは、このような構成に代えて、自動的にキャリブレーションデータを収集する構成を備えてもよい。   In the first setting mode described above, the user US confirms that the visual alignment between the marker image IMG and the real markers MK1 and MK2 has been established, by operating the touch pad, pressing a button, or uttering a voice command. Is transmitted to the parameter setting unit 167Ca. When the parameter setting unit 167Ca receives these operations or voice commands, the camera 60Ca images the markers MK1 and MK2, that is, collects calibration data. That is, the HMD 100Ca uses an operation or utterance by the user US as a trigger for collecting calibration data. However, as described below, the HMD 100Ca may include a configuration that automatically collects calibration data instead of such a configuration.

図31は、実施形態に係るキャリブレーションデータの自動収集処理のフローである。この処理では、初めに、マーカー特定部166Caが撮像を開始し、そして、光学像表示部26Ca,28Caの一つ(以下では、右光学像表示部26Ca)がマーカー画像IMGを表示し始める(ステップSC211)。マーカー特定部166Caは、カメラ60Caが撮像した各撮像フレームに対して、2値化を実行して、実物マーカーMK2を抽出する。マーカー特定部166Caは、撮像範囲の中に、実物マーカーMK2があるか否かを判定する(ステップSC212)。マーカー特定部166Caは、撮像範囲の中に実物マーカーMK2がないと判定した場合には(ステップSC212:NO)、引き続き、撮像範囲の中から実物マーカーMK2の検出を監視する。   FIG. 31 is a flow of calibration data automatic collection processing according to the embodiment. In this processing, first, the marker specifying unit 166Ca starts imaging, and one of the optical image display units 26Ca and 28Ca (hereinafter, the right optical image display unit 26Ca) starts displaying the marker image IMG (step). SC211). The marker specifying unit 166Ca performs binarization on each imaging frame imaged by the camera 60Ca and extracts the actual marker MK2. The marker specifying unit 166Ca determines whether or not the real marker MK2 is in the imaging range (step SC212). When it is determined that there is no real marker MK2 in the imaging range (step SC212: NO), the marker specifying unit 166Ca continues to monitor the detection of the real marker MK2 from the imaging range.

ステップS212の処理において、マーカー特定部166Caは、撮像範囲の中に、実物マーカーMK2があると判定した場合には(ステップSC212:YES)、カメラ60Caに対する実物マーカーMK2の位置と姿勢を導出し、それらの追跡を開始する(ステップSC212A)。   In the process of step S212, when the marker specifying unit 166Ca determines that the real marker MK2 is in the imaging range (step SC212: YES), the marker specifying unit 166Ca derives the position and orientation of the real marker MK2 with respect to the camera 60Ca, Their tracking is started (step SC212A).

導出された実物マーカーMK2の位置および姿勢は、カメラ座標系で表わされている。つまり、その位置および姿勢は、カメラ60Caに対する位置および姿勢である。そこで、カメラ60Caと右光学像表示部26Caとの間のデフォルトの空間関係を利用して、カメラ60Caに対する実物マーカーMK2の位置および姿勢を、右光学像表示部26Caの座標系で表わされた近似的、すなわち暫定的な位置および姿勢に変換する。「デフォルトの空間関係」とは、例えば、カメラ60Caと右光学像表示部26Caとの間の相対可動範囲の両端間に存在する一つの空間関係である。位置および姿勢、すなわち回転および並進、を表す4×4の変換行列Tは、式(75A)のように表される。

Figure 2017108370
ここで、左辺の「T (marker to display)」は右光学像表示部26Caに対する実物マーカーMK2の近似的な位置および姿勢であり、右辺の「T (camera to display)」は、カメラ60Caの座標系から右光学像表示部26の座標系へのデフォルトの変換行列であり、「Tracking pose」はカメラ60Caに対する実物マーカーMK2の位置および姿勢である。 The derived position and orientation of the real marker MK2 are represented in the camera coordinate system. That is, the position and posture are the position and posture with respect to the camera 60Ca. Therefore, using the default spatial relationship between the camera 60Ca and the right optical image display unit 26Ca, the position and orientation of the real marker MK2 with respect to the camera 60Ca are expressed in the coordinate system of the right optical image display unit 26Ca. Convert to approximate or tentative position and orientation. The “default spatial relationship” is, for example, one spatial relationship that exists between both ends of the relative movable range between the camera 60Ca and the right optical image display unit 26Ca. A 4 × 4 transformation matrix T representing the position and orientation, that is, rotation and translation, is expressed as Expression (75A).
Figure 2017108370
Here, “T (marker to display)” on the left side is the approximate position and orientation of the real marker MK2 with respect to the right optical image display unit 26Ca, and “T (camera to display)” on the right side is the coordinates of the camera 60Ca. This is a default conversion matrix from the system to the coordinate system of the right optical image display unit 26, and “Tracking pose” is the position and orientation of the real marker MK2 with respect to the camera 60Ca.

モデルマーカーと実物マーカーMK2との間で、光学像表示部26Caの座標系におけるX軸およびY軸の回りの回転差が所定値未満か否かは、以下の式(75B)および式(75C)のように判定され得る。

Figure 2017108370
Figure 2017108370
ここで、「Ax」、「Ay」はそれぞれX軸、Y軸回りのモデルマーカーの回転角であり、「approximated Ax」、「approximated Ay」は、それぞれX軸、Y軸回りの実物マーカーMK2の近似的な回転角であり、いずれも度単位で表わされたオイラー角である。「abs」は値の絶対値を取ることを意味する。なお、上述の通り、モデルマーカーとは、3次元座標で表わされたモデルであり、2Dへ写像されてマーカー画像IMGとして表示されるものである。 Whether the rotation difference around the X axis and the Y axis in the coordinate system of the optical image display unit 26Ca between the model marker and the real marker MK2 is less than a predetermined value is determined by the following formulas (75B) and (75C). It can be determined as follows.
Figure 2017108370
Figure 2017108370
Here, “A x ” and “A y ” are the rotation angles of the model markers around the X and Y axes, respectively. “Approximated A x ” and “approximated A y ” are around the X and Y axes, respectively. These are approximate rotation angles of the real marker MK2, and both are Euler angles expressed in degrees. “Abs” means to take an absolute value. As described above, the model marker is a model represented by three-dimensional coordinates, which is mapped to 2D and displayed as a marker image IMG.

次に、右光学像表示部26Caの座標系において、実物マーカーMK2のX軸、Y軸に沿った近似的な並進(T’, T’)が、モデルマーカーの並進(t、t)に近いか否かが、以下の式(75D)および式(75E)の関係式を用いて判定され得る。

Figure 2017108370
Figure 2017108370
以下の説明においては、上記回転角の差を集合的に「回転差A」、上記並進の差を集合的に「並進差D」と表す。 Next, in the coordinate system of the right optical image display unit 26Ca, the approximate translation (T x ′, T y ′) along the X axis and Y axis of the real marker MK2 is the translation of the model marker (t x , t y ). Whether or not y 2 is close can be determined using the following relational expressions (75D) and (75E).
Figure 2017108370
Figure 2017108370
In the following description, the difference in rotation angle is collectively expressed as “rotation difference A”, and the difference in translation is collectively expressed as “translation difference D”.

図31のフローの説明に戻ると、マーカー特定部166Caは、回転差Aがその閾値(threshold)以上で、かつ並進差Dがその閾値以上か否かを判定する(ステップSC213A)。回転差Aも並進差Dもそれぞれの閾値以上であると判定された場合には(ステップSC213A:Yes)、表示設定部165Caは、マーカー画像の色を赤色に変え、右光学像表示部26Caに位置合わせ(アライメント)を促す文字画像を表示させる(ステップSC214A)。ステップSC213Aの判定が「否」の場合には(ステップSC213A:No)、マーカー特定部166Caは、回転差Aが閾値未満で、かつ並進差Dが閾値以上であるか否かを判定する(ステップSC213B)。回転差Aが閾値未満で、かつ並進差Dが閾値以上であると判定された場合には(ステップSC213B:Yes)、表示設定部165Caは、マーカー画像の色を黄色に変え、右光学像表示部26Caに位置合わせ(アライメント)を促す文字画像を表示させる(ステップSC214B)。ステップSC213Bの判定が「否」の場合には(ステップSC213B:No)、マーカー特定部166Caは、回転差Aが閾値未満で、かつ並進差Dが閾値未満であるか否かを判定する(ステップSC213C)。回転差Aも並進差Dもそれぞれの閾値未満であると判定された場合には(ステップSC213C:Yes)、表示設定部165Caは、マーカー画像の色を緑色に変える(ステップSC214C)。ステップSC213Cの判定が「否」の場合には(ステップSC213C:No)、次に実行される処理はステップSC213Aの判定に戻る。ステップSC214Cの後で、マーカー特定部166Caは、回転差Aも並進差Dもそれぞれの閾値未満の状態と、使用者USの頭部が安定した状態とが、例えば2秒以上継続したか否かを判定する(ステップSC215A)。ステップSC215Aの判定が肯定的であると判定された場合には、パラメーター設定部167Caは、所定時間期間の計時または逆算計時を開始する。パラメーター設定部167Caが開始する逆算計時を、これをカウントダウン処理と呼ぶ。本実施形態の所定時間期間は1秒である。表示設定部165Caは、この1秒間を3分割し、時間の経過にしたがって表示または音声出力される「3」、「2」、「1」、「0」のカウントダウン情報を提示する。パラメーター設定部167Caは、「0」が提示されるタイミングで、カメラ60Caによる実物マーカーMK2の撮像画像を、キャリブレーションデータとして取得する。   Returning to the description of the flow in FIG. 31, the marker specifying unit 166Ca determines whether the rotation difference A is equal to or greater than the threshold value and the translation difference D is equal to or greater than the threshold value (step SC213A). When it is determined that both the rotation difference A and the translation difference D are equal to or greater than the respective threshold values (step SC213A: Yes), the display setting unit 165Ca changes the color of the marker image to red and displays the right optical image display unit 26Ca. A character image for prompting alignment is displayed (step SC214A). When the determination in step SC213A is “No” (step SC213A: No), the marker specifying unit 166Ca determines whether the rotation difference A is less than the threshold and the translation difference D is greater than or equal to the threshold (step). SC213B). When it is determined that the rotation difference A is less than the threshold and the translation difference D is greater than or equal to the threshold (step SC213B: Yes), the display setting unit 165Ca changes the color of the marker image to yellow and displays the right optical image. A character image prompting alignment (alignment) is displayed on the part 26Ca (step SC214B). When the determination in step SC213B is “No” (step SC213B: No), the marker specifying unit 166Ca determines whether the rotation difference A is less than the threshold and the translation difference D is less than the threshold (step). SC213C). When it is determined that both the rotation difference A and the translation difference D are less than the respective threshold values (step SC213C: Yes), the display setting unit 165Ca changes the color of the marker image to green (step SC214C). When the determination in step SC213C is “No” (step SC213C: No), the process to be executed next returns to the determination in step SC213A. After step SC214C, the marker specifying unit 166Ca determines whether or not the state where both the rotation difference A and the translation difference D are less than the respective threshold values and the state where the head of the user US is stable continue for, for example, 2 seconds or more. Is determined (step SC215A). If it is determined that the determination in step SC215A is affirmative, parameter setting unit 167Ca starts measuring time or counting backward for a predetermined time period. The counter counting time started by the parameter setting unit 167Ca is called a countdown process. The predetermined time period of this embodiment is 1 second. The display setting unit 165Ca divides this one second into three, and presents countdown information “3”, “2”, “1”, “0” that is displayed or output as time passes. The parameter setting unit 167Ca acquires a captured image of the real marker MK2 by the camera 60Ca as calibration data at a timing when “0” is presented.

カウントダウン処理における所定時間期間は1秒に限らない。所定時間期間は、使用者USがマーカー画像IMGと実物マーカーMK2との間の目視によるアライメントを精度の点でより向上させることができる程度に長く、同時に、既に精度よく成立している目視によるアライメントを使用者USが維持することができる程度に短いことが好ましい。この点で「1秒」は経験的に好適な長さである。   The predetermined time period in the countdown process is not limited to 1 second. The predetermined time period is long enough to allow the user US to improve the visual alignment between the marker image IMG and the real marker MK2 in terms of accuracy, and at the same time, the visual alignment already established with high accuracy. Is preferably short enough that the user US can maintain it. In this respect, “1 second” is an empirically preferred length.

頭部が安定な状態にあるか否か、または実質的に静止しているか否かは、パラメーター設定部167Caが、カメラ60Caの撮像画像における実物マーカーMK2の特徴点の位置、HMD100Caに搭載されたIMUの出力、およびこれらの組み合わせから、判定することができる。   Whether the head is in a stable state or substantially stationary is determined by whether the parameter setting unit 167Ca is mounted on the position of the feature point of the real marker MK2 in the captured image of the camera 60Ca, the HMD 100Ca. It can be determined from the output of the IMU and a combination thereof.

図32は、他の実施形態に係るキャリブレーションデータの自動収集処理を説明するフローである。   FIG. 32 is a flowchart for explaining calibration data automatic collection processing according to another embodiment.

図32のフローは、ステップSC212とステップSC216との間の部分が、図31のフローのそれとは異なっていて、その他の部分は図31のフローと実質的に同じである。したがって、以下では、異なっている部分のみ説明する。   In the flow of FIG. 32, the part between step SC212 and step SC216 is different from that of the flow of FIG. 31, and the other part is substantially the same as the flow of FIG. Therefore, only different parts will be described below.

図32に示すフローでは、ステップSC212Aの後で、パラメーター設定部167Caは、カメラ60Caの撮像範囲に実物マーカーMK2が存在している状態であり、かつ、使用者USの頭部が所定期間、例えば2秒、に亘って安定的な状態か否かを判定する(ステップSC215B)。パラメーター設定部167Caがカメラ60Caの撮像範囲に実物マーカーが存在する状態であり、かつ、使用者USの頭部が2秒間に亘って安定的な状態であると判定した場合には(ステップSC215B:Yes)、処理はステップSC216へ移行する。ステップSC215Bの判定が「否」である場合には、この判定が満足されるまで、パラメーター設定部167Caは、撮像画像と使用者USの頭部の動きとを継続的に監視する。   In the flow shown in FIG. 32, after step SC212A, the parameter setting unit 167Ca is in a state where the real marker MK2 exists in the imaging range of the camera 60Ca, and the head of the user US is in a predetermined period, for example, It is determined whether the state is stable for 2 seconds (step SC215B). When the parameter setting unit 167Ca determines that the real marker is present in the imaging range of the camera 60Ca and the head of the user US is stable for 2 seconds (step SC215B: Yes), the process proceeds to step SC216. If the determination in step SC215B is “No”, the parameter setting unit 167Ca continuously monitors the captured image and the movement of the head of the user US until this determination is satisfied.

図33は、他の実施形態に係るキャリブレーションデータの自動収集処理を説明するフローである。   FIG. 33 is a flowchart illustrating an automatic collection process of calibration data according to another embodiment.

図33のフローは、図31のフローと比較して、ステップSC216とステップSC217との間に、判定ステップSC218とステップSC219が加えられている点で、図31のフローとは異なっていて、その他の部分は図31のフローと実質的に同じである。したがって、以下では、異なっている部分のみ説明する。   The flow of FIG. 33 is different from the flow of FIG. 31 in that determination step SC218 and step SC219 are added between step SC216 and step SC217, compared to the flow of FIG. This part is substantially the same as the flow of FIG. Therefore, only different parts will be described below.

図31の処理では、カウントダウン処理が開始されると(ステップSC216)、使用者USが姿勢を大きく変えた結果、もはや目視によるアライメントが成立していない場合であっても、所定時間期間の経過時にキャリブレーションデータが収集される。この場合、正確なキャリブレーションデータを収集することができない。本実施形態では、カウントダウン処理における所定時間期間内に使用者USの頭部が閾値以上の動きを示した場合に、カウントダウン処理を中止して、キャリブレーションデータの収集処理を再度やり直すことができる。具体的には、パラメーター設定部167Caは、ステップSC216のカウントダウン処理を開始された後に、所定時間期間(カウントダウン期間)が経過したか否かを判定する(ステップSC218)。パラメーター設定部167CaがステップSC218の判定が「否」と判定した場合には(ステップSC218:No)、IMUが出力する角速度または加速度に基づいて、使用者USの頭部が閾値以上の大きさの動きをしたか否かを判定する(ステップSC219)。パラメーター設定部167Caは、ステップSC219の判定が「否」と判定した場合には、ステップSC218の処理において、所定時間期間が経過した時点で(ステップSC281:Yes)、キャリブレーションデータを収集する(ステップSC217)。ステップSC219において、パラメーター設定部167Caが使用者USの頭部が閾値以上の大きさの動きがあったと判定した場合には、ステップSC213A以降の処理が実行される。   In the process of FIG. 31, when the countdown process is started (step SC216), even when the alignment is no longer established as a result of the user US having greatly changed the posture, the predetermined time period elapses. Calibration data is collected. In this case, accurate calibration data cannot be collected. In the present embodiment, when the head of the user US shows a movement of a threshold value or more within a predetermined time period in the countdown process, the countdown process can be stopped and the calibration data collection process can be performed again. Specifically, parameter setting unit 167Ca determines whether or not a predetermined time period (countdown period) has elapsed after the start of the countdown process in step SC216 (step SC218). When the parameter setting unit 167Ca determines that the determination in step SC218 is “No” (step SC218: No), the head of the user US is larger than the threshold based on the angular velocity or acceleration output by the IMU. It is determined whether or not a movement has been made (step SC219). If the determination in step SC219 is “No”, the parameter setting unit 167Ca collects calibration data when a predetermined time period has elapsed in the process of step SC218 (step SC281: Yes) (step SC218). SC217). In step SC219, when the parameter setting unit 167Ca determines that the user US's head has moved more than a threshold value, the processing after step SC213A is executed.

上述したように、パラメーター群を調整する際には、HMD100Caに表示されたマーカー画像IMGと実物マーカーMK2とが一致するように使用者USに視認させた(アライメントを成立させた)状態で、キャリブレーションデータを収集することが好ましい。使用者USがマーカー画像IMGと実物マーカーMK2とを精度よく一致して視認しているか否かは、パラメーター群を導出するキャリブレーションの精度に影響を与える。   As described above, when adjusting the parameter group, calibration is performed in a state where the user US visually recognizes (alignment is established) that the marker image IMG displayed on the HMD 100Ca and the real marker MK2 coincide with each other. It is preferable to collect application data. Whether or not the user US visually recognizes the marker image IMG and the real marker MK2 with high accuracy affects the accuracy of the calibration for deriving the parameter group.

ただし、せっかくユーザーが、マーカー画像と実物マーカーとが精度よく一致するよう視認していても、データ収集の指示またはトリガーのためにコントローラー10Caにタッチすると、その動作でアライメントがずれ、ずれたアライメントの状態でキャリブレーションデータが収集(実物マーカーが撮像)されることとなる。音声コマンドの場合にも、発声動作または発音動作により、アライメントがずれる可能性は皆無でない。このようなずれたアライメントの状態で得られたパラメーター群を使うと、AR画像の重畳表示が精度よく行われない。   However, even if the user visually recognizes that the marker image and the real marker are accurately matched, if the controller 10Ca is touched for an instruction or trigger for data collection, the operation is misaligned, and the misaligned alignment occurs. In this state, calibration data is collected (a real marker is imaged). Even in the case of a voice command, there is no possibility that the alignment is shifted due to the utterance operation or the sound generation operation. If the parameter group obtained in such a shifted alignment state is used, the AR image is not superimposed and displayed with high accuracy.

図31、図32、図33を参照して説明したキャリブレーションデータの自動収集処理は、ユーザーがタッチや音声コマンドを必ずしも与えなくても、使用者がマーカー画像と実物マーカーとを一致して視認していることをHMD100Caが判定できる仕組みを提供することができる。そして、その判定をトリガーとしてキャリブレーションデータを収集できることから、精度のよいパラメーター群が得られ、結果として、AR画像の重畳表示の精度のよいHMD100Caが得られる。なお、本実施形態では、2つの回転角の差に基づいて、「回転差A」が閾値未満か否かが判定されるが、1つの軸の回りの回転角の差、または3つの軸の回りの回転角の差に基づいて、「回転差A」が閾値未満か否かが判定されてもよい。「並進差D」についても同様である。   The automatic calibration data collection process described with reference to FIGS. 31, 32, and 33 allows the user to visually recognize the marker image and the actual marker even if the user does not necessarily give a touch or voice command. It is possible to provide a mechanism by which the HMD 100Ca can determine that it is doing. Since the calibration data can be collected using the determination as a trigger, a highly accurate parameter group is obtained, and as a result, the HMD 100Ca with high accuracy of superimposed display of the AR image is obtained. In the present embodiment, based on the difference between the two rotation angles, it is determined whether or not the “rotation difference A” is less than the threshold. However, the difference between the rotation angles around one axis or the three axes It may be determined whether or not “rotational difference A” is less than a threshold value based on the difference between the rotation angles around. The same applies to the “translation difference D”.

C−2−3.第2設定モード:
第2設定モードでは、パラメーター設定部167Caが、第1設定モードにおいて実行したキャリブレーションの結果に対して、使用者USの操作を受け付けることで、さらに、キャリブレーションの結果を補正する。換言すると、パラメーター設定部167Caは、受け付けた操作に基づいて、特定オブジェクトに対応付けられて表示されるAR画像(ARモデル)の位置、大きさ、奥行感を補正する。
C-2-3. Second setting mode:
In the second setting mode, the parameter setting unit 167Ca further corrects the calibration result by receiving the operation of the user US with respect to the result of the calibration executed in the first setting mode. In other words, the parameter setting unit 167Ca corrects the position, size, and depth feeling of the AR image (AR model) displayed in association with the specific object based on the received operation.

図34は、第2設定モードに移行したときに使用者USが視認する視野VRの一例の説明図である。図34では、使用者USが、透過した外景に含まれる特定オブジェクトとしての実物マーカーMK1と、実物マーカーMK1に対応付けられて光学像表示部26Ca,28Caに表示される設定画像SIMと、第2設定モードのときに光学像表示部26Ca,28Caに表示される8個のアイコンおよびカーソル画像CSと、が示されている。8個のアイコンは、制御部10Caの操作部135Caが受け付けた操作によって、第2設定モードにおける設定モードを変更するためのアイコンである。図34に示す例では、使用者から見て、外景の実物マーカーMK1の位置と、表示された設定画像SIMの立方体の底面の位置と、が重なっていない。換言すると、キャリブレーションの精度がよくない。このような場合に、本実施形態では、第2設定モードにおいて、使用者USは、操作部135Caを操作することで、実物マーカーMK1と設定画像SIMとのキャリブレーションの結果を補正できる。   FIG. 34 is an explanatory diagram of an example of the visual field VR visually recognized by the user US when the mode is shifted to the second setting mode. In FIG. 34, the user US has a real marker MK1 as a specific object included in the transparent outside scene, a setting image SIM displayed on the optical image display units 26Ca and 28Ca in association with the real marker MK1, Eight icons and a cursor image CS displayed on the optical image display portions 26Ca and 28Ca in the setting mode are shown. The eight icons are icons for changing the setting mode in the second setting mode by an operation received by the operation unit 135Ca of the control unit 10Ca. In the example shown in FIG. 34, the position of the real marker MK1 in the outside scene does not overlap with the position of the bottom surface of the cube of the displayed setting image SIM as viewed from the user. In other words, calibration accuracy is not good. In such a case, in the present embodiment, in the second setting mode, the user US can correct the calibration result of the real marker MK1 and the setting image SIM by operating the operation unit 135Ca.

操作部135Caのトラックパッドが所定の操作を受け付けると、パラメーター設定部167Caは、光学像表示部26Ca,28Caに表示させたカーソル画像CSの位置を移動させる。カーソル画像CSが8個のアイコンの内のいずれかに重なっている状態で、操作部135Caの決定ボタンが押下されると、パラメーター設定部167Caは、カーソル画像CSが重なっていたアイコンと対応付けられている設定モードへと移行する。   When the track pad of the operation unit 135Ca receives a predetermined operation, the parameter setting unit 167Ca moves the position of the cursor image CS displayed on the optical image display units 26Ca and 28Ca. When the determination button of the operation unit 135Ca is pressed in a state where the cursor image CS overlaps one of the eight icons, the parameter setting unit 167Ca is associated with the icon on which the cursor image CS overlaps. Switch to the current setting mode.

アイコンIC1は、選択されると、設定画像SIMの画像を拡大または縮小を実行するモードへと移行するためのアイコンである。アイコンIC1のモードでは、操作部135Caが所定の操作を受け付けることで、パラメーター設定部167Caは、上述したカメラパラメーターCPおよび写像パラメーターの一方または双方を補正して、光学像表示部26Ca,28Caに表示された設定画像SIMの大きさを変更する。本実施形態では、パラメーター設定部167Caは、カメラパラメーターCPにおける焦点距離F,F,および写像パラメーターにおける焦点距離F,Fの一方または両方を補正して、設定画像SIMの大きさを調整する。使用者USは、アイコンIC1を選択することで、実物マーカーMK1の大きさに合わせるように設定画像SIMの大きさを変更できる。 When the icon IC1 is selected, the icon IC1 is an icon for shifting to a mode in which the image of the setting image SIM is enlarged or reduced. In the mode of the icon IC1, when the operation unit 135Ca accepts a predetermined operation, the parameter setting unit 167Ca corrects one or both of the camera parameter CP and the mapping parameter and displays them on the optical image display units 26Ca and 28Ca. The size of the set image SIM is changed. In the present embodiment, the parameter setting unit 167Ca is the focal length F x in the camera parameters CP, F y, and focus in the mapping parameter distance F x, by correcting one or both of F y, the size of the setting image SIM adjust. The user US can change the size of the setting image SIM so as to match the size of the real marker MK1 by selecting the icon IC1.

アイコンIC2は、選択されると、設定画像SIMの表示位置を上下に移動させるモードへと移行するためのアイコンである。アイコンIC2のモードでは、操作部135Caが所定の操作を受け付けることで、パラメーター設定部167Caは、光学像表示部26,28のそれぞれの変換パラメーターを補正して、光学像表示部26Ca,28Caが設定画像SIMを表示可能な範囲で上下に移動させる。本実施形態では、パラメーター設定部が変換パラメーターのうち、X軸回りの回転を表すパラメーターRxを調整して、設定画像SIMを上下(すなわちY軸方向)に移動させる。なお、変換パラメーターの表示において、XおよびYは光学像表示部26Ca,28Caに固定された座標系のX軸およびY軸をそれぞれ表し、さらに上述の通り、X軸はHMD100Caを装着した場合に使用者USの左右方向を表し、Y軸はその上下方向を表し得る。 When the icon IC2 is selected, the icon IC2 is an icon for shifting to a mode in which the display position of the setting image SIM is moved up and down. In the mode of the icon IC2, when the operation unit 135Ca accepts a predetermined operation, the parameter setting unit 167Ca corrects the conversion parameters of the optical image display units 26 and 28, and the optical image display units 26Ca and 28Ca set them. The image SIM is moved up and down within a displayable range. In the present embodiment, the parameter setting unit adjusts the parameter Rx representing rotation around the X axis among the conversion parameters, and moves the setting image SIM up and down (that is, in the Y axis direction). In the conversion parameter display, X and Y represent the X axis and Y axis of the coordinate system fixed to the optical image display units 26Ca and 28Ca, respectively. Further, as described above, the X axis is used when the HMD 100Ca is mounted. The left-right direction of the person US can be represented, and the Y-axis can represent the vertical direction.

アイコンIC3は、選択されると、設定画像SIMの表示位置を左右に移動させるモードへと移行するためのアイコンである。アイコンIC3のモードでは、操作部135Caが所定の操作を受け付けることで、パラメーター設定部167Caが光学像表示部26Ca、28Caのそれぞれの変換パラメーターを補正して、光学像表示部26Ca,28Caが設定画像SIMを表示可能な範囲で左右に移動させる。本実施形態では、パラメーター設定部167Caが変換パラメーターのうち、Y軸回りの回転を表すパラメーターRyを調整して、設定画像SIMを左右(すなわちX軸方向)に移動させる。使用者USは、アイコンIC2およびアイコンIC3を選択することで、実物マーカーMK1に対して、設定画像SIMの位置を合わせるように設定画像SIMの表示位置を変更できる。   The icon IC3 is an icon for shifting to a mode in which the display position of the setting image SIM is moved to the left and right when selected. In the mode of the icon IC3, when the operation unit 135Ca accepts a predetermined operation, the parameter setting unit 167Ca corrects the conversion parameters of the optical image display units 26Ca and 28Ca, and the optical image display units 26Ca and 28Ca set images. The SIM is moved left and right within the displayable range. In the present embodiment, the parameter setting unit 167Ca adjusts the parameter Ry representing the rotation around the Y axis among the conversion parameters, and moves the setting image SIM left and right (that is, in the X axis direction). The user US can change the display position of the setting image SIM so that the position of the setting image SIM is aligned with the real marker MK1 by selecting the icon IC2 and the icon IC3.

アイコンIC4は、選択されると、使用者USに視認させる設定画像SIMの奥行感を調整するためのアイコンである。アイコンIC4のモードでは、操作部135Caが所定の操作を受け付けることで、パラメーター設定部167Caは、光学像表示部26Ca、28Caのそれぞれの写像パラメーターおける表示主点のX成分であるCxを調整して、設定画像SIMの奥行感を変える。奥行感の調整量をΔCxとし、右光学像表示部26Caの表示主点をCx_ritghとし、左光学像表示部28Caの表示主点をCy_leftとすると、奥行感の調整後の表示主点は、以下の式(75F)および式(75G)のように表される。

Figure 2017108370
Figure 2017108370
写像パラメーターの表示において、Xは光学像表示部26Ca,28Caに固定された座標系のX軸を表し、上述の通り、この場合のX軸はHMD100Caを装着した場合に使用者USの左右方向を表し得る。式(75F)および式(75G)により、左右の光学像表示部26Ca、28Caに表示される左右の画像領域の中心位置が変わり、これにより、左右の画像領域が互いに近づいたり、離れたりする。この結果、使用者USが両眼で左右の画像領域を観察すると、特定オブジェクトの距離に応じた適切な輻輳角でAR画像(ARオブジェクト)を視認できるようになる。このため、特定オブジェクトとAR画像との間で、奥行感が一致する。 The icon IC4 is an icon for adjusting the sense of depth of the setting image SIM that is visually recognized by the user US when selected. In the mode of the icon IC4, when the operation unit 135Ca accepts a predetermined operation, the parameter setting unit 167Ca adjusts Cx that is the X component of the display principal point in each of the mapping parameters of the optical image display units 26Ca and 28Ca. The depth feeling of the setting image SIM is changed. When the depth adjustment amount is ΔCx, the display principal point of the right optical image display unit 26Ca is Cx_right, and the display principal point of the left optical image display unit 28Ca is Cy_left, the display principal point after the depth sense adjustment is as follows. (75F) and (75G).
Figure 2017108370
Figure 2017108370
In the display of the mapping parameters, X represents the X axis of the coordinate system fixed to the optical image display units 26Ca and 28Ca. As described above, the X axis in this case indicates the left-right direction of the user US when the HMD 100Ca is mounted. Can be represented. The center positions of the left and right image areas displayed on the left and right optical image display units 26Ca and 28Ca are changed according to the expressions (75F) and (75G), thereby causing the left and right image areas to approach or move away from each other. As a result, when the user US observes the left and right image areas with both eyes, the AR image (AR object) can be viewed with an appropriate convergence angle corresponding to the distance of the specific object. For this reason, the sense of depth matches between the specific object and the AR image.

アイコンIC5は、選択されると、今まで実行してきたパラメーター群の補正を、実行前のパラメーター群の値に戻すためのアイコンである。アイコンIC6は、選択されると、今まで実行してきたパラメーター群の補正を、新たなパラメーター群(カメラパラメーターCP、変換パラメーターおよび写像パラメーター)として更新して記憶するためのアイコンである。   The icon IC5 is an icon for returning the parameter group correction executed so far to the value of the parameter group before execution when selected. The icon IC6 is an icon for updating and storing the correction of the parameter group executed so far as a new parameter group (camera parameter CP, conversion parameter, and mapping parameter) when selected.

アイコンIC7は、選択されると、第2設定モードへと移行する1つ前のモードへと戻るためのアイコンである。換言すると、アイコンIC7が選択されると、表示設定部165Caは、図26のステップSCS13に示す第2設定モードと第1設定モードとのどちらの設定モードへと移行するかの選択画面を光学像表示部26Ca,28Caに表示させる。   The icon IC7 is an icon for returning to the previous mode for shifting to the second setting mode when selected. In other words, when the icon IC7 is selected, the display setting unit 165Ca displays an optical image of a selection screen for switching to the second setting mode or the first setting mode shown in step SCS13 of FIG. It is displayed on the display units 26Ca and 28Ca.

アイコンIC8は、選択されると、表示設定部165Caが光学像表示部26Ca,28Caに説明文である「ヘルプ」を表示させるためのアイコンである。「ヘルプ」が表示されると、第2設定モードおよびキャリブレーション実行処理におけるキャリブレーションを実行するための操作についての説明文が光学像表示部26Ca,28Caに表示される。アイコンIC9は、選択されると、第2設定モードを含むキャリブレーション実行処理を終了するためのアイコンである。   When the icon IC8 is selected, the display setting unit 165Ca is an icon for displaying “help” as an explanatory text on the optical image display units 26Ca and 28Ca. When “help” is displayed, an explanatory note about the operation for executing calibration in the second setting mode and the calibration execution process is displayed on the optical image display units 26Ca and 28Ca. When the icon IC9 is selected, the icon IC9 is an icon for ending the calibration execution process including the second setting mode.

図35は、第2設定モードにおいて設定画像SIMの表示位置が変更されたときに使用者USが視認する視野VRの一例を示す説明図である。この例では、設定画像SIMの向き、大きさ、および奥行感は実物マーカーMK1のそれらに既に合っており、上下左右の表示位置だけを調整することでAR画像の重畳精度を向上させる場合を示している。図35では、第2設定モードにおいて、アイコンIC2およびアイコンIC3が選択された後に操作部135Caが所定の操作を受け付けて、設定画像SIMの立方体の底面と、実物マーカーMK1との位置が合わさるように設定画像SIMの表示位置が設定された状態が示されている。具体的な操作としては、初めに、アイコンIC2が選択されて、実物マーカーMK1に対して、設定画像SIMの上下方向の表示位置が合わされた後、アイコンIC3が選択されて、実物マーカーMK1に対して、設定画像SIMの水平方向の表示位置が合わされている。この後、アイコンIC5が選択されると、変換パラメーターが更新されて記憶される。   FIG. 35 is an explanatory diagram illustrating an example of a visual field VR visually recognized by the user US when the display position of the setting image SIM is changed in the second setting mode. In this example, the orientation, size, and depth of the setting image SIM already match those of the real marker MK1, and the AR image superimposition accuracy is improved by adjusting only the vertical, horizontal, and horizontal display positions. ing. In FIG. 35, in the second setting mode, the operation unit 135Ca receives a predetermined operation after the icon IC2 and the icon IC3 are selected, and the bottom surface of the cube of the setting image SIM is aligned with the real marker MK1. A state in which the display position of the setting image SIM is set is shown. As a specific operation, first, the icon IC2 is selected and the display position of the setting image SIM in the vertical direction is aligned with the real marker MK1, and then the icon IC3 is selected and the real marker MK1 is selected. Thus, the display position of the setting image SIM in the horizontal direction is adjusted. Thereafter, when the icon IC5 is selected, the conversion parameter is updated and stored.

以上説明したように、第3実施形態のHMD100Caでは、カメラ60Caが特定オブジェクトを含む外景を撮像する。そして、パラメーター設定部167Caはカメラ60Caから、光学像表示部26Ca(28Ca)にマーカー画像IMGとして表示されたモデルマーカーの位置および姿勢と、実物マーカーMK1(MK2)のそれらとがほぼ一致するように使用者USに視認させた状態での特定オブジェクトの撮像画像を取得する。パラメーター設定部167Caは、取得された撮像画像に少なくとも基づいて、パラメーター群を設定する。パラメーター群は、カメラ60CaのカメラパラメーターCP,カメラ60Caと右光学像表示部26Ca,左光学像表示部28Caとの間の空間関係を表す3D−3Dのそれぞれの変換パラメーター、および光学像表示部26Ca,28Ca上に任意の3Dモデルを画像として表示するための3D−2Dの写像パラメーターを含む。HMD100Caは、カメラパラメーターCPを用いて、特定オブジェクトの位置と姿勢を推定する。また、HMD100Caは、変換パラメーターと写像パラメーターとを用いて、特定オブジェクトに関連付けられたARモデルの位置および姿勢と、特定オブジェクトの位置および姿勢とが、互いに対応、好ましくはほぼ一致する状態で当該ARモデルをAR画像として使用者USに視認させるように、光学像表示部26Ca,28CaにそれぞれAR画像を表示する。したがって、第1設定モードによるキャリブレーションによって、特定オブジェクトと、当該特定オブジェクトに関連付けられたARモデル(AR画像)とが互いに対応、好適にはほぼ一致するように使用者USに視認させることが可能なHMD100Caを提供することができる。   As described above, in the HMD 100Ca of the third embodiment, the camera 60Ca captures an outside scene including the specific object. Then, the parameter setting unit 167Ca causes the position and orientation of the model marker displayed as the marker image IMG on the optical image display unit 26Ca (28Ca) from the camera 60Ca to substantially match those of the real marker MK1 (MK2). A captured image of the specific object in a state of being visually recognized by the user US is acquired. The parameter setting unit 167Ca sets a parameter group based at least on the acquired captured image. The parameter group includes camera parameters CP of the camera 60Ca, 3D-3D conversion parameters representing the spatial relationship between the camera 60Ca and the right optical image display unit 26Ca, and the left optical image display unit 28Ca, and the optical image display unit 26Ca. , 28Ca include 3D-2D mapping parameters for displaying an arbitrary 3D model as an image. The HMD 100Ca estimates the position and orientation of the specific object using the camera parameter CP. In addition, the HMD 100Ca uses the transformation parameter and the mapping parameter, and the AR model position and orientation associated with the specific object correspond to, preferably substantially coincide with, the position and orientation of the specific object. The AR image is displayed on each of the optical image display units 26Ca and 28Ca so that the user US can visually recognize the model as the AR image. Therefore, the calibration in the first setting mode allows the user US to visually recognize that the specific object and the AR model (AR image) associated with the specific object correspond to each other and preferably substantially coincide with each other. HMD100Ca can be provided.

また、第3実施形態のHMD100Caでは、パラメーター設定部167Caは、第2設定モードにおいて、操作部135Caが受け付けた操作に応じて、光学像表示部26Ca,28Caに表示される設定画像SIMの位置、大きさ、および奥行感と、実物マーカーMK1(MK2)の位置、大きさ、および奥行感が互いに対応、好適には一致する状態で当該設定画像SIMを使用者USに視認させるように、カメラパラメーターCPと変換パラメーターと写像パラメーターとの少なくとも1つのパラメーターを設定する。そのため、第3実施形態のHMD100Caでは、操作部135Caが所定の操作を受け付けることで、特定オブジェクトとARモデル(AR画像)との位置関係を、使用者USが手動でさらに補正できる。これにより、使用者USは、キャリブレーションを容易に行なうことができ、また、より精度の高いキャリブレーションを実行できる。   Further, in the HMD 100Ca of the third embodiment, the parameter setting unit 167Ca has the position of the setting image SIM displayed on the optical image display units 26Ca and 28Ca in accordance with the operation received by the operation unit 135Ca in the second setting mode, Camera parameters so that the user US can visually recognize the setting image SIM in a state where the size and depth sensation and the position, size and depth sensation of the real marker MK1 (MK2) correspond to each other, and preferably coincide with each other. At least one of a CP, a conversion parameter, and a mapping parameter is set. Therefore, in the HMD 100Ca of the third embodiment, when the operation unit 135Ca receives a predetermined operation, the user US can further manually correct the positional relationship between the specific object and the AR model (AR image). Thereby, the user US can easily perform calibration, and can execute calibration with higher accuracy.

また、第3実施形態のHMD100Caでは、パラメーター設定部167Caは、第1設定モードにおいて、カメラ60Caの撮像画像を用いて、カメラパラメーターCPおよび変換パラメーターの少なくとも1つに関するパラメーターを設定する。また、パラメーター設定部167Caは、第2設定モードにおいて、操作部135Caが受け付けた所定の操作に応じて、カメラパラメーターCP、変換パラメーターと、写像パラメーターとの少なくとも1つに関するパラメーターを設定する。そのため、第3実施形態のHMD100Caでは、第1設定モードで設定されたカメラパラメーターCPおよび変換パラメーターに対して、第2設定モードで個別に設定できる。これにより、第1設定モードで調整しきれなかったパラメーターを個別に調整することができ、結果として、特定オブジェクトに、その関連付けられたAR画像を重畳するように表示する際の精度を高めることができる。   In the HMD 100Ca of the third embodiment, the parameter setting unit 167Ca sets a parameter related to at least one of the camera parameter CP and the conversion parameter using the captured image of the camera 60Ca in the first setting mode. The parameter setting unit 167Ca sets a parameter related to at least one of the camera parameter CP, the conversion parameter, and the mapping parameter in accordance with a predetermined operation received by the operation unit 135Ca in the second setting mode. Therefore, in the HMD 100Ca of the third embodiment, the camera parameter CP and the conversion parameter set in the first setting mode can be individually set in the second setting mode. This makes it possible to individually adjust parameters that could not be adjusted in the first setting mode, and as a result, it is possible to improve accuracy when displaying the associated AR image so as to be superimposed on the specific object. it can.

また、第3実施形態のHMD100Caでは、カメラ60Caが装着帯90Caに対して向きを変更可能に配置されている。設定画像SIMを表示可能な光学像表示部26Ca,28Caは、装着帯90Caに対して、相対位置を変更可能に配置されている。そのため、カメラ60Caは、光学像表示部26Ca,28Caに対して、位置および向きが変更可能に配置されており(HMD100Caを「カメラ可動型HMD」とも呼ぶ)、カメラ60Caと光学像表示部26Ca,28Caとの位置関係の変化に応じて、キャリブレーションの設定が必要になる。第3実施形態のHMD100Caでは、使用者USは、位置関係の変化に応じて必要とされるキャリブレーションを、第1設定モードと第2設定モードとを実行することで、容易に実行できる。もちろん、カメラと光学像表示部26Ca,28Caとの間の空間関係が固定されたHMD(「カメラ固定型HMD」とも呼ぶ)において、使用者USによるキャリブレーション(第1設定モード)の際に毎回、カメラと光学像表示部との間の空間関係を表す回転と並進をキャリブレーションパラメーターとして可変にし、当該空間関係の最適化を行ってもよい。このようなキャリブレーションは、カメラ固定型HMDにおいても、製造誤差により、各個体に亘る上記空間関係の分散が大きいときに、有益である。   Moreover, in HMD100Ca of 3rd Embodiment, the camera 60Ca is arrange | positioned so that a direction can be changed with respect to mounting band 90Ca. The optical image display units 26Ca and 28Ca capable of displaying the setting image SIM are arranged so that the relative position can be changed with respect to the wearing band 90Ca. Therefore, the camera 60Ca is arranged so that the position and orientation of the optical image display units 26Ca and 28Ca can be changed (the HMD 100Ca is also referred to as “camera movable HMD”), and the camera 60Ca and the optical image display unit 26Ca, Calibration needs to be set according to the change in the positional relationship with 28Ca. In the HMD 100Ca of the third embodiment, the user US can easily execute calibration required according to the change in the positional relationship by executing the first setting mode and the second setting mode. Of course, in HMD in which the spatial relationship between the camera and the optical image display units 26Ca and 28Ca is fixed (also referred to as “camera fixed HMD”), every time calibration is performed by the user US (first setting mode). The rotation and translation representing the spatial relationship between the camera and the optical image display unit may be made variable as calibration parameters, and the spatial relationship may be optimized. Such calibration is useful even in the camera-fixed HMD when the dispersion of the spatial relationship among the individuals is large due to manufacturing errors.

また、第3実施形態のHMD100Caでは、パラメーター設定部167Caが設定したカメラパラメーターCPおよび変換パラメーターに基づいて、表示設定部165Caは、撮像された特定オブジェクトである実物マーカーMK2または実物マーカーMK1に対応付けて設定画像SIMを表示させる。そのため、第3実施形態のHMDでは、使用者USが、実行されたキャリブレーションの結果を視認でき、追加調整を実行する必要があるかを判定できるので、使用者の利便性が向上する。   In the HMD 100Ca of the third embodiment, the display setting unit 165Ca is associated with the real marker MK2 or the real marker MK1 that is the captured specific object based on the camera parameter CP and the conversion parameter set by the parameter setting unit 167Ca. To display the setting image SIM. Therefore, in the HMD of the third embodiment, the user US can visually recognize the result of the calibration that has been performed, and can determine whether or not additional adjustment needs to be performed, which improves the convenience for the user.

また、第3実施形態のHMD100Caでは、位置合わせ処理において、マーカー特定部166Caが、マーカー画像IMGと実物マーカーMK2とが所定の位置関係であり、マーカー画像IMGが表示された右光学像表示部26Caと実物マーカーMK2との距離が所定値以下であり、使用者USの頭部が静止している場合に、表示設定部165Caは、カウントダウンを表す文字画像を右光学像表示部26Caに表示させる。カウントダウンが経過した後に、パラメーター設定部167Caは、カメラ60Caに実物マーカーMK2を撮像させて、カメラパラメーターCPおよび変換パラメーターを設定する。そのため、第3実施形態のHMD100Caでは、キャリブレーションの実行に必要な実物マーカーMK2の撮像データを取得するときに、特定のボタンを押したり、音声認識を実行する必要がなく、自動的にカメラ60Caによる撮像が実行される。よって、使用者の操作および音声発生などによる実物マーカーMK2とマーカー画像IMGとの重なり(アライメント)のずれを低減できる。これにより、精度の良いアライメントの撮像データを取得でき、キャリブレーションの精度を向上する。   In the HMD 100Ca of the third embodiment, in the alignment process, the marker specifying unit 166Ca has a predetermined positional relationship between the marker image IMG and the real marker MK2, and the right optical image display unit 26Ca on which the marker image IMG is displayed. When the distance between the actual marker MK2 and the real marker MK2 is equal to or smaller than the predetermined value and the user US's head is stationary, the display setting unit 165Ca displays a character image representing the countdown on the right optical image display unit 26Ca. After the countdown has elapsed, the parameter setting unit 167Ca causes the camera 60Ca to image the real marker MK2, and sets the camera parameter CP and the conversion parameter. Therefore, in the HMD 100Ca of the third embodiment, it is not necessary to press a specific button or perform voice recognition when acquiring imaging data of the real marker MK2 necessary for execution of calibration, and the camera 60Ca is automatically used. Imaging is performed according to the above. Therefore, it is possible to reduce the deviation of the overlap (alignment) between the actual marker MK2 and the marker image IMG due to the user's operation and sound generation. Thereby, it is possible to acquire image data of alignment with high accuracy, and improve the accuracy of calibration.

また、第3実施形態のHMD100Caでは、パラメーター設定部167Caは、所定の位置関係および距離の所定値として、算出したカメラ60Caに対する特定オブジェクトの空間関係と、カメラと光学像表示部26Ca、28Caとの間のデフォルトの空間関係と、を用いて、右光学像表示部26Caまたは左光学像表示部28Caに対する特定オブジェクトの仮想の位置と姿勢を算出する。パラメーター設定部167Caは、特定オブジェクトの上記仮想の位置と姿勢と、マーカー画像IMGとして表示(写像)されているモデルマーカーの光学像表示部26Ca、28Caに対する仮想の位置と姿勢と、を比較することで両位置・姿勢の回転に関するパラメーターのずれおよび並進に関するパラメーターのずれを算出する。これらのずれとしての差に基づいて、表示設定部165Caは、カメラ60Caが外景を撮像するまでのカウントダウンの情報を右光学像表示部26Caまたは左光学像表示部28Caに表示させる。また、表示設定部165Caは、回転に関するパラメーターの差や並進に関するパラメーターの差に応じて、使用者USに、マーカー画像IMGと特定オブジェクトである実物マーカーMK2との位置合わせの処理を促す文字画像を右光学像表示部26Caに表示させる。そのため、第3実施形態のHMD100Caでは、使用者USは、マーカー画像IMGと実物マーカーMK2とのずれを視覚情報として認識でき、容易に精度の高いキャリブレーションを実行できる。   Further, in the HMD 100Ca of the third embodiment, the parameter setting unit 167Ca has the predetermined positional relationship and the predetermined value of the distance, the calculated spatial relationship of the specific object with respect to the camera 60Ca, and the camera and the optical image display units 26Ca and 28Ca. The virtual position and orientation of the specific object with respect to the right optical image display unit 26Ca or the left optical image display unit 28Ca are calculated using the default spatial relationship between them. The parameter setting unit 167Ca compares the virtual position and orientation of the specific object with the virtual position and orientation of the model marker displayed (mapped) as the marker image IMG with respect to the optical image display units 26Ca and 28Ca. To calculate the parameter deviation for rotation of both positions and postures and the parameter deviation for translation. Based on the difference as the deviation, the display setting unit 165Ca causes the right optical image display unit 26Ca or the left optical image display unit 28Ca to display countdown information until the camera 60Ca captures an outside scene. In addition, the display setting unit 165Ca displays a character image that prompts the user US to perform alignment processing between the marker image IMG and the actual object MK2, which is a specific object, according to a difference in parameters related to rotation and a difference in parameters related to translation. It is displayed on the right optical image display unit 26Ca. Therefore, in the HMD 100Ca of the third embodiment, the user US can recognize the deviation between the marker image IMG and the real marker MK2 as visual information, and can easily execute a highly accurate calibration.

また、第3実施形態のHMD100Caでは、表示設定部165Caは、カメラ60Caが撮像するまでのカウントダウンを表す情報として、特定オブジェクトとしての実物マーカーMK2に対応付けられたマーカー画像IMGの色を変化させた画像を右光学像表示部26Caに表示させる。そのため、第3実施形態のHMD100Caでは、使用者USにカメラ60Caが実物マーカーMK2を撮像するタイミングを視覚情報として認識させることができ、使用者USは感覚的にキャリブレーションを実行できる。   Moreover, in HMD100Ca of 3rd Embodiment, the display setting part 165Ca changed the color of the marker image IMG matched with the real marker MK2 as a specific object as information showing the countdown until the camera 60Ca imaged. The image is displayed on the right optical image display unit 26Ca. Therefore, in the HMD 100Ca of the third embodiment, the user US can recognize the timing at which the camera 60Ca images the real marker MK2 as visual information, and the user US can perform calibration sensuously.

D.第4実施形態:
第4実施形態では、第3実施形態と比較して、キャリブレーションが実行されるときにカメラ60Caが撮像する実物マーカーと、実物マーカーを撮像する第1設定モードの一部とが異なる。そのため、第4実施形態では、第3実施形態と比較してことなる処理について説明し、その他の第3実施形態と同じ処理の説明については省略する。
D. Fourth embodiment:
Compared with the third embodiment, the fourth embodiment differs from the real marker captured by the camera 60Ca when the calibration is executed, and a part of the first setting mode for capturing the real marker. Therefore, in the fourth embodiment, processing that is different from that in the third embodiment will be described, and description of the same processing as in the other third embodiment will be omitted.

図36は、第4実施形態における制御部10Cbの裏面を示す正面図である。図36には、制御部10Cbにおける操作部135Caが形成された面を表面と定義した場合の裏面が示されている。図36に示すように、制御部10Cbの裏面には、実物マーカーMK1を小さくした実物マーカーMK3が配置されている。   FIG. 36 is a front view showing the back surface of the control unit 10Cb in the fourth embodiment. FIG. 36 shows the back surface when the surface on which the operation unit 135Ca is formed in the control unit 10Cb is defined as the front surface. As shown in FIG. 36, a real marker MK3 in which the real marker MK1 is reduced is disposed on the back surface of the control unit 10Cb.

第4実施形態の第1設定モードでは、第3実施形態の第1モードと同じように、初めに、表示設定部165Caが右光学像表示部26Caにマーカー画像IMGを表示させる(図26のステップSC201)。パラメーター設定部167Caは、マーカー画像IMGと制御部10Cbの裏面に配置された実物マーカーMK3との位置合わせを使用者USに促す(ステップSC210)。実物マーカーMK3とマーカー画像IMGとの位置合わせが実行されると、第3実施形態と異なり、表示設定部165Caは、ステップSC201で右光学像表示部26Caに表示されたマーカー画像IMGと大きさが異なるマーカー画像IMGを右光学像表示部26Caに表示させる(ステップSC202)。パラメーター設定部167Caは、ステップSC201の処理時とは大きさが異なるマーカー画像IMGと実物マーカーMK3との位置合わせを使用者USに促す(ステップSC220)。ここで、大きさが異なる2つのマーカー画像IMGは、本実施形態では光学像表示部26Ca,28Caに対する仮想的な位置(Z軸に沿った距離)が異なる同一のモデルマーカーを写像パラメーターにより2次元に写像することで生成される。第4実施形態のステップSC220の処理では、使用する実物マーカーが一つであっても、大きさが異なる2つのマーカー画像IMGに対してアライメントを成立させようとするから、第3実施形態と同様に、使用者USは、マーカー画像IMGが表示された右光学像表示部26Caと実物マーカーMK3とを、距離を変えてアラインさせる。第1設定モードのステップSC203以降の処理については、右光学像表示部26Caに対する処理と同じであるため、説明を省略する。   In the first setting mode of the fourth embodiment, as in the first mode of the third embodiment, first, the display setting unit 165Ca displays the marker image IMG on the right optical image display unit 26Ca (step of FIG. 26). SC201). The parameter setting unit 167Ca prompts the user US to align the marker image IMG with the actual marker MK3 disposed on the back surface of the control unit 10Cb (step SC210). When the alignment between the real marker MK3 and the marker image IMG is executed, unlike the third embodiment, the display setting unit 165Ca has the same size as the marker image IMG displayed on the right optical image display unit 26Ca in step SC201. Different marker images IMG are displayed on the right optical image display unit 26Ca (step SC202). The parameter setting unit 167Ca prompts the user US to align the marker image IMG and the actual marker MK3, which are different in size from the processing in step SC201 (step SC220). In this embodiment, two marker images IMG having different sizes are two-dimensionally represented by mapping parameters of the same model marker having different virtual positions (distances along the Z axis) with respect to the optical image display units 26Ca and 28Ca. Generated by mapping to. In the process of step SC220 in the fourth embodiment, even if only one real marker is used, alignment is attempted to be established for two marker images IMG having different sizes. In addition, the user US aligns the right optical image display unit 26Ca on which the marker image IMG is displayed and the real marker MK3 at different distances. Since the process after step SC203 in the first setting mode is the same as the process for the right optical image display unit 26Ca, the description thereof is omitted.

第4実施形態のHMD100Cbでは、1つの実物マーカーMK3であっても、第1設定モードにおいて右光学像表示部26Caまたは左光学像表示部28Caに表示されるマーカー画像IMGを変化させることで、精度の高いキャリブレーションを実行できる。   In the HMD 100Cb of the fourth embodiment, the accuracy can be improved by changing the marker image IMG displayed on the right optical image display unit 26Ca or the left optical image display unit 28Ca in the first setting mode even for one real marker MK3. High calibration can be performed.

E.第5実施形態:
第5実施形態では、第3実施形態と比較して、キャリブレーションが実行されるときにカメラ60Caが撮像する実物マーカーの形状と、実物マーカーに対応するマーカー画像IMGの形状と、が異なる。そのため、第5実施形態では、第3実施形態に対して異なる実物マーカーの形状および実物マーカーの特定について説明し、その他の構成については説明を省略する。
E. Fifth embodiment:
The fifth embodiment differs from the third embodiment in the shape of the real marker captured by the camera 60Ca when calibration is executed and the shape of the marker image IMG corresponding to the real marker. Therefore, in the fifth embodiment, the shape of the real marker and the identification of the real marker that are different from those in the third embodiment will be described, and description of other configurations will be omitted.

図37および図38は、第5実施形態の実物マーカーの一例を示す概略図である。図37には、実物マーカーMK4として、階段状に形成された3次元のブロックが示されている。同様に、図38には、実物マーカーMK5として、三角錐を基準として半円筒などのブロックが付加された3次元のブロックが示されている。第5実施形態のマーカー画像記憶部138Ccは、実物マーカーMK4および実物マーカーMK5に対応する3次元モデルのデータを、その特徴点とともに記憶している。そのため、マーカー特定部166Caは、マーカー画像記憶部138Ccに記憶された特徴点と撮像画像における特徴点との対応関係を推定することで、カメラ60Caに対する実物マーカーMK4または実物マーカーMK5の位置と姿勢を推定できる。特徴点の特定方法としては、ステレオカメラによって特定の位置までの距離を特定して、特定した距離を用いたエッジ検出などであってもよく、公知の技術を適用できる。   FIGS. 37 and 38 are schematic views showing an example of the real marker of the fifth embodiment. FIG. 37 shows a three-dimensional block formed in a staircase pattern as the real marker MK4. Similarly, in FIG. 38, a three-dimensional block to which a block such as a semi-cylinder is added with a triangular pyramid as a reference is shown as the real marker MK5. The marker image storage unit 138Cc of the fifth embodiment stores data of a three-dimensional model corresponding to the real marker MK4 and the real marker MK5 together with the feature points. Therefore, the marker specifying unit 166Ca estimates the position and posture of the real marker MK4 or the real marker MK5 with respect to the camera 60Ca by estimating the correspondence between the feature points stored in the marker image storage unit 138Cc and the feature points in the captured image. Can be estimated. As a method for specifying the feature point, a distance to a specific position may be specified by a stereo camera, and edge detection using the specified distance may be used, and a known technique can be applied.

記憶部には、実物マーカーMK4または実物マーカーMK5の形状と相似な形状を有する3Dモデルマーカーが記憶されている。なお、第3実施形態と同様に、モデルマーカーは、仮想の3次元空間内で定義されている。HMD100Caは、光学像表示部26Ca、28Caに対して所定の位置と姿勢を有するように設定された当該モデルマーカーを上述の写像パラメーターにより写像し、光学像表示部26Ca、28Caにマーカー画像IMGとして表示する。以下は、第3実施形態と同様に、使用者USにマーカー画像IMGと実物マーカーMK4,MK5とのアライメントを成立させる。   The storage unit stores a 3D model marker having a shape similar to the shape of the real marker MK4 or the real marker MK5. As in the third embodiment, the model marker is defined in a virtual three-dimensional space. The HMD 100Ca maps the model marker set so as to have a predetermined position and orientation with respect to the optical image display units 26Ca and 28Ca using the above mapping parameters, and displays the model marker as a marker image IMG on the optical image display units 26Ca and 28Ca. To do. In the following, as in the third embodiment, the user US establishes alignment between the marker image IMG and the real markers MK4 and MK5.

以上説明したように、第5実施形態のHMD100Ccでは、2次元モデルよりも特徴点の多い3次元モデルを用いてキャリブレーションが実行されるため、精度の高いキャリブレーションを実行できる。   As described above, in the HMD 100Cc according to the fifth embodiment, calibration is performed using a three-dimensional model having more feature points than the two-dimensional model, so that calibration with high accuracy can be performed.

F.第3実施形態、第4実施形態、および第5実施形態の変形例:
なお、この発明は上記実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば、次のような変形も可能である。
F. Modifications of the third embodiment, the fourth embodiment, and the fifth embodiment:
In addition, this invention is not limited to the said embodiment, It can implement in a various aspect in the range which does not deviate from the summary, For example, the following deformation | transformation is also possible.

F−1.変形例1:
第3実施形態ないし第5実施形態では、図18ないし図20に示すように、光学像表示部26Ca,28Caに対するカメラ60Caの位置や向きが変化するHMD100Caについて説明した。光学像表示部26Ca,28Caに対するカメラ60Caの位置が変化しないHMD101Caについても、第3実施形態ないし第5実施形態で説明したキャリブレーションが有効である。なお、以降では、第3実施形態ないし第5実施形態で説明したHMD100Caを、「カメラ可動型HMD」とも呼び、カメラ60Caの位置が固定であるHMD101Caを「カメラ固定型HMD」とも呼ぶ。たとえば、カメラ固定型HMDの場合であっても、カメラ60Caと光学像表示部26Ca、28Caとの間の空間関係を表す回転と並進に存在する誤差の分散が、同一仕様のHMDの間で大きい場合には、使用者USがAR画像を表示する前に毎回、上記回転と並進を含む相対関係を調整するようにキャリブレーション処理をしてもよい。
F-1. Modification Example 1:
In the third to fifth embodiments, the HMD 100Ca has been described in which the position and orientation of the camera 60Ca with respect to the optical image display units 26Ca and 28Ca are changed as shown in FIGS. The calibration described in the third to fifth embodiments is also effective for the HMD 101Ca in which the position of the camera 60Ca with respect to the optical image display units 26Ca and 28Ca does not change. Hereinafter, the HMD 100Ca described in the third to fifth embodiments is also referred to as a “camera movable HMD”, and the HMD 101Ca in which the position of the camera 60Ca is fixed is also referred to as a “camera fixed HMD”. For example, even in the case of a camera-fixed HMD, the dispersion of errors existing in rotation and translation representing the spatial relationship between the camera 60Ca and the optical image display units 26Ca and 28Ca is large between HMDs of the same specification. In some cases, the calibration process may be performed so that the relative relationship including the rotation and the translation is adjusted each time before the user US displays the AR image.

図39は、第1設定モードで設定するパラメーターに関連する要素を示す表である。第1設定モードで変換パラメーターが設定される場合に、光学像表示部26Ca,28Caから特定オブジェクトまでの距離の選択、いずれのパラメーターを優先的に最適化するかの選択などを設定できる。   FIG. 39 is a table showing elements related to parameters set in the first setting mode. When conversion parameters are set in the first setting mode, selection of the distance from the optical image display units 26Ca and 28Ca to the specific object, selection of which parameter is preferentially optimized, and the like can be set.

図39に示すように、「マーカー画像IMGの表示」として、両眼表示と単眼表示との2つの表示が挙げられる。両眼表示は、右光学像表示部26Caおよび左光学像表示部28Caに同時にマーカー画像IMGを表示させて、使用者USにアライメントを実行させる場合を表す。単眼表示は、右光学像表示部26または左光学像表示部28にマーカー画像IMGを表示させて、使用者USに右光学像表示部26Caと左光学像表示部28Caとを別々にアライメントを実行させる場合を表す。HMD100Caであるカメラ可動型HMDおよびHMD101Caであるカメラ固定型HMDでは、単眼表示を採用している。   As shown in FIG. 39, “display of the marker image IMG” includes two displays of a binocular display and a monocular display. The binocular display represents a case in which the marker image IMG is simultaneously displayed on the right optical image display unit 26Ca and the left optical image display unit 28Ca to cause the user US to perform alignment. In the monocular display, the marker image IMG is displayed on the right optical image display unit 26 or the left optical image display unit 28, and the user US performs alignment of the right optical image display unit 26Ca and the left optical image display unit 28Ca separately. This represents the case where The camera movable HMD that is the HMD 100Ca and the camera fixed HMD that is the HMD 101Ca employ a monocular display.

「実物マーカー、モデルマーカーの構造」とは、マーカー画像IMGの基となるモデルマーカーおよび実物マーカーMK1,MK2,MK3,MK4として、2次元のオブジェクト(図形など)を用いる「2D」と、3次元のオブジェクトを用いる「3D」とが挙げられる。HMD100Caであるカメラ可動型HMDおよびHMD101Caであるカメラ固定型HMDでは、第3実施形態に示すように、2次元の実物マーカーMK1,MK2、および2次元のモデルマーカーを写像したマーカー画像IMGを採用している。   “Real marker and structure of model marker” means “2D” using a two-dimensional object (such as a figure) as a model marker and real markers MK1, MK2, MK3, and MK4 as a basis of the marker image IMG, and three-dimensional “3D” using the above object. As shown in the third embodiment, the camera movable HMD that is the HMD100Ca and the camera fixed HMD that is the HMD101Ca employ the marker image IMG that maps the two-dimensional real markers MK1 and MK2 and the two-dimensional model marker. ing.

「モデルマーカー(マーカー画像IMG)の位置と姿勢」は、使用者USがアライメントを実施する際に、光学像表示部26Ca、28Caに表示されるマーカー画像IMGが光学像表示部26Ca、28Caに対して固定で表示されるか、カスタマイズされるかを示している。以下、詳細に説明する。   “The position and orientation of the model marker (marker image IMG)” indicates that when the user US performs alignment, the marker image IMG displayed on the optical image display units 26Ca and 28Ca is compared with the optical image display units 26Ca and 28Ca. Whether it is fixed or customized. Details will be described below.

本実施形態では、3次元で表わされたモデルマーカーを使用し、そして、光学像表示部26Ca、28Caから所定距離だけ離れたところにまっすぐに固定されているかのように当該モデルマーカーをマーカー画像IMGとしてレンダリング(描画)する。光学像表示部26Ca、28Caに対するモデルマーカーの仮想的な位置と姿勢は、既定(固定)である。それは、通常、特定のHMD100Caに対して、以下の条件に基づいて、選択される。
(1)実物マーカーMK1,MK2が、使用者USとカメラ60Caとによって同時に見られる。たとえば、あるHMDに搭載されたカメラは、眼鏡型の構造体の右脚に位置するかもしれない。したがって、アライメントの距離は、近すぎると、撮像画像に含まれないことがある。
(2)多くのARシナリオが生じる位置と姿勢(特に距離)の場所に、上記既定の位置と姿勢を選択する。なぜなら、AR画像の重畳精度(またはキャリブレーション精度)は、アライメントが実施されたところを含む近傍領域で高く、その領域から外れると低下するからである。
In the present embodiment, a model marker represented in three dimensions is used, and the model marker is displayed as a marker image as if it is fixed straight at a predetermined distance from the optical image display units 26Ca and 28Ca. Render (draw) as IMG. The virtual position and posture of the model marker with respect to the optical image display units 26Ca and 28Ca are predetermined (fixed). It is usually selected for a particular HMD100Ca based on the following conditions.
(1) Real markers MK1 and MK2 are simultaneously seen by the user US and the camera 60Ca. For example, a camera mounted on an HMD may be located on the right leg of a spectacle-type structure. Therefore, if the alignment distance is too close, it may not be included in the captured image.
(2) The predetermined position and posture are selected at positions and postures (particularly distances) where many AR scenarios occur. This is because the superimposition accuracy (or calibration accuracy) of the AR image is high in the vicinity area including the place where the alignment is performed, and decreases when the alignment area deviates from that area.

しかしながら、上述の既定の位置と姿勢、すなわち既定のアライメント姿勢は、他の実施形態においては必ずしも必須ではない。他の実施形態によれば、カメラ60Caに撮像された実物マーカーMK1,MK2(MK4,MK5)の位置と姿勢をトラッキングし続け、トラッキングされた位置・姿勢と、既存またはデフォルトのパラメーター群と、を用いてモデルマーカーを光学像表示部26Ca、28Caにマーカー画像IMGとして表示する。そして、トラッキングされた位置・姿勢に応じてモデルマーカー(マーカー画像IMG)のレンダリング(描画)を更新し、アライメントに最良であると使用者USが認めるマーカー画像IMGの位置・姿勢を使用者USに決定させる。たとえば、使用者USは、実物マーカーMK1,MK2がユニークに見え、かつ既存のパラメーター群(既存のキャリブレーション結果)が明白なエラーを呈する位置と姿勢(視野)を見つけるまで、実物マーカーMK1,MK2の回りを動くことができる。そして、使用者USが指定したその時点で、パラメーター設定部167が、新しいトラッキング姿勢を用いた位置・姿勢の更新を停止する。そうすると、モデルマーカー(マーカー画像IMG)は静止して描かれ、そして、使用者USは、マーカー画像IMGと実物マーカーMK1,MK2とが互いに一致して視認することができるように、自らの位置と姿勢へ、変える。このような方法によっても、使用者USは、アライメントを成立させることができる。   However, the above-described predetermined position and posture, that is, the predetermined alignment posture is not necessarily essential in other embodiments. According to another embodiment, the position and orientation of the real markers MK1 and MK2 (MK4 and MK5) imaged by the camera 60Ca are continuously tracked, and the tracked position and orientation and the existing or default parameter group are The model marker is displayed as a marker image IMG on the optical image display units 26Ca and 28Ca. Then, the rendering (drawing) of the model marker (marker image IMG) is updated in accordance with the tracked position / posture, and the position / posture of the marker image IMG that the user US recognizes as the best alignment is given to the user US. Let me decide. For example, the user US finds the actual markers MK1, MK2 until the actual markers MK1, MK2 find a position and posture (field of view) in which the actual markers MK1, MK2 look unique and the existing parameter group (existing calibration result) exhibits an obvious error. Can move around. Then, at the time point designated by the user US, the parameter setting unit 167 stops updating the position / posture using the new tracking posture. Then, the model marker (marker image IMG) is drawn stationary, and the user US can determine the position of the user so that the marker image IMG and the real markers MK1 and MK2 can be visually confirmed in agreement with each other. Change to posture. Also by such a method, the user US can establish alignment.

画像処理部160Caは、モデルマーカーの表示に用いられるレンダリングエンジンを有し、そのレンダリングエンジンにおけるOpenGLは、「PVM」の行列積を利用しCGを生成する。ここで、Pは写像パラメーターであり、Vは、光学像表示部26Ca、28Caに対するモデルマーカーの位置と姿勢であり、Mはモデルマーカー(3Dモデル)の内部座標である。使用者USの目視によるアライメントのためにモデルマーカーを写像したマーカー画像をレンダリング(描画)したい場合には、Vは、例えば、第3実施形態のように、[I:0,0,d1]のように既定にし得る。なお、ここで、Iは単位行列であり、光学像表示部26Ca、28Caの座標系で表わされた回転であり、(0,0,d)のdはアライメントの距離であり、光学像表示部26Ca、28Caの座標系で表わされた並進である。   The image processing unit 160Ca has a rendering engine used for displaying the model marker, and OpenGL in the rendering engine generates a CG using a matrix product of “PVM”. Here, P is a mapping parameter, V is the position and orientation of the model marker with respect to the optical image display units 26Ca and 28Ca, and M is the internal coordinates of the model marker (3D model). When it is desired to render (draw) a marker image in which a model marker is mapped for visual alignment by the user US, V is, for example, as in the third embodiment, [I: 0, 0, d1]. Can be the default. Here, I is a unit matrix, which is a rotation expressed in the coordinate system of the optical image display units 26Ca and 28Ca, d in (0, 0, d) is an alignment distance, and an optical image display It is the translation represented by the coordinate system of the parts 26Ca and 28Ca.

カスタマイズアライメントは、固定されたVの使用に代えて、Vとして既存またはデフォルトのパラメーター群を使用することと、使用者USが実物マーカーMK1,MK2の位置・姿勢のトラッキングを固定した時点での当該トラッキングされた位置・姿勢(以下、トラッキングポーズ)を利用することを意味する。

Figure 2017108370
式(75H)において、Tは、カメラ60Caを介したトラッキングにより得たトラッキング姿勢(カメラ60Caに対する位置と姿勢)を表し、Hは、現行またはデフォルトのカメラとディスプレイとの間の変換行列(空間関係)を表す。 In the customized alignment, instead of using the fixed V, the existing or default parameter group is used as the V, and when the user US fixes the tracking of the positions and postures of the real markers MK1 and MK2, This means using a tracked position / posture (hereinafter referred to as tracking pose).
Figure 2017108370
In Expression (75H), T represents a tracking posture (position and posture with respect to the camera 60Ca) obtained by tracking via the camera 60Ca, and H represents a transformation matrix (spatial relationship) between the current or default camera and the display. ).

カスタマイズアライメントの利点は、以下のように現れる。
(1)ユーザーの装着具合とARシナリオの距離範囲に依存して、カメラ60Caと光学像表示部26Ca、28Caとの間の空間関係が大きく変化するカメラ可動型HMDの場合:あるケースでは、本実施形態のキャリブレーション処理が、対応する既定の距離にある大きさの異なる実物マーカーMK1およびMK2のいずれを用いてもうまく実施し得ない可能性がある。なぜなら、カメラ60が実物マーカーMK1,MK2を見ること(補足すること)ができない場合があるからである。実物マーカーMK1,MK2は、上部または下部において、カメラ60Caの撮像画像から外れ得る。このようなケースでは、使用者USにアライメントの距離を選択するよう促すことが解決策となる。
(2)使用者USが、特定のARシナリオの距離のために、よりよいAR画像の重畳精度を達成することを望む場合、特に、使用者USの関心のある距離が、キャリブレーション範囲内にない場合: 使用者USが大きい距離範囲において精度を求める場合には、ユーザーは、その範囲内においてむしろ複数の距離を選択し、複数回のアライメントを実施することができる。
(3)使用者USが使用者US自身で創作した3Dオブジェクトを実物マーカーとして用いる場合には、使用者USは、アライメント距離を定義(決定)する必要がある。
The advantages of customized alignment appear as follows.
(1) In the case of a camera-movable HMD in which the spatial relationship between the camera 60Ca and the optical image display units 26Ca and 28Ca varies greatly depending on the user's wearing condition and the distance range of the AR scenario: There is a possibility that the calibration processing of the embodiment may not be successfully performed by using any of the real markers MK1 and MK2 having different sizes at the corresponding predetermined distance. This is because the camera 60 may not be able to see (supplement) the real markers MK1 and MK2. The real markers MK1 and MK2 can deviate from the captured image of the camera 60Ca in the upper part or the lower part. In such a case, the solution is to prompt the user US to select the alignment distance.
(2) If the user US wants to achieve better AR image overlay accuracy for the distance of a particular AR scenario, in particular the distance of interest of the user US is within the calibration range. If not: If the user US seeks accuracy over a large distance range, the user can select multiple distances within that range and perform multiple alignments.
(3) When the user US uses a 3D object created by the user US as a real marker, the user US needs to define (determine) the alignment distance.

図39に戻り、「調整するパラメーター」は、キャリブレーション処理において調整されるパラメーターを示している。後述するように、HMD100Caに含まれるカメラ60CaのカメラパラメーターCPは、必ずしも調整される必要はない。また、カメラ固定型HMDであっても、カメラ60Caと右光学像表示部26Ca,28Caとの間の空間関係(回転と並進)を表す変換パラメーターを調整することが好ましい場合がある。   Returning to FIG. 39, “parameter to be adjusted” indicates a parameter to be adjusted in the calibration process. As will be described later, the camera parameter CP of the camera 60Ca included in the HMD 100Ca is not necessarily adjusted. Even in the case of a camera-fixed HMD, it may be preferable to adjust a conversion parameter representing a spatial relationship (rotation and translation) between the camera 60Ca and the right optical image display units 26Ca and 28Ca.

F−2.変形例2:
光学像表示部26Ca、28Ca、およびカメラ60Caのファクトリーキャリブレーション(初期キャリブレーション):
例えば、サービスステーションにおいて、カメラ60CaのカメラパラメーターCP、カメラ60Caと光学像表示部26Ca、28Caとの間の空間関係(変換パラメーター)、光学像表示部26Ca、28Caの写像パラメーターの初期値(デフォルト値)が、以下のステップを有するプロセスにより、導出され得る。
1.別途、高解像度な測定用カメラのキャリブレーションをする。
2.別途、HMD100Caに含まれるカメラ60Caのキャリブレーションをし、カメラパラメーターCPを導出する。
3.HMD100Caと測定用カメラとを特別なジグ上にセットアップする。ワールド座標系として平面パターンを設置する。
4.測定用カメラについてジグ上で数か所の位置を定義する。そして、それぞれの位置で、平面パターンに対する測定用カメラの位置と姿勢を推定する。
5.光学像表示部26Caに、光学像表示部26Caに対して仮想的な位置と姿勢を有する仮想パターンを写像する。なお、光学像表示部26Caに対する仮想的な位置と姿勢は、光学像表示部26Caに対する平面パターンの位置と姿勢と同じである。
6.測定用カメラを定義された複数の位置へ移動させ、それぞれの位置で、光学像表示部26Caに表示された仮想パターンの画像を撮像する。
7.撮像された画像を用いて写像されている3D位置を再構築する。
8.2D-3Dの対応関係を用いて光学像表示部26Caの内部パラメーター(写像パラメーター)を推定する。
9.平面パターンに対する2つのカメラ(カメラ60Caおよび測定用カメラ)の姿勢を計算し、そしてカメラ60Caと、光学像表示部26Caとの間の変換パラメーターを解く。
10.4〜9のステップを、光学像表示部28Caについて繰り返す。
F-2. Modification 2:
Factory calibration (initial calibration) of the optical image display units 26Ca and 28Ca and the camera 60Ca:
For example, in the service station, the camera parameter CP of the camera 60Ca, the spatial relationship (conversion parameter) between the camera 60Ca and the optical image display units 26Ca and 28Ca, and the initial values (default values) of the mapping parameters of the optical image display units 26Ca and 28Ca. ) Can be derived by a process having the following steps:
1. Separately, a high-resolution measurement camera is calibrated.
2. Separately, the camera 60Ca included in the HMD 100Ca is calibrated to derive a camera parameter CP.
3. Set up HMD100Ca and measurement camera on a special jig. A plane pattern is set as the world coordinate system.
4). Define several positions on the jig for the measuring camera. Then, at each position, the position and orientation of the measurement camera with respect to the planar pattern are estimated.
5). A virtual pattern having a virtual position and orientation with respect to the optical image display unit 26Ca is mapped onto the optical image display unit 26Ca. The virtual position and orientation with respect to the optical image display unit 26Ca are the same as the position and orientation of the planar pattern with respect to the optical image display unit 26Ca.
6). The measurement camera is moved to a plurality of defined positions, and an image of the virtual pattern displayed on the optical image display unit 26Ca is captured at each position.
7). Reconstruct the mapped 3D position using the imaged image.
The internal parameter (mapping parameter) of the optical image display unit 26Ca is estimated using the correspondence relationship of 8.2D-3D.
9. The attitudes of the two cameras (camera 60Ca and measurement camera) with respect to the plane pattern are calculated, and the conversion parameters between the camera 60Ca and the optical image display unit 26Ca are solved.
Steps 10.4 to 9 are repeated for the optical image display unit 28Ca.

F−3.変形例3:
HMD100Caのカメラ可動型HMDと、HMD101Caのカメラ固定型HMDとでは、光学像表示部26Ca,28Caに対するカメラ60Caの位置および向きの変化の有無が異なる。そのため、カメラ固定型HMDとカメラ可動型HMDとでは、第1設定モードにおいて、優先的に最適化が実行されるパラメーターを、異なるパラメーターとして変更してもよい。例えば、カメラ可動型HMDに対して、カメラ固定型HMDでは、キャリブレーションによってカメラパラメーターCPを最適化してもよい。
F-3. Modification 3:
The camera movable type HMD of the HMD 100Ca and the camera fixed type HMD of the HMD 101Ca differ in the presence or absence of changes in the position and orientation of the camera 60Ca with respect to the optical image display units 26Ca and 28Ca. Therefore, in the first setting mode, the parameter for which optimization is preferentially executed may be changed as a different parameter between the camera fixed HMD and the camera movable HMD. For example, in the camera fixed type HMD, the camera parameter CP may be optimized by calibration with respect to the camera movable type HMD.

最適化されるパラメーターとして、カメラパラメーターCPと、変換パラメーターとが挙げられる。カメラ固定型HMDでは、カメラパラメーターCPについて、HMD101Caの製造時の設計値を固定値として用いた上で、キャリブレーションによって最適化が実行される。最適化されるカメラパラメーターCPとしては、カメラ60Caの焦点距離およびカメラ60Caの主点位置(撮像画像の中心位置)である。カメラ固定型HMDでは、最適化される変換パラメーターとして、右光学像表示部26および左光学像表示部28CaのそれぞれのX,Y,Z軸のそれぞれの回転パラメーターおよび並進パラメーターを最適化する。   The parameters to be optimized include camera parameters CP and conversion parameters. In the camera-fixed HMD, the camera parameter CP is optimized by calibration after using the design value at the time of manufacturing the HMD 101Ca as a fixed value. The optimized camera parameters CP are the focal length of the camera 60Ca and the principal point position of the camera 60Ca (the center position of the captured image). In the camera-fixed HMD, the rotation parameters and translation parameters of the X, Y, and Z axes of the right optical image display unit 26 and the left optical image display unit 28Ca are optimized as conversion parameters to be optimized.

カメラ可動型HMDでは、カメラパラメーターCPについては、必ずしも最適化を行なう必要はない。カメラ可動型HMDでは、光学像表示部26Ca、28Caに対してカメラ60Caが可動であるため、カメラパラメーターのずれよりも変換パラメーターのずれがAR画像の表示に大きく影響し得ることから、変換パラメーターを優先的に最適化するためである。   In the camera movable HMD, it is not always necessary to optimize the camera parameter CP. In the camera movable HMD, since the camera 60Ca is movable with respect to the optical image display units 26Ca and 28Ca, the shift of the conversion parameter can affect the display of the AR image more greatly than the shift of the camera parameter. This is to optimize with priority.

F−4.変形例4:
第3実施形態では、表示設定部165Caは、位置合わせを促す文字画像を右光学像表示部26Caに表示させたが、使用者に位置合わせを促す方法としては、種々変形可能である。例えば、表示設定部165Caは、「位置がずれています」の音声を、イヤホン32Ca,34Caを介して出力することで、使用者に位置合わせを促してもよい。また、文字画像についても種々変形可能であり、表示設定部165Caは、文字画像に代えて、位置ずれを補正する方向を表す矢印の画像を、右光学像表示部26Caに表示させてもよい。
F-4. Modification 4:
In the third embodiment, the display setting unit 165Ca displays the character image for prompting the alignment on the right optical image display unit 26Ca. However, various modifications can be made as a method for prompting the user to perform the alignment. For example, the display setting unit 165Ca may prompt the user to perform alignment by outputting a voice “position is shifted” via the earphones 32Ca and 34Ca. In addition, the character image can be variously modified, and the display setting unit 165Ca may display an image of an arrow indicating a direction for correcting the displacement on the right optical image display unit 26Ca instead of the character image.

他の実施形態では、使用者に撮像までの時間を報知する方法として、種々変形可能である。例えば、表示設定部165Caは、撮像までの時間を表す数字を音声として、イヤホン32Ca,34Caを介して出力することで、使用者に撮像までの時間を報知してもよい。また、表示設定部165Caは、例えば、カウントダウンの際に、「3」という数字のみを右光学像表示部26Caに表示させることで、使用者の撮像までの時間を報知してもよい。また、表示設定部165Caは、棒線を右光学像表示部26Caに表示させて、撮像までの時間の長さを表現するように、時間の経過と共に棒線の長さを減少させてもよい。   In other embodiments, various modifications can be made as a method of notifying the user of the time until imaging. For example, the display setting unit 165Ca may notify the user of the time until imaging by outputting a number representing the time until imaging as sound through the earphones 32Ca and 34Ca. In addition, for example, the display setting unit 165Ca may notify the time until the user takes an image by displaying only the number “3” on the right optical image display unit 26Ca at the time of the countdown. Further, the display setting unit 165Ca may decrease the length of the bar line as time passes so as to display the bar line on the right optical image display unit 26Ca and express the length of time until imaging. .

F−5.変形例5:
第3実施形態では、右光学像表示部26Caおよび左光学像表示部28Caのそれぞれについて、第1設定モードでは、2回のアライメントを実行することで、キャリブレーションが実行されたが、アライメントの回数については、種々変形可能である。アライメントの回数を増やすことで、ヤコビ行列を用いた各パラメーターの最適化において、より精度の高いキャリブレーションを実行するためのパラメーターが設定される。以下では、パラメーターの最適化の一例について説明する。
F-5. Modification 5:
In the third embodiment, each of the right optical image display unit 26Ca and the left optical image display unit 28Ca is calibrated by executing the alignment twice in the first setting mode. Various modifications can be made. By increasing the number of alignments, parameters for performing calibration with higher accuracy are set in the optimization of each parameter using the Jacobian matrix. Hereinafter, an example of parameter optimization will be described.

アライメントの回数をAとし、実物マーカーMK1,MK2の特徴要素(例えば、円の中心)の数をnとする。カメラ60Caと画像表示部とのペア(第3実施形態ではカメラ60Caと右と左のいずれかの光学像表示部26Ca、28Caとのペア)について調整されるべきパラメーターの数をmとすると、最適化されるべきパラメーターの数はMであり、下記の式(76)を満たす。

Figure 2017108370
The number of alignments is A, and the number of feature elements (for example, the center of a circle) of the real markers MK1 and MK2 is n. Optimal when m is the number of parameters to be adjusted for a pair of the camera 60Ca and the image display unit (a pair of the camera 60Ca and the right or left optical image display unit 26Ca or 28Ca in the third embodiment). The number of parameters to be converted is M, which satisfies the following formula (76).
Figure 2017108370

それぞれの繰り返しについて、最適化の疑似コードは、以下の通りになる。まず、それぞれのアライメントについて、カメラ60Caと右光学像表示部26Caとのペアおよびカメラ60Caと左光学像表示部28Caとのペアについて、ヤコビ行列Jsを計算する。このヤコビ行列Jsは、2n×M行列として表すことができる。次に、2n×1の残差行列esを計算する。以上をA個のアライメントのそれぞれについて実施する。   For each iteration, the pseudo code for optimization is as follows: First, for each alignment, the Jacobian matrix Js is calculated for the pair of the camera 60Ca and the right optical image display unit 26Ca and the pair of the camera 60Ca and the left optical image display unit 28Ca. This Jacobian matrix Js can be expressed as a 2n × M matrix. Next, a 2n × 1 residual matrix es is calculated. The above is performed for each of the A alignments.

次に、ヤコビ行列Jsを、4n×Mの大きさの行列Jへとマージする。残差行列esを連結して、4n×1の行列eを生成する。行列eの要素は式(66)で表わされ得る。そして、選択されたパラメーターの増加値dpを計算する。

Figure 2017108370
式(77)におけるBは、修正行列であり、式(77)におけるtranspose(J)*Jがうまく調整されていない場合の収束問題を回避するために用いられる。なお、上記式において、「inverse()」はかっこ内の行列の逆行列を意味し、「transpose()」は、かっこ内の行列の転置行列を意味する。次に、パラメーターpについて、式(78)のように更新する。
Figure 2017108370
更新されたパラメーターpが、終了条件を満たす場合には、最適化を終了し、終了条件を満たさない場合には、繰り返し、最適化を行なう。 Next, the Jacobian matrix Js is merged into a matrix J having a size of 4n × M. The residual matrix es is concatenated to generate a 4n × 1 matrix e. The elements of the matrix e can be expressed by Equation (66). Then, the increase value dp of the selected parameter is calculated.
Figure 2017108370
B in equation (77) is a correction matrix and is used to avoid convergence problems when transpose (J) * J in equation (77) is not well tuned. In the above equation, “inverse ()” means an inverse matrix of the matrix in parentheses, and “transpose ()” means a transposed matrix of the matrix in parentheses. Next, the parameter p is updated as shown in Expression (78).
Figure 2017108370
If the updated parameter p satisfies the end condition, the optimization is terminated. If the updated parameter p does not satisfy the end condition, the optimization is repeated.

F−6.変形例6:
上記実施形態では、パラメーター設定部167Caは、カメラパラメーターCPも最適化により導出したが、製造時の設計値からのばらつきが少ない場合には、カメラパラメーターCPについては設計値を設定し、カメラ60Caと光学像表示部26Ca,28Caとの間の空間関係だけを導出してもよい。この変形例のHMD100Caでは、最適化するパラメーターの数が少なくなる。また、製造上、ばらつきの少ないパラメーターに対して、設計値を代入することで、コスト関数Eをより小さくするパラメーターの最適化を行ないつつ、パラメーターを最適化するための時間を短くできる。
F-6. Modification 6:
In the above embodiment, the parameter setting unit 167Ca also derives the camera parameter CP by optimization. However, when the variation from the design value at the time of manufacture is small, the parameter setting unit 167Ca sets a design value for the camera parameter CP, and the camera 60Ca Only the spatial relationship between the optical image display units 26Ca and 28Ca may be derived. In the HMD 100Ca of this modification, the number of parameters to be optimized is reduced. In addition, by substituting design values for parameters with little variation in manufacturing, it is possible to reduce the time for optimizing the parameters while optimizing the parameters that make the cost function E smaller.

上記実施形態では、右光学像表示部26Caに表示されるマーカーと左光学像表示部28Caに表示されるマーカーとは、同じマーカー画像IMGであったが、マーカー画像IMGおよび実物マーカーMK1,MK2については、種々変形可能である。例えば、右光学像表示部26Caと左光学像表示部28Caとのそれぞれに表示されるマーカーの画像は、異なるマーカーの画像であってもよい。また、マーカー画像IMGおよび実物マーカーMK1,MK2は、導出されるパラメーターの精度に応じて、種々変形可能である。例えば、実物マーカーMK1に含まれる円の数は、10個に限られず、10個よりも多くてよいし、10個よりも少なくてもよい。また、実物マーカーMK1に含まれる複数の特徴点は、円の中心でなくてもよく、単に三角形の重心であってもよい。また、実物マーカーMK1の内部に並行でない複数の直線が形成されて、直線の交点が複数の特徴点として特定されてもよい。また、マーカー画像IMGと実物マーカーMK1,MK2とは、異なるマーカーであってもよい。マーカー画像と実物マーカーとを重ねる場合に、どの部分を重ね合わせるのかが使用者に認識される範囲で、マーカー画像と実物マーカーとについては、種々変形可能である。例えば、矩形状のマーカー画像に対して、正円の実物マーカーの中心をマーカー画像の中心に合わせるような位置合わせであってもよい。   In the above embodiment, the marker displayed on the right optical image display unit 26Ca and the marker displayed on the left optical image display unit 28Ca are the same marker image IMG, but the marker image IMG and the actual markers MK1 and MK2 are the same. Can be variously modified. For example, the marker images displayed on the right optical image display unit 26Ca and the left optical image display unit 28Ca may be images of different markers. Further, the marker image IMG and the real markers MK1 and MK2 can be variously modified according to the accuracy of the derived parameters. For example, the number of circles included in the real marker MK1 is not limited to 10 and may be more than 10 or less than 10. Further, the plurality of feature points included in the real marker MK1 may not be the center of the circle, but may simply be the center of gravity of the triangle. Also, a plurality of non-parallel lines may be formed inside the real marker MK1, and intersections of the lines may be specified as a plurality of feature points. Further, the marker image IMG and the real markers MK1 and MK2 may be different markers. When the marker image and the real marker are overlapped, the marker image and the real marker can be variously modified as long as the user can recognize which portion is to be overlapped. For example, the alignment may be such that the center of a real circle marker is aligned with the center of the marker image with respect to the rectangular marker image.

上記実施形態では、カメラ60CaのカメラパラメーターCPが最適化される場合に、焦点距離(Fx,Fy)と、カメラ主点位置(撮像画像の中心位置)(Cx,Cy)と、が最適化されたが、これらに代えて、またはこれらとともに、カメラ60CaのカメラパラメーターCPとして歪係数を最適化してもよい。 In the above embodiment, when the camera parameter CP of the camera 60Ca is optimized, the focal length (F x , F y ), the camera principal point position (center position of the captured image) (C x , C y ), However, instead of or together with these, the distortion coefficient may be optimized as the camera parameter CP of the camera 60Ca.

F−7. 変形例7:
第3実施形態において定義された式(69)のコスト関数に、以下の付加的な制約条件を加えてもよい。使用者USの目視によるアライメントは、それぞれの光学像表示部26Ca,27Caに対して別々に行われることから、そのアライメントエラーは、必ずしも同じではない。このため、左および右の光学像表示部26Ca、28Caに対するカメラ60Caの2つの並進のうち、Ty成分の推定が光学像表示部26Ca,28Caの間で大きく異なることがあり得る。2つのTy成分が大きく異なる場合には、ユーザーが立体視の融合問題を経験する。カメラ60Caと光学像表示部26Ca、28Caとの間の並進Tyの最大の差が所定有限値であることから、左右のTy差の絶対値の関数として下記式(79)のように定義する関数を式(69)に加えてもよい。式(79)を式(69)に加えた場合には、式(69)は、下記の式(80)のように表される。

Figure 2017108370
Figure 2017108370
ここで、式(80)に含まれる要素は、下記の式(81)ないし式(83)で表される通りである。
Figure 2017108370
Figure 2017108370
Figure 2017108370
上記式(82)および式(83)において、「acceptable difference」は許容されるTy差であり、「maximum difference」は、想定されるT差の最大値である。
式(69)は以下のようになる。
Figure 2017108370
「acceptable difference」と、「maximum difference」とは経験的にセットされ得る。T_leftとT_rightとの差が大きくなればコスト関数Eは増大する。このため、変数p(特に左右のT_left、T_right)が要求範囲内に収まるように強いられながら、コスト関数Eはグローバルミニマムに近づくことになる。最適化計算においては、新しいロウ(row:行列の横の並び)がヤコビ行列Jに追加され、e行列が最適化の各繰り返しステップで生成される。上記した関数から計算された誤差は、e行列の最後に追加される。ヤコビ行列Jにおける新しいロウは、T_leftとT_rightとを除いて、すべてのパラメーターについてゼロ値を取る。また、これら2つのパラメーターに対応するエントリー(初期値)は、それぞれ1および−1にすればよい。 F-7. Modification 7:
The following additional constraint conditions may be added to the cost function of Expression (69) defined in the third embodiment. Since the alignment by visual observation of the user US is performed separately for each of the optical image display units 26Ca and 27Ca, the alignment error is not necessarily the same. For this reason, of the two translations of the camera 60Ca with respect to the left and right optical image display units 26Ca and 28Ca, the estimation of the Ty component may be greatly different between the optical image display units 26Ca and 28Ca. If the two Ty components are significantly different, the user will experience a stereoscopic fusion problem. Since the maximum difference in translation Ty between the camera 60Ca and the optical image display units 26Ca and 28Ca is a predetermined finite value, a function defined as the following equation (79) as a function of the absolute value of the left and right Ty differences. May be added to equation (69). When the formula (79) is added to the formula (69), the formula (69) is expressed as the following formula (80).
Figure 2017108370
Figure 2017108370
Here, the elements included in the equation (80) are as represented by the following equations (81) to (83).
Figure 2017108370
Figure 2017108370
Figure 2017108370
In the above formula (82) and (83), "Acceptable difference" is the Ty difference to be acceptable, "maximum difference" is the maximum value of T y difference to be assumed.
Equation (69) is as follows.
Figure 2017108370
The “acceptable difference” and the “maximum difference” can be set empirically. As the difference between T y _left and T y _right increases, the cost function E increases. For this reason, the cost function E approaches the global minimum while the variable p (particularly the left and right T y _left, T y _right) is forced to fall within the required range. In the optimization calculation, a new row (row: horizontal arrangement of matrices) is added to the Jacobian matrix J, and an e matrix is generated at each iteration step of optimization. The error calculated from the above function is added to the end of the e matrix. The new row in Jacobian matrix J takes zero values for all parameters except T y _left and T y _right. The entries (initial values) corresponding to these two parameters may be 1 and −1, respectively.

本発明は、上記実施形態や変形例に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した各形態中の技術的特徴に対応する実施形態、変形例中の技術的特徴は、上述の課題の一部または全部を解決するために、あるいは、上述の効果の一部または全部を達成するために、適宜、差し替えや、組み合わせを行なうことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。   The present invention is not limited to the above-described embodiments and modifications, and can be realized with various configurations without departing from the spirit of the present invention. For example, the technical features in the embodiments and the modifications corresponding to the technical features in each form described in the summary section of the invention are to solve some or all of the above-described problems, or In order to achieve part or all of the effects, replacement or combination can be performed as appropriate. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

A…回転差、AP…先端部、221…右BL、C1、C10、C3、C5、C6、C9…円、C3P…円の中心、CA…蓋、CD1、CD2…座標軸、CL1、CL2…対角線、CP…カメラパラメーター、CS…カーソル画像、Fx…焦点距離、IMG…マーカー画像、Js…ヤコビ行列、LE…左眼、LP…左眼位置、MK1、MK1A、MK2、MK3、MK4、MK5…実物マーカー、OA…外部機器、P0、P1、P2、P3…頂点、PM…空間パラメーター、PM1…第1パラメーター、PMR…右変換パラメーター、PP…紙面、PT…ペットボトル本体、PTa…開口部、RA…円弧、RC…円弧、RE…右眼、RL…実物マーカー、RP…右眼位置、SC…外景、SIM…設定画像、TX1、TX2、TX3…文字画像、US…使用者、VR…視野、IC1,IC2,IC3,IC4,IC5,IC6,IC7,IC8,IC9…アイコン、3DCG…確認用画像、10,10B,10Ca,10Cb…制御部(コントローラー)、20、20B、20Ca…画像表示部、21、21B、21Ca…右保持部、22、22B、22Ca…右表示駆動部、23、23B、23Ca…左保持部、24、24B、24Ca…左表示駆動部、26、26B、26Ca…右光学像表示部、28、28B、28Ca…左光学像表示部、30…イヤホンプラグ、32…右イヤホン、34…左イヤホン、40、40B、40Ca…接続部、42…右コード、44…左コード、46、46B、46Ca…連結部材、48…本体コード、51、51B、51Ca、52、52B、52Ca…送信部、53、53B、53Ca…受信部、60、60B、60Ca、61…カメラ、90B、90Ca…装着帯、91B、91Ca…装着基部、92B、92Ca…ベルト部、93B、93Ca…連結部、100、100B、100Ca、101Ca…HMD(頭部装着型表示装置)、121、121B、121Ca…ROM、122、122B、122Ca…RAM、130、130B、130Ca…電源、135、135B、135Ca…操作部、138、138B、138Ca、138Cc…マーカー画像記憶部、140、140B、140Ca…CPU、150、150B、150Ca…オペレーティングシステム、160、160B、160Ca…画像処理部、165、165B、165Ca…表示設定部、166、166B、166Ca…マーカー特定部、167、167B…演算部、167Ca…パラメーター設定部、170、170B、170Ca…音声処理部、180、180B、180Ca…インターフェイス、190、190B、190Ca…表示制御部、201、201B、201Ca…右バックライト制御部、202、202B、202Ca…左バックライト制御部、211、211B、211Ca…右LCD制御部、212、212B、212Ca…左LCD制御部、221、221B、221Ca…右バックライト、251、251B、251Ca…右投写光学系、261、261B、261Ca…右導光板、262、262B。262Ca…左導光板、CS1…カーソル画像 A ... rotational difference, AP ... tip, 221 ... right BL, C1, C10, C3, C5, C6, C9 ... circle, C3P ... circle center, CA ... lid, CD1, CD2 ... coordinate axis, CL1, CL2 ... diagonal , CP ... camera parameter, CS ... cursor image, Fx ... focal length, IMG ... marker image, Js ... Jacobi matrix, LE ... left eye, LP ... left eye position, MK1, MK1A, MK2, MK3, MK4, MK5 ... actual Marker, OA ... external device, P0, P1, P2, P3 ... vertex, PM ... spatial parameter, PM1 ... first parameter, PMR ... right conversion parameter, PP ... paper surface, PT ... plastic bottle body, PTa ... opening, RA ... Arc, RC ... Arc, RE ... Right eye, RL ... Real marker, RP ... Right eye position, SC ... Outside view, SIM ... Setting image, TX1, TX2, TX3 ... Character image, S ... user, VR ... visual field, IC1, IC2, IC3, IC4, IC5, IC6, IC7, IC8, IC9 ... icon, 3DCG ... confirmation image, 10, 10B, 10Ca, 10Cb ... control unit (controller), 20 , 20B, 20Ca ... image display unit, 21, 21B, 21Ca ... right holding unit, 22, 22B, 22Ca ... right display driving unit, 23, 23B, 23Ca ... left holding unit, 24, 24B, 24Ca ... left display driving unit 26, 26B, 26Ca ... right optical image display unit, 28, 28B, 28Ca ... left optical image display unit, 30 ... earphone plug, 32 ... right earphone, 34 ... left earphone, 40, 40B, 40Ca ... connection unit, 42 ... right cord, 44 ... left cord, 46, 46B, 46Ca ... connecting member, 48 ... body cord, 51, 51B, 51Ca, 52, 52B, 52 a ... Transmitter, 53, 53B, 53Ca ... Receiver, 60, 60B, 60Ca, 61 ... Camera, 90B, 90Ca ... Wearing band, 91B, 91Ca ... Wearing base, 92B, 92Ca ... Belt, 93B, 93Ca ... Connection Part, 100, 100B, 100Ca, 101Ca ... HMD (head-mounted display device), 121, 121B, 121Ca ... ROM, 122, 122B, 122Ca ... RAM, 130, 130B, 130Ca ... power supply, 135, 135B, 135Ca ... Operation unit, 138, 138B, 138Ca, 138Cc ... marker image storage unit, 140, 140B, 140Ca ... CPU, 150, 150B, 150Ca ... operating system, 160, 160B, 160Ca ... image processing unit, 165, 165B, 165Ca ... display Setting unit, 166, 166 B, 166Ca, marker identification unit, 167, 167B, calculation unit, 167Ca, parameter setting unit, 170, 170B, 170Ca, audio processing unit, 180, 180B, 180Ca, interface, 190, 190B, 190Ca, display control unit, 201 201B, 201Ca ... right backlight control unit, 202, 202B, 202Ca ... left backlight control unit, 211, 211B, 211Ca ... right LCD control unit, 212, 212B, 212Ca ... left LCD control unit, 221, 221B, 221Ca ... right backlight, 251, 251B, 251Ca ... right projection optical system, 261, 261B, 261Ca ... right light guide plate, 262, 262B. 262Ca ... Left light guide plate, CS1 ... Cursor image

Claims (5)

頭部装着型表示装置であって、
外光を透過可能であって、画像を表示可能な画像表示部と、
撮像部と、
マーカー画像のデータを記憶するマーカー画像記憶部と、
前記データに基づいて前記マーカー画像を前記画像表示部に表示させる画像設定部と、
パラメーター設定部と、を備え、
前記パラメーター設定部は、前記画像表示部に表示された前記マーカー画像と前記マーカー画像に対応した実物マーカーとが少なくとも部分的にほぼ一致するように使用者に視認させた状態で前記撮像部が前記実物マーカーの撮像画像を取得した場合に、前記撮像画像に少なくとも基づいて、前記撮像部のカメラパラメーター、および前記撮像部と前記画像表示部との間の空間関係の少なくとも一つを導出する、頭部装着型表示装置。
A head-mounted display device,
An image display unit capable of transmitting external light and displaying an image;
An imaging unit;
A marker image storage unit for storing marker image data;
An image setting unit for displaying the marker image on the image display unit based on the data;
A parameter setting unit,
The parameter setting unit is configured so that the imaging unit displays the marker image displayed on the image display unit and a real marker corresponding to the marker image so that the user visually recognizes at least partly the same. A head that derives at least one of the camera parameters of the imaging unit and the spatial relationship between the imaging unit and the image display unit based on at least the captured image when a captured image of a real marker is acquired; Part-mounted display device.
請求項1に記載の頭部装着型表示装置であって、
前記画像設定部は、前記パラメーター設定部が前記カメラパラメーターと前記空間関係との少なくとも一方を設定した後に、設定された前記カメラパラメーターと前記空間関係とを用いて、AR画像の位置と向きと、前記実物マーカーの位置と向きと、が対応した状態の前記AR画像が前記使用者に視認されるように、前記画像表示部に前記AR画像を表示する、頭部装着型表示装置。
The head-mounted display device according to claim 1,
The image setting unit, after the parameter setting unit sets at least one of the camera parameter and the spatial relationship, using the set camera parameter and the spatial relationship, the position and orientation of the AR image, A head-mounted display device that displays the AR image on the image display unit so that the user can visually recognize the AR image in a state in which the position and orientation of the real marker correspond to each other.
請求項1または請求項2に記載の頭部装着型表示装置であって、
前記マーカー画像記憶部は、前記マーカー画像の元となる3次元モデルを前記データとして記憶しており、
前記画像設定部は、前記3次元モデルを前記マーカー画像として前記画像表示部に表示させ、
前記画像表示部に表示された前記マーカー画像と、前記3次元モデルに対応した3次元形状を有する実物マーカーと、が少なくとも部分的にほぼ一致するように使用者に視認させた状態で前記撮像部が前記実物マーカーの撮像画像を取得した場合に、前記パラメーター設定部は、前記撮像画像に少なくとも基づいて、前記カメラパラメーター、および前記空間関係の少なくとも一つを導出する、頭部装着型表示装置。
The head-mounted display device according to claim 1 or 2,
The marker image storage unit stores a three-dimensional model as a source of the marker image as the data,
The image setting unit displays the three-dimensional model as the marker image on the image display unit,
The imaging unit in a state in which the user visually recognizes that the marker image displayed on the image display unit and a real marker having a three-dimensional shape corresponding to the three-dimensional model are at least partially substantially matched. When the captured image of the real marker is acquired, the parameter setting unit derives at least one of the camera parameter and the spatial relationship based at least on the captured image.
請求項1に記載の頭部装着型表示装置であって、
前記撮像部は前記画像表示部に対して可動である、頭部装着型表示装置。
The head-mounted display device according to claim 1,
The head-mounted display device, wherein the imaging unit is movable with respect to the image display unit.
外光を透過可能であって、画像を表示可能な画像表示部と、撮像部と、マーカー画像のデータを記憶するマーカー画像記憶部と、を備える頭部装着型表示装置のためのコンピュータープログラムであって、
前記データに基づいて前記マーカー画像を前記画像表示部に表示させる画像設定機能と、
パラメーター設定機能と、を頭部装着型表示装置に実現させ、
前記パラメーター設定機能は、前記画像表示部に表示された前記マーカー画像と前記マーカー画像に対応した実物マーカーとが少なくとも部分的にほぼ一致するように使用者に視認させた状態で前記撮像部が前記実物マーカーの撮像画像を取得した場合に、前記撮像画像に少なくとも基づいて、前記撮像部のカメラパラメーター、および前記撮像部と前記画像表示部との間の空間関係の少なくとも一つを導出する、コンピュータープログラム。
A computer program for a head-mounted display device comprising an image display unit capable of transmitting outside light and capable of displaying an image, an imaging unit, and a marker image storage unit for storing marker image data. There,
An image setting function for displaying the marker image on the image display unit based on the data;
Realize the parameter setting function on the head-mounted display device,
In the parameter setting function, the imaging unit is configured to cause the user to visually recognize the marker image displayed on the image display unit and a real marker corresponding to the marker image so as to at least partially substantially coincide with each other. A computer that derives at least one of the camera parameters of the imaging unit and the spatial relationship between the imaging unit and the image display unit based on at least the captured image when a captured image of a real marker is acquired program.
JP2016097716A 2015-07-06 2016-05-16 Head-mounted display device and computer program Pending JP2017108370A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/187,257 US10192361B2 (en) 2015-07-06 2016-06-20 Head-mounted display device and computer program
EP16178033.3A EP3115873B1 (en) 2015-07-06 2016-07-05 Head-mounted display device and computer program
US16/123,904 US10242504B2 (en) 2015-07-06 2018-09-06 Head-mounted display device and computer program

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2015135365 2015-07-06
JP2015135365 2015-07-06
JP2015167787 2015-08-27
JP2015167787 2015-08-27
JP2015235306 2015-12-02
JP2015235306 2015-12-02

Publications (1)

Publication Number Publication Date
JP2017108370A true JP2017108370A (en) 2017-06-15

Family

ID=59060238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016097716A Pending JP2017108370A (en) 2015-07-06 2016-05-16 Head-mounted display device and computer program

Country Status (1)

Country Link
JP (1) JP2017108370A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348889A (en) * 2020-10-23 2021-02-09 浙江商汤科技开发有限公司 Visual positioning method and related device and equipment
JP2021509482A (en) * 2018-01-02 2021-03-25 ルムス エルティーディー. Augmented reality display with active alignment and corresponding methods
US11720313B2 (en) 2020-09-29 2023-08-08 Seiko Epson Corporation Display system, display method and program
US11747635B2 (en) 2016-12-31 2023-09-05 Lumus Ltd. Eye tracker based on retinal imaging via light-guide optical element
US11822088B2 (en) 2021-05-19 2023-11-21 Lumus Ltd. Active optical engine
US11860369B2 (en) 2021-03-01 2024-01-02 Lumus Ltd. Optical system with compact coupling from a projector into a waveguide
US11886008B2 (en) 2021-08-23 2024-01-30 Lumus Ltd. Methods of fabrication of compound light-guide optical elements having embedded coupling-in reflectors

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11747635B2 (en) 2016-12-31 2023-09-05 Lumus Ltd. Eye tracker based on retinal imaging via light-guide optical element
JP2021509482A (en) * 2018-01-02 2021-03-25 ルムス エルティーディー. Augmented reality display with active alignment and corresponding methods
JP7519126B2 (en) 2018-01-02 2024-07-19 ルムス エルティーディー. Augmented reality display with active alignment and corresponding method
US11720313B2 (en) 2020-09-29 2023-08-08 Seiko Epson Corporation Display system, display method and program
CN112348889A (en) * 2020-10-23 2021-02-09 浙江商汤科技开发有限公司 Visual positioning method and related device and equipment
JP2023502192A (en) * 2020-10-23 2023-01-23 チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド Visual positioning method and related apparatus, equipment and computer readable storage medium
JP7280385B2 (en) 2020-10-23 2023-05-23 チョーチアン センスタイム テクノロジー デベロップメント カンパニー,リミテッド Visual positioning method and related apparatus, equipment and computer readable storage medium
CN112348889B (en) * 2020-10-23 2024-06-07 浙江商汤科技开发有限公司 Visual positioning method, and related device and equipment
US11860369B2 (en) 2021-03-01 2024-01-02 Lumus Ltd. Optical system with compact coupling from a projector into a waveguide
US11822088B2 (en) 2021-05-19 2023-11-21 Lumus Ltd. Active optical engine
US11886008B2 (en) 2021-08-23 2024-01-30 Lumus Ltd. Methods of fabrication of compound light-guide optical elements having embedded coupling-in reflectors

Similar Documents

Publication Publication Date Title
US10242504B2 (en) Head-mounted display device and computer program
JP6852355B2 (en) Program, head-mounted display device
US10424117B2 (en) Controlling a display of a head-mounted display device
US10469836B2 (en) Head-mounted display device and computer program
US10269139B2 (en) Computer program, head-mounted display device, and calibration method
JP6393367B2 (en) Tracking display system, tracking display program, tracking display method, wearable device using them, tracking display program for wearable device, and operation method of wearable device
JP2017108370A (en) Head-mounted display device and computer program
JP6860488B2 (en) Mixed reality system
CN107209950B (en) Automatic generation of virtual material from real world material
JP5923603B2 (en) Display device, head mounted display, calibration method, calibration program, and recording medium
CN112926428A (en) Method and system for training object detection algorithm using composite image and storage medium
WO2021146035A1 (en) Compensation for deformation in head mounted display systems
EP2932358A1 (en) Direct interaction system for mixed reality environments
JP6701694B2 (en) Head-mounted display and computer program
US10296098B2 (en) Input/output device, input/output program, and input/output method
JP6701693B2 (en) Head-mounted display and computer program
JP2017134630A (en) Display device, control method of display device, and program
JP2017111724A (en) Head-mounted display for piping
US20190114838A1 (en) Augmented reality system and method for providing augmented reality