JP2009284175A - Calibration method and apparatus of display - Google Patents

Calibration method and apparatus of display Download PDF

Info

Publication number
JP2009284175A
JP2009284175A JP2008133515A JP2008133515A JP2009284175A JP 2009284175 A JP2009284175 A JP 2009284175A JP 2008133515 A JP2008133515 A JP 2008133515A JP 2008133515 A JP2008133515 A JP 2008133515A JP 2009284175 A JP2009284175 A JP 2009284175A
Authority
JP
Japan
Prior art keywords
calibration
image
display
marker
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008133515A
Other languages
Japanese (ja)
Other versions
JP4681629B2 (en
Inventor
Tomohiro Yamada
智広 山田
Takashi Fujimura
考 藤村
Masanobu Abe
匡伸 阿部
Junichi Kishigami
順一 岸上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008133515A priority Critical patent/JP4681629B2/en
Publication of JP2009284175A publication Critical patent/JP2009284175A/en
Application granted granted Critical
Publication of JP4681629B2 publication Critical patent/JP4681629B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To adjust an object position of an actual space and a pointer on a see-through display easily without a complicated optical system even when fixing methods of users are varied. <P>SOLUTION: In an apparatus in which a camera is arranged on a glasses part, a calibration marker is displayed on a top edge and a bottom edge of a display arranged on a lens part of the glasses, one image is obtained while each marker and a faraway object are superimposed, a value of a coordinate with a calibration object in an image is calculated by two images, and a calibration parameter in an up-and-down direction is found based on the coordinate value. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、表示デバイスのキャリブレーション方法及び装置に係り、実世界の映像と仮想空間の映像を重ね合わせて表示するための表示デバイスのキャリブレーション方法及び装置に関する。具体的には、透過型ヘッドマウントディスプレイに代表されるメガネ型の装置の中で、メガネのフレーム部分にカメラを配置した装置の上下方向のキャリブレーション方法・装置に関するものである。   The present invention relates to a display device calibration method and apparatus, and more particularly to a display device calibration method and apparatus for displaying a real-world image and a virtual space image in an overlapping manner. More specifically, the present invention relates to a vertical calibration method and apparatus for an apparatus in which a camera is arranged on a frame portion of glasses among glasses-type apparatuses represented by a transmissive head-mounted display.

従来の透過型ヘッドマウントディスプレイは、図31に示すように、プリズムとハーフミラーを用い、カメラと表示部(LCD)を視線に対して、光学的に一致させるほう式がある(例えば、非特許文献1参照)。
A. Takagi, S. Yamazaki, Y. Saito and N. Taniguchi, "Development of a stereo video see-through HMD for AR systems," Proc. ISAR 2000, pp.68-77, 2000
As shown in FIG. 31, a conventional transmissive head-mounted display uses a prism and a half mirror, and has a method of optically matching a camera and a display unit (LCD) with a line of sight (for example, non-patent) Reference 1).
A. Takagi, S. Yamazaki, Y. Saito and N. Taniguchi, "Development of a stereo video see-through HMD for AR systems," Proc. ISAR 2000, pp.68-77, 2000

しかしながら、上記従来の方式では、光学的に視線を一致させるため、光学系の配置を正確に調整する必要があり、装着方法の自由度がなく、例えば、通常のメガネのように、装着位置がずれてしまう場合の光学系の調整が困難であった。また、ミラーをプリズムの前方に設置するという構成のため、光学系を形成するためのスペースが大きくなり、例えば、通常のメガネのように、日常装着できる大きさで実装するのが困難であった。   However, in the above conventional method, since the line of sight is optically matched, it is necessary to accurately adjust the arrangement of the optical system, and there is no degree of freedom in the wearing method. For example, the wearing position is different from that of normal glasses. It was difficult to adjust the optical system in the case of deviation. In addition, the configuration in which the mirror is installed in front of the prism increases the space for forming the optical system. For example, it is difficult to mount in a size that can be worn daily, such as normal glasses. .

ヘッドマウントディスプレイを利用したアプリケーションの中には、多少のずれ、例えば、カメラをメガネのフレームに相当する部分に取り付けた場合に、カメラと目の横の位置のずれについては許容できるアプリケーションもあると考えられる。多少の位置のずれを許容できるアプリケーションのためには、従来技術での光学系を用いた厳密なキャリブレーションではなく、キャリブレーション精度は荒くとも簡便なキャリブレーション方法が適する。   Some applications that use head-mounted displays have some tolerance, for example, when the camera is attached to the eyeglass frame, the application can tolerate a deviation between the camera and the side of the eye. Conceivable. For an application that can tolerate a slight positional deviation, a simple calibration method is suitable even if the calibration accuracy is rough, rather than strict calibration using an optical system in the prior art.

本発明は、上記の点に鑑みなされたもので、複雑な光学系を必要とせず、利用者の装着方法にばらつきがあった場合でも容易に実空間のオブジェクト位置とシースルーディスプレイ上のポインタの位置の調整が可能な表示デバイスのキャリブレーション方法及び装置を提供することを目的とする。   The present invention has been made in view of the above points, and does not require a complicated optical system, and even if there are variations in the wearing method of the user, the object position in the real space and the position of the pointer on the see-through display can be easily obtained. An object of the present invention is to provide a display device calibration method and apparatus capable of adjusting the above.

図1は、本発明の原理を説明するための図である。   FIG. 1 is a diagram for explaining the principle of the present invention.

本発明(請求項1)は、実世界の中のキャリブレーション用マーカを用いてカメラを備え持つ透過型表示デバイスのキャリブレーション方法であって、
記憶手段から少なくとも透過型表示デバイスの上端のいずれかの座標値と、下端のいずれかの座標値の2つの座標値をキャリブレーション用画像表示座標値として持つキャリブレーション用画像表示座標データを読み出して、該透過型表示デバイス上の、該キャリブレーション用画像表示座標データで指定される座標値にキャリブレーション用画像を表示し(ステップ1)、
実世界の中のキャリブレーション用マーカと表示デバイスに表示されたキャリブレーション用画像とが重なって見えるように顔の向きを変えることを該表示デバイスの装着者に指示し(ステップ2)、
実世界の中のキャリブレーション用マーカと表示デバイスに表示されたキャリブレーション用画像とが重なって見えることを示す情報を受信し(ステップ3)、カメラ画像をキャプチャし(ステップ4)、
カメラ画像のキャプチャ画像から実世界の中のキャリブレーション用マーカを検出して該カメラ画像内でのマーカの座標値を算出し(ステップ5)、
マーカの座標値を用いてカメラ画像での座標値と透過型表示デバイスの座標値とのキャリブレーションパラメータを算出する(ステップ6)。
The present invention (Claim 1) is a calibration method for a transmissive display device having a camera using a calibration marker in the real world,
Read out the calibration image display coordinate data having at least two coordinate values of the coordinate value of the upper end of the transmissive display device and the coordinate value of the lower end as the calibration image display coordinate value from the storage means. The calibration image is displayed on the coordinate value specified by the calibration image display coordinate data on the transmissive display device (step 1).
Instruct the wearer of the display device to change the orientation of the face so that the calibration marker in the real world and the calibration image displayed on the display device appear to overlap (step 2),
Receive information indicating that the calibration marker in the real world and the calibration image displayed on the display device appear to overlap (step 3), capture the camera image (step 4),
A calibration marker in the real world is detected from the captured image of the camera image, and the coordinate value of the marker in the camera image is calculated (step 5).
A calibration parameter between the coordinate value in the camera image and the coordinate value of the transmissive display device is calculated using the coordinate value of the marker (step 6).

図2は、本発明の原理構成図である。   FIG. 2 is a principle configuration diagram of the present invention.

本発明(請求項2)は、実世界の中のキャリブレーション用マーカを用いてカメラ4を備え持つ透過型表示デバイス3のキャリブレーション装置であって、
少なくとも透過型表示デバイスの上端のいずれかの座標値と、下端のいずれかの座標値の2つの座標値をキャリブレーション用画像表示座標値として持つキャリブレーション用画像表示座標データを格納した記憶手段170と、
記憶手段170からキャリブレーション用画像表示座標データを読み出して、透過型表示デバイス3上の、該キャリブレーション用画像表示座標データで指定される座標値にキャリブレーション用画像を表示するキャリブレーション用画像表示制御手段120と、
実世界の中のキャリブレーション用マーカと透過型表示デバイス3に表示されたキャリブレーション用画像とが重なって見えるように顔の向きを変えることを該表示デバイスの装着者に指示する方向指示手段161と、
実世界の中のキャリブレーション用マーカと表示デバイ3スに表示されたキャリブレーション用画像とが重なって見えることを示す情報を受信し、カメラ画像をキャプチャする映像キャプチャ手段110と、
カメラ画像のキャプチャ画像から実世界の中のキャリブレーション用マーカを検出して該カメラ画像内でのマーカの座標値を算出するマーカ座標値算出手段150と、
マーカの座標値を用いてカメラ画像での座標値と透過型表示デバイス3の座標値とのキャリブレーションパラメータを算出するパラメータ算出手段と160、を有する。
The present invention (Claim 2) is a calibration apparatus for a transmissive display device 3 having a camera 4 using a calibration marker in the real world,
Storage means 170 that stores calibration image display coordinate data having at least two coordinate values of the coordinate value of the upper end of the transmissive display device and the coordinate value of the lower end as the calibration image display coordinate values. When,
Calibration image display for reading calibration image display coordinate data from the storage unit 170 and displaying a calibration image on the coordinate value specified by the calibration image display coordinate data on the transmissive display device 3 Control means 120;
Direction indicating means 161 for instructing the wearer of the display device to change the face direction so that the calibration marker in the real world and the calibration image displayed on the transmissive display device 3 appear to overlap each other. When,
Video capture means 110 for receiving information indicating that the calibration marker in the real world and the calibration image displayed on the display device 3 appear to overlap and capturing a camera image;
Marker coordinate value calculation means 150 for detecting a calibration marker in the real world from a captured image of a camera image and calculating a coordinate value of the marker in the camera image;
Parameter calculating means 160 for calculating a calibration parameter between the coordinate value in the camera image and the coordinate value of the transmissive display device 3 using the coordinate value of the marker;

上記のように、本発明によれば、カメラを視線位置と略同じ高さに設置し、キャリブレーションの方向を重畳表示に最も影響が発生する上下方向に限定し、オブジェクト選択を行うことで、複雑な光学系を組む必要がなく、実装スペースの削減が可能になる。また、マーカを使ったキャリブレーションにより、利用者の装着方法にばらつきが合った場開いでも、容易に実空間のオブジェクト位置とシースルーディスプレイ上のポインタの位置の調整が可能となる。   As described above, according to the present invention, the camera is installed at substantially the same height as the line-of-sight position, the calibration direction is limited to the vertical direction that most affects the superimposed display, and object selection is performed. It is not necessary to assemble a complicated optical system, and the mounting space can be reduced. In addition, the calibration using the marker makes it possible to easily adjust the object position in the real space and the position of the pointer on the see-through display even when the user's wearing method varies.

以下、図面と共に本発明の実施の形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1の実施の形態]
図3は、本発明の第1の実施の形態における装置構成を示す。
[First Embodiment]
FIG. 3 shows an apparatus configuration according to the first embodiment of the present invention.

同図に示す装置は、カメラ4、シースルーディスプレイ3、制御部100から構成される。   The apparatus shown in the figure includes a camera 4, a see-through display 3, and a control unit 100.

制御部100は、映像キャプチャ部110、表示位置制御部120、オブジェクト画像抽出部130、ポインタ座標算出部140、マーカ座標算出部150、キャリブレーション部160、記憶部170から構成される。   The control unit 100 includes a video capture unit 110, a display position control unit 120, an object image extraction unit 130, a pointer coordinate calculation unit 140, a marker coordinate calculation unit 150, a calibration unit 160, and a storage unit 170.

記憶部170には、シースルーディスプレイ3の装着者が実世界の物体をポインティング際のポインティング動作を一連の画像から検出するために用いるポインティング特徴量、ポインティング動作が検出された座標値(あるいは画像領域)とポインタ座標値との関係(例:ポインティング動作が検出された画像領域の重心位置をポインタ座標値とする)と、そのポインティング動作に対応付けられたアクション(例1:座標値を決定、例:シースルーディスプレイ3に制御部100が持つ操作メニューを表示)を予め記録する。検出対象となるポインティング動作は複数種類あってもよい。   The storage unit 170 includes a pointing feature amount used to detect a pointing operation when the wearer of the see-through display 3 points an object in the real world from a series of images, and a coordinate value (or image region) where the pointing operation is detected. And the pointer coordinate value (eg, the position of the center of gravity of the image area in which the pointing motion is detected is set as the pointer coordinate value) and the action associated with the pointing motion (eg, the coordinate value is determined, for example: The operation menu of the control unit 100 is displayed on the see-through display 3 in advance. There may be a plurality of types of pointing operations to be detected.

制御部100の映像キャプチャ部110は、カメラ4から入力された画像を解析可能なディジタル信号に変換し、カメラ画像として出力する。   The video capture unit 110 of the control unit 100 converts the image input from the camera 4 into a digital signal that can be analyzed, and outputs it as a camera image.

ポインタ座標算出部140は、映像キャプチャ部110でキャプチャされたカメラ画像から記憶部170に記録されているポインティング特徴量を用いて、ポインティング動作を検出する。検出された動作と、画像内での検出位置(座標値や画像領域)に応じて、記憶部170に予め記録された情報に従ってポインタ座標値を算出する。   The pointer coordinate calculation unit 140 detects a pointing operation using the pointing feature amount recorded in the storage unit 170 from the camera image captured by the video capture unit 110. The pointer coordinate value is calculated according to the information recorded in advance in the storage unit 170 in accordance with the detected operation and the detected position (coordinate value or image area) in the image.

オブジェクト画像抽出部130は、ポインタ座標算出部140から座標情報を受け取り、受け取った座標値を用いてカメラ画像からオブジェクト画像を抽出視する。例えば、ポインタ座標算出部140から1つの座標のみを受け取った場合には、その座標の周囲の、予め定めた領域を抽出対象領域としてもよい。ポインタ座標算出部140から2つの座標値が与えられた場合、2つの座標値を対角の頂点として持つ矩形領域を抽出対象領域としてもよい。   The object image extraction unit 130 receives the coordinate information from the pointer coordinate calculation unit 140, and extracts and views the object image from the camera image using the received coordinate value. For example, when only one coordinate is received from the pointer coordinate calculation unit 140, a predetermined area around the coordinate may be set as the extraction target area. When two coordinate values are given from the pointer coordinate calculation unit 140, a rectangular region having the two coordinate values as diagonal vertices may be used as the extraction target region.

表示位置制御部120は、ポインタ座標算出部140から受け取った座標値を、キャリブレーションにより求めた変換式を用いて表示用座標値に変換し、シースルーディスプレイ3に表示する。   The display position control unit 120 converts the coordinate value received from the pointer coordinate calculation unit 140 into a display coordinate value using a conversion formula obtained by calibration, and displays it on the see-through display 3.

マーカ座標算出部150は、映像キャプチャ部110でキャプチャされたカメラ画像からキャリブレーションに用いるマーカを検出する。検出されたキャリブレーションに用いるマーカの画像内での重心座標値を、マーカ座標値として出力する。   The marker coordinate calculation unit 150 detects a marker used for calibration from the camera image captured by the video capture unit 110. The barycentric coordinate value in the image of the marker used for the detected calibration is output as the marker coordinate value.

キャリブレーション部160は、キャリブレーションを行い、カメラ画像の中での座標位置と、シースルーディスプレイでの表示座標位置との対応関係式を算出する。   The calibration unit 160 performs calibration and calculates a correspondence expression between the coordinate position in the camera image and the display coordinate position on the see-through display.

図4は、本発明の第1の実施の形態におけるキャリブレーション動作のフローチャートである。同図に示す動作は、カメラ画像での座標位置と、表示装置の座標位置との対応関係を算出するものである。   FIG. 4 is a flowchart of the calibration operation in the first embodiment of the present invention. The operation shown in the figure calculates the correspondence between the coordinate position in the camera image and the coordinate position of the display device.

キャリブレーションに用いる実空間上のマーカの種類については、予め定めておいてもよい。例えば、画面中で明るい点光源をマーカに用いることを予め定めておいてもよい。また、シースルーディスプレイ3に初期設定用の画面を表示し、シースルーディスプレイ3の装着者がメニュー形式で選択してもよい。例えば、マーカの選択肢として、"明るい点光源"を含む複数の選択肢を表示し、シースルーディスプレイ3の装着者がメニューの中からマーカの種類を選択することにより、マーカの種類が選択される。   The types of markers in the real space used for calibration may be determined in advance. For example, it may be determined in advance that a bright point light source is used as a marker in the screen. Alternatively, an initial setting screen may be displayed on the see-through display 3, and the wearer of the see-through display 3 may select it in a menu format. For example, a plurality of options including “bright point light source” are displayed as marker options, and the wearer of the see-through display 3 selects the marker type from the menu, whereby the marker type is selected.

シースルーディスプレイ3の装着者が、制御部100のメニューを用いて、キャリブレーションを開始することにより、キャリブレーションが開始する。以下、シースルーディスプレイ3の装着者がキャリブレーションに用いる種類を指定する場合でのキャリブレーションパラメータを算出する動作を説明する。   The wearer of the see-through display 3 starts calibration by using the menu of the control unit 100 to start calibration. Hereinafter, an operation for calculating a calibration parameter when the wearer of the see-through display 3 designates a type to be used for calibration will be described.

ステップ101) キャリブレーション部160は、キャリブレーションのための初期設定を実施する。   Step 101) The calibration unit 160 performs initial setting for calibration.

まず、キャリブレーション部160は、シースルーディスプレイ3の装着者(以下、ユーザと記す)が指定した、キャリブレーション用のマーカを検出するアルゴリズムを記憶部170から読み出し、マーカ座標算出部150に設定する。   First, the calibration unit 160 reads an algorithm for detecting a calibration marker designated by a wearer of the see-through display 3 (hereinafter referred to as a user) from the storage unit 170 and sets the algorithm in the marker coordinate calculation unit 150.

次に、キャリブレーション部160は、記憶部170のキャリブレーション用データからキャリブレーション用画像データと、シースルーディスプレイ上でのキャリブレーション用画像表示座標値データを取得する。キャリブレーション用画像表示座標値データは、シースルーディスプレイ3の上端のいずれかの位置を示す座標値と、下端のいずれかの位置を示す座標値の2つの座標値を含む、2つ以上の座標値からなる。以後の、ステップ102からステップ105までの処理は、キャリブレーション用画像表示座標値データに含まれる、全ての座標値に対して実施される。   Next, the calibration unit 160 acquires calibration image data and calibration image display coordinate value data on the see-through display from the calibration data stored in the storage unit 170. The calibration image display coordinate value data includes two or more coordinate values including two coordinate values: a coordinate value indicating one of the upper end positions of the see-through display 3 and a coordinate value indicating one of the lower end positions. Consists of. The subsequent processing from step 102 to step 105 is performed for all coordinate values included in the calibration image display coordinate value data.

ステップ102) キャリブレーション部160は、表示位置制御部120にキャリブレーション用画像データと、シースルーディスプレイ3上でのキャリブレーション用画像表示財表値を受け渡す。表示位置制御部120がシースルーディスプレイ3にキャリブレーション用画像を表示する。   Step 102) The calibration unit 160 passes the calibration image data and the calibration image display chart value on the see-through display 3 to the display position control unit 120. The display position control unit 120 displays a calibration image on the see-through display 3.

ステップ103) キャリブレーション部160は、シースルーディスプレイ3に表示されたキャリブレーション用画像と、実世界にあるキャリブレーション用マーカ(例えば、遠くの点光源)が重なって見えるように顔の向きを変えて、実世界にあるキャリブレーション用マーカ(例えば、遠くの点光源)が重なって見えたら予め定めた所定のアクションをとるよう、ユーザに指示する。ユーザへの指示方法としては、例えば、シースルーディスプレイに指示内容を示すメッセージを表示する。スピーカを備える装置の場合、スピーカを用いて音声で指示を与えてもよい。   Step 103) The calibration unit 160 changes the orientation of the face so that the calibration image displayed on the see-through display 3 and the calibration marker in the real world (for example, a distant point light source) appear to overlap. The user is instructed to take a predetermined action when calibration markers in the real world (for example, distant point light sources) appear to overlap. As an instruction method to the user, for example, a message indicating the instruction content is displayed on the see-through display. In the case of an apparatus including a speaker, an instruction may be given by voice using the speaker.

ステップ104) キャリブレーション部160は、ユーザがシースルーディスプレイ3に表示されたキャリブレーション用画像と、実世界にあるキャリブレーション用マーカ(例えば、遠くの点光源)が重なって見える位置にあることを示す所定のアクションをとったことを示すコマンドを受信し、そのコマンドを受信した時点でのカメラ画像を映像キャプチャ部110から取得する。   Step 104) The calibration unit 160 indicates that the user is in a position where the calibration image displayed on the see-through display 3 and the calibration marker in the real world (for example, a distant point light source) can be seen overlapping each other. A command indicating that a predetermined action has been taken is received, and a camera image at the time of receiving the command is acquired from the video capture unit 110.

キャリブレーション用画像と、実世界にあるキャリブレーション用マーカが重なって見える位置にあることを示す所定のアクションとしては、例えば、予めキャリブレーション用画像と、実世界にあるキャリブレーション用マーカが重なって見える位置にあることを示すポインティング動作を定めて、カメラ撮影範囲の中で、ユーザにこのポインティング動作を実施してもらうこととしてもよい。この場合、記憶部170のポインティング特徴量に、実世界にあるキャリブレーション用マーカが重なって見える位置にあることを示す所定のアクションに該当するポインティング特徴量を予め格納し、ポインタ座標算出部140でこのポインティング動作がなされたかどうか、及び、このポインティング動作が行われた座標値を検出する。キャリブレーション部160が、ポインタ座標算出部140よりポインティング動作がなされたかどうかと、このポインティング動作が行われた座標値を受け取る。キャリブレーション部160は、これらの情報を受け取ると、カメラ画像を映像キャプチャ部110から取得する。   As a predetermined action indicating that the calibration image and the calibration marker in the real world are in a position where they appear to overlap, for example, the calibration image and the calibration marker in the real world overlap in advance. A pointing operation indicating that the camera is in a visible position may be determined, and the user may perform the pointing operation within the camera shooting range. In this case, a pointing feature amount corresponding to a predetermined action indicating that the calibration marker in the real world is at a position where it appears to overlap is stored in advance in the pointing feature amount of the storage unit 170, and the pointer coordinate calculation unit 140 It is detected whether or not this pointing operation has been performed, and the coordinate value at which this pointing operation has been performed. The calibration unit 160 receives whether or not the pointing operation has been performed from the pointer coordinate calculation unit 140 and the coordinate value on which the pointing operation has been performed. Upon receiving these pieces of information, the calibration unit 160 acquires a camera image from the video capture unit 110.

ステップ105) キャリブレーション部160は、ステップ104で取得した画像をマーカ座標算出部150に入力して、マーカ座標算出部150からマーカ座標値を取得し、この値を出力する。なお、マーカ座標算出部150は、ステップ104でキャプチャされたカメラ画像の中から、記憶部170に格納されているマーカ特徴量を用いてマーカを抽出し、カメラ画像内でのマーカの座標値を出力とする。   Step 105) The calibration unit 160 inputs the image acquired in Step 104 to the marker coordinate calculation unit 150, acquires the marker coordinate value from the marker coordinate calculation unit 150, and outputs this value. The marker coordinate calculation unit 150 extracts a marker from the camera image captured in step 104 using the marker feature amount stored in the storage unit 170, and calculates the coordinate value of the marker in the camera image. Output.

ステップ106) ステップ102からステップ105までの処理を、キャリブレーション用画像表示座標値に含まれるすべての座標値に対して実施したかどうかを判断する。実施していないキャリブレーション用画像表示座標値がある場合には、ステップ102に戻る。全てのキャリブレーション用画像表示座標値に対してステップ102からステップ105までの処理を実施済みの場合は、ステップ107に移行する。   Step 106) It is determined whether or not the processing from Step 102 to Step 105 has been performed for all the coordinate values included in the calibration image display coordinate values. If there is a calibration image display coordinate value that has not been executed, the process returns to step 102. When the processing from step 102 to step 105 has been performed for all the calibration image display coordinate values, the process proceeds to step 107.

ステップ107)キャリブレーション用画像をシースルーディスプレイ3の上端に表示した場合、下端に表示した場合の2つの場合に対しての、ステップ102でキャリブレーション用画像を表示したシースルーディスプレイ3上での座標位置と、ステップ105で検出したカメラ画像でのマーカの座標位置の組み合わせ(2組の組み合わせ)を用いて、カメラ画像とシースルーディスプレイ3の座標の変換パラメタを算出する。   Step 107) When the calibration image is displayed at the upper end of the see-through display 3, the coordinate position on the see-through display 3 where the calibration image is displayed at step 102 with respect to the two cases where the calibration image is displayed at the lower end Then, using the combination of the coordinate positions of the markers in the camera image detected in step 105 (two sets of combinations), a conversion parameter between the coordinates of the camera image and the see-through display 3 is calculated.

ステップ106で検出した全ての座標値のうち、キャリブレーション用画像をシースルーディスプレイ3の上端の座標値に表示した場合と、下端の座標値に表示した場合の2つの場合の映像キャプチャ部110で取得した画像上の座標値を算出する。   Of all the coordinate values detected in step 106, the image is captured by the video capture unit 110 when the calibration image is displayed at the coordinate value at the upper end of the see-through display 3 and at the coordinate value at the lower end. The coordinate value on the obtained image is calculated.

図5において、抽出した2つの座標値の、上端を(xc1,yc1)、下端を(xc2、yc2)とする。   In FIG. 5, it is assumed that the upper end of the two extracted coordinate values is (xc1, yc1) and the lower end is (xc2, yc2).

また、シースルーディスプレイ3の表示デバイスの、鉛直方向の画素数をNとする。このとき、キャリブレーション用パラメータα、βを、
α=yc1
β=│yc1−yc2│/N
として求める。
The number of pixels in the vertical direction of the display device of the see-through display 3 is N. At this time, the calibration parameters α and β are
α = yc1
β = | yc1-yc2 | / N
Asking.

なお、シースルーディスプレイの表示デバイスの鉛直方向の画素数Nについては、予め記憶部170に格納しておくこととする。   Note that the number N of pixels in the vertical direction of the display device of the see-through display is stored in the storage unit 170 in advance.

このとき、シースルーディスプレイ3の(xd,yd)の座標値にポインタを表示する場合、シースルーディスプレイの装着者から見て、このポインタが重なって見える物体が、キャプチャ画像の中で写りこんでいる座標位置(xc,yc)は、
xc=xd
yc=yd×β+α
として求めることができる。
At this time, when the pointer is displayed at the coordinate value of (xd, yd) of the see-through display 3, the coordinates where the object that the pointer appears to overlap as seen from the wearer of the see-through display are reflected in the captured image. The position (xc, yc) is
xc = xd
yc = yd × β + α
Can be obtained as

このα、βを求めることにより、カメラ座標系と、シースルーディスプレイの座標系のキャリブレーションが実現される。   By obtaining α and β, calibration of the camera coordinate system and the coordinate system of the see-through display is realized.

[第2の実施の形態]
本発明のキャリブレーション技術を用いて表示デバイスのキャリブレーションを実施し、カメラ映像から人の指の特定の形状を検出する処理を加えることで、実空間の物体を選択し、選択された物体に関する情報を検索するアプリケーション(以下、実空間情報検索)に適用した例を示す。
[Second Embodiment]
The display device is calibrated using the calibration technique of the present invention, and a process of detecting a specific shape of a human finger from a camera image is added to select an object in real space, and the selected object An example applied to an application for retrieving information (hereinafter referred to as real space information retrieval) is shown.

図6は、本発明の第2の実施の形態におけるキャリブレーション装置の構成を示す。   FIG. 6 shows a configuration of a calibration apparatus according to the second embodiment of the present invention.

同図に示す装置は、メガネ本体1、シースルーディスプレイ3、カメラ4、制御装置10、無線通信装置20から構成される。   The apparatus shown in FIG. 1 includes a glasses main body 1, a see-through display 3, a camera 4, a control device 10, and a wireless communication device 20.

ユーザは、メガネ本体1を装着し、シースルーディスプレイ3を通して、対象オブジェクト2を見る。カメラ4は、ユーザの効き目の近くに配置され、ユーザの効き目で見える画像に近い映像を撮影し、撮影された実空間情報を制御装置10に送る。制御装置10では、カメラ4で撮影されたユーザの指の動き情報あるいは無線通信装置20から取得した加速度センサ情報を利用し、ユーザが選択したオブジェクト属性情報及びオブジェクト位置を含む画像情報を無線通信装置20に送る。無線通信装置20は、入手したオブジェクト属性情報、オブジェクト画像情報に加え、GPS等により取得したユーザの位置情報、無線通信装置が内蔵している時刻情報のいずれかあるいは両方の情報を検索キーとして、遠隔地にあるサーバあるいは、無線通信装置20が保持しているオブジェクト情報を検索する。検索結果は、制御装置10に送信され、制御装置10では、検索結果の表示画像を合成し、シースルーディスプレイ3に表示する。ユーザは、対象オブジェクトに関する検索結果を実際に見ている実空間にオーバレイした情報としてみることができる。   The user wears the glasses main body 1 and views the target object 2 through the see-through display 3. The camera 4 is arranged near the user's effect, captures an image close to the image seen by the user's effect, and sends the captured real space information to the control device 10. The control device 10 uses the movement information of the user's finger photographed by the camera 4 or the acceleration sensor information acquired from the wireless communication device 20 to transmit the image information including the object attribute information and the object position selected by the user to the wireless communication device. Send to 20. In addition to the obtained object attribute information and object image information, the wireless communication device 20 uses, as a search key, any one or both of the user position information acquired by GPS or the like and the time information built in the wireless communication device. Search for object information held by a remote server or wireless communication device 20. The search result is transmitted to the control device 10, and the control device 10 combines the display images of the search results and displays them on the see-through display 3. The user can view the search result related to the target object as information overlaid on the actual space in which the user is actually viewing.

メガネの形状をしており、メガネのレンズ部分に透過型表示デバイスを設置した表示デバイス(「ビデオグラス」と呼ばれることもある)の市販製品としては以下のようなものがある。   Examples of commercially available display devices (sometimes referred to as “video glasses”) that are glasses-shaped and have a transmissive display device installed on the lens portion of the glasses include the following.

・Video Eyeglasses (イスラエル、LUMUS社)
(http://www.lumus-optical.com/index.php?optioon=com_content&task=view&id=9&Itemid=15) "
・Eye-Trek (オリンパス社)
(http://www.watch.impress.co.jp/av/docs/20011010/olymus.htm)
次に、カメラ4、シースルーパネル(ディスプレイ)3の配置について説明する。
・ Video Eyeglasses (Israel, LUMUS)
(http://www.lumus-optical.com/index.php?optioon=com_content&task=view&id=9&Itemid=15) "
・ Eye-Trek (Olympus)
(http://www.watch.impress.co.jp/av/docs/20011010/olymus.htm)
Next, the arrangement of the camera 4 and the see-through panel (display) 3 will be described.

図7は、本発明のカメラ、シースルーパネルの配置の例を示す。同図に示すように、利用者の焦点位置とカメラの焦点位置を近くするため、カメラ4は効き目側に配置し、且つ、カメラ4の焦点位置は、利用者の目の焦点位置に近い奥行きになるように配置する。また、オブジェクト選択及びポインタ表示における上下方向の誤差を少なくするため、カメラの焦点位置、シースルーディスプレイ3の中心及び利用者の目の焦点位置は上下方向では一致するように配置する。オブジェクト選択においては、シースルーディスプレイ3とオブジェクトが存在する平面の上下方向の関係を利用し、シースルーディスプレイ上のポインタ位置と実時間のオブジェクト位置を一致させているため、上下方向の誤差を抑えることは有効である。   FIG. 7 shows an example of the arrangement of the camera and see-through panel of the present invention. As shown in the figure, in order to make the focal position of the user close to the focal position of the camera, the camera 4 is arranged on the effective side, and the focal position of the camera 4 is a depth close to the focal position of the user's eyes. Arrange so that Further, in order to reduce the vertical error in object selection and pointer display, the camera focus position, the center of the see-through display 3 and the focus position of the user's eyes are arranged to match in the vertical direction. In object selection, the vertical position between the see-through display 3 and the plane on which the object exists is used, and the pointer position on the see-through display matches the real-time object position. It is valid.

図8は、本発明の第2の実施の形態における制御装置と無線通信装置の構成を示す。   FIG. 8 shows a configuration of a control device and a wireless communication device according to the second embodiment of the present invention.

制御装置10は、映像キャプチャ部11、オブジェクト画像抽出部12、ポインタ座標算出部13、表示位置制御部14、表示情報生成部15からから構成される。   The control device 10 includes a video capture unit 11, an object image extraction unit 12, a pointer coordinate calculation unit 13, a display position control unit 14, and a display information generation unit 15.

無線通信部20は、検索制御部21、GPS機能部22、日時取得部23、通信制御部24から構成される。   The wireless communication unit 20 includes a search control unit 21, a GPS function unit 22, a date acquisition unit 23, and a communication control unit 24.

制御装置10の映像キャプチャ部11は、カメラ4から入力された画像を解析可能なディジタル信号に変換する。   The video capture unit 11 of the control device 10 converts the image input from the camera 4 into a digital signal that can be analyzed.

オブジェクト画像抽出部12は、ポインタ座標算出部13からの座標情報を使用し、検索対象となるオブジェクトのディジタル情報切り出す。   The object image extraction unit 12 uses the coordinate information from the pointer coordinate calculation unit 13 to extract digital information of an object to be searched.

ポインタ座標算出部13は、映像キャプチャ部11から受け取ったディジタル情報からの指のアクションを検出し、ユーザが選択したオブジェクト位置、あるいは選択したメニュー位置を特定する機能を有する。   The pointer coordinate calculation unit 13 has a function of detecting a finger action from the digital information received from the video capture unit 11 and specifying an object position selected by the user or a selected menu position.

図9は、本発明の第2の実施の形態におけるポインタ座標算出部における指検出アルゴリズムを説明するための図(その1)である。   FIG. 9 is a diagram (No. 1) for explaining the finger detection algorithm in the pointer coordinate calculation unit according to the second embodiment of the invention.

同図のイメージAに示すように、撮影しているカメラの前方で、指先を閉じた後、イメージBのように指の付け根の位置を大きく変えずに、オブジェクトを挟むように人差し指と親指を開く。このアクションは、指が背景に比べて前方にあり、かつ、背景に比べ、画像における変化量が大きいことから、イメージAとイメージBの間の動きについて、イメージCに示すように、動き情報を検出することができる。イメージCに示すように、動きが最大であった場所の終端(黒丸で示す部分)をオブジェクトの上端及び下端として抽出する。   As shown in image A in the figure, after closing the fingertip in front of the camera being photographed, the index finger and thumb are placed so as to sandwich the object without changing the position of the base of the finger as in image B. open. In this action, since the finger is in front of the background and the amount of change in the image is large compared to the background, the movement information between the image A and the image B is displayed as shown in the image C. Can be detected. As shown in image C, the end points (the portions indicated by black circles) where the movement was maximum are extracted as the upper and lower ends of the object.

なお、指の動き情報の検出には、例えば、「映情学技報、VIS2001-103, Vol.25, No. 85, pp.47-52 (2001)」で提案されている方法などを利用する(http://www.is.aist.go.jp/weavy/paper/distribution/2001/ITE2001-kurata.pdf)。   In addition, for the detection of finger movement information, for example, the method proposed in “Eijijio Technical Report, VIS2001-103, Vol.25, No. 85, pp.47-52 (2001)” is used. (Http://www.is.aist.go.jp/weavy/paper/distribution/2001/ITE2001-kurata.pdf).

図10は、本発明の第2の実施の形態におけるポインタ座標算出部における指検出アルゴリズムを説明するための図(その2)である。   FIG. 10 is a diagram (No. 2) for explaining the finger detection algorithm in the pointer coordinate calculation unit according to the second embodiment of the invention.

図9に示すアルゴリズムとの違いは、指の動きを検出しやすいように、背景色との識別が容易なマーカを指に装着しているところにある。図9に示すイメージAのように、視界を撮影しているカメラ前方で、指先を閉じた後、イメージBのように指の付け根の位置を大きく変えずに、オブジェクトを挟むように人差し指と親指を開く。撮影した画像からイメージCのようにマーカ部分を抽出し、マーカの上端、下端よりオブジェクトの上端と下端を検出することができる。   The difference from the algorithm shown in FIG. 9 is that a marker that can be easily distinguished from the background color is attached to the finger so that the movement of the finger can be easily detected. Like the image A shown in FIG. 9, after closing the fingertip in front of the camera that is shooting the field of view, the index finger and the thumb are sandwiched between the objects without changing the position of the base of the finger as in the image B. open. A marker portion is extracted from the photographed image as image C, and the upper and lower ends of the object can be detected from the upper and lower ends of the marker.

図11は、本発明の第2の実施の形態におけるポインタ座標算出部のポインタ座標決定アルゴリズムを説明するための図である。   FIG. 11 is a diagram for explaining a pointer coordinate determination algorithm of the pointer coordinate calculation unit according to the second embodiment of the present invention.

シースルーディスプレイ3に対して垂直方句をX軸、シースルーディスプレイ3に対して平行でかつ上下方向の軸をY軸として説明する。   In the following description, the vertical phrase with respect to the see-through display 3 is taken as the X axis, and the vertical axis parallel to the see-through display 3 is taken as the Y axis.

(X0,Y0)は目及びカメラ4の焦点位置であり、本説明においては、目及びカメラ4の焦点位置はX軸及びY軸上で略同じであると仮定する。X1はメガネ4に含まれルシースルーディスプレイ3のX軸上の位置を示している。X3はキャプチャ画像上のX軸上の位置を示している。Y0は、焦点位置からシースルーディスプレイ3に下ろした垂線の延長線上のY軸上の位置を示している。(X3,Y1)及び(X3,Y2)は、オブジェクトの上端と下端の座標を示している。(X1,y1)及び(X1,y2)は、シースルーディスプレイ3上でのオブジェクトの上端と下端に対応する座標(X3,yc1)及び(X3,yc2)はカメラ4の画像をキャプチャした画像のうち、シースルーディスプレイ3の上端(X1,a1)及び下端(X1,a2)に対応するX3軸上の位置を示している。
カメラ画像は、メガネ本体1に付属のカメラ4により取得されている画像イメージを示している。
(X0, Y0) are the focal positions of the eyes and the camera 4. In this description, it is assumed that the focal positions of the eyes and the camera 4 are substantially the same on the X axis and the Y axis. X1 indicates the position on the X-axis of the see-through display 3 included in the glasses 4. X3 indicates a position on the X axis on the captured image. Y0 indicates the position on the Y-axis on the extension of the perpendicular line dropped from the focal position to the see-through display 3. (X3, Y1) and (X3, Y2) indicate the coordinates of the upper and lower ends of the object. (X1, y1) and (X1, y2) are coordinates (X3, yc1) and (X3, yc2) corresponding to the top and bottom edges of the object on the see-through display 3, and are the images captured from the camera 4 The positions on the X3 axis corresponding to the upper end (X1, a1) and the lower end (X1, a2) of the see-through display 3 are shown.
The camera image indicates an image acquired by the camera 4 attached to the glasses main body 1.

上記の図9、図10に示すアルゴリズムにより検出された指の位置は、カメラ画像上の黒丸の位置に相当する。カメラ画像上の黒丸の位置と、シースルーディスプレイ3上の黒丸の位置の関係は、以下のようにして決定することができる。   The position of the finger detected by the algorithm shown in FIGS. 9 and 10 corresponds to the position of the black circle on the camera image. The relationship between the position of the black circle on the camera image and the position of the black circle on the see-through display 3 can be determined as follows.

Y1=y1×β+α
Y2=y2×β+α
なお、αとβは、第1の実施の形態で算出したものを用いる。本例では、N=│a1−a2│である。従って、表示するポインタ位置は、画像中の指の位置から以下のように算出することができる。
Y1 = y1 × β + α
Y2 = y2 × β + α
As α and β, those calculated in the first embodiment are used. In this example, N = | a 1 −a 2 |. Therefore, the pointer position to be displayed can be calculated as follows from the position of the finger in the image.

y1=(Y1−α)/β
y2=(Y2−α)/β
表示位置制御部14は、ポインタ座標算出部13から受け取った画像の表示位置の調整及び合成を行う。
y1 = (Y1-α) / β
y2 = (Y2-α) / β
The display position control unit 14 adjusts and combines the display position of the image received from the pointer coordinate calculation unit 13.

表示情報生成部15は、無線通信装置20の検索制御部21から受け取った検索結果の情報を画像情報に変換する。   The display information generation unit 15 converts the search result information received from the search control unit 21 of the wireless communication device 20 into image information.

無線通信装置20の検索制御部21は、制御装置10のオブジェクト画像抽出部12から受け取ったディジタル情報、GPS機能部22から受け取った位置情報及び日時取得部23から受け取った日時情報を使用し、オブジェクト情報の検索指示及び結果受け取りを行う。また、文字認識などの処理の指示を行う。   The search control unit 21 of the wireless communication device 20 uses the digital information received from the object image extraction unit 12 of the control device 10, the position information received from the GPS function unit 22, and the date / time information received from the date / time acquisition unit 23 to Information retrieval instruction and result reception are performed. Also, an instruction for processing such as character recognition is given.

通信制御部24は、検索制御部21からの指示により、遠隔地にあるサーバとの通信を行う。   The communication control unit 24 communicates with a server at a remote location according to an instruction from the search control unit 21.

次に、上記の構成における動作を説明する。   Next, the operation in the above configuration will be described.

図13は、本発明の第2の実施の形態におけるオブジェクト選択のフローチャートであり、図14は、当該動作の画面イメージであり、を説明するための図であり、同図(A)のP0は、指の出現を検出した時のポインタの初期位置を示す。同図(B)のP1、P2は指のアクションを検出して得られた人差し指及び親指の先端の位置、P3はマーク表示したエリアの画像をオブジェクト画像抽出部12でキャプチャした画像を表示する位置を示す。   FIG. 13 is a flowchart of object selection in the second embodiment of the present invention, FIG. 14 is a diagram for explaining the screen image of the operation, and P0 in FIG. The initial position of the pointer when the appearance of the finger is detected is shown. P1 and P2 in FIG. 2B are the positions of the tips of the index finger and the thumb obtained by detecting the action of the finger, and P3 is a position for displaying an image captured by the object image extraction unit 12 in the marked area. Indicates.

ステップ301)利用者が効き目の前方に指をかざすと、ポインタ座標算出部13において、指の出現を検出し、表示位置制御部14においてP0にポインタを表示する。   Step 301) When the user holds his / her finger in front of the effect, the pointer coordinate calculation unit 13 detects the appearance of the finger, and the display position control unit 14 displays the pointer at P0.

ステップ302) 利用者は、人差し指と親指をポインタが見えている位置に移動させ、両指を合わせることにより、ポインタを仮想的につかむ。   Step 302) The user virtually grasps the pointer by moving the index finger and the thumb to the position where the pointer is visible and aligning both fingers.

ステップ303) 親指と人差し指を閉じたまま、検索対象のオブジェクト位置までポインタを移動させ、オブジェクトの位置で指を開く。   Step 303) With the thumb and index finger closed, the pointer is moved to the object position to be searched, and the finger is opened at the object position.

ステップ304) ポインタ座標算出部13において、指の開くアクションを検出し、人差し指及び親指の先端の位置から、上端P1、下端P2を決定する。   Step 304) The pointer coordinate calculation unit 13 detects the action of opening the finger, and determines the upper end P1 and the lower end P2 from the positions of the index finger and the tip of the thumb.

ステップ305) 表示位置制御部14は、上端P1、下端P2に囲まれた円形あるいは正方形のエリアにマークを表示する。   Step 305) The display position control unit 14 displays a mark in a circular or square area surrounded by the upper end P1 and the lower end P2.

ステップ306) マーク表示したエリアの画像をオブジェクト画像抽出部12でキャプチャする。   Step 306) The image of the marked area is captured by the object image extraction unit 12.

ステップ307) キャプチャした画像をP3位置に表示する。   Step 307) The captured image is displayed at the position P3.

図14は、本発明の第2の実施の形態におけるオブジェクト検索動作のフローチャートであり、図15、図16は、オブジェクト検索のイメージ図である。図15(A)のQ0は、対象オブジェクトの種別リストの選択画面の表示位置を示しており、図15(B)のQ1は、選択された所望のオブジェクト種別の背景色を変更して表示する位置を示している。図16(C)のR0は、検索結果の表示位置を示している。図16(D)のR1は選択した所望のオブジェクト候補の位置、S1は、オブジェクト情報の表示位置を示している。   FIG. 14 is a flowchart of an object search operation in the second embodiment of the present invention, and FIGS. 15 and 16 are image diagrams of object search. Q0 in FIG. 15A indicates the display position of the target object type list selection screen, and Q1 in FIG. 15B changes and displays the background color of the selected desired object type. Indicates the position. R0 in FIG. 16C indicates the display position of the search result. In FIG. 16D, R1 indicates the position of the selected desired object candidate, and S1 indicates the display position of the object information.

ステップ401) 上記の図12の処理により、オブジェクトを選択後、利用者が再び指を閉じると、オブジェクト画像抽出部12において、指を再び閉じるアクションを検出し、表示位置制御部14において対象オブジェクトの種別リストの選択画面を表示位置Q0に表示する。   Step 401) When the user closes the finger again after selecting the object by the processing of FIG. 12, the object image extraction unit 12 detects the action of closing the finger again, and the display position control unit 14 detects the target object. The type list selection screen is displayed at the display position Q0.

ステップ402) 利用者が指でポインタを掴み、ポインタをQ0に移動させる。   Step 402) The user grasps the pointer with a finger and moves the pointer to Q0.

ステップ403) 利用者は、指を開いて、再び閉じることで、所望のオブジェクト種別Q1を選択する。   Step 403) The user opens the finger and closes it again to select the desired object type Q1.

ステップ404) 無線通信装置20の検索制御部21は、日時取得部23、GPS機能部22から現在の日時、場所を取得する。   Step 404) The search control unit 21 of the wireless communication device 20 acquires the current date and time and location from the date and time acquisition unit 23 and the GPS function unit 22.

ステップ405) 無線通信装置20の検索制御部21は、オブジェクト種別から対象DBを決定し、キャプチャ画像、日時、場所からオブジェクト情報を検索する。   Step 405) The search control unit 21 of the wireless communication apparatus 20 determines the target DB from the object type, and searches for object information from the captured image, date / time, and location.

ステップ406) 制御装置20の表示情報生成部15は、検索制御部21から検索結果を受け取ると、画像情報に変換し、シースルーディスプレイ3のR0の位置に類似度の高い順に候補を出力する。   Step 406) Upon receiving the search result from the search control unit 21, the display information generation unit 15 of the control device 20 converts it into image information, and outputs candidates in descending order of similarity to the position of R0 of the see-through display 3.

ステップ407) 指でポインタを掴み、ポインタをシースルーディスプレイ3のR1に移動させ、指を開いて、再び閉じることで、詳細情報をシースルーディスプレイ3のS1に表示する。   Step 407) Grasp the pointer with a finger, move the pointer to R1 of the see-through display 3, open the finger, and close it again to display detailed information on S1 of the see-through display 3.

次に、オブジェクト種別として、文字あるは看板を選択した場合の動作を説明する。   Next, an operation when a character or a signboard is selected as the object type will be described.

図17は、本発明の第2の実施の形態における文字認識動作のフローチャートであり、図18、図19は、文字認識のイメージ図である。図18(A)のQ0は、対象オブジェクトの種別リストの選択画面の表示位置を示しており、同図(B)のQ1は、選択された所望のオブジェクト種別の背景色を変更して表示する位置を示している。図19(C)のR0は、検索結果の表示位置を示しており、同図(D)のR1は選択した所望のオブジェクト候補の位置、S1はオブジェクト情報の表示位置を示している。   FIG. 17 is a flowchart of the character recognition operation in the second embodiment of the present invention, and FIGS. 18 and 19 are image diagrams of character recognition. Q0 in FIG. 18A indicates the display position of the target object type list selection screen, and Q1 in FIG. 18B changes and displays the background color of the selected desired object type. Indicates the position. R0 in FIG. 19C indicates the display position of the search result, R1 in FIG. 19D indicates the position of the selected desired object candidate, and S1 indicates the display position of the object information.

ステップ501) 対象オブジェクトを含む画像が表示され、指を再び閉じるアクションを検出し、対象オブジェクトの種別リストの選択画面を表示位置Q0(図18(A))に表示する。   Step 501) An image including the target object is displayed, an action of closing the finger again is detected, and a selection screen of the target object type list is displayed at the display position Q0 (FIG. 18A).

ステップ502) 利用者は、指でポインタをつまみ、ポインタをQ0に移動させる。   Step 502) The user pinches the pointer with a finger and moves the pointer to Q0.

ステップ503) 指を開いて、再び閉じることで所望のオブジェクト種別Q1(看板、あるいはラベル(図18(B))を選択する。   Step 503) A desired object type Q1 (signboard or label (FIG. 18B)) is selected by opening and closing the finger again.

ステップ504) 対象オブジェクト領域に対して文字認識を実施し、認識結果候補を信頼性の高い順にR0(図19(C))に表示する。   Step 504) Character recognition is performed on the target object area, and recognition result candidates are displayed in R0 (FIG. 19C) in descending order of reliability.

ステップ505) R0のエリアに類似度の高い順に候補を表示する。   Step 505) Display candidates in descending order of similarity in the area of R0.

ステップ506) 指でポインタをつまみ、ポインタをR1(図19(D))に移動させる。   Step 506) The pointer is pinched with a finger, and the pointer is moved to R1 (FIG. 19D).

ステップ507) 再び指を閉じることで、商品、店舗、駅などの検索を実施し、検索結果をS0(図19(D))に表示する。   Step 507) By closing the finger again, a search for merchandise, a store, a station, etc. is performed, and the search result is displayed in S0 (FIG. 19D).

[第3の実施の形態]
本実施の形態は、前述の第2の実施の形態における図8の無線通信装置20の構成に加速度センサ及び操作部を設けた点において、第2の実施の形態と異なる。
[Third Embodiment]
This embodiment is different from the second embodiment in that an acceleration sensor and an operation unit are provided in the configuration of the wireless communication apparatus 20 in FIG. 8 in the second embodiment described above.

図20は、本発明の第3の実施の形態における制御装置と無線通信装置の構成を示す。同図において、図8と同一構成部分には同一符号を付し、その説明を省略する。   FIG. 20 shows a configuration of a control device and a wireless communication device according to the third embodiment of the present invention. In this figure, the same components as those in FIG.

図20に示す無線通信装置20は、図8の構成に、加速度センサ25と操作部26が付加された構成である。加速度センサ25と操作部26は、図21に示すように、タッチパネル34の下部に、利用者がポインタ位置を決定するための決定ボタン31、ポインタ位置を解除し、再設定するためのキャンセルボタン32、オブジェクト選択を最初からやり直すためのホームポジションボタン33を有し、タッチパネル34の上部に加速センサ25とGPS機能部22を設けた構成である。   The wireless communication device 20 shown in FIG. 20 has a configuration in which an acceleration sensor 25 and an operation unit 26 are added to the configuration of FIG. As shown in FIG. 21, the acceleration sensor 25 and the operation unit 26 are provided at the bottom of the touch panel 34, a determination button 31 for the user to determine the pointer position, and a cancel button 32 for releasing and resetting the pointer position. The configuration includes a home position button 33 for re-selecting an object from the beginning, and an acceleration sensor 25 and a GPS function unit 22 provided above the touch panel 34.

図8におけるポインタ座標算出部13は、指のアクションを検出し、ユーザが選択したオブジェクト位置、あるいは、選択したメニュー位置を特定していたが、本実施の形態では、加速度センサ25からの動き情報により、ユーザが選択したオブジェクト位置、あるいは、選択したメニュー位置を特定する。   The pointer coordinate calculation unit 13 in FIG. 8 detects the action of the finger and specifies the object position selected by the user or the selected menu position. In the present embodiment, the motion information from the acceleration sensor 25 is specified. Thus, the object position selected by the user or the selected menu position is specified.

加速度センサ25は、無線通信装置20の動きを検出し、ポインタ座標算出部13に送る。操作部26は、ユーザが決定ボタン31を押したことを検出し、操作情報をポインタ座標算出部13に送る。ポインタ座標算出部13では、加速度センサ25からの動きをシースルーディスプレイ平面状の動きに射影変換する。   The acceleration sensor 25 detects the movement of the wireless communication device 20 and sends it to the pointer coordinate calculation unit 13. The operation unit 26 detects that the user has pressed the determination button 31 and sends operation information to the pointer coordinate calculation unit 13. The pointer coordinate calculation unit 13 projects and converts the movement from the acceleration sensor 25 into a see-through display planar movement.

次に、本実施の形態におけるポインタ座標算出部13の動作を説明する。   Next, the operation of the pointer coordinate calculation unit 13 in the present embodiment will be described.

図22は、本発明の第3の実施の形態におけるポインタ座標算出部におけるポインタ座標からの画像抽出範囲の決定アルゴリズムを示している。   FIG. 22 shows an algorithm for determining an image extraction range from pointer coordinates in the pointer coordinate calculation unit according to the third embodiment of the present invention.

図20に示す構成の場合は、カメラ画像からポインタ位置を検出するのではなく、無線通信装置20に付属している加速度センサ25によりシースルーディスプレイ3に表示されているポインタを動かして、オブジェクトを選択するため、ポインタ位置から、カメラ画像上の対応するオブジェクト位置を決定する必要がある。(X0,Y0)は目及びカメラ4の焦点位置であり、本発明においては、目及びカメラ4の焦点位置はX軸及びY軸上で、略同じであると仮定する。X1は、メガネ1に含まれるシースルーディスプレイ3のX軸上の位置を示している。X3はオブジェクトが存在するX軸上の位置を示している。Y0は、焦点位置からシースルーディスプレイに下ろした垂線の延長線上のY軸上の位置を示している。(X3,Y1)及び(X3,Y2)は、オブジェクトの上端と下端の座標を示している。(X1,y1)及び(X1,y2)は、シースルーディスプレイ3上でのオブジェクトの上端と下端に対応する座標を示している。(X3,yc1)及び(X3,yc2)は、カメラ4の画像をキャプチャした画像のうち、シースルーディスプレイ3の上端(X1,a1)及び下端(X1,a2)に対応するX3軸上の位置を示している。カメラ画像は、カメラ4により取得されている画像イメージを示している。   In the case of the configuration shown in FIG. 20, instead of detecting the pointer position from the camera image, the acceleration sensor 25 attached to the wireless communication apparatus 20 moves the pointer displayed on the see-through display 3 to select the object. Therefore, it is necessary to determine the corresponding object position on the camera image from the pointer position. (X0, Y0) are the focal positions of the eyes and the camera 4. In the present invention, it is assumed that the focal positions of the eyes and the camera 4 are substantially the same on the X axis and the Y axis. X1 indicates a position on the X-axis of the see-through display 3 included in the glasses 1. X3 indicates the position on the X axis where the object exists. Y0 indicates a position on the Y-axis on an extension line of a perpendicular line dropped from the focal position to the see-through display. (X3, Y1) and (X3, Y2) indicate the coordinates of the upper and lower ends of the object. (X1, y1) and (X1, y2) indicate coordinates corresponding to the upper end and the lower end of the object on the see-through display 3. (X3, yc1) and (X3, yc2) are positions on the X3 axis corresponding to the upper end (X1, a1) and the lower end (X1, a2) of the see-through display 3 among the images captured by the camera 4. Show. The camera image indicates an image image acquired by the camera 4.

(X1,a1)及び(X1,a2)は、利用者が無線通信装置20の決定ボタンを押下することによって座標が決まる。カメラ画像上のオブジェクトの位置は以下のように算出される。   The coordinates of (X1, a1) and (X1, a2) are determined when the user presses the determination button of the wireless communication device 20. The position of the object on the camera image is calculated as follows.

Y1=y1×β+α
Y2=y2×β+α
なお、αとβは第1の実施の形態で算出したものを用いる。本例では、N=│a1−a2│である。
Y1 = y1 × β + α
Y2 = y2 × β + α
Note that α and β are those calculated in the first embodiment. In this example, N = | a 1 −a 2 |.

図23は、本発明の第2の実施の形態におけるオブジェクト選択時のフローチャートであり、図24は、オブジェクト選択のイメージ図であり、図24(A)のP0は無線通信装置20の決定ボタン31を押下したときのポインタの初期位置を示す。同図(B)のP1、P2は、無線通信装置20でポインタを移動させ、決定ボタン31の押下で設定したオブジェクトの上端と下端の位置、P3はマーク表示したエリアの画像をオブジェクト画像抽出部12でキャプチャした画像を表示する位置を示す。   FIG. 23 is a flowchart at the time of object selection in the second embodiment of the present invention, FIG. 24 is an image diagram of object selection, and P0 in FIG. Indicates the initial position of the pointer when pressed. P1 and P2 in FIG. 5B are the positions of the upper and lower ends of the object set by moving the pointer in the wireless communication device 20 and pressing the enter button 31, and P3 is an image of the marked area displayed as an object image extraction unit. 12 shows a position for displaying the captured image.

ステップ601) ユーザが無線通信装置20の決定ボタン31を押下すると、P0(図24(A))にポインタを表示する。   Step 601) When the user presses the enter button 31 of the wireless communication device 20, a pointer is displayed on P0 (FIG. 24A).

ステップ602) 加速度センサ25付きの無線通信装置20を動かすことにより、検索対象のオブジェクト位置までポインタを左右上下に移動させる。   Step 602) By moving the wireless communication device 20 with the acceleration sensor 25, the pointer is moved left and right and up and down to the object position to be searched.

ステップ603) 加速度センサ25から情報により、ポインタがその表示位置をP1(図24(B))に移動させる。   Step 603) Based on information from the acceleration sensor 25, the pointer moves the display position to P1 (FIG. 24B).

ステップ604) オブジェクトの上端P1で無線通信装置20の決定ボタン31を押下して、オブジェクトの上端を決定する。   Step 604) The determination button 31 of the wireless communication device 20 is pressed at the upper end P1 of the object to determine the upper end of the object.

ステップ605) 加速度センサ25からの情報により、ポインタ画像の中心位置をP2(図24(B))に移動する。   Step 605) Based on the information from the acceleration sensor 25, the center position of the pointer image is moved to P2 (FIG. 24B).

ステップ606) 再び、加速度センサ25付きの無線通信装置20をオブジェクトの下端P2に移動させ、P2を決定し、選択されたエリアであることを示すために、P1,P2に囲まれた円形あるいは正方形のエリアにマークを表示する。   Step 606) Again, the wireless communication device 20 with the acceleration sensor 25 is moved to the lower end P2 of the object, P2 is determined, and a circle or square surrounded by P1 and P2 to indicate the selected area The mark is displayed in the area.

ステップ607) 決定されたP1,P2に囲まれた領域の画像を対象オブジェクトとしてキャプチャし、キャプチャした画像をP3(図24(B))位置に表示する。   Step 607) The image of the area surrounded by the determined P1 and P2 is captured as the target object, and the captured image is displayed at the position P3 (FIG. 24B).

ステップ608) P1,P2に囲まれた領域に選択したことを示すマークを表示する。   Step 608) A mark indicating selection is displayed in an area surrounded by P1 and P2.

次に、オブジェクト検索動作時の例を説明する。   Next, an example during an object search operation will be described.

図25は、本発明の第3の実施の形態におけるオブジェクト検索時のフローチャートであり、図26,図27はオブジェクト検索のイメージ図である。図26(A)のQ0は、対象オブジェクトの種別リストの選択画面の表示位置を示している。図26(B)のQ1は、選択された所望のオブジェクト種別の背景色を変更して表示する位置を示している。図27(C)のR0は検索結果の表示位置を示している。同図(D)のR1は、選択した所望のオブジェクト候補の位置、S1はオブジェクト情報の表示位置を示している。   FIG. 25 is a flowchart at the time of object search in the third embodiment of the present invention, and FIGS. 26 and 27 are image diagrams of object search. Q0 in FIG. 26A indicates the display position of the selection screen for the target object type list. Q1 in FIG. 26B indicates a position where the background color of the selected desired object type is changed and displayed. In FIG. 27C, R0 indicates the display position of the search result. In FIG. 4D, R1 indicates the position of the selected desired object candidate, and S1 indicates the display position of the object information.

ステップ701) 対象オブジェクトを含む画像が表示されると、当該対象オブジェクトの種別リストの選択画面を表示位置Q0(図26(A))に表示する。   Step 701) When an image including the target object is displayed, a selection screen of the target object type list is displayed at the display position Q0 (FIG. 26A).

ステップ702) 加速度センサ25付きの無線通信装置20を移動させ、ポインタをQ0に移動する。   Step 702) The wireless communication device 20 with the acceleration sensor 25 is moved, and the pointer is moved to Q0.

ステップ703) 無線通信装置20の決定ボタン31を押下して、所望のオブジェクト種別Q1(図26(B))を選択する。   Step 703) The determination button 31 of the wireless communication apparatus 20 is pressed to select a desired object type Q1 (FIG. 26B).

ステップ704) 検索制御部21は、日時取得部23、GPS機能部22から日時及び場所の情報を取得する。   Step 704) The search control unit 21 acquires date / time and location information from the date / time acquisition unit 23 and the GPS function unit 22.

ステップ705) 検索制御部21は、オブジェクト種別から対象DBを決定し、キャプチャ画像、日時、場所から候補を検索する。   Step 705) The search control unit 21 determines the target DB from the object type, and searches for candidates from the captured image, date / time, and location.

ステップ706) 表示情報生成部15は、R0(図27(C))の位置に類似度の高い順に候補を出力する。   Step 706) The display information generation unit 15 outputs candidates in descending order of similarity at the position of R0 (FIG. 27C).

ステップ707) 加速度センサ25付き無線通信装置20を移動させ、ポインタR0(図27(C))の位置に類似度の高い順に候補を出力する。   Step 707) The wireless communication device 20 with the acceleration sensor 25 is moved, and candidates are output in descending order of similarity at the position of the pointer R0 (FIG. 27C).

ステップ708) 無線通信装置20を移動させ、ポインタをR1(図27(D))に移動させ、無線通信装置20の決定ボタン31を押下すると、詳細情報をS0(図27(D))に表示する。   Step 708) When the wireless communication device 20 is moved, the pointer is moved to R1 (FIG. 27D), and the determination button 31 of the wireless communication device 20 is pressed, detailed information is displayed in S0 (FIG. 27D). To do.

次に、オブジェクト種別として文字あるいは看板を選択した場合について説明する。   Next, a case where a character or a signboard is selected as the object type will be described.

図28は、本発明の第3の実施の形態における文字認識動作のフローチャートであり、図29、図30は、文字認識動作時の画面イメージを示す。図29(A)のQ0は対象オブジェクトの種別リストの選択画面の表示位置を示し、図29(B)のQ1は選択された所望のオブジェクト種別の背景色を変更して表示する位置を示し、図30(C)のR0は、検索結果の表示位置を示し、図30(D)のR1は選択した所望のオブジェクト候補の位置、S1はオブジェクト情報の表示位置を示している。   FIG. 28 is a flowchart of the character recognition operation according to the third embodiment of the present invention, and FIGS. 29 and 30 show screen images during the character recognition operation. Q0 in FIG. 29A indicates the display position of the target object type list selection screen, Q1 in FIG. 29B indicates the position where the background color of the selected desired object type is changed, and displayed. R0 in FIG. 30C indicates the display position of the search result, R1 in FIG. 30D indicates the position of the selected desired object candidate, and S1 indicates the display position of the object information.

ステップ801) 対象オブジェクトの種別リストの選択画面を表示位置Q0(図29(A))に表示する。   Step 801) A target object type list selection screen is displayed at the display position Q0 (FIG. 29A).

ステップ802) 加速度センサ25付きの無線通信装置20を移動させ、ポインタをQ0に移動させる。   Step 802) The wireless communication device 20 with the acceleration sensor 25 is moved, and the pointer is moved to Q0.

ステップ803) 無線通信装置20の決定ボタン31を押下して所望のオブジェクト種別Q1(看板あるいはラベル)を選択する。   Step 803) The determination button 31 of the wireless communication device 20 is pressed to select a desired object type Q1 (signboard or label).

ステップ804) オブジェクト画像抽出部12は、対象オブジェクトエリアから看板あるいはラベル候補を抽出する。   Step 804) The object image extraction unit 12 extracts a signboard or a label candidate from the target object area.

ステップ805) 対象オブジェクト領域に対して文字認識を実施し、認識結果候補を信頼性高い順にR0(図30(C))に表示する。   Step 805) Character recognition is performed on the target object region, and recognition result candidates are displayed in R0 (FIG. 30C) in order of reliability.

ステップ806) 加速度センサ25付き無線通信装置20を移動させ、ポインタをR1(図30(D))に移動する。   Step 806) The wireless communication device 20 with the acceleration sensor 25 is moved, and the pointer is moved to R1 (FIG. 30D).

ステップ807) 無線通信装置20の決定ボタン31を押下すると、検索制御部21において翻訳あるいは、商品、店舗、駅などの検索を実施する。   Step 807) When the determination button 31 of the wireless communication device 20 is pressed, the search control unit 21 performs translation or searches for products, stores, stations, and the like.

ステップ808) 表示情報生成部15は、S0(図30(D))に翻訳結果や検索結果を表示する。   Step 808) The display information generating unit 15 displays the translation result and the search result on S0 (FIG. 30D).

なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。   The present invention is not limited to the above-described embodiment, and various modifications and applications can be made within the scope of the claims.

本発明は、キャリブレーション技術に適用可能である。   The present invention is applicable to a calibration technique.

本発明の原理を説明するための図である。It is a figure for demonstrating the principle of this invention. 本発明の原理構成図である。It is a principle block diagram of this invention. 本発明の第1の実施の形態におけるキャリブレーション装置構成図である。1 is a configuration diagram of a calibration device according to a first embodiment of the present invention. 本発明の第1の実施の形態におけるキャリブレーション動作のフローチャートである。It is a flowchart of the calibration operation | movement in the 1st Embodiment of this invention. 本発明の第1の実施の形態における座標値を説明するための図である。It is a figure for demonstrating the coordinate value in the 1st Embodiment of this invention. 本発明の第2の実施の形態におけるキャリブレーション装置の構成図である。It is a block diagram of the calibration apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるカメラ、シースルーパネル配置の例である。It is an example of the camera and see-through panel arrangement | positioning in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における制御装置と無線通信装置の構成図である。It is a block diagram of the control apparatus and radio | wireless communication apparatus in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるポインタ算出部における指検出アルゴリズムを説明するための図(その1)である。It is FIG. (1) for demonstrating the finger detection algorithm in the pointer calculation part in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるポインタ算出部における指検出アルゴリズムを説明するための図(その2)である。It is FIG. (2) for demonstrating the finger detection algorithm in the pointer calculation part in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるポインタ座標算出部のポインタ表示位置決定アルゴリズムを説明するための図である。It is a figure for demonstrating the pointer display position determination algorithm of the pointer coordinate calculation part in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるオブジェクト選択動作のフローチャートである。It is a flowchart of the object selection operation | movement in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるオブジェクト選択動作の画面イメージである。It is a screen image of the object selection operation | movement in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるオブジェクト検索動作のフローチャートである。It is a flowchart of the object search operation | movement in the 2nd Embodiment of this invention. 本発明の第2の実施の形態におけるオブジェクト検索動作の画面イメージ(sの1)である。It is a screen image (1 of s) of the object search operation in the second exemplary embodiment of the present invention. 本発明の第2の実施の形態におけるオブジェクト検索動作の画面イメージ(その2)である。It is the screen image (the 2) of the object search operation | movement in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における文字認識動作のフローチャートである。It is a flowchart of the character recognition operation | movement in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における文字認識動作の画面イメージ(その1)である。It is the screen image (the 1) of the character recognition operation | movement in the 2nd Embodiment of this invention. 本発明の第2の実施の形態における文字認識動作の画面イメージ(その2)である。It is the screen image (the 2) of the character recognition operation | movement in the 2nd Embodiment of this invention. 本発明の第3の実施の形態における制御装置と無線通信装置の構成図である。It is a block diagram of the control apparatus and radio | wireless communication apparatus in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における無線通信装置の配置の例である。It is an example of arrangement | positioning of the radio | wireless communication apparatus in the 3rd Embodiment of this invention. 本発明の第3の実施の形態におけるポインタ位置からの画像抽出処理を説明するための図である。It is a figure for demonstrating the image extraction process from the pointer position in the 3rd Embodiment of this invention. 本発明の第3の実施の形態におけるオブジェクト選択時のフローチャートである。It is a flowchart at the time of the object selection in the 3rd Embodiment of this invention. 本発明の第3の実施の形態におけるオブジェクト選択動作の画面イメージである。It is a screen image of the object selection operation | movement in the 3rd Embodiment of this invention. 本発明の第3の実施の形態におけるオブジェクト検索時のフローチャートである。It is a flowchart at the time of the object search in the 3rd Embodiment of this invention. 本発明の第3の実施の形態におけるオブジェクト検索動作の画面イメージ(その1)である。It is the screen image (the 1) of the object search operation | movement in the 3rd Embodiment of this invention. 本発明の第3の実施の形態におけるオブジェクト検索動作の画面イメージ(その2)である。It is a screen image (the 2) of the object search operation | movement in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における文字認識動作のフローチャートである。It is a flowchart of the character recognition operation | movement in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における文字認識動作の画面イメージ(その1)である。It is the screen image (the 1) of the character recognition operation | movement in the 3rd Embodiment of this invention. 本発明の第3の実施の形態における文字認識動作の画面イメージ(その2)である。It is the screen image (the 2) of the character recognition operation | movement in the 3rd Embodiment of this invention. 従来の透過型ヘッドマウントディスプレイの構成図である。It is a block diagram of the conventional transmission type head mounted display.

符号の説明Explanation of symbols

1 メガネ本体
2 対象オブジェクト
3 透過型表示デバイス、シースルーディスプレイ
4 カメラ
10 制御装置
11 映像キャプチャ部
12 オブジェクト画像抽出部
13 ポインタ座標算出部
14 表示位置制御部
15 表示情報性西部
20 無線通信装置
21 検索制御部
22 GPS機能部
23 日時取得部
24 通信制御部
25 加速度センサ
26 操作部
31 決定ボタン
32 キャンセルボタン
33 ホームポジションボタン
34 タッチパネル
100 制御装置
110 映像キャプチャ手段、映像キャプチャ部
120 キャリブレーション用画像表示制御手段、表示位置制御部
130 オブジェクト画像抽出部
140 ポインタ座標算出部
150 マーカ座標値算出手段、マーカ座標算出部
160 パラメータ算出手段、キャリブレーション部
161 方向指示手段
170 記憶手段、記憶部
DESCRIPTION OF SYMBOLS 1 Glasses body 2 Target object 3 Transparent display device, see-through display 4 Camera 10 Control apparatus 11 Image | video capture part 12 Object image extraction part 13 Pointer coordinate calculation part 14 Display position control part 15 Display information property western part 20 Wireless communication apparatus 21 Search control Unit 22 GPS function unit 23 date and time acquisition unit 24 communication control unit 25 acceleration sensor 26 operation unit 31 determination button 32 cancel button 33 home position button 34 touch panel 100 control device 110 video capture unit, video capture unit 120 image display control unit for calibration , Display position control unit 130 object image extraction unit 140 pointer coordinate calculation unit 150 marker coordinate value calculation unit, marker coordinate calculation unit 160 parameter calculation unit, calibration unit 161 direction indicator 170 storage unit, the storage unit

Claims (2)

実世界の中のキャリブレーション用マーカを用いてカメラを備え持つ透過型表示デバイスのキャリブレーション方法であって、
記憶手段から少なくとも透過型表示デバイスの上端のいずれかの座標値と、下端のいずれかの座標値の2つの座標値をキャリブレーション用画像表示座標値として持つキャリブレーション用画像表示座標データを読み出して、該透過型表示デバイス上の、該キャリブレーション用画像表示座標データで指定される座標値にキャリブレーション用画像を表示し、
実世界の中のキャリブレーション用マーカと前記表示デバイスに表示された前記キャリブレーション用画像とが重なって見えるように顔の向きを変えることを該表示デバイスの装着者に指示し、
前記実世界の中のキャリブレーション用マーカと前記表示デバイスに表示されたキャリブレーション用画像とが重なって見えることを示す情報を受信し、カメラ画像をキャプチャし、
前記カメラ画像のキャプチャ画像から前記実世界の中のキャリブレーション用マーカを検出して該カメラ画像内でのマーカの座標値を算出し、
前記マーカの座標値を用いて前記カメラ画像での座標値と前記透過型表示デバイスの座標値とのキャリブレーションパラメータを算出する
ことを特徴とする表示デバイスのキャリブレーション方法。
A calibration method for a transmissive display device having a camera using a calibration marker in the real world,
Read out the calibration image display coordinate data having at least two coordinate values of the upper end of the transmissive display device and any of the lower end coordinate values as the calibration image display coordinate values from the storage means. , Displaying a calibration image on the coordinate value specified by the calibration image display coordinate data on the transmission type display device,
Instructing the wearer of the display device to change the orientation of the face so that the calibration marker in the real world and the calibration image displayed on the display device appear to overlap,
Receiving information indicating that the calibration marker in the real world and the calibration image displayed on the display device appear to overlap, capturing a camera image;
Detecting a calibration marker in the real world from the captured image of the camera image to calculate the coordinate value of the marker in the camera image,
A calibration method for a display device, wherein a calibration parameter between a coordinate value in the camera image and a coordinate value of the transmissive display device is calculated using the coordinate value of the marker.
実世界の中のキャリブレーション用マーカを用いてカメラを備え持つ透過型表示デバイスのキャリブレーション装置であって、
少なくとも透過型表示デバイスの上端のいずれかの座標値と、下端のいずれかの座標値の2つの座標値をキャリブレーション用画像表示座標値として持つキャリブレーション用画像表示座標データを格納した記憶手段と、
前記記憶手段から前記キャリブレーション用画像表示座標データを読み出して、前記透過型表示デバイス上の、該キャリブレーション用画像表示座標データで指定される座標値にキャリブレーション用画像を表示するキャリブレーション用画像表示制御手段と、
実世界の中のキャリブレーション用マーカと前記透過型表示デバイスに表示された前記キャリブレーション用画像とが重なって見えるように顔の向きを変えることを該表示デバイスの装着者に指示する方向指示手段と、
前記実世界の中のキャリブレーション用マーカと前記表示デバイスに表示されたキャリブレーション用画像とが重なって見えることを示す情報を受信し、カメラ画像をキャプチャする映像キャプチャ手段と、
前記カメラ画像のキャプチャ画像から前記実世界の中のキャリブレーション用マーカを検出して該カメラ画像内でのマーカの座標値を算出するマーカ座標値算出手段と、
前記マーカの座標値を用いて前記カメラ画像での座標値と前記透過型表示デバイスの座標値とのキャリブレーションパラメータを算出するパラメータ算出手段と、
を有することを特徴とする表示デバイスのキャリブレーション装置。
A transmissive display device calibration apparatus having a camera using a calibration marker in the real world,
Storage means for storing calibration image display coordinate data having at least two coordinate values of the upper end of the transmissive display device and any of the lower end coordinate values as calibration image display coordinate values; ,
A calibration image for reading the calibration image display coordinate data from the storage means and displaying the calibration image on the coordinate value specified by the calibration image display coordinate data on the transmissive display device. Display control means;
Direction indicating means for instructing the wearer of the display device to change the orientation of the face so that the calibration marker in the real world and the calibration image displayed on the transmissive display device appear to overlap. When,
Video capture means for receiving information indicating that the calibration marker in the real world and the calibration image displayed on the display device appear to overlap and capturing a camera image;
Marker coordinate value calculating means for detecting a calibration marker in the real world from the captured image of the camera image and calculating a coordinate value of the marker in the camera image;
Parameter calculation means for calculating a calibration parameter between the coordinate value in the camera image and the coordinate value of the transmissive display device using the coordinate value of the marker;
A display device calibration apparatus comprising:
JP2008133515A 2008-05-21 2008-05-21 Display device calibration method and apparatus Active JP4681629B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008133515A JP4681629B2 (en) 2008-05-21 2008-05-21 Display device calibration method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008133515A JP4681629B2 (en) 2008-05-21 2008-05-21 Display device calibration method and apparatus

Publications (2)

Publication Number Publication Date
JP2009284175A true JP2009284175A (en) 2009-12-03
JP4681629B2 JP4681629B2 (en) 2011-05-11

Family

ID=41454175

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008133515A Active JP4681629B2 (en) 2008-05-21 2008-05-21 Display device calibration method and apparatus

Country Status (1)

Country Link
JP (1) JP4681629B2 (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013128612A1 (en) * 2012-03-01 2013-09-06 パイオニア株式会社 Head mounted display, calibration method, calibration program, and recording medium
WO2013145147A1 (en) * 2012-03-28 2013-10-03 パイオニア株式会社 Head mounted display and display method
CN103389580A (en) * 2012-05-09 2013-11-13 索尼公司 Display instrument and image display method
JP2014106642A (en) * 2012-11-26 2014-06-09 Kddi Corp Ar system using optical see-through type hmd
KR20140090549A (en) * 2013-12-10 2014-07-17 엘지전자 주식회사 Head Mounted Display device and controlling method for eye-gaze calibration
JP2014170374A (en) * 2013-03-04 2014-09-18 Kddi Corp Ar system employing optical see-through type hmd
JP2014183554A (en) * 2013-03-21 2014-09-29 Ntt Docomo Inc Display device
JP2015060071A (en) * 2013-09-18 2015-03-30 コニカミノルタ株式会社 Image display device, image display method, and image display program
JP2016009912A (en) * 2014-06-23 2016-01-18 富士通株式会社 Calibration device, calibration method, display control device and display control method
JP2016057634A (en) * 2015-11-19 2016-04-21 パイオニア株式会社 Head-mounted display, calibration method, calibration program, and recording medium
JP2016092567A (en) * 2014-11-04 2016-05-23 セイコーエプソン株式会社 Head-mounted display device, control method for head-mounted display device, and computer program
JP2016186658A (en) * 2016-07-14 2016-10-27 セイコーエプソン株式会社 Head-mount type display device and method
JP2017041766A (en) * 2015-08-20 2017-02-23 株式会社Jvcケンウッド Out-of-head localization processing device, and filter selection method
JP2017102269A (en) * 2015-12-02 2017-06-08 セイコーエプソン株式会社 Head mounted display device and computer program
JP2017215597A (en) * 2017-07-13 2017-12-07 パイオニア株式会社 Information display method and information display device
JP2018073071A (en) * 2016-10-28 2018-05-10 京セラドキュメントソリューションズ株式会社 Information processing apparatus
JP2018078448A (en) * 2016-11-09 2018-05-17 セイコーエプソン株式会社 Program and head-mounted type display device
US10018846B2 (en) 2012-01-24 2018-07-10 Sony Corporation Display device
WO2019004565A1 (en) * 2017-06-29 2019-01-03 주식회사 맥스트 Calibration method for adjusting augmented reality object and head-mounted display for performing same
US10642040B2 (en) 2014-03-17 2020-05-05 Sony Corporation Display apparatus and optical apparatus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0764709A (en) * 1993-08-26 1995-03-10 Olympus Optical Co Ltd Instruction processor
JP2002229730A (en) * 2000-11-30 2002-08-16 Mixed Reality Systems Laboratory Inc Information processing unit, complex reality providing device and method thereof, and storage medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0764709A (en) * 1993-08-26 1995-03-10 Olympus Optical Co Ltd Instruction processor
JP2002229730A (en) * 2000-11-30 2002-08-16 Mixed Reality Systems Laboratory Inc Information processing unit, complex reality providing device and method thereof, and storage medium

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10018846B2 (en) 2012-01-24 2018-07-10 Sony Corporation Display device
WO2013128612A1 (en) * 2012-03-01 2013-09-06 パイオニア株式会社 Head mounted display, calibration method, calibration program, and recording medium
WO2013145147A1 (en) * 2012-03-28 2013-10-03 パイオニア株式会社 Head mounted display and display method
US9972135B2 (en) 2012-05-09 2018-05-15 Sony Corporation Display instrument and image display method
CN103389580A (en) * 2012-05-09 2013-11-13 索尼公司 Display instrument and image display method
US10540822B2 (en) 2012-05-09 2020-01-21 Sony Corporation Display instrument and image display method
JP2014106642A (en) * 2012-11-26 2014-06-09 Kddi Corp Ar system using optical see-through type hmd
JP2014170374A (en) * 2013-03-04 2014-09-18 Kddi Corp Ar system employing optical see-through type hmd
JP2014183554A (en) * 2013-03-21 2014-09-29 Ntt Docomo Inc Display device
JP2015060071A (en) * 2013-09-18 2015-03-30 コニカミノルタ株式会社 Image display device, image display method, and image display program
KR102083963B1 (en) * 2013-12-10 2020-04-14 엘지전자 주식회사 Head Mounted Display device and controlling method for eye-gaze calibration
KR20140090549A (en) * 2013-12-10 2014-07-17 엘지전자 주식회사 Head Mounted Display device and controlling method for eye-gaze calibration
US10642040B2 (en) 2014-03-17 2020-05-05 Sony Corporation Display apparatus and optical apparatus
JP2016009912A (en) * 2014-06-23 2016-01-18 富士通株式会社 Calibration device, calibration method, display control device and display control method
JP2016092567A (en) * 2014-11-04 2016-05-23 セイコーエプソン株式会社 Head-mounted display device, control method for head-mounted display device, and computer program
JP2017041766A (en) * 2015-08-20 2017-02-23 株式会社Jvcケンウッド Out-of-head localization processing device, and filter selection method
US10412530B2 (en) 2015-08-20 2019-09-10 Jvckenwood Corporation Out-of-head localization processing apparatus and filter selection method
JP2016057634A (en) * 2015-11-19 2016-04-21 パイオニア株式会社 Head-mounted display, calibration method, calibration program, and recording medium
JP2017102269A (en) * 2015-12-02 2017-06-08 セイコーエプソン株式会社 Head mounted display device and computer program
JP2016186658A (en) * 2016-07-14 2016-10-27 セイコーエプソン株式会社 Head-mount type display device and method
JP2018073071A (en) * 2016-10-28 2018-05-10 京セラドキュメントソリューションズ株式会社 Information processing apparatus
JP2018078448A (en) * 2016-11-09 2018-05-17 セイコーエプソン株式会社 Program and head-mounted type display device
WO2019004565A1 (en) * 2017-06-29 2019-01-03 주식회사 맥스트 Calibration method for adjusting augmented reality object and head-mounted display for performing same
JP2017215597A (en) * 2017-07-13 2017-12-07 パイオニア株式会社 Information display method and information display device

Also Published As

Publication number Publication date
JP4681629B2 (en) 2011-05-11

Similar Documents

Publication Publication Date Title
JP4681629B2 (en) Display device calibration method and apparatus
CN110647237B (en) Gesture-based content sharing in an artificial reality environment
US11087728B1 (en) Computer vision and mapping for audio applications
US9651782B2 (en) Wearable tracking device
US11029762B2 (en) Adjusting dimensioning results using augmented reality
JP5762892B2 (en) Information display system, information display method, and information display program
CN105339870B (en) For providing the method and wearable device of virtual input interface
WO2022005693A1 (en) Augmented reality experiences using speech and text captions
WO2015105044A1 (en) Interface device, portable device, control device, module, control method, and program storage medium
CN110018736A (en) The object via near-eye display interface in artificial reality enhances
CN108027654B (en) Input device, input method, and program
JP2017102768A (en) Information processor, display device, information processing method, and program
KR101343748B1 (en) Transparent display virtual touch apparatus without pointer
JP6344530B2 (en) Input device, input method, and program
US20150015542A1 (en) Control Method And Electronic Device
JP6554948B2 (en) Display device, display device control method, and program
KR102360176B1 (en) Method and wearable device for providing a virtual input interface
CN111507246A (en) Method, device, system and storage medium for selecting marked object through gesture
CN103713387A (en) Electronic device and acquisition method
KR20150068276A (en) Head Mounted Display and controlling method
CN106662911A (en) Gaze detector using reference frames in media
KR20240028897A (en) METHOD AND APPARATUS FOR DISPLAYING VIRTUAL KEYBOARD ON HMD(head mounted display) DEVICE

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110204

R150 Certificate of patent or registration of utility model

Ref document number: 4681629

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140210

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350