JP5799776B2 - Information display device and program - Google Patents

Information display device and program Download PDF

Info

Publication number
JP5799776B2
JP5799776B2 JP2011260644A JP2011260644A JP5799776B2 JP 5799776 B2 JP5799776 B2 JP 5799776B2 JP 2011260644 A JP2011260644 A JP 2011260644A JP 2011260644 A JP2011260644 A JP 2011260644A JP 5799776 B2 JP5799776 B2 JP 5799776B2
Authority
JP
Japan
Prior art keywords
coordinate system
coordinates
user
information
transformation matrix
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011260644A
Other languages
Japanese (ja)
Other versions
JP2013114491A (en
Inventor
石徹白 敬
敬 石徹白
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Buffalo Inc
Original Assignee
Buffalo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Buffalo Inc filed Critical Buffalo Inc
Priority to JP2011260644A priority Critical patent/JP5799776B2/en
Publication of JP2013114491A publication Critical patent/JP2013114491A/en
Application granted granted Critical
Publication of JP5799776B2 publication Critical patent/JP5799776B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、透過型ディスプレイ上に情報を表示する情報表示装置及びプログラムに関する。   The present invention relates to an information display device and a program for displaying information on a transmissive display.

近年、拡張現実(AR;Augmented Reality)技術が広く利用されるようになってきている。拡張現実の分野では、利用者はHMD(ヘッド・マウント・ディスプレイ)等、透過型のディスプレイを通して現実の空間を見る。現実空間内の物体等にコメントテキスト等を付加して表示する場合は、この透過型ディスプレイ内で、利用者が物体を見ているその位置に、コメントテキストを表示することになる。   In recent years, augmented reality (AR) technology has become widely used. In the field of augmented reality, the user views the real space through a transmissive display such as an HMD (Head Mounted Display). When a comment text or the like is added to an object or the like in the real space for display, the comment text is displayed at the position where the user is looking at the object in the transmissive display.

この場合、少なくとも現実の空間の座標系と、透過型ディスプレイ内の仮想的空間の座標系とを一致させる必要がある。特許文献1には、HMDにおいて、現実空間と仮想空間との位置合わせを行う方法が多数列挙されている。   In this case, it is necessary to match at least the coordinate system of the real space with the coordinate system of the virtual space in the transmissive display. Patent Document 1 lists a number of methods for aligning the real space and the virtual space in the HMD.

特開2008−046750号公報JP 2008-046750 A

しかしながら上記従来のHMD等では、仮想空間の座標系は現実の空間を認識するカメラ等のセンサの座標系を基準に設定され、利用者の視線の方向が考慮されていない。このため、仮想空間と現実空間とが位置合わせされても、利用者にとっては、仮想空間内に表示された情報の表示位置が、現実空間内の対象物との関係でずれて表示されて見えることとなっていた。   However, in the conventional HMD or the like, the coordinate system of the virtual space is set based on the coordinate system of a sensor such as a camera that recognizes the real space, and the direction of the user's line of sight is not considered. For this reason, even if the virtual space and the real space are aligned, the display position of the information displayed in the virtual space appears to be shifted by the user in relation to the object in the real space. It was supposed to be.

本発明は上記実情に鑑みてなされたもので、利用者の視線方向を考慮した情報表示装置及びプログラムを提供することを、その目的の一つとする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an information display device and a program in consideration of the user's line-of-sight direction.

上記従来例の問題点を解決するための本発明は、情報表示装置であって、利用者の眼前に配される透過型ディスプレイと、利用者の視線ベクトルVを検出する手段と、前記検出した視線ベクトルVを用いて、利用者の視野座標系Epを規定する手段と、前記規定した利用者の視野座標系Ep内の座標を、外界座標系Wp内の座標に変換する変換行列を求める位置合わせ手段と、前記外界座標系Wp内の対象物の位置を表す座標を、前記変換行列によって、前記視野座標系Ep内の位置を表す座標に変換する手段と、前記視野座標系Epの座標を、前記透過型ディスプレイに投影して、前記対象物に対する情報の表示位置を求める手段と、前記求めた表示位置に、前記対象物に対する情報を表示する手段と、を含むこととしたものである。   The present invention for solving the problems of the above-described conventional example is an information display device, a transmissive display arranged in front of a user's eyes, means for detecting a user's line-of-sight vector V, and the detection Means for defining the user's visual field coordinate system Ep using the line-of-sight vector V, and a position for obtaining a transformation matrix for converting the coordinates in the defined visual field coordinate system Ep of the user into coordinates in the external world coordinate system Wp Matching means, means for converting coordinates representing the position of the object in the external world coordinate system Wp into coordinates representing the position in the visual field coordinate system Ep by the conversion matrix, and coordinates of the visual field coordinate system Ep And means for determining the display position of the information on the object by projecting on the transmissive display, and means for displaying the information on the object at the determined display position.

またここで、さらに、利用者の頭部に装着されたことを検出するセンサ、をさらに有し、前記位置合わせ手段は、前記センサにより、情報表示装置が装着されたと検出した時点で、前記変換行列を求めてもよいし、前記センサが、情報表示装置が利用者の頭部に装着されたことを検出してから、情報処理装置と、前記視点位置との相対的位置変動を検出する手段をさらに有し、前記位置合わせ手段が、当該検出した相対的位置変動に基づいて、前記変換行列を補正することとしてもよい。さらに、前記外界座標系Wpと、前記透過型ディスプレイ上の座標系Dpとの変換行列を求める手段を有してもよい。   In addition, the sensor further includes a sensor that detects that the head of the user is worn, and the alignment unit detects that the information display device is worn by the sensor when the conversion is performed. A matrix may be obtained, or means for detecting a relative position variation between the information processing device and the viewpoint position after the sensor detects that the information display device is mounted on the user's head The alignment unit may correct the conversion matrix based on the detected relative position fluctuation. Furthermore, there may be provided means for obtaining a transformation matrix between the external world coordinate system Wp and the coordinate system Dp on the transmissive display.

また本発明の一態様に係るプログラムは、透過型ディスプレイを備えたコンピュータを、利用者の視線ベクトルVを検出する手段と、前記検出した視線ベクトルVを用いて、利用者の視野座標系Epを規定する手段と、前記規定した利用者の視野座標系Ep内の座標を、外界座標系Wp内の座標に変換する変換行列を求める位置合わせ手段と、前記外界座標系Wp内の対象物の位置を表す座標を、前記変換行列によって、前記視野座標系Epの内の位置を表す座標に変換する手段と、前記視野座標系Epの座標を、前記透過型ディスプレイに投影して、前記対象物に対する情報の表示位置を求める手段と、前記求めた表示位置に、前記対象物に対する情報を表示する手段と、として機能させることとしたものである。   A program according to an aspect of the present invention uses a computer including a transmissive display to detect a user's line-of-sight vector V, and uses the detected line-of-sight vector V to determine a user's visual field coordinate system Ep. Defining means; positioning means for obtaining a transformation matrix for converting coordinates in the visual field coordinate system Ep of the defined user into coordinates in the external world coordinate system Wp; and position of the object in the external world coordinate system Wp Means for converting coordinates representing the position into coordinates representing the position in the visual field coordinate system Ep by the transformation matrix, and projecting the coordinates of the visual field coordinate system Ep onto the transmissive display, The information display position is functioned as means for displaying information on the object at the determined display position.

本発明によると、利用者の視線方向を考慮した情報表示を行うことができる。   According to the present invention, it is possible to display information in consideration of the user's line-of-sight direction.

本発明の実施の形態に係る情報表示装置の構成例を表すブロック図である。It is a block diagram showing the structural example of the information display apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る情報表示装置の実装例の一つを表す概要図である。It is a schematic diagram showing one of the implementation examples of the information display apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る情報表示装置の例を表す機能ブロック図である。It is a functional block diagram showing the example of the information display apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る情報表示装置のキャリブレーション処理の例を表すフローチャート図である。It is a flowchart figure showing the example of the calibration process of the information display device concerning an embodiment of the invention. 本発明の実施の形態に係る情報表示装置が利用する利用者の視野座標系の例を表す説明図である。It is explanatory drawing showing the example of the user's visual field coordinate system which the information display apparatus which concerns on embodiment of this invention utilizes. 本発明の実施の形態に係る情報表示装置が用いるデータベースの例を表す説明図である。It is explanatory drawing showing the example of the database which the information display apparatus which concerns on embodiment of this invention uses. 本発明の実施の形態に係る情報表示装置による情報表示の処理の例を表すフローチャート図である。It is a flowchart figure showing the example of the process of the information display by the information display apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る情報表示装置の別の実装例を表す概要図である。It is a schematic diagram showing another implementation example of the information display apparatus according to the embodiment of the present invention.

本発明の実施の形態に係る情報表示装置1は、例えば透過型のディスプレイを備えて、利用者が眼鏡のように着用し、透過型のディスプレイを介して視線方向にある情報表示の対象物を視認するとともに、当該利用者と対象物とを結ぶ線分が透過型ディスプレイの面に交わる位置近傍に、当該対象物に関わる情報を表示するものである。これにより、利用者に対して対象物に関する情報を提示する。   An information display device 1 according to an embodiment of the present invention includes, for example, a transmissive display, and a user wears like a pair of glasses, and displays an information display object in the line-of-sight direction via the transmissive display. In addition to visual recognition, information related to the object is displayed near the position where the line segment connecting the user and the object intersects the surface of the transmissive display. Thereby, the information regarding a target object is shown with respect to a user.

本実施の形態に係る情報表示装置1の一例は、図1に例示するように、制御部11、記憶部12、撮像部13、眼球検知部14、及び透過型ディスプレイ15を含んで構成される。また、後に述べるように、情報表示装置1は装着センサ16を含んでもよい。さらにこの情報表示装置1は変位センサ17を備えてもよい。   An example of the information display device 1 according to the present embodiment includes a control unit 11, a storage unit 12, an imaging unit 13, an eyeball detection unit 14, and a transmissive display 15, as illustrated in FIG. . As will be described later, the information display device 1 may include a mounting sensor 16. Further, the information display device 1 may include a displacement sensor 17.

本実施の形態の一態様に係る情報表示装置1は、図2に例示するように略眼鏡の形状を備える。すなわちこの例の情報表示装置1は、一対のテンプル21と、各テンプル21の一端側に、それぞれヒンジを介して連結された一対のリム22と、各リム22の一部に設けられ、装着時に利用者の鼻に当たってリム22を支持させる鼻当て部23と、一対のリム22の間を連結するブリッジ24とを備えたフレーム20に実装される。   The information display device 1 according to one aspect of the present embodiment has a substantially glasses shape as illustrated in FIG. That is, the information display device 1 of this example is provided on a pair of temples 21, a pair of rims 22 connected to one end side of each temple 21 via hinges, and a part of each rim 22. It is mounted on a frame 20 having a nose pad portion 23 for supporting the rim 22 by hitting the user's nose and a bridge 24 connecting the pair of rims 22.

この図2に例示した例では、少なくとも一方のリム22に透過型ディスプレイ15を支持させる。一方のリム22に透過型ディスプレイ15を支持させる場合は、他方のリム22にはガラスやプラスチックのレンズ(矯正のための度は入っていても、いなくてもよい)としておく。   In the example illustrated in FIG. 2, the transmissive display 15 is supported on at least one rim 22. When the transmissive display 15 is supported on one rim 22, the other rim 22 is made of a glass or plastic lens (which may or may not be included for correction).

ここで制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態において、この制御部11は、利用者の視点位置を検出する処理と、検出した利用者の視点位置から利用者の視線ベクトルVを推定する処理と、推定した利用者の視線ベクトルVを、外界座標系Wp内のベクトルに変換する変換行列を求める位置合わせ処理と、外界座標系Wp内の対象物の座標と、変換行列によって変換される視線ベクトルの方向の線分が透過型ディスプレイ15上で交差する位置の座標から、表示基準位置を求める処理と、当該求めた表示基準位置に基づいて、情報の表示位置を決定する処理と、を行う。この制御部11に処理の詳しい説明は後に述べる。   Here, the control unit 11 is a program control device such as a CPU, and operates according to a program stored in the storage unit 12. In the present embodiment, the control unit 11 detects the user's viewpoint position, processes to estimate the user's line-of-sight vector V from the detected user's viewpoint position, and the estimated user's line-of-sight vector. Alignment processing for obtaining a transformation matrix for transforming V into a vector in the external world coordinate system Wp, the coordinates of the object in the external world coordinate system Wp, and the line segment in the direction of the line-of-sight vector transformed by the transformation matrix are transmission type A process for obtaining the display reference position from the coordinates of the positions intersecting on the display 15 and a process for determining the information display position based on the obtained display reference position are performed. A detailed description of the processing in the control unit 11 will be given later.

記憶部12は、制御部11によって実行されるプログラムを格納している。このプログラムはDVD−ROM等のコンピュータ可読な記録媒体に格納されて提供され、この記憶部12に複写されたものであってもよい。またこの記憶部12は制御部11のワークメモリとしても動作する。   The storage unit 12 stores a program executed by the control unit 11. This program may be provided by being stored in a computer-readable recording medium such as a DVD-ROM and copied to the storage unit 12. The storage unit 12 also operates as a work memory for the control unit 11.

撮像部13は、例えばカメラであり、外界の対象物(現実の物体)の方向の映像を逐次的に撮影して、当該撮影した映像をディジタルの画像データとして制御部11に出力する。図2に示した例の場合、利用者が装着すると、この撮像部13の撮像範囲は、利用者の視線方向と略同じ方向を撮像することになるが、視線の角度が異なるため、撮像部13が出力する画像データは、利用者が見ている像とは異なるものとなる。   The imaging unit 13 is, for example, a camera, and sequentially captures images in the direction of an external object (real object), and outputs the captured images to the control unit 11 as digital image data. In the case of the example shown in FIG. 2, when the user wears the imaging range of the imaging unit 13, the imaging direction is substantially the same as the user's viewing direction, but the viewing angle is different, so the imaging unit The image data output by 13 is different from the image viewed by the user.

本実施の形態では、この撮像部13のカメラは、ブリッジ24の一部に固定され、利用者が情報表示装置1を装着したときに、その視線の方向を撮像するように配される。
眼球検知部14は、 例えば撮像部13とは独立したカメラCと、近赤外光投光器Pとを備える。この眼球検知部14もまた、例えばブリッジ24の一部に固定される。そしてカメラC及び近赤外光投光器Pは、情報表示装置1を装着した利用者の、顔面の方向を撮像し、また顔面の方向に投光するよう配される。この眼球検知部14は、カメラCによって撮像された画像データを制御部11に出力する。すでに述べたように、眼球検知部14のカメラCと、撮像部13であるカメラとは、いずれもブリッジ24に固定され、互いの相対的な座標が変化しないよう固定されている。これにより眼球検知部14のカメラCの座標系Cc2と、撮像部13であるカメラの座標系Cc1とは相互に変換行列[Tc1,2]により変換可能となる。すなわち、
Cc2=[Tc1,2]Cc1、Cc1=[Tc1,2]-1Cc1=[Tc2,1]Cc1
である。
In the present embodiment, the camera of the imaging unit 13 is fixed to a part of the bridge 24 and is arranged so as to capture the direction of the line of sight when the user wears the information display device 1.
The eyeball detection unit 14 includes, for example, a camera C independent of the imaging unit 13 and a near-infrared light projector P. The eyeball detection unit 14 is also fixed to a part of the bridge 24, for example. The camera C and the near-infrared light projector P are arranged so as to capture the direction of the face of the user wearing the information display device 1 and project the light in the direction of the face. The eyeball detection unit 14 outputs image data captured by the camera C to the control unit 11. As described above, the camera C of the eyeball detection unit 14 and the camera that is the imaging unit 13 are both fixed to the bridge 24 and fixed so that their relative coordinates do not change. Thereby, the coordinate system Cc2 of the camera C of the eyeball detection unit 14 and the coordinate system Cc1 of the camera which is the imaging unit 13 can be converted to each other by the conversion matrix [Tc1,2]. That is,
Cc2 = [Tc1,2] Cc1, Cc1 = [Tc1,2] -1Cc1 = [Tc2,1] Cc1
It is.

透過型ディスプレイ15は、リム22により支持される。この透過型ディスプレイ15は、その表示面を通じて、その背面側にある対象物を見通すことのできる液晶表示パネルや有機ELパネル等であり、ディスプレイとしての機能を有する透明、ないし半透明の表示面を備える。このような透過型のディスプレイについても、広く知られているので、ここでの説明は省略する。   The transmissive display 15 is supported by the rim 22. The transmissive display 15 is a liquid crystal display panel, an organic EL panel or the like that can see an object on the back side through the display surface, and has a transparent or translucent display surface that functions as a display. Prepare. Since such a transmissive display is also widely known, a description thereof is omitted here.

この透過型ディスプレイ15は、制御部11から入力される指示に従って、当該表示面に情報を表示する。ここでの例では、この透過型ディスプレイ15もまた、ブリッジ24によって連結されたリム22によって支持されるため、撮像部13であるカメラの座標系(以下撮像部13の座標系と呼ぶ)Cc1と、この透過型ディスプレイ15の座標系Dpとの間の変換行列[Tc1,Dp]もまた既知のものとなる。   The transmissive display 15 displays information on the display surface according to an instruction input from the control unit 11. In this example, since the transmissive display 15 is also supported by the rim 22 connected by the bridge 24, the coordinate system of the camera as the imaging unit 13 (hereinafter referred to as the coordinate system of the imaging unit 13) Cc1 and The transformation matrix [Tc1, Dp] with respect to the coordinate system Dp of the transmissive display 15 is also known.

次に制御部11における処理の具体的内容について説明する。この制御部11は、機能的には、図3に示すように、キャリブレーション指示部31と、キャリブレーション処理部32と、情報表示部33とを含む。キャリブレーション指示部31は、予めキャリブレーションを行うべきタイミングとして定められた時点で、キャリブレーション処理部32に対してキャリブレーション処理の実行を指示する。このタイミングは例えば、電源投入後の予め定めた時間ごとに定期的に到来するタイミングとしてもよい。   Next, the specific content of the process in the control part 11 is demonstrated. Functionally, the control unit 11 includes a calibration instruction unit 31, a calibration processing unit 32, and an information display unit 33, as shown in FIG. The calibration instruction unit 31 instructs the calibration processing unit 32 to execute calibration processing at a time point that is determined in advance as a timing at which calibration should be performed. This timing may be, for example, a timing that comes regularly every predetermined time after power-on.

キャリブレーション処理部32は、キャリブレーション指示部31からキャリブレーション処理の実行指示が入力されると、次のキャリブレーション処理を実行する。なお、以下の説明において、制御部11は、撮像部13のカメラと、眼球検知部14のカメラCとのそれぞれについて、いわゆるThaiのカメラキャリブレーションアルゴリズムによって、それぞれの内外パラメータ、すなわち、光軸中心位置と、画素の縦横比と、撮像された対象物を基準とする世界座標系Cwに対するカメラ位置及び回転角(世界座標系とカメラ座標系との変換行列)とを含む情報を求めておく(R.Y.Tsai, "A Versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision Metrology Using Off-the-Shelf TV Cameras and Lenses", IEEE Journal of Robotics and Automation, Vol. RA-3, No.4, pp. 323-344, 1987)。   When the calibration processing unit 32 receives a calibration processing execution instruction from the calibration instruction unit 31, the calibration processing unit 32 executes the next calibration processing. In the following description, the control unit 11 uses the so-called Thai camera calibration algorithm for each of the camera of the imaging unit 13 and the camera C of the eyeball detection unit 14, that is, the optical axis center. Information including the position, the aspect ratio of the pixel, and the camera position and rotation angle (transformation matrix between the world coordinate system and the camera coordinate system) with respect to the world coordinate system Cw with the imaged object as a reference is obtained ( RYTsai, "A Versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision Metrology Using Off-the-Shelf TV Cameras and Lenses", IEEE Journal of Robotics and Automation, Vol. RA-3, No.4, pp. 323- 344, 1987).

ここで撮像部13のカメラと眼球検知部14のカメラCとのそれぞれについて世界座標系Cwは一般に異なる。ここでは眼球検知部14のカメラCが撮像した画像データ(利用者の顔面方向の画像データ)から求められた世界座標系を利用者座標系Wuとする。
本実施の形態において外界座標系Wpは、例えば撮像部13の座標系Cc1そのものであってもよいし、撮像部13の座標系Cc1についての世界座標系であってもよい。
Here, the world coordinate system Cw is generally different for each of the camera of the imaging unit 13 and the camera C of the eyeball detection unit 14. Here, a world coordinate system obtained from image data (image data in the user's face direction) captured by the camera C of the eyeball detection unit 14 is defined as a user coordinate system Wu.
In the present embodiment, the external world coordinate system Wp may be, for example, the coordinate system Cc1 itself of the imaging unit 13, or may be the world coordinate system for the coordinate system Cc1 of the imaging unit 13.

また一例として制御部11は、撮像部13から得た画像データに基づき、当該画像データ内に撮像された路面や床面、あるいは壁面を構成する面内に仮想的な矩形状領域を形成する。この矩形状領域の形成は、例えば利用者が車両運行中など、外界座標系Wpに対して並進移動しているならば、PTAM(Parallel Tracking and Mapping)と呼ばれる方法等が採用できる。このPTAMについては、Georg Klein and David Murray, "Parallel Tracking and Mapping for Small AR Workspaces", In Proc. International Symposium on Mixed and Augmented Reality (ISMAR '07), 2007等に詳しい説明があるので、ここでの詳細な説明を省略する。制御部11は、この矩形状領域内に、例えば予め指定された情報を表示する。   Further, as an example, the control unit 11 forms a virtual rectangular area on the road surface, floor surface, or surface constituting the wall surface imaged in the image data based on the image data obtained from the imaging unit 13. This rectangular area can be formed by adopting a method called PTAM (Parallel Tracking and Mapping) if the user is moving in translation with respect to the external coordinate system Wp, for example, during vehicle operation. This PTAM is described in detail in Georg Klein and David Murray, "Parallel Tracking and Mapping for Small AR Workspaces", In Proc. International Symposium on Mixed and Augmented Reality (ISMAR '07), 2007, etc. Detailed description is omitted. The control unit 11 displays, for example, predesignated information in this rectangular area.

キャリブレーション処理部32は、図4に例示するように、眼球検知部14が出力する画像データを取得する(S1)。そして利用者の視線ベクトルVと瞳孔中心とを推定する(S2)。ここで瞳孔中心は、利用者が移動せず、また顔を動かすことがない場合に、眼球の動きの中心座標に相当する。   As illustrated in FIG. 4, the calibration processing unit 32 acquires image data output from the eyeball detection unit 14 (S1). Then, the user's line-of-sight vector V and the pupil center are estimated (S2). Here, the pupil center corresponds to the center coordinates of the movement of the eyeball when the user does not move and the face does not move.

本実施の形態のある例では、キャリブレーション処理部32は、大野健彦ほか,「眼球形状モデルに基づく視線測定法」,第8回画像センシングシンポジウム,pp.307-312,2002の方法を用いて視線方向としての利用者の視点の座標系Epを推定する。この方法では、瞳の位置(瞳孔中心)と、角膜表面反射光(プルキニエ像)とを用いる。   In an example of this embodiment, the calibration processing unit 32 uses the method of Takehiko Ohno et al., “Gaze measurement method based on eyeball shape model”, 8th Image Sensing Symposium, pp.307-312,2002. A coordinate system Ep of the user's viewpoint as the line-of-sight direction is estimated. In this method, the position of the pupil (pupil center) and the corneal surface reflected light (Purkinje image) are used.

キャリブレーション処理部32は、つぎに処理S1で取得した画像データから利用者の瞳を検出する。このような瞳の検出技術については、例えば加島英樹ほか,「顔の向きの変化に強い瞳検出方法の研究」,情報処理学会研究報告. CVIM, 2001(36), 139-144, 2001-05-10 等、種々の方法があるので、詳しい説明を省略する。   Next, the calibration processing unit 32 detects the user's pupil from the image data acquired in step S1. For such pupil detection technology, for example, Hideki Kashima et al., "Study on pupil detection methods that are resistant to face orientation changes", IPSJ Research Report. CVIM, 2001 (36), 139-144, 2001-05 Since there are various methods such as -10, detailed explanation is omitted.

キャリブレーション処理部32は、また、処理S1で取得した画像データ内で輝点(予め定めた輝度より高い輝度の画素)を抽出し、利用者の瞳が検出された位置に最も近い輝点の中心をプルキニエ像であると定める。以下、このプルキニエ像の座標をu0とおく。また眼球検知部14のカメラCのフォーカスが最も合った位置における焦点距離から、このカメラCからプルキニエ像までの距離が求められる。すると、既知の方法より、プルキニエ像の座標u0、カメラCからプルキニエ像までの距離、並びにカメラCの内外パラメータより、利用者座標系Wuにおけるプルキニエ像の位置ベクトルuを求めることができる。   The calibration processing unit 32 also extracts a bright spot (a pixel having a brightness higher than a predetermined brightness) from the image data acquired in the process S1, and determines the bright spot closest to the position where the user's pupil is detected. The center is determined to be a Purkinje statue. Hereinafter, the coordinates of this Purkinje image are set as u0. Further, the distance from the camera C to the Purkinje image is obtained from the focal length of the eyeball detection unit 14 at the position where the camera C is most focused. Then, the position vector u of the Purkinje image in the user coordinate system Wu can be obtained from the known method using the coordinates u0 of the Purkinje image, the distance from the camera C to the Purkinje image, and the internal and external parameters of the camera C.

さらにキャリブレーション処理部32は、瞳孔中心の画像データ上の座標位置puと、カメラCから瞳孔中心までの距離と、カメラCの内外パラメータと、から、利用者座標系Wuにおける瞳孔中心の位置ベクトルPを求める。ここでカメラCから瞳孔中心までの距離は近似的に次のように求めてもよい。すなわち、予め、利用者として想定される人物について、角膜表面から瞳孔の位置までの距離l(小児と大人とでは異なることが考えられる)をモデルとして設定しておく。そして、カメラCからプルキニエ像までの距離にこの距離lを加算した値を、近似的なカメラCから瞳孔中心までの距離として用いる。   Further, the calibration processing unit 32 calculates the position vector of the pupil center in the user coordinate system Wu from the coordinate position pu on the image data of the pupil center, the distance from the camera C to the pupil center, and the internal and external parameters of the camera C. Find P. Here, the distance from the camera C to the pupil center may be approximately calculated as follows. That is, for a person assumed as a user, a distance l from the corneal surface to the position of the pupil (which may be different between a child and an adult) is set as a model in advance. A value obtained by adding this distance l to the distance from the camera C to the Purkinje image is used as the approximate distance from the camera C to the pupil center.

次にキャリブレーション処理部32は、プルキニエ像から、角膜曲率中心を求める。ここでは利用者として想定される人物の平均的な角膜曲率半径Rを予め定めておく。すると、利用者座標系Wuにおける角膜曲率中心のベクトルr(視点位置)が、次の(1)式で与えられる。   Next, the calibration processing unit 32 obtains the corneal curvature center from the Purkinje image. Here, an average corneal curvature radius R of a person assumed as a user is determined in advance. Then, the vector r (viewpoint position) of the corneal curvature center in the user coordinate system Wu is given by the following equation (1).

Figure 0005799776
Figure 0005799776

なお、(1)において、||u||は、uのノルムを表す。
キャリブレーション処理部32は、これら利用者座標系Wuにおける瞳孔中心の位置ベクトルPと、角膜曲率中心のベクトルcとから、V=P−rとして、利用者座標系Wuにおける利用者の視線ベクトルVを求める。
In (1), || u || represents the norm of u.
The calibration processing unit 32 uses the position vector P of the pupil center in the user coordinate system Wu and the vector c of the corneal curvature center as V = Pr, and the user's line-of-sight vector V in the user coordinate system Wu. Ask for.

キャリブレーション処理部32は次に、眼球検知部14のカメラCについて求められている、利用者座標系WuからカメラCのカメラ座標系Cc2への変換行列[Twu,c2](=[Tc2,wu]-1、ただし[Tc2,wu]は、カメラCのカメラ座標系Cc2から利用者座標系Wuへの変換行列)と、利用者座標系Wuとを用いて、カメラCのカメラ座標系Cc2における利用者の視線ベクトルVc2、及び瞳孔中心の位置ベクトルPc2を求める(S3)。すなわち、
Vc2=[Twu,c2]V
Pc2=[Twu,c2]P
とする。
Next, the calibration processing unit 32 converts the transformation matrix [Twu, c2] (= [Tc2, wu) from the user coordinate system Wu to the camera coordinate system Cc2 of the camera C, which is obtained for the camera C of the eyeball detection unit 14. ], Where [Tc2, wu] is a transformation matrix from the camera coordinate system Cc2 of the camera C to the user coordinate system Wu) and the user coordinate system Wu in the camera coordinate system Cc2 of the camera C. A user's line-of-sight vector Vc2 and a pupil center position vector Pc2 are obtained (S3). That is,
Vc2 = [Twu, c2] V
Pc2 = [Twu, c2] P
And

キャリブレーション処理部32は、このカメラ座標系Cc2における利用者の視線ベクトルVc2及び瞳孔中心の位置ベクトルPc2を、撮像部13の座標系Cc1における利用者の視線ベクトルVc1及び瞳孔中心の位置ベクトルPc1に変換する(S4)。この変換は、
Vc1=[Tc1,2]-1Vc2
Pc1=[Tc1,2]-1Pc2
で行われる。
The calibration processing unit 32 converts the user's line-of-sight vector Vc2 and pupil center position vector Pc2 in the camera coordinate system Cc2 into the user's line-of-sight vector Vc1 and pupil center position vector Pc1 in the coordinate system Cc1 of the imaging unit 13. Conversion is performed (S4). This conversion is
Vc1 = [Tc1,2] -1Vc2
Pc1 = [Tc1,2] -1Pc2
Done in

これにより、図5に例示するように、位置ベクトルPc1を原点とし、視線ベクトルVc1を一つの座標軸(ξ軸)とする座標系が規定される。キャリブレーション処理部32は、さらに視線ベクトルVc1を法線ベクトルとする平面内に、互いに直行する2つの座標軸(η軸,ζ軸)を決定して、利用者の視野座標系Eを規定する(S5)。具体的にキャリブレーション処理部32は、プルキニエ像の位置ベクトルu(カメラ座標系Cc2による)を、撮像部13の座標系Cc1におけるベクトルに変換する。すなわち、
uc1=[Tc1,2]-1u
とする。
Thus, as illustrated in FIG. 5, a coordinate system is defined in which the position vector Pc1 is the origin and the line-of-sight vector Vc1 is one coordinate axis (ξ axis). The calibration processing unit 32 further determines two coordinate axes (η axis and ζ axis) orthogonal to each other in a plane having the line-of-sight vector Vc1 as a normal vector, thereby defining the user's visual field coordinate system E ( S5). Specifically, the calibration processing unit 32 converts the position vector u of the Purkinje image (by the camera coordinate system Cc2) into a vector in the coordinate system Cc1 of the imaging unit 13. That is,
uc1 = [Tc1,2] -1u
And

そしてキャリブレーション処理部32は、視線ベクトルVc1を法線ベクトルとする平面内にベクトル
uc1−Vc1
を射影したときの当該射影ベクトルuの方向をη軸とし、視線ベクトルVc1を法線ベクトルとする平面内でこれらξ軸,η軸の双方に直交するベクトル、例えば
u×Vc1
で求められるベクトルの方向をζ軸とする。なお、
uc1−Vc1
がゼロベクトルとなる場合(利用者が偶々近赤外光投光器Pの方向を見ていた場合)は、キャリブレーション処理部32は、処理S1へ戻って処理を繰り返すこととしてもよい。
Then, the calibration processing unit 32 generates a vector uc1−Vc1 in a plane having the line-of-sight vector Vc1 as a normal vector.
Is a vector orthogonal to both the ξ-axis and the η-axis, for example, u × Vc1 in a plane having the direction of the projection vector u when projected as the η-axis and the line-of-sight vector Vc1 as the normal vector.
Let the direction of the vector obtained in step be the ζ axis. In addition,
uc1−Vc1
Is zero vector (when the user happens to look in the direction of the near-infrared light projector P), the calibration processing unit 32 may return to the processing S1 and repeat the processing.

キャリブレーション処理部32は、例えば以上のようにして求めた利用者の視野座標系Eと外界座標系Wpとの間の変換行列を求める(S6)。すでに利用者の視野座標系は、撮像部13の座標系Cc1内のベクトルにより規定されているので、撮像部13の座標系Cc1から利用者の視野座標系Eへの変換行列[TE,c1]は演算できる。   The calibration processing unit 32 obtains a conversion matrix between the user's visual field coordinate system E and the external world coordinate system Wp obtained as described above, for example (S6). Since the user's visual field coordinate system is already defined by a vector in the coordinate system Cc1 of the imaging unit 13, a transformation matrix [TE, c1] from the coordinate system Cc1 of the imaging unit 13 to the visual field coordinate system E of the user Can be computed.

外界座標系Wpが、撮像部13の座標系Cc1そのものである場合は、この変換行列[TE,c1]がそのまま外界座標系Wpから視野座標系Eへの変換行列[TE,wp]となる。   When the external coordinate system Wp is the coordinate system Cc1 itself of the imaging unit 13, this conversion matrix [TE, c1] becomes the conversion matrix [TE, wp] from the external world coordinate system Wp to the visual field coordinate system E as it is.

また外界座標系Wpが、撮像部13の座標系Cc1そのものでない場合は、キャリブレーション処理部32は、この変換行列[TE,c1]に、撮像部13である外界座標系Wpからカメラの座標系Cc1への変換行列[Tc1,wp](=[Twp,c1]-1、ただし[Twp,c1]は、カメラ座標系Cc1から外界座標系Wpへの変換行列)を右から乗じて、外界座標系Wpから視野座標系Eへの変換行列[TE,wp]=[TE,c1][Tc1,wp]を求めればよい。   If the external coordinate system Wp is not the coordinate system Cc1 itself of the imaging unit 13, the calibration processing unit 32 uses the transformation matrix [TE, c1] to convert the external coordinate system Wp, which is the imaging unit 13, to the camera coordinate system. Multiply the transformation matrix [Tc1, wp] to Cc1 (= [Twp, c1] -1, where [Twp, c1] is the transformation matrix from the camera coordinate system Cc1 to the outer world coordinate system Wp) by multiplying it from the right. A transformation matrix [TE, wp] = [TE, c1] [Tc1, wp] from the system Wp to the visual field coordinate system E may be obtained.

なお、視野座標系Eから外界座標系Wpへの変換行列は、変換行列[TE,c1]の逆行列[TE,wp]-1として与えられる。キャリブレーション処理部32は、また透過型ディスプレイ15の座標系Dpとの間の変換行列[Tc1,Dp]に、変換行列[TE,c1]を乗じ、その逆行列を演算することで、視野座標系Eを、透過型ディスプレイ15の座標系Dp(2次元座標)へ投影する変換行列
[TDp,E]=[TE,Dp]-1=[[TE,c1][Tc1,Dp]]-1
を得る。
Note that the transformation matrix from the visual field coordinate system E to the external world coordinate system Wp is given as an inverse matrix [TE, wp] -1 of the transformation matrix [TE, c1]. The calibration processing unit 32 also multiplies the transformation matrix [Tc1, Dp] with the coordinate system Dp of the transmissive display 15 by the transformation matrix [TE, c1], and calculates the inverse matrix to obtain the visual field coordinates. The transformation matrix [TDp, E] = [TE, Dp] -1 = [[TE, c1] [Tc1, Dp]]-1 for projecting the system E onto the coordinate system Dp (two-dimensional coordinates) of the transmissive display 15
Get.

ここで求めた外界座標系Wpから視野座標系Eへの変換行列[TE,wp](またはその逆行列[TE,wp]-1)及び、視野座標系Eから透過型ディスプレイ15の座標系Dpへの変換行列[TDp,E]を、キャリブレーションパラメータとして記憶部12に保持し(S7)、キャリブレーションの処理を終了する。そしてキャリブレーション処理部32は、処理を終了した旨を表す情報を出力する。   The transformation matrix [TE, wp] (or its inverse matrix [TE, wp] -1) from the external world coordinate system Wp to the visual field coordinate system E obtained here, and the coordinate system Dp of the transmissive display 15 from the visual field coordinate system E The conversion matrix [TDp, E] into is stored in the storage unit 12 as a calibration parameter (S7), and the calibration process is terminated. And the calibration process part 32 outputs the information showing that the process was complete | finished.

なお、このキャリブレーション処理部32は、それぞれの座標系の変換行列が既知である二つのカメラを用い、一方側で利用者の視線ベクトルを検出し、他方側で利用者が視認する外界の座標系との変換行列を得ておき、視線ベクトルを用いて規定できる利用者の視野座標系と、外界座標系との変換行列を求めることができればどのような方法を用いてもよく、ここで述べた方法に限らず、他の方法を用いてもよい。   The calibration processing unit 32 uses two cameras whose transformation matrices of the respective coordinate systems are known, detects a user's line-of-sight vector on one side, and coordinates of the outside world visually recognized by the user on the other side. Any method can be used as long as the transformation matrix between the user's visual field coordinate system that can be defined using the line-of-sight vector and the external field coordinate system can be obtained. Not only the method but also other methods may be used.

制御部11の情報表示部33は、キャリブレーション処理部32から処理を終了した旨を表す情報を受けると、情報の表示処理を開始する。本実施の形態のある例では、記憶部12に予め、図6に示すように、外界にあるべき長方形の画像部分(I)と、当該画像部分に対応して表示されるべき情報(文字列やビットマップイメージ等;R)と、当該画像部分の現実の大きさを表す情報(サイズ情報;例えば実際の対象物における当該長方形の対角線長さなど)を関連付けたエントリーを含んだデータベースが保持されているものとする。   When the information display unit 33 of the control unit 11 receives information indicating that the processing is completed from the calibration processing unit 32, the information display unit 33 starts the information display processing. In an example of the present embodiment, as shown in FIG. 6, a rectangular image portion (I) that should be in the outside world and information (character string) to be displayed corresponding to the image portion in advance in the storage unit 12. And a bitmap image or the like; R) and a database including entries that associate information indicating the actual size of the image portion (size information; for example, the diagonal length of the rectangle of the actual object) It shall be.

情報表示部33は、図7に例示するように、撮像部13が出力する画像データから、PTAM等マーカーレス拡張現実の方法により外界座標系Wp中で検出される対象物の範囲にある部分画像を抽出する。ここでは例えば矩形状(複数ある場合はそのそれぞれ)の範囲を検出して、当該矩形上の範囲に含まれる部分画像を抽出し(S11)、検出した矩形状の部分画像を長方形状に変換する処理を実行する。この処理は射影ひずみを補正する画像処理として広く知られた処理を利用できる。情報表示部33は、さらに得られた長方形状の部分画像から照合用の画像を少なくとも一つ生成する(S12)。一例としてこの情報表示部33は、得られた長方形状の部分画像を90度、180度、270度だけ回転させた画像を生成して、検出した矩形状ごとに4つずつの長方形状の部分画像のセット(i番目の矩形状についてセットSiとする)を得る。   As illustrated in FIG. 7, the information display unit 33 is a partial image in the range of an object detected in the external coordinate system Wp from the image data output from the imaging unit 13 by a markerless augmented reality method such as PTAM. To extract. Here, for example, a rectangular range (each of which has a plurality of rectangles) is detected, a partial image included in the rectangular range is extracted (S11), and the detected rectangular partial image is converted into a rectangular shape. Execute the process. For this process, a process widely known as an image process for correcting projection distortion can be used. The information display unit 33 further generates at least one image for collation from the obtained rectangular partial image (S12). As an example, the information display unit 33 generates an image obtained by rotating the obtained rectangular partial image by 90 degrees, 180 degrees, and 270 degrees, and four rectangular parts for each detected rectangular shape. Obtain a set of images (set i for the i-th rectangle).

情報表示部33は、予め記憶部12に格納されたデータベースを参照して、得られたセットSi(i=1,2…)に含まれる4つの画像のいずれかに一致する画像を含むエントリーがあるか否か(照合用の画像を含むエントリーがあるか否か)を調べる(S13)。そして情報表示部33は、セットSj(j=1,2…)に含まれる4つの画像のいずれかに一致する画像を含むエントリーがあれば(Yesならば)、当該エントリーに含まれる表示対象の情報と、サイズ情報とをとり出す(S14)。そして、撮像部13が撮像した画像データにおいて、セットSjに含まれる部分画像の元となった矩形状が見いだされた位置の座標と、見いだした矩形状のサイズ、並びに、データベースから取り出したサイズ情報とを用いて、撮像部13の座標系Cc1内における当該矩形状の座標情報σj(4つの頂点の座標の組等)を得る(S15)。この情報の演算も広く知られているので、ここでの詳しい説明を省略する。   The information display unit 33 refers to the database stored in the storage unit 12 in advance, and an entry including an image that matches one of the four images included in the obtained set Si (i = 1, 2,...). It is checked whether there is an entry (whether there is an entry including an image for verification) (S13). If there is an entry including an image that matches any of the four images included in the set Sj (j = 1, 2,...) (If Yes), the information display unit 33 displays the display target included in the entry. Information and size information are taken out (S14). Then, in the image data picked up by the image pickup unit 13, the coordinates of the position where the rectangular shape that is the source of the partial image included in the set Sj is found, the size of the found rectangular shape, and the size information extracted from the database Are used to obtain the rectangular coordinate information σj (a set of coordinates of four vertices, etc.) in the coordinate system Cc1 of the imaging unit 13 (S15). Since the calculation of this information is also widely known, detailed description thereof is omitted here.

外界座標系Wpが、撮像部13の座標系Cc1そのものである場合、情報表示部33は、このσjに含まれる座標の情報に対して、キャリブレーションパラメータとしての変換行列[TE,wp]、すなわち変換行列[TE,c1]を乗じて利用者の視野座標系Eでの座標情報σ″jに変換する。また情報表示部33は、外界座標系Wpが、撮像部13の座標系Cc1とは異なる場合、このσjに含まれる座標の情報に対して、変換行列[TWp,c1]を乗じてこれらの座標の情報を外界座標系Wp内の座標情報σ′jに変換し、さらにこれにキャリブレーションパラメータとしての変換行列[TE,wp]を乗じて、利用者の視野座標系Eでの座標情報σ″jに変換する(S16)。後者の方法によると、情報表示部33は、撮像部13の座標系Cc1とは異なる外界座標系Wp内での対象物の座標情報σjが与えられれば利用者の視野座標系Eでの座標情報σ″jを得ることができる。すなわち、対象物の座標情報σjを撮像部13以外で得て情報表示の処理を行うことも可能となる。   When the external coordinate system Wp is the coordinate system Cc1 itself of the imaging unit 13, the information display unit 33 converts the transformation matrix [TE, wp] as a calibration parameter for the coordinate information included in σj, that is, The transformation matrix [TE, c1] is multiplied to transform into coordinate information σ ″ j in the user's visual field coordinate system E. Further, the information display unit 33 has an external coordinate system Wp that is different from the coordinate system Cc1 of the imaging unit 13. If they are different, the coordinate information contained in this σj is multiplied by a conversion matrix [TWp, c1] to convert the information of these coordinates into coordinate information σ′j in the external coordinate system Wp, and further calibrated to this. Multiplying by the conversion matrix [TE, wp] as an operation parameter, it is converted into coordinate information σ ″ j in the user's visual field coordinate system E (S16). According to the latter method, the information display unit 33 is provided with coordinate information in the visual field coordinate system E of the user if given the coordinate information σj of the object in the external coordinate system Wp different from the coordinate system Cc1 of the imaging unit 13. σ ″ j can be obtained. In other words, the coordinate information σj of the object can be obtained by a device other than the imaging unit 13 and information processing can be performed.

また情報表示部33は、キャリブレーションパラメータとしての変換行列[TDp,E]を用いて、座標情報σ″jに含まれる座標の情報を、透過型ディスプレイ15上の点座標Q1(x1,y1),Q2(x2,y2)…の値に変換する(S17)。情報表示部33は、これから例えばこれらの点座標Q1(x1,y1),Q2(x2,y2)…の平均値Qave(x,y)=((x1+x2+…+xn/n),(y1+y2+…+yn/n))を演算して、このQave(x,y)の近傍(予め定めたピクセル数未満だけ離れた位置)に、データベースから取り出した表示対象の情報を表示する(S18)。   Further, the information display unit 33 uses the transformation matrix [TDp, E] as the calibration parameter to convert the coordinate information included in the coordinate information σ ″ j into the point coordinates Q1 (x1, y1) on the transmissive display 15. , Q2 (x2, y2), etc. (S17) The information display unit 33 will now calculate, for example, the average value Qave (x, x2) of these point coordinates Q1, (x1, y1), Q2 (x2, y2),. y) = ((x 1 + x 2 +... + xn / n), (y 1 + y 2 +... + yn / n)) is calculated from the database in the vicinity of Qave (x, y) (position separated by a predetermined number of pixels). The retrieved display target information is displayed (S18).

なお、処理S12からS18までは処理S11で抽出した矩形ごとにループして繰り返して行う。また処理S13で該当するエントリーがなければ(Noならば)、次の矩形についての処理を行う。すべての矩形について処理を行ったならば、情報表示部33は処理を終了する。   Note that steps S12 to S18 are repeatedly performed in a loop for each rectangle extracted in step S11. If there is no corresponding entry in the process S13 (if No), the process for the next rectangle is performed. If the process has been performed for all rectangles, the information display unit 33 ends the process.

このように本実施の形態では、利用者の視線ベクトルを検出し、当該検出した視線ベクトルを座標軸の一つとする利用者の視野座標系を設定する。そして利用者の視野にある対象物についても、この視野座標系でその位置を表し、次いで視野座標系から透過型ディスプレイ15の表示面内の座標系へ座標を変換して、対象物に関する情報の表示位置を得る。そして対象物に関する情報を当該得た位置に配することで、利用者の視線の方向を考慮した位置に情報が表示されることとなる。   In this way, in this embodiment, the user's line-of-sight vector is detected, and the user's visual field coordinate system is set with the detected line-of-sight vector as one of the coordinate axes. The position of the object in the user's field of view is also expressed in this field of view coordinate system, and then the coordinates are converted from the field of view coordinate system to the coordinate system in the display surface of the transmissive display 15 to obtain information on the object. Get the display position. Then, by arranging the information regarding the object at the obtained position, the information is displayed at the position in consideration of the direction of the user's line of sight.

また、本実施の形態のここまでの説明では、利用者が本実施の形態の情報表示装置1を装着後、定期的にキャリブレーションを行うものとしていた。しかしながら本実施の形態はこれに限られない。すなわち情報表示装置1が眼鏡の形状をなす場合、装着後のずれはわずかと考えられることから、利用者が頭部に本実施の形態の情報表示装置1を装着したことを検出する装着センサ16をさらに備えて、情報表示装置1が利用者の頭部に装着されたことが、この装着センサ16によって検出された時点で、キャリブレーション指示部31がキャリブレーションの処理を行うべき旨の指示を出力することとしてもよい。   In the above description of the present embodiment, the user periodically performs calibration after wearing the information display device 1 of the present embodiment. However, the present embodiment is not limited to this. That is, when the information display device 1 has the shape of eyeglasses, the displacement after wearing is considered to be slight, so that the wearing sensor 16 detects that the user has worn the information display device 1 of the present embodiment on the head. The calibration instruction unit 31 gives an instruction to perform the calibration process when the mounting sensor 16 detects that the information display device 1 is mounted on the user's head. It is good also as outputting.

具体的にこの装着センサ16は、例えば赤外線を放射して、その反射光により物体が近接していることを検出する近接センサー等でよく、テンプル21に取り付けておけばよい。この装着センサ16は、物体が近接していない間はその出力がLとなっており、物体が近接すると出力がHとなる。   Specifically, the mounting sensor 16 may be, for example, a proximity sensor that radiates infrared rays and detects that an object is approaching by the reflected light, and may be attached to the temple 21. The output of the wearing sensor 16 is L while the object is not close, and the output is H when the object is close.

制御部11は、キャリブレーション指示部31として機能する際に、装着センサ16の出力がLからHへ変化し、その後Hの状態が予め定めた時間に亘って継続するときに、利用者が情報表示装置1を装着したものとし、キャリブレーションを行うべきタイミングが到来したとして、キャリブレーションの処理を行うべき旨の指示を出力する。   When the control unit 11 functions as the calibration instruction unit 31, when the output of the mounting sensor 16 changes from L to H and then the state of H continues for a predetermined time, the user receives information Assuming that the display device 1 is attached and the timing for performing calibration has arrived, an instruction to perform calibration processing is output.

また本実施の形態の情報処理装置1は、情報処理装置1が装着された後に、当該情報処理装置1と視点位置との相対的位置変動を検出する手段としての変位センサ17をさらに備えてもよい。この変位センサ17は、例えば次のようなものである。すなわち、ここでの例では情報処理装置1は眼鏡の形状を備えているが、眼鏡では一般に装着後の位置ずれは主に、テンプル21が利用者の耳にかかっている部分を中心として、情報処理装置1が利用者の顔に対して上下方向に(つまり仰角方向に)回転することによって生じる。そこでこの変位センサ17は、テンプル21に取り付けられ、鉛直下方に対するテンプル21の仰角角度を検出する傾斜センサでよい。一例としてこの変位センサ17は、仰角に比例した電圧信号を出力する。   In addition, the information processing apparatus 1 according to the present embodiment further includes a displacement sensor 17 as means for detecting a relative position variation between the information processing apparatus 1 and the viewpoint position after the information processing apparatus 1 is mounted. Good. The displacement sensor 17 is, for example, as follows. That is, in this example, the information processing apparatus 1 has the shape of glasses. However, in the glasses, in general, the positional deviation after wearing is mainly information about the portion where the temple 21 is on the user's ear. This occurs when the processing device 1 rotates in the vertical direction (that is, in the elevation direction) with respect to the user's face. Therefore, the displacement sensor 17 may be an inclination sensor that is attached to the temple 21 and detects the elevation angle of the temple 21 with respect to the vertically downward direction. As an example, the displacement sensor 17 outputs a voltage signal proportional to the elevation angle.

制御部11は、キャリブレーション処理部32として機能する際に、この変位センサ17が出力する電圧信号からキャリブレーション処理時の仰角の情報θ0を生成し、キャリブレーションパラメータに含めて記憶部12に格納しておく。   When the control unit 11 functions as the calibration processing unit 32, it generates elevation angle information θ 0 at the time of calibration processing from the voltage signal output from the displacement sensor 17, and stores it in the storage unit 12 as a calibration parameter. Keep it.

その後、制御部11は、予め定めたタイミングごとに繰り返して、この変位センサ17の出力する電圧信号から仰角の情報θを生成する。そして当該生成した仰角の情報θと、記憶部12に格納されたキャリブレーションパラメータに含まれる、キャリブレーション処理時の仰角の情報θ0とを比較し、その差の絶対値、Δθ=|θ−θ0|を生成する。ここで|*|は、*の絶対値を意味する。   Thereafter, the control unit 11 repeatedly generates information on the elevation angle θ from the voltage signal output from the displacement sensor 17 at every predetermined timing. Then, the generated elevation angle information θ is compared with the elevation angle information θ0 included in the calibration parameter stored in the storage unit 12, and the absolute value of the difference, Δθ = | θ−θ0 | Is generated. Here, | * | means the absolute value of *.

制御部11は、Δθが予め定めたしきい値θthを超えたとき(Δθ>θthまたはΔθ≧θthのとき)に、キャリブレーション指示部31としての機能を実行して、キャリブレーションを行うべきタイミングが到来したとして、キャリブレーションの処理を行うべき旨の指示を出力する。   The control unit 11 performs the function as the calibration instruction unit 31 and performs calibration when Δθ exceeds a predetermined threshold θth (when Δθ> θth or Δθ ≧ θth). Is output, an instruction to perform the calibration process is output.

また制御部11は、しきい値を超えたときにキャリブレーションの処理を再度行うのではなく、次のようにしてもよい。すなわち、予め定めたタイミングごとに繰り返して変位センサ17の出力から取得する仰角の情報θと、キャリブレーションパラメータに含まれる、キャリブレーション処理時の仰角の情報θ0とを用い、変換行列を補正することとしてもよい。   Further, the control unit 11 may perform the following process instead of performing the calibration process again when the threshold value is exceeded. That is, the transformation matrix is corrected by using the elevation angle information θ obtained from the output of the displacement sensor 17 repeatedly at predetermined timings and the elevation angle information θ0 at the time of calibration processing included in the calibration parameter. It is good.

具体的に制御部11は、キャリブレーションパラメータとしての変換行列[TE,wp]に対して、外界座標系を仰角方向(外界座標系Wpにおいて鉛直面内の角度方向)にθ−θ0だけ回転補正する行列[Tθ]を乗じて補正した変換行列
[TE,wp]′=[TE,wp][Tθ]
を生成する。また、ここでの例では、撮像部13とともに透過型ディスプレイ15も同じ変位を受けるので、キャリブレーションパラメータとしての変換行列[TDp,E]に対しても同様に、透過型ディスプレイの座標系を仰角方向(透過型ディスプレイの座標系Dpにおいて鉛直面内の角度方向)にθ−θ0だけ回転補正する行列[Tθ]を乗じて補正した変換行列
[TDp,E]′=[Tθ][TDp,E]
を生成する。そして、以後はこれら補正後の変換行列[TE,wp]′と[TDp,E]′とを用いて、情報表示部33としての処理を実行する。
Specifically, the control unit 11 corrects rotation of the external coordinate system in the elevation direction (angle direction in the vertical plane in the external coordinate system Wp) by θ−θ0 with respect to the transformation matrix [TE, wp] as the calibration parameter. Transformation matrix [TE, wp] ′ = [TE, wp] [Tθ] corrected by multiplying by the matrix [Tθ]
Is generated. In the example here, the transmissive display 15 as well as the imaging unit 13 is subjected to the same displacement. Therefore, the coordinate system of the transmissive display is similarly set to the elevation angle for the transformation matrix [TDp, E] as the calibration parameter. The transformation matrix [TDp, E] ′ = [Tθ] [TDp, E corrected by multiplying the direction (angle direction in the vertical plane in the coordinate system Dp of the transmissive display) by the rotation correction matrix [Tθ] by θ−θ0 ]
Is generated. Thereafter, the processing as the information display unit 33 is executed using the corrected conversion matrices [TE, wp] ′ and [TDp, E] ′.

すなわち制御部11は、情報表示部33としての処理として、外界座標系Wp内において検出した矩形状の座標情報σj(4つの頂点の座標の組等)に、この補正後の変換行列[TE,wp]′を乗じて、利用者の視野座標系Eでの座標情報σ″jに変換する。また補正後の変換行列[TDp,E]′を用いて、座標情報σ″jに含まれる座標の情報を、透過型ディスプレイ15上の点座標Q1(x1,y1),Q2(x2,y2)…の値に変換する。情報表示部33は、これから例えばこれらの点座標Q1(x1,y1),Q2(x2,y2)…の平均値Qave(x,y)=((x1+x2+…+xn/n),(y1+y2+…+yn/n))を演算して、このQave(x,y)の近傍(予め定めたピクセル数未満だけ離れた位置)に、データベースから取り出した表示対象の情報を表示する。   That is, as a process of the information display unit 33, the control unit 11 converts the corrected transformation matrix [TE, TE, into rectangular coordinate information σj (a set of coordinates of four vertices, etc.) detected in the external coordinate system Wp. is multiplied by wp] ′ to convert to coordinate information σ ″ j in the user's visual field coordinate system E. Also, the coordinates included in the coordinate information σ ″ j using the corrected conversion matrix [TDp, E] ′ Is converted into values of point coordinates Q1 (x1, y1), Q2 (x2, y2)... On the transmissive display 15. From now on, the information display unit 33, for example, the average value Qave (x, y) = ((x1 + x2 + ... + xn / n), (y1 + y2 + ... + yn /) of these point coordinates Q1 (x1, y1), Q2 (x2, y2). n)) is calculated, and display target information extracted from the database is displayed in the vicinity of Qave (x, y) (a position separated by a predetermined number of pixels).

このように、キャリブレーションのタイミングを装着時点とすることで、キャリブレーション処理の回数を少なくでき、処理負荷を軽減できる。このような処理は、例えば車両の運行など、利用者の眼球の方向が極端に変化しない場合に効果的に適用できる。   In this way, by setting the calibration timing to the attachment time point, the number of calibration processes can be reduced, and the processing load can be reduced. Such processing can be effectively applied when the direction of the user's eyeball does not change extremely, for example, when the vehicle is running.

本実施の形態の情報表示装置1は、以上の構成を備えてなり、次のように動作する。本実施の形態の情報表示装置1のある例では、路上を車両で走行しているときに、運転者から視認できる看板類の画像と、各看板に関して予め設定された情報とを関連付けたエントリーを含むデータベースを記憶部12に保持している。   The information display device 1 of the present embodiment has the above configuration and operates as follows. In an example of the information display device 1 according to the present embodiment, an entry that associates an image of a signboard that can be visually recognized by the driver with information set in advance for each signboard when traveling on a road with a vehicle. A database including the data is stored in the storage unit 12.

この情報表示装置1を利用者が装着すると、情報表示装置1は、それから定期的にキャリブレーションの処理を行い、利用者の視線の方向を検出し、キャリブレーションパラメータとしての変換行列[TE,wp]、及び変換行列[TDp,E]を求める。   When the user wears this information display device 1, the information display device 1 then periodically performs a calibration process, detects the direction of the user's line of sight, and converts the transformation matrix [TE, wp as a calibration parameter. ] And a transformation matrix [TDp, E].

また情報表示装置1は、利用者の視認する方向にある対象物を撮像して得た画像データから、PTAM等マーカーレス拡張現実の方法により外界座標系Wp中で検出される矩形状(複数ある場合はそのそれぞれ)に含まれる部分画像を抽出し、検出した矩形状の部分画像を長方形状に変換する処理を実行する。また、得られた長方形状の部分画像を90度、180度、270度だけ回転させた画像を生成して、検出した矩形状ごとに4つずつの長方形状の部分画像のセット(i番目の矩形状についてセットSiとする)を得る。   In addition, the information display device 1 has a rectangular shape (a plurality of rectangles) detected in the external coordinate system Wp by using a markerless augmented reality method such as PTAM from image data obtained by imaging an object in the direction visually recognized by the user. In this case, the partial image included in each of them is extracted, and the detected rectangular partial image is converted into a rectangular shape. Further, an image obtained by rotating the obtained rectangular partial image by 90 degrees, 180 degrees, and 270 degrees is generated, and a set of four rectangular partial images for each detected rectangular shape (i th A set Si is obtained for a rectangular shape.

情報表示装置1は、予め記憶部12に格納されたデータベースを参照して、得られたセットSi(i=1,2…)に含まれる4つの画像のいずれかに一致する画像を含むエントリーがあるか否かを調べる。例えば、道路上の方面看板等は矩形であるので、この処理によって検出されることになる。そして情報表示装置1の記憶部12には予め、方面看板の画像に関連して表示するべき情報(例えば当該方面看板の近傍にある店舗の情報等)が関連付けられて保持されている。   The information display apparatus 1 refers to a database stored in the storage unit 12 in advance, and an entry including an image that matches one of the four images included in the obtained set Si (i = 1, 2,...) Check if there is any. For example, since the direction signboard on the road is rectangular, it is detected by this processing. Information that should be displayed in association with the image of the direction sign (for example, information on a store in the vicinity of the direction sign) is stored in the storage unit 12 of the information display device 1 in advance.

情報表示部33は、セットSj(j=1,2…)に含まれる4つの画像のいずれかに一致する画像を含むエントリーを見出すと、当該エントリーに含まれる表示対象の情報と、サイズ情報とをとり出す。そして、撮像部13が撮像した画像データにおいて、セットSjに含まれる部分画像の元となった矩形状が見いだされた位置の座標と、見いだした矩形状のサイズ、並びに、データベースから取り出したサイズ情報とを用いて外界座標系Wp内における当該矩形状の座標情報σj(4つの頂点の座標の組等)を得る。つまり、例えば方面看板の近傍にある店舗の情報等が得られる。   When the information display unit 33 finds an entry including an image that matches one of the four images included in the set Sj (j = 1, 2,...), The information to be displayed, the size information, Take out. Then, in the image data picked up by the image pickup unit 13, the coordinates of the position where the rectangular shape that is the source of the partial image included in the set Sj is found, the size of the found rectangular shape, and the size information extracted from the database Are used to obtain the rectangular coordinate information σj (a set of coordinates of four vertices, etc.) in the external coordinate system Wp. That is, for example, information on a store near the direction signboard can be obtained.

情報表示装置1は、当該矩形状の座標情報σjに、この変換行列[TE,wp]を乗じて、利用者の視野座標系Eでの座標情報σ″jに変換する。また情報表示装置1は、補正後の変換行列[TDp,E]を用いて、座標情報σ″jに含まれる座標の情報を、透過型ディスプレイ15上の点座標Q1(x1,y1),Q2(x2,y2)…の値に変換する。情報表示装置1は、これから例えばこれらの点座標Q1(x1,y1),Q2(x2,y2)…の平均値Qave(x,y)=((x1+x2+…+xn/n),(y1+y2+…+yn/n))を演算して、このQave(x,y)の近傍(予め定めたピクセル数未満だけ離れた位置)に、データベースから取り出した表示対象の情報(近傍の店舗の情報等)を表示する。   The information display device 1 multiplies the rectangular coordinate information σj by this conversion matrix [TE, wp] to convert it into coordinate information σ ″ j in the user's visual field coordinate system E. Also, the information display device 1. Uses the corrected transformation matrix [TDp, E] to convert the coordinate information included in the coordinate information σ ″ j into point coordinates Q1 (x1, y1), Q2 (x2, y2) on the transmissive display 15. Convert to the value of…. From now on, the information display device 1, for example, average values Qave (x, y) = ((x1 + x2 + ... + xn / n), (y1 + y2 + ... + yn /) of these point coordinates Q1 (x1, y1), Q2 (x2, y2). n)) is calculated, and display target information (such as information on nearby stores) extracted from the database is displayed in the vicinity of Qave (x, y) (a position separated by a predetermined number of pixels). .

[変形例]
また本実施の形態のここまでの説明では、図2に例示したように、眼鏡の形状をなす場合、つまりヘッドマウントディスプレイとして情報表示装置1を実装した場合を例として説明したが、本発明の実施の形態はこれに限られるものではない。
[Modification]
In the above description of the present embodiment, as illustrated in FIG. 2, the case where the shape of glasses is formed, that is, the case where the information display device 1 is mounted as a head mounted display has been described as an example. The embodiment is not limited to this.

例えば本実施の形態の透過型ディスプレイ15は、車両のフロントガラス等であってもよい。この場合、撮像部13及び眼球検知部14はこのフロントガラス、またはフロントガラスに対して相対的な位置が変化しない位置(フロントガラスのフレームやダッシュボード等)に配されてもよい。このようにすることによっても、撮像部13の座標系Cc1と、この透過型ディスプレイ15の座標系Dpとの間の変換行列[Tc1,Dp]もまた既知のものとなり、撮像部13の座標系Cc1と、透過型ディスプレイ15の座標系Dpとの間の変換行列[Tc1,Dp]もまた既知のものとなる。従ってこの場合も、既に述べた例と同様にして処理を行うことにより、利用者の視線方向を考慮した情報の表示が可能となる。   For example, the transmissive display 15 of the present embodiment may be a vehicle windshield or the like. In this case, the imaging unit 13 and the eyeball detection unit 14 may be arranged on the windshield or a position where the relative position with respect to the windshield does not change (a windshield frame, a dashboard, or the like). Also by doing this, the transformation matrix [Tc1, Dp] between the coordinate system Cc1 of the imaging unit 13 and the coordinate system Dp of the transmissive display 15 is also known, and the coordinate system of the imaging unit 13 is also known. The transformation matrix [Tc1, Dp] between Cc1 and the coordinate system Dp of the transmissive display 15 is also known. Therefore, also in this case, by performing processing in the same manner as the example already described, it is possible to display information in consideration of the user's line-of-sight direction.

さらに本発明の実施の形態のある例では、商品のショーウィンドウやショーケースのガラス面に透過型ディスプレイ15が配されてもよい。この場合は、図8に例示するように、商品を展示するステージ後方(商品に対し、ガラス面とは反対の位置)に撮像部13と眼球検知部14とを配する。この例では、撮像部13は、眼球検知部14のカメラCを兼ねてもよい。ここでのように、商品のショーウィンドウやショーケースのガラス面に配する場合、透過型ディスプレイ15は、既に述べた液晶表示パネルや有機ELパネル等のみならず、ガラス面に映像を投射可能な位置に配されたプロジェクタと、ガラス面に配されたスクリーンとを含むものとしてもよい。この場合のスクリーンは、上記プロジェクタによって投影された映像が投影されるとともに、利用者側から自らを通じて反対側の像を視認可能とした、透明ないし半透明のスクリーンとする。   Furthermore, in an example of the embodiment of the present invention, the transmissive display 15 may be arranged on a glass surface of a show window of a product or a showcase. In this case, as illustrated in FIG. 8, the imaging unit 13 and the eyeball detection unit 14 are arranged behind the stage where the product is displayed (a position opposite to the glass surface with respect to the product). In this example, the imaging unit 13 may also serve as the camera C of the eyeball detection unit 14. As shown here, when the display is arranged on the glass surface of a show window of a product or a showcase, the transmissive display 15 can project an image on the glass surface as well as the liquid crystal display panel and the organic EL panel described above. The projector may include a projector disposed at a position and a screen disposed on a glass surface. The screen in this case is a transparent or translucent screen on which an image projected by the projector is projected and an image on the opposite side is visible from the user side.

制御部11は、既に述べたと同様の方法で、キャリブレーションの処理を行う。またこの例では、撮像部13の座標系Cc1(ここではこの座標系Cc1がそのまま外界座標系Wpであるとする)内で、情報表示の対象物たる商品の座標は予め定めることができる。そこでこれら商品に外接する直方体の各頂点の、座標系Cc1内の座標が既知であるものとする。また、撮像部13の座標系Cc1における透過型ディスプレイ15の4つの頂点の座標も既知であるものとする。従って、撮像部13の座標系Cc1から、この透過型ディスプレイ15の座標系Dpへの変換行列[TDp,wp]もまた、既知となる。   The control unit 11 performs the calibration process by the same method as described above. Further, in this example, the coordinates of the product that is the object of information display can be determined in advance within the coordinate system Cc1 of the imaging unit 13 (here, the coordinate system Cc1 is directly the external world coordinate system Wp). Therefore, it is assumed that the coordinates in the coordinate system Cc1 of each vertex of the rectangular parallelepiped circumscribing these products are known. It is also assumed that the coordinates of the four vertices of the transmissive display 15 in the coordinate system Cc1 of the imaging unit 13 are known. Therefore, the transformation matrix [TDp, wp] from the coordinate system Cc1 of the imaging unit 13 to the coordinate system Dp of the transmissive display 15 is also known.

制御部11は、キャリブレーションの処理において利用者の視線ベクトルVを検出し、これから変換行列[TE,wp]を得る。またこれと、既知である[TDp,wp]とより、
[TDp,E]=[TDp,wp][TE,wp]-1
を演算する。
The control unit 11 detects the user's line-of-sight vector V in the calibration process, and obtains a transformation matrix [TE, wp] therefrom. And this and the known [TDp, wp]
[TDp, E] = [TDp, wp] [TE, wp] -1
Is calculated.

また記憶部12には、商品ごとに、商品に外接する直方体の各頂点の座標と、商品に関して表示するべき情報とを関連付けた商品ごとのエントリーを、データベースとして保持しておく。   In addition, the storage unit 12 stores, for each product, an entry for each product in which the coordinates of each vertex of a rectangular parallelepiped circumscribing the product and information to be displayed regarding the product are associated with each other as a database.

以下制御部11は、データベースに格納されている商品ごとのエントリーを一つずつ読み出す。そして各エントリーを読み出すごとに、読み出したエントリーに含まれる、外接する直方体の各頂点の座標に対して、変換行列[TE,wp]を乗じて、利用者の視野座標系Eでの座標情報に変換する。また情報表示装置1は、変換行列[TDp,E]を用いて、上記変換後の座標情報に含まれる座標の情報を、透過型ディスプレイ15上の点座標Q1(x1,y1),Q2(x2,y2)…の値に変換する。   Hereinafter, the control unit 11 reads one entry for each product stored in the database. Each time each entry is read, the coordinate information in the visual field coordinate system E of the user is obtained by multiplying the coordinates of each vertex of the circumscribed rectangular parallelepiped contained in the read entry by the transformation matrix [TE, wp]. Convert. Further, the information display device 1 uses the transformation matrix [TDp, E] to convert the coordinate information included in the coordinate information after the transformation into the point coordinates Q1 (x1, y1), Q2 (x2) on the transmissive display 15. , Y2)...

また制御部11は、これらQ1(x1,y1),Q2(x2,y2)…の各点を結ぶ多角形に外接する矩形領域を求め、この透過型ディスプレイ15上の、この矩形領域内に、読み出したエントリーに含まれている、商品に関して表示するべき情報を表示させる。   Further, the control unit 11 obtains a rectangular area circumscribing a polygon connecting these points Q1 (x1, y1), Q2 (x2, y2)..., And in this rectangular area on the transmissive display 15, Information to be displayed regarding the product included in the read entry is displayed.

この例によると、利用者がガラス面の前を移動しても、利用者にとっては、商品の情報が商品に重ね合わせられて表示されることとなる。   According to this example, even if the user moves in front of the glass surface, the product information is displayed superimposed on the product for the user.

さらに透過型ディスプレイ15と撮像部13との位置は必ずしも固定されていなくてもよい。この場合は、制御部11は、撮像部13が撮像して得た画像データから透過型ディスプレイ15の外周にある頂点の座標を検出する。この座標の検出は、例えば矩形の透過型ディスプレイ15の対角線上の2点にマーカーを取り付けておき、このマーカーを撮像部13の座標系Cc1内で検出することによって行ってもよい。これにより制御部11は、撮像部13の座標系Cc1、すなわち外界座標系Wpから、透過型ディスプレイ15の座標系Dpへの変換行列[TDp,wp]を求めることになる。   Furthermore, the positions of the transmissive display 15 and the imaging unit 13 are not necessarily fixed. In this case, the control unit 11 detects the coordinates of the vertices on the outer periphery of the transmissive display 15 from the image data obtained by the imaging unit 13. The detection of the coordinates may be performed by attaching markers to two points on the diagonal line of the rectangular transmissive display 15 and detecting the markers in the coordinate system Cc1 of the imaging unit 13, for example. Accordingly, the control unit 11 obtains a conversion matrix [TDp, wp] from the coordinate system Cc1 of the imaging unit 13, that is, the external world coordinate system Wp, to the coordinate system Dp of the transmissive display 15.

さらに、ここまでの説明では、表示の対象となる情報は、記憶部12内にデータベースとして保持することとしていたが、これに限られるものではない。例えばデータベースは外部のサーバに格納しておき、制御部11は、データベースに対して有線または無線LAN、ないしは携帯電話回線網等を介してアクセスし、その内容を検索し、あるいは読み出すようにしても構わない。   Further, in the description so far, the information to be displayed is held as a database in the storage unit 12, but is not limited thereto. For example, the database is stored in an external server, and the control unit 11 accesses the database via a wired or wireless LAN, or a cellular phone network, and searches for or reads the contents. I do not care.

1 情報表示装置、11 制御部、12 記憶部、13 撮像部、14 眼球検知部、15 透過型ディスプレイ、16 装着センサ、17 変位センサ、20 フレーム、21 テンプル、22 リム、23 鼻当て部、24 ブリッジ、31 キャリブレーション指示部、32 キャリブレーション処理部、33 情報表示部。   DESCRIPTION OF SYMBOLS 1 Information display apparatus, 11 Control part, 12 Storage part, 13 Imaging part, 14 Eyeball detection part, 15 Transmission type display, 16 Wear sensor, 17 Displacement sensor, 20 Frame, 21 Temple, 22 Rim, 23 Nasal pad part, 24 Bridge, 31 Calibration instruction section, 32 Calibration processing section, 33 Information display section.

Claims (5)

利用者の眼前に配される透過型ディスプレイと、
撮像部と、
利用者の視線ベクトルVを検出する手段と、
前記検出した視線ベクトルVを用いて、利用者の視野座標系Epを規定する手段と、
前記撮像部の座標系Ccを外界座標系Wp内の座標に変換する第1の変換行列を求める手段と、
前記規定した利用者の視野座標系Ep内の座標を、外界座標系Wp内の座標に変換する第2の変換行列を求める位置合わせ手段と、
前記撮像部にて撮像された対象物の座標を、前記第1の変換行列を用いて前記外界座標系Wp内の座標に変換し、当該変換された対象物の座標を含む、前記外界座標系Wp内の対象物の位置を表す座標を、前記第2の変換行列によって、前記視野座標系Ep内の位置を表す座標に変換する手段と、
前記視野座標系Epの座標を、前記透過型ディスプレイに投影して、前記対象物に対する情報の表示位置を求める手段と、
前記求めた表示位置に、前記対象物に対する情報を表示する手段と、
を含む情報表示装置。
A transmissive display placed in front of the user's eyes;
An imaging unit;
Means for detecting a user's line-of-sight vector V;
Means for defining a user's visual field coordinate system Ep using the detected line-of-sight vector V;
Means for obtaining a first transformation matrix for transforming the coordinate system Cc of the imaging unit into coordinates in the external coordinate system Wp;
Positioning means for obtaining a second transformation matrix for transforming the coordinates in the visual field coordinate system Ep of the defined user into coordinates in the external world coordinate system Wp ;
The external world coordinate system including the coordinates of the object imaged by the imaging unit, using the first conversion matrix, into coordinates in the external world coordinate system Wp and including the coordinates of the converted object. Means for converting coordinates representing the position of the object in Wp into coordinates representing the position in the visual field coordinate system Ep by the second transformation matrix;
Means for projecting the coordinates of the visual field coordinate system Ep onto the transmissive display to obtain a display position of information on the object;
Means for displaying information on the object at the obtained display position;
An information display device.
請求項1の情報表示装置において、
当該情報処理装置は、利用者の頭部に装着され、
利用者の頭部に装着されたことを検出するセンサ、をさらに有し、
前記位置合わせ手段は、前記センサにより、情報表示装置が装着されたと検出した時点で、前記第2の変換行列を求める情報表示装置。
The information display device according to claim 1,
The information processing apparatus is mounted on the user's head,
A sensor for detecting that the head is mounted on the user's head;
The position alignment means is an information display device for obtaining the second transformation matrix when the sensor detects that the information display device is mounted by the sensor.
請求項2の情報表示装置において、
前記センサが、利用者の頭部に装着されたことを検出してから、情報処理装置と前記視点位置との装着後の位置ずれである相対的位置変動を検出する手段をさらに有し、
前記位置合わせ手段は、当該検出した相対的位置変動に基づいて、前記第2の変換行列を補正する情報表示装置。
The information display device according to claim 2,
And further comprising means for detecting a relative position variation, which is a positional shift after mounting the information processing apparatus and the viewpoint position, after detecting that the sensor is mounted on a user's head,
The information alignment apparatus that corrects the second transformation matrix based on the detected relative position fluctuation.
請求項1から3のいずれか一項に記載の情報表示装置において、
さらに、前記外界座標系Wpと、前記透過型ディスプレイ上の座標系Dpとの変換行列を求める手段を有する情報表示装置。
In the information display device according to any one of claims 1 to 3,
Further, an information display device comprising means for obtaining a transformation matrix between the external world coordinate system Wp and the coordinate system Dp on the transmissive display.
利用者の眼前に配される透過型ディスプレイと、撮像部とを備えたコンピュータを、
利用者の視線ベクトルVを検出する手段と、
前記検出した視線ベクトルVを用いて、利用者の視野座標系Epを規定する手段と、
前記撮像部の座標系Ccを外界座標系Wp内の座標に変換する第1の変換行列を求める手段と、
前記外界座標系Wp内の座標を、前記規定した利用者の視野座標系Ep内の座標に変換する第2の変換行列を求める位置合わせ手段と、
前記撮像部にて撮像された対象物の座標を、前記第1の変換行列を用いて前記外界座標系Wp内の座標に変換し、当該変換された対象物の座標を含む、前記外界座標系Wp内の対象物の位置を表す座標を、前記第2の変換行列によって、前記視野座標系Ep内の位置を表す座標に変換する手段と、
前記視野座標系Epの座標を、前記透過型ディスプレイに投影して、前記対象物に対する情報の表示位置を求める手段と、
前記求めた表示位置に、前記対象物に対する情報を表示する手段と、
として機能させるプログラム。
A computer having a transmissive display arranged in front of the user's eyes and an imaging unit ,
Means for detecting a user's line-of-sight vector V;
Means for defining a user's visual field coordinate system Ep using the detected line-of-sight vector V;
Means for obtaining a first transformation matrix for transforming the coordinate system Cc of the imaging unit into coordinates in the external coordinate system Wp;
Alignment means for obtaining a second transformation matrix for transforming coordinates in the external world coordinate system Wp into coordinates in the specified user visual field coordinate system Ep ;
The external world coordinate system including the coordinates of the object imaged by the imaging unit, using the first conversion matrix, into coordinates in the external world coordinate system Wp and including the coordinates of the converted object. Means for converting coordinates representing the position of the object in Wp into coordinates representing the position in the visual field coordinate system Ep by the second transformation matrix;
Means for projecting the coordinates of the visual field coordinate system Ep onto the transmissive display to obtain a display position of information on the object;
Means for displaying information on the object at the obtained display position;
Program to function as.
JP2011260644A 2011-11-29 2011-11-29 Information display device and program Active JP5799776B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011260644A JP5799776B2 (en) 2011-11-29 2011-11-29 Information display device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011260644A JP5799776B2 (en) 2011-11-29 2011-11-29 Information display device and program

Publications (2)

Publication Number Publication Date
JP2013114491A JP2013114491A (en) 2013-06-10
JP5799776B2 true JP5799776B2 (en) 2015-10-28

Family

ID=48709978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011260644A Active JP5799776B2 (en) 2011-11-29 2011-11-29 Information display device and program

Country Status (1)

Country Link
JP (1) JP5799776B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9741315B2 (en) * 2013-07-03 2017-08-22 Visteon Global Technologies, Inc. Adjusting a transparent display with an image capturing device
US9805509B2 (en) * 2013-11-26 2017-10-31 Yoav Shefi Method and system for constructing a virtual image anchored onto a real-world object
CN108292040B (en) * 2015-09-30 2020-11-06 索尼互动娱乐股份有限公司 Method for optimizing content positioning on a head-mounted display screen
JP2021184115A (en) 2018-08-28 2021-12-02 ソニーグループ株式会社 Information processing device, information processing method and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3446044B2 (en) * 1993-04-30 2003-09-16 カシオ計算機株式会社 Input processing device
JPH10334275A (en) * 1997-05-29 1998-12-18 Canon Inc Method and system for virtual reality and storage medium
JP2003296757A (en) * 2002-03-29 2003-10-17 Canon Inc Information processing method and device
JP2008046802A (en) * 2006-08-14 2008-02-28 Advanced Telecommunication Research Institute International Interaction information output device, interaction information output method and program
JP4492597B2 (en) * 2006-09-20 2010-06-30 太郎 諌山 Stereoscopic display processing apparatus and stereoscopic display processing method
JP4679661B1 (en) * 2009-12-15 2011-04-27 株式会社東芝 Information presenting apparatus, information presenting method, and program

Also Published As

Publication number Publication date
JP2013114491A (en) 2013-06-10

Similar Documents

Publication Publication Date Title
JP6963820B2 (en) Line-of-sight detector
JP5844880B2 (en) Head mounted display, calibration method and calibration program, and recording medium
US10424117B2 (en) Controlling a display of a head-mounted display device
US10467770B2 (en) Computer program for calibration of a head-mounted display device and head-mounted display device using the computer program for calibration of a head-mounted display device
US11134238B2 (en) Goggle type display device, eye gaze detection method, and eye gaze detection system
JP2010259605A (en) Visual line measuring device and visual line measuring program
CN112102389A (en) Method and system for determining spatial coordinates of a 3D reconstruction of at least a part of a physical object
US11436742B2 (en) Systems and methods for reducing a search area for identifying correspondences between images
JP5799776B2 (en) Information display device and program
US20210398306A1 (en) Dense depth computations aided by sparse feature matching
EP3506149A1 (en) Method, system and computer program product for eye gaze direction estimation
US20210377515A1 (en) Information processing device, information processing method, and program
JP6509101B2 (en) Image display apparatus, program and method for displaying an object on a spectacle-like optical see-through type binocular display
US11430086B2 (en) Upsampling low temporal resolution depth maps
JP6266580B2 (en) Head mounted display, calibration method and calibration program, and recording medium
TW202143018A (en) Augmented reality system and anchor display method thereof
US11651502B2 (en) Systems and methods for updating continuous image alignment of separate cameras
US11450014B2 (en) Systems and methods for continuous image alignment of separate cameras
WO2021257143A1 (en) Systems and methods for temporal corrections for parallax reprojection
KR20170112024A (en) Camera and camera calibration method
JP6864333B2 (en) Face orientation detection system and face orientation detection device
US11854227B2 (en) Depth-from-stereo bending correction using visual inertial odometry features
JP2017215597A (en) Information display method and information display device
US20220019791A1 (en) Pupil ellipse-based, real-time iris localization
US11973927B2 (en) Detecting eye tracking calibration errors

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150810

R150 Certificate of patent or registration of utility model

Ref document number: 5799776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250