JP5799776B2 - Information display device and program - Google Patents
Information display device and program Download PDFInfo
- Publication number
- JP5799776B2 JP5799776B2 JP2011260644A JP2011260644A JP5799776B2 JP 5799776 B2 JP5799776 B2 JP 5799776B2 JP 2011260644 A JP2011260644 A JP 2011260644A JP 2011260644 A JP2011260644 A JP 2011260644A JP 5799776 B2 JP5799776 B2 JP 5799776B2
- Authority
- JP
- Japan
- Prior art keywords
- coordinate system
- coordinates
- user
- information
- transformation matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Description
本発明は、透過型ディスプレイ上に情報を表示する情報表示装置及びプログラムに関する。 The present invention relates to an information display device and a program for displaying information on a transmissive display.
近年、拡張現実(AR;Augmented Reality)技術が広く利用されるようになってきている。拡張現実の分野では、利用者はHMD(ヘッド・マウント・ディスプレイ)等、透過型のディスプレイを通して現実の空間を見る。現実空間内の物体等にコメントテキスト等を付加して表示する場合は、この透過型ディスプレイ内で、利用者が物体を見ているその位置に、コメントテキストを表示することになる。 In recent years, augmented reality (AR) technology has become widely used. In the field of augmented reality, the user views the real space through a transmissive display such as an HMD (Head Mounted Display). When a comment text or the like is added to an object or the like in the real space for display, the comment text is displayed at the position where the user is looking at the object in the transmissive display.
この場合、少なくとも現実の空間の座標系と、透過型ディスプレイ内の仮想的空間の座標系とを一致させる必要がある。特許文献1には、HMDにおいて、現実空間と仮想空間との位置合わせを行う方法が多数列挙されている。
In this case, it is necessary to match at least the coordinate system of the real space with the coordinate system of the virtual space in the transmissive display.
しかしながら上記従来のHMD等では、仮想空間の座標系は現実の空間を認識するカメラ等のセンサの座標系を基準に設定され、利用者の視線の方向が考慮されていない。このため、仮想空間と現実空間とが位置合わせされても、利用者にとっては、仮想空間内に表示された情報の表示位置が、現実空間内の対象物との関係でずれて表示されて見えることとなっていた。 However, in the conventional HMD or the like, the coordinate system of the virtual space is set based on the coordinate system of a sensor such as a camera that recognizes the real space, and the direction of the user's line of sight is not considered. For this reason, even if the virtual space and the real space are aligned, the display position of the information displayed in the virtual space appears to be shifted by the user in relation to the object in the real space. It was supposed to be.
本発明は上記実情に鑑みてなされたもので、利用者の視線方向を考慮した情報表示装置及びプログラムを提供することを、その目的の一つとする。 The present invention has been made in view of the above circumstances, and an object of the present invention is to provide an information display device and a program in consideration of the user's line-of-sight direction.
上記従来例の問題点を解決するための本発明は、情報表示装置であって、利用者の眼前に配される透過型ディスプレイと、利用者の視線ベクトルVを検出する手段と、前記検出した視線ベクトルVを用いて、利用者の視野座標系Epを規定する手段と、前記規定した利用者の視野座標系Ep内の座標を、外界座標系Wp内の座標に変換する変換行列を求める位置合わせ手段と、前記外界座標系Wp内の対象物の位置を表す座標を、前記変換行列によって、前記視野座標系Ep内の位置を表す座標に変換する手段と、前記視野座標系Epの座標を、前記透過型ディスプレイに投影して、前記対象物に対する情報の表示位置を求める手段と、前記求めた表示位置に、前記対象物に対する情報を表示する手段と、を含むこととしたものである。 The present invention for solving the problems of the above-described conventional example is an information display device, a transmissive display arranged in front of a user's eyes, means for detecting a user's line-of-sight vector V, and the detection Means for defining the user's visual field coordinate system Ep using the line-of-sight vector V, and a position for obtaining a transformation matrix for converting the coordinates in the defined visual field coordinate system Ep of the user into coordinates in the external world coordinate system Wp Matching means, means for converting coordinates representing the position of the object in the external world coordinate system Wp into coordinates representing the position in the visual field coordinate system Ep by the conversion matrix, and coordinates of the visual field coordinate system Ep And means for determining the display position of the information on the object by projecting on the transmissive display, and means for displaying the information on the object at the determined display position.
またここで、さらに、利用者の頭部に装着されたことを検出するセンサ、をさらに有し、前記位置合わせ手段は、前記センサにより、情報表示装置が装着されたと検出した時点で、前記変換行列を求めてもよいし、前記センサが、情報表示装置が利用者の頭部に装着されたことを検出してから、情報処理装置と、前記視点位置との相対的位置変動を検出する手段をさらに有し、前記位置合わせ手段が、当該検出した相対的位置変動に基づいて、前記変換行列を補正することとしてもよい。さらに、前記外界座標系Wpと、前記透過型ディスプレイ上の座標系Dpとの変換行列を求める手段を有してもよい。 In addition, the sensor further includes a sensor that detects that the head of the user is worn, and the alignment unit detects that the information display device is worn by the sensor when the conversion is performed. A matrix may be obtained, or means for detecting a relative position variation between the information processing device and the viewpoint position after the sensor detects that the information display device is mounted on the user's head The alignment unit may correct the conversion matrix based on the detected relative position fluctuation. Furthermore, there may be provided means for obtaining a transformation matrix between the external world coordinate system Wp and the coordinate system Dp on the transmissive display.
また本発明の一態様に係るプログラムは、透過型ディスプレイを備えたコンピュータを、利用者の視線ベクトルVを検出する手段と、前記検出した視線ベクトルVを用いて、利用者の視野座標系Epを規定する手段と、前記規定した利用者の視野座標系Ep内の座標を、外界座標系Wp内の座標に変換する変換行列を求める位置合わせ手段と、前記外界座標系Wp内の対象物の位置を表す座標を、前記変換行列によって、前記視野座標系Epの内の位置を表す座標に変換する手段と、前記視野座標系Epの座標を、前記透過型ディスプレイに投影して、前記対象物に対する情報の表示位置を求める手段と、前記求めた表示位置に、前記対象物に対する情報を表示する手段と、として機能させることとしたものである。 A program according to an aspect of the present invention uses a computer including a transmissive display to detect a user's line-of-sight vector V, and uses the detected line-of-sight vector V to determine a user's visual field coordinate system Ep. Defining means; positioning means for obtaining a transformation matrix for converting coordinates in the visual field coordinate system Ep of the defined user into coordinates in the external world coordinate system Wp; and position of the object in the external world coordinate system Wp Means for converting coordinates representing the position into coordinates representing the position in the visual field coordinate system Ep by the transformation matrix, and projecting the coordinates of the visual field coordinate system Ep onto the transmissive display, The information display position is functioned as means for displaying information on the object at the determined display position.
本発明によると、利用者の視線方向を考慮した情報表示を行うことができる。 According to the present invention, it is possible to display information in consideration of the user's line-of-sight direction.
本発明の実施の形態に係る情報表示装置1は、例えば透過型のディスプレイを備えて、利用者が眼鏡のように着用し、透過型のディスプレイを介して視線方向にある情報表示の対象物を視認するとともに、当該利用者と対象物とを結ぶ線分が透過型ディスプレイの面に交わる位置近傍に、当該対象物に関わる情報を表示するものである。これにより、利用者に対して対象物に関する情報を提示する。
An
本実施の形態に係る情報表示装置1の一例は、図1に例示するように、制御部11、記憶部12、撮像部13、眼球検知部14、及び透過型ディスプレイ15を含んで構成される。また、後に述べるように、情報表示装置1は装着センサ16を含んでもよい。さらにこの情報表示装置1は変位センサ17を備えてもよい。
An example of the
本実施の形態の一態様に係る情報表示装置1は、図2に例示するように略眼鏡の形状を備える。すなわちこの例の情報表示装置1は、一対のテンプル21と、各テンプル21の一端側に、それぞれヒンジを介して連結された一対のリム22と、各リム22の一部に設けられ、装着時に利用者の鼻に当たってリム22を支持させる鼻当て部23と、一対のリム22の間を連結するブリッジ24とを備えたフレーム20に実装される。
The
この図2に例示した例では、少なくとも一方のリム22に透過型ディスプレイ15を支持させる。一方のリム22に透過型ディスプレイ15を支持させる場合は、他方のリム22にはガラスやプラスチックのレンズ(矯正のための度は入っていても、いなくてもよい)としておく。
In the example illustrated in FIG. 2, the
ここで制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。本実施の形態において、この制御部11は、利用者の視点位置を検出する処理と、検出した利用者の視点位置から利用者の視線ベクトルVを推定する処理と、推定した利用者の視線ベクトルVを、外界座標系Wp内のベクトルに変換する変換行列を求める位置合わせ処理と、外界座標系Wp内の対象物の座標と、変換行列によって変換される視線ベクトルの方向の線分が透過型ディスプレイ15上で交差する位置の座標から、表示基準位置を求める処理と、当該求めた表示基準位置に基づいて、情報の表示位置を決定する処理と、を行う。この制御部11に処理の詳しい説明は後に述べる。
Here, the
記憶部12は、制御部11によって実行されるプログラムを格納している。このプログラムはDVD−ROM等のコンピュータ可読な記録媒体に格納されて提供され、この記憶部12に複写されたものであってもよい。またこの記憶部12は制御部11のワークメモリとしても動作する。
The
撮像部13は、例えばカメラであり、外界の対象物(現実の物体)の方向の映像を逐次的に撮影して、当該撮影した映像をディジタルの画像データとして制御部11に出力する。図2に示した例の場合、利用者が装着すると、この撮像部13の撮像範囲は、利用者の視線方向と略同じ方向を撮像することになるが、視線の角度が異なるため、撮像部13が出力する画像データは、利用者が見ている像とは異なるものとなる。
The
本実施の形態では、この撮像部13のカメラは、ブリッジ24の一部に固定され、利用者が情報表示装置1を装着したときに、その視線の方向を撮像するように配される。
眼球検知部14は、 例えば撮像部13とは独立したカメラCと、近赤外光投光器Pとを備える。この眼球検知部14もまた、例えばブリッジ24の一部に固定される。そしてカメラC及び近赤外光投光器Pは、情報表示装置1を装着した利用者の、顔面の方向を撮像し、また顔面の方向に投光するよう配される。この眼球検知部14は、カメラCによって撮像された画像データを制御部11に出力する。すでに述べたように、眼球検知部14のカメラCと、撮像部13であるカメラとは、いずれもブリッジ24に固定され、互いの相対的な座標が変化しないよう固定されている。これにより眼球検知部14のカメラCの座標系Cc2と、撮像部13であるカメラの座標系Cc1とは相互に変換行列[Tc1,2]により変換可能となる。すなわち、
Cc2=[Tc1,2]Cc1、Cc1=[Tc1,2]-1Cc1=[Tc2,1]Cc1
である。
In the present embodiment, the camera of the
The
Cc2 = [Tc1,2] Cc1, Cc1 = [Tc1,2] -1Cc1 = [Tc2,1] Cc1
It is.
透過型ディスプレイ15は、リム22により支持される。この透過型ディスプレイ15は、その表示面を通じて、その背面側にある対象物を見通すことのできる液晶表示パネルや有機ELパネル等であり、ディスプレイとしての機能を有する透明、ないし半透明の表示面を備える。このような透過型のディスプレイについても、広く知られているので、ここでの説明は省略する。
The
この透過型ディスプレイ15は、制御部11から入力される指示に従って、当該表示面に情報を表示する。ここでの例では、この透過型ディスプレイ15もまた、ブリッジ24によって連結されたリム22によって支持されるため、撮像部13であるカメラの座標系(以下撮像部13の座標系と呼ぶ)Cc1と、この透過型ディスプレイ15の座標系Dpとの間の変換行列[Tc1,Dp]もまた既知のものとなる。
The
次に制御部11における処理の具体的内容について説明する。この制御部11は、機能的には、図3に示すように、キャリブレーション指示部31と、キャリブレーション処理部32と、情報表示部33とを含む。キャリブレーション指示部31は、予めキャリブレーションを行うべきタイミングとして定められた時点で、キャリブレーション処理部32に対してキャリブレーション処理の実行を指示する。このタイミングは例えば、電源投入後の予め定めた時間ごとに定期的に到来するタイミングとしてもよい。
Next, the specific content of the process in the
キャリブレーション処理部32は、キャリブレーション指示部31からキャリブレーション処理の実行指示が入力されると、次のキャリブレーション処理を実行する。なお、以下の説明において、制御部11は、撮像部13のカメラと、眼球検知部14のカメラCとのそれぞれについて、いわゆるThaiのカメラキャリブレーションアルゴリズムによって、それぞれの内外パラメータ、すなわち、光軸中心位置と、画素の縦横比と、撮像された対象物を基準とする世界座標系Cwに対するカメラ位置及び回転角(世界座標系とカメラ座標系との変換行列)とを含む情報を求めておく(R.Y.Tsai, "A Versatile Camera Calibration Technique for High-Accuracy 3D Machine Vision Metrology Using Off-the-Shelf TV Cameras and Lenses", IEEE Journal of Robotics and Automation, Vol. RA-3, No.4, pp. 323-344, 1987)。
When the
ここで撮像部13のカメラと眼球検知部14のカメラCとのそれぞれについて世界座標系Cwは一般に異なる。ここでは眼球検知部14のカメラCが撮像した画像データ(利用者の顔面方向の画像データ)から求められた世界座標系を利用者座標系Wuとする。
本実施の形態において外界座標系Wpは、例えば撮像部13の座標系Cc1そのものであってもよいし、撮像部13の座標系Cc1についての世界座標系であってもよい。
Here, the world coordinate system Cw is generally different for each of the camera of the
In the present embodiment, the external world coordinate system Wp may be, for example, the coordinate system Cc1 itself of the
また一例として制御部11は、撮像部13から得た画像データに基づき、当該画像データ内に撮像された路面や床面、あるいは壁面を構成する面内に仮想的な矩形状領域を形成する。この矩形状領域の形成は、例えば利用者が車両運行中など、外界座標系Wpに対して並進移動しているならば、PTAM(Parallel Tracking and Mapping)と呼ばれる方法等が採用できる。このPTAMについては、Georg Klein and David Murray, "Parallel Tracking and Mapping for Small AR Workspaces", In Proc. International Symposium on Mixed and Augmented Reality (ISMAR '07), 2007等に詳しい説明があるので、ここでの詳細な説明を省略する。制御部11は、この矩形状領域内に、例えば予め指定された情報を表示する。
Further, as an example, the
キャリブレーション処理部32は、図4に例示するように、眼球検知部14が出力する画像データを取得する(S1)。そして利用者の視線ベクトルVと瞳孔中心とを推定する(S2)。ここで瞳孔中心は、利用者が移動せず、また顔を動かすことがない場合に、眼球の動きの中心座標に相当する。
As illustrated in FIG. 4, the
本実施の形態のある例では、キャリブレーション処理部32は、大野健彦ほか,「眼球形状モデルに基づく視線測定法」,第8回画像センシングシンポジウム,pp.307-312,2002の方法を用いて視線方向としての利用者の視点の座標系Epを推定する。この方法では、瞳の位置(瞳孔中心)と、角膜表面反射光(プルキニエ像)とを用いる。
In an example of this embodiment, the
キャリブレーション処理部32は、つぎに処理S1で取得した画像データから利用者の瞳を検出する。このような瞳の検出技術については、例えば加島英樹ほか,「顔の向きの変化に強い瞳検出方法の研究」,情報処理学会研究報告. CVIM, 2001(36), 139-144, 2001-05-10 等、種々の方法があるので、詳しい説明を省略する。
Next, the
キャリブレーション処理部32は、また、処理S1で取得した画像データ内で輝点(予め定めた輝度より高い輝度の画素)を抽出し、利用者の瞳が検出された位置に最も近い輝点の中心をプルキニエ像であると定める。以下、このプルキニエ像の座標をu0とおく。また眼球検知部14のカメラCのフォーカスが最も合った位置における焦点距離から、このカメラCからプルキニエ像までの距離が求められる。すると、既知の方法より、プルキニエ像の座標u0、カメラCからプルキニエ像までの距離、並びにカメラCの内外パラメータより、利用者座標系Wuにおけるプルキニエ像の位置ベクトルuを求めることができる。
The
さらにキャリブレーション処理部32は、瞳孔中心の画像データ上の座標位置puと、カメラCから瞳孔中心までの距離と、カメラCの内外パラメータと、から、利用者座標系Wuにおける瞳孔中心の位置ベクトルPを求める。ここでカメラCから瞳孔中心までの距離は近似的に次のように求めてもよい。すなわち、予め、利用者として想定される人物について、角膜表面から瞳孔の位置までの距離l(小児と大人とでは異なることが考えられる)をモデルとして設定しておく。そして、カメラCからプルキニエ像までの距離にこの距離lを加算した値を、近似的なカメラCから瞳孔中心までの距離として用いる。
Further, the
次にキャリブレーション処理部32は、プルキニエ像から、角膜曲率中心を求める。ここでは利用者として想定される人物の平均的な角膜曲率半径Rを予め定めておく。すると、利用者座標系Wuにおける角膜曲率中心のベクトルr(視点位置)が、次の(1)式で与えられる。
Next, the
なお、(1)において、||u||は、uのノルムを表す。
キャリブレーション処理部32は、これら利用者座標系Wuにおける瞳孔中心の位置ベクトルPと、角膜曲率中心のベクトルcとから、V=P−rとして、利用者座標系Wuにおける利用者の視線ベクトルVを求める。
In (1), || u || represents the norm of u.
The
キャリブレーション処理部32は次に、眼球検知部14のカメラCについて求められている、利用者座標系WuからカメラCのカメラ座標系Cc2への変換行列[Twu,c2](=[Tc2,wu]-1、ただし[Tc2,wu]は、カメラCのカメラ座標系Cc2から利用者座標系Wuへの変換行列)と、利用者座標系Wuとを用いて、カメラCのカメラ座標系Cc2における利用者の視線ベクトルVc2、及び瞳孔中心の位置ベクトルPc2を求める(S3)。すなわち、
Vc2=[Twu,c2]V
Pc2=[Twu,c2]P
とする。
Next, the
Vc2 = [Twu, c2] V
Pc2 = [Twu, c2] P
And
キャリブレーション処理部32は、このカメラ座標系Cc2における利用者の視線ベクトルVc2及び瞳孔中心の位置ベクトルPc2を、撮像部13の座標系Cc1における利用者の視線ベクトルVc1及び瞳孔中心の位置ベクトルPc1に変換する(S4)。この変換は、
Vc1=[Tc1,2]-1Vc2
Pc1=[Tc1,2]-1Pc2
で行われる。
The
Vc1 = [Tc1,2] -1Vc2
Pc1 = [Tc1,2] -1Pc2
Done in
これにより、図5に例示するように、位置ベクトルPc1を原点とし、視線ベクトルVc1を一つの座標軸(ξ軸)とする座標系が規定される。キャリブレーション処理部32は、さらに視線ベクトルVc1を法線ベクトルとする平面内に、互いに直行する2つの座標軸(η軸,ζ軸)を決定して、利用者の視野座標系Eを規定する(S5)。具体的にキャリブレーション処理部32は、プルキニエ像の位置ベクトルu(カメラ座標系Cc2による)を、撮像部13の座標系Cc1におけるベクトルに変換する。すなわち、
uc1=[Tc1,2]-1u
とする。
Thus, as illustrated in FIG. 5, a coordinate system is defined in which the position vector Pc1 is the origin and the line-of-sight vector Vc1 is one coordinate axis (ξ axis). The
uc1 = [Tc1,2] -1u
And
そしてキャリブレーション処理部32は、視線ベクトルVc1を法線ベクトルとする平面内にベクトル
uc1−Vc1
を射影したときの当該射影ベクトルuの方向をη軸とし、視線ベクトルVc1を法線ベクトルとする平面内でこれらξ軸,η軸の双方に直交するベクトル、例えば
u×Vc1
で求められるベクトルの方向をζ軸とする。なお、
uc1−Vc1
がゼロベクトルとなる場合(利用者が偶々近赤外光投光器Pの方向を見ていた場合)は、キャリブレーション処理部32は、処理S1へ戻って処理を繰り返すこととしてもよい。
Then, the
Is a vector orthogonal to both the ξ-axis and the η-axis, for example, u × Vc1 in a plane having the direction of the projection vector u when projected as the η-axis and the line-of-sight vector Vc1 as the normal vector.
Let the direction of the vector obtained in step be the ζ axis. In addition,
uc1−Vc1
Is zero vector (when the user happens to look in the direction of the near-infrared light projector P), the
キャリブレーション処理部32は、例えば以上のようにして求めた利用者の視野座標系Eと外界座標系Wpとの間の変換行列を求める(S6)。すでに利用者の視野座標系は、撮像部13の座標系Cc1内のベクトルにより規定されているので、撮像部13の座標系Cc1から利用者の視野座標系Eへの変換行列[TE,c1]は演算できる。
The
外界座標系Wpが、撮像部13の座標系Cc1そのものである場合は、この変換行列[TE,c1]がそのまま外界座標系Wpから視野座標系Eへの変換行列[TE,wp]となる。
When the external coordinate system Wp is the coordinate system Cc1 itself of the
また外界座標系Wpが、撮像部13の座標系Cc1そのものでない場合は、キャリブレーション処理部32は、この変換行列[TE,c1]に、撮像部13である外界座標系Wpからカメラの座標系Cc1への変換行列[Tc1,wp](=[Twp,c1]-1、ただし[Twp,c1]は、カメラ座標系Cc1から外界座標系Wpへの変換行列)を右から乗じて、外界座標系Wpから視野座標系Eへの変換行列[TE,wp]=[TE,c1][Tc1,wp]を求めればよい。
If the external coordinate system Wp is not the coordinate system Cc1 itself of the
なお、視野座標系Eから外界座標系Wpへの変換行列は、変換行列[TE,c1]の逆行列[TE,wp]-1として与えられる。キャリブレーション処理部32は、また透過型ディスプレイ15の座標系Dpとの間の変換行列[Tc1,Dp]に、変換行列[TE,c1]を乗じ、その逆行列を演算することで、視野座標系Eを、透過型ディスプレイ15の座標系Dp(2次元座標)へ投影する変換行列
[TDp,E]=[TE,Dp]-1=[[TE,c1][Tc1,Dp]]-1
を得る。
Note that the transformation matrix from the visual field coordinate system E to the external world coordinate system Wp is given as an inverse matrix [TE, wp] -1 of the transformation matrix [TE, c1]. The
Get.
ここで求めた外界座標系Wpから視野座標系Eへの変換行列[TE,wp](またはその逆行列[TE,wp]-1)及び、視野座標系Eから透過型ディスプレイ15の座標系Dpへの変換行列[TDp,E]を、キャリブレーションパラメータとして記憶部12に保持し(S7)、キャリブレーションの処理を終了する。そしてキャリブレーション処理部32は、処理を終了した旨を表す情報を出力する。
The transformation matrix [TE, wp] (or its inverse matrix [TE, wp] -1) from the external world coordinate system Wp to the visual field coordinate system E obtained here, and the coordinate system Dp of the
なお、このキャリブレーション処理部32は、それぞれの座標系の変換行列が既知である二つのカメラを用い、一方側で利用者の視線ベクトルを検出し、他方側で利用者が視認する外界の座標系との変換行列を得ておき、視線ベクトルを用いて規定できる利用者の視野座標系と、外界座標系との変換行列を求めることができればどのような方法を用いてもよく、ここで述べた方法に限らず、他の方法を用いてもよい。
The
制御部11の情報表示部33は、キャリブレーション処理部32から処理を終了した旨を表す情報を受けると、情報の表示処理を開始する。本実施の形態のある例では、記憶部12に予め、図6に示すように、外界にあるべき長方形の画像部分(I)と、当該画像部分に対応して表示されるべき情報(文字列やビットマップイメージ等;R)と、当該画像部分の現実の大きさを表す情報(サイズ情報;例えば実際の対象物における当該長方形の対角線長さなど)を関連付けたエントリーを含んだデータベースが保持されているものとする。
When the
情報表示部33は、図7に例示するように、撮像部13が出力する画像データから、PTAM等マーカーレス拡張現実の方法により外界座標系Wp中で検出される対象物の範囲にある部分画像を抽出する。ここでは例えば矩形状(複数ある場合はそのそれぞれ)の範囲を検出して、当該矩形上の範囲に含まれる部分画像を抽出し(S11)、検出した矩形状の部分画像を長方形状に変換する処理を実行する。この処理は射影ひずみを補正する画像処理として広く知られた処理を利用できる。情報表示部33は、さらに得られた長方形状の部分画像から照合用の画像を少なくとも一つ生成する(S12)。一例としてこの情報表示部33は、得られた長方形状の部分画像を90度、180度、270度だけ回転させた画像を生成して、検出した矩形状ごとに4つずつの長方形状の部分画像のセット(i番目の矩形状についてセットSiとする)を得る。
As illustrated in FIG. 7, the
情報表示部33は、予め記憶部12に格納されたデータベースを参照して、得られたセットSi(i=1,2…)に含まれる4つの画像のいずれかに一致する画像を含むエントリーがあるか否か(照合用の画像を含むエントリーがあるか否か)を調べる(S13)。そして情報表示部33は、セットSj(j=1,2…)に含まれる4つの画像のいずれかに一致する画像を含むエントリーがあれば(Yesならば)、当該エントリーに含まれる表示対象の情報と、サイズ情報とをとり出す(S14)。そして、撮像部13が撮像した画像データにおいて、セットSjに含まれる部分画像の元となった矩形状が見いだされた位置の座標と、見いだした矩形状のサイズ、並びに、データベースから取り出したサイズ情報とを用いて、撮像部13の座標系Cc1内における当該矩形状の座標情報σj(4つの頂点の座標の組等)を得る(S15)。この情報の演算も広く知られているので、ここでの詳しい説明を省略する。
The
外界座標系Wpが、撮像部13の座標系Cc1そのものである場合、情報表示部33は、このσjに含まれる座標の情報に対して、キャリブレーションパラメータとしての変換行列[TE,wp]、すなわち変換行列[TE,c1]を乗じて利用者の視野座標系Eでの座標情報σ″jに変換する。また情報表示部33は、外界座標系Wpが、撮像部13の座標系Cc1とは異なる場合、このσjに含まれる座標の情報に対して、変換行列[TWp,c1]を乗じてこれらの座標の情報を外界座標系Wp内の座標情報σ′jに変換し、さらにこれにキャリブレーションパラメータとしての変換行列[TE,wp]を乗じて、利用者の視野座標系Eでの座標情報σ″jに変換する(S16)。後者の方法によると、情報表示部33は、撮像部13の座標系Cc1とは異なる外界座標系Wp内での対象物の座標情報σjが与えられれば利用者の視野座標系Eでの座標情報σ″jを得ることができる。すなわち、対象物の座標情報σjを撮像部13以外で得て情報表示の処理を行うことも可能となる。
When the external coordinate system Wp is the coordinate system Cc1 itself of the
また情報表示部33は、キャリブレーションパラメータとしての変換行列[TDp,E]を用いて、座標情報σ″jに含まれる座標の情報を、透過型ディスプレイ15上の点座標Q1(x1,y1),Q2(x2,y2)…の値に変換する(S17)。情報表示部33は、これから例えばこれらの点座標Q1(x1,y1),Q2(x2,y2)…の平均値Qave(x,y)=((x1+x2+…+xn/n),(y1+y2+…+yn/n))を演算して、このQave(x,y)の近傍(予め定めたピクセル数未満だけ離れた位置)に、データベースから取り出した表示対象の情報を表示する(S18)。
Further, the
なお、処理S12からS18までは処理S11で抽出した矩形ごとにループして繰り返して行う。また処理S13で該当するエントリーがなければ(Noならば)、次の矩形についての処理を行う。すべての矩形について処理を行ったならば、情報表示部33は処理を終了する。
Note that steps S12 to S18 are repeatedly performed in a loop for each rectangle extracted in step S11. If there is no corresponding entry in the process S13 (if No), the process for the next rectangle is performed. If the process has been performed for all rectangles, the
このように本実施の形態では、利用者の視線ベクトルを検出し、当該検出した視線ベクトルを座標軸の一つとする利用者の視野座標系を設定する。そして利用者の視野にある対象物についても、この視野座標系でその位置を表し、次いで視野座標系から透過型ディスプレイ15の表示面内の座標系へ座標を変換して、対象物に関する情報の表示位置を得る。そして対象物に関する情報を当該得た位置に配することで、利用者の視線の方向を考慮した位置に情報が表示されることとなる。
In this way, in this embodiment, the user's line-of-sight vector is detected, and the user's visual field coordinate system is set with the detected line-of-sight vector as one of the coordinate axes. The position of the object in the user's field of view is also expressed in this field of view coordinate system, and then the coordinates are converted from the field of view coordinate system to the coordinate system in the display surface of the
また、本実施の形態のここまでの説明では、利用者が本実施の形態の情報表示装置1を装着後、定期的にキャリブレーションを行うものとしていた。しかしながら本実施の形態はこれに限られない。すなわち情報表示装置1が眼鏡の形状をなす場合、装着後のずれはわずかと考えられることから、利用者が頭部に本実施の形態の情報表示装置1を装着したことを検出する装着センサ16をさらに備えて、情報表示装置1が利用者の頭部に装着されたことが、この装着センサ16によって検出された時点で、キャリブレーション指示部31がキャリブレーションの処理を行うべき旨の指示を出力することとしてもよい。
In the above description of the present embodiment, the user periodically performs calibration after wearing the
具体的にこの装着センサ16は、例えば赤外線を放射して、その反射光により物体が近接していることを検出する近接センサー等でよく、テンプル21に取り付けておけばよい。この装着センサ16は、物体が近接していない間はその出力がLとなっており、物体が近接すると出力がHとなる。
Specifically, the mounting
制御部11は、キャリブレーション指示部31として機能する際に、装着センサ16の出力がLからHへ変化し、その後Hの状態が予め定めた時間に亘って継続するときに、利用者が情報表示装置1を装着したものとし、キャリブレーションを行うべきタイミングが到来したとして、キャリブレーションの処理を行うべき旨の指示を出力する。
When the
また本実施の形態の情報処理装置1は、情報処理装置1が装着された後に、当該情報処理装置1と視点位置との相対的位置変動を検出する手段としての変位センサ17をさらに備えてもよい。この変位センサ17は、例えば次のようなものである。すなわち、ここでの例では情報処理装置1は眼鏡の形状を備えているが、眼鏡では一般に装着後の位置ずれは主に、テンプル21が利用者の耳にかかっている部分を中心として、情報処理装置1が利用者の顔に対して上下方向に(つまり仰角方向に)回転することによって生じる。そこでこの変位センサ17は、テンプル21に取り付けられ、鉛直下方に対するテンプル21の仰角角度を検出する傾斜センサでよい。一例としてこの変位センサ17は、仰角に比例した電圧信号を出力する。
In addition, the
制御部11は、キャリブレーション処理部32として機能する際に、この変位センサ17が出力する電圧信号からキャリブレーション処理時の仰角の情報θ0を生成し、キャリブレーションパラメータに含めて記憶部12に格納しておく。
When the
その後、制御部11は、予め定めたタイミングごとに繰り返して、この変位センサ17の出力する電圧信号から仰角の情報θを生成する。そして当該生成した仰角の情報θと、記憶部12に格納されたキャリブレーションパラメータに含まれる、キャリブレーション処理時の仰角の情報θ0とを比較し、その差の絶対値、Δθ=|θ−θ0|を生成する。ここで|*|は、*の絶対値を意味する。
Thereafter, the
制御部11は、Δθが予め定めたしきい値θthを超えたとき(Δθ>θthまたはΔθ≧θthのとき)に、キャリブレーション指示部31としての機能を実行して、キャリブレーションを行うべきタイミングが到来したとして、キャリブレーションの処理を行うべき旨の指示を出力する。
The
また制御部11は、しきい値を超えたときにキャリブレーションの処理を再度行うのではなく、次のようにしてもよい。すなわち、予め定めたタイミングごとに繰り返して変位センサ17の出力から取得する仰角の情報θと、キャリブレーションパラメータに含まれる、キャリブレーション処理時の仰角の情報θ0とを用い、変換行列を補正することとしてもよい。
Further, the
具体的に制御部11は、キャリブレーションパラメータとしての変換行列[TE,wp]に対して、外界座標系を仰角方向(外界座標系Wpにおいて鉛直面内の角度方向)にθ−θ0だけ回転補正する行列[Tθ]を乗じて補正した変換行列
[TE,wp]′=[TE,wp][Tθ]
を生成する。また、ここでの例では、撮像部13とともに透過型ディスプレイ15も同じ変位を受けるので、キャリブレーションパラメータとしての変換行列[TDp,E]に対しても同様に、透過型ディスプレイの座標系を仰角方向(透過型ディスプレイの座標系Dpにおいて鉛直面内の角度方向)にθ−θ0だけ回転補正する行列[Tθ]を乗じて補正した変換行列
[TDp,E]′=[Tθ][TDp,E]
を生成する。そして、以後はこれら補正後の変換行列[TE,wp]′と[TDp,E]′とを用いて、情報表示部33としての処理を実行する。
Specifically, the
Is generated. In the example here, the
Is generated. Thereafter, the processing as the
すなわち制御部11は、情報表示部33としての処理として、外界座標系Wp内において検出した矩形状の座標情報σj(4つの頂点の座標の組等)に、この補正後の変換行列[TE,wp]′を乗じて、利用者の視野座標系Eでの座標情報σ″jに変換する。また補正後の変換行列[TDp,E]′を用いて、座標情報σ″jに含まれる座標の情報を、透過型ディスプレイ15上の点座標Q1(x1,y1),Q2(x2,y2)…の値に変換する。情報表示部33は、これから例えばこれらの点座標Q1(x1,y1),Q2(x2,y2)…の平均値Qave(x,y)=((x1+x2+…+xn/n),(y1+y2+…+yn/n))を演算して、このQave(x,y)の近傍(予め定めたピクセル数未満だけ離れた位置)に、データベースから取り出した表示対象の情報を表示する。
That is, as a process of the
このように、キャリブレーションのタイミングを装着時点とすることで、キャリブレーション処理の回数を少なくでき、処理負荷を軽減できる。このような処理は、例えば車両の運行など、利用者の眼球の方向が極端に変化しない場合に効果的に適用できる。 In this way, by setting the calibration timing to the attachment time point, the number of calibration processes can be reduced, and the processing load can be reduced. Such processing can be effectively applied when the direction of the user's eyeball does not change extremely, for example, when the vehicle is running.
本実施の形態の情報表示装置1は、以上の構成を備えてなり、次のように動作する。本実施の形態の情報表示装置1のある例では、路上を車両で走行しているときに、運転者から視認できる看板類の画像と、各看板に関して予め設定された情報とを関連付けたエントリーを含むデータベースを記憶部12に保持している。
The
この情報表示装置1を利用者が装着すると、情報表示装置1は、それから定期的にキャリブレーションの処理を行い、利用者の視線の方向を検出し、キャリブレーションパラメータとしての変換行列[TE,wp]、及び変換行列[TDp,E]を求める。
When the user wears this
また情報表示装置1は、利用者の視認する方向にある対象物を撮像して得た画像データから、PTAM等マーカーレス拡張現実の方法により外界座標系Wp中で検出される矩形状(複数ある場合はそのそれぞれ)に含まれる部分画像を抽出し、検出した矩形状の部分画像を長方形状に変換する処理を実行する。また、得られた長方形状の部分画像を90度、180度、270度だけ回転させた画像を生成して、検出した矩形状ごとに4つずつの長方形状の部分画像のセット(i番目の矩形状についてセットSiとする)を得る。
In addition, the
情報表示装置1は、予め記憶部12に格納されたデータベースを参照して、得られたセットSi(i=1,2…)に含まれる4つの画像のいずれかに一致する画像を含むエントリーがあるか否かを調べる。例えば、道路上の方面看板等は矩形であるので、この処理によって検出されることになる。そして情報表示装置1の記憶部12には予め、方面看板の画像に関連して表示するべき情報(例えば当該方面看板の近傍にある店舗の情報等)が関連付けられて保持されている。
The
情報表示部33は、セットSj(j=1,2…)に含まれる4つの画像のいずれかに一致する画像を含むエントリーを見出すと、当該エントリーに含まれる表示対象の情報と、サイズ情報とをとり出す。そして、撮像部13が撮像した画像データにおいて、セットSjに含まれる部分画像の元となった矩形状が見いだされた位置の座標と、見いだした矩形状のサイズ、並びに、データベースから取り出したサイズ情報とを用いて外界座標系Wp内における当該矩形状の座標情報σj(4つの頂点の座標の組等)を得る。つまり、例えば方面看板の近傍にある店舗の情報等が得られる。
When the
情報表示装置1は、当該矩形状の座標情報σjに、この変換行列[TE,wp]を乗じて、利用者の視野座標系Eでの座標情報σ″jに変換する。また情報表示装置1は、補正後の変換行列[TDp,E]を用いて、座標情報σ″jに含まれる座標の情報を、透過型ディスプレイ15上の点座標Q1(x1,y1),Q2(x2,y2)…の値に変換する。情報表示装置1は、これから例えばこれらの点座標Q1(x1,y1),Q2(x2,y2)…の平均値Qave(x,y)=((x1+x2+…+xn/n),(y1+y2+…+yn/n))を演算して、このQave(x,y)の近傍(予め定めたピクセル数未満だけ離れた位置)に、データベースから取り出した表示対象の情報(近傍の店舗の情報等)を表示する。
The
[変形例]
また本実施の形態のここまでの説明では、図2に例示したように、眼鏡の形状をなす場合、つまりヘッドマウントディスプレイとして情報表示装置1を実装した場合を例として説明したが、本発明の実施の形態はこれに限られるものではない。
[Modification]
In the above description of the present embodiment, as illustrated in FIG. 2, the case where the shape of glasses is formed, that is, the case where the
例えば本実施の形態の透過型ディスプレイ15は、車両のフロントガラス等であってもよい。この場合、撮像部13及び眼球検知部14はこのフロントガラス、またはフロントガラスに対して相対的な位置が変化しない位置(フロントガラスのフレームやダッシュボード等)に配されてもよい。このようにすることによっても、撮像部13の座標系Cc1と、この透過型ディスプレイ15の座標系Dpとの間の変換行列[Tc1,Dp]もまた既知のものとなり、撮像部13の座標系Cc1と、透過型ディスプレイ15の座標系Dpとの間の変換行列[Tc1,Dp]もまた既知のものとなる。従ってこの場合も、既に述べた例と同様にして処理を行うことにより、利用者の視線方向を考慮した情報の表示が可能となる。
For example, the
さらに本発明の実施の形態のある例では、商品のショーウィンドウやショーケースのガラス面に透過型ディスプレイ15が配されてもよい。この場合は、図8に例示するように、商品を展示するステージ後方(商品に対し、ガラス面とは反対の位置)に撮像部13と眼球検知部14とを配する。この例では、撮像部13は、眼球検知部14のカメラCを兼ねてもよい。ここでのように、商品のショーウィンドウやショーケースのガラス面に配する場合、透過型ディスプレイ15は、既に述べた液晶表示パネルや有機ELパネル等のみならず、ガラス面に映像を投射可能な位置に配されたプロジェクタと、ガラス面に配されたスクリーンとを含むものとしてもよい。この場合のスクリーンは、上記プロジェクタによって投影された映像が投影されるとともに、利用者側から自らを通じて反対側の像を視認可能とした、透明ないし半透明のスクリーンとする。
Furthermore, in an example of the embodiment of the present invention, the
制御部11は、既に述べたと同様の方法で、キャリブレーションの処理を行う。またこの例では、撮像部13の座標系Cc1(ここではこの座標系Cc1がそのまま外界座標系Wpであるとする)内で、情報表示の対象物たる商品の座標は予め定めることができる。そこでこれら商品に外接する直方体の各頂点の、座標系Cc1内の座標が既知であるものとする。また、撮像部13の座標系Cc1における透過型ディスプレイ15の4つの頂点の座標も既知であるものとする。従って、撮像部13の座標系Cc1から、この透過型ディスプレイ15の座標系Dpへの変換行列[TDp,wp]もまた、既知となる。
The
制御部11は、キャリブレーションの処理において利用者の視線ベクトルVを検出し、これから変換行列[TE,wp]を得る。またこれと、既知である[TDp,wp]とより、
[TDp,E]=[TDp,wp][TE,wp]-1
を演算する。
The
[TDp, E] = [TDp, wp] [TE, wp] -1
Is calculated.
また記憶部12には、商品ごとに、商品に外接する直方体の各頂点の座標と、商品に関して表示するべき情報とを関連付けた商品ごとのエントリーを、データベースとして保持しておく。
In addition, the
以下制御部11は、データベースに格納されている商品ごとのエントリーを一つずつ読み出す。そして各エントリーを読み出すごとに、読み出したエントリーに含まれる、外接する直方体の各頂点の座標に対して、変換行列[TE,wp]を乗じて、利用者の視野座標系Eでの座標情報に変換する。また情報表示装置1は、変換行列[TDp,E]を用いて、上記変換後の座標情報に含まれる座標の情報を、透過型ディスプレイ15上の点座標Q1(x1,y1),Q2(x2,y2)…の値に変換する。
Hereinafter, the
また制御部11は、これらQ1(x1,y1),Q2(x2,y2)…の各点を結ぶ多角形に外接する矩形領域を求め、この透過型ディスプレイ15上の、この矩形領域内に、読み出したエントリーに含まれている、商品に関して表示するべき情報を表示させる。
Further, the
この例によると、利用者がガラス面の前を移動しても、利用者にとっては、商品の情報が商品に重ね合わせられて表示されることとなる。 According to this example, even if the user moves in front of the glass surface, the product information is displayed superimposed on the product for the user.
さらに透過型ディスプレイ15と撮像部13との位置は必ずしも固定されていなくてもよい。この場合は、制御部11は、撮像部13が撮像して得た画像データから透過型ディスプレイ15の外周にある頂点の座標を検出する。この座標の検出は、例えば矩形の透過型ディスプレイ15の対角線上の2点にマーカーを取り付けておき、このマーカーを撮像部13の座標系Cc1内で検出することによって行ってもよい。これにより制御部11は、撮像部13の座標系Cc1、すなわち外界座標系Wpから、透過型ディスプレイ15の座標系Dpへの変換行列[TDp,wp]を求めることになる。
Furthermore, the positions of the
さらに、ここまでの説明では、表示の対象となる情報は、記憶部12内にデータベースとして保持することとしていたが、これに限られるものではない。例えばデータベースは外部のサーバに格納しておき、制御部11は、データベースに対して有線または無線LAN、ないしは携帯電話回線網等を介してアクセスし、その内容を検索し、あるいは読み出すようにしても構わない。
Further, in the description so far, the information to be displayed is held as a database in the
1 情報表示装置、11 制御部、12 記憶部、13 撮像部、14 眼球検知部、15 透過型ディスプレイ、16 装着センサ、17 変位センサ、20 フレーム、21 テンプル、22 リム、23 鼻当て部、24 ブリッジ、31 キャリブレーション指示部、32 キャリブレーション処理部、33 情報表示部。
DESCRIPTION OF
Claims (5)
撮像部と、
利用者の視線ベクトルVを検出する手段と、
前記検出した視線ベクトルVを用いて、利用者の視野座標系Epを規定する手段と、
前記撮像部の座標系Ccを外界座標系Wp内の座標に変換する第1の変換行列を求める手段と、
前記規定した利用者の視野座標系Ep内の座標を、外界座標系Wp内の座標に変換する第2の変換行列を求める位置合わせ手段と、
前記撮像部にて撮像された対象物の座標を、前記第1の変換行列を用いて前記外界座標系Wp内の座標に変換し、当該変換された対象物の座標を含む、前記外界座標系Wp内の対象物の位置を表す座標を、前記第2の変換行列によって、前記視野座標系Ep内の位置を表す座標に変換する手段と、
前記視野座標系Epの座標を、前記透過型ディスプレイに投影して、前記対象物に対する情報の表示位置を求める手段と、
前記求めた表示位置に、前記対象物に対する情報を表示する手段と、
を含む情報表示装置。 A transmissive display placed in front of the user's eyes;
An imaging unit;
Means for detecting a user's line-of-sight vector V;
Means for defining a user's visual field coordinate system Ep using the detected line-of-sight vector V;
Means for obtaining a first transformation matrix for transforming the coordinate system Cc of the imaging unit into coordinates in the external coordinate system Wp;
Positioning means for obtaining a second transformation matrix for transforming the coordinates in the visual field coordinate system Ep of the defined user into coordinates in the external world coordinate system Wp ;
The external world coordinate system including the coordinates of the object imaged by the imaging unit, using the first conversion matrix, into coordinates in the external world coordinate system Wp and including the coordinates of the converted object. Means for converting coordinates representing the position of the object in Wp into coordinates representing the position in the visual field coordinate system Ep by the second transformation matrix;
Means for projecting the coordinates of the visual field coordinate system Ep onto the transmissive display to obtain a display position of information on the object;
Means for displaying information on the object at the obtained display position;
An information display device.
当該情報処理装置は、利用者の頭部に装着され、
利用者の頭部に装着されたことを検出するセンサ、をさらに有し、
前記位置合わせ手段は、前記センサにより、情報表示装置が装着されたと検出した時点で、前記第2の変換行列を求める情報表示装置。 The information display device according to claim 1,
The information processing apparatus is mounted on the user's head,
A sensor for detecting that the head is mounted on the user's head;
The position alignment means is an information display device for obtaining the second transformation matrix when the sensor detects that the information display device is mounted by the sensor.
前記センサが、利用者の頭部に装着されたことを検出してから、情報処理装置と前記視点位置との装着後の位置ずれである相対的位置変動を検出する手段をさらに有し、
前記位置合わせ手段は、当該検出した相対的位置変動に基づいて、前記第2の変換行列を補正する情報表示装置。 The information display device according to claim 2,
And further comprising means for detecting a relative position variation, which is a positional shift after mounting the information processing apparatus and the viewpoint position, after detecting that the sensor is mounted on a user's head,
The information alignment apparatus that corrects the second transformation matrix based on the detected relative position fluctuation.
さらに、前記外界座標系Wpと、前記透過型ディスプレイ上の座標系Dpとの変換行列を求める手段を有する情報表示装置。 In the information display device according to any one of claims 1 to 3,
Further, an information display device comprising means for obtaining a transformation matrix between the external world coordinate system Wp and the coordinate system Dp on the transmissive display.
利用者の視線ベクトルVを検出する手段と、
前記検出した視線ベクトルVを用いて、利用者の視野座標系Epを規定する手段と、
前記撮像部の座標系Ccを外界座標系Wp内の座標に変換する第1の変換行列を求める手段と、
前記外界座標系Wp内の座標を、前記規定した利用者の視野座標系Ep内の座標に変換する第2の変換行列を求める位置合わせ手段と、
前記撮像部にて撮像された対象物の座標を、前記第1の変換行列を用いて前記外界座標系Wp内の座標に変換し、当該変換された対象物の座標を含む、前記外界座標系Wp内の対象物の位置を表す座標を、前記第2の変換行列によって、前記視野座標系Ep内の位置を表す座標に変換する手段と、
前記視野座標系Epの座標を、前記透過型ディスプレイに投影して、前記対象物に対する情報の表示位置を求める手段と、
前記求めた表示位置に、前記対象物に対する情報を表示する手段と、
として機能させるプログラム。 A computer having a transmissive display arranged in front of the user's eyes and an imaging unit ,
Means for detecting a user's line-of-sight vector V;
Means for defining a user's visual field coordinate system Ep using the detected line-of-sight vector V;
Means for obtaining a first transformation matrix for transforming the coordinate system Cc of the imaging unit into coordinates in the external coordinate system Wp;
Alignment means for obtaining a second transformation matrix for transforming coordinates in the external world coordinate system Wp into coordinates in the specified user visual field coordinate system Ep ;
The external world coordinate system including the coordinates of the object imaged by the imaging unit, using the first conversion matrix, into coordinates in the external world coordinate system Wp and including the coordinates of the converted object. Means for converting coordinates representing the position of the object in Wp into coordinates representing the position in the visual field coordinate system Ep by the second transformation matrix;
Means for projecting the coordinates of the visual field coordinate system Ep onto the transmissive display to obtain a display position of information on the object;
Means for displaying information on the object at the obtained display position;
Program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011260644A JP5799776B2 (en) | 2011-11-29 | 2011-11-29 | Information display device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011260644A JP5799776B2 (en) | 2011-11-29 | 2011-11-29 | Information display device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013114491A JP2013114491A (en) | 2013-06-10 |
JP5799776B2 true JP5799776B2 (en) | 2015-10-28 |
Family
ID=48709978
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011260644A Active JP5799776B2 (en) | 2011-11-29 | 2011-11-29 | Information display device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5799776B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9741315B2 (en) * | 2013-07-03 | 2017-08-22 | Visteon Global Technologies, Inc. | Adjusting a transparent display with an image capturing device |
JP2017505933A (en) * | 2013-11-26 | 2017-02-23 | シェフィ,ヨァヴ | Method and system for generating a virtual image fixed on a real object |
EP3335070B1 (en) * | 2015-09-30 | 2020-11-25 | Sony Interactive Entertainment Inc. | Methods for optimizing positioning of content on a screen of a head mounted display |
JP2021184115A (en) * | 2018-08-28 | 2021-12-02 | ソニーグループ株式会社 | Information processing device, information processing method and program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3446044B2 (en) * | 1993-04-30 | 2003-09-16 | カシオ計算機株式会社 | Input processing device |
JPH10334275A (en) * | 1997-05-29 | 1998-12-18 | Canon Inc | Method and system for virtual reality and storage medium |
JP2003296757A (en) * | 2002-03-29 | 2003-10-17 | Canon Inc | Information processing method and device |
JP2008046802A (en) * | 2006-08-14 | 2008-02-28 | Advanced Telecommunication Research Institute International | Interaction information output device, interaction information output method and program |
JP4492597B2 (en) * | 2006-09-20 | 2010-06-30 | 太郎 諌山 | Stereoscopic display processing apparatus and stereoscopic display processing method |
JP4679661B1 (en) * | 2009-12-15 | 2011-04-27 | 株式会社東芝 | Information presenting apparatus, information presenting method, and program |
-
2011
- 2011-11-29 JP JP2011260644A patent/JP5799776B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013114491A (en) | 2013-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6963820B2 (en) | Line-of-sight detector | |
JP5844880B2 (en) | Head mounted display, calibration method and calibration program, and recording medium | |
US10347048B2 (en) | Controlling a display of a head-mounted display device | |
US10467770B2 (en) | Computer program for calibration of a head-mounted display device and head-mounted display device using the computer program for calibration of a head-mounted display device | |
JP7480882B2 (en) | Information processing device, recognition assistance method, and computer program | |
WO2015190204A1 (en) | Pupil detection system, gaze detection system, pupil detection method, and pupil detection program | |
JP2010259605A (en) | Visual line measuring device and visual line measuring program | |
CN112102389A (en) | Method and system for determining spatial coordinates of a 3D reconstruction of at least a part of a physical object | |
US11436742B2 (en) | Systems and methods for reducing a search area for identifying correspondences between images | |
US20210398306A1 (en) | Dense depth computations aided by sparse feature matching | |
US11012677B1 (en) | Systems and methods for correcting rolling shutter artifacts | |
EP3506149A1 (en) | Method, system and computer program product for eye gaze direction estimation | |
JP5799776B2 (en) | Information display device and program | |
US11430086B2 (en) | Upsampling low temporal resolution depth maps | |
CN117881996A (en) | Gaze tracking for retinal projection display systems | |
US11651502B2 (en) | Systems and methods for updating continuous image alignment of separate cameras | |
US11450014B2 (en) | Systems and methods for continuous image alignment of separate cameras | |
TW202143018A (en) | Augmented reality system and anchor display method thereof | |
JP2016057634A (en) | Head-mounted display, calibration method, calibration program, and recording medium | |
US12026980B2 (en) | Pupil ellipse-based, real-time iris localization | |
US11516452B2 (en) | Systems and methods for temporal corrections for parallax reprojection | |
JP2017215597A (en) | Information display method and information display device | |
KR20170112024A (en) | Camera and camera calibration method | |
JP6864333B2 (en) | Face orientation detection system and face orientation detection device | |
CN114761999A (en) | Image processing method, image processing apparatus, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140718 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150427 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150512 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150728 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150810 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5799776 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |