JP3805231B2 - 画像表示装置及びその方法並びに記憶媒体 - Google Patents
画像表示装置及びその方法並びに記憶媒体 Download PDFInfo
- Publication number
- JP3805231B2 JP3805231B2 JP2001329360A JP2001329360A JP3805231B2 JP 3805231 B2 JP3805231 B2 JP 3805231B2 JP 2001329360 A JP2001329360 A JP 2001329360A JP 2001329360 A JP2001329360 A JP 2001329360A JP 3805231 B2 JP3805231 B2 JP 3805231B2
- Authority
- JP
- Japan
- Prior art keywords
- posture
- viewpoint
- correction information
- sensor
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 44
- 238000012937 correction Methods 0.000 claims description 142
- 238000004364 calculation method Methods 0.000 claims description 79
- 238000005259 measurement Methods 0.000 claims description 24
- 238000006243 chemical reaction Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 13
- 230000003287 optical effect Effects 0.000 claims description 8
- 230000010365 information processing Effects 0.000 claims description 7
- 230000005484 gravity Effects 0.000 claims description 5
- 238000003672 processing method Methods 0.000 claims description 3
- 230000036544 posture Effects 0.000 description 131
- 238000004088 simulation Methods 0.000 description 17
- 239000011159 matrix material Substances 0.000 description 16
- 230000008569 process Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 238000010276 construction Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000009466 transformation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Description
【発明の属する技術分野】
本発明は、姿勢センサの出力値に基づいて実空間に融合した仮想空間の画像を表示させる画像表示装置及び方法に関する。更に詳しくは、撮像装置によって撮像された実画像に仮想空間の画像を重畳した重畳画像を生成し、これを表示画面に表示する画像表示装置、あるいは、表示画面に現実空間を光学的に透過させつつ当該表示画面に仮想空間の画像を表示する画像表示装置、及びそれらの方法並びに記憶媒体に関するものである。
【0002】
【従来の技術】
近年、現実空間と仮想空間の繋ぎ目のない結合を目的とした、複合現実感(以下、“MR”(Mixed Reality)と称す)に関する研究が盛んに行われている。MRには、ビデオカメラなどの撮影装置で撮影された現実空間の画像に仮想空間(たとえばコンピュータグラフィックス(以下、CGと称す)により描画された仮想物体や文字情報など)の画像を重畳して表示するビデオシースルー方式と、表示装置の表示画面に現実空間を光学的に透過させつつ、その表示画面に仮想空間の画像を重畳表示する光学シースルー方式がある。
【0003】
このようなMRの応用としては、現実の街中において建物等にその名称や案内を重畳表示するナビゲーションや、ビルの建設予定地に建設予定のビルのCG映像を重畳表示する景観シミュレーションなど、今までのバーチャルリアリティとは質的に全く異なった新たな分野が期待されている。これらの応用に対して共通に要求されるのは、現実空間と仮想空間の間の位置合わせをいかにして正確に行うかということであり、従来から多くの取り組みが行われてきた。
【0004】
ビデオシースルー方式のMRにおける位置合わせの問題は、現実空間に設定した世界座標系(以後、単に世界座標系と呼ぶ)における、撮影装置の視点の3次元位置姿勢を求める問題に帰結される。また光学シースルー方式のMRにおける位置合わせの問題は、同様に世界座標系におけるユーザの視点の3次元位置姿勢を求める問題といえる。
【0005】
これらの問題を解決する方法として、磁気センサや超音波センサなどの3次元位置姿勢センサを利用して、世界座標系における撮影装置やユーザの視点(以下、単に視点と呼ぶ)の3次元位置姿勢を取得することが一般的に行われている。
【0006】
また、屋外において対象までの距離が十分離れている場合のように、視点の位置については固定値を用いても差し支えのない状況下では、ジャイロセンサや加速度計の組み合わせによって構成される3次元姿勢センサを用いて視点の3次元姿勢を得て、それを元に視点の3次元位置姿勢を取得することが一般的に行われている。
【0007】
3次元姿勢センサが出力する出力値は、例えば(株)トキメック製の姿勢センサTISS-5-40を例にとると、重力の逆方向をY軸、このY軸によって定められるX−Z平面上でのセンサ起動時のセンサの正面方向を−Z軸として定義される座標系であるところのセンサ座標系におけるセンサ自身の3次元姿勢である。このように、3次元姿勢センサが出力する出力値は、計測対象である世界座標系における視点の3次元姿勢ではないのが一般的である。すなわち、センサ出力値をそのまま世界座標系における視点の3次元姿勢として用いることはできず、何らかの座標変換を行う必要がある。具体的には、センサ自身の姿勢を視点の姿勢に変換する座標変換と、センサ座標系における姿勢を世界座標系における姿勢に変換する座標変換が必要となる。なお、本明細書において、センサ出力値と世界座標系における視点の3次元姿勢との間の座標変換を行うためのデータを補正情報と呼ぶこととする。
【0008】
図1は、光学シースルー方式の複合現実感の提示を行う一般的な画像表示装置の構成を示す図である。
【0009】
表示画面110はシースルー型であり、姿勢センサ120と共に頭部装着部100に固定されている。不図示のユーザが、表示画面110が眼前に位置するように頭部装着部100を装着すると、表示画面110の光学系(図1には不図示)を通して表示画面の前方の現実空間を観察することができる。姿勢センサ120は、センサ座標系におけるセンサ自身の姿勢を計測し、3自由度の姿勢計測値を出力する。なお、姿勢センサ120は地球の重力方向を計測可能な傾斜計(不図示)を内部に有しており、上述したように、センサ座標系の1つの軸(本例ではY軸とする)は重力の逆方向に設定される。
【0010】
姿勢情報出力部130は、メモリ140が保持する補正情報に従って、姿勢センサ120より入力した計測値に変換を加え、世界座標系におけるユーザの視点の姿勢を算出しこれを姿勢情報として出力する。画像生成部150は、姿勢情報出力部130より入力した姿勢情報に従ってユーザの視点の姿勢に対応した仮想画像を生成し、これを出力する。表示画面110は、画像生成部150より仮想画像を入力しこれを表示する。以上の構成により、不図示のユーザは、表示画面110を通した現実空間の像に重ねて、表示画面110に表示された仮想画像を見ることとなる。
【0011】
次に、図2を用いて、姿勢情報出力部130において、世界座標系におけるユーザの視点の姿勢を算出する方法を説明する。
【0012】
同図において、世界座標系200におけるセンサ座標系210の姿勢をRTW、センサ座標系210における姿勢センサ120の姿勢をRST、姿勢センサ120からみたユーザの視点220の相対的な姿勢をRVS、世界座標系200におけるユーザの視点220の姿勢をRVWとする。
【0013】
ここで、Rは4×4の行列であって、RBAはある座標系Aにおける対象Bの姿勢を記述する。これは言い換えれば、座標系Aから対象Bが定義する座標系Bへの座標変換行列であり、座標系Aにおける座標PA=(XA,YA,ZA,1)Tを座標系Bにおける座標PB=(XB,YB,ZB,1)Tに変換する変換式、PB=RBAPAを定義するものである。すなわち、世界座標系200におけるユーザの視点220の姿勢RVWは、世界座標系200における座標PW=(XW,YW,ZW,1)Tをユーザの視点座標系230における座標PV=(XV,YV,ZV,1)Tに変換するための座標変換行列(PV=RVWPW)と言い換えることもできる。
【0014】
また行列Rは、X軸まわりの回転角θによって定義される回転行列Rx、Y軸まわりの回転角(方位角)φによって定義される回転行列Ry、Z軸まわりの回転角ψによって定義される回転行列Rzの積により構成されており、R=RzRxRyの関係が成立している。これらの行列はそれぞれ次のように表される。
【0015】
【数1】
【0016】
このときRVWは、
RVW=RVS・RST・RTW … (式A)
によって示すことができる。
【0017】
ここで、センサ座標系210のY軸は重力の逆方向に設定されているので、世界座標系200のY軸を地表面と垂直に定義することにより、世界座標系200とセンサ座標系210のY軸の方向を一致させることができる。このとき、RTWのX軸およびZ軸まわりの成分であるRxTWおよびRzTWはそれぞれ単位行列となり、RTWは、Y軸まわりの回転角φTWによって定義される回転行列RyTWと等価となる。したがって、上記の(式A)は、
RVW=RVS・RST・RyTW … (式B)
に変形される。
【0018】
このうち、RSTが姿勢センサ120から姿勢情報出力部130への入力、RVWが姿勢情報出力部130から画像生成部150への出力であり、RVS及びRyTW(言い換えると、RVSを定義する3軸まわりの回転角θVS,φVS,ψVS及びRyTWを定義する回転角φTW)が、RSTをRVWに変換するために必要な補正情報に相当する。姿勢情報出力部130は、姿勢センサ120から入力されるRSTと、メモリ140に保持されているRVS及びRyTWとを用いて、(式B)に基づいてRVWを算出し、これを画像生成部150へと出力する。
【0019】
現実空間と仮想空間の正確な位置合わせを行うためには、何らかの手段によってメモリ140に正確な補正情報が設定される必要がある。正確な補正情報が与えられてはじめて、現実空間に正確に位置合わせのなされた仮想画像の表示が実現される。
【0020】
補正情報を設定する公知の方法の一つとして、ユーザあるいはオペレータが、不図示の入力手段を介してメモリ140に格納されたθVS,φVS,ψVS及びφTWの各値を対話的に増減し、正確な位置合わせが達成されるまで各値の調整を試行錯誤的に行うという方法がある。
【0021】
しかしこの方法では、4つのパラメータを同時に調整する必要があるため、作業が煩雑であり調整に時間がかかるという問題点があった。
【0022】
【発明が解決しようとする課題】
この煩雑さを軽減する一つの方法として、特願2001−050990号により提案された方法がある。以下では、この補正情報設定手法について説明する。
【0023】
図3は、図1の画像表示装置にこの補正情報設定方法を組込んだ際の画像表示装置の構成を示すブロック図である。同図に示したように、本構成は、図1の構成に、補正情報算出部310、指示情報入力部320及び切替え部330が追加された構成となる。また、本画像表示装置における図1の姿勢情報出力部130及びメモリ140に相当する構成要素はその機能が図1の画像表示装置とは異なるため、図3の画像表示装置ではこれを姿勢情報出力部130’及びメモリ140’と表記する。
【0024】
補正情報の算出は、ユーザの視点220の姿勢を、世界座標系におけるある予め定めた姿勢であって、地平面と水平な視軸を持つ姿勢Ry0 VWに移動させて、その時点での姿勢センサ120の出力R0 STを取得することで行われる。メモリ140’は、補正情報の他に、上記の予め定めた視点の姿勢Ry0 VW(あるいはそれを定義するY軸まわりの回転角φ0 VW)を保持している。
【0025】
切替え部330は、ユーザあるいはオペレータ(いずれも図3には不図示)からの入力を受け、姿勢情報出力部130’のモードを通常モードあるいは補正情報算出モードに設定する。
【0026】
姿勢情報出力部130’は、モードが通常モードの場合には、図1で説明した姿勢情報出力部130と同様に、姿勢センサ120から入力されるRSTから補正情報を用いてRVWを算出し、これを姿勢情報として画像生成部150へと出力する。
【0027】
一方、モードが補正情報算出モードの場合には、メモリ140’からRy0 VWを入力し、これを姿勢情報として画像生成部150へと出力する。指示情報入力部320は、ユーザあるいはオペレータからの入力を受け、補正情報算出処理実行の指示を補正情報算出部310へと送信する。より具体的には、ユーザあるいはオペレータは、補正情報算出モードにおいて、表示画面110に表示された仮想画像と、表示画面110を光学的に透過して観察される現実空間の像が正しい位置関係になるように視点220の姿勢を調整する。そして、両画像が十分に重なり合っていると判断した時点(すなわち、視点220が姿勢Ry0 VWに位置していると判断された時点)で、例えば特定のキーを押すことにより指示情報入力部320への入力を行う。
【0028】
補正情報算出部310は、補正情報算出処理実行の指示を指示情報入力部320から入力し、その時点(すなわち、視点220が姿勢Ry0 VWに位置しているとユーザあるいはオペレータが判断した時点)における姿勢センサ120の出力R0 STを入力し、姿勢Ry0 VWと姿勢R0 STに基づいて補正情報の算出を行う。
【0029】
上記の方法では、補正情報の1つである姿勢RVSのうち、その逆行列RSV(ユーザの視点から見た姿勢センサの相対的な姿勢を表わす)のy軸まわりの回転成分RySV(あるいはそれを定義するY軸まわりの回転角φSV)が何らかの方法によって既知であり、すでにメモリ140’に記憶されている必要がある。
【0030】
このとき、補正情報算出部310で処理されるデータの間には、(式B)より、
Ry0 VW=RVS・R0 ST・RyTW … (式C)
の関係が成立する。ここで、(式C)を変形すると、
Ry0 VW=(RzSVRxSVRySV)- 1R0 STRyTW … (式D)
となる。
【0031】
補正情報算出部310は、メモリ140’よりRy0 VWおよびRySVを、センサ120よりR0 STを入力し、(式D)に基づいて未知の補正情報RzSV,RxSV,RyTWを算出する。以下にその手順を示す。
【0032】
(式D)をさらに変形すると、
RzSVRxSVRySVRy0 VW=Rz0 STRx0 STRy0 STRyTW … (式E)
となる。ここで、(式E)の左辺および右辺のそれぞれがZ、X、Y軸周りの回転成分の積となっているので、Z、X、Y軸周りの回転成分毎に恒等式が成立する。
【0033】
まず、Z、X軸周りの回転成分の恒等式は以下の通りとなる。すなわち、
RzSV=Rz0 ST … (式F)
RxSV=Rx0 ST … (式G)
これより、RzSVおよびRxSVを求めることができる。
【0034】
一方、Y軸周りの回転成分の恒等式は以下の通りとなる。すなわち、
RySVRy0 VW=Ry0 STRyTW
これより、
RyTW=RySVRy0 VWRy0 ST -1 … (式H)
となり、RyTWを求めることができる。
【0035】
補正情報算出部310は、上記の処理によって補正情報RzSV,RxSV,RyTWの算出を行い、これらの値からさらにRVS(=(RzSVR×SVRySV)-1)を算出して、RVSおよびRyTW(あるいはそれらを定義する回転角θSV,ψSV及びφTW)をメモリ140’へと出力する。
【0036】
なお、RySVの導出は分度器等の計測値を手掛りに試行錯誤的に行ってもよいし、他のいずれの計測手段を用いて行ってもよい。
【0037】
以上によって、視点の姿勢の3自由度全てを予め定められた姿勢に固定しさえすれば、未知な補正情報を容易に導出することができ、正確な位置合わせを実現することが可能となる。
【0038】
表示画面110と姿勢センサ120との位置関係が固定されている限りにおいては補正情報のうちのRVS(あるいは回転角θSVおよびψSV)は不変であり、ひとたび補正情報が導出されれば(すなわちRVSが既知となれば)システムの使用ごとに変化する補正情報はRyTW(あるいは回転角φTW)のみである。しかしながら、上記の方法においては、システムの使用ごとに全ての補正情報を導出するのと同様な作業(すなわち視点の姿勢の3自由度全てを予め定められた姿勢に固定するという作業)を行わなくてはならなかった。
【0039】
しかし、視点の姿勢の3自由度全てを予め定められた姿勢に固定することは容易ではなく、予め定められた姿勢と指示情報を入力した際の実際の姿勢とのずれが、導出する補正情報の誤差として現れてきてしまうという問題があった。そのため、十分な位置合わせが達成できるまで、上記の補正値算出処理を繰り返し行わなくてはならないという問題があった。
【0040】
本発明は以上の問題に鑑みてなされたものであり、センサ計測値を世界座標系における視点の姿勢に変換するための補正情報を、より簡便に取得することを目的とする。
【0041】
【課題を解決するための手段】
本発明の目的を解決する為に、例えば本発明の画像表示装置は以下の構成を備える。すなわち、
表示画面を観察するユーザの視点の姿勢に応じた仮想画像を現実画像と合成してユーザに提示する画像表示装置であって、
方位角及び傾斜角を含む姿勢計測値を出力する姿勢センサと、
前記姿勢センサからの姿勢計測値を補正情報を用いて世界座標系で表された視点の姿勢に変換する変換手段と、
前記補正情報の較正のために、メモリに予め格納された所定方位角と、該姿勢センサからの傾斜角とに基づいて世界座標系における前記視点の姿勢を算出する算出手段と、
前記算出手段で算出された前記視点の姿勢を用いて仮想画像を生成し、前記表示画面に表示する表示手段と、
前記表示手段による前記仮想画像の表示中において予め定められた指示入力があったとき、前記姿勢センサからの方位角と前記所定方位角とに基づいて、前記補正情報を較正する較正手段とを備える。
【0042】
また、上記の目的を達成するための本発明による情報処理方法は、
ユーザの視点の姿勢に応じた仮想画像を現実画像と合成してユーザに提示する情報処理方法であって、
姿勢センサから方位角及び傾斜角を含む姿勢計測値を取得する取得工程と、
前記姿勢センサからの姿勢計測値を補正情報を用いて世界座標系で表された視点の姿勢に変換する変換工程と、
前記補正情報の較正のために、メモリに予め格納された所定方位角と、該姿勢センサからの傾斜角とに基づいて世界座標系における前記視点の姿勢を算出する算出工程と、
前記算出工程で算出された前記視点の姿勢を用いて仮想画像を生成し、表示画面に表示させる表示工程と、
前記表示工程による前記仮想画像の表示中において予め定められた指示入力があったとき、前記姿勢センサからの方位角と前記所定方位角とに基づいて、前記補正情報を較正する較正工程とを備える。
【0043】
【発明の実施の形態】
以下、添付図面を参照して、本発明の好適な実施形態について詳細に説明する。
【0044】
以下、本発明の画像表示装置及びその方法を、建設予定のビルの景観シミュレーションを行うシミュレーション装置及びその方法に適用する場合の詳細を説明する。
【0045】
図4は、本実施形態のシミュレーション装置によってユーザに提示される像の一例を示している。すなわち、本実施形態のシミュレーション装置は、不図示のユーザがビルの建設予定地510を含む現実の風景500を観察している際に、建設予定ビルのCG画像520をユーザの視点の姿勢にしたがって生成し、これを表示することにより、建設予定地510に建設予定ビルが建っているがごとき像530をユーザに観察させる。
【0046】
本実施形態のシミュレーション装置は、図3において示した補正情報RVSおよびRyTW(あるいはそれらを定義する回転角θSV,ψSV及びφTW)を求める補正情報算出方法に加え、補正情報RVS(あるいはそれを定義する回転角θSV及びψSV)が算出済みである場合に、補正情報RyTW(あるいはそれを定義する回転角φTW)のみを効率的に算出する補正情報算出機能を有している。
【0047】
図5は、本実施形態のシミュレーション装置の装置構成を示している。同図に示したように、本実施形態のシミュレーション装置は、図3に示した画像表示装置における姿勢情報出力部130’,補正情報算出部310,切替え部330,及びメモリ140’に相当する構成要素として、姿勢情報出力部130”,補正情報算出部310’,切替え部330’,及びメモリ140”を構成要素として有した構成となる。また、画像生成部150’は、仮想画像として建設予定のビルのCG画像を生成する機能を有しているものとする。
【0048】
尚、頭部装着部100、表示画面110、姿勢センサ120、及び指示情報入力部320の動作は図3に示した画像表示装置と同様であるので説明を省略する。
【0049】
また、本実施形態においては、メモリ140”は、図3に示した画像表示装置における補正情報、予め定めた視点の姿勢Ry0 VW(あるいは回転角φ0 VW)に加え、世界座標系における姿勢センサ120の予め定められた方位角φ0 SW(あるいはそれによって定義される回転行列Ry0 SW)を保持している。
【0050】
切替え部330’は、ユーザあるいはオペレータ(いずれも図5には不図示)からの入力を受け、姿勢情報出力部130”のモードを、図3に示した画像表示装置における通常モード,補正情報算出モード(本実施形態ではこれを第一の補正情報算出モードと呼ぶ)あるいは、補正情報RyTWを算出するための第二の補正情報算出モードに設定する。また、同様に、切替え部330’は、補正情報算出部310’のモードを、上記第一の補正情報算出モードあるいは第二の補正情報算出モードのいずれかに設定する。
【0051】
姿勢情報出力部130”は、モードが通常モードあるいは第一の補正情報算出モードの場合には、姿勢情報出力部130’と同様な姿勢情報を画像生成部150’へと出力する。すなわち、モードが通常モードの場合には、図1で説明した姿勢情報出力部130と同様に、姿勢センサ120から入力されるRSTから補正情報を用いてRVWを算出し、これを姿勢情報として画像生成部150へと出力する。また、モードが第一の補正情報算出モードの場合には、メモリ140’からRy0 VWを入力し、これを姿勢情報として画像生成部150へと出力する。
【0052】
一方、モードが第二の補正情報算出モードの場合には、姿勢情報出力部130”は、姿勢センサ120から計測値RST(あるいはこれを定義する回転角)を入力し、さらに、メモリ140”より補正情報RVS及び予め定められた回転行列Ry0 SW(あるいはこれらを定義する回転角)を入力し、次式
R’VW=RVS・RzST・RxST・Ry0 SW …(式I)
によって算出される姿勢R’VW(あるいはこれを定義する回転角)を、姿勢情報として画像生成部150’へと出力する。
【0053】
なお、(式I)において、Ry0 SWは、Ry0 ST・Ry0 TWに相当する((式B)参照)。すなわち、(式B)において姿勢センサ120の計測値RSTを、傾斜角成分(RzSTとRxST)と方位角成分(RyST)に分け、姿勢センサ120の世界座標系に対する方位角成分を固定値(Ry0 ST・Ry0 TW=Ry0 SW)としたものである。
【0054】
また、補正情報算出部310’は、モードが第一の補正情報算出モードの場合には、補正情報算出部310と同様な補正情報の算出を行う。すなわち、補正情報算出部310は、補正情報算出処理実行の指示を指示情報入力部320から入力し、視点220が姿勢Ry0 VWに位置しているとユーザあるいはオペレータが判断した時点における姿勢センサ120の出力R0 STを入力し、姿勢Ry0 VWと姿勢R0 STに基づいて補正情報の算出を行う。
【0055】
一方、モードが第二の補正情報算出モードの場合には、補正情報算出部310’は、補正情報算出処理実行の指示を指示情報入力部320から入力すると、その時点における姿勢センサ120の出力のうちの方位角φ0 ST(あるいはそれによって定義される回転行列Ry0 ST)を入力し、さらに、メモリ140”より方位角φ0 SW(あるいはそれによって定義される回転行列Ry0 SW)を入力し、次式
φTW= φ0 SW−φ0 ST …(式J)
によって算出される補正情報φTW(あるいはそれによって定義される回転行列RyTW)をメモリ140”へと出力する。
【0056】
つぎに、図6を用いて、本実施形態のシミュレーション装置の、第二の補正情報算出モードにおける動作の原理を説明する。
【0057】
第二の補正情報算出モードを実行する時点において、補正情報RVSは既に得られている。第二の補正値算出モードにおいては、不図示のユーザが現実空間を観察し、その結果、表示画面110を通して現実の風景600が観察されているものとする。このとき、画像生成部150’は、姿勢情報出力部130”が(式I)に基づいて出力する姿勢情報を入力して、建設予定ビルのCG画像620を生成し、これを表示画面110へと出力する。(式I)は、姿勢センサ120の姿勢に関して、傾斜角(RzSTとRxST)については姿勢センサ120の計測値を、方位角については固定値を使用したものであるので、傾斜角方向については視点の姿勢に連動していて方位角方向については姿勢の固定されたCG画像が生成される。したがって、ユーザが観測する観察像630は、傾斜角方向に関しては位置合わせが正しく行われており、方位角方向のみに位置ずれが生じた像となる。
【0058】
ユーザあるいはオペレータ(いずれも不図示)は、観察像において現実の風景と仮想の映像(建設予定ビルのCG映像)が正しい位置関係となるように視点の方位方向を調整し(640,650,660)、正しい位置関係の観察像が観察された時点(660)で、補正情報算出処理実行の指示を指示情報入力部320へと入力する。このとき、視点の傾斜角に関しては固定する必要がないため、一般的な手法と比べて姿勢の調整を容易に行うことができる。
【0059】
ここで、現実空間の像と仮想空間の像の位置関係が正しいとされた時点(660)におけるに姿勢センサ120の出力を(式B)に基づいて正しい補正情報によって補正することによって得られる姿勢情報は、(式I)で算出される姿勢情報と等しくなるはずである。よって(式B)および(式I)から、
RVS・R0 ST・RyTW =RVS・R0zST・R0xST・Ry0 SW …(式K)なる関係が成立する。
【0060】
したがって、
Ry0 ST・RyTW=Ry0 SW …(式L)
となり、これより(式J)が導出さる。したがって、補正情報算出部310’において、(式J)に基づいて補正情報φTWを算出することが可能となる。
【0061】
図7は本実施形態のシミュレーション装置による処理の手順を示すフローチャートである。なお、同フローチャートに従ったプログラムコードは本実施形態の装置内の不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUにより読み出され、実行される。
【0062】
ステップS1010において、切替え部330’における現在の設定モードが通常モード、第一の補正情報算出モード及び第二の補正情報算出モードの何れであるかの判定を行う。姿勢センサ120及び/または表示画面110が頭部装着部100にはじめて固定されたときや、姿勢センサ120と表示画面110の相対的な姿勢の関係が変化した場合には、全ての補正情報を導出する必要がある。このような場合、ユーザあるいはオペレータは、切替え部330’によってモードを第一の補正情報算出モードに切替え、補正情報の算出処理を実行する。
【0063】
モードが第一の補正情報算出モードの場合、処理はステップS1100に進み、指示情報入力部320から指示情報が入力されているかどうかの判定が行われる。
【0064】
指示情報が入力されていない場合、処理はステップS1100からステップS1150へ進み、姿勢情報出力部130”はメモリ140”から予め定めた姿勢情報を入力する。そして、ステップS1050においてこれを視点の姿勢情報として画像生成部150’へと出力する。
【0065】
画像生成部150’は、ステップS1060において姿勢情報出力部130”から視点の姿勢情報を入力し、これを仮想物体の描画パラメータとして設定する。そして、ステップS1070において、ステップS1060で設定された描画パラメータを用いて仮想物体のCG画像を生成し、ステップS1080において生成したCG画像を表示画面110へと出力する。これにより、予め定めた姿勢にしたがった仮想物体の像が表示画面110上へと表示される。この処理は、第一の補正情報算出モードの間繰り返し行われる。
【0066】
以上のようにして仮想物体の像を表示画面110上に表示している間に、ユーザあるいはオペレータは、表示画面110に表示された仮想物体が現実空間と正しい位置関係になるように頭部の3次元的な姿勢を調整する。そして、正しい位置関係となった時点で指示情報入力部320により指示情報の入力を行う。
【0067】
第一の補正情報算出モードで指示情報が入力された場合、補正情報算出部310’は、ステップS1110において姿勢センサ120から計測値を入力し、ステップS1120において予め定めた姿勢および補正情報RySV(あるいはそれを定義する回転角φSV)をメモリ140”から入力する。さらに、ステップS1130において、(式F),(式G)および(式H)に従って未知の補正情報を算出し、ステップS1140において、算出した補正情報をメモリ140”へと出力する。
【0068】
一方、第一の補正情報算出モードにおいて補正情報を算出した後であって、姿勢センサ120と表示画面110の相対的な姿勢の関係が変化していない状況において、本実施形態のシミュレーション装置を再度使用する場合には、ユーザあるいはオペレータは、切替え部330’によってモードを第二の補正値算出モードに切替え、補正情報の算出処理を実行すればよい。
【0069】
切替え部330’において第二の補正情報算出モードが設定されている場合、処理はステップS1160に進み、指示情報入力部320から指示情報が入力されているかどうかの判定が行われる。
【0070】
指示情報が入力されていない場合、姿勢情報出力部130”は、ステップS1210において姿勢センサ120から計測値を入力し、ステップS1220においてメモリ140”より補正情報RVS及び予め定められた回転行列Ry0 SW(あるいはこれらを定義する回転角)を入力する。そして、ステップS1230において(式I)に基づき視点の姿勢を算出し、ステップS1050においてこれを視点の姿勢情報として画像生成部150’へと出力する。
【0071】
画像生成部150’は、ステップS1060において姿勢情報出力部130”から視点の姿勢情報を入力し、これを仮想物体の描画パラメータとして設定する。さらに、ステップS1070において仮想物体の描画を行い、ステップS1080において生成したCG画像を表示画面110へと出力する。これにより、方位角のみが一定方向に固定された仮想物体が表示画面110上へと表示される。以上の処理は、第二の補正情報算出モードの間繰り返し行われる。
【0072】
以上のようにして仮想物体の像を表示画面110上に表示している間に、ユーザあるいはオペレータは、表示画面110に表示された仮想物体が現実空間と正しい位置関係になるように頭部の方位角方向を調整する(図6の630〜660)。そして、正しい位置関係となった時点で指示情報入力部320により指示情報の入力を行う。
【0073】
指示情報が入力された場合、補正情報算出部310’は、ステップS1170において、姿勢センサ120から計測値を入力し、ステップS1180において、予め定められた方位角φ0 SW(あるいはこれによって定義される回転行列Ry0 SW)をメモリ140”から入力する。さらに、ステップS1190において(式J)に従って未知の補正情報φTWを算出し、ステップS1200において、上記算出された補正情報をメモリ140”へと出力する。こうして、最終的な補正情報がメモリ140”に格納される。
【0074】
切替え部330’によって設定されたモードが通常モードの場合、姿勢情報出力部130”は、ステップS1020において、姿勢センサ120から計測値を入力し、ステップS1030において、メモリ140”から補正情報を入力する。さらに、ステップS1040において、計測値と補正情報から視点の姿勢を算出し、ステップS1050においてこれを視点の姿勢情報として画像生成部150’へと出力する。
【0075】
画像生成部150’は、ステップS1060において、姿勢情報出力部130”から視点の姿勢情報を入力し、ステップS1070において、その姿勢情報に基づいて仮想物体のCG画像を生成する。次に、ステップS1080において、生成したCG画像を表示画面110へと出力する。これにより、視点の姿勢にしたがった仮想物体の像が表示画面110上へと表示される。この処理は、通常モードの間繰り返し行われる。
【0076】
尚、姿勢情報出力部130”,メモリ140”,画像生成部150’,補正情報算出部310’,指示情報入力部320,および切替え部330’は、例えば1台の汎用コンピュータ(ノート型コンピュータ等)により構成することが可能である。また、本実施形態では、姿勢センサ120は例えばトキメック(株)の姿勢センサTISS-5-40を含んで構成したが、他の姿勢センサでももちろんかまわない。
【0077】
尚、切替え部330’および指示情報入力部320への入力は、同一のユーザインターフェイスを介して行われることが望ましく、例えば、キーボードや、コントロールパッドを用いることができる。
【0078】
また、上記実施形態は光学シースルー方式のMRを実現するためのものであったが、光学シースルー方式に限定されるものではなく、ビデオシースルー方式のMRにも適用可能である。その場合、上述の実施形態ではユーザの視点220であった姿勢の計測対象が、撮像装置(例えばビデオカメラ)の視点となる。また、ビデオシースルー方式の場合、画像生成部150’は、撮像装置が撮影した現実空間の画像にCG画像を重畳描画し、これを表示画面110へと表示する。
【0079】
<変形例1>
上記実施形態は、位置合わせの手掛りとして表示対象である仮想物体のCG画像を用いたが、仮想空間と現実空間の位置合わせがなされていることを確認するための視覚的なキューとなる幾何情報であれば、いずれの幾何情報を用いてもよい。例えば地形や現実のビルの形状のモデリングを行い、現実空間の同位置にそのワイヤーフレームモデルを重畳描画するようにして位置合わせを行なってもよい。なお、現実物体のワイヤーフレームモデルと表示対象である仮想物体とを組み合わせて表示することが可能あることは言うまでもない。
【0080】
<変形例2>
また、上記実施形態は、本発明の画像表示装置及びその方法を、景観シミュレーションに適用したものであったが、言うまでもなく景観シミュレーション以外のMRシステムにも適応可能である。また、MRシステムに限らず、姿勢センサを用いて視点の位置姿勢を計測する種々の用途に用いることも可能である。
【0081】
<変形例3>
上記実施形態では、姿勢センサとしてトキメック(株)の姿勢センサTISS-5-40を使用しているが、このセンサの適用に限られるものではない。センサ座標系の1つの軸が世界座標系に関連づけて設定される姿勢センサであれば、いずれのセンサに対しても適用可能である。
【0082】
<変形例4>
上記実施形態では、補正情報算出部310は、指示情報が入力された時点における姿勢センサ120の出力をR0 STとして入力し、これを補正情報の算出に用いた(ステップS1170)が、必ずしも指示情報が入力された時点の姿勢センサ120の出力をR0 STとしなくてもよい。例えば、該指示情報が入力された時点の前後における姿勢センサ120の計測値(例えばそれらの平均値)を用いるようにしてもよい。或は、視点220を姿勢Ry0 VWに一定時間静止させておき、その間の姿勢センサ120の出力の平均値を元にR0 STを求めても良いし、視点220が姿勢Ry0 VWに位置している際の姿勢センサ120の出力を得ることが出来れば、いずれの方法でR0 STを取得してもよい。
【0083】
<変形例5>
上記実施形態では、補正情報RVSを求めるために第一の補正情報算出モードを設けていたが、補正情報RVSの取得方法はこれに限定されるものではなく、他のいかなる方法によって取得しても良い。例えば、従来例で述べたような試行錯誤的な方法によって補正情報RVSの算出を行ってもよい。この場合、上記実施形態における第一の補正情報算出モードに関連する機能は不用となる。また、切替え部330’は通常モードと第二の補正情報算出モードの切替えを行い、姿勢情報出力部130”は通常モードまたは第二の補正値算出モードにおける処理を行い、補正情報算出部310’は第二の補正値算出モードにおける処理を行えばよい。
【0084】
<変形例6>
上記実施形態では、通常モードにおいて、算出された補正情報を利用して視点の姿勢の変化に応じたCG画像の重畳表示を行っているが、算出した補正情報を例えば他の画像表示装置で利用することを目的として、本発明の画像表示装置を補正情報の算出のみのために用いることも可能である。この場合には、上記実施形態における通常モードが不用となるので、切替え部330’を省略し、姿勢情報出力部130”は常に第二の補正値算出モードにおける処理のみを行う構成とすることができる。
【0085】
<変形例7>
更に、上記実施形態では、第二の補正値算出モードから通常モードへの切替えは、切替え部330’によって行ったが、この切替えは別の方法を用いて行っても良い。例えば、第二の補正値算出モードにおいて指示情報入力部320によって指示情報が入力され、それにより補正情報算出部310’が補正情報を算出したタイミングで、通常モードへ移行するようにしてもよい。
【0086】
[他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0087】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0088】
本発明を上記記憶媒体に適用する場合、その記憶媒体には先に説明した(図7に示す)フローチャートに対応するプログラムコードが格納されることになる。
【0089】
【発明の効果】
以上説明したように、本発明によれば、姿勢センサの計測値の傾斜角と、メモリに予め格納された所定方位角とを用いて仮想画像を生成、表示し、この表示を用いて補正情報の較正を行うので、視点の傾斜角は気にせずに、方位角を表示画像に基づいて調整するだけで、姿勢センサからの姿勢計測値を世界座標系で表された視点の姿勢に変換するための補正情報を較正することができる。従って、極めて簡便に補正情報を較正することができる。
【図面の簡単な説明】
【図1】光学シースルー方式の複合現実感の提示を行う一般的な画像表示装置の構成を示す図である。
【図2】姿勢情報出力部130において、世界座標系200におけるユーザの視点220の姿勢を算出する方法を説明する図である。
【図3】補正情報算出部を備えた画像表示装置の構成を示す図である。
【図4】本発明の第1の実施形態における景観シミュレーションが提示する像の例を示した図である。
【図5】本発明の第1の実施形態における景観シミュレーション装置の構成を示した図である。
【図6】本発明の第1の実施形態における景観シミュレーション装置の、第二の補正情報算出モードにおける動作の原理を説明した図である。
【図7】本発明の第1の実施形態の景観シミュレーション装置の処理手順を示すフローチャートである。
Claims (10)
- 表示画面を観察するユーザの視点の姿勢に応じた仮想画像を現実画像と合成してユーザに提示する画像表示装置であって、
方位角及び傾斜角を含む姿勢計測値を出力する姿勢センサと、
前記姿勢センサからの姿勢計測値を補正情報を用いて世界座標系で表された視点の姿勢に変換する変換手段と、
前記補正情報の較正のために、メモリに予め格納された所定方位角と、該姿勢センサからの傾斜角とに基づいて世界座標系における前記視点の姿勢を算出する算出手段と、
前記算出手段で算出された前記視点の姿勢を用いて仮想画像を生成し、前記表示画面に表示する表示手段と、
前記表示手段による前記仮想画像の表示中において予め定められた指示入力があったとき、前記姿勢センサからの方位角と前記所定方位角とに基づいて、前記補正情報を較正する較正手段とを備えることを特徴とする画像表示装置。 - 前記表示手段は、光学シースルー方式を採用していることを特徴とする請求項1に記載の画像表示装置。
- 前記表示手段は、ビデオシースルー方式を採用していることを特徴とする請求項1に記載の画像表示装置。
- 前記算出手段で算出された前記視点の姿勢を用いて生成される仮想画像は、ワイヤーフレームモデルであることを特徴とする請求項1乃至3のいずれかに記載の画像表示装置。
- 通常モードと補正値算出モードとの切替えを行う切替え手段をさらに有し、
前記通常モードにおいては、前記変換手段で得られた視点の姿勢に応じた仮想画像を前記表示画面に表示し、
前記補正値算出モードでは、前記算出手段、前記表示手段、前記較正手段を機能させることを特徴とする請求項1乃至4のいずれかに記載の画像表示装置。 - 前記較正手段は、センサ座標系と世界座標系の間の方位角のオフセット値を補正することを特徴とする請求項1乃至5のいずれかに記載の画像表示装置。
- 前記姿勢センサは、地球の重力方向を計測可能な傾斜計を有し、センサ座標系の1つの軸が重力方向に応じて設定されていることを特徴とする請求項1乃至6のいずれかに記載の画像表示装置。
- ユーザの視点の姿勢に応じた仮想画像を現実画像と合成してユーザに提示する情報処理方法であって、
姿勢センサから方位角及び傾斜角を含む姿勢計測値を取得する取得工程と、
前記姿勢センサからの姿勢計測値を補正情報を用いて世界座標系で表された視点の姿勢に変換する変換工程と、
前記補正情報の較正のために、メモリに予め格納された所定方位角と、該姿勢センサからの傾斜角とに基づいて世界座標系における前記視点の姿勢を算出する算出工程と、
前記算出工程で算出された前記視点の姿勢を用いて仮想画像を生成し、表示画面に表示させる表示工程と、
前記表示工程による前記仮想画像の表示中において予め定められた指示入力があったとき、前記姿勢センサからの方位角と前記所定方位角とに基づいて、前記補正情報を較正する較正工程とを備えることを特徴とする情報処理方法。 - ユーザの視点の姿勢に応じた仮想画像を現実画像と合成してユーザに提示する情報処理をコンピュータに実行させるための制御プログラムを格納したコンピュータ可読メモリであって、
前記情報処理が、
姿勢センサから方位角及び傾斜角を含む姿勢計測値を取得する取得工程と、
前記姿勢センサからの姿勢計測値を補正情報を用いて世界座標系で表された視点の姿勢に変換する変換工程と、
前記補正情報の較正のために、メモリに予め格納された所定方位角と、該姿勢センサからの傾斜角とに基づいて世界座標系における前記視点の姿勢を算出する算出工程と、
前記算出工程で算出された前記視点の姿勢を用いて仮想画像を生成し、表示画面に表示させる表示工程と、
前記表示工程による前記仮想画像の表示中において予め定められた指示入力があったとき、前記姿勢センサからの方位角と前記所定方位角とに基づいて、前記補正情報を較正する較正工程とを備えることを特徴とするコンピュータ可読メモリ。 - ユーザの視点の姿勢に応じた仮想画像を現実画像と合成してユーザに提示する情報処理をコンピュータに実行させるための制御プログラムであって、
前記情報処理が、
姿勢センサから方位角及び傾斜角を含む姿勢計測値を取得する取得工程と、
前記姿勢センサからの姿勢計測値を補正情報を用いて世界座標系で表された視点の姿勢に変換する変換工程と、
前記補正情報の較正のために、メモリに予め格納された所定方位角と、該姿勢センサからの傾斜角とに基づいて世界座標系における前記視点の姿勢を算出する算出工程と、
前記算出工程で算出された前記視点の姿勢を用いて仮想画像を生成し、表示画面に表示させる表示工程と、
前記表示工程による前記仮想画像の表示中において予め定められた指示入力があったとき、前記姿勢センサからの方位角と前記所定方位角とに基づいて、前記補正情報を較正する較正工程とを備えることを特徴とする制御プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001329360A JP3805231B2 (ja) | 2001-10-26 | 2001-10-26 | 画像表示装置及びその方法並びに記憶媒体 |
EP02257360A EP1306809A3 (en) | 2001-10-26 | 2002-10-23 | Mixed reality imaging |
US10/278,947 US7446768B2 (en) | 2001-10-26 | 2002-10-24 | Virtual image display apparatus and method using calibrated measurement of attitude sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001329360A JP3805231B2 (ja) | 2001-10-26 | 2001-10-26 | 画像表示装置及びその方法並びに記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003132374A JP2003132374A (ja) | 2003-05-09 |
JP3805231B2 true JP3805231B2 (ja) | 2006-08-02 |
Family
ID=19145274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001329360A Expired - Fee Related JP3805231B2 (ja) | 2001-10-26 | 2001-10-26 | 画像表示装置及びその方法並びに記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7446768B2 (ja) |
EP (1) | EP1306809A3 (ja) |
JP (1) | JP3805231B2 (ja) |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3486613B2 (ja) * | 2001-03-06 | 2004-01-13 | キヤノン株式会社 | 画像処理装置およびその方法並びにプログラム、記憶媒体 |
JP2004199496A (ja) * | 2002-12-19 | 2004-07-15 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP4136859B2 (ja) * | 2003-01-10 | 2008-08-20 | キヤノン株式会社 | 位置姿勢計測方法 |
US7369102B2 (en) * | 2003-03-04 | 2008-05-06 | Microsoft Corporation | System and method for navigating a graphical user interface on a smaller display |
JP4532856B2 (ja) * | 2003-07-08 | 2010-08-25 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
JP4218952B2 (ja) | 2003-09-30 | 2009-02-04 | キヤノン株式会社 | データ変換方法及び装置 |
JP4537104B2 (ja) * | 2004-03-31 | 2010-09-01 | キヤノン株式会社 | マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法 |
JP4593968B2 (ja) * | 2004-05-14 | 2010-12-08 | キヤノン株式会社 | 位置姿勢計測方法および装置 |
JP2005326275A (ja) * | 2004-05-14 | 2005-11-24 | Canon Inc | 情報処理方法および装置 |
HU0401034D0 (en) * | 2004-05-24 | 2004-08-30 | Ratai Daniel | System of three dimension induting computer technology, and method of executing spatial processes |
US9071870B2 (en) * | 2004-12-08 | 2015-06-30 | Nokia Technologies Oy | System and method for viewing digital visual content on a device |
JP5127128B2 (ja) * | 2004-12-21 | 2013-01-23 | 韓國電子通信研究院 | カメラの位置及び姿勢情報補正方法及びその装置 |
EP1686554A3 (en) * | 2005-01-31 | 2008-06-18 | Canon Kabushiki Kaisha | Virtual space generating system, image processing apparatus and information processing method |
JP2006318015A (ja) * | 2005-05-10 | 2006-11-24 | Sony Corp | 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム |
US7737965B2 (en) * | 2005-06-09 | 2010-06-15 | Honeywell International Inc. | Handheld synthetic vision device |
JP4914039B2 (ja) * | 2005-07-27 | 2012-04-11 | キヤノン株式会社 | 情報処理方法および装置 |
JP4810295B2 (ja) * | 2006-05-02 | 2011-11-09 | キヤノン株式会社 | 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体 |
FR2935810B1 (fr) * | 2008-09-09 | 2010-10-22 | Airbus France | Procede de reglage d'une compensation d'harmonisation entre capteur video et dispositif de visualisation tete haute, et dispositifs correspondants |
JP2011090400A (ja) * | 2009-10-20 | 2011-05-06 | Sony Corp | 画像表示装置および方法、並びにプログラム |
US8416263B2 (en) * | 2010-03-08 | 2013-04-09 | Empire Technology Development, Llc | Alignment of objects in augmented reality |
EP2378394A3 (en) * | 2010-04-15 | 2015-03-25 | Electronics and Telecommunications Research Institute | User interface device and method for recognizing user interaction using same |
JP5704313B2 (ja) * | 2010-11-16 | 2015-04-22 | セイコーエプソン株式会社 | 映像表示装置及び映像表示方法 |
KR101874895B1 (ko) * | 2012-01-12 | 2018-07-06 | 삼성전자 주식회사 | 증강 현실 제공 방법 및 이를 지원하는 단말기 |
JP5915996B2 (ja) * | 2012-06-20 | 2016-05-11 | 清水建設株式会社 | 合成画像表示システム及びその方法 |
US20140123507A1 (en) * | 2012-11-02 | 2014-05-08 | Qualcomm Incorporated | Reference coordinate system determination |
JP6138566B2 (ja) * | 2013-04-24 | 2017-05-31 | 川崎重工業株式会社 | 部品取付作業支援システムおよび部品取付方法 |
US9330504B2 (en) * | 2013-04-30 | 2016-05-03 | Hover Inc. | 3D building model construction tools |
JP6397269B2 (ja) | 2013-09-06 | 2018-09-26 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
CN103996215A (zh) * | 2013-11-05 | 2014-08-20 | 深圳市云立方信息科技有限公司 | 一种实现虚拟视图转立体视图的方法及装置 |
JP5817012B2 (ja) * | 2013-11-15 | 2015-11-18 | 国土交通省国土技術政策総合研究所長 | 情報処理装置、情報処理方法及びプログラム |
CN105979879B (zh) * | 2014-01-24 | 2023-01-17 | 皇家飞利浦有限公司 | 具有光学形状感测设备视角的虚拟图像 |
JP6393106B2 (ja) | 2014-07-24 | 2018-09-19 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
US9965030B2 (en) | 2014-07-31 | 2018-05-08 | Samsung Electronics Co., Ltd. | Wearable glasses and method of displaying image via the wearable glasses |
CN104142631B (zh) * | 2014-08-01 | 2016-08-24 | 北京理工大学 | 飞行控制系统的快速原型设计与半物理仿真方法及系统 |
JP6971544B2 (ja) | 2015-08-06 | 2021-11-24 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP6064269B2 (ja) * | 2015-09-28 | 2017-01-25 | 国土交通省国土技術政策総合研究所長 | 情報処理装置、情報処理方法及びプログラム |
WO2017064972A1 (ja) | 2015-10-14 | 2017-04-20 | アルプス電気株式会社 | ウェアラブル装置とその姿勢測定方法及びプログラム |
US10156901B2 (en) * | 2015-10-16 | 2018-12-18 | Wisconsin Alumni Research Foundation | Touch surface for mobile devices using near field light sensing |
JP2017187757A (ja) * | 2016-03-30 | 2017-10-12 | TsZ株式会社 | 画像表示装置 |
JP6711715B2 (ja) | 2016-07-19 | 2020-06-17 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP6840481B2 (ja) | 2016-07-19 | 2021-03-10 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP2018110615A (ja) | 2017-01-06 | 2018-07-19 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP6934734B2 (ja) | 2017-03-17 | 2021-09-15 | キヤノン株式会社 | 画像処理装置、画像処理装置の制御方法およびプログラム |
CN107941240A (zh) * | 2017-10-10 | 2018-04-20 | 深圳市虚拟现实科技有限公司 | 姿态测量装置自动校正的方法及系统 |
JP7058585B2 (ja) | 2017-12-25 | 2022-04-22 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
WO2019130827A1 (ja) | 2017-12-25 | 2019-07-04 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
JP7206706B2 (ja) * | 2018-08-31 | 2023-01-18 | 積水ハウス株式会社 | シミュレーションシステム |
CN114120792B (zh) * | 2021-11-30 | 2024-02-27 | 中国人民解放军海军航空大学 | 一种基于飞机姿态控制的专用教具 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4583094A (en) * | 1983-04-28 | 1986-04-15 | Rockwell International Corporation | Solid state attitude director indicator |
US5815411A (en) * | 1993-09-10 | 1998-09-29 | Criticom Corporation | Electro-optic vision system which exploits position and attitude |
US6064398A (en) * | 1993-09-10 | 2000-05-16 | Geovector Corporation | Electro-optic vision systems |
US6654014B2 (en) * | 1995-04-20 | 2003-11-25 | Yoshinori Endo | Bird's-eye view forming method, map display apparatus and navigation system |
US6057856A (en) * | 1996-09-30 | 2000-05-02 | Sony Corporation | 3D virtual reality multi-user interaction with superimposed positional information display for each user |
US6064335A (en) * | 1997-07-21 | 2000-05-16 | Trimble Navigation Limited | GPS based augmented reality collision avoidance system |
US6166744A (en) * | 1997-11-26 | 2000-12-26 | Pathfinder Systems, Inc. | System for combining virtual images with real-world scenes |
JP3632895B2 (ja) | 1999-08-10 | 2005-03-23 | 東光電気株式会社 | 光電圧センサ |
US6596976B2 (en) * | 1999-12-07 | 2003-07-22 | American Gnc Corporation | Method and system for pointing and stabilizing a device |
US6298286B1 (en) * | 1999-12-17 | 2001-10-02 | Rockwell Collins | Method of preventing potentially hazardously misleading attitude data |
JP3631151B2 (ja) * | 2000-11-30 | 2005-03-23 | キヤノン株式会社 | 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体 |
US7176936B2 (en) * | 2001-03-27 | 2007-02-13 | Siemens Corporate Research, Inc. | Augmented reality guided instrument positioning with modulated guiding graphics |
-
2001
- 2001-10-26 JP JP2001329360A patent/JP3805231B2/ja not_active Expired - Fee Related
-
2002
- 2002-10-23 EP EP02257360A patent/EP1306809A3/en not_active Withdrawn
- 2002-10-24 US US10/278,947 patent/US7446768B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003132374A (ja) | 2003-05-09 |
EP1306809A3 (en) | 2007-05-02 |
EP1306809A2 (en) | 2003-05-02 |
US20030080976A1 (en) | 2003-05-01 |
US7446768B2 (en) | 2008-11-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3805231B2 (ja) | 画像表示装置及びその方法並びに記憶媒体 | |
US7095424B2 (en) | Image display apparatus and method, and storage medium | |
US11914147B2 (en) | Image generation apparatus and image generation method using frequency lower than display frame rate | |
US10353482B2 (en) | Systems and methods for tracking motion and gesture of heads and eyes | |
JP4434890B2 (ja) | 画像合成方法及び装置 | |
US7587295B2 (en) | Image processing device and method therefor and program codes, storing medium | |
JP3944019B2 (ja) | 情報処理装置および方法 | |
US7123214B2 (en) | Information processing method and apparatus | |
JP2006285788A (ja) | 複合現実感情報生成装置および方法 | |
JP2004233334A (ja) | 位置姿勢計測方法 | |
JP2003344018A (ja) | 画像処理装置およびその方法並びにプログラム、記憶媒体 | |
JP4095320B2 (ja) | センサ較正装置、センサ較正方法、プログラム、記憶媒体 | |
JP2007233971A (ja) | 画像合成方法及び装置 | |
JP2009087161A (ja) | 画像処理装置、画像処理方法 | |
JP7121523B2 (ja) | 画像表示装置、画像表示方法 | |
JP3840171B2 (ja) | 画像表示装置及びその方法並びに記憶媒体 | |
JP4926598B2 (ja) | 情報処理方法、情報処理装置 | |
JP2017134775A (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2004233201A (ja) | 位置姿勢計測方法 | |
JP4810403B2 (ja) | 情報処理装置、情報処理方法 | |
JP7465133B2 (ja) | 情報処理装置、情報処理方法 | |
JP7030906B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2005122233A (ja) | 情報処理装置および方法並びに記憶媒体 | |
JP2014056496A (ja) | 仮想カメラ画像生成装置、仮想カメラ画像生成システム、仮想カメラ画像生成方法、およびプログラム | |
JP2006252059A (ja) | 画像処理方法、画像処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060421 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060509 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100519 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100519 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110519 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120519 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120519 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130519 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140519 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |