JP2003132374A - 画像表示装置及びその方法並びに記憶媒体 - Google Patents
画像表示装置及びその方法並びに記憶媒体Info
- Publication number
- JP2003132374A JP2003132374A JP2001329360A JP2001329360A JP2003132374A JP 2003132374 A JP2003132374 A JP 2003132374A JP 2001329360 A JP2001329360 A JP 2001329360A JP 2001329360 A JP2001329360 A JP 2001329360A JP 2003132374 A JP2003132374 A JP 2003132374A
- Authority
- JP
- Japan
- Prior art keywords
- posture
- image
- sensor
- coordinate system
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 62
- 238000012937 correction Methods 0.000 claims abstract description 149
- 238000005259 measurement Methods 0.000 claims abstract description 43
- 238000004364 calculation method Methods 0.000 claims description 74
- 230000006870 function Effects 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 239000003990 capacitor Substances 0.000 claims 1
- 230000001131 transforming effect Effects 0.000 abstract 1
- 238000004088 simulation Methods 0.000 description 17
- 239000011159 matrix material Substances 0.000 description 16
- 230000008569 process Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 7
- 230000004048 modification Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 230000008859 change Effects 0.000 description 4
- 238000010276 construction Methods 0.000 description 4
- 230000005484 gravity Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 2
- 101100321669 Fagopyrum esculentum FA02 gene Proteins 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2215/00—Indexing scheme for image rendering
- G06T2215/16—Using real world measurements to influence rendering
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
- Position Input By Displaying (AREA)
Abstract
る姿勢に変換するための補正情報を容易に取得するこ
と。 【解決手段】現実の風景600が表示画面を通して観察さ
れている状況において、姿勢センサの姿勢に関して、傾
斜角については姿勢センサの計測値を、方位角について
は固定値を使用して、建設予定ビルのCG映像620を生
成しこれを表示画面に表示する。ここで観察される像63
0は、傾斜角方向に関しては位置合わせが正しく行われ
ており、方位角方向のみに位置ずれが生じた像となる。
ユーザは、観察像において現実の風景とCG映像が正し
い位置関係となるように視点の方位方向を調整し(640,
650,660)、正しい位置関係となった時点(660)でその
旨の指示を入力することで補正情報が較正される。この
とき、視点の傾斜角に関しては固定する必要がないた
め、姿勢の調整を格段に容易に行える。
Description
値に基づいて実空間に融合した仮想空間の画像を表示さ
せる画像表示装置及び方法に関する。更に詳しくは、撮
像装置によって撮像された実画像に仮想空間の画像を重
畳した重畳画像を生成し、これを表示画面に表示する画
像表示装置、あるいは、表示画面に現実空間を光学的に
透過させつつ当該表示画面に仮想空間の画像を表示する
画像表示装置、及びそれらの方法並びに記憶媒体に関す
るものである。
い結合を目的とした、複合現実感(以下、“MR”(Mi
xed Reality)と称す)に関する研究が盛んに行われて
いる。MRには、ビデオカメラなどの撮影装置で撮影さ
れた現実空間の画像に仮想空間(たとえばコンピュータ
グラフィックス(以下、CGと称す)により描画された
仮想物体や文字情報など)の画像を重畳して表示するビ
デオシースルー方式と、表示装置の表示画面に現実空間
を光学的に透過させつつ、その表示画面に仮想空間の画
像を重畳表示する光学シースルー方式がある。
中において建物等にその名称や案内を重畳表示するナビ
ゲーションや、ビルの建設予定地に建設予定のビルのC
G映像を重畳表示する景観シミュレーションなど、今ま
でのバーチャルリアリティとは質的に全く異なった新た
な分野が期待されている。これらの応用に対して共通に
要求されるのは、現実空間と仮想空間の間の位置合わせ
をいかにして正確に行うかということであり、従来から
多くの取り組みが行われてきた。
合わせの問題は、現実空間に設定した世界座標系(以
後、単に世界座標系と呼ぶ)における、撮影装置の視点
の3次元位置姿勢を求める問題に帰結される。また光学
シースルー方式のMRにおける位置合わせの問題は、同
様に世界座標系におけるユーザの視点の3次元位置姿勢
を求める問題といえる。
センサや超音波センサなどの3次元位置姿勢センサを利
用して、世界座標系における撮影装置やユーザの視点
(以下、単に視点と呼ぶ)の3次元位置姿勢を取得する
ことが一般的に行われている。
離れている場合のように、視点の位置については固定値
を用いても差し支えのない状況下では、ジャイロセンサ
や加速度計の組み合わせによって構成される3次元姿勢
センサを用いて視点の3次元姿勢を得て、それを元に視
点の3次元位置姿勢を取得することが一般的に行われて
いる。
えば(株)トキメック製の姿勢センサTISS-5-40を例に
とると、重力の逆方向をY軸、このY軸によって定めら
れるX−Z平面上でのセンサ起動時のセンサの正面方向
を−Z軸として定義される座標系であるところのセンサ
座標系におけるセンサ自身の3次元姿勢である。このよ
うに、3次元姿勢センサが出力する出力値は、計測対象
である世界座標系における視点の3次元姿勢ではないの
が一般的である。すなわち、センサ出力値をそのまま世
界座標系における視点の3次元姿勢として用いることは
できず、何らかの座標変換を行う必要がある。具体的に
は、センサ自身の姿勢を視点の姿勢に変換する座標変換
と、センサ座標系における姿勢を世界座標系における姿
勢に変換する座標変換が必要となる。なお、本明細書に
おいて、センサ出力値と世界座標系における視点の3次
元姿勢との間の座標変換を行うためのデータを補正情報
と呼ぶこととする。
の提示を行う一般的な画像表示装置の構成を示す図であ
る。
勢センサ120と共に頭部装着部100に固定されてい
る。不図示のユーザが、表示画面110が眼前に位置す
るように頭部装着部100を装着すると、表示画面11
0の光学系(図1には不図示)を通して表示画面の前方
の現実空間を観察することができる。姿勢センサ120
は、センサ座標系におけるセンサ自身の姿勢を計測し、
3自由度の姿勢計測値を出力する。なお、姿勢センサ1
20は地球の重力方向を計測可能な傾斜計(不図示)を
内部に有しており、上述したように、センサ座標系の1
つの軸(本例ではY軸とする)は重力の逆方向に設定さ
れる。
保持する補正情報に従って、姿勢センサ120より入力
した計測値に変換を加え、世界座標系におけるユーザの
視点の姿勢を算出しこれを姿勢情報として出力する。画
像生成部150は、姿勢情報出力部130より入力した
姿勢情報に従ってユーザの視点の姿勢に対応した仮想画
像を生成し、これを出力する。表示画面110は、画像
生成部150より仮想画像を入力しこれを表示する。以
上の構成により、不図示のユーザは、表示画面110を
通した現実空間の像に重ねて、表示画面110に表示さ
れた仮想画像を見ることとなる。
0において、世界座標系におけるユーザの視点の姿勢を
算出する方法を説明する。
センサ座標系210の姿勢をRTW、センサ座標系210
における姿勢センサ120の姿勢をRST、姿勢センサ1
20からみたユーザの視点220の相対的な姿勢を
RVS、世界座標系200におけるユーザの視点220の
姿勢をRVWとする。
はある座標系Aにおける対象Bの姿勢を記述する。これ
は言い換えれば、座標系Aから対象Bが定義する座標系
Bへの座標変換行列であり、座標系Aにおける座標PA
=(XA,YA,ZA,1)Tを座標系Bにおける座標PB
=(XB,YB,ZB,1)Tに変換する変換式、PB=R
BAPAを定義するものである。すなわち、世界座標系2
00におけるユーザの視点220の姿勢RVWは、世界座
標系200における座標PW=(XW,YW,ZW,1)T
をユーザの視点座標系230における座標PV=(XV,
YV,ZV,1)Tに変換するための座標変換行列(PV=
RVWPW)と言い換えることもできる。
って定義される回転行列Rx、Y軸まわりの回転角(方
位角)φによって定義される回転行列Ry、Z軸まわり
の回転角ψによって定義される回転行列Rzの積により
構成されており、R=RzRxRyの関係が成立してい
る。これらの行列はそれぞれ次のように表される。
の逆方向に設定されているので、世界座標系200のY
軸を地表面と垂直に定義することにより、世界座標系2
00とセンサ座標系210のY軸の方向を一致させるこ
とができる。このとき、RTWのX軸およびZ軸まわりの
成分であるRxTWおよびRzTWはそれぞれ単位行列とな
り、RTWは、Y軸まわりの回転角φTWによって定義され
る回転行列RyTWと等価となる。したがって、上記の
(式A)は、 RVW=RVS・RST・RyTW … (式B) に変形される。
勢情報出力部130への入力、RVWが姿勢情報出力部1
30から画像生成部150への出力であり、RVS及びR
yTW(言い換えると、RVSを定義する3軸まわりの回転
角θVS,φVS,ψVS及びRy TWを定義する回転角φTW)
が、RSTをRVWに変換するために必要な補正情報に相当
する。姿勢情報出力部130は、姿勢センサ120から
入力されるRSTと、メモリ140に保持されているRVS
及びRyTWとを用いて、(式B)に基づいてR VWを算出
し、これを画像生成部150へと出力する。
行うためには、何らかの手段によってメモリ140に正
確な補正情報が設定される必要がある。正確な補正情報
が与えられてはじめて、現実空間に正確に位置合わせの
なされた仮想画像の表示が実現される。
て、ユーザあるいはオペレータが、不図示の入力手段を
介してメモリ140に格納されたθVS,φVS,ψVS及び
φTWの各値を対話的に増減し、正確な位置合わせが達成
されるまで各値の調整を試行錯誤的に行うという方法が
ある。
同時に調整する必要があるため、作業が煩雑であり調整
に時間がかかるという問題点があった。
特願2001−050990号により提案された方法が
ある。以下では、この補正情報設定手法について説明す
る。
報設定方法を組込んだ際の画像表示装置の構成を示すブ
ロック図である。同図に示したように、本構成は、図1
の構成に、補正情報算出部310、指示情報入力部32
0及び切替え部330が追加された構成となる。また、
本画像表示装置における図1の姿勢情報出力部130及
びメモリ140に相当する構成要素はその機能が図1の
画像表示装置とは異なるため、図3の画像表示装置では
これを姿勢情報出力部130’及びメモリ140’と表
記する。
姿勢を、世界座標系におけるある予め定めた姿勢であっ
て、地平面と水平な視軸を持つ姿勢Ry0 VWに移動させ
て、その時点での姿勢センサ120の出力R0 STを取得
することで行われる。メモリ140’は、補正情報の他
に、上記の予め定めた視点の姿勢Ry0 VW(あるいはそ
れを定義するY軸まわりの回転角φ0 VW)を保持してい
る。
ータ(いずれも図3には不図示)からの入力を受け、姿
勢情報出力部130’のモードを通常モードあるいは補
正情報算出モードに設定する。
モードの場合には、図1で説明した姿勢情報出力部13
0と同様に、姿勢センサ120から入力されるRSTから
補正情報を用いてRVWを算出し、これを姿勢情報として
画像生成部150へと出力する。
には、メモリ140’からRy0 VWを入力し、これを姿
勢情報として画像生成部150へと出力する。指示情報
入力部320は、ユーザあるいはオペレータからの入力
を受け、補正情報算出処理実行の指示を補正情報算出部
310へと送信する。より具体的には、ユーザあるいは
オペレータは、補正情報算出モードにおいて、表示画面
110に表示された仮想画像と、表示画面110を光学
的に透過して観察される現実空間の像が正しい位置関係
になるように視点220の姿勢を調整する。そして、両
画像が十分に重なり合っていると判断した時点(すなわ
ち、視点220が姿勢Ry0 VWに位置していると判断さ
れた時点)で、例えば特定のキーを押すことにより指示
情報入力部320への入力を行う。
理実行の指示を指示情報入力部320から入力し、その
時点(すなわち、視点220が姿勢Ry0 VWに位置して
いるとユーザあるいはオペレータが判断した時点)にお
ける姿勢センサ120の出力R0 STを入力し、姿勢Ry0
VWと姿勢R0 STに基づいて補正情報の算出を行う。
勢RVSのうち、その逆行列RSV(ユーザの視点から見た
姿勢センサの相対的な姿勢を表わす)のy軸まわりの回
転成分RySV(あるいはそれを定義するY軸まわりの回
転角φSV)が何らかの方法によって既知であり、すでに
メモリ140’に記憶されている必要がある。
れるデータの間には、(式B)より、 Ry0 VW=RVS・R0 ST・RyTW … (式C) の関係が成立する。ここで、(式C)を変形すると、 Ry0 VW=(RzSVRxSVRySV)-1R0 STRyTW … (式D) となる。
よりRy0 VWおよびRySVを、センサ120よりR0 STを
入力し、(式D)に基づいて未知の補正情報RzSV,R
xS V,RyTWを算出する。以下にその手順を示す。
がZ、X、Y軸周りの回転成分の積となっているので、
Z、X、Y軸周りの回転成分毎に恒等式が成立する。
以下の通りとなる。すなわち、 RzSV=Rz0 ST … (式F) RxSV=Rx0 ST … (式G) これより、RzSVおよびRxSVを求めることができる。
の通りとなる。すなわち、 RySVRy0 VW=Ry0 STRyTW これより、 RyTW=RySVRy0 VWRy0 ST -1 … (式H) となり、RyTWを求めることができる。
って補正情報RzSV,RxSV,Ry TWの算出を行い、こ
れらの値からさらにRVS(=(RzSVR×SVR
ySV)-1)を算出して、RVSおよびRyTW(あるいはそ
れらを定義する回転角θSV,ψSV及びφTW)をメモリ1
40’へと出力する。
手掛りに試行錯誤的に行ってもよいし、他のいずれの計
測手段を用いて行ってもよい。
を予め定められた姿勢に固定しさえすれば、未知な補正
情報を容易に導出することができ、正確な位置合わせを
実現することが可能となる。
センサ120との位置関係が固定されている限りにおい
ては補正情報のうちのRVS(あるいは回転角θSVおよび
ψSV)は不変であり、ひとたび補正情報が導出されれば
(すなわちRVSが既知となれば)システムの使用ごとに
変化する補正情報はRyTW(あるいは回転角φTW)のみ
である。しかしながら、上記の方法においては、システ
ムの使用ごとに全ての補正情報を導出するのと同様な作
業(すなわち視点の姿勢の3自由度全てを予め定められ
た姿勢に固定するという作業)を行わなくてはならなか
った。
定められた姿勢に固定することは容易ではなく、予め定
められた姿勢と指示情報を入力した際の実際の姿勢との
ずれが、導出する補正情報の誤差として現れてきてしま
うという問題があった。そのため、十分な位置合わせが
達成できるまで、上記の補正値算出処理を繰り返し行わ
なくてはならないという問題があった。
であり、センサ計測値を世界座標系における視点の姿勢
に変換するための補正情報を、より簡便に取得すること
を目的とする。
為に、例えば本発明の画像表示装置は以下の構成を備え
る。すなわち、表示画面を観察するユーザの視点の姿勢
に応じた仮想画像を当該表示画面に表示する画像表示装
置であって、姿勢計測値を出力する姿勢センサと、前記
視点の姿勢を取得するために、前記姿勢センサからの姿
勢計測値を補正情報を用いて世界座標系で表された視点
の姿勢に変換する変換手段と、前記補正情報の較正のた
めに、メモリに予め格納された所定方位角を前記姿勢セ
ンサの世界座標系における方位角として用い、該姿勢セ
ンサからの姿勢計測値に基づいて世界座標系における前
記視点の姿勢を算出する算出手段と、前記算出手段で算
出された前記視点の姿勢を用いて仮想画像を生成し、前
記表示画面に表示する表示手段と、前記表示手段による
前記仮想画像の表示中において所定の指示入力があった
とき、前記姿勢センサからの姿勢計測値と前記所定方位
角とに基づいて、前記補正情報を較正する較正手段とを
備える。
による画像表示方法は、表示画面に現実空間を光学的に
透過させつつ、当該表示画面を観察するユーザの視点の
姿勢に応じた仮想空間の画像を当該表示画面に表示する
画像表示方法であって、3自由度の姿勢を計測する姿勢
センサから姿勢計測値を入力し、当該姿勢センサの世界
座標系における姿勢のうちの方位角が予め定められた方
位角に固定されているものとして、該予め定められた方
位角と該姿勢計測値のうちの傾斜角計測値に基づいて前
記視点の姿勢を算出して、これを姿勢情報として出力す
る姿勢情報出力工程と、前記姿勢情報出力工程が出力す
る姿勢情報に基づいて前記画像を生成する画像生成工程
と、指示情報を入力する指示情報入力工程と、前記指示
情報が入力された時点及び/または該時点の前後におけ
る前記姿勢計測値のうちの方位角計測値と、前記予め定
められた方位角に基づいて、センサ座標系における姿勢
を世界座標系における姿勢に変換するための補正情報を
算出する補正情報算出工程とを備える。更に、本発明の
他の態様による画像表示方法は、撮像装置によって撮像
された実画像に当該撮像装置の視点の姿勢に応じた仮想
空間の画像を重畳した重畳画像を生成し、これを表示画
面に表示する画像表示方法であって、3自由度の姿勢を
計測する姿勢センサから姿勢計測値を入力し、当該姿勢
センサの世界座標系における姿勢のうちの方位角が予め
定められた方位角に固定されているものとして、該予め
定められた方位角と該姿勢計測値のうちの傾斜角計測値
に基づいて前記視点の姿勢を算出して、これを姿勢情報
として出力する姿勢情報出力工程と、前記姿勢情報出力
工程が出力する姿勢情報に基づいて前記重畳画像を生成
する画像生成工程と、指示情報を入力する指示情報入力
工程と、前記指示情報が入力された時点及び/または該
時点の前後における前記姿勢計測値のうちの方位角計測
値と、前記予め定められた方位角に基づいて、センサ座
標系における姿勢を世界座標系における姿勢に変換する
ための補正情報を算出する補正情報算出工程とを備え
る。
明の好適な実施形態について詳細に説明する。
を、建設予定のビルの景観シミュレーションを行うシミ
ュレーション装置及びその方法に適用する場合の詳細を
説明する。
置によってユーザに提示される像の一例を示している。
すなわち、本実施形態のシミュレーション装置は、不図
示のユーザがビルの建設予定地510を含む現実の風景
500を観察している際に、建設予定ビルのCG画像5
20をユーザの視点の姿勢にしたがって生成し、これを
表示することにより、建設予定地510に建設予定ビル
が建っているがごとき像530をユーザに観察させる。
3において示した補正情報RVSおよびRyTW(あるいは
それらを定義する回転角θSV,ψSV及びφTW)を求める
補正情報算出方法に加え、補正情報RVS(あるいはそれ
を定義する回転角θSV及びψ SV)が算出済みである場合
に、補正情報RyTW(あるいはそれを定義する回転角φ
TW)のみを効率的に算出する補正情報算出機能を有して
いる。
置の装置構成を示している。同図に示したように、本実
施形態のシミュレーション装置は、図3に示した画像表
示装置における姿勢情報出力部130’,補正情報算出
部310,切替え部330,及びメモリ140’に相当
する構成要素として、姿勢情報出力部130”,補正情
報算出部310’,切替え部330’,及びメモリ14
0”を構成要素として有した構成となる。また、画像生
成部150’は、仮想画像として建設予定のビルのCG
画像を生成する機能を有しているものとする。
姿勢センサ120、及び指示情報入力部320の動作は
図3に示した画像表示装置と同様であるので説明を省略
する。
0”は、図3に示した画像表示装置における補正情報、
予め定めた視点の姿勢Ry0 VW(あるいは回転角φ0 VW)
に加え、世界座標系における姿勢センサ120の予め定
められた方位角φ0 SW(あるいはそれによって定義され
る回転行列Ry0 SW)を保持している。
レータ(いずれも図5には不図示)からの入力を受け、
姿勢情報出力部130”のモードを、図3に示した画像
表示装置における通常モード,補正情報算出モード(本
実施形態ではこれを第一の補正情報算出モードと呼ぶ)
あるいは、補正情報RyTWを算出するための第二の補正
情報算出モードに設定する。また、同様に、切替え部3
30’は、補正情報算出部310’のモードを、上記第
一の補正情報算出モードあるいは第二の補正情報算出モ
ードのいずれかに設定する。
モードあるいは第一の補正情報算出モードの場合には、
姿勢情報出力部130’と同様な姿勢情報を画像生成部
150’へと出力する。すなわち、モードが通常モード
の場合には、図1で説明した姿勢情報出力部130と同
様に、姿勢センサ120から入力されるRSTから補正情
報を用いてRVWを算出し、これを姿勢情報として画像生
成部150へと出力する。また、モードが第一の補正情
報算出モードの場合には、メモリ140’からRy0 VW
を入力し、これを姿勢情報として画像生成部150へと
出力する。
の場合には、姿勢情報出力部130”は、姿勢センサ1
20から計測値RST(あるいはこれを定義する回転角)
を入力し、さらに、メモリ140”より補正情報RVS及
び予め定められた回転行列Ry0 SW(あるいはこれらを
定義する回転角)を入力し、次式 R’VW=RVS・RzST・RxST・Ry0 SW …(式I) によって算出される姿勢R’VW(あるいはこれを定義す
る回転角)を、姿勢情報として画像生成部150’へと
出力する。
y0 ST・Ry0 TWに相当する((式B)参照)。すなわ
ち、(式B)において姿勢センサ120の計測値R
STを、傾斜角成分(RzSTとRxST)と方位角成分(R
yST)に分け、姿勢センサ120の世界座標系に対する
方位角成分を固定値(Ry0 ST・Ry0 TW=Ry0 SW)と
したものである。
が第一の補正情報算出モードの場合には、補正情報算出
部310と同様な補正情報の算出を行う。すなわち、補
正情報算出部310は、補正情報算出処理実行の指示を
指示情報入力部320から入力し、視点220が姿勢R
y0 VWに位置しているとユーザあるいはオペレータが判
断した時点における姿勢センサ120の出力R0 STを入
力し、姿勢Ry0 VWと姿勢R0 STに基づいて補正情報の算
出を行う。
の場合には、補正情報算出部310’は、補正情報算出
処理実行の指示を指示情報入力部320から入力する
と、その時点における姿勢センサ120の出力のうちの
方位角φ0 ST(あるいはそれによって定義される回転行
列Ry0 ST)を入力し、さらに、メモリ140”より方
位角φ0 SW(あるいはそれによって定義される回転行列
Ry0 SW)を入力し、次式 φTW= φ0 SW−φ0 ST …(式J) によって算出される補正情報φTW(あるいはそれによっ
て定義される回転行列RyTW)をメモリ140”へと出
力する。
ュレーション装置の、第二の補正情報算出モードにおけ
る動作の原理を説明する。
において、補正情報RVSは既に得られている。第二の補
正値算出モードにおいては、不図示のユーザが現実空間
を観察し、その結果、表示画面110を通して現実の風
景600が観察されているものとする。このとき、画像
生成部150’は、姿勢情報出力部130”が(式I)
に基づいて出力する姿勢情報を入力して、建設予定ビル
のCG画像620を生成し、これを表示画面110へと
出力する。(式I)は、姿勢センサ120の姿勢に関し
て、傾斜角(RzSTとRxST)については姿勢センサ1
20の計測値を、方位角については固定値を使用したも
のであるので、傾斜角方向については視点の姿勢に連動
していて方位角方向については姿勢の固定されたCG画
像が生成される。したがって、ユーザが観測する観察像
630は、傾斜角方向に関しては位置合わせが正しく行
われており、方位角方向のみに位置ずれが生じた像とな
る。
示)は、観察像において現実の風景と仮想の映像(建設
予定ビルのCG映像)が正しい位置関係となるように視
点の方位方向を調整し(640,650,660)、正
しい位置関係の観察像が観察された時点(660)で、
補正情報算出処理実行の指示を指示情報入力部320へ
と入力する。このとき、視点の傾斜角に関しては固定す
る必要がないため、一般的な手法と比べて姿勢の調整を
容易に行うことができる。
置関係が正しいとされた時点(660)におけるに姿勢
センサ120の出力を(式B)に基づいて正しい補正情
報によって補正することによって得られる姿勢情報は、
(式I)で算出される姿勢情報と等しくなるはずであ
る。よって(式B)および(式I)から、 RVS・R0 ST・RyTW =RVS・R0zST・R0xST・Ry0 SW …(式K) なる関係が成立する。
正情報算出部310’において、(式J)に基づいて補
正情報φTWを算出することが可能となる。
による処理の手順を示すフローチャートである。なお、
同フローチャートに従ったプログラムコードは本実施形
態の装置内の不図示のRAMやROMなどのメモリ内に
格納され、不図示のCPUにより読み出され、実行され
る。
30’における現在の設定モードが通常モード、第一の
補正情報算出モード及び第二の補正情報算出モードの何
れであるかの判定を行う。姿勢センサ120及び/また
は表示画面110が頭部装着部100にはじめて固定さ
れたときや、姿勢センサ120と表示画面110の相対
的な姿勢の関係が変化した場合には、全ての補正情報を
導出する必要がある。このような場合、ユーザあるいは
オペレータは、切替え部330’によってモードを第一
の補正情報算出モードに切替え、補正情報の算出処理を
実行する。
合、処理はステップS1100に進み、指示情報入力部
320から指示情報が入力されているかどうかの判定が
行われる。
ステップS1100からステップS1150へ進み、姿
勢情報出力部130”はメモリ140”から予め定めた
姿勢情報を入力する。そして、ステップS1050にお
いてこれを視点の姿勢情報として画像生成部150’へ
と出力する。
0において姿勢情報出力部130”から視点の姿勢情報
を入力し、これを仮想物体の描画パラメータとして設定
する。そして、ステップS1070において、ステップ
S1060で設定された描画パラメータを用いて仮想物
体のCG画像を生成し、ステップS1080において生
成したCG画像を表示画面110へと出力する。これに
より、予め定めた姿勢にしたがった仮想物体の像が表示
画面110上へと表示される。この処理は、第一の補正
情報算出モードの間繰り返し行われる。
110上に表示している間に、ユーザあるいはオペレー
タは、表示画面110に表示された仮想物体が現実空間
と正しい位置関係になるように頭部の3次元的な姿勢を
調整する。そして、正しい位置関係となった時点で指示
情報入力部320により指示情報の入力を行う。
力された場合、補正情報算出部310’は、ステップS
1110において姿勢センサ120から計測値を入力
し、ステップS1120において予め定めた姿勢および
補正情報RySV(あるいはそれを定義する回転角φSV)
をメモリ140”から入力する。さらに、ステップS1
130において、(式F),(式G)および(式H)に
従って未知の補正情報を算出し、ステップS1140に
おいて、算出した補正情報をメモリ140”へと出力す
る。
補正情報を算出した後であって、姿勢センサ120と表
示画面110の相対的な姿勢の関係が変化していない状
況において、本実施形態のシミュレーション装置を再度
使用する場合には、ユーザあるいはオペレータは、切替
え部330’によってモードを第二の補正値算出モード
に切替え、補正情報の算出処理を実行すればよい。
算出モードが設定されている場合、処理はステップS1
160に進み、指示情報入力部320から指示情報が入
力されているかどうかの判定が行われる。
報出力部130”は、ステップS1210において姿勢
センサ120から計測値を入力し、ステップS1220
においてメモリ140”より補正情報RVS及び予め定め
られた回転行列Ry0 SW(あるいはこれらを定義する回
転角)を入力する。そして、ステップS1230におい
て(式I)に基づき視点の姿勢を算出し、ステップS1
050においてこれを視点の姿勢情報として画像生成部
150’へと出力する。
0において姿勢情報出力部130”から視点の姿勢情報
を入力し、これを仮想物体の描画パラメータとして設定
する。さらに、ステップS1070において仮想物体の
描画を行い、ステップS1080において生成したCG
画像を表示画面110へと出力する。これにより、方位
角のみが一定方向に固定された仮想物体が表示画面11
0上へと表示される。以上の処理は、第二の補正情報算
出モードの間繰り返し行われる。
110上に表示している間に、ユーザあるいはオペレー
タは、表示画面110に表示された仮想物体が現実空間
と正しい位置関係になるように頭部の方位角方向を調整
する(図6の630〜660)。そして、正しい位置関
係となった時点で指示情報入力部320により指示情報
の入力を行う。
部310’は、ステップS1170において、姿勢セン
サ120から計測値を入力し、ステップS1180にお
いて、予め定められた方位角φ0 SW(あるいはこれによ
って定義される回転行列Ry0 SW)をメモリ140”か
ら入力する。さらに、ステップS1190において(式
J)に従って未知の補正情報φTWを算出し、ステップS
1200において、上記算出された補正情報をメモリ1
40”へと出力する。こうして、最終的な補正情報がメ
モリ140”に格納される。
ドが通常モードの場合、姿勢情報出力部130”は、ス
テップS1020において、姿勢センサ120から計測
値を入力し、ステップS1030において、メモリ14
0”から補正情報を入力する。さらに、ステップS10
40において、計測値と補正情報から視点の姿勢を算出
し、ステップS1050においてこれを視点の姿勢情報
として画像生成部150’へと出力する。
0において、姿勢情報出力部130”から視点の姿勢情
報を入力し、ステップS1070において、その姿勢情
報に基づいて仮想物体のCG画像を生成する。次に、ス
テップS1080において、生成したCG画像を表示画
面110へと出力する。これにより、視点の姿勢にした
がった仮想物体の像が表示画面110上へと表示され
る。この処理は、通常モードの間繰り返し行われる。
0”,画像生成部150’,補正情報算出部310’,
指示情報入力部320,および切替え部330’は、例
えば1台の汎用コンピュータ(ノート型コンピュータ
等)により構成することが可能である。また、本実施形
態では、姿勢センサ120は例えばトキメック(株)の
姿勢センサTISS-5-40を含んで構成したが、他の姿勢セ
ンサでももちろんかまわない。
部320への入力は、同一のユーザインターフェイスを
介して行われることが望ましく、例えば、キーボード
や、コントロールパッドを用いることができる。
のMRを実現するためのものであったが、光学シースル
ー方式に限定されるものではなく、ビデオシースルー方
式のMRにも適用可能である。その場合、上述の実施形
態ではユーザの視点220であった姿勢の計測対象が、
撮像装置(例えばビデオカメラ)の視点となる。また、
ビデオシースルー方式の場合、画像生成部150’は、
撮像装置が撮影した現実空間の画像にCG画像を重畳描
画し、これを表示画面110へと表示する。
の手掛りとして表示対象である仮想物体のCG画像を用
いたが、仮想空間と現実空間の位置合わせがなされてい
ることを確認するための視覚的なキューとなる幾何情報
であれば、いずれの幾何情報を用いてもよい。例えば地
形や現実のビルの形状のモデリングを行い、現実空間の
同位置にそのワイヤーフレームモデルを重畳描画するよ
うにして位置合わせを行なってもよい。なお、現実物体
のワイヤーフレームモデルと表示対象である仮想物体と
を組み合わせて表示することが可能あることは言うまで
もない。
明の画像表示装置及びその方法を、景観シミュレーショ
ンに適用したものであったが、言うまでもなく景観シミ
ュレーション以外のMRシステムにも適応可能である。
また、MRシステムに限らず、姿勢センサを用いて視点
の位置姿勢を計測する種々の用途に用いることも可能で
ある。
サとしてトキメック(株)の姿勢センサTISS-5-40を使
用しているが、このセンサの適用に限られるものではな
い。センサ座標系の1つの軸が世界座標系に関連づけて
設定される姿勢センサであれば、いずれのセンサに対し
ても適用可能である。
算出部310は、指示情報が入力された時点における姿
勢センサ120の出力をR0 STとして入力し、これを補
正情報の算出に用いた(ステップS1170)が、必ず
しも指示情報が入力された時点の姿勢センサ120の出
力をR0 STとしなくてもよい。例えば、該指示情報が入
力された時点の前後における姿勢センサ120の計測値
(例えばそれらの平均値)を用いるようにしてもよい。
或は、視点220を姿勢Ry0 VWに一定時間静止させて
おき、その間の姿勢センサ120の出力の平均値を元に
R0 STを求めても良いし、視点220が姿勢Ry0 VWに位
置している際の姿勢センサ120の出力を得ることが出
来れば、いずれの方法でR0 STを取得してもよい。
RVSを求めるために第一の補正情報算出モードを設けて
いたが、補正情報RVSの取得方法はこれに限定されるも
のではなく、他のいかなる方法によって取得しても良
い。例えば、従来例で述べたような試行錯誤的な方法に
よって補正情報RVSの算出を行ってもよい。この場合、
上記実施形態における第一の補正情報算出モードに関連
する機能は不用となる。また、切替え部330’は通常
モードと第二の補正情報算出モードの切替えを行い、姿
勢情報出力部130”は通常モードまたは第二の補正値
算出モードにおける処理を行い、補正情報算出部31
0’は第二の補正値算出モードにおける処理を行えばよ
い。
ドにおいて、算出された補正情報を利用して視点の姿勢
の変化に応じたCG画像の重畳表示を行っているが、算
出した補正情報を例えば他の画像表示装置で利用するこ
とを目的として、本発明の画像表示装置を補正情報の算
出のみのために用いることも可能である。この場合に
は、上記実施形態における通常モードが不用となるの
で、切替え部330’を省略し、姿勢情報出力部13
0”は常に第二の補正値算出モードにおける処理のみを
行う構成とすることができる。
二の補正値算出モードから通常モードへの切替えは、切
替え部330’によって行ったが、この切替えは別の方
法を用いて行っても良い。例えば、第二の補正値算出モ
ードにおいて指示情報入力部320によって指示情報が
入力され、それにより補正情報算出部310’が補正情
報を算出したタイミングで、通常モードへ移行するよう
にしてもよい。
た実施形態の機能を実現するソフトウェアのプログラム
コードを記録した記憶媒体(または記録媒体)を、シス
テムあるいは装置に供給し、そのシステムあるいは装置
のコンピュータ(またはCPUやMPU)が記憶媒体に格納さ
れたプログラムコードを読み出し実行することによって
も、達成されることは言うまでもない。この場合、記憶
媒体から読み出されたプログラムコード自体が前述した
実施形態の機能を実現することになり、そのプログラム
コードを記憶した記憶媒体は本発明を構成することにな
る。また、コンピュータが読み出したプログラムコード
を実行することにより、前述した実施形態の機能が実現
されるだけでなく、そのプログラムコードの指示に基づ
き、コンピュータ上で稼働しているオペレーティングシ
ステム(OS)などが実際の処理の一部または全部を行い、
その処理によって前述した実施形態の機能が実現される
場合も含まれることは言うまでもない。
ラムコードが、コンピュータに挿入された機能拡張カー
ドやコンピュータに接続された機能拡張ユニットに備わ
るメモリに書込まれた後、そのプログラムコードの指示
に基づき、その機能拡張カードや機能拡張ユニットに備
わるCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。
の記憶媒体には先に説明した(図7に示す)フローチャ
ートに対応するプログラムコードが格納されることにな
る。
センサ計測値を世界座標系における視点の姿勢に変換す
るための補正情報をより簡便に取得することが可能とな
る。
一般的な画像表示装置の構成を示す図である。
00におけるユーザの視点220の姿勢を算出する方法
を説明する図である。
示す図である。
ーションが提示する像の例を示した図である。
ーション装置の構成を示した図である。
ーション装置の、第二の補正情報算出モードにおける動
作の原理を説明した図である。
ン装置の処理手順を示すフローチャートである。
0)
Claims (13)
- 【請求項1】 表示画面を観察するユーザの視点の姿勢
に応じた仮想画像を当該表示画面に表示する画像表示装
置であって、 姿勢計測値を出力する姿勢センサと、 前記視点の姿勢を取得するために、前記姿勢センサから
の姿勢計測値を補正情報を用いて世界座標系で表された
視点の姿勢に変換する変換手段と、 前記補正情報の較正のために、メモリに予め格納された
所定方位角を前記姿勢センサの世界座標系における方位
角として用い、該姿勢センサからの姿勢計測値に基づい
て世界座標系における前記視点の姿勢を算出する算出手
段と、 前記算出手段で算出された前記視点の姿勢を用いて仮想
画像を生成し、前記表示画面に表示する表示手段と、 前記表示手段による前記仮想画像の表示中において所定
の指示入力があったとき、前記姿勢センサからの姿勢計
測値と前記所定方位角とに基づいて、前記補正情報を較
正する較正手段とを備えることを特徴とする画像表示装
置。 - 【請求項2】 前記表示画面への仮想画像の表示は、該
表示画面に現実空間の像を光学的に投影させつつ、当該
表示画面上に仮想画像を表示することを特徴とする請求
項1に記載の画像表示装置。 - 【請求項3】 前記表示画面への仮想画像の表示は、該
表示画面上に撮像装置によって撮像された実画像に、仮
想画像を重畳して表示することを特徴とする請求項1に
記載の画像表示装置。 - 【請求項4】 前記較正手段は、前記所定の指示入力が
なされた時点及び/または該時点の前後における前記姿
勢センサからの姿勢計測値と、前記所定方位角とに基づ
いて前記補正情報を較正することを特徴とする請求項1
乃至3のいずれかに記載の画像表示装置。 - 【請求項5】 前記姿勢センサからの姿勢計測値は、方
位角計測値と傾斜角計測値を含み、 前記算出手段は、前記所定方位角を前記姿勢センサの世
界座標系における方位角とし、該方位角と前記傾斜角計
測値とを用いて世界座標系における前記視点の姿勢を算
出することを特徴とする請求項1乃至4のいずれかに記
載の画像表示装置。 - 【請求項6】 通常モードと補正値算出モードとの切替
えを行う切替え手段をさらに有し、 前記通常モードにおいては、前記変換手段で得られた視
点の姿勢に応じた仮想画像を前記表示画面に表示し、 前記補正値算出モードでは、前記算出手段、前記表示手
段、前記較正手段を機能させることを特徴とする請求項
1乃至5のいずれかに記載の画像表示装置。 - 【請求項7】 前記較正手段は、センサ座標系と世界座
標系の間の方位角のオフセット値を補正することを特徴
とする請求項1乃至6のいずれかに記載の画像表示装
置。 - 【請求項8】 表示画面に現実空間を光学的に透過させ
つつ、当該表示画面を観察するユーザの視点の姿勢に応
じた仮想空間の画像を当該表示画面に表示する画像表示
方法であって、 3自由度の姿勢を計測する姿勢センサから姿勢計測値を
入力し、当該姿勢センサの世界座標系における姿勢のう
ちの方位角が予め定められた方位角に固定されているも
のとして、該予め定められた方位角と該姿勢計測値のう
ちの傾斜角計測値に基づいて前記視点の姿勢を算出し
て、これを姿勢情報として出力する姿勢情報出力工程
と、 前記姿勢情報出力工程が出力する姿勢情報に基づいて前
記画像を生成する画像生成工程と、 指示情報を入力する指示情報入力工程と、 前記指示情報が入力された時点及び/または該時点の前
後における前記姿勢計測値のうちの方位角計測値と、前
記予め定められた方位角に基づいて、センサ座標系にお
ける姿勢を世界座標系における姿勢に変換するための補
正情報を算出する補正情報算出工程と、 を備えることを特徴とする画像表示方法。 - 【請求項9】 撮像装置によって撮像された実画像に当
該撮像装置の視点の姿勢に応じた仮想空間の画像を重畳
した重畳画像を生成し、これを表示画面に表示する画像
表示方法であって、 3自由度の姿勢を計測する姿勢センサから姿勢計測値を
入力し、当該姿勢センサの世界座標系における姿勢のう
ちの方位角が予め定められた方位角に固定されているも
のとして、該予め定められた方位角と該姿勢計測値のう
ちの傾斜角計測値に基づいて前記視点の姿勢を算出し
て、これを姿勢情報として出力する姿勢情報出力工程
と、 前記姿勢情報出力工程が出力する姿勢情報に基づいて前
記重畳画像を生成する画像生成工程と、 指示情報を入力する指示情報入力工程と、 前記指示情報が入力された時点及び/または該時点の前
後における前記姿勢計測値のうちの方位角計測値と、前
記予め定められた方位角に基づいて、センサ座標系にお
ける姿勢を世界座標系における姿勢に変換するための補
正情報を算出する補正情報算出工程と、 を備えることを特徴とする画像表示方法。 - 【請求項10】 通常モードと補正値算出モードとの切
替えを行う切替え工程をさらに有し、 前記姿勢情報出力工程は、前記通常モードにおいては、
前記補正情報と前記姿勢計測値に基づいて前記視点の世
界座標系における姿勢を算出してこれを姿勢情報として
出力し、前記補正値算出モードにおいては、前記予め定
められた方位角と前記傾斜角計測値に基づいて前記視点
の姿勢を算出して、これを姿勢情報として出力すること
を特徴とする、請求項8または9に記載の画像表示方
法。 - 【請求項11】 前記補正情報は、センサ座標系と世界
座標系の間の方位角のオフセット値であることを特徴と
する請求項8乃至10に記載の画像表示方法。 - 【請求項12】 請求項8乃至11に記載の画像表示方
法をコンピュータに実行させるためのプログラムコード
を格納し、コンピュータが読み取り可能な記憶媒体。 - 【請求項13】 請求項8乃至11に記載の画像表示方
法をコンピュータに実行させるための制御プログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001329360A JP3805231B2 (ja) | 2001-10-26 | 2001-10-26 | 画像表示装置及びその方法並びに記憶媒体 |
EP02257360A EP1306809A3 (en) | 2001-10-26 | 2002-10-23 | Mixed reality imaging |
US10/278,947 US7446768B2 (en) | 2001-10-26 | 2002-10-24 | Virtual image display apparatus and method using calibrated measurement of attitude sensor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001329360A JP3805231B2 (ja) | 2001-10-26 | 2001-10-26 | 画像表示装置及びその方法並びに記憶媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003132374A true JP2003132374A (ja) | 2003-05-09 |
JP3805231B2 JP3805231B2 (ja) | 2006-08-02 |
Family
ID=19145274
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001329360A Expired - Fee Related JP3805231B2 (ja) | 2001-10-26 | 2001-10-26 | 画像表示装置及びその方法並びに記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7446768B2 (ja) |
EP (1) | EP1306809A3 (ja) |
JP (1) | JP3805231B2 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006318015A (ja) * | 2005-05-10 | 2006-11-24 | Sony Corp | 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム |
JP2008500624A (ja) * | 2004-05-24 | 2008-01-10 | 3ディー フォー オール シャミタステクニカイ フェリャズト ケーエフティー | 仮想3次元空間内で動作するシステム及び方法と視覚化システムを介してオペレーションを選択するシステム |
US7414596B2 (en) | 2003-09-30 | 2008-08-19 | Canon Kabushiki Kaisha | Data conversion method and apparatus, and orientation measurement apparatus |
WO2011048773A1 (en) * | 2009-10-20 | 2011-04-28 | Sony Corporation | Image display apparatus, image display method, and program |
JP2012109708A (ja) * | 2010-11-16 | 2012-06-07 | Seiko Epson Corp | 映像表示装置及び映像表示方法 |
JP2014002645A (ja) * | 2012-06-20 | 2014-01-09 | Shimizu Corp | 合成画像表示システム及びその方法 |
WO2015071940A1 (ja) * | 2013-11-15 | 2015-05-21 | 国土交通省国土技術政策総合研究所長が代表する日本国 | 情報処理装置、情報処理方法及びプログラム |
JP2016053961A (ja) * | 2015-09-28 | 2016-04-14 | 国土交通省国土技術政策総合研究所長 | 情報処理装置、情報処理方法及びプログラム |
WO2017064972A1 (ja) * | 2015-10-14 | 2017-04-20 | アルプス電気株式会社 | ウェアラブル装置とその姿勢測定方法及びプログラム |
JP2017187757A (ja) * | 2016-03-30 | 2017-10-12 | TsZ株式会社 | 画像表示装置 |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3486613B2 (ja) * | 2001-03-06 | 2004-01-13 | キヤノン株式会社 | 画像処理装置およびその方法並びにプログラム、記憶媒体 |
JP2004199496A (ja) * | 2002-12-19 | 2004-07-15 | Sony Corp | 情報処理装置および方法、並びにプログラム |
JP4136859B2 (ja) * | 2003-01-10 | 2008-08-20 | キヤノン株式会社 | 位置姿勢計測方法 |
US7369102B2 (en) * | 2003-03-04 | 2008-05-06 | Microsoft Corporation | System and method for navigating a graphical user interface on a smaller display |
JP4532856B2 (ja) * | 2003-07-08 | 2010-08-25 | キヤノン株式会社 | 位置姿勢計測方法及び装置 |
JP4537104B2 (ja) * | 2004-03-31 | 2010-09-01 | キヤノン株式会社 | マーカ検出方法、マーカ検出装置、位置姿勢推定方法、及び複合現実空間提示方法 |
JP2005326275A (ja) * | 2004-05-14 | 2005-11-24 | Canon Inc | 情報処理方法および装置 |
JP4593968B2 (ja) * | 2004-05-14 | 2010-12-08 | キヤノン株式会社 | 位置姿勢計測方法および装置 |
US9071870B2 (en) * | 2004-12-08 | 2015-06-30 | Nokia Technologies Oy | System and method for viewing digital visual content on a device |
JP5127128B2 (ja) * | 2004-12-21 | 2013-01-23 | 韓國電子通信研究院 | カメラの位置及び姿勢情報補正方法及びその装置 |
EP1686554A3 (en) * | 2005-01-31 | 2008-06-18 | Canon Kabushiki Kaisha | Virtual space generating system, image processing apparatus and information processing method |
US7737965B2 (en) * | 2005-06-09 | 2010-06-15 | Honeywell International Inc. | Handheld synthetic vision device |
JP4914039B2 (ja) * | 2005-07-27 | 2012-04-11 | キヤノン株式会社 | 情報処理方法および装置 |
JP4810295B2 (ja) * | 2006-05-02 | 2011-11-09 | キヤノン株式会社 | 情報処理装置及びその制御方法、画像処理装置、プログラム、記憶媒体 |
FR2935810B1 (fr) * | 2008-09-09 | 2010-10-22 | Airbus France | Procede de reglage d'une compensation d'harmonisation entre capteur video et dispositif de visualisation tete haute, et dispositifs correspondants |
US8416263B2 (en) * | 2010-03-08 | 2013-04-09 | Empire Technology Development, Llc | Alignment of objects in augmented reality |
EP2378394A3 (en) * | 2010-04-15 | 2015-03-25 | Electronics and Telecommunications Research Institute | User interface device and method for recognizing user interaction using same |
KR101874895B1 (ko) * | 2012-01-12 | 2018-07-06 | 삼성전자 주식회사 | 증강 현실 제공 방법 및 이를 지원하는 단말기 |
US20140123507A1 (en) | 2012-11-02 | 2014-05-08 | Qualcomm Incorporated | Reference coordinate system determination |
JP6138566B2 (ja) * | 2013-04-24 | 2017-05-31 | 川崎重工業株式会社 | 部品取付作業支援システムおよび部品取付方法 |
US9330504B2 (en) * | 2013-04-30 | 2016-05-03 | Hover Inc. | 3D building model construction tools |
JP6397269B2 (ja) | 2013-09-06 | 2018-09-26 | キヤノン株式会社 | 画像処理装置、画像処理方法 |
CN103996215A (zh) * | 2013-11-05 | 2014-08-20 | 深圳市云立方信息科技有限公司 | 一种实现虚拟视图转立体视图的方法及装置 |
US11617623B2 (en) * | 2014-01-24 | 2023-04-04 | Koninklijke Philips N.V. | Virtual image with optical shape sensing device perspective |
JP6393106B2 (ja) | 2014-07-24 | 2018-09-19 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
US9965030B2 (en) | 2014-07-31 | 2018-05-08 | Samsung Electronics Co., Ltd. | Wearable glasses and method of displaying image via the wearable glasses |
CN104142631B (zh) * | 2014-08-01 | 2016-08-24 | 北京理工大学 | 飞行控制系统的快速原型设计与半物理仿真方法及系统 |
JP6971544B2 (ja) | 2015-08-06 | 2021-11-24 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US10156901B2 (en) * | 2015-10-16 | 2018-12-18 | Wisconsin Alumni Research Foundation | Touch surface for mobile devices using near field light sensing |
JP6711715B2 (ja) | 2016-07-19 | 2020-06-17 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP6840481B2 (ja) | 2016-07-19 | 2021-03-10 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP2018110615A (ja) | 2017-01-06 | 2018-07-19 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP6934734B2 (ja) | 2017-03-17 | 2021-09-15 | キヤノン株式会社 | 画像処理装置、画像処理装置の制御方法およびプログラム |
CN107941240A (zh) * | 2017-10-10 | 2018-04-20 | 深圳市虚拟现实科技有限公司 | 姿态测量装置自动校正的方法及系统 |
JP7058585B2 (ja) | 2017-12-25 | 2022-04-22 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
WO2019130827A1 (ja) | 2017-12-25 | 2019-07-04 | キヤノン株式会社 | 画像処理装置およびその制御方法 |
WO2020010097A1 (en) | 2018-07-02 | 2020-01-09 | Magic Leap, Inc. | Pixel intensity modulation using modifying gain values |
CN112955073A (zh) | 2018-08-22 | 2021-06-11 | 奇跃公司 | 患者观察系统 |
JP7206706B2 (ja) * | 2018-08-31 | 2023-01-18 | 積水ハウス株式会社 | シミュレーションシステム |
CN113454507B (zh) | 2018-12-21 | 2024-05-07 | 奇跃公司 | 用于促进波导内的全内反射的气穴结构 |
JP2022523852A (ja) * | 2019-03-12 | 2022-04-26 | マジック リープ, インコーポレイテッド | 第1および第2の拡張現実ビューア間でのローカルコンテンツの位置合わせ |
WO2021097318A1 (en) | 2019-11-14 | 2021-05-20 | Magic Leap, Inc. | Systems and methods for virtual and augmented reality |
CN114120792B (zh) * | 2021-11-30 | 2024-02-27 | 中国人民解放军海军航空大学 | 一种基于飞机姿态控制的专用教具 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4583094A (en) * | 1983-04-28 | 1986-04-15 | Rockwell International Corporation | Solid state attitude director indicator |
US5815411A (en) * | 1993-09-10 | 1998-09-29 | Criticom Corporation | Electro-optic vision system which exploits position and attitude |
US6064398A (en) * | 1993-09-10 | 2000-05-16 | Geovector Corporation | Electro-optic vision systems |
US6654014B2 (en) * | 1995-04-20 | 2003-11-25 | Yoshinori Endo | Bird's-eye view forming method, map display apparatus and navigation system |
US6057856A (en) * | 1996-09-30 | 2000-05-02 | Sony Corporation | 3D virtual reality multi-user interaction with superimposed positional information display for each user |
US6064335A (en) * | 1997-07-21 | 2000-05-16 | Trimble Navigation Limited | GPS based augmented reality collision avoidance system |
US6166744A (en) * | 1997-11-26 | 2000-12-26 | Pathfinder Systems, Inc. | System for combining virtual images with real-world scenes |
JP3632895B2 (ja) | 1999-08-10 | 2005-03-23 | 東光電気株式会社 | 光電圧センサ |
US6596976B2 (en) * | 1999-12-07 | 2003-07-22 | American Gnc Corporation | Method and system for pointing and stabilizing a device |
US6298286B1 (en) * | 1999-12-17 | 2001-10-02 | Rockwell Collins | Method of preventing potentially hazardously misleading attitude data |
JP3631151B2 (ja) * | 2000-11-30 | 2005-03-23 | キヤノン株式会社 | 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体 |
US7176936B2 (en) * | 2001-03-27 | 2007-02-13 | Siemens Corporate Research, Inc. | Augmented reality guided instrument positioning with modulated guiding graphics |
-
2001
- 2001-10-26 JP JP2001329360A patent/JP3805231B2/ja not_active Expired - Fee Related
-
2002
- 2002-10-23 EP EP02257360A patent/EP1306809A3/en not_active Withdrawn
- 2002-10-24 US US10/278,947 patent/US7446768B2/en not_active Expired - Fee Related
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7414596B2 (en) | 2003-09-30 | 2008-08-19 | Canon Kabushiki Kaisha | Data conversion method and apparatus, and orientation measurement apparatus |
JP2008500624A (ja) * | 2004-05-24 | 2008-01-10 | 3ディー フォー オール シャミタステクニカイ フェリャズト ケーエフティー | 仮想3次元空間内で動作するシステム及び方法と視覚化システムを介してオペレーションを選択するシステム |
JP2006318015A (ja) * | 2005-05-10 | 2006-11-24 | Sony Corp | 画像処理装置および画像処理方法、画像表示システム、並びに、プログラム |
WO2011048773A1 (en) * | 2009-10-20 | 2011-04-28 | Sony Corporation | Image display apparatus, image display method, and program |
JP2012109708A (ja) * | 2010-11-16 | 2012-06-07 | Seiko Epson Corp | 映像表示装置及び映像表示方法 |
JP2014002645A (ja) * | 2012-06-20 | 2014-01-09 | Shimizu Corp | 合成画像表示システム及びその方法 |
WO2015071940A1 (ja) * | 2013-11-15 | 2015-05-21 | 国土交通省国土技術政策総合研究所長が代表する日本国 | 情報処理装置、情報処理方法及びプログラム |
JP5817012B2 (ja) * | 2013-11-15 | 2015-11-18 | 国土交通省国土技術政策総合研究所長 | 情報処理装置、情報処理方法及びプログラム |
JP2016053961A (ja) * | 2015-09-28 | 2016-04-14 | 国土交通省国土技術政策総合研究所長 | 情報処理装置、情報処理方法及びプログラム |
WO2017064972A1 (ja) * | 2015-10-14 | 2017-04-20 | アルプス電気株式会社 | ウェアラブル装置とその姿勢測定方法及びプログラム |
JPWO2017064972A1 (ja) * | 2015-10-14 | 2018-09-06 | アルプス電気株式会社 | ウェアラブル装置とその姿勢測定方法及びプログラム |
US10760904B2 (en) | 2015-10-14 | 2020-09-01 | Alps Alpine Co., Ltd. | Wearable device, posture measurement method, and non-transitory recording medium |
JP2017187757A (ja) * | 2016-03-30 | 2017-10-12 | TsZ株式会社 | 画像表示装置 |
Also Published As
Publication number | Publication date |
---|---|
US7446768B2 (en) | 2008-11-04 |
US20030080976A1 (en) | 2003-05-01 |
JP3805231B2 (ja) | 2006-08-02 |
EP1306809A2 (en) | 2003-05-02 |
EP1306809A3 (en) | 2007-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3805231B2 (ja) | 画像表示装置及びその方法並びに記憶媒体 | |
US7095424B2 (en) | Image display apparatus and method, and storage medium | |
US11016297B2 (en) | Image generation apparatus and image generation method | |
EP3343320B1 (en) | Information processing apparatus, information processing system, and information processing method | |
JP4218952B2 (ja) | データ変換方法及び装置 | |
US6990429B2 (en) | Information processing apparatus, and information processing method | |
US20060227211A1 (en) | Method and apparatus for measuring position and orientation | |
US20070120872A1 (en) | Image processing device and method therefor and program codes, storing medium | |
JP4677281B2 (ja) | 画像処理方法、画像処理装置 | |
US20030184602A1 (en) | Information processing method and apparatus | |
JP7121523B2 (ja) | 画像表示装置、画像表示方法 | |
JP4095320B2 (ja) | センサ較正装置、センサ較正方法、プログラム、記憶媒体 | |
US20050078053A1 (en) | Image-displaying apparatus and method for obtaining pixel data therefor | |
JP2005038321A (ja) | ヘッドマウントディスプレイ装置 | |
JP3840171B2 (ja) | 画像表示装置及びその方法並びに記憶媒体 | |
JP5870656B2 (ja) | 軌跡演算装置および軌跡演算方法 | |
JP2004234549A (ja) | 現実物体モデル作成方法 | |
JP4926598B2 (ja) | 情報処理方法、情報処理装置 | |
JP4568050B2 (ja) | カメラパラメータ算出較正装置およびカメラパラメータ算出較正プログラム | |
JP2005122233A (ja) | 情報処理装置および方法並びに記憶媒体 | |
JP4810403B2 (ja) | 情報処理装置、情報処理方法 | |
JP2004108836A (ja) | 撮像装置の方位角計算方法及び装置、撮像装置の姿勢検出装置、撮像装置の傾きセンサ、コンピュータプログラム、並びに三次元モデル構成装置 | |
JP7030906B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP7465133B2 (ja) | 情報処理装置、情報処理方法 | |
JP2006277350A (ja) | 情報処理方法、情報処理装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051216 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060214 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060421 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060509 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100519 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100519 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110519 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120519 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120519 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130519 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140519 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |