JP2004126869A - Position/attitude setting device, conversion parameter setting method and composite reality feeling system - Google Patents

Position/attitude setting device, conversion parameter setting method and composite reality feeling system Download PDF

Info

Publication number
JP2004126869A
JP2004126869A JP2002288875A JP2002288875A JP2004126869A JP 2004126869 A JP2004126869 A JP 2004126869A JP 2002288875 A JP2002288875 A JP 2002288875A JP 2002288875 A JP2002288875 A JP 2002288875A JP 2004126869 A JP2004126869 A JP 2004126869A
Authority
JP
Japan
Prior art keywords
real
setting
orientation
image
mixed reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002288875A
Other languages
Japanese (ja)
Inventor
Hironori Yonezawa
米澤 博紀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002288875A priority Critical patent/JP2004126869A/en
Publication of JP2004126869A publication Critical patent/JP2004126869A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a re-calculation operation for a conversion parameter of a coordinate system, when variation occurs to a real space object, arranged in a composite real space and to an environment in a composite reality feeling device which composites a real space video image and a virtual space video image. <P>SOLUTION: A composite reality feeling system generates a composite real image by merging the real space video image, which can be viewed in the position of the view point of a viewer or in a viewer's line-of-sight direction, and the virtual space video image together, and displays the composite real image on an HMD 110. In this case, when a conversion parameter, which converts the coordinate system of a position sensor 113 for the eyes to the global coordinate system of a composite real space, is set, a real object arrangement device 215 is arranged according to an arrangement mark 210, and the HND 110 is arranged at a prescribed position in the real object arrangement device. A real index 220, which the real object arrangement device 215 has, is displayed as a virtual index on the display screen of the HND 110. In adjusting the attitude of the HMD 110, the conversion parameter is set by making the position of the virtual index coincide with that of the real index in the composite real image displayed. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、ビデオカメラなどから取り込まれた現実空間映像と、位置姿勢計測装置によって計測された視点位置・視線方向における仮想空間映像とを合成し複合現実空間映像を生成する複合現実感装置における、初期位置合わせに関するものである。
【0002】
【従来の技術】
複合現実感システムでは、現実空間と仮想空間を融合するために何らかの手段によって現実空間物体の3次元位置および姿勢を取得する必要がある。3次元位置及び姿勢の取得には、米国Polhemus社製FASTRAK(商標)に代表されるような位置姿勢計測装置を使うのが一般的な手法の一つである。
【0003】
このような位置姿勢計測装置を利用する場合、観察者の視点位置・視線方向や現実物体の位置姿勢は位置姿勢計測装置座標系の値として得られる。このため、得られた座標値を複合現実空間の座標系、すなわち世界座標系に変換することが必要である。つまり位置姿勢計測装置座標系から世界座標系への変換パラメータが必要となる.これを取得するための手段として、現実指標と仮想指標を使う方式が知られている。以下具体的な手順を説明する。
【0004】
まず、複合現実空間として利用する現実空間内に設置される現実物体に、現実指標を予め設置する。そしてこれら現実指標の世界座標系における位置を測量しておき、これらの値を仮想指標に与える。つまり現実指標と仮想指標の位置を同じに設定する。続いてこれら仮想指標が表示画面に表示されるように基準位置姿勢を設定する。そして表示装置に基準位置姿勢での仮想指標を表示し、これらと現実指標が一致して見えるように表示装置の位置姿勢を調整、固定する。この時点での位置姿勢計測装置の出力を記録する。以上の一連の作業で設定もしくは計測された値から変換パラメータが獲得される。
【0005】
【発明が解決しようとする課題】
複合現実空間として利用する現実空間物体及び現実空間環境は、観察者に提示する複合現実空間の内容やシナリオに応じて変更する必要がある。場合によっては現実指標が設置されていた現実空間物体を別のものに交換したり、配置場所を変更したりすることがある。このような場合、変換パラメータの再計算が必要となるが、従来の手法においては、現実指標の設置位置の変更、現実指標の設置位置の測量、仮想指標の位置変更、基準姿勢の再計算が必要になってしまう。
【0006】
本発明は上記の課題に鑑みてなされたものであり、複合現実空間に配置される現実空間物体や環境に変化があった場合の、座標系の変換パラメータの再計算を軽減可能とすることを目的とする。
【0007】
【課題を解決するための手段】
上記の目的を達成するための本発明による位置姿勢設定器具は、
観察者の視点位置・視線方向において観察可能な現実空間像と、仮想空間映像とを融合した複合現実映像を生成・表示する複合現実感システムにおける、位置姿勢計測手段の座標系を複合現実空間の世界座標系に変換するための変換パラメータを設定するための器具であって、
前記複合現実映像を表示する表示部を設置する設置部と、
当該器具の本体に配置された、前記変換パラメータの取得時に利用される指標とを備える。
【0008】
また、上記の目的を達成するための、本発明による変換パラメータ設定方法は、
観察者の視点位置・視線方向において観察可能な現実空間像と仮想空間映像とを融合した複合現実像を生成、表示する複合現実感システムにおいて、現実物体の位置姿勢を計測する計測手段の座標系を複合現実空間の世界座標系に変換するための変換パラメータを設定する方法であって、
所定の場所に設置された設定器具上の所定位置に前記現実物体を配置し、
前記設定器具の一部を表す仮想画像を表示装置の所定位置に表示するとともに、前記現実物体の位置姿勢で観察される現実空間像を該表示装置に表示し、
前記現実物体の姿勢を調整して、前記仮想画像による設定器具の一部と現実空間像による設定器具の一部とを一致させることにより前記変換パラメータの設定を行なう。
【0009】
更に、上記の目的を達成するための本発明による複合現実感システムは、
観察者の視点位置・視線方向において観察可能な現実空間像と仮想空間映像とを融合した複合現実像を生成し、表示装置上に表示する複合現実感システムであって、
現実物体の位置姿勢を計測する計測手段の座標系を複合現実空間の世界座標系に変換するための変換パラメータを設定するための設定モードを指定する指定手段と、
所定の場所に設置可能な設定器具と、該設定器具は所定位置に前記現実物体を姿勢変更可能に配置可能であり、
前記指定手段で設定モードが指定された場合、前記設定器具の一部に対応する仮想画像を前記表示装置の所定位置に表示させるとともに、前記現実物体の位置姿勢で観察される現実空間像を該表示装置に表示させる表示制御手段と、
ユーザから所定の通知があった場合に、前記表示装置の表示上で、前記仮想画像による設定器具の一部と現実空間像による設定器具の一部とが一致したものとみなし、その時点における前記計測手段の計測結果に基づいて前記変換パラメータを算出する算出手段とを備える。
【0010】
【発明の実施の形態】
以下、添付の図面を参照して本発明の好適な実施形態を説明する。
【0011】
〈第1実施形態〉
図1は第1実施形態による現実物体設置器具を利用して得られた座標系の変換パラメータを取得後、運用される複合現実感システムの全体的な構成を示す図である。
【0012】
図1において、観察者100はヘッドマウントディスプレイ(HMD)110を頭部に、グローブ120を手に装着している。
【0013】
HMD110は図2で示されるようにビデオカメラ111、LCD112、位置姿勢計測装置受信機(目用位置センサ)113、光学プリズム114、115で構成されている。ビデオカメラ111は光学プリズム115によって導かれた観察者の視点位置および視線方向の現実空間映像を撮影する。目用位置センサ113は観察者の視点位置および視線方向を計測する。LCD112は複合現実空間映像を表示し、その映像は光学プリズム114によって観察者の観察者の瞳に導かれる。
【0014】
グローブ120には手用位置センサ121、スピーカ(不図示)が内蔵されている。手用位置センサ121は観察者の手の位置および方向を計測する。また、スピーカからは手の位置において発生したイベントに応じて音が出力される。例えば、手で仮想空間物体に触ったり叩いたりした時の音や、手の位置に同期して表示される仮想空間物体の状態が変わったときに発生する音などである。
【0015】
130は位置姿勢計測装置発信機(位置センサ発信機)、131は位置姿勢計測装置本体(位置センサ本体)である。目用位置センサ113、手用位置センサ121、位置センサ発信機130は位置センサ本体131に接続されている。位置センサ発信機130からは磁気が発信されており、目用位置センサ113、手用位置センサ121でこれを受信する。位置センサ本体131は各位置センサから出力される受信強度から各位置センサの位置および方向を算出する。ここで位置姿勢計測装置としては米国Polhemus社製FASTRAK(商標)などが利用可能である。
【0016】
140は観察者1人分の複合現実空間映像を生成し、HMD110に表示する処理装置である。例えばパーソナルコンピュータとビデオキャプチャーカード、CG描画機能のあるビデオカード、サウンドカードで構成される。処理装置140にはHMD110、スピーカ122、位置センサ本体131が接続されている。
【0017】
なお図1では観察者は1人であるが、図1と同じ機器構成を複数用意し、イーサネット(登録商標)などのネットワーク150で相互接続することで同時に複数の観察者が同じ複合現実空間を共有することも可能である。しかしながら本発明の趣旨とは離れていくのでここではその説明は省略する。
【0018】
160は本システムが複合現実空間として利用する現実空間領域である。本システムはこの領域内のみ仮想空間映像を合成する。この領域外の現実空間については仮想空間映像の融合は行われない。
【0019】
170は複合現実空間内に設置される現実物体の例である。本システムはこれらの現実物体と仮想物体との接触、視点から見た仮想物体の前後関係を判断して、合理的な複合現実映像を生成している。例えば、視点から見たときに仮想物体がこれら現実物体の奥に位置するような場合、仮想物体の全体もしくは一部が現実物体に覆い隠されているように見える映像を観察者に提供する。このような処理を行うために、本システムはこれら現実物体の形状情報や設置位置を保持している。
【0020】
図3乃至図5は、処理装置140内で動作するプログラムが、複合現実空間映像を生成する手順を説明するフローチャートである。プログラムには観察者が複合現実空間を体験することができる「通常モード」と、補正パラメータ(変換パラメータの一部)を取得する「初期設定モード」の2つのモードがある。
【0021】
初めに処理装置140はメインプログラムを起動する。メインプログラムはまず動作モードを「通常モード」に設定し(ステップS300)、位置姿勢スレッド、映像キャプチャスレッド、映像生成スレッドを起動する。(ステップS301〜S303)ここでスレッドとは処理装置140において並列処理される一連のプログラムである。このため、動作モードなどの情報はメインプログラムとすべてのスレッドで共有される。
【0022】
各スレッド起動後、メインプログラムはイベント待ちに入り、何らかのイベントが到着するまで待機しつづける(ステップS304)。ここでイベントとはユーザインターフェースからの入力、他のスレッドからの情報通知、ハードウェア割り込みなどで、具体的には動作モードの変更(ステップS305)、初期パラメータの変更(ステップS306)、補正パラメータ取得(ステップS320)、仮想指標位置変更(ステップS330)、終了イベント(ステップS307)などがある。
【0023】
これらのイベントが到着した場合には、それぞれに応じた処理(ステップS310、S311、S321、S331、S308)が行われる。これらの処理の具体的説明は割愛するが、値の入力および変更などのすべてのシステムへの指示は、ウインドウシステムのような一般的なユーザインターフェースによって行うことができるものとする。
【0024】
なお本実施形態において、変換パラメータとは、初期パラメータと補正パラメータをあわせたものを総称するものとする。これらについては後述する。
【0025】
ステップS302で起動された映像キャプチャスレッドは、ビデオカメラ111で撮影された映像をデジタルデータとして取り込み、メインスレッドに出力しつづける。終了通知がない限りこの動作を繰り返し行う。
【0026】
ステップS301で起動された位置姿勢スレッドの処理について、図4を参照して説明する。まず、位置センサ本体131から測定値を取得し(ステップS401)、動作モードに応じて処理を行う(ステップS402)。ここで、動作モードが「通常モード」なら、測定値と変換パラメータから世界座標系における測定対象物体の位置姿勢を計算し、メインスレッドに出力する(ステップS403,S404)。一方、動作モードが「初期設定モード」なら、測定値と基準姿勢から補正パラメータを計算し、基準位置姿勢をメインスレッドに出力する(ステップS406,S407)。以上の動作を終了通知が来るまで繰り返し行い続ける(ステップS405)。
【0027】
次に、ステップS303で起動される映像生成スレッドの処理について、図5を参照して説明する。
【0028】
まず、位置姿勢スレッドからの出力を受け、測定対象物体の位置姿勢を更新する(ステップS501、S510)。続いて仮想空間の時間を更新し仮想空間の状態(仮想空間物体の種類、位置、状態)を更新する(ステップS502)。このとき、現実空間物体の位置姿勢に同期して位置姿勢が変化する仮想空間物体がある場合はそれらも合わせて状態を更新する。例えば手の上に常に仮想空間物体のグローブが装着されているように見せる場合は、このステップでグローブの位置姿勢が更新される。また、視点から見た仮想物体の前後関係を判断して、仮想物体の一部もしくは全体が現実物体に覆い隠されているように見せるための処理もここで行われる。
【0029】
続いて現実空間物体の位置姿勢(手の位置姿勢など)と仮想空間物体の位置姿勢の関係を調べ、あらかじめ定義されているイベントが発生したと判断される場合には、それに応じて仮想空間の状態を更新する(ステップS503)。例えば手で仮想空間物体に触れた場合に仮想空間物体が爆発するなどが考えられる。
【0030】
続いてビデオカメラ111から得られた観察者の視点位置および視線方向での現実空間映像を取り込む(ステップS504、S520)。動作モードが「通常モード」であれば(ステップS530)、ステップS501で取得された観察者の視点位置および視線方向からの仮想空間映像を、ステップS502及びS503で更新された仮想空間の状態に応じて生成する(ステップS505)。一方、動作モードが「初期設定モード」ならば、仮想指標を予め設定された位置に描画する(ステップS531)。
【0031】
最後に、上記ステップS505或いはS531で生成された仮想空間映像と、ステップS504で取り込まれた現実空間映像とを合成し、HMD110のLCD112に出力する(ステップS506)。以上の動作を終了指示がなされるまで繰り返す(ステップS507)。
【0032】
以上、本実施形態の複合現実感システムを構成する機器、複合現実空間映像生成の動作について説明した。次に、ステップS403での位置姿勢計算とステップS406の補正パラメータ取得の原理を詳細に説明する。
【0033】
図6は各座標系の配置を示した図である。Gは世界座標系、Tは位置姿勢センサの発信機座標系、Sは位置姿勢センサの受信機座標系、Eは視点座標系である。S’、E’はそれぞれ視点位置・視線方向を基準位置姿勢に固定したときのセンサ座標系と視点座標系である。また、Pは位置を求めるべき点(視点)、P’は基準位置である。
【0034】
ここで座標系Aから見た点Pの位置をPと表現することにする。また座標系Aから見た点Pの位置Pと座標系Bから見た点Pの位置Pの間には、座標系Aと座標系Bとの姿勢を記述する回転行列 Rを使って、P= R Pと表すことができることが知られている。
【0035】
以上のことより、求めるべき点Pの世界座標系における位置Pと姿勢 Rは、
P=P’−E’ R E’P’+ R(EorgP’Eorg)+ R 
R=E’ R S’ −1 
と表記することができる。
【0036】
ここで、 R=Iとなるように位置姿勢センサ発信機を設置すれば、P’は基準位置、E’ Rは基準姿勢、E’P’、Pはセンサから測定点までのオフセット、Eorgは位置測定値、P’Eorgは基準位置姿勢での位置測定値、 Rは姿勢計算値、 Rは姿勢測定値、S’ −1は基準位置姿勢での姿勢測定値の逆行列であり、すべて既知の行列で表現できる。つまり位置姿勢発信機座標系に依存せず計算することが可能になる。
【0037】
なお、本実施形態でいうところの変換パラメータとは、上記、位置測定値Erog、姿勢測定値 R以外の行列の総称である。変換パラメータは補正パラメータと初期パラメータに分けられる。
【0038】
補正パラメータは、基準位置姿勢での位置測定値P’Eorgと基準位置姿勢での姿勢測定値の逆行列S’ −1の2つである。補正パラメータはステップS406で計算され、ステップS320,321の処理でシステムに保持される。
【0039】
初期パラメータは基準位置P’、基準姿勢E’ R、センサから測定点までのオフセットE’P’、Pの3つである。初期パラメータはS311で入力された値もしくは処理装置が保持している値が利用される。
【0040】
以上位置姿勢計算、変換パラメータについて説明した。次に変換パラメータを設定する手順について説明する。
【0041】
まず複合現実空間として利用する現実空間内に設置される現実物体に、現実指標を予め設置する。そしてこれら現実指標の世界座標系における位置を測量しておき、これらの値を仮想指標に与える(ステップS331)。仮想指標の個数は特に限定されるものではなくいくつでもよい。現実指標の位置を変更した場合はその都度、現実指標の世界座標系における位置を再測量し、ステップS331で変更しなくてはならない。
【0042】
続いてこれら仮想指標が表示画面に表示されるように基準位置姿勢を設定する。つまり初期パラメータを入力する(ステップS306,S311)。続いて「初期設定モード」に動作モードを変更する(ステップS310)。「初期設定モード」では、HMD110の位置姿勢測定値が基準位置姿勢に固定される(ステップS407)。また仮想指標190が描画、表示される(ステップS530,531)。
【0043】
続いて、設置器具を配置し、設置器具の所定の位置にHMD110を設置する。そして仮想指標と現実指標が一致して見えるように表示装置の位置姿勢を調整、固定する。最後にこの時点での補正パラメータ(基準位置姿勢での位置測定値基準位置姿勢での姿勢測定値の逆行列)を獲得する(ステップS320,S321)。以上の作業で変換パラメータが獲得される。
【0044】
まず、一般的な方式による補正パラメータ取得手順を説明する。
【0045】
基本的手順は上記のように行えばよいので、ここではHMD100を基準位置姿勢に設置する部分を詳細に説明する。
【0046】
図7は一般的な方式でHMD110を基準位置姿勢に設置した際の様子を示した図である。HMD110を基準位置姿勢に固定するには現実物体設置器具200が用いられる。現実物体設置器具200は、現実物体としてのHMD110を基準位置に設置可能なように配置しなくてはならない。210はそのための設置用マークである。現実物体設置器具200をこの設置用マーク210の上に配置すればHMD110を基準位置に設置できるように、設置用マーク210は予め世界座標系中の所定位置に貼り付けられている。
【0047】
HMD110を基準位置に設置するには、この状態でHMD110を現実物体設置器具200の所定の位置に固定すればよい。現実物体設置器具200とHMD110には予め印がつけられており、この印が重なるようにHMD110を現実物体設置器具200にのせることで、HMD110を基準位置に設置することができるように予め設計されている。より正確を期すためには専用の装着器具を作成し利用するのが望ましい。
【0048】
HMD110を基準姿勢に設置するには、「初期設定モード」において仮想指標と現実指標を表示画面上で一致させてやればよい。仮想指標190が表示されたときのHMD110の表示状態を図8、図9に示す。仮想指標の表示位置は、現実物体設置器具200を用いて所定の位置姿勢でHMD110を固定した場合に観察される位置であり、初期設定モードにおける表示の間その表示位置は変化しない。図8のように仮想指標190と現実指標180が表示画面上で一致してない場合は、HMD110を基準位置からずれないように回転させ、図9に示されるように仮想指標と現実指標が一致するようにする。仮想指標と現実指標が表示画面上で一致すると、HMD110が基準姿勢に設置された状態となる。
【0049】
続いて、本実施形態によるHMD110の補正パラメータ取得手順を説明する。基本的手順は従来の手法と同様なので、ここでは基準位置姿勢に設置する器具を詳細に説明する。
【0050】
図10は本実施形態によるHMD110の補正パラメータ取得時の様子を示した図である。図7〜図9で上述した方法と同様の手順で補正パラメータを取得するが、図10に示す構成では、現実指標220は、現実物体設置器具215上に設置されている。
【0051】
仮想指標190が表示されたときのHMD110の表示状態を図11、図12に示す。図7〜図9で説明した方法と同様に、図11から図12に示すように、現実指標220(但し、現実物体設置器具215上に設けられている)と仮想指標190が一致するようにHMD110を回転させる(HMD110の姿勢を変更する)。なお、現実物体設置器具215にはHMD110を装着したユーザがあごを載せる部分が設けられ、この部分にあごを載せることでHMDを基準位置に設置できる。HMD本体をそのまま置くようにしてもよい。但し、ユーザがHMDを装着しない場合は、外部のモニタにHMDで表示される観察画像を表示させ、これを用いて位置合わせを行なう。
【0052】
なお特に記述しなかったが、現実指標220の設置場所及び大きさは表示装置に表示させたときにその存在および全体形状が認識可能になるようにすることを付け加えておく。さらには、現実指標220として発光素子などを使い、より表示画面中における認識を容易にしても良い。
【0053】
以上、従来の方式と本実施形態の方式における補正パラメータ取得手順、設置器具、および利用方法について説明した。
【0054】
以上説明したように、一般的な指標設置方法では、現実物体を変更した場合に現実指標の再設置、現実指標の位置測量、その測量結果に基づく仮想指標の位置変更、仮想指標をHMD110の表示範囲内に収めるように基準位置姿勢の再計算をしなくてはならない。
【0055】
これに対して、上記実施形態による設置器具215を利用すれば、現実指標となるべき現実物体は変換パラメータ設定時にのみ設置される設置器具に保持されるため、複合現実空間として利用する現実空間物体及び環境に変化があっても、基準位置姿勢と仮想指標との相対位置及び姿勢は一定である。このため、現実指標の設置位置の変更、現実指標の設置位置の測量、仮想指標の位置変更、基準姿勢の再計算は必要ない。
【0056】
また一般的な方法による指標設置方法だと、複数の観察者が向かい合いほぼ一定の場所に留まって複合現実空間を共有する複合現実感システムの場合に、各観察者の位置で初期位置を設定するため、観察者ごとに現実指標を用意しなくてはならない。従って、観察者が増えれば増えるほど指標の管理が大きくなる。これに対して、本実施形態の設置器具を利用すれば、現実指標の管理の手間が大きく削減されることになる。また現実指標の位置計算や初期パラメータの計算も簡単なオフセット計算で再計算することが出来るようになる。
【0057】
さらには複合現実空間に本来あるべきでない現実指標を、複合現実空間システム運用時に除去することが可能となり、よりリアリティのある複合現実空間映像を提供することも可能になる。
【0058】
〈第2実施形態〉
上記第1実施形態では、現実指標220を現実物体設置器具215上に設置し、観察画像上で仮想指標と合致させることで位置・姿勢合わせを行なった。第2実施形態では、現実物体設置器具215の一部を用いて位置・姿勢合わせを行なう。
【0059】
図13、図14は第2実施形態による「初期設定モード」における表示画面である。第2実施形態では設置器具自体を現実指標として利用する。これに対応し仮想指標は、第1実施形態では表示画面上で点および小片であったのが、第2実施形態では、現実指標の3次元コンピュータグラフィックスのワイヤ−フレームモデル230で表現されている。第2実施形態では、このワイヤフレームと現実の設置器具とを合致させることになるが、基本的な構成や動作は第1実施例に順ずるものとする。
【0060】
仮想指標と現実指標を表示画面上で一致させるときに、指標が複数の小片だと一つの指標を一致させることに集中して別の指標がずれてしまう事が起こりやすい。第2実施形態では、画面全体でずれを認識できるため、位置合わせをより容易に行うことが出来る。
【0061】
第2実施形態によれば、表示装置を含む位置姿勢計測対象の現実物体を、所定の位置姿勢−基準位置姿勢に固定するための設置器具に、現実指標となるべき現実物体を保持させることにより、基準位置姿勢と仮想指標との相対位置及び姿勢を固定に保つ。これにより設置器具作成時に一度だけ現実指標が表示画面内に入るように基準位置姿勢を設定しておけば、複合現実空間として利用する現実空間物体及び環境に変化があっても現実指標の設置位置の変更、現実指標の設置位置の測量、仮想指標の位置変更、基準姿勢の再計算は必要ない。また設置器具を世界座標系中の別の場所に設置して利用する際も、複雑な形状を持つ現実物体の表面に設置されている現実指標の位置を測量しなくともよく、簡単なオフセット計算で基準姿勢を再計算することが出来るようになる。
【0062】
以上説明したように、第1実施形態によれば、複合現実空間として利用する現実空間物体及び環境に変化があっても、基準位置姿勢と仮想指標との相対位置及び姿勢は一定であり、現実指標の設置位置の変更、現実指標の設置位置の測量、仮想指標の位置変更、基準姿勢の再計算の軽減という効果が得られる。さらに、第2実施形態では、第1実施形態の効果に加え、現実指標と仮想指標の画面上での一致をより簡単に行えるという効果が得られる。
【0063】
【発明の効果】
以上説明したように、本発明によれば、複合現実空間に配置される現実空間物体や環境に変化があった場合の、座標系の変換パラメータの再計算を軽減することが可能となる。
【図面の簡単な説明】
【図1】実施形態における複合現実感システムの外観を示す図である。
【図2】実施形態によるHMDの構成を示す図である。
【図3】複合現実空間映像生成プログラム(メインプログラム)による処理を示すフローチャートである。
【図4】位置姿勢スレッドによる処理を示すフローチャートである。
【図5】映像生成スレッドによる処理を示すフローチャートである。
【図6】各座標系の配置を説明する図である。
【図7】一般的な方法による変換パラメータ取得を説明する図である。
【図8】一般的な方法による変換パラメータ取得時のHMD表示状態を示す図である。
【図9】一般的な方法による変換パラメータ取得時の基準位置姿勢におけるHMDの表示状態を示す図である。
【図10】第1実施形態における変換パラメータ取得を説明する図である。
【図11】第1実施形態における変換パラメータ取得時のHMD表示状態を示す図である。
【図12】第1実施形態における変換パラメータ取得時の基準位置姿勢におけるHMD表示状態を示す図である。
【図13】第2実施形態における変換パラメータ取得時のHMD表示状態を示す図である。
【図14】第2実施形態における変換パラメータ取得時の基準位置姿勢におけるHMD表示状態を示す図である。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention is a mixed reality device that generates a mixed reality space image by synthesizing a real space image captured from a video camera or the like and a virtual space image in a viewpoint position and a line-of-sight direction measured by a position and orientation measurement device. This is related to initial alignment.
[0002]
[Prior art]
In the mixed reality system, it is necessary to acquire the three-dimensional position and orientation of the real space object by some means in order to fuse the real space and the virtual space. One of the general methods for acquiring a three-dimensional position and orientation is to use a position and orientation measurement device typified by FASTRAK (trademark) manufactured by Polhemus, USA.
[0003]
When such a position and orientation measurement device is used, the viewpoint position and line of sight of the observer and the position and orientation of the real object are obtained as values in the position and orientation measurement device coordinate system. Therefore, it is necessary to convert the obtained coordinate values into a coordinate system of a mixed reality space, that is, a world coordinate system. In other words, a transformation parameter from the position and orientation measurement device coordinate system to the world coordinate system is required. As a means for obtaining this, a method using a real index and a virtual index is known. The specific procedure will be described below.
[0004]
First, a real index is set in advance on a real object installed in a real space used as a mixed reality space. Then, the positions of these real indices in the world coordinate system are measured, and these values are given to the virtual indices. That is, the positions of the real index and the virtual index are set to be the same. Subsequently, the reference position and orientation are set so that these virtual indices are displayed on the display screen. Then, the virtual indices at the reference position and orientation are displayed on the display device, and the position and orientation of the display device are adjusted and fixed so that the virtual indices match the real indices. The output of the position and orientation measurement device at this point is recorded. Conversion parameters are obtained from the values set or measured in the above series of operations.
[0005]
[Problems to be solved by the invention]
The real space object and the real space environment used as the mixed reality space need to be changed according to the content and the scenario of the mixed reality space presented to the observer. In some cases, the real space object on which the reality index is set may be replaced with another real space object, or the location of the real space object may be changed. In such a case, it is necessary to recalculate the conversion parameters.However, in the conventional method, the change of the setting position of the real index, the measurement of the setting position of the real index, the change of the position of the virtual index, and the recalculation of the reference posture are required. You will need it.
[0006]
The present invention has been made in view of the above problems, and has been made to reduce the recalculation of coordinate system transformation parameters when there is a change in a real space object or environment placed in a mixed reality space. Aim.
[0007]
[Means for Solving the Problems]
A position and orientation setting device according to the present invention for achieving the above object,
In a mixed reality system that generates and displays a mixed reality image that combines a real space image that can be observed at the observer's viewpoint position and line of sight and a virtual space image, the coordinate system of the position and orientation measurement means is set to the mixed reality space. An instrument for setting conversion parameters for converting to a world coordinate system,
An installation unit for installing a display unit for displaying the mixed reality video,
And an index disposed on the main body of the device and used when acquiring the conversion parameter.
[0008]
Further, to achieve the above object, the conversion parameter setting method according to the present invention,
A coordinate system of measuring means for measuring the position and orientation of a real object in a mixed reality system that generates and displays a mixed reality image that combines a real space image and a virtual space image that can be observed at the observer's viewpoint position and gaze direction. Is a method of setting transformation parameters for transforming into a world coordinate system of mixed reality space,
Placing the real object at a predetermined position on a setting device installed at a predetermined place,
A virtual image representing a part of the setting tool is displayed at a predetermined position on a display device, and a real space image observed at the position and orientation of the real object is displayed on the display device.
The conversion parameter is set by adjusting the posture of the real object so that a part of the setting tool based on the virtual image matches a part of the setting tool based on the real space image.
[0009]
Furthermore, the mixed reality system according to the present invention for achieving the above object,
A mixed reality system that generates a mixed reality image that combines a real space image and a virtual space image that can be observed at the observer's viewpoint position and line-of-sight direction, and displays the mixed reality image on a display device,
Specifying means for specifying a setting mode for setting a conversion parameter for converting a coordinate system of measuring means for measuring the position and orientation of the real object into a world coordinate system of mixed reality space;
A setting tool that can be installed at a predetermined location, and the setting tool can be disposed at a predetermined position so that the posture of the real object can be changed,
When the setting mode is specified by the specifying unit, a virtual image corresponding to a part of the setting device is displayed at a predetermined position on the display device, and a real space image observed in a position and orientation of the real object is displayed. Display control means for displaying on a display device;
When a predetermined notification is given from the user, on the display of the display device, it is considered that a part of the setting tool based on the virtual image matches a part of the setting tool based on the real space image, and the Calculating means for calculating the conversion parameter based on the measurement result of the measuring means.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
[0011]
<First embodiment>
FIG. 1 is a diagram illustrating an overall configuration of a mixed reality system that is operated after acquiring a coordinate system conversion parameter obtained using the real object installation tool according to the first embodiment.
[0012]
In FIG. 1, an observer 100 wears a head-mounted display (HMD) 110 on the head and a glove 120 on a hand.
[0013]
As shown in FIG. 2, the HMD 110 includes a video camera 111, an LCD 112, a position and orientation measuring device receiver (eye position sensor) 113, and optical prisms 114 and 115. The video camera 111 captures a real space image of the observer's viewpoint position and line of sight guided by the optical prism 115. The eye position sensor 113 measures the observer's viewpoint position and line-of-sight direction. The LCD 112 displays a mixed reality space image, and the image is guided to the observer's pupil by the optical prism 114.
[0014]
The glove 120 incorporates a hand position sensor 121 and a speaker (not shown). The hand position sensor 121 measures the position and direction of the observer's hand. Further, a sound is output from the speaker in accordance with an event occurring at the position of the hand. For example, it is a sound generated when the virtual space object is touched or hit with a hand, or a sound generated when the state of the virtual space object displayed in synchronization with the position of the hand changes.
[0015]
130 is a position and orientation measurement device transmitter (position sensor transmitter), and 131 is a position and orientation measurement device main body (position sensor main body). The eye position sensor 113, the hand position sensor 121, and the position sensor transmitter 130 are connected to the position sensor main body 131. The magnetism is transmitted from the position sensor transmitter 130, and the eye position sensor 113 and the hand position sensor 121 receive the magnetism. The position sensor body 131 calculates the position and direction of each position sensor from the reception intensity output from each position sensor. Here, as the position and orientation measurement device, FASTRAK (trademark) manufactured by Polhemus, USA, or the like can be used.
[0016]
A processing device 140 generates a mixed reality space image for one observer and displays the mixed reality image on the HMD 110. For example, it includes a personal computer, a video capture card, a video card having a CG drawing function, and a sound card. The HMD 110, the speaker 122, and the position sensor main body 131 are connected to the processing device 140.
[0017]
In FIG. 1, there is only one observer. However, a plurality of observers are prepared at the same time by preparing a plurality of the same device configurations as in FIG. It is also possible to share. However, since it departs from the gist of the present invention, the description thereof is omitted here.
[0018]
Reference numeral 160 denotes a real space area used as a mixed reality space by the present system. The present system synthesizes a virtual space image only in this area. Fusion of virtual space images is not performed for the real space outside this area.
[0019]
Reference numeral 170 denotes an example of a real object installed in the mixed reality space. The present system generates a rational mixed reality video by judging the contact between the real object and the virtual object and the context of the virtual object viewed from the viewpoint. For example, when the virtual object is located behind these real objects when viewed from the viewpoint, the viewer is provided with an image in which the whole or a part of the virtual object appears to be covered by the real object. In order to perform such processing, the present system holds the shape information and installation positions of these real objects.
[0020]
FIGS. 3 to 5 are flowcharts illustrating a procedure in which a program operating in the processing device 140 generates a mixed reality space image. The program has two modes, a "normal mode" in which the observer can experience the mixed reality space, and an "initial setting mode" in which correction parameters (part of the conversion parameters) are acquired.
[0021]
First, the processing device 140 starts the main program. The main program first sets the operation mode to the "normal mode" (step S300), and starts the position and orientation thread, the video capture thread, and the video generation thread. (Steps S301 to S303) Here, a thread is a series of programs that are processed in parallel in the processing device 140. Therefore, information such as the operation mode is shared by the main program and all threads.
[0022]
After starting each thread, the main program enters an event wait state and continues to wait until an event arrives (step S304). Here, the event is an input from a user interface, information notification from another thread, a hardware interrupt, and the like. Specifically, an operation mode is changed (step S305), an initial parameter is changed (step S306), and a correction parameter is obtained. (Step S320), virtual index position change (Step S330), end event (Step S307), and the like.
[0023]
When these events have arrived, the corresponding processes (steps S310, S311, S321, S331, S308) are performed. Although a specific description of these processes is omitted, it is assumed that all system instructions such as inputting and changing values can be performed by a general user interface such as a window system.
[0024]
In the present embodiment, the conversion parameter is a generic term for the combination of the initial parameter and the correction parameter. These will be described later.
[0025]
The video capture thread started in step S302 captures the video captured by the video camera 111 as digital data, and continuously outputs the digital data to the main thread. This operation is repeatedly performed unless there is an end notification.
[0026]
The processing of the position and orientation thread started in step S301 will be described with reference to FIG. First, a measured value is obtained from the position sensor main body 131 (step S401), and processing is performed according to the operation mode (step S402). Here, if the operation mode is the “normal mode”, the position and orientation of the measurement target object in the world coordinate system are calculated from the measured values and the conversion parameters, and output to the main thread (steps S403 and S404). On the other hand, if the operation mode is the “initial setting mode”, a correction parameter is calculated from the measured value and the reference posture, and the reference position and posture are output to the main thread (steps S406 and S407). The above operation is repeatedly performed until the end notification is received (step S405).
[0027]
Next, the processing of the video generation thread started in step S303 will be described with reference to FIG.
[0028]
First, upon receiving an output from the position and orientation thread, the position and orientation of the measurement target object are updated (steps S501 and S510). Subsequently, the time of the virtual space is updated to update the state of the virtual space (the type, position, and state of the virtual space object) (step S502). At this time, if there is a virtual space object whose position and orientation changes in synchronization with the position and orientation of the real space object, the state is updated accordingly. For example, when it is shown that the glove of the virtual space object is always worn on the hand, the position and orientation of the glove are updated in this step. In addition, a process for judging the anteroposterior relationship of the virtual object viewed from the viewpoint and making it appear that part or the whole of the virtual object is covered by the real object is also performed here.
[0029]
Next, the relationship between the position and orientation of the real space object (such as the position and orientation of the hand) and the position and orientation of the virtual space object is examined. If it is determined that a predefined event has occurred, the virtual space The state is updated (step S503). For example, when a virtual space object is touched with a hand, the virtual space object explodes.
[0030]
Subsequently, a real space image at the viewpoint position and the line of sight of the observer obtained from the video camera 111 is captured (steps S504 and S520). If the operation mode is the “normal mode” (step S530), the virtual space image obtained from the viewpoint position and the line-of-sight direction of the observer acquired in step S501 is changed according to the state of the virtual space updated in steps S502 and S503. (Step S505). On the other hand, if the operation mode is the “initial setting mode”, the virtual index is drawn at a preset position (step S531).
[0031]
Finally, the virtual space image generated in step S505 or S531 and the real space image captured in step S504 are combined and output to the LCD 112 of the HMD 110 (step S506). The above operation is repeated until a termination instruction is issued (step S507).
[0032]
In the foregoing, the devices constituting the mixed reality system of the present embodiment and the operation of generating a mixed reality space image have been described. Next, the principle of calculating the position and orientation in step S403 and acquiring the correction parameters in step S406 will be described in detail.
[0033]
FIG. 6 is a diagram showing the arrangement of each coordinate system. G is a world coordinate system, T is a transmitter coordinate system of the position and orientation sensor, S is a receiver coordinate system of the position and orientation sensor, and E is a viewpoint coordinate system. S ′ and E ′ are a sensor coordinate system and a viewpoint coordinate system when the viewpoint position and the line-of-sight direction are fixed at the reference position and orientation, respectively. Also, P is a point (viewpoint) from which a position is to be obtained, and P 'is a reference position.
[0034]
Here the position of the point P as viewed from the coordinate system A to be expressed as A P. Also between positions B P of the point P as viewed from the position A P and the coordinate system B of a point P as viewed from the coordinate system A is a rotation matrix B A R describes the orientation of the coordinate system A and the coordinate system B use it, it is known that can be expressed as a P = B a R B P .
[0035]
From the above, the position G P and orientation E G R on the world coordinate system of the point P to be determined,
G P = G P'- E 'G R E' P '+ T G R (T P Eorg - T P' Eorg) + E G R E P
E G R = E 'G R S' T R -1 S T R
Can be written as
[0036]
Here, if the installation position and orientation sensor transmitter such that T G R = I, G P ' is the reference position, E' G R is the reference posture, E 'P', E P is to the measurement point from the sensor offset, T P EORG position measurements, T P 'Eorg position measurement at the reference position and orientation, E G R attitude calculated value, S T R attitude measurements, S' T R -1 is the reference position It is the inverse matrix of the posture measurement values at the posture, and all can be represented by a known matrix. That is, the calculation can be performed without depending on the coordinate system of the position and orientation transmitter.
[0037]
Note that the transformation parameter as referred in the present embodiment, the position measuring values T P Erog, is a generic term of the matrix other than the orientation measurement value S T R. The conversion parameters are divided into correction parameters and initial parameters.
[0038]
The correction parameters are two of the position measurement value T P ′ Eorg at the reference position and orientation and the inverse matrix S ′ T R −1 of the orientation measurement values at the reference position and orientation. The correction parameters are calculated in step S406, and are stored in the system in the processing in steps S320 and S321.
[0039]
The initial parameter reference position G P ', the reference posture E' G R, offset E from the sensor to the measurement point 'P', which is one third E P. As the initial parameter, the value input in S311 or the value held by the processing device is used.
[0040]
The position and orientation calculation and conversion parameters have been described above. Next, a procedure for setting a conversion parameter will be described.
[0041]
First, a real index is set in advance on a real object installed in a real space used as a mixed reality space. Then, the positions of these real indices in the world coordinate system are measured, and these values are given to the virtual indices (step S331). The number of virtual indices is not particularly limited, and may be any number. Whenever the position of the real index is changed, the position of the real index in the world coordinate system must be re-measured and changed in step S331.
[0042]
Subsequently, the reference position and orientation are set so that these virtual indices are displayed on the display screen. That is, the initial parameters are input (steps S306 and S311). Subsequently, the operation mode is changed to the "initial setting mode" (step S310). In the “initial setting mode”, the position and orientation measurement values of the HMD 110 are fixed at the reference position and orientation (step S407). The virtual index 190 is drawn and displayed (steps S530 and 531).
[0043]
Subsequently, the installation tool is arranged, and the HMD 110 is installed at a predetermined position of the installation tool. Then, the position and orientation of the display device are adjusted and fixed so that the virtual index and the real index appear to match. Finally, the correction parameter at this point (inverse matrix of the position measurement value at the reference position and orientation and the posture measurement value at the reference position and orientation) is obtained (steps S320 and S321). With the above operations, the conversion parameters are obtained.
[0044]
First, a procedure for acquiring a correction parameter according to a general method will be described.
[0045]
Since the basic procedure may be performed as described above, here, a portion for setting the HMD 100 at the reference position and orientation will be described in detail.
[0046]
FIG. 7 is a diagram showing a state where the HMD 110 is installed at the reference position and orientation in a general manner. To fix the HMD 110 at the reference position and orientation, a real object installation tool 200 is used. The real object installation device 200 must be arranged so that the HMD 110 as a real object can be installed at a reference position. 210 is an installation mark for that purpose. The installation mark 210 is attached in advance to a predetermined position in the world coordinate system so that the HMD 110 can be installed at the reference position by placing the real object installation tool 200 on the installation mark 210.
[0047]
To install the HMD 110 at the reference position, the HMD 110 may be fixed at a predetermined position of the real object installation device 200 in this state. The real object installation tool 200 and the HMD 110 are marked in advance, and the HMD 110 is placed on the real object installation tool 200 so that the marks overlap each other, so that the HMD 110 is designed in advance so that it can be installed at the reference position. Have been. In order to be more accurate, it is desirable to create and use a dedicated mounting device.
[0048]
To install the HMD 110 in the reference posture, the virtual index and the real index may be matched on the display screen in the “initial setting mode”. 8 and 9 show the display state of the HMD 110 when the virtual index 190 is displayed. The display position of the virtual index is a position observed when the HMD 110 is fixed at a predetermined position and orientation using the real object installation tool 200, and does not change during the display in the initial setting mode. When the virtual index 190 and the real index 180 do not match on the display screen as shown in FIG. 8, the HMD 110 is rotated so as not to deviate from the reference position, and the virtual index and the real index match as shown in FIG. To do. When the virtual index and the real index match on the display screen, the HMD 110 is set in the reference posture.
[0049]
Next, a procedure for acquiring the correction parameters of the HMD 110 according to the present embodiment will be described. Since the basic procedure is the same as that of the conventional method, here, the instrument to be installed at the reference position and orientation will be described in detail.
[0050]
FIG. 10 is a diagram illustrating a state in which the HMD 110 according to the present embodiment acquires correction parameters. The correction parameters are acquired in the same procedure as the method described above with reference to FIGS. 7 to 9. However, in the configuration illustrated in FIG. 10, the real index 220 is set on the real object setting tool 215.
[0051]
The display state of the HMD 110 when the virtual index 190 is displayed is shown in FIGS. Similar to the method described with reference to FIGS. 7 to 9, as shown in FIGS. 11 and 12, the real index 220 (provided on the real object setting device 215) and the virtual index 190 match. The HMD 110 is rotated (the posture of the HMD 110 is changed). Note that the real object installation tool 215 is provided with a portion on which the user wearing the HMD 110 places a chin, and by placing the chin on this portion, the HMD can be installed at the reference position. The HMD body may be left as it is. However, when the user does not wear the HMD, an observation image displayed on the HMD is displayed on an external monitor, and positioning is performed using the observation image.
[0052]
Although not particularly described, it is added that the location and the size of the reality indicator 220 are made to be recognizable when present on the display device so that the existence and overall shape thereof can be recognized. Further, a light-emitting element or the like may be used as the real index 220 to further facilitate recognition on the display screen.
[0053]
The correction parameter acquisition procedure, the installation tool, and the method of use in the conventional method and the method of the present embodiment have been described above.
[0054]
As described above, in the general index setting method, when the real object is changed, the real index is reinstalled, the position of the real index is measured, the position of the virtual index is changed based on the measurement result, and the virtual index is displayed on the HMD 110. The reference position and orientation must be recalculated to be within the range.
[0055]
On the other hand, if the installation tool 215 according to the above-described embodiment is used, the real object that is to be a real index is held by the installation tool that is installed only when setting the conversion parameter. Even when the environment changes, the relative position and orientation between the reference position and orientation and the virtual index are constant. Therefore, it is not necessary to change the setting position of the real index, measure the setting position of the real index, change the position of the virtual index, and recalculate the reference posture.
[0056]
In the case of the index setting method using a general method, in the case of a mixed reality system in which a plurality of observers face each other and stay at an almost constant place and share a mixed reality space, an initial position is set at each observer's position. Therefore, it is necessary to prepare a reality index for each observer. Therefore, as the number of observers increases, the management of the index increases. On the other hand, if the installation tool of the present embodiment is used, the time and effort for managing the reality index will be greatly reduced. Also, the position calculation of the real index and the calculation of the initial parameters can be recalculated by a simple offset calculation.
[0057]
Further, it is possible to remove a reality index that should not originally exist in the mixed reality space when the mixed reality space system is operated, and to provide a more realistic mixed reality space image.
[0058]
<Second embodiment>
In the first embodiment, the position / posture adjustment is performed by setting the real index 220 on the real object setting device 215 and matching the virtual index on the observation image. In the second embodiment, position / posture adjustment is performed using a part of the real object installation tool 215.
[0059]
FIGS. 13 and 14 show display screens in the “initial setting mode” according to the second embodiment. In the second embodiment, the installation tool itself is used as a real index. Correspondingly, the virtual index is a point and a small piece on the display screen in the first embodiment, but is represented by the three-dimensional computer graphics wire-frame model 230 of the real index in the second embodiment. I have. In the second embodiment, the wire frame and the actual installation tool are matched, but the basic configuration and operation are the same as in the first embodiment.
[0060]
When matching the virtual index and the real index on the display screen, if the index is a plurality of small pieces, it is easy to concentrate on matching one index and shift another index. In the second embodiment, since the displacement can be recognized on the entire screen, the alignment can be performed more easily.
[0061]
According to the second embodiment, an installation tool for fixing a real object to be measured for position and orientation including a display device to a predetermined position and orientation-reference position and orientation is caused to hold a real object to be a reality index. , The relative position and orientation between the reference position and orientation and the virtual index are kept fixed. With this, if the reference position and orientation are set so that the reality index is within the display screen only once when the installation equipment is created, the installation position of the real index even if the real space object used as the mixed reality space and the environment change. There is no need to change the position, measure the installation position of the real index, change the position of the virtual index, and recalculate the reference attitude. Also, when installing and using the installation equipment in another place in the world coordinate system, it is not necessary to measure the position of the real index installed on the surface of the real object having a complicated shape, and simple offset calculation Allows the reference posture to be recalculated.
[0062]
As described above, according to the first embodiment, the relative position and orientation between the reference position and orientation and the virtual index are constant even if the real space object used as the mixed reality space and the environment change. The effects of changing the setting position of the index, measuring the setting position of the real index, changing the position of the virtual index, and reducing the recalculation of the reference posture can be obtained. Further, in the second embodiment, in addition to the effects of the first embodiment, an effect that the real index and the virtual index can be more easily matched on the screen can be obtained.
[0063]
【The invention's effect】
As described above, according to the present invention, it is possible to reduce the recalculation of coordinate system conversion parameters when there is a change in a real space object or environment placed in a mixed reality space.
[Brief description of the drawings]
FIG. 1 is a diagram illustrating an appearance of a mixed reality system according to an embodiment.
FIG. 2 is a diagram illustrating a configuration of an HMD according to the embodiment.
FIG. 3 is a flowchart showing processing by a mixed reality space image generation program (main program).
FIG. 4 is a flowchart showing processing by a position and orientation thread.
FIG. 5 is a flowchart showing processing by a video generation thread.
FIG. 6 is a diagram illustrating the arrangement of each coordinate system.
FIG. 7 is a diagram for describing conversion parameter acquisition by a general method.
FIG. 8 is a diagram showing an HMD display state when a conversion parameter is obtained by a general method.
FIG. 9 is a diagram illustrating a display state of an HMD at a reference position and orientation when a conversion parameter is obtained by a general method.
FIG. 10 is a diagram for describing conversion parameter acquisition in the first embodiment.
FIG. 11 is a diagram illustrating an HMD display state at the time of acquiring a conversion parameter according to the first embodiment.
FIG. 12 is a diagram illustrating an HMD display state in a reference position and orientation at the time of acquiring a conversion parameter according to the first embodiment.
FIG. 13 is a diagram illustrating an HMD display state at the time of acquiring a conversion parameter according to the second embodiment.
FIG. 14 is a diagram illustrating an HMD display state in a reference position and orientation at the time of acquiring a conversion parameter according to the second embodiment.

Claims (8)

観察者の視点位置・視線方向において観察可能な現実空間像と、仮想空間映像とを融合した複合現実映像を生成・表示する複合現実感システムにおける、位置姿勢計測手段の座標系を複合現実空間の世界座標系に変換するための変換パラメータを設定するための器具であって、
前記複合現実映像を表示する表示部を設置する設置部と、
当該器具の本体に配置された、前記変換パラメータの取得時に利用される指標と
を備えることを特徴とする位置姿勢設定器具。
In a mixed reality system that generates and displays a mixed reality image that combines a real space image that can be observed at the observer's viewpoint position and line of sight and a virtual space image, the coordinate system of the position and orientation measurement means is set to the mixed reality space. An instrument for setting conversion parameters for converting to a world coordinate system,
An installation unit for installing a display unit for displaying the mixed reality video,
A position and orientation setting device, comprising: an index, which is arranged on a main body of the device and is used when acquiring the conversion parameter.
前記指標が発光素子を含んで構成されることを特徴とする請求項1に記載の位置姿勢設定器具。The position and orientation setting device according to claim 1, wherein the index includes a light emitting element. 観察者の視点位置・視線方向において観察可能な現実空間像と仮想空間映像とを融合した複合現実像を生成、表示する複合現実感システムにおいて、現実物体の位置姿勢を計測する計測手段の座標系を複合現実空間の世界座標系に変換するための変換パラメータを設定する方法であって、
所定の場所に設置された設定器具上の所定位置に前記現実物体を配置し、
前記設定器具の一部を表す仮想画像を表示装置の所定位置に表示するとともに、前記現実物体の位置姿勢で観察される現実空間像を該表示装置に表示し、
前記現実物体の姿勢を調整して、前記仮想画像による設定器具の一部と現実空間像による設定器具の一部とを一致させることにより前記変換パラメータの設定を行なうことを特徴とする変換パラメータ設定方法。
A coordinate system of measuring means for measuring the position and orientation of a real object in a mixed reality system that generates and displays a mixed reality image that combines a real space image and a virtual space image that can be observed at the observer's viewpoint position and gaze direction. Is a method of setting transformation parameters for transforming into a world coordinate system of mixed reality space,
Placing the real object at a predetermined position on a setting device installed at a predetermined place,
A virtual image representing a part of the setting tool is displayed at a predetermined position on a display device, and a real space image observed at the position and orientation of the real object is displayed on the display device.
Setting the conversion parameter by adjusting a posture of the real object to match a part of the setting tool based on the virtual image with a part of the setting tool based on the real space image. Method.
前記設定器具は、前記変換パラメータの設定時にのみ前記所定の場所に設置されることを特徴とする請求項3に記載の変換パラメータ設定方法。4. The conversion parameter setting method according to claim 3, wherein the setting device is installed at the predetermined location only when the conversion parameter is set. 前記設定器具の一部は、変換パラメータの設定に利用される指標であることを特徴とする請求項3に記載の変換パラメータ設定方法。The conversion parameter setting method according to claim 3, wherein a part of the setting device is an index used for setting a conversion parameter. 前記設定器具の一部は、当該設定器具の所定部位であることを特徴とする請求項3に記載の変換パラメータ設定方法。The conversion parameter setting method according to claim 3, wherein a part of the setting tool is a predetermined part of the setting tool. 前記表示装置に表示される前記設定器具の一部を表す仮想画像は、該設定器具の一部に対応するワイヤ−フレームモデルであることを特徴とする請求項6に記載の変換パラメータ設定方法。The method according to claim 6, wherein the virtual image representing a part of the setting tool displayed on the display device is a wire-frame model corresponding to the part of the setting tool. 観察者の視点位置・視線方向において観察可能な現実空間像と仮想空間映像とを融合した複合現実像を生成し、表示装置上に表示する複合現実感システムであって、
現実物体の位置姿勢を計測する計測手段の座標系を複合現実空間の世界座標系に変換するための変換パラメータを設定するための設定モードを指定する指定手段と、
所定の場所に設置可能な設定器具と、該設定器具は所定位置に前記現実物体を姿勢変更可能に配置可能であり、
前記指定手段で設定モードが指定された場合、前記設定器具の一部に対応する仮想画像を前記表示装置の所定位置に表示させるとともに、前記現実物体の位置姿勢で観察される現実空間像を該表示装置に表示させる表示制御手段と、
ユーザから所定の通知があった場合に、前記表示装置の表示上で、前記仮想画像による設定器具の一部と現実空間像による設定器具の一部とが一致したものとみなし、その時点における前記計測手段の計測結果に基づいて前記変換パラメータを算出する算出手段と
を備えることを特徴とする複合現実感システム。
A mixed reality system that generates a mixed reality image that combines a real space image and a virtual space image that can be observed at the observer's viewpoint position and line-of-sight direction, and displays the mixed reality image on a display device,
Specifying means for specifying a setting mode for setting a conversion parameter for converting a coordinate system of measuring means for measuring the position and orientation of the real object into a world coordinate system of mixed reality space;
A setting tool that can be installed at a predetermined location, and the setting tool can be disposed at a predetermined position so that the posture of the real object can be changed,
When the setting mode is specified by the specifying unit, a virtual image corresponding to a part of the setting device is displayed at a predetermined position on the display device, and a real space image observed in a position and orientation of the real object is displayed. Display control means for displaying on a display device;
When a predetermined notification is given from the user, on the display of the display device, it is considered that a part of the setting tool based on the virtual image matches a part of the setting tool based on the real space image, and the Calculating means for calculating the conversion parameter based on a measurement result of the measuring means.
JP2002288875A 2002-10-01 2002-10-01 Position/attitude setting device, conversion parameter setting method and composite reality feeling system Pending JP2004126869A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002288875A JP2004126869A (en) 2002-10-01 2002-10-01 Position/attitude setting device, conversion parameter setting method and composite reality feeling system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002288875A JP2004126869A (en) 2002-10-01 2002-10-01 Position/attitude setting device, conversion parameter setting method and composite reality feeling system

Publications (1)

Publication Number Publication Date
JP2004126869A true JP2004126869A (en) 2004-04-22

Family

ID=32281249

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002288875A Pending JP2004126869A (en) 2002-10-01 2002-10-01 Position/attitude setting device, conversion parameter setting method and composite reality feeling system

Country Status (1)

Country Link
JP (1) JP2004126869A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005326274A (en) * 2004-05-14 2005-11-24 Canon Inc Arrangement information inferring method and information processor
JP2006285787A (en) * 2005-04-01 2006-10-19 Canon Inc Calibration method and device
JP2007156096A (en) * 2005-12-05 2007-06-21 Shimadzu Corp Head-mounted display device and head-mounted display system
JP2008046687A (en) * 2006-08-10 2008-02-28 Canon Inc Photographic environment calibration method and information processor
KR101222134B1 (en) 2010-12-29 2013-01-15 전자부품연구원 system for controlling a point of view in virtual reality and method for controlling a point of view using the same
CN105068679A (en) * 2015-07-22 2015-11-18 深圳多新哆技术有限责任公司 Method and device for regulating position of virtual object in virtual space
WO2016163376A1 (en) * 2015-04-07 2016-10-13 メタウォーター株式会社 Equipment checking terminal and equipment checking system
KR101802914B1 (en) * 2016-06-29 2017-11-30 주식회사 카이비전 Augmented Reality glasses interacting with exterior contents player
KR101802906B1 (en) * 2016-06-28 2017-12-29 주식회사 카이비전 Augmented reality system interacting with exterior contents player
WO2018004232A1 (en) * 2016-06-28 2018-01-04 주식회사 카이비전 Augmented reality system linked to external content player

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005326274A (en) * 2004-05-14 2005-11-24 Canon Inc Arrangement information inferring method and information processor
JP4532982B2 (en) * 2004-05-14 2010-08-25 キヤノン株式会社 Arrangement information estimation method and information processing apparatus
JP4726194B2 (en) * 2005-04-01 2011-07-20 キヤノン株式会社 Calibration method and apparatus
JP2006285787A (en) * 2005-04-01 2006-10-19 Canon Inc Calibration method and device
JP2007156096A (en) * 2005-12-05 2007-06-21 Shimadzu Corp Head-mounted display device and head-mounted display system
JP4757142B2 (en) * 2006-08-10 2011-08-24 キヤノン株式会社 Imaging environment calibration method and information processing apparatus
JP2008046687A (en) * 2006-08-10 2008-02-28 Canon Inc Photographic environment calibration method and information processor
KR101222134B1 (en) 2010-12-29 2013-01-15 전자부품연구원 system for controlling a point of view in virtual reality and method for controlling a point of view using the same
WO2016163376A1 (en) * 2015-04-07 2016-10-13 メタウォーター株式会社 Equipment checking terminal and equipment checking system
JP2016200855A (en) * 2015-04-07 2016-12-01 メタウォーター株式会社 Facility inspection terminal and facility inspection system
CN105068679A (en) * 2015-07-22 2015-11-18 深圳多新哆技术有限责任公司 Method and device for regulating position of virtual object in virtual space
WO2017012361A1 (en) * 2015-07-22 2017-01-26 深圳多新哆技术有限责任公司 Method and apparatus for adjusting position of virtual object in virtual space
KR101802906B1 (en) * 2016-06-28 2017-12-29 주식회사 카이비전 Augmented reality system interacting with exterior contents player
WO2018004232A1 (en) * 2016-06-28 2018-01-04 주식회사 카이비전 Augmented reality system linked to external content player
KR101802914B1 (en) * 2016-06-29 2017-11-30 주식회사 카이비전 Augmented Reality glasses interacting with exterior contents player

Similar Documents

Publication Publication Date Title
US11016297B2 (en) Image generation apparatus and image generation method
KR102517876B1 (en) Technique for recording augmented reality data
US10664216B2 (en) Information processing apparatus, information processing method, and information processing system
US8957948B2 (en) Geometric calibration of head-worn multi-camera eye tracking system
US11854171B2 (en) Compensation for deformation in head mounted display systems
CN107517370B (en) The system and method for the image registration of multi-path video stream
JP6252004B2 (en) Information processing apparatus, information processing method, and information processing system
CN106199964B (en) The binocular AR helmet and depth of field adjusting method of the depth of field can be automatically adjusted
US8659624B2 (en) Mixed reality presentation system and brightness adjustment method of virtual light source
CN107408314A (en) Mixed reality system
JP2005038008A (en) Image processing method, image processor
US20200125312A1 (en) Image generating apparatus and image generating method
US9805612B2 (en) Interest-attention feedback method for separating cognitive awareness into different left and right sensor displays
JP2004126869A (en) Position/attitude setting device, conversion parameter setting method and composite reality feeling system
US11521297B2 (en) Method and device for presenting AR information based on video communication technology
JP2021039444A (en) Image processing device, control method and program thereof
JP2002271817A (en) Composite virtual reality system, head mount display device and image generating method
JP2005339266A (en) Information processing method, information processor and imaging device
TW202017368A (en) A smart glasses, a smart glasses system, and a method for using the smart glasses
KR100917100B1 (en) Apparatus for displaying three-dimensional image and method for controlling location of display in the apparatus
US9891702B2 (en) Head-mounted display device, method of controlling head-mounted display device, and computer program
JP2008217119A (en) System, image processor and image processing method
JP4217661B2 (en) Image processing method and image processing apparatus
JP2005251118A (en) Method and device for image processing
JP2004126870A (en) Composite realty feeling providing device and system, and method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050608

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080523