JP2006285786A - 情報処理方法、情報処理装置 - Google Patents
情報処理方法、情報処理装置 Download PDFInfo
- Publication number
- JP2006285786A JP2006285786A JP2005106784A JP2005106784A JP2006285786A JP 2006285786 A JP2006285786 A JP 2006285786A JP 2005106784 A JP2005106784 A JP 2005106784A JP 2005106784 A JP2005106784 A JP 2005106784A JP 2006285786 A JP2006285786 A JP 2006285786A
- Authority
- JP
- Japan
- Prior art keywords
- image
- time
- orientation
- acquisition
- captured image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】 現実空間の画像の取得時刻に略同じ時刻に取得された位置姿勢に基づく仮想空間の画像を生成すべく、現実空間の画像の取得時刻と、位置姿勢の取得時刻とのずれを求めるための技術を提供すること。
【解決手段】 時刻tに対応する撮像画像上に、時刻(t−d)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成し(S601からS605,S609)、このうち指示された1つの画像を生成する際に用いた位置姿勢に対応する時刻(t−d)において、このdを示すデータを記録する(S607,S608)。
【選択図】 図6
【解決手段】 時刻tに対応する撮像画像上に、時刻(t−d)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成し(S601からS605,S609)、このうち指示された1つの画像を生成する際に用いた位置姿勢に対応する時刻(t−d)において、このdを示すデータを記録する(S607,S608)。
【選択図】 図6
Description
本発明は、現実空間上に仮想空間の画像を重畳させて提示するための技術に関するものである。
複合現実感システムでは、操作者の視点位置と視線方向および空間中にある物体の位置を計測する必要がある。位置姿勢の計測システムとしては、米国Polhemus社製FASTRAK(登録商標)に代表されるような位置姿勢計測装置を使うのが一般的な手法の一つである。またジャイロ等で姿勢のみを計測し、位置情報および、姿勢のドリフト誤差を画像から計測する方法も取られている。
特開2002−271817号公報
しかし従来の複合現実感システムにおいて現実空間の映像を取得した時刻と、上記位置姿勢計測装置によって計測した位置姿勢を取得した時刻を一致させることは一般には難しい。
特に、現実空間の映像を一度コンピュータに取り込んで描画し、その後仮想空間の映像を重畳する方式では、現実空間の映像を取り込んでから仮想空間の映像を重畳する間にタイムラグがあるため、仮想空間の映像は現実空間映像の取得時刻よりも遅い時刻に取得したものを用いることになり、結果として、現実空間映像と仮想空間映像とは不一致なものとなる。その結果、これらを合成した映像を見る観察者に違和感を与えることになる。
そのような場合、少し古い計測値を用いて仮想空間映像を生成することで、現実空間映像と仮想空間映像との不整合を解消するといったことも考えられるが、どれだけ前の計測値を用いて良いのかを容易に決定することはできなかった。
本発明は以上の問題に鑑みて成されたものであり、現実空間の画像の取得時刻に略同じ時刻に取得された位置姿勢に基づく仮想空間の画像を生成すべく、現実空間の画像の取得時刻と、位置姿勢の取得時刻とのずれを求めるための技術を提供することを目的とする。
本発明の目的を達成するために、例えば本発明の情報処理方法は以下の構成を備える。
即ち、現実空間の動画像を撮像する撮像装置から、各フレームの撮像画像を取得する画像取得工程と、
前記画像取得工程で取得した撮像画像を、当該撮像画像の取得時刻と対応づけて格納する第1の格納制御工程と、
前記撮像装置の位置姿勢を計測するセンサから、前記撮像装置の位置姿勢を順次取得する位置姿勢取得工程と、
前記位置姿勢取得工程で取得した位置姿勢を、当該位置姿勢の取得時刻と対応づけて格納する第2の格納制御工程と、
時刻tに対応する撮像画像上に、時刻(t−d)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成する生成工程と、
前記生成工程で生成した画像群を一覧表示する表示工程と、
前記表示工程で表示した画像群のうち、指示された画像に対応する時刻に基づき時間ズレを調整するための調整条件を設定する設定工程と
を備えることを特徴とする。
前記画像取得工程で取得した撮像画像を、当該撮像画像の取得時刻と対応づけて格納する第1の格納制御工程と、
前記撮像装置の位置姿勢を計測するセンサから、前記撮像装置の位置姿勢を順次取得する位置姿勢取得工程と、
前記位置姿勢取得工程で取得した位置姿勢を、当該位置姿勢の取得時刻と対応づけて格納する第2の格納制御工程と、
時刻tに対応する撮像画像上に、時刻(t−d)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成する生成工程と、
前記生成工程で生成した画像群を一覧表示する表示工程と、
前記表示工程で表示した画像群のうち、指示された画像に対応する時刻に基づき時間ズレを調整するための調整条件を設定する設定工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば本発明の情報処理方法は以下の構成を備える。
即ち、現実空間の動画像を撮像する撮像装置から、各フレームの撮像画像を取得する画像取得工程と、
前記画像取得工程で取得した撮像画像を、当該撮像画像の取得時刻とセットにして格納する第1の格納制御工程と、
前記撮像装置の位置姿勢を計測するセンサから、前記撮像装置の位置姿勢を順次取得する位置姿勢取得工程と、
前記位置姿勢取得工程で取得した位置姿勢を、当該位置姿勢の取得時刻とセットにして格納する第2の格納制御工程と、
指示された時刻tに対応する撮像画像上に、時刻(t−d)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成する第1の生成工程と、
前記第1の生成工程で生成した画像群を一覧表示する第1の表示工程と、
前記第1の表示工程で表示した画像群のうち、指示された1つの画像を前記第1の生成工程で生成する際に用いた位置姿勢に対応する前記時刻(t−d)において、当該d近傍の時刻ds=ds1,ds2,、、、dsDを設定する設定工程と、
指示された時刻tに対応する撮像画像上に、時刻(t−ds)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、ds=ds1,ds2,、、dsDのそれぞれについて生成する第2の生成工程と、
前記第2の生成工程で生成した画像群を一覧表示する第2の表示工程と、
前記第2の表示工程で表示した画像群のうち、指示された画像に対応する時刻に基づき時間ズレを調整するための調整条件を設定する設定工程と
を備えることを特徴とする。
前記画像取得工程で取得した撮像画像を、当該撮像画像の取得時刻とセットにして格納する第1の格納制御工程と、
前記撮像装置の位置姿勢を計測するセンサから、前記撮像装置の位置姿勢を順次取得する位置姿勢取得工程と、
前記位置姿勢取得工程で取得した位置姿勢を、当該位置姿勢の取得時刻とセットにして格納する第2の格納制御工程と、
指示された時刻tに対応する撮像画像上に、時刻(t−d)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成する第1の生成工程と、
前記第1の生成工程で生成した画像群を一覧表示する第1の表示工程と、
前記第1の表示工程で表示した画像群のうち、指示された1つの画像を前記第1の生成工程で生成する際に用いた位置姿勢に対応する前記時刻(t−d)において、当該d近傍の時刻ds=ds1,ds2,、、、dsDを設定する設定工程と、
指示された時刻tに対応する撮像画像上に、時刻(t−ds)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、ds=ds1,ds2,、、dsDのそれぞれについて生成する第2の生成工程と、
前記第2の生成工程で生成した画像群を一覧表示する第2の表示工程と、
前記第2の表示工程で表示した画像群のうち、指示された画像に対応する時刻に基づき時間ズレを調整するための調整条件を設定する設定工程と
を備えることを特徴とする。
本発明の目的を達成するために、例えば本発明の情報処理装置は以下の構成を備える。
即ち、現実空間の動画像を撮像する撮像装置から、各フレームの撮像画像を取得する画像取得手段と、
前記画像取得手段が取得した撮像画像を、当該撮像画像の取得時刻と対応づけて格納する第1の格納制御手段と、
前記撮像装置の位置姿勢を計測するセンサから、前記撮像装置の位置姿勢を順次取得する位置姿勢取得手段と、
前記位置姿勢取得手段が取得した位置姿勢を、当該位置姿勢の取得時刻と対応づけて格納する第2の格納制御手段と、
時刻tに対応する撮像画像上に、時刻(t−d)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成する生成手段と、
前記生成手段が生成した画像群を一覧表示する表示手段と、
前記表示手段が表示した画像群のうち、指示された画像に対応する時刻に基づき時間ズレを調整するための調整条件を設定する設定手段と
を備えることを特徴とする。
前記画像取得手段が取得した撮像画像を、当該撮像画像の取得時刻と対応づけて格納する第1の格納制御手段と、
前記撮像装置の位置姿勢を計測するセンサから、前記撮像装置の位置姿勢を順次取得する位置姿勢取得手段と、
前記位置姿勢取得手段が取得した位置姿勢を、当該位置姿勢の取得時刻と対応づけて格納する第2の格納制御手段と、
時刻tに対応する撮像画像上に、時刻(t−d)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成する生成手段と、
前記生成手段が生成した画像群を一覧表示する表示手段と、
前記表示手段が表示した画像群のうち、指示された画像に対応する時刻に基づき時間ズレを調整するための調整条件を設定する設定手段と
を備えることを特徴とする。
本発明の目的を達成するために、例えば本発明の情報処理装置は以下の構成を備える。
即ち、現実空間の動画像を撮像する撮像装置から、各フレームの撮像画像を取得する画像取得手段と、
前記画像取得手段が取得した撮像画像を、当該撮像画像の取得時刻とセットにして格納する第1の格納制御手段と、
前記撮像装置の位置姿勢を計測するセンサから、前記撮像装置の位置姿勢を順次取得する位置姿勢取得手段と、
前記位置姿勢取得手段が取得した位置姿勢を、当該位置姿勢の取得時刻とセットにして格納する第2の格納制御手段と、
指示された時刻tに対応する撮像画像上に、時刻(t−d)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成する第1の生成手段と、
前記第1の生成手段が生成した画像群を一覧表示する第1の表示手段と、
前記第1の表示手段が表示した画像群のうち、指示された1つの画像を前記第1の生成手段で生成する際に用いた位置姿勢に対応する前記時刻(t−d)において、当該d近傍の時刻ds=ds1,ds2,、、、dsDを設定する設定手段と、
指示された時刻tに対応する撮像画像上に、時刻(t−ds)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、ds=ds1,ds2,、、dsDのそれぞれについて生成する第2の生成手段と、
前記第2の生成手段が生成した画像群を一覧表示する第2の表示手段と、
前記第2の表示手段が表示した画像群のうち、指示された画像に対応する時刻に基づき時間ズレを調整するための調整条件を設定する設定手段と
を備えることを特徴とする。
前記画像取得手段が取得した撮像画像を、当該撮像画像の取得時刻とセットにして格納する第1の格納制御手段と、
前記撮像装置の位置姿勢を計測するセンサから、前記撮像装置の位置姿勢を順次取得する位置姿勢取得手段と、
前記位置姿勢取得手段が取得した位置姿勢を、当該位置姿勢の取得時刻とセットにして格納する第2の格納制御手段と、
指示された時刻tに対応する撮像画像上に、時刻(t−d)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成する第1の生成手段と、
前記第1の生成手段が生成した画像群を一覧表示する第1の表示手段と、
前記第1の表示手段が表示した画像群のうち、指示された1つの画像を前記第1の生成手段で生成する際に用いた位置姿勢に対応する前記時刻(t−d)において、当該d近傍の時刻ds=ds1,ds2,、、、dsDを設定する設定手段と、
指示された時刻tに対応する撮像画像上に、時刻(t−ds)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、ds=ds1,ds2,、、dsDのそれぞれについて生成する第2の生成手段と、
前記第2の生成手段が生成した画像群を一覧表示する第2の表示手段と、
前記第2の表示手段が表示した画像群のうち、指示された画像に対応する時刻に基づき時間ズレを調整するための調整条件を設定する設定手段と
を備えることを特徴とする。
本発明の構成によって、現実空間の画像の取得時刻に略同じ時刻に取得された位置姿勢に基づく仮想空間の画像を生成すべく、現実空間の画像の取得時刻と、位置姿勢の取得時刻とのずれを求めることができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
図1は、現実空間に仮想空間を重畳させた複合現実空間を観察者(ユーザ)に提供する処理を実行する、本実施形態に係るシステムの外観を示す図である。
図1は、現実空間に仮想空間を重畳させた複合現実空間を観察者(ユーザ)に提供する処理を実行する、本実施形態に係るシステムの外観を示す図である。
同図において120はトランスミッタで、磁場を発生させる。本実施形態では位置姿勢計測のためのシステムとしては、米国Polhemus社製FASTRAK(登録商標)に代表されるような位置姿勢計測装置を用いるのであるが、以下の説明の本質はこれに限定するものではなく、ジャイロ等で姿勢のみを計測し、位置情報および、姿勢のドリフト誤差を画像から計測する技術を用いても良い。
100は観察者の頭部に装着し、現実空間と仮想空間とを合成した画像を観察者の眼前に提供する為の頭部装着型表示装置(以下、HMD:Head Mounted Displayと呼称する)で、カメラ102R、102L、表示装置101R、101L、磁気レシーバ105により構成されている。
カメラ102R、102LはそれぞれHMD100を頭部に装着した観察者の右目、左目の位置から見える現実空間を連続して撮像するものであり、撮像した各フレームの画像は後段のコンピュータ103に出力される。なお、以下では右目用カメラ102R、左目用カメラ102Lのそれぞれを区別しない限り、まとめて「カメラ102」と呼称する場合がある。
表示装置101R、101Lはそれぞれ、観察者がHMD100を頭部に装着したときに右目、左目の眼前に位置するようにHMD100に装着されたものであり、後段のコンピュータ103から出力された画像信号に基づいた画像を表示する。従って観察者の右目、左目の眼前にはコンピュータ103が生成した画像が提供されることになる。なお、以下では右目用表示装置101R、左目用表示装置101Lのそれぞれを区別しない限り、まとめて「表示装置101」と呼称する場合がある。
磁気レシーバ105は、上記トランスミッタ120が発する磁場の変化を検知し、検知した結果の信号を後段の位置姿勢計測装置104に出力するものである。検知した結果の信号は、トランスミッタ120の位置を原点とし、この原点の位置で互いに直交する3軸をx、y、z軸とする座標系(以下、センサ座標系と呼称する)において、磁気レシーバ105の位置姿勢に応じて検知される磁場の変化を示す信号である。
位置姿勢計測装置104は、この信号に基づいて、センサ座標系における磁気レシーバ105の位置姿勢を求め、求めた位置姿勢を示すデータは後段のコンピュータ103に出力される。
107は、磁気レシーバ105による計測値を補正するために配置されたマーカであるが、補正処理を行わない場合にはこのマーカは必要ない。
111は現実物体であり、現実物体110に重畳させるべく配置されるものである。これにより、現実物体110の色や表面の柄などを変えて観察者に提示することができる。このような機能は、形のみを再現したモックアップに仮想空間映像として、さまざまなデザインを適用し、デザインを検証する用途などで用いられる。
現実物体110には磁気レシーバ105と同様の磁気レシーバ106が取り付けられており、磁気レシーバ106は上記トランスミッタ120が発する磁場の変化を検知し、検知した結果の信号を後段の位置姿勢計測装置104に出力するものである。検知した結果の信号は、センサ座標系において、磁気レシーバ106の位置姿勢に応じて検知される磁場の変化を示す信号である。
位置姿勢計測装置104は、この信号に基づいて、センサ座標系における磁気レシーバ106の位置姿勢を求め、求めた位置姿勢を示すデータは後段のコンピュータ103に出力される。
103はコンピュータで、HMD100の表示装置101R、101Lに出力すべき画像信号を生成したり、位置姿勢計測装置104からのデータを受け、これを管理したり等の処理を行う。このコンピュータは一般的には例えばPC(パーソナルコンピュータ)やWS(ワークステーション)等により構成される。図11は、コンピュータ103の基本構成を示す図である。
1101はCPUで、RAM1102やROM1103に格納されているプログラムやデータを用いてコンピュータ103全体の制御を行うと共に、I/F1107に接続される外部装置とのデータ通信の制御を行う。また、コンピュータ103が行うべき処理として後述する各処理を行う。また、CPU1101内部には不図示のタイマが設けられており、現在時刻を計時することができる。
1102はRAMで、外部記憶装置1105からロードされたプログラムやデータを一時的に記憶するためのエリアを備えると共に、CPU1101が各種の処理を実行する際に必要なワークエリアも備える。
1103はROMで、ブートプログラムやコンピュータ103の設定データなどを格納する。
1104は操作部で、キーボードやマウス、ジョイスティックなどにより構成されており、各種の指示をCPU1101に対して入力することができる。
1105は外部記憶装置で、ハードディスクドライブ装置などの大容量情報記憶装置として機能するものであり、ここにOS(オペレーティングシステム)やCPU1101に後述する各処理を実行させるためのプログラムやデータ等が保存されており、これらの一部、もしくは全部は、CPU1101の制御により、RAM1102にロードされる。また、後述の説明で、既知のデータ(情報)として説明するもの(もしくは以下説明する処理で必要となるべきデータ)もまたこの外部記憶装置1105に保存されており、必要に応じてCPU1101の制御により、RAM1102にロードされる。
1106は表示部で、CRTや液晶画面等により構成されており、CPU1101による処理結果を画像や文字等でもって表示することができる。
1107はI/Fで、ここに上記位置姿勢計測装置104、HMD100等が接続されており、このI/F1107を介して、コンピュータ103は位置姿勢計測装置104、HMD100等とのデータ通信を行うことができる。
1108は上述の各部を繋ぐバスである。
以上の構成を備えるコンピュータ103は、カメラ102R、102Lそれぞれから得られる現実空間の画像を取り込むとと共に、磁気レシーバ105、106から得られる位置姿勢に基づいてカメラ102R、102Lから見える仮想物体111の画像を生成する。そして、生成した画像を、先に取り込んだ現実空間の画像上に重畳させ、重畳させた画像を表示装置101R、101Lに出力する。これにより、HMD100を頭部に装着した観察者の右目、左目の眼前には、それぞれの目の位置姿勢に対応した複合現実空間画像が表示されることになる。
図2は、このような複合現実空間の画像を生成し、HMD100に出力するための一連の処理のフローチャートである。なお、同図のフローチャートに従った処理をCPU1101に実行させるためのプログラムやデータは外部記憶装置1105に保存されており、これをRAM1102にロードし、CPU1101の処理対象とすることで、コンピュータ103は以下説明する各処理を実行することになる。
先ず、カメラ102R、102Lより撮像された現実空間の画像はI/F1107を介してコンピュータ103に入力されるので、これを順次RAM1102に格納する(ステップS201)。
次に、HMD101に固定されたセンサ105および現実空間の物体110に固定されたセンサ106の位置姿勢の計測値を読み取る。計測値は位置姿勢計測装置104からシリアル通信などの手段でPC103に取り込まれる(ステップS202)。
次に、ステップS201でRAM1102に取得した現実空間の画像からマーカ107を画像認識し、画像中のマーカ107の位置から、ステップS202で得た「磁気レシーバ105の位置姿勢」を補正する(ステップS203)。本ステップによる処理は、位置姿勢すべての情報を正確に出力できるセンサを用いた場合には不要であるが、一般に多く用いられている磁気センサでは周囲の環境による誤差を補正するため、よく行われる処理である。またセンサが姿勢のみしか計測できない場合、また姿勢にも長時間の計測により姿勢ずれが生じる場合などは、位置の計測を画像によって行ったり、姿勢ずれを画像で補正するといった事が行われる。また、この補正方法についてはこの方法に限定するものではなく、様々な方法が提案されている。
そして、次に、ステップS201でRAM1102上に取得した現実空間の画像をRAM1102内の所定のエリア内に描画し(ステップS204)、その上にカメラ102R、102Lの位置姿勢に応じて見える仮想空間の画像を描画する(ステップS205)。これにより、RAM1102内の所定のエリアには複合現実空間の画像が生成されていることになる。
なお、仮想空間の画像を生成する際には、現実物体110に取り付けられた磁気レシーバ106が計測した位置姿勢でもって仮想物体111を仮想空間内に配置する処理を行うので、観察者がこの仮想物体111の配置位置側を見ると、この位置に仮想物体111が見えることになる。
そしてRAM1102内の所定のエリアに生成された複合現実空間の画像(合成画像)をI/F1107を介してHMD100の表示装置101に出力する(ステップS206)。
以上、ステップS201からステップS206が1フレームの処理であり、ステップS207で終了の通知を受けるまで以上の処理を繰り返す。
そして、以上の処理の終了指示が、例えば操作部1104を操作して入力されたことをCPU1101が検知した場合には本処理を終了する。
なお、本実施形態では、センサとして磁気センサを用いたが、超音波センサなど、他のタイプのものを用いるようにしても良い。
ここで、以上の処理において、実際にはステップS201における処理、即ち、現実空間の画像の取得には、ステップS202における処理(センサによる計測値の取得処理)よりも時間がかかるために、ステップS201でRAM1102上に取り込んだ現実空間の時刻と、ステップS202で取得した磁気レシーバ105の位置姿勢の時刻との間には差(タイムラグ)が生じてしまう。
現実空間の画像の取得は、位置姿勢の取得に遅れる。そして現実空間の画像の取得が完了する頃には、次の(もしくはそれ以降の)位置姿勢が取得されていることになる。よって、観察者が自身の頭部を動かしている最中に、同時に位置姿勢の計測、現実空間の撮像を行っても、ステップS201で取り込んだ映像が示す現実空間の視点の位置姿勢と、ステップS202で取得した磁気レシーバ105の位置姿勢に基づく視点の位置姿勢とが一致しない。よって、ステップS202で取得した位置姿勢に基づいて仮想空間の画像を生成しても、現実空間の画像とは異なる位置姿勢の視点で生成されたものとなり、現実物体110と仮想物体111とは互いにずれて描画されてしまう。
図3は、このタイムラグが生ずるが故に発生する、現実物体110と仮想物体111とのずれを説明する図である。なお、各画像301から308は同時に表示されるものではなく、この順に表示されるものである。またそれぞれの画像は、HMD100に備わっている表示装置101に表示されるものである。
仮想物体111は現実物体110の位置に重畳するために、現実物体110と同じ位置姿勢で配置する。よって、理想的には表示装置101の表示画面には仮想物体111は常に現実物体110に重なって表示されることになる。
先ず画像301では、観察者の頭部は動いていないので、現実物体110と仮想物体111とが全く同じ位置姿勢でもって表示されている。ここで、観察者が自身の頭部を動かすと、当然、表示装置101の表示画面内の仮想物体111、現実物体110の位置が変わる。ここで頭部を左側に回すと、仮想物体111、現実物体110は共に表示画面内で右側に動くのであるが、上記タイムラグが生ずるが故に、画像302に示す如く、現実物体110は、仮想物体111を描画するために用いた視点の位置姿勢よりも前に取得された位置姿勢の視点から見たものとなっており、その結果、それらの表示にずれが生じている。これは、頭部の移動に追従して仮想空間の画像は生成されるものの、頭部の移動後に取得されるべき現実空間の画像の取得がまだ終わっていないので(即ち上記タイムラグがあるが故に)、前のフレームの画像のままであることに起因する。
そしてその後も観察者が自身の頭部を左側に見渡し続けると、画像303,304に示す如く、現実物体110は仮想物体111の移動に遅れて表示される。
ここで、観察者の頭部を左側に回している途中でいきなり右側に回すと、画像305に示す如く、仮想物体111は表示画面内では同図矢印350で示す方向に移動するのであるが、先の理由により、現実物体110は遅れて移動するので、矢印351で示す方向に移動する。よって、現実物体110、仮想物体111のそれぞれが位置して見えるのはこのようなことが原因となっている。
そしてその後も観察者が自身の頭部を右側に回し続けると、画像306,307に示す如く、現実物体110は仮想物体111の移動に遅れて表示される。
そして、観察者が自身の頭部の回転を止めると、画像301と同様に、仮想物体111、現実物体110は一致して表示される。
よって、本実施形態では、このタイムラグを求め、現実空間上に重畳させる仮想空間の画像を生成する際には、この現実空間の画像の取得時刻よりも求めたタイムラグ分だけ前に取得した位置姿勢に基づいて仮想空間の画像を生成する。これにより、それぞれの画像で視点の位置姿勢は略一致するので、現実物体110と仮想物体111とが互いにずれて描画されることはない。
以下では、このタイムラグを求める処理について説明する。
先ず、観察者は自身の頭部にHMD100を装着し、自身の頭部を適当に動かす。簡単には、左右に振る。観察者がこのような動作を行っている際、コンピュータ103は以下説明する各処理を実行する。
図4は、観察者が上記動作を行っている間にコンピュータ103によって行われる処理、即ち、HMD100に備わっているカメラ102によって撮像された現実空間の画像を取得し、取得した画像を取得時刻と共に外部記憶装置205に保存する処理のフローチャートである。なお、同図のフローチャートに従った処理をCPU1101に実行させるためのプログラムやデータは外部記憶装置205からRAM1102上にロードされており、CPU1101がこれを用いて処理を実行することで、コンピュータ103は以下説明する各処理を実行することになる。
図5は、観察者が上記動作を行っている間にコンピュータ103によって行われる処理、即ち、HMD100に備わっている磁気レシーバ105によって計測されたHMD100の位置姿勢、磁気レシーバ106によって計測された現実物体110の位置姿勢を取得し、取得した位置姿勢を取得時刻と共に外部記憶装置205に保存する処理のフローチャートである。なお、同図のフローチャートに従った処理をCPU1101に実行させるためのプログラムやデータは外部記憶装置205からRAM1102上にロードされており、CPU1101がこれを用いて処理を実行することで、コンピュータ103は以下説明する各処理を実行することになる。
なお、図4,5のそれぞれに示したフローチャートに従った処理は遅れなく実行されることが望ましいため、リアルタイムOS上で独立したタスク、マルチスレッドOS上においては別スレッドで実行される事が望ましい。
先ず、図4に示したフローチャートに従った処理について説明する。
HMD100に備わっているカメラ102は上述の通り、現実空間の動画像を撮像する。撮像した各フレームの画像はI/F1107を介して本コンピュータ103に入力される。CPU1101はこれをRAM1102上に取得する(ステップS401)。一般に高フレームレートの動画像の取得では、別のスレッドもしくはタスクで独立して画像の取り込みが行われている例が多く、本実施形態でもステップS401では基本ソフトのAPIからの取り込み処理終了の呼び出しを受けて、既にバッファに一次保存されているデータを、コンピュータ103内に取り込む事を想定している。
次に、CPU1101は現在時刻を内部タイマによって計時しているので、ステップS401で画像を取得した時刻(I/F1107を介して入力された画像のデータをRAM1102上に記録完了した時刻)を計時し(ステップS402)、計時した時刻データを、ステップS401で取得した画像のデータと対応づけて外部記憶装置205に保存する(ステップS403)。
なお、基本ソフトの仕組みによっては、上記ステップS401で説明した画像の取得の前に、基本ソフト内での取り込み処理の終了を検知した時点で時刻を計測する事が望ましい場合もある。
そして、次に本コンピュータ103に入力される現実空間画像のデータ及び取得時刻を記録するための記録領域を外部記憶装置205内に確保すると共に、この記録領域にデータが記録されるように記録位置を更新する(ステップS404)。なお、予め記録領域を一括して確保している場合には、逐一記録領域の確保処理は必要ない。
以上の処理を処理の終了指示が入力されるまで行う。なお、図4のフローチャートに従った処理の終了判断に関しては、後述する観察者の遅れ時間を判断する処理を始める時に止めて、PCの負荷を減らす事もできるし、処理量に余裕がある場合は、記録領域をリング状に確保し、常に過去一定時間内のデータを保持し続けるようにする事も可能である。
次に、図5に示したフローチャートに従った処理について説明する。
上述の通り、磁気レシーバ105は自身の位置姿勢に応じた信号を位置姿勢計測装置104に出力し、位置姿勢計測装置104はこの信号に基づいたデータをコンピュータ103に入力する。磁気レシーバ106も同様に自身の位置姿勢に応じた信号を位置姿勢計測装置104に出力し、位置姿勢計測装置104はこの信号に基づいたデータをコンピュータ103に入力する。よって、CPU1101は磁気レシーバ105の位置姿勢を示すデータ(センサ値)、磁気レシーバ106の位置姿勢を示すデータ(センサ値)をRAM1102上に取得する(ステップS501)。
実際にはセンサはシリアル通信等の何らかの通信手段で本コンピュータ103に接続されており、アクティブにセンサ値の取得を行うよりも、つねに通信路を監視しており、センサからの出力があった瞬間を検知できるのが、誤差や余分な遅れを伴わない望ましい。
また、CPU1101は位置姿勢のデータの取得時刻を計測し(ステップS502)、計測した時刻のデータを、ステップS501で取得した位置姿勢のデータと対応づけて外部記憶装置205に保存する(ステップS503)。
そして、次に本コンピュータ103に入力される位置姿勢のデータ及び取得時刻を記録するための記録領域を外部記憶装置205内に確保すると共に、この記録領域にデータが記録されるように記録位置を更新する(ステップS504)。なお、予め記録領域を一括して確保している場合には、逐一記録領域の確保処理は必要ない。
以上の処理を処理の終了指示が入力されるまで行う。図5の処理の終了判断に関しては、図4の終了処理の判断と同様である。
次に、タイムラグを求める処理について図6を用いて説明する。なお、同図のフローチャートに従った処理をCPU1101に実行させるためのプログラムやデータは外部記憶装置205からRAM1102にロードされており、これを用いてCPU1101が処理を行うことで、コンピュータ103は以下説明する処理を実行することになる。
なお、同図のフローチャートに従った処理は、図4,5に示したフローチャートに従った処理の完了後に行われるものである。即ち図6に示したフローチャートに従った処理は、図4のフローチャートに従った処理によって外部記憶装置205に保存された「現実空間の画像とこの画像の取得時刻とのセット群」、図5のフローチャートに従った処理によって外部記憶装置205に保存された「位置姿勢と取得時刻とのセット群」を用いて実行されるものである。
先ず、以下の処理で用いる変数dが保持する値を0に初期化する(ステップS601)。次に、時刻tにおける現実空間の画像をRAM1102上に描画する(ステップS602)。この時刻tは、操作者が操作部1104を用いて指示する。なお、この時刻tは図4(もしくは図5)のフローチャートに従った処理でもって外部記憶装置205に保存された「取得時刻」が取りうる範囲内の値とする。
時刻tが、図4(もしくは図5)のフローチャートに従った処理でもって外部記憶装置205に保存された「取得時刻」の何れかであった場合には、取得時刻tと対応づけて外部記憶装置205に保存されている現実空間の画像を読み出す。
また、時刻tが、図4(もしくは図5)のフローチャートに従った処理でもって外部記憶装置205に保存された「取得時刻」の何れでもない場合は、「取得時刻」のうち時刻tに最も近い時刻t1に対応づけられて外部記憶装置205に保存されている現実空間の画像を読み出す。
また、より高精度な処理を行うために、時刻tが「取得時刻」の何れでもない場合は、位置姿勢のデータを補間し、当該時刻の予測データを計算するようにしても構わない。
センサ値の線形補間について具体的に説明する。位置情報を補間するには、典型的に位置情報として計測される、x、y、zの座標値のそれぞれを計測時刻をパラメータとして線形補間すればよい。姿勢情報に関してはアジマス、エレベーション、ロールで表されるオイラー角表現がよく使われるが、オイラー角表現では一般に補間ができない事が知られている。
補間を行うには、姿勢情報をクォータニオンに変換し、クォータニオンのそれぞれの要素を補間する事で姿勢の補間が可能である。またクォータニオンを四次元のベクトルとして扱い、そのベクトルを四次元の超球面上で球面線形補間することで、より正確な補間を行う事ができる。さらに線形補間ではなく、三次補間、スプライン補間を適用して、位置および、姿勢を補間することにより、より正確な補間を行うことができる。
以上の処理により、指定された時刻tにおける現実空間の画像がRAM1102に読み出される。
次に、時刻(t−d)における位置姿勢を用いて、この位置姿勢を有する視点から見える仮想空間の画像を生成する。
以上のように、時刻(t−d)における位置姿勢から見える仮想空間の画像がRAM1102上に描画される。
以上の処理において、画像や位置姿勢の補間を行う場合があるが、補間の方式は線形補間で十分であるが、スプライン曲線へのフィッティング等よりスムーズな補間も必要とされる可能性もある。
そして次に、ステップS603で生成した仮想空間の画像を先にステップS602でRAM1102上に描画した現実空間の画像上に重畳して描画する(ステップS604)。これにより、複合現実空間の画像が1枚生成できたことになる。
そして、次に、予め決められた枚数の複合現実空間の画像が生成できたのかをチェックし(ステップS605)、できていない場合には処理をステップS609に進め、変数dが保持する値に値xを加算して更新し(ステップS609)、その後処理をステップS602に戻し、以降の処理を繰り返す。
よって、所定枚数の複合現実空間の画像が生成された場合、それらは、時刻tにおける現実空間の画像上に時刻(t−d)(d=0,x,2x,、、D)における位置姿勢に基づく視点から見える仮想空間の画像を重畳させた画像群がRAM1102上に記憶されていることになる。なお、この「D」については、上記時刻tの取りうる範囲がT1≦t≦T2の場合には、D≦t−T1を満たすように設定する。また、値xについては、例えば磁気レシーバ105、106による位置姿勢の取得時刻間隔に設定する。
ステップS605におけるチェック処理で、予め決められた枚数の複合現実空間の画像が生成できたと判断した場合には処理をステップS606に進め、以上の処理で生成した複数枚の複合現実空間の画像を表示部1106の表示画面上に一覧表示する(ステップS606)。
図7は、生成された複数枚(同図では4枚)の複合現実空間を一覧表示したときの表示例を示す図である。700は表示部1106における表示画面で、表示画面700内には701から704で示す如く4枚の複合現実空間の画像が一覧表示されている。ここで、画像701はd=0の場合に生成した複合現実空間の画像、画像702はd=xの場合に生成した複合現実空間の画像、画像703はd=2xの場合に生成した複合現実空間の画像、画像704はd=3xの場合に生成した複合現実空間の画像とする。
ここでそれぞれの画像701〜704を参照すると画像701,702,704では現実物体110と仮想物体111とはその位置姿勢が異なって描画されているが、画像703では現実物体110と仮想物体111とはその位置姿勢が一致して描画されている。これは即ち、上記タイムラグが3xであることを意味している。よって、観察者はこの表示画面700に表示されているそれぞれの画像を見て、仮想物体111と現実物体110とがより一致して表示されている画像を操作部1104を用いて指示する。指示方法については例えば指示対象の画像上にマウスカーソルを移動させ、画像上でクリックする。
CPU1101は画像の指示を検知する(ステップS607)と、指示された画像を生成する際に用いたdの値を、上記タイムラグとして外部記憶装置205に保存する(ステップS608)。
以上の処理によって、上記タイムラグを取得することができる。
次に、取得したタイムラグを用いて、HMD100の位置姿勢が変化しても、複合現実空間の画像上で現実物体110と仮想物体111とが一致するような複合現実空間の画像を生成する処理について、図8を用いて説明する。なお、同図において、図2と同じ処理ステップについては同じステップ番号を付けており、その説明は省略する。
なお、同図のフローチャートに従った処理をCPU1101に実行させるためのプログラムやデータは外部記憶装置205からRAM1102にロードされており、これを用いてCPU1101が処理を行うことで、コンピュータ103は以下説明する処理を実行することになる。
ステップS801では、磁気レシーバ105が計測した位置姿勢、磁気レシーバ106が計測した位置姿勢がI/F1107を介してRAM1102に入力されるのであるが、これを少なくとも上記処理で求めたタイムラグα分だけ前のものまでをRAM1102上に記録しておき、現在時刻取りもαだけ前のものをステップS205で用いるものとして取得する。
これにより、ステップS205では現在時刻tよりもタイムラグαの分だけ前の位置姿勢を用いて仮想空間の画像を生成することができ、上記タイムラグに起因して生ずる、複合現実空間の画像上に置ける現実物体110と仮想物体111とのずれを軽減することができる。
なお本実施形態では、ステップS602における処理を行うための時刻tの設定はコンピュータ103の操作者が操作部1104を用いて入力していたが、これに限定するものではなく、コンピュータ103側で決定するようにしても良い。
例えば、図5に示したフローチャートに従った処理で得られた位置姿勢のデータ群を用いて、平均的な位置姿勢を求め、求めた位置姿勢となる時刻を「時刻t」として設定するようにしても良い。
また、本実施形態では現実物体110に磁気レシーバ106を装着していたが、現実物体110の位置姿勢を固定する場合には磁気レシーバ106を装着せずに、そのセンサ座標系における位置姿勢を予め計測しておいて、これをデータとして外部記憶装置205に保存しておき、これを用いるようにしても良い。
このように、本実施形態は、同じ現実空間の画像に対して、複数の異なる時刻における位置姿勢に基づく仮想画像を合成し、操作者に提示する。そして、操作者から、目視により最も位置が合っているものを選択情報を取得する。本実施形態によれば、現実空間の画像とセンサ値の時間ズレを調整を簡単に行うことができる。
[第2の実施形態]
第1の実施形態では、1つの現実空間の画像に対して、異なる時刻における位置姿勢に基づく仮想空間の画像を重畳させたものを一覧表示していたが、本実施形態では、それぞれ異なる時刻の現実空間の画像のそれぞれに対して、図6のフローチャートに従った処理を行う。
第1の実施形態では、1つの現実空間の画像に対して、異なる時刻における位置姿勢に基づく仮想空間の画像を重畳させたものを一覧表示していたが、本実施形態では、それぞれ異なる時刻の現実空間の画像のそれぞれに対して、図6のフローチャートに従った処理を行う。
即ち、図6のフローチャートでステップS601からS605,S609における処理を「時刻t」の代わりに「時刻tα」について行い、次に、図6のフローチャートでステップS601からS605,S609における処理を「時刻t」の代わりに「時刻tβ」について行う。
よって、それぞれの時刻tα、tβにおいてそれぞれ4枚の複合現実空間の画像を生成した場合、ステップS606では図9に示す如く、時刻tαにおける現実空間の画像上に、d=0の場合に生成した仮想空間の画像を重畳させた画像901、時刻tαにおける現実空間の画像上に、d=xの場合に生成した仮想空間の画像を重畳させた画像902、時刻tαにおける現実空間の画像上に、d=2xの場合に生成した仮想空間の画像を重畳させた画像903、時刻tαにおける現実空間の画像上に、d=3xの場合に生成した仮想空間の画像を重畳させた画像904が表示されると共に、時刻tβにおける現実空間の画像上に、d=0の場合に生成した仮想空間の画像を重畳させた画像905、時刻tβにおける現実空間の画像上に、d=xの場合に生成した仮想空間の画像を重畳させた画像906、時刻tβにおける現実空間の画像上に、d=2xの場合に生成した仮想空間の画像を重畳させた画像907、時刻tβにおける現実空間の画像上に、d=3xの場合に生成した仮想空間の画像を重畳させた画像908が表示される。
図9は、生成された複数枚(同図では8枚)の複合現実空間を一覧表示したときの表示例を示す図である。
このように、複数の実写画像に対して候補を表示する事で、操作者は画像905のような紛らわしい合成画像に対して画像901の融合が正常でない事を容易に認識し、画像903、907のセンサ値の遅れ時間をより正確に選択する事が可能である。
なお、以上の説明では、2つの時刻tα、tβのそれぞれについてdを異ならせた複合現実空間の画像を、選択候補として一覧表示したが、2以上の時刻について行うようにしても良いことはいうまでもない。
各調整パラメータについて、複数の画像を確認することができるので、簡単に高精度な調整を行うことができる。
[第3の実施形態]
第1の実施形態では、一覧表示された複合現実空間の画像群のうち、1つを指示すると、その画像を生成する際の変数dの値をタイムラグとして決定していたが、本実施形態ではより性格にタイムラグを求めるべく、1つの画像を指示後、先ず、その画像を生成する際に用いた変数d近傍の時間を複数設定する。例えば「dを中心に±0.1秒」というように設定する。この設定はCPU1101が行っても良いし、コンピュータ103の操作者が操作部1104を用いて入力するようにしても良い。
第1の実施形態では、一覧表示された複合現実空間の画像群のうち、1つを指示すると、その画像を生成する際の変数dの値をタイムラグとして決定していたが、本実施形態ではより性格にタイムラグを求めるべく、1つの画像を指示後、先ず、その画像を生成する際に用いた変数d近傍の時間を複数設定する。例えば「dを中心に±0.1秒」というように設定する。この設定はCPU1101が行っても良いし、コンピュータ103の操作者が操作部1104を用いて入力するようにしても良い。
次に、設定した複数の時間をds=ds1,ds2,、d、、、dsDとすると、図6のフローチャートに従った処理をdの代わりにこのdsを用いて行うことで、時刻tにおける現実空間の画像上に、時刻(t−ds1)における位置姿勢に基づく視点から見える仮想空間の画像を重畳させた複合現実空間画像、時刻tにおける現実空間の画像上に、時刻(t−ds2)における位置姿勢に基づく視点から見える仮想空間の画像を重畳させた複合現実空間画像、、、時刻tにおける現実空間の画像上に、時刻(t−d)における位置姿勢に基づく視点から見える仮想空間の画像を重畳させた複合現実空間画像、、、、時刻tにおける現実空間の画像上に、時刻(t−dsD)における位置姿勢に基づく視点から見える仮想空間の画像を重畳させた複合現実空間画像、が表示部1106の表示画面上に一覧表示されることになる。図10は、ds=ds1,ds2,ds3,ds4のそれぞれの場合の複合現実空間の画像1001,1002,1003,1004の一覧表示例を示す図である。
そして、このうち1つの画像を指示すると、指示した画像を生成する際に用いたdsの値をタイムラグとして外部記憶装置205に保存する。
このように、一度dを決定しても、その近傍の時間で更に現実物体110と仮想物体111とのずれを確認することができるので、より正確にタイムラグを求めることができる。
なお、本実施形態は適宜第2の実施形態と組み合わせて用いることもできる。
本実施形態によれば、詳細な調整を行うことができる。
[第4の実施形態]
次に第4の実施形態について説明する。
次に第4の実施形態について説明する。
本実施形態は現実空間の画像と仮想物体の画像とを合成表示する現実感装置において、第1乃至第3の実施形態に記載された計測手段を追加したものである。
本実施形態の処理の手順を図12を用いて説明する。基本的な構成に関しては第1の実施形態と同じである。
まずステップS1101の複合現実感による合成画像の表示を行う。ここで行われる処理は、図2のステップS201からステップS206の処理と同様である。
次に、ステップS1102でキーボードや、マウスなどの操作により、モード切替の指示の通知がされていないかを判断する。
もしモード切替の通知がなければ、ステップS1105で複合現実感の全体の処理の終了通知の有無を判断し、終了の通知が無ければ、ステップ1101の合成画像表示の処理をくりかえす。
もしステップS1102でモード切替の通知があった場合には、ステップS1103の時間ずれ計測処理に進む。
ステップS1103の時間ずれ計測処理では、図4、図5、図6と同様の処理が行われる。
次に、ステップS1104で計測終了の通知が無ければ、ステップS1103に戻って計測を続ける。
ステップS1104で計測終了の通知が行われた場合には、計測された値に応じて、ステップS1106において、ステップS1101で使用される、画像とセンサのずれ時間を更新し、ステップ1101の複合現実感の合成画像の表示を行う。
本実施形態によれば、複合現実感装置において、時間ずれの計測、時間ずれが何らかの外的要因で変化した場合の修正を簡易に、素早く行う事ができる。
[その他の実施形態]
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
Claims (10)
- 現実空間の動画像を撮像する撮像装置から、各フレームの撮像画像を取得する画像取得工程と、
前記画像取得工程で取得した撮像画像を、当該撮像画像の取得時刻と対応づけて格納する第1の格納制御工程と、
前記撮像装置の位置姿勢を計測するセンサから、前記撮像装置の位置姿勢を順次取得する位置姿勢取得工程と、
前記位置姿勢取得工程で取得した位置姿勢を、当該位置姿勢の取得時刻と対応づけて格納する第2の格納制御工程と、
時刻tに対応する撮像画像上に、時刻(t−d)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成する生成工程と、
前記生成工程で生成した画像群を一覧表示する表示工程と、
前記表示工程で表示した画像群のうち、指示された画像に対応する時刻に基づき時間ズレを調整するための調整条件を設定する設定工程と
を備えることを特徴とする情報処理方法。 - 前記指示された時刻tが、前記第1の格納制御工程で格納した取得時刻の何れかであった場合には、
前記生成工程では、前記時刻tと対応づけて格納された撮像画像上に、時刻(t−d)と対応づけて格納された位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成することを特徴とする請求項1に記載の情報処理方法。 - 前記指示された時刻tは前記第1の格納制御工程で格納した取得時刻の何れでもないが、前記時刻tに最も近い時刻がt1である場合には、
前記生成工程では、前記時刻t1と対応づけて格納された撮像画像上に、時刻(t1−d)と対応づけて格納された位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成することを特徴とする請求項1に記載の情報処理方法。 - 前記指示された時刻tが前記第1の格納制御工程で格納した取得時刻t1,t2に対してt1<t<t2であった場合には、
前記生成工程は、
前記時刻t1と対応づけて格納された撮像画像と、前記時刻t2と対応づけて格納された撮像画像とを用いて前記時刻tにおける撮像画像を補間生成する画像生成工程と、
前記時刻t1と対応づけて格納された位置姿勢と、前記時刻t2と対応づけて格納された位置姿勢とを用いて前記時刻tにおける位置姿勢を補間生成する位置姿勢生成工程と、
前記画像生成工程で生成した撮像画像上に、前記位置姿勢生成工程で生成した位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成することを特徴とする請求項1に記載の情報処理方法。 - 更に前記生成工程では、指示された複数の時刻tのそれぞれについて、時刻tに対応する撮像画像上に、時刻(t−d)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成することを特徴とする請求項1乃至4の何れか1項に記載の情報処理方法。
- 現実空間の動画像を撮像する撮像装置から、各フレームの撮像画像を取得する画像取得工程と、
前記画像取得工程で取得した撮像画像を、当該撮像画像の取得時刻とセットにして格納する第1の格納制御工程と、
前記撮像装置の位置姿勢を計測するセンサから、前記撮像装置の位置姿勢を順次取得する位置姿勢取得工程と、
前記位置姿勢取得工程で取得した位置姿勢を、当該位置姿勢の取得時刻とセットにして格納する第2の格納制御工程と、
指示された時刻tに対応する撮像画像上に、時刻(t−d)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成する第1の生成工程と、
前記第1の生成工程で生成した画像群を一覧表示する第1の表示工程と、
前記第1の表示工程で表示した画像群のうち、指示された1つの画像を前記第1の生成工程で生成する際に用いた位置姿勢に対応する前記時刻(t−d)において、当該d近傍の時刻ds=ds1,ds2,、、、dsDを設定する設定工程と、
指示された時刻tに対応する撮像画像上に、時刻(t−ds)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、ds=ds1,ds2,、、dsDのそれぞれについて生成する第2の生成工程と、
前記第2の生成工程で生成した画像群を一覧表示する第2の表示工程と、
前記第2の表示工程で表示した画像群のうち、指示された画像に対応する時刻に基づき時間ズレを調整するための調整条件を設定する設定工程と
を備えることを特徴とする情報処理方法。 - 現実空間の動画像を撮像する撮像装置から、各フレームの撮像画像を取得する画像取得手段と、
前記画像取得手段が取得した撮像画像を、当該撮像画像の取得時刻と対応づけて格納する第1の格納制御手段と、
前記撮像装置の位置姿勢を計測するセンサから、前記撮像装置の位置姿勢を順次取得する位置姿勢取得手段と、
前記位置姿勢取得手段が取得した位置姿勢を、当該位置姿勢の取得時刻と対応づけて格納する第2の格納制御手段と、
時刻tに対応する撮像画像上に、時刻(t−d)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成する生成手段と、
前記生成手段が生成した画像群を一覧表示する表示手段と、
前記表示手段が表示した画像群のうち、指示された画像に対応する時刻に基づき時間ズレを調整するための調整条件を設定する設定手段と
を備えることを特徴とする情報処理装置。 - 現実空間の動画像を撮像する撮像装置から、各フレームの撮像画像を取得する画像取得手段と、
前記画像取得手段が取得した撮像画像を、当該撮像画像の取得時刻とセットにして格納する第1の格納制御手段と、
前記撮像装置の位置姿勢を計測するセンサから、前記撮像装置の位置姿勢を順次取得する位置姿勢取得手段と、
前記位置姿勢取得手段が取得した位置姿勢を、当該位置姿勢の取得時刻とセットにして格納する第2の格納制御手段と、
指示された時刻tに対応する撮像画像上に、時刻(t−d)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、d=d0,d1,、、Dのそれぞれについて生成する第1の生成手段と、
前記第1の生成手段が生成した画像群を一覧表示する第1の表示手段と、
前記第1の表示手段が表示した画像群のうち、指示された1つの画像を前記第1の生成手段で生成する際に用いた位置姿勢に対応する前記時刻(t−d)において、当該d近傍の時刻ds=ds1,ds2,、、、dsDを設定する設定手段と、
指示された時刻tに対応する撮像画像上に、時刻(t−ds)に対応する位置姿勢を有する視点から見える仮想空間の画像を重畳させた画像を、ds=ds1,ds2,、、dsDのそれぞれについて生成する第2の生成手段と、
前記第2の生成手段が生成した画像群を一覧表示する第2の表示手段と、
前記第2の表示手段が表示した画像群のうち、指示された画像に対応する時刻に基づき時間ズレを調整するための調整条件を設定する設定手段と
を備えることを特徴とする情報処理装置。 - コンピュータに請求項1乃至6の何れか1項に記載の情報処理方法を実行させることを特徴とするプログラム。
- 請求項9に記載のプログラムを格納したことを特徴とする、コンピュータ読み取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005106784A JP2006285786A (ja) | 2005-04-01 | 2005-04-01 | 情報処理方法、情報処理装置 |
US11/392,600 US7868904B2 (en) | 2005-04-01 | 2006-03-30 | Image processing method and image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005106784A JP2006285786A (ja) | 2005-04-01 | 2005-04-01 | 情報処理方法、情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006285786A true JP2006285786A (ja) | 2006-10-19 |
Family
ID=37407629
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005106784A Withdrawn JP2006285786A (ja) | 2005-04-01 | 2005-04-01 | 情報処理方法、情報処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006285786A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008299669A (ja) * | 2007-05-31 | 2008-12-11 | Canon Inc | 頭部装着型表示装置、及びその制御方法 |
JP2013171083A (ja) * | 2012-02-17 | 2013-09-02 | Kddi Corp | 情報端末装置 |
CN111887051A (zh) * | 2020-06-12 | 2020-11-06 | 天津师范大学 | 一种植物功能形状调查用记录装置 |
-
2005
- 2005-04-01 JP JP2005106784A patent/JP2006285786A/ja not_active Withdrawn
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008299669A (ja) * | 2007-05-31 | 2008-12-11 | Canon Inc | 頭部装着型表示装置、及びその制御方法 |
JP2013171083A (ja) * | 2012-02-17 | 2013-09-02 | Kddi Corp | 情報端末装置 |
CN111887051A (zh) * | 2020-06-12 | 2020-11-06 | 天津师范大学 | 一种植物功能形状调查用记录装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220366598A1 (en) | Calibration system and method to align a 3d virtual scene and a 3d real world for a stereoscopic head-mounted display | |
US10684475B2 (en) | Image generation apparatus and image generation method | |
US10629107B2 (en) | Information processing apparatus and image generation method | |
JP5113426B2 (ja) | 頭部装着型表示装置、及びその制御方法 | |
US7868904B2 (en) | Image processing method and image processing apparatus | |
EP3467585A1 (en) | Head-mounted display tracking system | |
US8233011B2 (en) | Head mounted display and control method therefor | |
JP6556015B2 (ja) | 情報処理装置、位置および/または姿勢の推定方法、およびコンピュータプログラム | |
AU2022241459A1 (en) | Technique for recording augmented reality data | |
US8760470B2 (en) | Mixed reality presentation system | |
JP7349793B2 (ja) | 画像処理装置および画像処理方法、プログラム | |
JP4144888B2 (ja) | 画像処理方法、画像処理装置 | |
JP2007034628A (ja) | 画像処理方法及び装置 | |
CN108153417B (zh) | 画面补偿方法及采用该方法的头戴式显示装置 | |
CN110969706B (zh) | 增强现实设备及其图像处理方法、系统以及存储介质 | |
JP2008146497A (ja) | 画像処理装置、画像処理方法 | |
JP6949475B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP2006285786A (ja) | 情報処理方法、情報処理装置 | |
JP4689344B2 (ja) | 情報処理方法、情報処理装置 | |
JP2016110489A (ja) | 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム | |
US20230127539A1 (en) | Information processing apparatus, information processing method, and information processing program | |
CN102844787A (zh) | 稳定方法及计算机系统 | |
JP2002269593A (ja) | 画像処理装置及び方法、並びに記憶媒体 | |
JP2015201734A (ja) | 画像処理装置、画像処理装置の制御方法およびプログラム | |
US11954269B2 (en) | Information processing apparatus, information processing method, and program for generating location data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080603 |