JP2011008351A - 画像処理方法及び画像処理装置 - Google Patents

画像処理方法及び画像処理装置 Download PDF

Info

Publication number
JP2011008351A
JP2011008351A JP2009149057A JP2009149057A JP2011008351A JP 2011008351 A JP2011008351 A JP 2011008351A JP 2009149057 A JP2009149057 A JP 2009149057A JP 2009149057 A JP2009149057 A JP 2009149057A JP 2011008351 A JP2011008351 A JP 2011008351A
Authority
JP
Japan
Prior art keywords
simulation
observer
image processing
image
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009149057A
Other languages
English (en)
Inventor
Naohito Nakamura
直仁 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009149057A priority Critical patent/JP2011008351A/ja
Publication of JP2011008351A publication Critical patent/JP2011008351A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】 仮想現実空間上や複合現実空間上において、観察者の動作によって、シミュレーション結果の時間に関する設定を行うための技術を提供する。
【解決手段】 物体の動作のシミュレーションを行うシミュレータ部1330と、シミュレーションの結果に基づいて仮想空間の画像を生成して表示装置1010に表示する画像生成部1340と、表示される前記仮想空間を観察する観察者の所定部位の位置及び姿勢を算出する位置姿勢算出部1310と、前記観察者の手の位置及び姿勢に基づいて、結果を表示すべきシミュレーションの時刻を設定する時間設定部1320とを備える。
【選択図】 図1

Description

本発明は、情報処理装置および方法に関し、特に、仮想空間または現実空間において設計データのシミュレーションの検証作業を行う際にシミュレーションに対して操作を行う画像処理方法及び画像処理装置に関する。
従来、機械設計の分野では三次元CADシステムが用いられており、機構、及び機構の構成部品を立体的に表示しながら設計を行うことが可能になっている。この種のシステムにおいては、例えばアクチュエーターやモータ等の能動部品やセンサー等を制御するための制御プログラムの開発を支援するため、機構を実際に組立てることなく、各構成部品の動作をシミュレートする機能を有している。このようなシミュレーションの可能な三次元CADシステムは、例えば特許文献1に開示されている。また、特許文献2において開示されているように、複数のCADシステムによって設計されたデータを使用して、動作シミュレーションを行いながら設計を行うことを可能にした三次元CADシステムもある。
設計データの妥当性を検証するためにシミュレーションを行う際には、シミュレーションに対して種々のパラメータを設定する。例えば特許文献3に開示されているように、複数のシミュレーションモジュールに対する入力パラメータの設定をGUIで設定するパラメータ設定方法がある。
一方、現実空間と仮想空間との繋ぎ目のない結合を目的とした、複合現実感(MR:Mixed Reality)に関する研究が近年、盛んに行われている。複合現実感の提示を行う画像表示装置は、例えば次のような構成を有する装置である。即ち、ビデオカメラ等の撮像装置が撮像した現実空間の画像上に、撮像装置の位置及び姿勢に応じて生成した仮想空間の画像(例えばコンピュータグラフィックスにより描画された仮想物体や文字情報等)を重畳描画した画像を表示する装置である。このような装置には、例えば、HMD(ヘッドマウントディスプレイ、頭部装着型表示装置)を用いることができる。
また、係る画像表示装置は、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置及び姿勢に応じて生成した仮想空間の画像を表示する光学シースルー方式によっても実現される。
このような画像表示装置の応用として、患者の体表面に体内の様子を重畳表示する手術支援や、現実空間に浮遊する仮想の敵と戦う複合現実感ゲーム等がある。この他にも、例えば、市街地を撮像することで得られる現実空間の画像中に含まれる著名な建造物等の名称や案内を仮想空間画像として重畳表示するナビゲーションがある。またこの他にも、例えば、ビルの建設予定地を撮像することで得られる画像中に建設予定のビルのコンピュータグラフィックス映像を重畳表示する景観シミュレーションがある。さらにこの他にも、例えば、三次元CADシステムで設計されたデータと、設計データをもとに解析(CAE:Computer Aided Engineering)処理を行った結果とを、現実空間中に重畳表示する設計支援システムがある。このような設計支援システムは、例えば特許文献4に開示されている。以下では、このような画像表示装置を用いて、複合現実感を提示する空間を複合現実空間と表記し、一方、仮想現実感を提示する空間を仮想現実空間と表記する。
ところで、複合現実空間や仮想現実空間を観察者に提示する画像表示装置に対して、仮想空間に対して操作を行うためのユーザインターフェースは各種提案されている。例えば特許文献5に開示されているように、体験者の頭部の位置・姿勢の計測結果と体験者の所定部位の位置・姿勢の計測結果から体験者の意図するアクション情報を生成するユーザインターフェースがある。この他にも、例えば特許文献6に開示されているように、体験者の所定部位の位置・姿勢の計測結果から仮想物体の動作・内部状態を決定するユーザインターフェースがある。
以上の技術を組み合わせることで、三次元CADなどで作成されたモデルをシミュレーションで動作させ、そのシミュレーション結果を現実空間に仮想空間画像として重畳表示することで、シミュレーション結果を確認することが可能となる。
特登録03897948号公報 特開2006−195971号公報 特開2006−277084号公報 特開2006−048271号公報 特登録03373296号公報 特登録03517639号公報
しかし従来では、シミュレーションの時間に関する設定を行うには2次元ディスプレイで設定することが必要であった。シミュレーションの時間に関する設定とは、例えば表示するシミュレーションの時刻の設定や、例えばシミュレーションを行う時間刻み幅の設定がある。さらに例えば、シミュレーション全体の時間幅の設定がある。したがって、仮想現実空間や複合現実空間上でシミュレーションを観察する際にも、観察者が例えば、任意の時刻や時間幅や時間刻みのシミュレーション結果を確認したい場合には、その都度2次元ディスプレイで設定する必要がある。そのため、観察者の没入感を阻害してしまう問題があった。
そこで、本発明は、仮想現実空間上や複合現実空間上において、観察者の操作によってシミュレーションの時間に関する情報を設定できることを目的とする。
上記の課題を解決するために、本発明における画像処理装置は、シミュレーションを行うシミュレーション手段と、前記シミュレーションの結果に基づいて仮想空間の画像を生成して表示する表示手段と、表示される前記仮想空間を観察する観察者の所定部位の位置及び姿勢を算出する算出手段と、前記観察者の所定部位の位置及び姿勢に基づいて、結果を表示すべき前記シミュレーションの時刻を設定する設定手段とを備える。
本発明によれば、仮想現実空間や複合現実空間上でシミュレーションの時間に関する設定が行えるため、観察者の没入感を阻害することなく、任意の時間におけるシミュレーション結果を観察者に提示することができる。
第1の実施形態に係るシステムの機能構成例を示すブロック図である。 画像処理装置に適用可能なコンピュータのハードウェア構成例を示すブロック図である。 第1の実施形態に係る画像処理装置の処理手順を示すフローチャートである。 第1の実施形態でのシミュレーション結果の表示例を示す図である。 第1の実施形態でのシミュレーション結果の表示例を示す図である。 第1の実施形態でのシミュレーション結果の表示例を示す図である。 第1の実施形態でのシミュレーション結果の表示例を示す図である。 第2の実施形態に係る画像処理装置の処理手順を示すフローチャートである。 第3の実施形態でのシミュレーション結果の表示例を示す図である。 第7の実施形態に係るシステムの機能構成例を示すブロック図である。 第7の実施形態に係る画像処理装置の処理手順を示すフローチャートである。
以下、添付図面を参照しながら本発明の好適な実施形態について詳細に説明する。
<実施形態1>
図1は、本実施形態に係るシステムの機能構成例を示すブロック図である。図1に示す如く、本実施形態に係るシステムは、画像処理装置1300と、磁気を発生させる磁気トランスミッタ1200と、磁気センサー1100と、頭部装着型表示装置の一例としてのHMD1000と、で構成されている。ここで、画像処理装置1200とHMD1000とは互いにデータ通信が可能なように接続されている。従って、画像処理装置1200とHMD1000との間の接続は、有線、無線の何れであっても構わない。
先ず、HMD1000について説明する。
1010は液晶画面などで構成されている表示装置で、画像処理装置から送出された画像を表示する。表示装置1010はそれぞれ右目用と左目用とが設けられており、夫々は、HMD1000を頭部に装着した観察者の右目、左目の眼前に位置するように、HMD1000に取り付けられている。
1020は磁気トランスミッタ1200が発生させた磁場の変化を計測するためのHMD1000の位置姿勢を計測する磁気センサーで、計測結果を画像処理装置1300に入力する。
また、磁気センサー1100は観察者の手に装着されている。磁気センサー1100は、磁気センサー1020と同様に、磁気トランスミッタ1200が発生させた磁場の変化を計測し、その計測結果を画像処理装置1300に入力する。
次に、画像処理装置1300について説明する。
位置姿勢算出部1310は、磁気センサー1020、1100の計測結果を用いて、各磁気センサーの位置姿勢を算出し、データ記憶部1350に出力する。これにより、HMD1000と観察者の手の位置姿勢を計測することができる。
時間設定部1320は、シミュレーションにおける時間に関する情報(時間情報)を設定し、設定した時間情報をデータ記憶部1350に出力する。ここで、シミュレーションにおける時間情報は、例えば、表示するシミュレーション結果の時刻であっても良いし、例えばシミュレーションを行う時間刻み幅の設定であっても良い。また例えば、シミュレーションを行う全体の時間幅であっても良い。
シミュレータ部1330は、シミュレーションを実行し、シミュレーション結果をデータ記憶部1350に出力する。
画像生成部1340は、データ記憶部1350に格納されている仮想空間のデータに基づいて、仮想空間を構築する。仮想空間のデータには、シミュレータ部1330で行われたシミュレーション結果や、仮想空間を構成する各仮想物体に係るデータや、仮想空間中を照射する光源に係るデータが含まれる。そして画像生成部1340は、データ記憶部1350に格納されている位置姿勢を有する視点を仮想空間内に設定する。そして、係る視点から見える仮想空間の画像(仮想空間画像)を生成する。なお、所定の位置姿勢を有する視点から見える仮想空間の画像を生成するための技術については周知の技術であるので、これについての詳細な説明は省略する。
データ記憶部1350は、上述の通り、様々な情報を格納するためのものであり、RAMやハードディスクドライブ装置などにより構成されている。なお、データ記憶部1350には、上記説明においてデータ記憶部1350に格納するものとして説明した情報の他に、本実施形態において既知の情報として説明するものについても格納されているものとする。
図3は、画像処理装置1300が、仮想空間画像を生成し、HMD1000に対して出力するために行う処理のフローチャートである。
先ず、ステップS3010では、位置姿勢算出部1310により、HMD1000の位置姿勢を算出する。
次に、ステップS3020では、位置姿勢算出部1310により、観察者の所定部位である手の位置姿勢を算出する。
次に、ステップS3030では、位置姿勢算出部1310で算出した観察者の所定部位である手の位置姿勢を用いて、時間設定部1320により、シミュレーションの時間情報を設定する。
次に、ステップS3030で設定した時間情報におけるシミュレーションが行われている場合や、シミュレーションを行わない指示の入力や条件が満たされている場合には、ステップS3040を介して、ステップS3060に進む。一方、ステップS3030で設定した時間情報におけるシミュレーションが行われていない場合や、シミュレーションを行わない指示の入力や条件が満たされていない場合には、ステップS3050に進む。
次に、ステップS3050では、シミュレータ部1330により、シミュレーションを実行する。
次に、ステップS3060では、画像生成部1340により、ステップS3030で設定したシミュレーションの時間情報における、ステップS3010で計算した位置姿勢から見える仮想空間の画像を生成する。ここで、画像生成部1340が生成する仮想空間の画像は、シミュレータ部1330がステップS3050で実行したシミュレーション結果を用いても良い。また例えば、既にシミュレータ部1330が実行したシミュレーションの結果をデータ記憶部1350から読み出して用いても良い。さらに例えば、既にシミュレータ部1330が実行したシミュレーションの結果を補間して用いても良い。
次に、本処理の終了指示が入力された、若しくは本処理を終了する条件が満たされた場合には本処理を終了する。一方、本処理の終了指示は入力されてもいないし、本処理を終了する条件も満たされていない場合には、ステップS3070を介して、処理をステップS3010に戻す。
時間設定部1320が観察者の所定部位の位置姿勢を用いて設定する時間情報の方法は様々挙げられるが、以下ではその一例について説明する。
図4は、画像生成部1340が生成する画像であり、観察者の所定部位である手の位置姿勢によって、表示するシミュレーション時刻が変化し、生成される画像が変化することを示した図である。
4010は、仮想空間を表す画像であり、データ記憶部1350が保持している仮想空間をHMD1000の位置姿勢から見た映像として画像生成部1340が描画する。
4020は、モータであり、歯車4040とつながっている。
4040、4050、4060、4070は、歯車であり、モータ4020とリンク機構を形成している。
4030は、観察者の手を表している仮想画像であり、位置姿勢算出部1310で算出した観察者の手の位置姿勢に描画される。
4080、4090、4100、4130はシミュレーションの全体時間・現在時刻・刻み幅を示したものである。時刻が進むと黒い網掛けの部分が増加していき、逆に時刻が戻ると黒い網掛けの部分が減少していく。
図4(b)では、図4(a)の状態から観察者の手4030が矢印4110で示すような時計回りに一周動いた様子を示したものである。このとき、時間設定部1320は、シミュレーション時刻を図4(a)のシミュレーション時刻tから進んだ時刻t+Δtに設定する。その結果として、表示されるシミュレーション結果はシミュレーション時刻がt+Δtのシミュレーション結果となり、t+Δt時点でのシミュレーション結果がHMD1000に表示される。
図4(c)では、図4(a)の状態から観察者の手4030が矢印4120で示すような反時計回りに一周動いた様子を示したものである。このとき、時間設定部1320は、シミュレーション時刻を図4(a)のシミュレーション時刻tから減じた時刻t−Δtに設定する。その結果として、表示されるシミュレーション結果はシミュレーション時刻がt−Δtのシミュレーション結果となり、t−Δt時点でのシミュレーション結果がHMD1000に表示される。
図4(d)では、図4(a)の状態から観察者の手4030が矢印4140で示すような時計回りに図4(b)の場合よりも速く動いた様子を示したものである。このとき、時間設定部1320は、シミュレーション時刻を図4(b)の場合よりも増加した時刻t+2Δtに設定する。その結果として、表示されるシミュレーション結果はシミュレーション時刻がt+2Δtのシミュレーション結果となり、t+2Δt時点でのシミュレーション結果がHMD1000に表示される。
図5は、画像生成部1340が生成する画像であり、シミュレーション結果がアニメーション再生されている場合に、観察者の手の位置姿勢によって、表示するシミュレーション時刻が変化することを示した図である。図4と同じ部分については同じ番号をつけており、その説明を省略する。
5010、5020、5030、5040はシミュレーションの全体時間・現在時刻・刻み幅を示したものである。時刻が進むと黒い網掛けの部分が増加していき、逆に時刻が戻ると黒い網掛けの部分が減少していく。
図5(a)では、観察者の手4030が何も操作しなかった場合を示したものである。このとき、時間設定部1320は、シミュレーション結果の表示時刻に定められた増分を加える。その結果として、表示されるシミュレーション結果の時刻は5010の状態から5020の状態に変化する。
図5(b)では、観察者の手4030が矢印5050のように時計回りに一周動いた様子を示したものである。このとき、時間設定部1320は、シミュレーション結果の表示時刻に図5(a)よりも大きな増分を加える。その結果として、表示されるシミュレーション結果は5020の時刻の状態より多く進んだ5030の時刻の状態に変化する。
図5(c)では、観察者の手4030が矢印5060のように反時計回りに一周動いた様子を示したものである。このとき、時間設定部1320は、シミュレーション結果の表示時刻に図5(a)よりも小さな増分を加える。その結果として、表示されるシミュレーション結果は5020の時刻の状態よりも少なく進んだ5040の時刻の状態に変化する。
図6は、画像生成部1340が生成する画像であり、観察者の手の位置姿勢によって、シミュレーションを行う時間の刻み幅が変化することを示した図である。図4と同じ部分については同じ番号をつけており、その説明を省略する。
図6(b)では、観察者の手4030が矢印6030のように図6(a)の状態から鉛直上向きに動いた様子を示したものである。このとき、時間設定部1320は、シミュレーションを行う時間刻み幅を図6(a)の状態よりも小さく設定する。その結果として、シミュレーションを行う時間の刻み幅は4080の状態から6010の状態に小さくなる。
図6(c)では、観察者の手4030が矢印6030のように図6(a)の状態から鉛直下向きに動いた様子を示したものである。このとき、時間設定部1320は、シミュレーションを行う時間刻み幅を図6(a)の状態よりも大きく設定する。その結果として、シミュレーションを行う時間の刻み幅は4080の状態から6020の状態に大きくなる。
図7は、画像生成部1340が生成する画像であり、観察者の所定部位である手の位置姿勢によって、シミュレーションを行う全体の時間が変化する様子を示したものである。図4と同じ部分については同じ番号をつけており、その説明を省略する。
図7(b)では、観察者の手4030が矢印7030のように図7(a)の状態から水平方向に動いた様子を示したものである。このとき、時間設定部1320は、シミュレーションを行う全体の時間幅を図7(a)の状態よりも大きく設定する。その結果として、シミュレーションを行う全体の時間幅は4080の状態から7010の状態に大きくなる。
図7(c)では、観察者の手4030が矢印7040のように図7(a)の状態から水平方向に図7(b)で動いた向きとは逆方向へ動いた様子を示したものである。このとき、時間設定部1320は、シミュレーションを行う全体の時間幅を図7(a)の状態よりも小さく設定する。その結果として、シミュレーションを行う全体の時間幅は4080の状態から7010の状態に小さくなる。
また、本実施形態では、観察者の所定部位の位置姿勢が時間的に変化することによって、時間設定部1320がシミュレーションの時間情報を設定していたが、本発明はこれに限定されない。例えば、観察者の所定部位の位置姿勢に対して基準となる位置姿勢の値を予め設定しておき、その基準となる位置姿勢からの相対的な変化によって、シミュレーションの時間情報を設定しても良い。ここで、基準となる位置姿勢の値の設定方法は、ある一定時間前の位置姿勢の値を基準としても良いし、対話的操作等によって位置姿勢の値を設定しても良い。
<実施形態2>
上記実施形態では、毎回頭部位置姿勢を計測していたが、例えば、HMD1000が固定されている場合には、毎回頭部位置姿勢を計測しなくても良い。この場合のフローチャートは図8となる。図3と同じ部分については同じ番号をつけており、その説明を省略する。
先ず、ステップS8010では、HMD1000の位置姿勢を設定する。このとき、HMD1000の位置姿勢の設定方法は、位置姿勢算出部1310で算出しても良いし、予め算出された位置姿勢の値をデータ記憶部1350から読み出しても良い。
次に、ステップS3050の後にステップHMD1000の本処理の終了が入力された、若しくは本処理を終了する条件が満たされた場合には本処理を終了する。一方、本処理の終了指示は入力されてもいないし、本処理を終了する条件も満たされていない場合には、ステップS8020を介して、処理をステップS3020に戻す。
<実施形態3>
上記実施形態では、シミュレーションの時間情報の設定は観察者の所定部位の位置姿勢によって行っていたが、観察者の頭部の位置姿勢も用いて、シミュレーションの時間情報の設定を行っても良い。例えば、図4、図5では、観察者から見た観察者の手4030の相対的な位置姿勢によって時計周りや反時計周りを決定して、シミュレーションの時間情報を設定しても良い。また同様に、図6、図7では、観察者から見た観察者の手4030の相対的な位置姿勢によって水平方向、鉛直方向を決定して、シミュレーションの時間情報を設定しても良い。
また、シミュレーションの時間情報の設定は、仮想物体の位置姿勢も用いて行っても良い。
図9は、観察者の所定部位と頭部の位置姿勢と、仮想物体である歯車4050の位置姿勢とを用いて、表示するシミュレーションの時刻が変化することを示した図である。図4と同じ部分については同じ番号をつけており、その説明を省略する。
9010は、歯車4050の動作する向きと速度を示したものであり、本実施形態の説明のために付加的に表記したものであって、実際には描画されない矢印である。
図9(b)では、図9(a)の状態から観察者の手4030が観察者から見て矢印9040で示すような時計回りに一周動いた様子を示したものである。このとき、時間設定部1320は、頭部の位置姿勢から見て歯車4050の動きと観察者の手4030の操作が逆向きであるとして、シミュレーション時刻を図9(a)の状態から時間を戻す方向に設定する。その結果として、表示されるシミュレーション結果は4080の時刻の状態から9020の時刻の状態へと変化する。
図9(c)では、図9(a)の状態から観察者の手4030が観察者から見て矢印9050で示すような反時計回りに一周動いた様子を示したものである。このとき、時間設定部1320は、頭部の位置姿勢から見て歯車4050の動きと観察者の手4030の操作が同じ向きであるとして、シミュレーション時刻を図9(a)の状態から時間を進める方向に設定する。その結果として、表示されるシミュレーション結果は4080の時刻の状態から9030の時刻の状態へと変化する。
また、図9はシミュレーションの表示が停止状態であったが、本発明はこれに限定されない。例えば、シミュレーションの表示が再生状態の場合において、観察者の手4030が図9(b)と同様の動きをしたとき、時間設定部1320はシミュレーションの再生速度を下げる設定や、止める設定や、逆再生の設定を行っても良い。また、例えば、シミュレーションの表示が再生状態の場合において、観察者の手4030が図9(c)と同様の動きをしたとき、時間設定部1320はシミュレーションの再生速度を上げる設定をしても良い。
さらに、本実施形態において、シミュレーションの時間情報の設定に用いる仮想物体の選択は、予め設定されたものとしていたが、仮想物体の選択は、例えば観察者による対話的操作によって設定しても良い。また例えば、画像生成部1340が生成する画像の中心にある仮想物体を選択しても良い。さらに例えば、画像生成部1340が生成する画像において、表示サイズが大きい仮想物体を選択しても良いし、いかなる条件によって選択しても良い。
<実施形態4>
上記実施形態では、シミュレーションとして動作シミュレーションを用いたが、本発明はこれに限定されない。すなわち、本発明の画像処理装置は、観察者の所定部位の位置姿勢からシミュレーション時刻を設定する目的であれば、いかなるシミュレーションでも良い。
<実施形態5>
上記実施形態では、シミュレーション時刻の設定に用いた観察者の所定部位は手としていたが、本発明における観察者の所定部位は手だけに限定されない。即ち、シミュレーション時刻を設定する目的であれば、所定部位は手に限らず、指先、腕、肘、足、腿、膝、すね等の体の部位であっても良い。
また、観察者の所定部位は単一としていたが、本発明はこれに限定されない。即ち、例えば、両手の位置姿勢を所定部位としても良いし、両足の位置姿勢を所定部位としても良い。さらに、例えば、モーションキャプチャー技術を用いて推定した部位を所定部位としても良い。
加えて、観察者の所定部位は人体の部位には限定されない。即ち、観察者の所定部位は、冶工具、装身具、履物等の物品を人体に対して装着や把持できる部位であっても良い。
<実施形態6>
上記実施形態では、時間設定部1320が設定するシミュレーションの時間情報の設定方法は予め決められているが、シミュレーションの時間情報の設定方法についてはこれに限定されない。オペレータがシミュレーションの時間情報の設定に関する設定ファイルを対話的操作によって変更しても良い。また、シミュレーションの時間情報の設定方法を定めるGUIを備えて、シミュレーションの時間情報の設定方法を定めても良い。
さらに、時間設定部1320が行うシミュレーションの時間情報の設定は、シミュレーション結果の表示状態によって変化しても良い。例えば、時間設定部1320が行うシミュレーションの時間情報の設定はシミュレーション結果の表示状態が停止している時に行われ、再生している時には行われないようにしても良い。また例えば、シミュレーション結果の表示状態が再生時、停止時、早送り時、逆再生時、巻戻し時の夫々によって、観察者の所定部位の位置姿勢や位置姿勢の時間的な変化が同様であっても、時間設定部1320が行う時間情報の設定は異なっても良い。
<実施形態7>
上記の実施形態では、HMDは観察者に仮想現実空間を提示する装置であったが、HMDは現実空間を透過して見る機構を備え、観察者に複合現実空間を提示する光学シースルータイプのHMDであっても良い。
また、現実空間を撮像して、撮像した現実空間の画像と仮想空間の画像を合成して観察者に複合現実空間を提示するビデオシースルータイプのHMDであっても良い。図10は、ビデオシースルータイプのHMD10000を利用した場合を示した図である。図1と同じ部分については同じ番号をつけており、その説明を省略する。
10010は、ビデオカメラなどの撮像装置であり、現実空間の動画像を撮像するものである。そして撮像装置10010は、撮像した動画像を構成する各フレームの画像(現実空間画像)を順次、画像処理装置10100に対して送出する。撮像装置10010はそれぞれ右目用と左目用とが設けられており、それぞれ、HMD10000を頭部に装着した観察者の右目から見える現実空間の動画像、左目から見える現実空間の動画像を撮像する。
画像入力部10110は、撮像装置10010から送出された右目用の現実空間画像、左目用の現実空間画像を取得する。そして取得したそれぞれの現実空間画像をデータ記憶部1350に格納する。
画像合成部10120は先ず、自身が管理するメモリ上に、データ記憶部1350に格納されている現実空間画像を描画する。そして描画したこの現実空間画像上に、画像生成部10120が生成した仮想空間画像を重畳描画することで、係るメモリ上に現実空間画像と仮想空間画像との合成画像を生成する。そしてこの生成した合成画像をHMD10000の表示装置1010に対して出力する。
図11は、画像処理装置10100が、複合現実空間画像を生成し、HMD10000に対して出力するために行う処理のフローチャートである。図3と同じ部分については同じ番号をつけており、その説明を省略する。
先ず、ステップS11010では、画像入力部10110は、撮像装置10010から送出された現実空間画像(撮像結果)を取得(キャプチャ)する。
次に、ステップS11020では、画像合成部10120は、自身が管理するメモリ上に、ステップS11010で取得した現実空間画像を描画する。そして次に、画像合成部10120は上記メモリ上に描画した現実空間画像上に、画像生成部1340が生成した仮想空間画像を重畳描画することで、係るメモリ上に現実空間画像と仮想空間画像との合成画像を生成する。そして、この生成した合成画像をHMD10000の表示装置10010に対して出力する。
次に、本処理の終了指示が入力された、若しくは本処理を終了する条件が満たされた場合には本処理を終了する。一方、本処理の終了指示は入力されてもいないし、本処理を終了する条件も満たされていない場合には、ステップS11030を介して、処理をステップS11010に戻す。
<実施形態8>
上記実施形態では、位置姿勢を計測するセンサーとして磁気センサーを用いたが、画像処理により位置姿勢を計測しても良い。また、赤外光を用いて位置
姿勢を計測しても良いし、超音波を用いて位置姿勢を計測しても良いし、機械的に位置姿勢を計測しても良い。
<実施形態9>
上記実施形態では、観察者は1人であったが、本発明は複数人の観察者によって行われても良い。このとき、時間設定部1320が行うシミュレーションの時間情報の設定は、例えば複数人の観察部位の位置姿勢を用いて設定しても良い。また例えば、仮想物体に対して近い観察者の所定部位の位置姿勢を、仮想物体に対して遠い観察者の所定部位の位置姿勢よりも優先的に用いて設定しても良い。さらに例えば、時間情報を設定できる観察者を予め設定しても良いし、対話的操作等により時間情報を設定できる観察者を変更しても良い。
<実施形態10>
図1や図10に示した、画像処理装置1300、10100を構成する各部は全て、上記実施形態ではハードウェアで構成されているとして説明した。しかし、その一部をソフトウェアで構成しても良い。その場合、残りの部分をハードウェアとして実装しているコンピュータに、このソフトウェアを実行させることで、このコンピュータは、上記実施形態で説明した画像処理装置1100の動作を行うことになる。
図2は、画像処理装置1300、10100に適用可能なコンピュータのハードウェア構成例を示すブロック図である。
CPU2001は、RAM2002やROM2003に格納されているプログラムやデータを用いて、コンピュータ全体の制御を行うと共に、上記各実施形態で画像処理装置1300、10100が行うものとして説明した上述の各処理を実行する。
RAM2002は、外部記憶装置2007や記憶媒体ドライブ2008からロードされたプログラムやデータを一時的に記憶するための領域を有する。更にRAM2002は、I/F(インターフェース)2009を介して外部から受信したデータ(図1の場合、磁気計測結果)を一時的に記憶するためのエリアを有する。このとき、外部とは磁気センサー1020、1100、撮像装置10010を指す。また、外部からの受信データとは、図1の場合、磁気計測結果、現実空間画像を指す。更に、RAM2002は、CPU2001が各処理を実行する際に用いるワークエリアも有する。即ち、RAM2002は、各種エリアを適宜提供することができる。例えば、RAM2002は、図1に示したデータ記憶部1350としても機能する。
ROM2003には、コンピュータの設定データやブートプログラムなどが格納されている。
キーボード2004,マウス2005は、操作入力装置の一例としてのものであり、コンピュータのユーザが操作することで、各種の指示をCPU2001に対して入力することができる。
表示部2006は、CRTや液晶画面などにより構成されており、CPU2001による処理結果を画像や文字などで表示することができる。例えば、表示部2006には、HMD1000の位置姿勢計測のために表示すべきメッセージなどを表示することができる。
外部記憶装置2007は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置2007には、OS(オペレーティングシステム)や、画像処理装置1300が行うものとして説明した上述の各処理をCPU2001に実行させるためのプログラムやデータが格納されている。係るプログラムには、位置姿勢算出部1310、物理パラメータ1320、シミュレータ部1330、画像生成部1340、画像入力部10110、画像合成部10120のそれぞれに対応するプログラムが含まれている。また、係るデータには、仮想空間のデータや、上述の説明において、既知の情報として説明したものが含まれている。外部記憶装置2007に保存されているプログラムやデータは、CPU2001による制御に従って適宜RAM2002にロードされる。CPU2001はこのロードされたプログラムやデータを用いて処理を実行することで、画像処理装置1300、10100が行うものとして上述した各処理を実行することになる。なお、外部記憶装置2007は、図1、図10に示したデータ記憶部1350として用いても良い。
記憶媒体ドライブ2008は、CD−ROMやDVD−ROMなどの記憶媒体に記録されたプログラムやデータを読み出したり、係る記憶媒体にプログラムやデータを書き込んだりする。なお、外部記憶装置2007に保存されているものとして説明したプログラムやデータの一部若しくは全部をこの記憶媒体に記録しておいても良い。記憶媒体ドライブ2008が記憶媒体から読み出したプログラムやデータは、外部記憶装置2007やRAM2002に対して出力される。
I/F2009は、撮像装置10010を接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポート、また、合成画像をHMD1000の表示装置1010に対して出力するためのイーサネット(登録商標)ポートなどによって構成される。I/F2009を介して受信したデータは、RAM2002や外部記憶装置2007に入力される。なお、図10に示した画像入力部10010の機能の一部は、I/F2009によって実現される。また、位置姿勢の取得にセンサシステムを用いる場合、このI/F2009には、センサシステムを接続することになる。
2010は、上述の各部を繋ぐバスである。
<その他の実施形態>
尚、本発明は、ソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図示したフローチャートに対応したコンピュータ読み取り可能なプログラムである。
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどとの協働で実施形態の機能が実現されてもよい。この場合、OSなどが、実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される。

Claims (14)

  1. シミュレーションを行うシミュレーション手段と、
    前記シミュレーションの結果に基づいて仮想空間の画像を生成して表示する表示手段と、
    表示される前記仮想空間を観察する観察者の所定部位の位置及び姿勢を算出する算出手段と、
    前記観察者の所定部位の位置及び姿勢に基づいて、結果を表示すべき前記シミュレーションの時刻を設定する設定手段とを有することを特徴とする画像処理装置。
  2. 前記設定手段は前記観察者の所定部位の位置姿勢における時間的な変化に基づいて、シミュレーションの時間に関する設定を行うことを特徴とする請求項1に記載の画像処理装置。
  3. 前記算出手段が更に、前記観察者の頭部の位置及び姿勢も算出することを特徴とする請求項1乃至2に記載の画像処理装置。
  4. 前記表示手段が、前記観察者の頭部に装着する頭部装着型表示装置を有することを特徴とする請求項1乃至3に記載の画像処理装置。
  5. 前記頭部装着型表示装置が現実空間を透過させて表示することを特徴とする請求項1乃至4に記載の画像処理装置。
  6. 更に、現実空間の映像を撮像する撮像手段を備え、前記表示手段は、前記仮想物体の画像を当該撮像手段によって撮像された現実空間の映像に重畳して表示することを特徴とする請求項1乃至5に記載の画像処理装置。
  7. 前記所定部位は手であることを特徴とする請求項1乃至6に記載の画像処理装置。
  8. 前記所定部位は、前記観察者が物品を把持または装着する部位であることを特徴とする請求項1乃至7に記載の画像処理装置。
  9. 前記設定手段は、前記観察者の頭部の位置姿勢を利用して設定を行うことを特徴とする請求項1乃至8に記載の画像処理装置。
  10. 前記仮想空間内の仮想物体の位置及び姿勢を算出する手段を更に備え、前記設定手段が当該仮想物体の位置姿勢の時間的な変化を利用することを特徴とする請求項1乃至9に記載の画像処理装置。
  11. 前記算出手段は、複数の所定部位の位置及び姿勢を算出し、前記設定手段は、当該複数の所定部位の位置姿勢を利用することを特徴とする請求項1乃至10に記載の画像処理装置。
  12. 前記算出手段は、複数の観察者について所定部位の位置姿勢を算出する手段を備え、前記設定手段は、当該複数の観察者における所定部位の位置姿勢を利用することを特徴とする請求項1乃至11に記載の画像処理装置。
  13. シミュレーションを行うシミュレーション工程と、
    前記シミュレーションの結果に基づいて仮想空間の画像を生成して表示する表示工程と、
    表示される前記仮想空間を観察する観察者の所定部位の位置及び姿勢を算出する算出工程と、
    前記観察者の所定部位の位置及び姿勢に基づいて、結果を表示すべき前記シミュレーションの時刻を設定する設定工程とを備えたことを特徴とする画像処理方法。
  14. コンピュータに請求項13に記載の画像処理方法を実行させるためのプログラム。
JP2009149057A 2009-06-23 2009-06-23 画像処理方法及び画像処理装置 Pending JP2011008351A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009149057A JP2011008351A (ja) 2009-06-23 2009-06-23 画像処理方法及び画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009149057A JP2011008351A (ja) 2009-06-23 2009-06-23 画像処理方法及び画像処理装置

Publications (1)

Publication Number Publication Date
JP2011008351A true JP2011008351A (ja) 2011-01-13

Family

ID=43564973

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009149057A Pending JP2011008351A (ja) 2009-06-23 2009-06-23 画像処理方法及び画像処理装置

Country Status (1)

Country Link
JP (1) JP2011008351A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014050966A1 (ja) * 2012-09-27 2014-04-03 京セラ株式会社 表示装置、制御システムおよび制御プログラム
JP2017148530A (ja) * 2013-09-30 2017-08-31 株式会社ソニー・インタラクティブエンタテインメント 物理オブジェクトの画像をフェードアウトする方法
JPWO2018194137A1 (ja) * 2017-04-19 2019-11-07 小柳建設株式会社 情報処理装置、情報処理方法、及びプログラム
JP2020024497A (ja) * 2018-08-06 2020-02-13 東芝プラントシステム株式会社 画像処理装置、及び画像処理方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014050966A1 (ja) * 2012-09-27 2014-04-03 京セラ株式会社 表示装置、制御システムおよび制御プログラム
US9619941B2 (en) 2012-09-27 2017-04-11 Kyocera Corporation Virtual play area display device, control system, and control program
JP2017148530A (ja) * 2013-09-30 2017-08-31 株式会社ソニー・インタラクティブエンタテインメント 物理オブジェクトの画像をフェードアウトする方法
JPWO2018194137A1 (ja) * 2017-04-19 2019-11-07 小柳建設株式会社 情報処理装置、情報処理方法、及びプログラム
CN110770798A (zh) * 2017-04-19 2020-02-07 小柳建设株式会社 信息处理装置、信息处理方法及程序
US10950050B2 (en) 2017-04-19 2021-03-16 Oyanagi Construction Inc. Information processing device, information processing method, and program for planning and execution of work plan
CN110770798B (zh) * 2017-04-19 2024-03-19 小柳建设株式会社 信息处理装置、信息处理方法及计算机可读存储介质
JP2020024497A (ja) * 2018-08-06 2020-02-13 東芝プラントシステム株式会社 画像処理装置、及び画像処理方法
JP7098473B2 (ja) 2018-08-06 2022-07-11 東芝プラントシステム株式会社 画像処理装置、及び画像処理方法

Similar Documents

Publication Publication Date Title
JP5414380B2 (ja) 画像処理方法及び画像処理装置
US8217995B2 (en) Providing a collaborative immersive environment using a spherical camera and motion capture
US8615383B2 (en) Immersive collaborative environment using motion capture, head mounted display, and cave
JP4950834B2 (ja) 画像処理装置、画像処理方法
CA2662318C (en) Immersive collaborative environment using motion capture, head mounted display, and cave
US8378997B2 (en) Information processing method and device for presenting haptics received from a virtual object
JP4500632B2 (ja) 仮想現実感提示装置および情報処理方法
JP5845211B2 (ja) 画像処理装置、画像処理方法
JP5430565B2 (ja) 電子ミラー装置
CN103744518B (zh) 立体交互方法及其显示装置和系统
JP2009276996A (ja) 情報処理装置、情報処理方法
JP2008210276A (ja) 三次元モデル情報の生成方法及び装置
JP2009123018A (ja) 画像処理装置、画像処理方法
JP2006302034A (ja) 画像処理方法、画像処理装置
JP2017134771A (ja) 情報処理装置、情報処理方法、プログラム
JP2008134373A (ja) 手術シミュレータ用生体データ作成方法及びシステム、並びに手術シミュレーション方法及び手術シミュレータ
JP2011008351A (ja) 画像処理方法及び画像処理装置
JP2009087161A (ja) 画像処理装置、画像処理方法
JP2009048237A (ja) 画像処理装置、画像処理方法
Saggio et al. Augmented reality for restoration/reconstruction of artefacts with artistic or historical value
JP2005107972A (ja) 複合現実感提示方法、複合現実感提示装置
Anvari et al. 3D human body pose estimation in virtual reality: a survey
US11887259B2 (en) Method, system, and apparatus for full-body tracking with magnetic fields in virtual reality and augmented reality applications
JP2006085375A (ja) 画像処理方法、画像処理装置
JP2007293412A (ja) 情報処理方法および装置