JP2006178661A - 情報処理方法および装置 - Google Patents

情報処理方法および装置 Download PDF

Info

Publication number
JP2006178661A
JP2006178661A JP2004369917A JP2004369917A JP2006178661A JP 2006178661 A JP2006178661 A JP 2006178661A JP 2004369917 A JP2004369917 A JP 2004369917A JP 2004369917 A JP2004369917 A JP 2004369917A JP 2006178661 A JP2006178661 A JP 2006178661A
Authority
JP
Japan
Prior art keywords
image
virtual
information
display
parts
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2004369917A
Other languages
English (en)
Inventor
Taichi Matsui
太一 松井
Masakazu Fujiki
真和 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2004369917A priority Critical patent/JP2006178661A/ja
Publication of JP2006178661A publication Critical patent/JP2006178661A/ja
Withdrawn legal-status Critical Current

Links

Images

Abstract

【課題】 用途に応じて簡略されたCGデータを簡単に作成できるようにすること。
【解決手段】 CG生成部106は現実画像の視点位置姿勢情報に基づき複数のパーツで構成される仮想物体に関する3次元CGモデルから仮想画像を生成し、画像合成部103はこの仮想画像と現実画像とを合成することにより複合現実空間画像を生成し、モデルデータ再構築部109は仮想画像におけるパーツの状態を示すパーツ画像情報に基づき、3次元CGモデルを再構成する。
【選択図】 図1

Description

本発明は、仮想物体の画像を生成する為の技術に関するものである。
現実空間映像と仮想空間映像とを重畳して複合現実空間映像を生成するMR(Mixed Reality)システムが従来から存在する(特許文献1を参照)。このシステムでは、観察者はヘッドマウントディスプレイ(HMD)を頭部に装着し、このHMDに備わっている表示部に表示される複合現実空間を観察する。
複合現実空間には仮想空間の3DCGモデルが表示されている。この3DCGモデルの複雑さは、システムに負荷を掛け、複合現実空間映像のフレームレートに影響を与える。例えば仮想空間を100万ポリゴンで表現する場合には毎秒30フレームで表示可能であったとしても、仮想空間を200万ポリゴンで表現すればその表示は毎秒10フレームに落ちてしまう場合がある。
また、MRシステムでは観察者が動きながら任意の視点で複合現実空間を観察することができる。その際に観察者がストレスなく観察を行うためには描画レートは大体毎秒30フレーム程度が必要とされる。そこで実際の運用においては十分なフレームレートで表示できるような3DCGモデルを使用することになる。
特開2004−62758号公報
しかしながら、世の中に存在する3DCGデータはMRシステムで表示するために作成された訳ではない。即ち、表現したい仮想空間によってはより多くのポリゴン数を必要とする場合もある。
そこでこのようにポリゴン数の多い仮想空間を複合現実空間中に表示する場合、従来では、一律にポリゴン数を減らしてデータの削減を行ったり、仮想空間を構成する部品を選んで省いていくといった作業が必要となる。
しかし、ポリゴン数の削減はモデルの形を崩す場合があるし、部品を手で選択して削減する場合は観察に不要な部品を選択するのが難しい。
本発明は以上の問題に鑑みて成されたものであり、用途に応じて簡略されたCGデータを簡単に作成できるようにすることを目的とする。
本発明の目的を達成するために、例えば本発明の情報処理方法は以下の構成を備える。
即ち、現実画像を取得する現実画像取得工程と、
現実画像の視点位置姿勢情報を取得する位置姿勢取得工程と、
前記視点位置姿勢情報に基づき、複数のパーツで構成される仮想物体に関する3次元CGモデルから仮想画像を生成する仮想画像生成工程と、
前記現実画像と前記仮想画像を合成することにより複合現実空間画像を生成する合成工程と、
前記仮想画像におけるパーツの状態を示すパーツ画像情報を求めるパーツ画像情報取得工程と、
前記パーツ画像情報に基づき、前記3次元CGモデルを再構成する再構成工程とを有することを特徴とする。
本発明の目的を達成するために、例えば本発明の情報処理装置は以下の構成を備える。
即ち、現実画像を取得する現実画像取得手段と、
現実画像の視点位置姿勢情報を取得する位置姿勢取得手段と、
前記視点位置姿勢情報に基づき、複数のパーツで構成される仮想物体に関する3次元CGモデルから仮想画像を生成する仮想画像生成手段と、
前記現実画像と前記仮想画像を合成することにより複合現実空間画像を生成する合成手段と、
前記仮想画像におけるパーツの状態を示すパーツ画像情報を求めるパーツ画像情報取得手段と、
前記パーツ画像情報に基づき、前記3次元CGモデルを再構成する再構成手段とを有することを特徴とする。
本発明の構成により、用途に応じて簡略されたCGデータを簡単に作成できるようにすることができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
図1は、本実施形態に係るシステムの機能構成を示す図である。同図に示す如く、本システムは大まかには、ビデオシースルー型HMD132、コンピュータ101、位置姿勢計測部150により構成されている。
コンピュータ101は同図に示す如く、画像合成部103、画像出力部104、画像入力部102、位置姿勢入力部105、CG生成部106、表示CG情報記録部107、表示CG解析部108、モデルデータ再構築部109、CGデータ入力部110により構成されている。
ビデオシースルー型HMD132は同図に示す如く、画像入力部135、画像表示部136、カメラ133、画像出力部134により構成されている。
次に、以上の各部の動作について説明する。ビデオシースルー型HMD132は、現実空間と仮想空間とが融合した複合現実空間を観察する観察者が自身の頭部に装着するものである。
このビデオシースルー型HMD132に備わっているカメラ133は現実空間の動画像を撮像するものであり、撮像した各フレームの画像は順次画像出力部134によりコンピュータ101側の画像入力部102に出力される。画像入力部102は、入力した現実空間の画像(フレーム画像)を画像合成部103に出力する。
一方で、位置姿勢計測部150は、カメラ133の位置姿勢を計測するためのものであり、その計測結果はコンピュータ101側の位置姿勢入力部105に入力される。この位置姿勢計測部150は、例えばカメラ133の近傍位置に設けられたものであり、例えば位置姿勢計測部150が磁気センサである場合には、磁気発生源の位置を原点とし、この原点で互いに直交する3軸をそれぞれx、y、z軸とする座標系(センサ座標系)における位置姿勢計測部150の位置姿勢に応じた磁気の変化を計測し、これを計測結果として位置姿勢入力部105に入力する。なお、以下ではカメラ133を「視点」と呼称する場合がある。位置姿勢入力部105は位置姿勢計測部150から受けた計測結果をデータとしてCG生成部106に出力する。
また、CGデータ入力部110は、仮想空間の画像を描画するために必要なデータであるCGデータ121を入力し、これをCG生成部106に出力する。
CG生成部106は、位置姿勢入力部105から入力した計測結果を用いて視点のセンサ座標系における位置姿勢を求め(例えば予め位置姿勢計測部150とカメラ133との位置姿勢関係をデータとして求めておき、これを用いて、位置姿勢計測部150の計測結果を補正することで、センサ座標系におけるカメラ133の位置姿勢を求めることができる)、求めた位置姿勢の視点から観察される仮想空間の画像をCGデータ121を用いて生成する。なお、所定の位置姿勢を有する視点から観察される仮想空間の画像を生成する処理については周知のものであるので、これに関する説明は省略する。
画像合成部103は、画像入力部102から入力した現実空間の画像上に生成された仮想空間の画像を重畳することにより複合現実空間の画像を生成し、画像出力部104に出力する。画像出力部104は複合現実空間の画像をビデオシースルー型HMD132に備わっている画像入力部135に出力する。画像出力部135は入力した複合現実空間の画像を画像表示部136に出力し、画像表示部136は入力した複合現実空間の画像を表示する。
画像表示部136はビデオシースルー型HMD132を頭部に装着した観察者の眼前に複合現実空間の画像を提示することができる。
仮想空間は1以上の仮想物体により構成されており、更に1つの仮想物体は1以上のパーツにより構成されている。よってこの仮想物体の数やパーツの数が多いと、表示レートを落とさないと表示できなくなってしまう。そこで、本実施形態では、CGデータ121に格納されているモデルデータを再構築するモデルデータ再構築モードを備え、用途に応じた簡略モデルデータを生成する機能を有する。
モデルデータ再構築モードが設定された場合は、CG生成部106は、視点の位置姿勢の取得処理、現実空間の画像の取得処理、CGデータ121の取得処理、仮想空間の生成処理に加え、生成した仮想空間の画像上に表示された仮想物体のそれぞれについて、画像上に表示されたパーツの表示サイズ、表示時間などを求め、求めた表示サイズ、表示時間などの表示CG情報(パーツ画像情報)を表示CG情報記録部107に記録する。
表示CG情報記録部107は表示CG情報(パーツ画像情報)をフレーム毎に記録する。モデルデータ再構築部109は、フレーム毎に記録された各パーツの表示サイズや表示時間に基づいて、仮想物体を構成する各パーツから実際に表示に使用するパーツを選択し、選択したパーツのみで仮想物体が構成されるように新CGデータ122を生成する。
モデルデータ再構築モードによれば、実際に複合現実空間を体験する際に不必要または重要でないパーツの描画を削除することにより得られる新CGデータ122を、CG121から生成することができる。
新CGデータ122を使用して、通常モードにより複合現実空間を体験することにより、仮想物体の描画にかかる計算負荷を低減することができ、表示レートを落とさずに表示することができる。
図9は、上記コンピュータ101の基本構成を示す図である。
同図において901はCPUで、RAM902やROM903に格納されているプログラムやデータを用いて本コンピュータ101全体の制御を行うと共に、コンピュータ101が行う各処理を実行する。例えばCPU901は、図1に示した画像合成部103、画像出力部104、画像入力部102、位置姿勢入力部105、CG生成部106、表示CG情報記録部107、表示CG解析部108、モデルデータ再構築部109、CGデータ入力部110の各部の機能を有する。即ち、各部が行う処理を実行する。
902はRAMで、外部記憶装置906からロードされたプログラムやデータ、I/F907,908から入力された各種のデータを一時的に記憶するためのエリアを備えると共に、CPU901が各種の処理を実行する際に用いるワークエリアを備える。
903はROMで、本コンピュータ101の設定データやブートプログラムなどを格納する。
904は操作部で、キーボードやマウスなどにより構成されており、本コンピュータ101の操作者が操作することで、各種の指示をCPU901に対して入力することができる。
905は表示部で、CRTや液晶画面などにより構成されており、CPU901による処理結果を画像や文字などもでって表示することができる。
906は外部記憶装置で、ハードディスクドライブ装置などの大容量情報記憶装置であって、ここにOS(オペレーティングシステム)や、CPU901にコンピュータ101が行う各処理を実行させるためのプログラムやデータが保存されており、これらの一部、若しくは全部はCPU901の制御に従ってRAM902にロードされ、CPU901による処理対象となる。なお、外部記憶装置906に保存されているデータには、上記CGデータ121も含まれており、このCGデータ121は、仮想空間を構成する各仮想物体の画像を描画するために必要なデータであって、例えば各仮想物体がポリゴンにより構成されている場合には、各ポリゴンの頂点の位置データ、ポリゴンの法線データ、ポリゴンカラーデータであり、これらは仮想物体が複数のパーツからなる場合にはそれぞれのパーツ毎に管理されている。また、仮想物体に対してテクスチャマッピングを行う場合には、このテクスチャマッピングに用いるテクスチャのデータも外部記憶装置906に保存されている。
907はI/Fで、本コンピュータ101とビデオシースルー型HMD132とを繋ぐためのものであり、このI/F907を介して本コンピュータ101はビデオシースルー型HMD132とのデータ通信を行うことができる。
908はI/Fで、本コンピュータ101と位置姿勢計測部150とを繋ぐためのものであり、このI/F908を介して本コンピュータ101は位置姿勢計測部150とのデータ通信を行うことができる。
909は上述の各部を繋ぐバスである。
次に、以上説明したシステムの運用について説明する。図2は、本システムの使用者(上記観察者に相当)202と仮想物体を配置する台201とを示す図である。本実施形態ではこの仮想物体としてプリンタを用いるが、以下の説明の本質がこのモデルに限定するものではないことは以下の説明により明らかであろう。
図3は、ビデオシースルー型HMD132を頭部に装着した観察者202と、台201、そしてこの台201の上に配置された仮想物体としてのプリンタ301を示す図である。なお、同図のプリンタ301は実際にはそこに存在するものではなく、ビデオシースルー型HMD132を頭部に装着した観察者202のみが見えているものである。
本実施形態では観察者202はビデオシースルー型HMD132を頭部に装着したままで、プリンタ301のモデルを複数の方向から観察する。図4は、観察者202がこのプリンタ301のモデルを複数の方向から観察する様子を示す図である。同図に示す如く、観察者202は、202a〜202eに示す各位置に立ってプリンタ301のモデルを観察する。これにより、コンピュータ101は、それぞれの視点位置から見えるプリンタ301のモデルの画像を生成することになる。
図5(a)〜(d)はそれぞれ、プリンタ301のモデルを正面、上、右、左の4つの方向から見た場合に見えるプリンタ301のモデルの画像を示す図である。即ち、観察者がプリンタ301のモデルを正面、上、右、左の4つの方向から見た場合に、それぞれの視点の位置姿勢に基づいてコンピュータ101が生成した仮想空間の画像がそれぞれ図5(a)〜(d)に示したものである。
同図に示す如く、プリンタ301のモデルを様々な方向から見た場合に、見えるパーツと見えないパーツとが存在する。また、見えていてもその表示サイズが著しく小さいものもある。よって観察者がプリンタ301のモデルを見る場合に、存在しなくても観察者には気づかれない、若しくは気づかれにくいパーツがある。よって本実施形態では、プリンタ301のモデルを構成する全てのパーツのうち、実際に表示に使用するパーツを決定し、決定したパーツのみでプリンタ301のモデルを構成するよう、プリンタ301のモデルのデータを再構成する。
図6は、このような再構成処理のフローチャートである。なお、同図のフローチャートに従った処理をCPU901に実行させるためのプログラムやデータは外部記憶装置906に保存されており、必要に応じてCPU901の制御に従ってRAM902にロードされ、CPU901がこのロードされたプログラムやデータを用いて処理を行うことで、コンピュータ101は以下説明する各処理を実行することになる。
先ず、位置姿勢計測部150が計測した自身の位置姿勢を示す情報(位置姿勢情報)がI/F908を介してコンピュータ101に入力されるので、CPU901はこれを一時的にRAM902に取得(記録)する(ステップS601)と共に、I/F907を介してカメラ133が撮像した各フレームの現実空間の画像が入力されるので、CPU901はこれを順次RAM902に取得(記録)する処理を行う(ステップS602)。
次にCPU901は、視点の位置姿勢を算出するのであるが、算出方法としては例えば、予め位置姿勢計測部150とカメラ133との位置姿勢関係をデータとして求めておき、これを用いて、位置姿勢計測部150の計測結果を補正することにより、センサ座標系における視点の位置姿勢を求める(ステップS603)。なお、算出方法についてはこれに限定するものではないし、求める視点の位置姿勢が属する座標系についても、適宜変更しても良い。
次にCPU901は、ステップS603で求めた位置姿勢の視点から見える仮想空間の画像を生成する処理を行う(ステップS604)。ここで、仮想空間の画像を生成する場合には、外部記憶装置906に保存されている「CGデータ121」に基づいて生成する。本実施形態の場合には仮想空間にはプリンタ301のモデルのみが存在するので、CPU901は、ステップS603で求めた位置姿勢の視点から見えるプリンタ301のモデルの画像を生成する。
そして次に、ステップS602でRAM902上に取得した現実空間の画像上に、ステップS604で生成した仮想空間の画像を重畳させた画像である複合現実空間画像を生成し(ステップS605)、これをI/F907を介してビデオシースルー型HMD132に出力する(ステップS606)。
次にCPU901は、現在設定されているモードをチェックする(ステップS607)。モードの選択は本フローチャートに従った処理を開始する前に操作者が操作部904を操作して、図10に示した操作画面を用いて行われる。図10はモードを選択するためのGUIの表示例を示す図で、同図のGUIは表示部905の表示画面上に表示される。
同図のGUIでは通常モード、モデルデータ再構築モードの何れかのモードを選択することができ、更にモデルデータ再構築モードを選択した場合にはモデルデータを再構築する(CGデータ121から新CGデータ122を作成する)ために用いる基準(基準1〜基準5)を選択することができる。それぞれの基準については後述する。
設定されているモードが通常モードである場合は、処理をステップS608に進め、操作部904の操作により本処理を終了する指示が入力されているのかを判断し、入力されている場合には本処理を終了し、入力されていない場合には処理をステップS601に戻し、以降の処理を繰り返す。
一方、ステップS607におけるチェック処理の結果、モデルデータ再構築モードが設定されている場合には処理をステップS609に進め、先ず、ステップS604において生成した仮想空間の画像に含まれている仮想物体毎に、表示されている各パーツの表示状態を示す情報(パーツ画像情報)をこの画像から取得し、これをRAM902に記録する(ステップS609)。本実施形態の場合には仮想空間にはプリンタ301のモデルのみが存在するので、このプリンタ301のモデルを構成する各パーツのパーツ画像情報をRAM902に記録する。このパーツ画像情報については後述する。
そして、ステップS609における記録処理を完了する旨の指示は操作部904を介して入力するのであるが、ステップS609における記録処理を完了する旨の指示をCPU901が検知していない場合には処理をステップS610を介してステップS608に進める。即ち、記録処理の終了を指示しない限り、各フレームの仮想空間の画像について、パーツ画像情報をRAM902に記録することになる。
一方、ステップS609における記録処理を完了する旨の指示が操作部904を介して入力され、CPU901がこれを検知した場合にはステップS610を介してステップS611に進め、RAM902に記録されたパーツ画像情報と設定された基準とに基づき、表示に使用するパーツを選択し、新CGデータを生成する(ステップS611)。
本実施形態の場合には仮想空間にはプリンタ301のモデルのみが存在するので、このプリンタ301のモデルを構成する各パーツのうち、実際に表示に使用されるパーツが選択される。
ここで、実際に表示に使用するパーツの選択処理について説明する。選択の基準には様々なものがあるが、本実施形態では例として以下の5つの基準を用いる。
<基準1>
モデルデータ再構築モード中に生成された各仮想空間の画像において、すくなくとも1度表示されたパーツを選択する。つまり、一度も表示されなかったパーツは選択されない。
例えば図8に示すように、プリンタ301のモデルにおいて、その内部に位置するパーツ801はどのような視点位置からも見えない。よって、このようなパーツは選択されない。即ち、プリンタ301の新CGデータには、このようなパーツは含まれない。
基準1を用いて表示対象となるパーツの選択する場合は、パーツ画像情報として、仮想物体を構成する各パーツの画像上における表示サイズ(例えば画素数)を求める。なお、画像上における各パーツの表示サイズを求める方法としては例えば以下のような方法がある。
ポリゴンを2D画面にレンダリングする部分で各パーツの表示サイズを計測する。具体的にはレンダリング時に2D画面に出力される各ドットがどのパーツの部分であるかをフレーム毎に記録していく。この記録を集計することで各パーツの画面露出度が測定される。
もしこの処理をリアルタイムにすると重い場合は観察者の位置姿勢を記録しておく。そして観察終了後に観察者の位置姿勢を再現してフレーム毎に上記処理を行う。
そして、基準1を用いて表示に使用するパーツの特定を行う際には、モデルデータ再構築モード中にRAM902に記録した各フレームにおける各パーツのパーツ画像情報を参照して、常に表示サイズが0のパーツを特定し、特定したパーツについては表示に使用しない。
図7は、パーツ画像情報を表示サイズとした場合に、10個のパーツからなる仮想物体に対するパーツ画像情報の例を示す図で、同図に示す如く、各フレームにおける各パーツの表示サイズが記録されている。よってこのような場合、部品番号1,3,6,9,10についてはモデルデータ再構築モード中(フレーム番号が1から7の仮想空間の画像を生成した期間中)に一度も画像上に表示されていないことになるので、これらのパーツは表示には使用しない。
<基準2>
モデルデータ再構築モード中にRAM902上に生成した仮想空間の画像において、表示サイズが所定サイズ以上のパーツを選択する。画像上でその表示サイズが著しく小さいものについては存在しなくても観察者には気づかれない、もしくは気づかれにくいので、このようなパーツについては表示には使用しないようにすることで、表示対象として処理するパーツの数が減らし、表示処理に係る処理負荷を軽減する。
基準2を用いて表示に使用するパーツの選択を行う場合には、基準1の場合と同様に、パーツ画像情報として表示サイズを用いる。
基準2を用いて表示に使用するパーツを選択する際は、モデルデータ再構築モード中にRAM902に記録した各フレームにおける各パーツのパーツ画像情報を参照して、表示サイズの最小値が所定の閾値以上のパーツを選択する。例えば図7の場合で、閾値を5とした場合には、部品番号1,3,6,9,10に加え、部品番号8のパーツについても表示には使用しない。
なお、閾値はそれぞれのパーツで同じものであることに限定するものではなく、それぞれのパーツのサイズ(モデルのサイズ)に応じて異ならせても良い。即ち、サイズの大きいパーツに対しては閾値をより大きくし、サイズの小さいパーツに対しては閾値をより小さくしても良い。
<基準3>
モデルデータ再構築モード中にRAM902上に生成した仮想空間の画像において、表示サイズと自身の体積(大きさ)との比が所定値以下のパーツについては表示には使用しない。よって基準3を用いて表示に使用するパーツの特定を行う場合には、基準1の場合と同様に、パーツ画像情報として表示サイズを取得する必要がある。更に、各パーツについて予め体積を求めておく必要がある。
よって、基準3を用いて表示に使用するパーツの特定を行う際には、モデルデータ再構築モード中にRAM902に記録した各フレームにおける各パーツのパーツ画像情報を参照して、体積Vと表示サイズPとの比P/Vが所定の閾値k以上のパーツを選択する。
<基準4>
モデルデータ再構築モード中にRAM902上に生成した仮想空間の画像において、表示サイズと自身の複雑さとの比が所定値以下のパーツについては表示には使用しない。よって基準4を用いて表示に使用するパーツの特定を行う場合には、基準1の場合と同様に、パーツ画像情報として表示サイズを取得する必要がある。更に、各パーツについて予め複雑さを求めておく必要がある。ここで、「複雑さ」とは、ポリゴン数のことである。従って予め各パーツについて、パーツを構成するポリゴン数を計数しておく必要がある。
よって、基準4を用いて表示に使用するパーツの特定を行う際には、モデルデータ再構築モード中にRAM902に記録した各フレームにおける各パーツのパーツ画像情報を参照して、複雑さ(ポリゴン数)Cと表示サイズPとの比P/Cが所定の閾値k以上のパーツを選択する。
<基準5>
モデルデータ再構築モード中にRAM902上に生成した仮想空間の画像において、表示時間が所定時間以上のパーツを選択する。よって基準5を用いて表示に使用するパーツを選択する場合は、パーツ画像情報として表示時間を取得する。
即ち、画像上でその表示時間が著しく短いものについては存在しなくても観察者には気づかれない、もしくは気づかれにくいので、このようなパーツについては表示には使用しないようにすることで、表示対象として処理するパーツの数を減らすことができ、表示処理に係る処理負荷を軽減することができる。
よって、基準5を用いて表示に使用するパーツを選択する際は、モデルデータ再構築モード中にRAM902に記録した各フレームにおける各パーツのパーツ画像情報を参照して、観察時間(即ち、モデルデータ再構築モード中にRAM902に記録した仮想空間画像のフレーム数)T1と、各フレームにおいて画像上に登場する回数(即ち表示時間)T2との比T2/T1が所定の時間T3以上のパーツを選択する。
なお、「所定の時間T3」はそれぞれのパーツで同じものであることに限定するものではなく、それぞれのパーツのサイズ(モデルのサイズ)に応じて異ならせても良い。即ち、サイズの大きいパーツに対しては「所定の時間T3」をより長くし、サイズの小さいパーツに対しては「所定の時間T3」をより短くしても良い。
以上のようにしてステップS611における処理、即ち、様々な基準を用いて、新CGデータとして使用するパーツを選択する。なお、上記基準は単独で用いるようにしても良いし、適宜組み合わせて用いるようにしても良い。
また、上記の選択処理では、CGデータから新CGデータとして登録するパーツを基準を用いて選択していたが、CGデータから削除するパーツを基準を用いて選択するようにしても構わない。この場合、CGデータから、選択されたパーツのデータを削除することにより新CGデータを生成することができる。
図6に戻って、表示に使用するパーツの選択処理を行った後には、各仮想物体について、仮想物体を構成する各パーツのうち、選択されたパーツのみを用いて仮想物体を構成するように、CGデータを再構成処理する(ステップS612)。本実施形態の場合には仮想空間にはプリンタ301のモデルのみが存在するので、プリンタ301のモデルを構成する各パーツのうち、表示に使用するとして選択されたパーツのみでプリンタ301のモデルを構成し、このようにして再構成されたプリンタ301のモデルのデータを生成する。即ち、上述のように、元々プリンタ301のモデルデータには、このプリンタ301のモデルを構成する各パーツ毎に、パーツを構成する各ポリゴンやテクスチャのデータが含まれているので、ステップS612ではこれらパーツ毎のデータのうち、実際に表示に使用するデータのみをこのプリンタ301のモデルデータとして残す。
このようにして、仮想物体を構成する各パーツのうち表示しなくても別段問題のないパーツについては削除することで、この仮想物体の画像を生成するための処理負荷を軽減させることができると共に、同様の目的のためにポリゴン数を削減する事で生じる「モデルの品質の劣化問題」については回避することができる。
そしてステップS612におけるモデルの再構成処理が完了すると、処理をステップS608に進める。
そしてこのようにして再構成された仮想物体のデータ(CGデータ)は次回、通常モードに設定されたときに使用される。
なお、本実施形態では、1人の観察者が仮想物体をある位置、姿勢でもって観察することでコンピュータ101が生成する仮想空間の画像に基づいて、仮想物体を構成する各パーツのうち表示に使用するパーツを特定するようにしているが、これではある位置姿勢では表示に使用しないパーツの存在は気にならなかったものが、異なる位置姿勢でこの仮想物体を観察すると突然気になることもある。
そこで図4に示したように、仮想物体を様々な位置姿勢で観察し、その結果、様々な位置姿勢毎に得られる仮想空間画像のそれぞれについて上記処理を行うようにしする。これは即ち、仮想物体を観察する際に観察者が取り得る位置姿勢全てについて仮想空間画像を得、得たそれぞれの仮想空間画像を用いて表示に使用しないパーツを選択すれば、少なくとも、観察時に取った位置姿勢のどれで観察しても、削除したパーツの存在は気にならないはずである。
またこのような場合、観察者を複数人にして、それぞれ異なる位置姿勢でもって仮想物体を観察することで、様々な位置姿勢により観察された仮想物体の画像を得るようにしても良い。また、このような画像を予め外部記憶装置906に保存しておき、これを用いるようにしてもよい。即ち、仮想空間画像の取得形態については特に限定するものではない。
また図6のフローチャートにおいて、モデルデータ再構築モードに設定されている場合にいきなりステップS609における記録処理を行うのではなく、操作部904を介した指示が検出された時にのみ記録処理を行うようにしても良い。
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の実施形態に係るシステムの機能構成を示す図である。 システムの使用者202と仮想物体を配置する台201とを示す図である。 ビデオシースルー型HMD132を頭部に装着した観察者202と、台201、そしてこの台201の上に配置された仮想物体としてのプリンタ301を示す図である。 観察者202がこのプリンタ301のモデルを複数の方向から観察する様子を示す図である。 プリンタ301のモデルを正面、上、右、左の4つの方向から見た場合に見えるプリンタ301のモデルの画像を示す図である。 再構成処理のフローチャートである。 パーツ画像情報を表示サイズとした場合に、10個のパーツからなる仮想物体に対するパーツ画像情報の例を示す図である。 プリンタ301のモデルを示す図である。 コンピュータ101の基本構成を示す図である。 モードを選択するためのGUIの表示例を示す図である。

Claims (11)

  1. 現実画像を取得する現実画像取得工程と、
    現実画像の視点位置姿勢情報を取得する位置姿勢取得工程と、
    前記視点位置姿勢情報に基づき、複数のパーツで構成される仮想物体に関する3次元CGモデルから仮想画像を生成する仮想画像生成工程と、
    前記現実画像と前記仮想画像を合成することにより複合現実空間画像を生成する合成工程と、
    前記仮想画像におけるパーツの状態を示すパーツ画像情報を求めるパーツ画像情報取得工程と、
    前記パーツ画像情報に基づき、前記3次元CGモデルを再構成する再構成工程とを有することを特徴とする情報処理方法。
  2. 前記パーツ画像情報は表示サイズであり、
    前記再構成工程は、表示サイズに基づき、仮想画像を生成する際に必要なパーツを選択することを特徴とする請求項1記載の情報処理方法。
  3. 前記再構成工程は、表示の有無に基づき、仮想画像を生成する際に必要なパーツを選択することを特徴とする請求項1記載の情報処理方法。
  4. 前記パーツ画像情報は表示時間であり、
    前記再構成工程は、表示時間に基づき、仮想画像を生成する際に必要なパーツを選択することを特徴とする請求項1記載の情報処理方法。
  5. 前記再構成工程は表示サイズをパーツの大きさで除した値に基づき、仮想画像を生成する際に必要なパーツを選択することを特徴とする請求項1記載の情報処理方法。
  6. 前記再構成工程は表示サイズをパーツの複雑さで除したで値に基づき、仮想画像を生成する際に必要なパーツを選択することを特徴とする請求項1記載の情報処理方法。
  7. 前記再構成工程は、複数の基準を組み合わせて、仮想画像を生成する際に必要なパーツを選択することを特徴とする請求項2乃至6のいずれかに記載の情報処理方法。
  8. 前記再構成工程で、仮想画像を生成する際に必要なパーツを選択する際に用いる基準を、ユーザの指示に応じて設定する設定工程を更に有することを特徴とする請求項1乃至7のいずれかに記載の情報処理方法。
  9. 前記パーツ画像情報取得工程は、複数の視点における仮想画像のそれぞれについて、前記パーツ画像情報を求めることを特徴とする請求項1乃至8のいずれかに記載の情報処理方法。
  10. コンピュータに請求項1乃至9のいずれかに記載の情報処理方法を実行させることを特徴とするプログラム。
  11. 現実画像を取得する現実画像取得手段と、
    現実画像の視点位置姿勢情報を取得する位置姿勢取得手段と、
    前記視点位置姿勢情報に基づき、複数のパーツで構成される仮想物体に関する3次元CGモデルから仮想画像を生成する仮想画像生成手段と、
    前記現実画像と前記仮想画像を合成することにより複合現実空間画像を生成する合成手段と、
    前記仮想画像におけるパーツの状態を示すパーツ画像情報を求めるパーツ画像情報取得手段と、
    前記パーツ画像情報に基づき、前記3次元CGモデルを再構成する再構成手段とを有することを特徴とする情報処理装置。
JP2004369917A 2004-12-21 2004-12-21 情報処理方法および装置 Withdrawn JP2006178661A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004369917A JP2006178661A (ja) 2004-12-21 2004-12-21 情報処理方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004369917A JP2006178661A (ja) 2004-12-21 2004-12-21 情報処理方法および装置

Publications (1)

Publication Number Publication Date
JP2006178661A true JP2006178661A (ja) 2006-07-06

Family

ID=36732728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004369917A Withdrawn JP2006178661A (ja) 2004-12-21 2004-12-21 情報処理方法および装置

Country Status (1)

Country Link
JP (1) JP2006178661A (ja)

Similar Documents

Publication Publication Date Title
JP4950834B2 (ja) 画像処理装置、画像処理方法
US8866811B2 (en) Image processing apparatus and image processing method
CN114897754B (zh) 使用来自先前视角的渲染内容和非渲染内容生成新帧
JP2009025918A (ja) 画像処理装置、画像処理方法
US8184907B2 (en) Image processing method and image processing apparatus
JP2006285609A (ja) 画像処理方法、画像処理装置
JP4574323B2 (ja) 画像処理方法、画像処理装置
JP2008146497A (ja) 画像処理装置、画像処理方法
JP4283303B2 (ja) 画像表示制御装置、画像表示制御プログラム及び画像表示制御方法
US11551383B2 (en) Image generating apparatus, image generating method, and program for generating an image using pixel values stored in advance
JP2007148567A (ja) 画像処理方法、画像処理装置
JP5808004B2 (ja) 画像処理装置、画像処理方法、およびプログラム
EP4296958A1 (en) Information processing device, information processing method, and program
JP2008067915A (ja) 医用画像表示装置
US9035945B1 (en) Spatial derivative-based ray tracing for volume rendering
JP2006178661A (ja) 情報処理方法および装置
US9082217B1 (en) Avoidance-based ray tracing for volume rendering
JP4217661B2 (ja) 画像処理方法、画像処理装置
JP2006343953A (ja) 画像処理方法、画像処理装置
US6633291B1 (en) Method and apparatus for displaying an image
JP2009015648A (ja) 画像処理装置、画像処理方法
CN115861500B (zh) 2d模型碰撞体生成方法及装置
US20230230321A1 (en) Extended reality-based user interface add-on, system and method for reviewing 3d or 4d medical image data
KR101168020B1 (ko) 가상 선체 관찰 시스템 및 이를 이용한 가상 선체 관찰 방법
JPH11175758A (ja) 立体表示方法および装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080304