JP2007034981A - 画像処理システム、画像処理装置 - Google Patents
画像処理システム、画像処理装置 Download PDFInfo
- Publication number
- JP2007034981A JP2007034981A JP2005221459A JP2005221459A JP2007034981A JP 2007034981 A JP2007034981 A JP 2007034981A JP 2005221459 A JP2005221459 A JP 2005221459A JP 2005221459 A JP2005221459 A JP 2005221459A JP 2007034981 A JP2007034981 A JP 2007034981A
- Authority
- JP
- Japan
- Prior art keywords
- image
- data
- cad data
- development view
- cad
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
【課題】 ユーザが手にする物体にCADデータに従った仮想物体を重畳させる場合に、この仮想物体に対する視覚と、この物体に対する触覚との間の違和感を軽減させるための技術を提供すること。
【解決手段】 CADシステム101はCADデータを作成する。展開図作成システム102はCADデータが示すオブジェクトの展開図のデータとマーカ情報とを作成する。モック作成システム103は展開図のデータを印刷装置に出力する。MRシステム104は、印刷装置が印刷した展開図を用いて組み立てられたモックアップが存在する現実空間の画像とマーカ情報とを用いて視点に対するモックアップの相対的な位置姿勢を求める。そして求めた位置姿勢に配置したオブジェクトの仮想物体を視点から見た場合に見える画像を生成し、生成した画像を現実空間の画像上に重畳させて出力する。
【選択図】 図1
【解決手段】 CADシステム101はCADデータを作成する。展開図作成システム102はCADデータが示すオブジェクトの展開図のデータとマーカ情報とを作成する。モック作成システム103は展開図のデータを印刷装置に出力する。MRシステム104は、印刷装置が印刷した展開図を用いて組み立てられたモックアップが存在する現実空間の画像とマーカ情報とを用いて視点に対するモックアップの相対的な位置姿勢を求める。そして求めた位置姿勢に配置したオブジェクトの仮想物体を視点から見た場合に見える画像を生成し、生成した画像を現実空間の画像上に重畳させて出力する。
【選択図】 図1
Description
本発明は、現実空間と仮想空間とを合成した複合現実空間をユーザに提供するための技術に関するものである。
VR(バーチャルリアリティ)システムは、コンピュータの作り出す三次元CGをユーザに提示することで、仮想の空間をあたかも現実であるかのように感じさせるシステムである。また、近年、現実世界の映像に三次元CGを合成することで、現実世界にはない情報をユーザに提示する技術の開発もなされている。それらは、AR(Augumented Reality, 拡張現実感)システムやMR(Mixed Reality, 複合現実感)システムと呼ばれている。
MRシステムでは、現実の物体に三次元CGを重畳することが可能であり、例えば、特許文献1に開示されているゲームでは、ユーザの持つ対話操作入力装置に剣や武器などの三次元CGを重畳表示する。これにより、ユーザが自由に仮想の物体(この場合は剣や武器)を操ることを可能にしている。
このようなMRシステムでは、現実の物体と仮想の物体との位置合わせが必要である。現実の物体と仮想の物体の位置が合っていなければ、例えば、現実のテーブルの上に置いた仮想の花瓶が空中に浮いてしまったり、テーブルにめりこんでしまったりすることになる。位置合わせの方法にはさまざまなものがあり、例えば、現実の物体に位置合わせのためのマーカを貼り、そのマーカをカメラで捉えることによって現実世界の位置を算出し、それに合わせて仮想の物体を配置するなどといった方法が行われている。
一方、CAD(Computer Aided Design)システムは、コンピュータを用いて建築物や工業製品の設計を行うシステムであり、幅広い分野で利用されている。中でも三次元CADシステムでは設計を三次元で行うことが可能であり、設計したデータは三次元CGとして画面上で確認することができるようになっている。
CADシステムで設計したCADデータをMRシステムに渡すことで、現実世界の映像に重ねてCADデータを見ることができる。また、ユーザの持つ三次元マウスなどの対話操作入力装置に連動してCADデータを動かすことで、ユーザが自由にCADデータを動かしながら観察することができる。
たとえば、ユーザが手に持った対話操作入力装置にカメラのCADデータを重ねることで、ユーザはあたかも実際にカメラを持っているかのようにしてカメラのCADデータを観察することができる。
特開2000−353248号公報
このように対話操作入力装置にCADデータを重ねた場合、ユーザに提示される映像はCADデータとなるが、ユーザが持っているのは対話操作入力装置にすぎない。よって、両者の形状は異なるため、ユーザは触覚と視覚の間に違和感を感じることになる。
この違和感をなくすためには、CADデータと全く同じ形状の物体を用意し、対話操作入力装置に被せればよい。しかし、これを実行するためには光造形装置などの特殊な装置が必要であり、また、その製作には時間もコストもかかってしまう。
本発明は上記問題に鑑みて成されたものであり、ユーザが手にする物体にCADデータに従った仮想物体を重畳させる場合に、この仮想物体に対する視覚と、この物体に対する触覚との間の違和感を軽減させるための技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の画像処理システムは以下の構成を備える。
即ち、CADデータを取得する手段と、
CADデータが示すオブジェクトの展開図を示すデータを作成すると共に、当該展開図における各面に係るデータを作成する手段と、
前記展開図を示すデータを印刷装置に出力する手段と、
前記印刷装置が前記展開図を示すデータに従って記録媒体上に印刷した展開図を用いて組み立てられたモックアップが存在する現実空間の画像を取得する手段と、
前記取得した画像と前記各面に係るデータとを用いて所定の視点に対する前記モックアップの相対的な位置姿勢を求める手段と、
前記求めた位置姿勢でもって前記オブジェクトの仮想物体を配置し、配置した当該仮想物体を前記所定の視点から見た場合に見える画像を生成する手段と、
前記生成した画像を現実空間の画像上に重畳させて出力する手段と
を備えることを特徴とする。
CADデータが示すオブジェクトの展開図を示すデータを作成すると共に、当該展開図における各面に係るデータを作成する手段と、
前記展開図を示すデータを印刷装置に出力する手段と、
前記印刷装置が前記展開図を示すデータに従って記録媒体上に印刷した展開図を用いて組み立てられたモックアップが存在する現実空間の画像を取得する手段と、
前記取得した画像と前記各面に係るデータとを用いて所定の視点に対する前記モックアップの相対的な位置姿勢を求める手段と、
前記求めた位置姿勢でもって前記オブジェクトの仮想物体を配置し、配置した当該仮想物体を前記所定の視点から見た場合に見える画像を生成する手段と、
前記生成した画像を現実空間の画像上に重畳させて出力する手段と
を備えることを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。
即ち、CADデータを取得する手段と、
前記CADデータが示すオブジェクトの展開図における各面に係るデータを取得する手段と、
前記展開図を示すデータを印刷装置に出力することで当該印刷装置が記録媒体上に印刷した展開図を用いて組み立てられたモックアップが存在する現実空間の画像を取得する手段と、
前記取得した画像と前記各面に係るデータとを用いて所定の視点に対する前記モックアップの相対的な位置姿勢を求める手段と、
前記求めた位置姿勢でもって前記オブジェクトの仮想物体を配置し、配置した当該仮想物体を前記所定の視点から見た場合に見える画像を生成する手段と、
前記生成した画像を現実空間の画像上に重畳させて出力する手段と
を備えることを特徴とする。
前記CADデータが示すオブジェクトの展開図における各面に係るデータを取得する手段と、
前記展開図を示すデータを印刷装置に出力することで当該印刷装置が記録媒体上に印刷した展開図を用いて組み立てられたモックアップが存在する現実空間の画像を取得する手段と、
前記取得した画像と前記各面に係るデータとを用いて所定の視点に対する前記モックアップの相対的な位置姿勢を求める手段と、
前記求めた位置姿勢でもって前記オブジェクトの仮想物体を配置し、配置した当該仮想物体を前記所定の視点から見た場合に見える画像を生成する手段と、
前記生成した画像を現実空間の画像上に重畳させて出力する手段と
を備えることを特徴とする。
本発明の目的を達成するために、例えば、本発明の画像処理装置の制御方法は以下の構成を備える。
即ち、CADデータを取得する工程と、
前記CADデータが示すオブジェクトの展開図における各面に係るデータを取得する工程と、
前記展開図を示すデータを印刷装置に出力することで当該印刷装置が記録媒体上に印刷した展開図を用いて組み立てられたモックアップが存在する現実空間の画像を取得する工程と、
前記取得した画像と前記各面に係るデータとを用いて所定の視点に対する前記モックアップの相対的な位置姿勢を求める工程と、
前記求めた位置姿勢でもって前記オブジェクトの仮想物体を配置し、配置した当該仮想物体を前記所定の視点から見た場合に見える画像を生成する工程と、
前記生成した画像を現実空間の画像上に重畳させて出力する工程と
を備えることを特徴とする。
前記CADデータが示すオブジェクトの展開図における各面に係るデータを取得する工程と、
前記展開図を示すデータを印刷装置に出力することで当該印刷装置が記録媒体上に印刷した展開図を用いて組み立てられたモックアップが存在する現実空間の画像を取得する工程と、
前記取得した画像と前記各面に係るデータとを用いて所定の視点に対する前記モックアップの相対的な位置姿勢を求める工程と、
前記求めた位置姿勢でもって前記オブジェクトの仮想物体を配置し、配置した当該仮想物体を前記所定の視点から見た場合に見える画像を生成する工程と、
前記生成した画像を現実空間の画像上に重畳させて出力する工程と
を備えることを特徴とする。
本発明の構成により、ユーザが手にする物体にCADデータに従った仮想物体を重畳させる場合に、この仮想物体に対する視覚と、この物体に対する触覚との間の違和感を軽減させることができる。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
図1は、本実施形態に係るシステムの構成を示すブロック図である。同図に示す如く、本実施形態に係るシステムは、4つのサブシステムで構成されている。以下では、同図のシステムを用いて、カメラのCADデータを作成し、作成したCADデータを用いて生成したカメラの仮想物体をユーザに提供する場合について説明する。しかし、提供する仮想物体の種類にはカメラ以外に様々なものが考えられ、特定のものに限定しない。
図1は、本実施形態に係るシステムの構成を示すブロック図である。同図に示す如く、本実施形態に係るシステムは、4つのサブシステムで構成されている。以下では、同図のシステムを用いて、カメラのCADデータを作成し、作成したCADデータを用いて生成したカメラの仮想物体をユーザに提供する場合について説明する。しかし、提供する仮想物体の種類にはカメラ以外に様々なものが考えられ、特定のものに限定しない。
以下、同図を用いて、本実施形態に係るシステムを構成する各サブシステムについて説明する。
先ず、CADシステム101について説明する。CADシステム101は、PC(パーソナルコンピュータ)やWS(ワークステーション)等のコンピュータにより構成されており、このコンピュータには、一般のCADアプリケーションソフトがインストールされている。従って、周知の通り、オペレータがこのCADシステム101を用いることで、建築物や工業製品などの設計を行うことができ、設計した対象のデータ(CADデータ)は、コンピュータが有するハードディスクドライブ装置などの記憶装置に保存される。本実施形態では、このCADシステム101を用いて、カメラのCADデータを作成するものとする。
作成したCADデータはCG用CADデータとしてMRシステム104に入力する。また、作成したCADデータは展開図用CADデータとして展開図作成システム102にも入力する。なお、それぞれのシステムへのデータの入力形態については特に限定するものではなく、CD−ROMなどの記憶媒体を介して入力するようにしても良いし、ネットワークを介してそれぞれのシステム間でデータの送受信を行うようにしても良い。このように、サブシステム間におけるデータの授受の方式については特に限定するものではない。
次に、展開図作成システム102について説明する。展開図作成システム102は、PC(パーソナルコンピュータ)やWS(ワークステーション)等のコンピュータにより構成されており、このコンピュータには、後述する展開図作成処理を行うためのアプリケーションソフトがインストールされている。従って、展開図作成システム102はこのアプリケーションソフトを実行し、CADシステム101が作成したCADデータを用いて、このCADデータが示すオブジェクト(カメラ)の展開図、及び後述するマーカ情報を作成する。そして作成した展開図を示すデータはモック作成システム103に入力し、作成したマーカ情報はMRシステム104に入力する。
次に、モック作成システム103について説明する。モック作成システム103は、PC(パーソナルコンピュータ)やWS(ワークステーション)等のコンピュータと、プリンタ等の印刷装置とで構成されており、このコンピュータにはこの印刷装置のドライバソフトがインストールされている。従って、このコンピュータは展開図作成システム102が作成した展開図データに従って紙などの記録媒体上に印刷を行うよう、印刷装置を制御する。これにより、記録媒体上には、カメラの展開図が印刷されることになる。
なお、モック作成システム103の構成については様々な構成が考えられ、外部から入力したデータに従って紙などの記録媒体上に印刷を行うことができる構成であれば如何なる構成であっても良い。
次に、MRシステム104について説明する。MRシステム104は周知の如く、ユーザの視点の位置姿勢に応じて見える複合現実空間をこのユーザに対して提供するものであり、その構成には様々なものが存在する。本実施形態では、MRシステム104は、PC(パーソナルコンピュータ)やWS(ワークステーション)等のコンピュータと、ユーザの頭部に装着するHMD(ヘッドマウントディスプレイ装置)とで構成されているものとして説明する。また、このHMDはビデオシースルー型のものであるとするので、このHMDには現実空間を撮像するビデオカメラが備わっているものとする。
MRシステム104を構成するコンピュータは、CADシステム101からCG用CADデータを受けると、このデータに基づいてカメラの仮想物体を生成する。そして、ユーザの視点から見える仮想物体の画像を生成し、生成した画像をHMDに送出する。なお、展開図作成システム102から受けるマーカ情報の使用については後述する。
図17は、上記各サブシステムに適用可能なコンピュータのハードウェア構成を示すブロック図である。なお、各サブシステムに適用するコンピュータは全て同じ構成を有さなくても良く、適宜変形しても良い。
図17において1701はCPUで、RAM1702やROM1703に格納されているプログラムやデータを用いて本コンピュータ全体の制御を行うと共に、本コンピュータを適用したサブシステム中のコンピュータが行う後述の各処理を実行する。
1702はRAMで、外部記憶装置1706からロードされたプログラムやデータ、I/F1707やネットワークインターフェース1708を介して外部から受信したデータを一時的に記憶するためのエリア等を適宜提供することができる。また、RAM1702は、CPU1701が各種の処理を実行する際に用いるワークエリアも提供することができる。
1703はROMで、本コンピュータの設定データやブートプログラム等を格納する。
1704は操作部で、キーボードやマウス等の入力装置により構成されており、本コンピュータの操作者が操作することで、各種の指示をCPU1701に対して入力することができる。
1705は表示部で、CRTや液晶画面などにより構成されており、CPU1701による処理結果を画像や文字などでもって表示することができる。
1706は外部記憶装置で、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置1706にはOS(オペレーティングシステム)や本コンピュータを適用するサブシステム中のコンピュータが行う後述の各処理をCPU1701に実行させるためのプログラムやデータが保存されている。保存されているプログラムやデータはCPU1701による制御に従って適宜RAM1702にロードされ、CPU1701による処理対象となる。
1707はI/Fで、外部装置とのデータ通信を行うためのものであり、例えば本コンピュータをモック作成システム103に適用する場合には、このI/F1707には、印刷装置が接続されることになる。また、本コンピュータをMRシステム104に適用する場合には、このI/F1707にはHMD(ビデオカメラを含む)が接続されることになる。
1708はネットワークインターフェースで、図1に示したサブシステム間をLANやインターネット等のネットワークでもって接続する場合には、このネットワークインターフェース1708は、このネットワークに接続する。
1709は上述の各部を繋ぐバスである。
次に、図1に示した各サブシステムが行う処理について、図2に示すフローチャートを用いて説明する。図2は、本実施形態に係るシステムを構成する各サブシステムが行う処理のフローチャートである。なお、各サブシステムに対応するフローチャートに従った処理は、各サブシステムを構成するコンピュータのCPU1701が行うものである。即ち、ステップS201は、CADシステム101のコンピュータのCPU1701が行う処理であり、ステップS211からステップS215は、展開図作成システム102のコンピュータのCPU1701が行う処理である。また、ステップS221、S222は、モック作成システム103のコンピュータのCPU1701が行う処理であり、ステップS231からステップS233は、MRシステム104のコンピュータのCPU1701が行う処理である。
CADシステム101のコンピュータのCPU1701は、CADのアプリケーションソフトを実行し、表示部1705に設計対象のカメラの画像を表示する。図3は、表示部1705におけるカメラの表示例を示す図である。同図において301は設計対象のカメラの画像を示す。そしてCADシステム101のユーザは、CADシステム101を用いてカメラの設計を行う。これにより、カメラのCADデータがCADシステム101内で作成されることになる。そこで、このCADシステム101のユーザはこの作成したCADデータを展開図作成システム102、及びMRシステム104に送出すべく、CADシステム101を操作する。CADシステム101はこの操作を受けると、作成されたCADデータを展開図作成システム102、及びMRシステム104に送出する(ステップS201)。
ここで、一般に、CADデータには設計した製品等の形状、色、材質、階層構造、変更履歴などといった情報が含まれているが、それらの情報の全ては必ずしも展開図作成システム102やMRシステム104にとって必要な情報ではない。そのため、ステップS201では、CADデータの中からカメラの形状情報や階層構造等、展開図作成システム102が必要とする情報のみを取り出して展開図作成システム102に送出する。また、ステップS201では、カメラの形状情報や色情報等、MRシステム104が必要とする情報のみを取り出してMRシステム104に送出する。
一方、展開図作成システム102は、CADシステム101からCADデータを受けると、これをRAM1702に取得する(ステップS211)。そして、取得したCADデータを用いて後述のプリミティブ分割処理を行う(ステップS212)。
ここで、プリミティブ分割処理について説明する。プリミティブとは、展開図作成システム102側で予め定められている多面体形状のことで、例えば、直方体や四角錐、三角錐のことである。CADデータのプリミティブへの分割はどのような方法でなされてもよいが、例えば次のような方法がある。
図14は、ステップS212におけるプリミティブ分割処理の一例としての処理のフローチャートである。
先ず、展開図作成システム102にCADデータが入力されると、このデータ中の階層構造データを参照し、CADデータ中のどの部分にプリミティブを割り当てるかを決定する(ステップS1401)。例えば、CADデータが図12に示す如く構成を有しているとする。図12は、CADデータの構成例を示す図である。
この場合、まずは、階層構造で最も上に存在する『カメラ全体』にプリミティブを割り当てるよう決定する。プリミティブを割り当てる部分の決定が終了すると、処理をステップS1402に進める。
ステップS1402では、ステップS1401で決定された部分に対してプリミティブの割り当てを行う(ステップS1402)。ここでは、割り当て部分に対して形・大きさが近くなるようなプリミティブの形状・大きさが決定される。例えば『カメラ全体』に対して直方体のプリミティブを割り当てると、この直方体は、図13中の1301に示す如く、カメラ全体を包含するような直方体となる。プリミティブの割り当てが終了すると、処理をステップS1403に進める。
ステップS1403では、ステップS1402で割り当てられたプリミティブが他のプリミティブと干渉するかどうかをチェックする(ステップS1403)。ここで、プリミティブ同士が重なる部分があれば処理をステップS1404に進め、重なる部分がなければ処理をステップS1405に進める。
ステップS1404では、重なり合うプリミティブ同士の大きさ・形を調整し、重なる部分がなくなるようにする(ステップS1404)。例えば、重なっている一方(若しくは両方)のプリミティブのサイズを、重なる部分が無くなるまで縮小する。プリミティブ調整が終了すると処理をステップS1405に進める。
ステップS1405では、CADデータ中の全ての階層に対してプリミティブの割り当てが完了したかどうかをチェックする(ステップS1405)。割り当てが完了していれば処理をステップS1406に進め、完了していなければ処理をステップS1401に戻す。例えば、『カメラ全体』に対してプリミティブの割り当てが完了している場合、全ての階層における部分を包含するプリミティブを割り当てたのであるから処理をステップS1406に進める。
ステップS1406では、予め定められた判定基準を元に、ステップS1402で割り当てたプリミティブをより細かいプリミティブに分割するかどうかの判定を行う(ステップS1406)。より細かくすると判定した場合には処理をステップS1401に戻す。一方、より細かく分割しないと判定した場合には同図に示したフローチャートに従った処理を終了し、図2のステップS213にリターンする。
ステップS1406における判定処理で用いる上記判定基準については様々なものが考えられるが、例えば以下のような基準を用いることができる。
割り当てた全てのプリミティブの体積×0.8<CADデータが示すオブジェクト(本実施形態ではカメラ)の体積<割り当てた全てのプリミティブの体積×1.2
この関係を満たしていれば、CADデータが示すオブジェクトの形状と、割り当てたプリミティブで構成しているオブジェクトの形状とが近似していると見なす。一方、この関係を満たしていない場合には、CADデータが示すオブジェクトの形状と、割り当てたプリミティブで構成しているオブジェクトの形状とでは大きな違いがあると見なす。
この関係を満たしていれば、CADデータが示すオブジェクトの形状と、割り当てたプリミティブで構成しているオブジェクトの形状とが近似していると見なす。一方、この関係を満たしていない場合には、CADデータが示すオブジェクトの形状と、割り当てたプリミティブで構成しているオブジェクトの形状とでは大きな違いがあると見なす。
ここで図13を用いて、このステップS1406における処理を説明する。図13は、カメラのCADデータを用いたプリミティブ分割処理を説明する図である。
上述の通り、ステップS1402で最上位の階層『カメラ全体』に対してプリミティブを割り当てたとすると、1301に示す如く、カメラ全体を包含する1つの直方体が割り当てられることになる。しかし、同図に示すように、1つの直方体で構成するオブジェクト1301と、CADデータが示すカメラとでは、その形状に大きな差がある。
そこで、このような場合には、処理をステップS1401に戻し、次の階層、即ち、『本体』と『レンズ』の階層を指定する。即ち、次のステップS1402では、カメラに対してプリミティブを割り当てる場合には、同図1302に示す如く、本体とレンズとに分けて割り当てることにする。そしてこの場合、本体に対して割り当てたプリミティブと、レンズに対して割り当てたプリミティブとで構成されるオブジェクト(1302で示すオブジェクト)と、CADデータが示すカメラとでは、その形状の差はより小さくなる。このようにして、それぞれの形状の差が所定量以下になれば、その時点で図14に示したプリミティブ分割処理を終了する。
図2に戻って、次に、展開図作成システム102は、ステップS212で作成した全てのプリミティブについて、プリミティブを平面に展開した図、即ち展開図のデータを作成する(ステップS213,S214)。より詳しくは、ステップS213では、プリミティブを平面展開したときにプリミティブの各面の配置を示すデータを作成する。そしてステップS214では、プリミティブの各面に描画すべき画像のデータを作成する。
ステップS214で作成する画像のデータは、以下の2つの条件を満たしている必要がある。
条件1 ・・・ 各面を見ることによって、その面がどのプリミティブのどの面であるのかが一意に識別することができる
条件2 ・・・ 面の上下左右が一意に判別できる
条件1を満たす画像(画像1)としては、例えば、プリミティブの各面の法線方向から、そのプリミティブに対応する部分のCADデータを正射投影した画像が考えられる。また、条件2を満たす画像(画像2)としては、予め定められたルールに従って、各面に固有のマーカ図形を描いた画像が考えられる。
条件2 ・・・ 面の上下左右が一意に判別できる
条件1を満たす画像(画像1)としては、例えば、プリミティブの各面の法線方向から、そのプリミティブに対応する部分のCADデータを正射投影した画像が考えられる。また、条件2を満たす画像(画像2)としては、予め定められたルールに従って、各面に固有のマーカ図形を描いた画像が考えられる。
従って、ステップS213では、プリミティブを平面展開したときにプリミティブの各面の配置図を作成し、ステップS214では、ステップS213で作成した配置図における各面に画像(画像1若しくは画像2)を描画する。ここで、カメラの本体とレンズのそれぞれのプリミティブの配置図に対して画像1を描画したものをそれぞれ、図4、図5の401,501に示す。401は、カメラ本体に対するプリミティブの各面に、各面方向から見たカメラ本体のCADデータの正射影画像が描画された展開図である。501は、レンズに対するプリミティブの各面に、各面方向から見たレンズのCADデータの正射影画像が描画された展開図である。
また、カメラの本体のプリミティブの配置図に対して画像2を描画したものを図6の601に示す。601は、カメラ本体に対するプリミティブの各面に、面の上下関係を識別したり、どの面であるのかを識別したりするためのマーカが描画された展開図である。
そして図2に戻り、次に、ステップS215では、展開図のデータをモック作成システム103に対して送出すると共に、マーカ情報を作成し、作成したマーカ情報をMRシステム104に対して送出する(ステップS215)。ここで、マーカ情報についてはどのような形式で送出しても良いが、例えば、pngファイルなどの画像ファイルとしてモック作成システム103に送出する。
また、マーカ情報とは、プリミティブの各面がどのような画像になっているか、また各面がCADデータの座標系(例えば、CADデータが示すオブジェクトに対する基準座標系)に対してどのような位置姿勢にあるかを記述したものである。
図15は、マーカ情報の構成例を示す図である。同図に示す如く、マーカ情報はプリミティブ毎に分けられ、更に面毎に分けられる。各面に対する情報には、面の種類、面を構成する各頂点の座標値、面の中心の位置姿勢、面に描画する画像の格納場所等が含まれる。なお、マーカ情報の構成については特に限定するものではなく、以下説明する処理でマーカ情報を用いる際に、必要な情報が含まれていればよい。
図2に戻って、一方、モック作成システム103は、展開図作成システム102から展開図のデータを受けると、これをRAM1702に取得する(ステップS221)。そして、取得したデータに基づく展開図を紙などの記録媒体上に印刷するために、取得したデータを印刷装置に送出する(ステップS222)。
これにより、例えば、図4,5,6に示したような展開図が紙などの記録媒体上に印刷される。
そしてユーザは、紙などの記録媒体上に印刷された展開図を用いて、カメラのモックアップを作成するのであるが、その手順は以下のようにして行う。
1 ユーザが印刷された展開図を切り取り、組み立てる
2 組立てられた全てのプリミティブをつなぎ合わせる
また、カメラのモックアップを作成するためには以下の方法も考えられる。
2 組立てられた全てのプリミティブをつなぎ合わせる
また、カメラのモックアップを作成するためには以下の方法も考えられる。
1 発泡スチロールやケミカルウッドを各プリミティブの大きさで切り出す
2 切り出したプリミティブの表面に、印刷された展開図の各面を切り取り貼り付ける
3 作成したプリミティブをつなぎ合わせる
以上説明したCADシステム101、展開図作成システム102、モック作成システム103による処理を行えば、CADデータが示すカメラの展開図を紙などの記録媒体上に印刷することができる。これにより、ユーザはこの展開図を用いてカメラのモックアップを作成することができる。
2 切り出したプリミティブの表面に、印刷された展開図の各面を切り取り貼り付ける
3 作成したプリミティブをつなぎ合わせる
以上説明したCADシステム101、展開図作成システム102、モック作成システム103による処理を行えば、CADデータが示すカメラの展開図を紙などの記録媒体上に印刷することができる。これにより、ユーザはこの展開図を用いてカメラのモックアップを作成することができる。
図2に戻って、一方、MRシステム104は、CADシステム101からCADデータを受けると、これをRAM1702に取得する(ステップS231)。また、モック作成システム103からマーカ情報を受けると、これをRAM1702に取得する(ステップS232)。そして取得したCADデータ、マーカ情報を用いて、HMDを頭部に装着したユーザの視点から見える現実空間、仮想空間のそれぞれの画像を合成した複合現実空間の画像(MR画像)を生成し、HMDに備わっている表示装置に送出する(ステップS233)。MR画像の出力先については特に限定するものではない。
図16は、ステップS233における処理の詳細を示すフローチャートである。
HMDに備わっているビデオカメラは現実空間の動画像を撮像しており、撮像した各フレームの画像は順次RAM1702や外部記憶装置1706に取得される(ステップS1601)。図9はステップS1601で取得した現実空間の画像の一例を示す図である。同図において701はカメラのモックアップ、901はこのモックアップ701を持つユーザの手である。
図16に戻って、次に、ステップS1601で取得した画像に対して画像処理を行い、この画像中にモックアップが写っているか否か、写っているのであればどの面が画像上のどの位置にあるかを認識する処理を行う(ステップS1602)。
次に、HMDを頭部に装着しているユーザの視点(上記ビデオカメラに相当)に対するカメラのモックアップの相対的な位置姿勢を求める処理を行う(ステップS1603)。ステップS1603では、モックアップに対して相対的にどの位置・姿勢にビデオカメラが存在するかを算出する。一般に、同一平面上にあって世界座標が既知の点が4点以上画像上で捉えられれば、その画像を撮影した内部パラメータが既知のカメラの、世界座標における位置姿勢が求められることが知られている。従って、ある面の頂点や面上における画像の特徴点が4点以上ステップS1602で捉えられていれば、モックアップに対するビデオカメラの相対的な位置姿勢を求めることができる。
なお、上記ステップS1602,S1603における処理は周知の処理であるので、これ以上の説明は省略する。
次に、視点を基準にして、ここからステップS1603で求めた位置姿勢分だけ移動させた位置姿勢に、カメラの仮想物体を配置し、配置した仮想物体を視点から見た場合に見える画像(仮想空間の画像)を生成する(ステップS1604)。即ち、モックアップの位置姿勢に仮想物体を配置する。例えば、モックアップが図7に示す如く、配置されている場合には、仮想物体を図8に示す如く配置する。
図16に戻って、次に、ステップS1601で取得した画像中で肌色の領域(予め「肌色」として設定された画素値の範囲内の画素値を有する画素群)、即ち手が写っている領域を抽出する(ステップS1605)。
そして、次に、ステップS1601で取得した画像上に、ステップS1604で生成した仮想空間の画像を重畳させ、MR画像を生成する(ステップS1606)。しかし、単純に合成してしまうと、図10に示す如く、ユーザの手901の上にカメラの仮想物体801が合成されてしまい、手と仮想物体との前後関係がおかしくなってしまう。そのため、合成の際に、ステップS1605で抽出された領域に対しては仮想物体を描画しないようにする。このような処理を行うことで図11に示す如く、ユーザの指1101の領域には仮想物体が描画されなくなるため、手と仮想物体との前後関係を正しく表現することができる。
なお、この際、モックアップに肌色の領域が存在すると、手として判断されてしまい、不自然な映像が合成されてしまうため、モックアップには肌色を含まないように構成される必要がある。
このように、現実空間の画像上に仮想空間の画像を重畳させる際に、現実空間の画像上で特定の領域のみを重畳処理の対象外とするための技術については周知のものであるので、これに関する説明は省略する。
図16に戻って、次に、ステップS1606で生成したMR画像をHMDに備わっている表示装置に対して出力する(ステップS1607)。
そして、処理の終了指示を検知したり、処理の終了条件が満たされたことを検知した場合には、本処理を終了するが、何れも検知していない場合には、以上の処理を繰り返す。
なお、以上説明した実施形態は、CADデータに従った仮想物体を観察するシステムについてのものであるが、システムの適用対象については特に限定するものではなく、例えば、ゲームや訓練用などのシミュレータにも用いることも可能である。
[第2の実施形態]
第1の実施形態に係るシステムの構成は図1に示す如く、4つのサブシステムで構成していた。しかしシステムの構成は特に限定するものではなく、例えば、2つ以上のサブシステムを1つのサブシステムで代用するようにしても良い。
第1の実施形態に係るシステムの構成は図1に示す如く、4つのサブシステムで構成していた。しかしシステムの構成は特に限定するものではなく、例えば、2つ以上のサブシステムを1つのサブシステムで代用するようにしても良い。
[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
Claims (7)
- CADデータを取得する手段と、
CADデータが示すオブジェクトの展開図を示すデータを作成すると共に、当該展開図における各面に係るデータを作成する手段と、
前記展開図を示すデータを印刷装置に出力する手段と、
前記印刷装置が前記展開図を示すデータに従って記録媒体上に印刷した展開図を用いて組み立てられたモックアップが存在する現実空間の画像を取得する手段と、
前記取得した画像と前記各面に係るデータとを用いて所定の視点に対する前記モックアップの相対的な位置姿勢を求める手段と、
前記求めた位置姿勢でもって前記オブジェクトの仮想物体を配置し、配置した当該仮想物体を前記所定の視点から見た場合に見える画像を生成する手段と、
前記生成した画像を現実空間の画像上に重畳させて出力する手段と
を備えることを特徴とする画像処理システム。 - 前記各面に係るデータは、各面に描画する画像データ、及び、各面の位置姿勢データを含むことを特徴とする請求項1に記載の画像処理システム。
- 前記各面に描画する画像データは、前記各面の法線方向から、前記オブジェクトに対応する部分のCADデータを正射投影した画像データであることを特徴とする請求項2に記載の画像処理システム。
- CADデータを取得する手段と、
前記CADデータが示すオブジェクトの展開図における各面に係るデータを取得する手段と、
前記展開図を示すデータを印刷装置に出力することで当該印刷装置が記録媒体上に印刷した展開図を用いて組み立てられたモックアップが存在する現実空間の画像を取得する手段と、
前記取得した画像と前記各面に係るデータとを用いて所定の視点に対する前記モックアップの相対的な位置姿勢を求める手段と、
前記求めた位置姿勢でもって前記オブジェクトの仮想物体を配置し、配置した当該仮想物体を前記所定の視点から見た場合に見える画像を生成する手段と、
前記生成した画像を現実空間の画像上に重畳させて出力する手段と
を備えることを特徴とする画像処理装置。 - CADデータを取得する工程と、
前記CADデータが示すオブジェクトの展開図における各面に係るデータを取得する工程と、
前記展開図を示すデータを印刷装置に出力することで当該印刷装置が記録媒体上に印刷した展開図を用いて組み立てられたモックアップが存在する現実空間の画像を取得する工程と、
前記取得した画像と前記各面に係るデータとを用いて所定の視点に対する前記モックアップの相対的な位置姿勢を求める工程と、
前記求めた位置姿勢でもって前記オブジェクトの仮想物体を配置し、配置した当該仮想物体を前記所定の視点から見た場合に見える画像を生成する工程と、
前記生成した画像を現実空間の画像上に重畳させて出力する工程と
を備えることを特徴とする画像処理装置の制御方法。 - コンピュータに請求項5に記載の制御方法を実行させることを特徴とするプログラム。
- 請求項6に記載のプログラムを格納したことを特徴とする、コンピュータ読み取り可能な記憶媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005221459A JP2007034981A (ja) | 2005-07-29 | 2005-07-29 | 画像処理システム、画像処理装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005221459A JP2007034981A (ja) | 2005-07-29 | 2005-07-29 | 画像処理システム、画像処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007034981A true JP2007034981A (ja) | 2007-02-08 |
Family
ID=37794119
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005221459A Withdrawn JP2007034981A (ja) | 2005-07-29 | 2005-07-29 | 画像処理システム、画像処理装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007034981A (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012048456A (ja) * | 2010-08-26 | 2012-03-08 | Canon Inc | 情報処理装置およびその方法 |
KR101125981B1 (ko) | 2009-09-07 | 2012-03-19 | 삼성에스디에스 주식회사 | 증강현실을 이용한 전자기기 목업의 기능 시현 시스템 및 방법 |
US8441480B2 (en) | 2008-11-14 | 2013-05-14 | Fuji Xerox Co., Ltd. | Information processing apparatus, information processing system, and computer readable medium |
JP2014515961A (ja) * | 2011-05-23 | 2014-07-07 | レゴ エー/エス | 拡張現実向けの玩具構築システム |
JP2014515962A (ja) * | 2011-05-23 | 2014-07-07 | レゴ エー/エス | 構造要素モデルの組立指示の生成 |
JP2015056179A (ja) * | 2013-09-13 | 2015-03-23 | 現代自動車株式会社 | 注文型インターフェースシステムおよびその操作方法 |
JP2019095889A (ja) * | 2017-11-20 | 2019-06-20 | 東京電力ホールディングス株式会社 | 拡張現実表示用マーカ |
CN113760088A (zh) * | 2020-06-04 | 2021-12-07 | 史克威尔·艾尼克斯有限公司 | 增强现实显示装置以及记录介质 |
-
2005
- 2005-07-29 JP JP2005221459A patent/JP2007034981A/ja not_active Withdrawn
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8441480B2 (en) | 2008-11-14 | 2013-05-14 | Fuji Xerox Co., Ltd. | Information processing apparatus, information processing system, and computer readable medium |
KR101125981B1 (ko) | 2009-09-07 | 2012-03-19 | 삼성에스디에스 주식회사 | 증강현실을 이용한 전자기기 목업의 기능 시현 시스템 및 방법 |
US9418483B2 (en) | 2010-08-26 | 2016-08-16 | Canon Kabushiki Kaisha | Information processing device and method of processing information |
JP2012048456A (ja) * | 2010-08-26 | 2012-03-08 | Canon Inc | 情報処理装置およびその方法 |
JP2014515961A (ja) * | 2011-05-23 | 2014-07-07 | レゴ エー/エス | 拡張現実向けの玩具構築システム |
JP2014515962A (ja) * | 2011-05-23 | 2014-07-07 | レゴ エー/エス | 構造要素モデルの組立指示の生成 |
US9821242B2 (en) | 2011-05-23 | 2017-11-21 | Lego A/S | Generation of building instructions for construction element models |
US9827507B2 (en) | 2011-05-23 | 2017-11-28 | Lego A/S | Toy construction system for augmented reality |
US10549209B2 (en) | 2011-05-23 | 2020-02-04 | Lego A/S | Toy construction system for augmented reality |
US11014014B2 (en) | 2011-05-23 | 2021-05-25 | Lego A/S | Toy construction system for augmented reality |
US11911709B2 (en) | 2011-05-23 | 2024-02-27 | Lego A/S | Toy construction system for augmented reality |
JP2015056179A (ja) * | 2013-09-13 | 2015-03-23 | 現代自動車株式会社 | 注文型インターフェースシステムおよびその操作方法 |
JP2019095889A (ja) * | 2017-11-20 | 2019-06-20 | 東京電力ホールディングス株式会社 | 拡張現実表示用マーカ |
CN113760088A (zh) * | 2020-06-04 | 2021-12-07 | 史克威尔·艾尼克斯有限公司 | 增强现实显示装置以及记录介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11577159B2 (en) | Realistic virtual/augmented/mixed reality viewing and interactions | |
Kim | Designing virtual reality systems | |
JP4948218B2 (ja) | 画像処理装置及びその制御方法 | |
JP4434890B2 (ja) | 画像合成方法及び装置 | |
JP2007034981A (ja) | 画像処理システム、画像処理装置 | |
US7548236B2 (en) | Image processing method, image processing apparatus, image processing program, and storage medium | |
JP2007293413A (ja) | 情報処理方法および装置 | |
JP2005227876A (ja) | 画像処理方法、画像処理装置 | |
US20190130599A1 (en) | Systems and methods for determining when to provide eye contact from an avatar to a user viewing a virtual environment | |
JP2006285609A (ja) | 画像処理方法、画像処理装置 | |
KR20130068575A (ko) | 인터랙티브 증강 공간 제공 방법 및 시스템 | |
JPH10198822A (ja) | 画像合成装置 | |
TWI694355B (zh) | 即時渲染影像的追蹤系統、追蹤方法以及非暫態電腦可讀取媒體 | |
JP7530754B2 (ja) | 教育支援システム、方法およびプログラム | |
JP3579683B2 (ja) | 立体視用印刷物の製造方法、立体視用印刷物 | |
CN108986228B (zh) | 用于虚拟现实中界面显示的方法及装置 | |
JP2010033397A (ja) | 画像合成装置および方法 | |
JP6503098B1 (ja) | 画像処理装置、画像処理プログラム及び画像処理方法 | |
JP4366165B2 (ja) | 画像表示装置及び方法並びに記憶媒体 | |
JP4098882B2 (ja) | 仮想現実感生成装置及び方法 | |
JP3640256B2 (ja) | 立体視用印刷物の製造方法、立体視用印刷物 | |
JPH11296696A (ja) | 3次元画像処理装置 | |
JPH11184453A (ja) | 表示装置及びその制御方法、コンピュータ可読メモリ | |
JP4672037B2 (ja) | 立体視用印刷物の製造方法、立体視用印刷物 | |
WO2023120217A1 (ja) | 情報処理装置、情報処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20081007 |